JP2020159765A - 物体検知システム、移動体、物体検知方法及びプログラム - Google Patents

物体検知システム、移動体、物体検知方法及びプログラム Download PDF

Info

Publication number
JP2020159765A
JP2020159765A JP2019057236A JP2019057236A JP2020159765A JP 2020159765 A JP2020159765 A JP 2020159765A JP 2019057236 A JP2019057236 A JP 2019057236A JP 2019057236 A JP2019057236 A JP 2019057236A JP 2020159765 A JP2020159765 A JP 2020159765A
Authority
JP
Japan
Prior art keywords
processing unit
detection
detection system
sensor device
moving body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019057236A
Other languages
English (en)
Inventor
央吉 加藤
Hirokichi Kato
央吉 加藤
巧麻 中川
Takuma Nakagawa
巧麻 中川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2019057236A priority Critical patent/JP2020159765A/ja
Publication of JP2020159765A publication Critical patent/JP2020159765A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Radar Systems Or Details Thereof (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】検知領域のうち物体が占める範囲を求める精度の向上を図る。【解決手段】物体検知システム2は、第1入力部21と、第2入力部22と、処理部23と、を備える。第1入力部21は、検知信号S3、S4の入力を受け付ける。第2入力部22は、撮影データの入力を受け付ける。処理部23は、検知信号S3、S4及び撮影データの両方に基づいて物体B1を検知する。処理部23は、検知信号S3、S4に基づいて、物体B1の位置に関する位置情報を求める。位置情報は、センサ装置3と物体B1との間の距離の情報を含む。処理部23は、撮影データ及び位置情報の両方に基づいて特定方向における物体B1の幅に関する情報を求める。【選択図】図1

Description

本開示は一般に物体検知システム、移動体、物体検知方法及びプログラムに関し、より詳細には、物体からの反射波に基づいて物体を検知する物体検知システム、移動体、物体検知方法及びプログラムに関する。
特許文献1に記載の移動体検出システムは、送波部と、受波部と、検知部と、を備える。送波部は、所定の送波周波数の送波信号が入力されると振幅が周期的に変化する連続エネルギ波を監視空間(検知領域)に送波する。受波部は、連続エネルギ波が監視空間に存在する物体に反射して生じる反射波を受波して受波信号を発生する。検知部は、受波信号の周波数と送波周波数に対応する基準周波数との周波数差に応じたドップラー成分に基づいて監視空間における移動体(物体)の存否を検知する。
特開2018−155692号公報
本開示は、検知領域のうち物体が占める範囲を求める精度の向上を図ることができる物体検知システム、移動体、物体検知方法及びプログラムを提供することを目的とする。
本開示の一態様に係る物体検知システムは、第1入力部と、第2入力部と、処理部と、を備える。前記第1入力部は、検知信号の入力を受け付ける。前記検知信号は、反射波をセンサ装置が受波することで生成される受波信号に基づく。前記反射波は、検知領域に送波された検知波が前記検知領域内の物体で反射されて生じる。前記第2入力部は、撮影データの入力を受け付ける。前記撮影データは、カメラが前記検知領域を撮影することで生成される。前記処理部は、前記検知信号及び前記撮影データの両方に基づいて前記物体を検知する。前記処理部は、前記検知信号に基づいて、前記物体の位置に関する位置情報を求める。前記位置情報は、前記センサ装置と前記物体との間の距離の情報を含む。前記処理部は、前記撮影データ及び前記位置情報の両方に基づいて特定方向における前記物体の幅に関する情報を求める。
本開示の一態様に係る移動体は、前記物体検知システムと、前記物体検知システムが搭載された移動体本体と、を備える。
本開示の一態様に係る物体検知方法は、第1入力ステップと、第2入力ステップと、処理ステップと、を備える。前記第1入力ステップは、検知信号の入力を受け付ける。前記検知信号は、反射波をセンサ装置が受波することで生成される受波信号に基づく。前記反射波は、検知領域に送波された検知波が前記検知領域内の物体で反射されて生じる。前記第2入力ステップは、撮影データの入力を受け付ける。前記撮影データは、カメラが前記検知領域を撮影することで生成される。前記処理ステップは、前記検知信号及び前記撮影データの両方に基づいて前記物体を検知する。前記処理ステップは、前記検知信号に基づいて、前記物体の位置に関する位置情報を求める。前記位置情報は、前記センサ装置と前記物体との間の距離の情報を含む。前記処理ステップは、前記撮影データ及び前記位置情報の両方に基づいて特定方向における前記物体の幅に関する情報を求める。
本開示の一態様に係るプログラムは、前記物体検知方法を、1以上のプロセッサに実行させるためのプログラムである。
本開示は、検知領域のうち物体が占める範囲を求める精度の向上を図ることができるという利点がある。
図1は、一実施形態に係る物体検知システムを備える移動体のブロック図である。 図2は、同上の物体検知システムを備える移動体と検知対象である人との位置関係を示す説明図である。 図3は、同上の物体検知システムで処理される画像のイメージ図である。 図4は、同上の物体検知システムの処理を示すフローチャートである。 図5は、同上の物体検知システムにより処理される検知信号の波高値と、基準値との関係を示すグラフである。 図6は、一実施形態の変形例1に係る物体検知システムで処理される画像のイメージ図である。 図7は、一実施形態の変形例2に係る物体検知システムで処理される画像のイメージ図である。 図8は、図7の画像に写っている領域を上から見たイメージ図である。
以下、実施形態に係る物体検知システム及び移動体について、図面を用いて説明する。ただし、下記の実施形態は、本開示の様々な実施形態の1つに過ぎない。下記の実施形態は、本開示の目的を達成できれば、設計等に応じて種々の変更が可能である。
図1、図2に示すように、本実施形態の移動体1は、物体検知システム2と、移動体本体11と、を備えている。移動体1は、センサ装置3と、カメラ4と、信号処理回路5と、発振回路61と、移相回路62と、を更に備えている。移動体1は、例えば、自動車等の車両、船、航空機、フォークリフト、又は、移動ロボット等である。本実施形態では、移動体1が自動車であるとして説明する。
センサ装置3は、例えば、超音波センサである。センサ装置3は、例えば、自動車(移動体1)のバンパに取り付けられている。物体検知システム2は、センサ装置3の出力を用いて物体B1を検知するシステムである。物体B1は、例えば、壁、フェンス、ポール、電柱、人、又は、移動体1以外の自動車等である。本実施形態では、物体B1は人とする。センサ装置3は、送波部31と、受波部32とを有している。
送波部31は、所定周波数を有する発振信号S1が入力されると、上記所定周波数を有する検知波W1を検知領域110に送波する。本実施形態において、検知波W1は、超音波である。ただし、送波部31は、超音波の代わりに電波を送波してもよい。送波部31は、発振信号S1を増幅する増幅器を備えていてもよい。
受波部32は、反射波W2を受波して受波信号S2を生成する。すなわち、受波部32は、受波した超音波(反射波W2)を、電気信号である受波信号S2に変換する。反射波W2は、検知波W1が検知領域110に存在する物体B1で反射されて生じる。図2では、検知領域110を1点鎖線で囲んで図示しているが、この1点鎖線は説明のために図示したものであって、実体を伴わない。検知領域110は、例えば、移動体本体11の外部であって、移動体1の進行方向(前方又は後方)の領域である。受波部32は、受波信号S2を増幅する増幅器を備えていてもよい。
発振回路61は、例えば水晶発振子を用いた発振回路である。発振回路61は、基準周波数を有する基準信号R1を移相回路62に出力する。また、発振回路61は、基準周波数に対応する所定周波数を有する発振信号S1(正弦波信号)を送波部31に出力する。ここでは「基準周波数」は、例えば数十キロヘルツ(本実施形態では40kHz)であり、送波部31から送波すべき検知波W1の周波数と同じ周波数に設定される。発振回路61は、物体検知システム2の後述の処理部23からの制御信号に応じて、発振信号S1の出力を開始、又は終了する。発振回路61は、発振信号S1を連続的に出力しており、送波部31が送波する検知波W1は連続波となる。
移相回路62には、発振回路61から出力される発振信号S1が、基準信号R1として入力される。移相回路62は、基準信号R1の位相をπ/2[rad]だけシフト(移相)させた移相基準信号R2を生成する。
信号処理回路5は、2つの混合器(ミキサ(Mixer))51、52と、2つのフィルタ53、54と、2つの増幅回路55、56と、を有している。
混合器51には、受波部32から出力される受波信号S2と発振回路61から出力される発振信号S1(基準信号R1)とが、入力される。そして、混合器51は、受波信号S2と基準信号R1とを混合(乗算)することにより、受波信号S2と基準信号R1との周波数の差成分と和成分とを有する信号を出力する。
一方で、混合器52には、受波部32から出力される受波信号S2と移相回路62から出力される移相基準信号R2とが、入力される。そして、混合器52は、受波信号S2と移相基準信号R2とを混合(乗算)することにより、受波信号S2と移相基準信号R2との周波数の差成分と和成分とを有する信号を出力する。
フィルタ53、54はそれぞれ、ローパスフィルタと、ハイパスフィルタと、を含む。フィルタ53のローパスフィルタは、基準信号R1の周波数と略等しい周波数以下の成分の信号を遮断するように構成されている。したがって、フィルタ53は、混合器51から出力される信号(受波信号S2と基準信号R1との周波数の差成分及び和成分を有する信号)から、受波信号S2と基準信号R1との周波数の差成分を有する信号を通過させる。
一方で、フィルタ54のローパスフィルタは、移相基準信号R2の周波数と略等しい周波数以下の成分の信号を遮断するように構成されている。したがって、フィルタ54は、混合器52から出力される信号(受波信号S2と移相基準信号R2との周波数の差成分及び和成分を有する信号)から、受波信号S2と移相基準信号R2との周波数の差成分を有する信号を通過させる。
また、フィルタ53、54のハイパスフィルタは、混合器51、52から出力される信号の直流成分を除去する。
増幅回路55は、フィルタ53の出力信号を所定のゲインで増幅する。増幅回路56は、フィルタ54の出力信号を所定のゲインで増幅する。
カメラ4は、撮像素子を有している。撮像素子は、例えば、CCD(Charge Coupled Devices)イメージセンサ、又はCMOS(Complementary Metal-Oxide Semiconductor)イメージセンサ等の二次元イメージセンサである。カメラ4は、検知領域110を撮影することで、撮影データP1を生成する。本実施形態では撮影データP1は、カラー画像のデータであるが、撮影データP1は、モノクローム画像のデータであってもよい。
物体検知システム2は、例えば、プロセッサ及びメモリを主構成とするマイクロコントローラにより構成されている。プロセッサがメモリに格納されているプログラムを実行することにより、物体検知システム2としての機能が実現される。物体検知システム2は、第1入力部21と、第2入力部22と、処理部23と、を備えている。
第1入力部21は、信号処理回路5と電気的に接続するための端子と、アナログ−デジタルコンバータとを含んでいる。第1入力部21は、信号処理回路5の増幅回路55、56から出力される検知信号S3、S4の入力を受け付ける。検知信号S3、S4は、受波部32で生成された受波信号S2に基づく信号(交流信号)である。すなわち、第1入力部21には、受波信号S2が混合器51、フィルタ53及び増幅回路55により変換されることで生成された電気信号が、検知信号S3として増幅回路55から入力される。検知信号S3は、基準信号R1の周波数と受波信号S2の周波数との差分に相当する周波数を有する。また、第1入力部21には、受波信号S2が混合器52、フィルタ54及び増幅回路56により変換されることで生成された電気信号が、検知信号S4として増幅回路56から入力される。検知信号S4は、移相基準信号R2の周波数と受波信号S2の周波数との差分に相当する周波数を有する。すなわち、検知信号S3、S4は、ドップラー成分を含むことがある。
第2入力部22は、カメラ4と通信するための端子を含んでいる。第2入力部22は、カメラ4で生成された撮影データP1の入力を受け付ける。
処理部23は、第1入力部21に入力された受波信号S2と、第2入力部22に入力された撮影データP1との両方に基づいて、物体B1を検知する。物体B1の検知とは、物体B1が存在するか否かの判定と、物体B1の種別の判定と、物体B1の幅に関する情報を求めることとを含む。以下、図1〜図4を参照して、処理部23が実行する処理について説明するが、以下の処理のうち一部が処理部23以外の構成により実行されてもよい。
図3は、撮影データP1に基づいて生成される画像を示すイメージ図である。ただし、移動体1では、実際に画像が生成されなくてもよい。以下では、移動体1の進行方向をX軸方向とし、水平面と平行でX軸方向と直交する一方向をY軸方向とし、重力方向と反対の方向をZ軸方向とする。図3では紙面上方向がX軸方向及びZ軸方向に対応し、紙面右方向がY軸方向に対応する。図2では、説明のためにX軸及びZ軸を図示しているが、これらは実体を伴わない。
図1では図示を省略しているが、移動体1は、センサ装置3を複数備えている。これに応じて、移動体1は、信号処理回路5を複数備えている。より詳細には、移動体1は、複数のセンサ装置3と、センサ装置3と一対一で対応する複数の信号処理回路5とを備えている。各センサ装置3の受波部32からの受波信号S2は、対応する信号処理回路5を経由して検知信号S3、S4として第1入力部21に入力される。複数のセンサ装置3は、水平方向(Y軸方向)に並ぶように移動体本体11に取り付けられている。
図4は、物体検知システム2の処理を示すフローチャートである。処理部23は、検知信号S3、S4に基づいて、物体B1の有無を判定する。具体的には、処理部23は、検知信号S3、S4の強度(例えば電圧レベル)と、基準値Th1(閾値)とを比較する(図4のステップST1)。処理部23は、検知信号S3、S4のうち少なくとも一方の強度が、基準値Th1を超えていると、検知領域110に物体B1が存在するという判定結果を導出する(ステップST1:Yes)。一方、処理部23は、検知信号S3、S4の強度がいずれも基準値Th1以下であれば、検知領域110に物体B1が存在しないという判定結果を導出する(ステップST6)。
なお、本実施形態では、複数のセンサ装置3のそれぞれから出力される受波信号S2に基づいて検知信号S3、S4がそれぞれ複数生成される。そして、処理部23は、複数の検知信号S3及び複数の検知信号S4のうち少なくとも1つが基準値Th1を超えていると、検知領域110に物体B1が存在するという判定結果を導出する。
基準値Th1は、処理部23で求められるセンサ装置3と物体B1との間の距離に応じて変化する値である。基準値Th1は、例えば、物体検知システム2を構成するマイクロコントローラのメモリに記録されている。
なお、処理部23は、2つの検知信号の周波数に基づいて、物体B1の速度を求めてもよい。また、処理部23は、検知信号S3、S4から生成されるリサージュ図形に基づいて、物体B1の形状、速度、大きさ及び方向のうち少なくとも1つを求めてもよい。
また、処理部23は、次のようにして、複数のセンサ装置3の各々について、センサ装置3と物体B1との間の距離を求める(ステップST2)。処理部23は、送波部31が検知波W1を送波してから、受波部32が反射波W2を受波するまでの間の時間を計測する。処理部23は、計測した当該時間を、センサ装置3と物体B1との間の距離に換算する。図2では、複数のセンサ装置3のうち1つのセンサ装置3と物体B1との間の距離L1を図示している。本実施形態では、処理部23は、第1入力部21に検知信号S3、S4が入力されたタイミングを、受波部32が反射波W2を受波したタイミングと見做す。
さらに、処理部23は、複数のセンサ装置3の各々について求めた、センサ装置3と物体B1との間の距離L1に基づいて、三角法により、物体B1の座標を求める(ステップST3)。ここで、物体B1の座標とは、移動体1に対する物体B1の相対座標である。処理部23が求める物体B1の座標は、物体B1のうち検知波W1が反射された位置B11の座標となる。処理部23は、例えば、複数のセンサ装置3のうち1つのセンサ装置3の位置を原点として、物体B1の座標を求める。ここで処理部23が求める物体B1の座標は、水平面内での物体B1の座標を含む。つまり、処理部23は少なくとも、物体B1のX座標及びY座標を求める。また、処理部23は、鉛直方向における各センサ装置3の位置(地面G1から各センサ装置3までの距離L2)を、物体B1のZ座標とする。距離L2は、例えば、物体検知システム2を構成するマイクロコントローラのメモリに記録されている。複数のセンサ装置3の各々のZ座標が互いに異なる場合は、処理部23は、例えば、複数のセンサ装置3の各々のZ座標の平均値を、物体B1のZ座標とすればよい。図2では、Z軸と直交し、かつZ座標が物体B1のZ座標と一致する仮想平面120を図示しているが、仮想平面120は実体を伴わない。
このように、処理部23は、検知信号S3、S4に基づいて、物体B1の座標の情報を求める。すなわち、処理部23は、検知信号S3、S4に基づいて、物体B1の位置に関する位置情報を求める。位置情報は、各センサ装置3と物体B1との間の距離L1の情報を含む。位置情報は、物体B1の座標の情報を更に含む。すなわち、位置情報は、水平面内での物体B1の座標の情報を少なくとも含む。また、処理部23は、鉛直方向における各センサ装置3の位置に基づいて、鉛直方向における物体B1の存在する範囲の少なくとも一部(Z座標)を求める。
ただし、処理部23が求めた物体B1の座標に実際に物体B1が存在するとは限らない。処理部23は、以下の処理で、処理部23が求めた物体B1の座標に実際に物体B1が存在するか否かを判定する。
以下の説明では、物体検知システム2が有無を検知する対象である物体B1を、障害物と称す。障害物は、例えば、壁、フェンス、ポール、電柱、人、又は、移動体1以外の自動車等である。また、各センサ装置3よりも下側に位置する物体B1を、下方物と称す。下方物は、物体検知システム2が有無を検知する対象ではない物体B1である。下方物の一例は、縁石又は道路(路面)である。
処理部23は、求めた物体B1の座標(位置情報)と、第2入力部22に入力された撮影データP1とに基づいて、特定方向における物体B1の幅に関する情報を求める。本実施形態では、特定方向は、水平方向である。本実施形態では、特定方向における物体B1の外縁の両端の座標を求めることが、物体B1の幅に関する情報を求めることに該当する。後述するように、処理部23は、撮影データP1に対して画像認識を行い、撮影データP1のうち物体B1の座標に対応する位置B11と、カメラ4から見て位置B11に対して水平方向に隣り合う領域とを含む領域B12のコントラストを調べる。本実施形態では、領域B12は、撮影データP1に基づく画像の横方向(水平方向)の両端に亘る領域である。コントラストは、明度の差、色相の差、及び、彩度の差のうち少なくとも1つを含む。本実施形態では、撮影データP1におけるコントラストの代表例として、明度の差に関して説明する。
本実施形態では、処理部23は、撮影データP1をソーベルフィルタ(Sobel filter)又はプレウィットフィルタ(Prewitt filter)等により加工し、加工後の撮影データP1の明度を調べる。
処理部23は、領域B12の明度を数値化する。撮影データP1において、物体B1の外縁と外縁の内側との明度の差、及び、外縁と外縁の外側との明度の差は、適宜設定された閾値よりも大きい場合がある。そこで、処理部23は、領域B12において明度の差に基づいて、物体B1の外縁を検知する。例えば、処理部23は、領域B12において物体B1の外縁を外縁の内側及び外側とは区別して抽出する。これにより、処理部23は、特定方向(水平方向)における物体B1の外縁の両端の座標(図3の位置E1、E2に対応する座標)を求める(ステップST4)。すなわち、処理部23は、撮影データP1及び物体B1の位置情報に基づいて、特定方向における物体B1の外縁の座標を求める。閾値は、例えば、物体検知システム2を構成するマイクロコントローラのメモリに記録されている。処理部23は、物体B1の外縁のうち領域B12に含まれる部分のみを検知すればよく、物体B1の外縁のうち領域B12に含まれない部分については検知しなくてよい。
なお、処理部23は、特定方向における物体B1の外縁の両端の座標と、センサ装置3と物体B1との間の距離L1とに基づいて、物体B1の幅を演算してもよい。すなわち、処理部23は、2つの位置E1、E2間の距離を演算してもよい。また、処理部23は、特定方向における物体B1の外縁の座標の候補が3つ以上存在する場合に、3つ以上の座標の候補間の距離に基づいて、3つ以上の座標の候補の中から、特定方向における物体B1の外縁の両端の座標に相当する2つの座標を決定してもよい。例えば、処理部23は、ある2つの座標の候補間の距離が所定の範囲内の場合に、この2つの座標の候補を、特定方向における物体B1の外縁の両端の座標としてもよい。
もし、各センサ装置3の位置よりも下側に存在する物体B1(下方物)からの反射波W2が受波部32で検知された場合は、領域B12には物体B1が写っていないことになる。そのため、処理部23は、領域B12において水平方向の明度の変化量が閾値以上となる箇所(物体B1の外縁)を1箇所も検知できないことがある。この場合は、処理部23は、検知領域110に障害物が存在しないという判定結果を導出する。
処理部23は、検知信号S3、S4のうち少なくとも一方の強度が、基準値Th1を超えており、かつ、特定方向(水平方向)における物体B1の外縁の両端のうち少なくとも一方の座標を求められた場合は、検知領域110に障害物が存在するという判定結果を導出する(ステップST5)。一方で、処理部23は、検知信号S3、S4のうち少なくとも一方の強度が、基準値Th1を超えており、かつ、特定方向(水平方向)における物体B1の外縁の両端のいずれの座標も求められない場合は、検知領域110に障害物が存在しないという判定結果を導出する(ステップST6)。この場合、処理部23は、検知領域110に下方物が存在するという判定結果を導出する。
このように、処理部23は、物体B1の種別を判定する。本実施形態では、物体B1が障害物であるか、下方物であるかを判定することが、物体B1の種別を判定することに該当する。よって、物体B1の種別は、鉛直方向における物体B1の存在する範囲による種別を含む。より詳細には、物体B1の種別は、物体B1の存在する範囲が鉛直方向において所定の位置よりも高い位置を含むか否かによる種別を含む。本実施形態では、各センサ装置3の位置が所定の位置に該当し、所定の位置よりも高い位置を含むように存在する物体B1が障害物であり、所定の位置以下の位置のみを含むように存在する物体B1が下方物である。
処理部23は、検知領域110に障害物が存在するという判定結果を導出すると、物体B1の位置情報に基づいてセンサ装置3と物体B1との間の距離L1を求める。すなわち、処理部23は、処理部23が求めた物体B1の座標に実際に物体B1が存在するという判定結果を導出した場合に、上述の処理で求めたセンサ装置3と物体B1との間の距離L1を、センサ装置3と物体B1との間の実際の距離として確定する。
移動体1は、予測部71と、判定部72と、ECU(Electronic Control Unit)73とを備えている。これらは、移動体本体11に搭載されている。図1では、予測部71及び判定部72を物体検知システム2の外部の構成として図示しているが、予測部71及び判定部72は物体検知システム2に含まれていてもよい。
予測部71は、移動体本体11の移動に関する制御に応じて、移動体本体11の予測進路を求める。移動体本体11の移動に関する制御は、移動体本体11の舵角の制御を含む。すなわち、予測部71は、移動体本体11の舵角の情報をECU73から取得し、少なくともこの情報に応じて移動体本体11の予測進路を求める。
物体検知システム2は、処理部23による物体B1の検知結果を出力する出力部24を備えている。物体B1の検知結果は、検知領域110に障害物が存在するか否かの情報を含む。出力部24は、この検知結果を判定部72に出力する。
判定部72は、処理部23による処理の結果を用いて、移動体本体11の予測進路に特定の物体が存在するか否かを判定する。本実施形態では、特定の物体は、障害物である。判定部72は、物体B1の座標と、検知領域110に物体B1が存在するか否かの情報と、物体B1の種別の情報とを、処理部23による処理の結果として出力部24から取得し、これらの情報を用いて判定を行う。判定部72は、例えば、予測進路に障害物が存在する場合は、障害物有りという判定結果を導出し、予測進路に下方物が存在する場合又は障害物も下方物も存在しない場合は、障害物無しという判定結果を導出する。
判定部72は、予測進路において移動体本体11と特定の物体とが衝突するか否かを判定する。ECU73は、判定部72の判定結果と、センサ装置3と物体B1との間の距離L1とに基づいて、移動体1のブレーキ及び発報装置等を制御する。発報装置は、ECU73の制御に基づいて、障害物が存在することを、画像等による表示及び音(音声を含む)の少なくとも一方により運転者に報知する。
本実施形態の物体検知システム2によれば、処理部23が信号処理回路5からの検知信号S3、S4のみに基づいて物体B1を検知する場合と比較して、物体B1の検知精度の向上を図ることができる。また、処理部23が撮影データP1のみに基づいて物体B1を検知する場合と比較して、撮影データP1を解析する処理の処理量の低減を図ることができる。
また、処理部23は、物体B1の幅に関する情報を求める。そのため、処理部23が物体B1の幅に関する情報を求めずに例えば物体B1を点と見做して処理する場合と比較して、検知領域110のうち物体B1が占める範囲を求める精度の向上を図ることができる。よって、移動体本体11の予測進路において移動体本体11と特定の物体(障害物)とが衝突するか否かを判定する判定部72の判定精度の向上を図ることができる。ここで、物体B1が占める範囲は、処理部23により求められる範囲である。物体B1が占める範囲は、特定方向(水平方向)における障害物の外縁の両端の座標に相当する位置E1、E2と、この2つの位置E1、E2の間の領域とを含む。
また、本実施形態の物体検知システム2によれば、処理部23が信号処理回路5からの検知信号S3、S4のみに基づいて障害物(物体B1)を検知する場合と比較して、より遠くに位置する障害物の有無を検知できる。これについて、図5を用いて説明する。図5の縦軸の単位は、検知信号S3、S4が入力される第1入力部21のアナログ−デジタルコンバータの測定単位である。図5の横軸は、センサ装置3から物体B1までの距離である。
障害物としての壁からの反射波W2に基づく検知信号S3、S4の強度(波高値)の平均値と、センサ装置3から壁までの間の距離との関係を、波高値H1で示す。障害物としてのポールからの反射波W2に基づく検知信号S3、S4の強度(波高値)の平均値と、センサ装置3からポールまでの間の距離との関係を、波高値H2で示す。下方物としての縁石からの反射波W2に基づく検知信号S3、S4の強度(波高値)の平均値と、センサ装置3から縁石までの間の距離との関係を、波高値H3で示す。なお、波高値H1、H2、H3はあくまで一例である。
仮に、処理部23が信号処理回路5からの検知信号S3、S4のみに基づいて障害物の有無を検知する場合、縁石を障害物として検知しないようにするために、基準値Th2を図5のように設定することが考えられる。処理部23は、検知信号S3、S4のうち少なくとも一方の強度が、基準値Th2を超えていると、検知領域110に物体B1が存在するという判定結果を導出する。図5では、センサ装置3から物体B1(障害物又は下方物)までの間の距離L1が約25〜250cmの範囲では、波高値H1が基準値Th2を超えている。距離L1が約25〜100cmの範囲では、波高値H2が基準値Th2を超えており、距離L1が約110〜250cmの範囲では、波高値H2が基準値Th2以下である。距離L1が約75〜250cmの範囲では、波高値H3が基準値Th2以下である。
ここで、距離L1が約75〜250cmの範囲では、波高値H3が基準値Th2以下なので、処理部23は縁石を障害物として検知しない。しかし、距離L1が約110〜250cmの範囲では、波高値H2が基準値Th2以下なので、処理部23はポールが存在することを検知できない。つまり、処理部23はセンサ装置3から比較的遠くに位置する障害物の有無を検知できないことがある。
一方で、本実施形態の処理部23は、検知信号S3、S4のうち少なくとも一方の強度が基準値Th1を超えている場合であっても、特定方向(水平方向)における物体B1の外縁の両端のいずれの座標も求められない場合は、障害物が存在しないという判定結果を導出する。これにより、縁石に対応する波高値H3が基準値Th1を超えても、処理部23が縁石を障害物であると誤検知することを抑制できる。よって、基準値Th1を基準値Th2と比較して小さくすることができる。これにより、物体検知システム2は、より遠くに位置する障害物の有無を検知できる。
(変形例1)
以下、変形例1に係る物体検知システム2について、図6を用いて説明する。図6は、撮影データP1に基づいて生成される画像を示すイメージ図である。実施形態と同様の構成については、同一の符号を付して説明を省略する。本変形例1では、物体検知システム2の処理部23により実行される処理が、実施形態と相違する。
実施形態と同様に、処理部23は、検知信号S3、S4のうち少なくとも一方の強度が、基準値Th1を超えていると、検知領域110に物体B1が存在するという判定結果を導出する。さらに、処理部23は、複数のセンサ装置3の各々について、センサ装置3と物体B1との間の距離を求める。ただし、移動体1は、センサ装置3を少なくとも1つ備えていればよい。そして、処理部23は、少なくとも1つのセンサ装置3と物体B1との間の距離を求めればよい。ここでは、処理部23は1つのセンサ装置3と物体B1との間の距離を求めるとし、処理部23により求められた距離を距離L1と表記する。また、処理部23は、鉛直方向におけるこのセンサ装置3の位置(地面G1からセンサ装置3までの距離L2)を、物体B1のZ座標とする。
処理部23は、距離L1を求めた後、実施形態と異なって、物体B1の座標を求めない。処理部23は、距離L1と、物体B1のZ座標と、第2入力部22に入力された撮影データP1とを用いて、物体B1が障害物か否か、すなわち、障害物が存在するか否かを判定する。つまり、処理部23は、撮影データP1に対して画像認識を行い、撮影データP1のうち、Z座標が物体B1のZ座標と一致する水平面上において、物体B1からの距離が距離L1と一致する範囲(図6の曲線130を参照)に実際に何らかの物体B1が写っているか否かを判定する。すなわち、処理部23は、曲線130上に何らかの物体B1が写っているか否かを判定する。ただし、曲線130は説明のために図示した線であって、実体を伴わない。曲線130と地面G1との間の距離は、距離L2(図2参照)に一致し、曲線130とセンサ装置3との間の距離は、距離L1に一致する。
もし、各センサ装置3の位置よりも下側に存在する物体B1(下方物)からの反射波W2が受波部32で検知された場合は、曲線130上には物体B1が写っていないことになる。
処理部23は、検知信号S3、S4のうち少なくとも一方の強度が、基準値Th1を超えており、かつ、曲線130上に何らかの物体B1が写っている場合は、検知領域110に障害物が存在するという判定結果を導出する。一方で、検知信号S3、S4のうち少なくとも一方の強度が、基準値Th1を超えており、かつ、曲線130上に何も写っていない場合は、検知領域110に下方物が存在すると考えられる。この場合に、処理部23は、検知領域110に障害物が存在しないという判定結果を導出する。この場合、処理部23は、検知領域110に下方物が存在するという判定結果を導出する。
処理部23は、曲線130上において物体B1が写っている位置を物体B1の座標(位置B11)と見做す。そして、処理部23は、実施形態と同様の処理により、物体B1のうち水平方向における位置B11の両側の端の座標(位置E1、E2)を求める。
(変形例2)
以下、変形例2に係る物体検知システム2について、図7、図8を用いて説明する。図7は、撮影データP1に基づいて生成される画像を示すイメージ図である。図8は、図7の画像に写っている領域を上から見たイメージ図である。図8では、説明のためにX軸及びY軸を図示しているが、これらは実体を伴わない。実施形態と同様の構成については、同一の符号を付して説明を省略する。
図7、図8の例では、物体検知システム2が検知する物体B2は、トレーラヘッドB201と、トレーラヘッドB201の後ろにつながった荷台と、荷台に載せられた積載物B202とを有している。正面から見て、積載物B202は、トレーラヘッドB201の左右に突出している。また、正面から見て、積載物B202は、地面G1から離れて位置している。ここでは、物体B2のうち検知波W1が反射された位置B22は、トレーラヘッドB201に含まれている。また、位置B22とカメラ4から見て位置B22に対して水平方向に隣り合う領域とを含む領域B24は、トレーラヘッドB201の一部と積載物B202の一部とを含む。
処理部23は、撮影データP1において、領域B24のコントラストを調べることにより、領域B24において、トレーラヘッドB201の外縁と積載物B202の外縁とをそれぞれ抽出する。そして、処理部23は、特定方向(水平方向)におけるトレーラヘッドB201の外縁の両端の座標(図7の位置E3、E4に対応する座標)と、特定方向(水平方向)における積載物B202の外縁の両端の座標(図7の位置E5、E6に対応する座標)とを求める。
処理部23は、位置E3〜E6のうち位置B22に近い側である2つの位置E3、E4からセンサ装置3までのX軸方向の距離は、位置B22とセンサ装置3との間の距離L1に一致するという判定結果を導出する。一例として、処理部23は、位置E3〜E6のうち位置B22から遠い側である2つの位置E5、E6から、センサ装置3までのX軸方向の距離L5、L6は、距離L1に一致するという判定結果を導出する。
別の一例として、処理部23は、2つの位置E5、E6からセンサ装置3までのX軸方向の距離L5、L6は、距離L1よりも大きいという判定結果を導出する。つまり、処理部23は、2つの位置E5、E6が、2つの位置E3、E4よりも奥に存在するという判定結果を導出する。
更に別の一例として、処理部23は、2つの位置E5、E6から、センサ装置3までのX軸方向の距離L5、L6が、距離L1と一致するか、距離L1よりも大きいかを、次のようにして判定する。
処理部23は、位置B22から地面G1までの間の距離(地面G1からセンサ装置3までの距離L2)と、センサ装置3から物体B2までの間の距離L1とに基づいて、撮影データP1における位置B22から地面G1までの間のピクセル数を求める。そして、撮影データP1における2つの位置E5、E6のそれぞれから、求めたピクセル数だけ下の位置を、位置E5、E6のそれぞれの真下の地面G1の位置として求める。
処理部23は、撮影データP1においてコントラストを調べる。これにより、処理部23は、位置E5と地面G1との間の領域B25に、水平方向に沿った物体B2の外縁が存在するか否かを判定し、位置E6と地面G1との間の領域B26に水平方向に沿った物体B2の外縁が存在するか否かを判定する。そして、処理部23は、位置E5と地面G1との間の領域B25に、水平方向に沿った外縁が存在する場合に、領域B25における物体B2の外縁の下端の座標(位置E7)を求める。処理部23は、位置E6と地面G1との間の領域B26に、水平方向に沿った外縁が存在する場合に、領域B26における物体B2の外縁の下端の座標(位置E8)を求める。位置E7、E8のZ座標はそれぞれ、地面G1から位置E7、E8までの距離に相当する。
処理部23は、位置E5と地面G1との間の領域B25に、水平方向に沿った外縁が存在するという判定結果を導出した場合は、位置E5からセンサ装置3までのX軸方向の距離L5が、距離L1よりも大きいという判定結果を導出する。一方で、処理部23は、位置E5と地面G1との間の領域B25に、水平方向に沿った外縁が存在しないという判定結果を導出した場合は、位置E5からセンサ装置3までのX軸方向の距離L5が、距離L1と一致するという判定結果を導出する。
同様に、処理部23は、位置E6と地面G1との間の領域B26に、水平方向に沿った外縁が存在するという判定結果を導出した場合は、位置E6からセンサ装置3までのX軸方向の距離L6が、距離L1よりも大きいという判定結果を導出する。一方で、処理部23は、位置E6と地面G1との間の領域B26に、水平方向に沿った外縁が存在しないという判定結果を導出した場合は、位置E6からセンサ装置3までのX軸方向の距離L6が、距離L1と一致するという判定結果を導出する。
このように、処理部23は、鉛直方向における特定の物体(障害物)の位置、すなわち、位置E7、E8のZ座標を求め、これに基づいて、位置E5、E6からセンサ装置3までのX軸方向の距離L5、L6を求める。さらに、判定部72(図1参照)は、位置E5、E6からセンサ装置3までのX軸方向の距離L5、L6に基づいて、予測進路において移動体本体11と特定の物体とが衝突するか否かを判定する。すなわち、判定部72は、鉛直方向における特定の物体(障害物)の存在する範囲(位置E7、E8のZ座標)に基づいて、予測進路において移動体本体11と特定の物体とが衝突するか否かを判定する。
より詳細には、処理部23が位置E5(又はE6)からセンサ装置3までのX軸方向の距離L5(又はL6)が距離L1よりも大きいという判定結果を導出した場合は、判定部72は、位置E3(又はE4)の左隣(又は右隣)に通行可能な領域が存在するという判定結果を導出する。したがって、予測進路が位置E3(又はE4)の左隣(右隣)を通る進路である場合に(図8の予測進路140参照)、判定部72は、移動体本体11と障害物とが衝突しないという判定結果を導出する。一方で、処理部23が位置E5(又はE6)からセンサ装置3までのX軸方向の距離L5(又はL6)が距離L1に一致するという判定結果を導出した場合は、判定部72は、位置E3(又はE4)の左隣(又は右隣)に通行可能な領域が存在しないという判定結果を導出する。したがって、予測進路が位置E3(又はE4)の左隣(又は右隣)を通る進路である場合に、判定部72は、移動体本体11と障害物とが衝突するという判定結果を導出する。
なお、移動体1は、位置E3と位置E4との間の領域が移動体本体11の予測進路に存在するという判定結果が導出された場合に、位置E3と位置E5との間の領域のみ又は位置E4と位置E6との間の領域のみが移動体本体11の予測進路に存在するという判定結果が導出された場合とは異なる応答をしてもよい。例えば、前者の場合は、移動体1のECU73は、発報装置を制御して、障害物が存在することを少なくとも音(音声を含む)により報知してもよい。一方で、後者の場合は、ECU73は、発報装置を制御して、障害物が存在することを画像等による表示により報知し、音による報知を行わないようにしてもよい。画像による表示の一例は、撮影データP1に基づいて生成される画像において、物体B2が写っている領域の色を着色することである。
(実施形態のその他の変形例)
以下、実施形態のその他の変形例を列挙する。以下の変形例は、適宜組み合わせて実現されてもよい。
物体検知システム2と同様の機能は、物体検知方法、(コンピュータ)プログラム、又はプログラムを記録した非一時的記録媒体等で具現化されてもよい。
一態様に係る物体検知方法は、第1入力ステップと、第2入力ステップと、処理ステップと、を備える。第1入力ステップは、検知信号S3、S4の入力を受け付ける。検知信号S3、S4は、反射波W2をセンサ装置3が受波することで生成される受波信号S2に基づく。反射波W2は、検知領域110に送波された検知波W1が検知領域110内の物体B1で反射されて生じる。第2入力ステップは、撮影データの入力を受け付ける。撮影データは、カメラ4が検知領域110を撮影することで生成される。処理ステップは、検知信号S3、S4及び撮影データの両方に基づいて物体B1を検知する。処理ステップは、検知信号S3、S4に基づいて、物体B1の位置に関する位置情報を求める。位置情報は、センサ装置3と物体B1との間の距離L1の情報を含む。処理ステップは、撮影データ及び位置情報の両方に基づいて特定方向における物体B1の幅に関する情報を求める。
一態様に係るプログラムは、上記の物体検知方法を、1以上のプロセッサに実行させるためのプログラムである。
本開示における移動体1は、物体検知システム2等の構成としてコンピュータシステムを含んでいる。コンピュータシステムは、ハードウェアとしてのプロセッサ及びメモリを主構成とする。コンピュータシステムのメモリに記録されたプログラムをプロセッサが実行することによって、本開示における物体検知システム2としての機能が実現される。プログラムは、コンピュータシステムのメモリに予め記録されてもよく、電気通信回線を通じて提供されてもよく、コンピュータシステムで読み取り可能なメモリカード、光学ディスク、ハードディスクドライブ等の非一時的記録媒体に記録されて提供されてもよい。コンピュータシステムのプロセッサは、半導体集積回路(IC)又は大規模集積回路(LSI)を含む1ないし複数の電子回路で構成される。ここでいうIC又はLSI等の集積回路は、集積の度合いによって呼び方が異なっており、システムLSI、VLSI(Very Large Scale Integration)、又はULSI(Ultra Large Scale Integration)と呼ばれる集積回路を含む。さらに、LSIの製造後にプログラムされる、FPGA(Field-Programmable Gate Array)、又はLSI内部の接合関係の再構成若しくはLSI内部の回路区画の再構成が可能な論理デバイスについても、プロセッサとして採用することができる。複数の電子回路は、1つのチップに集約されていてもよいし、複数のチップに分散して設けられていてもよい。複数のチップは、1つの装置に集約されていてもよいし、複数の装置に分散して設けられていてもよい。ここでいうコンピュータシステムは、1以上のプロセッサ及び1以上のメモリを有するマイクロコントローラを含む。したがって、マイクロコントローラについても、半導体集積回路又は大規模集積回路を含む1ないし複数の電子回路で構成される。
実施形態の物体検知システム2及びセンサ装置3は、1つのパッケージに収容されている。ただし、物体検知システム2及びセンサ装置3の複数の機能が、1つの筐体内に集約されていることは必須ではなく、物体検知システム2及びセンサ装置3の構成要素は、複数の筐体に分散して設けられていてもよい。さらに、物体検知システム2の少なくとも一部の機能、例えば、処理部23の一部の機能がクラウド(クラウドコンピューティング)等によって実現されてもよい。
反対に、実施形態において、複数の装置に分散されている移動体1の少なくとも一部の機能が、1つの筐体内に集約されていてもよい。例えば、物体検知システム2と判定部72とに分散されている移動体1の一部の機能が、1つの筐体内に集約されていてもよい。
センサ装置3は、物体検知システム2に含まれていてもよい。カメラ4は、物体検知システム2に含まれていてもよい。
センサ装置3において、送波部31と受波部32とが別々の筐体に分散して設けられていてもよい。また、センサ装置3とは別の装置が、検知波W1を送波してもよい。
センサ装置3が検知波W1を送波する検知領域110は、移動体1の前方の領域に限定されず、後方の領域であってもよいし、側方の領域であってもよい。
センサ装置3、カメラ4及び物体検知システム2は、移動体1に備えられることに限定されず、固定された物体に備えられてもよい。センサ装置3、カメラ4及び物体検知システム2は、例えば、道路に設置されたポール等、又は、住宅若しくは事業所等の建物に取り付けられて使用されてもよい。
処理部23は、鉛直方向における各センサ装置3の位置とは異なる位置を、物体B1のZ座標としてもよい。処理部23は、例えば、各センサ装置3の位置から上方向又は下方向に所定の距離だけずれた位置を、物体B1のZ座標としてもよい。
実施形態のカメラ4は、レンズを1つのみ有するカメラであるが、カメラ4として、デュアルカメラ等を用いてもよい。すなわち、カメラ4として、複数のレンズを備えたカメラを用いてもよい。
また、実施形態の信号処理回路5は、混合器51と混合器52とを有しており、受波信号S2はこの2つの混合器51、52にそれぞれ入力されるが、信号処理回路5は、混合器を1つのみ有していてもよい。信号処理回路5は、2つの混合器51、52のうち混合器51のみを有している場合に、フィルタ54及び2つの増幅回路56を有していなくてもよい。そして、処理部23は、増幅回路55から出力される検知信号S3に基づいて、物体B1の有無を判定してもよい。
(まとめ)
以上説明した実施形態等から、以下の態様が開示されている。
第1の態様に係る物体検知システム2は、第1入力部21と、第2入力部22と、処理部23と、を備える。第1入力部21は、検知信号S3、S4の入力を受け付ける。検知信号S3、S4は、反射波W2をセンサ装置3が受波することで生成される受波信号S2に基づく。反射波W2は、検知領域110に送波された検知波W1が検知領域110内の物体B1で反射されて生じる。第2入力部22は、撮影データの入力を受け付ける。撮影データは、カメラ4が検知領域110を撮影することで生成される。処理部23は、検知信号S3、S4及び撮影データの両方に基づいて物体B1を検知する。処理部23は、検知信号S3、S4に基づいて、物体B1の位置に関する位置情報を求める。位置情報は、センサ装置3と物体B1との間の距離L1の情報を含む。処理部23は、撮影データ及び位置情報の両方に基づいて特定方向における物体B1の幅に関する情報を求める。
上記の構成によれば、処理部23が物体B1の幅に関する情報を求めずに例えば物体B1を点と見做して処理する場合と比較して、検知領域110のうち物体B1が占める範囲を求める精度の向上を図ることができる。
また、第2の態様に係る物体検知システム2では、第1の態様において、特定方向は、水平方向である。
上記の構成によれば、水平方向において物体B1が占める範囲を求める精度の向上を図ることができる。
また、第3の態様に係る物体検知システム2では、第1又は2の態様において、位置情報は、水平面内での物体B1の座標の情報を含む。
上記の構成によれば、位置情報がセンサ装置3と物体B1との間の距離L1の情報のみを含む場合と比較して、位置情報としてより詳細な情報を得ることができる。
また、第4の態様に係る物体検知システム2では、第1〜3の態様のいずれか1つにおいて、処理部23は、撮影データ及び位置情報に基づいて、特定方向における物体B1の外縁の座標を求める。
上記の構成によれば、検知領域110のうち物体B1が占める範囲をより詳細に求められる。
また、第5の態様に係る物体検知システム2では、第1〜4の態様のいずれか1つにおいて、処理部23は、位置情報に基づいてセンサ装置3と物体B1との間の距離L1を求める。
上記の構成によれば、センサ装置3と物体B1との間の距離L1を容易に求められる。
また、第6の態様に係る物体検知システム2では、第1〜5の態様のいずれか1つにおいて、処理部23は、鉛直方向におけるセンサ装置3の位置に基づいて、鉛直方向における物体B1の存在する範囲の少なくとも一部を求める。
上記の構成によれば、鉛直方向におけるセンサ装置3の位置を用いるので、鉛直方向における物体B1の存在する範囲を容易に求められる。
また、第7の態様に係る物体検知システム2は、第1〜6の態様のいずれか1つにおいて、移動する移動体本体11に搭載される。物体検知システム2は、判定部72を更に備える。判定部72は、処理部23による処理の結果を用いて、移動体本体11の予測進路に物体B1としての特定の物体が存在するか否かを判定する。
上記の構成によれば、移動体本体11と特定の物体との衝突を予測できる。
また、第8の態様に係る物体検知システム2は、第7の態様において、予測部71を更に備える。予測部71は、移動体本体11の移動に関する制御に応じて、予測進路を求める。上記制御は、移動体本体11の舵角の制御を含む。
上記の構成によれば、移動体本体11の移動に関する制御に応じて、移動体本体11と特定の物体との衝突を予測できる。
また、第9の態様に係る物体検知システム2では、第7又は8の態様において、判定部72は、鉛直方向における特定の物体の存在する範囲に基づいて、予測進路において移動体本体11と特定の物体とが衝突するか否かを判定する。
上記の構成によれば、移動体本体11と特定の物体とが鉛直方向にすれ違うか、あるいは移動体本体11と特定の物体とが衝突するかを予測できる。
また、第10の態様に係る物体検知システム2は、第1〜9の態様のいずれか1つにおいて、センサ装置3を更に備える。
上記の構成によれば、処理部23が物体B1の幅に関する情報を求めずに例えば物体B1を点と見做して処理する場合と比較して、検知領域110のうち物体B1が占める範囲を求める精度の向上を図ることができる。
また、第11の態様に係る物体検知システム2は、第1〜10の態様のいずれか1つにおいて、カメラ4を更に備える。
上記の構成によれば、処理部23が物体B1の幅に関する情報を求めずに例えば物体B1を点と見做して処理する場合と比較して、検知領域110のうち物体B1が占める範囲を求める精度の向上を図ることができる。
第1の態様以外の構成については、物体検知システム2に必須の構成ではなく、適宜省略可能である。
また、第12の態様に係る移動体1は、第1〜11の態様のいずれか1つに係る物体検知システム2と、物体検知システム2が搭載された移動体本体11と、を備える。
上記の構成によれば、処理部23が物体B1の幅に関する情報を求めずに例えば物体B1を点と見做して処理する場合と比較して、検知領域110のうち物体B1が占める範囲を求める精度の向上を図ることができる。
また、第13の態様に係る物体検知方法は、第1入力ステップと、第2入力ステップと、処理ステップと、を備える。第1入力ステップは、検知信号S3、S4の入力を受け付ける。検知信号S3、S4は、反射波W2をセンサ装置3が受波することで生成される受波信号S2に基づく。反射波W2は、検知領域110に送波された検知波W1が検知領域110内の物体B1で反射されて生じる。第2入力ステップは、撮影データの入力を受け付ける。撮影データは、カメラ4が検知領域110を撮影することで生成される。処理ステップは、検知信号S3、S4及び撮影データの両方に基づいて物体B1を検知する。処理ステップは、検知信号S3、S4に基づいて、物体B1の位置に関する位置情報を求める。位置情報は、センサ装置3と物体B1との間の距離L1の情報を含む。処理ステップは、撮影データ及び位置情報の両方に基づいて特定方向における物体B1の幅に関する情報を求める。
上記の構成によれば、処理ステップで物体B1の幅に関する情報を求めずに例えば物体B1を点と見做して処理する場合と比較して、検知領域110のうち物体B1が占める範囲を求める精度の向上を図ることができる。
また、第14の態様に係るプログラムは、第13の態様に係る物体検知方法を、1以上のプロセッサに実行させる。
上記の構成によれば、処理ステップで物体B1の幅に関する情報を求めずに例えば物体B1を点と見做して処理する場合と比較して、検知領域110のうち物体B1が占める範囲を求める精度の向上を図ることができる。
上記態様に限らず、実施形態に係る物体検知システム2の種々の構成(変形例を含む)は、物体検知方法及びプログラムにて具現化可能である。
1 移動体
11 移動体本体
110 検知領域
2 物体検知システム
21 第1入力部
22 第2入力部
23 処理部
3 センサ装置
4 カメラ
71 予測部
72 判定部
B1 物体
L1 距離
S2 受波信号
S3、S4 検知信号
W1 検知波
W2 反射波

Claims (14)

  1. 検知領域に送波された検知波が前記検知領域内の物体で反射されて生じる反射波をセンサ装置が受波することで生成される受波信号に基づく検知信号の入力を受け付ける第1入力部と、
    カメラが前記検知領域を撮影することで生成される撮影データの入力を受け付ける第2入力部と、
    前記検知信号及び前記撮影データの両方に基づいて前記物体を検知する処理部と、を備え、
    前記処理部は、前記検知信号に基づいて、前記物体の位置に関する位置情報を求め、
    前記位置情報は、前記センサ装置と前記物体との間の距離の情報を含み、
    前記処理部は、前記撮影データ及び前記位置情報の両方に基づいて特定方向における前記物体の幅に関する情報を求める、
    物体検知システム。
  2. 前記特定方向は、水平方向である、
    請求項1に記載の物体検知システム。
  3. 前記位置情報は、水平面内での前記物体の座標の情報を含む、
    請求項1又は2に記載の物体検知システム。
  4. 前記処理部は、前記撮影データ及び前記位置情報に基づいて、前記特定方向における前記物体の外縁の座標を求める、
    請求項1〜3のいずれか一項に記載の物体検知システム。
  5. 前記処理部は、前記位置情報に基づいて前記センサ装置と前記物体との間の距離を求める、
    請求項1〜4のいずれか一項に記載の物体検知システム。
  6. 前記処理部は、鉛直方向における前記センサ装置の位置に基づいて、前記鉛直方向における前記物体の存在する範囲の少なくとも一部を求める、
    請求項1〜5のいずれか一項に記載の物体検知システム。
  7. 移動する移動体本体に搭載され、
    前記処理部による処理の結果を用いて、前記移動体本体の予測進路に前記物体としての特定の物体が存在するか否かを判定する判定部を更に備える、
    請求項1〜6のいずれか一項に記載の物体検知システム。
  8. 前記移動体本体の舵角の制御を含み前記移動体本体の移動に関する制御に応じて、前記予測進路を求める予測部を更に備える、
    請求項7に記載の物体検知システム。
  9. 前記判定部は、鉛直方向における前記特定の物体の存在する範囲に基づいて、前記予測進路において前記移動体本体と前記特定の物体とが衝突するか否かを判定する、
    請求項7又は8に記載の物体検知システム。
  10. 前記センサ装置を更に備える、
    請求項1〜9のいずれか一項に記載の物体検知システム。
  11. 前記カメラを更に備える、
    請求項1〜10のいずれか一項に記載の物体検知システム。
  12. 請求項1〜11のいずれか一項に記載の物体検知システムと、
    前記物体検知システムが搭載された移動体本体と、を備える、
    移動体。
  13. 検知領域に送波された検知波が前記検知領域内の物体で反射されて生じる反射波をセンサ装置が受波することで生成される受波信号に基づく検知信号の入力を受け付ける第1入力ステップと、
    カメラが前記検知領域を撮影することで生成される撮影データの入力を受け付ける第2入力ステップと、
    前記検知信号及び前記撮影データの両方に基づいて前記物体を検知する処理ステップと、を備え、
    前記処理ステップは、前記検知信号に基づいて、前記物体の位置に関する位置情報を求め、
    前記位置情報は、前記センサ装置と前記物体との間の距離の情報を含み、
    前記処理ステップは、前記撮影データ及び前記位置情報の両方に基づいて特定方向における前記物体の幅に関する情報を求める、
    物体検知方法。
  14. 請求項13に記載の物体検知方法を、1以上のプロセッサに実行させるための、
    プログラム。
JP2019057236A 2019-03-25 2019-03-25 物体検知システム、移動体、物体検知方法及びプログラム Pending JP2020159765A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019057236A JP2020159765A (ja) 2019-03-25 2019-03-25 物体検知システム、移動体、物体検知方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019057236A JP2020159765A (ja) 2019-03-25 2019-03-25 物体検知システム、移動体、物体検知方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2020159765A true JP2020159765A (ja) 2020-10-01

Family

ID=72642804

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019057236A Pending JP2020159765A (ja) 2019-03-25 2019-03-25 物体検知システム、移動体、物体検知方法及びプログラム

Country Status (1)

Country Link
JP (1) JP2020159765A (ja)

Similar Documents

Publication Publication Date Title
US20210041555A1 (en) System and method for camera radar fusion
US11175668B2 (en) Navigation method and apparatus, and terminal device
JP6657500B2 (ja) モバイルプラットフォームの制御方法およびシステム
CN108958490B (zh) 电子装置及其手势识别方法、计算机可读存储介质
US9863775B2 (en) Vehicle localization system
WO2017057058A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP5835243B2 (ja) 物標認識装置
US20140152975A1 (en) Method for dynamically adjusting the operating parameters of a tof camera according to vehicle speed
CN111699406B (zh) 毫米波雷达的跟踪检测方法、毫米波雷达和车辆
JP2018072105A (ja) 物体検知装置
CN113196362B (zh) 检测装置、移动体系统以及检测方法
CN110346775B (zh) 相干激光雷达中的受控扫描模式转变
US20210350706A1 (en) Sensing device, moving body system and sensing method
JP2010162975A (ja) 車両制御システム
JP2007128235A (ja) 接近報知装置
JP2017166907A (ja) 物体検出装置、物体検出方法、及び、プログラム
CN112835045A (zh) 一种雷达探测方法、装置、存储介质及电子设备
JP2020159765A (ja) 物体検知システム、移動体、物体検知方法及びプログラム
JP2020159970A (ja) 物体検知システム、移動体、物体検知方法及びプログラム
JP5436652B1 (ja) 車両の周辺監視装置及び車両の周辺監視方法
CN112416001A (zh) 一种车辆的自动跟随方法、装置和车辆
CN109032354B (zh) 电子装置及其手势识别方法、计算机可读存储介质
JP2018109875A (ja) 画像処理装置および画像処理方法
CN114502433B (zh) 控制装置
KR101605551B1 (ko) 물체 검출장치 및 그 검출방법