JP7131327B2 - 物標検知装置 - Google Patents

物標検知装置 Download PDF

Info

Publication number
JP7131327B2
JP7131327B2 JP2018218254A JP2018218254A JP7131327B2 JP 7131327 B2 JP7131327 B2 JP 7131327B2 JP 2018218254 A JP2018218254 A JP 2018218254A JP 2018218254 A JP2018218254 A JP 2018218254A JP 7131327 B2 JP7131327 B2 JP 7131327B2
Authority
JP
Japan
Prior art keywords
target
image
camera
vehicle
detection device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018218254A
Other languages
English (en)
Other versions
JP2020086758A (ja
Inventor
晃季 長田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2018218254A priority Critical patent/JP7131327B2/ja
Publication of JP2020086758A publication Critical patent/JP2020086758A/ja
Application granted granted Critical
Publication of JP7131327B2 publication Critical patent/JP7131327B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本開示は物標検知装置に関する。
特許文献1に移動体検出装置が開示されている。移動体検出装置は、車両に搭載されたカメラ(以下では車載カメラとする)を用いて移動体を検出する。
特開2009-146153号公報
車載カメラにより生成した画像に基づき、物標の位置を推定することが考えられる。車両の振動、車両における荷物の積載状態等の要因により、車載カメラの高さが変化することがある。車載カメラの高さが変化すると、物標の位置の推定精度が低下してしまう。本開示の一局面は、物標の位置を正確に推定できる物標検知装置を提供することを目的とする。
本開示の一局面は、車両(3)が備える第1カメラ(27、29、31、33)が生成した第1画像を取得するように構成された第1画像取得ユニット(9)と、前記車両が備える第2カメラ(27、29、31、33)であって、撮影範囲(41)の一部が前記第1カメラの撮影範囲(39)と共通する範囲(43)である第2カメラが生成した第2画像を取得するように構成された第2画像取得ユニット(9)と、前記第1画像において第1物標を認識するように構成された第1物標認識ユニット(13)と、前記第2画像において第2物標を認識するように構成された第2物標認識ユニット(13)と、前記第1画像に基づき、前記第1物標の位置を推定するように構成された第1位置推定ユニット(17)と、前記第2画像に基づき、前記第2物標の位置を推定するように構成された第2位置推定ユニット(17)と、前記第1物標と前記第2物標とが同一であるか否かを判断するように構成された同一性判断ユニット(21)と、前記第1物標と前記第2物標とが同一であると前記同一性判断ユニットが判断することを必要条件として、(a)前記第1カメラの位置と、前記第1位置推定ユニットが推定した前記第1物標の位置とを通る第1直線(49)と、(b)前記第2カメラの位置と、前記第2位置推定ユニットが推定した前記第2物標の位置とを通る第2直線(51)との交点(53)を、前記第1物標及び前記第2物標の位置として推定する物標位置推定ユニット(23)と、を備える物標検知装置(1)である。
本開示の一局面である物標検知装置は物標の位置を正確に推定することができる。
本開示の別の局面は、車両(3)が備える第1カメラ(27、29、31、33)が生成した第1画像を取得するように構成された第1画像取得ユニット(9)と、前記車両が備える第2カメラ(27、29、31、33)が生成した第2画像を取得するように構成された第2画像取得ユニット(9)と、前記第1画像において、他の車両(73)の外周を構成する第1面(73A、73B、73C、73D)の一部である第1部位(69)を認識するように構成された第1部位認識ユニット(59)と、前記第2画像において、前記外周を構成し、前記第1面と隣接する第2面(73A、73B、73C、73D)の一部である第2部位(71)を認識するように構成された第2部位認識ユニット(59)と、前記第1画像に基づき、前記第1部位の位置を推定するように構成された第1位置推定ユニット(61)と、前記第2画像に基づき、前記第2部位の位置を推定するように構成された第2位置推定ユニット(61)と、前記第1画像に基づき、前記第1面に沿った第1水平線(81)の方向を推定するように構成された第1方向推定ユニット(63)と、前記第2画像に基づき、前記第2面に沿った第2水平線(83)の方向を推定するように構成された第2方向推定ユニット(65)と、前記第1部位の位置を通る前記第1水平線と、前記第2部位の位置を通る前記第2水平線との交点の位置(85)を、前記他の車両の端部の位置として推定するように構成された物標位置推定ユニット(67)と、を備え、前記第1カメラから前記第1面に向かう直線(77)と、前記第2カメラから前記第2面に向かう直線(79)とは交差している物標検知装置(1)である。
本開示の別の局面である物標検知装置は、他の車両の端部の位置を正確に推定できる。
物標検知装置1の構成を表すブロック図である。 物標検知装置1の機能的構成を表すブロック図である。 物標検知装置1が実行する処理を表す説明図である。 物標検知装置1が実行する処理を表すフローチャートである。 物標検知装置1が実行する処理を表す説明図である。 物標検知装置1の機能的構成を表すブロック図である。 物標検知装置1が実行する処理を表すフローチャートである。 物標検知装置1が実行する処理を表す説明図である。
本開示の例示的な実施形態を、図面を参照しながら説明する。
<第1実施形態>
1.物標検知装置1の構成
物標検知装置1の構成を、図1~図3に基づき説明する。図1に示すように、物標検知装置1は車両3に搭載されている。物標検知装置1は、CPU5と、例えば、RAM又はROM等の半導体メモリ(以下、メモリ7とする)と、を有するマイクロコンピュータを備える。物標検知装置1の各機能は、CPU5が非遷移的実体的記録媒体に格納されたプログラムを実行することにより実現される。この例では、メモリ7が、プログラムを格納した非遷移的実体的記録媒体に該当する。また、このプログラムが実行されることで、プログラムに対応する方法が実行される。なお、物標検知装置1は、1つのマイクロコンピュータを備えてもよいし、複数のマイクロコンピュータを備えてもよい。
物標検知装置1は、図2に示すように、画像取得ユニット9と、物標認識ユニット13と、各物標の位置推定ユニット17と、同一性判断ユニット21と、物標位置推定ユニット23と、位置判断ユニット25と、を備える。
画像取得ユニット9は第1画像取得ユニット及び第2画像取得ユニットに対応する。物標認識ユニット13は第1物標認識ユニット及び第2物標認識ユニットに対応する。各物標の位置推定ユニット17は第1位置推定ユニット及び第2位置推定ユニットに対応する。
物標検知装置1に含まれる各部の機能を実現する手法はソフトウェアに限るものではなく、その一部又は全部の機能は、一つあるいは複数のハードウェアを用いて実現されてもよい。例えば、上記機能がハードウェアである電子回路によって実現される場合、その電子回路は、デジタル回路、又はアナログ回路、あるいはこれらの組合せによって実現されてもよい。
図1に示すように、車両3は、物標検知装置1に加えて、前カメラ27、後カメラ29、右カメラ31、左カメラ33、車載通信バス35、及びディスプレイ37を備える。物標検知装置1は、これらの構成と接続している。
前カメラ27は、車両3の前方の風景を撮影し、画像を生成する。後カメラ29は、車両3の後方の風景を撮影し、画像を生成する。右カメラ31は、車両3の右方の風景を撮影し、画像を生成する。左カメラ33は、車両3の左方の風景を撮影し、画像を生成する。前カメラ27、後カメラ29、右カメラ31、及び左カメラ33は、それぞれ、魚眼レンズ又は広角レンズを備えるカメラである。
図3に示すように、前カメラ27が生成する画像が表す範囲を撮影範囲39とする。また、左カメラ33が生成する画像が表す範囲を撮影範囲41とする。撮影範囲39の一部は共通範囲43である。また、撮影範囲41の一部は共通範囲43である。共通範囲43とは、撮影範囲39及び撮影範囲41が共通して有する範囲である。
同様に、撮影範囲39、及び右カメラ31の撮影範囲も、共通範囲を有する。また、右カメラ31の撮影範囲、及び後カメラ29の撮影範囲も、共通範囲を有する。また、撮影範囲41、及び後カメラ29の撮影範囲も、共通範囲を有する。
車載通信バス35は、車両3の車速、舵角、シフトレンジ等を表す信号を物標検知装置1に伝達する。ディスプレイ37は車両3の車室内に設置されている。ディスプレイ37は画像を表示可能である。
2.物標検知装置1が実行する処理
物標検知装置1が実行する処理を、図3、図4に基づき説明する。図4のステップ1では、画像取得ユニット9が、前カメラ27、後カメラ29、右カメラ31、及び左カメラ33を用いて画像を取得する。画像取得ユニット9が取得する画像は、前カメラ27が生成した画像(以下では前方画像とする)と、後カメラ29が生成した画像(以下では後方画像とする)と、右カメラ31が生成した画像(以下では右方画像とする)と、左カメラ33が生成した画像(以下では左方画像とする)である。
ステップ2では、物標認識ユニット13が、前方画像、後方画像、右方画像、及び左方画像のそれぞれにおいて、物標を認識する処理を実行する。物標として、例えば、歩行者、他の車両、二輪車、自転車、固定物等が挙げられる。
ステップ3では、各物標の位置推定ユニット17が、前記ステップ2の処理で認識した物標の位置Pを推定する。位置Pとは、車両3を基準とする座標系により特定される位置である。
各物標の位置推定ユニット17は、物標を表している画像に基づき、物標の位置Pを推定する。例えば、前方画像において物標が認識された場合、各物標の位置推定ユニット17は、前方画像に基づき、物標の位置Pを推定する。各物標の位置推定ユニット17は、例えば、物標と路面との接地点を認識する。次に、各物標の位置推定ユニット17は、画像の中における接地点の位置に基づき、物標の位置Pを推定する。画像の中における接地点の位置が高いほど、推定された物標の位置Pは車両3から遠くなる。
ステップ4では、前記ステップ2において認識した物標の中に、以下の位置条件を充足する第1物標及び第2物標の組み合わせが存在するか否かを位置判断ユニット25が判断する。
位置条件:第1画像のうち、共通範囲を表す部分に第1物標が存在し、且つ、第2画像のうち、共通範囲を表す部分に第2物標が存在する。
なお、第1画像とは、前方画像、後方画像、右方画像、及び左方画像のいずれかであって、第1物標を表している画像である。第2画像とは、前方画像、後方画像、右方画像、及び左方画像のいずれかであって、第2物標を表している画像である。第1画像と第2画像とは共通範囲を有する。第1物標及び第2物標は、それぞれ、前記ステップ2の処理において認識した物標のうちのいずれかである。
位置条件を充足する第1物標及び第2物標の組み合わせの事例を図3に示す。この事例では、撮影範囲39を表す前方画像が第1画像であり、撮影範囲41を表す左方画像が第2画像である。前方画像のうち、共通範囲43を表す部分に第1物標45が存在する。左方画像のうち、共通範囲43を表す部分に第2物標47が存在する。
位置条件を充足する第1物標及び第2物標の組み合わせが存在する場合、本処理はステップ5に進む。位置条件を充足する第1物標及び第2物標の組み合わせが存在しない場合、本処理は終了する。
ステップ5では、前記ステップ4で存在すると判断した第1物標及び第2物標が同一であるか否かを同一性判断ユニット21が判断する。同一性判断ユニット21は、例えば、前記ステップ3で推定した第1物標の位置P1と、前記ステップ3で推定した第2物標の位置P2との距離が予め設定された閾値以下である場合、第1物標及び第2物標が同一であると判断する。
また、同一性判断ユニット21は、例えば、物標の位置に加えて、物標の速度、物標の過去の軌跡等に基づき、第1物標及び第2物標が同一である確からしさを算出する。そして、同一性判断ユニット21は、算出した確からしさが予め設定された閾値以上である場合、第1物標及び第2物標が同一であると判断する。
その場合、同一性判断ユニット21は、第1物標の位置P1と、第2物標の位置P2とが近いほど、確からしさを大きくする。また、同一性判断ユニット21は、第1物標の速度と、第2物標の速度とが近いほど、確からしさを大きくする。また、同一性判断ユニット21は、第1物標の過去の軌跡と、第2物標の過去の軌跡とが近いほど、確からしさを大きくする。なお、同一性判断ユニット21は、第1物標及び第2物標の速度や過去の奇跡を、第1画像及び第2画像の過去の複数のフレーム、及び、車載通信バス35から取得する車両3の車速、舵角、シフトレンジ等を用いて推定することができる。
第1物標及び第2物標が同一であると判断した場合、本処理はステップ6に進む。第1物標及び第2物標が同一ではないと判断した場合、本処理は終了する。
ステップ6では、物標位置推定ユニット23が、(a)第1カメラの位置と、第1物標の位置P1とを通る第1直線と、(b)第2カメラの位置と、第2物標の位置P2とを通る第2直線との交点を、第1物標及び第2物標の位置として推定する。
第1カメラとは、前カメラ27、後カメラ29、右カメラ31、及び左カメラ33のいずれかであって、第1画像を生成したカメラである。第2カメラとは、前カメラ27、後カメラ29、右カメラ31、及び左カメラ33のいずれかであって、第2画像を生成したカメラである。
物標位置推定ユニット23が実行する処理を、図3に示す事例に基づき具体的に説明する。この事例では、撮影範囲39を表す前方画像が第1画像であり、撮影範囲41を表す左方画像が第2画像である。前方画像のうち、共通範囲43を表す部分に第1物標45の位置P1が存在する。左方画像のうち、共通範囲43を表す部分に第2物標47の位置P2が存在する。前カメラ27が第1カメラである。左カメラ33が第2カメラである。
物標位置推定ユニット23は、前カメラ27の位置と、第1物標の位置P1とを通る第1直線49を作成する。また、物標位置推定ユニット23は、左カメラ33の位置と、第2物標の位置P2とを通る第2直線51を作成する。物標位置推定ユニット23は、第1直線49と第2直線51との交点53の位置を、第1物標及び第2物標の位置として推定する。なお、前カメラ27の位置、左カメラ33の位置、及び交点53の位置は、物標の位置Pと同様に、車両3を基準とする座標系により特定される位置である。
物標検知装置1は、図3に示す事例とは異なり、前方画像が第1画像であり、右方画像が第2画像である場合も、同様に、第1物標及び第2物標の位置を推定することができる。
物標検知装置1は、図3に示す事例とは異なり、右方画像が第1画像であり、後方画像が第2画像である場合も、同様に、第1物標及び第2物標の位置を推定することができる。
物標検知装置1は、図3に示す事例とは異なり、左方画像が第1画像であり、後方画像が第2画像である場合も、同様に、第1物標及び第2物標の位置を推定することができる。
3.物標検知装置1が奏する効果
(1A)物標検知装置1は物標の位置を正確に推定することができる。その理由を図3に基づき説明する。1つの物標が、撮影範囲39を表す前方画像において第1物標45として認識されるとともに、撮影範囲41を表す左方画像において第2物標47として認識されることがある。前方画像に基づき推定された第1物標の位置P1は、前カメラ27の高さが変化することにより、第1直線49の方向で不正確になることがある。第1物標の位置P1は、前カメラ27の高さが変化したとしても、第1直線49に直交する方向では正確である。
左方画像に基づき推定された第2物標の位置P2は、左カメラ33の高さが変化することにより、第2直線51の方向で不正確になることがある。第2物標の位置P2は、左カメラ33の高さが変化したとしても、第2直線51に直交する方向では正確である。物標検知装置1は、交点53の位置を物標の位置として推定する。交点53の位置は、前カメラ27及び左カメラ33の高さが変化したとしても、いずれの方向においても正確な物標の位置である。
よって、物標検知装置1は、前カメラ27及び左カメラ33の高さが変化したとしても、物標の位置を正確に推定することができる。
(1B)物標検知装置1は、前記位置条件が充足されることをさらなる必要条件として、物標の位置を推定する。物標検知装置1は、前記位置条件が充足されない場合、物標の位置を推定しない。そのため、実際には同一ではない2つの物標を同一の物標であると誤判断してしまうことを抑制できる。
(1C)車両3は4個のカメラを備える。そのため、物標検知装置1は、広い範囲にわたって物標を検知することができる。
(1D)前カメラ27、後カメラ29、右カメラ31、及び左カメラ33は、それぞれ、魚眼レンズ又は広角レンズを備えるカメラである。そのため、物標検知装置1は、広い範囲にわたって物標を検知することができる。
<第2実施形態>
1.第1実施形態との相違点
第2実施形態は、基本的な構成は第1実施形態と同様であるため、相違点について以下に説明する。なお、第1実施形態と同じ符号は、同一の構成を示すものであって、先行する説明を参照する。
前述した第1実施形態では、位置条件は前述したものであった。これに対し、第2実施形態では、位置条件は以下のものである。
第2実施形態の位置条件:第1画像のうち、共通範囲を表す部分の一部であって、第1カメラの撮影範囲の境界側の部分に第1物標が存在する。且つ、第2画像のうち、共通範囲を表す部分の一部であって、第2カメラの撮影範囲の境界側の部分に第2物標が存在する。
第2実施形態の位置条件を充足する事例を図5に示す。この事例では、撮影範囲39を表す前方画像が第1画像であり、撮影範囲41を表す左方画像が第2画像である。また、前カメラ27が第1カメラであり、左カメラ33が第2カメラである。
第1物標45は部分55に存在する。部分55は、第1画像のうち、共通範囲43を表す部分の一部であって、第1カメラの撮影範囲39の境界39A側に位置する。第2物標47は部分57に存在する。部分57は、第2画像のうち、共通範囲43を表す部分の一部であって、第2カメラの撮影範囲41の境界41A側に位置する。
2.物標検知装置1が奏する効果
以上詳述した第2実施形態によれば、前述した第1実施形態の効果(1A)、(1C)、(1D)を奏し、さらに、以下の効果を奏する。
(2A)物標検知装置1は、第2実施形態の位置条件が充足されることをさらなる必要条件として、物標の位置を推定する。物標検知装置1は、第2実施形態の位置条件が充足されない場合、物標の位置を推定しない。
この場合の効果を、図5に示す事例に基づき説明する。部分55は、撮影範囲39を表す画像の周辺部分である。また、部分57は、撮影範囲41を表す画像の周辺部分である。周辺部分では、1画素が表す領域が大きい。そのため、部分55にある第1物標45の位置P1の精度は低い。また、部分57にある第2物標47の位置P2の精度は低い。
よって、第2実施形態の位置条件が充足される場合は、物標の位置を正確に推定する必要性が高い場合である。一方、第2実施形態の位置条件が充足されない場合は、物標の位置を正確に推定する必要性が相対的に低い場合である。物標検知装置1は、物標の位置を正確に推定する必要性が高い場合に限定して、物標の位置を推定する。そのため、第2実施形態の位置条件が充足されるか否かによらず物標の位置を推定する場合に比べて、物標検知装置1の処理負担を軽減できる。
<第3実施形態>
1.第1実施形態との相違点
第3実施形態は、基本的な構成は第1実施形態と同様であるため、相違点について以下に説明する。なお、第1実施形態と同じ符号は、同一の構成を示すものであって、先行する説明を参照する。
物標検知装置1は、図6に示すように、画像取得ユニット9と、部位認識ユニット59と、画像判断ユニット60と、部位の位置推定ユニット61と、第1方向推定ユニット63と、第2方向推定ユニット65と、物標位置推定ユニット67と、を備える。
画像取得ユニット9は、第1画像取得ユニット及び第2画像取得ユニットに対応する。部位認識ユニット59は、第1部位認識ユニット及び第2部位認識ユニットに対応する。部位の位置推定ユニット61は、第1位置推定ユニット及び第2位置推定ユニットに対応する。
2.物標検知装置1が実行する処理
物標検知装置1が実行する処理を、図7~図8に基づき説明する。図7のステップ11では、画像取得ユニット9が、前カメラ27、後カメラ29、右カメラ31、及び左カメラ33を用いて、前方画像、後方画像、右方画像、及び左方画像を取得する。
ステップ12では、部位認識ユニット59が、前記ステップ11で取得した画像のそれぞれにおいて、部位を認識する処理を行う。例えば、図8に示すように、部位69、71とは、他の車両73の前面73A、後面73B、右側面73C、及び左側面73Dのうちのいずれかの一部である。前面73A、後面73B、右側面73C、及び左側面73Dは、他の車両73の外周面を構成する面に対応する。
なお、図8に示す事例では、他の車両73は、車両3の前方の道路を、車両3の前後方向とは直交する方向Fに走行している車両である。
ステップ13では、画像判断ユニット60が、前記ステップ11で取得した画像の中に、以下の条件を全て充足する第1画像及び第2画像が存在するか否かを判断する。
第1条件:第1画像は、少なくとも、前面73A、後面73B、右側面73C、及び左側面73Dのうちのいずれか1つの面(以下では第1面とする)を表している。
第2条件:第1画像において、第1面に存在する部位(以下では第1部位とする)が認識されている。
第3条件:第2画像は、少なくとも、前面73A、後面73B、右側面73C、及び左側面73Dのうちのいずれか1つの面であって、第1面と隣接する面を表している。
第4条件:第2画像において、第2面に存在する部位(以下では第2部位とする)が認識されている。
第5条件:第1カメラから第1面に向かう直線と、第2カメラから第2面に向かう直線とは、上方から見て交差している。
なお、第1カメラは、前カメラ27、後カメラ29、右カメラ31、及び左カメラ33のうち、第1画像を生成したカメラである。第2カメラは、前カメラ27、後カメラ29、右カメラ31、及び左カメラ33のうち、第2画像を生成したカメラである。
ここで、第1画像及び第2画像の事例を図8に基づき説明する。この事例において、撮影範囲39を表す前方画像が第1画像に対応し、撮影範囲75を表す右方画像が第2画像に対応する。
前方画像は、左側面73Dを表しているから、第1条件を充足する。前方画像において、左側面73Dに存在する部位69が認識されているから、第2条件を充足する。左側面73Dは第1面に対応する。部位69は第1部位に対応する。
右方画像は、左側面73Dと隣接する前面73Aを表しているから、第3条件を充足する。右方画像において、前面73Aに存在する部位71が認識されているから、第4条件を充足する。前面73Aは第2面に対応する。部位71は第2部位に対応する。
前カメラ27から左側面73Dに向かう直線77と、右カメラ31から前面73Aに向かう直線79とが、上方から見て交差しているから、第5条件を充足する。前カメラ27は第1カメラに対応する。右カメラ31は第2カメラに対応する。
第1画像及び第2画像が存在する場合、本処理はステップ14に進む。第1画像及び第2画像のうち一方でも存在しない場合、本処理は終了する。
ステップ14では、部位の位置推定ユニット61が、第1画像に基づき、第1部位の位置を推定する。また、部位の位置推定ユニット61は、第2画像に基づき、第2部位の位置を推定する。第1部位の位置及び第2部位の位置は、車両3を基準とする座標系により特定される位置である。
ステップ15では、第1方向推定ユニット63が、第1画像に基づき、第1面に沿った第1水平線の方向を推定する。図8に示す例では、第1方向推定ユニット63は、左側面73Dに沿った第1水平線81の方向を推定する。第1水平線81は水平方向に対し平行である。
ステップ16では、第2方向推定ユニット65が、第2画像に基づき、第2面に沿った第2水平線の方向を推定する。図8に示す例では、第2方向推定ユニット65は、前面73Aに沿った第2水平線83の方向を推定する。第2水平線83は水平方向に対し平行である。
ステップ17では、物標位置推定ユニット67が、第1部位の位置を通る第1水平線と、第2部位の位置を通る第2水平線との交点の位置を、他の車両の端部の位置として推定する。図8に示す例では、物標位置推定ユニット67が、部位69の位置を通る第1水平線81と、部位71の位置を通る第2水平線83との交点85の位置を、他の車両73の端部の位置として推定する。
物標検知装置1は、図8に示す事例とは異なり、前方画像が第1画像であり、左方画像が第2画像である場合も、同様に、他の車両73の端部の位置を推定することができる。
物標検知装置1は、図8に示す事例とは異なり、右方画像が第1画像であり、後方画像が第2画像である場合も、同様に、他の車両73の端部の位置を推定することができる。
物標検知装置1は、図8に示す事例とは異なり、左方画像が第1画像であり、後方画像が第2画像である場合も、同様に、他の車両73の端部の位置を推定することができる。
2.物標検知装置1が奏する効果
以上詳述した第3実施形態によれば、前述した第1実施形態の効果(1C)、(1D)を奏し、さらに、以下の効果を奏する。
(3A)物標検知装置1は、他の車両の端部の位置を正確に推定できる。その理由を図8の事例に基づき説明する。
直線77と、直線79とが交差しているため、直線77と左側面73Dとが成す角度は小さい。物標検知装置1が前記ステップ14で推定する部位69の位置は、前カメラ27の高さが変化したとしても、直線77と直交する方向においては正確である。直線77と左側面73Dとが成す角度は小さいため、物標検知装置1が前記ステップ14で推定する部位69の位置は、左側面73Dと直交する方向においては正確である。
直線77と、直線79とが交差しているため、直線79と前面73Aとが成す角度は小さい。物標検知装置1が前記ステップ14で推定する部位71の位置は、右カメラ31の高さが変化したとしても、直線79と直交する方向においては正確である。直線79と前面73Aとが成す角度は小さいため、物標検知装置1が前記ステップ14で推定する部位71の位置は、前面73Aと直交する方向においては正確である。
よって、部位69の位置を通る第1水平線81と、部位71の位置を通る第2水平線83との交点85の位置は、前カメラ27及び右カメラ31の高さが変化したとしても、いずれの方向においても正確である。
<他の実施形態>
以上、本開示の実施形態について説明したが、本開示は上述の実施形態に限定されることなく、種々変形して実施することができる。
(1)車両3が備えるカメラの数は、4個以外であってもよく、例えば、2個又は3個であってもよい。車両3が備えるカメラは、魚眼レンズ及び広角レンズのいずれでもないレンズを備えていてもよい。
(2)第1、第2実施形態において、前記ステップ4の判断は省略してもよい。この場合、本処理は、前記ステップ3の後、常に前記ステップ5に進む。
(3)上記実施形態における1つの構成要素が有する複数の機能を、複数の構成要素によって実現したり、1つの構成要素が有する1つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、1つの構成要素によって実現したり、複数の構成要素によって実現される1つの機能を、1つの構成要素によって実現したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。
(4)上述した物標検知装置の他、当該物標検知装置を構成要素とするシステム、当該物標検知装置としてコンピュータを機能させるためのプログラム、このプログラムを記録した半導体メモリ等の非遷移的実態的記録媒体、物標検知方法、物標の位置推定方法、物標の位置推定装置等、種々の形態で本開示を実現することもできる。
1…物標検知装置、3…車両、9…画像取得ユニット、13…物標認識ユニット、17…各物標の位置推定ユニット、21…同一性判断ユニット、23…物標位置推定ユニット、25…位置判断ユニット、43…共通範囲、45…第1物標、47…第2物標、59…部位認識ユニット、60…画像判断ユニット、61…部位の位置推定ユニット、63…第1方向推定ユニット、65…第2方向推定ユニット、67…物標位置推定ユニット

Claims (6)

  1. 車両(3)が備える第1カメラ(27、29、31、33)が生成した第1画像を取得するように構成された第1画像取得ユニット(9)と、
    前記車両が備える第2カメラ(27、29、31、33)であって、撮影範囲(41)の一部が前記第1カメラの撮影範囲(39)と共通する範囲(43)である第2カメラが生成した第2画像を取得するように構成された第2画像取得ユニット(9)と、
    前記第1画像において第1物標を認識するように構成された第1物標認識ユニット(13)と、
    前記第2画像において第2物標を認識するように構成された第2物標認識ユニット(13)と、
    前記第1画像の中における前記第1物標と路面との接地点の位置に基づき、前記車両を基準とする座標系により特定される前記第1物標の位置を推定するように構成された第1位置推定ユニット(17)と、
    前記第2画像の中における前記第2物標と路面との接地点の位置に基づき、前記車両を基準とする座標系により特定される前記第2物標の位置を推定するように構成された第2位置推定ユニット(17)と、
    前記第1物標と前記第2物標とが同一であるか否かを判断するように構成された同一性判断ユニット(21)と、
    前記第1物標と前記第2物標とが同一であると前記同一性判断ユニットが判断することを必要条件として、(a)前記第1カメラの位置と、前記第1位置推定ユニットが推定した前記第1物標の位置とを通る第1直線(49)と、(b)前記第2カメラの位置と、前記第2位置推定ユニットが推定した前記第2物標の位置とを通る第2直線(51)との交点(53)を、前記第1物標及び前記第2物標の位置として推定する物標位置推定ユニット(23)と、
    を備える物標検知装置(1)。
  2. 請求項1に記載の物標検知装置であって、
    前記第1画像のうち前記共通する範囲を表す部分に前記第1物標が存在し、且つ、前記第2画像のうち前記共通する範囲を表す部分に前記第2物標が存在するという位置条件が充足されるか否かを判断するように構成された位置判断ユニット(25)をさらに備え、
    前記物標位置推定ユニットは、前記位置条件が充足されることをさらなる必要条件として、前記第1物標及び前記第2物標の位置を推定する物標検知装置。
  3. 請求項1に記載の物標検知装置であって、
    前記第1画像のうち、前記共通する範囲を表す部分の一部であって、前記第1カメラの撮影範囲の境界側の部分(55)に前記第1物標が存在し、且つ、前記第2画像のうち、前記共通する範囲を表す部分の一部であって、前記第2カメラの撮影範囲の境界側の部分(57)に前記第2物標が存在するという位置条件が充足されるか否かを判断するように構成された位置判断ユニット(25)をさらに備え、
    前記物標位置推定ユニットは、前記位置条件が充足されることをさらなる必要条件として、前記第1物標及び前記第2物標の位置を推定する物標検知装置。
  4. 車両(3)が備える第1カメラ(27、29、31、33)が生成した第1画像を取得するように構成された第1画像取得ユニット(9)と、
    前記車両が備える第2カメラ(27、29、31、33)が生成した第2画像を取得するように構成された第2画像取得ユニット(9)と、
    前記第1画像において、他の車両(73)の外周を構成する第1面(73A、73B、73C、73D)の一部である第1部位(69)を認識するように構成された第1部位認識ユニット(59)と、
    前記第2画像において、前記外周を構成し、前記第1面と隣接する第2面(73A、73B、73C、73D)の一部である第2部位(71)を認識するように構成された第2部位認識ユニット(59)と、
    前記第1画像の中における前記第1部位と路面との接地点の位置に基づき、前記車両を基準とする座標系により特定される前記第1部位の位置を推定するように構成された第1位置推定ユニット(61)と、
    前記第2画像の中における前記第2部位と路面との接地点の位置に基づき、前記車両を基準とする座標系により特定される前記第2部位の位置を推定するように構成された第2位置推定ユニット(61)と、
    前記第1画像に基づき、前記車両を基準とする座標系により特定される、前記第1面に沿った第1水平線(81)の方向を推定するように構成された第1方向推定ユニット(63)と、
    前記第2画像に基づき、前記車両を基準とする座標系により特定される、前記第2面に沿った第2水平線(83)の方向を推定するように構成された第2方向推定ユニット(65)と、
    前記第1部位の位置を通る前記第1水平線と、前記第2部位の位置を通る前記第2水平線との交点の位置(85)を、前記他の車両の端部の位置として推定するように構成された物標位置推定ユニット(67)と、
    を備え、
    前記車両を基準とする座標系において、前記第1カメラから前記第1面に向かう直線(77)と、前記第2カメラから前記第2面に向かう直線(79)とは交差している物標検知装置(1)。
  5. 請求項1~4のいずれか1項に記載の物標検知装置であって、
    前記車両は4個のカメラ(27、29、31、33)を備え、
    前記第1カメラ及び前記第2カメラは、前記4個のカメラの一部である物標検知装置。
  6. 請求項1~5のいずれか1項に記載の物標検知装置であって、
    前記第1カメラ及び前記第2カメラは魚眼レンズ又は広角レンズを備えるカメラである物標検知装置。
JP2018218254A 2018-11-21 2018-11-21 物標検知装置 Active JP7131327B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018218254A JP7131327B2 (ja) 2018-11-21 2018-11-21 物標検知装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018218254A JP7131327B2 (ja) 2018-11-21 2018-11-21 物標検知装置

Publications (2)

Publication Number Publication Date
JP2020086758A JP2020086758A (ja) 2020-06-04
JP7131327B2 true JP7131327B2 (ja) 2022-09-06

Family

ID=70908219

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018218254A Active JP7131327B2 (ja) 2018-11-21 2018-11-21 物標検知装置

Country Status (1)

Country Link
JP (1) JP7131327B2 (ja)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007172501A (ja) 2005-12-26 2007-07-05 Alpine Electronics Inc 車両運転支援装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007172501A (ja) 2005-12-26 2007-07-05 Alpine Electronics Inc 車両運転支援装置

Also Published As

Publication number Publication date
JP2020086758A (ja) 2020-06-04

Similar Documents

Publication Publication Date Title
WO2016002163A1 (ja) 画像表示装置、画像表示方法
US8594378B2 (en) 3D object detecting apparatus and 3D object detecting method
US11288833B2 (en) Distance estimation apparatus and operating method thereof
JP6819281B2 (ja) 衝突判定装置、および、衝突判定システム
JP6003673B2 (ja) 3次元位置推定装置、車両制御装置、および3次元位置推定方法
WO2015186294A1 (ja) 車載画像処理装置
JP6011625B2 (ja) 速度算出装置及び速度算出方法並びに衝突判定装置
US8160300B2 (en) Pedestrian detecting apparatus
JP6778620B2 (ja) 区画線検出装置、区画線検出システム、及び区画線検出方法
US9824449B2 (en) Object recognition and pedestrian alert apparatus for a vehicle
JP2020060899A (ja) 車載カメラのキャリブレーション装置
KR102566120B1 (ko) 차량용 서라운드 뷰 영상 평가 장치 및 방법
JP5097681B2 (ja) 地物位置認識装置
WO2011016257A1 (ja) 車両用距離算出装置
CN111989541B (zh) 立体摄像机装置
CN108885833B (zh) 车辆检知装置
JP7131327B2 (ja) 物標検知装置
JP7226930B2 (ja) キャリブレーション装置及び電子ミラーシステム
JP5425500B2 (ja) キャリブレーション装置およびキャリブレーション方法
JP6032141B2 (ja) 走行路面標示検知装置および走行路面標示検知方法
WO2020036039A1 (ja) ステレオカメラ装置
JP7064400B2 (ja) 物体検知装置
JP2013101040A (ja) 距離推定装置
JP6048384B2 (ja) 画像判定装置
JP6477246B2 (ja) 路面標示検出装置及び路面標示検出方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210413

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220323

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220405

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220526

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220726

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220808

R151 Written notification of patent or utility model registration

Ref document number: 7131327

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151