JP7431623B2 - 車外環境認識装置 - Google Patents

車外環境認識装置 Download PDF

Info

Publication number
JP7431623B2
JP7431623B2 JP2020041648A JP2020041648A JP7431623B2 JP 7431623 B2 JP7431623 B2 JP 7431623B2 JP 2020041648 A JP2020041648 A JP 2020041648A JP 2020041648 A JP2020041648 A JP 2020041648A JP 7431623 B2 JP7431623 B2 JP 7431623B2
Authority
JP
Japan
Prior art keywords
speed
stereo
monocular
weight
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020041648A
Other languages
English (en)
Other versions
JP2021144389A (ja
Inventor
直樹 高橋
雄介 後藤
雄貴 勝野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Subaru Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Subaru Corp filed Critical Subaru Corp
Priority to JP2020041648A priority Critical patent/JP7431623B2/ja
Priority to CN202110046634.0A priority patent/CN113392691A/zh
Priority to US17/154,734 priority patent/US11748967B2/en
Publication of JP2021144389A publication Critical patent/JP2021144389A/ja
Application granted granted Critical
Publication of JP7431623B2 publication Critical patent/JP7431623B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • B60W30/143Speed control
    • B60W30/146Speed limiting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4041Position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4049Relationship among other objects, e.g. converging dynamic objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • Social Psychology (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Psychiatry (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Signal Processing (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Automation & Control Theory (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、撮像された立体物の速度を導出可能な車外環境認識装置に関する。
車両に搭載された2個の撮像装置で撮像された画像を用いて、自車両の進行方向に位置する立体物(例えば、先行車両)の速度などの車外環境を認識する技術が知られている(例えば、特許文献1)。
特開2019-34664号公報
2個の撮像装置を用いて車外環境を認識する技術では、各々の撮像装置で撮像された輝度画像から、視差情報が含まれる距離画像が導出され、導出された距離画像に基づいて立体物の速度が導出される。
ところで、片方の撮像装置の検出領域に雨滴などが存在すると、距離画像において誤った視差が多数導出されることがある。誤った視差が多数導出されると、立体物の速度に誤りが生じることがある。場合によっては、導出される立体物の速度が急激に変化することがある。そうすると、導出された立体物の速度を利用してクルーズコントロールなどを行っている場合、自車両が意図せず加速され、自車両が先行車両に誤って接近するおそれがある。
そこで、本発明は、立体物の速度を安定して導出することが可能な車外環境認識装置を提供することを目的とする。
上記課題を解決するために、本発明の車外環境認識装置は、2個の撮像装置の輝度画像から導出された距離画像に基づいて抽出された所定の立体物の速度を示すステレオ速度を導出するステレオ速度導出部と、1個の撮像装置の輝度画像に基づいて抽出された立体物の速度を示す単眼速度を導出する単眼速度導出部と、立体物の過去の速度に基づいて予測された立体物の現在の速度を示す予測速度を導出する予測速度導出部と、ステレオ速度、単眼速度および予測速度の混合比率を導出する混合比率導出部と、混合比率に基づいて、ステレオ速度、単眼速度および予測速度を混合して、立体物の速度を示す物体速度を導出する物体速度導出部と、を備える。
また、混合比率導出部は、ステレオ速度の割合を示すステレオ重みを導出するステレオ重み導出部と、単眼速度の割合を示す単眼重みを導出する単眼重み導出部と、予測速度の割合を示す予測重みを導出する予測重み導出部と、を有し、物体速度導出部は、ステレオ速度をVs、単眼速度をVm、予測速度をVp、ステレオ重みをWs、単眼重みをWm、予測重みをWp、物体速度をVとした場合、以下の式(1)によって物体速度を導出してもよい。
V=(Ws×Vs+Wm×Vm+Wp×Vp)/(Ws+Wm+Wp) ・・・(1)
また、ステレオ重み導出部は、距離画像の信頼値に従ってステレオ重みを導出してもよい。
また、単眼重み導出部は、1個の撮像装置の輝度画像の信頼値に従って単眼重みを導出してもよい。
また、予測重み導出部は、距離画像の不信頼値、および、1個の撮像装置の輝度画像の不信頼値に従って、予測重みを導出してもよい。
本発明によれば、立体物の速度を安定して導出することが可能となる。
図1は、車外環境認識システムの接続関係を示したブロック図である。 図2は、輝度画像と距離画像を説明するための説明図である。図2Aは、輝度画像の一例を示している。図2Bは、距離画像の一例を示している。 図3は、車外環境認識装置の概略的な機能を示した機能ブロック図である。 図4は、ステレオ信頼値について説明する図である。図4Aは、ステレオ信頼値に関連付けられるステレオステータスを表で示している。図4Bは、ステレオステータスをグラフで示している。 図5は、IB値を説明する図である。図5Aは、輝度画像の一例を示している。図5Bは、図5Aの輝度画像に基づいて導出された距離画像を加工した画像の一例を示している。 図6は、単眼信頼値について説明する図である。図6Aは、自車両の車外環境が昼の場合を示している。図6Bは、自車両の車外環境が夜の場合を示している。 図7は、識別率および識別スコアを説明する図である。 図8は、ランプスコアを説明する図である。 図9は、中央制御部の動作の流れを説明するフローチャートである。
以下に添付図面を参照しながら、本発明の実施形態について詳細に説明する。かかる実施形態に示す寸法、材料、その他具体的な数値等は、発明の理解を容易にするための例示に過ぎず、特に断る場合を除き、本発明を限定するものではない。なお、本明細書および図面において、実質的に同一の機能、構成を有する要素については、同一の符号を付することにより重複説明を省略し、また本発明に直接関係のない要素は図示を省略する。
図1は、車外環境認識システム100の接続関係を示したブロック図である。車外環境認識システム100は、撮像装置110と、車外環境認識装置120と、車両制御装置(ECU:Engine Control Unit)130とを含んで構成される。
撮像装置110は、CCD(Charge-Coupled Device)やCMOS(Complementary Metal-Oxide Semiconductor)等の撮像素子を含んで構成され、自車両1の前方の車外環境を撮像し、少なくとも輝度の情報が含まれる輝度画像(カラー画像やモノクロ画像)を生成することができる。また、撮像装置110は、自車両1の進行方向側において2つの撮像装置110それぞれの光軸が略平行になるように、略水平方向に離隔して配置される。撮像装置110は、自車両1の前方の検出領域に存在する立体物を撮像した輝度画像を、例えば1/60秒のフレーム毎(60fps)に連続して生成する。ここで、撮像装置110によって認識する立体物は、自転車、歩行者、車両、信号機、道路(進行路)、道路標識、ガードレール、建物といった独立して存在する物のみならず、自転車の車輪等、その一部として特定できる物も含む。
また、車外環境認識装置120は、2つの撮像装置110それぞれから輝度画像を取得し、一方の輝度画像から任意に抽出したブロック(例えば、水平4画素×垂直4画素の配列)に対応するブロックを他方の輝度画像から検索する、所謂パターンマッチングを用いて視差、および、任意のブロックの画面内の位置を示す画面位置を含む視差情報を導出する。ここで、水平は、撮像した画像の画面横方向を示し、垂直は、撮像した画像の画面縦方向を示す。このパターンマッチングとしては、一対の画像間において、任意のブロック単位で輝度(Y)を比較することが考えられる。例えば、輝度の差分をとるSAD(Sum of Absolute Difference)、差分を2乗して用いるSSD(Sum of Squared intensity Difference)や、各画素の輝度から平均値を引いた分散値の類似度をとるNCC(Normalized Cross Correlation)等の手法がある。車外環境認識装置120は、このようなブロック単位の視差導出処理を検出領域(例えば、600画素×200画素)に映し出されている全てのブロックについて行う。ここでは、ブロックを4画素×4画素としているが、ブロック内の画素数は任意に設定することができる。
ただし、車外環境認識装置120では、検出分解能単位であるブロック毎に視差を導出することはできるが、そのブロックがどのような対象物の一部であるかを認識できない。したがって、視差情報は、対象物単位ではなく、検出領域における検出分解能単位(例えばブロック単位)で独立して導出されることとなる。ここでは、このようにして導出された視差情報を対応付けた画像を、上述した輝度画像と区別して距離画像という。
図2は、輝度画像126と距離画像128を説明するための説明図である。図2Aは、輝度画像126の一例を示している。図2Bは、距離画像128の一例を示している。例えば、2つの撮像装置110を通じ、検出領域124について図2Aのような輝度画像126が生成されたとする。ただし、ここでは、理解を容易にするため、2つの輝度画像126の一方のみを模式的に示している。車外環境認識装置120は、このような輝度画像126からブロック毎の視差を求め、図2Bのような距離画像128を形成する。距離画像128における各ブロックには、そのブロックの視差が関連付けられている。ここでは、説明の便宜上、視差が導出されたブロックを黒のドットで表している。
また、車外環境認識装置120は、距離画像128におけるブロック毎の視差情報を、所謂ステレオ法を用いて三次元の位置情報に変換することで、自車両1との相対距離をブロック毎に導出することができる。ここで、ステレオ法は、三角測量法を用いることで、対象物の視差からその対象物の撮像装置110に対する相対距離を導出する方法である。
車外環境認識装置120は、輝度画像126に基づく輝度値(カラー値)、および、距離画像128に基づいて算出された、自車両1との相対距離を含む実空間における三次元の位置情報を用い、カラー値が等しく三次元の位置情報が近いブロック同士を対象物としてグループ化して、自車両1前方の検出領域における対象物がいずれの特定物(例えば、先行車両や自転車)に対応するかを特定する。また、車外環境認識装置120は、このように立体物を特定すると、立体物との衝突を回避したり(衝突回避制御)、先行車両との車間距離を安全な距離に保つように自車両1を制御する(クルーズコントロール)。
車外環境認識装置120は、上記のようにして特定された立体物の速度を導出し、導出された立体物の速度を用いて上記の衝突回避制御またはクルーズコントロールを行う。以後、車外環境認識装置120が導出する立体物の速度を、物体速度と呼ぶ場合がある。
図1に示すように、車両制御装置130は、ステアリングホイール132、アクセルペダル134、ブレーキペダル136を通じて運転手の操作入力を受け付け、操舵機構142、駆動機構144、制動機構146に伝達することで自車両1を制御する。また、車両制御装置130は、車外環境認識装置120の指示に従い、操舵機構142、駆動機構144、制動機構146を制御する。
図3は、車外環境認識装置120の概略的な機能を示した機能ブロック図である。図3に示すように、車外環境認識装置120は、I/F部150と、データ保持部152と、中央制御部154とを含んで構成される。
I/F部150は、撮像装置110、および、車両制御装置130との双方向の情報交換を行うためのインターフェースである。データ保持部152は、RAM、フラッシュメモリ、HDD等で構成され、以下に示す各機能部の処理に必要な様々な情報を保持する。
中央制御部154は、中央処理装置(CPU)、プログラム等が格納されたROM、ワークエリアとしてのRAM等を含む半導体集積回路で構成され、システムバス156を通じて、I/F部150、データ保持部152等を制御する。また、本実施形態において、中央制御部154は、ステレオ速度導出部160、単眼速度導出部162、予測速度導出部164、混合比率導出部166、物体速度導出部168としても機能する。
ところで、距離画像では、左右の撮像装置110の輝度画像126間の画像一致度が閾値以上であり、かつ、最大となった視差を、ブロック毎に導出している。換言すると、距離画像では、画像一致度が閾値未満であるブロックでは、視差が導出されなかったとみなしている。
左右両方の撮像装置110が検出領域124を鮮明に撮像できている状態では、左右の輝度画像126の一致度が高くなり、距離画像128における多くのブロックで、実際に視差を導出できる。
しかし、撮像装置110の検出領域124に雨滴などが存在すると、輝度画像126がぼやけた画像(立体物がはっきりと撮像されていない画像)となる。このことから、左右の撮像装置110のいずれか一方の撮像装置110の検出領域124に雨滴が存在すると、左右の輝度画像126の一致度が低下し、距離画像128において実際に視差が導出できたブロックの数が少なくなる。視差が導出できなかったブロックの数が多くなると、距離画像128から立体物の特定が困難となり、その結果、先行車両などの立体物の物体速度を正確に導出することができなくなる。
そこで、車外環境認識装置120は、距離画像128において実際に視差が導出できたブロック数が所定ブロック数未満となると、ステレオ距離を用いたステレオ制御から単眼距離を用いた単眼制御に切り替える。ステレオ制御は、少なくともステレオ距離を用いて自車両1を制御するものである。ステレオ距離は、距離画像128に基づいて抽出された立体物の相対距離である。単眼制御は、ステレオ距離を用いずに単眼距離を用いて自車両1を制御するものである。単眼距離は、1個(片方)の撮像装置110の輝度画像126に基づいて抽出された立体物の相対距離である。
単眼制御となると、車外環境認識装置120は、左右の撮像装置110のうち相対的に鮮明に撮像できている撮像装置110(例えば、輝度画像126の輝度値が全体的に高い方)の輝度画像126を用いる。
例えば、車外環境認識装置120は、単眼制御対象の輝度画像126において、物体速度の導出対象となる立体物(例えば、先行車両)の占有する領域を示す物体枠を導出する。そして、車外環境認識装置120は、現在のフレームに対して所定フレーム(例えば、100フレームなど)前の物体枠の横幅と、そのときの相対距離(単眼制御に切り替えた初回は、切り替えの直前のステレオ距離)と現在の物体枠の横幅との差分に基き、横幅の変化を相対距離の変化とみなして、立体物の物体速度を導出する。
このように、車外環境認識装置120では、2個の撮像装置110のうち片方の撮像装置110の輝度画像126がぼやける場合、もう片方の撮像装置110の輝度画像126のみを用いて物体速度を導出することで、導出される物体速度の精度の低下を抑制できる。
ところが、ステレオ制御から単眼制御に切り替わる直前では、視差が導出できたブロック数が所定ブロック数より多いが、雨滴などの存在によって輝度画像126がぼやけているため、ブロック毎に誤った値の視差が導出されることがある。誤った視差が多数導出されると、距離画像128に基づいた物体速度の導出時において、誤った物体速度が導出されることがある。
誤った物体速度が導出されると、車外環境認識装置120は、場合によっては、物体速度が急激に変化したと認識するおそれがある。例えば、立体物(例えば、先行車両)が実際には約80km/hの一定速度で移動しているにも拘わらず、車外環境認識装置120は、その立体物が約80km/hから約90km/hに急加速したように認識するおそれがある。このような場合、導出された物体速度に基づいてクルーズコントロールが行われると、自車両1が意図せずに加速され、実際には一定速度で移動している先行車両に自車両1が誤って接近するおそれがある。
そこで、本実施形態の車外環境認識装置120は、ステレオ制御中において、距離画像128に基づいて抽出された立体物の速度に加え、1個の撮像装置110の輝度画像126に基づいて抽出された立体物の速度、および、立体物の過去の速度に基づいて予測される立体物の現在の速度を導出する。
以後、距離画像128に基づいて抽出された立体物の速度を、ステレオ速度と呼ぶ場合がある。また、1個の撮像装置110の輝度画像126に基づいて抽出された立体物の速度を、単眼速度と呼ぶ場合がある。また、立体物の過去の速度に基づいて予測された立体物の現在の速度を、予測速度と呼ぶ場合がある。
また、予測速度は、例えば、物体速度の前回の導出タイミングにおいて導出された物体速度とする。つまり、予測速度については、過去の速度を現在の速度として用いる。
なお、現在から所定時間前までの過去において、立体物の減速度の絶対値が所定値(例えば、0.1G)以上とされていた場合、この減速を考慮して、予測速度が導出されてもよい。つまり、この場合、予測速度は、前回の導出タイミングにおける物体速度より減少された値とされてもよい。
本実施形態の車外環境認識装置120は、ステレオ制御中において、ステレオ速度、単眼速度および予測速度を、適切な比率で混合して、立体物の物体速度を導出する。以後、ステレオ速度、単眼速度および予測速度を混合して物体速度を導出する処理を、速度補正処理と呼ぶ場合がある。
車外環境認識装置120におけるステレオ速度導出部160は、上記のステレオ速度を導出する。単眼速度導出部162は、上記の単眼速度を導出する。予測速度導出部164は、上記の予測速度を導出する。混合比率導出部166は、ステレオ速度、単眼速度および予測速度の混合比率を導出する。物体速度導出部168は、導出された混合比率に基づいて、ステレオ速度、単眼速度および予想速度を混合して、立体物の物体速度を導出する。
混合比率導出部166は、より詳細には、ステレオ重み導出部170、単眼重み導出部172および予測重み導出部174を含む。ステレオ重み導出部170は、ステレオ速度の割合を示すステレオ重みを導出する。単眼重み導出部172は、単眼速度の割合を示す単眼重みを導出する。予測重み導出部174は、予測速度の割合を示す予測重みを導出する。
ここで、ステレオ速度をVs、単眼速度をVm、予測速度をVp、ステレオ重みをWs、単眼重みをWm、予測重みをWp、および、物体速度をV、と表記する場合がある。物体速度導出部168は、速度補正処理において、より詳細には、以下の式(1)によって物体速度を導出する。
V=(Ws×Vs+Wm×Vm+Wp×Vp)/(Ws+Wm+Wp) ・・・(1)
ステレオ重み導出部170は、距離画像128の信頼値に従ってステレオ重みを導出する。具体的には、ステレオ重み導出部170は、以下の式(2)によってステレオ重みを導出する。
Ws=(ステレオ信頼値) ・・・(2)
図4は、ステレオ信頼値について説明する図である。図4Aは、ステレオ信頼値に関連付けられるステレオステータスを表で示している。図4Bは、ステレオステータスをグラフで示している。
図4Aで示すように、ステレオ信頼値は、例えば、「0」、「1」、「2」、「3」の4段階の値が設定されている。ステレオ信頼値は、値が大きいほど、距離画像128の信頼性が高いことを示している。また、ステレオ信頼値は、ステレオステータスに関連付けられている。
ステレオステータスは、距離画像128の信頼性の高さを表現する指標である。ステレオステータスは、例えば、スーパートラスト、トラスト、ステーブル、メイビー、ナンの5段階が設定されている。ステレオステータスのトラストは、ステレオ信頼値「3」に対応付けられている。ステレオステータスのステーブルは、ステレオ信頼値「2」に対応付けられている。ステレオステータスのメイビーは、ステレオ信頼値「1」に対応付けられている。ステレオステータスのナンは、ステレオ信頼値「0」に対応付けられている。つまり、トラストは、ステーブルより信頼性が高く、ステーブルは、メイビーより信頼性が高く、メイビーは、ナンより信頼性が高い。
また、スーパートラストは、トラストよりも信頼性が高く設定されている。スーパートラストには、ステレオ信頼値が対応付けられていない。しかし、スーパートラストの場合、例外として、ステレオ速度が100%、単眼速度が0%、予測速度が0%の混合比率とされる。つまり、スーパートラストの場合、物体速度導出部168は、例外として、立体物のステレオ速度をそのまま物体速度とする。
図4Bの実線180は、スーパートラストとトラストとを区分する閾値を示す。一点鎖線182は、トラストとステーブルとを区分する閾値を示す。二点鎖線184は、ステーブルとメイビーとを区分する閾値を示す。破線186は、メイビーとナンとを区分する閾値を示す。
ステレオステータスは、単眼距離およびIB値に基づいて決定される。図5は、IB値を説明する図である。図5Aは、輝度画像126の一例を示している。図5Bは、図5Aの輝度画像126に基づいて導出された距離画像128を加工した画像の一例を示している。図5Bの画像では、画像の上下方向(高さ方向)に延びる棒190が複数表示されている。この棒190は、立体物の下端から上方向にブロックに沿って進んだときに、大凡同じ視差(距離)が連続するブロックを下から上に向かって繋げて形成される。また、棒190については、大凡同じ視差(距離)の連続数が所定連続数以上の場合にブロックを繋げるようにし、連続数が所定連続数未満の場合には棒190を形成しないようにしてもよい。つまり、1個の棒190の面積は、視差(距離)が大凡等しい領域の大きさを示す。
IB値は、この棒190の本数を示す。距離画像128で視差が導出されたブロックが多いと、IB値も大きくなる傾向にある。このことから、IB値が大きいほど、距離画像128の信頼性が高いと推定される。すなわち、IB値は、距離画像128における立体物の検出精度を示す指標である。
図4Aおよび図4Bで示すように、IB値によってステレオステータスの段階が決定され、IB値が大きいほどステレオ信頼値が大きくなるように設定されている。
例えば、単眼距離が50m以下の場合には、次のように決定される。ステレオ重み導出部170は、IB値が23を超過すれば、ステレオステータスをスーパートラストとする。ステレオ重み導出部170は、IB値が17を超過し23以下であれば、ステレオステータスをトラストとし、ステレオ信頼値を「3」とする。ステレオ重み導出部170は、IB値が14を超過し17以下であれば、ステレオステータスをステーブルとし、ステレオ信頼値を「2」とする。ステレオ重み導出部170は、IB値が6を超過し14以下であれば、ステレオステータスをメイビーとし、ステレオ信頼値を「1」とする。ステレオ重み導出部170は、IB値が6以下であれば、ステレオステータスをナンとし、ステレオ信頼値を「0」とする。
また、例えば、単眼距離が70mを超過する場合には、次のように決定される。ステレオ重み導出部170は、IB値が18を超過すれば、ステレオステータスをスーパートラストとする。ステレオ重み導出部170は、IB値が12を超過し18以下であれば、ステレオステータスをトラストとし、ステレオ信頼値を「3」とする。ステレオ重み導出部170は、IB値が9を超過し12以下であれば、ステレオステータスをステーブルとし、ステレオ信頼値を「2」とする。ステレオ重み導出部170は、IB値が2を超過し9以下であれば、ステレオステータスをメイビーとし、ステレオ信頼値を「1」とする。ステレオ重み導出部170は、IB値が2以下であれば、ステレオステータスをナンとし、ステレオ信頼値を「0」とする。
また、単眼距離が50mを超過し70m以下の範囲では、図4Bで示すように、50mのときのIB値の閾値と70mのときのIB値の閾値の間で線形補間された線形補間値を、ステレオステータスの各段階を区分する閾値としている。
なお、距離画像128における視差は、立体物が近くにあるほど、すなわち、単眼距離が近いほど、多くのブロックで導出できると推定される。つまり、単眼距離が近いほどIB値が大きくなり易いと推定される。このため、図4Aおよび図4Bで示すように、IB値の閾値は、単眼距離が近いほど大きくなるように設定されている。
また、ステレオ重み導出部170は、ステレオ速度が、予測速度の0.8倍未満、もしくは、予測速度の1.3倍を超過する場合、ステレオステータスを1段階下げて、ステレオ信頼値を1だけ下げてもよい。
次に、単眼重みについて説明する。単眼重み導出部172は、1個の撮像装置の輝度画像126の信頼値に従って単眼重みを導出する。具体的には、単眼重み導出部172は、以下の式(3)によって単眼重みを導出する。
Wm=(単眼信頼値) ・・・(3)
図6は、単眼信頼値について説明する図である。図6Aは、自車両1の車外環境が昼の場合を示している。図6Bは、自車両1の車外環境が夜の場合を示している。
図6Aおよび図6Bで示すように、単眼信頼値は、例えば、「0」、「1」、「2」、「3」の4段階の値が設定されている。単眼信頼値は、値が大きいほど、輝度画像126の信頼性が高いことを示している。また、単眼信頼値は、単眼ステータスに関連付けられている。
単眼ステータスは、輝度画像126の信頼性の高さを表現する指標である。単眼ステータスは、例えば、トラスト、ステーブル、メイビー、ナンの4段階が設定されている。単眼ステータスのトラストは、単眼信頼値「3」に対応付けられている。単眼ステータスのステーブルは、単眼信頼値「2」に対応付けられている。単眼ステータスのメイビーは、単眼信頼性「1」に対応つけられている。単眼ステータスのナンは、単眼信頼性「0」に対応付けられている。つまり、トラストは、ステーブルより信頼性が高く、ステーブルは、メイビーより信頼性が高く、メイビーは、ナンより信頼性が高い。
図6Aで示すように、昼の場合、単眼ステータスは、識別率および識別スコアに基づいて決定される。これに対し、図6Bで示すように、夜の場合、単眼ステータスは、ランプスコアおよびランプ検出継続フラグに基づいて決定される。
図7は、識別率および識別スコアを説明する図である。1個の撮像装置110の輝度画像126で対象物を特定する場合、図7で示すように、所定の大きさの枠200で対象物の少なくとも一部を囲み、枠200内の対象物が特定すべき立体物(例えば、先行車両)であるかの識別が行われる。この識別では、対象物に対して枠200がランダムに移動されて、複数個所の枠200の各々について、対象物が特定すべき立体物であるかの識別が行われる。なお、枠200は、検出された立体物に合わせた大きさで形成されてもよい。
各々の枠200における識別では、枠200内の対象物について、特定すべき立体物らしさの数値が、機械学習を用いて判断される。識別スコアは、この立体物らしさの数値のことである。識別スコアは、0~1の値となるように正規化されている。識別スコアは、1に近いほど、特定すべき立体物(例えば、先行車両)らしいことを示し、0に近いほど、特定すべき立体物らしくないことを示している。識別スコア平均値は、識別スコアを、枠200の数(換言すると、識別スコアの導出回数)で平均して導出される。
また、各々の枠200について、識別スコアが0.51を超過した場合、枠200内の対象物が、特定すべき立体物であると識別され、識別スコアが0.51以下の場合、枠200内の対象物が、特定すべき立体物ではないと識別される。
識別率は、枠200の数(換言すると、識別の回数)に対して、特定すべき立体物であると識別された回数の比率を示す。識別率が高いほど、特定すべき立体物である確率が高いと推定される。
図6Aで示すように、昼の場合、識別率および識別スコア平均値が高いほど単眼信頼値が高くなっている。例えば、単眼重み導出部172は、識別率が0.74を超過し、かつ、識別スコア平均値が0.70を超過する場合、単眼ステータスをトラストとし、単眼信頼値を「3」とする。また、単眼重み導出部172は、識別率が0.70を超過し0.74以下であり、かつ、識別スコア平均値が0.61を超過し0.70以下の場合、単眼ステータスをステーブルとし、単眼信頼値を「2」とする。また、単眼重み導出部172は、識別率が0.63を超過し0.70以下であり、かつ、識別スコア平均値が0.55を超過し0.61以下の場合、単眼ステータスをメイビーとし、単眼信頼値を「1」とする。また、単眼重み導出部172は、識別率が0.63以下であり、かつ、識別スコア平均値が0.55以下の場合、単眼ステータスをナンとし、単眼信頼値を「0」とする。
なお、単眼重み導出部172は、昼において、ある一定時間(例えば、0.5秒~1.5秒)に亘って立体物を識別できていない場合には、単眼ステータスをナンに下げ、単眼信頼値を「0」に下げてもよい。
また、識別率および識別スコア平均値が急激に下がったときに、識別できなかったとみなす回数を示すロストカウントがカウントされるようにし、単眼重み導出部172は、昼において、ロストカウントが所定回数以上カウントされた場合には、単眼ステータスを1段階下げ、単眼信頼値を1だけ下げてもよい。
図8は、ランプスコアを説明する図である。夜の場合、先行車両では、左右のテールランプが点灯されている。ランプスコアは、先行車両の左右のテールランプの特徴をスコアリングしたものである。
図8の矢印210は、輝度画像126における各テールランプの中心の高さ位置を示している。図8のハッチングで示す領域212は、各テールランプの面積を示している。図8の矢印214は、各テールランプの横幅を示している。ランプスコアは、左右のテールランプの組において、テールランプの中心の高さ位置の一致度合と、テールランプの面積の一致度合と、テールランプの横幅の一致度合とを加算した値である。ランプスコアは、0~100の間の値となるように調整されている。例えば、ランプスコアは、中心の高さ位置、面積および横幅のすべての項目が左右のテールランプで一致する場合、100となる。
また、ランプ検出継続フラグは、先行車両のテールランプが継続して検出されているか否かを示す。ランプ検出継続フラグは、所定フレーム(例えば、20フレームなど)に亘ってテールランプが継続して検出された場合にオンされ、その後、テールランプの検出が継続されている間、オン状態が継続される。なお、ランプ検出継続フラグは、テールランプの検出が途切れるとオフされる。
図6Bで示すように、夜の場合、ランプスコアが高いほど、および、ランプ検出継続フラグがオンであるほど、単眼信頼値が高くなっている。例えば、単眼重み導出部172は、ランプスコアが80を超過し、かつ、ランプ検出継続フラグがオンである場合、単眼ステータスをトラストとし、単眼信頼値を「3」とする。また、単眼重み導出部172は、ランプ検出継続フラグに拘わらず、ランプスコアが70を超過し80以下の場合、単眼ステータスをステーブルとし、単眼信頼性を「2」とする。また、単眼重み導出部172は、ランプ検出継続フラグに拘わらず、ランプスコアが70以下の場合、単眼ステータスをナンとし、単眼信頼値を「0」とする。また、単眼ステータスのメイビーは、単眼信頼値「1」に対応する。単眼ステータスのメイビーは、例えば、単眼信頼値が「2」から1だけ下げられた場合、あるいは、単眼信頼値が「0」から1だけ上げられた場合になり得る。
なお、単眼重み導出部172は、夜において、立体物(先行車両)の単眼距離が40mを超過する場合、単眼ステータスを1段階下げて、単眼信頼値を1だけ下げてもよい。これは、遠方に位置するテールランプのランプスコアに起因して単眼重みが誤って高くなり過ぎることを抑制するためである。
また、単眼重み導出部172は、昼および夜の両方において、立体物の単眼距離が60mを超過する場合、単眼ステータスを1段階下げて、単眼信頼値を1だけ下げてもよい。なお、夜の場合、上記の40mおよび60mの両方の条件を併せて、単眼信頼値を合計2だけ下げてもよい。
また、単眼重み導出部172は、昼および夜の両方において、立体物の単眼速度の変化が加速を示している場合、単眼ステータスを1段階下げて、単眼信頼値を1だけ下げてもよい。これは、立体物が加速していると誤判断された場合を考慮して、単眼信頼値を下げ、単眼速度の上昇に基づく自車両の誤った加速を抑制するためである。
また、単眼重み導出部172は、昼および夜の両方において、立体物の単眼速度の変化が加速を示しており、かつ、ブレーキランプ識別モジュールのブレーキフラグがオンである場合、単眼ステータスを1段階下げて、単眼信頼値を1だけ下げてもよい。なお、ブレーキランプ識別モジュールは、先行車両のブレーキランプの点灯の有無を判断し、ブレーキランプが点灯した場合にブレーキフラグをオンする。
また、上記のステレオ信頼値に関して、1個の撮像装置110の輝度画像126を用いた例外条件を設定してもよい。例えば、ステレオ重み導出部170は、右側の輝度画像126で枠200内の対象物が立体物であると識別された回数(右側識別数)と、左側の輝度画像126で枠200内の対象物が立体物であると識別された回数(左側識別数)との比率を取得してもよい。そして、ステレオ重み導出部170は、ステレオステータスの段階がトラスト以下であり、右側識別数と左側識別数との比率が0.9未満(単眼速度の変化が加速を示しているときは0.94未満)の場合、ステレオステータスを1段階下げて、ステレオ信頼値を1だけ下げてもよい。これは、右側識別数と左側識別数とが大幅にずれている場合には、左右の撮像装置110のいずれか一方の検出領域124に雨滴などが存在する可能性が高いと推定されるからである。
また、ステレオステータスがナンであり、かつ、単眼ステータスがナンである場合、ステレオ重み導出部170は、ステレオ信頼値を1だけ上げてもよい。これは、物体速度が予測速度のみによって導出されないようにするためである。
次に、予測重みについて説明する。予測重み導出部174は、距離画像の不信頼値、および、1個の撮像装置の輝度画像の不信頼値に従って、予測重みを導出する。具体的には、予測重み導出部174は、以下の式(4)によって予測重みを導出する。
Wp=(ステレオ不信頼値)×(単眼不信頼値) ・・・(4)
ここで、ステレオ信頼値をRs、ステレオ信頼値の最大値をRsmax、および、ステレオバイアスをBs、と表記する場合がある。予測重み導出部174は、以下の式(5)によって不信頼値を導出する。
(ステレオ不信頼値)=
Rsmax-min(Rsmax、(Rs+Bs)) ・・・(5)
式(5)におけるmin(Rsmax、(Rs+Bs))は、Rsmaxと、(Rs+Bs)とのうち、小さい方の値を採用することを示す。また、ステレオ信頼値(Rs)は、ステレオ重み導出部170で導出された値が用いられる。ステレオ信頼値の最大値(Rsmax)は、ステレオステータスがトラストのときのステレオ信頼値であり、具体的には、「3」である。
ステレオバイアス(Bs)は、ステレオ不信頼値の導出に使用されるステレオ信頼値を嵩上げして、その結果、ステレオ不信頼値を下げるために設定される。ステレオバイアスは、例えば、立体物のステレオ速度の変化が減速を示しており、かつ、立体物が近距離(ステレオ距離が所定値以下)の場合、「3」に設定される。また、ステレオバイアスは、立体物のステレオ速度の変化が減速を示しており、かつ、立体物が近距離ではない(ステレオ距離が所定値を超過している)場合、「2」に設定される。また、ステレオバイアスは、「3」または「2」のときの条件以外の場合、「1」に設定される。
また、単眼信頼値をRm、単眼信頼値の最大値をRmmax、および、単眼バイアスをBm、と表記する場合がある。予測重み導出部174は、以下の式(6)によって単眼不信頼値を導出する。
(単眼不信頼値)=
Rmmax-min(Rmmax、(Rm+Bm)) ・・・(6)
式(6)におけるmin(Rmmax、(Rm+Bm))は、Rmmaxと、(Rm+Bm)とのうち、小さい方を採用することを示す。また、単眼信頼値(Rm)は、単眼重み導出部172で導出された値が用いられる。単眼信頼値の最大値(Rmmax)は、単眼ステータスがトラストのときの単眼信頼値であり、具体的には、「3」である。
単眼バイアス(Bm)は、単眼不信頼値の導出に使用される単眼信頼値を嵩上げして、その結果、単眼不信頼値を下げるために設定される。単眼バイアスは、例えば、立体物の単眼速度の変化が減速を示している場合、「1」に設定され、その条件以外の場合、「0」に設定される。
ステレオバイアスまたは単眼バイアスを「1」以上に設定すると、予測重みの比率を下げることができる。その結果、物体速度の演算における予測速度の比率が減少し、物体速度の時間的な変化の応答性が過度に低下することを防止できる。
物体速度導出部168は、式(2)によって導出されたステレオ重み、式(3)によって導出された単眼重み、式(4)によって導出された予測重みを、式(1)に適用して、物体速度を導出する。
なお、物体速度導出部168は、所定の例外条件が成立すると、ステレオ速度、単眼速度および予想速度の混合を行わず(速度補正処理を行わず)、立体物のステレオ速度を物体速度としてもよい。所定の例外条件は、例えば、自車両1の周囲の暗さ、ステレオ距離、ステレオ速度、または、ステレオステータスなどによって設定される。
例えば、物体速度導出部168は、自車両1の周囲の暗さを検出し、その暗さが、夜を示すレベル以上の場合、例外条件を満たしたとして、立体物のステレオ速度を物体速度としてもよい。これは、雨滴などによって輝度画像126がぼやける場合と、夜によって輝度画像126が暗くなる場合とを区別するためである。
また、物体速度導出部168は、ステレオ距離が20m未満であるか、または、ステレオ速度が45km/h未満である場合、例外条件を満たしたとして、立体物のステレオ速度を物体速度としてもよい。これは、近距離に立体物が存在する場合に速度補正処理を行うと、立体物の挙動に対して物体速度の時間的な変化に応答遅れが生じるおそれがあり、そのような応答遅れを回避するためである。
また、物体速度導出部168は、ステレオ距離が20m以上25m未満(立体物が加速していると判断されたときはステレオ距離が17以上25m未満)、かつ、ステレオステータスの段階がステーブル以上の場合、例外条件を満たしたとして、立体物のステレオ速度を物体速度としてもよい。これも、導出される物体速度の応答遅れを回避するためである。
また、物体速度導出部168は、ステレオ距離が70m以上の場合、例外条件を満たしたとして、立体物のステレオ速度を物体速度としてもよい。これは、立体物が遠方に存在すると、単眼速度および予想速度の値にバラつきが生じ易くなり、物体速度の精度の低下が起こる。この物体速度の精度の低下を抑制するためである。
図9は、中央制御部154の動作の流れを説明するフローチャートである。中央制御部154は、所定制御周期で訪れる所定の割り込みタイミングごとに、図9の一連の処理を繰り返す。図9のフローチャートでは、物体速度の導出に関する動作の流れについて説明し、物体速度の導出に無関係の動作については、説明を省略する。
まず、ステレオ速度導出部160は、左右の撮像装置110からそれぞれ輝度画像126を取得する(S100)。次に、ステレオ速度導出部160は、左右の輝度画像126のマッチングをブロックごとに行い、視差情報を含む距離画像128を導出する(S110)。
次に、ステレオ速度導出部160は、距離画像128に基づいて立体物(例えば、先行車両)を特定し、立体物のステレオ距離を導出する(S120)。次に、ステレオ速度導出部160は、立体物のステレオ距離に基づいて立体物のステレオ速度を導出する(S130)。
次に、単眼速度導出部162は、ステップS100で取得された左右の輝度画像126のうち、立体物がよりはっきりと撮像されている方の輝度画像126(例えば、輝度値が全体的に高い輝度画像126)を用いて立体物の単眼速度を導出する(S140)。具体的には、単眼速度導出部162は、所定フレーム前(例えば、100フレーム前)から現在までの輝度画像126における立体物の横幅の変化に基づいて単眼速度を導出する。なお、単眼速度の導出に使用される輝度画像は、左側の撮像装置110の輝度画像または右側の撮像装置110の輝度画像のいずれか一方に固定されていてもよい。
また、単眼速度導出部162は、導出された単眼速度を時間で積分して、立体物の単眼距離を導出する(S150)。
次に、予測速度導出部164は、過去の立体物の速度に基づいて、立体物の予測速度を導出する(S160)。具体的には、予測速度導出部164は、前回の割り込みタイミング(現在の割り込みタイミングに対して所定制御周期分だけ前に訪れた割り込みタイミング)で導出された物体速度を今回の予測速度とする。
次に、物体速度導出部168は、例外条件が成立しているか否かを判断する(S170)。例外条件が成立している場合(S170におけるYES)、物体速度導出部168は、ステップS130で導出された立体物のステレオ速度を、今回の物体速度とし(S180)、一連の処理を終了する。
また、例外条件が成立していない場合(S170におけるNO)、ステップS200以降の処理が行われる。具体的には、ステレオ重み導出部170は、ステレオ重みを導出する(S200)。次に、単眼重み導出部172は、単眼重みを導出する(S210)。次に、予測重み導出部174は、予測重みを導出する(S220)。
そして、物体速度導出部168は、導出されたステレオ重み、単眼重みおよび予測重みに従って物体速度を導出し(S230)、一連の処理を終了する。具体的には、物体速度導出部168は、ステレオ重み、ステレオ速度、単眼重み、単眼速度、予測重みおよび予測速度を、式(1)に適用して物体速度を導出する。
なお、図9のフローチャートでは省略したが、各重みを導出する過程で例外条件が成立した場合、物体速度導出部168は、ステップS180の処理に進み、ステレオ速度を物体速度としてもよい。
また、図9のフローチャートでは省略したが、距離画像128において視差が導出されたブロック数が所定ブロック数未満の場合、ステレオ制御から単眼制御に切り替えられてもよい。単眼制御に切り替えられた場合、物体速度導出部168は、単眼速度を物体速度としてもよい。
以上のように、本実施形態の車外環境認識装置120では、ステレオ制御中において、ステレオ速度、単眼速度および予測速度を適切な混合比率で混合されて物体速度が導出される。これにより、本実施形態の車外環境認識装置120では、ステレオ速度に誤差が生じた際に、ステレオ速度のみから物体速度が導出される態様と比べ、誤差の生じたステレオ速度の重み付けを下げることができる。このため、本実施形態の車外環境認識装置120では、片方の撮像装置110の検出領域124に雨滴などが存在しても、導出される物体速度の誤差を抑制することができる。
したがって、本実施形態の車外環境認識装置120では、立体物の速度を安定して導出することが可能となる。その結果、本実施形態の車外環境認識装置120では、物体速度を用いたクルーズコントロールなどを安定して行うことができる。
以上、添付図面を参照しながら本発明の実施形態について説明したが、本発明はかかる実施形態に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。
110 撮像装置
120 車外環境認識装置
126 輝度画像
128 距離画像
160 ステレオ速度導出部
162 単眼速度導出部
164 予測速度導出部
166 混合比率導出部
168 物体速度導出部
170 ステレオ重み導出部
172 単眼重み導出部
174 予測重み導出部

Claims (5)

  1. 2個の撮像装置の輝度画像から導出された距離画像に基づいて抽出された所定の立体物の速度を示すステレオ速度を導出するステレオ速度導出部と、
    1個の前記撮像装置の輝度画像に基づいて抽出された前記立体物の速度を示す単眼速度を導出する単眼速度導出部と、
    前記立体物の過去の速度に基づいて予測された前記立体物の現在の速度を示す予測速度を導出する予測速度導出部と、
    前記ステレオ速度、前記単眼速度および前記予測速度の混合比率を導出する混合比率導出部と、
    前記混合比率に基づいて、前記ステレオ速度、前記単眼速度および前記予測速度を混合して、前記立体物の速度を示す物体速度を導出する物体速度導出部と、
    を備える車外環境認識装置。
  2. 前記混合比率導出部は、
    前記ステレオ速度の割合を示すステレオ重みを導出するステレオ重み導出部と、
    前記単眼速度の割合を示す単眼重みを導出する単眼重み導出部と、
    前記予測速度の割合を示す予測重みを導出する予測重み導出部と、
    を有し、
    前記物体速度導出部は、前記ステレオ速度をVs、前記単眼速度をVm、前記予測速度をVp、前記ステレオ重みをWs、前記単眼重みをWm、前記予測重みをWp、前記物体速度をVとした場合、以下の式(1)によって前記物体速度を導出する請求項1に記載の車外環境認識装置。
    V=(Ws×Vs+Wm×Vm+Wp×Vp)/(Ws+Wm+Wp) ・・・(1)
  3. 前記ステレオ重み導出部は、前記距離画像の信頼値に従って前記ステレオ重みを導出する請求項2に記載の車外環境認識装置。
  4. 前記単眼重み導出部は、1個の前記撮像装置の輝度画像の信頼値に従って前記単眼重みを導出する請求項2または3に記載の車外環境認識装置。
  5. 前記予測重み導出部は、前記距離画像の不信頼値、および、1個の前記撮像装置の輝度画像の不信頼値に従って、前記予測重みを導出する請求項2から4のいずれか1項に記載の車外環境認識装置。
JP2020041648A 2020-03-11 2020-03-11 車外環境認識装置 Active JP7431623B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020041648A JP7431623B2 (ja) 2020-03-11 2020-03-11 車外環境認識装置
CN202110046634.0A CN113392691A (zh) 2020-03-11 2021-01-14 车外环境识别装置
US17/154,734 US11748967B2 (en) 2020-03-11 2021-01-21 Vehicle exterior environment recognition apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020041648A JP7431623B2 (ja) 2020-03-11 2020-03-11 車外環境認識装置

Publications (2)

Publication Number Publication Date
JP2021144389A JP2021144389A (ja) 2021-09-24
JP7431623B2 true JP7431623B2 (ja) 2024-02-15

Family

ID=77616708

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020041648A Active JP7431623B2 (ja) 2020-03-11 2020-03-11 車外環境認識装置

Country Status (3)

Country Link
US (1) US11748967B2 (ja)
JP (1) JP7431623B2 (ja)
CN (1) CN113392691A (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114755444B (zh) * 2022-06-14 2022-10-21 天津所托瑞安汽车科技有限公司 目标速度测定方法、装置、电子设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006016445A1 (ja) 2004-08-10 2006-02-16 Murata Manufacturing Co., Ltd. レーダ
JP2014006123A (ja) 2012-06-22 2014-01-16 Toyota Motor Corp 物体検出装置、情報処理装置、物体検出方法
JP2019125354A (ja) 2018-01-12 2019-07-25 キヤノン株式会社 情報処理装置、システム、方法、およびプログラム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3255360B2 (ja) * 1999-09-22 2002-02-12 富士重工業株式会社 距離データの検査方法およびその検査装置
JP2008151659A (ja) * 2006-12-18 2008-07-03 Fuji Heavy Ind Ltd 物体検出装置
US9457810B2 (en) * 2009-10-21 2016-10-04 Berthold K. P. Horn Method and apparatus for reducing motor vehicle traffic flow instabilities and increasing vehicle throughput
JP5592308B2 (ja) * 2011-05-19 2014-09-17 富士重工業株式会社 環境認識装置
JP5612621B2 (ja) * 2012-02-28 2014-10-22 富士重工業株式会社 車外環境認識装置
US10140717B2 (en) * 2013-02-27 2018-11-27 Hitachi Automotive Systems, Ltd. Imaging apparatus and vehicle controller
JP6648411B2 (ja) * 2014-05-19 2020-02-14 株式会社リコー 処理装置、処理システム、処理プログラム及び処理方法
JP6764378B2 (ja) * 2017-07-26 2020-09-30 株式会社Subaru 車外環境認識装置
JP6944308B2 (ja) * 2017-08-18 2021-10-06 ソニーセミコンダクタソリューションズ株式会社 制御装置、制御システム、および制御方法
DE102018212318B4 (de) * 2018-07-24 2023-09-28 Denso Corporation Adaptive geschwindigkeitsregelung
US20210197720A1 (en) * 2019-12-27 2021-07-01 Lyft, Inc. Systems and methods for incident detection using inference models
CA3168740C (en) * 2020-02-21 2023-08-01 Joel Pazhayampallil Method for object avoidance during autonomous navigation
US12013457B2 (en) * 2020-03-05 2024-06-18 Uatc, Llc Systems and methods for integrating radar data for improved object detection in autonomous vehicles

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006016445A1 (ja) 2004-08-10 2006-02-16 Murata Manufacturing Co., Ltd. レーダ
JP2014006123A (ja) 2012-06-22 2014-01-16 Toyota Motor Corp 物体検出装置、情報処理装置、物体検出方法
JP2019125354A (ja) 2018-01-12 2019-07-25 キヤノン株式会社 情報処理装置、システム、方法、およびプログラム

Also Published As

Publication number Publication date
US11748967B2 (en) 2023-09-05
JP2021144389A (ja) 2021-09-24
US20210284151A1 (en) 2021-09-16
CN113392691A (zh) 2021-09-14

Similar Documents

Publication Publication Date Title
JP5886809B2 (ja) 車外環境認識装置
JP5690688B2 (ja) 外界認識方法,装置,および車両システム
JP5886799B2 (ja) 車外環境認識装置
WO2020255748A1 (ja) 車両制御装置
JP6722084B2 (ja) 物体検出装置
JP5883833B2 (ja) 車外環境認識装置
JP4980970B2 (ja) 撮像手段の調整装置および物体検出装置
JP2015069381A (ja) 車外環境認識装置
JP2018206313A (ja) 車両制御装置
US8160300B2 (en) Pedestrian detecting apparatus
JP7431623B2 (ja) 車外環境認識装置
JP6228492B2 (ja) 車外環境認識装置
JP7356319B2 (ja) 車外環境認識装置
CN109308442B (zh) 车外环境识别装置
JP2019001298A (ja) 衝突判定装置
CN109017772B (zh) 车辆控制装置
JP6174960B2 (ja) 車外環境認識装置
JP3729005B2 (ja) 車両の後方監視装置
CN112606839A (zh) 车外环境识别装置
JP6378594B2 (ja) 車外環境認識装置
JP6273156B2 (ja) 歩行者認識装置
JP7336367B2 (ja) 車外環境認識装置
JP6254870B2 (ja) 車外環境認識装置
JP6970540B2 (ja) 車外環境認識装置および車外環境認識方法
JP6850326B2 (ja) 車両制御装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230224

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240202

R150 Certificate of patent or registration of utility model

Ref document number: 7431623

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150