JP7216526B2 - 車外環境認識装置および車外環境認識方法 - Google Patents

車外環境認識装置および車外環境認識方法 Download PDF

Info

Publication number
JP7216526B2
JP7216526B2 JP2018218614A JP2018218614A JP7216526B2 JP 7216526 B2 JP7216526 B2 JP 7216526B2 JP 2018218614 A JP2018218614 A JP 2018218614A JP 2018218614 A JP2018218614 A JP 2018218614A JP 7216526 B2 JP7216526 B2 JP 7216526B2
Authority
JP
Japan
Prior art keywords
dimensional object
vehicle
speed
depth direction
environment recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018218614A
Other languages
English (en)
Other versions
JP2020086791A (ja
Inventor
淑実 大久保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Subaru Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Subaru Corp filed Critical Subaru Corp
Priority to JP2018218614A priority Critical patent/JP7216526B2/ja
Priority to US16/667,274 priority patent/US11216678B2/en
Publication of JP2020086791A publication Critical patent/JP2020086791A/ja
Application granted granted Critical
Publication of JP7216526B2 publication Critical patent/JP7216526B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Description

本発明は、自車両の進行方向に存在する立体物を特定する車外環境認識装置および車外環境認識方法に関する。
従来、自車両の前方に位置する車両等の立体物を検出し、先行車両との衝突を回避したり(衝突回避制御)、先行車両との車間距離を安全な距離に保つように制御する(クルーズコントロール)技術が知られている(例えば、特許文献1)。
特許第3349060号公報
上記のような衝突回避制御やクルーズコントロールを実現するため、例えば、ステレオ画像処理によって生成された車両前方の距離画像を用い、3次元位置が互いに隣接するブロック同士を立体物の背面や側面としてグループ化する。そして、グループ化した立体物の大きさや速度に応じて、衝突回避制御やクルーズコントロールを実行する。
ここで、画像の水平端部側において一部が画角に含まれていない車両については、車両の側面(特に前方側面)しか視認できず、その側面に基づいて速度を導出しなければならない。しかし、単純に、車両の側面の水平面上の中央位置を基準に速度を導出しようとすると、画像への露出程度(相対的に前後に移動すること)によって中央位置が変化してしまい、安定的かつ正確に速度を導出することができない。
本発明は、このような課題に鑑み、自車両以外の車両の速度の導出精度を向上することが可能な車外環境認識装置および車外環境認識方法を提供することを目的としている。
上記課題を解決するために、本発明の車外環境認識装置は、コンピュータが、撮像装置から取得した画像における各ブロックの3次元位置を導出する位置導出部と、ブロック同士をグループ化して立体物を特定するグループ化部と、立体物の側面が、画像の水平方向端部側に位置する端部領域に含まれるという特定条件を満たせば、立体物の側面の奥行き方向の端部を基準に立体物の速度を導出する速度導出部と、して機能する。
特定条件には、立体物の側面の水平面上の長さが時間の経過に応じて漸増していることを含むとしてもよい。
コンピュータが、立体物の側面の奥行き方向の端部の過去の位置から、端部の現在の位置を推定する位置推定部として機能し、特定条件には、位置推定部に推定された推定位置と、立体物の奥行き方向の端部を実測した実測位置とが所定距離未満であることを含むとしてもよい。
速度導出部は、特定条件を満たさなければ、立体物の側面の奥行き方向の中央位置を基準に立体物の速度を導出してもよい。
速度導出部は、立体物が、自車両が走行しているレーンに割り込む可能性がある場合にのみ速度を導出してもよい。
上記課題を解決するために、本発明の車外環境認識方法は、コンピュータが、撮像装置から取得した画像における各ブロックの3次元位置を導出し、ブロック同士をグループ化して立体物を特定し、立体物の側面が、画像の水平方向端部側に位置する端部領域に含まれるという特定条件を満たせば、立体物の側面の奥行き方向の端部を基準に立体物の速度を導出する。
本発明によれば、自車両以外の車両の速度の導出精度を向上することが可能となる。
車外環境認識システムの接続関係を示したブロック図である。 車外環境認識装置の概略的な機能を示した機能ブロック図である。 車外環境認識方法の流れを示すフローチャートである。 輝度画像と距離画像を説明するための説明図である。 ヒストグラム生成部の処理を説明するための説明図である。 グループ化部の処理を説明するための説明図である。 グループ化部の処理を説明するための説明図である。 特定条件を説明するための説明図である。
以下に添付図面を参照しながら、本発明の好適な実施形態について詳細に説明する。かかる実施形態に示す寸法、材料、その他具体的な数値などは、発明の理解を容易とするための例示にすぎず、特に断る場合を除き、本発明を限定するものではない。なお、本明細書および図面において、実質的に同一の機能、構成を有する要素については、同一の符号を付することにより重複説明を省略し、また本発明に直接関係のない要素は図示を省略する。
(車外環境認識システム100)
図1は、車外環境認識システム100の接続関係を示したブロック図である。車外環境認識システム100は、自車両1において、撮像装置110と、車外環境認識装置120と、車両制御装置(ECU:Engine Control Unit)130とを含んで構成される。
撮像装置110は、CCD(Charge-Coupled Device)やCMOS(Complementary Metal-Oxide Semiconductor)等の撮像素子を含んで構成される。撮像装置110は、自車両1の前方の車外環境を撮像し、少なくとも輝度の情報が含まれる輝度画像(カラー画像やモノクロ画像)を生成する。また、撮像装置110は、自車両1の進行方向側において2つの撮像装置110それぞれの光軸が略平行になるように、略水平方向に離隔して配置される。撮像装置110は、自車両1の前方の検出領域に存在する立体物を撮像した輝度画像を、例えば1/60秒のフレーム毎(60fps)に連続して生成する。ここで、撮像装置110によって認識する立体物は、自転車、歩行者、車両、信号機、道路標識、ガードレール、建物といった独立して存在する物のみならず、車両の背面や側面、自転車の車輪等、その一部として特定できる物も含む。ここで、車両の背面は、自車両1のフロントに対向する面を示し、車両自体の後方面を示すものではない。また、車両の側面は、自車両1の側面に対向する、自車両1から視認できる面を示し、車両自体の側面を示すものではない。
また、車外環境認識装置120は、2つの撮像装置110それぞれから輝度画像を取得し、所謂パターンマッチングを用いて距離画像を生成する。車外環境認識装置120は、距離画像に基づき、所謂ステレオ法を用いて、自車両1との相対距離を含む実空間における3次元空間の位置情報を導出する。かかる輝度画像、距離画像、パターンマッチング、ステレオ法については後程詳述する。
続いて、車外環境認識装置120は、導出した位置情報を用い、まず路面を特定し、特定した路面上に位置し、カラー値が等しく3次元の位置情報が互いに隣接するブロック同士を立体物の背面や側面としてグループ化する。そして、車外環境認識装置120は、その立体物がいずれの特定物(例えば、先行車両)に対応するかを特定する。また、車外環境認識装置120は、このように特定物を特定すると、その大きさや速度に基づいて、特定物との衝突を回避したり(衝突回避制御)、先行車両との車間距離を安全な距離に保つように自車両1を制御する(クルーズコントロール)。
車両制御装置130は、ステアリングホイール132、アクセルペダル134、ブレーキペダル136を通じて運転手の操作入力を受け付け、操舵機構142、駆動機構144、制動機構146に伝達することで自車両1を制御する。また、車両制御装置130は、車外環境認識装置120の指示に従い、操舵機構142、駆動機構144、制動機構146を制御する。
(車外環境認識装置120)
図2は、車外環境認識装置120の概略的な機能を示した機能ブロック図である。図2に示すように、車外環境認識装置120は、I/F部150と、データ保持部152と、中央制御部154とを含んで構成される。
I/F部150は、撮像装置110、および、車両制御装置130との双方向の情報交換を行うためのインターフェースである。データ保持部152は、RAM、フラッシュメモリ、HDD等で構成され、以下に示す各機能部の処理に必要な様々な情報を保持する。
中央制御部154は、中央処理装置(CPU)、プログラム等が格納されたROM、ワークエリアとしてのRAM等を含む半導体集積回路で構成され、システムバス156を通じて、I/F部150、データ保持部152等を制御する。また、本実施形態において、中央制御部154は、位置導出部170、ヒストグラム生成部172、グループ化部174、速度導出部176、位置推定部178、立体物特定部180としても機能する。以下、当該中央制御部154の各機能部の動作も踏まえて詳述する。
(車外環境認識方法)
図3は、車外環境認識方法の流れを示すフローチャートである。車外環境認識方法では、位置導出部170が、撮像装置110から取得した輝度画像における各ブロックの3次元位置を導出し(位置導出処理S200)、ヒストグラム生成部172が、距離画像214を複数の分割領域に分割し、分割領域毎にヒストグラムを生成し(ヒストグラム生成処理S202)、グループ化部174が、ブロック同士をグループ化して立体物を特定し(グループ化処理S204)、速度導出部176が、グループ化された立体物の速度を導出し(速度導出処理S206)、位置推定部178が、立体物の側面の奥行き方向の端部の現在の位置を推定し(位置推定処理S208)、立体物特定部180が、立体物がいずれの特定物に対応するか特定する(立体物特定処理S210)。
(位置導出処理S200)
位置導出部170は、2つの撮像装置110それぞれから輝度画像を取得し、一方の輝度画像から任意に抽出したブロック(例えば、水平4画素×垂直4画素の配列)に対応するブロックを他方の輝度画像から検索し(パターンマッチング)、視差を示す視差情報(後述する相対距離zに相当)を導出する。位置導出部170は、導出された視差情報を各ブロックに配して距離画像を生成する。ここでは、ブロックを水平4画素×垂直4画素としているが、ブロック内の画素数は任意に設定することができる。また、ブロックの代わりに1画素を用いてもよい。また、「水平」は画面横方向を示し、「垂直」は画面縦方向を示し、「奥行き」は画面奥行き方向を示す。
図4は、輝度画像212と距離画像214を説明するための説明図である。例えば、2つの撮像装置110を通じ、検出領域216について図4(a)のような輝度画像212が生成されたとする。ただし、ここでは、理解を容易にするため、撮像装置110それぞれが生成した2つの輝度画像212の一方のみを模式的に示している。本実施形態において、位置導出部170は、このような輝度画像212からブロック毎の視差を求め、図4(b)のような距離画像214を形成する。距離画像214における各ブロックには、そのブロックの視差情報が関連付けられている。ここでは、説明の便宜上、視差情報が導出されたブロックを黒のドットで表している。
位置導出部170は、距離画像214のブロック毎の視差情報を、所謂ステレオ法を用いて、水平距離x、高さyおよび相対距離zを含む実空間における3次元位置に変換する。ここで、ステレオ法は、三角測量法を用いることで、ブロック(画素または複数の画素からなるブロック)の距離画像214における視差からそのブロックの撮像装置110に対する相対距離zを導出する方法である。このとき、位置導出部170は、ブロックの相対距離zと、ブロックと同相対距離zにある道路表面上の点とブロックとの距離画像214上の検出距離とに基づいて、ブロックの道路表面からの高さyを導出する。そして、導出された3次元位置を改めて距離画像214に対応付ける。かかる相対距離zの導出処理や3次元位置の特定処理は、様々な公知技術を適用できるので、ここでは、その説明を省略する。
(ヒストグラム生成処理S202)
ヒストグラム生成部172は、距離画像214を複数の分割領域に分割し、分割領域毎に、分割領域内の複数のブロックの相対距離を複数の階級(等距離で区分した相対距離の距離区分を短い順に並べたもの)に振り分けたヒストグラム(度数分布)を生成する。以下に、ヒストグラム生成部172の具体的な処理を説明する。
図5は、ヒストグラム生成部172の処理を説明するための説明図である。ヒストグラム生成部172は、まず、距離画像214を、水平方向に対して複数の分割領域218に分割する。そうすると、分割領域218は、図5(a)のような垂直方向に延在する短冊形状になる。ここでは、説明の便宜上、短冊形状の分割領域218として16等分しているが、その分割数は150等分等、任意に設定することができる。
続いて、ヒストグラム生成部172は、分割領域218毎に、三次元の位置情報に基づき、分割領域218内の、道路表面より上方に位置するとみなされるすべてのブロックを対象に、相対距離が複数の階級のいずれに含まれるか判定し、相対距離をそれぞれ対応する階級に振り分けて、ヒストグラム(図5(b)中、横長の四角(バー)で示す)を生成する。すると、図5(b)のように、分割領域218毎のヒストグラムによる距離分布が得られる。ここで、縦方向は、相対距離を等距離で区分した階級を、横方向は、階級に振り分けられたブロックの個数(度数)を示している。ただし、図5(b)は計算を行う上での仮想的な画面であり、実際には視覚的な画面の生成を伴わない。
(グループ化処理S204)
グループ化部174は、距離画像214において、三次元の位置情報が所定の距離範囲内にあるブロック同士をグループ化し、立体物を特定する。
図6および図7は、グループ化部174の処理を説明するための説明図である。グループ化部174は、まず、分割領域218毎の距離分布を参照し、同一の分割領域218内で一番大きい度数(図6中、黒で塗りつぶした四角で示す)を代表距離220とする。
続いて、グループ化部174は、隣接する分割領域218同士を比較し、図6のように、代表距離220が近接する(例えば、1.0m以内に位置する)分割領域218同士をグループ化して分割領域群222を生成する。このとき、3つ以上の分割領域218で代表距離220が近接していた場合にも、連続するすべての分割領域218を分割領域群222として纏める。かかるグループ化によって、道路表面より上方に位置する立体物の横幅方向の大きさと水平面上の方向を特定することができる。
続いて、グループ化部174は、分割領域群222内における、相対距離zが代表距離220に相当するブロックを基点として、そのブロックと、水平距離xの差分、高さyの差分および相対距離zの差分が予め定められた所定範囲(例えば±0.1m)内にあるブロックとを、同一の特定物に対応すると仮定してグループ化する。こうして、仮想的なブロック群が生成される。上記の所定範囲は実空間上の距離で表され、製造者や搭乗者によって任意の値に設定することができる。また、グループ化部174は、グループ化により新たに追加されたブロックに関しても、そのブロックを基点として、水平距離xの差分、高さyの差分および相対距離zの差分が所定範囲内にあるブロックをさらにグループ化する。結果的に、同一の特定物と仮定可能なブロック全てがグループ化されることとなる。
ここで、仮に、図7(a)のような距離画像214が生成されたとする。グループ化部174は、かかる距離画像214からブロック同士をグループ化する。こうして、図7(b)のようにグループ化されたブロック群が複数抽出される。また、グループ化部174は、グループ化されたブロックの全てが含まれる外形線が、水平線および垂直線、または、奥行き方向に延びる線および垂直線からなる矩形状の枠(面)を、立体物224(224a、224b、224c、224d)として特定する。こうして、立体物224の大きさと位置が特定される。
このとき、グループ化されたブロック群を水平距離xおよび相対距離zで示す2次元の水平面(水平方向と奥行き方向によって形成される面)で表すと、立体物224a、立体物224b、224c、224dは図7(c)のようになる。
(速度導出処理S206)
速度導出部176は、グループ化された立体物224の速度を導出する。例えば、速度導出部176は、図7(b)における立体物224a、立体物224cについては、立体物224の側面として速度を導出し、立体物224b、立体物224dについては、立体物224の背面として速度を導出する。なお、立体物224cと立体物224dとは、同一の立体物224の側面と背面の関係にあるので、一体的な立体物224として速度を導出することができる。
ただし、立体物224aは、図7(c)のように、距離画像214の水平端部側(ここでは左側端部側)において一部が画角に含まれておらず、その立体物224aの側面(特に前方側面)しか視認できない。この場合、速度導出部176は、立体物224aの側面のみに基づいて立体物224aの速度を導出しなければならない。
しかし、単純に、立体物224aの側面の水平面上の中央位置、すなち、図7(c)において立体物224aを直線と見なしたときの中央位置を特定し、その中央位置の速度を導出しようとすると、画像への露出程度(立体物224aが相対的に前後に移動すること)によって、中央位置が変化してしまい、安定的かつ正確に速度を導出することができない。これは、立体物224aを直線と見なしたときの直線の変化量に対し、その中央位置は1/2でしか変化しないからである。したがって、立体物224aの側面の水平面上の中央位置の速度の変化量は、立体物224aの実際の速度の変化量の1/2となる。
なお、立体物224の側面におけるエッジを追尾できる部位、例えば、奥行き方向の端部を基準に立体物224aの速度を導出することも考えられるが、奥行き方向の端部は、その位置を特定し難く、高頻度で前後に移動するので、安定して速度を導出することが難しい。
そこで、本実施形態では、立体物224の側面が全て画角に含まれていない立体物224であるか否かに応じて速度の導出処理を切り替え、立体物224の速度の導出精度を向上する。
具体的に、速度導出部176は、立体物224の側面が全て画角に含まれていない立体物224である可能性が高く、その端部が安定して取得されている以下の特定条件を満たせば、立体物224の側面の奥行き方向の端部、すなわち、相対距離が長い方の端部を基準に立体物224の速度を導出する。
なお、対象を、立体物224の側面の奥行き方向の端部(先頭)としたのは、車両の先頭は垂直方向のエッジが立ちやすいので水平方向の位置を特定し易く、時系列に同一箇所を追尾できる可能性が高いからである。
図8は、特定条件を説明するための説明図である。まず、特定条件(1)として、立体物224の側面が端部領域230に含まれることが挙げられる。端部領域230は、図8(a)、図8(b)にハッチングで示すように、距離画像214の水平方向端部側に位置する短冊形状の領域である。端部領域230の画角は、左右それぞれ水平方向全長の約1/10とし(したがって端部領域230以外は8/10)、その奥行き方向の相対距離zは約8mまでとする。なお、端部領域230の画角や相対距離zを任意に設定できるのはいうまでもない。また、端部領域230の画角や相対距離zを、自車両1の走行状態、例えば、速度、走行路、天候等に応じて、適切な値に切り替えるとしてもよい。
かかる端部領域230に立体物224の側面が含まれる場合、その立体物224が、距離画像214の水平端部側(ここでは左側端部側)において一部が画角に含まれていない可能性が高い。したがって、速度導出部176は、立体物224aが、特定条件(1)を満たせば、立体物224の一部が画角に含まれていない可能性が高いとして、立体物224aの側面の奥行き方向の端部232を基準に立体物224の速度を導出する。
また、特定条件(2)として、立体物224の側面の水平面上の長さ(水平面に投影した長さ)が、時間の経過に応じ、所定時間毎に漸増していることが挙げられる。かかる立体物224の側面の水平面上の長さ、例えば、図8(b)における立体物224aを直線とみなした場合の端点間の長さが時間の経過に応じて漸増している場合、その立体物224は、自車両1より奥行き方向に移動していることとなり、今後、衝突回避制御やクルーズコントロールの対象となる可能性が高い。したがって、速度導出部176は、立体物224aが、特定条件(1)に加え、特定条件(2)を満たせば、立体物224aが速度を導出するのに適しているとして、立体物224aの側面の奥行き方向の端部232を基準に立体物224の速度を導出する。
なお、ここでは、今後、衝突回避制御やクルーズコントロールの対象となる可能性が高いとして、立体物224の側面の水平面上の長さが、時間の経過に応じて漸増している場合を挙げて説明したが、時間の経過に応じて漸減している場合であっても、立体物224の速度の導出精度を向上する本願の効果を奏することができる。
また、特定条件(3)として、立体物224の奥行き方向の端部232の推定位置と実測位置とが所定距離未満であることが挙げられる。後述するように、位置推定部178は、立体物224の側面の奥行き方向の端部232の過去の位置から、現在の位置(推定位置)を推定する。そして、速度導出部176は、このように、推定された、立体物224の奥行き方向の端部232の推定位置と、立体物224の奥行き方向の端部232を実測した実測位置とを比較し、その距離が所定距離未満であるか否か判定する。かかる所定距離は、三次元の位置情報の特定精度に応じて任意に設定することができる。
このような立体物224の奥行き方向の端部232の実測位置は、三次元の位置情報の特定精度が低いと不安定になる場合がある。一方、立体物224の奥行き方向の端部232の推定位置は比較的安定な値となる。実測位置と推定位置との距離が長くなるということは、実測位置が不安定な値であることを示しており、その端部232を基準とするのは適当ではない。したがって、速度導出部176は、立体物224aが、特定条件(1)、(2)に加え、特定条件(3)を満たせば、端部232が安定して取得されているとして、立体物224aの側面の奥行き方向の端部232を基準に立体物224の速度を導出する。
なお、ここでは、速度導出部176が、特定条件(1)、(2)、(3)の全てを満たす場合に、立体物224aの側面の奥行き方向の端部232を基準に立体物224の速度を導出する例を挙げて説明したが、特定条件(1)、(2)、(3)のうちのいずれか1または2を満たせば、立体物224aの側面の奥行き方向の端部232を基準に立体物224の速度を導出するとしてもよい。
このように、立体物224の側面が全て画角に含まれていない立体物224であり、かつ、端部232が安定して取得されていることを条件に、立体物224の側面の奥行き方向の端部232を基準とすることで、立体物224の絶対的な位置を基準に速度を導出することができる。したがって、立体物224の側面が全て距離画像214の画角に含まれていない場合であっても、立体物224の速度の導出精度を向上することができる。
ただし、立体物224が、自車両1が走行しているレーン以外のレーンを単に直進している車両である場合、その車両は、衝突回避制御やクルーズコントロールの対象になり得ない。このような衝突回避制御やクルーズコントロールの対象になり得ない立体物224の速度を常に導出していると処理負荷が増加する。
そこで、速度導出部176は、立体物224が、自車両1が走行しているレーンに割り込む可能性がある場合にのみ速度を導出するとしてもよい。かかる立体物224が、自車両1が走行しているレーンに割り込む可能性がある場合とは、例えば、自車両1の前方において、立体物224が、自車両1が走行しているレーン以外のレーンから自車両1が走行しているレーンに移動しようとしている場合を言う。かかる構成により、衝突回避制御やクルーズコントロールの対象になり得ない立体物224の速度導出に費やす処理負荷を削減することが可能となる。
また、上述した実施形態において、速度導出部176は、特定条件(1)、(2)、(3)を満たせば、立体物224aの側面の奥行き方向の端部232を基準に立体物224の速度を導出する。しかし、立体物224の側面が全て画角に含まれていない立体物224が、必ず特定条件(1)、(2)、(3)を満たすとは限らない。
そこで、速度導出部176は、上記の処理と並行して、立体物224の側面の奥行き方向の中央位置を基準に立体物224の速度を導出する。そして、速度導出部176は、立体物224が、特定条件(1)、(2)、(3)を満たせば、立体物224の側面の奥行き方向の端部232を基準に立体物224の速度を導出し、特定条件(1)、(2)、(3)を満たさなければ、立体物224の側面の奥行き方向の中央位置を基準に立体物224の速度を導出する。
かかる構成により、立体物224が、特定条件(1)、(2)、(3)を満たすか否かに拘わらず、確実に立体物224の速度を導出することができる。また、仮に、立体物224が、特定条件(1)、(2)、(3)を満たさず、立体物224の側面の奥行き方向の中央位置を基準に立体物224の速度を導出する場合があるとする。しかし、少なくとも、立体物224が、特定条件(1)、(2)、(3)を満たしたときには、立体物224の側面の奥行き方向の端部232を基準に立体物224の速度を導出しているので、立体物224の実際の速度(真値)に比較的近い値を適用することができる。
ただし、立体物224が、特定条件(1)、(2)、(3)を満たす場合と満たさない場合とが比較的短時間に交互に生じると、立体物224の速度変化が激しくなり、チャタリングが生じるおそれがある。
そこで、速度導出部176は、立体物224の速度にLPF等のフィルタリングを行い、速度の平滑化を図るとしてもよい。また、このとき、特定条件(1)、(2)、(3)を満たす場合の速度の重み付けを、特定条件(1)、(2)、(3)を満たさない場合の速度の重み付けより大きくしてもよい。かかる構成により、立体物224の速度を安定させることが可能となる。
(位置推定処理S208)
位置推定部178は、立体物224の側面の奥行き方向の端部232の過去の位置から、移動平均算出、カルマンフィルタ等を通じて、現在の位置(推定位置)を推定(トレース)する。このように推定された推定位置は、特定条件(3)の判定に用いられるとともに、次回フレームにおける立体物224の奥行き方向の端部232の推定に用いられる。
(立体物特定処理S210)
立体物特定部180は、グループ化された立体物224がいずれの特定物に対応するか特定する。例えば、立体物特定部180は、立体物224が、車両らしい大きさ、形状、速度であり、かつ、後方の所定の位置にブレーキランプやハイマウントストップランプ等の発光源が確認された場合、その立体物224を先行車両と特定する。
以上、説明したように、本実施形態では、自車両以外の車両の速度の導出精度を向上することが可能となる。ひいては、側面しか視認できない立体物224、例えば、車両に対し、適切に衝突回避制御を実行することができる。
また、コンピュータを車外環境認識装置120として機能させるプログラムや、当該プログラムを記録した、コンピュータで読み取り可能なフレキシブルディスク、光磁気ディスク、ROM、CD、DVD、BD等の記憶媒体も提供される。ここで、プログラムは、任意の言語や記述方法にて記述されたデータ処理手段をいう。
以上、添付図面を参照しながら本発明の好適な実施形態について説明したが、本発明はかかる実施形態に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。
なお、本明細書の車外環境認識方法の各工程は、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいはサブルーチンによる処理を含んでもよい。
本発明は、自車両の進行方向に存在する立体物を特定する車外環境認識装置および車外環境認識方法に利用することができる。
110 撮像装置
120 車外環境認識装置
170 位置導出部
174 グループ化部
176 速度導出部
178 位置推定部
180 立体物特定部
224 立体物
230 端部領域
232 端部

Claims (6)

  1. コンピュータが、
    撮像装置から取得した画像における各ブロックの3次元位置を導出する位置導出部と、
    前記ブロック同士をグループ化して立体物を特定するグループ化部と、
    前記立体物の側面が、前記画像の水平方向端部側に位置する端部領域に含まれるという特定条件を満たせば、前記立体物の側面の奥行き方向の端部を基準に前記立体物の速度を導出する速度導出部と、
    して機能する車外環境認識装置。
  2. 前記特定条件には、前記立体物の側面の水平面上の長さが時間の経過に応じて漸増していることを含む請求項1に記載の車外環境認識装置。
  3. コンピュータが、前記立体物の側面の奥行き方向の端部の過去の位置から、前記端部の現在の位置を推定する位置推定部として機能し、
    前記特定条件には、前記位置推定部に推定された推定位置と、前記立体物の奥行き方向の端部を実測した実測位置とが所定距離未満であることを含む請求項1または2に記載の車外環境認識装置。
  4. 前記速度導出部は、前記特定条件を満たさなければ、前記立体物の側面の奥行き方向の中央位置を基準に前記立体物の速度を導出する請求項1から3のいずれか1項に記載の車外環境認識装置。
  5. 前記速度導出部は、前記立体物が、自車両が走行しているレーンに割り込む可能性がある場合にのみ速度を導出する請求項1から4のいずれか1項に記載の車外環境認識装置。
  6. コンピュータが、
    撮像装置から取得した画像における各ブロックの3次元位置を導出し、
    前記ブロック同士をグループ化して立体物を特定し、
    前記立体物の側面が、前記画像の水平方向端部側に位置する端部領域に含まれるという特定条件を満たせば、前記立体物の側面の奥行き方向の端部を基準に前記立体物の速度を導出する車外環境認識方法。
JP2018218614A 2018-11-21 2018-11-21 車外環境認識装置および車外環境認識方法 Active JP7216526B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018218614A JP7216526B2 (ja) 2018-11-21 2018-11-21 車外環境認識装置および車外環境認識方法
US16/667,274 US11216678B2 (en) 2018-11-21 2019-10-29 Vehicle exterior environment recognition apparatus and vehicle exterior environment recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018218614A JP7216526B2 (ja) 2018-11-21 2018-11-21 車外環境認識装置および車外環境認識方法

Publications (2)

Publication Number Publication Date
JP2020086791A JP2020086791A (ja) 2020-06-04
JP7216526B2 true JP7216526B2 (ja) 2023-02-01

Family

ID=70726425

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018218614A Active JP7216526B2 (ja) 2018-11-21 2018-11-21 車外環境認識装置および車外環境認識方法

Country Status (2)

Country Link
US (1) US11216678B2 (ja)
JP (1) JP7216526B2 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080181461A1 (en) 2007-01-31 2008-07-31 Toru Saito Monitoring System
KR101526743B1 (ko) 2013-12-17 2015-06-05 현대자동차주식회사 차량의 후측방 경고 장치 및 방법
JP2015231179A (ja) 2014-06-06 2015-12-21 富士重工業株式会社 車外環境認識装置
WO2018198758A1 (ja) 2017-04-25 2018-11-01 株式会社デンソー 車両の制動支援装置および制動支援方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3522317B2 (ja) * 1993-12-27 2004-04-26 富士重工業株式会社 車輌用走行案内装置
JP3349060B2 (ja) 1997-04-04 2002-11-20 富士重工業株式会社 車外監視装置
IN2015KN00314A (ja) * 2012-07-27 2015-07-10 Nissan Motor

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080181461A1 (en) 2007-01-31 2008-07-31 Toru Saito Monitoring System
JP2008186342A (ja) 2007-01-31 2008-08-14 Fuji Heavy Ind Ltd 車外監視装置
KR101526743B1 (ko) 2013-12-17 2015-06-05 현대자동차주식회사 차량의 후측방 경고 장치 및 방법
JP2015231179A (ja) 2014-06-06 2015-12-21 富士重工業株式会社 車外環境認識装置
WO2018198758A1 (ja) 2017-04-25 2018-11-01 株式会社デンソー 車両の制動支援装置および制動支援方法
US20200055495A1 (en) 2017-04-25 2020-02-20 Denso Corporation Braking assistance method and apparatus for vehicle

Also Published As

Publication number Publication date
US11216678B2 (en) 2022-01-04
US20200160074A1 (en) 2020-05-21
JP2020086791A (ja) 2020-06-04

Similar Documents

Publication Publication Date Title
JP5944781B2 (ja) 移動体認識システム、移動体認識プログラム、及び移動体認識方法
JP6657789B2 (ja) 画像処理装置、撮像装置、機器制御システム、頻度分布画像生成方法、及びプログラム
JP5906224B2 (ja) 車外環境認識装置
JP7206583B2 (ja) 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法およびプログラム
JP2010198552A (ja) 運転状況監視装置
JP2000074645A (ja) 周辺監視装置及び方法
JP5482672B2 (ja) 移動物体検出装置
CN111052201B (zh) 碰撞预测装置、碰撞预测方法以及存储介质
JP6816401B2 (ja) 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
KR20190059894A (ko) 카메라 영상에서 대상의 감지
JP6591188B2 (ja) 車外環境認識装置
JP6132411B2 (ja) 車外環境認識装置
JP6564218B2 (ja) 車外環境認識装置
JP7229032B2 (ja) 車外物体検出装置
JP7356319B2 (ja) 車外環境認識装置
JP7216526B2 (ja) 車外環境認識装置および車外環境認識方法
JP7261006B2 (ja) 車外環境認識装置
JP7454685B2 (ja) 車両走行路内のデブリの検出
JP7344032B2 (ja) 画像処理装置
JP6378594B2 (ja) 車外環境認識装置
KR20150092505A (ko) 차간 거리 경고 방법 및 전방 충돌 감지 장치
JP7352432B2 (ja) 車外環境認識装置
JP7344031B2 (ja) 画像処理装置
JP2018194538A (ja) 情報処理装置およびプログラム
JP2018088237A (ja) 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法、及び、情報処理プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210909

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220802

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220922

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221227

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230120

R150 Certificate of patent or registration of utility model

Ref document number: 7216526

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150