JP7261006B2 - 車外環境認識装置 - Google Patents

車外環境認識装置 Download PDF

Info

Publication number
JP7261006B2
JP7261006B2 JP2018244863A JP2018244863A JP7261006B2 JP 7261006 B2 JP7261006 B2 JP 7261006B2 JP 2018244863 A JP2018244863 A JP 2018244863A JP 2018244863 A JP2018244863 A JP 2018244863A JP 7261006 B2 JP7261006 B2 JP 7261006B2
Authority
JP
Japan
Prior art keywords
image
luminance
distance
vehicle
light source
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018244863A
Other languages
English (en)
Other versions
JP2020107052A (ja
Inventor
淑実 大久保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Subaru Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Subaru Corp filed Critical Subaru Corp
Priority to JP2018244863A priority Critical patent/JP7261006B2/ja
Priority to US16/658,974 priority patent/US20200210730A1/en
Publication of JP2020107052A publication Critical patent/JP2020107052A/ja
Application granted granted Critical
Publication of JP7261006B2 publication Critical patent/JP7261006B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10144Varying exposure
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Description

本発明は、対向車線に存在する立体物を特定する車外環境認識装置に関する。
従来、自車両の前方に位置する車両等の立体物を検出し、先行車両や対向車両との衝突を回避したり(衝突回避制御)、先行車両との車間距離を安全な距離に保つように制御する(クルーズコントロール)技術が知られている(例えば、特許文献1)。
特許第3349060号公報
上記のような衝突回避制御を実現するためには、車両前方の車外環境を認識し、例えば、対向車線に存在する立体物が対向車両等の特定物であるか否か特定しなければならない。しかし、撮像装置が車内に設けられている場合に、自車両のフロントガラスが汚れているような状況下では、撮像装置で撮像した画像において、対向車両のヘッドランプのような輝度の高い光源の周りにも光が散乱し、意図せず輝度が高い部位が生じ得る。かかる輝度が高い部位はミスマッチングで距離画像上のノイズとなり、対向車両を安定して検出できない問題がある。
本発明は、このような課題に鑑み、対向車両を安定して特定することが可能な車外環境認識装置を提供することを目的としている。
上記課題を解決するために、本発明の車外環境認識装置は、位置を異にする複数の撮像装置において所定の第1露光時間で撮像した複数の第1輝度画像を取得する第1輝度画像取得部と、複数の撮像装置において第1露光時間より短い第2露光時間で撮像した複数の第2輝度画像を取得する第2輝度画像取得部と、複数の第1輝度画像をパターンマッチングして第1距離画像を生成する第1距離画像生成部と、複数の第2輝度画像をパターンマッチングして第2距離画像を生成する第2距離画像生成部と、光源が存在する光源領域を特定する領域特定部と、第2距離画像における光源領域に対応する画像と、第1距離画像における光源領域以外の領域に対応する画像を合成して合成画像を生成する合成画像生成部と、を備え、領域特定部は、第2輝度画像における光源の位置を含み、第1輝度画像において輝度が所定輝度以上である範囲を光源領域として特定する
本発明によれば、対向車両を安定して特定することが可能となる。
車外環境認識システムの接続関係を示したブロック図である。 車外環境認識装置の概略的な機能を示した機能ブロック図である。 車外環境認識処理の流れを示すフローチャートである。 第1輝度画像を示した説明図である。 第2輝度画像を示した説明図である。 第1距離画像の生成態様を示した説明図である。 第2距離画像の生成態様を示した説明図である。 光源領域を説明するための説明図である。 合成画像を説明するための説明図である。 立体物特定部の処理を説明するための説明図である。 立体物特定部の処理を説明するための説明図である。
以下に添付図面を参照しながら、本発明の好適な実施形態について詳細に説明する。かかる実施形態に示す寸法、材料、その他具体的な数値などは、発明の理解を容易とするための例示にすぎず、特に断る場合を除き、本発明を限定するものではない。なお、本明細書および図面において、実質的に同一の機能、構成を有する要素については、同一の符号を付することにより重複説明を省略し、また本発明に直接関係のない要素は図示を省略する。
(車外環境認識システム100)
図1は、車外環境認識システム100の接続関係を示したブロック図である。車外環境認識システム100は、撮像装置110と、車外環境認識装置120と、車両制御装置(ECU:Engine Control Unit)130とを含んで構成される。
撮像装置110は、CCD(Charge-Coupled Device)やCMOS(Complementary Metal-Oxide Semiconductor)等の撮像素子を含んで構成され、自車両1の前方の車外環境を撮像し、少なくとも輝度の情報が含まれる輝度画像(カラー画像やモノクロ画像)を生成することができる。また、撮像装置110は、自車両1の進行方向側において2つの撮像装置110それぞれの光軸が略平行になるように、略水平方向に離隔して配置される。
撮像装置110は、自車両1の前方の検出領域に存在する立体物を撮像した輝度画像を、例えば1/60秒のフレーム毎(60fps)に連続して生成する。ここで、撮像装置110によって認識する立体物は、自転車、歩行者、車両(先行車両、対向車両)、信号機、道路標識、ガードレール、建物といった独立して存在する物のみならず、自転車の車輪等、その一部として特定できる物も含む。
また、車外環境認識装置120は、2つの撮像装置110それぞれから輝度画像を取得し、所謂パターンマッチングを用いて、視差、および、任意のブロックの画像内の位置を示す画像位置を含む視差情報を有する距離画像を生成する。かかるパターンマッチングおよび距離画像については、後程、詳述する。
また、車外環境認識装置120は、輝度画像に基づく輝度値(カラー値)、および、距離画像に基づいて算出された、自車両1との相対距離を含む実空間における三次元空間の位置情報を用いて、まず路面を特定し、特定した路面上に位置し、カラー値が等しく三次元の位置情報が近いブロック同士を立体物としてグループ化して、自車両1の前方の検出領域における立体物がいずれの特定物(例えば、先行車両や対向車両)に対応するかを特定する。
また、車外環境認識装置120は、このように特定物を特定すると、特定物との衝突を回避したり(衝突回避制御)、先行車両との車間距離を安全な距離に保つように自車両1を制御する(クルーズコントロール)。なお、上記相対距離は、距離画像におけるブロック毎の視差情報を、所謂ステレオ法を用いて三次元の位置情報に変換することで求められる。ここで、ステレオ法は、三角測量法を用いることで、立体物の視差からその立体物の撮像装置110に対する相対距離を導出する方法である。このように、二次元の視差情報から三次元の位置情報を得る手法をステレオマッチングということもある。
車両制御装置130は、ステアリングホイール132、アクセルペダル134、ブレーキペダル136を通じて運転手の操作入力を受け付け、操舵機構142、駆動機構144、制動機構146に伝達することで自車両1を制御する。また、車両制御装置130は、車外環境認識装置120の指示に従い、操舵機構142、駆動機構144、制動機構146を制御する。
上述したように、車外環境認識システム100では、車内に設けられた2つの撮像装置110それぞれから輝度画像に基づき、ステレオマッチングを行うことで、例えば、対向車線に存在する対向車両等の立体物の三次元位置を特定している。しかし、自車両1のフロントガラスが汚れているような状況下では、対向車両のヘッドランプ(光源)のみならず、そのヘッドランプの周囲に光が散乱し、意図せず輝度が高い部位が生じ得る。そうすると、本来同一ではない(左右で異なる)輝度が高い部位同士をミスマッチングしてしまう。このように意図せずマッチングされた部位は、距離画像上のノイズとなり、対向車両を安定して検出できなくなってしまう。
そこで、本実施形態では、距離画像の生成態様を改良し、対向車両を安定して特定することを目的としている。
(車外環境認識装置120)
図2は、車外環境認識装置120の概略的な機能を示した機能ブロック図である。図2に示すように、車外環境認識装置120は、I/F部150と、データ保持部152と、中央制御部154とを含んで構成される。
I/F部150は、撮像装置110、および、車両制御装置130との双方向の情報交換を行うためのインターフェースである。データ保持部152は、RAM、フラッシュメモリ、HDD等で構成され、以下に示す各機能部の処理に必要な様々な情報を保持する。
中央制御部154は、中央処理装置(CPU)、プログラム等が格納されたROM、ワークエリアとしてのRAM等を含む半導体集積回路で構成され、システムバス156を通じて、I/F部150、データ保持部152等を制御する。また、本実施形態において、中央制御部154は、第1輝度画像取得部160、第2輝度画像取得部162、第1距離画像生成部164、第2距離画像生成部166、領域特定部168、合成画像生成部170、立体物特定部172としても機能する。以下、本実施形態に特徴的な、距離画像(合成画像)の生成を含む車外環境認識処理について、当該中央制御部154の各機能部の動作も踏まえて詳述する。
(車外環境認識処理)
図3は、車外環境認識処理の流れを示すフローチャートである。車外環境認識処理では、所定の割込周期が到来する度に、第1輝度画像取得処理(S200)、第2輝度画像取得処理(S202)、第1距離画像生成処理(S204)、第2距離画像生成処理(S206)、領域特定処理(S208)、合成画像生成処理(S210)、立体物特定処理(S212)がその順に実行される。以下、各処理を詳述する。
(第1輝度画像取得処理S200)
第1輝度画像取得部160は、2つの撮像装置110それぞれの露光時間(撮像素子がレンズを通して光に晒される時間)を、車外環境の比較的暗い部分(例えば、夕夜間における周囲の特定物)が黒つぶれすることなく、そのエッジを取得することができる所定の第1露光時間(長露光時間)に設定し、撮像された2つの第1輝度画像を取得する。
図4は、第1輝度画像を示した説明図である。図4(a)は、略水平方向に離隔して配置された撮像装置110のうち、左側に配置された撮像装置110で取得された第1輝度画像210であり、図4(b)は、右側に配置された撮像装置110で取得された第1輝度画像212である。ここでは、夕夜間において、比較的長い露光時間で撮像しているので、対向車両のヘッドランプの近傍に相当する領域200では白飛びしているものの、対向車両以外の領域202では先行車両や信号等の特定物が適切に取得されている。
(第2輝度画像取得処理S202)
第2輝度画像取得部162は、2つの撮像装置110それぞれの露光時間を、車外環境の比較的明るい部分(例えば、ヘッドランプやテールランプ)が白飛びすることなく、そのエッジを取得することができる所定の第2露光時間(短露光時間)に設定し、撮像された複数の第2輝度画像を取得する。かかる第2露光時間は、露出を抑えるため、第1露光時間より短い。また、第1輝度画像取得部160と第2輝度画像取得部162との撮像間隔は、画像間の同時性を担保するため、極短時間であることが望ましい。
図5は、第2輝度画像を示した説明図である。図5(a)は、略水平方向に離隔して配置された撮像装置110のうち、左側に配置された撮像装置110で取得された第2輝度画像220であり、図5(b)は、右側に配置された撮像装置110で取得された第2輝度画像222である。ここでは、夕夜間において比較的短い露光時間で撮像しているので、対向車両以外の領域202では黒つぶれして先行車両等の特定物を明確に取得できないが、対向車両のヘッドランプの近傍に相当する領域200では、少なくとも対向車両のヘッドランプが適切に取得されている。
(第1距離画像生成処理S204)
第1距離画像生成部164は、第1輝度画像取得部160が取得した2つの第1輝度画像210、212を用い、パターンマッチングによって視差情報を有する1の第1距離画像を生成する。
図6は、第1距離画像214の生成態様を示した説明図である。第1距離画像生成部164は、例えば、図6(a)に示された第1輝度画像210と、図6(b)に示された第1輝度画像212とのパターンマッチングを行う。
具体的に、2つの第1輝度画像210、212のうち、一方の輝度画像から任意に抽出したブロック(例えば、水平4画素×垂直4画素の配列)に対応するブロックを他方の輝度画像から検索し(パターンマッチング)、視差、および、任意のブロックの画像内の位置を示す画像位置を含む視差情報を導出する。ここで、水平は、撮像した画像の画像横方向を示し、垂直は、撮像した画像の画像縦方向を示す。このパターンマッチングとしては、一対の画像間において、任意のブロック単位で輝度(Y)を比較することが考えられる。例えば、輝度の差分をとるSAD(Sum of Absolute Difference)、差分を2乗して用いるSSD(Sum of Squared intensity Difference)や、各画素の輝度から平均値を引いた分散値の類似度をとるNCC(Normalized Cross Correlation)等の手法がある。
車外環境認識装置120は、このようなブロック単位の視差導出処理を検出領域(例えば、600画素×200画素)に映し出されている全てのブロックについて行う。ここでは、ブロックを4画素×4画素としているが、ブロック内の画素数は任意に設定することができる。こうして、図6(c)のような第1距離画像214が生成される。
ここでは、図6(a)、図6(b)に示した第1輝度画像210、212において対向車両以外の領域202の画像が適切に取得されているので、図6(c)の第1距離画像214においても、対向車両以外の領域202の視差情報が適切に導出される。しかし、第1輝度画像210、212において対向車両のヘッドランプの近傍に相当する領域200では、光が散乱して意図せず輝度が高い部位が生じる。したがって、その領域200のパターンマッチングでは、本来同一ではない(左右で異なる)輝度が高い部位同士のミスマッチングが生じるので、距離の信頼度が低くなる。
(第2距離画像生成処理S206)
第2距離画像生成部166は、第2輝度画像取得部162が取得した2つの第2輝度画像220、222を用い、パターンマッチングによって視差情報を有する1の第2距離画像を生成する。
図7は、第2距離画像224の生成態様を示した説明図である。第2距離画像生成部166は、例えば、図7(a)に示された第2輝度画像220と、図7(b)に示された第2輝度画像222のパターンマッチングを行う。そうすると、図7(c)のような第2距離画像224が生成される。
ここでは、図7(a)、図7(b)に示した第2輝度画像220、222において対向車両のヘッドランプの近傍に相当する領域200が適切に取得されているので、図7(c)の第2距離画像224においても、対向車両のヘッドランプの視差情報が適切に導出される。なお、第2輝度画像220、222において対向車両以外の領域202は黒つぶれしているので、その領域202のパターンマッチングでは距離の信頼度が低くなる。
(領域特定処理S208)
領域特定部168は、第2輝度画像220における対向車両のヘッドランプが存在する光源領域を以下のように特定する。
図8は、光源領域232を説明するための説明図である。光源領域232には、ヘッドランプ(光源)230そのものが含まれなければならない。したがって、領域特定部168は、まず、図8(a)のように、高輝度の立体物を特定可能な、露光時間が短い第2輝度画像220を参照し、ヘッドランプ230自体を適切に特定する。なお、ここでは、2つの第2輝度画像220、222の一方を参照すれば足りるので、第2輝度画像220の代わりに第2輝度画像222を参照してもよい。
また、光が散乱して意図せず輝度が高い部位が生じ、輝度が高い部位同士がミスマッチングされるのは、ヘッドランプ230の周囲であり、かつ、輝度が高い部位である。かかる部位は、露光時間が長い第1輝度画像210の方が特定し易い。そこで、領域特定部168は、図8(b)のように、第2輝度画像220における対向車両のヘッドランプ230の位置から、第1輝度画像210において輝度が所定輝度(例えば250)以上である範囲を図8(b)中、黒の太線で示したように特定し、その領域を光源領域232とする。なお、ここでは、2つの第1輝度画像210、212の一方を参照すれば足りるので、第1輝度画像210の代わりに第1輝度画像212を参照してもよい。
こうして特定された光源領域232は、(1)少なくともヘッドランプ230を含む。(2)光が散乱して意図せず輝度が高い部位が生じるので、距離画像を生成する際、意図せずマッチングされた部位が距離画像上のノイズとなり易い。といった特徴を持つこととなる。したがって、かかる光源領域232については、以下に示すように、ミスマッチングが生じ易い第1距離画像214を用いず、少なくともヘッドランプ230を適切に特定できる第2距離画像224を用いる。
なお、このように特定された光源領域232は画素単位である。しかし、ここでは、距離画像上でのノイズ除去が目的なので、光源領域232は、パターンマッチングの対象であるブロック単位で特定すべきである。そこで、領域特定部168は、特定された光源領域232を、パターンマッチングの対象となるブロック単位に適合するように拡大し、光源領域232を更新する。
また、ここでは、輝度が所定輝度以上であるブロックの全てが含まれる外形線が、2本の水平線および2本の垂直線からなる矩形状の枠(面)を光源領域232として設定したが、かかる場合に限らず、平行四辺形、台形、真円形、楕円形等、様々な形に設定することができる。
また、ここでは、領域特定部168が、第1輝度画像210において輝度が所定輝度(例えば250)以上である範囲を、水平方向および垂直方向に特定し光源領域232とする例を挙げて説明した。しかし、図10を用いて後述するように、距離画像(以下で示す合成画像236)は垂直方向に延在する短冊形状で判断されるため、対向車両との相対距離が最短となる可能性が高い状況下では、領域特定部168が、第1輝度画像210において輝度が所定輝度(例えば250)以上である範囲を、水平方向にのみ特定して光源領域232としてもよい。こうして、処理負荷を軽減することが可能となる。
(合成画像生成処理S210)
図9は、合成画像236を説明するための説明図である。合成画像生成部170は、図9(a)に示す第2距離画像224における光源領域232に対応する画像と、図9(b)に示す第1距離画像214における光源領域232以外の領域234に対応する画像を合成して、図9(c)のような合成画像236を生成する。
次に、合成画像生成部170は、合成画像236における検出領域内のブロック毎の視差情報を、上述したステレオ法を用いて、水平距離x、高さyおよび相対距離zを含む三次元の位置情報に変換する。
ここで、視差情報が、合成画像236における各ブロックの視差を示すのに対し、三次元の位置情報は、実空間における各ブロックの相対距離の情報を示す。また、視差情報が画素単位ではなくブロック単位、即ち複数の画素単位で導出されている場合、その視差情報はブロックに属する全ての画素の視差情報とみなして、画素単位の計算を実行することができる。かかる三次元の位置情報への変換については、特開2013-109391号公報等、既存の技術を参照できるので、ここでは、その詳細な説明を省略する。
(立体物特定処理S212)
立体物特定部172は、合成画像生成部170が生成した合成画像236に基づいて立体物を特定する。
具体的に、立体物特定部172は、合成画像236を複数の分割領域に分割し、分割領域毎に、分割領域内の複数のブロックの相対距離を複数の階級(等距離で区分した相対距離の距離区分を短い順に並べたもの)に振り分けたヒストグラム(度数分布)を生成する。
図10、図11は、立体物特定部172の処理を説明するための説明図である。立体物特定部172は、まず、合成画像236を、水平方向に対して複数の分割領域240に分割する。そうすると、分割領域240は、図10(a)のような垂直方向に延在する短冊形状になる。ここでは、説明の便宜上、短冊形状の分割領域240として、合成画像236を16等分しているが、その分割数は150等分等、任意に設定することができる。
続いて、立体物特定部172は、分割領域240毎に、三次元の位置情報に基づき、分割領域240内の、道路表面より上方に位置するとみなされるすべてのブロックを対象に、相対距離が複数の階級のいずれに含まれるか判定する。次に、立体物特定部172は、相対距離をそれぞれ対応する階級に振り分けて、ヒストグラム(図10(b)中、横長の四角(バー)で示す)を生成する。すると、図10(b)のように、分割領域240毎のヒストグラムによる距離分布が得られる。ここで、縦方向は、相対距離を等距離で区分した階級を、横方向は、階級に振り分けられたブロックの個数(度数)を示している。ただし、図10(b)は計算を行う上での仮想的な画面であり、実際には視覚的な画面の生成を伴わない。
続いて、立体物特定部172は、合成画像236において、三次元の位置情報が所定の距離範囲内にあるブロック同士をグループ化し、立体物を特定する。このため、立体物特定部172は、まず、分割領域240毎の距離分布を参照し、同一の分割領域240内で一番大きい度数(図11中、黒で塗りつぶした四角で示す)を代表距離242とする。
続いて、立体物特定部172は、隣接する分割領域240同士を比較し、図11(a)のように、代表距離242が近接する(例えば、1.0m以内に位置する)分割領域240同士をグループ化して分割領域群244を生成する。このとき、3つ以上の分割領域240で代表距離242が近接していた場合にも、連続するすべての分割領域240を分割領域群244として纏める。かかるグループ化によって、道路表面より上方に位置する立体物の横幅方向の大きさと水平面上の方向を特定することができる。
続いて、立体物特定部172は、分割領域群244内における、相対距離zが代表距離242に相当するブロックを基点として、そのブロックと、水平距離xの差分、高さyの差分および相対距離zの差分が予め定められた所定範囲(例えば±0.1m)内にあるブロックとを、同一の特定物に対応すると仮定してグループ化する。こうして、仮想的なブロック群が生成される。上記の所定範囲は実空間上の距離で表され、車両の製造者や搭乗者によって任意の値に設定することができる。また、立体物特定部172は、グループ化により新たに追加されたブロックに関しても、そのブロックを基点として、水平距離xの差分、高さyの差分および相対距離zの差分が所定範囲内にあるブロックをさらにグループ化する。結果的に、同一の特定物と仮定可能なブロック全てがグループ化されることとなる。
こうして、図11(b)のようにグループ化されたブロック群が複数抽出される。また、立体物特定部172は、グループ化されたブロックの全てが含まれる外形線が、水平線および垂直線、または、奥行き方向に延びる線および垂直線からなる矩形状の枠(面)を、立体物246(246a、246b、246c、246d)として特定する。こうして、立体物246の大きさと位置が特定される。
そして、立体物特定部172は、グループ化した立体物246がいずれの特定物に対応するか特定する。例えば、立体物特定部172は、立体物246が、車両らしい大きさ、形状、相対速度であり、かつ、その前方の所定の位置にヘッドランプ(発光源)が確認された場合、その立体物246を対向車両と特定する。
以上、説明したように、本実施形態では、露光時間を異にして複数(ここでは2)の距離画像の組み合わせを撮像し、露光時間毎にパターンマッチングを行って距離画像を生成する。その後、ミスマッチングが生じ易いか否かによる距離の信頼度に基づいて、複数の距離画像を合成し、1の合成画像236を生成している。したがって、対向車両を安定して特定することが可能となる。
また、コンピュータを車外環境認識装置120として機能させるプログラムや、当該プログラムを記録した、コンピュータで読み取り可能なフレキシブルディスク、光磁気ディスク、ROM、CD、DVD、BD等の記憶媒体も提供される。ここで、プログラムは、任意の言語や記述方法にて記述されたデータ処理手段をいう。
以上、添付図面を参照しながら本発明の好適な実施形態について説明したが、本発明はかかる実施形態に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。
例えば、上述した実施形態では、第1露光時間と第2露光時間の2つの異なる露光時間で撮像する例を挙げて説明したが、かかる場合に限らず、3つ以上の露光時間それぞれに対して2つの輝度画像を生成し、それらをパターンマッチングして3つ以上の距離画像を生成し、その後、距離の信頼度に応じて、複数の距離画像を合成するとしてもよい。かかる構成により、露光時間を細分化することができ、より精度の高い距離画像(合成画像)を実現することが可能となる。
また、上述した実施形態では、光源領域として対向車両のヘッドランプが存在する領域を例に挙げて説明したが、かかる場合に限らず、光源であれば足り、例えば、先行車両のテールランプやブレーキランプが存在する領域を光源領域としてもよい。
なお、本明細書の車外環境認識処理の各工程は、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいはサブルーチンによる処理を含んでもよい。
本発明は、対向車線に存在する立体物を特定する車外環境認識装置に利用することができる。
1 自車両
110 撮像装置
120 車外環境認識装置
160 第1輝度画像取得部
162 第2輝度画像取得部
164 第1距離画像生成部
166 第2距離画像生成部
168 領域特定部
170 合成画像生成部
172 立体物特定部
214 第1距離画像
224 第2距離画像
236 合成画像

Claims (1)

  1. 位置を異にする複数の撮像装置において所定の第1露光時間で撮像した複数の第1輝度画像を取得する第1輝度画像取得部と、
    前記複数の撮像装置において前記第1露光時間より短い第2露光時間で撮像した複数の第2輝度画像を取得する第2輝度画像取得部と、
    前記複数の第1輝度画像をパターンマッチングして第1距離画像を生成する第1距離画像生成部と、
    前記複数の第2輝度画像をパターンマッチングして第2距離画像を生成する第2距離画像生成部と、
    光源が存在する光源領域を特定する領域特定部と、
    前記第2距離画像における前記光源領域に対応する画像と、前記第1距離画像における前記光源領域以外の領域に対応する画像を合成して合成画像を生成する合成画像生成部と、
    を備え
    前記領域特定部は、前記第2輝度画像における前記光源の位置を含み、前記第1輝度画像において輝度が所定輝度以上である範囲を前記光源領域として特定する車外環境認識装置。
JP2018244863A 2018-12-27 2018-12-27 車外環境認識装置 Active JP7261006B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018244863A JP7261006B2 (ja) 2018-12-27 2018-12-27 車外環境認識装置
US16/658,974 US20200210730A1 (en) 2018-12-27 2019-10-21 Vehicle exterior environment recognition apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018244863A JP7261006B2 (ja) 2018-12-27 2018-12-27 車外環境認識装置

Publications (2)

Publication Number Publication Date
JP2020107052A JP2020107052A (ja) 2020-07-09
JP7261006B2 true JP7261006B2 (ja) 2023-04-19

Family

ID=71123237

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018244863A Active JP7261006B2 (ja) 2018-12-27 2018-12-27 車外環境認識装置

Country Status (2)

Country Link
US (1) US20200210730A1 (ja)
JP (1) JP7261006B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7356319B2 (ja) * 2019-10-17 2023-10-04 株式会社Subaru 車外環境認識装置
JP7483790B2 (ja) * 2022-05-19 2024-05-15 キヤノン株式会社 画像処理装置、画像処理方法、移動体、及びコンピュータプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004258266A (ja) 2003-02-25 2004-09-16 Olympus Corp ステレオアダプタ及びそれを用いた距離画像入力装置
JP2011023973A (ja) 2009-07-15 2011-02-03 Honda Motor Co Ltd 撮像制御装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3793487B2 (ja) * 2002-07-12 2006-07-05 ナイルス株式会社 撮像システム
CA2494723C (en) * 2002-08-21 2011-11-08 Gentex Corporation Image acquisition and processing methods for automatic vehicular exterior lighting control
JP2010272067A (ja) * 2009-05-25 2010-12-02 Hitachi Automotive Systems Ltd 画像処理装置
JP5499011B2 (ja) * 2011-11-17 2014-05-21 富士重工業株式会社 車外環境認識装置および車外環境認識方法
CN105981042B (zh) * 2014-01-17 2019-12-06 Kpit技术有限责任公司 车辆探测系统及方法
IL236114A (en) * 2014-12-07 2016-04-21 Yoav Grauer Improved object recognition in the reimbursement-based imaging unit

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004258266A (ja) 2003-02-25 2004-09-16 Olympus Corp ステレオアダプタ及びそれを用いた距離画像入力装置
JP2011023973A (ja) 2009-07-15 2011-02-03 Honda Motor Co Ltd 撮像制御装置

Also Published As

Publication number Publication date
US20200210730A1 (en) 2020-07-02
JP2020107052A (ja) 2020-07-09

Similar Documents

Publication Publication Date Title
JP6132412B2 (ja) 車外環境認識装置
JP5886809B2 (ja) 車外環境認識装置
JP5906224B2 (ja) 車外環境認識装置
JP6701253B2 (ja) 車外環境認識装置
JP6420650B2 (ja) 車外環境認識装置
JP7261006B2 (ja) 車外環境認識装置
US9524645B2 (en) Filtering device and environment recognition system
JP6591188B2 (ja) 車外環境認識装置
JP7356319B2 (ja) 車外環境認識装置
JP7229032B2 (ja) 車外物体検出装置
JP6174960B2 (ja) 車外環境認識装置
JP6329438B2 (ja) 車外環境認識装置
JP6378547B2 (ja) 車外環境認識装置
WO2020129517A1 (ja) 画像処理装置
JP6335065B2 (ja) 車外環境認識装置
JP6523694B2 (ja) 車外環境認識装置
JP2015222479A (ja) 車外環境認識装置
JP6329442B2 (ja) 車外環境認識装置
JP2018088237A (ja) 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法、及び、情報処理プログラム
JP2019101470A (ja) 車外環境認識装置
JP7460393B2 (ja) 車両用外界認識装置
JP6313667B2 (ja) 車外環境認識装置
JP2016001434A (ja) 車外環境認識装置
JP2022175157A (ja) 車外環境認識装置
JP2015069567A (ja) フィルタリング装置および環境認識システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210924

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230314

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230407

R150 Certificate of patent or registration of utility model

Ref document number: 7261006

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150