JP2022175157A - 車外環境認識装置 - Google Patents

車外環境認識装置 Download PDF

Info

Publication number
JP2022175157A
JP2022175157A JP2021081363A JP2021081363A JP2022175157A JP 2022175157 A JP2022175157 A JP 2022175157A JP 2021081363 A JP2021081363 A JP 2021081363A JP 2021081363 A JP2021081363 A JP 2021081363A JP 2022175157 A JP2022175157 A JP 2022175157A
Authority
JP
Japan
Prior art keywords
pixel
vehicle
class
parallax
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021081363A
Other languages
English (en)
Inventor
稔 倉岡
Minoru Kuraoka
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Subaru Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Subaru Corp filed Critical Subaru Corp
Priority to JP2021081363A priority Critical patent/JP2022175157A/ja
Publication of JP2022175157A publication Critical patent/JP2022175157A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

Figure 2022175157000001
【課題】先行車両の判定精度を向上する車外環境認識装置を提供する。
【解決手段】車外環境認識装置は、セマンティックセグメンテーションを用いて、撮像装置で撮像された輝度画像における車両クラスを特定するステップS206と、複数の輝度画像から距離画像を生成するステップS202と、距離画像における、車両クラスに対応する視差が無効な無効画素を特定するステップS208と、無効画素より鉛直下方における視差が有効な有効画素を特定するステップS210と、無効画素の視差を、特定した前記有効画素の視差で補間するステップS212と、視差が補間された距離画像に基づいて特定物を特定するステップS214と、を含む処理を実行する。
【選択図】図3

Description

本発明は、自車両の進行方向に存在する特定物を特定する車外環境認識装置に関する。
従来、特許文献1のように、自車両の前方に位置する先行車両を検出し、先行車両との衝突による被害を軽減したり、先行車両との車間距離を安全な距離に保つように追従制御したりする技術が知られている。
特許第3349060号公報
上記のような先行車両への追従制御を実現するため、自車両では、前方に位置する立体物が先行車両等の特定物であるか否か判断する。例えば、自車両では、水平方向に離隔した2つの撮像装置を用い、輝度画像および距離画像における立体物の形状や相対距離を認識して画像中の立体物を先行車両と判定する。
しかし、2つの撮像装置のうち一方の撮像装置の検出領域に雨滴などが存在すると、距離画像の生成過程において画像のパターンマッチングが適切に行われず、先行車両の判定精度の低下を招いていた。この場合、自車両では、2つの撮像装置のうち、雨滴の影響を受けていない一方の撮像装置の画像から先行車両を特定する単眼トラッキングを行うことができる。しかし、両方の撮像装置の検出領域に雨滴などが存在した場合、単眼トラッキングによっても先行車両の判定精度が低下するおそれがある。
本発明は、このような課題に鑑み、先行車両の判定精度を向上することが可能な、車外環境認識装置を提供することを目的としている。
上記課題を解決するために、本発明の車外環境認識装置は、1つまたは複数のプロセッサと、前記プロセッサに接続される1つまたは複数のメモリと、を備え、前記プロセッサは、前記メモリに含まれるプログラムと協働し、セマンティックセグメンテーションを用いて、撮像装置で撮像された輝度画像における車両クラスを特定することと、複数の前記輝度画像から距離画像を生成することと、前記距離画像における、前記車両クラスに対応する視差が無効な無効画素を特定することと、前記無効画素より鉛直下方における視差が有効な有効画素を特定することと、前記無効画素の視差を、特定した前記有効画素の視差で補間することと、視差が補間された前記距離画像に基づいて特定物を特定することと、を含む処理を実行する。
本発明によれば、先行車両の判定精度を向上することが可能となる。
図1は、車外環境認識システムの接続関係を示したブロック図である。 図2は、車外環境認識装置の概略的な機能を示した機能ブロック図である。 図3は、車外環境認識方法の流れを示すフローチャートである。 図4は、輝度画像を説明するための説明図である。 図5は、輝度画像を説明するための説明図である。 図6は、距離画像を説明するための説明図である。 図7は、輝度画像を説明するための説明図である。 図8は、輝度画像を説明するための説明図である。 図9は、距離画像を説明するための説明図である。 図10は、セマンティックセグメンテーションを適用した例を説明するための説明図である。 図11は、セマンティックセグメンテーションを適用した例を説明するための説明図である。 図12は、無効画素を説明するための説明図である。 図13は、無効画素を説明するための説明図である。 図14は、有効画素特定部の処理を説明するための説明図である。 図15は、有効画素特定部の処理を説明するための説明図である。 図16は、有効画素特定部の処理を示したフローチャートである。
以下に添付図面を参照しながら、本発明の好適な実施形態について詳細に説明する。かかる実施形態に示す寸法、材料、その他具体的な数値などは、発明の理解を容易とするための例示にすぎず、特に断る場合を除き、本発明を限定するものではない。なお、本明細書および図面において、実質的に同一の機能、構成を有する要素については、同一の符号を付することにより重複説明を省略し、また本発明に直接関係のない要素は図示を省略する。
(車外環境認識システム100)
図1は、車外環境認識システム100の接続関係を示したブロック図である。車外環境認識システム100は、撮像装置110と、車外環境認識装置120と、車両制御装置130とを含む。
撮像装置110は、CCD(Charge-Coupled Device)やCMOS(Complementary Metal-Oxide Semiconductor)等の撮像素子を含んで構成される。撮像装置110は、自車両1の前方の車外環境を撮像し、少なくとも輝度の情報が含まれる輝度画像、例えば、カラー画像またはモノクロ画像を生成することができる。また、撮像装置110は、自車両1の進行方向側において2つの撮像装置110それぞれの光軸が略平行になるように、略水平方向に離隔して配置される。撮像装置110は、自車両1の前方の検出領域に存在する立体物を撮像した輝度画像を、例えば1/60秒のフレーム毎に連続して生成する。
また、車外環境認識装置120は、撮像装置110から取得した輝度画像や、2つの輝度画像に基づく距離画像を通じて車外の環境を認識する。そして、車外環境認識装置120は、認識した車外環境と、自車両1の走行状況とに基づいて、自車両1の走行における速度制御や舵角制御を行う。車外環境認識装置120については後程詳述する。
車両制御装置130は、ECU(Electronic Control Unit)で構成され、ステアリングホイール132、アクセルペダル134、ブレーキペダル136を通じて運転手の操作入力を受け付け、車外環境認識装置120で生成された情報を参照して、操舵機構142、駆動機構144、制動機構146を制御する。
(車外環境認識装置120)
図2は、車外環境認識装置120の概略的な機能を示した機能ブロック図である。図2に示すように、車外環境認識装置120は、I/F部150と、データ保持部152と、中央制御部154とを含んで構成される。
I/F部150は、撮像装置110、および、車両制御装置130との双方向の情報交換を行うためのインターフェースである。データ保持部152は、RAM、フラッシュメモリ、HDD等で構成され、以下に示す各機能モジュールの処理に必要な様々な情報を保持する。
中央制御部154は、プロセッサ、プログラム等が格納されたROM、ワークエリアとしてのRAM等を含む半導体集積回路で構成され、システムバス156を通じて、I/F部150、データ保持部152等を制御する。また、本実施形態において、中央制御部154では、プロセッサが、ROMに含まれるプログラムと協働し、画像取得部160、距離画像生成部162、単眼トラッキング部164、クラス特定部166、無効画素特定部168、有効画素特定部170、視差補間部172、立体物特定部174、特定物判定部176、特定物追跡部178といった機能モジュールとして機能する。
中央制御部154は、このような機能モジュールを通じて、輝度画像および距離画像における立体物の形状や相対距離を認識して立体物を先行車両と判定する。中央制御部154は、先行車両との衝突による被害を軽減したり、先行車両との車間距離を安全な距離に保つように追従制御したりすることができる。
以下、本実施形態に特徴的な、自車両1前方の立体物を抽出し、先行車両等の特定物を判定する車外環境認識方法について、当該中央制御部154の各機能モジュールの動作も踏まえて詳述する。
(車外環境認識方法)
図3は、車外環境認識方法の流れを示すフローチャートである。車外環境認識装置120は、所定の割込時間毎に当該車外環境認識方法を実行する。車外環境認識方法では、まず、画像取得部160が、複数の輝度画像を取得する(S200)。距離画像生成部162が、2つの輝度画像から距離画像を生成する(S202)。単眼トラッキング部164が、特定物を適切に抽出できる1の輝度画像から立体物を特定する(S204)。クラス特定部166が、セマンティックセグメンテーションを用いて、輝度画像における車両クラスを特定する(S206)。無効画素特定部168は、距離画像のうち、車両クラスに含まれる視差が無効な無効画素を特定する(S208)。有効画素特定部170が、無効画素より鉛直下方における視差が有効な有効画素を特定する(S210)。視差補間部172が、無効画素の視差を、特定した有効画素の視差で補間する(S212)。立体物特定部174が、輝度画像および距離画像に基づいて立体物を特定する(S214)。特定物判定部176が、特定物を判定する(S216)。特定物追跡部178が、判定された特定物を追跡制御する(S218)。
以下、車外環境認識方法の各処理について詳細に説明し、本実施形態の特徴と無関係な処理については説明を省略する。
(画像取得処理S200)
図4、図5は、輝度画像を説明するための説明図であり、図6は、距離画像を説明するための説明図である。画像取得部160は、撮像装置110で光軸を異として撮像された複数の、ここでは2つの輝度画像180をそれぞれ取得する。ここで、画像取得部160は、輝度画像180として、図4に示す、自車両1の比較的右側に位置する撮像装置110で撮像された第1輝度画像180aと、図5に示す、自車両1の比較的左側に位置する撮像装置110で撮像された第2輝度画像180bとを取得したとする。
図4および図5を参照すると、撮像装置110の撮像位置の違いから、第1輝度画像180aと第2輝度画像180bとで、画像に含まれる立体物の画像位置が水平方向に異なるのが理解できる。ここで、水平は、撮像した画像の画面横方向を示し、垂直は、撮像した画像の画面縦方向を示す。
(距離画像生成処理S202)
距離画像生成部162は、画像取得部160が取得した、図4に示す第1輝度画像180aと、図5に示す第2輝度画像180bとに基づいて、図6のような、撮像対象の距離を特定可能な距離画像182を生成する。
具体的に、距離画像生成部162は、所謂パターンマッチングを用いて、視差、および、任意のブロックの画像内の位置を示す画像位置を含む視差情報を導出する。具体的に、一方の輝度画像(ここでは第1輝度画像180a)から任意に抽出したブロックに対応するブロックを他方の輝度画像(ここでは第2輝度画像180b)から検索する。ここで、ブロックは、例えば、水平4画素×垂直4画素の配列で表される。また、パターンマッチングは、一方の輝度画像から任意に抽出したブロックに対応するブロックを他方の輝度画像から検索する手法である。
例えば、パターンマッチングにおけるブロック間の一致度を評価する関数として、輝度の差分をとるSAD(Sum of Absolute Difference)、差分を2乗して用いるSSD(Sum of Squared intensity Difference)や、各画素の輝度から平均値を引いた分散値の類似度をとるNCC(Normalized Cross Correlation)等の手法がある。
距離画像生成部162は、このようなブロック単位の視差導出処理を、例えば、600画素×200画素の検出領域に映し出されている全てのブロックについて行う。ここでは、ブロックを4画素×4画素としているが、ブロック内の画素数は任意に設定することができる。
ただし、距離画像生成部162は、検出分解能単位であるブロック毎に視差を導出することはできるが、そのブロックがどのような立体物の一部であるかを認識できない。したがって、視差情報は、立体物単位ではなく、検出領域における検出分解能単位、例えばブロック単位で独立して導出されることとなる。ここでは、説明の便宜上、視差が導出されたブロックを黒のドットで表している。
距離画像生成部162は、距離画像182におけるブロック毎の視差情報を、所謂ステレオ法を用いて相対距離に変換し、三次元の位置情報、すなわち、相対距離、高さ、水平位置を導出する。ここで、ステレオ法は、三角測量法を用いることで、ブロックの視差からそのブロックの撮像装置110に対する相対距離を導出する方法である。なお、距離画像182において、視差と相対距離とを同一の奥行方向の距離という意味で用いる場合がある。
車外環境認識装置120では、このように導出された輝度画像180および距離画像182を通じて車外環境を認識し、例えば、自車両1より前方の立体物を、先行車両等の特定物と特定する。しかし、雨天等、所定の環境下では、撮像装置110の検出領域が雨滴等の異物で覆われることがある。
図7、図8は、輝度画像を説明するための説明図であり、図9は、距離画像を説明するための説明図である。例えば、2つの撮像装置110のうち一方の撮像装置110の検出範囲に位置するフロントガラスに雨滴が付着すると、その撮像装置110で撮像された輝度画像180の雨滴に対応する部分が不鮮明になる。例えば、図7に示す第1輝度画像180aの部分184aが雨滴によって不鮮明になったとする。
そうすると、図8に示す第2輝度画像180bにおいて、部分184aに対応する部分184bが鮮明に取得されたとしても、生成された距離画像182では、図9のように、部分184aに対応する部分184cにおいてパターンマッチングができない。したがって、本来存在するはずの立体物が検出できなくなる。そこで、このように立体物を有効に検出できない場合、単眼トラッキングを行う場合がある。
(単眼トラッキング処理S204)
単眼トラッキング部164は、2つの撮像装置110で撮像された輝度画像180a、180bのうち、特定物が適切に抽出できる1の輝度画像180を選択し、選択した輝度画像180から立体物を抽出する。具体的に、単眼トラッキング部164は、前回のフレームで特定された特定物が今回のフレームで存在すると予測される範囲において、特定物と大きさ、形、色彩の配置等が類似する立体物を、いずれか1の輝度画像180において特定する。かかる単眼トラッキングは、既存の様々な技術を適用することができるので、ここでは、その詳細な説明を省略する。
単眼トラッキングにより、一方の輝度画像180において立体物が不鮮明になったとしても他方の輝度画像180を用いて立体物を鮮明に特定できるので、特定物の判定精度の低下や後述する追従制御の性能低下を抑制することが可能となる。
ただし、雨天等、所定の環境下においては、2つの撮像装置110の両方において撮像装置110の検出範囲に位置するフロントガラスに雨滴が付着すると、その撮像装置110で撮像された輝度画像180の雨滴に対応する部分がいずれも不鮮明になる。そうすると、パターンマッチングができなくなるだけでなく、単眼トラッキングによっても立体物を特定できないおそれがある。そこで、セマンティックセグメンテーションを用いて立体物を特定する。
セマンティックセグメンテーションは、輝度画像180内の各画素に、その意味に基づいてラベル、カテゴリ、または、クラスを関連付けるディープラーニング(Deep Learning)のアルゴリズムである。かかるセマンティックセグメンテーションによって、車外環境認識装置120は、輝度画像180a、180bの一方、もしくは、両方の一部が不鮮明であったとしても、特徴的なクラス、例えば、車両クラスを形成する画素の集合体を一体的に認識することが可能となる。セマンティックセグメンテーションは、既存の様々な技術を適用することができるので、ここでは、その詳細な説明を省略し、本実施形態の実現に必要な構成のみ説明する。
(クラス特定処理S206)
クラス特定部166は、セマンティックセグメンテーションを用いて、輝度画像180における所定のクラスを特定する。なお、ここでは、クラス特定部166を、中央制御部154で実現する例を挙げて説明したが、かかる場合に限らず、別体のAI(Artificial Intelligence)やDNN(Deep Neural Network)等に特化した計算エンジンまたはFPGA(Field Programmable Gate Array)によって実現してもよい。
図10および図11は、セマンティックセグメンテーションを適用した例を説明するための説明図である。クラス特定部166は、例えば、図10に示した第1輝度画像180aに対し、セマンティックセグメンテーションを用い、図11に示すようなクラスに分類されたクラス画像190を生成する。ここでは、第1輝度画像180aの各画素を、複数のクラスのいずれかに関連付けている。
具体的に、クラス特定部166は、第1輝度画像180aの画素それぞれに対し、複数のクラスに相当する確率をそれぞれ導出する。以下、任意のクラスに相当する確率を相当確率という。そして、クラス特定部166は、第1輝度画像180aの任意の画素において相当確率が最も高いクラスをその画素に関連付ける。例えば、図10の第1輝度画像180aにおける路面192aに属する画素、車線境界線192bに属する画素、車両192cに属する画素が、それぞれ図11のクラス画像190における路面クラス194a、車線境界線クラス194b、車両クラス194cに分類される。
ここでは、図10のように、第1輝度画像180aの部分184aが雨滴によって不鮮明であっても、図11のように、クラス画像190の部分184dが車両クラス194cと適切に分類される。
なお、クラス特定部166は、同一のクラスに分類された画素の集合体の相当確率として、集合体に含まれる全ての画素の相当確率の平均値または中央値を用いる。
(無効画素特定処理S208)
無効画素特定部168は、クラス画像190と距離画像182とを比較し、クラス画像190の車両クラスに対応する、距離画像182の無効画素を特定する。ここで、パターンマッチングによって有効に視差が導出された画素を有効画素といい、パターンマッチングによって有効に視差が導出されなかった画素を無効画素という。
図12および図13は、無効画素を説明するための説明図である。図12のクラス画像190では、車両クラス194cが特定されているとする。また、図13に示した距離画像182では、雨滴等、何らかの原因により、車両クラス194cに対応する領域196に有効画素が存在せず、全ての画素が無効画素となったとする。したがって、無効画素特定部168は、クラス画像190における車両クラス194cに対応する、距離画像182の領域196内の全ての画素を無効画素として特定する。
なお、ここでは、まず、車両クラス194cを特定し、その後、車両クラス194cに対応する無効画素を特定している。しかし、かかる場合に限らず、まず、距離画像182の全ての画素から無効画素を特定し、その無効画素に対応するクラス画像190の画素が車両クラス194cであることを特定するとしてもよい。
(有効画素特定処理S210)
図14および図15は、有効画素特定部170の処理を説明するための説明図であり、図16は、有効画素特定部170の処理を示したフローチャートである。有効画素特定部170は、無効画素特定部168が特定した無効画素それぞれに対し、無効画素より鉛直下方における視差が有効な有効画素を特定する。以下、図14~図16を用いて、有効画素特定部170の処理を説明する。
まず、有効画素特定部170は、図14に示した距離画像182の無効画素200に対応する図15に示したクラス画像190の画素202aの鉛直下方における、車両クラス194cと路面クラス194aとの境界の画素202bを探索起点とする。
具体的に、図16に示すように、有効画素特定部170は、無効画素特定部168が特定した無効画素のうちの1の無効画素200を抽出する(S300)。有効画素特定部170は、抽出した無効画素200に対応するクラス画像190の画素202aの1つ鉛直下方の画素を探索画素として抽出し(S302)、その探索画素が車両クラス194cか否か判定する(S304)。その結果、探索画素が車両クラス194cであれば(S304におけるYES)、有効画素特定部170は、1つ鉛直下方の画素を探索画素として抽出する処理(S302)から繰り返す。一方、探索画素が車両クラス194cでなければ(S304におけるNO)、有効画素特定部170は、その探索画素、例えば、画素202bが車両クラス194cと路面クラス194aとの境界に到達したと判断し、画素202bの位置情報を探索起点として記憶する(S306)。
続いて、有効画素特定部170は、クラス画像190において、探索起点より水平方向に位置する図15の画素202cに対応する図14の有効画素204を特定する。なお、有効画素特定部170は、車両クラス194cにおけるタイヤを認識した場合、探索する高さを鉛直下方に、例えば、画素202dから画素202eに更新する。
具体的に、図16に示すように、有効画素特定部170は、車両クラス194cと路面クラス194aとの境界と判断した探索画素、例えば、画素202bの1つ水平右方向の画素を新たに探索画素として抽出し(S308)、その探索画素および1つ鉛直下方の画素のいずれもが車両クラス194cか否か判定する(S310)。
上記のように、探索起点は路面クラス194aなので、その水平方向の探索画素は、本来、路面クラス194aのはずである。しかし、車両クラス194cに車両のタイヤが含まれている場合、その位置の探索画素や、さらに鉛直下方の画素は車両クラス194cとなる。ここで、有効画素特定部170は、その探索画素および1つ鉛直下方の画素のいずれもが車両クラス194cであれば、その探索画素はタイヤに位置していると判断する。この場合、車両クラス194cと路面クラス194aとの境界は、さらに鉛直下方に位置するはずなので、有効画素特定部170は、探索する高さを鉛直下方に更新する。
ステップS310において、探索画素、例えば、画素202dおよび1つ鉛直下方の画素のいずれもが車両クラス194cであれば(S310におけるYES)、有効画素特定部170は、画素202dの1つ鉛直下方の画素を探索画素として抽出し(S312)、その探索画素が車両クラス194cか否か判定する(S314)。その結果、探索画素が車両クラス194cであれば(S314におけるYES)、有効画素特定部170は、1つ鉛直下方の画素を探索画素として抽出する処理(S312)から繰り返す。一方、探索画素が車両クラス194cでなければ(S314におけるNO)、有効画素特定部170は、その探索画素、例えば、画素202eが車両クラス194cと路面クラス194aとの境界であると判断し、探索する高さを更新する(S316)。こうして、水平右方向の探索は、図15における画素202eから再開されることとなる。
続いて、有効画素特定部170は、探索画素が車両クラス194cまたは路面クラス194aであるか否か判定する(S318)。その結果、探索画素が車両クラス194cまたは路面クラス194aであれば(S318におけるYES)、有効画素特定部170は、その探索画素に対応する距離画像182の画素が有効画素であるか否か判定する(S320)。その結果、探索画素、例えば、画素202cに対応する距離画像182の画素が有効画素204であれば(S320におけるYES)、有効画素特定部170は、その有効画素204を補間対象として無効画素200に関連付ける(S322)。
一方、その探索画素に対応する距離画像182の画素が有効画素でなければ(S320におけるNO)、有効画素特定部170は、1つ水平右方向の画素を探索画素として抽出する処理(S308)から繰り返す。また、探索画素が車両クラス194cおよび路面クラス194aのどちらでもなければ(S318におけるNO)、有効画素特定部170は、有効画素を特定するまでにガードレール等、他の立体物が特定されてしまったとして、水平右方向の探索を諦め、水平左方向に探索する。
続いて、有効画素特定部170は、水平左方向を探索するため、探索起点である画素202bの位置情報を読み出す(S324)。有効画素特定部170は、車両クラス194cと路面クラス194aとの境界と判断した探索画素、例えば、画素202bの1つ水平左方向の画素を新たに探索画素として抽出し(S326)、その探索画素および1つ鉛直下方の画素のいずれもが車両クラス194cか否か判定する(S328)。その結果、探索画素および1つ鉛直下方の画素のいずれもが車両クラス194cであれば(S328におけるYES)、有効画素特定部170は、探索画素の1つ鉛直下方の画素を新たな探索画素として抽出し(S330)、その探索画素が車両クラス194cか否か判定する(S332)。その結果、探索画素が車両クラス194cであれば(S332におけるYES)、有効画素特定部170は、1つ鉛直下方の画素を探索画素として抽出する処理(S330)から繰り返す。一方、探索画素が車両クラス194cでなければ(S332におけるNO)、有効画素特定部170は、その探索画素が車両クラス194cと路面クラス194aとの境界であると判断し、探索する高さを更新する(S334)。こうして、水平左方向の探索は、鉛直下方の画素から再開されることとなる。
続いて、有効画素特定部170は、探索画素が車両クラス194cまたは路面クラス194aであるか否か判定する(S336)。その結果、探索画素が車両クラス194cまたは路面クラス194aであれば(S336におけるYES)、有効画素特定部170は、その探索画素に対応する距離画像182の画素が有効画素であるか否か判定する(S338)。その結果、探索画素に対応する距離画像182の画素が有効画素であれば(S338におけるYES)、有効画素特定部170は、その有効画素を補間対象として無効画素200に関連付ける(S322)。一方、探索画素に対応する距離画像182の画素が有効画素でなければ(S338におけるNO)、有効画素特定部170は、1つ水平左方向の画素を探索画素として抽出する処理(S326)から繰り返す。また、探索画素が車両クラス194cおよび路面クラス194aのどちらでもなければ(S336におけるNO)、有効画素特定部170は、有効画素を特定するまでにガードレール等、他の立体物が特定されてしまったとして、水平左方向の探索も諦め、ステップS340に移行する。
続いて、有効画素特定部170は、無効画素特定部168が特定した全ての無効画素の探索処理が完了したか否か判定する(S340)。その結果、全ての無効画素の探索処理が完了していなければ(S340におけるNO)、有効画素特定部170は、まだ探索処理が実行されていない1の無効画素を抽出する処理(S300)からを繰り返す。一方、全ての無効画素を処理していれば(S340におけるYES)、有効画素特定部170は当該有効画素特定処理を終了する。
仮に、有効画素特定部170が、車両クラス194cと路面クラス194aとの境界を特定することなく、無作為に車両クラス194cの水平方向の有効画素を探索すると、先行車両より遠方の白線等を示す画素が特定されてしまい、車両の視差を適切に示さない。ここで、車両クラス194cと路面クラス194aの境界の水平方向の道路の視差は、理論上、車両クラス194c全体の視差と等しくなる。ここでは、無効画素200の鉛直下方における車両クラス194cと路面クラス194aの境界を探索起点とすることで、車両クラス194cの視差を適切に導出することが可能となる。
また、有効画素特定部170は、車両クラス194cにおけるタイヤを認識した場合、探索する高さを鉛直下方に、例えば、図15の画素202dから画素202eに更新する。かかる構成により、路面に対する車両の接地位置の水平方向から有効画素を特定できるので、車両クラス194cの視差を、より適切に導出することが可能となる。
なお、ここでは、水平右方向および水平左方向の探索において、画素が、車両クラス194cまたは路面クラス194aではないクラスに到達した場合に、探索を諦める例を挙げて説明した。しかし、かかる場合に限らず、水平右方向および水平左方向に所定の探索距離を設定し、その探索距離に到達したら探索を諦めるとしてもよい。
(視差補間処理S212)
視差補間部172は、有効画素特定部170が特定した有効画素の視差で無効画素を補間する。すなわち、有効画素特定部170は、無効画素特定部168が特定した無効画素それぞれに対し、関連付けられた有効画素の視差(相対距離)を上書きする。かかる構成により、視差が無効な無効画素に、想定される有効な視差を対応付けることが可能となる。
ただし、有効画素は、煩雑な有効画素特定処理S210によって特定されるため、車両クラス194cや路面クラス194aの導出精度等の影響を受けやすく、その視差が揺動したり、また、ノイズが混入したりすることがある。そこで、視差補間部172は、無効画素に関連付けられた有効画素の視差を直接対応付けず、複数次の低域通過フィルター等により安定化した後の視差を対応付けるとしてもよい。
(立体物特定処理S214)
立体物特定部174は、視差が補間された距離画像182を用い、まず、自車両1前方の路面を特定する。そして、立体物特定部174は、特定した路面の鉛直上方に高さを有する立体物を特定する。具体的に、立体物特定部174は、路面からの高さが所定距離(例えば0.3m)以上に位置するブロックを、路面から高さ方向に突出している立体物の候補とする。立体物特定部174は、路面の鉛直上方に高さを有する立体物の候補とされた複数のブロックのうち、自車両1との相対距離が等しいブロックをグループ化し、立体物として特定する。
(特定物判定処理S216)
特定物判定部176は、立体物特定部174が特定した立体物が、例えば、先行車両、歩行者、建築物等、所定の特定物であるか判定する。
(特定物追跡処理S218)
特定物追跡部178は、特定物判定部176が前回のフレームで判定した特定物の位置および速度から、今回のフレームにおける特定物の位置を推定する。特定物追跡部178は、推定した位置に、特定物判定部176が今回のフレームで判定した特定物が存在していれば、同一の特定物として関連付ける。こうして、特定物追跡部178は、自車両1の前方における特定物の推移を追跡して追従制御することが可能となる。
また、コンピュータを車外環境認識装置120として機能させるプログラムや、当該プログラムを記録した、コンピュータで読み取り可能なフレキシブルディスク、光磁気ディスク、ROM、CD、DVD、BD等の記憶媒体も提供される。ここで、プログラムは、任意の言語や記述方法にて記述されたデータ処理手段をいう。
以上、添付図面を参照しながら本発明の好適な実施形態について説明したが、本発明はかかる実施形態に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。
例えば、上述した実施形態においては、単眼トラッキング部164によって、特定物を適切に抽出できる1の輝度画像から立体物を特定し、それでもなお立体物を特定できない場合に、クラス特定部166、無効画素特定部168、有効画素特定部170、および、視差補間部172によって、先行車両の判定精度を向上する例を挙げて説明した。しかし、かかる場合に限らず、単眼トラッキング部164を設けることなく、クラス特定部166、無効画素特定部168、有効画素特定部170、および、視差補間部172のみによって、先行車両の判定精度を向上するとしてもよい。
また、上述した実施形態においては、単眼トラッキング部164による単眼トラッキングと、クラス特定部166、無効画素特定部168、有効画素特定部170、および、視差補間部172による視差補間とを独立して実行し、特定物を特定する例を挙げて説明した。しかし、かかる場合に限らず、単眼トラッキングと視差補間とを加重平均した計算結果を用いて特定物を特定してもよい。
例えば、単眼トラッキングによって導出された視差を単眼視差とし、その単眼視差が確からしい確率を単眼確率とする。また、視差補間に用いる視差を補間視差とし、その視差が確からしい確率として、上記の相当確率を用いる。そして、加重平均として、単眼視差×単眼確率と補間視差×相当確率とを加算し、単眼確率+相当確率で除算した結果を、視差の加重平均とする。かかる加重平均を用いることで、単眼トラッキングと視差補間とを、その確からしさに基づいて合成できるので、先行車両の判定精度を向上することが可能となる。
なお、本明細書の車外環境認識方法の各工程は、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいはサブルーチンによる処理を含んでもよい。
110 撮像装置
120 車外環境認識装置
162 距離画像生成部
164 単眼トラッキング部
166 クラス特定部
168 無効画素特定部
170 有効画素特定部
172 視差補間部
180 輝度画像
180a 第1輝度画像
180b 第2輝度画像
182 距離画像
190 クラス画像
194a 路面クラス
194b 車線境界線クラス
194c 車両クラス

Claims (2)

  1. 1つまたは複数のプロセッサと、
    前記プロセッサに接続される1つまたは複数のメモリと、
    を備え、
    前記プロセッサは、前記メモリに含まれるプログラムと協働し、
    セマンティックセグメンテーションを用いて、撮像装置で撮像された輝度画像における車両クラスを特定することと、
    複数の前記輝度画像から距離画像を生成することと、
    前記距離画像における、前記車両クラスに対応する視差が無効な無効画素を特定することと、
    前記無効画素より鉛直下方における視差が有効な有効画素を特定することと、
    前記無効画素の視差を、特定した前記有効画素の視差で補間することと、
    視差が補間された前記距離画像に基づいて特定物を特定することと、
    を含む処理を実行する、車外環境認識装置。
  2. 前記プロセッサは、
    セマンティックセグメンテーションを用いて、前記輝度画像における路面クラスを特定することと、
    前記無効画素の鉛直下方における前記車両クラスと前記路面クラスの境界を探索起点とすることと、
    前記探索起点より水平方向における前記有効画素を特定することと、
    を含む処理を実行する、請求項1に記載の車外環境認識装置。
JP2021081363A 2021-05-13 2021-05-13 車外環境認識装置 Pending JP2022175157A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021081363A JP2022175157A (ja) 2021-05-13 2021-05-13 車外環境認識装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021081363A JP2022175157A (ja) 2021-05-13 2021-05-13 車外環境認識装置

Publications (1)

Publication Number Publication Date
JP2022175157A true JP2022175157A (ja) 2022-11-25

Family

ID=84145614

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021081363A Pending JP2022175157A (ja) 2021-05-13 2021-05-13 車外環境認識装置

Country Status (1)

Country Link
JP (1) JP2022175157A (ja)

Similar Documents

Publication Publication Date Title
JP5690688B2 (ja) 外界認識方法,装置,および車両システム
US9773176B2 (en) Image processing apparatus and image processing method
CN108021856B (zh) 车辆尾灯识别方法、装置及车辆
CN112967283B (zh) 基于双目摄像头的目标识别方法、系统、设备及存储介质
WO2015163078A1 (ja) 外界認識装置
JP5480917B2 (ja) 車両周辺監視装置
JP2016029557A (ja) 立体物検出装置、立体物検出方法、立体物検出プログラム、及び移動体機器制御システム
US10803605B2 (en) Vehicle exterior environment recognition apparatus
JP2012243051A (ja) 環境認識装置および環境認識方法
CN111046741A (zh) 车道线识别的方法和装置
CN115457358A (zh) 一种图像与点云的融合的处理方法、装置和无人车
JP2005090974A (ja) 先行車認識装置
CN113569812A (zh) 未知障碍物的识别方法、装置和电子设备
JP7356319B2 (ja) 車外環境認識装置
JP7261006B2 (ja) 車外環境認識装置
JP7229032B2 (ja) 車外物体検出装置
JP2022175157A (ja) 車外環境認識装置
JP2016173248A (ja) 視差値演算装置、物体認識装置、移動体機器制御システム及び視差演算用プログラム
JP7514139B2 (ja) 車外環境認識装置
JPWO2020054260A1 (ja) 画像認識装置
WO2023112127A1 (ja) 画像認識装置、および、画像認識方法
JP7466695B2 (ja) 画像処理装置
US20230086937A1 (en) Vehicle external environment recognition apparatus
JP2018088237A (ja) 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法、及び、情報処理プログラム
JP7323716B2 (ja) 画像処理装置および画像処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240426