JP2022076715A - 立体物検出装置、及び立体物検出方法 - Google Patents
立体物検出装置、及び立体物検出方法 Download PDFInfo
- Publication number
- JP2022076715A JP2022076715A JP2020187238A JP2020187238A JP2022076715A JP 2022076715 A JP2022076715 A JP 2022076715A JP 2020187238 A JP2020187238 A JP 2020187238A JP 2020187238 A JP2020187238 A JP 2020187238A JP 2022076715 A JP2022076715 A JP 2022076715A
- Authority
- JP
- Japan
- Prior art keywords
- image
- vehicle
- dimensional object
- mask
- bird
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 31
- 240000004050 Pentaglottis sempervirens Species 0.000 claims description 72
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 claims description 72
- 238000012545 processing Methods 0.000 claims description 22
- 238000006243 chemical reaction Methods 0.000 claims description 11
- 239000007787 solid Substances 0.000 claims description 9
- 230000000873 masking effect Effects 0.000 abstract description 19
- 238000003384 imaging method Methods 0.000 abstract description 3
- 238000000034 method Methods 0.000 description 51
- 230000008569 process Effects 0.000 description 44
- 230000005855 radiation Effects 0.000 description 43
- 230000001186 cumulative effect Effects 0.000 description 18
- 238000010586 diagram Methods 0.000 description 16
- 230000006870 function Effects 0.000 description 13
- 230000009466 transformation Effects 0.000 description 9
- 238000002372 labelling Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000012447 hatching Effects 0.000 description 1
- 201000003624 spinocerebellar ataxia type 1 Diseases 0.000 description 1
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
【課題】複数の立体物の個々の接地線の位置を求めることができるようにする。【解決手段】立体物検出装置は、互いの撮影位置Oが揃った第1俯瞰画像F1、及び第2俯瞰画像F2の差分画像Gにおいて立体物候補領域以外をマスキングするマスク画像90を生成し、当該マスク画像90でエッジ画像Eをマスキングしたマスクエッジ画像Geを生成し、当該マスクエッジ画像Ge内の前記立体物候補領域の塊である単一立体物候補領域ごとに接地線を特定し、当該接地線に基づいて差分画像Gにおける立体物の位置を特定する。【選択図】図2
Description
本発明は、立体物検出装置、及び立体物検出方法に関する。
自車両の周囲に存在する他車両等の立体物を検出する技術を開示した特許文献1がある。
特許文献1は、異なるタイミングの俯瞰画像(鳥瞰視画像とも呼ばれる)の差分画像を生成し、当該差分画像の中に検出領域を設定し、当該検出領域の辺に基づき立体物の接地線を特定する技術を開示する。
特許文献1は、異なるタイミングの俯瞰画像(鳥瞰視画像とも呼ばれる)の差分画像を生成し、当該差分画像の中に検出領域を設定し、当該検出領域の辺に基づき立体物の接地線を特定する技術を開示する。
しかしながら、特許文献1の技術は、俯瞰画像内に複数の他車両が存在した場合、それぞれの他車両の接地線の位置を個別に求めることができない。このため、他車両の各々の横位置が正確には求められない、という問題があった。
本発明は、複数の立体物の個々の接地線の位置を求めることができる立体物検出装置、及び立体物検出方法を提供することを目的とする。
本発明の一態様は、車両の走行中に異なるタイミングでカメラによって撮影された第1撮影画像、及び第2撮影画像のそれぞれを第1俯瞰画像、及び第2俯瞰画像に変換する俯瞰変換処理部と、互いの撮影位置が揃った前記第1俯瞰画像、及び前記第2俯瞰画像の差分画像を生成する差分画像生成部と、立体物が映っている候補となる立体物候補領域以外をマスキングするマスク画像を前記差分画像に重畳したマスク差分画像を生成するマスク差分画像生成部を有し、前記車両の周囲に存在する立体物の位置を、前記マスク画像および前記差分画像を用いて特定する立体物位置特定部と、を備え、前記立体物位置特定部は、前記第1俯瞰画像又は前記第2俯瞰画像から前記立体物の輪郭成分を抽出したエッジ画像に前記マスク画像を重畳したマスクエッジ画像、又は、前記マスク差分画像のいずれかの画像を用いて、当該画像内の前記立体物候補領域の塊である単一立体物候補領域ごとに接地線を特定する接地線特定部を備え、前記単一立体物候補領域のそれぞれの前記接地線に基づいて、前記差分画像における前記立体物の位置を特定することを特徴とする立体物検出装置である。
本発明によれば、複数の立体物の個々の接地線の位置を求めることができる。
以下、図面を参照して本発明の実施形態について説明する。
図1は、本実施形態に係る車載システム1の構成を示す図である。
車載システム1は、車両2に搭載されたシステムであり、カメラ4と、カメラECU6と、車両制御ユニット8と、カメラECU6と車両制御ユニット8を接続する車載ネットワークの一種であるCAN10と、を備える。
カメラ4は、車両2の外を撮影する装置であり、撮影によって得られたカメラ映像5をカメラECU6に出力する。以下では、カメラ4が車両2のリア部に設けられ、車両2の後方DBを撮影する場合を例示するが、カメラ4が撮影する方向は適宜である。
本実施形態のカメラECU6は、カメラ映像5に基づいて、立体物の一例である他車両A(図3)の位置を検出し、CAN10を通じて他車両Aの位置情報を車両制御ユニット8に送信する他車両検出装置(立体物検出装置)として機能する装置であり、カメラ4の撮影動作を制御する機能と、カメラ映像5に適宜の信号処理を施す機能を備える。
車両制御ユニット8は、車両2の走行に係る各種の制御を実行するユニットであり、係る制御のために、操舵機構や駆動機構などの車両2の各部を制御する機能を有する。
図1は、本実施形態に係る車載システム1の構成を示す図である。
車載システム1は、車両2に搭載されたシステムであり、カメラ4と、カメラECU6と、車両制御ユニット8と、カメラECU6と車両制御ユニット8を接続する車載ネットワークの一種であるCAN10と、を備える。
カメラ4は、車両2の外を撮影する装置であり、撮影によって得られたカメラ映像5をカメラECU6に出力する。以下では、カメラ4が車両2のリア部に設けられ、車両2の後方DBを撮影する場合を例示するが、カメラ4が撮影する方向は適宜である。
本実施形態のカメラECU6は、カメラ映像5に基づいて、立体物の一例である他車両A(図3)の位置を検出し、CAN10を通じて他車両Aの位置情報を車両制御ユニット8に送信する他車両検出装置(立体物検出装置)として機能する装置であり、カメラ4の撮影動作を制御する機能と、カメラ映像5に適宜の信号処理を施す機能を備える。
車両制御ユニット8は、車両2の走行に係る各種の制御を実行するユニットであり、係る制御のために、操舵機構や駆動機構などの車両2の各部を制御する機能を有する。
また車両制御ユニット8は、運転者の運転操作に代わって車両2を運転制御する機能(いわゆる、自動運転制御機能)を備え、車両2の走行時には、車両2の周囲に存在する立体物の位置を逐次に取得し、立体物までの間に適切な距離を確保するように運転制御する。例えば、車線変更時や合流時、分流時などのように、立体物の一例である他車両Aに車両2が接近し得る場合、車両制御ユニット8は、他車両Aの位置を取得し、当該他車両Aの位置に基づいて、当該他車両Aとの間に適切な車間距離を確保するように運転制御する。
なお、車両制御ユニット8は、自動運転制御機能に代えて、或いは、自動運転制御機能と併せて、運転者の運転操作を支援する運転支援機能を備えてもよい。運転支援機能は、車両2の走行時に、車両2の周囲に存在する立体物の位置を逐次に取得し、立体物を運転者に案内したり、当該立体物の位置に基づく各種の警報等を運転者に報知したりすることで運転者の運転操作を支援するものである。
ここで、上記カメラECU6は、プロセッサの一例であるCPU12と、プログラム13等の各種情報を記憶するROMやRAMなどのメモリ14と、CAN10を通じて車両制御ユニット8と通信する通信モジュールとしてのCANI/F16と、を備えた、いわゆるコンピュータである。本実施形態のカメラECU6は、メモリ14に記憶されたプログラムをCPU12が実行することで、上述した他車両検出装置として機能するように構成されている。
図2は、カメラECU6の機能的構成を示す図である。
本実施形態のカメラECU6は、異なるタイミングで撮影された第1撮影画像、及び第2撮影画像をカメラ映像5から取得し、それらを俯瞰変換した第1俯瞰画像F1、及び第2俯瞰画像F2の差分である差分画像Gに基づいて、他車両Aの位置を検出する。係る検出動作のために、カメラECU6は、図2に示すように、車両情報取得部20と、前処理部22と、立体物位置特定部24と、を備えている。
本実施形態のカメラECU6は、異なるタイミングで撮影された第1撮影画像、及び第2撮影画像をカメラ映像5から取得し、それらを俯瞰変換した第1俯瞰画像F1、及び第2俯瞰画像F2の差分である差分画像Gに基づいて、他車両Aの位置を検出する。係る検出動作のために、カメラECU6は、図2に示すように、車両情報取得部20と、前処理部22と、立体物位置特定部24と、を備えている。
車両情報取得部20は、車両制御ユニット8から車両情報を取得する。この車両情報には、少なくとも車両2の走行速度が含まれる。
前処理部22は、カメラ映像5から差分画像Gを得るための処理を実行するものであり、カメラ映像取得部30と、輝度変換処理部32と、俯瞰変換処理部34と、差分画像生成部36と、を備える。
カメラ映像取得部30は、カメラ4を制御することで、所定時間以上に亘ってカメラ4による撮影を継続し、その撮影によって得られたカメラ映像5を取得する。
輝度変換処理部32は、カメラ映像5を構成する各フレーム(撮影画像)を輝度画像に変換する。各フレームは静止画像である撮影画像に相当し、輝度画像は、この撮影画像のそれぞれの画素値を、その画素の輝度値に変換した画像である。
俯瞰変換処理部34は、各輝度画像を俯瞰画像に変換する。俯瞰画像は、車両2の上方に設定された仮想視点から直下方向を視た画像であり、輝度画像を射影変換(視点変換とも呼ばれる)することで生成される。
差分画像生成部36は、俯瞰変換処理部34によって順次に生成される俯瞰画像の中から、撮影タイミングが異なる2つの第1撮影画像、及び第2撮影画像から得られた第1俯瞰画像F1、及び第2俯瞰画像F2(図5参照)を抽出し、両者の差分画像Gを生成する。差分画像Gは、第1撮影画像E1の各画素の画素値(輝度値)を、その画素に対応する第2撮影画像E2の画素の画素値(輝度値)との差に変換し、所定の閾値で各画素の画素値を2値化した画像である。差分画像Gの生成時には、差分画像生成部36は、第1俯瞰画像F1と第2俯瞰画像F2の撮影位置Oを、第1俯瞰画像F1を基準に揃えた状態で、両者の各画素の画素値の差分量を算出することで、差分画像Gを生成する。
輝度変換処理部32は、カメラ映像5を構成する各フレーム(撮影画像)を輝度画像に変換する。各フレームは静止画像である撮影画像に相当し、輝度画像は、この撮影画像のそれぞれの画素値を、その画素の輝度値に変換した画像である。
俯瞰変換処理部34は、各輝度画像を俯瞰画像に変換する。俯瞰画像は、車両2の上方に設定された仮想視点から直下方向を視た画像であり、輝度画像を射影変換(視点変換とも呼ばれる)することで生成される。
差分画像生成部36は、俯瞰変換処理部34によって順次に生成される俯瞰画像の中から、撮影タイミングが異なる2つの第1撮影画像、及び第2撮影画像から得られた第1俯瞰画像F1、及び第2俯瞰画像F2(図5参照)を抽出し、両者の差分画像Gを生成する。差分画像Gは、第1撮影画像E1の各画素の画素値(輝度値)を、その画素に対応する第2撮影画像E2の画素の画素値(輝度値)との差に変換し、所定の閾値で各画素の画素値を2値化した画像である。差分画像Gの生成時には、差分画像生成部36は、第1俯瞰画像F1と第2俯瞰画像F2の撮影位置Oを、第1俯瞰画像F1を基準に揃えた状態で、両者の各画素の画素値の差分量を算出することで、差分画像Gを生成する。
立体物位置特定部24は、差分画像Gに基づいて、立体物の一例である他車両Aの位置を特定するものであり、マスク差分画像生成部50と、接地線特定部52と、立体物領域特定部54と、を備える。
マスク差分画像生成部50は、差分画像Gにおいて他車両Aが映っている候補の領域(以下、「他車両候補領域60」と言う)以外の領域がマスキングされたマスク差分画像Gm(図13参照)を生成する。
以下では、他車両候補領域60において1台の他車両Aが占める領域(立体物領域)を他車両領域Hと言う。この他車両領域Hの形状は一般的な車両の平面視形状に基づき矩形で近似される。
以下では、他車両候補領域60において1台の他車両Aが占める領域(立体物領域)を他車両領域Hと言う。この他車両領域Hの形状は一般的な車両の平面視形状に基づき矩形で近似される。
車両2の走行方向Bに垂直な横方向Cにおける他車両Aの位置(横位置)は、他車両領域Hの近傍接地線L1、及び遠方接地線L2によって特定される。
接地線は、車両2が走行している車線に隣接する他の車線に存在する他車両Aが地面に接する線であり、平面視における他車両Aの輪郭線63(図3参照)に相当する。本実施形態において、近傍接地線L1は、図3に示すように、他車両Aの左右両側の輪郭線63のうちの車両2に近い側の線を指し、遠方接地線L2は車両2から遠い側の線を指す。
接地線は、車両2が走行している車線に隣接する他の車線に存在する他車両Aが地面に接する線であり、平面視における他車両Aの輪郭線63(図3参照)に相当する。本実施形態において、近傍接地線L1は、図3に示すように、他車両Aの左右両側の輪郭線63のうちの車両2に近い側の線を指し、遠方接地線L2は車両2から遠い側の線を指す。
接地線特定部52は、他車両領域Hの近傍接地線L1、及び遠方接地線L2を特定するものである。
以下では、接地線特定部52は、マスク差分画像Gm内の他車両領域Hに代えて、後述するマスクエッジ画像Ge(図16)内の他車両領域Hから近傍接地線L1、及び遠方接地線L2を特定する場合を説明する。しかしながら、接地線特定部52は、マスク差分画像Gm内の他車両領域Hから近傍接地線L1、及び遠方接地線L2を特定してもよい。
以下では、接地線特定部52は、マスク差分画像Gm内の他車両領域Hに代えて、後述するマスクエッジ画像Ge(図16)内の他車両領域Hから近傍接地線L1、及び遠方接地線L2を特定する場合を説明する。しかしながら、接地線特定部52は、マスク差分画像Gm内の他車両領域Hから近傍接地線L1、及び遠方接地線L2を特定してもよい。
ここで、複数の他車両Aがカメラ4のカメラ映像5に映っている場合、他車両候補領域60の中に複数の他車両Aが存在する。そこで接地線特定部52は、図2に示すように、単一他車両候補領域特定部55を備え、この単一他車両候補領域特定部55が、他車両候補領域60に存在する個々の他車両Aの領域(以下、単一他車両候補領域HKという)を特定する。そして接地線特定部52は、単一他車両候補領域HKのそれぞれについて近傍接地線L1、及び遠方接地線L2を特定する。
立体物領域特定部54は、各単一他車両候補領域HKの近傍接地線L1、及び遠方接地線L2における他車両Aの先端VF、及び後端VB(図3参照)のそれぞれの位置を、差分画像Gに基づいて特定し、これら近傍接地線L1、遠方接地線L2、他車両Aの先端VF、及び後端VBに基づいて、差分画像Gにおける他車両領域Hを検出する。近傍接地線L1、及び遠方接地線L2は、1台の他車両Aに相当する単一他車両候補領域HKごとに特定されているため、他車両領域Hも1台の他車両Aが占める領域となる。
立体物位置特定部24は、差分画像Gにおける他車両領域Hの位置に基づいて、実空間における他車両Aの位置を、公知又は周知の適宜の手法を用いて特定し、特定した位置を車両制御ユニット8に逐次に送信する。
次いで、カメラECU6による他車両Aの検出動作について説明する。
なお、以下の説明では、図3に示すように、車両2が走行している車線70の両側のそれぞれに隣接する他の車線70R、70Lが存在し、各車線70R、70Lを他車両Aが車両2と同一方向に走行している場合における検出動作を例示する。この場合において、いずれの他車両Aも車両2より後方DBに位置し、かつ、カメラ4の画角αの範囲内に位置するものとする。また、図3において、矩形線で示した領域は、車両制御ユニット8による自動運転制御や運転支援において他車両Aの存在を検出する検出領域72を示す。
なお、以下の説明では、図3に示すように、車両2が走行している車線70の両側のそれぞれに隣接する他の車線70R、70Lが存在し、各車線70R、70Lを他車両Aが車両2と同一方向に走行している場合における検出動作を例示する。この場合において、いずれの他車両Aも車両2より後方DBに位置し、かつ、カメラ4の画角αの範囲内に位置するものとする。また、図3において、矩形線で示した領域は、車両制御ユニット8による自動運転制御や運転支援において他車両Aの存在を検出する検出領域72を示す。
図4は、立体物検出処理のフローチャートである。
この立体物検出処理は、少なくとも車両2が走行している間、周囲の他車両Aの存在を検知するために、カメラECU6によって継続的に繰り返し実行される。
この立体物検出処理は、少なくとも車両2が走行している間、周囲の他車両Aの存在を検知するために、カメラECU6によって継続的に繰り返し実行される。
同図に示すように、カメラECU6は、先ず、少なくとも車両2の走行速度を含む車両情報を車両情報取得部20が取得し(ステップSa1)、カメラ映像取得部30がカメラ4からカメラ映像5を取得する(ステップSa2)。次いで、カメラ映像5の各フレーム(撮影画像)を輝度変換処理部32が輝度画像に順次に変換し(ステップSa3)、それらの輝度画像に基づいて俯瞰変換処理部34が俯瞰画像Fを順次に生成する(ステップSa4)。
そして、差分画像生成部36が、俯瞰変換処理部34によって順次に生成される俯瞰画像の中から、撮影タイミングが異なる2つの第1撮影画像、及び第2撮影画像から得られた第1俯瞰画像F1、及び第2俯瞰画像F2を抽出し、これらの差分画像Gを生成する(ステップSa5)。
図5は、差分画像生成動作の説明図である。
なお、以下では、直近に撮影された撮影画像を第1撮影画像とし、それよりも前に撮影された撮影画像を第2撮影画像として説明する。
なお、以下では、直近に撮影された撮影画像を第1撮影画像とし、それよりも前に撮影された撮影画像を第2撮影画像として説明する。
第1撮影画像、及び第2撮影画像では、それぞれの撮影位置Oが走行方向Bにずれるため、図5に示すように、第1俯瞰画像F1、及び第2俯瞰画像F2においても撮影位置Oに、車両2の移動に起因したずれが生じる。差分画像生成部36は、撮影位置Oのずれを補正して差分画像Gを生成するために、第1俯瞰画像F1及び第2俯瞰画像F2の両者の撮影位置Oを、いずれか一方(図5では第1俯瞰画像F1)を基準に揃えた状態で両者の差分画像Gを生成する。
具体的には、差分画像生成部36は、車両2の走行速度と、第1撮影画像、及び第2撮影画像の撮影タイミングの時間差taとに基づいて、車両2の走行距離を算出する。そして差分画像生成部36は、第1俯瞰画像F1、及び第2俯瞰画像F2のいずれか一方(図5では、撮影タイミングが早い方の第2俯瞰画像F2)の各画素を、走行距離に応じた画素数分だけ走行方向Bに沿ってずらす。これにより、第1俯瞰画像F1、及び第2俯瞰画像F2の他方を基準に、両者の撮影位置Oが揃えられた状態となる。
路面標示の一種である白線74等の任意の静止物体が第1俯瞰画像F1、及び第2俯瞰画像F2の各々に映っている場合、両者の撮影位置Oが揃えられることで、図5に示すように、静止物体が映っている位置が揃う。
その一方で、移動物体である他車両Aが第1俯瞰画像F1、及び第2俯瞰画像F2の各々に映っている場合、両者の撮影位置Oが揃えられることで、図5に示すように、それぞれに映った他車両Aの位置にずれが生じる。
このため、両者の差分を示す差分画像Gにおいては、路面標示(白線74等)の静止物体が映っている領域の画素値(差分量)は小さくなり、他車両Aが映っている領域の画素値(差分量)は比較的大きくなる。したがって、差分画像Gの2値化に用いる輝度値の閾値を適切に設定することで、静止物体を除いた画像を得ることができ、その差分画像Gにおける画素値の分布に基づいて、他車両領域Hを抽出し、他車両Aの位置(特に、近傍接地線L1)が特定可能となる。
その一方で、移動物体である他車両Aが第1俯瞰画像F1、及び第2俯瞰画像F2の各々に映っている場合、両者の撮影位置Oが揃えられることで、図5に示すように、それぞれに映った他車両Aの位置にずれが生じる。
このため、両者の差分を示す差分画像Gにおいては、路面標示(白線74等)の静止物体が映っている領域の画素値(差分量)は小さくなり、他車両Aが映っている領域の画素値(差分量)は比較的大きくなる。したがって、差分画像Gの2値化に用いる輝度値の閾値を適切に設定することで、静止物体を除いた画像を得ることができ、その差分画像Gにおける画素値の分布に基づいて、他車両領域Hを抽出し、他車両Aの位置(特に、近傍接地線L1)が特定可能となる。
しかしながら、前掲図3に示すように、車両2と他車両Aとの間に、車両2や他車両Aなどの任意の移動物体によって影76が生じている場合、差分画像Gにおいては、その影76に対応する領域の画素値も増大する。このため、差分画像Gにおいて、単純に画素値が大きい領域を他車両領域Hとして抽出すると、その影76に対応する領域が他車両領域Hに含まれてしまい精度が悪くなる。
そこで、カメラECU6においては、立体物領域特定部54が差分画像Gに基づいて他車両領域Hを特定するに際し、前掲図4に示すように、先ず、マスク差分画像生成部50がマスク差分画像生成処理を実行することで(ステップSa6)、差分画像Gにおいて影76などのノイズに対応する領域、換言すれば、他車両Aが映っている候補の領域である上記他車両候補領域60以外の領域をマスキング領域62としてマスキングした上記マスク差分画像Gmを生成する。
次いで、接地線特定部52が接地線特定処理を実行し(ステップSa7)、後述するマスクエッジ画像Geに基づいて、他車両Aの位置として近傍接地線L1、及び遠方接地線L2を特定する。なお、上述の通り、接地線特定部52は、マスク差分画像Gmに基づいて、近傍接地線L1、及び遠方接地線L2を特定してもよい。
次いで、接地線特定部52が接地線特定処理を実行し(ステップSa7)、後述するマスクエッジ画像Geに基づいて、他車両Aの位置として近傍接地線L1、及び遠方接地線L2を特定する。なお、上述の通り、接地線特定部52は、マスク差分画像Gmに基づいて、近傍接地線L1、及び遠方接地線L2を特定してもよい。
図6は、マスク画像生成処理のフローチャートである。
マスク画像生成処理では、先ず、マスク差分画像生成部50がマスキング領域62をマスクするためのマスク画像90を生成する(ステップSb1)。上述の通り、マスキング領域62は、差分画像Gにおける他車両候補領域60以外の領域であり、他車両候補領域60は、差分画像Gに映った他車両Aの鉛直方向輪郭線Pに基づいて特定される。
マスク画像生成処理では、先ず、マスク差分画像生成部50がマスキング領域62をマスクするためのマスク画像90を生成する(ステップSb1)。上述の通り、マスキング領域62は、差分画像Gにおける他車両候補領域60以外の領域であり、他車両候補領域60は、差分画像Gに映った他車両Aの鉛直方向輪郭線Pに基づいて特定される。
図7は射影変換による鉛直方向輪郭線Pの倒れ込みの説明図である。
鉛直方向輪郭線Pは、図7に示すように、撮影画像M(カメラ映像5のフレーム)に映った他車両Aの輪郭線63や、当該他車両Aの車体パーツ(ドアなど)の輪郭線、他車両Aに描かれた模様の輪郭線などのうち、鉛直方向(地面に対して垂直方向)に延びる各々の線である。これらの鉛直方向輪郭線Pは、撮影画像Mの射影変換(視点変換)によって、いわゆる倒れ込みが生じ、俯瞰画像Fにおいてカメラ4の撮影位置Oから延びる放射線Q上の線分に変換される。つまり、俯瞰画像Fにおいて、鉛直方向輪郭線Pを含む放射線Qの領域(図7のハッチングで示す領域)は他車両Aが存在する領域を示すので、かかる領域が他車両候補領域60となる。
なお、鉛直方向輪郭線Pを含む放射線Qの方向は、射影変換(視点変換)によって立体物が倒れ込む方向とも呼ばれる。
鉛直方向輪郭線Pは、図7に示すように、撮影画像M(カメラ映像5のフレーム)に映った他車両Aの輪郭線63や、当該他車両Aの車体パーツ(ドアなど)の輪郭線、他車両Aに描かれた模様の輪郭線などのうち、鉛直方向(地面に対して垂直方向)に延びる各々の線である。これらの鉛直方向輪郭線Pは、撮影画像Mの射影変換(視点変換)によって、いわゆる倒れ込みが生じ、俯瞰画像Fにおいてカメラ4の撮影位置Oから延びる放射線Q上の線分に変換される。つまり、俯瞰画像Fにおいて、鉛直方向輪郭線Pを含む放射線Qの領域(図7のハッチングで示す領域)は他車両Aが存在する領域を示すので、かかる領域が他車両候補領域60となる。
なお、鉛直方向輪郭線Pを含む放射線Qの方向は、射影変換(視点変換)によって立体物が倒れ込む方向とも呼ばれる。
2つの俯瞰画像Fの差分である差分画像Gにおいても俯瞰画像Fと同様に、鉛直方向輪郭線Pは放射線Q上の線分となる。差分画像Gにおいて、鉛直方向輪郭線Pを含んだ放射線Qの各画素は、その画素値(差分量)が他の画素よりも大きくなる。したがって、差分画像Gにおける画素値に基づいて他車両候補領域60を当該差分画像Gから抽出することができる。
本実施形態では、ラベル画像91、及びルックアップテーブル92を用いて他車両候補領域60の抽出を効率良く行っている。
図8は、ラベル画像91を模式的に示す図である。
ラベル画像91は、撮影位置Oから等間隔に放射状に延び、それぞれがラベル番号によって識別された複数の放射線Qの画像であり、それぞれの放射線Qが、差分画像Gにおける鉛直方向輪郭線Pを含んだ放射線Qの候補となる。本実施形態では、ラベル画像91には、ラベル番号が「1」から「100」までの100本の放射線Qが含まれる。
かかるラベル画像91は、差分画像Gに相当する画素数を有し、図8に示すように、同じ放射線Qを構成する各画素に、その放射線Qのラベル番号(「1」から「100」のいずれか)が対応付けられている。
ラベル画像91は、撮影位置Oから等間隔に放射状に延び、それぞれがラベル番号によって識別された複数の放射線Qの画像であり、それぞれの放射線Qが、差分画像Gにおける鉛直方向輪郭線Pを含んだ放射線Qの候補となる。本実施形態では、ラベル画像91には、ラベル番号が「1」から「100」までの100本の放射線Qが含まれる。
かかるラベル画像91は、差分画像Gに相当する画素数を有し、図8に示すように、同じ放射線Qを構成する各画素に、その放射線Qのラベル番号(「1」から「100」のいずれか)が対応付けられている。
図9は、ルックアップテーブル92を模式的に示す図である。
ルックアップテーブル92は、ラベル画像91の各画素に、非マスキング(白色)に対応する「255」、及びマスキング(黒色)に対応する「0」のいずれかの画素値を指定するものである。ラベル画像91の各画素の画素値が、ルックアップテーブル92の指定に基づいて設定されることで、各画素が非マスキング状態(白色)、又はマスキング状態(黒色)となったマスク画像90が得られる。
ルックアップテーブル92は、ラベル画像91の各画素に、非マスキング(白色)に対応する「255」、及びマスキング(黒色)に対応する「0」のいずれかの画素値を指定するものである。ラベル画像91の各画素の画素値が、ルックアップテーブル92の指定に基づいて設定されることで、各画素が非マスキング状態(白色)、又はマスキング状態(黒色)となったマスク画像90が得られる。
図9に示すように、このルックアップテーブル92では、放射線Qのラベル番号ごとに、その放射線Qの画素値が指定されるようになっており、その画素値は、差分画像Gにおける放射線Qごとの画素値に基づいて決定されるようになっている。
前掲図6に戻り、ステップSb1において、マスク差分画像生成部50は、かかるマスク画像90の生成のために、先ず上記ラベル画像91の全ての画素値を、「255」(非マスキング状態)、又は「0」(マスキング状態)にして初期化する(ステップSb1A)。
次いで、マスク差分画像生成部50は、差分画像Gにおける放射線Qごとの画素値に基づいて、上記ルックアップテーブル92を作成する(ステップSb1B)。具体的には、マスク差分画像生成部50は、差分ヒストグラムRa、及びエッジ強度ヒストグラムRbに基づいて、ルックアップテーブル92における放射線Qごとの各画素の輝度値を示すフラグ(「0」又は「255」)を決定する。
図10は、差分ヒストグラムRaの説明図である。
差分ヒストグラムRaは、図10に示すように、ラベル番号を横軸とし、差分画像Gにおいて放射線Qごとに画素値の有無を累積した値(以下、「放射線方向差分量累積値」と言う)を縦軸としたグラフである。放射線方向差分量累積値は、放射線Qが鉛直方向輪郭線Pを含んでいると大きくなるので、この差分ヒストグラムRaにおいて、放射線方向差分量累積値が所定の第1閾値Th1を越えている各放射線Qを特定することで、他車両候補領域60となる放射線Qの範囲Uaを特定できる。
また放射線Qごとの放射線方向差分量累積値に基づいて、鉛直方向輪郭線Pを含む放射線Qを特定するので、例えば差分画像Gに対して輪郭抽出処理などの画像処理を施して鉛直方向輪郭線Pを検出する場合に比べ、高速かつ高精度に放射線Qを特定できる。
差分ヒストグラムRaは、図10に示すように、ラベル番号を横軸とし、差分画像Gにおいて放射線Qごとに画素値の有無を累積した値(以下、「放射線方向差分量累積値」と言う)を縦軸としたグラフである。放射線方向差分量累積値は、放射線Qが鉛直方向輪郭線Pを含んでいると大きくなるので、この差分ヒストグラムRaにおいて、放射線方向差分量累積値が所定の第1閾値Th1を越えている各放射線Qを特定することで、他車両候補領域60となる放射線Qの範囲Uaを特定できる。
また放射線Qごとの放射線方向差分量累積値に基づいて、鉛直方向輪郭線Pを含む放射線Qを特定するので、例えば差分画像Gに対して輪郭抽出処理などの画像処理を施して鉛直方向輪郭線Pを検出する場合に比べ、高速かつ高精度に放射線Qを特定できる。
図11は、エッジ強度ヒストグラムRbの説明図である。
エッジ強度ヒストグラムRbは、図11に示すように、ラベル番号を横軸とし、エッジ画像Eにおいて放射線Qごとに画素値の有無を累積した値(以下、「放射線方向エッジ強度累積値」と言う)を縦軸としたグラフである。
エッジ画像Eは、第1俯瞰画像F1、及び第2俯瞰画像F2のうち、撮影タイミングが遅い方(すなわち直近の方)の俯瞰画像(本実施形態では第1俯瞰画像F1)において、その俯瞰画像に映った物体(当該物体の模様等を含む)の輪郭成分を抽出した画像である。かかるエッジ画像Eは、俯瞰画像において、周辺の画素との間の輝度差が大きな(所定値以上)の各画素の画素値を、その輝度差に応じた値(強度値)とすることで生成される。
すなわち、エッジ強度ヒストグラムRbは、放射線Qに含まれる立体物のエッジ成分の大小を、放射線Qのラベルごとに示したグラフとなる。
エッジ強度ヒストグラムRbは、図11に示すように、ラベル番号を横軸とし、エッジ画像Eにおいて放射線Qごとに画素値の有無を累積した値(以下、「放射線方向エッジ強度累積値」と言う)を縦軸としたグラフである。
エッジ画像Eは、第1俯瞰画像F1、及び第2俯瞰画像F2のうち、撮影タイミングが遅い方(すなわち直近の方)の俯瞰画像(本実施形態では第1俯瞰画像F1)において、その俯瞰画像に映った物体(当該物体の模様等を含む)の輪郭成分を抽出した画像である。かかるエッジ画像Eは、俯瞰画像において、周辺の画素との間の輝度差が大きな(所定値以上)の各画素の画素値を、その輝度差に応じた値(強度値)とすることで生成される。
すなわち、エッジ強度ヒストグラムRbは、放射線Qに含まれる立体物のエッジ成分の大小を、放射線Qのラベルごとに示したグラフとなる。
前掲図6に戻り、マスク差分画像生成部50は、ステップSb1Bにおいて、差分ヒストグラムRaにおいて放射線方向差分量累積値が所定の第1閾値Th1を越え、かつ、エッジ強度ヒストグラムRbにおいて放射線方向エッジ強度累積値が所定の第2閾値Th2を越えている放射線Qを特定する。そして、マスク差分画像生成部50は、ルックアップテーブル92において、それらの放射線Qについては「非マスキング状態」の画素値を設定し、それ以外の放射線Qについては「マスキング状態」の画素値を設定する。
次いでマスク差分画像生成部50は、ルックアップテーブル92に基づいてラベル画像91の各画素値を設定することで、マスク画像90を生成する(ステップSb1C)。
これにより、図12に示すように、他車両候補領域60が非マスキング状態となり、他車両候補領域60以外の領域がマスキング領域62となったマスク画像90が得られる。
これにより、図12に示すように、他車両候補領域60が非マスキング状態となり、他車両候補領域60以外の領域がマスキング領域62となったマスク画像90が得られる。
そして、マスク差分画像生成部50は、ステップSb2において、差分画像Gに、マスク画像90を重畳することで、図13に示すように、他車両候補領域60以外の領域がマスキング領域62としてマスキングされたマスク差分画像Gmを生成する。
図14は、接地線特定処理のフローチャートである。
接地線特定処理において、接地線特定部52は、マスクエッジ画像Geに基づいて、差分画像Gにおける近傍接地線L1、及び遠方接地線L2を他車両Aの位置として特定する。
具体的には、接地線特定部52は、先ず、上述の単一他車両候補領域HKを特定するために単一他車両候補領域特定処理を実行する(ステップSc1)。
接地線特定処理において、接地線特定部52は、マスクエッジ画像Geに基づいて、差分画像Gにおける近傍接地線L1、及び遠方接地線L2を他車両Aの位置として特定する。
具体的には、接地線特定部52は、先ず、上述の単一他車両候補領域HKを特定するために単一他車両候補領域特定処理を実行する(ステップSc1)。
図15は単一他車両候補領域特定処理のフローチャートである。
単一他車両候補領域特定処理において、接地線特定部52の単一他車両候補領域特定部55が、先ず、マスクエッジ画像Geを生成する(ステップSca1)。
マスクエッジ画像Geは、図16に示すように、エッジ画像Eにマスク画像90を重畳した画像である。エッジ画像Eは、上述の通り、俯瞰画像に映った各種の物体の輪郭成分を抽出した画像であるため、このエッジ画像Eにマスク画像90を重畳して得られたマスクエッジ画像Geは、他車両候補領域60以外の輪郭成分がマスキングされた画像となる。
単一他車両候補領域特定処理において、接地線特定部52の単一他車両候補領域特定部55が、先ず、マスクエッジ画像Geを生成する(ステップSca1)。
マスクエッジ画像Geは、図16に示すように、エッジ画像Eにマスク画像90を重畳した画像である。エッジ画像Eは、上述の通り、俯瞰画像に映った各種の物体の輪郭成分を抽出した画像であるため、このエッジ画像Eにマスク画像90を重畳して得られたマスクエッジ画像Geは、他車両候補領域60以外の輪郭成分がマスキングされた画像となる。
次に単一他車両候補領域特定部55は、所定画素値を閾値としてマスクエッジ画像Geを2値化処理する(ステップSca2)。2値化に用いられる閾値は、他車両Aの輪郭成分以外のノイズ(例えば静止物体の輪郭成分など)を除去する適切な値であり、2値化後のマスクエッジ画像Geが表す領域が他車両候補領域60となる。
次いで単一他車両候補領域特定部55は、マスクエッジ画像Geに対してクロージング処理を実行する(ステップSca3)。クロージング処理は、モフォロジー処理の一つであり、マスクエッジ画像Geにおける他車両候補領域60の隙間を繋げて当該他車両候補領域60の形を整形する処理である。図17は、これら2値化処理、及びクロージング処理後のマスクエッジ画像Geを示す。
次いで単一他車両候補領域特定部55は、マスクエッジ画像Geに対してクロージング処理を実行する(ステップSca3)。クロージング処理は、モフォロジー処理の一つであり、マスクエッジ画像Geにおける他車両候補領域60の隙間を繋げて当該他車両候補領域60の形を整形する処理である。図17は、これら2値化処理、及びクロージング処理後のマスクエッジ画像Geを示す。
次に、単一他車両候補領域特定部55は、マスクエッジ画像Geに対してラベルリング処理を施す(ステップSca4)。ラベリング処理は、マスクエッジ画像Ge内の他車両候補領域60の塊ごとに、異なるラベル(番号)を付すことで、他車両候補領域60を塊ごとに識別する処理である。本実施形態では、マスクエッジ画像Geにおいて、縦方向Dy又は横方向Dxに連続する同じ値のピクセルに同一のラベルを付す、いわゆる4近傍ラベリングが用いられている。
このラベリング処理により、図17に示すように、マスクエッジ画像Geの中の他車両候補領域60が個々の他車両Aごとに異なるラベルによって識別される。そして、異なるラベルが付された他車両候補領域60のそれぞれが、上述の単一他車両候補領域HKに対応するから、当該ラベリング処理により、単一他車両候補領域HKが特定されることとなる。
このラベリング処理により、図17に示すように、マスクエッジ画像Geの中の他車両候補領域60が個々の他車両Aごとに異なるラベルによって識別される。そして、異なるラベルが付された他車両候補領域60のそれぞれが、上述の単一他車両候補領域HKに対応するから、当該ラベリング処理により、単一他車両候補領域HKが特定されることとなる。
次いで、単一他車両候補領域特定部55は、横方向Dxの幅が所定画素数以内(例えば10ピクセル以内)の単一他車両候補領域HKに付されているラベルを削除する(ステップSca5)。所定画素数は、一般的な車両が取り得る幅に相当する画素数よりも非常に小さな値である。かかる所定画素数よりも小さな幅の単一他車両候補領域HKのラベルを除去することで、他車両Aが存在し得ることがない単一他車両候補領域HK(すなわちノイズ)が除かれる。
なお、マスクエッジ画像Ge内のノイズが、単一他車両候補領域HKや他車両候補領域60の識別に影響を及ぼさない程度である場合、ステップSca2の2値化処理、ステップSca3のクロージング処理、及び、ステップSca5におけるラベル削除処理の全部又は一部を実行しなくてもよい。
なお、マスクエッジ画像Ge内のノイズが、単一他車両候補領域HKや他車両候補領域60の識別に影響を及ぼさない程度である場合、ステップSca2の2値化処理、ステップSca3のクロージング処理、及び、ステップSca5におけるラベル削除処理の全部又は一部を実行しなくてもよい。
次に、単一他車両候補領域特定部55は、各々の単一他車両候補領域HKに対してグルーピング処理を施す(ステップSca6)。
グルーピング処理は、単一他車両候補領域HKのうち、実際には同一の他車両Aに対応する領域同士を纏める処理である。本実施形態では、次の第1、及び第2のグルーピング条件のいずれかに該当する単一他車両候補領域HK同士が纏められる。第1のグルーピング条件は、マスクエッジ画像Geにおいて、互いに縦方向Dyで重なっていること、第2のグルーピング条件は、縦方向Dyで重なっていない場合であっても、縦方向Dy及び横方向Dxの間隔が所定画素数以内(例えば縦方向Dyの間隔が30ピクセル以内、横方向Dxの間隔が5ピクセル以内)であること、である。
第1のグルーピング条件について説明すると、互いに縦方向Dyで重なっている場合、重なった位置に単一他車両候補領域HKに対応する各他車両Aが同時存在している事を意味する。したがって、この場合は、1台の他車両Aについての単一他車両候補領域HKが何らかの理由で異なる領域に分離されているものと見做すことができる。
第2のグルーピング条件について説明すると、図18に示すように、1台の他車両Aが車両2の真横(横方向Dx)に位置していた場合、この他車両Aの先端VF、及び後端VBの輪郭線63ごとに互いに単一他車両候補領域HKがマスクエッジ画像Ge内に出現する。この場合において、他車両Aの先端VF、及び後端VBの間に特徴的な輪郭が存在しないときには、先端VF、及び後端VBの各々の単一他車両候補領域HKは互いに分離したものとなる。第2の条件は、このように分離した単一他車両候補領域HK同士を1つに纏めるための条件である。
グルーピング処理は、単一他車両候補領域HKのうち、実際には同一の他車両Aに対応する領域同士を纏める処理である。本実施形態では、次の第1、及び第2のグルーピング条件のいずれかに該当する単一他車両候補領域HK同士が纏められる。第1のグルーピング条件は、マスクエッジ画像Geにおいて、互いに縦方向Dyで重なっていること、第2のグルーピング条件は、縦方向Dyで重なっていない場合であっても、縦方向Dy及び横方向Dxの間隔が所定画素数以内(例えば縦方向Dyの間隔が30ピクセル以内、横方向Dxの間隔が5ピクセル以内)であること、である。
第1のグルーピング条件について説明すると、互いに縦方向Dyで重なっている場合、重なった位置に単一他車両候補領域HKに対応する各他車両Aが同時存在している事を意味する。したがって、この場合は、1台の他車両Aについての単一他車両候補領域HKが何らかの理由で異なる領域に分離されているものと見做すことができる。
第2のグルーピング条件について説明すると、図18に示すように、1台の他車両Aが車両2の真横(横方向Dx)に位置していた場合、この他車両Aの先端VF、及び後端VBの輪郭線63ごとに互いに単一他車両候補領域HKがマスクエッジ画像Ge内に出現する。この場合において、他車両Aの先端VF、及び後端VBの間に特徴的な輪郭が存在しないときには、先端VF、及び後端VBの各々の単一他車両候補領域HKは互いに分離したものとなる。第2の条件は、このように分離した単一他車両候補領域HK同士を1つに纏めるための条件である。
そして、前掲図15に示すように、単一他車両候補領域特定部55は、ステップSca6のグルーピング処理において、単一他車両候補領域HKのそれぞれに対し、第1条件に基づくグルーピング、及び、第2条件に基づくグルーピングを実行する。
以上の単一他車両候補領域特定処理により、前掲図17に示すように、マスクエッジ画像Geにおける個々の他車両Aごとの単一他車両候補領域HKが特定される。
次いで、接地線特定部52は、各単一他車両候補領域HKについて近傍接地線L1を求める。具体的には、前掲図14に示すように、接地線特定部52は、単一他車両候補領域HKごとにマスクエッジヒストグラムReを生成する(ステップSc2)。
図19は、マスクエッジヒストグラムReの説明図である。
マスクエッジヒストグラムReは、図19に示すように、車両2の走行方向Bに対して垂直な横方向Cの位置(以下、「横方向位置」と言う)を横軸とし、マスクエッジ画像Geの横方向を所定間隔で短冊状の小領域に区切り、その領域ごとに走行方向Bに沿って画素値の有無を累積した値(以下、「走行方向差分量累積値」と言う)を縦軸としたグラフである。マスクエッジ画像Geでは、他車両Aの輪郭成分以外はマスキングされているため、横方向Cにおける走行方向差分量累積値の分布によって、他車両Aの近傍接地線L1を特定することができる。
マスクエッジヒストグラムReは、図19に示すように、車両2の走行方向Bに対して垂直な横方向Cの位置(以下、「横方向位置」と言う)を横軸とし、マスクエッジ画像Geの横方向を所定間隔で短冊状の小領域に区切り、その領域ごとに走行方向Bに沿って画素値の有無を累積した値(以下、「走行方向差分量累積値」と言う)を縦軸としたグラフである。マスクエッジ画像Geでは、他車両Aの輪郭成分以外はマスキングされているため、横方向Cにおける走行方向差分量累積値の分布によって、他車両Aの近傍接地線L1を特定することができる。
具体的には、前掲図14に示すように、接地線特定部52は、その横方向位置に他車両Aが存在すると見做す走行方向差分量累積値の第3閾値Th3を設定する(ステップSc3)。この第3閾値Th3には、走行方向差分量累積値の平均値Aveと、走行方向差分量累積値の最小値Minとの中間値(=(Ave+Min)/2)が設定される。
次いで、接地線特定部52は、マスクエッジヒストグラムReにおいて、走行方向差分量累積値が、所定数以上に亘って連続して第3閾値Th3を越えている横方向位置の範囲Ucに基づいて近傍接地線L1を特定する。
具体的には、接地線特定部52は、図20に示すように、マスクエッジヒストグラムReの横軸上のi(iは1以上の整数)箇所に判定点Xを等間隔に設定する。各判定点Xは、マスクエッジヒストグラムReの横軸における区間(グラフの柱)に対応させてもよい。
そして、接地線特定部52は、前掲図14に示すように、撮影位置Oに近い判定点Xから順に、所定の接地線判定条件を満足するか否かを判定し(ステップSc4)、満足してない場合には(ステップSc4:No)、次の判定点Xを判定する(ステップSc5)。また、接地線判定条件が満足されている場合は(ステップSc4:Yes)、接地線特定部52は、その判定点Xを近傍接地線L1の位置であると特定する(ステップSc6)。
具体的には、接地線特定部52は、図20に示すように、マスクエッジヒストグラムReの横軸上のi(iは1以上の整数)箇所に判定点Xを等間隔に設定する。各判定点Xは、マスクエッジヒストグラムReの横軸における区間(グラフの柱)に対応させてもよい。
そして、接地線特定部52は、前掲図14に示すように、撮影位置Oに近い判定点Xから順に、所定の接地線判定条件を満足するか否かを判定し(ステップSc4)、満足してない場合には(ステップSc4:No)、次の判定点Xを判定する(ステップSc5)。また、接地線判定条件が満足されている場合は(ステップSc4:Yes)、接地線特定部52は、その判定点Xを近傍接地線L1の位置であると特定する(ステップSc6)。
上記接地線判定条件は、その判定点Xの走行方向差分量累積値が第3閾値Th3以下であり、なおかつ、その次の判定点Xから所定個数分の判定点Xの全てにおいて走行方向差分量累積値が第3閾値Th3以上である、という条件である。
撮影位置Oに近い判定点Xから順に接地線判定条件を判定することで、図20に示すように、所定個数分の判定点Xの全ての走行方向差分量累積値が第3閾値Th3を越える範囲Ucに対し、撮影位置Oからみて直前の判定点Xが求められ、この判定点Xが近傍接地線L1として特定されることとなる。これにより、近傍接地線L1が他車両Aに入り込んだ位置(第3閾値Th3を越えている範囲)に設定されることがなく、より正確な位置に近傍接地線L1が設定される。
撮影位置Oに近い判定点Xから順に接地線判定条件を判定することで、図20に示すように、所定個数分の判定点Xの全ての走行方向差分量累積値が第3閾値Th3を越える範囲Ucに対し、撮影位置Oからみて直前の判定点Xが求められ、この判定点Xが近傍接地線L1として特定されることとなる。これにより、近傍接地線L1が他車両Aに入り込んだ位置(第3閾値Th3を越えている範囲)に設定されることがなく、より正確な位置に近傍接地線L1が設定される。
そして接地線特定部52は、前掲図14に示すように、近傍接地線L1の位置と、他車両Aの車幅とに基づいて、遠方接地線L2の位置を特定する(ステップSc7)。他車両Aの車幅には、小型車、普通車、及び大型車ごとに予め設定された値が用いられる。すなわち、ステップSc6において、接地線特定部52は、差分画像Gにおける他車両候補領域60の大きさや形状に基づいて、他車両Aの車種が小型車、普通車、及び大型車のどれに該当するかを特定し、特定した車種に対応する車幅を、近傍接地線L1の位置に加算することで、差分画像Gにおける遠方接地線L2の位置を特定する。
以上の接地線特定処理により、車両2からみて横方向Cにおける他車両Aの位置である近傍接地線L1、及び遠方接地線L2が特定される。マスクエッジ画像Geにおける近傍接地線L1、及び遠方接地線L2の位置に基づいて、マスク差分画像Gmや差分画像Gなどにける近傍接地線L1、及び遠方接地線L2の位置も特定されることとなる。
前掲図4に戻り、ステップSa7の接地線特定処理が終了すると、立体物領域特定部54が、近傍接地線L1、及び遠方接地線L2に基づいて、他車両Aの先端VF、及び後端VBを特定することで、差分画像Gにおける他車両領域Hを検出する立体物領域特定処理を実行する(ステップSa8)。
図21は、俯瞰画像Fにおける近傍接地線L1、及び遠方接地線L2と鉛直方向輪郭線Pとの関係を示す図である。
近傍接地線L1を用いて他車両Aの先端VF、及び後端VBを求める手法としては、次のような手法がある。すなわち、図21に示すように、俯瞰画像Fにおいて、他車両Aの鉛直方向輪郭線Pのうち、後端近傍側鉛直方向輪郭線P1、及び先端近傍側鉛直方向輪郭線P2と、近傍接地線L1との交点を求めるという手法である。これらの交点によって、近傍接地線L1における後端近傍側位置L1VBと、先端近傍側位置L1VFとが求められる。
なお、後端近傍側鉛直方向輪郭線P1は、他車両Aの後端側であり撮影位置Oに近い側の鉛直方向輪郭線Pを指し、先端近傍側鉛直方向輪郭線P2は、他車両Aの先端側であって撮影位置Oに近い側の鉛直方向輪郭線Pを指す。
近傍接地線L1を用いて他車両Aの先端VF、及び後端VBを求める手法としては、次のような手法がある。すなわち、図21に示すように、俯瞰画像Fにおいて、他車両Aの鉛直方向輪郭線Pのうち、後端近傍側鉛直方向輪郭線P1、及び先端近傍側鉛直方向輪郭線P2と、近傍接地線L1との交点を求めるという手法である。これらの交点によって、近傍接地線L1における後端近傍側位置L1VBと、先端近傍側位置L1VFとが求められる。
なお、後端近傍側鉛直方向輪郭線P1は、他車両Aの後端側であり撮影位置Oに近い側の鉛直方向輪郭線Pを指し、先端近傍側鉛直方向輪郭線P2は、他車両Aの先端側であって撮影位置Oに近い側の鉛直方向輪郭線Pを指す。
しかしながら、俯瞰画像Fにおいては、他車両Aが放射線Qの方向に倒れ込んで映るため、他車両Aのルーフ部分Ar等の影響により実際よりも走行方向Bに長く延びた他車両領域Hが検出されることとなり、他車両Aの位置に誤差が生じることとなる。
本実施形態の立体物領域特定処理では、かかる誤差を排除するために、立体物領域特定部54は、次のようにして他車両領域Hを特定している。
すなわち、図22に示すように、立体物領域特定部54は、近傍接地線L1、及び遠方接地線L2のそれぞれごとに、他車両Aの鉛直方向輪郭線Pを含む放射線Qとの交点LVを求める。次いで、立体物領域特定部54は、近傍接地線L1における交点LVから他車両領域H1を特定し、また遠方接地線L2における交点LVから他車両領域H2を特定する。そして、立体物領域特定部54は、これら他車両領域H1と他車両領域H2とが重複するエリアに基づいて他車両Aの先端VF、及び後端VBを特定する。これにより、他車両Aについて、近傍接地線L1、遠方接地線L2、先端VF、及び後端VBによって区画される他車両領域Hが特定されることとなる。
すなわち、図22に示すように、立体物領域特定部54は、近傍接地線L1、及び遠方接地線L2のそれぞれごとに、他車両Aの鉛直方向輪郭線Pを含む放射線Qとの交点LVを求める。次いで、立体物領域特定部54は、近傍接地線L1における交点LVから他車両領域H1を特定し、また遠方接地線L2における交点LVから他車両領域H2を特定する。そして、立体物領域特定部54は、これら他車両領域H1と他車両領域H2とが重複するエリアに基づいて他車両Aの先端VF、及び後端VBを特定する。これにより、他車両Aについて、近傍接地線L1、遠方接地線L2、先端VF、及び後端VBによって区画される他車両領域Hが特定されることとなる。
以下、かかる立体物領域特定処理について、より詳細に説明する。
図23は、立体物領域特定処理のフローチャートである。
立体物領域特定部54は、近傍接地線L1、及び遠方接地線L2ごとの他車両領域H1、H2を特定するために、先ず、差分近傍ヒストグラムRan、及びエッジ強度近傍ヒストグラムRbnと、差分遠方ヒストグラムRaf、及びエッジ強度遠方ヒストグラムRbfと、をそれぞれ生成する(ステップSd1)。
図23は、立体物領域特定処理のフローチャートである。
立体物領域特定部54は、近傍接地線L1、及び遠方接地線L2ごとの他車両領域H1、H2を特定するために、先ず、差分近傍ヒストグラムRan、及びエッジ強度近傍ヒストグラムRbnと、差分遠方ヒストグラムRaf、及びエッジ強度遠方ヒストグラムRbfと、をそれぞれ生成する(ステップSd1)。
図24は差分近傍ヒストグラムRanの説明図であり、図25はエッジ強度近傍ヒストグラムRbnの説明図である。
差分近傍ヒストグラムRanは、図24に示すように、差分画像Gにおける近傍領域Jnについて上述した差分ヒストグラムRaを求めたものであり、またエッジ強度近傍ヒストグラムRbnは、図25に示すように、エッジ画像Eにおける近傍領域Jnについて、上述したエッジ強度ヒストグラムRbを求めたものである。
近傍領域Jnは、差分画像Gにおいて、近傍接地線L1と遠方接地線L2とで挟まれた領域である。
差分近傍ヒストグラムRanは、図24に示すように、差分画像Gにおける近傍領域Jnについて上述した差分ヒストグラムRaを求めたものであり、またエッジ強度近傍ヒストグラムRbnは、図25に示すように、エッジ画像Eにおける近傍領域Jnについて、上述したエッジ強度ヒストグラムRbを求めたものである。
近傍領域Jnは、差分画像Gにおいて、近傍接地線L1と遠方接地線L2とで挟まれた領域である。
図26は差分遠方ヒストグラムRafの説明図であり、図27はエッジ強度遠方ヒストグラムRbfの説明図である。
差分遠方ヒストグラムRafは、図26に示すように、差分画像Gにおける遠方領域Jfについて上述した差分ヒストグラムRaを求めたものであり、またエッジ強度遠方ヒストグラムRbfは、図27に示すように、エッジ画像Eにおける遠方領域Jfについて、上述したエッジ強度ヒストグラムRbを求めたものである。
遠方領域Jfは、差分画像Gにおいて、撮影位置Oからみて近傍接地線L1よりも遠方の領域である。
差分遠方ヒストグラムRafは、図26に示すように、差分画像Gにおける遠方領域Jfについて上述した差分ヒストグラムRaを求めたものであり、またエッジ強度遠方ヒストグラムRbfは、図27に示すように、エッジ画像Eにおける遠方領域Jfについて、上述したエッジ強度ヒストグラムRbを求めたものである。
遠方領域Jfは、差分画像Gにおいて、撮影位置Oからみて近傍接地線L1よりも遠方の領域である。
差分近傍ヒストグラムRan、及びエッジ強度近傍ヒストグラムRbnの生成には近傍用マスクラベル画像91nが用いられ、差分遠方ヒストグラムRaf、及びエッジ強度遠方ヒストグラムRbfの生成には遠方用マスクラベル画像91fが用いられる。
図28は、近傍用マスクラベル画像91n、及び遠方用マスクラベル画像91fの説明図である。
近傍用マスクラベル画像91nは、差分画像Gにおいて近傍領域Jn以外の画素値を無効とし、累積値のカウントから除外されるようにする画像である。かかる近傍用マスクラベル画像91nは、図28に示すように、差分画像Gにおける近傍領域Jn以外をマスキングする近傍領域用マスク画像90nを、上述したラベル画像91に重畳することで得られる。
立体物領域特定部54が、近傍用マスクラベル画像91nを用いて差分ヒストグラムRa、及びエッジ強度ヒストグラムRbを求めることで、近傍領域Jnの画素値だけが累積値の加算対象となり、差分近傍ヒストグラムRan、及びエッジ強度近傍ヒストグラムRbnが求められることとなる。
近傍用マスクラベル画像91nは、差分画像Gにおいて近傍領域Jn以外の画素値を無効とし、累積値のカウントから除外されるようにする画像である。かかる近傍用マスクラベル画像91nは、図28に示すように、差分画像Gにおける近傍領域Jn以外をマスキングする近傍領域用マスク画像90nを、上述したラベル画像91に重畳することで得られる。
立体物領域特定部54が、近傍用マスクラベル画像91nを用いて差分ヒストグラムRa、及びエッジ強度ヒストグラムRbを求めることで、近傍領域Jnの画素値だけが累積値の加算対象となり、差分近傍ヒストグラムRan、及びエッジ強度近傍ヒストグラムRbnが求められることとなる。
遠方用マスクラベル画像91fは、差分画像Gにおいて遠方領域Jf以外の画素値を無効とし、累積値のカウントから除外されるようにする画像であり、差分画像Gにおける遠方領域Jf以外をマスキングする遠方領域用マスク画像90fをラベル画像91に重畳することで得られる。
立体物領域特定部54が、遠方用マスクラベル画像91fを用いて差分ヒストグラムRa、及びエッジ強度ヒストグラムRbを求めることで、遠方領域Jfの画素値だけが累積値の加算対象となり、差分遠方ヒストグラムRaf、及びエッジ強度遠方ヒストグラムRbfが求められる。
立体物領域特定部54が、遠方用マスクラベル画像91fを用いて差分ヒストグラムRa、及びエッジ強度ヒストグラムRbを求めることで、遠方領域Jfの画素値だけが累積値の加算対象となり、差分遠方ヒストグラムRaf、及びエッジ強度遠方ヒストグラムRbfが求められる。
前掲図23に戻り、立体物領域特定部54は、次に、差分近傍ヒストグラムRan、及びエッジ強度近傍ヒストグラムRbnに基づいて、近傍領域Jnにおける立体物判定を行う(ステップSd2)。
具体的には、立体物領域特定部54は、差分近傍ヒストグラムRanにおいて放射線方向差分量累積値が第4閾値Th4(図24)以上であり、なおかつエッジ強度近傍ヒストグラムRbnにおいて放射線方向エッジ強度累積値が第5閾値Th5(図25)以上となるラベル番号の放射線Qを特定する。
そして、図29に示すように、立体物領域特定部54は、差分画像Gにおいて、特定された放射線Qの各々と近傍接地線L1との交点LVを特定する。これらの交点LVの特定は、差分画像Gの中に設定された所定の検出領域についてのみ行われる。この検出領域は、例えば上記検出領域72(図3、図5)などである。
これらの交点LVによって、近傍領域Jnに限定して立体物検出を行った場合の他車両領域H1が特定される。なお、他車両領域H1の横方向Cの幅(すなわち他車両Aの車幅)については、近傍接地線L1と遠方接地線L2の位置に基づいて特定される。
具体的には、立体物領域特定部54は、差分近傍ヒストグラムRanにおいて放射線方向差分量累積値が第4閾値Th4(図24)以上であり、なおかつエッジ強度近傍ヒストグラムRbnにおいて放射線方向エッジ強度累積値が第5閾値Th5(図25)以上となるラベル番号の放射線Qを特定する。
そして、図29に示すように、立体物領域特定部54は、差分画像Gにおいて、特定された放射線Qの各々と近傍接地線L1との交点LVを特定する。これらの交点LVの特定は、差分画像Gの中に設定された所定の検出領域についてのみ行われる。この検出領域は、例えば上記検出領域72(図3、図5)などである。
これらの交点LVによって、近傍領域Jnに限定して立体物検出を行った場合の他車両領域H1が特定される。なお、他車両領域H1の横方向Cの幅(すなわち他車両Aの車幅)については、近傍接地線L1と遠方接地線L2の位置に基づいて特定される。
前掲図23に戻り、立体物領域特定部54は、差分遠方ヒストグラムRaf、及びエッジ強度遠方ヒストグラムRbfに基づいて遠方領域Jfにおける立体物判定を行う(ステップSd3)。これにより、遠方領域Jfに限定して立体物検出を行った場合の他車両領域H2が特定されることとなる。
次に、立体物領域特定部54は、近傍接地線L1について特定された他車両領域H1と、遠方接地線L2について特定された他車両領域H2と、に基づいて、最終的な他車両領域Hを決定する(ステップSd4)。
すなわち、図30に示すように、他車両領域H1、及び他車両領域H2の各々の他車両Aの先端VF、及び後端VBのうち、他車両領域H1、及び他車両領域H2の両者が重複している範囲にあるものを、最終的な他車両領域Hの先端VF、及び後端VBとして特定する。
そして、これら先端VF、及び後端VBと、近傍接地線L1及び遠方接地線L2とによって、射影変換による倒れ込みに起因する誤差を排除し、1台の他車両Aの外形に対応した矩形状の他車両領域Hの正確な位置が特定されることとなる。
すなわち、図30に示すように、他車両領域H1、及び他車両領域H2の各々の他車両Aの先端VF、及び後端VBのうち、他車両領域H1、及び他車両領域H2の両者が重複している範囲にあるものを、最終的な他車両領域Hの先端VF、及び後端VBとして特定する。
そして、これら先端VF、及び後端VBと、近傍接地線L1及び遠方接地線L2とによって、射影変換による倒れ込みに起因する誤差を排除し、1台の他車両Aの外形に対応した矩形状の他車両領域Hの正確な位置が特定されることとなる。
上述した実施形態によれば、次のような効果を奏する。
本実施形態のカメラECU6(立体物検出装置)は、エッジ画像Eにマスク画像90を重畳したマスクエッジ画像Geにおける単一他車両候補領域HKごとに接地線を特定する接地線特定部52を備え、これら単一他車両候補領域HKのそれぞれの接地線に基づいて差分画像Gにおける他車両A立の位置を特定する。
これにより、複数の他車両Aがカメラ映像5に映っている場合でも、個々の他車両Aの接地線が特定されるので、各他車両Aの横位置が正確に求められる。
したがって、例えばリアカメラとサイドカメラと各々のカメラ映像5に同一の他車両Aが映っている場合、それぞれのカメラ映像5から特定された他車両Aの横位置同士のズレが抑えられる。かかるズレが抑えられることで、同一の他車両Aが異なる2台の他車両Aと誤検知されてしまうことを防止でき、より安定した自動運転車両制御に有用なものとなる。
これにより、複数の他車両Aがカメラ映像5に映っている場合でも、個々の他車両Aの接地線が特定されるので、各他車両Aの横位置が正確に求められる。
したがって、例えばリアカメラとサイドカメラと各々のカメラ映像5に同一の他車両Aが映っている場合、それぞれのカメラ映像5から特定された他車両Aの横位置同士のズレが抑えられる。かかるズレが抑えられることで、同一の他車両Aが異なる2台の他車両Aと誤検知されてしまうことを防止でき、より安定した自動運転車両制御に有用なものとなる。
本実施形態の接地線特定部52は、同一の他車両Aに対応する単一他車両候補領域HK同士をグルーピングした後に、単一他車両候補領域HKごとに接地線を特定する。
これにより、実際には一台の他車両Aが複数箇所の他車両Aとして誤検知されることを防止できる。
これにより、実際には一台の他車両Aが複数箇所の他車両Aとして誤検知されることを防止できる。
本実施形態の接地線特定部52は、マスクエッジ画像Geに対して2値化処理、及び/又は、クロージング処理を施した後の単一他車両候補領域HKごとに接地線を特定する。
これにより、ノイズの影響を抑えて正確に接地線を特定することができる。
これにより、ノイズの影響を抑えて正確に接地線を特定することができる。
本実施形態の接地線特定部52は、他車両Aが取り得る幅よりも狭い幅の単一他車両候補領域HKを除いて単一他車両候補領域HKごとに接地線を特定する。
これにより、他車両Aの誤検知を防止できる。
これにより、他車両Aの誤検知を防止できる。
なお、上述した実施形態は、あくまでも本発明の一態様の例示であり、本発明の主旨を逸脱しない範囲において任意に変形、及び応用が可能である。
上述した実施形態において、接地線特定部52がマスクエッジ画像Geに基づいて、他車両Aの位置としての接地線を特定したが、接地線特定部52は、マスク差分画像Gmに基づいて接地線を特定してもよい。この場合に接地線特定部52が行う処理は、上述の実施形態(接地線特定処理:図14)において、「マスクエッジ画像Ge」を「マスク差分画像Gm」に読み替えた処理となる。
上述した実施形態では、カメラECU6が立体物検出装置として機能したが、これに限らず、車載システム1が備える任意の装置が立体物検出装置として機能してもよい。
また上述した実施形態において、図2に示す機能ブロックは、本願発明を理解容易にするために、カメラECU6の構成要素を主な処理内容に応じて分類して示した概略図であり、カメラECU6の構成要素は、処理内容に応じて、さらに多くの構成要素に分類することもできる。また、1つの構成要素がさらに多くの処理を実行するように分類することもできる。
また上述した実施形態において、水平、及び垂直等の方向や、各種の形状は、特段の断りがなされていない限り、同一の作用効果を奏する限りにおいて、その周辺の方向や近似の形状(いわゆる、均等の範囲)を含むものである。
2 車両
4 カメラ
6 カメラECU(立体物検出装置)
24 立体物位置特定部
34 俯瞰変換処理部
36 差分画像生成部
50 マスク差分画像生成部
52 接地線特定部
54 立体物領域特定部
55 単一他車両候補領域特定部
62 マスキング領域
90 マスク画像
A 他車両
B 走行方向
E エッジ画像
F、F1、F2 俯瞰画像
G 差分画像
Gm マスク差分画像
Ge マスクエッジ画像
H、H1、H2 他車両領域
HK 単一他車両候補領域(単一立体物候補領域)
L1 近傍接地線
L2 遠方接地線
LV 交点
M 撮影画像
O 撮影位置
P 鉛直方向輪郭線
Q 放射線
VB 後端
VF 先端
4 カメラ
6 カメラECU(立体物検出装置)
24 立体物位置特定部
34 俯瞰変換処理部
36 差分画像生成部
50 マスク差分画像生成部
52 接地線特定部
54 立体物領域特定部
55 単一他車両候補領域特定部
62 マスキング領域
90 マスク画像
A 他車両
B 走行方向
E エッジ画像
F、F1、F2 俯瞰画像
G 差分画像
Gm マスク差分画像
Ge マスクエッジ画像
H、H1、H2 他車両領域
HK 単一他車両候補領域(単一立体物候補領域)
L1 近傍接地線
L2 遠方接地線
LV 交点
M 撮影画像
O 撮影位置
P 鉛直方向輪郭線
Q 放射線
VB 後端
VF 先端
Claims (5)
- 車両の走行中に異なるタイミングでカメラによって撮影された第1撮影画像、及び第2撮影画像のそれぞれを第1俯瞰画像、及び第2俯瞰画像に変換する俯瞰変換処理部と、
互いの撮影位置が揃った前記第1俯瞰画像、及び前記第2俯瞰画像の差分画像を生成する差分画像生成部と、
立体物が映っている候補となる立体物候補領域以外をマスキングするマスク画像を前記差分画像に重畳したマスク差分画像を生成するマスク差分画像生成部を有し、前記車両の周囲に存在する立体物の位置を、前記マスク画像および前記差分画像を用いて特定する立体物位置特定部と、を備え、
前記立体物位置特定部は、
前記第1俯瞰画像又は前記第2俯瞰画像から前記立体物の輪郭成分を抽出したエッジ画像に前記マスク画像を重畳したマスクエッジ画像、又は、前記マスク差分画像のいずれかの画像を用いて、当該画像内の前記立体物候補領域の塊である単一立体物候補領域ごとに接地線を特定する接地線特定部を備え、
前記単一立体物候補領域のそれぞれの前記接地線に基づいて、前記差分画像における前記立体物の位置を特定する
ことを特徴とする立体物検出装置。 - 前記接地線特定部は、
同一の立体物に対応する前記単一立体物候補領域同士をグルーピングした後に、前記単一立体物候補領域ごとに前記接地線を特定する
ことを特徴とする請求項1に記載の立体物検出装置。 - 前記接地線特定部は、
前記マスクエッジ画像、又は、前記マスク差分画像に対して2値化処理、及び/又は、クロージング処理を施した後の前記単一立体物候補領域ごとに前記接地線を特定する
ことを特徴とする請求項1または2に記載の立体物検出装置。 - 前記接地線特定部は、
前記立体物が取り得る幅よりも狭い幅の前記単一立体物候補領域を除いて前記単一立体物候補領域ごとに前記接地線を特定する
ことを特徴とする請求項1から3のいずれかに記載の立体物検出装置。 - 車両の走行中に異なるタイミングでカメラによって撮影された第1撮影画像、及び第2撮影画像のそれぞれを第1俯瞰画像、及び第2俯瞰画像に変換する第1ステップと、
互いの撮影位置が揃った前記第1俯瞰画像、及び前記第2俯瞰画像の差分画像を生成する第2ステップと、
立体物が映っている候補となる立体物候補領域以外をマスキングするマスク画像を前記差分画像に重畳したマスク差分画像を生成し、前記車両の周囲に存在する立体物の位置を、前記マスク画像および前記差分画像を用いて特定する第3ステップと、
を備え、
前記第3ステップにおいて、
前記第1俯瞰画像又は前記第2俯瞰画像から前記立体物の輪郭成分を抽出したエッジ画像に前記マスク画像を重畳したマスクエッジ画像、又は、前記マスク差分画像のいずれかの画像を用いて、当該画像内の前記立体物候補領域の塊である単一立体物候補領域ごとに接地線を特定し、
前記単一立体物候補領域のそれぞれの前記接地線に基づいて、前記差分画像における前記立体物の位置を特定する
ことを特徴とする立体物検出方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020187238A JP2022076715A (ja) | 2020-11-10 | 2020-11-10 | 立体物検出装置、及び立体物検出方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020187238A JP2022076715A (ja) | 2020-11-10 | 2020-11-10 | 立体物検出装置、及び立体物検出方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022076715A true JP2022076715A (ja) | 2022-05-20 |
JP2022076715A5 JP2022076715A5 (ja) | 2023-09-26 |
Family
ID=81618323
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020187238A Pending JP2022076715A (ja) | 2020-11-10 | 2020-11-10 | 立体物検出装置、及び立体物検出方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022076715A (ja) |
-
2020
- 2020-11-10 JP JP2020187238A patent/JP2022076715A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4426535B2 (ja) | 車両の周辺監視装置 | |
JP6457278B2 (ja) | 物体検出装置及び物体検出方法 | |
CN107750213B (zh) | 前方车辆碰撞报警装置及报警方法 | |
JP5999127B2 (ja) | 画像処理装置 | |
US20100110193A1 (en) | Lane recognition device, vehicle, lane recognition method, and lane recognition program | |
JP6226368B2 (ja) | 車両監視装置、および車両監視方法 | |
JP6687039B2 (ja) | 物体検出装置、機器制御システム、撮像装置、物体検出方法、及びプログラム | |
KR20140030636A (ko) | 차선 보정 시스템, 차선 보정 장치 및 이의 차선 보정 방법 | |
JP2008158958A (ja) | 路面判別方法および路面判別装置。 | |
JP2007179386A (ja) | 白線認識方法及び白線認識装置 | |
WO2016059643A1 (en) | System and method for pedestrian detection | |
EP3782871B1 (en) | Trajectory discrimination device | |
JP2018040692A (ja) | 自車位置推定装置、自車位置推定方法 | |
JP2019218022A (ja) | 線路検出装置 | |
US11900696B2 (en) | Method and system for processing a plurality of images so as to detect lanes on a road | |
EP3428876A1 (en) | Image processing device, apparatus control system, imaging device, image processing method, and program | |
JP2022076715A (ja) | 立体物検出装置、及び立体物検出方法 | |
CN110088803B (zh) | 摄像装置 | |
JP2003317106A (ja) | 走行路認識装置 | |
CN111914610B (zh) | 立体物检测装置、以及立体物检测方法 | |
CN112400094B (zh) | 物体探测装置 | |
JP7356372B2 (ja) | 立体物検出装置、車載システム、及び立体物検出方法 | |
JP7356371B2 (ja) | 立体物検出装置、車載システム、及び立体物検出方法 | |
WO2021166576A1 (ja) | 立体物検出装置、車載システム、及び立体物検出方法 | |
JP2010092437A (ja) | 車両の周辺監視装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230915 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230915 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240611 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240702 |