JP2005284410A - 車両認識装置及び車両認識方法 - Google Patents

車両認識装置及び車両認識方法 Download PDF

Info

Publication number
JP2005284410A
JP2005284410A JP2004093614A JP2004093614A JP2005284410A JP 2005284410 A JP2005284410 A JP 2005284410A JP 2004093614 A JP2004093614 A JP 2004093614A JP 2004093614 A JP2004093614 A JP 2004093614A JP 2005284410 A JP2005284410 A JP 2005284410A
Authority
JP
Japan
Prior art keywords
image
vehicle
graphic
matching
preceding vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004093614A
Other languages
English (en)
Inventor
Koji Horibe
剛治 堀部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2004093614A priority Critical patent/JP2005284410A/ja
Priority to US11/050,043 priority patent/US7522747B2/en
Priority to EP05002721A priority patent/EP1580075A3/en
Publication of JP2005284410A publication Critical patent/JP2005284410A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/301Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with other obstacle sensor information, e.g. using RADAR/LIDAR/SONAR sensors for estimating risk of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8093Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for obstacle warning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】 カメラで撮影した自車前方の画像の中から先行車を高い確度で認識し得る車両認識装置及び車両認識方法を提供する。
【解決手段】 レーダからの検出情報に含まれている物体の位置を中心にして画像内の特定領域の画像を取り出す画像取り出し工程と、画像取り出し工程によって取り出された画像を二値化する二値化工程(S20)と、二値化された画像内に含まれている画像内図形と所定の照合用図形とのパターンマッチングを行うマッチング工程(S24)と、マッチング工程のマッチング結果が一致又は所定の割合以上で一致している場合に、そのマッチング対象の画像内図形を先行車の図形であると判定する判定工程(S25)とを含み、照合用図形は、横長図形と、該横長図形の両端から下方突出する下方突出図形とを組み合わたものであることを特徴とする。
【選択図】 図5

Description

本発明は、車両認識装置及び車両認識方法に関する。詳しくは、自車前方の車両を認識するための車両認識装置及び車両認識方法に係り、車両以外の様々な物体の存在に惑わされることなく、高い確度で車両を認識することができ、たとえば、先行車追尾などの車両走行支援システムに適用した場合に、そのシステムの信頼性の向上に大きく寄与する車両認識装置及び車両認識方法に関する。
たとえば、特許文献1に記載されているように、「カメラにより自車より前方の状況を撮影して得た画像を、画像処理して先行車を認識し、この先行車を追尾しつつ走行するようにエンジン出力を制御する自動車の走行制御装置」が知られているが、カメラによって撮影された画像には、先行車以外の様々な背景画像も写し込まれているため、それらの背景画像の中から所望の目標物(すなわち先行車)のみを正しく認識することが求められる。
この要求に関して、同文献では、「まず、レーザレーダにより、レーザビームを水平面内でスキャンしつつ自車から前方に向けて出射すると共に反射してきたレーザビームを受信することにより、自車の前方に存在する物体の位置情報を取得し、次いで、画像処理装置により、レーザレーダで検出した物体の位置座標に対応して、物体までの距離が長いほど前記画像内の処理エリアを狭くするとともに、物体の位置が自車の車幅方向にずれるにつれて処理エリアを左右にシフトし、この処理エリアの画像について画像処理を行って先行車を認識する」ようにしている。
この処理は、要するに、レーザレーダの反射レーザビームによって自車前方の“物体”の存在を認識し、このレーザレーダの認識結果(物体の位置)に基づいて、カメラの画像の切り出し範囲(同文献では処理エリア)を絞り込むことにより、先行車の可能性がある物体を中心とした狭い範囲の画像だけを処理対象にして、背景等の不要な被写体像に惑わされることなく、所望の目標物(すなわち先行車)のみを正しく認識できるようにしたものということができる。
特許第3264060号公報
しかしながら、上記の従来技術にあっては、カメラで撮影した画像の全体を処理対象とせずに、狭い範囲(処理エリア)の画像、つまり、レーザレーダの認識結果(物体の位置)に基づいて絞り込まれた狭い範囲の画像だけを処理対象としているため、様々な背景画像に惑わされることなく、先行車の認識を行い得るものと解されるが、肝心の先行車の認識精度については、以下の理由から不十分であり未だ改善の余地がある。
すなわち、同文献中の〔0016〕欄には、「(カメラで撮影された)画像の中から縦方向の直線に囲まれるエリアを抽出し、抽出したエリアのうち左右対称で、且つ、次々と取り込んでいく画像の中で位置があまり動かないものを、先行車として認識する」と記載されているが、これら二つの認識条件のうち特に前者の条件(左右対称)が大雑把すぎるため、他の物体を先行車と誤認する可能性がある。
たとえば、次の状況を想定する。今、自車は、道路の左レーンを走行しているものとする。このとき、隣の右レーンに、自車と同方向にほぼ同速度で前方を走行中の他車が存在している場合、この他車は、自車の追尾対象車(先行車)とはならない。自車と他車の走行レーンが異なるからである。しかしながら、もし、その道路が前方で左に急激にカーブしているとき、そのカーブの曲率に沿って他車の向きが変化する際に、他車の横腹が自車の方向に向くときがあり、このとき、上記の二つの条件を満たしてしまうことがあり得る。
つまり、他車の横腹の画像は(特にその他車がワンボックスカーやバスなどの箱形である場合)概ね左右対称となり得るし、且つ、自車と他車の速度もほぼ同等であるため、次々と取り込んでいく画像の中で位置があまり動かないものとなるからであり、結局、本来は先行車として認識してはならない隣接レーンの車両を先行車と誤認してしまい、その結果、先行車追尾などの車両走行支援システムの信頼性を損なうという不都合をもたらすのである。
そこで本発明は、カメラで撮影した自車前方の画像の中から先行車を高い確度で認識し得る車両認識装置及び車両認識方法を提供することを目的としている。
本発明に係る車両認識装置は、自車前方を監視するカメラからの画像と、自車前方の物体の位置及び自車と該物体までの距離を検出するレーダからの検出情報とに基づいて、前記画像に含まれている被写体の中から先行車を認識する車両認識装置において、前記レーダからの検出情報に含まれている物体の位置を中心にして前記画像内の特定領域の画像を取り出す画像取り出し手段と、前記画像取り出し手段によって取り出された画像を二値化する二値化手段と、前記二値化された画像内に含まれている画像内図形と所定の照合用図形とのパターンマッチングを行うマッチング手段と、前記マッチング手段のマッチング結果が一致又は所定の割合以上で一致している場合に、そのマッチング対象の画像内図形を先行車の図形であると判定する判定手段とを備え、前記照合用図形は、横長図形と、該横長図形の両端から下方突出する下方突出図形とを組み合わたものであることを特徴とするものである。
また、この発明の好ましい態様は、前記パターンマッチングに用いられる所定の照合用図形の大きさを、マッチング対象の画像内図形に対応する物体と自車との距離が遠くなるほど小さくすることを特徴とするものである。
又は、本発明に係る車両認識方法は、自車前方を監視するカメラからの画像と、自車前方の物体の位置及び自車と該物体までの距離を検出するレーダからの検出情報とに基づいて、前記画像に含まれている被写体の中から先行車を認識する車両認識方法において、前記レーダからの検出情報に含まれている物体の位置を中心にして前記画像内の特定領域の画像を取り出す画像取り出し工程と、前記画像取り出し工程によって取り出された画像を二値化する二値化工程と、前記二値化された画像内に含まれている画像内図形と所定の照合用図形とのパターンマッチングを行うマッチング工程と、前記マッチング工程のマッチング結果が一致又は所定の割合以上で一致している場合に、そのマッチング対象の画像内図形を先行車の図形であると判定する判定工程とを含み、前記照合用図形は、横長図形と、該横長図形の両端から下方突出する下方突出図形とを組み合わたものであることを特徴とするものである。
また、この発明の好ましい態様は、前記パターンマッチングに用いられる所定の照合用図形の大きさを、マッチング対象の画像内図形に対応する物体と自車との距離が遠くなるほど小さくすることを特徴とするものである。
これらの発明では、自車の前方を走行する先行車の後部画像が、車体後部に相当する横長図形と、左右後輪に相当する下方突出図形との組み合わせで単純化できることに着目し、その単純化図形(照合用図形)を用いて画像のパターンマッチングを行うことにより、先行車の認識を高い確度で行っている。
また、これらの発明の好ましい態様では、自車から先行車までの距離に応じて先行車の後部画像の大きさが変化することに着目し、前記の照合用図形の大きさを距離に対応させて変更することにより、一層確実なパターンマッチングを行い、先行車の認識の確度をさらに高めている。
本発明によれば、カメラで撮影した自車前方の画像の中から先行車を高い確度で認識し得る車両認識装置及び車両認識方法を提供でき、たとえば、先行車追随システムに適用した場合に、そのシステムの信頼性を向上できるという格別の効果を奏することができる。
以下、本発明の実施の形態を図面を参照しながら説明する。なお、以下の説明における様々な細部の特定ないし実例および数値や文字列その他の記号の例示は、本発明の思想を明瞭にするための、あくまでも参考であって、それらのすべてまたは一部によって本発明の思想が限定されないことは明らかである。また、周知の手法、周知の手順、周知のアーキテクチャおよび周知の回路構成等(以下「周知事項」)についてはその細部にわたる説明を避けるが、これも説明を簡潔にするためであって、これら周知事項のすべてまたは一部を意図的に排除するものではない。かかる周知事項は本発明の出願時点で当業者の知り得るところであるので、以下の説明に当然含まれている。
図1(a)は、実施形態のシステム構成図である。車両(以下「自車」という。)1は、レーザレーダ2(レーダ)と、CMOSカメラ3(カメラ)と、先行車検出部4(画像取り出し手段、二値化手段、マッチング手段、判定手段)とを備えている。
レーザレーダ2は、自車1の前方に設定された固定又は可変の監視エリアを、ペンシルビーム形状のレーザビーム2aで満遍なく走査(水平走査と垂直走査)し、監視エリア内の物体からのレーザビーム2aの反射波を受信した時のビーム走査角度(水平角度と垂直角度)から物体の位置(方位と仰角)を割り出すと共に、ビームの発射と反射波受信の時間差から物体までの距離を割り出すものである。なお、レーザの代わりに無線電波を用いたもの、たとえば、ミリ波レーダなどであってもよい。要は、電磁波を媒体として監視エリア内の物体の位置や距離を測定できる測距装置であればよい。
CMOSカメラ3は、自車1の前方に設定された監視エリア(レーザレーダ2の監視エリアと同じもの、又は、レーザレーダ2の監視エリアを包含するもの)を光学的に撮影してその画像信号を出力するものであり、このCMOSカメラ3は、少なくとも、屋外撮影における所要ダイナミックレンジ(100dB以上)を満たす性能を有しているとともに、任意領域の画像の選択的読み出し(ランダムアクセス)も可能とするものである。なお、“任意領域の画像の選択的読み出し”とは、CMOSカメラに対して、その有効画素の任意のアドレス範囲(行アドレスと列アドレス)を指定することにより、当該アドレス範囲の画像だけを選択的に取り出すことをいう。
図1(b)は、CMOSカメラにおけるランダムアクセスの概念図である。今、有効画素数を便宜的に640(列)×480(行)画素とするCMOSカメラを例にすると、この場合、たとえば、行アドレスの160〜320の範囲と、列アドレスの160〜480の範囲とを読み出しアドレスとして指定すれば、全画面(640×480)のほぼ中央部分の画像(ハッチング部分)のみを取り出すことができる。このようなランダムアクセス(任意領域の画像の選択的読み出し)は、CMOSカメラの特徴の一つであり、言い換えれば、フォトダイオード等の電荷結合素子に蓄積された電荷を順次に転送するCCD(電荷転送素子)カメラにはない特徴である。
先行車検出部4は、CMOSカメラ3から出力された画像信号を所定のアルゴリズムに従って処理するものであり、そのアルゴリズムの詳細は後述するが、概略的には、CMOSカメラ3のランダムアクセスを制御すると共に、そのランダムアクセス範囲の画像信号の中から自車前方の先行車を認識して、当該認識結果を先行車追尾システムに出力するというものである。
図2は、先行車検出部4の概念構成図である。この図において、先行車検出部4は、特にそれに限定しないが、CPU4a、ROM4b、RAM4c及び入出力部4dなどからなるマイクロプログラム制御方式の構成を有している。このような構成の先行車検出部4は、ROM4bに予め書き込まれている制御プログラム等のソフトウェアリソースをRAM4cにロードし、それをCPU4aで実行することにより、当該ソフトウェアリソースと、CPU4aなどのハードウェアリソースとの有機的結合によって所望の機能を実現する。なお、ROM4bには、上記のソフトウェアリソースと共に後述の照合用図形テーブル28(図10参照)も格納されている。
図3、図4及び図5は、先行車検出部4で実行されるソフトウェアリソースの概略的なフローチャートを示す図である。このフローチャートでは、まず、レーザレーダ2の検出情報(監視エリア内の物体の位置や距離等の情報)とCMOSカメラ3の画像情報(この段階では全画面の画像情報)とを取得する(ステップS11及びステップS12)。
図6は、レーザレーダ2の検出情報とCMOSカメラ3の画像情報とを示す図である。同図(a)において、画像10は、CMOSカメラ3の全画面の画像情報(CMOSカメラ3のすべての有効画素で構成された画像情報)である。この画像10には様々な被写体、たとえば、白線11、12、13で仕切られた自車1の走行レーン14とその右側の隣接レーン15、走行レーン14の左端に連なるガードロープ用のポール16〜20(物体)、林21や山並み22及び太陽23等からなる背景24、走行レーン14や隣接レーン15を走行中の何台かの車両25〜27(物体)が写し込まれている。なお、車両25〜27のうち自車1と同じ走行レーン14を走行中の車両25のことを、特にその動きに注意を払わなければならない「先行車」という。
一方、同図(b)において、画像10の上に重畳表示された複数の黒丸印(P1〜P12)は、それぞれレーザレーダ2の検出情報を模式的に表しており、たとえば、P1〜P5は、ガードロープ用のポール16〜20の検出情報、P6、P7は、先行車25の検出情報、P8〜P12は、隣接レーン15を走行中の車両26、27の検出情報である。なお、これらの検出情報(P1〜P12)は、正確には、ガードロープ用のポール16〜20や車両25〜27の後部に取り付けられている反射板(又は反射テープ)の検出情報である。
さて、同図(b)においては、画像10の上に各々の検出情報(P1〜P12)を重畳表示しているが、実際上は、レーザレーダ2とCMOSカメラ3の座標が同一でないため、レーザレーダ2の検出情報(P1〜P12)とCMOSカメラ3の画像情報との対応を取るために、いずれか一方の座標を基準に他方の座標を変換する必要がある(ステップS13)。同図(b)に示されている検出情報(P1〜P12)の重畳表示は、座標変換した後のものである。
このように座標変換を実行した後は、次に、検出情報(P1〜P12)に基づく画像10の切り出しを行う(ステップS14)。ここで、“切り出し”とは、画像10の特定部分を切り出すことをいう。この切り出しには、CMOSカメラ3のランダムアクセスは関与しない。すなわち、画像10はRAM4cに展開されているので、そのRAM4cの所望のアドレス範囲を読み出すことによって、かかる“切り出し”を行うことができる。
図7(a)は、ステップS14における画像10の切り出しの概念図である。この図において、画像10の中に描かれている小さな矩形E1〜E12は、それぞれレーザレーダ2の検出情報(P1〜P12)を中心にして生成された切り出し範囲であり、それらの矩形E1〜E12に囲まれた部分がRAM4cに展開された画像10から切り出される。ここで、矩形E1〜E5は、ポール16〜20の検出情報P1〜P5に対応するものであり、これらの矩形E1〜E5を用いて小さく切り出された画像(以下「単位画像」という。)は、それぞれポール16〜20の頭部付近の画像情報を含む。また、矩形E6〜E12は、先行車25や隣接レーン15を走行中の車両26、27の検出情報P6〜P12に対応するものであり、これらの矩形E6〜E12を用いて小さく切り出された単位画像は、それぞれ先行車25や隣接レーン15を走行中の車両26、27の後部の画像情報を含む。
このように単位画像の切り出しを行うと、次に、切り出された各単位画像の低明度値と高明度値を検出する(ステップS15)。低明度値とは単位画像内の各画素の明度情報のうちもっとも暗い値を持つものである。また、高明度値とは単位画像内の各画素の明度情報のうちもっとも明るい値を持つものである。そして、この低明度値と高明度値の検出操作をすべての単位画像について実行すると(ステップS16)、次に、それらの低明度値及び高明度値を比較して最小の低明度値と最大の高明度値とを選択し、それぞれ画像10の代表低明度値(Bmin)及び代表高明度値(Bmax)として採用する(ステップS17)。
図8は、単位画像の明度分布を示す図である。この図において、G1〜G12は、それぞれステップS14で切り出された単位画像を示している。G1〜G12の横軸は明度値(左側に行くにつれて暗くなり、右側に行くにつれて明るくなる)であり、軸上の波形はその単位画像中の明度分布を表している。たとえば、G1やG3の明度はほぼ中間の明るさで分布しているが、G2の明度分布は「暗」側に偏っており、また、G12の明度分布は「明」側に偏っている。したがって、この場合、ステップS17で採用される画像10の代表低明度値(Bmin)はG2の低明度値aとなり、代表高明度値(Bmax)はG12の高明度値bとなる。
このように、画像10の代表低明度値(Bmin)及び代表高明度値(Bmax)とを決定すると、次に、CMOSカメラ3をランダムアクセスして監視エリア内の所要部分の画像(以下「処理対象画像10a」という。)を取り出す(ステップS18:画像取り出し工程)。
図7(b)は、処理対象画像10aの取り出し概念図である。この図において、画像10のほぼ中央部付近、便宜的に、画像10を640×480画素のサイズとしたときの、たとえば、行アドレスの160〜320と列アドレスの160〜480の範囲に描かれている横長の矩形E13(特定領域)は、ランダムアクセス範囲であり、処理対象画像10aは、この矩形E13の範囲でCMOSカメラ3をランダムアクセスすることによって得られた画像である。すなわち、処理対象画像10aは、CMOSカメラ3に対して、矩形E13の縦方向と横方向のサイズに対応する行アドレス(160〜320)と列アドレス(160〜480)を与えることにより、そのアドレス範囲の画素信号を読み出して得られた特定範囲の画像である。
なお、図示の例では、処理対象画像10aの取り出し範囲(矩形E13)を、CMOSカメラ3の全画面のほぼ中央部付近としているが、これは説明のための一例に過ぎない。たとえば、レーザレーダ2の検出情報に従って、その矩形E13の位置や大きさを変更してもよいし、又は、レーザレーダ2の検出情報に加えて、先行車との相対速度も考慮して、その矩形E13の位置や大きさを変更してもよい。
このように処理対象画像10aの取り出しを行うと、次に、明るさの情報量を削減するために、横長矩形E13内の特定画素の信号からなる処理対象画像10aに含まれる明るさの情報のうち、前記の代表低明度値(Bmin)以下の情報と、前記の代表高明度値(Bmax)以上の情報とを不要な明度情報として切り捨てる(ステップS19)。
図9は、明るさ情報の切り捨て概念図である。この図において、上段の波形は明るさ情報を切り捨てる“前”の処理対象画像10aの輝度分布を示している。この輝度分布はCMOSカメラ3の高ダイナミックレンジに対応して暗から明まで広範な明度情報を含み、その情報量は相当多い。一方、下段の波形は明るさ情報を切り捨てた“後”の処理対象画像10a、つまり、矩形E13内の特定画素の信号からなる処理対象画像10aに含まれる明るさの情報のうち、前記の代表低明度値(Bmin)以下の情報と、前記の代表高明度値(Bmax)以上の情報とを不要な明度情報として切り捨てた後の輝度分布を示しており、この輝度分布は、上段の輝度分布と比較して、明らかに明度情報の量が少なくなっている。
このように、不要な明るさ情報を切り捨てて明度情報の量を少なくした処理対象画像10aを生成すると、次に、本実施形態のポイントである先行車の認識に関する一連の処理を実行する。
この処理では、まず、不要な明るさ情報を切り捨てて明度情報の量を少なくした処理対象画像10aを白レベルと黒レベルに二値化する(ステップS20:二値化工程)。次いで、その二値化画像に含まれている図形をサーチする(ステップS21)。
ここで、“図形”とは、先行車の可能性がある物体の図形のことをいい、具体的には二値化画像中の黒レベル画素の集合部分のことをいう。以下、この図形のことを便宜的に「画像内図形」ということにする。たとえば、図7(b)の処理対象画像10aを例にすると、この処理対象画像10aには、レーザレーダ2で検出されたいくつかの物体、すなわち、ガードロープ用のポール18〜20や車両25〜27が含まれている。これらの物体の明度と路面や背景などの明度との差が充分であるとき、上記の二値化によって、それらの物体のすべて又はいくつかが黒レベル画素の集合となる。したがって、これらのポール18〜20や車両25〜27は、画像内図形となる。
次いで、サーチされた画像内図形がレーザレーダ2の検出物体であるか否かを判定する(ステップS22)。この判定は、たとえば、図6(b)に示されている複数の黒丸印(P1〜P12)との照合によって行うことができる。これらの黒丸印(P1〜P12)は、それぞれレーザレーダ2の検出情報を便宜的に表しており、たとえば、P1〜P5は、ガードロープ用のポール16〜20の検出情報、P6、P7は、先行車25の検出情報、P8〜P12は、隣接レーン15を走行中の車両26、27の検出情報であるからである。具体的には、サーチされた画像内図形の座標範囲にP1〜P12のいずれかの座標が含まれていれば、「その画像内図形はレーザレーダ2の検出物体である」と判定し、そうでなければ、「その画像内図形はレーザレーダ2の検出物体でない」と判定する。
次に、「その画像内図形はレーザレーダ2の検出物体である」と判定した場合には、その検出物体までの距離に対応した大きさの照合用図形をテーブルからルックアップする(ステップS23)。
図10は、テーブル(以下「照合用図形テーブル」)28を示す概念図である。この照合用図形テーブル28は、ROM4bに予め登録されているものである。照合用図形テーブル28は、たとえば、距離フィールド28aと照合用図形フィールド28bからなる距離毎の多数のレコードで構成されており、距離フィールド28aにはテーブル参照用の距離情報(たとえば、“10m”、“15m”、“20m”、“25m”、・・・・、“200m”)が格納され、また、照合用図形フィールド28bにはそれぞれの距離に対応した大きさの照合用図形29〜33が格納されている。なお、言うまでもなく、上記の距離は単なる例示であり、また、照合用図形テーブル28に格納されている照合用図形29〜33の大きさも一例に過ぎない。
ここで、“照合用図形”とは、自車1の前方に位置する車両の後部形状を単純化した図形であり、図示のように、横長図形の両端をそれぞれ下方に若干突出させた形状、強いて言えば、ギリシャ文字の“π”(パイ)に似た形状(本明細書では便宜的にπ型図形ということもある。)を有しているものである。
このπ型図形は、本件発明者らの実験(様々なタイプの車両の後部画像の確認実験)を通して得られたものである。すなわち、特殊用途を除く様々なタイプの車両の後部画像は、その車体部分に相当する横長図形と、その左右後輪部分に相当する二つの下方突出図形とからなるπ型図形に単純化できるという本件発明者らの知見に基づくものである。本実施形態では、この知見に加えて、さらに、そのπ型図形の大きさ(特に横方向の大きさ)は、自車1からの距離が遠くなるほど小さくなるという事実を元に、上記のπ型図形を模した照合用図形を距離毎に作成して照合用図形フィールド28bに格納したものである。
本実施形態における先行車の認識アルゴリズムの重要なポイントは、この照合用図形と画像内図形とのパターンマッチングを行い(ステップS24:マッチング工程)、そのマッチング結果を調べて(ステップS25:判定工程)、マッチング(完全一致又は所定割合以上の一致)した場合には、その画像内図形を先行車の図形と判断(ステップS26)し、マッチングしなかった場合には、その画像内図形を先行車以外の物体の図形と判断(ステップS27)する点にある。
たとえば、図7(b)の処理対象画像10aを例にすると、この処理対象画像10aには、レーザレーダ2で検出されたいくつかの物体、すなわち、ガードロープ用のポール18〜20や車両25〜27が含まれているが、これらの物体の図形のうち、π型図形(照合用図形)に類似(マッチング)する形を持つものは、自車1の走行レーン14を走行中の車両25と、隣接レーン15を走行中の車両26の二つだけ(隣接レーン15を走行中の車両27は車体の右側が矩形E13からはみ出しているためマッチングしない。)である。
したがって、この場合は、自車1の走行レーン14を走行中の車両25と、隣接レーン15を走行中の車両26の二つの画像内図形が、先行車の図形であると判断される。但し、厳密には“先行車”は、自車1と同一のレーンを前走する車両、つまり、自車1の走行レーン14を走行中の車両25のことであり、隣接レーン15を走行中の車両26は該当しないが、たとえば、自車1の走行レーン14の左右の白線を画像認識し、その白線内に位置する車両25のみを先行車として認識すればよい。このようにすると、隣接レーン15を走行中の車両26は、自車1の走行レーン14の左右の白線外に位置しているため、先行車として誤認されることはない。なお、白線の認識技術については、既に様々なものが知られている(たとえば、特許第3270293号公報などを参照)ため、ここでは敢えて説明を加えない。
以上のとおり、画像内図形と照合用図形のマッチングを行い、そのマッチング結果に基づいて、その画像内図形が先行車の図形であるか否かの判定を行った後は、二値化された処理対象画像10aに含まれるすべての画像内図形について、上記のステップS21〜ステップS27を繰り返して実行し、最後の画像内図形に対する処理の完了を判定(ステップS28)すると、最後に、その先行車として認識された図形を先行車追尾システムに出力(ステップS29)して、本フローチャートを終了する。
図11は、CMOSカメラ3で撮影された自車1の前方の監視エリアの画像例を示す図である。この画像34には、自車1と同一のレーンを走行中の先行車35が写っている。
図12は、先行車35を中心とした画像34aを示す図である。この画像34aは、レーザレーダ2によって先行車35を検出し、その先行車の検出位置P13を中心にした矩形E14を設定して、その矩形E14内の画像を、たとえば、CMOSカメラ3のランダムアクセスにより、図11の画像34から取り出したときのものである。
図13(a)は、画像34aの明度分布の三次元グラフを示す図である。縦軸は明度を表し、左右上下の各辺は、それぞれ画像34aの左右上下を表しており、グラフ内の窪みは周囲よりも暗い部分を表している。
図13(b)は、画像34aの要部(特にグラフ内の窪みの部分)拡大画像図である。この拡大画像は画素の大きさに対応した多数の升目で構成されており、これらの升目は先行車35を表すと共に、先行車35の背景36や先行車35の影37なども表している。各升目の明るさに若干の差違はあるものの、とりわけ、先行車35の部分に黒レベルないしは黒に近い中間レベルの画素が集まっており、その集まり方に特異性が見られる。
すなわち、図13(c)は、図13(b)の画像を二値化したものであり、先行車35の部分を際立たせたものであるが、この二値化画像は、車体後部に相当する横長図形35aと、その横長図形35aの両端に位置し左右後輪に相当する下方突出図形35b、35cとから構成されており、前述のπ型図形に対応した特異形状を有している。
したがって、この二値化画像と、照合用図形テーブル28に格納されている照合用図形29〜33とのパターンマッチングを行うことにより、上記の特異形状(π型図形)を有する先行車35の認識を高い確度で行うことができる。
たとえば、隣接レーンを走行中のワンボックスカー等の箱形車体の他車の横腹が自車1の方向に向いたときであっても、その他車の横腹の画像は、単なる横長図形に過ぎず、しかも、その横長図形に加えて前後車輪の形が写っていたとしても、それらの前後車輪の位置は、横長図形の両端よりも内側に相当量入っているから、強いて言えば、二枚歯の下駄を横から見た形になるので、到底、図10に示すような照合用図形29〜33とマッチングしない。
以上のとおりであるから、本実施形態によれば、車両以外の様々な物体はもちろんのこと、隣接レーンの車両も先行車と誤認することはなく、自車レーンを走行中の車両のみを高い確度で先行車として認識することができ、たとえば、先行車追尾などの車両走行支援システムに適用した場合に、当該システムの信頼性を向上できるという格別有益な効果を奏することができるのである。
実施形態のシステム構成図及びCMOSカメラにおけるランダムアクセスの概念図である。 先行車検出部4の概念構成図である。 先行車検出部4で実行されるソフトウェアリソースの概略的なフローチャートを示す図(1/3)である。 先行車検出部4で実行されるソフトウェアリソースの概略的なフローチャートを示す図(2/3)である。 先行車検出部4で実行されるソフトウェアリソースの概略的なフローチャートを示す図(3/3)である。 レーザレーダ2の検出情報とCMOSカメラ3の画像情報とを示す図である。 ステップS14における画像10の切り出しの概念図及び処理対象画像10aの取り出し概念図である。 各単位画像の明度分布を示す図である。 明るさ情報の切り捨て概念図である。 照合用図形テーブル28を示す概念図である。 CMOSカメラ3で撮影された自車1の前方の監視エリアの画像例を示す図である。 先行車35を中心とした画像34aを示す図である。 画像34aの要部(特にグラフ内の窪みの部分)拡大画像図及び画像34aの明度分布の三次元グラフを示す図である。
符号の説明
E13 矩形(特定領域)
E14 矩形(特定領域)
S18 ステップ(画像取り出し工程)
S20 ステップ(二値化工程)
S24 ステップ(マッチング工程)
S25 ステップ(判定工程)
1 自車
2 レーザレーダ(レーダ)
3 CMOSカメラ(カメラ)
4 先行車検出部(画像取り出し手段、二値化手段、マッチング手段、判定手段)
18 ポール(画像内図形)
19 ポール(画像内図形)
20 ポール(画像内図形)
25 車両(画像内図形)
26 車両(画像内図形)
27 車両(画像内図形)
29 照合用図形
30 照合用図形
31 照合用図形
32 照合用図形
33 照合用図形
35a 横長図形
35b 下方突出図形
35c 下方突出図形

Claims (4)

  1. 自車前方を監視するカメラからの画像と、自車前方の物体の位置及び自車と該物体までの距離を検出するレーダからの検出情報とに基づいて、前記画像に含まれている被写体の中から先行車を認識する車両認識装置において、
    前記レーダからの検出情報に含まれている物体の位置を中心にして前記画像内の特定領域の画像を取り出す画像取り出し手段と、
    前記画像取り出し手段によって取り出された画像を二値化する二値化手段と、
    前記二値化された画像内に含まれている画像内図形と所定の照合用図形とのパターンマッチングを行うマッチング手段と、
    前記マッチング手段のマッチング結果が一致又は所定の割合以上で一致している場合に、そのマッチング対象の画像内図形を先行車の図形であると判定する判定手段とを備え、
    前記照合用図形は、横長図形と、該横長図形の両端から下方突出する下方突出図形とを組み合わたものであることを特徴とする車両認識装置。
  2. 前記パターンマッチングに用いられる所定の照合用図形の大きさを、マッチング対象の画像内図形に対応する物体と自車との距離が遠くなるほど小さくすることを特徴とする請求項1記載の車両認識装置。
  3. 自車前方を監視するカメラからの画像と、自車前方の物体の位置及び自車と該物体までの距離を検出するレーダからの検出情報とに基づいて、前記画像に含まれている被写体の中から先行車を認識する車両認識方法において、
    前記レーダからの検出情報に含まれている物体の位置を中心にして前記画像内の特定領域の画像を取り出す画像取り出し工程と、
    前記画像取り出し工程によって取り出された画像を二値化する二値化工程と、
    前記二値化された画像内に含まれている画像内図形と所定の照合用図形とのパターンマッチングを行うマッチング工程と、
    前記マッチング工程のマッチング結果が一致又は所定の割合以上で一致している場合に、そのマッチング対象の画像内図形を先行車の図形であると判定する判定工程とを含み、
    前記照合用図形は、横長図形と、該横長図形の両端から下方突出する下方突出図形とを組み合わたものであることを特徴とする車両認識方法。
  4. 前記パターンマッチングに用いられる所定の照合用図形の大きさを、マッチング対象の画像内図形に対応する物体と自車との距離が遠くなるほど小さくすることを特徴とする請求項3記載の車両認識方法。
JP2004093614A 2004-03-26 2004-03-26 車両認識装置及び車両認識方法 Pending JP2005284410A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2004093614A JP2005284410A (ja) 2004-03-26 2004-03-26 車両認識装置及び車両認識方法
US11/050,043 US7522747B2 (en) 2004-03-26 2005-02-01 Vehicle detection apparatus and method
EP05002721A EP1580075A3 (en) 2004-03-26 2005-02-09 Vehicle detection apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004093614A JP2005284410A (ja) 2004-03-26 2004-03-26 車両認識装置及び車両認識方法

Publications (1)

Publication Number Publication Date
JP2005284410A true JP2005284410A (ja) 2005-10-13

Family

ID=34858524

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004093614A Pending JP2005284410A (ja) 2004-03-26 2004-03-26 車両認識装置及び車両認識方法

Country Status (3)

Country Link
US (1) US7522747B2 (ja)
EP (1) EP1580075A3 (ja)
JP (1) JP2005284410A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006151125A (ja) * 2004-11-26 2006-06-15 Omron Corp 車載用画像処理装置
JP2007156626A (ja) * 2005-12-01 2007-06-21 Nissan Motor Co Ltd 物体種別判定装置及び物体種別判定方法
JP2009268756A (ja) * 2008-05-08 2009-11-19 Shoichi Myoken 2次元模様の3次元変換装置および方法
JP2010079472A (ja) * 2008-09-25 2010-04-08 Mazda Motor Corp 車両の走行制御装置

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11632498B1 (en) * 2005-06-03 2023-04-18 Craig P. Mowry Multi-dimensional imaging system and method
US7706978B2 (en) * 2005-09-02 2010-04-27 Delphi Technologies, Inc. Method for estimating unknown parameters for a vehicle object detection system
DE102006020930B4 (de) * 2006-05-05 2018-04-12 Conti Temic Microelectronic Gmbh Verfahren zur Umgebungsüberwachung für ein Kraftfahrzeug
JP2008172441A (ja) * 2007-01-10 2008-07-24 Omron Corp 検出装置および方法、並びに、プログラム
JP5145599B2 (ja) * 2007-04-27 2013-02-20 本田技研工業株式会社 車両周辺監視装置、車両周辺監視用プログラム、車両周辺監視方法
ATE537662T1 (de) * 2007-04-27 2011-12-15 Honda Motor Co Ltd System, programm und verfahren zur fahrzeugsperipherieüberwachung
JP4615038B2 (ja) * 2008-06-23 2011-01-19 日立オートモティブシステムズ株式会社 画像処理装置
WO2009157828A1 (en) * 2008-06-25 2009-12-30 Autoliv Development Ab A method of detecting object in the vicinity of a vehicle
TWI411300B (zh) * 2009-07-21 2013-10-01 Reallusion Inc 可調式網格視訊偵測與監控之方法與系統
US20130201014A1 (en) * 2010-12-09 2013-08-08 Alexander Luchinskiy Method and Device for Indicating of the Turn-Intention of a Vehicle
JP5812064B2 (ja) * 2012-11-22 2015-11-11 株式会社デンソー 物標検出装置
US9279881B2 (en) * 2013-03-12 2016-03-08 Escort Inc. Radar false alert reduction
JP6459659B2 (ja) * 2014-03-18 2019-01-30 株式会社リコー 画像処理装置、画像処理方法、運転支援システム、プログラム
US11061108B1 (en) 2017-12-18 2021-07-13 Escort Inc. Sliding window discrete Fourier transform (SWDFT) police signal warning receiver
JP7092540B2 (ja) * 2018-04-04 2022-06-28 パナソニックホールディングス株式会社 交通監視システムおよび交通監視方法
TWI688749B (zh) * 2018-08-29 2020-03-21 廣達電腦股份有限公司 可進行人體追蹤之追蹤測距系統及其方法
EP3891717A1 (en) 2018-12-07 2021-10-13 Micron Technology, Inc. Lane departure apparatus, system and method
CN110706278A (zh) * 2019-09-20 2020-01-17 异起(上海)智能科技有限公司 一种基于激光雷达和摄像头的物体识别方法和装置
CN111354191B (zh) * 2020-03-09 2022-05-20 深圳大学 车道行车状况确定方法、装置、设备及存储介质
CN112258517A (zh) * 2020-09-30 2021-01-22 无锡太机脑智能科技有限公司 激光雷达栅格地图的自动修图方法和装置
CN115273460A (zh) * 2022-06-28 2022-11-01 重庆长安汽车股份有限公司 多模感知融合的车辆变道预测方法、计算机设备及存储介质

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2278513B (en) * 1993-04-29 1997-07-09 British Aerospace Tracking apparatus
US6768944B2 (en) * 2002-04-09 2004-07-27 Intelligent Technologies International, Inc. Method and system for controlling a vehicle
WO2000073996A1 (en) * 1999-05-28 2000-12-07 Glebe Systems Pty Ltd Method and apparatus for tracking a moving object
JP2001134769A (ja) * 1999-11-04 2001-05-18 Honda Motor Co Ltd 対象物認識装置
AU2001259640A1 (en) * 2000-05-08 2001-11-20 Automotive Technologies International, Inc. Vehicular blind spot identification and monitoring system
JP3775200B2 (ja) 2000-10-06 2006-05-17 日産自動車株式会社 車間距離推定装置
JP3985615B2 (ja) * 2002-07-16 2007-10-03 日産自動車株式会社 前方車両追跡システムおよび前方車両追跡方法
JP3861781B2 (ja) * 2002-09-17 2006-12-20 日産自動車株式会社 前方車両追跡システムおよび前方車両追跡方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006151125A (ja) * 2004-11-26 2006-06-15 Omron Corp 車載用画像処理装置
JP2007156626A (ja) * 2005-12-01 2007-06-21 Nissan Motor Co Ltd 物体種別判定装置及び物体種別判定方法
JP2009268756A (ja) * 2008-05-08 2009-11-19 Shoichi Myoken 2次元模様の3次元変換装置および方法
JP2010079472A (ja) * 2008-09-25 2010-04-08 Mazda Motor Corp 車両の走行制御装置

Also Published As

Publication number Publication date
EP1580075A2 (en) 2005-09-28
EP1580075A3 (en) 2009-08-19
US7522747B2 (en) 2009-04-21
US20050213794A1 (en) 2005-09-29

Similar Documents

Publication Publication Date Title
JP2005284410A (ja) 車両認識装置及び車両認識方法
JP4437714B2 (ja) 車線認識画像処理装置
US6754369B1 (en) License plate reading apparatus and method
JP5031617B2 (ja) 関連領域特定装置及び方法、並びに画像認識装置及び方法
JP5867596B2 (ja) 立体物検出装置及び立体物検出方法
JP4157620B2 (ja) 移動物体検出装置及びその方法
JP2006018751A (ja) 車両用画像処理装置
JP2007179386A (ja) 白線認識方法及び白線認識装置
JP2012173879A (ja) 信号機検出装置及びプログラム
JP2008123113A (ja) 歩行者検知装置
US20140226349A1 (en) Apparatus for detecting other vehicle lights and light control apparatus for vehicles
CN107844761B (zh) 交通标志的检测方法及装置
JP4864043B2 (ja) 画像処理装置、方法及びプログラム
JP2015148887A (ja) 画像処理装置、物体認識装置、移動体機器制御システム及び物体認識用プログラム
JP4936045B2 (ja) 車体色判別装置、方法及びプログラム
JP5407920B2 (ja) 点灯色識別装置及びプログラム
JP2000306097A (ja) 道路領域判定装置
JPH11278182A (ja) 車両用霧状況検出装置
JPH1166226A (ja) 車両のナンバプレート認識装置
JPH0520593A (ja) 走行レーン認識装置と先行車認識装置
JP2005284471A (ja) 画像処理装置及び画像処理方法
JP4437532B2 (ja) 撮像装置及び画像処理方法
KR101156145B1 (ko) 차량의 이미지 처리 방법과 장치, 및 상기 방법을 이용한 차량용 제어 장치
CN111914833B (zh) 一种运动车辆车牌识别系统及方法
JPH0972716A (ja) 画像中の傾斜白線を認識する白線認識装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090804

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090929

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100108