JP2013020417A - 車両用外界認識装置及びそれを用いた車両制御システム - Google Patents

車両用外界認識装置及びそれを用いた車両制御システム Download PDF

Info

Publication number
JP2013020417A
JP2013020417A JP2011152776A JP2011152776A JP2013020417A JP 2013020417 A JP2013020417 A JP 2013020417A JP 2011152776 A JP2011152776 A JP 2011152776A JP 2011152776 A JP2011152776 A JP 2011152776A JP 2013020417 A JP2013020417 A JP 2013020417A
Authority
JP
Japan
Prior art keywords
vehicle
image
candidate area
vehicle candidate
detecting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011152776A
Other languages
English (en)
Other versions
JP5518007B2 (ja
Inventor
Taketo Ogata
健人 緒方
Shoji Muramatsu
彰二 村松
Takashi Tsutsui
隆 筒井
Katsuyuki Nakamura
克行 中村
Mitsutoshi Morinaga
光利 守永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Priority to JP2011152776A priority Critical patent/JP5518007B2/ja
Priority to CN201210234917.9A priority patent/CN102881186B/zh
Priority to US13/545,849 priority patent/US8903603B2/en
Priority to EP12175925.2A priority patent/EP2546779B1/en
Publication of JP2013020417A publication Critical patent/JP2013020417A/ja
Application granted granted Critical
Publication of JP5518007B2 publication Critical patent/JP5518007B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/023Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for transmission of signals between vehicle parts or subsystems
    • B60R16/0231Circuits relating to the driving or the functioning of the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/03Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for supply of electrical power to vehicle subsystems or for
    • B60R16/0315Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for supply of electrical power to vehicle subsystems or for using multiplexing techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Lighting Device Outwards From Vehicle And Optical Signal (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

【課題】例えば薄暮のように昼間と照明条件が異なるシーンにおいて先行車両を正しく検出することができる車両用外界認識装置を提供する。
【解決手段】車両外形を検出するとともに、車両尾灯を検出し、車両外形と車両尾灯が同期して動いているものを車両と判定する。
【選択図】図1

Description

本発明は、車両用外界認識装置及びそれを用いた車両制御システムに係り、例えば、車載カメラ(撮像装置)からの画像情報に基づいて自車前方の車両や歩行者を検知する車両用外界認識装置及びそれを用いた車両制御システムに関する。
交通事故による死傷者数を低減するため、事故を未然に防ぐ予防安全システムの開発が進められている。予防安全システムは、事故の発生する可能性が高い状況下で作動するシステムであり、例えば、自車前方の先行車と衝突する可能性が生じたときには警報によって運転者に注意を促し、衝突が避けられない状況になったときには自動ブレーキによって乗員の被害を軽減するプリクラッシュ・セーフティ・システム等が実用化されている。
自車前方の先行車を検知する方法として、1つは、カメラで自車前方を撮像し、撮像された画像から、車両の形状パターンをパターンマッチング処理により検出する方法が知られている。パターンマッチング処理は一般に処理負荷が大きいため、処理負荷を軽くするために、パターンマッチング処理の前にエッジ解析等を行い、車両が存在しそうな領域を絞り込んでから、パターンマッチング処理を行うのが一般的である。例えば、特許文献1には画像のエッジから車両候補を検出し、パターンマッチングによって前方車両であることを判別する方法が記載されている。
一方、自車前方の先行車を検知するもう1つの方法として、先行車のテールライトの特徴である赤色領域を抽出し、赤色のペアを用いて車両を検出する方法が知られている。例えば、特許文献2には画像から所定閾値以上の輝度信号を抽出して、その位置関係等から先行車のテールライトを検出する方法が記載されている。
以上挙げた車両検出の技術は、前者は警報・ブレーキ等の制御を行うことを目的とするため、実際には衝突の危険がないシーンでの誤検知をできるだけ低減する必要がある。一方、後者は夜間に自車の視認性を高めるために自車灯火装置の自動調整を行うことを目的とするため、前者より誤検知が多い。
特開2006−182086号公報 特開2006−244331号公報
しかしながら、上記方法においては、薄暮、トンネル内、夜間の市街地のように薄暗く、照明条件が昼間と異なる場所で警報・ブレーキ等の制御を行うことは難しい。
前者の技術は昼間と車両のパターンが異なるため、昼間でチューニングしたパターンマッチング方式では検知率が低い。一方、昼間の車両パターンも薄暗いシーンの車両パターンも検出できるように調整すると、昼間の車両パターンの検出精度が低下してしまう。
一方、後者は薄暗いシーンでライトを点灯している車両を検出できるが、前述したように誤検知が多いため、警報・ブレーキ等の制御に使用することは難しい。
本発明は、上記事情に鑑みてなされてもので、その目的とするところは、例えば薄暮のように昼間と照明条件が異なるシーンにおいて先行車両を正しく検出することのできる車両用外界認識装置を提供することにある。
上記目的を達成すべく、本発明に係る車両用外界認識装置は、基本的には、自車周辺を撮影した画像を取得する画像取得手段と、前記画像から画像の勾配情報を用いて車両候補領域を検出する第一の車両候補領域検出手段と、前記画像から画像の色情報を用いて車両候補領域を検出する第二の車両候補領域検出手段と、前記第一の車両候補領域と前記第二の車両候補領域を用いて車両の有無を判定する車両判定手段と、を有し、前記車両判定手段は、前記第一の車両候補領域と前記第二の車両候補領域が重複し同期して動いている領域を車両と判定することを特徴としている。
本発明によれば、薄暮、トンネル内、夜間の市街地のように薄暗く、照明条件が昼間と異なる場所において誤検知の少ない車両検出結果を得ることができ、このようなシーンにおいても警報・ブレーキ等の制御を適正に行うことが可能となる。
上記した以外の、課題、構成、及び効果は、以下の実施形態により明らかにされる。
本発明に係る車両用外界認識装置の第1実施例を示す機能ブロック図。 第1実施例における車両外形検出手段の説明に供される模式図。 第1実施例における車両尾灯検出手段の説明に供される模式図。 第1実施例における車両パターン検出手段の説明に供される模式図。 第1実施例における第二の車両判定手段が実行する処理手順の一例を示すフローチャート。 第1実施例における判定選択手段で用いるテーブルの一例を示す図。 本発明に係る車両用外界認識装置の第2実施例を示す機能ブロック図。 第2実施例における動き検出手段が実行する処理手順の一例を示すフローチャート。 図8のフローチャートにおけるステップ803の動き検出処理部分の詳細構成例を示すフローチャート。 第2実施例における第一の物体判定手段の処理手順の一例を示すフローチャート。 本発明に係る車両用外界認識装置の第3実施例を示す機能ブロック図。 本発明の車両用外界認識装置を用いた車両制御システムの処理手順の一例を示すフローチャート。 本発明の車両用外界認識装置を用いた車両制御システムの処理手順の他の例を示すフローチャート。 本発明の車両用外界認識装置を用いた車両制御システムの危険度の算出の説明に供される模式図。 本発明の車両用外界認識装置を用いた配光制御システムの説明に供される模式図。
以下、本発明の実施形態を図面を参照しながら説明する。
図1は、本発明に係る車両用外界認識装置の一実施形態(第1実施例)を示す機能ブロック図である。
<第1実施例>
図示実施形態の車両用外界認識装置1000は、自動車に搭載されるカメラ1010内、もしくは統合コントローラ内等に組み込まれ、カメラ1010で撮影した画像内から車両を検知するためのものであり、本実施形態では、自車の前方を撮像した画像内から先行車両を検知するように構成されている。
車両用外界認識装置1000は、CPUやメモリ、I/O等を有するコンピュータによってその主要部が構成されており、所定の処理及び手順がプログラミングされて、予め定められた周期で繰り返し処理を実行する。
第1実施例の車両用外界認識装置1000は、図1に示すように、画像取得手段1011と、車両外形検出手段1021と、車両尾灯検出手段1031と、車両パターン検出手段1041と、第一の車両判定手段1051と、第二の車両判定手段1061と、判定選択手段1071と、第一の出力手段1081と、第二の出力手段1091とを有し、さらに実施の形態によって、外界判定手段1111とを有する。
画像取得手段1011は、自車の前方を撮像可能な位置に取り付けられたカメラ1010から、自車前方を撮影した画像データを取り込み、画像IMGSRC[c][x][y]としてRAMに書き込む。なお、画像IMGSRC[c][x][y]は2次元配列であり、cは色情報、x、yはそれぞれ画像の座標を示す。色情報の形式はYUV形式でもRGB形式等どのような色形式でも良い。例えばYUV形式であればc=0でY画像、c=1でUV画像となり、例えばRGB形式であればc=0が赤成分、c=1が緑成分、c=2が青成分となる。以下、本実施例では上述のYUV形式を用いる。
車両外形検出手段1021は、画像IMGSRC[c][x][y]内から車両外形ROI1[i](SX,SY,EX,EY)を検出する。ここで、iは複数の外形を検出した場合のID番号である。処理の詳細については後述する。
車両尾灯検出手段1031は、画像IMGSRC[c][x][y]内から車両尾灯ROI2[j](SX,SY,EX,EY)を検出する。ここで、jは複数の尾灯を検出した場合のID番号である。処理の詳細については後述する。
車両パターン検出手段1041は、車両外形ROI1[i](SX,SY,EX,EY)に対しパターン認識を行い、その結果を第一の車両判定手段1051で用いる。本実施例では、車両の背面パターンの有無を判定するものとする。パターン認識処理の詳細については後述する。
第一の車両判定手段1051は、車両パターン検出手段1041の結果を用いて、第一の車両候補VCL1[k](SX,SY,EX,EY)を出力する。ここで、kは複数の車両を検出した場合のID番号である。
第二の車両判定手段1061は、車両外形ROI1[i]、車両尾灯ROI2[j]のうち重複している領域に対して処理を行い、第二の車両候補VCL2[l]を出力する。ここで、lは複数の車両を検出した場合のID番号である。処理の詳細については後述する。
判定選択手段1071は、第一の車両候補VCL1[k]、第二の車両候補VCL2[l]に応じて、検出車両VCL[m]を出力する。実施の形態によって、外界判定手段1111に応じて処理を変更する。ここで、mは複数の車両を検出した場合のID番号である。処理の詳細は後述する。
第一の出力手段1081は、検出車両VCL[m]の情報を他の処理や他の装置へ向けて出力する。出力は、画像上の座標でもよいし、カメラ幾何モデルを用いて算出した車両の物理的位置(距離、横位置)でもよい。出力は、車両用外界認識装置1000から信号線により直接出力してもよいし、LAN(Local Area Network)を用いた通信を行うことによって出力してもよい。
第二の出力手段1091は、車両尾灯ROI2[j]の情報を他の処理や他の装置へ向けて出力する。出力は、画像上の座標でもよいし、カメラ幾何モデルを用いて算出した車両の物理的位置(距離、横位置)でもよい。出力は、車両用外界認識装置1000から信号線により直接出力してもよいし、LANを用いた通信を行うことによって出力してもよい。
実施の形態によって存在する外界判定手段1111は、自車周辺の照度を測定する。照度の測定には画像IMGSRCを処理して測定してもよいし、自車に装備されている他のセンサから受信してもよい。
画像IMGSRCを処理する場合には、例えば以下のように処理を行う。まず、事前にカメラを設置した際の角度等のパラメータと、カメラ幾何より、カメラ画像中に路面が写っている領域を設定する。そして、設定した領域内の輝度の平均値を求めることで、その値が低い場合には周囲は暗く、値が大きい場合には周囲は明るいことがわかる。
他のセンサから受信する場合は、車両用外界認識装置1000に信号を直接入力してもよいし、LANを用いた通信を行うことによって取得してもよい。外界判定手段1111の結果は判定選択手段1071にて用いられる。
[車両外形検出手段 1021]
つぎに、図2を用いて、車両外形検出手段1021における処理の内容について説明する。図2は、車両外形検出手段1021が実行する処理の一例を示す。
車両外形を検出する手法は、車両両端の縦方向のエッジを検出する方法や、車両の水平エッジを検出する方法などが知られている。
図2は、画像データの中から、車両候補領域を特定する方法を説明するための図である。図2(a)は、画像取得手段1011にて取得した画像IMGSRC[c][x][y]のY成分を示す。画像データ中の車両は、車両の両端を左右辺、ルーフを上辺、影あるいはバンパーの線を下辺としたほぼ矩形になる。
そこで、車両外形検出手段1021は、まず矩形の縦線を成す車両両端の縦エッジを検出する。具体的には、図2(b)に示すように、濃淡画像から縦方向のエッジのみを検出する。つぎに、縦エッジの分布を見るため、図2(c)に示すように、車両が存在する可能性のあるウィンドウ領域201を定め、エッジのX軸投影を行い、ヒストグラム202を得る。車両両端には縦エッジが密集しているはずであるので、車両外形検出手段1021は、図2(d)に示すように、ヒストグラム202の同程度の高さのピーク2点を車両両端203a,bと特定する。
つぎに、車両外形検出手段1021は、図2(e)に示すように、車両両端203a,bの間で、横エッジが連続している部分を画面下方からサーチし、その部分を車両下端204とする。
さらに、車両の幅と高さの比は、ある程度決まっているので、車両の下端204から、所定距離(例えば、両端の距離の0.8倍の距離)だけ上に、上端205を定める。こうして、車両外形検出手段1021は、図2(f)に示すように車両候補領域206を定める。
検出した車両外形は、車両外形ROI1[i](SX,SY,EX,EY)として、画像上の上下左右端の座標値を記憶しておく。
[ 車両尾灯検出手段1031]
つぎに、図3を用いて、車両尾灯検出手段1031における処理の内容について説明する。図3は、車両尾灯検出手段1031が実行する処理の一例を示す。
車両尾灯検出手段1031は、まず画像取得手段1011にて取得した画像IMGSRC[c][x][y]のUV成分を用いて画像中の赤色領域を抽出した2値画像を生成する。これは、IMGSRC[c][x][y]の1画素1画素を探索し、その画素が赤色領域の条件を満たしていれば1、そうでなければ0の値を入れた画像である。赤色領域の条件は、事前にカメラ1010にて様々な環境下で様々な車両の尾灯を撮影して手動で尾灯領域のU成分、V成分の分布を求めておき、その分布を用いる。具体的な方法は、事前に求めたUV空間中の分布の平均・分散を用いてマハラノビス距離を用いたり、分布が含まれるようにUの範囲、Vの範囲を求めて閾値処理を行ったり等の方法を用いる。2値画像を生成した後は、ラベリング処理を行い、領域を抽出する。抽出した結果を図3(b)に示す。抽出した結果、3011、3012のように、車両の尾灯以外の領域が抽出されることが多い。
つぎに、抽出した領域の関係を用いて車両尾灯を選別する。車両の尾灯は車両に対して左右対称に取り付けられている。よって、抽出した領域の高さや大きさが類似した領域のペアが車両尾灯であると考えることができる。図3(c)は、図3(b)の画像中でY座標が同じ高さであり、大きさが同じものをペアリングした結果であり、3021、3022のペアが抽出されている。
検出した車両尾灯は、車両尾灯ROI2[j](SX,SY,EX,EY)として、画像上の上下左右端の座標値を記憶しておく。
[ 車両パターン検出手段1041]
つぎに、図4を用いて、車両パターン検出手段1041が実行する処理の内容について説明する。図4は、車両パターン検出手段1041が実行する処理の一例を示す。
本処理は、車両外形ROI1[i](SX,SY,EX,EY)一つ一つについて処理を行う。
まず、ある車両外形ROI1[i](SX,SY,EX,EY)について、画像IMGSRC[c][x][y]からその領域の画像を切出す。切出す画像はY画像UV画像両方でも良いし、Y画像のみでも良い。本実施例ではY画像のみを切出した場合を説明する。
つぎに、その画像を所定の大きさに縮小し、縮小画像401を生成する。本実施例では、幅16画素、高さ12画素の画像へ縮小している。
そして、縮小した画像の画素をラスタスキャンして、1次元ベクトル402を生成し、それをニューラルネットワーク403への入力とする。
ニューラルネットワーク403は人間の脳のネットワークを模倣したものであり、複数のノードで構成される入力層4031、中間層4033、出力層4035が存在し、さらに入力層4031の各ノードと中間層4032の各ノードの間には重み係数が、中間層4032の各ノードと出力層4035の各ノードの間にも重み係数がそれぞれ存在する。ニューラルネットワークの出力は出力層のノードの1つの値であり、この値は、このノードに接続されているすべての中間層4033のノードの値とその重み係数の積和演算により得られる。さらに、中間層4033の各ノードの値は、各ノードに接続されているすべての入力層のノードの値とその重み係数の積和演算により得られる。
いま、車両パターン検出手段1041では、1次元ベクトル402をそのまま入力層へ接続しているため、出力層の各ノードの値は、上述の処理により算出することができる。その結果、出力層の所定のノードの値が閾値を超えていれば車両パターンが存在すると判定する。
出力層の所定のノードは事前にプログラムを組む際に決定しておく必要があり、入力ノードに車両のパターンが入ってきた場合にはその出力層のノードの出力が閾値以上になり、車両以外のパターンが入ってきた場合には出力が閾値以下となるように、各ノード間の重み係数は予め調整しておく必要がある。調整の方法は公知技術であるバックプロパゲーション法などを用いればよい。
検出結果は、第一の車両判定手段1051へ送られ、車両外形ROI1[i](SX,SY,EX,EY)のうち、車両と判定された領域が車両候補VCL1[k](SX,SY,EX,EY)として登録される。
[第二の車両判定手段1061]
つぎに、図5を用いて、第二の車両判定手段1061が実行する処理の内容について説明する。図5は、車両判定手段1061が実行する処理手順の一例を示すフローチャートである。
まず、ステップS501にて、車両外形ROI1[i](SX,SY,EX,EY)を1つ選択する。
つぎのステップS502にて、車両尾灯ROI2[j](SX,SY,EX,EY)を1つ選択する。
そして、ステップS503において、車両外形ROI1[i](SX,SY,EX,EY)と車両尾灯ROI2[j](SX,SY,EX,EY)が重複しているかどうかを判定する。重複している場合にはステップS504へ、重複していない場合にはステップS508へ移動する。
重複の判定には、例えば画像上の上下左右端SX,SY,EX,EYを用いてオーバーラップがないかを確認する方法がある。
ステップS504では、ROI1[i]の動きを検出する。動きは、1フレーム前の外形検出結果を用いて、現在の外形に最も近いものからの変化量を用いて求めてもよい。また、車両外形ROI1[i](SX,SY,EX,EY)内でオプティカルフローを算出し、そのフローの平均値から算出してもよい。こうして、ROI1[i]の動きベクトル(VX1,VY1)を算出する。
ステップS505では、ROI2[j]の動きを検出する。動きは、1フレーム前の尾灯検出結果を用いて、現在の尾灯に最も近いものからの変化量を用いて求めてもよい。また、車両尾灯ROI2[j](SX,SY,EX,EY)内でオプティカルフローを算出し、そのフローの平均値から算出してもよい。こうして、ROI2[i]の動きベクトル(VX2,VY2)を算出する。
ステップS506で動きの方向と大きさを用いて、同一物体であるかを判定する。一致した場合にはステップS507へ移動し、一致しなかった場合にはステップS508へ移動する。判定には、例えばROI1[i]の動きベクトル(VX1,VY1)、ROI2[j]の動きベクトル(VX2,VY2)より、(VX1−VX2)^2+(VY1−VY2)^2 が所定閾値以下であるか否かを用いて判定できる。
ステップS507では、検出した領域を第二の車両領域VCL2[l]として新規登録する。
ステップS508では、ROI2[j]をすべて確認したかを判定し、すべて確認した場合にはS509へ、そうでなければS502へ戻る。
ステップS509は、ROI1[i]をすべて確認したかを判定し、すべて確認した場合には処理を終了し、そうでなければS501へ戻る。
[判定選択手段1071]
つぎに、判定選択手段1071が実行する処理の内容について説明する。
以下、判定選択手段1071で外界判定手段1111を用いる場合と用いない場合の2通りについて説明する。まず、外界判定手段1111を用いる場合について説明する。
外界判定手段1111から得られるセンサ入力や前述の画像から測定した値を用いて、自車周囲の照度を推定する。推定は、予め様々な環境下で外界判定手段1111の出力を測定しておき、実際の照度とそのときの外界判定手段1111の出力を対応付けるテーブルを作成しておくことにより、外界判定手段1111の出力から実際の照度を推定することができる。
つぎに、照度に応じて、第一の車両候補VCL1[k]、第二の車両候補VCL2[l]の結果をどう使用するかを決定する。これも、図6に示すように、様々な照度で実際の環境を確認しながらテーブルを作成しておく。
つぎに、外界判定手段1111を用いない場合について説明する。
この場合は、過去数分のデータを積算した車両外形ROI1[i]の総数I、車両尾灯ROI2[j]の総数J、第一の車両候補VCL1[k]の総数K、第二の車両候補VCL2[l]の総数Lを用いて、現在の状況を推定する。
例えば、I<<Jであれば、夜間、I>>Jであれば、昼間、I>Kであれば、薄暮と推測することができる。
このようにして推測した状況から、図6に示される如くのテーブルを用いて、第一の車両候補VCL1[k]、第二の車両候補VCL2[l]の結果をどう使用するかを決定する。
ここで選択されたほうを、車両VCL[m]として出力する。
以上説明したように、本発明実施例を用いることにより、昼間、夜間の検出結果はそのままに、従来の方式では対応できない薄暮のようなシーンにおいても自動的に最適な検出結果へ切り替えることができる。
よって、薄暮のような、通常とは異なる照明条件のシーンにおいて、警報・制御に適用可能な検出結果を出力することができ、薄暮でのシステムの適用範囲を拡大することができる。
<第2実施例>
つぎに、本発明の車両用外界認識装置の第2実施例について、図7を用いて説明する。図7は、第2実施例の車両用外界認識装置2000を示す機能ブロック図である。なお、以下の説明では、上述した第1実施例の車両用外界認識装置1000と異なる箇所のみ詳述し、同様の箇所には同一の番号を付し説明を省略する。
車両用外界認識装置2000は、自動車に搭載されるカメラ1010内、もしくは統合コントローラ内等に組み込まれ、カメラ1010で撮影した画像内から車両を検知するためのものであり、本実施の形態では、自車の前方を撮像した画像内から先行車両を検知するように構成されている。
車両用外界認識装置2000は、CPUやメモリ、I/O等を有するコンピュータによってその主要部が構成されており、所定の処理がプログラミングされて、予め定められた周期で繰り返し処理を実行する。車両用外界認識装置2000は、図7に示すように、画像取得手段1011と、車両外形検出手段1021と、車両尾灯検出手段1031と、動き検出手段2041と、第一の車両判定手段2051と、第二の車両判定手段1061と、判定選択手段1071と、第一の出力手段1081と、第二の出力手段1091とを有し、さらに実施の形態によって、外界判定手段1111とを有する。
[動き検出手段2041]
動き検出手段2041は、画像取得手段1011より取得した画像IMGSRC[c][x][y]と、1フレーム前の画像を用いて動きを解析し、背景と異なる動きをする領域を抽出し、候補領域ROI3[n]を出力する。
以下、図8を用いて、動き検出手段2041が実行する処理の内容について説明する。図8は、動き検出手段2041が実行する処理手順の一例を示すフローチャートである。
まず、ステップS801にて、一回目の処理か否かを判定する。一回目の処理であれば、動きを検出するための過去画像が存在しないため、ステップS806へ移動する。一回目の処理でなければ、ステップS802へ移動する。
つぎに、ステップS802にて、前の処理で保存した1サンプル前の過去画像IMGOLD[c][x][y]を読み込む。
そして、ステップS803にて、画像IMGSRC[c][x][y]と過去画像IMGOLD[c][x][y]を用いて動きベクトルを算出する。動きベクトルはある1枚の画像の画素がもう1枚の画像のどの位置へ移動したか算出する処理であり、勾配法とブロックマッチング法が知られている。本実施例では、以下にブロックマッチング法の算出方法について、図9を用いて説明する。
まず、ステップS901にて、過去画像IMGOLD[c][x][y]を小領域PT[p]に分割する。
つぎに、ステップS902にて、小領域PT[p]を1つ選択し、その中の画像パターンをテンプレートとして記憶する。
そして、ステップS903にて、小領域PT[p]の位置に応じて、画像IMGSRC[c][x][y]内に探索範囲SCを設定する。探索範囲SCは、例えば小領域PT[p]と同じ位置を中心に、予め設定した所定値分広げた範囲に設定したり、小領域PT[p]と同じ位置から自車の車速を用いて動きを予測したポイントを中心に予め設定した所定値分広げた範囲に設定したりする。
つぎに、ステップS904にて、小領域PT[p]と同じ大きさの参照小領域RF[q]を設定する。参照小領域RF[q]は、例えば探索範囲SC内に重複させながら敷き詰めるように配置したり、間引いて配置したりする。
そして、ステップS905にて、1つの小領域PT[p]と複数の参照小領域RF[q]の組み合わせに対し、画像の各画素間の差分の絶対値の累計を算出し、その値が最少となるRFMIN[q]を求める。
つぎに、ステップS906にて、PT[p]と参照小領域RFMIN[q]の位置の差分から、動きベクトル(VX[p],VY[p])を算出する。
ステップS907にて、すべての小領域PT[p]に対して処理を行ったかを判定し、処理している場合には処理を終了し、処理が終わっていない場合にはステップS901へ移動する。
以上の処理により、各小領域PT[p]の画像上での動きベクトル(VX[p],VY[p])を算出することができる。
図8の説明へ戻る。上述の処理により、ステップS803にて動きベクトルを算出した後、ステップS804にて、背景と異なる動きを持つ小領域を抽出する。自車の車速、操舵角、ヨーレートを用いて車両の動きを予測し、かつ画像上に移るものがすべて路面であると仮定すると、画像上の1点が次のフレームでどこへ移動するかが予測できる。よって、各小領域PT[p]が平面であったと仮定し、その移動量(VXE[p],VYE[p])を予測し、その移動量と画像から観測した動きベクトル(VX[p],VY[p])との差が大きい領域を抽出する。例えば(VXE[p]-VX[p])^2+(VYE[p]-VY[p])^2が閾値THを超えた場合などを条件とする。
つぎに、ステップS805にて、抽出した小領域の位置、動きの向き、大きさを用いてグルーピングし、候補領域ROI3[n]とする。グルーピングは、例えば、各小領域に対し、隣接する小領域が存在し、かつ、動きベクトルの向き・大きさの差が所定の閾値以内であるものを探索することにより行う。
[第一の車両判定手段2051]
つぎに、第一の車両判定手段2051が実行する処理について以下説明する。
まず、図10を用いて、第一の車両判定手段2051における処理の内容について説明する。
図10は、第一の車両判定手段2051実行する処理手順の一例を示すフローチャートである。
まず、ステップS101にて、車両外形ROI1[i](SX,SY,EX,EY)を1つ選択する。
つぎに、ステップS102にて、候補領域ROI3[n](SX,SY,EX,EY)を1つ選択する。
そして、ステップS103において、車両外形ROI1[i](SX,SY,EX,EY)と候補領域ROI3[n](SX,SY,EX,EY)が重複しているかどうかを判断する。重複している場合にはステップS104へ、重複していない場合にはステップS108へ進む。重複の判定には、例えば画像上の上下左右端SX,SY,EX,EYを用いて、所定の面積以上オーバーラップしているか否かで判定する。
ステップS104では、ROI1[i]の動きを検出する。動きは、1フレーム前の外形検出結果を用いて、現在の外形に最も近いものからの変化量を用いて求めてもよい。また、車両外形ROI1[i](SX,SY,EX,EY)内でオプティカルフローを算出し、そのフローの平均値から算出してもよい。こうして、ROI1[i]の動きベクトル(VX1,VY1)を算出する。
ステップS105では、候補領域ROI3[n]の動きを検出する。動きは、1フレーム前の動き検出結果を用いて、現在の動き領域に最も近いものからの変化量を用いて求めてもよい。また、候補領域ROI3[n](SX,SY,EX,EY)はオプティカルフローより求められているため、そのフローの平均値から算出してもよい。こうして、候補領域ROI3[n]の動きベクトル(VX3,VY3)を算出する。
ステップS106で動きの方向と大きさを用いて、同一物体であるかを判定する。一致した場合にはステップS107へ移動し、一致しなかった場合にはステップS108へ移動する。判定には、例えばROI1[i]の動きベクトル(VX1,VY1)、ROI3[n]の動きベクトル(VX3,VY3)より、(VX1−VX3)^2+(VY1−VY3)^2が所定閾値以下であるか否かを用いて判定できる。
ステップS107では、検出した領域を第一の車両領域VCL1[l]として新規登録する。
ステップS108では、ROI3[n]をすべて確認したかを判定し、すべて確認した場合にはS109へ、そうでなければS102へ戻る。
ステップS109は、ROI1[i]をすべて確認したかを判定し、すべて確認した場合には処理を終了し、そうでなければS101へ戻る。
<第3実施例>
つぎに、本発明の車両用外界認識装置の第3実施例について、図11を用いて説明する。図11は、第3実施例の車両用外界認識装置3000を示す機能ブロック図である。なお、以下の説明では、上述した第1、第2実施例の車両用外界認識装置1000、2000と異なる箇所のみ詳述し、同様の箇所には同一の符号を付して説明を省略する。
車両用外界認識装置3000は、自動車に搭載されるカメラ1010内、もしくは統合コントローラ内等に組み込まれ、カメラ1010で撮影した画像内から車両を検知するためのものであり、本実施例では、自車の前方を撮像した画像内から先行車両を検知するように構成されている。
車両用外界認識装置3000は、CPUやメモリ、I/O等を有するコンピュータによってその主要部が構成されており、所定の処理がプログラミングされて、予め定められた周期で繰り返し処理を実行する。車両用外界認識装置3000は、図11に示すように、画像取得手段1011と、車両外形検出手段1021と、車両尾灯検出手段1031と、車両パターン検出手段3041と、第一の車両判定手段2051と、第二の車両判定手段1061と、判定選択手段1071と、第一の出力手段1081と、第二の出力手段1091とを有し、さらに実施の形態によって、外界判定手段1111とを有する。
[車両パターン検出手段3041]
車両パターン検出手段3041は、画像取得手段1011より取得した画像IMGSRC[c][x][y]から、パターンマッチ処理により、候補領域ROI3[n]を出力する。
図4で説明した車両パターン検出処理は、車両外形ROI1[i]に対して行っているが、本実施例では画面全体に対して、画像上の座標(x、y)および大きさ(s)を変えながら繰り返し処理を行う。処理は、例えば画面全体をくまなく探索したり、カメラ幾何モデルを用いて大きさが小さくなるほど消失点近傍のみを探索したり、また、自車の車速、操舵角、ヨーレートを用いて処理領域を制限したりする。
なお、この結果得られた候補領域ROI3[n]と車両外形ROI1[i]を用いる第一の車両判定手段の処理は、前述の第一の車両判定手段2051とほぼ同一であるため説明を割愛する。
<車両制御システム>
つぎに、図12から図14を用いて、前述の実施例で示した車両用外界認識装置を用いた車両制御システムの一例について説明する。
図12は、車両制御システムの基本動作の一例を示すフローチャートである。
まず、ステップS121にて、前述の車両用外界認識装置の第一の出力手段1081より、第一の物体情報を取得する。本例では、車両用外界認識装置で検出した車両の画像情報から、カメラ幾何を用いて算出した、車両との距離PY1[a]、横位置PX1[a]を用いる。
同様に、ステップS122にて、前述の車両用外界認識装置の第二の出力手段1091より、第二の物体情報を取得する。本実施例では、車両用外界認識装置で検出した車両の画像情報から、カメラ幾何を用いて算出した、車両との距離PY2[b]、横位置PX2[b]を用いる。
つぎに、ステップS123にて、第一の物体情報を用いて、プリクラッシュ・セーフティ・システムを動作させる(警報・制御処理)。動作の詳細については後述する。
そして、ステップS124にて、第二の物体情報を用いて、配光制御処理を行う。動作の詳細については後述する。
[警報・制御処理]
以下、図13,14を用いて、前述の実施例より判定した先行車に応じて警報を出力する、あるいは自動的にブレーキを制御するといった車両制御システムを説明する。
図13は、プリクラッシュ・セーフティ・システムの処理手順を示すフローチャートである。
最初に、ステップS131において、障害物情報(PY1[a]、PX1[a])を読み込む。
つぎに、ステップS132において、検知された各物体の衝突予測時間TTC[a]を式(1)を用いて演算する。ここで、相対速度VY1[a]は、物体の相対距離PY1[a]を擬似微分することによって求める。
TTC[a]=PY1[a]÷VY1[a]・・・・・(1)
さらに、ステップS133において、各障害物に対する危険度DRECI[a]を演算する。
以下、上述のいずれかの車両用外界認識装置で検知された物体X[a]に対する危険度DRECI[a]の演算方法の例を、図14を用いて説明する。
まず、予測進路の推定方法について説明する。図14に示すように、自車位置を原点Oとすると、予測進路は原点Oを通る旋回半径Rの円弧で近似できる。ここで、旋回半径Rは、自車の操舵角α、速度Vsp、スタビリティファクタA、ホイールベースLおよびステアリングギア比Gsを用いて式(2)で表される。
R=(1+AV2)×(L・Gs/α)・・・・・・(2)
スタビリティファクタとは、その正負が、車両のステア特性を支配するものであり、車両の定常円旋回の速度に依存する変化の大きさを示す指数となる重要な値である。式(2)からわかるように、旋回半径Rは、スタビリティファクタAを係数として、自車の速度Vspの2乗に比例して変化する。また、旋回半径Rは車速Vspおよびヨーレートγを用いて式(3)で表すことができる。
R=V/γ・・・・・・(3)
つぎに、物体X[a]から、旋回半径Rの円弧で近似した予測進路の中心へ垂線を引き、距離L[a]を求める。
さらに、自車幅Hから距離L[a]を引き、これが負値の場合には危険度DRECI[a]=0とし、正値の場合には以下の式(4)によって危険度DRECI[a]を演算する。
DRECI[a]= (H−L[a])/H・・・・・・(4)
なお、ステップS131〜S133の処理は、検知した物体数に応じてループ処理を行う構成としている。
ステップS134において、ステップS133で演算した危険度DRECI[a]に応じて式(5)の条件が成立している物体を選択し、選択された物体の中で衝突予測時間TTC[a]が最小となる物体aMinを選択する。
DRECI[a]≧ cDRECI#・・・・・・・(5)
ここで、所定値cDRECI#は、自車に衝突するか否かを判定するための閾値である。
つぎに、ステップS135において、選択された物体kの衝突予測時間TTC[aMin]に応じて自動的にブレーキを制御する範囲であるか否かの判定を行う。式(6)が成立している場合にはステップS136に進み、ブレーキ制御を実行して処理を終了する。
また、式(6)が非成立の場合にはステップS137に進む。
TTC[aMin]≦cTTCBRK#・・・・(6)
ステップS137において、選択された物体aMinの衝突予測時間TTC[aMin]に応じて警報を出力する範囲であるか否かの判定を行う。式(7)が成立している場合にはステップS138に進み、警報を出力して処理を終了する。また、式(7)が非成立の場合には、ブレーキ制御、警報ともに実行せずに処理を終了する。
TTC[aMin]≦cTTCALM#・・・・・(7)
以上説明したように、本発明実施例である上述のいずれかの車両用外界認識装置1000、2000、3000において先行車と判定された物体に対して、その危険度に応じて上記警報やブレーキ制御を発動させることができる。
[配光制御]
つぎに、前述の実施例より判定した先行車に応じて自車のヘッドライトの照射強度や範囲を調整する車両制御システムについて説明する。
図15は、配光制御処理の動作説明図である。配光制御処理は、自車のヘッドライト1511を制御して、先行車および対向車が存在する領域にはロービーム、それ以外の領域にはハイビームを照射するように、自車ヘッドライト照射範囲1512を自動調整する処理である。図15(a)に示すように、先行車、対向車が存在しない場合は自車ヘッドライト照射範囲1512は最大化されるが、図15(b)に示すように、先行車、対向車が存在する場合は自車ヘッドライト照射範囲を変化させる。以下、処理の流れを説明する。
まず、上述のいずれかの車両用外界認識装置で検知された車両尾灯から、先行車の位置(PY2[b]、PX2[b])を読み込む。
つぎに、対向車の位置(PYH[h]、PXH[h])を読み込む。なお、対向車情報は対向車のヘッドライトの候補となる白色の光点を画像から検出し、そのペア情報をもちいることで検出することができる。ヘッドライト検出処理の詳細は、別の公知の手段により抽出可能なため、ここでは説明を省略する。画像のヘッドライトのペアが検出できれば、カメラ幾何を用いて距離PYH[h]、PXH[h]を検出することができる。
そして、検出した先行車152、対向車153にはハイビームを照射しないよう、かつ、そのいずれも存在しない領域にはハイビームが照射できるように、自車のヘッドライト1511を制御し、ヘッドライト照射範囲1512を調整する。
ヘッドライト1511の制御は、例えばヘッドライト1511の光源の強さを調整したり,ヘッドライト1511の照射角度を切り替えたり等を含む。また,ヘッドライト1511の照射強さが多段的に切り替え可能な場合は,対向車153までの距離PYH[h]、先行車152までの距離PY2[b]のうちもっとも自車に近い距離に応じてビーム強さを調整する。
また、ヘッドライト1511の照射範囲を横方向の角度によって調整可能な場合は、対向車の位置(PYH[h]、PXH[h])、先行車の位置(PY2[b]、PX2[b])に応じて、先行車および対向車のうち最も左端の車両、およびもっとも右端の車両を求め、その範囲内はロービーム、それより外側にはハイビームを照射するように調整する。
以上説明したように、本発明実施例の車両用外界認識装置を用いることにより、薄暮のような、通常とは異なる照明条件のシーンにおいて、警報・制御を発動させることが可能となる。
なお、上記実施例においては主に4輪車について記載したが、2輪車についても同様である。
本発明は、上述の各実施の形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で種々の変更が可能である。
1000 車両用外界認識装置(第1実施例)
1010 カメラ
1011 画像取得手段
1021 車両外形検出手段
1031 車両尾灯検出手段
1041 車両パターン検出手段
1051 第一の車両判定手段
1061 第二の車両判定手段
1071 判定選択手段
1081 第一の出力手段
1091 第二の出力手段
1111 外界判定手段
2000 車両用外界認識装置(第2実施例)
2041 動き検出手段
2051 第一の車両判定手段
3000 車両用外界認識装置(第3実施例)
3041 車両パターン検出手段

Claims (11)

  1. 自車周辺を撮影した画像を取得する画像取得手段と、
    前記画像から画像の勾配情報を用いて車両候補領域を検出する第一の車両候補領域検出手段と、
    前記画像から画像の色情報を用いて車両候補領域を検出する第二の車両候補領域検出手段と、
    前記第一の車両候補領域と前記第二の車両候補領域を用いて車両の有無を判定する車両判定手段と、を有し、
    前記車両判定手段は、前記第一の車両候補領域と前記第二の車両候補領域が重複し同期して動いている領域を車両と判定することを特徴とする車両用外界認識装置。
  2. 自車周辺を撮影した画像を取得する画像取得手段と、
    前記画像から画像の勾配情報を用いて車両候補領域を検出する第一の車両候補領域検出手段と、
    前記画像から画像の色情報を用いて車両候補領域を検出する第二の車両候補領域検出手段と、
    前記画像から前記第一の車両候補領域検出手段及び第二の車両候補領域検出手段とは異なる検出方法により車両候補領域を検出する第三の車両候補領域検出手段と、
    前記第一の車両候補領域と前記第三の車両候補領域を用いて車両の有無を判定する第一の車両判定手段と、
    前記第一の車両候補領域と前記第二の車両候補領域を用いて車両の有無を判定する第二の車両判定手段と、を有し、
    前記第二の車両判定手段は、前記第一の車両候補領域と前記第二の車両候補領域が重複し同期して動いている領域を車両と判定することを特徴とする車両用外界認識装置。
  3. 自車周辺を撮影した画像を取得する画像取得手段と、
    前記画像から画像の勾配情報を用いて第一の車両候補領域を検出する第一の車両候補領域検出手段と、
    前記画像から画像の色情報を用いて第二の車両候補領域を検出する第二の車両候補領域検出手段と、
    前記画像に対して所要の処理操作を施すことにより第三の車両候補領域を検出する第三の車両候補領域検出手段と、
    前記第一の車両候補領域と第三の車両候補領域を用いて車両の有無を判定する第一の車両判定手段と、
    前記第一の車両候補領域と前記第二の車両候補領域を用いて車両の有無を判定する第二の車両判定手段と、
    前記第一の車両判定手段により判定された第一の車両候補と前記第二の車両判定手段により判定された第二の車両候補のいずれかをそのときの状況等に応じて選択する判定選択手段と、
    前記判定選択手段の選択結果を第一の出力として出力する第一の出力手段と、
    前記第二の車両候補領域を第二の出力として出力する第二の出力手段とを有し、
    前記第二の車両判定手段は、前記第一の車両候補領域と前記第二の車両候補領域が重複し同期して動いている領域を車両と判定することを特徴とする車両用外界認識装置。
  4. 前記第一の車両候補領域検出手段は車両の外形を検出し、前記第二の車両候補領域検出手段は車両の尾灯を検出することを特徴とする請求項1から3のいずれかに記載の車両用外界認識装置。
  5. 前記第三の車両候補領域検出は、パターンマッチ処理により車両パターンの有無を判別することで前記第三の車両候補領域を検出することを特徴とする請求項3に記載の車両用外界認識装置。
  6. 前記第三の車両候補領域検出手段は、前記第一の車両候補領域に対して検出処理を行うことを特徴とする請求項5に記載の車両用外界認識装置。
  7. 前記第三の車両候補領域検出手段は、画像の動き情報を用いて前記第三の車両候補領域を検出することを特徴とする請求項3に記載の車両用外界認識装置。
  8. 外界の照度を判定する照度判定手段を有し、前記判定選択手段は照度判定結果に応じて第一の車両判定手段により判定された第一の車両候補と第二の車両判定手段により判定された第二の車両候補のいずれかを選択することを特徴とする請求項3から7のいずれかに記載の車両用外界認識装置。
  9. 請求項3から8のいずれかに記載の車両用外界認識装置と、
    前記第一の出力に応じて前記自車が衝突する危険度を算出する衝突危険度算出手段と、
    前記衝突危険度に応じて自車の衝突を回避するための制御を行う第一の制御手段と、
    前記第二の出力に応じてドライバの視認性を向上させるための制御を行う第二の制御手段と、を有することを特徴とする車両制御システム。
  10. 前記第一の制御手段は、警報を発生させる制御もしくはブレーキを発動させる制御を行うことを特徴とする請求項9に記載の車両制御システム。
  11. 前記第二の制御手段は、自動車の灯火装置の光量及び/又は照射範囲を調整する制御を行うことを特徴とする請求項9又は10に記載の車両制御システム。
JP2011152776A 2011-07-11 2011-07-11 車両用外界認識装置及びそれを用いた車両制御システム Active JP5518007B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2011152776A JP5518007B2 (ja) 2011-07-11 2011-07-11 車両用外界認識装置及びそれを用いた車両制御システム
CN201210234917.9A CN102881186B (zh) 2011-07-11 2012-07-06 车辆用外界识别装置及使用了该装置的车辆控制系统
US13/545,849 US8903603B2 (en) 2011-07-11 2012-07-10 Environment recognizing device for a vehicle and vehicle control system using the same
EP12175925.2A EP2546779B1 (en) 2011-07-11 2012-07-11 Environment recognizing device for a vehicle and vehicle control system using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011152776A JP5518007B2 (ja) 2011-07-11 2011-07-11 車両用外界認識装置及びそれを用いた車両制御システム

Publications (2)

Publication Number Publication Date
JP2013020417A true JP2013020417A (ja) 2013-01-31
JP5518007B2 JP5518007B2 (ja) 2014-06-11

Family

ID=46969969

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011152776A Active JP5518007B2 (ja) 2011-07-11 2011-07-11 車両用外界認識装置及びそれを用いた車両制御システム

Country Status (4)

Country Link
US (1) US8903603B2 (ja)
EP (1) EP2546779B1 (ja)
JP (1) JP5518007B2 (ja)
CN (1) CN102881186B (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015146174A (ja) * 2013-02-01 2015-08-13 エリック シンクレアEric Sinclair 車両のための交通事象検知システム
JP2015231179A (ja) * 2014-06-06 2015-12-21 富士重工業株式会社 車外環境認識装置
KR101608377B1 (ko) 2014-12-11 2016-04-11 주식회사 유라코퍼레이션 차량용 비상등 제어장치 및 이를 이용한 비상등 제어방법
US10232772B2 (en) 2015-03-26 2019-03-19 Mitsubishi Electric Corporation Driver assistance system
CN109951678A (zh) * 2017-12-21 2019-06-28 德克萨斯仪器股份有限公司 经由发送的视频发送功能安全统计
WO2020039838A1 (ja) * 2018-08-22 2020-02-27 日立オートモティブシステムズ株式会社 画像処理装置および画像処理方法

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101361663B1 (ko) * 2012-03-21 2014-02-12 주식회사 코아로직 차량용 영상 처리 장치 및 방법
JP5752728B2 (ja) * 2013-02-28 2015-07-22 富士フイルム株式会社 車両間距離算出装置およびその動作制御方法
JP2017505946A (ja) * 2014-01-17 2017-02-23 ケーピーアイティ テクノロジーズ リミテッド 車両検出システムおよびその方法
EP3007099B1 (en) * 2014-10-10 2022-12-07 Continental Autonomous Mobility Germany GmbH Image recognition system for a vehicle and corresponding method
EP3270352B1 (en) * 2015-03-10 2023-02-22 JVC Kenwood Corporation Alert device, alert method, and alert program
JP6390512B2 (ja) * 2015-05-21 2018-09-19 株式会社デンソー 車載カメラ装置
US10800455B2 (en) * 2015-12-17 2020-10-13 Ford Global Technologies, Llc Vehicle turn signal detection
CN106910372A (zh) * 2015-12-23 2017-06-30 罗伯特·博世有限公司 一种用于车辆控制的方法和装置
US10387736B2 (en) * 2017-09-20 2019-08-20 TuSimple System and method for detecting taillight signals of a vehicle
US10733465B2 (en) 2017-09-20 2020-08-04 Tusimple, Inc. System and method for vehicle taillight state recognition
DE102018218015A1 (de) * 2018-10-22 2020-04-23 Robert Bosch Gmbh Verfahren und Vorrichtung zum Ermitteln eines Zustands einer Fahrzeugleuchte eines Fahrzeugs
JP7388971B2 (ja) * 2020-04-06 2023-11-29 トヨタ自動車株式会社 車両制御装置、車両制御方法及び車両制御用コンピュータプログラム
CN111652965B (zh) * 2020-04-28 2023-06-09 武汉大势智慧科技有限公司 一种针对影像中移动车辆的判定方法及系统
CN117864133A (zh) * 2023-03-17 2024-04-12 成都鑫动源乐信息技术有限公司 基于大数据的安全控制系统

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10255019A (ja) * 1997-03-07 1998-09-25 Toyota Motor Corp 車両認識装置
JPH10289393A (ja) * 1997-04-15 1998-10-27 Fujitsu Ltd 道路監視用事象検知装置
JP2001006089A (ja) * 1999-06-23 2001-01-12 Matsushita Electric Ind Co Ltd 色情報を用いた車両検出装置
JP2002056494A (ja) * 2000-08-10 2002-02-22 Gen Tec:Kk 道路上を走行する車両のトラッキング方法及び該方法を実施するプログラムを記録した記録媒体
JP2003521752A (ja) * 1998-08-25 2003-07-15 ホールディング・ベ・エ・ヴェ・ソシエテ・アノニム 画像処理装置および方法
JP2004341801A (ja) * 2003-05-15 2004-12-02 Nissan Motor Co Ltd 追跡車両ランプ検出システムおよび追跡車両ランプ検出方法
JP2005121601A (ja) * 2003-10-20 2005-05-12 Nissan Motor Co Ltd 物体検出装置及び物体検出方法
JP2009282592A (ja) * 2008-05-20 2009-12-03 Hitachi Ltd 車両用外界認識装置、および、車両システム
JP2010264912A (ja) * 2009-05-15 2010-11-25 Denso Corp ライト光量制御装置、およびライト光量制御プログラム
JP2011087037A (ja) * 2009-10-14 2011-04-28 Toshiba Alpine Automotive Technology Corp 車両用障害物検出装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3671134B2 (ja) * 2000-04-05 2005-07-13 株式会社豊田中央研究所 タイヤパラメータ推定装置
JP3882797B2 (ja) * 2003-08-08 2007-02-21 日産自動車株式会社 車両用運転操作補助装置および車両用運転操作補助装置を備える車両
JP4426436B2 (ja) 2004-12-27 2010-03-03 株式会社日立製作所 車両検知装置
JP2006244331A (ja) 2005-03-07 2006-09-14 Nissan Motor Co Ltd 夜間走行補助装置及び方法
US7724962B2 (en) 2006-07-07 2010-05-25 Siemens Corporation Context adaptive approach in vehicle detection under various visibility conditions
CN101470730B (zh) * 2007-12-26 2010-12-22 中国科学院自动化研究所 基于频谱特征分析的图像重复检测方法
JP4980939B2 (ja) 2008-01-22 2012-07-18 富士重工業株式会社 撮像手段の調整装置および物体検出装置
FR2947657B1 (fr) 2009-07-06 2016-05-27 Valeo Vision Procede de detection d'un obstacle pour vehicule automobile
CN101673403B (zh) * 2009-10-10 2012-05-23 安防制造(中国)有限公司 复杂干扰场景下的目标跟踪方法
WO2012098663A1 (ja) * 2011-01-20 2012-07-26 トヨタ自動車株式会社 走行計画生成方法及び走行計画生成装置

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10255019A (ja) * 1997-03-07 1998-09-25 Toyota Motor Corp 車両認識装置
JPH10289393A (ja) * 1997-04-15 1998-10-27 Fujitsu Ltd 道路監視用事象検知装置
JP2003521752A (ja) * 1998-08-25 2003-07-15 ホールディング・ベ・エ・ヴェ・ソシエテ・アノニム 画像処理装置および方法
JP2001006089A (ja) * 1999-06-23 2001-01-12 Matsushita Electric Ind Co Ltd 色情報を用いた車両検出装置
JP2002056494A (ja) * 2000-08-10 2002-02-22 Gen Tec:Kk 道路上を走行する車両のトラッキング方法及び該方法を実施するプログラムを記録した記録媒体
JP2004341801A (ja) * 2003-05-15 2004-12-02 Nissan Motor Co Ltd 追跡車両ランプ検出システムおよび追跡車両ランプ検出方法
JP2005121601A (ja) * 2003-10-20 2005-05-12 Nissan Motor Co Ltd 物体検出装置及び物体検出方法
JP2009282592A (ja) * 2008-05-20 2009-12-03 Hitachi Ltd 車両用外界認識装置、および、車両システム
JP2010264912A (ja) * 2009-05-15 2010-11-25 Denso Corp ライト光量制御装置、およびライト光量制御プログラム
JP2011087037A (ja) * 2009-10-14 2011-04-28 Toshiba Alpine Automotive Technology Corp 車両用障害物検出装置

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015146174A (ja) * 2013-02-01 2015-08-13 エリック シンクレアEric Sinclair 車両のための交通事象検知システム
JP2015231179A (ja) * 2014-06-06 2015-12-21 富士重工業株式会社 車外環境認識装置
KR101608377B1 (ko) 2014-12-11 2016-04-11 주식회사 유라코퍼레이션 차량용 비상등 제어장치 및 이를 이용한 비상등 제어방법
US10232772B2 (en) 2015-03-26 2019-03-19 Mitsubishi Electric Corporation Driver assistance system
CN109951678A (zh) * 2017-12-21 2019-06-28 德克萨斯仪器股份有限公司 经由发送的视频发送功能安全统计
CN109951678B (zh) * 2017-12-21 2022-06-14 德克萨斯仪器股份有限公司 经由发送的视频发送功能安全统计的系统和方法
US11962953B2 (en) 2017-12-21 2024-04-16 Texas Instruments Incorporated Transmitting functional safety statistics via transmitted video
WO2020039838A1 (ja) * 2018-08-22 2020-02-27 日立オートモティブシステムズ株式会社 画像処理装置および画像処理方法
CN112534473A (zh) * 2018-08-22 2021-03-19 日立汽车系统株式会社 图像处理装置以及图像处理方法
JPWO2020039838A1 (ja) * 2018-08-22 2021-08-10 日立Astemo株式会社 画像処理装置および画像処理方法
JP7139431B2 (ja) 2018-08-22 2022-09-20 日立Astemo株式会社 画像処理装置および画像処理方法

Also Published As

Publication number Publication date
EP2546779A3 (en) 2014-06-25
US20130018547A1 (en) 2013-01-17
CN102881186B (zh) 2015-05-13
EP2546779B1 (en) 2019-12-11
CN102881186A (zh) 2013-01-16
EP2546779A2 (en) 2013-01-16
JP5518007B2 (ja) 2014-06-11
US8903603B2 (en) 2014-12-02

Similar Documents

Publication Publication Date Title
JP5518007B2 (ja) 車両用外界認識装置及びそれを用いた車両制御システム
JP5372680B2 (ja) 障害物検知装置
JP5809785B2 (ja) 車両用外界認識装置およびそれを用いた配光制御システム
JP5401344B2 (ja) 車両用外界認識装置
JP4654163B2 (ja) 車両の周囲環境認識装置及びシステム
JP5529910B2 (ja) 車両周辺監視装置
US10635896B2 (en) Method for identifying an object in a surrounding region of a motor vehicle, driver assistance system and motor vehicle
US10210400B2 (en) External-environment-recognizing apparatus
US20170024622A1 (en) Surrounding environment recognition device
JP5090321B2 (ja) 物体検知装置
WO2013148456A1 (en) Vehicular imaging system and method for determining roadway width
JPWO2012140752A1 (ja) 車載周辺物認識装置及びこれを用いる運転支援装置
EP2636561A1 (en) Light distribution control apparatus
JP2014515893A (ja) 車両のカメラによって撮影した画像を評価するための方法および画像評価装置
JP2007241898A (ja) 停止車両分別検出装置および車両の周辺監視装置
JP5593217B2 (ja) 車両用外界認識装置およびそれを用いた車両システム
JP2017016194A (ja) 車外環境認識装置
KR101840927B1 (ko) 차량 후진시 후측방 접근 객체와의 충돌 회피 장치 및 방법
JP6335065B2 (ja) 車外環境認識装置
JP2018163530A (ja) 対象物検知装置、対象物検知方法、及び対象物検知プログラム
JP2004348645A (ja) 赤外線画像認識装置、及び赤外線画像認識装置を用いた警報装置
US10217006B2 (en) Method and device for detecting objects in the dark using a vehicle camera and a vehicle lighting system
JP7356372B2 (ja) 立体物検出装置、車載システム、及び立体物検出方法
JP2022161700A (ja) 信号機認識装置
JP4871941B2 (ja) 車両周辺監視装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130226

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130605

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130611

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130809

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140311

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140401

R150 Certificate of patent or registration of utility model

Ref document number: 5518007

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250