JP6119153B2 - 前方車両検知方法及び前方車両検知装置 - Google Patents

前方車両検知方法及び前方車両検知装置 Download PDF

Info

Publication number
JP6119153B2
JP6119153B2 JP2012202889A JP2012202889A JP6119153B2 JP 6119153 B2 JP6119153 B2 JP 6119153B2 JP 2012202889 A JP2012202889 A JP 2012202889A JP 2012202889 A JP2012202889 A JP 2012202889A JP 6119153 B2 JP6119153 B2 JP 6119153B2
Authority
JP
Japan
Prior art keywords
vehicle
light
image
area
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012202889A
Other languages
English (en)
Other versions
JP2013080460A (ja
Inventor
ドゥ チョン
ドゥ チョン
リイェヌ リィウ
リイェヌ リィウ
シアオモン ワン
シアオモン ワン
フゥ ピン
フゥ ピン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Publication of JP2013080460A publication Critical patent/JP2013080460A/ja
Application granted granted Critical
Publication of JP6119153B2 publication Critical patent/JP6119153B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Lighting Device Outwards From Vehicle And Optical Signal (AREA)

Description

本発明は、車両検知方法および車両検知装置に関し、より具体的には、前方車両検知方法および前方車両検知装置に関する。
夜間運転は、昼に比べて視野が悪くなることから、道路交通事故の主な要因の一つとなっている。夜間運転時、車両のハイビーム(例えば、上向き光線)は、運転手により良好な視野を与えることができる一方、向こう側の運転手に一定の危険をもたらす恐れもある。運転手にとっては、手動によるハイ/ロービームの頻繁な調整は、運転の利便性がよくない。
特許文献1(米国特許US7,512,252B2)には、一つの車載ビデオカメラを用いて、長時間露光と短時間露光をそれぞれ行い、2つの画像を取得し、該異なる露光による2つの画像から、画像特徴に応じたテールライト、ヘッドライトや、他のライト(例えば、信号灯や、街路灯等)の識別を行う車両検知システムが提案されている。
該特許文献1においては、日本における車両の左側通行をもとに、ヘッドライトを画像の右半分に、テールライトを画像の左半分に仮設しているが、実際の道路状況を考えると、道路は常に直線ではなく、通常、複数の車道があることから、該仮設が必ずしも正確とはいえない。なお、該特許においては、消失ポイントと検知されたライトの位置関係を比較して、該ライトが車両からのものかを判定しているが、非平坦道路(例えば、坂道)の場合は、該仮設が必ずしも正確とはいえない。また、該特許においては、露光の強さ制御により、テールライトが長時間画像のみに出現するようにしているが、ライトの強さは、ヘッドライトや、テールライトのみに関係しているとはいえず、たとえば、近距離の車両のテールライトが遠距離の車両のヘッドライトよりもライトの強さが大きく、より明るい等、ライトは、自車両の距離にも関係していることから、該仮設は、必ずしも正確とはいえない。
また、特許文献2(米国特許US7,429,825B2)には、自車両の後方車両情報を取得する後方車両情報捕獲モジュールと、後方車両の情報により、自車両に対する追い越しを予測する追越行為予測モジュールと、予測した追越行為から、所定のモード切替条件を満たすか否かを判断するモード切替条件判定モジュールと、所定のモード切替条件を満たすと、ハイビームとロービーム間の自動切換えを行う自動モード設定モジュールを備えた車ライト制御システムが提案されている。
しかしながら、該特許文献2における車ライト制御システムでは、夜間道路の白線(車道)検知による、自車両と同一の車道内の後方車両の検知しか行われておらず、自車両の前方車両の検知は行われていない。
このため、夜間の自車両の前方車両の検知が可能な方法及び装置が求められている。
本発明は、前述の問題に鑑みてなされたものであり、自車両の前方の一対の移動ライトの検知により、前記移動ライトが所定の車ライト特徴を満たすものか否かを判断することで、自車両の前方車両を検知する自車両の前方車両の検知方法及び装置を提供することを目的とする。
本発明の一態様においては、一つのタイミングで得られた自車両の前方シーンの少なくとも一つの画像により、前記自車両の前方の移動ライト領域を検知するステップと、前記検知された前方の移動ライト領域から一対のライト領域を抽出して、前方車両候補を生成するステップと、前記前方車両候補が所定の車ライト特徴を満たした場合は、前記前方車両候補を前方車両と決定するステップとを含む、前方車両検知方法を提供する。
また、前記前方車両検知方法において、前記前方の移動ライト領域を検知するステップは、前記少なくとも一つの画像中の第1の画像により、前記ライト領域を抽出するステップと、前記抽出されたライト領域と前記自車両との間の距離を計算するステップと、前記抽出されたライト領域と一つ前のタイミングで得られた少なくとも一つの画像における第1の画像中のライト領域とのマッチングを行うステップと、前記抽出されたライト領域が所定の移動ライト領域特徴を満たした場合は、前記抽出されたライト領域を前方の移動ライト領域と決定するステップとを含むことが好ましい。
また、前記前方車両検知方法において、前記一対のライト領域を抽出する前に、前記少なくとも一つの画像中の第1の画像から、車両層を検知するステップと、前記車両層の上方の移動ライト領域を除去するステップとをさらに含むことが好ましい。
また、前記前方車両検知方法において、前記一対のライト領域を抽出して前方車両候補を生成するステップは、前記少なくとも一つの画像中の第1の画像において、同様の速度を有し且つ対称のライト領域により、前記一対のライト領域を構成するステップと、前記一対のライト領域を構成するライト領域を1つの領域に併合し、前方車両候補を取得するステップとを含むことが好ましい。
また、前記一対のライト領域を構成した後に、各前記一対のライト領域に対し、該一対のライト領域を横切る直線を生成し、該直線の傾斜度を計算するとともに、該直線が横切ったライトの数を計算するステップと、最も多いライトを横切った直線を検知するステップと、前記最も多いライトを横切った直線の傾斜度が所定の傾斜度範囲内にある場合、前記最も多いライトを横切った直線により横切られるライトを除去するステップとをさらに含むことが好ましい。
また、前記前方車両検知方法において、前記少なくとも一つの画像における第1の画像により決定された前方車両の位置と一つ前のタイミングで得られた少なくとも一つの画像における第1の画像により決定された前方車両の位置とのマッチングを行い、前方車両の位置追跡を行うステップをさらに含むことが好ましい。
本発明の他の態様においては、一つのタイミングで得られた自車両の前方シーンの少なくとも一つの画像により、前記自車両の前方の移動ライト領域を検知する移動ライト検知部と、前記検知された前方の移動ライト領域から一対のライト領域を抽出して、前方車両候補を生成する車両候補生成部と、前記前方車両候補が所定の車ライト特徴を満たした場合は、前記前方車両候補を前方車両と決定する車両候補検証部と、を備えた前方車両検知装置を提供する。
また、前記前方車両検知装置において、前記移動ライト検知部は、前記少なくとも一つの画像中の第1の画像により、前記ライト領域を抽出するライト領域抽出部と、前記抽出されたライト領域と前記自車両との間の距離を計算する距離計算部と、前記抽出されたライト領域と一つ前のタイミングで得られた少なくとも一つの画像における第1の画像中のライト領域とのマッチングを行うライト領域マッチング部と、前記抽出されたライト領域が所定の移動ライト領域特徴を満たした場合は、前記抽出されたライト領域を前方の移動ライト領域と決定する移動ライト決定部と、を含むことが好ましい。
また、前記前方車両検知装置において、前記車両候補生成部は、同様の速度を有し且つ対称のライト領域により、前記一対のライト領域を構成する一対ライト抽出部と、前記一対のライト領域を構成するライト領域を1つの領域に併合し、前方車両候補を取得する一対ライト併合部と、を含むことが好ましい。
また、前記前方車両検知装置において、前記少なくとも一つの画像における第1の画像により決定された前方車両の位置と一つ前のタイミングで得られた少なくとも一つの画像における第1の画像により決定された前方車両の位置とのマッチングを行い、前方車両の位置追跡を行う位置追跡部をさらに含むことが好ましい。
本発明の前方車両検知方法及び装置によると、移動ライトを検知し、かつ検知された移動ライトが車ライトの特徴を満たすか否かを検証することにより、自車両の前方車両を正確に検知することが可能になる。
本発明の以上の目的及び他の目的、特徴、長所、技術及び産業上の重要性が容易に理解できるように、以下、図面を参照して、本発明の実施例について詳細に説明する。
本発明の実施例における前方車両検知方法のフローチャートである。 本発明の実施例における移動ライト領域の検知フローチャートである。 本発明の実施例における前方車両候補の生成フローチャートである。 本発明の実施例における車両層の抽出フローチャートである。 本発明の実施例における車両層の抽出図である。 本発明の実施例における反射プレートの検知フローチャートである。 本発明の実施例における反射プレートの除去を示した図である。 本発明の実施例における直線のライト領域通過有無を判断する例を示した図である。 本発明の実施例における前方車両検知方法の適用例を示した図である。 本発明の実施例における前方車両検知装置のブロック図である。 本発明の実施例における移動ライト検知部のブロック図である。 本発明の実施例における車両候補生成部のブロック図である。 本発明の実施例における前方車両検知装置に含まれる他の構成部のブロック図である。 本発明の実施例における前方車両検知装置の適用例を示した図である。 夜間の前方車両検知による車両ヘッドライト制御システムを示した図である。
以下、図面を参照しながら、本発明の実施例における前方車両検知方法及び装置について説明する。
先ず、図1を参照して、本発明の実施例における自車両の前方車両検知方法100を説明する。
本発明の実施例における前方車両検知方法100は、ステップS101からスタートする。
ステップS110において、1タイミングに得られた自車両の前方シーンの少なくとも1画像により、前記自車両の前方の移動ライト領域を検知する。
次に、ステップS120において、検知された前方の移動ライト領域からライト領域対を抽出して、前方車両候補を生成する。
次に、ステップS130において、前記前方車両候補が所定の車ライト特徴を満たすと、前記前方車両候補を前方車両と検証する。
例として、ステップS130において、サポート・ベクトル・マシン(Support Vector Machine−SVM)分類器により、前方車両候補の検証を行う。前処理において、画像の特徴(例えば、アスペクト比、ヒストグラム、エッジ特徴、投影特徴等)を抽出して、SVM分類器を訓練する。検証工程において、ステップS120で得られた各前方車両候補に対し、同様の特徴を抽出するとともに、SVM分類器の入力とする。次に、SVM分類器から1または-1を出力することで、該前方車両候補が車ライト(車両)であるか否かを判定する。例えば、SVM分類器から1が出力されると、該前方車両候補が車ライト(車両)であることを表し、SVM分類器から-1が出力されると、該前方車両候補が車ライト(車両)ではないことを表している。
他の例として、ステップS130において、主成分分析分類器(Principle Component Analysis−PCA)により、前方車両候補の検証を行う。前処理において、車ライトのみを含む複数の画像ブロックを選出し、車両画像空間の固有ベクトルの訓練を行うとともに、他のグループの車ライト画像を前記固有ベクトルからなる固有空間に投影し、投影集合Tを得る。検証工程においては、ステップS120で得られた各前方車両候補を、訓練から得られた固有空間に投影し、投影ベクトルを得る。次に、該投影ベクトルと前記投影ベクトル集合Tにおける各投影ベクトル間の距離を計算する。最小距離が所定のある閾値未満になると、自前方車両候補が、検知された前方車両候補となり、それ以外の場合は、ノイズライトと見なされる。
最後に、本発明の実施例における前方車両検知方法100は、ステップS199で終了する。
以下、図2を参照して、図1におけるステップS110の移動ライト領域の検知フローチャートを説明する。
先ず、ステップS1110において、前記少なくとも1画像中の第1の画像から、ライト領域を抽出する。
次に、ステップS1120において、抽出されたライト領域と、前記自車両間の距離
(外1)
を計算する。
ここで、夜間は、例えば、「ノイズ」ライトとなる、建築物のライトや、街路灯や、反射プレートのライト等の、多くのライトが車両ライトと外形上非常に類似していることから、単一の画像から車両ライト位置を検知することは非常に困難である。
このため、ステップS1120において、少なくとも2つのウェブカメラ(例えば、双眼ウェブカメラ)で撮像された少なくとも2つの固有視差を有する画像により、即ち、少なくとも2つの画像により、抽出されたライト領域と前記自車両間の距離の算出を行うことが好ましい。
また、代わりに、単一のウェブカメラにより、単一の画像を撮像し、例えば、赤外による距離測定等、他の方式により、抽出されたライト領域と前記自車両間の距離を測定してもよい。
次に、ステップS1130において、抽出されたライト領域と、前の1タイミングに得られた少なくとも1画像における第1の画像中のライト領域とのマッチングを行う。
例として、該ステップS1130において、テンプレートマッチング法により、抽出された各ライト領域に対し、該ライト領域のヒストグラムを計算し、かつ前の1タイミングに得られた対応画像から、該ライト領域と最も近接する領域を検索するとともに、該最近接領域内の各画像ブロックのヒストグラムを算出し、その後、抽出された該ライト領域のヒストグラムと算出された各画像ブロックのヒストグラムの比較を行う。計算は、下記式により行われる。
ここで、SDは、2つのヒストグラム間の距離を表し、
(外2)
は、現画像から抽出されたライト領域のヒストグラムの第iの値を表し、
(外3)
は、前の1タイミングに得られた画像中の前記最近接領域内の第kの画像ブロックのヒストグラムの第iの値を表し、binsは、ヒストグラムのグレースケールの数を表し、例えば、256を表す。最小のSDの値が、ある所定の閾値未満になると、抽出されたライト領域と前記最近接領域内の最小のSD値の画像ブロック(即ち、ライト領域)とのマッチングが成功したと判断される。
次に、ステップS1140において、抽出されたライト領域が所定の移動ライト領域特徴を満たすか否かを判断する。
最後に、ステップS1150において、抽出されたライト領域を前方の移動ライト領域と決定する。
例として、ステップS1140において、前記距離
(外4)
と、前の1タイミングでマッチングされたライト領域と前記自車両間の距離
(外5)
と、前記自車両の移動速度
(外6)
と、により、抽出されたライト領域の移動速度
(外7)
を計算する。計算は、下記式により行われる。
なお、ステップS1140において、該移動速度が所定の閾値を超えたか否かを判断する。次に、ステップS1150において、移動速度が所定閾値を超えたライト領域を、前方の移動ライト領域とする。
他の例として、ステップS1140において、抽出されたライト領域のサイズが、前の1タイミングに得られた対応画像中の対応ライト領域のサイズよりも小さくなるか否かを判断する。次に、ステップS1150において、抽出されたライト領域のサイズが、前の1タイミングに得られた対応画像中の対応ライト領域のサイズよりも小さくなると、抽出されたライト領域を前方の移動ライト領域とする。
また、他の例として、ステップS1140において、抽出されたライト領域と消失点間の距離が、前の1タイミングに得られた対応画像中の対応ライト領域と消失点間の距離よりも小さくなるか否かを判断する。次に、ステップS1150において、抽出されたライト領域と消失点間の距離が、前の1タイミングに得られた対応画像中の対応ライト領域と消失点間の距離よりも小さくなると、抽出されたライト領域を前方の移動ライト領域とするとともに、該移動ライト領域が前向き運転(即ち、自車両と同様の運転方向)であると判断する。ここで、画像中の消失点は当該分野の公知概念であるため、詳細な説明は割愛する。
また、ステップS1110において、先ず、前記少なくとも1画像中の第1の画像(該画像自体が、階調画像であるか、該画像を予め階調画像に変換する)を2値化画像に変換した後、再度、生成された2値化画像からライト領域を抽出することが好ましいが、本発明は、これに限られるものではなく、前記少なくとも1画像中の第1の画像を2値化画像に変換することなく、直接、前記少なくとも1画像中からライト領域を抽出してもよい。
例として、ステップS1110において、前記少なくとも1画像における第1の画像の階調画像中の各画素値と所定の閾値T_Binarizationとの比較を行い、現画素の階調値が閾値を超えた場合は、該画素値を255に設定し、それ以外の場合は、該画素値を0に設定することで、該当する2値化画像が生成される。次に、2値化画像において、連通域分析法(Connect Component Analysis−CCA)により、画像中の全連通域の位置及びサイズを取得するとともに、各連通域の幅と高さを算出する。連通域の幅を、CC.width、高さを、CC.heightとし、連通域の閾値の幅を、T_CCWidth、閾値の高さを、T_CCheightとし、閾値の幅/高さ比を、T_CCAspectとする。例えば、ある連通域が下記条件(式(3))を満足すると、該連通域をライト領域と判断することができる。
CC.width > T_CCWidth
CC.height > T_CCHeight (3)
CC.width / CC.height < T_CCAspect
なお、連通域分析法は、当該分野の公知技術であるため、詳細の説明は割愛する。
ここで、前記第1の画像の2値化画像によるライト領域の抽出後、前記第1の画像による後処理を行う。
以下、図3を参照して、図1におけるステップS120の前方車両候補の生成フローチャートを説明する。
先ず、ステップS1210において、前方の移動ライト領域の検知後、前記第1の画像から、同様の速度を有しかつ対称の移動ライト領域を、一対のライトを構成するものとする。
次に、ステップS1220において、一対のライトを構成するライト領域を1つの領域に併合し、前方車両候補を取得する。
なお、2つのライト領域が垂直方向において互いに重畳している場合、かつ、該2つのライト領域からなる囲い矩形のアスペクト比が所定の閾値未満になる場合は、該2つのライト領域を1つの領域に併合する。
前述のように、夜間は、例えば、「ノイズ」ライトとなる、建築物のライトや、街路灯や、反射プレートのライト等の、多くのライトが車両ライトと外形上非常に類似している。ステップS110で得られた移動ライト領域には、依然として、一部の建築物のライトや、一部の街路灯や、一部の反射プレートのライト等、非真実の移動ライト領域が存在する可能性がある。このため、得られた移動ライト領域から、これらの非真実の移動ライト領域を除去する必要がある。
本発明においては、車両層抽出方法及び反射プレート除去方法を用いることができる。該車両層抽出方法においては、画像中の「車両層」を検知するとともに、該「車両層」の上方に位置する、検知されたライト(例えば、一部の街路灯、建築物上のライト)を、「ノイズ」として除去し、前記反射プレート除去方法においては、画像中の「反射プレート」を検知し除去する。
次に、図4を参照して、車両層の抽出フローチャートを説明する。
ステップS410において、前記第1の画像から車両層を検知する。例えば、前記第1の画像を、下から上に、複数の層に分割し、各層におけるライトの数を計算する。ある層が、最多の数のライトを有し、かつ該数が所定の閾値を超えた場合、該層を、車両層と設定する。
ステップS420において、前記車両層の上方に出現する移動ライト領域を除去する。例えば、前記車両層の上方に出現するライトを、ノイズライトとして除去する。全層のライト数がいずれも閾値未満になると、検知された車両層がないことになる。図5は、車両層の検知を示している。
ここで、車両層の検知は、本発明に必要不可欠なステップではないことは、理解すべきである。
次に、図6を参照して、反射プレートの検知フローチャートを説明する。
ステップS610において、前記第1の画像で、生成された各一対のライトに対し、該一対のライトを横切る直線を生成し、該直線の傾斜度を計算するとともに、該直線が横切ったライトの数を計算する。
例として、一対のライトにおける2つのライトの中心点をそれぞれ、(a1,b1)と(a2,b2)とし、下記式(4)により、該一対のライトを横切る直線の傾斜度を計算するとともに、式(5)により、該直線とy軸の交差点の座標(0,b)を計算する。
次に、ステップS620において、最多のライトを横切った直線を検知する。また、直線と該直線が横切ったライトの関連付けを行うことが好ましい。
例えば、ライトが4つの点から表され(例えば、図8に図示したように)、該4つの点の座標がそれぞれ
(外8)
であるとした場合、下記条件(式(6)と式(7)のいずれか)を満足すると、該直線は該ライトを横切ると判断する。
次に、ステップS630において、最多のライトを横切った直線の傾斜度が所定の傾斜度範囲内にあるか判断する。最後に、ステップS640において、前記最多のライトを横切った直線により横切られるライトを除去する。
例として、直線の傾斜度kがある所定の閾値範囲内にあると、例えば、k>0.5或いはk<-0.5であると、該直線が横切るライトを、ノイズライトとして除去する。
図7に示されたように、一対のライト9、10の位置する直線上のライトである、ライト9、10、11、14、16が除去される。
なお、本発明の実施例による前方車両検知方法においては、前方車両候補が前方車両であることの検証後に、さらに追跡ステップを含むことが好ましい。該追跡ステップにおいては、前の1タイミングに得られた少なくとも1画像中の第1の画像から検知された車両位置に基づき、現タイミングに得られた少なくとも1画像中の第1の画像における車両位置を計算する。
例として、該追跡ステップにおいては、テンプレートマッチング方法を用いており、即ち、現画像において、前の1タイミングに得られた画像において検知された車両位置に基づき、隣接領域内の各画像ブロックのヒストグラムを計算後、前の1タイミングに得られた画像から検知された車両画像ブロックのヒストグラムとの比較を行う。計算は、下記の式により行われる。
ここで、SDは、2つのヒストグラム間の距離を表し、
(外9)
は、現画像中の第kの隣接域の画像ブロックのヒストグラムの第iの値を表し、
(外10)
は、前の1タイミングに得られた画像中の検知された車両画像ブロックのヒストグラムの第iの値を表し、binsは、ヒストグラムのグレースケールの数を表し、例えば、256を表す。最小のSD値を有する隣接域が、予測車両の位置となる。最小のSD値が依然としてある所定の閾値を超えた場合は、前の1タイミングに得られた画像中の検知された車両が現画像から既に消失したことを意味するため、現画像にはマッチング結果が存在しないことになる。
他の例として、該追跡ステップは、検知された車両の速度を予測し、さらに、前の1タイミングに得られた画像中の検知された車両が現画像中で出現し得る位置を予測することにより、現画像中の比較的に小範囲の検索範囲を決定し、該範囲内で、テンプレートマッチング方法を用いて、車両の位置を予測するカルマンフィルタ方法を用いてもよい。
次に、図9を参照して、本発明の実施例における前方車両検知方法の1適用例を説明する。
本発明の実施例による前方車両検知方法によると、自車両の前方車両の自動検知が可能になる。自車両においては、検知結果に応じた、車両ヘッドライトのハービーム/ロービーム(例えば、上向きライト、下向きライト)の自動調整が可能になる。
応用例として、前方視野内に車両がないと、自動的にハイビーム(上向きライト)ONとなり、前方車両ありと検知された場合は、自動的にロービーム(下向きライト)状態に調整される。該応用においては、自車両の運転手への良好な視野の提供が可能になるとともに他の運転手への妨害を、最大限減らすことができる。
他の応用例として、自車両による、ビーム照射領域の自動制御を可能にし、車両が検知された領域にのみロービームを使用し、他の領域にはハイビームを用いるようにしてもよい(図9参照)。
前述のように、本発明の実施例による前方車両検知方法によると、自車両の前方車両の自動検知が可能になる。自車両においては、検知された前方車両に応じた、自動車速制御(Automatic Cruise Control−ACC)や、前方衝突警告(Forward Collision Warning−FCW)等が可能になる。
次に、図10を参照して、本発明の実施例における前方車両検知装置1000のブロック図を説明する。
本発明の実施例における前方車両検知装置1000は、少なくとも1つのウェブカメラにより撮像された自車両の前方シーンの画像が入力されるとともに、少なくとも1つの画像の前処理を行い、自車両の前方車両を検知する。
また、前記少なくとも1つのウェブカメラは、少なくとも2つのウェブカメラ(例えば、双眼ウェブカメラ)であり、車両のバックミラーに近接する箇所に設けられ、自車両の前方シーンの画像捕獲に用いられることが好ましい。
本発明の実施例による前方車両検知装置1000は、移動ライト検知部1010と、車両候補生成部1020と、車両候補検証部1030を備えている。
移動ライト検知部1010は、1タイミングに得られた自車両の前方シーンの少なくとも1画像により、前記自車両の前方の移動ライト領域を検知する。
車両候補生成部1020は、検知された前方の移動ライト領域からライト領域対を抽出して、前方車両候補を生成する。
車両候補検証部1030は、前記前方車両候補が所定の車ライト特徴を満たすと、前記前方車両候補を前方車両と検証する。
例として、前記車両候補検証部1030は、サポート・ベクトル・マシン(SVM)分類器により、前方車両候補の検証を行う。前記SVM分類器においては、画像の特徴(例えば、アスペクト比、ヒストグラム、エッジ特徴、投影特徴等)が既に訓練済みである。前記車両候補検証部1030は、得られた各前方車両候補が入力され、該前方車両候補から、前記特徴を抽出するとともに、抽出した特徴を該車両候補検証部1030に含まれているSVM分類器に入力する。次に、SVM分類器から1または-1を出力することで、該前方車両候補が車ライト(車両)であるか否かの判定を行う。
他の例として、前記車両候補検証部1030は、主成分分析分類器(PCA)により、前方車両候補の検証を行う。前記主成分分析分類器においては、車両画像空間の固有ベクトル及び前記固有ベクトルからなる固有空間の訓練が既になされ、さらに、1グループの車ライト画像の前記固有空間における投影ベクトル集合Tが備えられている。前記車両候補検証部1030は、得られた各前方車両候補が入力され、前記車両候補検証部1030に含まれる主成分分析分類器は、該前方車両候補を前記固有空間に投影し、投影ベクトルを得るとともに、該投影ベクトルと前記投影ベクトル集合Tにおける各投影ベクトル間の距離を計算する。前記車両候補検証部1030は、最小距離が所定のある閾値未満になると、前方車両候補を、前方車両と検証する。
図11は、本発明の実施例における移動ライト検知部1010のブロック図である。
該移動ライト検知部1010は、ライト領域抽出部1011と、距離計算部1012と、ライト領域マッチング部1013と、移動ライト決定部1014を有する。
ライト領域抽出部1011は、前記少なくとも1画像中の第1の画像から、ライト領域を抽出する。
距離計算部1012は、抽出されたライト領域と、前記自車両間の距離
(外11)
を計算する。
ライト領域マッチング部1013は、抽出されたライト領域と、前の1タイミングに得られた少なくとも1画像における第1の画像中のライト領域とのマッチングを行う。
例として、ライト領域マッチング部1013は、テンプレートマッチング法を用いて、前記式(1)により、抽出された各ライト領域のヒストグラムと、前の1タイミングに得られた対応画像中の、最近接領域内の各画像ブロックのヒストグラムとの比較を行い、最小のSD値を決定する。最小のSDの値が、ある所定の閾値未満になると、抽出されたライト領域と前記最近接領域内の最小のSD値の画像ブロック(即ち、ライト領域)とのマッチングが成功したと判断される。
移動ライト決定部1014は、抽出されたライト領域が所定の移動ライト領域特徴を満たすと、抽出されたライト領域を前方の移動ライト領域と決定する。
例として、移動ライト決定部1014は、前記距離
(外12)
と、前の1タイミングでマッチングされたライト領域と前記自車両間の距離
(外13)
と、前記自車両の移動速度
(外14)
と、により、前記式(2)に示されたように、抽出されたライト領域の移動速度
(外15)
を計算する。さらに、移動ライト決定部1014は、該移動速度が所定の閾値を超えたか否かを判断するとともに、移動速度が所定閾値を超えたライト領域を、前方の移動ライト領域とする。
他の例として、移動ライト決定部1014は、抽出されたライト領域のサイズが、前の1タイミングに得られた対応画像中の対応ライト領域のサイズよりも小さくなるか否かを判断し、抽出されたライト領域のサイズが、前の1タイミングに得られた対応画像中の対応ライト領域のサイズよりも小さくなると、抽出されたライト領域を前方の移動ライト領域とする。
また、他の例として、移動ライト決定部1014は、抽出されたライト領域と消失点間の距離が、前の1タイミングに得られた対応画像中の対応ライト領域と消失点間の距離よりも小さくなるか否かを判断し、抽出されたライト領域と消失点間の距離が、前の1タイミングに得られた対応画像中の対応ライト領域と消失点間の距離よりも小さくなると、抽出されたライト領域を前方の移動ライト領域とするとともに、該移動ライト領域が前向き運転(即ち、自車両と同様の運転方向)であると判断する。
また、本発明の実施例による前方車両検知装置1000は、前記少なくとも1画像中の第1の画像(該画像自体が、階調画像であるか、該画像を予め階調画像に変換する)を2値化画像に変換し、生成された2値化画像からライト領域を抽出する2値化部(未図示)をさらに備えることが好ましいが、該2値化部は、本発明の実施例による前方車両検知装置1000に必要不可欠な部材ではない。
該2値化部は、前記少なくとも1画像における第1の画像の階調画像中の各画素値と所定の閾値T_Binarizationとの比較を行い、現画素の階調値が閾値を超えた場合は、該画素値を255に設定し、それ以外の場合は、該画素値を0に設定することで、該当する2値化画像が生成される。
この場合、例として、ライト領域抽出部1011は、連通域分析法(Connect Component Analysis−CCA)により、画像中の全連通域の位置及びサイズを取得するとともに、各連通域の幅と高さを算出し、ある連通域が前記条件(式(3))を満足すると、該連通域をライト領域とする。
図12は、本発明の実施例における車両候補生成部1020のブロック図である。
車両候補生成部1020は、一対ライト抽出部1021と、一対ライト併合部1022を有する。
一対ライト抽出部1021は、前記第1の画像から、同様の速度を有しかつ対称の移動ライト領域を、一対のライトを構成するものとする。
一対のライト併合部1022は、一対のライトを構成するライト領域を1つの領域に併合し、前方車両候補を取得する。なお、一対のライト併合部1022は、2つのライト領域が垂直方向において互いに重畳している場合、かつ、該2つのライト領域からなる囲い矩形のアスペクト比が所定の閾値未満になる場合は、該2つのライト領域を1つの領域に併合することが好ましい。
図13は、本発明の実施例における前方車両検知装置1000に含まれる他の構成部のブロック図である。
本発明の実施例における前方車両検知装置1000は、車両層抽出部1040と、反射プレート抽出部1050と、車両追跡部1060をさらに有する。
車両層抽出部1040は、前記第1の画像から車両層を検知する。例えば、前記第1の画像を、下から上に、複数の層に分割し、各層におけるライトの数を計算する。ある層が、最多の数のライトを有し、かつ該数が所定の閾値を超えた場合、該層を、車両層と設定する。次に、車両層抽出部1040は、前記車両層の上方に出現する移動ライト領域を除去する。例えば、前記車両層の上方に出現するライトを、ノイズライトとして除去する。車両層抽出部1040は、全層のライト数がいずれも閾値未満になると、検知された車両層がないと判断し、ライト除去処理は行わない。
反射プレート抽出部1050は、直線生成部と、反射プレート直線検知部と、反射プレート除去部をさらに有することが好ましい。
直線生成部は、前記第1の画像において、前記一対ライト抽出部から抽出された各一対のライトに対し、前記式(4)と(5)により、該一対のライトを横切る直線を計算するとともに、該直線が横切ったライトの数を計算する。
前記反射プレート直線検知部は、最多のライトを横切った直線を検知する。
前記反射プレート除去部は、前記反射プレート直線検知部から検知された直線の傾斜度が所定の傾斜度範囲内にあるか判断し、前記傾斜度が所定の傾斜度範囲内にあると、前記最多のライトを横切った直線により横切られるライトを除去する。
例として、直線の傾斜度kが、例えば、k>0.5或いはk<-0.5であるように、ある所定の閾値範囲内にあると、該直線が横切るライトを、ノイズライトとして除去する。
車両追跡部1060は、前の1タイミングに得られた少なくとも1画像中の第1の画像から検知された車両位置に基づき、現タイミングに得られた少なくとも1画像中の第1の画像における車両位置を計算する。
例として、車両追跡部1060は、テンプレートマッチング方法を用い、即ち、現画像において、前の1タイミングに得られた画像において検知された車両位置に基づき、隣接領域内の各画像ブロックのヒストグラムを計算後、前記式(8)を用いて、前の1タイミングに得られた画像から検知された車両画像ブロックのヒストグラムとの比較を行う。最小のSD値を有する隣接域が、予測車両の位置となる。最小のSD値が依然としてある所定の閾値を超えた場合は、前の1タイミングに得られた画像中の検知された車両が現画像から既に消失したことを意味する。
他の例として、車両追跡部1060は、検知された車両の速度を予測し、さらに、前の1タイミングに得られた画像中の検知された車両が現画像中で出現し得る位置を予測することにより、現画像中の比較的に小範囲の検索範囲を決定し、該範囲内で、テンプレートマッチング方法を用いて、車両の位置を予測するカルマンフィルタ方法を用いてもよい。
図14は、本発明の実施例における前方車両検知装置1000の応用例をしめした図である。
本発明の実施例による前方車両検知装置1000においては、図15に示されたように、ヘッドライト制御部2010とともに、車両ヘッドライト制御システム100を構成することができる。
車両ヘッドライト制御システム100は、双眼ウェブカメラ101と、前方車両検知装置102と、ヘッドライト制御モジュール103(たとえば、ヘッドライト制御部2010)と、ヘッドライト104と、速度センサー105を有する。
双眼ウェブカメラ101は、車両のバックミラー付近に位置する。前方車両検知装置102は、本発明の実施例による前方車両検知装置1000からなる。
ヘッドライト制御モジュール103は、前方車両検知装置102からの前方車両検知結果が入力されるとともに、該検知結果に応じた、車両ヘッドライトのハービーム/ロービーム(例えば、上向きライト、下向きライト)の自動調整が可能になる。
例えば、ヘッドライト制御モジュール103は、前方視野内に車両がないと、自動的にハイビーム(上向きライト)ONとなり、前方車両ありと検知された場合は、自動的にロービーム(下向きライト)状態に調整される。該応用においては、自車両の運転手への良好な視野の提供が可能になるとともに他の運転手への妨害を、最大限減らすことができる。
例えば、ヘッドライト制御モジュール103は、ビーム照射領域を自動制御し、車両が検知された領域にのみロービームを使用し、他の領域にはハイビームを用いるようにしてもよい(図9参照)。
なお、本発明の実施例による前方車両検知装置1000は、自動車速制御部2020とともに、自動車速制御システムを構成することができる。
また、本発明の実施例による前方車両検知装置1000は、前方衝突警告部2030とともに、前方衝突警告システムを構成することができる。
しかし、本発明の実施例による前方車両検知方法及び装置は、前述の応用に限られるものではない。
本発明の実施例による前方車両検知方法及び装置は、2つの異なるタイミングに得られた画像により、ライトの移動速度を予測し、予測した移動速度により、移動ライトを検知するとともに、移動ライトの特徴により、「ノイズライト」を除去することで、自車両の前方車両を正確に検知することができる。
ここで、ハードウェア、ソフトウェア、ファームウェア、専用プロセッサーや、これらの組み合わせ等の各種形式により、本発明の実施例による前方車両検知方法及び装置を実現できることは、言うまでもない。
なお、ソフトウェアにより、図示された一部の構成システム部材や方法を実施することが好ましく、これらのシステム部材や処理機能モジュール間の実際の接続は、本発明でプログラミングされた形式によって異なってもよい。当業者は、以上の説明から、本発明のこれらの実施や配置、及び類似の実施や配置を想到することができる。
以上、図面を参照して本発明の一部の実施例を説明したが、前述の実施例は一例に過ぎず、本発明は、これらに限定されるものではない。当業者は、特許請求範囲及び同等物に限定された本発明の範囲と精神を逸脱しない範囲内の、これらの実施例への種々の形式及び細部上の変更ができることは言うまでもない。
米国特許第US7512252B2号明細書 米国特許第US7429825B2号明細書

Claims (8)

  1. 一つのタイミングで得られた自車両の前方シーンの少なくとも一つの画像により、前記自車両の前方の移動ライト領域を検知する移動ライト検知部と、
    前記少なくとも一つの画像中の第1の画像から車両層を検知し、前記車両層の上方の移動ライト領域を除去する車両層抽出部と、
    前記車両層の上方の移動ライト領域が除去された後に前記検知された前方の移動ライト領域から一対のライト領域を抽出して、前方車両候補を生成する車両候補生成部と、
    前記前方車両候補が所定の車ライト特徴を満たした場合は、前記前方車両候補を前方車両と決定する車両候補検証部と、を備えた前方車両検知装置。
  2. 前記移動ライト検知部は、
    前記少なくとも一つの画像中の第1の画像により、前記ライト領域を抽出するライト領域抽出部と、
    前記抽出されたライト領域と前記自車両との間の距離を計算する距離計算部と、
    前記抽出されたライト領域と一つ前のタイミングで得られた少なくとも一つの画像における第1の画像中のライト領域とのマッチングを行うライト領域マッチング部と、
    前記抽出されたライト領域が所定の移動ライト領域特徴を満たした場合は、前記抽出されたライト領域を前方の移動ライト領域と決定する移動ライト決定部と、を含む、請求項に記載の前方車両検知装置。
  3. 前記車両候補生成部は、
    同様の速度を有し且つ対称のライト領域により、前記一対のライト領域を構成する一対ライト抽出部と、
    前記一対のライト領域を構成するライト領域を1つの領域に併合し、前方車両候補を取得する一対ライト併合部と、を含む、請求項に記載の前方車両検知装置。
  4. 前記少なくとも一つの画像における第1の画像により決定された前方車両の位置と一つ前のタイミングで得られた少なくとも一つの画像における第1の画像により決定された前方車両の位置とのマッチングを行い、前方車両の位置追跡を行う位置追跡部をさらに含む、請求項に記載の前方車両検知装置。
  5. 前記車両層抽出部は、前記第1の画像を、下から上に、複数の層に分割し、各層におけるライトの数を計算し、最多の数のライトを有し、かつ該数が所定の閾値を超えた場合、該層を、車両層とする請求項1に記載の前方車両検知装置。
  6. 各前記一対のライト領域に対し、該一対のライト領域を横切る直線を生成し、該直線の傾斜度を計算するとともに、該直線が横切ったライトの数を計算する直線生成部と、
    最も多いライトを横切った直線を検知する直線検知部と、
    前記最も多いライトを横切った直線の傾斜度が所定の傾斜度範囲内にある場合、前記最も多いライトを横切った直線により横切られるライトを除去するライト除去部とをさらに含む、請求項3に記載の前方車両検知装置。
  7. 請求項1乃至6のいずれか1項に記載の前方車両検知装置と、
    前記前方車両検知装置が検知した結果に基づいて所定の機器を制御する機器制御部と、を備える機器制御システム。
  8. コンピュータを
    一つのタイミングで得られた自車両の前方シーンの少なくとも一つの画像により、前記自車両の前方の移動ライト領域を検知する移動ライト検知部と、
    前記少なくとも一つの画像中の第1の画像から車両層を検知し、前記車両層の上方の移動ライト領域を除去する車両層抽出部と、
    前記車両層の上方の移動ライト領域が除去された後に前記検知された前方の移動ライト領域から一対のライト領域を抽出して、前方車両候補を生成する車両候補生成部と、
    前記前方車両候補が所定の車ライト特徴を満たした場合は、前記前方車両候補を前方車両と決定する車両候補検証部と、を備えた前方車両検知装置として機能させるプログラム。
JP2012202889A 2011-09-30 2012-09-14 前方車両検知方法及び前方車両検知装置 Active JP6119153B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201110297126.6 2011-09-30
CN201110297126.6A CN103029621B (zh) 2011-09-30 2011-09-30 检测前方车辆的方法及设备

Publications (2)

Publication Number Publication Date
JP2013080460A JP2013080460A (ja) 2013-05-02
JP6119153B2 true JP6119153B2 (ja) 2017-04-26

Family

ID=47351366

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012202889A Active JP6119153B2 (ja) 2011-09-30 2012-09-14 前方車両検知方法及び前方車両検知装置

Country Status (4)

Country Link
US (1) US8848980B2 (ja)
EP (1) EP2575078B1 (ja)
JP (1) JP6119153B2 (ja)
CN (1) CN103029621B (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6151150B2 (ja) * 2013-10-07 2017-06-21 日立オートモティブシステムズ株式会社 物体検出装置及びそれを用いた車両
KR101511853B1 (ko) * 2013-10-14 2015-04-13 영남대학교 산학협력단 단일 다중 노출 카메라를 이용한 야간 전방 차량 검출 및 위치 측정 시스템 및 방법
US9156473B2 (en) * 2013-12-04 2015-10-13 Mobileye Vision Technologies Ltd. Multi-threshold reaction zone for autonomous vehicle navigation
CN105981042B (zh) * 2014-01-17 2019-12-06 Kpit技术有限责任公司 车辆探测系统及方法
KR101593483B1 (ko) * 2014-02-28 2016-02-12 경북대학교 산학협력단 동등-높이 정합 영상을 이용하여 물체를 검출하기 위한 영상 처리 장치 및 방법, 그리고 그를 이용한 차량 운전 보조 시스템
CN105590309B (zh) 2014-10-23 2018-06-15 株式会社理光 前景图像分割方法和装置
DE102016200995B4 (de) * 2015-01-28 2021-02-11 Mando Corporation System und Verfahren zum Erfassen von Fahrzeugen
JP2016206774A (ja) * 2015-04-17 2016-12-08 トヨタ自動車株式会社 立体物検出装置及び立体物検出方法
JP2018101165A (ja) * 2015-04-27 2018-06-28 国立大学法人 奈良先端科学技術大学院大学 色画像処理方法、色画像処理プログラム、物体認識方法及び装置
CN106296621B (zh) * 2015-05-22 2019-08-23 腾讯科技(深圳)有限公司 图像处理方法和装置
JP6756507B2 (ja) * 2016-04-01 2020-09-16 日立オートモティブシステムズ株式会社 環境認識装置
CN106529411B (zh) * 2016-10-11 2020-07-28 北京小米移动软件有限公司 车辆提示方法及装置
CN111052201B (zh) * 2017-09-01 2022-02-01 株式会社村上开明堂 碰撞预测装置、碰撞预测方法以及存储介质
CN110189377A (zh) * 2019-05-14 2019-08-30 河南省计量科学研究院 一种基于双目立体视觉的高精度测速方法
US11195033B2 (en) * 2020-02-27 2021-12-07 Gm Cruise Holdings Llc Multi-modal, multi-technique vehicle signal detection
CN115610415B (zh) * 2022-11-17 2023-03-14 广汽埃安新能源汽车股份有限公司 车辆距离控制方法、装置、电子设备和计算机可读介质

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5837994C1 (en) * 1997-04-02 2001-10-16 Gentex Corp Control system to automatically dim vehicle head lamps
US6587573B1 (en) * 2000-03-20 2003-07-01 Gentex Corporation System for controlling exterior vehicle lights
US6611610B1 (en) * 1997-04-02 2003-08-26 Gentex Corporation Vehicle lamp control
JP3562751B2 (ja) * 1998-06-09 2004-09-08 矢崎総業株式会社 前方車両検出方法及び装置
JP2001169032A (ja) 1999-09-30 2001-06-22 Ricoh Co Ltd デジタル複写機、画像形成システム、およびデジタル複写機のスレーブ機
JP2001116527A (ja) * 1999-10-20 2001-04-27 Matsushita Electric Ind Co Ltd 立体物検出方法及び装置
JP2003108344A (ja) 2001-09-28 2003-04-11 Canon Inc 診断装置及び診断システム及び診断方法及びプログラム並びに媒体
JP3788400B2 (ja) * 2002-07-19 2006-06-21 住友電気工業株式会社 画像処理装置、画像処理方法及び車両監視システム
JP4253271B2 (ja) * 2003-08-11 2009-04-08 株式会社日立製作所 画像処理システム及び車両制御システム
JP4391315B2 (ja) * 2004-05-10 2009-12-24 浜松ホトニクス株式会社 撮像システムおよび撮像方法
JP2006327314A (ja) 2005-05-24 2006-12-07 Aisin Aw Co Ltd 配光制御システム及び配光制御方法
JP4473232B2 (ja) * 2006-04-26 2010-06-02 株式会社日本自動車部品総合研究所 車載用車両前方環境検出装置および車両用照明装置
TWI302879B (en) * 2006-05-12 2008-11-11 Univ Nat Chiao Tung Real-time nighttime vehicle detection and recognition system based on computer vision
JP2008059150A (ja) 2006-08-30 2008-03-13 Fuji Xerox Co Ltd 情報処理プログラム、画像読取プログラム、情報処理装置、画像読取装置および情報処理システム
US20100033571A1 (en) * 2006-09-28 2010-02-11 Pioneer Corporation Traffic information detector, traffic information detecting method, traffic information detecting program, and recording medium
JP2008114655A (ja) * 2006-11-01 2008-05-22 Denso Corp 車両用照明制御装置
JP2008186109A (ja) 2007-01-29 2008-08-14 Brother Ind Ltd 印刷制御システム、印刷装置、認証装置、印刷装置プログラム及び認証装置プログラム
JP4914234B2 (ja) * 2007-01-31 2012-04-11 富士重工業株式会社 先行車両検出装置
JP4415996B2 (ja) * 2007-02-26 2010-02-17 株式会社日立製作所 車載用画像認識装置及び配光制御装置、並びに配光制御方法
CN101901125B (zh) 2007-04-20 2012-05-30 夏普株式会社 打印控制装置及打印装置
JP4956453B2 (ja) * 2008-01-25 2012-06-20 富士重工業株式会社 物体検出装置
WO2010006361A1 (en) * 2008-07-14 2010-01-21 National Ict Australia Limited Detection of vehicles in images of a night time scene
JP2010198364A (ja) 2009-02-25 2010-09-09 Ricoh Co Ltd 画像形成装置、配信処理システム、画像処理方法、プログラム及び記録媒体
JP4801759B2 (ja) 2009-06-30 2011-10-26 シャープ株式会社 複合機、認証サーバ、及びシステム
JP2011103070A (ja) * 2009-11-11 2011-05-26 Toyota Motor Corp 夜間車両検知装置
JP5320331B2 (ja) * 2010-03-17 2013-10-23 日立オートモティブシステムズ株式会社 車載用環境認識装置及び車載用環境認識システム

Also Published As

Publication number Publication date
EP2575078B1 (en) 2018-01-10
CN103029621A (zh) 2013-04-10
US20130083971A1 (en) 2013-04-04
EP2575078A2 (en) 2013-04-03
US8848980B2 (en) 2014-09-30
CN103029621B (zh) 2016-04-06
EP2575078A3 (en) 2014-06-25
JP2013080460A (ja) 2013-05-02

Similar Documents

Publication Publication Date Title
JP6119153B2 (ja) 前方車両検知方法及び前方車両検知装置
US10984509B2 (en) Image processing apparatus, imaging device, moving body device control system, image information processing method, and program product
US8908924B2 (en) Exterior environment recognition device and exterior environment recognition method
Khammari et al. Vehicle detection combining gradient analysis and AdaBoost classification
EP2549457B1 (en) Vehicle-mounting vehicle-surroundings recognition apparatus and vehicle-mounting vehicle-surroundings recognition system
JP5409929B2 (ja) 車両用ヘッドライト装置の制御方法およびヘッドライト装置
JP5690688B2 (ja) 外界認識方法,装置,および車両システム
KR101768500B1 (ko) 운전 보조 장치 및 그 제어방법
US20150073705A1 (en) Vehicle environment recognition apparatus
JP5065172B2 (ja) 車両灯火判定装置及びプログラム
JP2008304344A (ja) 物標検出装置
RU2635280C2 (ru) Устройство обнаружения трехмерных объектов
WO2013042675A1 (ja) 他の車両のライトを検出する装置及びその検出を行うコンピュータ用プログラム、並びに、車両用ライト制御装置
JP2016142647A (ja) 画像処理装置、および車両システム
JP5361901B2 (ja) 前照灯制御装置
JP6699344B2 (ja) 逆走車検出装置、逆走車検出方法
KR20080004833A (ko) 주간 및 야간 주행 차량을 조도상황에 따라 검출하는 방법및 장치
JP7356319B2 (ja) 車外環境認識装置
JP4969359B2 (ja) 移動物認識装置
KR101171368B1 (ko) 가변형 전조등 제어 방법 및 시스템
JP6891082B2 (ja) 物体距離検出装置
KR102448164B1 (ko) 차량용 레이더 제어 장치 및 방법
KR101739163B1 (ko) 차량 카메라의 영상 보정 방법 및 이를 이용하는 영상 처리 장치
JP7378673B2 (ja) 前照灯制御装置、前照灯制御システム、及び前照灯制御方法
WO2024127633A1 (ja) 配光制御システム及び配光制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150818

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160526

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160712

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160908

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170228

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170313

R151 Written notification of patent or utility model registration

Ref document number: 6119153

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151