JP2014525067A - 車両の周辺区域にある物体を認識する方法および装置 - Google Patents

車両の周辺区域にある物体を認識する方法および装置 Download PDF

Info

Publication number
JP2014525067A
JP2014525067A JP2014513977A JP2014513977A JP2014525067A JP 2014525067 A JP2014525067 A JP 2014525067A JP 2014513977 A JP2014513977 A JP 2014513977A JP 2014513977 A JP2014513977 A JP 2014513977A JP 2014525067 A JP2014525067 A JP 2014525067A
Authority
JP
Japan
Prior art keywords
image
vehicle
fragment
recognition algorithm
recognized
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014513977A
Other languages
English (en)
Other versions
JP6175430B2 (ja
Inventor
ペトコ・ファーバー
グレガー・シュヴァルツェンベルク
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Publication of JP2014525067A publication Critical patent/JP2014525067A/ja
Application granted granted Critical
Publication of JP6175430B2 publication Critical patent/JP6175430B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/02Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments
    • B60Q1/04Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights
    • B60Q1/14Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights having dimming means
    • B60Q1/1415Dimming circuits
    • B60Q1/1423Automatic dimming circuits, i.e. switching between high beam and low beam due to change of ambient light or light level in road traffic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/02Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments
    • B60Q1/04Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights
    • B60Q1/14Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights having dimming means
    • B60Q1/1415Dimming circuits
    • B60Q1/1423Automatic dimming circuits, i.e. switching between high beam and low beam due to change of ambient light or light level in road traffic
    • B60Q1/143Automatic dimming circuits, i.e. switching between high beam and low beam due to change of ambient light or light level in road traffic combined with another condition, e.g. using vehicle recognition from camera images or activation of wipers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/743Bracketing, i.e. taking a series of images with varying exposure conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/745Detection of flicker frequency or suppression of flicker wherein the flicker is caused by illumination, e.g. due to fluorescent tube illumination or pulsed LED illumination
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2300/00Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
    • B60Q2300/10Indexing codes relating to particular vehicle conditions
    • B60Q2300/11Linear movements of the vehicle
    • B60Q2300/112Vehicle speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2300/00Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
    • B60Q2300/30Indexing codes relating to the vehicle environment
    • B60Q2300/33Driving situation
    • B60Q2300/332Driving situation on city roads
    • B60Q2300/3321Detection of streetlights
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2300/00Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
    • B60Q2300/40Indexing codes relating to other road users or special conditions
    • B60Q2300/41Indexing codes relating to other road users or special conditions preceding vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2300/00Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
    • B60Q2300/40Indexing codes relating to other road users or special conditions
    • B60Q2300/42Indexing codes relating to other road users or special conditions oncoming vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

本発明は、車両(100)の周辺区域(130)にある物体(240,250)を認識する方法(500)に関する。この方法(500)は、車両(100)の周辺区域(130)を表し、第1の露光時間で記録された、車両カメラ(110)の第1の画像(210)を読み込むステップ(510)と、第1の画像(210)の後で第2の露光時間で記録された、車両カメラ(110)の第2の画像(220)を読み込むステップとを含んでおり、このとき第2の露光時間は第1の露光時間と相違している。さらにこの方法は、車両カメラ(110)の第2の画像(220)から画像断片(230)を抽出するステップ(520)を含んでおり、画像断片(230)は第1の画像(210)よりも狭い車両(100)の周辺区域(130)の領域を表しており、抽出(520)のときには、車両の走行に関する情報および/または車両前方のインフラストラクチャー措置の位置を表す、および/または先行ステップのときに画像断片(230)で認識された運動する物体とは関わりのない、少なくとも1つのパラメータに基づいて第2の画像(220)における画像断片(230)の位置が決定される。最後にこの方法は、第1の物体認識アルゴリズムを第1の画像(210)に適用し(530)、それにより第1の画像(210)で少なくとも1つの物体(240)を認識し、第2の物体認識アルゴリズムを画像断片(230)に適用し、それにより画像断片(230)で少なくとも1つの別の物体(250)を認識するステップを含んでいる。
【選択図】 図2

Description

本発明は、車両の周辺区域にある物体を認識する方法、これに対応する装置、ならびに、これに対応するコンピュータプログラム製品に関する。
車両のカメラの画像から、物体のできるだけ良好な認識を得るために、利用できる情報のできるだけ詳細な評価が行われるべきである。しかしながら特に夜間には、車両カメラの画像を利用するときに、近くの対向車両のヘッドライトによる「過剰照射」によって、たとえば遠く離れたところにいる先行車両から発せられる情報を隠す眩惑が生じる可能性があることが考慮されるべきである。このような眩惑を回避するために、たとえば、1つまたは複数の露光時間で車両周辺の光景を計測し、各々の画像について、同一の関数またはそれぞれただ1つの評価関数を実行するシステムを利用することができる。
特許文献1は、カメラで記録された画像情報を受信するための入力部と、カメラから受信された第1の画像情報において所定の形状を含む画像断片を発見するための第1の構成要素と、第2の画像情報を要求するための第2の構成要素とを有する、車両の運転者支援システムのための評価装置に関わるものであり、第2の画像情報は、第1の構成要素により発見された画像断片を、第1の画像情報に比べて改善されたコントラストで、あらためて記録することに相当している。さらに、第2の画像情報で交通標識を識別するための第3の構成要素、ならびに、第3の構成要素により識別された交通標識に関して信号を出力するための出力部が存在している。
ドイツ特許出願公開第102007001099A1号明細書
以上を背景としたうえで、本発明により、それぞれの独立請求項に記載された、車両の周辺区域にある物体を認識する方法、さらにはこの方法を適用する装置、ならびに最後に、これに対応するコンピュータプログラム製品が提供される。好ましい実施形態は、それぞれの従属請求項および以下の説明から明らかとなる。
本発明は、車両の周辺区域にある物体を認識する方法を提供するものであり、前記方法は次の各ステップを有している:
− 車両の周辺区域を表し、第1の露光時間で記録された、車両カメラの第1の画像を読み込み、第1の画像とは別の時点のときに第1の露光時間と異なる第2の露光時間で記録された、車両カメラの第2の画像を読み込み、
− 車両カメラの第2の画像から画像断片を抽出し、画像断片は特に第1の画像よりも狭い車両の周辺区域の領域を表しており、抽出のときには、車両の走行に関する情報および/または車両前方のインフラストラクチャー要素の位置を表す、および/または先行ステップのときに画像断片で認識された運動する物体とは関わりのない、少なくとも1つのパラメータに基づいて、第2の画像における画像断片の位置が決定され、
− 第1の物体認識アルゴリズムを第1の画像に適用し、それにより第1の画像で少なくとも1つの物体を認識し、第2の物体認識アルゴリズムを第2の画像の前記画像断片に適用し、それにより画像断片で少なくとも1つの別の物体を認識する。
さらに本発明は、本発明の方法の各ステップを相応のユニットで実施ないし具体化するために構成された装置を提供する。装置の形態における本発明のこのような実施態様によっても、本発明の根底にある課題を迅速かつ効果的に解決することができる。
したがって本発明は、車両の周辺区域にある物体を認識する装置を提供するものであり、この装置は次の各ステップを有している:
− 車両の周辺区域を表し、第1の露光時間で記録された、車両カメラの第1の画像を読み込み、第1の画像の後で第1の露光時間と異なる第2の露光時間で記録された、車両カメラの第2の画像を読み込むためのインターフェース;
− 車両カメラの第2の画像から画像断片を抽出するためのユニットであって、画像断片は特に第1の画像よりも狭い車両の周辺区域の領域を表しており、抽出のときには、車両の走行に関する情報および/または車両前方のインフラストラクチャー要素の位置を表す、および/または先行ステップのときに画像断片で認識された運動する物体とは関わりのない、少なくとも1つのパラメータに基づいて、第2の画像における前記画像断片の位置が決定されるもの;
− 第1の物体認識アルゴリズムを第1の画像に適用し、それにより第1の画像で少なくとも1つの物体を認識し、第2の物体認識アルゴリズムを第2の画像の画像断片に適用し、それにより画像断片で少なくとも1つの別の物体を認識するためのユニット。
本件において装置とは、センサ信号を処理し、これに依存して制御信号や情報信号を出力する電気機器を意味している。装置は、ハードウェアおよび/またはソフトウェアとして構成されていてよいインターフェースを有することができる。インターフェースは、ハードウェアとして構成されている場合には、たとえば装置の多種多様な機能を含む、いわゆるシステムASICの一部であってよい。しかしながら、インターフェースが独立した集積回路であるか、または、離散したデバイスで少なくとも部分的に構成されていることも可能である。インターフェースは、ソフトウェアとして構成されている場合には、たとえばマイクロコントローラに他のソフトウェアモジュールと並んで存在するソフトウェアモジュールであってよい。
半導体メモリ、ハードディスクメモリ、光学メモリのような機械式に読取可能な担体に保存されていてよく、プログラムがコンピュータまたは装置で実行されたときに上に説明した実施形態に基づく方法を実施するために利用される、プログラムコードを有しているコンピュータプログラム製品も好ましい。
車両カメラとは、光景または車両の周辺区域をビデオ画像に変換し、これを以後の処理のために他のコンポーネントに供給する光学センサであると理解することができる。このような光学センサは複数のモードで作動することができ、これらのモードの各々は、特に、当該モードで画像を記録するための露光時間の違いによって特徴づけられる。画像断片とは、車両カメラの画像よりも狭い車両の周辺が結像された、車両カメラの画像の部分領域であると理解することができる。このような画像断片の位置は、たとえば先行するステップのときに画像断片で認識された運動する物体(たとえば車両)とは関わりのないパラメータによって、または、車両の走行に関する情報を表すパラメータに依存するパラメータによって、抽出のステップの前に決定することができる。画像断片の位置は、車両前方のインフラストラクチャー要素の位置に依存していてもよく、インフラストラクチャー要素とは、たとえば街灯や視線誘導標のような道路建設に関わる措置であると理解することができる。その代替または追加として、このようなパラメータは、先行するステップで画像断片に認識された運動する車両とは無関係であってよい。車両の走行に関する情報を表すパラメータは、たとえば、自分の車両の運動を表すセンサの情報、または、車両を制御するための操作部材の設定を表すセンサの情報であってよい。たとえば車両の走行に関する情報は、車両の速度、ハンドルを切るステアリング角度、事前に指定された道路形状、もしくはたとえばナビゲーション機器から読み出された想定される道路形状であってよい。第1の画像で認識される物体、または、画像断片で認識される別の物体とは、たとえば、該当する画像または画像断片で認識される車両であると理解することができる。その代替または追加として、第1の画像で認識される物体は、建設に関わる措置または単位、特に車道縁部にあるインフラストラクチャー設備であってもよい(たとえば視線誘導標や街灯)。同じくその代替または追加として、画像断片で認識される第2の物体は、建設に関わる措置または単位、特に車道縁部にあるインフラストラクチャー設備であってよく、たとえば同じく視線誘導標や街灯であってよい。さらに、特に第2の露光時間は第1の露光時間よりも長くてよく、それによって画像断片では、第1の画像で認識される物体よりも低い明度を有する物体を認識することができる。それにより、車両カメラを備える車両から遠く離れている物体、および/または第1の画像で認識される物体よりも弱い光もしくはこれと異なる色の光を放射する物体を、画像断片で認識することが可能となる。第1の物体認識アルゴリズムは、第2の物体認識アルゴリズムと同一であってよいが、別々に実行することができる。その別案として第1の物体認識アルゴリズムは、第2の物体認識アルゴリズムとは異なるステップを有することができる。第1の物体認識アルゴリズムは、第2の物体認識アルゴリズムと同じステップを有することができるが、これらが異なるパラメータを用いたうえで実行される。たとえば、第1のパラメータセットを用いて物体認識アルゴリズムを第1の画像に適用することができ、第2のパラメータセットを用いて、この物体認識アルゴリズムを画像断片に適用することができる。
本発明が踏まえている知見は、一方では、車両のただ1つのカメラの画像を相応の物体認識アルゴリズムによって評価することができ、他方では、異なる露光時間で記録された画像の異なる画像領域を選択することができるというものである。その際に、該当する画像断片それ自体において先行する時点で認識された運動する物体または車両に依拠するのではないパラメータによって、画像断片の追跡が惹起されていてよい。このようにして、特に、車両前方の領域で弱く光る物体に関しても継続して監視をすることができ、この領域は、走行をするときの車両の将来的な位置にとって特別な意義がある。特に、画像断片によって表された車両周辺区域に、車両前方への光照射の調整をするにあたって考慮するべき物体や車両が存在するかどうかを認識することができ、それは、このような物体または車両の運転者の眩惑を回避するためである。
本発明は、画像の露光時間が長いときに、車両前方の他の物体または車両からの光照射によって照らされた車両前方の物体または車両が認識されないという事態を、それぞれ独自の物体認識アルゴリズムによる、異なる露光時間で記録された画像の評価の分離によって回避できるという利点をもたらす。それと同時に、高い光強度を放射する物体ないし車両だけでなく、低い光強度を放射する物体ないし車両をも1つの画像から認識する、高度に複雑な物体認識アルゴリズムの適用を回避することができる。このようにして、複数の(少なくとも2つの)モード(特に露光モード)で作動し、それに応じて露光された画像を提供する、ただ1つの車両カメラの画像の評価の簡素化を実現することができる。しかしながら同時に、車両に搭載されたカメラを、およびこれに伴ってただ1つの、かつ多くの場合すでにシリーズ製品として設けられるハードウェアを使用して、本発明の具体化のための入力信号を供給することができる。さらに、技術的に簡素に具体化可能な評価ソフトウェアの変更によって、および、車両にすでに設けられている評価ユニットのこれに応じたプログラミング変更によって、追加用途の具体化を可能にすることができる。
抽出のステップで、位置情報を利用したうえで画像断片が抽出されると好都合であり、この位置情報は車両の走行を表す情報に対する応答として変更可能であり、もしくは変更される。位置情報とは、第2の画像における画像断片の位置特定に関する情報、および/または第2の画像における画像断片のサイズに関する情報であると理解することができる。本発明のこのような種類の実施形態は、第2の画像の異なる位置に配置された画像断片を、または第2の画像の異なる大きさの画像領域を含む画像断片を、車両の走行中に処理することができるという利点をもたらす。このようにして、画像断片の追跡または好ましくは予測が特にカーブ走行のときに可能であり、このとき画像断片では、車両がカーブ走行をするときに車両安全性にとって重要な、または車両前方の領域の照明にとって重要な、物体または車両が存在しているか、もしくは推定される。たとえば車両がアウトバーン走行をしているとき(または、より一般的には車両が高速走行しているとき)、画像断片を拡大して、特に長い露光時間で、高速で運動する物体または車両の十分な考慮を確保することができる。
本発明の別の実施形態では、読み込みのステップで、第1の画像として、第2の画像として読み込まれる画像よりも短い露光時間を有する画像が読み込まれる。適用のステップでも、第1の物体認識アルゴリズムを第1の画像全体に適用できるのが好ましい。特にこのような種類の実施例では、露光時間の短い画像全体が、第1の物体認識アルゴリズムによって処理される。本発明のこのような種類の実施形態は、特に、発せられる高い光強度によって特徴づけられる車両の近傍領域にある物体が、できるだけ迅速かつ一義的に認識されるという利点をもたらす。特に車両の近傍領域にあるこのような物体または車両は、たとえば自分の車両の近傍領域にいるこのような車両の運転者を眩惑しないために、高い安全予防措置を必要とする。その一方で、自分の車両の近傍領域にいるこのような車両の運転者が眩惑されてしまうと、自分の車両の安全性も著しく脅かされることになる。
さらに抽出のステップで、車両前方の事前設定された最低距離に配置された物体が車両カメラの画像に結像される、第2の画像の画像断片が抽出されると好都合である。本発明のこのような種類の実施形態は、車両から遠くに離れている、車両の周辺区域の物体または車両も認識できるという利点をもたらす。特にこの画像断片で、高い光放射または反射が見込まれる物体または車両があると見込まれないとき、本発明のこのような種類の実施形態により、自分の車両の近傍領域にある物体または車両の光放射による「フェードオーバー」による、弱い照明または発光をする物体または車両に関する情報の情報欠落が生じないことを保証することができる。
本発明のさらに別の実施形態では、適用のステップで、第1の物体認識アルゴリズムを第1の物体タイプの物体の認識のために利用することができ、第2の物体認識アルゴリズムを、第1の物体タイプとは相違する第2の物体タイプの物体の認識のために利用することができる。たとえば第1の物体タイプはフロントヘッドライトを表すことができ、それに対して第2の物体タイプはテールライト、視線誘導標、街灯などを表すことができる。本発明のこのような種類の実施形態は、該当する物体タイプにどのような光放射特性が見込まれるかに応じて、さまざまに異なる物体タイプを車両カメラの画像から認識できるという利点をもたらす。
適用のステップで、第1の物体認識アルゴリズムは、第1の画像における位置での明度と、第2の画像における、特に画像断片における、対応する位置での明度との比較を利用したうえで、第1の画像の物体を認識するために構成されていると特別に好ましい。適用のステップで、第2の物体認識アルゴリズムも、第2の画像における、特に画像断片における位置での明度と、第1の画像における対応する位置での明度との比較を利用したうえで、第2画像における、特に画像断片における物体を認識するために構成されていてよい。本発明のこのような種類の実施形態は、技術的に特別に簡単に実施できる物体の区別もしくは認識という利点をもたらし、異なる露光時間で記録されたそれぞれの画像の共通の情報を利用することができる。
本発明の1つの特別な実施形態では、適用のステップで、第1の画像における位置での明度が、第2の画像における、特に画像断片における、対応する位置での明度に許容誤差範囲内で等しいときには、第1の物体認識アルゴリズムによって物体をパルス状の光源として認識することができる。さらに、第1の画像における位置での明度が、事前設定された閾値(露光時間の差異に依存)を超えて、第2の画像における、特に画像断片における、対応する位置での明度と相違しているときには、第1の物体認識アルゴリズムによって物体を一定の光を放射する光源として認識することもできる。さらに、第2の画像における、特に画像断片における位置での明度が、第1の画像における対応する位置での明度に許容誤差範囲内で等しいときには、第2の物体認識アルゴリズムによって物体がパルス状の光源として認識されると好都合である。第2の画像における、特に画像断片における位置での明度が、事前設定された閾値を超えて、第1の画像における対応する位置での明度と相違しているときには、第2の物体認識アルゴリズムによって物体が一定の光を放射する光源として認識される、本発明の実施形態も考えられる。ここで明度値に関する許容誤差範囲とは、たとえば10パーセントの明度差であると理解することができる。本発明のこのような種類の実施形態は、第2の画像における、特に画像断片における、および第1の画像における、互いに対応する位置での明度の比較によって、異なる種類の物体を非常に簡単に認識できるという利点をもたらす。このとき特に活用することができるのは、たとえば街灯のような異なる物体は、たとえば車両ライトやLED車両ライトなどとは異なる周波数の光放射を有しているということである。このように、本発明のこのような種類の実施形態により、第1の画像または画像断片におけるそれぞれの位置で認識もしくは推定された物体のタイプを、技術的に非常に簡単に推定することができる。
さらに、本発明の1つの実施形態に基づき、車両前方の車道照明を制御する方法が意図されていると好都合であり、この方法は次の各ステップを有している:
− 上に説明した方法の各ステップが実施され、
− 第1の物体認識アルゴリズムにより認識された少なくとも1つの物体に対する応答として、および/または第2の物体認識アルゴリズムにより認識された少なくとも1つの物体に対する応答として、車両のヘッドライトの光放射の変更が制御される。
本発明のこのような種類の実施形態は、上に説明した実施形態に基づく物体の認識が、車両のヘッドライトの光放射のコントロールまたは制御を、技術的に非常に簡単な仕方で容易にするという利点をもたらす。それによって特に、先行車両または対向車両の運転者の眩惑を容易に回避し、もしくは少なくとも低減することができる。物体の認識により、特に物体のタイプの認識により、自分の車両のヘッドライトによる光放射を相応に適合化することができるからである。
本発明の1つの実施形態では、画像断片においても、たとえば車道縁部にあるインフラストラクチャー設備のような建設に関わる措置を、たとえば街灯や視線誘導標などを、認識することができる。さらに本発明のこのような種類の実施形態では、制御のステップで、第2の物体認識アルゴリズムにより認識された物体に関わりなく、光放射の変更を行うことができる。
次に、添付の図面を参照しながら、一例として本発明を詳しく説明する。図面は次のものを示している:
本発明の一実施例が適用された車両のブロック図である。 車両周辺の光景、およびこれから車両カメラによって得られる画像、ならびに、本発明の一実施例に基づく画像中の画像断片の選択を示す図である。 物体としての一定の光を放射する光源の判定を図解するグラフである。 物体としてのパルス状の光を放射する光源の判定を図解するグラフである。 本発明の一実施例のフローチャートである。
本発明の好ましい実施例の以下の説明では、異なる図面に示されている類似の働きをする部材については、同一または類似の符号が使われており、これらの部材について繰り返し説明することはしない。
暗闇での車両の検出にあたっては、画像評価システムに対してさまざまな要求事項が課されるが、カメラの画像のただ1つの露光時間では、こうした要求事項を妥協のうえでしか満たすことができない。特に、距離が離れているために比較的暗い先行車両のテールライトや、さまざまな距離にある対向通行者も同様に認識しなければならない。その帰結として、一方では評価システムは暗い物体に対して非常に感度が高く、また、近い対向通行者の過剰照射に対してもロバスト性が高いことが望まれる。これら両方の極端な事例はマルチモード式の、ただし少なくとも2モード式のカメラ制御によって、特別に好ましく対処することができる。すなわち、比較的長い露光時間で記録され、画像評価を画像の特別な部分領域だけに追加的に制約することが選択される画像で、たとえば遠く離れた車両のテールライトを検出、分類することができる。それに対して、短い露光時間で記録された画像に基づき、対向通行者がある場合に近くの1組の車両のヘッドライトを高いロバスト性で解像することができ、これらの明るいヘッドライトの過剰照射によって、暗い物体および/または物体特有の構造そのものが認識できなくなるほどに、画像が明るくなることがない。そうしたケースは、近くの対向車両の非常に明るいヘッドライトによる眩惑によるカメラの「目くらまし」として解釈することができよう。
従来のシステムは、
a)単一の露光時間で作動するか、または
b)複数の露光時間を有する画像の場合には、物体検出と物体分類のためにそのつど同一のルーチンで作動するかのいずれかである。
選択肢a)では、到達範囲と近距離での分解能に関して妥協を図ることが必要であり、それに対して選択肢b)は、真に関連する物体の最善の検出と分類を保証するために、複雑な評価ストラテジーがもたらされる。
しかし一般に、自分の車両による光ないし光放射を制御するための物体認識に関わる要求事項は、とりわけ夜間や薄暮のときにはきわめて複雑であり、上記のような取り組みによっては、妥協を通じて実現することしかできない。少なくとも1つの短い露光での画像記録と長い露光での画像記録、およびこれらの評価を含むマルチモード式の、ただし少なくとも2モード式の露光制御により、それぞれの極端なケースを明らかに良好にカバーすることができる。それぞれの露光時間を有する画像の評価については、明瞭に異なる処理ステップが意図される。
図1は、本発明の一実施例を適用することができる車両100のブロック図を示している。車両100は、車両100の前方の周辺区域130の視野領域120の画像を生起するカメラ110を含んでいる。このときカメラ110は複数のモードで画像を記録するために構成されており、異なるモードは、相応のモードで画像を記録するときに異なる露光時間を有している。カメラ110により生起される画像は評価ユニット140へと伝送され、以下で説明するように、ここで物体認識アルゴリズムを適用したうえで、物体に関する画像ないし画像の画像断片の評価が行われる。そして、たとえば先行車両や対向車両のヘッドライトのような、特定の物体区分の特定の物体がカメラ110の視野領域120で認識されると、相応の情報が照明制御ユニット150に送られて、照明制御ユニット150により制御される車両100のヘッドライト160の光放射が、先行車両や対向車両を眩惑する光を車両100の周辺130に放射しないことを確保する。
カメラで記録されるべき異なる画像についての露光時間は、一方では少なくとも400mの距離にある遠くのテールライト、他方では少なくとも800mの距離にあるヘッドライトを検出することができ、ならびに、近くの対向通行者が画像の過剰照射につながらないように、すなわち物体を特徴づけるすべてのピクセルの飽和につながらないように選択されるのが好ましく、そのことは、近距離領域にある両方のヘッドライトの解像ないし検出を難しくする。さらに露光制御部は、中距離領域(たとえば100mから300m)にあるテールライトの認識が複数の露光時間によってカバーされ、そのようにして、可能性のある眩惑の観点からクリティカルであるこのような領域で、ロバスト性が高く迅速な分類が確保されるように設計されているのがよい。
それぞれの画像の効率的な処理のために、たとえば露光時間の長い画像については、さまざまな追加の情報に依存して、処理領域ないし関心領域(region of interest)を限定することができる。
図2は、上側の部分図で、図1のカメラ110によって車両100の視野領域120で記録された光景200を示している。この光景200は、たとえば比較的短い第1の露光時間を有する第1のモードで検出されるものであり、左下に示す第1の画像210がこれから生起されて、評価ユニット140に伝送される。これに続くステップで、比較的長い露光時間を有する第2のモードで光景200が記録されて、図2の右下に示す第2の画像220が生起される。さらに、第2の画像で画像断片230が抽出されて、これが処理のために評価ユニット140へ伝送される。第2の画像220そのものが図1の評価ユニット140に伝送され、評価ユニット140で初めて画像断片230が抽出されることも考えられる。
評価ユニット140では、第1の物体認識アルゴリズムを第1の画像に適用することによって、(全体の)第1の画像を、自分の車両100すなわちカメラ110を備える車両100に対して空間的に非常に近いところにある、たとえば対向車両の1組のヘッドライトのような明るい(近くの)物体240に関して認識することができる。第1の画像全体を評価することで、車両の非常に近くにある物体が見過ごされないことを確保することができ、そうしないと、光放射の制御が考慮されなかった場合に、当該物体または車両を運転する人の眩惑につながる可能性があり、そのために自分の車両の走行安全性が脅かされる恐れがある。
さらに、同じく評価ユニット140で、第2の物体認識アルゴリズムが第2の画像220の画像断片230に適用され、それにより、当該画像断片230でも物体250が認識される。このときさらに、たとえば画像断片に適用される第2の物体認識アルゴリズムの適用を、画像断片の範囲外にある第2の画像の領域では省略することができる。画像断片230で認識されるべきこれらの物体250は、たとえば車両100の前方を走る車両のテールライトを表す、遠く離れた(すなわち暗く見える)物体250である。画像断片230は、図2の左下の図面に示す対向車両のフロントヘッドライトのような近くの明るい物体240が、画像断片の物体認識では考慮されないように選択されるのが好ましく、このような画像断片を評価することで、こうした明るい物体による、評価されるべき画像の過剰照明を回避することができる。このように、露光時間の長い第2の画像から得られる限定された領域を表す画像断片は、遠く離れた物体の認識を可能にし、そのような物体は近くの物体に比べて多くの場合に暗く見え、したがって露光時間の長い撮影によって、近い物体と遠い物体をどちらも評価するために単一の露光時間で記録された画像に比べて良好に認識可能である。
車両がカーブの多い道路を走るときには、画像断片が第2の画像の事前設定された領域からスタティックに取り出されるのではないのが好ましい。たとえば、特に左カーブへのコーナリング走行では、第2の画像から画像断片として取り出される領域も、第2の画像の左側縁部に向かって変位していると好都合である。このようにして、たとえば先行車両またはその他の物体を、車道の前方に位置する左カーブのところでも十分に認識できることを確保することができる。その場合には、これらが評価されるべき画像断片の中に位置しているからである。第2の画像における画像断片の位置のこのような変更を可能にするために、さまざまな情報を利用することができる。このような情報に含まれるのは、たとえば車両の速度、車両の切られたステアリング角度、事前に指定された道路形状、街灯や視線誘導標の設置状態の評価から(たとえば第1の画像から認識することができる強い光反射によって)想定される道路形状などである。さらに、ナビゲーションデータすなわちナビゲーションシステムオンデータ、画像の特定領域における異なる物体タイプの検出確率に関するモデル想定なども、第2の画像における画像断片の位置を変位または変更するための情報として利用することができる。
さらに異なる露光時間は、パルス状の光源(たとえば街灯ないしLEDテールライト/フロントライト(50Hz 160Hz))の認識を補助することができる。このようなパルス状の光源の認識についての一実施例が、図3と図4に示されている。
図3は、2モード式に制御されるカメラによって、一定に発光する光源の測定された明度を認識するための2つのグラフを示している。図3の上の図面では、横軸には(連続する画像番号の形態の)時間が示されており、縦軸には、(一定の光放射を有する)光源の測定された(1つの値に正規化された)光強度300が、カメラによる当該光源の光強度の測定310に対して示されている。2モード式に制御されるカメラにより、一定に発光する光源を走査することで、すなわち、異なる画像を順次記録することで、光源がパルス状の物体として画像に現れる図像がもたらされる。パルス化の特性は、さまざまな露光時間での物体の明度の比較によって、より良好に認識することができる。このとき、たとえば第1の画像における物体の明度または光強度が、画像断片における明度または光強度と比較される。このケースでは、第1の画像における物体は、第2の画像の画像断片における位置に対応する位置に位置しているのがよく、それにより、さまざまな露光時間での物体の明度の評価が可能となる。画像断片に位置するのではない物体の明度または光強度を評価することもでき、このケースでは、画像断片に代えて第2の画像が評価のために援用される。
一定の光を放射する光源では、図3の下側の図面に掲げるような明度推移がもたらされる。ここでは一定の発光をする光源は、露光時間の異なる画像でそれぞれ異なる明度強度を有している。たとえばこの光源は、露光時間の短い画像では、露光時間の長い画像よりも低い明度値320を有しており、後者の画像では、一定の発光をする光源についてこれより高い明度値330が生じている。このように、一定の発光をする光源の測定された光強度または明度は、2モード式に制御されるカメラにより、評価される画像の異なる露光時間に応じて変動する。すなわち一定に発光する光源は、そのつどの照明時間についてそれぞれ別様に結像される。したがって明度または光強度の変化は、異なる照明時間で記録された画像の評価にあたって、自己発光する物体の分類のための重要な情報として利用することができる。たとえばこのようにして、エネルギー供給網の周波数に応じて50から60Hzの光放射周波数をもつ遠く離れた街灯を認識することができ、このような街灯のときには、自分の車両のヘッドライトを減光しなくてよい。また、たとえば反射性の物体を認識することもでき、自分の車両のヘッドライトによる光放射の周波数を変調させることで、物体に当たって相応に反射される変調された光を認識することができる。
一般に言えるのは、単一モード式に制御されるカメラによってパルス状の光源がパルス状として認知されるのは、走査周波数(たとえば画像30枚/秒=30Hz)が、光源のパルス周波数の整数倍でないときに限られる。30Hzのカメラを用いると、60Hzの光源は一定に発光しているように見える(暗闇について典型的な画像1枚あたりの集積時間のとき)。2モード式に制御されるカメラでは、以下に記述する方策によって詳しく説明するように、このような制約を回避することができる。
図4には、パルス状の光源をどのようにして認識できるかが示されている。図4の上側の図面には、2モード式に制御されるカメラによって60Hzのパルス状光源を走査した明度値が掲げられている。同じく横軸には(連続する画像番号の形態の)時間が示されており、縦軸には、測定された(1つの値に正規化された)光源(パルス状の光放射)の光強度300が、カメラによる当該光源の光強度の測定310に対して示されている。図4の上側の図面から明らかなように、パルス状の光源による光放射の時点ないし時間帯は、カメラによる相応に評価されるべき画像の走査ないし露光の時点または時間帯と重なり合っている。図4の下側のグラフから明らかなように、重なり合う露光時間帯とパルス状の光源の光放射時間帯のこのような種類の走査は、許容誤差範囲内で等しい、両方の画像における光源の明度値400という結果をもたらす。このようにパルス状の光源は、異なる露光時間について、明度値が非常に似た異なる画像で結像される。すなわち露光時間の異なる画像から得られる光源の光強度の測定結果は、それぞれの評価された画像の露光時間に応じて変化するのではなく、それにより、このような光源のパルス化を認識することができる。
さらに、比較的長い露光時間は、画像中でのパルス状の光源の特性のいっそう安定的な表出を惹起し、それにより、光物体のいっそう妥当な色再構成と形状分析が可能である。それに対して露光の短い画像からの情報は、いっそうコントラストに富んでいる。運動の不鮮明さが低くなり、このことは、運動とその方向を見積もるときに特別に好ましいからである。
図5は、車両の周辺区域にある物体を認識する方法500としての本発明の一実施例のフローチャートを示している。方法500は、車両の周辺区域を表す、第1の露光時間で記録された、車両カメラの第1の画像を読み込むステップ510を含んでおり、さらに読み込みのステップでは、第1の画像の後に第2の露光時間で記録された車両カメラの第2の画像の読み込みが行われ、第2の露光時間は第1の露光時間とは相違している。さらに方法500は、車両カメラの第2の画像から画像断片を抽出するステップ520を含んでおり、この画像断片は第2の画像よりも狭い車両の周辺区域の領域を表しており、抽出にあたって第2の画像における画像断片の位置は、車両の走行に関する情報および/または車両前方のインフラストラクチャー措置の位置に関する情報を表す、および/または先行するステップで画像断片に認識された運動する物体に関わりのない、少なくとも1つのパラメータに基づいて決定される。最後に方法500は、第1の画像に第1の物体認識アルゴリズムを適用するステップ530を含んでおり、それにより少なくとも1つの物体を第1の画像で認識し、画像断片に第2の物体認識アルゴリズムを適用し、それにより少なくとも1つの別の物体を画像断片で認識する。
図面に示す上述した各実施例は、一例として選択されたものにすぎない。異なる実施例を全面的に、または個々の構成要件に関して、相互に組み合わせることができる。1つの実施例を、別の実施例の構成要件によって補完することもできる。
さらに、本発明による方法ステップは反復式に実施することができ、ならびに、上述した順序とは異なる順序で実施することができる。
1つの実施例が、第1の構成要件と第2の構成要件との間の「および/または」の接続を含んでいるとき、このことは当該実施例が、1つの実施形態では、第1の構成要件と第2の構成要件をいずれも有しており、別の実施形態では、第1の構成要件または第2の構成要件のいずれか一方だけを有しているという意味に読まれるべきである。
100 車両
110 車両カメラ
120 視野領域
130 周辺区域
140 評価ユニット
150 照明制御ユニット
160 ヘッドライト
200 光景
210 第1の画像
220 第2の画像
230 画像断片
240 物体
250 物体
300 光強度
310 光強度の測定
320 明度
330 明度
400 明度
500 認識する方法
510 読み込みのステップ
520 抽出のステップ
530 適用のステップ

Claims (12)

  1. 車両(100)の周辺区域(130)にある物体(240,250)を認識する方法(500)において、前記方法(500)は次の各ステップを有しており、すなわち、
    車両(100)の周辺区域(130)を表し、第1の露光時間で記録された、車両カメラ(110)の第1の画像(210)を読み込み(510)、第1の画像(210)の後で第2の露光時間で記録された、車両カメラ(110)の第2の画像(220)を読み込み、このとき第2の露光時間は第1の露光時間と相違しており、
    車両カメラ(110)の第2の画像(220)から画像断片(230)を抽出し(520)、画像断片(230)は第1の画像(210)よりも狭い車両(100)の周辺区域(130)の領域を表しており、抽出(520)のときには、車両の走行に関する情報および/または車両前方のインフラストラクチャー措置の位置を表す、および/または先行ステップのときに画像断片(230)で認識された運動する物体とは関わりのない、少なくとも1つのパラメータに基づいて第2の画像(220)における画像断片(230)の位置が決定され、
    第1の物体認識アルゴリズムを第1の画像(210)に適用し(530)、それにより第1の画像(210)で少なくとも1つの物体(240)を認識し、第2の物体認識アルゴリズムを画像断片(230)に適用し、それにより画像断片(230)で少なくとも1つの別の物体(250)を認識する方法。
  2. 抽出のステップ(520)で、位置情報を利用したうえで画像断片(230)が抽出され、位置情報は、車両(100)の走行を表す情報に対する応答として変更可能であり、もしくは変更されることを特徴とする、請求項1に記載の方法(500)。
  3. 読み込みのステップ(510)で、第2の画像(220)として読み込まれる画像よりも短い露光時間を有する画像が第1の画像(210)として読み込まれることを特徴とする、先行請求項のうちいずれか1項に記載の方法(500)。
  4. 適用のステップ(530)で、第1の物体認識アルゴリズムが第1の画像(210)の全体に適用されることを特徴とする、先行請求項のうちいずれか1項に記載の方法(500)。
  5. 抽出のステップ(520)で、車両(100)前方の事前設定された最低距離に配置された物体(250)が車両カメラ(110)の画像で結像されている、第2の画像(220)の画像断片(230)が抽出されることを特徴とする、先行請求項のうちいずれか1項に記載の方法(500)。
  6. 適用のステップ(530)で、第1の物体認識アルゴリズムが第1の物体タイプの物体(240)の認識のために利用され、第2の物体認識アルゴリズムが、第1の物体タイプとは相違する第2の物体タイプの物体(250)の認識のために利用されることを特徴とする、先行請求項のうちいずれか1項に記載の方法(500)。
  7. 適用のステップ(530)で、第1の物体認識アルゴリズムは、第1の画像(210)における位置での明度(320,330;400)と、第2の画像(220)における、特に画像断片(230)における、対応する位置での明度(320,330;400)との比較を利用したうえで、第1の画像(210)で物体(240)を認識するために構成されており、および/または適用のステップ(530)で、第2の物体認識アルゴリズムは、第2の画像(220)における、特に画像断片(230)における位置での明度(320,330;400)と、第1の画像(210)における対応する位置での明度(32,330;400)との比較を利用したうえで、第2の画像(220)、特に画像断片(230)で物体(250)を認識するために構成されていることを特徴とする、先行請求項のうちいずれか1項に記載の方法(500)。
  8. 適用のステップ(530)で、第1の画像(210)における位置での明度(400)が、第2の画像(220)における、特に画像断片における(230)、対応する位置での明度(400)に許容誤差範囲内で等しいときには、第1の物体認識アルゴリズムによって物体(240)がパルス状の光源として認識され、および/または第1の画像(210)における位置での明度(320,330)が、事前設定された閾値を超えて、第2の画像(220)における、特に画像断片(230)における、対応する位置での明度(320,330)と相違しているときには、第1の物体認識アルゴリズムによって物体(240)が一定の光を放射する光源として認識され、および/または第2の画像(220)における、特に画像断片(230)における位置での明度(400)が、第1の画像(210)における対応する位置での明度(400)に許容誤差範囲内で等しいときには、第2の物体認識アルゴリズムによって物体(250)がパルス状の光源として認識され、および/または第2の画像(220)における、特に画像断片(230)における位置での明度(320,330)が、事前設定された閾値を超えて、第1の画像(210)における対応する位置での明度(320,330)と相違しているときには、第2の物体認識アルゴリズムによって物体(250)が一定の光を放射する光源として認識されることを特徴とする、請求項7に記載の方法(500)。
  9. 車両前方の車道照明を制御する方法において、次の各ステップを有しており、すなわち、
    先行請求項のうちいずれか1項に記載の方法(500)の各ステップを実施し、
    第1の物体認識アルゴリズムにより認識された少なくとも1つの物体(240)に対する応答として、および/または第2の物体認識アルゴリズムにより認識された少なくとも1つの物体(250)に対する応答として、車両(100のヘッドライト(160)の光放射の変更を制御する方法。
  10. さらに制御のステップで、第2または第2の物体認識アルゴリズムにより認識された車道縁部のインフラストラクチャー設備に関わりなく、光放射の変更が行われることを特徴とする、請求項9に記載の方法。
  11. 請求項1から10のいずれか1項に記載の方法(500)の各ステップを実施するために構成された各ユニットを有している装置(140)。
  12. プログラムが前記装置(140)で実行されたときに、請求項1から10のいずれか1項に記載の方法(500)を実施するためのプログラムコードを有しているコンピュータプログラム製品。
JP2014513977A 2011-06-07 2012-05-21 車両の周辺区域にある物体を認識する方法および装置 Active JP6175430B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102011077038.0 2011-06-07
DE102011077038A DE102011077038A1 (de) 2011-06-07 2011-06-07 Verfahren und Vorrichtung zur Erkennung von Objekten in einem Umfeld eines Fahrzeugs
PCT/EP2012/059348 WO2012168055A2 (de) 2011-06-07 2012-05-21 Verfahren und vorrichtung zur erkennung von objekten in einem umfeld eines fahrzeugs

Publications (2)

Publication Number Publication Date
JP2014525067A true JP2014525067A (ja) 2014-09-25
JP6175430B2 JP6175430B2 (ja) 2017-08-02

Family

ID=46354158

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014513977A Active JP6175430B2 (ja) 2011-06-07 2012-05-21 車両の周辺区域にある物体を認識する方法および装置

Country Status (6)

Country Link
US (1) US10552688B2 (ja)
EP (1) EP2718869A2 (ja)
JP (1) JP6175430B2 (ja)
CN (1) CN103782307A (ja)
DE (1) DE102011077038A1 (ja)
WO (1) WO2012168055A2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019130945A1 (ja) * 2017-12-27 2019-07-04 ソニー株式会社 情報処理装置、情報処理方法、プログラム、及び移動体

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012221159A1 (de) * 2012-11-20 2014-05-22 Robert Bosch Gmbh Verfahren und Vorrichtung zum Erkennen von Wechselverkehrszeichen
DE102013115000A1 (de) * 2013-01-07 2014-07-10 GM Global Technology Operations LLC (n. d. Gesetzen des Staates Delaware) Blendungsminderung für dynamischen Rückspiegel
EP2767924B1 (en) * 2013-02-15 2019-05-01 HELLA GmbH & Co. KGaA A method and device for recognising pulsing light sources
WO2015026810A1 (en) * 2013-08-19 2015-02-26 Gentex Corporation Vehicle imaging system and method for distinguishing reflective objects from lights of another vehicle
US10055655B2 (en) 2015-04-08 2018-08-21 Nissan Motor Co., Ltd. Traffic light detection device and traffic light detection method
JP6558733B2 (ja) * 2015-04-21 2019-08-14 パナソニックIpマネジメント株式会社 運転支援方法およびそれを利用した運転支援装置、運転制御装置、車両、運転支援プログラム
GB201818058D0 (en) 2015-05-18 2018-12-19 Mobileye Vision Technologies Ltd Safety system for a vehicle to detect and warn of a potential collision
DE102015219496A1 (de) * 2015-10-08 2017-04-13 Robert Bosch Gmbh Verfahren zum Bestimmen der Funktionsfähigkeit eines Fahrerassistenzsystems eines Fahrzeugs, Vorrichtung, Fahrerassistenzsystem, Kraftfahrzeug
JP6327719B2 (ja) * 2016-02-04 2018-05-23 株式会社Subaru 車両の走行制御装置
US9976284B2 (en) * 2016-07-18 2018-05-22 Caterpillar Inc. Control system for headlights of a machine
EP3504071A4 (en) * 2016-08-26 2020-01-15 Netradyne Inc. VIDEO RECORDING OF AN OPERATOR AND OF THE SURROUNDING FIELD OF VISION
DE102017200607B4 (de) * 2017-01-17 2024-02-15 Robert Bosch Gmbh Verfahren und Vorrichtung zum Erkennen eines Objekts in einem Fahrzeug
KR20180097966A (ko) 2017-02-24 2018-09-03 삼성전자주식회사 자율 주행을 위한 영상 처리 방법 및 장치
US10453208B2 (en) 2017-05-19 2019-10-22 Waymo Llc Camera systems using filters and exposure times to detect flickering illuminated objects
DE102017119394A1 (de) * 2017-08-28 2019-02-28 HELLA GmbH & Co. KGaA Verfahren zur Ansteuerung mindestens eines Lichtmoduls einer Leuchteinheit eines Fahrzeugs, Leuchteinheit, Computerprogrammprodukt und computerlesbares Medium
DE102017215347A1 (de) * 2017-09-01 2019-03-07 Conti Temic Microelectronic Gmbh Verfahren zur vorhersehbaren Belichtungssteuerung zumindest einer ersten Fahrzeugkamera
CN108021877A (zh) * 2017-11-30 2018-05-11 北京文安智能技术股份有限公司 一种行驶车辆中的人脸识别方法、装置及系统
US11514789B2 (en) * 2018-01-05 2022-11-29 Arriver Software Llc Illumination-based object tracking within a vehicle
WO2019159764A1 (ja) * 2018-02-14 2019-08-22 株式会社小糸製作所 車載カメラシステム、車両用灯具
DE102019202377A1 (de) 2018-03-09 2019-09-12 Robert Bosch Gmbh Verfahren zum Verschlüsseln von Fahrzeugdefektmeldungen
JP2019159772A (ja) * 2018-03-13 2019-09-19 株式会社小糸製作所 車両システム
JP7060676B2 (ja) 2018-03-23 2022-04-26 本田技研工業株式会社 物体認識装置、車両及び物体認識方法
JP7331483B2 (ja) * 2019-06-18 2023-08-23 株式会社アイシン 撮像制御装置
DE102019209152A1 (de) * 2019-06-25 2020-12-31 Robert Bosch Gmbh Verfahren und Vorrichtung zum sicheren Identifizieren von Objekten in Videobildern
CN112766026B (zh) * 2019-11-05 2024-02-02 大富科技(安徽)股份有限公司 交通灯的检测方法、计算机存储介质、车载终端和车辆
CN110971835A (zh) * 2019-12-24 2020-04-07 重庆紫光华山智安科技有限公司 一种基于双相曝光的监控方法及装置
CN113657427B (zh) * 2021-06-29 2024-01-23 东风汽车集团股份有限公司 一种车内多源图像融合识别方法及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06274626A (ja) * 1993-03-19 1994-09-30 Toyota Motor Corp 走行車両検出装置
JP2005092857A (ja) * 2003-08-11 2005-04-07 Hitachi Ltd 画像処理システム及び車両制御システム
JP2010272067A (ja) * 2009-05-25 2010-12-02 Hitachi Automotive Systems Ltd 画像処理装置

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5796094A (en) * 1993-02-26 1998-08-18 Donnelly Corporation Vehicle headlight control using imaging sensor
US5837994C1 (en) * 1997-04-02 2001-10-16 Gentex Corp Control system to automatically dim vehicle head lamps
US7167796B2 (en) * 2000-03-09 2007-01-23 Donnelly Corporation Vehicle navigation system for use with a telematics system
EP1504276B1 (en) 2002-05-03 2012-08-08 Donnelly Corporation Object detection system for vehicle
CN1120782C (zh) 2002-06-07 2003-09-10 北京龙浩亚安智能数码科技有限公司 车牌自动识别方法
CN101023407A (zh) * 2002-08-21 2007-08-22 金泰克斯公司 自动车辆外部照明控制的图像采集和处理方法
DE10251949A1 (de) * 2002-11-08 2004-05-19 Robert Bosch Gmbh Fahrdynamikregelung mit Bildsensorsystem
US7023454B1 (en) * 2003-07-07 2006-04-04 Knight Andrew F Method and apparatus for creating a virtual video of an object
JP3931891B2 (ja) * 2004-07-05 2007-06-20 日産自動車株式会社 車載用画像処理装置
US7720580B2 (en) * 2004-12-23 2010-05-18 Donnelly Corporation Object detection system for vehicle
DE102005033863A1 (de) 2005-07-20 2007-01-25 Robert Bosch Gmbh Bildaufnahmesystem
JP4108706B2 (ja) * 2005-10-31 2008-06-25 三菱電機株式会社 車線逸脱防止装置
DE102007001099A1 (de) 2007-01-04 2008-07-10 Siemens Ag Fahrerassistenzsystem zur Verkehrszeichenerkennung
US8017898B2 (en) * 2007-08-17 2011-09-13 Magna Electronics Inc. Vehicular imaging system in an automatic headlamp control system
JP5082776B2 (ja) * 2007-10-31 2012-11-28 オムロン株式会社 画像処理装置
JP4571179B2 (ja) * 2007-12-07 2010-10-27 パナソニック株式会社 撮像装置
FR2936194B1 (fr) * 2008-09-23 2011-08-05 Valeo Vision Sas Procede d'ajustement de l'eclairage des projecteurs pour vehicule automobile.
EP3975138A1 (en) * 2008-10-06 2022-03-30 Mobileye Vision Technologies Ltd. Bundling of driver assistance systems
CN102834309B (zh) * 2010-02-26 2016-12-21 金泰克斯公司 自动车辆设备监控、报警和控制系统
JP5644451B2 (ja) * 2010-05-25 2014-12-24 株式会社リコー 画像処理装置および画像処理方法、ならびに、撮像装置
JP6011104B2 (ja) * 2012-07-24 2016-10-19 株式会社デンソー 車両用視界支援装置
DE102012217093A1 (de) * 2012-09-21 2014-04-17 Robert Bosch Gmbh Kamerasystem, insbesondere für ein Fahrzeug, und Verfahren zum Ermitteln von Bildinformationen eines Erfassungsbereichs

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06274626A (ja) * 1993-03-19 1994-09-30 Toyota Motor Corp 走行車両検出装置
JP2005092857A (ja) * 2003-08-11 2005-04-07 Hitachi Ltd 画像処理システム及び車両制御システム
JP2010272067A (ja) * 2009-05-25 2010-12-02 Hitachi Automotive Systems Ltd 画像処理装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019130945A1 (ja) * 2017-12-27 2019-07-04 ソニー株式会社 情報処理装置、情報処理方法、プログラム、及び移動体
US11450026B2 (en) 2017-12-27 2022-09-20 Sony Corporation Information processing apparatus, information processing method, and mobile object

Also Published As

Publication number Publication date
JP6175430B2 (ja) 2017-08-02
WO2012168055A3 (de) 2013-02-14
CN103782307A (zh) 2014-05-07
US10552688B2 (en) 2020-02-04
US20140098997A1 (en) 2014-04-10
DE102011077038A1 (de) 2012-12-13
EP2718869A2 (de) 2014-04-16
WO2012168055A2 (de) 2012-12-13

Similar Documents

Publication Publication Date Title
JP6175430B2 (ja) 車両の周辺区域にある物体を認識する方法および装置
JP4544233B2 (ja) 車両検出装置及びヘッドランプ制御装置
US7899213B2 (en) Image processing system and vehicle control system
JP5617999B2 (ja) 車載周辺物認識装置及びこれを用いる運転支援装置
JP4253275B2 (ja) 車両制御システム
EP2172873B1 (en) Bundling of driver assistance systems
JP5356746B2 (ja) 視界妨害現象の検出プロセス、検出装置、及びそのコンピュータプログラム
JP5761002B2 (ja) 照明制御装置
US20120233841A1 (en) Adjustable camera mount for a vehicle windshield
JP2014515893A (ja) 車両のカメラによって撮影した画像を評価するための方法および画像評価装置
CN108604410B (zh) 信息显示装置和信息显示方法
US9340156B2 (en) Method for detecting an object in an environmental region of a motor vehicle by means of a camera system of the motor vehicle, camera system and motor vehicle
CN103874604B (zh) 用于匹配车辆的至少一个前照灯的发光强度的方法和控制设备
JP2013534332A (ja) 光源認識方法および装置
JP4701279B2 (ja) 視覚支援装置
JP2010512271A (ja) カメラによる車両電灯の識別
EP3556607A1 (en) Vehicle lighting system and vehicle
JP6983016B2 (ja) 車両の路面描画装置
KR20140022035A (ko) 차량 카메라의 시야 내 에어로졸의 강도 인식 방법 및 그 장치
JP2012240530A (ja) 画像処理装置
US10118534B2 (en) Irradiation apparatus
JP2008296759A (ja) 情報処理装置および方法、並びにプログラム
JP2016049912A (ja) 照射装置
US20130093892A1 (en) Recognition of a road illumination
JP6853890B2 (ja) 物体検出システム

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150205

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20150421

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150804

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160523

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20160531

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20160715

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170710

R150 Certificate of patent or registration of utility model

Ref document number: 6175430

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250