JP6606181B2 - 視程検出のためのシステムおよび方法 - Google Patents

視程検出のためのシステムおよび方法 Download PDF

Info

Publication number
JP6606181B2
JP6606181B2 JP2017524398A JP2017524398A JP6606181B2 JP 6606181 B2 JP6606181 B2 JP 6606181B2 JP 2017524398 A JP2017524398 A JP 2017524398A JP 2017524398 A JP2017524398 A JP 2017524398A JP 6606181 B2 JP6606181 B2 JP 6606181B2
Authority
JP
Japan
Prior art keywords
pixel
visibility
image
color
controller
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017524398A
Other languages
English (en)
Other versions
JP2018503061A (ja
Inventor
デイヴィッド エム ファルブ
デイヴィッド ジェイ ライト
オリヴァー エム ジェロミン
ジェレミー エイ シュト
アマージャ セルヒオ イー ムリージョ
Original Assignee
ジェンテックス コーポレイション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ジェンテックス コーポレイション filed Critical ジェンテックス コーポレイション
Publication of JP2018503061A publication Critical patent/JP2018503061A/ja
Application granted granted Critical
Publication of JP6606181B2 publication Critical patent/JP6606181B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/57Control of the dynamic range
    • H04N25/58Control of the dynamic range involving two or more exposures
    • H04N25/581Control of the dynamic range involving two or more exposures acquired simultaneously
    • H04N25/583Control of the dynamic range involving two or more exposures acquired simultaneously with different integration times
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/02Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments
    • B60Q1/04Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights
    • B60Q1/14Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights having dimming means
    • B60Q1/1415Dimming circuits
    • B60Q1/1423Automatic dimming circuits, i.e. switching between high beam and low beam due to change of ambient light or light level in road traffic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/02Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments
    • B60Q1/04Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights
    • B60Q1/18Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights being additional front lights
    • B60Q1/20Fog lights
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/26Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic
    • B60Q1/2603Attenuation of the light according to ambient luminiosity, e.g. for braking or direction indicating lamps
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2300/00Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
    • B60Q2300/05Special features for controlling or switching of the light beam
    • B60Q2300/054Variable non-standard intensity, i.e. emission of various beam intensities different from standard intensities, e.g. continuous or stepped transitions of intensity
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2300/00Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
    • B60Q2300/30Indexing codes relating to the vehicle environment
    • B60Q2300/31Atmospheric conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/741Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/53Control of the integration time
    • H04N25/533Control of the integration time by using differing integration times for different sensor regions
    • H04N25/534Control of the integration time by using differing integration times for different sensor regions depending on the spectral component

Description

本開示は全体として、視程検出のためのシステムおよび方法に関し、より具体的には、視程検出のために構成されたハイダイナミックレンジ画像センサシステムに関する。
本開示の一態様によれば、車両からの視程を算出するためのシステムが開示される。該システムは、複数のピクセルを含むピクセルアレイを備える、ハイダイナミックレンジ画像センサシステムを備える。該画像センサは、該ピクセルアレイの各ピクセルと電気通信している読み出し回路構成をさらに含む。該読み出し回路構成は、単一の画像フレーム内の各ピクセルにつき複数の露光時間のうちの一つに対応する別個のピクセル値を読み出しするように動作可能である。該システムは、該読み出し回路構成と通信する少なくとも一つのプロセッサをさらに備える。該プロセッサは、複数の画像処理アルゴリズムに基づいて車両からの視程を算出するように動作可能である。
本開示の別の態様によれば、視程を識別するように構成された装置が開示される。該装置は、ピクセルアレイを有する画像センサシステムを備える。該ピクセルアレイは、複数のピクセル及び読み出し回路構成を備える。該読み出し回路構成は、ピクセルアレイの各ピクセルと電気通信しており、第一の積分期間に対応する第一のピクセルについての第一のピクセル値をキャプチャするように動作可能である。該読み出し回路構成は、更に、第二の積分期間に対応する第二のピクセルについての第二のピクセル値をキャプチャするように動作可能である。第二のピクセルは、ピクセルアレイにおいて第一のピクセルに隣接する。該装置は、第一のピクセル値と第二のピクセル値との間のコントラストに基づいて視程を識別するように構成された、少なくとも一つのプロセッサをさらに備える。
本開示の更に別の態様によれば、車両に対する視程を検出するための方法が開示される。該方法は、第一の積分期間でピクセルアレイのうちの第一のピクセルについての第一のピクセル値をキャプチャする工程を含む。第一の積分期間は、複数の画像フレームのうちの現在の画像フレーム内の複数の選択可能な積分期間から選択される。さらに、該方法は、当該現在の画像フレーム内の第二の積分期間でピクセルアレイのうちの第二のピクセルについての第二のピクセル値をキャプチャする工程を含む。第二のピクセルは、ピクセルアレイにおいて第一のピクセルに隣接している。第一のピクセル値が第二のピクセル値と比較されて、当該現在のコントラスト値が決定される。現在のコントラスト値に基づいて、物体が識別される。物体の現在のコントラストが、当該物体の複数の以前のコントラスト値と比較されて、視程が決定される。
本開示のこれら及び他の特徴、利点、並びに目的は、以下の明細書、特許請求の範囲、及び添付の図面を参照することにより、当業者にさらに理解され、認識されよう。
本開示は、詳細な説明および添付の図面からより完全に理解されることになろう。
画像センサシステムのブロック図である。
画像センサシステムのピクセルアレイのブロック図である。
低下した視認性を有する場面に対応する、ハイダイナミックレンジ画像センサによってキャプチャされた画像フレームの例証図である。
見通しの良い状態における典型的な視認性を有する場面に対応する、ハイダイナミックレンジ画像センサによってキャプチャされた画像フレームの例証図である。
第一の時間での場面に対応する、ハイダイナミックレンジ画像センサによってキャプチャされた画像フレームの例証図である。
本開示による第二の時間での場面に対応する、ハイダイナミックレンジ画像センサによってキャプチャされた画像フレームの例証図である。
本発明の例証される実施形態は、主に、画像センサシステムおよびその方法に関連する、方法の工程および装置の構成要素の組み合わせに属する。したがって、本装置の構成要素および方法の工程は、該当する場合、本明細書の説明の利益を得る当業者には容易に明らかとなろう詳細によって本開示を不明瞭にしないように、本開示の実施形態の理解に関係する特定の詳細のみを示す図面において、慣習的記号によって表されている。さらに、説明および図面において、同様の数字は、同様の要素を表す。
本文書において、第一および第二とか、上および下などといった関係を示す用語は、一つの実体または動作を別の実体または動作から区別するために使用され、かかる実体または動作間の何らかの実際のかかる関係または順序を必ずしも要求ないし暗示するものではない。「備える/含む(comprises、comprising)」という用語、またはそれらの任意の他の変形は、要素の一覧を備える/含むプロセス、方法、物品、または装置が、それらの要素のみを含むのではなく、明示的に列挙されていないか、あるいは、かかるプロセス、方法、物品、もしくは装置にとって本質的でない他の要素をも含み得るように、非排他的な包含を網羅することが意図されたものである。
図1および図2を参照すると、本開示に従ってハイダイナミックレンジ画像センサシステム10が示される。システム10の画像センサ12は、複数の行18および列20を形成する複数のピクセル16を含むピクセルアレイ14を含む。システム10は、ピクセルアレイ14と通信するイメージャメモリ26をさらに備える。イメージャメモリ26は、複数のピクセル16のうちの少なくとも一部分についてのピクセル値を記憶するように動作可能な複数のメモリセルを有して構成されている。画像センサ12は、プロセッサ32を備えるコントローラ30と電気通信している。プロセッサ32は、画像センサ12からの画像データを受信および処理するように構成されている。
プロセッサ32は、画像データに対応する画像フレーム処理し、視程を算出するように構成されている。視程は、車両運転者に見えている車道のおおよその距離に対応し得る。システム10は、日よけ、オーバーヘッドコンソール、センターコンソール、ダッシュボード、プリズム式のバックミラー、Aピラーなどの車両アクセサリ内において、または車両内の任意の他の好適な場所に、搭載されてもよい。コントローラは、処理中に種々の命令および/または画像データを記憶するために利用され得る、コントローラメモリ33、例えばランダムアクセスメモリ(RAM)をさらに備える。コントローラ30およびプロセッサ32は、マイクロコントローラ、マイクロプロセッサ、デジタル信号プロセッサ、プログラマブルロジックユニット、離散回路構成、またはそれらの任意の組み合わせを使用して実装することができる。さらに、マイクロコントローラは、一つよりも多くのマイクロプロセッサを使用して実装されてもよい。
コントローラ30は、複数の入力、例えば、速度入力34、操舵入力36、および車両バス38と通信して示される。速度入力34は、速度計、または車両の速度に対応するデータを測定し通信するように動作可能な任意のデバイスを介して、車両の速度を通信する信号を提供する。操舵入力36は、操舵データ、例えば、車両の舵輪および/または前輪の操舵角を通信するように構成されている。速度データおよび操舵データを、コントローラ30において画像データと組み合わせて利用して、画像データにおいて識別された物体の、車両に対する位置および/または距離を決定してもよい。車両バス38は、コントローラエリアネットワーク(CAN)バスなどの任意の好適な標準通信バスを使用して実装されてもよい。車両バス38は、多様な追加情報をコントローラ30に提供するように構成されてもよい。
いくつかの実装形態において、システム10はさらに、少なくとも一つの照明コントローラ40、例えば、前照灯ドライブ42、霧灯ドライブ44、および/または尾灯ドライブ46と組み合わせて実装されてもよい。照明コントローラ40の各々は、コントローラ30によって算出された視程に応答して、車両の前照灯、霧灯、および/または尾灯から放射される照明の強度を制御するように構成されてもよい。例えば、コントローラ30は、ロービーム設定およびハイビーム設定で照明を放射するよう前照灯を制御するように動作可能であり得る。かかる実施形態において、プロセッサ32は、ロービームの前照灯およびハイビームの前照灯を制御するよう前照灯ドライブ42に信号を出力するように構成されている。画像センサ12からの画像データは、コントローラ30が前照灯ドライブ42を介してホスト車両上の前照灯を調整し得るように、車両の動作環境に対応する追加情報を提供してもよい。前照灯制御システムの少なくとも一つの実装形態は、Joseph Stamらによる1998年9月18日出願の「CONTINUOUSLY VARIABLE HEADLAMP CONTROL」と題される米国特許第6,049,171号に教示され、この開示は当該参照により本明細書に組み込まれる。
いくつかの実装形態において、システム10は、コントローラ30によって算出された視程に応答して、少なくとも一つの車両点灯デバイスの点灯レベルを複数の点灯レベルの中で調整するように動作可能であり得る。例えば、コントローラ30は、視程に応答して、前照灯、霧灯、および/または尾灯を複数の点灯強度に調整するように構成されてもよい。いくつかの実装形態において、点灯デバイスは、光源のデューティーサイクルに対応する多様な強度で照明を放射するように動作可能な光源を備えてもよい。かかる実装形態において、照明コントローラ40のうちの少なくとも一つは、光源に供給される制御信号のデューティーサイクルを調整することによって、その対応する光源から放射される照明の出力強度を変動させるように動作可能であり得る。かかる実施形態において、コントローラは、点灯デバイスの強度を、コントローラによって検出された視認性に対応する三つ以上の強度にわたって制御するように動作可能であり得る。
種々の実装形態において、システム10は、多様な制御スキームに基づいて照明コントローラ40を制御するように動作可能であり得る。いくつかの実装形態において、システムを利用して、それぞれ低視認性および高視認性に応答して霧灯を選択的に作動または作動停止するように、制御信号を霧灯ドライブ44に送信してもよい。いくつかの実装形態において、システムは、前照灯および/または尾灯の輝度レベルを制御するように、制御信号を前照灯ドライブ42および/または尾灯ドライブ46のうちの一つ以上に送信するように構成されてもよい。システムはまた、視程の増加または減少に応答して、前照灯のロービームまたはハイビーム設定を選択的に作動または作動停止するように動作可能であってもよく、また、一つ以上の特化されたビームパターン(例えば、「全天候」ビームパターン)を作動するように構成されてもよい。いくつかの実装形態において、コントローラ30はまた、低視認性に基づいて危険な速度状態を識別するために車両バス38を介して速度制御信号を出力するように動作可能であり得る。速度制御信号に応答して、車両の一つ以上の制御システムは、車両運転者が低視認性状態において注意して運転することを確実にするように、車両の速度を制限してもよい。
車両点灯デバイスの光源は、多様な形態の光源に対応してもよい。いくつかの実装形態において、光源は、発光ダイオード(LED)、有機LED、および/または他の固体光源の形態であってもよい。かかるデバイスは、各点灯デバイスのデューティーサイクルを制御するように信号を照明コントローラ40に送達することにより、任意の数の強度で照明を放射するよう、コントローラ30によって調整されてもよい。かかる構成において、コントローラ30は、車両点灯デバイスの各々がコントローラ30によって算出される視程に相対して増加または減少し得る複数の強度で照明を放射するよう構成され得るように、照明コントローラ40の各々に制御信号を供給するように動作可能であり得る。
次に図2を参照すると、コントローラ30と通信している画像センサ12が示される。コントローラ30は、イメージャメモリと通信しており、画像センサ12の画像キャプチャ動作を制御するように構成されている。画像センサ12は、ハイダイナミックレンジイメージに対応する画像データをキャプチャするために、ピクセルアレイ14の各ピクセル16に対応するピクセルデータおよび/または露光データを一時的に記憶するように構成され得る。画像データは、一つ以上の読み出し回路によって画像センサ12のピクセルアレイ14からの読み出され得る。ピクセルアレイは、レンズまたは口径を通して受信され得る照明を測定するように構成された光感応素子の形態での複数のピクセル16を含む。
画像センサ12は、画像データをキャプチャするように動作可能である任意のデバイスに対応してもよい。一実装形態において、画像センサ12のピクセルアレイ14は、CMOS画像センサ、例えば、CMOSアクティブピクセルセンサ(APS)または電荷結合素子(CCD)を含み得る。ピクセルアレイのピクセル16の各々は、光センサ、光センサのアレイ、または照明をキャプチャするように構成された任意のセンサの群に対応し得る。光センサの各々は、ピクセルアレイ14におけるピクセル値を測定するように動作可能であり得る。コントローラ30は、少なくとも一つの読み出し回路からアナログまたはデジタル形態で供給される画像データからのデータを処理するように動作可能な、任意のプロセッサまたはコントローラを備えてもよい。例えば、コントローラ30は、複数のプロセッサ、マルチコアプロセッサ、または、プロセッサと回路と周辺処理デバイスとの任意の組み合わせ、として実装されてもよい。
画像センサ12は、ICダイ上に集積回路(IC)として集積されたイメージャメモリ24を含む。ICダイは、シリコン、アルミニウム、銅、またはICを製造するのに利用され得る他の材料のものであってもよい。イメージャメモリ24は、限られた材料を使用して最小のフットプリントを有するICが実装され得るように、画像センサ12のパッケージに含まれる。メモリを含むICの構築は、種々の空間削減および処理上の利益を含むが、メモリの製造費用の増加に対応する場合がある。そのようなものとして、本明細書で考察される本方法およびシステムは、画像センサ12のための改善された費用削減を提供し得る。イメージャメモリは、種々のメモリの形態、例えば、ランダムアクセスメモリ(RAM)、ダイナミックRAM(DRAM)、シンクロナスDRAM(SDRAM)、およびデジタル情報を記憶するように構成された他のメモリの形態を含んでもよい。メモリセルの各々は、イメージャメモリ内のアドレス指定可能なメモリ場所に対応してもよく、ピクセルアレイ14の各ピクセル16の解像度に対応する容量を有してもよい。
ピクセルアレイ14は、ピクセルの群に対応する行18および列20で配列され得る。ピクセルの群の各々は、画像センサ12またはコントローラ30の構成要素として配設され得る一つ以上のA/D変換器によって読み取られ得る。一つ以上のA/D変換器は、高速A/D変換器に対応してもよい。いくつかの実装形態において、A/D変換器は、ピクセルアレイ14内のピクセル16の特定の解像度を測定するのに必要とされる解像度に対応する、高いサンプリングレートおよび解像度を有してもよい。一般に、A/D変換器は、露光時間に対応する行シーケンス時間の間、ピクセルの群(例えば、ピクセルの行または列)につき行走査シーケンスで複数のサンプルをデジタル化するように動作可能である、サンプリングレートを有し得る。露光時間は、ピクセルアレイ14の各ピクセル16が積分期間の間に露光される、経時的期間に対応してもよい。一旦ピクセルアレイ14の各ピクセル16が飽和レベルまたは総積分時間に達すると、各ピクセルについてのピクセルデータおよび露光データがイメージャメモリ26の中に記憶され得る。一旦単一の画像フレームの露光時間がピクセルの群(例えば、行18または列20)のうちの少なくとも一つについて経過すると、コントローラ30は、画像データを読み出し、当該画像データを利用して、車両からの視程を決定し得る。
いくつかの実施形態において、画像センサ12は、ピクセルアレイ14の各ピクセル16について、ハイダイナミックレンジを有する画像データを検出するように動作可能であり得る。例えば、いくつかの実装形態において、視程は、画像データにおいて検出された一つ以上の物体のコントラストのレベルに基づいて検出され得る。ピクセルアレイ14からの画像データにおける物体52は、長い露光時間を有する一つ以上の暗くなったピクセルに対応し得る。物体52の境界54は、短い露光時間を有する一つ以上の明るいピクセルに対応し得る。このようにして、コントローラ30は、単一の画像フレーム内で、物体52、および、境界54と物体52との間の相対的なコントラスト、を識別し得る。
画像センサ12は、ピクセル16の各々の露光を複数の選択可能な積分期間のうちの一つに類別することによって、ピクセル16の各々の積分期間を検出するように構成されてもよい。例えば、単一の画像フレームをキャプチャする間、画像センサ12は、ピクセルの各々の露光値を複数回サンプリングして、各ピクセルに四つの選択可能な積分時間のうちの一つを割り当てるべきかどうかを決定してもよい。第一の積分期間の間、ピクセル16のうちの一つについてのサンプルが、ピクセルが飽和するであろうことを示す(例えば、サンプリングされたピクセル値が既定の閾値を上回る)場合、コントローラ30は、第一の積分期間をそのピクセルに割り当て、当該ピクセルを条件付きでリセットするであろう。ピクセル16のうちの一つについてのサンプルが、ピクセルが飽和しないであろうことを示す(例えば、サンプリングされたピクセル値が既定の閾値を下回る)場合、コントローラ30は、そのピクセルがより長い第二の積分期間を通して積分し続けることを許容するであろう。このようにして、隣接したピクセルについて、例えば、物体52および境界54を画定するコントラストなどの高レベルのコントラストが、キャプチャされ得る。
物体52と境界54との間のコントラストにより画定される、物体52のエッジ56を正確にキャプチャすることによって、画像センサ12は、隣接したピクセルについて、単一の画像フレーム内で短い露光データおよび長い露光データを正確にキャプチャするように動作可能である。本明細書で考察されるように、画像センサ12は、各々が次のより長い選択可能な積分期間よりも約16倍短い、四つの選択可能な積分期間にわたって画像データをキャプチャすることによって、ハイダイナミックコントラストを有する画像データをキャプチャするように動作可能であり得る。このようにして、コントローラ30は、車両からの視程が正確かつ迅速に算出され得るように、単一の画像フレーム内で物体52と境界54との間のコントラストを識別し得る。
画像センサ12は、各々が次のより長い選択可能な積分期間よりも約16倍短い、四つの選択可能な積分期間にわたって画像データをキャプチャするように構成されているものとして説明されるが、種々の積分期間が利用されてもよい。例えば、画像センサ12は、各々が次のより長い選択可能な積分期間よりも約8倍短い、六つの選択可能な積分期間を有するように構成されてもよい。例示的な実装形態において、画像センサは、各々が次のより長い選択可能な積分期間よりも約4倍短い、八つの選択可能な積分期間を有するように構成されてもよい。そのようなものとして、画像センサ12は、多様な構成で実装されてもよく、単一の画像フレーム内の各ピクセルにつき複数の露光時間のうちの一つに対応する別個のピクセル値をキャプチャするように動作可能であり得る。
画像データは、複数のメモリ場所においてイメージャメモリ26に記憶されてもよい。複数のメモリ場所は、各ピクセル16についての積分期間、利得(ゲイン)、および解像度の識別用インデックスを記憶するように構成されてもよい。複数のメモリ場所は、各ピクセル16についての画像データを記憶するように構成された複数のビットを含んでもよい。条件付きリセットの後、各ピクセル16は、さらなる条件付きリセットの可能性があることを条件として、露光時間の残りにわたって再び積分を開始してもよい。
本明細書で考察されるハイダイナミックレンジ画像センサとして動作するように構成された画像センサの例は、Jon H.Bechtelらによる2007年12月6日出願の「HIGH DYNAMIC RANGE IMAGING DEVICE」と題される米国特許第8,289,430号、Jon H.Bechtelらによる2008年4月25日出願の「HIGH DYNAMIC RANGE IMAGING DEVICE」と題される米国特許第8,305,471号、Daniel Van Blerkomらによる2009年1月28日出願の「IMAGING DEVICE」と題される米国特許第8,378,284号、およびDaniel Van Blerkomらによる2009年1月28日出願の「IMAGING DEVICE」と題される米国特許第8,144,223号、ならびに2008年4月9日出願の「IMAGING DEVICE」と題される米国特許出願第12/082,215号、Jon H.Bechtelによる2008年6月11日出願の「IMAGING DEVICE」と題される米国特許出願第12/157,476号、およびJon H.Bechtelによる2013年2月14日出願の「HIGH DYNAMIC RANGE IMAGER SYSTEM」と題される米国特許出願第13/766,867号に開示され、これらの全ては参照によりそれらの全体が本明細書に組み込まれる。画像データの処理の例は、Jeremy C.Andrusによる2010年2月1日出願の「DIGITAL IMAGE PROCESSING AND SYSTEMS INCORPORATING THE SAME」と題される米国特許出願第12/658,002号、Jon H.Bechtelによる2010年2月1日出願の「DIGITAL IMAGE PROCESSING AND SYSTEMS INCORPORATING THE SAME」と題される米国特許出願第12/697,600号、Jon H.Bechtelによる2010年5月27日出願の「IMPROVED DIGITAL IMAGE PROCESSING FOR CALCULATING A MISSING COLOR VALUE」と題される米国特許出願第12/788,574号、およびBenjamin Chaykinによる2008年2月21日出願の「METHOD AND SYSTEM FOR PROVIDING IMAGES AND GRAPHICS」と題される米国特許出願第12/034,748号に開示され、これらの全ては参照によりそれらの全体が本明細書に組み込まれる。
例示的な実装形態において、画像センサ12は、ハイダイナミックレンジ画像センサであり、ここで各ピクセル16は、複数の利用可能な積分期間のうちの任意の一つにわたって独立して積分するように構成されている。複数の利用可能な積分期間は、全てが同時に終了する、同時の入れ子にされた積分期間であってもよい。いくつかの実装形態において、各ピクセル16は、積分期間を独立して選択するように構成されており、コントローラ30もまた、各ピクセル16につき積分期間を独立して選択するように構成されてもよく、またはこれらの組み合わせであり得る。ピクセルアレイ14の各ピクセル16は、フレーム毎に単回、少なくとも一つのA/D変換器によって読み出しされ得る。
次に図3および4を参照すると、それぞれ、低下した視認性を有する場面および見通しの良い状態における典型的な視認性を有する場面について、画像センサ12によってキャプチャされた画像フレームの例証図が示されている。本明細書で考察されるように、コントローラ30は、画像センサ12からのハイダイナミックレンジ画像データ62を利用して、車両からの視程を算出してもよい。視程は、水平線境界コントラストアルゴリズム、エッジコントラストアルゴリズム、色コントラスト、および画像テクスチャアルゴリズムのうちの一つ以上に基づいて算出されてもよい。これらのアルゴリズムのうちの一つ以上を利用することによって、車両からの視程は、隣接したピクセル間で識別され得るハイダイナミックレンジ、ならびに本明細書に開示されるアルゴリズムの特定の工程および組み合わせに起因して、改善された正確さをもって算出され得る。
水平線境界コントラストアルゴリズムは、画像データにおいてピクセル64の群を検出するように構成されている。ピクセルの群の各々は、空と地面上の物体との間の境界を含む、画像データ62における連続したピクセルの部分またはパッチに対応し得る。水平線境界コントラストアルゴリズムは、ピクセルの群の各々において空と物体との間のコントラストを分析することによって、車両からの視程をモニタリングする。一般に、例えば霧のかかった状態の間に、視程が減少するとき、ピクセルの群64に位置する空と物体との間のコントラストは減少する。
水平線境界コントラストアルゴリズムの第一の工程は、画像データ62におけるピクセルの群64を識別する工程を含み得る。ピクセルの群は、画像データ62を形成するピクセルの全てまたはピクセルの群64における平均ピクセル強度を算出することによって識別され得る。いくつかの実装形態において、ピクセルの群は、ピクセルの15×15の群に対応してもよい。コントローラ30は、ピクセルの群64の各々を画像データ62の上から下向き方向に処理し、群の各々を平均ピクセル強度閾値およびピクセルエッジカウント閾値と比較するように構成されてもよい。ピクセルエッジカウントは、ピクセルの群64の各々において識別されるエッジまたはコントラスト形成部分に対応してもよい。コントローラ30は、複数の垂直列の各々についてピクセル64の群が地上/空の境界66として識別されるまで、ピクセルの群64の各々を処理してもよい。
コントローラ30は、各ピクセル群64におけるエッジの数および各ピクセル群におけるピクセルの平均ピクセル強度を算出することによって、ピクセルの群64の各々を地上/空の境界66の一部分として識別し得る。地上/空の境界66に対応するピクセル群64は、エッジの数がピクセルエッジカウント閾値を超えており、平均ピクセル強度がピクセル強度閾値を下回っていることに基づいて、コントローラ30によって識別されてもよい。地上/空の境界66におけるピクセルの各群64を構成するピクセル16は、次いで、コントローラ30によって垂直方向勾配が算出されるように処理される。当該勾配は、画像データ62において、空68に対応するピクセルの強度またはピクセル値と、地上70および/または物体に対応するピクセルの強度またはピクセル値との差異をキャプチャする。
垂直方向勾配は、空68と地上70との間のコントラストの表現に対応する。コントローラ30は次いで、車両の前の道路76の消尽点74の近くにある道路ピクセルの群72を識別し得る。勾配値は次いで、当該場面の距離部分について代表的な勾配強度プロファイルが算出されるようにフィルタリングされる。コントローラ30は次いで、当該勾配強度プロファイルを、線形および二次曲線モデルに適合させ、これにより勾配プロファイルを視程にマッピングする。視程は次いで、コントローラメモリ33に記憶され得るサンプリングデータに基づいて決定される。一般に、より低い勾配プロファイルは、より短い車両からの視程に対応する。
色コントラストメトリックは、画像における色変化の量を測定するように構成されている。車両からの視程は、画像データにおける色の相対的強度に基づいて決定される。例えば、実質的に見通しの良い視認性状態を有する場面は、低下した視認性状態を有する場面と比べて、より顕著な色を有し得る。画像の大きな部分にわたる色変化の低減を測定することによって、コントローラ30は、色変化の欠如を視認性低下に相関付けるように動作可能である。
図3および図4に示されるように、第一の物体82および第二の物体84の第一の色は、空68の第二の色とは異なり得る。図3に示される低下した視認性を有する場面に対応する画像データ62において、物体82および84と空68との間の色の差異は、図4におけるよりも明瞭性が低い。より具体的には、場面に関する視程を識別するために、コントローラ30は、画像データ62について各ピクセル16の色調画像を計算し、マッピングし得る。コントローラ30は、比較的大きな色調の変化が生じるピクセルを示すために、色調閾値を超える色調の変化に対応する色調画像のエッジを検出するように動作可能である。コントローラ30は次いで、画像における色変化の量についてのメトリックを得るために、色調画像において見出されるエッジの数を算出してもよい。色調画像におけるこのエッジの総和計算は、当該画像にわたるプロファイルを垂直方向および水平方向に測定するために、様々な方法で行われる。このようにして、システム10は、画像センサ12からのハイダイナミックレンジ画像データ62をさらに利用して、車両からの視程を識別し得る。
次に図5Aおよび5Bを参照すると、それぞれ、第一の時間92および第二の時間94での場面に対応する、画像センサ12によってキャプチャされた画像フレームの例証図が示される。物体エッジコントラストアルゴリズムは、車両が物体96に近づくにつれて物体96のコントラストが増加する率を識別するように構成されている。物体96の最初の識別に基づいて、コントローラ30は、画像データ62の複数のフレーム内で物体96を識別し得る。複数の画像フレーム内で物体96が識別された後、コントローラ30は次いで、物体96のコントラストがおおよそゼロであった距離を計算してもよく、同様に車両からの視程を計算してもよい。
物体96のコントラストがおおよそゼロであった距離は、画像データ62のサブセットを水平バンドに分け、それらのバンドを垂直方向エッジフィルタに通して処理することによって、算出される。物体96は、複数のフレームの間で相関する強い垂直方向エッジを追跡することによって、コントローラ30によって複数のフレームを通して追跡され得る。速度入力34から受信された速度データおよび画像センサ12のフレームレートに基づいて、コントローラ30は、フレーム間でエッジが移動した距離を算出するように動作可能である。強い垂直方向エッジおよびフレームレートに基づいて、追跡されたエッジの距離マップがコントローラ30によって作成され得る。
追跡されたエッジの距離マップを用いて、追跡されたエッジと背景98とのコントラストが次いで、コントローラ30によって一定期間にわたって比較され得る。距離マップにおける経時的な追跡されたエッジの場所に基づいて、コントラスト測定値およびそれらのそれぞれの計算された距離の対応する群に線が適合される。コントラスト測定値およびそれらのそれぞれの計算された距離の群についての最良適合の線を次いで使用して、コントラストがおおよそゼロである距離を予測する。このおおよその距離で、コントローラ30は、車両からの視程を識別し得る。
画像テクスチャアルゴリズムは、車両からの視程を推定するために、高周波数成分について画像データ62を分析するように構成されている。このアルゴリズムを利用することによって、コントローラ30は、画像データにおけるテクスチャの変化を識別して、車両からの視程を推定するように動作可能である。高視認性および比較的見通しの良い状態に対応する場面において、道路表面102および空104は、一般に滑らかであり、実質的な低周波数成分を有する。低下した視認性を有する場面において、道路表面102および空104のテクスチャは、増加したテクスチャおよび実質的な高周波数成分を有し得る。画像データ62の相対的テクスチャを特徴付けることによって、コントローラ30は、車両からの視程を算出するように動作可能である。
画像データ62のテクスチャは、画像データをハイパスフィルタで最初にフィルタリングすることによって、コントローラ30により算出され得る。フィルタから出力された画像データ62は次いで、コントローラ30によって正規化および量子化されて、画像データ62のテクスチャが測定される。測定されたテクスチャに基づいて、テクスチャプロファイルが、画像センサ12によってキャプチャされた複数の画像フレームについて算出される。複数の画像フレームの各々は次いで、当該場面における現在の状態に対応する視程に相関付けられる。本明細書に記載されるように、コントローラは、場面に関する視程を正確に算出するために単独でまたは組み合わせて利用され得る複数の方法によって、車両からの視程を決定するように動作可能である。
いくつかの実施形態において、コントローラ30により、画像データ62から決定される視程を利用して、前照灯ドライブ42、霧灯ドライブ44、および/または尾灯ドライブ46の点灯強度を制御してもよい。例えば、コントローラは、少なくとも一つの照明コントローラ40と通信している種々の点灯デバイス、例えば、前照灯、霧灯、および/または尾灯から放射される照明の強度を変動させるように動作可能であり得る。車両からの視程が減少するにつれて、コントローラ30は、減弱された視認性を識別し得て、それに応じて点灯デバイスのうちの少なくとも一つの強度を増加または減少させ得る。例えば、コントローラ30は、視認性が50メートル未満であることに応答して、信号を尾灯ドライブ46に送信することによって、車両の尾灯の強度を増加させ得る。コントローラ30から信号を受信することに応答して、尾灯ドライブ46は、尾灯から放射される照明の強度を増加させるために、尾灯に供給されるドライブ信号のデューティーサイクルを増加させ得る。このようにして、システム10は、コントローラ30が車両からの視程の変化を検出することに応答して、点灯デバイスのうちの少なくとも一つの強度を制御するように動作可能である。
コントローラ30は、種々の増分で車両からの視程を算出するように動作可能であり得る。いくつかの実施形態において、コントローラ30は、100m〜400mの視程では50mの増分で、0m〜100mの視程では10mの増分で、車両からの視程を算出するように動作可能であり得る。例えば、コントローラ30は、車両により近い視程については第一の増分精度で、車両からより遠い視程については第二の増分精度で、視認性を算出するように構成されてもよい。第一の増分精度は、第二の増分精度よりも精確である。このようにして、コントローラは、視程が低視程状態に対応する潜在的に危険な運転状態へと減少していることに応答して、車両からの視程の算出において増加する精度を提供するように動作可能である。
本開示は、画像センサ12からのハイダイナミックレンジ画像データ62を利用して、車両からの視程を算出するように構成されているシステム10を実現する。視程は、水平線境界コントラストアルゴリズム、エッジコントラストアルゴリズム、色コントラスト、および画像テクスチャアルゴリズムのうちの一つ以上に基づいて算出され得る。これらのアルゴリズムのうちの一つ以上を利用することによって、車両からの視程は、開示される種々の工程および動作において、隣接したピクセル間で識別され得る画像データ62のハイダイナミックレンジに起因して、改善された正確さをもって算出され得る。
本明細書に記載される本開示の実施形態は、ある特定の非プロセッサ回路と併せて、本明細書に記載される画像センサシステムおよびその方法の機能のうちのいくつか、ほとんど、または全てを実装する一つ以上の従来のプロセッサ、ならびに、一つ以上のプロセッサを制御する固有の記憶されたプログラム命令、からなり得ることが理解されよう。非プロセッサ回路には、信号ドライバ、クロック回路、電源回路、および/またはユーザ入力デバイスが含まれ得るが、これらに限定されない。そのようなものとして、これらの機能は、分類システムを使用または構築するのに用いられる方法の工程として解釈され得る。代替的に、いくつかまたは全ての機能は、記憶されたプログラム命令を有しない状態機械によって、または、各機能もしくは機能のうちある特定のもののいくつかの組み合わせがカスタムロジックとして実装される一つ以上の特定用途向け集積回路(ASIC)において、実装されることが可能である。当然のことながら、これらの二つのアプローチの組み合わせを使用することが可能である。故に、これらの機能のための方法および手段が本明細書に記載されてきた。さらに、当業者であれば、例えば、利用可能な時間、現在の技術、および経済的配慮によって動機付けられる、有意の努力および多くの設計選択にもかかわらず、本明細書に開示される概念および原理によって導かれるとき、最小限の実験をもってかかるソフトウェア命令およびプログラムならびにICを容易に生成可能であろうことが予想される。
上述の構成要素は、本明細書に明示的に記載されていない追加的または代替的方法で組み合わされ得ることが、当業者によって理解されるはずである。当業者および本開示の教示を適用する者であれば、本開示の種々の実装形態の修正形態に想到するであろう。したがって、図面に示され、上述される実施形態は、単に例証を目的とするものであり、本開示の範囲を限定することを意図するものではないことが理解される。本発明の範囲は、均等論を含む特許法の原理に従って解釈される、以下の特許請求の範囲によって規定される。

Claims (8)

  1. 車両に対する視程を算出するためのシステムであって、
    ハイダイナミックレンジ画像センサシステムであって、
    複数のピクセルを含むピクセルアレイと、
    前記ピクセルアレイの各ピクセルと電気通信しており、単一の画像フレーム内の画像データの各ピクセルにつき別個のピクセル値を読み出すように動作可能な、読み出し回路構成と、
    前記読み出し回路構成と通信する少なくとも一つのプロセッサと、を備え、前記プロセッサが、
    前記画像データに基づいて色調画像を計算し、
    当該色調画像内の色調エッジの数に基づいて当該色調画像の色変化の量を計算し、
    前記色調画像の色変化の量に基づいて前記車両からの視程を算出するように動作可能である、ハイダイナミックレンジ画像センサシステムを備える、システム。
  2. 前記プロセッサは、色調変化の所定の閾値を超える前記色調画像内の色調変化に応じて前記色調画像内の色調エッジを識別するようにさらに動作可能である、請求項に記載のシステム。
  3. 前記色調エッジが、前記ピクセルアレイのうちの少なくとも二つの隣接したピクセルの前記別個のピクセル値の間で識別されるコントラストに基づいて識別される、請求項2に記載のシステム。
  4. 前記読み出し回路は、更に、前記単一の画像フレーム内で複数の露出時間を識別するように構成されており、
    前記複数の露光時間の各々が、各ピクセルにつき複数の積分期間から選択される、請求項1〜3のいずれか一項に記載のシステム。
  5. 各ピクセルについての前記積分期間が、前記ピクセルの各々の露光と複数の既定の露光閾値との比較に応答して識別される持続時間に対応する、請求項4に記載のシステム。
  6. 前記複数の積分期間のうちの選択された積分期間が、各ピクセルの前記露光を前記複数の既定の露光閾値と比較することによって決定される、請求項5に記載のシステム。
  7. 前記視程が、少なくとも二つの隣接したピクセル間の比較から決定され、前記隣接したピクセルの各々が、前記複数の積分期間のうちの異なる積分期間からの露光値を有する、請求項4に記載のシステム。
  8. 視程を識別するように構成された装置であって、
    画像センサシステムであって、
    複数のピクセルを含むピクセルアレイと、
    前記ピクセルアレイの各ピクセルと電気通信している読み出し回路構成であって、画像フレーム内の各ピクセルのピクセルデータをキャプチャする、読み出し回路構成と、
    前記ピクセルアレイの前記ピクセルデータに基づいて色調アレイを識別し、当該色調アレイ内の色調エッジの数に基づいて当該色調アレイの色変化の量を計算し、前記色調アレイの色変化の量に基づいて前記視程を識別するように構成された、少なくとも一つのプロセッサと、を備え、
    前記画像フレームは、単一時間の一場面を示す画像データを表すものである
    画像センサシステムを備える、装置。
JP2017524398A 2014-11-06 2015-11-04 視程検出のためのシステムおよび方法 Active JP6606181B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201462076223P 2014-11-06 2014-11-06
US62/076,223 2014-11-06
PCT/US2015/059014 WO2016073590A1 (en) 2014-11-06 2015-11-04 System and method for visibility range detection

Publications (2)

Publication Number Publication Date
JP2018503061A JP2018503061A (ja) 2018-02-01
JP6606181B2 true JP6606181B2 (ja) 2019-11-13

Family

ID=55909751

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017524398A Active JP6606181B2 (ja) 2014-11-06 2015-11-04 視程検出のためのシステムおよび方法

Country Status (5)

Country Link
US (1) US10380451B2 (ja)
EP (1) EP3215807B1 (ja)
JP (1) JP6606181B2 (ja)
CN (1) CN107110648A (ja)
WO (1) WO2016073590A1 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9785837B2 (en) * 2014-10-21 2017-10-10 Bae Systems Information And Electronic Systems Integration Inc. Measuring atmospheric attributes using multispectral images
CN106952310A (zh) * 2016-01-29 2017-07-14 法拉第未来公司 用于确定能见度状态的系统及方法
US20170349148A1 (en) * 2016-06-03 2017-12-07 GM Global Technology Operations LLC Method and apparatus for detecting road condition data and weather condition data using vehicular crowd-sensing
CN105987685A (zh) * 2016-07-04 2016-10-05 西北农林科技大学 一种基于双目视觉的昆虫行为学研究辅助系统
US10838067B2 (en) * 2017-01-17 2020-11-17 Aptiv Technologies Limited Object detection system
US10754035B2 (en) * 2017-01-17 2020-08-25 Aptiv Technologies Limited Ground classifier system for automated vehicles
JP2018191230A (ja) 2017-05-11 2018-11-29 ソニーセミコンダクタソリューションズ株式会社 撮像素子及びその駆動方法、並びに、電子機器
EP3492338A1 (en) * 2017-11-30 2019-06-05 Mitsubishi Electric R & D Centre Europe B.V. Method for automatic remote control of a moving conveyance
TW201946445A (zh) * 2018-04-30 2019-12-01 圓剛科技股份有限公司 影像處理方法
US10803570B2 (en) * 2018-05-10 2020-10-13 Eagle Technology, Llc Method and system for a measure of visibility from a single daytime image
JP7081444B2 (ja) * 2018-11-01 2022-06-07 トヨタ自動車株式会社 車両制御システム
KR102257078B1 (ko) * 2018-12-18 2021-05-27 허병도 좌표계를 이용한 안개 탐지 장치 및 그 방법
US20220113740A1 (en) * 2020-10-14 2022-04-14 Aptiv Technologies Limited Vehicle location information correction based on another vehicle
WO2023009549A2 (en) * 2021-07-26 2023-02-02 Cyngn, Inc. High-definition mapping

Family Cites Families (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB849102A (en) 1955-09-23 1960-09-21 Nat Res Dev Improvements in or relating to fog detecting and like visibility measuring systems
US3299769A (en) 1963-03-08 1967-01-24 Donald J Byers Method and means for ascertaining visibility conditions
DE1905016C3 (de) 1969-02-01 1975-04-24 Impulsphysik Gmbh, 2000 Hamburg SichtweitenmeBeinrichtung
JP2665739B2 (ja) 1987-02-02 1997-10-22 北海道開発局開発土木研究所長 視程計測装置
DE3735267C3 (de) 1987-10-17 1996-03-21 Telefunken Microelectron Vorrichtung zur Sichtweitenmessung
EP0691534B1 (de) 1994-07-06 2001-12-12 Volkswagen Aktiengesellschaft Verfahren zur Ermittlung der Sichtweite, insbesondere für die Bewegung eines Kraftfahrzeuges
US5663710A (en) 1995-07-18 1997-09-02 Jaycor Backscatter-type visibility detection
US6108084A (en) 1995-08-17 2000-08-22 Robert Bosch Gmbh Combined sensor device for measuring both rain-covered area on and visual range through a windshield of a motor vehicle
US6587573B1 (en) 2000-03-20 2003-07-01 Gentex Corporation System for controlling exterior vehicle lights
US6085152A (en) 1997-09-19 2000-07-04 Cambridge Management Advanced Systems Corporation Apparatus and method for monitoring and reporting weather conditions
JP3452794B2 (ja) 1998-05-12 2003-09-29 三菱電機株式会社 視程測定装置
US6853453B2 (en) 1999-03-12 2005-02-08 Regents Of The University Of Minnesota Video camera-based visibility measurement system
US7016045B2 (en) * 1999-03-12 2006-03-21 Regents Of The University Of Minnesota Video camera-based visibility measurement system
DE19928915A1 (de) 1999-06-24 2001-01-11 Bosch Gmbh Robert Verfahren zur Sichtweitenbestimmung
DE19945588A1 (de) 1999-09-23 2001-04-19 Bayerische Motoren Werke Ag Sensoranordnung
JP4463388B2 (ja) 2000-06-29 2010-05-19 小糸工業株式会社 視認状況測定装置
DE10034461A1 (de) 2000-07-15 2002-01-31 Bosch Gmbh Robert Verfahren zur Sichtweitenbestimmung
FR2835911B1 (fr) 2002-02-14 2004-05-07 France Etat Ponts Chaussees Procede de determination de la distance de visisbilite et procede de determination de la presence d'un brouillard
US7683326B2 (en) * 2002-07-09 2010-03-23 Gentex Corporation Vehicle vision system with high dynamic range
FR2847367B1 (fr) 2002-11-19 2005-01-14 Valeo Vision Procede et dispositif de determination de la distance de visibilite du conducteur d'un vehicule
FR2864932B1 (fr) 2004-01-09 2007-03-16 Valeo Vision Systeme et procede de detection de conditions de circulation pour vehicule automobile
US7602937B2 (en) * 2004-06-08 2009-10-13 International Electronic Machines Corporation Image-based visibility measurement
CN2715931Y (zh) * 2004-07-13 2005-08-10 中国科学院自动化研究所 一种实现基于物体表面颜色的快速跟踪方法的装置
FR2876826B1 (fr) 2004-10-19 2007-03-02 France Etat Ponts Chaussees Dispositif de mesure de distance de visibilite
WO2006063827A1 (en) 2004-12-15 2006-06-22 Magna Donnelly Electronics Naas Limited An accessory module system for a vehicle window
JP4608631B2 (ja) 2005-06-08 2011-01-12 国立大学法人名古屋大学 車両用画像処理装置、運転支援装置
DE102005035810A1 (de) 2005-07-27 2007-02-01 Adc Automotive Distance Control Systems Gmbh Verfahren zur Sichtweitenbestimmung mit einer Kamera
JP4725391B2 (ja) 2006-03-29 2011-07-13 株式会社デンソー 車両用視程測定装置、及び運転支援装置
FR2902556B1 (fr) 2006-06-15 2008-08-15 Valeo Vision Sa Procede de determination d'une distance de visibilite pour un conducteur d'un vehicule.
JP4784452B2 (ja) 2006-09-12 2011-10-05 株式会社デンソー 車載霧判定装置
US8154628B2 (en) * 2006-09-14 2012-04-10 Mitsubishi Electric Corporation Image processing apparatus and imaging apparatus and method
US8289430B2 (en) 2007-02-09 2012-10-16 Gentex Corporation High dynamic range imaging device
DE102007049256A1 (de) 2007-10-15 2009-04-23 Daimler Ag Multifunktionssensorsystem zur Detektion von Niederschlag und zur Umgebungserfassung bei Fahrzeugen
FR2923016B1 (fr) 2007-10-31 2009-11-20 Valeo Vision Procede de detection d'un phenomene perturbateur de visibilite pour un vehicule.
FR2923933B1 (fr) 2007-11-16 2010-03-26 Valeo Vision Procede de detection d'un phenomene perturbateur de visibilite pour un vehicule
JP4506822B2 (ja) 2007-11-26 2010-07-21 株式会社デンソー 霧検知装置及びその設置方法
US7970178B2 (en) * 2007-12-21 2011-06-28 Caterpillar Inc. Visibility range estimation method and system
IT1391180B1 (it) 2008-07-07 2011-11-18 Consiglio Nazionale Ricerche Procedimento per la caratterizzazione del particolato atmosferico mediante un dispositivo lidar a retrodiffusione elastica e retroriflessione, e sistema lidar per l'attuazione del procedimento
JP5511467B2 (ja) * 2009-04-13 2014-06-04 キヤノン株式会社 画像処理装置およびその制御方法、並びにプログラム
JP4970516B2 (ja) * 2009-09-30 2012-07-11 日立オートモティブシステムズ株式会社 周囲確認支援装置
WO2011106578A2 (en) * 2010-02-26 2011-09-01 Gentex Corporation Automatic vehicle equipment monitoring, warning, and control system
JP5635334B2 (ja) 2010-08-23 2014-12-03 京セラ株式会社 携帯端末
US9946937B2 (en) * 2011-06-17 2018-04-17 Robert Bosch Gmbh Method and control unit for recognizing a weather condition in the surroundings of a vehicle
US9137498B1 (en) * 2011-08-16 2015-09-15 Israel L'Heureux Detection of mobile computing device use in motor vehicle
US9398227B2 (en) 2012-01-05 2016-07-19 GM Global Technology Operations LLC System and method for estimating daytime visibility
DE102012215465A1 (de) 2012-08-31 2014-03-06 Robert Bosch Gmbh Verfahren und Informationssystem zum Filtern von Objektinformationen
CN105210115B (zh) * 2013-06-10 2020-10-30 英特尔公司 使用2d图像数据来执行手势识别

Also Published As

Publication number Publication date
EP3215807A4 (en) 2017-10-25
EP3215807B1 (en) 2020-04-15
WO2016073590A1 (en) 2016-05-12
JP2018503061A (ja) 2018-02-01
US20160132745A1 (en) 2016-05-12
CN107110648A (zh) 2017-08-29
US10380451B2 (en) 2019-08-13
EP3215807A1 (en) 2017-09-13

Similar Documents

Publication Publication Date Title
JP6606181B2 (ja) 視程検出のためのシステムおよび方法
US10625660B2 (en) Camera based headlight control system
KR100682067B1 (ko) 차량 전조등들이나 또는 타의 차량 장비를 제어하기 위한 영상 처리 시스템
EP2539197B1 (en) Automatic vehicle equipment monitoring, warning, and control system
US9639764B2 (en) Image recognition system for vehicle for traffic sign board recognition
JP6132412B2 (ja) 車外環境認識装置
JP6944525B2 (ja) オートバイバンキングのための画像補正
US10037473B2 (en) Vehicle exterior environment recognition apparatus
JP6236039B2 (ja) 車外環境認識装置
JP6420650B2 (ja) 車外環境認識装置
US9506859B2 (en) Method and device for determining a visual range in daytime fog
JP4157351B2 (ja) 車両の照明装置の自動スイッチング用装置
JP5746116B2 (ja) 車両用監視装置
JP2014109853A (ja) 車両周辺監視装置
EP2767924B1 (en) A method and device for recognising pulsing light sources
US20140333806A1 (en) Method and device for adapting a filter property of an adaptive color filter and for operating an imager
KR101642848B1 (ko) 물체 감지 장치 및 물체 감지 방법
JP4882592B2 (ja) 光抽出装置、光抽出方法及び距離計測システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170725

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180614

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180625

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180912

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190204

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190408

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190808

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20190820

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190917

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191017

R150 Certificate of patent or registration of utility model

Ref document number: 6606181

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250