JP4253275B2 - 車両制御システム - Google Patents

車両制御システム Download PDF

Info

Publication number
JP4253275B2
JP4253275B2 JP2004167644A JP2004167644A JP4253275B2 JP 4253275 B2 JP4253275 B2 JP 4253275B2 JP 2004167644 A JP2004167644 A JP 2004167644A JP 2004167644 A JP2004167644 A JP 2004167644A JP 4253275 B2 JP4253275 B2 JP 4253275B2
Authority
JP
Japan
Prior art keywords
vehicle
image
light spot
light
vehicle control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2004167644A
Other languages
English (en)
Other versions
JP2005092861A (ja
Inventor
裕史 大塚
寛 武長
彰二 村松
竜彦 門司
勲 古沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Hitachi Ltd
Original Assignee
Honda Motor Co Ltd
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd, Hitachi Ltd filed Critical Honda Motor Co Ltd
Priority to JP2004167644A priority Critical patent/JP4253275B2/ja
Publication of JP2005092861A publication Critical patent/JP2005092861A/ja
Application granted granted Critical
Publication of JP4253275B2 publication Critical patent/JP4253275B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Lighting Device Outwards From Vehicle And Optical Signal (AREA)

Description

本発明は、車両搭載用の車両制御システムに関するものである。
車載カメラが撮影した画像を用いて車両の位置及び方向を検出する技術として、夜間のヘッドライトやテールランプを検知し、その情報を基に他車両情報を検出する例があげられる。ヘッドライトは夜間走行時、運転手の視認性を良くするために前方に車両が存在しなければハイビームに、存在する場合は距離に応じてロービームにすることが望ましい。従って、自車両前方に先行車もしくは対向車がどの距離に存在するかどうかを検出する技術が重要となる。車間距離算出の一方式として、自車の前方をカメラで撮像し、画像を解析することで車間距離を計算する例が知られている。ただしCCDやCMOSのカメラは、ダイナミックレンジが限られているため、ヘッドライトとテールランプのように輝度差が大きな対象を一様に撮像することが難しい。更にカメラへの入射光量は光点からの距離に依存するため、ヘッドライトが近くテールランプが遠方にあれば見かけ上の輝度差は一層広がる。ハイビームは200m程離れても眩しさを感じることから、配光制御では数百m遠方の車両まで検出できなければならない。即ち遠方のテールランプの輝度にあわせて露光を調整すると、近傍のヘッドライトからの光量が強すぎてブルーミングを起こす可能性が高く、また近傍のヘッドライトにあわせて露光を調整すると、遠方のテールランプは暗くなり、距離の算出が困難となる。
この課題を解決するために、青色フィルタを装着したレンズを持つ撮像素子と赤色フィルタを装着したレンズを持つ撮像素子の2つを有し、青色フィルタで対向車のヘッドライトを、赤色フィルタで先行車のテールランプを各々検出する技術が知られている。(例えば特許文献1)本方式は、機械的な走査装置が不要であって簡単な構成の安価なシステムを実現できる。しかし、撮像素子及びレンズを2つ用いているので、光学系で2倍のコストがかかる。更に、2つそれぞれがヘッドライトとテールランプを分けて認識するため、ヘッドライトとテールランプの違いによる輝度差は吸収できるが、距離の違いによる輝度差は吸収が困難であり、近傍と遠方に車両が混在する場合は、ブルーミング等による車両位置検出精度の低下が生じる。
更に、ヘッドライトやテールランプを検知する場合に問題となるのが信号機やリフレクタ、街灯、自動販売機など、車両以外のノイズ光点の混入である。配光制御や、ACC、プリクラッシュセイフティーなどのアプリケーションでは、車両を検知することが重要であり、それ以外のものはノイズとして除外しなければならない。しかしながら、上記のようなノイズ光点が混入すると、それを車両と誤認識することがあり、アプリケーションの振る舞いに重大な影響を与えてしまう。これらノイズ光の影響を排除する手法として、街灯を除外するための手法が提案されている(例えば特許文献1)。本方式では、街灯の光点の特徴を利用してヘッドライトやテールランプとの差別化を図っている。すなわち、走行を続けるにつれて光点が画面の上方に移動することを利用したり、蛍光灯特有のフリッカーを利用したりすることで除外が可能としている。
特表2001−519744号
しかしながら、通常のNTSCカメラを用いる場合、蛍光灯のフリッカーを利用した方法は現実的でなく、蛍光灯でない信号機には意味をなさない。また、単に上方に移動するものであればバスなどの高い位置に設置されたテールランプも同様の動きをするため、それらとの切り分けが難しいという問題がある。
本発明は、カメラ1台で、近傍のヘッドライトから遠方のテールランプまで高精度に光点の位置を特定できる高精度でかつ安価な画像処理システムを提供する。また、ヘッドライトやテールライトと、信号機や街灯、自動販売機などのノイズ光を識別して、夜間の車両検知性能を高め、より高度な機能を提供することを目的としている。
本発明では、車両に搭載された1台のカメラ(撮像手段)が撮影した画像を解析する画像解析手段を備え、画像解析手段でカメラが撮影した2つ以上の露光量の異なる画像を解析して前方を走行する他の車両の位置を検知する。検知した他車両の位置情報は、車両制御のために用いる。
本発明では、露光量を変えながら複数の画像を撮像することで、ダイナミックレンジの小さい撮像素子においても高精度な光の検出ができ、安価な画像処理システムを構築できる。更に本発明では、ノイズ光の影響をより削減することが可能であり、カメラによる夜間の車両検知を必要とするアプリケーションの高度化に役立つ。
以下、図を用いて本発明の実施例を説明する。
図1は、ヘッドライト配光制御を実現する画像処理システムを、自動車などの車両100に搭載した構成を模式的に示した図である。本実施例の画像処理システムは、カメラ(撮像手段)101と画像解析ユニット102を有している。カメラ101は、車両100が走行する前方の画像を撮像できるように、座席のルームミラー(図示せず)付近に設置されている。カメラ101で撮像された車両前方の画像は、画像信号化されて画像解析ユニット102に入力される。画像解析ユニット102は、カメラ101から送信された画像信号を解析し、車両100の前方に存在する他の車両までの距離を算出する。ヘッドライト制御ユニット103は、画像解析ユニット102からの出力信号を受け、画像解析ユニット102が算出した距離値から、ヘッドライト104を制御する制御信号を生成する。ヘッドライト制御ユニット103が生成した制御信号は、ヘッドライト104に送られる。具体的には、ヘッドライト制御ユニット103は、ヘッドライト104のハイビームおよびロービームに負荷する電圧量を算出し、ヘッドライト104に算出された電圧を供給する。
なお、ヘッドライト制御ユニット103は、ヘッドライト104のハイビームとロービームの電流量を算出して、ヘッドライト104に供給してもかまわない。また、ヘッドライト104の図示しないフィラメント、あるいはリフレクタ部分を稼動するために、ヘッドライト制御ユニット103から、ヘッドライト104の照射する光軸の角度を制御する信号を、ヘッドライト104に送信しても良い。この制御方法によって、ヘッドライト104の照射する光の光軸を変化させて、ヘッドライト104からの照射距離を制御することができる。
図2は、カメラ101と画像解析ユニット102の内部構成を示した模式図である。図3は、カメラ101の内部構成を詳細に示した模式図である。以下、図2と図3を用いてカメラ101と画像解析ユニット102の動作を説明する。
カメラ101は、画像を検知するCCD201とカメラDSP202を有している。CCD201は光を電荷に変換する撮像素子であり、車両前方の映像をアナログ画像信号に変換して、カメラDSP202に転送する。なおカメラ101は、他にもレンズや必要に応じてフィルタ等を有していても良い。
カメラDSP202の内部には、ADC303(Analog-Digital Converter)と、露光制御を行うための露光制御ユニット301と、露光時間を設定するためのレジスタ302を備えている。ADC303は、CCD201が画像を検知して出力したアナログ画像信号を、デジタル画像信号に変換し、画像解析ユニット102の画像入力I/F205に送信している。デジタル画像信号は、カメラDSP202より連続的に送信されるが、その先頭には同期信号が含まれている。従って、画像入力I/F205では、必要なタイミングのデジタル画像信号のみを取り込むことができる。画像入力I/F205で取り込まれたデジタル画像信号は、メモリ206に書き込まれ、画像処理ユニット204によって処理や解析が行われる。なお、この処理の詳細については、後述する。一連の処理はFROMに書き込まれたプログラム207によって行われ、画像入力I/F205で画像を取り込ませたり、画像処理ユニット204で画像処理を行わせるための制御および必要な計算は、CPU203が行っている。
ここでCCD201は、レジスタ302に設定された露光時間で、車両前方の画像を撮像する。レジスタ302は、設定された露光時間を利用者によって任意に書き換え可能である。書き換えられた露光時間は、次フレームあるいは次フィールド以降の撮像時に反映される。
設定された露光時間の制御は、カメラDSP202によって行われる。カメラDSP202は、CCD201の電源をオンしている時間を制御し、その結果CCD201に当たる光の量が制限される。この方式は、電子シャッター方式と呼ばれる。露光時間の制御は、電子シャッター方式以外に、メカニカルシャッターを開閉させる方式を用いても実現できる。また、絞り機構を設けて、絞りを調整して露光量を変化させても良い。また、インターレースのように1ラインおきに操作する場合、奇数ラインと偶数ラインで露光量を変化させても良い。
図4は、実施例1の処理の流れを表したフローチャートである。S401からS409は、それぞれの処理ステップを示している。まず、各処理ステップの概略について説明する。
S401からS404では、カメラ101から高輝度検出用の画像と低輝度検出用の画像を取得し、画像解析ユニット102に転送する処理である。転送される画像データには同期信号が含まれており、CPU203は、同期信号を割り込みタイミングとして画像入出力にかかわる処理を行う。
S405からS407では、画像データから画像解析ユニット102を用いて、画像中の光点の位置を検出している。
S408では自車両と前方を走行する他の車両との車間距離を計算し、S409は、最も近い他の車両との車間距離からヘッドライト104に加える目標電圧を算出し、ヘッドライト制御ユニット103によってヘッドライト104にかける電圧を制御している。
次に、図4及び図5、図6、図7を用いて、各処理ステップの詳細な説明を行う。
S401では、CPU203がレジスタ302を高輝度検出用露光量に設定する。詳述すると、高輝度の光点を検出するために最適な露光時間に設定するものであって、前方の対向車のヘッドライト、または比較的近距離にある先行車両のテールランプの光点を検出するために選ばれる。高輝度の光点を検出するための露光時間は、撮像素子であるCCD201の感度特性にもよるが、1/120秒から1/250秒程度である。
図5は、カメラ101によって車両100の前方を撮像した画像の模式図である。図5(a)は、道路を走行する車両100の前方の像を示し、対向車両501及び先行車両502が認識される。図5(a)の状態を、前記高輝度検出用露光時間で撮像した画像が、図5(b)に示す高輝度検出用画像503である。対向車両501のヘッドライトは、輝度が高いために高輝度検出用画像503では光点として写る。しかし、先行車両502のテールランプは、輝度値が低いために、高輝度検出用画像503には写らない。
S402では、S401で設定した露光時間で撮像したデジタル画像信号を、画像解析ユニット102中の画像入力I/F205が受信したのち、メモリ206に格納する。
S403では、CPU203によって、レジスタ302を低輝度検出用露光量に書き換える。これは、低輝度の光点を検出するために最適な露光時間であって、前方の比較的遠距離にあるテールランプの光点を検出するために選ばれる。そのため露光時間は、S401で設定したものよりも長くなり、1/30秒から1/60秒程度である。図5(a)の状態を低輝度検出用露光時間で撮像した画像が、図5(c)の低輝度検出用画像504である。低輝度検出用画像504は、先行車両502のテールランプの低輝度光点を捉えることができる反面、対向車両501のヘッドライトは高輝度であるため、ブルーミングを起こして周辺の画素まで白く飽和している。
S404では、S402と同様にS403で設定した露光時間で撮像したデジタル画像信号を、画像入力I/F205が受信し、メモリ206に格納する。
S405〜S407では、カメラ101から取得した画像を解析して光点の位置を求める。S405〜S407の処理は、CPU203と画像処理ユニット204によって行われる。S405〜S407に関する一連の処理を、図6、図7を用いて説明する。
S405は、高輝度検出用画像503を用いて、図6(a)に示す高輝度光点601の位置検出を行っている。光点の位置検出方法については、後述する。高輝度光点601の位置が求まったら、S406〜S407で、図6(b)に示す低輝度検出用画像504を用いて低輝度光点の位置検出を行う。ここで、低輝度検出用画像504には、高輝度の光点も含まれており、前述したようにブルーミングを起こすことがある。ただし、高輝度光点601の位置が含まれる光点のブルーミング領域603は、高輝度検出用画像503ですでに求めている。
そこでS406では、図6(b)に示すように低輝度検出用画像504で高輝度点の二重検出を防ぐためにマスキングを行っている。ここで、日本の道路のように自動車などの車両が左側通行である場合は、対向車両が画像面の右側に位置し、対向車両のヘッドライトよりも画像面の右側に先行車両のテールランプが位置することは考えにくい。そこで、マスキング領域604は、図6(b)のようにブルーミング領域603から画像面の右側すべてとする。自動車などの車両が道路右側通行の場合は、反対にブルーミング領域から画像面の左側すべてをマスキングすることになる。
続いてS407では、マスキング領域604以外の領域で、低輝度光点602の位置を算出している。
次に、高輝度光点と低輝度光点の位置の検出方法について図7を用いて説明する。ここで、図7(a)は高輝度検出用画像503、図7(b)は低輝度検出用画像504を示している。光点は、輝度値が高いため画像上での濃度値が高く白く写る。濃度値は8ビットで示される。即ち、0から255までの256段階で表現される。高輝度の光点付近の濃度値は255に近く、それ以外の領域の濃度値は0に近い。そこで、まず高輝度点を検出するため、図7(a)のようにY座標が等しい画素の濃度値をすべてY軸に累積しながら投影する。この投影分布をY軸の濃度投影分布と呼ぶこととする。図7(a)のようにY軸濃度投影分布には車両1台につき、Y座標軸に1つの山が現れる。この山の頂点を求めることで、光点のY座標を求めることができる。更に、Y軸濃度投影分布で検出された山の裾野を上端下端とした光点存在帯701に限定して、X軸濃度投影分布を求める。通常の自動車などの車両は、左右にヘッドライトがあることからX座標軸に2つの山が現れる。ただし、片側複数の車線がある路線では、車両が2台以上並ぶこともあり、2つ以上の山が現れる場合もある。また、車両がオートバイなどの2輪車である場合、ヘッドライトは1つであるため、X座標軸には1つしか山が現れない。低輝度光点の場合も、高輝度光点と同様にして座標軸上の位置を算出することができる。図7(b)のようにマスキング領域604を除外した領域で、図7(a)の場合と同様にY軸濃度投影分布を求め、帯状領域でX軸投影を求める。
通常、自動車などの4輪車両の場合は、テールランプやヘッドライトの光点が2つとなり、2つの光点を検出すればよい。しかしながら4灯テールランプ等の車両も存在し、例え先行車両が1台であってもX軸濃度投影分布に4つの山ができることがある。このような場合は、先行車両が、1台か2台か判断しにくい。そこで、本発明の実施例では、前記のような4灯テールランプの車両において、山が4つ以上現れた場合は、テールランプが車両中心から左右対称であることを利用し、山のX軸の幅や位置を解析することとする。前記解析結果から、先行車両が、4灯テールランプの車両か、それとも2灯テールランプの車両が2台存在するのかを判断できる。
輝度点の位置が求まったら、続いて図4のS408で車間距離の計算を行う。対向車両もしくは先行車両が4輪車であれば、ヘッドライトあるいはテールランプから車幅を求めることができる。この場合、カメラ101を用いてヘッドランプあるいはテールランプの画角を測定し、画角情報があれば三角測量の原理で、自車両と対向車両または先行車両との車間距離を求めることができる。ただし、対向車両もしくは先行車両が2輪車の場合は、ランプが1つしかないので、上記方式で車幅を求めることはできない。そこで、2輪車のように光点が1つの場合は、自車両に設置したカメラの路面からの高さを利用して俯角による測距を行うこととする。すなわち、2輪車のランプの路面からの高さよりも、自車両に設置したカメラの路面からの高さの方が高いことを利用することで、三角測量を用いた車間距離測定を行うことができる。対向車両もしくは先行車両が4輪車の場合は、バスやトラック等、自車両に設置したカメラの路面からの高さよりも高い位置にヘッドライトあるいはテールランプを備えている車両もある。この場合には、俯角による車間距離の測定ができない。従って、前述のランプ幅情報を用いた車間距離の測定を行うこととする。
三角測量で距離を求める方法を図16、17を用いて説明する。まず、車両幅情報から距離を求める場合、図16に示す原理で測距を行う。先行車両1603の実際の車両幅W、カメラの焦点距離f、CCD1602面に映し出された画像中の車両幅wとすると、カメラから車両1603までの距離Lは
L=Wf/w
と表せる。ここで実際の車両幅Wは未知であるため例えば平均的な1.7mと仮定することで距離が求まる。
次に、俯角情報を用いて距離を求める場合について図17を用いて説明する。先行車両のテールランプ1703の路面からの高さをhl、カメラの焦点距離f、CCD1702面に映し出された画像中の座標yとすると、カメラから先行車両までの距離Lは
L=(hc−hl)×f/y
と表せる。ここで、実際の先行車両のテールランプ1703の路面からの高さhlは未知であるため例えば80cmと仮定する必要がある。ただし、この値は車両による個体差が大きく、とくにカメラの光軸よりも高い、すなわち、カメラの路面からの高さhcがテールランプの路面からのhlよりも低い場合は距離が求まらない。そのため、オートバイなどの二輪車に使用する程度にして、主に図16のように車両幅を用いて距離を出すようにした方がよい。
ここで、4輪車でも自車両から遠方に離れてしまうと、画像解像度などによりヘッドライトあるいはテールランプなどの左右2つの光点が切り分けられないこともある。例えば、4輪車の車幅が1。7m であって、レンズ画角が28度、水平解像度640、CCD横サイズ5mm、焦点距離10mmのカメラを用いた場合、300m遠方での車幅はおよそ7画素程度となる。このとき左右2つの光点の切り分けができず、ランプ間隔による側距方式が俯角による測距方式に切り替わる。このとき距離の整合性が取れなくなり、結果として急激に距離が変化して見えることがある。すなわち2種類の測距方式が違うことで、その誤差が悪影響を及ぼすことがある。このような課題に関しては、4輪車も前述した2通りの測距方式で車間距離を計算し、そのうち距離の近いほうを採用することで誤差を軽減することができる。
図4のS409では、S408で求まった車間距離のうち最も近い値を基準にしてヘッドライトの配光制御を行っている。CPU203は、最も小さな車間距離の値からヘッドライトのロービームおよびハイビームに負荷する電圧を算出し、ヘッドライト制御ユニット103に送信する。ヘッドライト制御ユニット103は、送られてきた各電圧値をヘッドライトのロービームおよびハイビームのフィラメントに負荷する。ここで、最も近い車両との距離が80m以下であればロービームのみに電圧をかけ、それから距離が大きくなるにつれて徐々にロービームの電圧を落としながらハイビームに電圧を上昇させる。400m以上離れていればハイビームのみに電圧をかけることとする。
次に、撮像素子であるCCD201にカラーCCDを用いた場合の実施例2の処理について説明する。図8はカラーカメラを用いた実施例2の処理のフローチャートである。S801からS809は、それぞれの処理ステップを示している。まず、各処理ステップの概略について説明する。
S801からS804では、カメラ101から高輝度検出用の画像と低輝度検出用の画像を取得し、画像解析ユニット102に転送する処理である。転送される画像データには同期信号が含まれており、CPU203は、同期信号を割り込みタイミングとして画像入出力にかかわる処理を行う。S805、S806では、画像データから画像解析ユニット102を用いて、画像中の光点の位置を検出している。S807では自車両と前方を走行する他の車両との車間距離を計算し、S808は、最も近い他の車両との車間距離からヘッドライト104に加える目標電圧を算出し、ヘッドライト制御ユニット103によってヘッドライト104にかける電圧を制御している。
次に、図8及び図9、図10、図11を用いて、各処理ステップの詳細な説明を行う。
S801では、CPU203がレジスタ302を高輝度検出用露光量に設定する。実施例1同様、高輝度の光点を検出するために最適な露光時間に設定するものであって、前方の対向車のヘッドライト、または比較的近距離にある先行車両のテールランプの光点を検出するために選ばれる。高輝度の光点を検出するための露光時間は、撮像素子であるCCD201の感度特性にもよるが、1/120秒から1/250秒程度である。
図9は、カメラ101によって車両100の前方を撮像した画像の模式図である。図9(a)は、道路を走行する車両100の前方の像を示し、対向車両901及び先行車両902が認識される。図9(a)の状態を、前記高輝度検出用露光時間で撮像した画像が、図9(b)に示す高輝度検出用画像903である。対向車両901のヘッドライトは、輝度が高いために高輝度検出用画像903では光点として写る。しかし、先行車両502のテールランプは、輝度値が低いために、高輝度検出用画像903には写らない。
S802は、S801で設定した露光時間で撮像したデジタル画像信号を、画像解析ユニット102中の画像入力I/F205が受信したのち、メモリ206に格納する。
S803は、CPU203によって、レジスタ302を低輝度検出用露光量に書き換える。これは、低輝度の光点を検出するために最適な露光時間であって、前方の比較的遠距離にあるテールランプの光点を検出するために選ばれる。そのため露光時間は、S801で設定したものよりも長くなり、1/30秒から1/60秒程度である。図9(a)の状態を低輝度検出用露光時間で撮像した画像が、図9(c)の低輝度検出用画像904である。低輝度検出用画像904は、先行車両902のテールランプの低輝度光点を捉えることができる反面、対向車両901のヘッドライトは高輝度であるため、実施例1と同様に、ブルーミングを起こして周辺の画素まで白く飽和することがある。
S804では、S802と同様にS803で設定した露光時間で撮像したデジタル画像信号を、画像入力I/F205が受信し、メモリ206に格納する。
S805、S806では、カメラ101から取得した画像を解析して光点の位置を求めている。S805、S806の処理は、CPU203と画像処理ユニット204によって行われる。S805、S806に関する一連の処理を、図10、図11を用いて説明する。
S805は、高輝度検出用画像903を用いて、図10(a)に示す高輝度光点1001の位置検出を行っている。光点の位置検出方法については後述する。高輝度光点1001の位置が求まったら、S806で、図9(c)に示す低輝度検出用画像904を用いて低輝度光点の位置検出を行う。ここで、低輝度検出用画像904には、高輝度の光点も含まれており、前述したようにブルーミングを起こすことがある。ここで、実施例2は実施例1とは異なり色情報を用いることができるため、低輝度検出用画像904のなかでテールランプの色である赤色の部分のみを抽出することが可能である。
次に、高輝度光点と低輝度光点の位置の検出方法について図11を用いて説明する。ここで、図11(a)は高輝度検出用画像903、図11(b)は低輝度検出用画像904を示している。光点は、輝度値が高いため画像上での濃度値が高く白く写る。濃度値は8ビットで示される。即ち、0から255までの256段階で表現される。高輝度の光点付近の濃度値は255に近く、それ以外の領域の濃度値は0に近い。そこで、まず高輝度点を検出するため、図11(a)のようにY座標が等しい画素の濃度値をすべてY軸に累積しながら投影する。この投影分布をY軸の濃度投影分布と呼ぶこととする。図11(a)のようにY軸濃度投影分布には車両1台につき、Y座標軸に1つの山が現れる。この山の頂点を求めることで、光点のY座標を求めることができる。更に、Y軸濃度投影分布で検出された山の裾野を上端下端とした光点存在帯1101に限定して、X軸濃度投影分布を求める。
低輝度光点の場合は、高輝度光点と同様にして座標軸上の位置を算出することができる。カラー画像については様々な表色系の規格が存在し、どの表色系でも本実施例は実現可能であるが、ここでは一般的なYUV表色系で説明する。YUV画像は、濃度情報に対応するY画像と色情報をもつUV画像の2画面で構成される規格である。このうちUV画像は2次元のカラーマップを表しており、色の基本情報である色相、彩度情報を取り出すことが可能である。すなわち、YUVのカラー画像を処理すると赤色部分のみを抽出することができる。この事を利用し、低輝度検出用画像901では、実施例1のようにマスキングされた画像から高輝度部分を抽出するのではなく、全領域から赤色成分をもつ高輝度部分のみ抽出する。赤色成分を持つ高輝度部分は図10(b)のようになる。すなわち、赤色成分をもつ高輝度部分のみを抽出することにより、マスキング処理が必要なくテールランプ領域のみを抽出することが可能となる。光点の検知方法は図11(a)の場合と同様にY軸濃度投影分布を求め、帯状領域でX軸投影を求める。
ステップS807、S808については、実施例1のステップS408、S409と等価な処理であるため説明を省く。
次に、夜間の走行路における、車両以外の様々な光源の識別方法について述べる。車両以外の光源は、画像処理システムにおいてノイズとなる場合が多い。このため、画像処理システムでは、カメラ101が捉えた光源を、車両のランプと、ノイズ光源に区別する必要がある。そこで、カメラ101としてカラーカメラを用いた場合のノイズ光源除外方法について、以下説明する。
最も走行路に近くかつ明るいノイズ光源としては、道路わきに設置されたリフレクタが上げられる。リフレクタは、自車両のヘッドライトの反射であるため、近い場合には先行車のテールランプよりも輝度が高くなることがある。高輝度検出用画像903に写ることはまれであるが、低輝度検出用画像904には写る可能性が高い。この問題に関しては、色情報を用いて解決できる。一般に道路左側に設置されたリフレクタは白色、道路右側に設置されたリフレクタはオレンジ色に反射する。すなわち、低輝度検出用画像904から光点を検出する場合、赤色光点、すなわち赤色の領域のみを検出してそれ以外の色の低輝度光点はすべて除外する。
次に問題となるのが信号機である。信号機は視認性を確保するため、一般に図12(b)のように2基並んで設置されている。そのため、400m〜500m離れた地点での信号機2基1202を、100m程度前方の比較的高い位置に設置されたバスなどのテールランプ1201と混同することがある。これは、カメラで撮像した際に、信号機1202もバスのテールランプ1201も、どちらも図12(c)の光点1203のように同様に写るからである。この信号機の輝度は一般に高く、高輝度検出用画像903に写る。そこで、青信号、黄色信号の場合のみ、カラー情報を用いて高輝度検出用画像903内にある青もしくは黄色の高輝度光点は除外する。
CCD201に赤色フィルタを設置してもよい。この場合、輝度の低い車両のテールランプの光量を落とさずに他のノイズ光源の輝度を落とすことができる。
一般的には上記の手法で大部分のノイズ光が除外できる。ただし、ノイズ光はできるだけ除外できていた方がアプリケーションの動作安定につながる。そのため、いくつかの手法を組み合わせてより多くのノイズ光を取り除く手段を組み込んだ方がよい。以下に本発明となるノイズ光除去手法を詳述する。
まず初めに、赤信号の除去について説明する。赤信号の場合、高輝度検出用画像903で除外したとしても、低輝度検出用画像904に赤色光点として写りこむため、基本的にはテールランプと誤認識してしまう。赤信号の誤認識は、前述のように400m〜500m離れた地点での信号機2基を、100m程度前方の比較的高い位置に設置されたバスなどの車両灯と混同することである。ここで、比較的高いとは、具体的には消失点1801よりも高い位置にある光点を指している。消失点とは図18に図示するようにすべてのレーンマークが集中する点であり、カメラの光軸と一致する。すなわち、バスなどのように自車のカメラの取付高よりも高い位置に設置されたテールランプは、信号機と同様に消失点よりも高い位置に写るため識別が難しくなる。この場合、バスと信号機の違いを検知できれば区別が可能になる。
例えば図13(a)のようにバス1301が100m以内と比較的近傍に存在するのであれば、低輝度検出用画像1305にはテールランプ1302以外にもテールランプの下方ナンバープレート光1303あるいは客室の明かり1304が写りこむ。これらの光点の位置関係はおおむね図13(b)のようになっているため、テールランプ1302以外の光の配置を解析することで、遠方の赤信号なのか近傍のバスなどの車両なのかを識別することが可能となる。すなわち、消失点よりも高い位置に赤色光点1302が抽出されたとき、同時に当該赤色光点1302の上及び/又は下にも他の光点1303、1304が抽出されれば、抽出された赤色光点1302は他車両に起因する光点であると判定できる。ここで、上あるいは下の光点とは、x座標が2つの当該赤色光点1302を左右端とした範囲内の光点のみを指すものとし、2つの当該赤色光点1302の範囲外のx座標を持ついわゆる斜め方向の光点は含めない。例えば図13(d)のヘッドランプ光点1309は赤色光点1308の下とみなし、ヘッドランプ光点1310は赤色光点1308の下とはみなさない。
次に、図13(c)に示すように、遠方の信号機1306が赤信号になっており、かつ対向車1307が存在する状況において、そのヘッドランプ光1309と遠方信号機1306の配置が、ちょうど図13(b)に示すナンバープレート光1303とバスのテールランプ光1302のような配置になる場合について説明する。このような場合にでも、もし当該赤色光点の下に抽出された他の光点が赤色の光点であれば、すなわち当該赤色光点の下に他のテールランプ光が存在すれば、上にある当該赤色光点は赤信号である可能性が高く、他車両に起因する光点ではないと判定できる。また、当該赤色光点の下に抽出された他の光点が赤色でない場合について考えると、もしバスのナンバープレート光1303であれば、光量が小さいことから高輝度検出用画像には映らないが、ヘッドランプ光1309であれば光量が大きいことから高輝度検出用画像に映る。このことを利用すればテールランプ1301と信号機1306の赤色とを識別可能となる。しかしながら、対向車1307が赤信号で停車してヘッドランプ光をスモールランプに減光している場合も考えられる。このとき対向車1307が遠方であれば、高輝度検出画像にはヘッドランプ光1309が映らないことも考えられ、前記のような区別が難しくなる。これらのことを考慮し図22の処理フローのようにして、当該赤色光点が他車両に起因する光点かどうかを判断する。
低輝度検出画像において消失点よりも高い位置に赤色光点が抽出される(S2201)とともに、高輝度検出画像において当該赤色光点の下に他の光点が抽出された場合(S2202)は、前記赤色光点は他車両に起因する光点ではないと判定する(S2207)。低輝度検出画像において消失点よりも高い位置に赤色光点が抽出され(S2201)、かつ高輝度検出画像において当該赤色光点の下に他の光点が抽出されなかった場合(S2202の判定がNo)、低輝度検出用画像において当該赤色光点の下に他の光点が抽出されるかどうかを検証する(S2203)。もし低輝度検出画像において当該赤色光点の下に他の光点が抽出された場合(S2203の判定がYES)、赤色であれば(S2204の判定がYes)、前記赤色光点は他車両に起因する光点ではないと判定する(S2207)。赤色でない場合、1点であれば(S2205の判定がNo)、ナンバープレート光の可能性も高いため前記赤色光点は他車両に起因する光点と判定し(S2206)、図13(d)のように2点以上あれば(S2205の判定がYes)、前記赤色光点は他車両に起因する光点ではないと判定する(S2207)。
また、赤信号の除去方法として、定期的に点灯色が変化する事を利用して、時系列に複数枚撮像した画像から光点をトラッキングしてその色の変化を解析することで信号機かどうかを判断することもできる。この場合の問題点としては、信号機の光点をトラッキングしなければならないため、画像の取り込みタイミングの周期を短めに設定しておかないと難しいことが挙げられる。また、青色から黄色、赤色に変化したときのみ排除可能であり、画面に初めて出現したときに赤色だった場合には、この手法では取り除けない。
ここでトラッキングとは、動きのある複数枚の画像から対象物を追跡する処理のことで、ここでは毎画像の光点の位置を記憶しておき、次の画像で一番近い位置にある光点を同一物体の光点とみなす処理を行うことで実現可能である。
同じく赤信号を除去するために、図14のように信号機1401の付近に設置された歩行者用信号機1402、あるいは横断歩道1403を検知することで信号機と判定する方法がある。歩行者用信号機1402は一般的に車両用信号機1401よりも低い位置にあり、かつ道路わきに位置している。そこで、赤色の光点1404、1405が斜め方向に位置している場合は信号機の可能性が高いと判断できる。もう一つの情報である横断歩道1403については、夜間、カメラで検知するためにはかなり近づかないと難しい(例えば30m以内)。信号機の場合、接近するとカメラの設置高と信号機の高さの関係から仰角分画面の上の方に写るため、Y座標から判断することも可能になる。そこで、横断歩道1403の情報は参考程度で用いると良い。ここで、横断歩道を検出するために、横断歩道のエッジ情報を用いる。図19に示すように横断歩道1901の白線は消失点に向かっているため、消失点に向かっているエッジの数も多い。そこで、消失点に向かっているエッジの数が、あらかじめ指定したしきい値よりも大きくなった段階で横断歩道が路面に描かれていると判断することができる。
次にリフレクタの除去について説明する。リフレクタの除去については上述しているが、ここでは、至近距離のリフレクタの場合に、自車のヘッドランプの反射強度が強く高輝度検知用画像903に写りこむ場合について説明する。高輝度検知用画像903ではヘッドライトの白色光を検知するが、白色リフレクタはヘッドライトの色そのままであるため、色で判断し除外することはできない。すべてのリフレクタを除外することは難しいが、比較的頻繁に現れる白線の外側にレーンに沿って設置されたリフレクタ群に関しては除外することが可能である。具体的には、白線が写る程度の露光制御で取り込んだ画像で白線認識を行い、その外側に白線に沿って並んでいる光点が数点(例えば3点)以上ある場合はそれらを排除する。
最後に、自動販売機などの明かりを除去する方法について説明する。自動販売機の光は一般的に白いため、低輝度検出用画像904に写っても除去できるが、近づいてくると高輝度検出用画像903に写りこむ可能性がある。自動販売機の光の特徴としては、高輝度検出用画像903に写りこむがヘッドライトよりも輝度が低く、発光部分の面積が大きいため、比較的暗く領域の大きな光点がある場合、車両のヘッドランプやテールランプではなく自動販売機の光である可能性が高い。そのため、高輝度検出用画像903の濃淡画像から複数のしきい値で作成した二値画像群から判断する。すなわち、二値化しきい値を段階的に下げていき、急激に光点領域が大きくなる光点部分は、ぼんやりと面積が大きい光点である可能性が高いため、その部分を自販機の光点として除去する。
以上述べたノイズ光識別手段を加味し、実施例2を高度化したものを実施例3として図15に示す。複数画像から光点の位置を検出するまでのステップはS801からS807と同様である。
ステップS1501では信号機の判定を行う。消失点よりも高い位置にある赤色光点の場合、その上下の光点の存在など、上述したような方法で信号機の灯火かどうかを判断する。
ステップS1502ではリフレクタの判断を行う。レーンの認識を行ってそのレーンに沿って並んでいることが確認できればリフレクタの可能性が高い。
ステップS1503で自動販売機の光かどうかの判断を行う。これも上述したように光点の面積とその輝度で判断する。
ステップS1504では、光点が信号機、リフレクタ、自販機のようなノイズ光である可能性が高いと判断された光点を除外する。
ステップS808の車間距離計算以降は実施例2と同様なので説明を省略するが、ステップS1501からステップS1504によっていくつかのノイズ光が除外されることで、より配光制御の信頼性が向上する。
本実施例では、ヘッドライトの配光制御について示したが、夜間においても先行車両との車間距離が高精度に求まるため、先行車両との車間距離を考慮し前記先行車に追従走行する制御にも使用できる。追従制御の構成を図20に示す。画像解析ユニット102で計算された先行車両までの距離、方向情報、および車速センサ2007の車速情報をもとに自車両のエンジン2004、変速機2005、ブレーキ2006を制御して先行車に追従するように速度制御を行う。エンジン制御ユニット2001はエンジンのスロットル開度を調整することでエンジン出力を制御し、変速機制御ユニット2002は自車速度、エンジン出力をもとに最適なギア比を選択、また、必要に応じてブレーキ制御ユニット2003がブレーキ2006を制御することで減速の制御も行える。また、先行車両もしくは対向車両との距離が安全のための閾値よりも狭くなったときに接近警報として運転手に伝える技術にも応用できる。この接近警報の構成を図21に示す。接近警報も追従制御と同様に画像解析ユニット102で計算された先行車両までの距離、方向情報、および車速センサ2007の車速情報をもとに、警報制御ユニット2101が先行車に衝突する危険があるか否かを判断し、必要に応じてスピーカー2102で警報を鳴らす。
このように本発明の画像処理システムを用いることにより、快適でかつ安全な運転環境を運転手に提供することができる。
本発明によるヘッドライト配光制御の構成図。 カメラ、および画像解析ユニットの構成図。 カメラ内部の詳細図。 実施例1に係わる露光量の異なる2つの画像から車間距離を算出する処理フロー。 実施例1に係わる先行車と対向車が存在する場合の車両前方の様子の説明図。 実施例1に係わるヘッドライトとテールランプの位置を検出する手法の説明図。 実施例1に係わるヘッドライトとテールランプの位置を検出する手法の説明図。 実施例2に係わる露光量の異なる2つの画像から車間距離を算出する処理フロー。 実施例2に係わる先行車と対向車が存在する場合の車両前方の様子の説明図。 実施例2に係わるヘッドライトとテールランプの位置を検出する手法の説明図。 実施例2に係わるヘッドライトとテールランプの位置を検出する手法の説明図。 大型車のテールランプと赤色信号機がどのように撮像されるかを示す説明図。 近距離にある大型車がどのように撮像されるかを示す説明図。 信号機がどのように撮像されるかを示す説明図。 実施例3に係わるノイズ光を除外するための処理フロー。 三角測量の原理により車両幅情報から距離を求めるための説明図。 三角測量の原理により俯角情報から距離を求めるための説明図。 画面における消失点の説明図。 本実施例3に係わる横断歩道検知手段の説明図。 追従走行制御の構成図。 接近警報制御の構成図。 信号機判定手段の処理フロー。
符号の説明
100…車両、101…カメラ、102…画像解析ユニット、103…ヘッドライト制御ユニット、104…ヘッドライト、201…CCD、202…カメラDSP、203…CPU、204…画像処理ユニット、205…画像入力I/F、206…メモリ、207…FROM上のプログラム、301…露光制御ユニット、302…レジスタ、303…ADC、501…対向車、502…先行車、503…高速シャッター画像、504…低速シャッター画像、601…高速シャッター時における対向車のヘッドライト光点、602…低速シャッター時における先行車のテールランプ光点、603…ブルーミング領域、604…マスキング領域、701…ヘッドランプ光点存在帯、702…テールランプ光点存在帯、901…対向車、902…先行車、903…高速シャッター画像、904…低速シャッター画像、1001…高速シャッター時における対向車のヘッドライト光点、1002…低速シャッター時における先行車のテールランプ光点、1101…ヘッドランプ光点存在帯、1102…テールランプ光点存在帯、1201…大型車後部、1202…信号機、1203…画像上の光点、1301…大型車、1302…大型車のテールランプ光点、1303…大型車のナンバープレート光点、1304…大型車の車内灯光点、1305…低速シャッター画像、1306…遠方の信号機、1307…対向車、1308…赤色光点、1309…ヘッドランプ光点、1310…ヘッドランプ光点、1401…信号機、1402…歩行者用信号機、1403…横断歩道、1404…信号機の光点、1405…歩行者用信号機の光点、1601…カメラのレンズ、1602…撮像素子(CCD)面、1603…先行車、1701…カメラのレンズ、1702…撮像素子(CCD)面、1703…先行車のテールランプ、1801…消失点、1901…横断歩道、2001…エンジン制御ユニット、2002…変速機制御ユニット、2003…ブレーキ制御ユニット、2004…エンジン、2005…変速機、2006…ブレーキ、2101…警報制御ユニット、2102…スピーカー

Claims (5)

  1. 車両に搭載された撮像手段と、前記撮像手段から入力された画像を解析して他車両位置情報を検出する画像解析手段と、前記画像解析手段から出力された他車両位置情報に基づいて車両制御を行う車両制御手段とを備える車両制御システムにおいて、
    前記画像解析手段は、前記撮像手段が第1の露光量で撮影した第1の画像と前記第1の露光量よりも露光量の多い第2の露光量で撮影した第2の画像を取得し、前記第1の画像及び前記第2の画像から赤色光点を含む光点領域を抽出し、当該光点領域を解析して他車両位置情報を検知するものであり、消失点よりも高い位置に前記赤色光点が抽出されたとき、前記赤色光点の上及び下に他の光点が抽出されれば、前記赤色光点は他車両に起因する光点であると判定する、車両制御システム。
  2. 車両に搭載された撮像手段と、前記撮像手段から入力された画像を解析して他車両位置情報を検出する画像解析手段と、前記画像解析手段から出力された他車両位置情報に基づいて車両制御を行う車両制御手段とを備える車両制御システムにおいて、
    前記画像解析手段は、前記撮像手段が第1の露光量で撮影した第1の画像と前記第1の露光量よりも露光量の多い第2の露光量で撮影した第2の画像を取得し、前記第1の画像及び前記第2の画像から赤色光点を含む光点領域を抽出し、当該光点領域を解析して他車両位置情報を検知するものであり、消失点よりも高い位置に前記赤色光点が抽出されたとき、前記赤色光点の下に所定数以上の他の光点が抽出されれば、前記赤色光点は他車両に起因する光点ではないと判定する、車両制御システム。
  3. 前記車両制御手段は、前記他車両位置情報に基づいてヘッドライトの配光を制御する、請求項1又は2記載の車両制御システム。
  4. 前記車両制御手段は、前記他車両位置情報に基づいて先行車に追従走行制御を行う、請求項1又は2記載の車両制御システム。
  5. 前記車両制御手段は、前記他車両位置情報に基づいて接近警報制御を行う、請求項1又は2記載の車両制御システム。
JP2004167644A 2003-08-11 2004-06-04 車両制御システム Expired - Lifetime JP4253275B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004167644A JP4253275B2 (ja) 2003-08-11 2004-06-04 車両制御システム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003206997 2003-08-11
JP2004167644A JP4253275B2 (ja) 2003-08-11 2004-06-04 車両制御システム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2004144788A Division JP4253271B2 (ja) 2003-08-11 2004-05-14 画像処理システム及び車両制御システム

Publications (2)

Publication Number Publication Date
JP2005092861A JP2005092861A (ja) 2005-04-07
JP4253275B2 true JP4253275B2 (ja) 2009-04-08

Family

ID=34466637

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004167644A Expired - Lifetime JP4253275B2 (ja) 2003-08-11 2004-06-04 車両制御システム

Country Status (1)

Country Link
JP (1) JP4253275B2 (ja)

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008038370A1 (en) * 2006-09-28 2008-04-03 Pioneer Corporation Traffic information detector, traffic information detecting method, traffic information detecting program, and recording medium
JP4484856B2 (ja) * 2006-10-06 2010-06-16 日立オートモティブシステムズ株式会社 自動車用ヘッドライト制御装置
JP4544233B2 (ja) * 2006-10-11 2010-09-15 株式会社デンソー 車両検出装置及びヘッドランプ制御装置
JP4548405B2 (ja) * 2006-10-31 2010-09-22 株式会社デンソー 前照灯スイブル制御装置
JP4985651B2 (ja) * 2006-10-31 2012-07-25 富士通株式会社 光源制御装置、光源制御方法および光源制御プログラム
JP4737108B2 (ja) * 2007-02-19 2011-07-27 トヨタ自動車株式会社 前照灯制御装置
JP4415996B2 (ja) * 2007-02-26 2010-02-17 株式会社日立製作所 車載用画像認識装置及び配光制御装置、並びに配光制御方法
JP4538468B2 (ja) * 2007-02-27 2010-09-08 日立オートモティブシステムズ株式会社 画像処理装置,画像処理方法、及び画像処理システム
JP2009107543A (ja) * 2007-10-31 2009-05-21 Panasonic Corp 車両用照明装置
JP2009132230A (ja) * 2007-11-29 2009-06-18 Omron Corp 前照灯配光制御装置
JP5271571B2 (ja) * 2008-03-13 2013-08-21 株式会社小糸製作所 車両用前照灯装置およびその制御方法
JP4775391B2 (ja) * 2008-03-18 2011-09-21 株式会社デンソー 障害物検出装置
JP4798182B2 (ja) * 2008-07-30 2011-10-19 株式会社デンソー 眩惑検出装置、眩惑検出プログラム、および前照灯制御装置
DE102009015824B4 (de) 2008-04-02 2022-03-24 Denso Corporation Blendfreibereich-Kartenprodukt und dieses verwendende System zur Bestimmung, ob eine Person geblendet wird
JP4702426B2 (ja) 2008-10-10 2011-06-15 株式会社デンソー 車両検出装置、車両検出プログラム、およびライト制御装置
JP4666049B2 (ja) * 2008-10-17 2011-04-06 株式会社デンソー 光源識別装置、光源識別プログラム、車両検出装置、およびライト制御装置
JP5067358B2 (ja) * 2008-12-22 2012-11-07 株式会社デンソー 走行レーン検出装置および走行レーン検出プログラム
JP2010272067A (ja) * 2009-05-25 2010-12-02 Hitachi Automotive Systems Ltd 画像処理装置
JP5424771B2 (ja) * 2009-08-04 2014-02-26 株式会社小糸製作所 車両用前照灯の配光制御システム
US8559673B2 (en) * 2010-01-22 2013-10-15 Google Inc. Traffic signal mapping and detection
JP5563884B2 (ja) * 2010-05-07 2014-07-30 株式会社小糸製作所 制御装置、車両用灯具システム、車両用灯具
JP5626966B2 (ja) * 2010-05-28 2014-11-19 株式会社小糸製作所 車両用前照灯の制御装置、車両用前照灯システム
KR101610210B1 (ko) * 2011-08-05 2016-04-07 엘지전자 주식회사 조명 환경을 고려하는 차량의 검출
JP5555735B2 (ja) * 2012-03-27 2014-07-23 富士重工業株式会社 車両のヘッドランプ調整装置
JP5884635B2 (ja) 2012-05-18 2016-03-15 株式会社デンソー 走行環境検出装置、走行環境検出プログラム、およびライト制御装置
JP5892079B2 (ja) * 2013-01-29 2016-03-23 トヨタ自動車株式会社 物体検出装置
JP6085522B2 (ja) * 2013-05-29 2017-02-22 富士重工業株式会社 画像処理装置
US10297155B2 (en) 2013-09-27 2019-05-21 Hitachi Automotive Systems, Ltd. Object detector
JP6549974B2 (ja) * 2015-11-25 2019-07-24 株式会社Subaru 車外環境認識装置
JP6586471B2 (ja) * 2015-12-25 2019-10-02 日立オートモティブシステムズ株式会社 前照灯制御装置
JP2018031607A (ja) * 2016-08-23 2018-03-01 ソニーセミコンダクタソリューションズ株式会社 測距装置、電子装置、および、測距装置の制御方法
JP6594557B2 (ja) * 2016-09-06 2019-10-23 日立オートモティブシステムズ株式会社 画像処理装置および配光制御システム
JP6999231B2 (ja) * 2018-03-05 2022-02-10 アルパイン株式会社 表示制御装置、表示制御方法及びカメラモニタリングシステム
JP7289723B2 (ja) * 2019-05-23 2023-06-12 日立Astemo株式会社 物体認識装置
JP7383360B2 (ja) * 2021-02-01 2023-11-20 ダイハツ工業株式会社 車両
JP7383359B2 (ja) * 2021-02-01 2023-11-20 ダイハツ工業株式会社 車両
CN116582980B (zh) * 2023-07-06 2023-12-08 江苏省德懿翔宇光电科技有限公司 一种基于物联网的led车灯控制系统及方法

Also Published As

Publication number Publication date
JP2005092861A (ja) 2005-04-07

Similar Documents

Publication Publication Date Title
JP4253271B2 (ja) 画像処理システム及び車両制御システム
JP4253275B2 (ja) 車両制御システム
US10880471B2 (en) Building night vision and other driver assistance systems (DAS) using near infra-red (NIR) illumination and rolling shutter
JP5617999B2 (ja) 車載周辺物認識装置及びこれを用いる運転支援装置
JP5680573B2 (ja) 車両の走行環境認識装置
US10442343B2 (en) Vehicle exterior environment recognition apparatus
JP5409929B2 (ja) 車両用ヘッドライト装置の制御方法およびヘッドライト装置
JP4415996B2 (ja) 車載用画像認識装置及び配光制御装置、並びに配光制御方法
JP5313638B2 (ja) 車両用前照灯装置
JP5361901B2 (ja) 前照灯制御装置
JP2012240530A (ja) 画像処理装置
JP2004104646A (ja) 車載用画像処理装置
US9616805B2 (en) Method and device for controlling a headlamp of a vehicle
JP2017062582A (ja) 車外環境認識装置
JP2009061812A (ja) 配光等の自動車の制御装置
JP2007124676A (ja) 車載用画像処理装置
JP5643877B2 (ja) 車両用前照灯装置
JP7084223B2 (ja) 画像処理装置および車両用灯具
JP6853890B2 (ja) 物体検出システム
JP6335065B2 (ja) 車外環境認識装置
KR20110037762A (ko) 상향등 제어 시스템 및 방법
JP5803650B2 (ja) 物体判別装置、車両用前照灯装置、車両、物体判別方法
WO2022130866A1 (ja) 配光制御システム及びセンシングシステム
WO2022244085A1 (ja) 前照灯制御装置、前照灯制御システム、及び前照灯制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060810

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080708

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080908

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081007

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090113

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090123

R150 Certificate of patent or registration of utility model

Ref document number: 4253275

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120130

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313115

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120130

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130130

Year of fee payment: 4

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term