JP4151890B2 - 車両監視装置および車両監視方法 - Google Patents
車両監視装置および車両監視方法 Download PDFInfo
- Publication number
- JP4151890B2 JP4151890B2 JP2002339642A JP2002339642A JP4151890B2 JP 4151890 B2 JP4151890 B2 JP 4151890B2 JP 2002339642 A JP2002339642 A JP 2002339642A JP 2002339642 A JP2002339642 A JP 2002339642A JP 4151890 B2 JP4151890 B2 JP 4151890B2
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- winker
- lane
- area
- recognition unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Measurement Of Optical Distance (AREA)
Description
【発明の属する技術分野】
本発明は、自車両が走行する車線に隣接する隣接車線を走行する他車両のウィンカ状態から、他車両の挙動を監視する車両監視装置および車両監視方法に関する。
【0002】
【従来の技術】
近年、単眼カメラ、ステレオカメラ、或いはミリ波レーダといった各種センサを用いた車両監視装置が注目されている(例えば、特許文献1参照)。この類の車両監視装置では、自車両に搭載されたセンサによって所定の監視領域内の景色を撮像またはスキャンし、これにより得られた情報に基づいて、走行状況を認識している。車両監視装置が認識すべき対象物としては、典型的には、車線(道路)や先行車が挙げられる。また、このような車両監視装置では、さらに制御装置(例えば、AT制御装置、エンジン制御装置またはブレーキ制御装置等)や警報装置を組合わせることにより、車間距離感応型クルーズコントロールや他車両の接近警報等といった運転支援機能を含ませることも考えられている。運転支援機能付きの車両監視装置では、基本的に、先行車までの距離と相対速度とを検出し、これらの検出結果に基づいて制御装置や警報装置が制御されている。
【0003】
一般に、人間が車両の運転を行う場合、ドライバーは、他車両の挙動を予測しながら、自車両の走行制御を行うことが多い。例えば、隣接車線を走行する他車両が車線変更を行うべく、自車両の走行車線に割り込んでくる場合には、ドライバーは他車両のウィンカ状態を認識することにより、自車線への割り込みを予測するといった如くである。そして、割り込んだ他車両と自車両との車間距離を考慮して、必要に応じてブレーキ操作、或いは、シフトダウンといった操作が行われる。
【0004】
なお、例えば、特許文献2には、他車両のウィンカを検出する手法が開示されている。特許文献2によれば、ステレオ画像に基づいて先行車を複数のウィンドの塊(ウィンドウ群)として検出するとともに、ウィンドウ群の両側のウィンドウ(すなわち、車両後面の両端)の輝度変化を検出することにより、ウィンカの作動状態を判断している。
【0005】
【特許文献1】
特開平10−283461号公報
【特許文献2】
特開平11−14346号公報
【0006】
【発明が解決しようとする課題】
ところで、従来の車両監視装置では、割り込み車両の一部が自車線内に入ることを条件として、この割り込み車両を監視すべき先行車として認識している。このため、このような車両監視装置では、ドライバーが他車両の車線変更を認識して運転操作を行う場合と比べて、減速或いは加速中断といった制御に遅れが生じる可能性が考えられる。この遅れは、ドライバーに対して人間の運転との違和感を与えたり、また、場合によっては、他車両との接触の危険性が増すことにもなりかねない。そこで、このような問題を避けるべく、例えば、特許文献2に開示されているように、他車両のウィンカを検出し、この検出されたウィンカの状態に基づき他車両の挙動を把握し、これを車両監視に反映させることが考えられる。
【0007】
しかしながら、隣接車線を走行する他車両を自車両側からカメラで撮像した場合、このカメラは斜め後方から他車両を撮像するので、他車両は車両側面と車両後面とを含んで観察されることとなる。したがって、他車両を複数のウィンドウの塊として検出するとともに、ウィンカ位置をこれらウィンドウ群の両端として検出したのでは、ウィンドウ群の両端と他車両のウィンカ位置とが対応しないため、ウィンカを検出できない可能性がある。また、自車両と他車両の位置関係によっては、カメラの画角範囲に他車両の車両後面が入らないことも考えられ、この場合では、特許文献2に開示されたウィンカ検出手法では、ウィンカを認識することが困難となる可能性がある。
【0008】
本発明は、このような事情に鑑みてなされたものであり、その目的は、隣接車線を走行する他車両のウィンカ状態を検出するべく、隣接車線を走行する他車両のウィンカを認識することである。
【0009】
また、本発明の別の目的は、車両監視に応じて車両の走行制御を行う装置における安全性・信頼性を一層向上させることである。
【0010】
【課題を解決するための手段】
かかる課題を解決するために、第1の発明は、自車両が走行する車線に隣接する隣接車線を走行する他車両のウィンカ状態から、他車両の挙動を監視する車両監視装置を提供する。この車両監視装置は、第1のカメラと、センサと、車線認識部と、車両認識部と、ウィンカ認識部とを有する。ここで、第1のカメラは、監視領域を含む景色を撮像することにより、カラー画像を出力する。センサは、監視領域内における距離の二次元的な分布を示す距離データを出力する。車線認識部は、少なくとも距離データに基づき、監視領域内の車線を認識する。車両認識部は、距離データに基づき、認識された車線から隣接車線を走行する他車両を特定するとともに、特定された他車両の車両側面を認識する。ウィンカ認識部は、カラー画像または距離データによって規定される二次元平面上において、認識された車両側面の端部位置を基準としてウィンカ領域を設定し、カラー画像に基づいてウィンカの色成分の画素を検出する。そして、設定されたウィンカ領域に対応するカラー画像上の領域と位置的に対応する検出された画素がウィンカとして認識される。
【0011】
ここで、第1の発明において、ウィンカ認識部は、端部位置を基準として、車両側面に対応する領域にウィンカ領域を設定することことが好ましい。このとき、このウィンカ認識部は、端部位置を基準として、車両後面に対応する領域にもウィンカ領域を設定してもよい。
【0012】
また、第1の発明において、ウィンカ認識部は、ウィンカとして認識された画素の時系列的な面積変化に基づき、他車両のウィンカが点滅しているか否かを判断することが好ましい。
【0013】
また、第1の発明において、ウィンカ認識部は、車両認識部が特定された他車両の車両後面をさらに認識している場合、車両側面と車両後面との境界位置を基準として、ウィンカ領域を設定することが好ましい。
【0014】
さらに、第1の発明は、監視領域を含む景色を撮像することにより、カラー画像を出力し、かつ、第1のカメラと協働することによってステレオカメラとして機能する第2のカメラをさらに有することが好ましい。この場合、センサは、第1のカメラから出力されるカラー画像と、第2のカメラから出力されるカラー画像とに基づき、ステレオマッチングによって、距離データを出力することが望ましい。一方、第1の発明は、監視領域を含む景色を撮像することにより、一対の画像データを出力するモノクロステレオカメラをさらに有してもよい。この場合、センサは、モノクロステレオカメラから出力された一対の画像データに基づいて、ステレオマッチングによって距離データとして出力することが好ましい。
【0015】
また、第2の発明は、監視領域を含む景色をカメラで撮像することにより取得されたカラー画像と、監視領域内における距離の二次元的な分布を示す距離データとに基づいて、自車両が走行する車線と隣接する車線を走行する他車両のウィンカ状態から、他車両の挙動を監視する車両監視方法を提供する。この車両監視方法は、第1のステップとして、少なくとも距離データに基づいて、監視領域内の車線を認識する。第2のステップとして、距離データに基づいて、認識された車線から隣接車線を走行する他車両を特定するとともに、特定された他車両の車両側面を認識する。第3のステップとして、カラー画像または距離データによって規定される二次元平面上において、認識された車両側面の端部位置を基準としてウィンカ領域を設定する。第4のステップとして、カラー画像に基づいてウィンカの色成分の画素を検出する。第5のステップとして、設定されたウィンカ領域に対応するカラー画像上の領域と位置的に対応する検出された画素をウィンカとして認識する。
【0016】
ここで、第2の発明において、第3のステップは、端部位置を基準として、車両側面に対応する領域にウィンカ領域を設定することが好ましい。このとき、第3のステップは、端部位置を基準として、車両後面に対応する領域にもウィンカ領域を設定してもよい。
【0017】
【発明の実施の形態】
図1は、本実施形態にかかる走行支援機能付きの車両監視装置の概略的なブロック図である。この車両監視装置は、カラー画像と、距離データとに基づいて、自車両が走行する車線と隣接する車線を走行する他車両のウィンカ状態から、他車両の挙動を監視する。
【0018】
自車両前方を撮像するステレオカメラ(本実施形態では、カラーステレオカメラ)は、ルームミラーの近傍に取り付けられており、CCDやCMOSセンサ等のイメージセンサを内蔵した一対のカメラ1,2で構成されている。それぞれのカメラ1,2は、車幅方向において所定の間隔(カメラ基線長)で取り付けられている。基準画像を出力するメインカメラ1は、自車両の進行方向に向かって右側に取り付けられている。一方、比較画像を出力するサブカメラ2は、進行方向に向かって左側に取り付けられている。
【0019】
それぞれのカメラ1,2は、赤緑青のそれぞれに別個のイメージセンサを内蔵している(例えば、3板式カラーCCD)。メインカメラ1から出力されるカラー画像(以下、「基準画像」と称する)は、実際には、赤画像(以下、「R画像」と称する)、緑画像(以下、「G画像」と称する)および青画像(以下、「B画像」と称する)の3つの原色画像によって構成される。同様に、サブカメラ2から出力されるカラー画像(以下、「比較画像」と称する)も、R画像、G画像およびB画像の3つの原色画像によって構成される。したがって、一対のカメラ1,2が1回の撮影タイミングで出力する画像は合計6枚になる。以下、基準画像を構成するR画像を基準画像(R)と記す場合がある。同様に、基準画像を構成するG画像を基準画像(G)、B画像を基準画像(B)と記すことがある。比較画像についても、R,G,B画像を、それぞれ、比較画像(R)、比較画像(G)、比較画像(B)と記すことがある。
【0020】
一対のカメラ1,2の同期が取れている状態において、それぞれのカメラ1,2から出力されたアナログ画像は、後段の構成要素の入力レンジに合致するように、アナログインターフェース3において調整される。アナログインターフェース3中のゲインコントロールアンプ(GCA)3aは、対になるアナログ画像信号の明るさバランスを調整する。この調整は、互いに同じ色(R,G,B)の画像同士で行う。アナログインターフェース3において調整されたアナログ画像対は、A/Dコンバータ4により、所定の輝度階調(例えば、256階調のグレースケール)のデジタル画像に変換される。
【0021】
画像補正部5は、デジタル化された画像対を構成する6つの原色画像のそれぞれについて、輝度の補正および画像の幾何学的な変換等を行う。通常、一対のカメラ1,2の取付位置は、程度の差こそあれ誤差があるため、それに起因したずれが左右の画像に存在している。そこで、アフィン変換等を用いて、画像の回転や平行移動等の幾何学的な変換を行う。これにより、ステレオマッチングを行う際の前提となる、画像対における水平線(エピポーラライン)の一致が保証される。このような画像処理を経て、メインカメラ1の出力信号から、水平方向(i座標方向)が512画素(ピクセル)、垂直方向(j座標方向)が200画素(ピクセル)の基準画像データが生成される。また、サブカメラ2の出力信号から、基準画像データと垂直方向長が同じで、基準画像データよりも大きな水平方向長の比較画像データが生成される(一例として、水平方向が640画素(ピクセル)、垂直方向が200画素(ピクセル))。ここで、画像のそれぞれによって規定される画像平面は、i−j座標系で表現され、画像の左下隅を原点として、水平方向をi座標軸、垂直方向をj座標軸とする。画像補正部5において補正された1フレーム相当の基準画像データと比較画像データとは、後段のステレオ画像処理部6に出力されるとともに、画像データメモリ7に格納される。
【0022】
ステレオ画像処理部6は、基準画像データと比較画像データとに基づいて、ステレオマッチングを行い、一フレーム相当の撮像画像に関する距離データを算出する。ここで、「距離データ」とは、画像データによって規定される画像平面において小領域毎に算出された視差の集合であり、個々の視差は画像平面上の位置(i,j)と対応付けられている。換言すれば、距離データは、監視領域内における距離の二次元的な分布である。それぞれの視差は、基準画像の一部を構成する所定面積の画素ブロック毎に1つ算出される。一対のカメラ1,2のそれぞれから3つの原色画像が出力される本実施形態では、このステレオマッチングは、同一色の原色画像対に関して別個に行われる。すなわち、R画像(基準画像(R)と比較画像(R))、G画像((基準画像(G)と比較画像(G))、B画像(基準画像(B)と比較画像(B))のそれぞれについて独立して行われる。
【0023】
本実施形態では、4×4画素の画素ブロックを視差の算出単位としている。したがって、1フレーム相当の画像全体では、基準画像に含まれる画素ブロックの個数分、すなわち128×50個の視差が算出され得る。周知のように、視差は、その算出単位である画素ブロックに関する水平方向のずれ量であり、画素ブロックに写し出された対象物までの距離と大きな相関がある。すなわち、画素ブロック内に写し出されている対象物がカメラ1,2に近いほど、この画素ブロックの視差は大きくなり、対象物が遠いほど視差は小さくなる(無限に遠い場合、視差は0になる)。
【0024】
ある画素ブロック(相関元)に関する視差を算出する場合、この画素ブロックの輝度特性と相関を有する領域(相関先)を比較画像において特定する。上述したように、カメラ1,2から対象物までの距離は、基準画像と比較画像との間における水平方向のずれ量として現れる。したがって、比較画像において相関先を探索する場合、相関元となる画素ブロックのj座標と同じ水平線(エピポーラライン)上を探索すればよい。ステレオ画像処理部6は、相関元のi座標を基準に設定された所定の探索範囲内において、エピポーラライン上を一画素ずつシフトしながら、相関元と相関先の候補との間の相関性を順次評価する(ステレオマッチング)。そして、原則として、最も相関が高いと判断される相関先(相関先の候補の内のいずれか)の水平方向のずれ量を、その画素ブロックの視差とする。
【0025】
画素ブロック間における輝度特性の相関は、例えば、シティブロック距離を算出することで評価でき、基本的には、その値が最小となるものが相関を有する画素ブロックである。そして、相関を有する画素ブロック同士の水平方向のずれ量が視差として出力される。なお、シティブロック距離を算出するためのハードウェア構成については、特開平5−114099号公報に開示されているので、必要ならば参照されたい。
【0026】
ステレオ画像処理部6は、同一色の原色画像同士(例えば、基準画像(R)と比較画像(R))でステレオマッチングを行い、後段の融合処理部8に出力する。これにより、基準画像における一画素ブロックに関して、3つの視差、すなわち、R画像より算出された視差Nr、G画像より算出された視差Ng、B画像より算出された視差Nbが算出される(以下、それぞれを「原色視差」という)。
【0027】
融合処理部8は、ある画素ブロックに関して算出された3つの原色視差Nr,Ng,Nbを融合し、その画素ブロックに関する統一的な視差Ni(以下、「統一視差Ni」という)を算出する。この融合は、数式1に示すように、積和演算(本実施形態では加重平均)に基づいて行われる。具体的には、ある画素ブロックに関する原色視差Nr,Ng,Nbに重み付けを与えた上で加算することにより、この画素ブロックに関する統一視差Niが算出される。ここで、Orは赤(R)についての重み係数、Ogは緑(G)、Obは青(B)についての重み係数である。
【数1】
Ni=Or・Nr + Og・Ng + Ob・Nb
【0028】
重み係数のセット(Or,Og,Ob)は、検出対象選定部9によって指定される。検出対象選定部9は、現時点で検出したい対象物(例えば、追い越し禁止のセンターライン等)を選定する。検出対象物は、車両走行時に出現し得るものであり、複数の対象物(例えば、追い越し禁止センターライン、ストップランプやウィンカ等)が予め設定されている。検出対象選定部9は、図示しない自車両の速度センサや操舵角センサ等より特定される走行状況に応じて、いずれかの対象物を検出対象物として選定し、その検出対象物に関する重み係数のセット(Or,Og,Ob)を融合処理部8に対して出力する。
【0029】
重み係数のセット(Or,Og,Ob)を、加重平均の重み係数として捉えると、具体的な係数値Or,Og,Obは、数式2に示した4つの条件(式)を具備する必要がある。
【数2】
Or+Og+Ob=1
0≦Or≦1
0≦Og≦1
0≦Ob≦1
【0030】
なお、検出対象物の認識精度を高めるために、重み係数のセット(Or,Og,Ob)には、対象物の色を反映させることが好ましい。具体的には、それぞれの重み係数Or,Og,Obは、数式3のように定義する。同数式において、Irは対象物の赤色(R)の色成分値、Igは緑色(G)の色成分値、Ibは青色(B)の色成分値である。重み係数Or,Og,Obの具体値は、後述する色情報テーブル11aの内容に基づき、数式3の演算を実行することによって決定する。
【数3】
Or=Ir/(Ir + Ig + Ib)
Og=Ig/(Ir + Ig + Ib)
Ob=Ib/(Ir + Ig + Ib)
【0031】
検出対象選定部9は、予め設定されたプログラムを実行することで検出対象物を選定するマイクロコンピュータ10と、プログラムおよび各種データが格納されたメモリ11とを有する。メモリ11は、プログラムおよびデータが固定的に格納されたROMと、マイクロコンピュータ10のワーク領域等として使用されるRAMとを含む。このメモリ11に格納されている情報としては、例えば、上述した演算処理によって決定された重み係数Or,Og,Obの具体値、色情報テーブル11aが挙げられる。
【0032】
数式3に示した演算によって決定された重み係数のセット(Or,Og,Ob)は、メモリ11(RAM)における所定のアドレス領域(以下、「重み設定領域」という)に格納・保持される。そして、重み係数のセット(Or,Og,Ob)が更新されると、この重み設定領域に書き込まれている値も速やかに更新される。融合処理部8は、重み設定領域にアクセスすることで、現時点で適用すべき重み係数のセット(Or,Og,Ob)を獲得する。
【0033】
図2は、色情報テーブル11aの一例を示す図である。この色情報テーブル11aには、検出対象物111と、その色を表現した色情報112とが対応付けて記述されている。色情報112は、256階調の輝度値で表現した色成分(Ir,Ig,Ib)である。例えば、追い越し禁止のセンターライン(日本国内においては黄色あるいはオレンジ色)は、Ir=240,Ig=190,Ib=0に設定されている。また、車両のリアランプおよびストップランプは、Ir=240,Ig=0,Ib=0に設定されている。
【0034】
このようにして求められた統一視差Niの1フレーム分の集合は、画像平面上の位置(i,j)と対応付けた上で、距離データ(i,j,Ni)として距離データメモリ12に格納される。なお、統一視差Niを算出する融合処理部8の詳細については、本出願人によって既に出願されている特願2001−343801号に開示されているので、必要ならば参照されたい。
【0035】
マイクロコンピュータ13は、CPU、ROM、RAM、入出力インターフェース等で構成されているが、これを機能的に捉えた場合、車線認識部13a、車両認識部13bおよびウィンカ認識部13cを有する。マイクロコンピュータ13は、これらの機能を実行する前提として、1フレーム相当の画像データを画像データメモリ7から読み出すとともに、読み出された画像データに対応する距離データを距離データメモリ12から読み出す。
【0036】
車線認識部13aは、少なくとも読み出された距離データに基づき、監視領域内の車線を認識する。そして、認識された車線(正確には、これらを規定するパラメータ)が車両認識部13bに対して出力される。車両認識部13bは、読み出された距離データに基づき、認識された車線から隣接車線を走行する他車両を特定するとともに、この特定された他車両の車両側面を認識する。このとき、特定された他車両について、車両後面が認識可能である場合、車両認識部13bは、車両側面と車両後面との組合わせとして他車両を認識する。なお、車両認識部13bは、読み込まれた画像データを利用して、隣接車線を走行する他車両を特定してもよい。ウィンカ認識部13cは、画像(本実施形態では、画像データによって規定される二次元的な画像平面)または距離データによって規定される二次元平面上において、認識された車両側面の端部位置を基準としてウィンカ領域を設定するとともに、読み込まれた画像データに基づいてウィンカの色成分の画素を検出する。そして、設定されたウィンカ領域に対応する画像平面上の領域と位置的に対応する画素がウィンカとして認識される。
【0037】
そして、マイクロコンピュータ13は、これらの認識結果に基づいて、警報が必要と判定された場合、モニターやスピーカー等の警報装置14を作動させてドライバーに注意を促す。また、必要に応じて制御装置15を制御することにより、AT(自動変速機)のシフトダウンやエンジン出力の抑制、或いはブレーキの作動といった車両制御が適宜実行される。本実施形態の特徴の一つとして、マイクロコンピュータ13は、後述するフローチャートに示す処理を行うことにより、自車両が走行する車線と隣接する車線を走行する他車両のウィンカ状態から、他車両の挙動を監視している。
【0038】
図3は、本実施形態にかかる車両監視手順を示すフローチャートである。本ルーチンは、所定の間隔で呼び出され、マイクロコンピュータ13によって実行される。まず、ステップ1において、マイクロコンピュータ13は、画像データメモリ7より一フレームの画像データを読み込むとともに、この画像データに対応する距離データを距離データメモリ12より読み込む。
【0039】
ステップ2において、車線認識部13aは、読み込まれた画像データおよび距離データに基づき、監視領域内の車線を認識する。具体的には、車線認識部13aは、道路モデルを算出することにより、道路上に描かれた車線を規定する白線を認識する。この道路モデルは、実空間の座標系において、水平方向および垂直方向における直線式で表現される。すなわち、「車線の認識」とは、この直線式のパラメータを、実際の白線形状に合致するような値に設定することである。
【0040】
白線は道路面と比較して高輝度であるという知得に基づき、車線認識部13aは、道路の幅方向の輝度変化を評価して、監視領域内の白線の位置を画像平面上で特定する。この白線の実空間上の位置(x,y,z)は、画像平面上の位置(i,j)とこの位置に関して算出された視差Niとに基づいて、すなわち、距離データに基づいて、周知の座標変換式より算出される。自車両の位置を基準に設定された実空間の座標系は、ステレオカメラの中央真下の道路面を原点として、車幅方向をx軸、車高方向をy軸、車長方向(距離方向)をz軸とする。このとき、x−z平面(y=0)は、道路が平坦な場合、道路面と一致する。道路モデルは、道路上の自車線を距離方向に複数区間に分割し、各区間における左右の白線を三次元の直線で近似し、これらを折れ線状に連結することによって表現される。
【0041】
ステップ3において、車両認識部13bは、距離データに基づき、監視領域内に存在する立体物を検出するとともに、この検出結果に基づき監視領域内の他車両を特定する。具体的には、車両認識部13bは、読み込まれた距離データを、例えば、図4に示すように、ij平面において、所定の間隔で(例えば、水平方向に4画素間隔)で分割することにより、格子状(縦短冊状)の複数の区分に分割する。そして、分割された区分のそれぞれを処理対象として、以下に示す処理が行われる。
【0042】
まず、処理対象とする区分内に存在する全データの中から、任意のデータ(例えば、(i,j)位置が最も原点に近いデータ)が選択される。ここで、「データ」とは、位置(i,j)に対応付けられた視差Niをいう。そして、選択されたデータについて、周知の座標変換式を用いて、三次元位置(x,y,z)が算出される。つぎに、上述した道路モデルの直線式を用い、算出された距離zにおける道路面の高さが算出される。この道路面の高さと、座標変換されたデータの高さyとを比較して、このデータが道路面より上にある場合には、そのデータが立体物データとして抽出される。そして、この区分内のすべてのデータについて、同様の処理が繰り返し実行され、その区分内に存在する立体物データが、順次抽出される。
【0043】
立体物データの抽出処理が完了すると、次に、抽出された立体物データを処理対象として、ヒストグラムが算出される。このヒストグラムは、予め設定された距離(例えば、15m)の区間に含まれる立体物データの個数を数えることで、例えば、距離zを横軸とした立体物データの出現頻度として表される。このヒストグラムが作成されると、出現頻度が所定のしきい値以上で、かつ、最頻距離となる区間が検出される。このとき、車両認識部13bは、この条件に該当する区間があれば、その区分には立体物が存在すると判断する。そして、その区間内に存在するデータ数相当の距離zの平均値または代表値、或いは、該当区間の中間値が、その立体物までの距離Zとして算出される。
【0044】
そして、距離データに関するすべての区分について、上述した処理が繰り返し実行され、分割された区分相当数の距離Zが算出される。
【0045】
つぎに、算出された区分相当数の距離Zに基づき、この距離Zが近似している区分同士がグループにまとめられる。この処理では、各区分の立体物の距離Zを調べるとともに、隣接する区分において立体物までの距離Zの差が判定値以下の場合は同一の立体物とみなし、隣接する区分が同一のグループにまとめられる。一方、この距離Zの差が判定値を超えている場合には、これらの区分に関する距離Zは別々の立体物の距離を示すものであるとみなし、隣接する区分が異なるグループとして分けられる。そして、まとめられたグループのそれぞれに対し、「側壁」か「物体」かの分類が行れるとともに、グループそれぞれのパラメータが算出される。
【0046】
この処理では、グループ内の各区分の位置(x,Z)から、ハフ変換または最小二乗法によって近似直線を求めることにより、グループ全体の傾きが算出される。そして、この直線の傾きが、設定値(例えば、45°)と比較される。算出された直線の傾きが、設定値以下で、かつ、グループ内での距離Zの並びが略z軸方向の場合には、このグループが「側壁」とラベル付けされる。一方、算出された直線の傾きが、設定値を超え、かつ、グループ内での距離Zの並びが略x軸方向の場合には、このグループが「物体」とラベル付けされる。そして、「物体」とラベル付けされたグループでは、グループ内の距離Zから算出される平均距離や、左端、右端のx座標等がグループのパラメータとして算出される。また、「側壁」とラベル付けされたグループでは、グループ内の距離Zの並びの方向(z軸との傾き)や前後端の位置(z,x座標)等がグループのパラメータとして算出される。
【0047】
そして、ラベル付けされたグループのうち、同一の立体物であるにも拘わらず、「物体」と「側壁」として個別にラベル付けされているグループが、「物体」と「側壁」との組合わせとして認識される。なぜならば、隣接車線を走行する他車両では、車両側面を「側壁」、車両後面を「物体」としてグループ分けされている可能性があり、これらのグループのそれぞれが独立した立体物として認識される恐れがあるからである。そこで、この処理では、「物体」とラベル付けされたグループの端点の位置と、「側壁」とラベル付けされたグループの端点の位置との差が算出される。各端点の位置は、「物体」が自車両の正面(z軸に相当)より右側にある場合には、「物体」の左端の位置と「側壁」の手前側の端点の位置となる。一方、「物体」が自車両の正面より左側にある場合には、各端点の位置は、「物体」の右端の位置と「側壁」の手前側の端点の位置ととなる。そして、各グループの端点の位置の差が判定値(例えば、1m程度)以内で、互いに接近しているか否かが調べられる。このとき、各グループの端点の位置の差が判定値以内の場合には、これらのグループが同一立体物であると判定される。なぜならば、1個の立体物の後部と側面とが同時に見える場合、その2つの面が作るコーナーは自車両側に凸となっているため、「物体」の左端の位置と「側壁」の手前側の端点の位置と(或いは、「物体」の右端の位置と「側壁」の手前側の端点の位置と)は、本来、一致すると考えられるからである。したがって、2つのグループの位置の差が判定値以内にあるとき、この2つのグループが1個の立体物であると判断されることとなる。
【0048】
以上の処理により、監視領域内の立体物のそれぞれがグループとして認識され、隣接する車線および自車線上に存在する立体物のグループが他車両として特定される。具体的には、車両認識部13bは、「物体」と「側壁」との組合わせとラベル付けされたグループ、或いは、「側壁」とラベル付けされたグループを、隣接車線に存在する他車両として特定する。一方、車両認識部13bは、基本的に、「物体」とラベル付けされたグループを、自車両と同一の車線に存在する他車両として特定する。
【0049】
図5は、他車両の特定結果の一例を示す説明図である。同図に示すように、監視領域内の他車両を「物体」・「側壁」のラベル付けがされたグループとして特定しているので、車両認識部13bは「側壁」とラベル付けされたグループを認識することにより、車両側面を認識することができる。また、車両認識部13bは、「物体」とラベル付けされたグループを認識することにより、車両後面を認識することができる。なお、立体物を「物体」・「側壁」として検出する詳細な手法については、特開平10−283461号公報に開示されているので、必要ならば参照されたい。
【0050】
そして、ステップ4において、上述した他車両の特定結果に基づき、隣接車線に他車両が存在するか否かが判断される。このステップ4で肯定判定された場合、ステップ5に進む。一方、このステップ4で否定判定された場合には、後段のステップ8に進む。
【0051】
ステップ4に続くステップ5において、ウィンカ検出部13cは、特定された隣接車線に存在する他車両について、ウィンカを認識するとともに、このウィンカの点滅状態を検出する。図6は、ウィンカ点滅検出ルーチンを示す詳細なフローチャートである。まず、ステップ51において、距離データによって規定される画像平面上において、他車両のウィンカ存在するであろう領域に、ウィンカ領域が設定される。
【0052】
図7は、ウィンカ認識部13cによって設定されるウィンカ領域を示す説明図である。具体的には、隣接車線に存在する他車両についてウィンカ領域を設定する前提として、車両認識部13bで検出された他車両の車両側面と車両後面との境界位置を基準として、距離データ上で基準位置Ps(is,js)が決定される。本実施形態では、最も道路側となる境界位置上の点に、この基準位置Ps(is,js)が決定されている。そして、この基準位置Ps(is,js)に基づいて、道路面よりある程度の高さとなる位置(すなわち、基準位置Ps(is,js)からj方向にシフトした位置)において、車両後面側に、所定面積の第1のウィンカ領域Awin1が設定される。この高さは車両に設けられたウィンカに相当する位置を基準に決定されており、結果として、この第1のウィンカ領域Awin1は他車両の車両後面のウィンカ位置に対応する。また、車両側面側に、車両の側面に沿って車長方向に延在する第2のウィンカ領域Awin2(この第2のウィンカ領域Awin2は所定の幅を有する)が設定される。すなわち、この第2のウィンカ領域Awin2は、他車両の車両側面に設けられたウィンカの位置に対応する。
【0053】
なお、自車両から、隣接する他車両を撮像した場合、自車両の位置より少しだけ前方に存在する他車両は、その車両側面しか検出でできない可能性がある。したがって、ウィンカ領域を設定するための基準位置は、車両側面の端部(正確には、自車両側の端部)を基準とすればよい。すなわち、上述した実施形態は、車両側面の端部位置が、車両後面の位置と一致しているケースであるといえる。例えば、図7に示すように、車両側面のみから認識される他車両(図中、右側の車両)では、車両側面の端部位置を基準として、第2のウィンカ領域Awin2のみが設定されることとなる。また、上述したステップ51の処理では、距離データ上においてウィンカ領域を設定しているが、このウィンカ領域と相当する領域を、画像データ上の対応する位置にウィンカ領域として設定してもよい。
【0054】
そして、ステップ52において、画像データに基づき、ウィンカの色成分画素が抽出される。ここで、ウィンカの色成分とは、一般に、オレンジないし黄色であり、このステップ52では、オレンジないし黄色の画素が抽出される。具体的には、3つの原色画像のそれぞれにおいて、位置的に対応する画素を処理対象として、G画像とR画像との輝度値の比G/Rと、G画像とB画像との輝度値の比G/Bとが求められる。そして、求められたG/RとG/Bとが予め設定された設定範囲内(すなわち、オレンジないし黄色となるG/Rの範囲とG/Bの範囲)に存在する画素が、ウィンカの色成分画素として抽出される。
【0055】
ステップ53において、抽出されたウィンカの色成分画素のうち、座標位置的に連続する画素が、グループGnとしてまとめられる(グループ化)。そして、まとめられたグループGnのそれぞれを処理対象として、グループの面積Wgnと、画像平面上での重心位置Pgn(ign,jgn)とが算出される(ステップ54)。
【0056】
つぎに、ステップ55において、グループGnの重心位置Pgn(ign,jgn)が、ステップ51で設定された第1および第2のウィンカ領域Awin1,Awin2に相当する画像平面上での領域と位置的に対応するか否かが判断される。このステップ55で否定判定された場合、このグループGnがウィンカではないと判断され、図3に示すステップ8に進む。一方、このステップ55で肯定判定された場合、このグループGnがウィンカである可能性が高いと判断され、ステップ56に進む。
【0057】
ステップ55に続くステップ56において、グループGnの重心位置Pgn(ign,jgn)が第1および第2のウィンカ領域Awin1,Awin2と位置的に対応すると判断されたグループGnの面積Wgnが、所定の判定値Wth以上であるか否かが判断される。ここで、この所定の設定値Wthは、グループGnの面積Wgnがウィンカの大きさと等価であると認められる程度の値として決定されており、第1および第2のウィンカ領域Awin1,Awin2の距離データ上の位置上に応じてその値が異なる。すなわち、設定された第1および第2のウィンカ領域Awin1,Awin2の位置に対応する実空間での位置が自車両から遠い場合は、この所定の判定値Wthは遠近を考慮して、ある程度小さな値となる。一方、設定された第1および第2のウィンカ領域Awin1,Awin2の位置に対応する実空間での位置が自車両に近い場合は、この所定の判定値Wthは遠近を考慮して、ある程度大きな値となっている。
【0058】
そして、このステップ56で否定判定された場合、このグループGnがウィンカと認められる程度の面積を有さないと判断され、図3に示すステップ8に進む。一方、ステップ56で肯定判定された場合、このグループGnがウィンカとして判断され、グループGnの面積Wgnを例えばRAM領域に格納し、ステップ57に進む。
【0059】
ステップ56に続くステップ57において、格納されたグループGnの面積Wgnうち、過去M回に検出されたグループ面積Wgnの平均値Waが算出される。この過去M回のデータは、ウィンカが点滅しているか否かを判断し得る程度の回数相当のデータである。例えば、ウィンカの点滅状態を判断し得る時間を2秒とした場合、本ルーチンの実行間隔を0.01秒としたならば、処理対象とするデータ数Mは200回となる。なお、現在の検出数がM回以下である場合には、この平均値Waは、現在までに検出されているグループ面積Wgnの平均値として算出される。
【0060】
ステップ58において、点滅判定値Bが算出される。この点滅判定値Bは、検出されたグループ面積Wgnと、グループ面積Wgnの過去M回の平均値Waとの差(絶対値)の過去M回における総和である(Σ|Wgn−Wa|)。この点滅判定値Bは、ウィンカの点滅回数が多い程その値が大きくなり、ウィンカの点滅回数が少ないほどその値が小さくなる傾向となる。そして、この点滅判定値Bの算出にともない、本ルーチンを抜ける。
【0061】
再び図3を参照して、ステップ6において、ウィンカ点滅検出ルーチンで算出された点滅判定値Bと、判定値Bthとが比較される。ここで、この点滅判定値Bと比較対象となる判定値Bthは、ウィンカが点滅していると認められる程度の点滅判定値Bの最小値として決定されている。したがって、この比較結果に基づき、点滅判定値Bが判定値Bth以上である場合には、隣接車線に存在する他車両のウィンカが点滅していると判断され、ステップ7に進む。一方、この比較結果に基づき、点滅判定値Bが判定値Bthより小さい場合には、隣接車線に存在する他車両のウィンカが点滅していない判断され、ステップ8に進む。
【0062】
そして、ステップ6に続くステップ7において、隣接車線を走行する他車両のウィンカの点滅判断をうけ、ウィンカ認識部13cは、自車線への合流車両があると判断する。このとき、マイクロコンピュータ13は、警報装置14を作動させて、ドライバーに対して、合流車両の存在を注意してもよい。また、自車線への合流車両がある場合には、制御装置15の制御基準となる対象他車両がこの合流車両に切り換えられるとともに、必要に応じてAT(自動変速機)のシフトダウンやエンジン出力の抑制、或いはブレーキの作動といった車両制御が行われる。
【0063】
一方、ステップ8において、隣接車線を走行する他車両のウィンカの非点滅の判断をうけ、ウィンカ認識部13cは、自車線への合流車両はないと判断する。この場合、マイクロコンピュータ13は、通常の車両監視を行うべく、先行車(或いは、障害物)との車間距離と相対速度を基準とした衝突防止や、車線逸脱防止といった車両制御を行う。
【0064】
以上説明したように、本実施形態に示す車両監視手法では、まず、監視領域内の隣接車線を走行する他車両にあたり、この他車両を車両側面・車両後面として認識している。そして、認識された車両側面の端部位置を基準として、ウィンカ領域が設定されている。これにより、ウィンカ位置が両端に存在しないような場合(例えば、自車両から眺めた隣接車線を走行する他車両)であっても、他車両の車両側面の端部を基準とすることで、ウィンカ領域が他車両のウィンカ位置上に設定されるので、ウィンカを有効に認識することができる。また、カメラの画角範囲に他車両の車両後面が入りきらないような場合であっても、他車両の車両側面の端部を基準とすることで、ウィンカ領域が車両側面のウィンカ位置上に設定されるので、ウィンカを有効に認識することができる。このようにウィンカを認識することにより、認識されたウィンカから、他車両の挙動を監視することができる。例えば、点滅状態を判断することにより、隣接車線に存在する他車両が自車線に合流する車両であるか否かを把握することができる。これにより、合流車両の存在をドライバーへ注意を促したり、或いは、この合流車両に着目して車両制御を行うことができるので、車両監視の安全性・信頼性を向上させることができる。
【0065】
なお、本実施形態では、ステレオマッチングを用いて距離データを算出したが、レーザレーダまたはミリ波レーダ等の種々のセンサを用いることにより、距離データを出力してもよい。すなわち、図1に示す車両監視装置において、カメラ1,2によって撮像された撮像画像に基づき、距離データを算出するステレオ画像処理部6は、これらのセンサと同様な機能を有する。
【0066】
また、上述した実施形態では、カメラ1,2から出力されるカラー画像を用いて、距離データの算出、および、ウィンカの点滅検出を行う構成であったが、本発明はこのような形態に限定されない。図8は、本実施形態にかかる別の走行支援機能付きの車両監視装置の概略的なブロック図である。同図に示す車両監視装置が上述した実施形態と相違する点は、図1に示すカラーステレオカメラ(カメラ1,2)と置換して、モノクロステレオカメラ(カメラ16,17)と、カラーカメラ(カメラ18)とを有していることである。また、図8に示す車両監視装置では、モノクロステレオカメラの使用にともない、図1に示した融合処理部8と、検出対象選定部9とを構成要素として有さない。すなわち、図8に示す車両監視装置では、モノクロステレオカメラからの出力画像に基づき距離データが算出され、この距離データに基づき監視領域内の車線および車両が認識される。また、これらの認識結果とともに、カラーカメラ(カメラ18)からの出力画像に基づき、ウィンカの点滅検出が行われる。このような構成であっても、上述した実施形態と同様の作用・効果を奏することができる。また、かかる車両監視装置は、図1に示した車両監視装置と比べて、ステレオマッチングを行う際カラー画像を用いない分、計算処理を簡略化できるという長所を有する。
【0067】
【発明の効果】
このように、本発明の手法によれば、他車両の車両側面の端部を基準とすることで、ウィンカ領域が他車両のウィンカ位置上に設定されることとなるので、ウィンカを有効に認識することができる。これにより、隣接車線を走行する他車両のウィンカを認識することができるので、この他車両の挙動を有効に監視することができる。
【図面の簡単な説明】
【図1】本実施形態にかかる走行支援機能付きの車両監視装置の概略的なブロック図
【図2】色情報テーブルの一例を示す図
【図3】本実施形態にかかる車両監視手順を示すフローチャート
【図4】複数の区分に分割された距離データを示す説明図
【図5】車両の特定結果の一例を示す説明図
【図6】ウィンカ点滅検出ルーチンを示す詳細なフローチャート
【図7】ウィンカ認識部によって設定されるウィンカ領域を示す説明図
【図8】本実施形態にかかる別の走行支援機能付きの車両監視装置の概略的なブロック図
【符号の説明】
1 メインカメラ
2 サブカメラ
3 アナログインターフェース
3a ゲインコントロールアンプ
4 A/Dコンバータ
5 画像補正部
6 ステレオ画像処理部
7 画像データメモリ
8 融合処理部
9 検出対象選定部
10 マイクロコンピュータ
11 メモリ
11a 色情報テーブル
12 距離データメモリ
13 マイクロコンピュータ
13a 車線認識部
13b 車両認識部
13c ウィンカ認識部
14 警報装置
15 制御装置
Claims (10)
- 自車両が走行する車線に隣接する隣接車線を走行する他車両のウィンカ状態から、当該他車両の挙動を監視する車両監視装置において、
監視領域を含む景色を撮像することにより、カラー画像を出力する第1のカメラと、
前記監視領域内における距離の二次元的な分布を示す距離データを出力するセンサと、
少なくとも前記距離データに基づき、前記監視領域内の車線を認識する車線認識部と、
前記距離データに基づき、前記認識された車線から隣接車線を走行する他車両を特定するとともに、当該特定された他車両の車両側面と車両後面とを認識する車両認識部と、
前記カラー画像または前記距離データによって規定される二次元平面上において、前記認識された車両側面と車両後面との境界位置を基準として所定面積のウィンカ領域を設定し、前記カラー画像に基づいてウィンカの色成分の画素を検出するとともに、前記設定されたウィンカ領域に対応する前記カラー画像上の領域と位置的に対応する前記検出された画素をウィンカとして認識するウィンカ認識部と
を有することを特徴とする車両監視装置。 - 前記ウィンカ認識部は、前記端部位置を基準として、前記車両側面に対応する領域にウィンカ領域を設定することを特徴とする請求項1に記載された車両監視装置。
- 前記ウィンカ認識部は、前記端部位置を基準として、車両後面に対応する領域にもウィンカ領域を設定することを特徴とする請求項2に記載された車両監視装置。
- 前記ウィンカ認識部は、前記ウィンカとして認識された画素の時系列的な面積変化に基づき、前記他車両のウィンカが点滅しているか否かを判断することを特徴とする請求項1から3のいずれかに記載された車両監視装置。
- 前記車両認識部は、前記特定された他車両の車両側面と車両後面とを個別に認識し、
前記ウィンカ認識部は、前記車両認識部が前記特定された他車両の車両後面を認識している場合、前記車両側面と前記車両後面との境界位置を基準として、前記ウィンカ領域を設定することを特徴とする請求項1から4のいずれかに記載された車両監視装置。 - 前記監視領域を含む景色を撮像することにより、カラー画像を出力し、かつ、前記第1のカメラと協働することによってステレオカメラとして機能する第2のカメラをさらに有し、
前記センサは、前記第1のカメラから出力されるカラー画像と、前記第2のカメラから出力されるカラー画像とに基づき、ステレオマッチングによって、前記距離データを出力することを特徴とする請求項1から5のいずれかに記載された車両監視装置。 - 前記監視領域を含む景色を撮像することにより、一対の画像データを出力するモノクロステレオカメラをさらに有し、
前記センサは、当該モノクロステレオカメラから出力された一対の画像データに基づいて、ステレオマッチングによって前記距離データとして出力することを特徴とする請求項1から5のいずれかに記載された車両監視装置。 - 監視領域を含む景色をカメラで撮像することにより取得されたカラー画像と、前記監視領域内における距離の二次元的な分布を示す距離データとに基づいて、自車両が走行する車線と隣接する車線を走行する他車両のウィンカ状態から、当該他車両の挙動を監視する車両監視方法において、
前記監視領域内の車線を認識する第1のステップと、
前記認識された車線から隣接車線を走行する他車両を特定するとともに、当該特定された他車両の車両側面と車両後面とを認識する第2のステップと、
前記カラー画像または前記距離データによって規定される二次元平面上において、前記認識された車両側面と車両後面との境界位置を基準として所定面積のウィンカ領域を設定する第3のステップと、
前記カラー画像に基づいてウィンカの色成分の画素を検出する第4のステップと、
前記設定されたウィンカ領域に対応する前記カラー画像上の領域と位置的に対応する前記検出された画素をウィンカとして認識する第5のステップと
を有することを特徴とする車両監視方法。 - 前記第3のステップは、前記端部位置を基準として、前記車両側面に対応する領域にウィンカ領域を設定することを特徴とする請求項8に記載された車両監視方法。
- 前記第3のステップは、前記端部位置を基準として、車両後面に対応する領域にもウィンカ領域を設定することを特徴とする請求項9に記載された車両監視方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002339642A JP4151890B2 (ja) | 2002-11-22 | 2002-11-22 | 車両監視装置および車両監視方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002339642A JP4151890B2 (ja) | 2002-11-22 | 2002-11-22 | 車両監視装置および車両監視方法 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2004173195A JP2004173195A (ja) | 2004-06-17 |
JP2004173195A5 JP2004173195A5 (ja) | 2005-11-24 |
JP4151890B2 true JP4151890B2 (ja) | 2008-09-17 |
Family
ID=32702549
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002339642A Expired - Fee Related JP4151890B2 (ja) | 2002-11-22 | 2002-11-22 | 車両監視装置および車両監視方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4151890B2 (ja) |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006031397A (ja) * | 2004-07-15 | 2006-02-02 | Alpine Electronics Inc | ナビゲーション装置およびナビゲーション方法 |
JP4568845B2 (ja) * | 2007-04-26 | 2010-10-27 | 三菱電機株式会社 | 変化領域認識装置 |
JP4969359B2 (ja) * | 2007-07-31 | 2012-07-04 | ダイハツ工業株式会社 | 移動物認識装置 |
JP2010128794A (ja) | 2008-11-27 | 2010-06-10 | Aisin Seiki Co Ltd | 車両周辺認知支援装置 |
JP5686376B2 (ja) * | 2011-10-25 | 2015-03-18 | 日本電信電話株式会社 | 画像処理装置、方法、及びプログラム |
JP5713350B2 (ja) * | 2011-10-25 | 2015-05-07 | 日本電信電話株式会社 | 画像処理装置、方法、及びプログラム |
JP6197291B2 (ja) | 2012-03-21 | 2017-09-20 | 株式会社リコー | 複眼カメラ装置、及びそれを備えた車両 |
KR20140012364A (ko) * | 2012-07-19 | 2014-02-03 | 현대모비스 주식회사 | 차량의 주행 안전 보조 장치 및 그 방법 |
EP2950114B1 (en) * | 2014-05-30 | 2020-03-04 | Honda Research Institute Europe GmbH | Method for assisting a driver in driving a vehicle, a driver assistance system, a computer software program product and vehicle |
US9880263B2 (en) * | 2015-04-06 | 2018-01-30 | Waymo Llc | Long range steerable LIDAR system |
JP6536554B2 (ja) | 2016-12-13 | 2019-07-03 | トヨタ自動車株式会社 | ウィンカ判定装置及び自動運転システム |
US10745007B2 (en) | 2018-06-08 | 2020-08-18 | Denso International America, Inc. | Collision avoidance systems and methods |
CN112307833A (zh) * | 2019-07-31 | 2021-02-02 | 浙江商汤科技开发有限公司 | 识别智能行驶设备的行驶状态的方法及装置、设备 |
JP7359735B2 (ja) | 2020-04-06 | 2023-10-11 | トヨタ自動車株式会社 | 物体状態識別装置、物体状態識別方法及び物体状態識別用コンピュータプログラムならびに制御装置 |
JP7388971B2 (ja) * | 2020-04-06 | 2023-11-29 | トヨタ自動車株式会社 | 車両制御装置、車両制御方法及び車両制御用コンピュータプログラム |
CN114613147B (zh) * | 2020-11-25 | 2023-08-04 | 浙江宇视科技有限公司 | 一种车辆违章的识别方法、装置、介质及电子设备 |
CN113743316B (zh) * | 2021-09-07 | 2023-09-19 | 北京建筑大学 | 基于目标检测的车辆加塞行为识别方法、系统及装置 |
CN118314669A (zh) * | 2024-04-08 | 2024-07-09 | 无锡广禄恒科技有限公司 | 基于固定对象接触状态大数据处理的报警系统 |
-
2002
- 2002-11-22 JP JP2002339642A patent/JP4151890B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2004173195A (ja) | 2004-06-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4151890B2 (ja) | 車両監視装置および車両監視方法 | |
EP2919197B1 (en) | Object detection device and object detection method | |
US6734787B2 (en) | Apparatus and method of recognizing vehicle travelling behind | |
JP6254083B2 (ja) | 車載用周囲環境認識装置 | |
US7949151B2 (en) | Vehicle surroundings monitoring apparatus | |
EP1548685A2 (en) | Vehicle driving assist system | |
US8406472B2 (en) | Method and system for processing image data | |
JPH1139596A (ja) | 車外監視装置 | |
KR20200133863A (ko) | 첨단 운전자 지원 장치, 이의 캘리브레이션 방법 및 이의 객체를 검출하는 방법 | |
JP4510554B2 (ja) | 立体物監視装置 | |
KR20200132468A (ko) | 첨단 운전자 지원 장치 및 이의 객체를 검출하는 방법 | |
EP3304493A1 (en) | A computer implemented method of detecting the distance of an object from an image sensor | |
JP3872179B2 (ja) | 車両の衝突防止装置 | |
KR20060021922A (ko) | 두 개의 카메라를 이용한 장애물 감지 기술 및 장치 | |
JPH0845000A (ja) | 車間距離制御装置 | |
JPH11153406A (ja) | 車両用障害物検出装置 | |
KR20190067578A (ko) | 오버랩 촬영 영역을 가지는 이종 카메라를 이용한 충돌 경고 장치 및 방법 | |
JPH11142168A (ja) | 環境認識装置 | |
JP4804202B2 (ja) | ステレオ式監視装置 | |
JP4130601B2 (ja) | 対象物認識装置および対象物認識方法 | |
JP4531366B2 (ja) | 進入判定装置および進入判定方法 | |
JP4574157B2 (ja) | 情報表示装置および情報表示方法 | |
JP4099011B2 (ja) | 監視装置および監視方法 | |
JP2013171390A (ja) | 運転支援装置 | |
KR20190066396A (ko) | 이종 카메라를 이용한 충돌 경고 방법 및 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20051007 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20051007 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080117 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080129 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080311 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080626 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080627 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4151890 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110711 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110711 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120711 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120711 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130711 Year of fee payment: 5 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |