JP2007286724A - 車載情報処理方法、車載情報処理プログラム、車載情報処理装置および車載情報処理システム - Google Patents

車載情報処理方法、車載情報処理プログラム、車載情報処理装置および車載情報処理システム Download PDF

Info

Publication number
JP2007286724A
JP2007286724A JP2006110816A JP2006110816A JP2007286724A JP 2007286724 A JP2007286724 A JP 2007286724A JP 2006110816 A JP2006110816 A JP 2006110816A JP 2006110816 A JP2006110816 A JP 2006110816A JP 2007286724 A JP2007286724 A JP 2007286724A
Authority
JP
Japan
Prior art keywords
vehicle
image
information processing
calculated
moving body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006110816A
Other languages
English (en)
Other versions
JP4847779B2 (ja
Inventor
Hiroshi Takenaga
寛 武長
Keiji Sato
啓二 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
HCX Corp
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Hitachi Ltd
HCX Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd, Hitachi Ltd, HCX Corp filed Critical Clarion Co Ltd
Priority to JP2006110816A priority Critical patent/JP4847779B2/ja
Publication of JP2007286724A publication Critical patent/JP2007286724A/ja
Application granted granted Critical
Publication of JP4847779B2 publication Critical patent/JP4847779B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】処理サイズを小さくし、かつ処理時間を短くすることを目的とする。
【解決手段】撮像装置5,6から入力された画像に対し、車両から遠方の画像領域である遠方領域と、車両から近傍の画像領域である近傍領域とで、異なる密度で計測点を設定し、この計測点を基にオプティカルフローを算出し、算出したオプティカルフローを基に、車両と移動体との到達する予測時間である到達予測時間を算出し、算出した到達予測時間に基づいて警報を出力することを特徴とする。
【選択図】図2

Description

本発明は、左右両側方から接近する車両を監視する車載情報処理方法、車載情報処理プログラム、車載情報処理装置および車載情報処理システムの技術に関する。
従来、見通しの悪いあるいは信号が設置されていない交差点へ自車を進入させる場合、自車の側方から接近してくる他の車両を確認するために、自車の側方にカメラを設置し、このカメラによって撮像された画像を自車内部に設置されたモニタに表示することで、ドライバが、表示された画像を用いて接近車等を把握する装置が商品化されている。
そのため、自車の側方を撮像した画像を処理して接近車を検知し、自車と衝突の危険性が大きい場合はドライバに警報する方法および装置が開示されている。そのような方法および装置として、例えば以下のようなものがある。
まず、接近車のエッジの長さによりフレーム間隔を変更する車両用衝突警報方法および装置が開示されている(例えば、特許文献1)。これによれば、入力した画像を微分処理してエッジ画像を作成し、作成したエッジ画像から水平エッジを抽出し、そのエッジの長さと処理サイズを求める。そして、エッジの長さに応じてフレーム間隔を求め、求めたフレーム間隔前のエッジ画像と、現在のエッジ画像とを用いて各エッジのオプティカルフローを算出する。そして、算出したオプティカルフローを基に接近車が自車に衝突するまでの到達予測時間を求めるようにしている。
また、所定時間空けた画像における輝度の時間差分を求めて接近車を検知する車両側方映像生成方法および車両側方映像生成装置が開示されている(例えば、特許文献2)。これによれば、前記した方法で、接近車を検知した後、接近車が自車に衝突するまでの到達予測時間を算出する際に、自車の回転角度、すなわち自車と道路との相対角を用いて到達予測時間を予測するようにしている。
特開平11−353565号公報([0048]、第8図) 特許第3606223号公報(請求項1、[0086]、[0100]、第2図)
しかしながら、特許文献1に記載の装置では、エッジ画像には接近車だけでなく道路標示や白線などエッジの長さが異なるエッジが多く含まれる。さらに、エッジ毎にフレーム間隔が異なるためオプティカルフローを算出する処理が複雑になる。また、エッジの長さが長いと処理サイズが大きくなり処理時間が増えるという課題もある。
また、特許文献2に記載の装置によれば、遠方と近傍とで接近車の見かけ上の動きが異なるため、同じフレーム間隔の画像間の輝度差分から接近車を検知することが難しい。更に、到達予測時間を求める際に、自車が走行する道路と交差点で交差する道路の交差角を考慮していないという問題がある。
前記課題に鑑みて、本発明がなされたのであり、本発明は、処理サイズを小さくし、かつ処理時間を短くすることを目的とする。
前記課題を解決するため、本発明を完成するに至った。すなわち、本発明の車載情報処理方法、車載情報処理プログラム、車載情報処理装置および車載情報処理システムは、撮像装置から入力された画像に対し、車両から遠方の画像領域である遠方領域と、車両から近傍の画像領域である近傍領域とで、異なる密度で計測点を設定し、この計測点を基にオプティカルフローを算出し、算出したオプティカルフローを基に、車両と移動体との到達する予測時間である到達予測時間を算出し、算出した到達予測時間に基づいて警報を出力することを特徴とする。
本発明によれば、処理サイズを小さくし、かつ処理時間を短くすることが可能となる。
次に、本発明を実施するための最良の形態(「実施形態」という)について、適宜図面を参照しながら詳細に説明する。
なお、本実施形態では、情報処理の対象となるすべてのもの、すなわち画像に撮像されているものを対象物と記載し、対象物の内、移動を行っているものを移動体と記載し、移動体の内、自車に接近しているものを接近物と記載することとする。
図1は、本実施形態にかかる車載情報処理システムの構成例を示す機能ブロック図である。
車載情報処理システム9は、自車(請求項における車両)の前部に左右側方の画像が撮像できるように取付けられる右カメラ(請求項における撮像装置)3および左カメラ(請求項における撮像装置)5から入力された画像に対し、後記する車載情報処理方法に従って情報処理を行う、自車に搭載された車載情報処理装置1を備える。そして、車載情報処理システム9は、道路地図を格納し、この道路地図を基に、自車の位置を監視し、自車の位置に関する情報や、道路地図を車載情報処理装置1に送るナビゲーションシステム8を備える。さらに、車載情報処理装置1が行った情報処理の結果を、表示するモニタ(請求項における出力装置)7を備える。
車載情報処理装置1は、右カメラ3および左カメラ5から入力された画像の情報処理を行う右カメラ処理部(請求項における処理部)2および左カメラ処理部(請求項における処理部)4を備える。さらに、右カメラ処理部2または左カメラ処理部4から情報処理の結果を受けると、表示装置にこの情報処理の結果を表示する出力処理部6を備える。
図2は、右カメラ処理部または左カメラ処理部の構成例を示す機能ブロック図である。
右カメラ処理部2は、以下の各部および各メモリを備える。
計測点設定処理部201は、入力される画像に対して、自車から近傍の画像領域である近傍領域と、自車から遠方の画像領域である遠方領域とに分け、近傍領域と、遠方領域とで異なる密度の計測点を設定する。
移動体処理部202は、時系列画像メモリ109より取得した画像に対してエッジ画像およびエッジプロファイルを作成し、作成したエッジプロファイルを基に、エッジプロファイルを作成し、移動体の検出および移動量の算出を行う。
オプティカルフロー算出部203は、画像内における移動体のオプティカルフロー(速度ベクトル)を算出する。
移動体判定部204は、移動体処理部202やオプティカルフロー算出部203などが行った処理の結果を基に、接近物の存在の有無を判定する。
到達予測時間算出部205は、オプティカルフロー算出部203が算出したオプティカルフローと、光軸方向算出部206が算出した自車に設置した右カメラ3の光軸方向とを基に、自車に接近物が到達する予測時間である到達予測時間を算出する。
警報判定部207は、遠方領域における処理において、到達予測時間算出部205が算出した到達予測時間が、所定の閾値以下か否かを判定することによって警報を出力するか否かを判定する。
警報処理部208は、警報判定部207によって、到達予測時間が、所定の閾値以下であると判定された場合や、移動体判定部によって、近傍領域に接近物が存在すると判定された場合に出力処理部6に警報を出力させる。
時系列画像メモリ(請求項における記憶部)209は、右カメラ3で撮像した画像を時系列に格納し、現在の時間より所定時間以上経過した画像は廃棄するよう構成されたメモリである。例えば、メモリアドレスが初期値からカウントアップし所定値までカウントアップしたら初期値に戻るリングメモリで構成される。
時系列エッジプロファイルメモリ210は、後記する方法によってエッジ画像から作成されたエッジプロファイルを時系列に格納するメモリである。時系列エッジプロファイルメモリ210は、時系列画像メモリ209と同様、現在の時間より所定時間以上経過したエッジプロファイルは廃棄するよう構成されたメモリである。
左カメラ5から入力される左カメラ処理部4の構成も、右カメラ処理部2と同様である(図2の左カメラ処理部4の構成要素は、符号401から符号410)。
なお、図1および図2に示す各部は、図示しないROM(Read Only Memory)などの記憶装置に格納されたプログラムが、図示しないCPU(Central Processing Unit)によって実行されることによって、具現化される。
(システム概略図)
図3は、本実施形態に係る車載情報処理システムの概略を示した図である。
図3は、自車(請求項における車両)31の左右方向を監視するため、自車31の前部にそれぞれ1つのカメラを取付けた例である。右カメラ3は、右からの接近物を、左カメラ5は、左からの接近物を監視する。
(処理概要)
次に、図1から図3を参照しつつ、図4に沿って本実施形態の車載情報処理装置1における車載情報処理方法を説明する。
図4は、本実施形態に係る車載情報処理方法の流れを示すフローである。
なお、本実施形態では、右カメラ処理部2における処理を説明するが、後記するように左カメラ処理部4における処理も同様である。
まず、右カメラ処理部2は、右カメラ3を介して画像を入力され(S1)、入力された画像を時系列画像メモリ209に格納する(S2)。入力される画像の説明は、図6を参照して後記する。
移動体処理部202は、時系列画像メモリ209に格納した画像を用いて、処理範囲内における移動体の検出を行うとともに、検出した移動体が所定時間に処理範囲内を移動する量である移動量を算出する移動体処理を行う(S3)。移動体処理のフローは、図5を参照して後記する。
次に、計測点設定処理部201が、ステップS1で入力された画像に対し、遠方の画像が撮像されている画像領域である遠方領域と、近傍の画像が撮像されている画像領域である近傍領域とに分ける遠方領域および近傍領域の設定を行った(S4)後、当該遠方領域に対し、予め設定してある間隔で計測点を設定し、近傍領域に対し、遠方領域とは異なる密度で計測点を設定する(S5)。遠方領域および近傍領域の設定、ならびに計測点設定処理の詳細は、図11を参照して後記する。
(遠方領域における処理)
ステップS6からステップS11は、遠方領域における処理である。
続いて、オプティカルフロー算出部203は、移動体処理で算出した移動量から、オプティカルフローの算出で用いる2枚の画像のフレーム間隔を算出し(S6)、算出したフレーム間隔を用いてオプティカルフローを算出する(S7)。オプティカルフローの算出処理の詳細は、図13および図14を参照して後記する。
そして、移動体判定部204は、算出した計測点毎のオプティカルフローを基に、遠方領域において、接近物が存在するか否かを判定する(S8)。接近物判定の処理の詳細は、図15を参照して後記する。
移動体判定部204が、遠方領域において、接近物が存在しないと判定した場合(S8→No)、右カメラ処理部2は、ステップS10に処理を進める。
移動体判定部204が、遠方領域において、接近物が存在すると判定した場合(S8→Yes)、右カメラ処理部2は、ステップS9に処理を進める。
次に、到達予測時間算出部205と光軸方向算出部206は、ステップS7で算出したオプティカルフローを用いて自車に接近する移動体が、自車に到達する予測時間である到達予測時間を算出する(S9)。到達予測時間の算出処理の詳細は、図16から図18を参照して後記する。
そして、警報判定部207は、算出した到達予測時間が予め設定してある閾値以下であるか否かを判定する(S10)ことによって、警報を発生するか否かを判定する。
警報判定部207が、到達予測時間が閾値より大きい(閾値以下ではない)と判定した場合(S10→No)、右カメラ処理部2は、ステップS12に処理を進める。
警報判定部207が、到達予測時間が閾値以下であると判定した場合(S10→Yes)、警報処理部208は、出力処理部6に警報を表示するよう指示する。
そして、指示された出力処理部6は、モニタ7に警報を表示させる(S11)。
(近傍領域における処理)
次に、ステップS10からステップS15は、近傍領域における処理である。
近傍領域における処理が、遠方領域における処理と異なる点は、到達予測時間の算出が行われない点である。
近傍領域におけるステップS12(フレーム間隔の算出処理)、ステップS13(オプティカルフローの算出処理)およびステップS14の近傍領域において、接近物が存在するか否かの判定処理は、遠方領域における各処理(ステップS6,S7,S8)と同様の処理であるため、説明を省略する。
移動体判定部204が、近傍領域において、接近物が存在しないと判定した場合(S14→No)、右カメラ処理部2は、ステップS16へ処理を進める。
移動体判定部204が、近傍領域において、接近物が存在すると判定した場合(S14→Yes)、警報処理部208は、出力処理部6に警報を表示するよう指示する。
そして、指示された出力処理部6は、モニタ7に警報を表示させる(S15)。
次に、右カメラ処理部2は、ステップS1で入力された画像をモニタ7に表示させる(S16)。このとき、S9で到達予測時間を算出していれば、右カメラ処理部2は、到達予測時間をモニタ7に表示させてもよい。
なお、本実施形態では、モニタ7に警報を表示させたが、これに限らず、図示しない音声出力装置などで警報を出力させてもよい。
そして、右カメラ処理部2は、ステップS1に処理を戻す。右カメラ処理部2は、自車が走行している間、ステップS1からステップS16の処理を実行してもよい。
また、以下に記述するような処理を行ってもよい。右カメラ処理部2は、自車の位置をナビゲーション装置が監視し、ナビゲーション装置から送られた情報を基に、右カメラ処理部2が交差点から所定の距離以内に自車が位置しているか否かを判断する。そして、自車が交差点から所定の距離以内に位置する間、ステップS1からステップS16の処理を実行し続けるようにしてもよい。
自車の近傍に存在する車両に対して、右カメラ処理部2が、到達予測時間を算出することは、あまり意味がなく、すぐに警報を発生することが望ましい。
従って、本実施形態のように近傍領域において移動体が検出された場合、到達予測時間の算出を省略することで処理時間の短縮を可能とし、すぐに警報を発生することが可能となる。
(移動体処理)
次に、図2を参照しつつ、ステップS3の移動体処理について説明する。
図5は、ステップS3における移動体処理の流れを示すフローである。
まず、移動体処理部202は、時系列画像メモリ209から画像を取得し、取得した画像からエッジ画像を作成する(S41)。エッジ画像の作成処理については、図7(a)を参照して後記する。
次に、移動体処理部202が、作成したエッジ画像に対するエッジプロファイルを作成する(S42)。エッジプロファイルの作成処理については、図7(b)を参照して後記する。
そして、移動体処理部202が、作成したエッジプロファイルを時系列エッジプロファイルメモリ210に格納する(S43)。
さらに、移動体処理部202は、時系列エッジプロファイルメモリ210内の時間的に異なる(例えば撮像間隔の)2つのエッジプロファイルを用いて移動体の検出を行う(S44)。移動体の検出処理の詳細は、図9および図10を参照して後記する。
(画像の入力:図4のステップS1)
以下、図1から図5を適宜参照しつつ、図6から図18に沿って、図4および図5における各処理の詳細な説明を行う。
まず、図1を参照しつつ、図6に沿って右カメラ処理部2および左カメラ処理部4に入力される画像の例を示す。
図6は、図3に示す右カメラおよび左カメラが撮像し、カメラ処理部に入力される画像の例を示す図であり、(a)右カメラ画像、(b)左カメラ画像の例を示す図である。
ここで、図6を用いて、オプティカルフローの説明を行っておく。
静止している右カメラ3または左カメラ5に対して移動体62,66が移動すると、画像(右カメラ画像61または左カメラ画像65)中における移動体62,66の画像の動きからオプティカルフロー63,67が求まる。オプティカルフロー63,67とは、移動体62,67の画像上の各点における速度ベクトルである。オプティカルフロー63,67の延長線は、右カメラ画像61または左カメラ画像65内のある範囲内で交わる。この交点は、FOE(Focus of Expansion)64,68と呼ばれ、オプティカルフロー63,67の中心となる。
(エッジプロファイルの作成:図5のステップS41およびステップS42)
図7は、エッジプロファイル作成の例を示す図であり、(a)は、エッジ画像の例、(b)は、エッジプロファイルの例を示す図である。
ここでは、右カメラ処理部2に入力される画像が図6(a)に示す画像であると仮定する。図7(a)に示すエッジ画像は、時系列画像メモリ209から取得された画像に対して、所定の処理範囲81内において垂直方向のエッジ82を、移動体処理部202が抽出した結果である。具体的には、移動体処理部202が、右カメラ画像61(以下、適宜画像61と記載)の水平座標i,i+2の濃度値の差を算出し、これを処理範囲81内の水平座標iおよび垂直座標j毎に行うことで求めることができる。ここで画像の座標は画素位置を表わすものとする。つまり、移動体処理部202は、1つおきの水平画素間における濃度値の差を算出する処理を、すべての画素において実行する。ここで、所定の処理範囲とは、例えば画像全体である。
図7(b)に示すエッジプロファイルは、移動体処理部202によって、図7(a)に示すエッジ画像における濃度差の値が垂直方向に累積された値である。
エッジプロファイルは、横軸が画像の水平座標、縦軸が濃度差累積値を持つ1次元の波形で、この図7(b)から分かるようにエッジに対応する位置にピークを持つ。
(エッジプロファイルの格納:図5のステップS43)
図8は、時系列エッジプロファイルメモリにおけるエッジプロファイル格納の例を示す図である。
図8に示すように、過去に作成されたエッジプロファイルから直近に作成されたエッジプロファイルまでが移動体処理部202によって、時系列エッジプロファイルメモリ210に格納されている。ここで、図8におけるΔtは、撮像間隔であり、図8に示すように現在tから、p*Δt前の過去のエッジプロファイルがΔt毎に格納される。
(移動体検出処理:図5のステップS44)
図9は、移動体検出の処理の例を示す図である。
移動体処理部202は、時系列エッジプロファイルメモリ210から現在のエッジプロファイルと時間Δt1前のエッジプロファイルとを取得した後、以下に記載する方法で移動体の検出を行う。
移動体検出方法としては、移動体処理部202が、図9に示すように現在のエッジプロファイルと時間Δt1前のエッジプロファイルとの相関演算を行うことが考えられる(テンプレートマッチング)。これは、移動体処理部202が、現在の画像から得られたエッジプロファイル内の部分波形と近い部分波形を時間Δt1前の過去のエッジプロファイルの波形から探す方法である。例えば、移動体処理部202が、図9に示すように座標i0からm画素分の波形をテンプレートとし、所定時間Δt1前のエッジプロファイルの座標i0の前後n画素分を探索範囲としてテンプレートと類似する波形を探す。テンプレートの決定方法として、所定の画素幅mを用いる代わりに、エッジプロファイル波形の凸、凹を探し、凹−凸−凹で囲まれた部分をテンプレートとしてもよい。
相関演算による類似度rとしては、例えばr(i1)=Σ{f(i0+x−i1)−g(i0+x)}が考えられる。ここでg(i0+x)はテンプレート、f(i0+x−i1)は時間Δt1前のエッジプロファイルの探索範囲内の波形である。類似度r(i1)が、最小となるi1がテンプレートに最も近い波形が存在する座標を表す。そして、移動体処理部202は、決定したi1と、i0とを基に、移動量d(i0)=i0−i1を算出する。次に、移動体処理部202は、座標i0を変更してテンプレートを決定し、そのテンプレートに最も近い波形を所定時間Δt1前のエッジプロファイルから探す。移動体処理部202は、このテンプレートマッチングを繰り返して、各i0についての移動量d(i)を算出する。移動体が遠方にいる時は画像上での見かけの動きが小さいため、Δt1を小さくすると、移動量も小さな値となってしまう。そこで、移動体が遠方にいる時は、Δt1を大きく設定してもよい。
図10は、図9に示す処理の結果、得られた移動体領域を示す図である。
移動体処理部202が、図9を参照して説明したi0毎に算出した移動量を、横軸をi0、縦軸を移動量としてグラフ化することにより、図10に示す移動体領域を算出する。
この処理は、右カメラ3から入力される画像を用いているため、自車が停止している場合、移動量d(i)がゼロのときは、静止物を示し、正のときは、自車から離れる移動体を示し、そして負のときは、自車に接近する移動体が存在することを示す。移動体として自車に接近する移動体(接近物)を検出する場合は、図10に示すように移動量d(i)が負となる範囲を移動体領域(i1,i2)とすればよい。ここで、i1,i2は、移動量d(i)が負の値となるiの上限値および下限値である。そして、移動体処理部202は、検出した移動体領域(i1,i2)における移動体の移動量dと、移動体領域(i1,i2)と、時間Δt1とをオプティカルフロー算出部203へ出力する。なお、ここでdは、移動体領域におけるd(i)をi1からi2の範囲において、iに関して平均をとった値である。
(遠方領域および近傍領域の設定、計測点設定:図5のステップS4、ステップS5)
図11は、本実施形態に係る遠方領域および近傍領域の設定、ならびに計測点設定の例を示す図である。
なお、以降右カメラ画像61を適宜画像61と記載する。
計測点設定処理部201は、図11に示すように、右カメラ3から取得した右カメラ画像61なら、右カメラ画像61の右側の所定領域を遠方領域72とし、画像左側の所定領域を近傍領域71とする。遠方領域の大きさは、図示しない入力部を介して、予め右カメラ処理部2に設定してあるものとする。
そして、計測点設定処理部201は、近傍領域71および遠方領域72において、オプティカルフローを算出するための計測点73を異なる密度で設定する。具体的には、遠方領域72は、近傍領域71よりも密に計測点73を設定する。
例えば、遠方領域72では4画素間隔で計測点73を設定するのに対し、近傍領域71では、例えば約1/4の密度で計測点73を28画素間隔に設定する。計測点73の密度は、必要とされる検知精度に応じて適宜変更してもよい。
移動体が自車31に対して遠方にいる時は、移動体は小さく撮像されるため、遠方領域72の移動体のオプティカルフローを正確に算出するためには計測点73を密に設定する必要がある。
しかし、移動体が自車に対して近傍にいる時は、移動体は大きく撮像されるため、計測点73はそれほど密に設定しなくてもよい。
遠方領域72の大きさは、遠方における移動体領域(図9を参照して後記)を含むように定める必要がある。そのため、最も短い撮像間隔の場合でも遠方領域72内に移動体領域が入るように、遠方領域72の幅を定めるなどの方法がある。遠方領域72の高さは、前回のループで求めたオプティカルフローのFOEに応じて定めてもよい。
図12は、比較例に係る計測点設定の例を示す図である。
比較例に示すように、従来では、計測点73は、遠方領域および近傍領域に限らず、等密度で設定されていた。つまり、遠方領域にあわせた密度で近傍領域における計測点を設定していた。従って、移動体が大きく撮像されるため計測点を細かく設定する必要がない近傍領域においても、遠方領域と同じ密度で計測点を設定しているため、後記するオプティカルフローの算出の際の処理サイズが大きくなってしまう。
これに対し、本実施形態では図11に示すように、近傍領域71と、遠方領域72とにおいて、計測点73の設定の密度を変えることで、検出精度を落とさずに、処理サイズを小さくし、かつ処理時間を短くすることが可能となる。
(オプティカルフローの概要)
以下、図13から図18を参照して、オプティカルフローによる接近物の検出および接近物が自車に到達する到達予測時間の算出を説明する。
なお、図13から図15までの説明において、遠方領域と近傍領域とでは、計測点の配置の密度が異なるだけで、他は同様の処理を行っている。
図13は、オプティカルフローの例を示す図である。
接近物および到達予測時間を算出するために、移動体が所定時間の間に移動した移動ベクトル(すなわち、オプティカルフロー)1201を求める必要がある。ここで、画像61における移動ベクトル1201とは図13に示すように時間Δt2前の移動体の位置(破線で図示)と現在の移動体の位置(実線で図示)とをベクトル表現(矢印で図示)したものである。
(フレーム間隔算出:図4のステップS6,S12)
図14は、フレーム間隔算出の処理の例を示す図である。
まず、オプティカルフローの算出に用いる2枚の画像61の時間間隔(以下、フレーム間隔と呼ぶ)Δtを、移動体処理部202が移動量dを算出する際に用いた時間Δt1と同じ値にした場合、移動量dが大きいと図14に示すテンプレート画像1301と類似する画像(類似画像1302)を探す探索範囲aを大きくする必要があり、これは算出時間の増加になる。そこで、オプティカルフロー算出部203が、移動体処理部202において算出された移動量dに応じてフレーム間隔を変更することにする。即ち、移動量dが大きい場合はフレーム間隔Δtを時間Δt1より小さくし、移動量dが小さい場合はフレーム間隔Δtを時間Δt1より大きくする。例えば、図14に示す水平方向の探索範囲をaとすると、オプティカルフロー算出部203は、フレーム間隔Δtを以下の式1で決定する。
Δt=a/d*Δt1 (式1)
この式を用いると、フレーム間隔Δtを調節することにより探索範囲aを一定にすることができる。従って、移動量dに関わらずオプティカルフローの算出時間を一定にすることができる。
図5のステップS44で算出した移動量は画像の水平座標方向の変化である。オプティカルフロー1303を算出するためには更に垂直座標方向の移動量をも算出する必要がある。オプティカルフローを算出する方法には、ブロックマッチング法と勾配法がある。ここではブロックマッチング法を用いて説明するが、これに限らず勾配法を用いてもよいのは、当然である。
ブロックマッチング法では、まず図18で説明したように、計測点設定処理部201が画像61上にオプティカルフロー1303を求めるための計測点1304を所定位置に配置する。そして、この計測点1304を中心する局所領域の画像をテンプレート画像1301として、時系列画像メモリ209からオプティカルフロー算出部203が画像61を取得する。次に、オプティカルフロー算出部203は、テンプレート画像1301からフレーム間隔Δt経過した画像61を時系列画像メモリ209から取得し、取得した画像61上の計測点1304を中心として、先に設定したテンプレート画像1301に最も類似する画像(類似画像1302)を探索する。テンプレート画像1301における計測点1304の座標を(i(t),j(t))、類似画像1302における計測点1304の座標を(i(t+Δt),j(t+Δt))とすると、オプティカルフロー1303(u,v)は、次式で算出できる。
u=i(t+Δt)−i(t) (式2)
v=j(t+Δt)−j(t) (式3)
この様子を図14に示す。テンプレート画像1301をg(x,y)、探索範囲a内の座標(k,l)を中心にテンプレート画像1301と同じサイズで切出した画像(類似画像1302)をf(k+x,l+y)とすると、類似度r(k,l)は、式4で算出できる。
Figure 2007286724
(接近物判定処理:図4のステップS8)
図15は、接近物判定の処理の例を示す図であり、(a),(b),(c)は、接近物検知の例、(d),(e)は、接近物未検知の例を示す図である。
図15で“■”はオプティカルフローが発生した計測点(オプティカルフロー発生点1401)を、“□”はオプティカルフローが発生しなかった計測点(オプティカルフロー未発生点1402)を示している。即ち、移動体判定部204は、隣接する行または列の計測点の中で2個以上のオプティカルフロー発生点1401があれば「接近物あり」と判定し(図20(a),(b),(c))、それ以外を接近物未検出(図20(d)、(e))とする。つまり、隣接する行または列の中で、オプティカルフロー発生点1401が2個未満であれば、移動体判定部204は、このオプティカルフロー発生点1401をノイズと判定し、接近物とは判定しない。
(到達予測時間算出:図4のステップS9)
次に、算出したオプティカルフローから接近物と自車との到達予測時間を算出する方法について述べる。
図16は、基準座標系とカメラ座標系との例を示す図である。
到達予測時間算出部205が扱う座標系として、基準座標系、カメラ座標系、撮像面座標系および画像メモリ座標系がある。基準座標系とは、自車が走行している道路と交差する道路に沿った軸をZ’軸とし、これと垂直な軸をX’軸およびY’軸とした(X’,Y’,Z’)座標系である。これに対し、カメラ座標系は、右カメラ3のレンズに対する光軸をZ軸とし、これと垂直なX軸およびY軸を定めた(X,Y,Z)座標系である。基本座標系およびカメラ座標系の原点は、自車に設置された右カメラ3のレンズ中心である。Z’軸とZ軸とのなす角度をθとすると、基本座標系とカメラ座標系との間には以下の関係式が成り立つ。
Figure 2007286724
Figure 2007286724
図17は、撮像面座標系の例を示す図である。
撮像面座標系は、図17に示すように撮像面(カメラ内部に設けられている撮像素子上の面)の中心を原点とした座標系で、撮像面座標系における座標を(x,y)で表す。このとき、焦点距離をFとすると、カメラ座標系上の点P(Xp,Yp,Zp)と撮像面座標系上の点p(x,y)には以下の関係式が成り立つ。
Figure 2007286724
Figure 2007286724
図18は、画像メモリ座標系の例を示す図である。
画像メモリ座標系は、図18に示すように画像の左上隅を原点として(i,j)で表すことにする。この時、撮像面座標系(x,y)と画像メモリ座標系(i,j)には下記の関係式が成り立つ。
Figure 2007286724
Figure 2007286724
ここで、I,Jは、画像メモリの中心を原点とした座標である。
ここで、撮像面のサイズをW×H[m]、有効画素数をP×PH、また撮像面座標系の原点と画像メモリ座標系の原点とのオフセットをoffset1(x軸方向),offset2(y軸方向)とする。
今、自車が静止しており、接近物は一定速度Vで道路に沿って直進走行しているとする。接近物のある点を基準座標系で表すと、P(X’p,Y’p,Z’p)となり、X’p,Y’pは、時間に関わらず一定となる。到達予想時刻算出部は、自車と接近物との距離であるZ’pを式11によって算出する。
Figure 2007286724
次に、到達予測時間算出部205は、図14に示すオプティカルフローの算出処理で求めた時刻t,t1=0+Δの座標(i(t),j(t))、(i(t+Δt),j(t+Δt))を式9、式10に代入して算出した画像メモリ座標系の座標をI(t),I(t)、J(t),J(t)として求め、さらに、それぞれの比をr(x),r(y)とする。このときr(x),r(y)は、式12および式13となる。ここで、tは、現在処理している画像を取り込んだ時刻であり、tは、前回処理した画像を取り込んだ時刻である。
Figure 2007286724
Figure 2007286724
式5、式6および式11を式13に代入すると、r(y)は、式14で表すことができる。
Figure 2007286724
到達予測時間をTとすると、Tは、Z’(t)/Vで表現できる。そこで、式14は、次のようになる。
Figure 2007286724
ここで、b=X/Vである。また、r(x)は、式16のように変形できる。
Figure 2007286724
ここで、r=r(x)/r(y)とすると式17を得る。
Figure 2007286724
ここで、Xは、tにおける撮像面座標系のx座標値であり、Vは、自車が一定速度で走行するという仮定の下での時刻tにおける自車の速度である。
式17からbを求めて式15に代入することによって、到達予測時間算出部205は、到達予測時間Tを次の式18を用いて算出できる。ここで、Δtは、オプティカルフロー算出部203が算出したフレーム間隔である。
Figure 2007286724
式18からわかるように到達予測時間Tを算出するためには、光軸方向θを求める必要がある。θは、次の成分から構成される。即ち、カメラを車両に設置したときの角度、ドライバがステアリング操作したときの自車の回転角(ステアリング角度)、および図16に示すように交差点での走行道路と交差道路との交差角αである。カメラの設置角度は、設計値によって規定され、自車の回転角はステアリング角度センサやヨーレートセンサなどを用いることによって計測できる。道路の交差角αは、ナビゲーションシステム83の道路地図に格納しておけばよい。また、自車の回転角は、撮像装置で検出した白線の傾きを基に算出してもよい。そして、光軸方向算出部206が、ステアリング角度センサあるいはヨーレートセンサから取得した値と、ナビゲーションシステム83に格納してある道路地図から取得した道路の交差角αと、更にカメラの設置角度とを用いて光軸方向θを次式で算出する。
θ=カメラの設置角度+ステアリング角度+道路交差角 (式19)
到達予測時間算出部205が、移動体処理で算出した移動体領域(図10参照)内の計測点の座標と、式19のθを式18に代入することによって、到達予測時間算出部205は、移動体領域内の各計測点における到達予測時間を算出する。そして、到達予測時間算出部205が、算出した各計測点の到達予測時間の中で最小となる到達予測時間を、その移動体の到達予測時間とすればよい。
なお、左カメラ5から入力される画像を処理する左カメラ処理部4では、移動量dと移動体の接近/離反の関係が逆になる。しかし、前記した右カメラ3の画像を左右鏡像反転することにより、移動量d(i)の正負と移動体の接近/離反の関係を同じにすることが出来る。従って、左カメラ処理部4における処理の内容も、前記した右カメラ処理部2における処理と同様の処理とすることができる。
このような方法により右カメラ3で撮像した画像に接近物があれば、それを検出し、到達予測時間に応じて警報を発生することができる。右カメラ3の場合、接近物は画像の右から左に移動するものが自車への接近物となるが、左カメラ5の場合は、画像の左から右に移動するものが自車への接近物となる。従って、左カメラ5の画像を鏡像反転すれば、前述の通り、右カメラ3に対して用いた処理がそのまま利用できることになり、プログラム容量を抑えることができる。
なお、本実施形態では、図4において遠方領域における処理を近傍領域における処理よりも先に行ったが、これに限らず近傍領域における処理(すなわち、図4のステップS12からステップS15)を遠方における処理(すなわち、図4のステップS6からステップS11)より先に行ってもよい。
(効果)
本実施形態によれば、画像を近傍領域および遠方領域に分け、近傍領域に設定する計測点を、遠方領域の計測点と比較して、疎に設定し、さらに近傍領域においては、到達予測時間の算出を行わないことにより、近傍領域に移動体が検知されてから、警報を出力するまでの時間を短縮することが可能となる。従って、近傍領域における計測点を少なくすることで、処理サイズを小さくすることが可能であり、かつ近傍領域における到達予測時間の算出を行わないことで処理時間を短くすることが可能となる。
本実施形態にかかる車載情報処理システムの構成例を示す機能ブロック図である。 右カメラ処理部または左カメラ処理部の構成例を示す機能ブロック図である。 本実施形態に係る車載情報処理システムの概略を示した図である。 本実施形態に係る車載情報処理方法の流れを示すフローである。 ステップS3における移動体処理の流れを示すフローである。 図3に示す右カメラおよび左カメラが撮像し、カメラ処理部に入力される画像の例を示す図であり、(a)右カメラ画像、(b)左カメラ画像の例を示す図である。 エッジプロファイル作成の例を示す図であり、(a)は、エッジ画像の例、(b)は、エッジプロファイルの例を示す図である。 時系列エッジプロファイルメモリにおけるエッジプロファイル格納の例を示す図である。 移動体検出の処理の例を示す図である。 図9に示す処理の結果、得られた移動体領域を示す図である。 本実施形態に係る遠方領域および近傍領域の設定、ならびに計測点設定の例を示す図である。 比較例に係る計測点設定の例を示す図である。 オプティカルフローの例を示す図である。 フレーム間隔算出の処理の例を示す図である。 接近物判定の処理の例を示す図であり、(a),(b),(c)は、接近物検知の例、(d),(e)は、接近物未検知の例を示す図である。 基準座標系とカメラ座標系との例を示す図である。 撮像面座標系の例を示す図である。 画像メモリ座標系の例を示す図である。
符号の説明
1 車載情報処理装置
2 右カメラ処理部(処理部)
3 右カメラ(撮像装置)
4 左カメラ処理部(処理部)
5 左カメラ(撮像装置)
6 出力処理部
7 モニタ
8 ナビゲーションシステム
9 車載情報処理システム
31 自車
61 右カメラ画像(画像)
62 移動体
63,1303 オプティカルフロー
65 左カメラ画像
71 近傍領域
72 遠方領域
73,1304 計測点
81 処理範囲
82 エッジ
83 ナビゲーションシステム
201 計測点設定処理部
202 移動体処理部
203 オプティカルフロー算出部
204 移動体判定部
205 到達予測時間算出部
206 光軸方向算出部
207 警報判定部
208 警報処理部
209 時系列画像メモリ(記憶部)
210 時系列エッジプロファイルメモリ
1201 移動ベクトル
1301 テンプレート画像
1302 類似画像
1401 オプティカルフロー発生点
1402 オプティカルフロー未発生点

Claims (7)

  1. 車両に搭載され、前記車両の左右両側方に設置した少なくとも2台の撮像装置が撮像する画像に基づき、移動体の存在を検知する車載情報処理装置における車載情報処理方法であって、
    前記車載情報処理装置は、情報を記憶する記憶部を備え、
    前記撮像装置から入力された画像を前記記憶部に格納し、
    前記記憶部から、時間的に異なる2つの画像を取得し、
    前記2つの画像を基に、前記画像内における移動体の検出と、移動量の算出を行い、
    前記画像を、前記車両から近傍の画像領域である近傍領域と、前記車両から遠方の画像領域である遠方領域とに分け、
    前記近傍領域と、前記遠方領域とにおいて、異なる密度で計測点を設定し、
    前記遠方領域における処理では、
    前記移動量を基に、フレーム間隔を算出し、
    前記記憶部から、前記フレーム間隔の2つの画像を取得し、
    前記取得した2つの画像と、前記遠方領域における前記計測点とを基に、オプティカルフローを算出し、
    前記算出したオプティカルフローを基に、前記車両に、前記検出された移動体が到達する予測時間である到達予測時間を算出し、
    前記算出した到達予測時間を基に、警報の要否を判定し、
    前記近傍領域における処理では、
    前記移動量を基に、フレーム間隔を算出し、
    前記記憶部から、前記フレーム間隔の2つの画像を取得し、
    前記取得した2つの画像と、前記近傍領域における前記計測点とを基に、オプティカルフローを算出し、
    前記算出したオプティカルフローを基に、警報の要否を判定することを特徴とする車載情報処理方法。
  2. 前記車載情報処理装置は、前記車載情報処理装置から送られた画像を出力する出力装置と接続可能であり、
    前記警報の要否の判定の結果、前記警報が要であると判定された場合、前記出力装置に前記警報を出力させることをさらに実行することを特徴とする請求項1に記載の車載情報処理方法。
  3. 前記入力された画像を、前記出力装置に出力させることをさらに実行することを特徴とする請求項2に記載の車載情報処理方法。
  4. 前記車載情報処理装置は、道路地図の情報を格納するナビゲーションシステムと接続可能であり、
    前記到達予測時間の算出は、
    前記車両に設置されているヨーレートセンサの出力、ステアリング角センサの出力、または前記撮像装置で検出した白線の傾きの少なくとも1つを用いて自車の回転角度を取得し、
    前記ナビゲーションシステムから取得した前記道路地図より前記車両が走行する道路と、交差点で交差する道路との交差角度を取得し、
    前記車両の回転角度と交差角度とを基に、前記到達予測時間を算出することをさらに実行することを特徴とする請求項1に記載の車載情報処理方法。
  5. 請求項1から請求項4のいずれか一項に記載の車載情報処理方法を、コンピュータに実行させることを特徴とする車載情報処理プログラム。
  6. 車両に搭載され、前記車両の左右両側方に設置した少なくとも2台の撮像装置が撮像する画像に基づき、移動体の存在を検知する車載情報処理装置であって、
    情報を記憶する記憶部と、
    前記撮像装置から入力された画像を前記記憶部に格納する処理部と、
    前記記憶部から、時間的に異なる2つの画像を取得し、前記2つの画像を基に、前記画像内における移動体の検出と、移動量の算出を行う移動体処理部と、
    前記画像を、前記車両から近傍の画像領域である近傍領域と、前記車両から遠方の画像領域である遠方領域とに分け、前記近傍領域と、前記遠方領域とにおいて、異なる密度で計測点を設定する計測点設定処理部と、
    前記移動量を基に、フレーム間隔を算出し、前記記憶部から、前記フレーム間隔の2つの画像を取得し、前記取得した2つの画像と、前記計測点とを基に、オプティカルフローを算出するオプティカルフロー算出部と、
    前記算出したオプティカルフローを基に、前記車両に、前記検出された移動体が到達する予測時間である到達予測時間を算出する到達予測時間算出部と、
    前記遠方領域における処理で、前記算出した到達予測時間を基に、警報の要否を判定する警報判定部と、
    前記近傍領域における処理で、前記算出したオプティカルフローを基に、警報の要否を判定する移動体判定部と、を含んで備えることを特徴とする車載情報処理装置。
  7. 車両の左右両側方に設置した少なくとも2台の撮像装置と、前記車両に搭載され、前記撮像装置が撮像する画像に基づき、移動体の存在を検知する車載情報処理装置とを含んで備える車載情報処理システムであって、
    前記車載情報処理装置は、
    情報を記憶する記憶部と、
    前記撮像装置から入力された画像を前記記憶部に格納する処理部と、
    前記記憶部から、時間的に異なる2つの画像を取得し、前記2つの画像を基に、前記画像内における移動体の検出と、移動量の算出を行う移動体処理部と、
    前記画像を、前記車両から近傍の画像領域である近傍領域と、前記車両から遠方の画像領域である遠方領域とに分け、前記近傍領域と、前記遠方領域とにおいて、異なる密度で計測点を設定する計測点設定処理部と、
    前記移動量を基に、フレーム間隔を算出し、前記記憶部から、前記フレーム間隔の2つの画像を取得し、前記取得した2つの画像と、前記計測点とを基に、オプティカルフローを算出するオプティカルフロー算出部と、
    前記算出したオプティカルフローを基に、前記車両に、前記検出された移動体が到達する予測時間である到達予測時間を算出する到達予測時間算出部と、
    前記遠方領域における処理で、前記算出した到達予測時間を基に、警報の要否を判定する警報判定部と、
    前記近傍領域における処理で、前記算出したオプティカルフローを基に、警報の要否を判定する移動体判定部と、を含んで備えることを特徴とする車載情報処理システム。
JP2006110816A 2006-04-13 2006-04-13 車載情報処理方法、車載情報処理プログラム、車載情報処理装置および車載情報処理システム Active JP4847779B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006110816A JP4847779B2 (ja) 2006-04-13 2006-04-13 車載情報処理方法、車載情報処理プログラム、車載情報処理装置および車載情報処理システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006110816A JP4847779B2 (ja) 2006-04-13 2006-04-13 車載情報処理方法、車載情報処理プログラム、車載情報処理装置および車載情報処理システム

Publications (2)

Publication Number Publication Date
JP2007286724A true JP2007286724A (ja) 2007-11-01
JP4847779B2 JP4847779B2 (ja) 2011-12-28

Family

ID=38758460

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006110816A Active JP4847779B2 (ja) 2006-04-13 2006-04-13 車載情報処理方法、車載情報処理プログラム、車載情報処理装置および車載情報処理システム

Country Status (1)

Country Link
JP (1) JP4847779B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009078056A1 (ja) * 2007-12-14 2009-06-25 Fujitsu Limited 移動物検知装置及び移動物検知プログラム
JP2010244474A (ja) * 2009-04-09 2010-10-28 Hitachi Automotive Systems Ltd 自動車の外界認識装置
EP2905725A2 (en) 2014-02-07 2015-08-12 Toyota Jidosha Kabushiki Kaisha Marking line detection system and marking line detection method
JP2016081108A (ja) * 2014-10-10 2016-05-16 トヨタ自動車株式会社 物体検出装置
CN113370896A (zh) * 2020-02-21 2021-09-10 丰田自动车株式会社 车辆用电子镜系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07140246A (ja) * 1993-11-16 1995-06-02 Matsushita Electric Ind Co Ltd 車間距離計測装置および衝突警告装置
JPH08255250A (ja) * 1995-03-17 1996-10-01 Toyota Motor Corp 移動ベクトル抽出方法
JPH11353565A (ja) * 1998-06-09 1999-12-24 Yazaki Corp 車両用衝突警報方法及び装置
JP2002109696A (ja) * 2000-10-02 2002-04-12 Nissan Motor Co Ltd 画像表示装置および表示方法
JP2004274538A (ja) * 2003-03-11 2004-09-30 Auto Network Gijutsu Kenkyusho:Kk 車両周辺視認装置
JP2004355082A (ja) * 2003-05-27 2004-12-16 Nec Corp オプティカルフロー検出システム、検出方法および検出プログラム
JP2005276057A (ja) * 2004-03-26 2005-10-06 Mitsubishi Motors Corp ノーズビューモニタ装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07140246A (ja) * 1993-11-16 1995-06-02 Matsushita Electric Ind Co Ltd 車間距離計測装置および衝突警告装置
JPH08255250A (ja) * 1995-03-17 1996-10-01 Toyota Motor Corp 移動ベクトル抽出方法
JPH11353565A (ja) * 1998-06-09 1999-12-24 Yazaki Corp 車両用衝突警報方法及び装置
JP2002109696A (ja) * 2000-10-02 2002-04-12 Nissan Motor Co Ltd 画像表示装置および表示方法
JP2004274538A (ja) * 2003-03-11 2004-09-30 Auto Network Gijutsu Kenkyusho:Kk 車両周辺視認装置
JP2004355082A (ja) * 2003-05-27 2004-12-16 Nec Corp オプティカルフロー検出システム、検出方法および検出プログラム
JP2005276057A (ja) * 2004-03-26 2005-10-06 Mitsubishi Motors Corp ノーズビューモニタ装置

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009078056A1 (ja) * 2007-12-14 2009-06-25 Fujitsu Limited 移動物検知装置及び移動物検知プログラム
US20100202661A1 (en) * 2007-12-14 2010-08-12 Fujitsu Limited Moving object detection apparatus and computer readable storage medium storing moving object detection program
US8150104B2 (en) * 2007-12-14 2012-04-03 Fujitsu Limited Moving object detection apparatus and computer readable storage medium storing moving object detection program
JP4957807B2 (ja) * 2007-12-14 2012-06-20 富士通株式会社 移動物検知装置及び移動物検知プログラム
JP2010244474A (ja) * 2009-04-09 2010-10-28 Hitachi Automotive Systems Ltd 自動車の外界認識装置
EP2905725A2 (en) 2014-02-07 2015-08-12 Toyota Jidosha Kabushiki Kaisha Marking line detection system and marking line detection method
US9536155B2 (en) 2014-02-07 2017-01-03 Toyota Jidosha Kabushiki Kaisha Marking line detection system and marking line detection method of a distant road surface area
JP2016081108A (ja) * 2014-10-10 2016-05-16 トヨタ自動車株式会社 物体検出装置
CN113370896A (zh) * 2020-02-21 2021-09-10 丰田自动车株式会社 车辆用电子镜系统
CN113370896B (zh) * 2020-02-21 2023-11-10 丰田自动车株式会社 车辆用电子镜系统

Also Published As

Publication number Publication date
JP4847779B2 (ja) 2011-12-28

Similar Documents

Publication Publication Date Title
EP2924653B1 (en) Image processing apparatus and image processing method
US9415723B2 (en) Image integration unit and image integration method
JP4985142B2 (ja) 画像認識装置および画像認識装置の画像認識処理方法
JP3562751B2 (ja) 前方車両検出方法及び装置
JP2008168811A (ja) 車線認識装置、車両、車線認識方法、及び車線認識プログラム
US11562577B2 (en) Method of detecting curved lane through path estimation using monocular vision camera
JP2003067752A (ja) 車両周辺監視装置
JP2009053818A (ja) 画像処理装置及びその方法
JP6129268B2 (ja) 車両用運転支援システムおよび運転支援方法
JP2008299458A (ja) 車両監視装置および車両監視方法
JP4847779B2 (ja) 車載情報処理方法、車載情報処理プログラム、車載情報処理装置および車載情報処理システム
JP2002314989A (ja) 車両用周辺監視装置
EP3549056A1 (en) Information processing device, imaging device, apparatus control system, movable body, information processing method, and computer program product
JP2009245042A (ja) 交通流計測装置及びプログラム
JP2005329779A (ja) 障害物認識方法及び障害物認識装置
US8983196B2 (en) Vehicle periphery monitoring apparatus
JP5832850B2 (ja) 車線監視システム及び車線監視方法
JPH07225126A (ja) 車両用路上物体認識装置
JP3757500B2 (ja) 先行車追従装置
JP2008286648A (ja) 距離計測装置、距離計測システム、距離計測方法
WO2010113253A1 (ja) 3次元情報表示装置および3次元情報表示方法
JP2005216200A (ja) 他車検出装置及び他車検出方法
CN115943287A (zh) 车辆姿态推断系统及车辆姿态推断方法
JP2007233469A (ja) 物体検出装置及びその方法
CN112513573B (zh) 立体摄像机装置

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20080404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20080404

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110830

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111011

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111014

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141021

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4847779

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350