JP2007286724A - 車載情報処理方法、車載情報処理プログラム、車載情報処理装置および車載情報処理システム - Google Patents
車載情報処理方法、車載情報処理プログラム、車載情報処理装置および車載情報処理システム Download PDFInfo
- Publication number
- JP2007286724A JP2007286724A JP2006110816A JP2006110816A JP2007286724A JP 2007286724 A JP2007286724 A JP 2007286724A JP 2006110816 A JP2006110816 A JP 2006110816A JP 2006110816 A JP2006110816 A JP 2006110816A JP 2007286724 A JP2007286724 A JP 2007286724A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- image
- information processing
- calculated
- moving body
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
【解決手段】撮像装置5,6から入力された画像に対し、車両から遠方の画像領域である遠方領域と、車両から近傍の画像領域である近傍領域とで、異なる密度で計測点を設定し、この計測点を基にオプティカルフローを算出し、算出したオプティカルフローを基に、車両と移動体との到達する予測時間である到達予測時間を算出し、算出した到達予測時間に基づいて警報を出力することを特徴とする。
【選択図】図2
Description
まず、接近車のエッジの長さによりフレーム間隔を変更する車両用衝突警報方法および装置が開示されている(例えば、特許文献1)。これによれば、入力した画像を微分処理してエッジ画像を作成し、作成したエッジ画像から水平エッジを抽出し、そのエッジの長さと処理サイズを求める。そして、エッジの長さに応じてフレーム間隔を求め、求めたフレーム間隔前のエッジ画像と、現在のエッジ画像とを用いて各エッジのオプティカルフローを算出する。そして、算出したオプティカルフローを基に接近車が自車に衝突するまでの到達予測時間を求めるようにしている。
また、特許文献2に記載の装置によれば、遠方と近傍とで接近車の見かけ上の動きが異なるため、同じフレーム間隔の画像間の輝度差分から接近車を検知することが難しい。更に、到達予測時間を求める際に、自車が走行する道路と交差点で交差する道路の交差角を考慮していないという問題がある。
なお、本実施形態では、情報処理の対象となるすべてのもの、すなわち画像に撮像されているものを対象物と記載し、対象物の内、移動を行っているものを移動体と記載し、移動体の内、自車に接近しているものを接近物と記載することとする。
車載情報処理システム9は、自車(請求項における車両)の前部に左右側方の画像が撮像できるように取付けられる右カメラ(請求項における撮像装置)3および左カメラ(請求項における撮像装置)5から入力された画像に対し、後記する車載情報処理方法に従って情報処理を行う、自車に搭載された車載情報処理装置1を備える。そして、車載情報処理システム9は、道路地図を格納し、この道路地図を基に、自車の位置を監視し、自車の位置に関する情報や、道路地図を車載情報処理装置1に送るナビゲーションシステム8を備える。さらに、車載情報処理装置1が行った情報処理の結果を、表示するモニタ(請求項における出力装置)7を備える。
右カメラ処理部2は、以下の各部および各メモリを備える。
計測点設定処理部201は、入力される画像に対して、自車から近傍の画像領域である近傍領域と、自車から遠方の画像領域である遠方領域とに分け、近傍領域と、遠方領域とで異なる密度の計測点を設定する。
移動体処理部202は、時系列画像メモリ109より取得した画像に対してエッジ画像およびエッジプロファイルを作成し、作成したエッジプロファイルを基に、エッジプロファイルを作成し、移動体の検出および移動量の算出を行う。
オプティカルフロー算出部203は、画像内における移動体のオプティカルフロー(速度ベクトル)を算出する。
到達予測時間算出部205は、オプティカルフロー算出部203が算出したオプティカルフローと、光軸方向算出部206が算出した自車に設置した右カメラ3の光軸方向とを基に、自車に接近物が到達する予測時間である到達予測時間を算出する。
警報判定部207は、遠方領域における処理において、到達予測時間算出部205が算出した到達予測時間が、所定の閾値以下か否かを判定することによって警報を出力するか否かを判定する。
警報処理部208は、警報判定部207によって、到達予測時間が、所定の閾値以下であると判定された場合や、移動体判定部によって、近傍領域に接近物が存在すると判定された場合に出力処理部6に警報を出力させる。
時系列エッジプロファイルメモリ210は、後記する方法によってエッジ画像から作成されたエッジプロファイルを時系列に格納するメモリである。時系列エッジプロファイルメモリ210は、時系列画像メモリ209と同様、現在の時間より所定時間以上経過したエッジプロファイルは廃棄するよう構成されたメモリである。
なお、図1および図2に示す各部は、図示しないROM(Read Only Memory)などの記憶装置に格納されたプログラムが、図示しないCPU(Central Processing Unit)によって実行されることによって、具現化される。
図3は、本実施形態に係る車載情報処理システムの概略を示した図である。
図3は、自車(請求項における車両)31の左右方向を監視するため、自車31の前部にそれぞれ1つのカメラを取付けた例である。右カメラ3は、右からの接近物を、左カメラ5は、左からの接近物を監視する。
次に、図1から図3を参照しつつ、図4に沿って本実施形態の車載情報処理装置1における車載情報処理方法を説明する。
図4は、本実施形態に係る車載情報処理方法の流れを示すフローである。
なお、本実施形態では、右カメラ処理部2における処理を説明するが、後記するように左カメラ処理部4における処理も同様である。
まず、右カメラ処理部2は、右カメラ3を介して画像を入力され(S1)、入力された画像を時系列画像メモリ209に格納する(S2)。入力される画像の説明は、図6を参照して後記する。
移動体処理部202は、時系列画像メモリ209に格納した画像を用いて、処理範囲内における移動体の検出を行うとともに、検出した移動体が所定時間に処理範囲内を移動する量である移動量を算出する移動体処理を行う(S3)。移動体処理のフローは、図5を参照して後記する。
次に、計測点設定処理部201が、ステップS1で入力された画像に対し、遠方の画像が撮像されている画像領域である遠方領域と、近傍の画像が撮像されている画像領域である近傍領域とに分ける遠方領域および近傍領域の設定を行った(S4)後、当該遠方領域に対し、予め設定してある間隔で計測点を設定し、近傍領域に対し、遠方領域とは異なる密度で計測点を設定する(S5)。遠方領域および近傍領域の設定、ならびに計測点設定処理の詳細は、図11を参照して後記する。
ステップS6からステップS11は、遠方領域における処理である。
続いて、オプティカルフロー算出部203は、移動体処理で算出した移動量から、オプティカルフローの算出で用いる2枚の画像のフレーム間隔を算出し(S6)、算出したフレーム間隔を用いてオプティカルフローを算出する(S7)。オプティカルフローの算出処理の詳細は、図13および図14を参照して後記する。
そして、移動体判定部204は、算出した計測点毎のオプティカルフローを基に、遠方領域において、接近物が存在するか否かを判定する(S8)。接近物判定の処理の詳細は、図15を参照して後記する。
移動体判定部204が、遠方領域において、接近物が存在しないと判定した場合(S8→No)、右カメラ処理部2は、ステップS10に処理を進める。
移動体判定部204が、遠方領域において、接近物が存在すると判定した場合(S8→Yes)、右カメラ処理部2は、ステップS9に処理を進める。
そして、警報判定部207は、算出した到達予測時間が予め設定してある閾値以下であるか否かを判定する(S10)ことによって、警報を発生するか否かを判定する。
警報判定部207が、到達予測時間が閾値より大きい(閾値以下ではない)と判定した場合(S10→No)、右カメラ処理部2は、ステップS12に処理を進める。
警報判定部207が、到達予測時間が閾値以下であると判定した場合(S10→Yes)、警報処理部208は、出力処理部6に警報を表示するよう指示する。
そして、指示された出力処理部6は、モニタ7に警報を表示させる(S11)。
次に、ステップS10からステップS15は、近傍領域における処理である。
近傍領域における処理が、遠方領域における処理と異なる点は、到達予測時間の算出が行われない点である。
近傍領域におけるステップS12(フレーム間隔の算出処理)、ステップS13(オプティカルフローの算出処理)およびステップS14の近傍領域において、接近物が存在するか否かの判定処理は、遠方領域における各処理(ステップS6,S7,S8)と同様の処理であるため、説明を省略する。
移動体判定部204が、近傍領域において、接近物が存在しないと判定した場合(S14→No)、右カメラ処理部2は、ステップS16へ処理を進める。
移動体判定部204が、近傍領域において、接近物が存在すると判定した場合(S14→Yes)、警報処理部208は、出力処理部6に警報を表示するよう指示する。
そして、指示された出力処理部6は、モニタ7に警報を表示させる(S15)。
次に、右カメラ処理部2は、ステップS1で入力された画像をモニタ7に表示させる(S16)。このとき、S9で到達予測時間を算出していれば、右カメラ処理部2は、到達予測時間をモニタ7に表示させてもよい。
そして、右カメラ処理部2は、ステップS1に処理を戻す。右カメラ処理部2は、自車が走行している間、ステップS1からステップS16の処理を実行してもよい。
また、以下に記述するような処理を行ってもよい。右カメラ処理部2は、自車の位置をナビゲーション装置が監視し、ナビゲーション装置から送られた情報を基に、右カメラ処理部2が交差点から所定の距離以内に自車が位置しているか否かを判断する。そして、自車が交差点から所定の距離以内に位置する間、ステップS1からステップS16の処理を実行し続けるようにしてもよい。
従って、本実施形態のように近傍領域において移動体が検出された場合、到達予測時間の算出を省略することで処理時間の短縮を可能とし、すぐに警報を発生することが可能となる。
次に、図2を参照しつつ、ステップS3の移動体処理について説明する。
図5は、ステップS3における移動体処理の流れを示すフローである。
まず、移動体処理部202は、時系列画像メモリ209から画像を取得し、取得した画像からエッジ画像を作成する(S41)。エッジ画像の作成処理については、図7(a)を参照して後記する。
そして、移動体処理部202が、作成したエッジプロファイルを時系列エッジプロファイルメモリ210に格納する(S43)。
さらに、移動体処理部202は、時系列エッジプロファイルメモリ210内の時間的に異なる(例えば撮像間隔の)2つのエッジプロファイルを用いて移動体の検出を行う(S44)。移動体の検出処理の詳細は、図9および図10を参照して後記する。
以下、図1から図5を適宜参照しつつ、図6から図18に沿って、図4および図5における各処理の詳細な説明を行う。
まず、図1を参照しつつ、図6に沿って右カメラ処理部2および左カメラ処理部4に入力される画像の例を示す。
図6は、図3に示す右カメラおよび左カメラが撮像し、カメラ処理部に入力される画像の例を示す図であり、(a)右カメラ画像、(b)左カメラ画像の例を示す図である。
ここで、図6を用いて、オプティカルフローの説明を行っておく。
静止している右カメラ3または左カメラ5に対して移動体62,66が移動すると、画像(右カメラ画像61または左カメラ画像65)中における移動体62,66の画像の動きからオプティカルフロー63,67が求まる。オプティカルフロー63,67とは、移動体62,67の画像上の各点における速度ベクトルである。オプティカルフロー63,67の延長線は、右カメラ画像61または左カメラ画像65内のある範囲内で交わる。この交点は、FOE(Focus of Expansion)64,68と呼ばれ、オプティカルフロー63,67の中心となる。
図7は、エッジプロファイル作成の例を示す図であり、(a)は、エッジ画像の例、(b)は、エッジプロファイルの例を示す図である。
ここでは、右カメラ処理部2に入力される画像が図6(a)に示す画像であると仮定する。図7(a)に示すエッジ画像は、時系列画像メモリ209から取得された画像に対して、所定の処理範囲81内において垂直方向のエッジ82を、移動体処理部202が抽出した結果である。具体的には、移動体処理部202が、右カメラ画像61(以下、適宜画像61と記載)の水平座標i,i+2の濃度値の差を算出し、これを処理範囲81内の水平座標iおよび垂直座標j毎に行うことで求めることができる。ここで画像の座標は画素位置を表わすものとする。つまり、移動体処理部202は、1つおきの水平画素間における濃度値の差を算出する処理を、すべての画素において実行する。ここで、所定の処理範囲とは、例えば画像全体である。
図7(b)に示すエッジプロファイルは、移動体処理部202によって、図7(a)に示すエッジ画像における濃度差の値が垂直方向に累積された値である。
エッジプロファイルは、横軸が画像の水平座標、縦軸が濃度差累積値を持つ1次元の波形で、この図7(b)から分かるようにエッジに対応する位置にピークを持つ。
図8は、時系列エッジプロファイルメモリにおけるエッジプロファイル格納の例を示す図である。
図8に示すように、過去に作成されたエッジプロファイルから直近に作成されたエッジプロファイルまでが移動体処理部202によって、時系列エッジプロファイルメモリ210に格納されている。ここで、図8におけるΔtは、撮像間隔であり、図8に示すように現在tから、p*Δt前の過去のエッジプロファイルがΔt毎に格納される。
図9は、移動体検出の処理の例を示す図である。
移動体処理部202は、時系列エッジプロファイルメモリ210から現在のエッジプロファイルと時間Δt1前のエッジプロファイルとを取得した後、以下に記載する方法で移動体の検出を行う。
移動体検出方法としては、移動体処理部202が、図9に示すように現在のエッジプロファイルと時間Δt1前のエッジプロファイルとの相関演算を行うことが考えられる(テンプレートマッチング)。これは、移動体処理部202が、現在の画像から得られたエッジプロファイル内の部分波形と近い部分波形を時間Δt1前の過去のエッジプロファイルの波形から探す方法である。例えば、移動体処理部202が、図9に示すように座標i0からm画素分の波形をテンプレートとし、所定時間Δt1前のエッジプロファイルの座標i0の前後n画素分を探索範囲としてテンプレートと類似する波形を探す。テンプレートの決定方法として、所定の画素幅mを用いる代わりに、エッジプロファイル波形の凸、凹を探し、凹−凸−凹で囲まれた部分をテンプレートとしてもよい。
移動体処理部202が、図9を参照して説明したi0毎に算出した移動量を、横軸をi0、縦軸を移動量としてグラフ化することにより、図10に示す移動体領域を算出する。
この処理は、右カメラ3から入力される画像を用いているため、自車が停止している場合、移動量d(i)がゼロのときは、静止物を示し、正のときは、自車から離れる移動体を示し、そして負のときは、自車に接近する移動体が存在することを示す。移動体として自車に接近する移動体(接近物)を検出する場合は、図10に示すように移動量d(i)が負となる範囲を移動体領域(i1,i2)とすればよい。ここで、i1,i2は、移動量d(i)が負の値となるiの上限値および下限値である。そして、移動体処理部202は、検出した移動体領域(i1,i2)における移動体の移動量dと、移動体領域(i1,i2)と、時間Δt1とをオプティカルフロー算出部203へ出力する。なお、ここでdは、移動体領域におけるd(i)をi1からi2の範囲において、iに関して平均をとった値である。
図11は、本実施形態に係る遠方領域および近傍領域の設定、ならびに計測点設定の例を示す図である。
なお、以降右カメラ画像61を適宜画像61と記載する。
計測点設定処理部201は、図11に示すように、右カメラ3から取得した右カメラ画像61なら、右カメラ画像61の右側の所定領域を遠方領域72とし、画像左側の所定領域を近傍領域71とする。遠方領域の大きさは、図示しない入力部を介して、予め右カメラ処理部2に設定してあるものとする。
そして、計測点設定処理部201は、近傍領域71および遠方領域72において、オプティカルフローを算出するための計測点73を異なる密度で設定する。具体的には、遠方領域72は、近傍領域71よりも密に計測点73を設定する。
例えば、遠方領域72では4画素間隔で計測点73を設定するのに対し、近傍領域71では、例えば約1/4の密度で計測点73を28画素間隔に設定する。計測点73の密度は、必要とされる検知精度に応じて適宜変更してもよい。
しかし、移動体が自車に対して近傍にいる時は、移動体は大きく撮像されるため、計測点73はそれほど密に設定しなくてもよい。
遠方領域72の大きさは、遠方における移動体領域(図9を参照して後記)を含むように定める必要がある。そのため、最も短い撮像間隔の場合でも遠方領域72内に移動体領域が入るように、遠方領域72の幅を定めるなどの方法がある。遠方領域72の高さは、前回のループで求めたオプティカルフローのFOEに応じて定めてもよい。
比較例に示すように、従来では、計測点73は、遠方領域および近傍領域に限らず、等密度で設定されていた。つまり、遠方領域にあわせた密度で近傍領域における計測点を設定していた。従って、移動体が大きく撮像されるため計測点を細かく設定する必要がない近傍領域においても、遠方領域と同じ密度で計測点を設定しているため、後記するオプティカルフローの算出の際の処理サイズが大きくなってしまう。
これに対し、本実施形態では図11に示すように、近傍領域71と、遠方領域72とにおいて、計測点73の設定の密度を変えることで、検出精度を落とさずに、処理サイズを小さくし、かつ処理時間を短くすることが可能となる。
以下、図13から図18を参照して、オプティカルフローによる接近物の検出および接近物が自車に到達する到達予測時間の算出を説明する。
なお、図13から図15までの説明において、遠方領域と近傍領域とでは、計測点の配置の密度が異なるだけで、他は同様の処理を行っている。
図13は、オプティカルフローの例を示す図である。
接近物および到達予測時間を算出するために、移動体が所定時間の間に移動した移動ベクトル(すなわち、オプティカルフロー)1201を求める必要がある。ここで、画像61における移動ベクトル1201とは図13に示すように時間Δt2前の移動体の位置(破線で図示)と現在の移動体の位置(実線で図示)とをベクトル表現(矢印で図示)したものである。
図14は、フレーム間隔算出の処理の例を示す図である。
まず、オプティカルフローの算出に用いる2枚の画像61の時間間隔(以下、フレーム間隔と呼ぶ)Δtを、移動体処理部202が移動量dを算出する際に用いた時間Δt1と同じ値にした場合、移動量dが大きいと図14に示すテンプレート画像1301と類似する画像(類似画像1302)を探す探索範囲aを大きくする必要があり、これは算出時間の増加になる。そこで、オプティカルフロー算出部203が、移動体処理部202において算出された移動量dに応じてフレーム間隔を変更することにする。即ち、移動量dが大きい場合はフレーム間隔Δtを時間Δt1より小さくし、移動量dが小さい場合はフレーム間隔Δtを時間Δt1より大きくする。例えば、図14に示す水平方向の探索範囲をaとすると、オプティカルフロー算出部203は、フレーム間隔Δtを以下の式1で決定する。
u=iq(t+Δt)−ip(t) (式2)
v=jq(t+Δt)−jp(t) (式3)
この様子を図14に示す。テンプレート画像1301をg(x,y)、探索範囲a内の座標(k,l)を中心にテンプレート画像1301と同じサイズで切出した画像(類似画像1302)をf(k+x,l+y)とすると、類似度r(k,l)は、式4で算出できる。
図15は、接近物判定の処理の例を示す図であり、(a),(b),(c)は、接近物検知の例、(d),(e)は、接近物未検知の例を示す図である。
図15で“■”はオプティカルフローが発生した計測点(オプティカルフロー発生点1401)を、“□”はオプティカルフローが発生しなかった計測点(オプティカルフロー未発生点1402)を示している。即ち、移動体判定部204は、隣接する行または列の計測点の中で2個以上のオプティカルフロー発生点1401があれば「接近物あり」と判定し(図20(a),(b),(c))、それ以外を接近物未検出(図20(d)、(e))とする。つまり、隣接する行または列の中で、オプティカルフロー発生点1401が2個未満であれば、移動体判定部204は、このオプティカルフロー発生点1401をノイズと判定し、接近物とは判定しない。
次に、算出したオプティカルフローから接近物と自車との到達予測時間を算出する方法について述べる。
図16は、基準座標系とカメラ座標系との例を示す図である。
到達予測時間算出部205が扱う座標系として、基準座標系、カメラ座標系、撮像面座標系および画像メモリ座標系がある。基準座標系とは、自車が走行している道路と交差する道路に沿った軸をZ’軸とし、これと垂直な軸をX’軸およびY’軸とした(X’,Y’,Z’)座標系である。これに対し、カメラ座標系は、右カメラ3のレンズに対する光軸をZ軸とし、これと垂直なX軸およびY軸を定めた(X,Y,Z)座標系である。基本座標系およびカメラ座標系の原点は、自車に設置された右カメラ3のレンズ中心である。Z’軸とZ軸とのなす角度をθとすると、基本座標系とカメラ座標系との間には以下の関係式が成り立つ。
撮像面座標系は、図17に示すように撮像面(カメラ内部に設けられている撮像素子上の面)の中心を原点とした座標系で、撮像面座標系における座標を(x,y)で表す。このとき、焦点距離をFとすると、カメラ座標系上の点P(Xp,Yp,Zp)と撮像面座標系上の点p(xp,yp)には以下の関係式が成り立つ。
画像メモリ座標系は、図18に示すように画像の左上隅を原点として(i,j)で表すことにする。この時、撮像面座標系(x,y)と画像メモリ座標系(i,j)には下記の関係式が成り立つ。
ここで、撮像面のサイズをW×H[m]、有効画素数をPW×PH、また撮像面座標系の原点と画像メモリ座標系の原点とのオフセットをoffset1(x軸方向),offset2(y軸方向)とする。
今、自車が静止しており、接近物は一定速度V0で道路に沿って直進走行しているとする。接近物のある点を基準座標系で表すと、P(X’p,Y’p,Z’p)となり、X’p,Y’pは、時間に関わらず一定となる。到達予想時刻算出部は、自車と接近物との距離であるZ’pを式11によって算出する。
式17からbを求めて式15に代入することによって、到達予測時間算出部205は、到達予測時間Tを次の式18を用いて算出できる。ここで、Δtは、オプティカルフロー算出部203が算出したフレーム間隔である。
本実施形態によれば、画像を近傍領域および遠方領域に分け、近傍領域に設定する計測点を、遠方領域の計測点と比較して、疎に設定し、さらに近傍領域においては、到達予測時間の算出を行わないことにより、近傍領域に移動体が検知されてから、警報を出力するまでの時間を短縮することが可能となる。従って、近傍領域における計測点を少なくすることで、処理サイズを小さくすることが可能であり、かつ近傍領域における到達予測時間の算出を行わないことで処理時間を短くすることが可能となる。
2 右カメラ処理部(処理部)
3 右カメラ(撮像装置)
4 左カメラ処理部(処理部)
5 左カメラ(撮像装置)
6 出力処理部
7 モニタ
8 ナビゲーションシステム
9 車載情報処理システム
31 自車
61 右カメラ画像(画像)
62 移動体
63,1303 オプティカルフロー
65 左カメラ画像
71 近傍領域
72 遠方領域
73,1304 計測点
81 処理範囲
82 エッジ
83 ナビゲーションシステム
201 計測点設定処理部
202 移動体処理部
203 オプティカルフロー算出部
204 移動体判定部
205 到達予測時間算出部
206 光軸方向算出部
207 警報判定部
208 警報処理部
209 時系列画像メモリ(記憶部)
210 時系列エッジプロファイルメモリ
1201 移動ベクトル
1301 テンプレート画像
1302 類似画像
1401 オプティカルフロー発生点
1402 オプティカルフロー未発生点
Claims (7)
- 車両に搭載され、前記車両の左右両側方に設置した少なくとも2台の撮像装置が撮像する画像に基づき、移動体の存在を検知する車載情報処理装置における車載情報処理方法であって、
前記車載情報処理装置は、情報を記憶する記憶部を備え、
前記撮像装置から入力された画像を前記記憶部に格納し、
前記記憶部から、時間的に異なる2つの画像を取得し、
前記2つの画像を基に、前記画像内における移動体の検出と、移動量の算出を行い、
前記画像を、前記車両から近傍の画像領域である近傍領域と、前記車両から遠方の画像領域である遠方領域とに分け、
前記近傍領域と、前記遠方領域とにおいて、異なる密度で計測点を設定し、
前記遠方領域における処理では、
前記移動量を基に、フレーム間隔を算出し、
前記記憶部から、前記フレーム間隔の2つの画像を取得し、
前記取得した2つの画像と、前記遠方領域における前記計測点とを基に、オプティカルフローを算出し、
前記算出したオプティカルフローを基に、前記車両に、前記検出された移動体が到達する予測時間である到達予測時間を算出し、
前記算出した到達予測時間を基に、警報の要否を判定し、
前記近傍領域における処理では、
前記移動量を基に、フレーム間隔を算出し、
前記記憶部から、前記フレーム間隔の2つの画像を取得し、
前記取得した2つの画像と、前記近傍領域における前記計測点とを基に、オプティカルフローを算出し、
前記算出したオプティカルフローを基に、警報の要否を判定することを特徴とする車載情報処理方法。 - 前記車載情報処理装置は、前記車載情報処理装置から送られた画像を出力する出力装置と接続可能であり、
前記警報の要否の判定の結果、前記警報が要であると判定された場合、前記出力装置に前記警報を出力させることをさらに実行することを特徴とする請求項1に記載の車載情報処理方法。 - 前記入力された画像を、前記出力装置に出力させることをさらに実行することを特徴とする請求項2に記載の車載情報処理方法。
- 前記車載情報処理装置は、道路地図の情報を格納するナビゲーションシステムと接続可能であり、
前記到達予測時間の算出は、
前記車両に設置されているヨーレートセンサの出力、ステアリング角センサの出力、または前記撮像装置で検出した白線の傾きの少なくとも1つを用いて自車の回転角度を取得し、
前記ナビゲーションシステムから取得した前記道路地図より前記車両が走行する道路と、交差点で交差する道路との交差角度を取得し、
前記車両の回転角度と交差角度とを基に、前記到達予測時間を算出することをさらに実行することを特徴とする請求項1に記載の車載情報処理方法。 - 請求項1から請求項4のいずれか一項に記載の車載情報処理方法を、コンピュータに実行させることを特徴とする車載情報処理プログラム。
- 車両に搭載され、前記車両の左右両側方に設置した少なくとも2台の撮像装置が撮像する画像に基づき、移動体の存在を検知する車載情報処理装置であって、
情報を記憶する記憶部と、
前記撮像装置から入力された画像を前記記憶部に格納する処理部と、
前記記憶部から、時間的に異なる2つの画像を取得し、前記2つの画像を基に、前記画像内における移動体の検出と、移動量の算出を行う移動体処理部と、
前記画像を、前記車両から近傍の画像領域である近傍領域と、前記車両から遠方の画像領域である遠方領域とに分け、前記近傍領域と、前記遠方領域とにおいて、異なる密度で計測点を設定する計測点設定処理部と、
前記移動量を基に、フレーム間隔を算出し、前記記憶部から、前記フレーム間隔の2つの画像を取得し、前記取得した2つの画像と、前記計測点とを基に、オプティカルフローを算出するオプティカルフロー算出部と、
前記算出したオプティカルフローを基に、前記車両に、前記検出された移動体が到達する予測時間である到達予測時間を算出する到達予測時間算出部と、
前記遠方領域における処理で、前記算出した到達予測時間を基に、警報の要否を判定する警報判定部と、
前記近傍領域における処理で、前記算出したオプティカルフローを基に、警報の要否を判定する移動体判定部と、を含んで備えることを特徴とする車載情報処理装置。 - 車両の左右両側方に設置した少なくとも2台の撮像装置と、前記車両に搭載され、前記撮像装置が撮像する画像に基づき、移動体の存在を検知する車載情報処理装置とを含んで備える車載情報処理システムであって、
前記車載情報処理装置は、
情報を記憶する記憶部と、
前記撮像装置から入力された画像を前記記憶部に格納する処理部と、
前記記憶部から、時間的に異なる2つの画像を取得し、前記2つの画像を基に、前記画像内における移動体の検出と、移動量の算出を行う移動体処理部と、
前記画像を、前記車両から近傍の画像領域である近傍領域と、前記車両から遠方の画像領域である遠方領域とに分け、前記近傍領域と、前記遠方領域とにおいて、異なる密度で計測点を設定する計測点設定処理部と、
前記移動量を基に、フレーム間隔を算出し、前記記憶部から、前記フレーム間隔の2つの画像を取得し、前記取得した2つの画像と、前記計測点とを基に、オプティカルフローを算出するオプティカルフロー算出部と、
前記算出したオプティカルフローを基に、前記車両に、前記検出された移動体が到達する予測時間である到達予測時間を算出する到達予測時間算出部と、
前記遠方領域における処理で、前記算出した到達予測時間を基に、警報の要否を判定する警報判定部と、
前記近傍領域における処理で、前記算出したオプティカルフローを基に、警報の要否を判定する移動体判定部と、を含んで備えることを特徴とする車載情報処理システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006110816A JP4847779B2 (ja) | 2006-04-13 | 2006-04-13 | 車載情報処理方法、車載情報処理プログラム、車載情報処理装置および車載情報処理システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006110816A JP4847779B2 (ja) | 2006-04-13 | 2006-04-13 | 車載情報処理方法、車載情報処理プログラム、車載情報処理装置および車載情報処理システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007286724A true JP2007286724A (ja) | 2007-11-01 |
JP4847779B2 JP4847779B2 (ja) | 2011-12-28 |
Family
ID=38758460
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006110816A Active JP4847779B2 (ja) | 2006-04-13 | 2006-04-13 | 車載情報処理方法、車載情報処理プログラム、車載情報処理装置および車載情報処理システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4847779B2 (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009078056A1 (ja) * | 2007-12-14 | 2009-06-25 | Fujitsu Limited | 移動物検知装置及び移動物検知プログラム |
JP2010244474A (ja) * | 2009-04-09 | 2010-10-28 | Hitachi Automotive Systems Ltd | 自動車の外界認識装置 |
EP2905725A2 (en) | 2014-02-07 | 2015-08-12 | Toyota Jidosha Kabushiki Kaisha | Marking line detection system and marking line detection method |
JP2016081108A (ja) * | 2014-10-10 | 2016-05-16 | トヨタ自動車株式会社 | 物体検出装置 |
CN113370896A (zh) * | 2020-02-21 | 2021-09-10 | 丰田自动车株式会社 | 车辆用电子镜系统 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07140246A (ja) * | 1993-11-16 | 1995-06-02 | Matsushita Electric Ind Co Ltd | 車間距離計測装置および衝突警告装置 |
JPH08255250A (ja) * | 1995-03-17 | 1996-10-01 | Toyota Motor Corp | 移動ベクトル抽出方法 |
JPH11353565A (ja) * | 1998-06-09 | 1999-12-24 | Yazaki Corp | 車両用衝突警報方法及び装置 |
JP2002109696A (ja) * | 2000-10-02 | 2002-04-12 | Nissan Motor Co Ltd | 画像表示装置および表示方法 |
JP2004274538A (ja) * | 2003-03-11 | 2004-09-30 | Auto Network Gijutsu Kenkyusho:Kk | 車両周辺視認装置 |
JP2004355082A (ja) * | 2003-05-27 | 2004-12-16 | Nec Corp | オプティカルフロー検出システム、検出方法および検出プログラム |
JP2005276057A (ja) * | 2004-03-26 | 2005-10-06 | Mitsubishi Motors Corp | ノーズビューモニタ装置 |
-
2006
- 2006-04-13 JP JP2006110816A patent/JP4847779B2/ja active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07140246A (ja) * | 1993-11-16 | 1995-06-02 | Matsushita Electric Ind Co Ltd | 車間距離計測装置および衝突警告装置 |
JPH08255250A (ja) * | 1995-03-17 | 1996-10-01 | Toyota Motor Corp | 移動ベクトル抽出方法 |
JPH11353565A (ja) * | 1998-06-09 | 1999-12-24 | Yazaki Corp | 車両用衝突警報方法及び装置 |
JP2002109696A (ja) * | 2000-10-02 | 2002-04-12 | Nissan Motor Co Ltd | 画像表示装置および表示方法 |
JP2004274538A (ja) * | 2003-03-11 | 2004-09-30 | Auto Network Gijutsu Kenkyusho:Kk | 車両周辺視認装置 |
JP2004355082A (ja) * | 2003-05-27 | 2004-12-16 | Nec Corp | オプティカルフロー検出システム、検出方法および検出プログラム |
JP2005276057A (ja) * | 2004-03-26 | 2005-10-06 | Mitsubishi Motors Corp | ノーズビューモニタ装置 |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009078056A1 (ja) * | 2007-12-14 | 2009-06-25 | Fujitsu Limited | 移動物検知装置及び移動物検知プログラム |
US20100202661A1 (en) * | 2007-12-14 | 2010-08-12 | Fujitsu Limited | Moving object detection apparatus and computer readable storage medium storing moving object detection program |
US8150104B2 (en) * | 2007-12-14 | 2012-04-03 | Fujitsu Limited | Moving object detection apparatus and computer readable storage medium storing moving object detection program |
JP4957807B2 (ja) * | 2007-12-14 | 2012-06-20 | 富士通株式会社 | 移動物検知装置及び移動物検知プログラム |
JP2010244474A (ja) * | 2009-04-09 | 2010-10-28 | Hitachi Automotive Systems Ltd | 自動車の外界認識装置 |
EP2905725A2 (en) | 2014-02-07 | 2015-08-12 | Toyota Jidosha Kabushiki Kaisha | Marking line detection system and marking line detection method |
US9536155B2 (en) | 2014-02-07 | 2017-01-03 | Toyota Jidosha Kabushiki Kaisha | Marking line detection system and marking line detection method of a distant road surface area |
JP2016081108A (ja) * | 2014-10-10 | 2016-05-16 | トヨタ自動車株式会社 | 物体検出装置 |
CN113370896A (zh) * | 2020-02-21 | 2021-09-10 | 丰田自动车株式会社 | 车辆用电子镜系统 |
CN113370896B (zh) * | 2020-02-21 | 2023-11-10 | 丰田自动车株式会社 | 车辆用电子镜系统 |
Also Published As
Publication number | Publication date |
---|---|
JP4847779B2 (ja) | 2011-12-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2924653B1 (en) | Image processing apparatus and image processing method | |
US9415723B2 (en) | Image integration unit and image integration method | |
JP4985142B2 (ja) | 画像認識装置および画像認識装置の画像認識処理方法 | |
JP3562751B2 (ja) | 前方車両検出方法及び装置 | |
JP2008168811A (ja) | 車線認識装置、車両、車線認識方法、及び車線認識プログラム | |
US11562577B2 (en) | Method of detecting curved lane through path estimation using monocular vision camera | |
JP2003067752A (ja) | 車両周辺監視装置 | |
JP2009053818A (ja) | 画像処理装置及びその方法 | |
JP6129268B2 (ja) | 車両用運転支援システムおよび運転支援方法 | |
JP2008299458A (ja) | 車両監視装置および車両監視方法 | |
JP4847779B2 (ja) | 車載情報処理方法、車載情報処理プログラム、車載情報処理装置および車載情報処理システム | |
JP2002314989A (ja) | 車両用周辺監視装置 | |
EP3549056A1 (en) | Information processing device, imaging device, apparatus control system, movable body, information processing method, and computer program product | |
JP2009245042A (ja) | 交通流計測装置及びプログラム | |
JP2005329779A (ja) | 障害物認識方法及び障害物認識装置 | |
US8983196B2 (en) | Vehicle periphery monitoring apparatus | |
JP5832850B2 (ja) | 車線監視システム及び車線監視方法 | |
JPH07225126A (ja) | 車両用路上物体認識装置 | |
JP3757500B2 (ja) | 先行車追従装置 | |
JP2008286648A (ja) | 距離計測装置、距離計測システム、距離計測方法 | |
WO2010113253A1 (ja) | 3次元情報表示装置および3次元情報表示方法 | |
JP2005216200A (ja) | 他車検出装置及び他車検出方法 | |
CN115943287A (zh) | 车辆姿态推断系统及车辆姿态推断方法 | |
JP2007233469A (ja) | 物体検出装置及びその方法 | |
CN112513573B (zh) | 立体摄像机装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20080404 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20080404 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20081105 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110830 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20111011 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20111014 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20141021 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4847779 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313117 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |