JP2012003582A - 車外環境認識装置、車外環境認識方法 - Google Patents

車外環境認識装置、車外環境認識方法 Download PDF

Info

Publication number
JP2012003582A
JP2012003582A JP2010139224A JP2010139224A JP2012003582A JP 2012003582 A JP2012003582 A JP 2012003582A JP 2010139224 A JP2010139224 A JP 2010139224A JP 2010139224 A JP2010139224 A JP 2010139224A JP 2012003582 A JP2012003582 A JP 2012003582A
Authority
JP
Japan
Prior art keywords
edge
cut
vertical edge
vertical
extracted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010139224A
Other languages
English (en)
Other versions
JP5464073B2 (ja
Inventor
Yosuke Matsuno
洋介 松野
Ryota Shirato
良太 白土
Kazumi Fujimoto
和巳 藤本
Yasuhiro Matsushita
泰宏 松下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2010139224A priority Critical patent/JP5464073B2/ja
Publication of JP2012003582A publication Critical patent/JP2012003582A/ja
Application granted granted Critical
Publication of JP5464073B2 publication Critical patent/JP5464073B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】障害物となり得る物体の検出精度を向上させる。
【解決手段】画像上で同一速度で縦方向に連続する縦エッジを抽出し(S104)、抽出した縦エッジのうち、静止物に属する縦エッジを抽出し(S108)、抽出した静止物に属する縦エッジのうち、静止物における自車進路方向の切れ目に該当する縦エッジを抽出する(S110)。この切れ目に該当する縦エッジを切れ目抽出時縦エッジとし、切れ目抽出時縦エッジの位置を切れ目位置とし、夫々を切れ目情報として記憶する(S112)。そして、切れ目情報を記憶してから予め定められた移動時間tsが経過した後に、改めて抽出した縦エッジの中で切れ目位置Xoに最も近い縦エッジと、切れ目抽出時縦エッジAとを比較することで、切れ目位置に最も近い縦エッジが切れ目からの飛出し物体に属する縦エッジであるか否かを判定する(S113〜S117)。
【選択図】図14

Description

本発明は、車外環境認識装置、車外環境認識方法に関するものである。
自車両の前方をカメラで撮像し、撮像した動画像に基づいて判定対象となる物体の速度ベクトルを算出すると共に、自車両の予測進路を算出し、速度ベクトルと自車両の予測進路とに基づいて、自車進路の前方に飛出してくる障害物の検出を行うものがあった(特許文献1参照)。
特開2005−209019号公報
しかしながら、単に速度ベクトルに基づいて障害物の検出を行う場合、自車両にとって障害物となり得る物体であっても、速度ベクトルの向きや大きさによっては、これを障害物として認識しない可能性がある。
本発明の課題は、障害物となり得る物体の検出精度を向上させることである。
本発明に係る車外環境認識装置は、自車両の車速情報を取得し、自車両の前方を撮像した画像からエッジを抽出し、エッジの画像上での移動速度及び移動方向を移動情報として算出し、抽出したエッジのうち、画像上で縦方向に連続する縦エッジを、移動情報に基づいて抽出する。また、抽出した縦エッジのうち、静止物に属する縦エッジを、移動情報、及び車速情報に基づいて抽出し、抽出した静止物に属する縦エッジのうち、静止物における自車進路方向の切れ目に該当する縦エッジを、移動体が通行可能となる予め定められた通行可能幅に基づいて抽出する。さらに、切れ目に該当する縦エッジを切れ目抽出時縦エッジとし、切れ目抽出時縦エッジの位置を切れ目位置とし、切れ目抽出時縦エッジ及び切れ目位置を切れ目情報として記憶する。そして、切れ目情報を記憶してから予め定められた時間が経過した後に、改めて抽出した縦エッジの中で切れ目位置に最も近い縦エッジと、切れ目抽出時縦エッジとを比較することで、切れ目位置に最も近い縦エッジが切れ目からの飛出し物体に属する縦エッジであるか否かを判定する。
本発明に係る車外環境認識装置によれば、静止物の切れ目に該当する縦エッジを抽出し、静止物の切れ目情報を記憶し、切れ目位置における縦エッジの経時変化に基づいて飛出し物体の検出を行うので、単に速度ベクトルに基づいて障害物の検出を行うよりも、障害物となり得る物体の検出精度を向上させることができる。
車外環境認識装置の概略構成図である。 カメラの車両への設置例を示す図である。 カメラで撮像した画像の一例を示す図である。 二値化処理、細線化処理、膨張処理、カウントアップ処理を示す図である。 速度画像の一例を示す図である。 縦エッジの抽出方法を示す図である。 縦エッジから下端点を抽出した図である。 俯瞰座標系への変換を示す図である。 静止物と判定された縦エッジを示す図である。 静止物を俯瞰座標へ投影した図である。 通行可能判定領域を示す図である。 切れ目判定を示す図である。 飛出し検出を示す図である。 車外環境認識処理を示すフローチャートである。
以下、本発明の実施形態を図面に基づいて説明する。
《構成》
図1は、車外環境認識装置の概略構成図である。
車外環境認識装置10は、画像処理を行う画像処理部100と、車両前方を撮像するカメラ101と、車両の車速信号や舵角信号などを入力する車両情報入力部102と、を備える。
画像処理部100は、画像一時記録部103と、エッジ抽出部104と、移動情報算出部105と、縦エッジ抽出部106と、下端点抽出部107と、静止物エッジ抽出部108と、切れ目エッジ抽出部109と、飛出し判定部110と、を備える。
画像一時記録部103は、カメラ101で撮像した画像を一時的に記録する。
エッジ抽出部104は、画像一時記録部103に記憶された画像を画像処理することでエッジを抽出する。
移動情報算出部105は、エッジ抽出部104により抽出されたエッジにおける画像上の移動速度及び移動方向を、エッジの移動情報として算出する。
縦エッジ抽出部106は、移動情報算出部105で算出したエッジの移動情報のうち、縦エッジに属する縦エッジを抽出する。
下端点抽出部107は、縦エッジ抽出部106で抽出した縦エッジの移動情報における画像上の下端点を抽出する。
静止物エッジ抽出部108は、下端点抽出部107で抽出した縦エッジの下端点の画像上の位置と、車両情報入力部102から入力された車速信号とに基づいて、静止物に属する縦エッジを抽出する。
切れ目エッジ抽出部109は、静止物エッジ抽出部108で抽出した縦エッジと、車両情報入力部102から入力した少なくとも操舵角情報又はヨーレート情報とに基づいて、静止物の切れ目に該当する縦エッジを抽出する。
飛出し判定部110は、切れ目エッジ抽出部109で抽出した切れ目から飛出し物体があるか否かを判定する。
カメラ101は、例えばCCDやCMOSなどの撮像素子を有したカメラであり、連続的に車両前方を撮像してフレーム毎に撮像した画像を画像一時記録部103に出力する。カメラ101で撮像された画像は、画像一時記録部103に一時的に記録される。
図2は、カメラの車両への設置例を示す図である。
カメラ101は、室内の上部前方に設置され、その光軸LSは、車両前方正面方向(Z方向)に向き、撮像面の水平軸X(図示省略)は、路面と平行となるように、撮像面の垂直軸Y(図示省略)は路面と垂直になるように設定されている。
図3は、カメラで撮像した画像の一例を示す図である。
カメラ101による撮像画像は、画像左上を原点とし、左から右へx軸、上から下へy軸とするxy座標系によって表される。図3では、立体物である壁と、平面物である白線が撮像画像に含まれている。
図4は、二値化処理、細線化処理、膨張処理、カウントアップ処理を示す図である。
エッジ抽出部104は、カメラ101で撮像された画像を画像一時記録部103から読込み、読込んだ撮像画像を予め定められた閾値を用いて二値化することによって、画像内に存在する物体のエッジを抽出する。図4(a)は、抽出した垂直方向のエッジを示す。次に、図4(b)に示すように、抽出した各エッジに対して、細線化処理を行ってエッジ幅を絞り、エッジの中心を正確に設定する。さらに、図4(c)に示すように、細線化されたエッジのエッジ幅が一定の幅となるように、例えば三画素分の幅となるように、エッジを水平方向に拡張する。この操作により、抽出したエッジが正規化され、各エッジが均一の幅を持つエッジ画像を得ることができる。
移動情報算出部105は、エッジに該当する画素の画素カウンタのカウンタ値を更新する。ここで、画素カウンタとは、各画素毎に設定されたカウンタであり、画素がエッジに該当する場合にカウンタ値が+1加算され、画素がエッジに該当しない場合はカウンタ値が0となって初期化されるカウンタである。このカウンタ値の更新処理を、カメラ101で連続的に撮像されるフレーム毎に行う。この操作により、エッジに該当する時間が長い画素ほど画素カウンタのカウンタ値が大きくなり、エッジに該当する時間が短い画素ほど画素カウンタのカウンタ値が小さくなる。
この画素カウンタのカウンタ値の変化は、エッジの移動方向と移動量を表していることになるため、このカウンタ値から、撮像画像上におけるエッジの移動方向と移動速度とを算出することができる。すなわち画像のx座標は方位を表しているため、エッジの移動方向と移動速度を求めることができる。
以下、詳細にエッジの移動方向と移動速度を算出する方法について説明する。
先ず、エッジ画像に対して二値化処理を行う。
二値化処理とは、エッジの検出された位置の画素を『1』とし、エッジの検出されなかった位置の画素を『0』とする処理である。この二値化処理によって、図4(a)に示すような二値化画像を生成する。
次に、生成された二値化画像に対して、細線化処理を行う。
細線化処理とは、検出されたエッジのエッジ幅を予め定められた画素幅になるまで縮小する処理である。例えば、図4(b)に示すように、エッジ幅が一画素になるまで細線化することで、エッジの中心位置を抽出する。勿論、エッジ幅を一画素よりも大きくしてもよい。
次に、細線化されたエッジのエッジ幅を膨張(拡張)させる膨張処理を行う。
膨張処理とは、細線化によって設定された中心位置からエッジの移動方向に向かってエッジ幅を膨張させると共に、中心位置からエッジの移動方向と反対方向にもエッジ幅を膨張させる処理である。例えば、図4(c)に示すように、エッジの中心位置x0からエッジの移動方向(ここではx軸の正方向)に一画素分だけ膨張させると共に、エッジの中心位置x0からエッジの移動方向と反対方向(ここではx軸の負方向)に一画素分だけ膨張させて、エッジ幅を三画素まで膨張させている。このように、細線化処理と膨張処理とを行うことによって、抽出したエッジ画像のエッジ幅を、エッジの移動方向に向かって予め定められた幅に統一して規格化している。
次に、エッジ幅を規格化したエッジに対してカウントアップ処理を行う。
カウントアップ処理とは、エッジが検出された位置のメモリアドレスの値をカウントアップし、エッジが検出されなかった位置のメモリアドレスの値を初期化する処理である。
ここで、図4(c)〜図4(f)を参照し、エッジのカウントアップ処理について説明する。なお、説明を簡略にするために、エッジはx軸の正方向に移動するものとして説明する。勿論、エッジはx軸の負方向やy軸方向、或いは二次元的に移動するが、基本的には同様の処理である。
先ず、図4(c)に示すように、エッジはあるフレームにおいて位置[x0]にエッジの中心位置があり、その中心位置からエッジの移動方向に一画素隣の位置[x0+1]と、中心位置からエッジの移動方向と反対方向に一画素隣の位置[x0−1]に膨張されている。
この場合、エッジが検出された位置[x0−1]、[x0]、[x0+1]のカウント値が『1』ずつカウントアップされ、エッジが検出されなかった位置のカウント値が『0』にリセットされる。
例えば、図4(d)に示すように、時刻tにおいて位置[x0−1]、[x0]、[x0+1]にエッジが検出されているので、夫々の位置で『1』ずつカウントアップされて、位置[x0+1]のカウント値が『1』、位置[x0]のカウント値が『3』、位置[x0−1]のカウント値が『5』になっている。
そして、図4(e)に示すように、時刻t+1でもエッジが移動していないので、位置[x0−1]、[x0]、[x0+1]の各位置でエッジが検出され、位置[x0−1]、[x0]、[x0+1]のカウント値をさらに『1』ずつカウントアップして、位置[x0−1]のカウント値を『2』、位置[x0]のカウント値を『4』、位置[x0+1]のカウント値を『6』としている。
さらに、図4(f)に示すように、時刻t+2では、エッジがx軸の正方向に一画素分だけシフトして位置[x0]、[x0+1]、[x0+2]の位置でエッジが検出されている。
この場合、エッジが検出された位置[x0]、[x0+1]、[x0+2]のカウント値が『1』ずつカウントアップされ、エッジが検出されなかった位置[x0−1]のカウント値が『0』にリセットされる。
この結果、図4(f)に示すように、位置[x0+2]のカウント値が『1』、位置[x0+1]のカウント値が『3』、位置[x0]のカウント値が『5』となっている。さらに、エッジが検出されなかった位置[x0−1]のカウント値はリセットされて『0』になっている。
このように、エッジが検出された位置のカウント値を『1』ずつカウントアップし、エッジの検出されなかった位置のカウント値を『0』にリセットしている。したがって、エッジが検出された位置のカウント値をカウントアップしていくと、そのカウント値はその位置においてエッジが検出されている時間(フレーム数)と等しくなる。例えば、位置[x0]では、時刻tと時刻t+1との二連続でエッジが検出されており、位置[x0]においてエッジが検出されている時間は、フレーム数に対応する。
ここでは、カウント値を検出する位置として、エッジの中心位置[x0]と、この中心位置からエッジの移動方向へ一画素隣の位置[x0+1]と、中心位置からエッジの移動方向と反対方向に一画素隣の位置[x0−1]と、の三画素分の幅でカウント値を検出していたが、後述するようにカウント値の傾きが求められればよいので、エッジの移動方向に沿って二画素以上の幅であればよい。
次に、エッジの移動速度、移動方向、及び位置を算出する。
先ず、下記(1)式に示すように、カウント値の移動方向への傾きを算出する。
例えば、図4(e)に示すように、位置[x0−1]のカウント値が『6』、位置[x0]のカウント値が『4』、位置[x0+1]のカウント値が『2』となっているときには、位置[x0−1]のカウント値『6』から位置[x0+1]のカウント値『2』を引くことによって、カウント値の傾きをH=(6−2)/2=2として算出する。
これは、H={(エッジが位置[x0−1]に移動してから現在までの時間)−(エッジが位置[x0+1]に移動してしまった後の時間)}/(二画素)を意味するので、これによりエッジが位置[x0]のある一画素を通過するのに要した時間(フレーム数)を算出したことになる。
したがって、カウント値の傾きHはエッジが一画素移動するために何フレームを要したかを求めることになり、このカウント値の傾きHに基づいてエッジの移動速度(1/H)を算出することができる。図4(e)では、一画素移動するのに二フレームを要したことになるので(H=2)、エッジの移動速度は1/2(画素/フレーム)と算出することができる。
また、エッジの移動方向は、カウント値の大小によって判断することができる。
エッジが移動して新たにエッジが検出された位置のカウント値は『1』であり、各位置のカウント値の中では最も小さな値となる。したがって、エッジが移動する方向のカウント値は小さく、エッジが移動する方向と反対方向のカウント値は大きくなるので、これによってエッジの移動方向を判断する。
上記のように、エッジが検出された位置のカウント値をカウントアップし、カウントアップされたカウント値の傾きに基づいてエッジの移動速度及び移動方向を算出することができる。
次に、撮像画像上に存在するエッジの移動情報を、予め定められた階級値に分類して表した速度画像を生成する。
図5は、速度画像の一例を示す図である。
速度画像は、図5に示すように、移動情報が検出されたエッジの画素を丸型の点で表し、移動速度が速い画素ほど点を大きく示す。また、右へ向かう移動速度を黒点で表し、左へ向かう移動速度を白点で表すことによって移動方向を表している。
縦エッジ抽出部106は、立体物の速度の特徴として、同じ速度を持つ画素が縦に連続して存在するという特徴に基づいて、立体物の候補となる縦エッジを抽出する。
図6は、縦エッジの抽出方法を示す図である。
例えば、図6に示すように、速度画像を縦方向(y軸方向)に探索していき、速度情報を持った画素Aが見つかった場合、次の画素Bを探索して、画素が速度情報を持っており、且つ速度の向きが画素Aと同じ、且つ画素Aと画素Bの速度の大きさの差(V2−V1)が閾値Tv以内であれば、縦に連続していると判断する。次に、画素Cについても同様に速度情報の有無、速度の方向、速度の大きさの差(V3−V1)が閾値Tv以内かを判定し、以後、何れかの条件を満たさなくなるまで繰り返す。
そして、画素Nの次の画素で条件を満たさなくなった場合、それまで条件を満たした画素の数をカウントし、そのカウント値が閾値TH以上であれば、画素Aから画素Nまでの縦エッジを縦エッジとして抽出する。
下端点抽出部107は、縦エッジ抽出部106で抽出した縦エッジの下端点を抽出する。すなわち、縦エッジ抽出部106で抽出した際に最後にカウントした画素Nを下端点として抽出する。
図7は、縦エッジから下端点を抽出した図である。
例えば、縦エッジ1〜3から夫々の下端点1〜3を抽出している。
静止物エッジ抽出部108では、下端点抽出部107で抽出した縦エッジの下端点の情報と、車両情報入力部102から入力された自車両の車速信号とから、静止物に属する縦エッジを抽出する。
先ず、下端点1〜3の画像上の位置から、車両に搭載したカメラ101を中心とした俯瞰座標上の位置を計算する。
図8は、俯瞰座標系への変換を示す図である。
画像上の座標の俯瞰座標への変換は、公知の手法を用いればよく、例えばカメラの地上からの高さ、カメラの取付俯角などの情報を用いて変換する。
そして、俯瞰座標上における下端点の位置を取得してから、静止物と仮定した場合の下端点の画像上の速度を算出する。具体的には、下端点を静止物として仮定した場合、下端点の俯瞰座標系での速度は、自車速Vvと同じ大きさで向きが逆の速度とみなせる。さらに、一つのフレーム時間(例えば33msec)をΔtとし、車両の運動を直進運動で近似すると、下端点の速度方向は、俯瞰座標上で−Z方向とみなすことができる。
したがって、下記(1)式に示すように、自車速Vv、フレーム時間Δt、俯瞰座標上の下端点のx座標値X、俯瞰座標上の下端点のz座標値Zに基づいて、Δtにおける下端点の水平方向の角度変化Δθが求められる。
Figure 2012003582
また、静止物と仮定したときの下端点を含む縦エッジの推定画像速度Vgは、Kを下記(2)式で定義すると、下記(3)式で計算することができる。
K=カメラの有効水平画角/カメラの有効水平画素数 ………(2)
Vg=K×Δθ ………(3)
推定画像速度Vgに対し、取得画像から算出した実際の縦エッジの画像速度をVとすると、VgとVの差分(絶対値)が閾値TH2以下であるときに、その縦エッジは静止物であると判定する。
切れ目エッジ抽出部109は、静止物と判定した縦エッジが連続した静止物の切れ目の候補であるか否かを、車両情報入力部102から入力された車両情報と、移動体の通行可能幅を想定した判定領域とから判定する。
図9は、静止物と判定された縦エッジを示す図である。
先ず、静止物と判定された縦エッジの画像上の座標を、車載カメラを原点とした俯瞰座標へ変換する。
図10は、静止物を俯瞰座標へ投影した図である。
変換後、夫々の静止物に対して、車両進行方向と直行する方向に、他の静止物が存在するか否かを判定する。例えば、図10の静止物1に対して、静止物1の俯瞰座標上の座標値を(X1,Z1)とした場合、z方向の幅Zh以内で、x軸方向に静止物が存在するかどうかを検索する。Zhは例えば俯瞰座標への変換誤差、及び画像座標での座標測定誤差を考慮して決める。
この場合、静止物2の俯瞰頭上の座標を(X2,Z2)とした場合、図10に示す例では、Z1−Zh≦Z2≦Z1+Zhであり、静止物2は静止物1の検索範囲に存在する。検索の結果、同一検索範囲に複数の静止物が存在した場合は、静止物のx座標がより自車両に近い、つまりX座標の絶対値が小さい静止物のみを選別する。例えば、静止物1と静止物2の例では、図10に示すように|X2|<|X1|であるから、ここでは静止物2を選別する。
静止物3以降も同様に処理を行い、各静止物の検索範囲の中で、最もX座標の絶対値が小さいものを選別する。図10に示す例では、静止物2〜6が選別される。
次に、移動体の通行可能幅を想定した判定領域を設定する。
図11は、通行可能判定領域を示す図である。
例えば、俯瞰図のz軸方向の長さの閾値をW、x軸方向の長さの閾値をLとした長方形の領域Rを考える。ここで、閾値Wは飛出しの判定を行う対象が通行可能な幅を想定して決めればよく、歩行者などを想定した場合であれば、例えばW=0.6m程度に設定する。閾値Lは前述したZhと同様に、俯瞰座標への変換誤差及び画像座標での座標測定誤差を考慮して決めればよい。また、車両情報により、領域Rの俯瞰座標のZ軸となす角θを決定する。例えば、舵角情報を取得し、自車両の実舵角θvを求め、θ=θvとしてもよいし、又は自車進路の道路曲率を求め、その道路曲率から算出した角度をθとしてもよい。
次に、領域Rを、選別した静止物に対して適用し、領域R内に他の静止物が存在しない場合、領域Rを適用した静止物を連続した静止物の切れ目候補であると判定する。
図12は、切れ目判定を示す図である。
例えば、選別された静止物2に対して領域Rを設定する。ここでは、車両は直進しているものとしてθ=0として考えると、領域Rを設定すると、静止物2の俯瞰座標の位置(X2,Z2)に対して、X2−L/2≦X≦X2+L/2、Z2≦Z≦Z2+Wの範囲を適用することになる。この範囲において、他の選別された静止物が存在するかしないかを判定する。図12では、静止物2に設定した範囲の中に静止物3が存在し、静止物3に設定した範囲の中に静止物4が存在するため、静止物2〜4は連続した静止物であると判定する。また、静止物5に設定した範囲の中に静止物6が存在するため、静止物5、6を連続した静止物であると判定する。一方、静止物4に設定した範囲からは、静止物5が外れているので、この静止物4を切れ目候補と判定する。
飛出し判定部110では、切れ目候補として抽出された静止物に対して、飛出し判定処理を行い、飛出しを検出した場合に、検出結果を出力する。
図13は、飛出し検出を示す図である。
図13(a)には、ある時刻t=t1における、切れ目に該当する縦エッジの模式図を示している。ここで、t=t1のときの切れ目抽出時縦エッジAの速度値をVoとすると、切れ目抽出時縦エッジAが、画像が一ピクセル以上動く移動時間tsをts=1/Voで求めることができる。
図13(b)には、時刻t=t1+tsのときに、静止物の陰から移動体が出現しなかった場合の模式図を示す。t1から移動時間tsが経過した後に、改めて切れ目に該当する縦エッジBを抽出すると、それはt=t1のときに観測した画像速度の方向に一ピクセル移動している。図13(b)では、画像左側に一ピクセル移動している。また、このとき、切れ目に該当する縦エッジBの速度値をVp1とするとVp1≧Voという関係が成り立つ。
図13(c)には、ある時刻t=t1+tsのときに、静止物の陰から移動体が出現した場合の模式図を示す。t1から移動時間tsが経過した後に、改めて切れ目に該当する縦エッジCを抽出すると、それはt=t1のときに観測したときと、ほぼ同じ位置に観測される。また、縦エッジCの速度値をVp2とするとVp2≦Voという関係が成り立つ。
そこで、飛出し判定部110では、先ず、t=t1の時点で、切れ目に該当する縦エッジAが画像上一ピクセル以上動く移動時間tsを算出する。例えば、二ピクセル以上動く移動時間ts=2/Voとして算出する。また、t=t1のときの縦エッジAの画像上の位置Xo、速度情報Voを記憶領域へ格納する。例えば、t=t1のときのある縦エッジAを切れ目抽出時エッジとし、その画像上のx座標値をXo、画像上のy座標の最小値をYoとし、これら(A,Xo,Yo,Vo)を一セットとしてメモリ上の記憶領域へ格納する。このとき、Xoを切れ目位置とする。
次に、t1の時点から移動時間tsが経過した後(t=t1+ts)、改めて縦エッジの位置と速度値を観測し、飛出し物体があるか否かを判定する。先ず、上記の処理で記憶した切れ目抽出時縦エッジAに最も近い縦エッジを抽出する。t=t1+tsのときに抽出されたt1時の切れ目抽出時縦エッジAに最も近い縦エッジの画像上のx座標値をXpとし、|Xp−Xo|≧Xthの場合には、飛出し物体はないと判断する。一方、|Xp−Xo|<Xthの場合には、速度値での判定処理を行う。ここで、Xthは位置変化判定のための閾値であり、Xth=Vo×Tsで算出する。
速度値の判定処理は、例えば、t=t1のときの切れ目抽出時縦エッジAの速度値をVo、t=t1+tsのときに抽出された縦エッジの速度値をVpとした場合、|Vp|−|Vo|≦Vthのときに、飛出し物体があると判定し、|Vp|−|Vo|>Vthのときに、飛出し物体は無いと判定する。ここで、Vthは速度値判定の閾値であり、例えばVpがVoと同じ速度以下の場合を想定してVth=0としてもよいし、移動時間tsが経過するまでの間、ある画像位置に留まった場合の画像速度をVfを計算し、Vth=(|Vf|−|V0|)/2としてもよい。
上記の処理により、飛出し判定部110が飛出し判定処理を行った後に、判定結果の出力を行う。
図14は、車外認識処理を示すフローチャートである。
この処理はイグニションスイッチ(図示省略)がオンされると起動されるプログラムとして実行される。
先ずステップS101では、カメラ101で撮像された自車両前方の画像が予め定められた周期毎にエッジ抽出部104に出力される。
続くステップS102では、エッジ抽出部104が画像に対してエッジ抽出処理を行い、撮像画像内に存在する物体の輪郭をエッジ画像として抽出すると共にエッジ画像の正規化を行う(二値化処理、細線化処理、膨張処理)。
続くステップS103では、エッジ画像のカウントアップ処理を行ってから、移動情報算出部105がエッジの速度を算出し、算出した移動情報を予め定められた階調で表した速度画像を算出する。
続くステップS104では、算出した速度画像より、立体物の候補となる縦エッジの抽出を行う。
続くステップS105では、全ての画素に対し抽出処理をしたかを判定し、全ての抽出が完了していればステップS106に移行する。一方、全ての抽出が完了していないときには前記ステップS104に移行する。
ステップS106では、ステップS104で抽出した縦エッジの下端点の画像座標の位置を抽出する。
続くステップS107では、ステップS106で抽出した縦エッジの下端点の画像座標の位置を、カメラ101を原点とし、自車両進行方向をZ軸とした俯瞰座標系へ座標変換する。
続くステップS108では、座標変換した縦エッジの下端点の位置と、車両情報入力部102から入力した自車両の速度情報とに基づいて、縦エッジが静止物であるか否かを判定する。
続くステップS109ではステップS108で静止物と判定した縦エッジのうち、俯瞰座標上で自車進路に近いものを抽出する。
続くステップS110では、ステップS109で抽出した自車両の進路に近い静止物と判定した縦エッジに対し、移動体の通行可能幅を想定した領域Rを適用し、適用した領域Rに二つ以上の静止物と判定した縦エッジがない場合に、領域Rを適用した縦エッジを、連続した静止物の切れ目候補として判定する。
続くステップS111では、ステップS110で連続した静止物の切れ目候補として判定された縦エッジの速度情報から、この縦エッジが予め定められたピクセル以上移動するのに要する移動時間tsを算出する。
続くステップS112では、切れ目に該当する縦エッジを切れ目抽出時縦エッジとし、この切れ目抽出時縦エッジのx座標値を切れ目位置とし、これら切れ目抽出時縦エッジと切れ目位置とを切れ目情報として記憶領域へ格納する。
続くステップS113では、ステップS111で算出した移動時間tsが経過したかを判断し、移動時間tsが経過したらステップS114に移行する。一方、移動時間tsが経過していなければ前記ステップS101に戻る。
ステップS114では、ステップS112で格納した縦エッジの位置情報に最も近い、現在観測されている縦エッジを抽出する。
続くステップS115では、ステップS112で格納したt1時点の切れ目抽出時縦エッジの切れ目位置と、改めてステップS114で抽出したts経過後の縦エッジの位置情報とを比較し、閾値Xth以上位置変化があるか否かを判定する。閾値Xth以上の位置変化がある場合はステップS118に移行し、閾値Xth以上の位置変化がない場合にはステップS116に移行する。
ステップS116では、ステップS112で格納した縦エッジの速度情報と、ステップS114で抽出した縦エッジの速度情報を比較し、閾値Vth以上速度が遅くなっているか否かを判定する。閾値Vth以上速度が遅くなっていない場合はステップS118に移行し、閾値Vth以上速度が遅くなっている場合にはステップS117へ移行する。
ステップS117では、ステップS115及びステップS116の判定結果を受けて、ステップS114で抽出した縦エッジが飛出し物体であると判定する。
続くステップS118では、全てのステップS110で抽出した切れ目候補に対しステップS114からステップS117の飛出し判定をしたか否かを判定し、全ての切れ目候補に対し処理を行っている場合はステップS119に移行する。一方、全てに対して行っていない場合はステップS114に移行する。
ステップS119では、飛出し物体の有無の判定結果を出力する。
続くステップS120では、イグニッションスイッチがオフになっているかを判定し、オフになっている場合は、車外環境認識処理を終了する。一方、イグニッションスイッチがオフになっていない場合は、前記ステップS101に戻る。
《作用》
先ず、自車両の前方を撮像した画像に対して、二値化処理、細線化処理、膨張処理を行うことによってエッジを抽出し(S102)、更にカウントアップ処理を行うことによって抽出したエッジにおける画像上での移動速度及び移動方向を算出する(S103)。
そして、抽出したエッジのうち、画像上で同一速度で縦方向に連続する縦エッジを抽出し(S104)、抽出した縦エッジのうち、静止物に属する縦エッジを抽出し(S108)、抽出した静止物に属する縦エッジのうち、静止物における自車進路方向の切れ目に該当する縦エッジを、予め定められた通行可能幅Wに基づいて抽出する(S110)。このとき、切れ目に該当する縦エッジを切れ目抽出時縦エッジとし、切れ目抽出時縦エッジの位置を切れ目位置とし、夫々を切れ目情報として記憶する(S112)。
そして、切れ目情報を記憶してから予め定められた移動時間tsが経過した後に、改めて抽出した縦エッジの中で切れ目位置Xoに最も近い縦エッジと、切れ目抽出時縦エッジAとを比較することで、切れ目位置に最も近い縦エッジが切れ目からの飛出し物体に属する縦エッジであるか否かを判定する(S113〜S117)。
このように、静止物の切れ目に該当する縦エッジを抽出し、静止物の切れ目情報を記憶し、切れ目位置における縦エッジの経時変化に基づいて飛出し物体の検出を行うので、単に速度ベクトルに基づいて障害物の検出を行うよりも、障害物となり得る物体の検出精度を向上させることができる。
切れ目に該当する縦エッジの抽出は、先ず縦エッジの下端点を抽出し(S106)、画像を俯瞰画像に座標変換し、この俯瞰画像上に下端点を投影させて俯瞰画像を生成し(S107)する。
そして、静止物に属する縦エッジのうち、俯瞰画像上で、自車進路に沿って隣り合う第一の縦エッジ及び第二の縦エッジ間の距離が、通行可能幅Wを超えているときに、第一の縦エッジを切れ目に該当する縦エッジとして抽出する。
このように、第一の縦エッジに通行可能幅Wを適用し、その範囲に第二の縦エッジが含まれるか否かを判定するだけで、切れ目に属する縦エッジを容易に抽出することができる。
そして、飛出し物体の判定は、画像上で、切れ目位置に最も近い縦エッジの位置Xpと切れ目位置Xoとのx軸方向の距離(Xp−Xo)が、予め定められた距離閾値Xthよりも短いときに(S115の判定が“Yes”)、その切れ目位置に最も近い縦エッジが、切れ目からの飛出し物体に属する縦エッジであると判定する(S117)。
このように、t1から移動時間tsが経過したときに改め抽出した縦エッジの位置Xpと、切れ目位置Xoとを比較するだけで、飛出し物体を容易に検出することができる。
また、飛出し物体の判定は、切れ目位置に最も近い縦エッジの移動速度Vpが、切れ目抽出時縦エッジの移動速度Voよりも遅く、且つ速度差(|Vp|−|Vo|)が、予め定められた速度差閾値Vthよりも大きいときに(S116の判定が“Yes”)、切れ目位置に最も近い縦エッジが、切れ目からの飛出し物体に属する縦エッジであると判断すると判定する。
このように、t1から移動時間tsが経過したときに改めて抽出した縦エッジの移動速度Vpと、切れ目抽出時エッジの移動速度Voとを比較するだけで、飛出し物体を容易に検出することができる。
《効果》
以上より、車両情報入力部102が「車速情報取得手段」に対応し、カメラ101が「撮像手段」に対応し、ステップS102の処理が「エッジ抽出手段」に対応し、ステップS103の処理が「移動情報算出手段」に対応し、ステップS104の処理が「縦エッジ抽出手段」に対応する。また、ステップS108の処理が「静止物エッジ抽出手段」に対応し、ステップS110の処理が「切れ目エッジ抽出手段」に対応し、ステップS112の処理が「切れ目情報記憶手段」に対応し、ステップS111、S113〜S117の処理が「飛出し物体判定手段」に対応する。また、ステップS106の処理が「下端点抽出手段」に対応し、ステップS107の処理が「俯瞰画像生成手段」に対応する。
(1)自車両の車速情報を取得する車速情報取得手段と、自車両の前方を撮像する撮像手段と、前記撮像手段で撮像した画像からエッジを抽出するエッジ抽出手段と、前記エッジ抽出手段で抽出したエッジにおける前記画像上での移動速度及び移動方向を移動情報として算出する移動情報算出手段と、前記エッジ抽出手段で抽出したエッジのうち、前記画像上で縦方向に連続する縦エッジを、前記移動情報算出手段で算出した移動情報に基づいて抽出する縦エッジ抽出手段と、前記縦エッジ抽出手段で抽出した縦エッジのうち、静止物に属する縦エッジを、前記移動情報算出手段で算出した移動情報、及び前記車速情報取得手段で取得した車速情報に基づいて抽出する静止物エッジ抽出手段と、前記静止物エッジ抽出手段で抽出した前記静止物に属する縦エッジのうち、前記静止物における自車進路方向の切れ目に該当する縦エッジを、移動体が通行可能となる予め定められた通行可能幅に基づいて抽出する切れ目エッジ抽出手段と、前記切れ目エッジ抽出手段で抽出した前記縦エッジを切れ目抽出時縦エッジとし、前記切れ目抽出時縦エッジの位置を切れ目位置とし、前記切れ目抽出時縦エッジ及び前記切れ目位置を切れ目情報として記憶する切れ目情報記憶手段と、前記切れ目情報記憶手段で前記切れ目情報を記憶してから予め定められた時間が経過した後に、改めて前記縦エッジ抽出手段で抽出した縦エッジの中で前記切れ目情報記憶手段で記憶した切れ目位置に最も近い縦エッジと、前記切れ目情報記憶手段で記憶した切れ目抽出時縦エッジとを比較することで、前記切れ目位置に最も近い縦エッジが前記切れ目からの飛出し物体に属する縦エッジであるか否かを判定する飛出し物体判定手段と、を備える。
このように、静止物の切れ目に該当する縦エッジを抽出し、静止物の切れ目情報を記憶し、切れ目位置における縦エッジの経時変化に基づいて飛出し物体の検出を行うので、単に速度ベクトルに基づいて障害物の検出を行うよりも、障害物となり得る物体の検出精度を向上させることができる。
(2)前記縦エッジ抽出手段で抽出した縦エッジの下端点を抽出する下端点抽出手段と、前記画像を俯瞰画像に座標変換し、且つ前記俯瞰画像上に前記下端点抽出手段で抽出した下端点を投影させて俯瞰画像を生成する俯瞰画像生成手段と、を備え、前記切れ目エッジ抽出手段は、前記静止物エッジ抽出手段で抽出した縦エッジのうち、前記俯瞰画像生成手段で生成した俯瞰画像上で、自車進路に沿って隣り合う第一の縦エッジ及び第二の縦エッジ間の距離が、前記通行可能幅を超えているときに、前記第一の縦エッジを前記切れ目に該当する縦エッジとして抽出する。
このように、第一の縦エッジに通行可能幅を適用し、その範囲に第二の縦エッジが含まれるか否かを判定するだけで、切れ目に属する縦エッジを容易に抽出することができる。
(3)前記飛出し物体判定手段は、前記画像上で、前記切れ目位置に最も近い縦エッジの位置と前記切れ目位置との横方向の距離が、予め定められた距離閾値よりも短いときに、前記切れ目位置に最も近い縦エッジが、前記切れ目からの飛出し物体に属する縦エッジであると判定する。
このように、予め定められた時間が経過したときに改め抽出した縦エッジの位置と、切れ目位置とを比較するだけで、飛出し物体を容易に検出することができる。
(4)前記飛出し物体判定手段は、前記切れ目位置に最も近い縦エッジの移動速度が、前記切れ目抽出時縦エッジの移動速度よりも遅く、且つ速度差が、予め定められた速度差閾値よりも大きいときに、前記切れ目位置に最も近い縦エッジが、前記切れ目からの飛出し物体に属する縦エッジであると判断すると判定する。
このように、予め定められた時間が経過したときに改めて抽出した縦エッジの移動速度と、切れ目抽出時エッジの移動速度とを比較するだけで、飛出し物体を容易に検出することができる。
(5)自車両の車速情報を取得し、自車両の前方を撮像した画像からエッジを抽出し、前記エッジにおける前記画像上での移動速度及び移動方向を移動情報として算出し、抽出した前記エッジのうち、前記画像上で縦方向に連続する縦エッジを、前記移動情報に基づいて抽出し、抽出した前記縦エッジのうち、静止物に属する縦エッジを、前記移動情報、及び車速情報に基づいて抽出し、抽出した前記静止物に属する縦エッジのうち、前記静止物における自車進路方向の切れ目に該当する縦エッジを、移動体が通行可能となる予め定められた通行可能幅に基づいて抽出し、前記切れ目に該当する縦エッジを切れ目抽出時縦エッジとし、前記切れ目抽出時縦エッジの位置を切れ目位置とし、前記切れ目抽出時縦エッジ及び前記切れ目位置を切れ目情報として記憶し、前記切れ目情報を記憶してから予め定められた時間が経過した後に、改めて抽出した縦エッジの中で前記切れ目位置に最も近い縦エッジと、前記切れ目抽出時縦エッジとを比較することで、前記切れ目位置に最も近い縦エッジが前記切れ目からの飛出し物体に属する縦エッジであるか否かを判定する。
10 車外環境認識装置
100 画像処理部
101 カメラ
102 車両情報入力部
103 画像一時記録部
104 エッジ抽出部
105 移動情報算出部
106 縦エッジ抽出部
107 下端点抽出部
108 静止物エッジ抽出部
109 目エッジ抽出部
110 飛出し判定部

Claims (5)

  1. 自車両の車速情報を取得する車速情報取得手段と、
    自車両の前方を撮像する撮像手段と、
    前記撮像手段で撮像した画像からエッジを抽出するエッジ抽出手段と、
    前記エッジ抽出手段で抽出したエッジの前記画像上での移動速度及び移動方向を移動情報として算出する移動情報算出手段と、
    前記エッジ抽出手段で抽出したエッジのうち、前記画像上で縦方向に連続する縦エッジを、前記移動情報算出手段で算出した移動情報に基づいて抽出する縦エッジ抽出手段と、
    前記縦エッジ抽出手段で抽出した縦エッジのうち、静止物に属する縦エッジを、前記移動情報算出手段で算出した移動情報、及び前記車速情報取得手段で取得した車速情報に基づいて抽出する静止物エッジ抽出手段と、
    前記静止物エッジ抽出手段で抽出した前記静止物に属する縦エッジのうち、前記静止物における自車進路方向の切れ目に該当する縦エッジを、移動体が通行可能となる予め定められた通行可能幅に基づいて抽出する切れ目エッジ抽出手段と、
    前記切れ目エッジ抽出手段で抽出した前記縦エッジを切れ目抽出時縦エッジとし、前記切れ目抽出時縦エッジの位置を切れ目位置とし、前記切れ目抽出時縦エッジ及び前記切れ目位置を切れ目情報として記憶する切れ目情報記憶手段と、
    前記切れ目情報記憶手段で前記切れ目情報を記憶してから予め定められた時間が経過した後に、改めて前記縦エッジ抽出手段で抽出した縦エッジの中で前記切れ目情報記憶手段で記憶した切れ目位置に最も近い縦エッジと、前記切れ目情報記憶手段で記憶した切れ目抽出時縦エッジとを比較することで、前記切れ目位置に最も近い縦エッジが前記切れ目からの飛出し物体に属する縦エッジであるか否かを判定する飛出し物体判定手段と、を備えることを特徴とする車外環境認識装置。
  2. 前記縦エッジ抽出手段で抽出した縦エッジの下端点を抽出する下端点抽出手段と、
    前記画像を俯瞰画像に座標変換し、且つ前記俯瞰画像上に前記下端点抽出手段で抽出した下端点を投影させて俯瞰画像を生成する俯瞰画像生成手段と、を備え、
    前記切れ目エッジ抽出手段は、前記静止物エッジ抽出手段で抽出した縦エッジのうち、前記俯瞰画像生成手段で生成した俯瞰画像上で、自車進路に沿って隣り合う第一の縦エッジ及び第二の縦エッジ間の距離が、前記通行可能幅を超えているときに、前記第一の縦エッジを前記切れ目に該当する縦エッジとして抽出することを特徴とする請求項1に記載の車外環境認識装置。
  3. 前記飛出し物体判定手段は、前記画像上で、前記切れ目位置に最も近い縦エッジの位置と前記切れ目位置との横方向の距離が、予め定められた距離閾値よりも短いときに、前記切れ目位置に最も近い縦エッジが、前記切れ目からの飛出し物体に属する縦エッジであると判定することを特徴とする請求項1又は2に記載の車外環境認識装置。
  4. 前記飛出し物体判定手段は、前記切れ目位置に最も近い縦エッジの移動速度が、前記切れ目抽出時縦エッジの移動速度よりも遅く、且つ速度差が、予め定められた速度差閾値よりも大きいときに、前記切れ目位置に最も近い縦エッジが、前記切れ目からの飛出し物体に属する縦エッジであると判断すると判定することを特徴とする請求項1〜3の何れか一項に記載の車外環境認識装置。
  5. 自車両の車速情報を取得し、自車両の前方を撮像した画像からエッジを抽出し、前記エッジの前記画像上での移動速度及び移動方向を移動情報として算出し、抽出した前記エッジのうち、前記画像上で縦方向に連続する縦エッジを、前記移動情報に基づいて抽出し、抽出した前記縦エッジのうち、静止物に属する縦エッジを、前記移動情報、及び車速情報に基づいて抽出し、抽出した前記静止物に属する縦エッジのうち、前記静止物における自車進路方向の切れ目に該当する縦エッジを、移動体が通行可能となる予め定められた通行可能幅に基づいて抽出し、前記切れ目に該当する縦エッジを切れ目抽出時縦エッジとし、前記切れ目抽出時縦エッジの位置を切れ目位置とし、前記切れ目抽出時縦エッジ及び前記切れ目位置を切れ目情報として記憶し、前記切れ目情報を記憶してから予め定められた時間が経過した後に、改めて抽出した縦エッジの中で前記切れ目位置に最も近い縦エッジと、前記切れ目抽出時縦エッジとを比較することで、前記切れ目位置に最も近い縦エッジが前記切れ目からの飛出し物体に属する縦エッジであるか否かを判定することを特徴とする車外環境認識方法。
JP2010139224A 2010-06-18 2010-06-18 車外環境認識装置、車外環境認識方法 Active JP5464073B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010139224A JP5464073B2 (ja) 2010-06-18 2010-06-18 車外環境認識装置、車外環境認識方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010139224A JP5464073B2 (ja) 2010-06-18 2010-06-18 車外環境認識装置、車外環境認識方法

Publications (2)

Publication Number Publication Date
JP2012003582A true JP2012003582A (ja) 2012-01-05
JP5464073B2 JP5464073B2 (ja) 2014-04-09

Family

ID=45535472

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010139224A Active JP5464073B2 (ja) 2010-06-18 2010-06-18 車外環境認識装置、車外環境認識方法

Country Status (1)

Country Link
JP (1) JP5464073B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013210988A (ja) * 2012-03-01 2013-10-10 Nissan Motor Co Ltd 飛び出し検出装置
JP2017076276A (ja) * 2015-10-15 2017-04-20 株式会社日本自動車部品総合研究所 静止物検出装置、及びプログラム
US11804135B2 (en) 2019-11-28 2023-10-31 Mitsubishi Electric Corporation Object recognition apparatus, object recognition method, and computer readable medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006064653A (ja) * 2004-08-30 2006-03-09 Nissan Motor Co Ltd 物体検出装置、および方法
JP2006072638A (ja) * 2004-09-01 2006-03-16 Nissan Motor Co Ltd 移動物体検出装置
JP2008257399A (ja) * 2007-04-03 2008-10-23 Toyota Motor Corp 画像処理装置
JP2010038907A (ja) * 2008-07-08 2010-02-18 Nissan Motor Co Ltd 物体検出装置及び物体検出方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006064653A (ja) * 2004-08-30 2006-03-09 Nissan Motor Co Ltd 物体検出装置、および方法
JP2006072638A (ja) * 2004-09-01 2006-03-16 Nissan Motor Co Ltd 移動物体検出装置
JP2008257399A (ja) * 2007-04-03 2008-10-23 Toyota Motor Corp 画像処理装置
JP2010038907A (ja) * 2008-07-08 2010-02-18 Nissan Motor Co Ltd 物体検出装置及び物体検出方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013210988A (ja) * 2012-03-01 2013-10-10 Nissan Motor Co Ltd 飛び出し検出装置
JP2017076276A (ja) * 2015-10-15 2017-04-20 株式会社日本自動車部品総合研究所 静止物検出装置、及びプログラム
US11804135B2 (en) 2019-11-28 2023-10-31 Mitsubishi Electric Corporation Object recognition apparatus, object recognition method, and computer readable medium

Also Published As

Publication number Publication date
JP5464073B2 (ja) 2014-04-09

Similar Documents

Publication Publication Date Title
JP5145986B2 (ja) 物体検出装置及び測距方法
US9836657B2 (en) System and method for periodic lane marker identification and tracking
US9230165B2 (en) Object detection apparatus, vehicle-mounted device control system and storage medium of program of object detection
JP4203512B2 (ja) 車両周辺監視装置
JP5407898B2 (ja) 対象物検出装置及びプログラム
US8867790B2 (en) Object detection device, object detection method, and program
JP4811201B2 (ja) 走路境界線検出装置、および走路境界線検出方法
US8994823B2 (en) Object detection apparatus and storage medium storing object detection program
JP4692344B2 (ja) 画像認識装置
JP2008203992A (ja) 検出装置および方法、並びに、プログラム
JP2008168811A (ja) 車線認識装置、車両、車線認識方法、及び車線認識プログラム
JP6569280B2 (ja) 路面標示検出装置及び路面標示検出方法
JP2009053818A (ja) 画像処理装置及びその方法
JP2007249257A (ja) 移動体検出装置および移動体検出方法
JP6069938B2 (ja) 飛び出し検出装置
JP5464073B2 (ja) 車外環境認識装置、車外環境認識方法
JP2005157731A (ja) 車線認識装置および車線認識方法
JP2010020476A (ja) 物体検出装置及び物体検出方法
JP4321410B2 (ja) 物体検出装置、および方法
JP5345999B2 (ja) レーンマーク認識装置
JP5900021B2 (ja) 飛び出し検出装置
JP4830822B2 (ja) 物体検出装置および物体検出方法
Al-Refai et al. A framework for background modeling using vehicle-to-infrastructure communication for improved candidate generation in pedestrian detection
JP4151631B2 (ja) 物体検出装置
JP5141275B2 (ja) 車両用画像処理装置及び車両用画像処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130424

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140106

R151 Written notification of patent or utility model registration

Ref document number: 5464073

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151