JP2003099784A - 移動物体の認識方法 - Google Patents
移動物体の認識方法Info
- Publication number
- JP2003099784A JP2003099784A JP2001290759A JP2001290759A JP2003099784A JP 2003099784 A JP2003099784 A JP 2003099784A JP 2001290759 A JP2001290759 A JP 2001290759A JP 2001290759 A JP2001290759 A JP 2001290759A JP 2003099784 A JP2003099784 A JP 2003099784A
- Authority
- JP
- Japan
- Prior art keywords
- frame image
- calculation
- reference image
- point
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
量を大幅に低減し、自車との相対速度の大きい移動物体
の認識も可能にする。 【解決手段】CPUにより、各フレーム画像について無
限遠点から放射状の探索ライン上にそれぞれ複数の計算
点が定められ、Δt時間前の前フレーム画像中のある計
算点に参照画像領域が設定されると共に、前フレーム画
像からΔt時間後の現在フレーム画像に参照画像領域が
設定され、前フレーム画像、及び、現在フレーム画像の
両参照画像領域内における各画素毎の輝度差の累積和が
演算され、その最小値が予め求められてメモリに保持さ
れる。続いて、ある時刻のフレーム画像中の計算点に設
定される参照画像領域と、Δt時間後の次フレーム画像
中の計算点に設定される参照画像領域との各画素毎の輝
度差の累積和が演算され、その演算途中で上記の最小値
を超えるときにはその時点で演算が中止される。
Description
撮像手段により走行中に撮像して得られる所定時間相前
後した2つのフレーム画像における同一点の移動をオプ
ティカルフローとして検出し、自車周辺の移動物体を認
識する移動物体の認識方法に関する。
撮像手段により後側方を撮像して得られる画像を処理
し、車両や路側構造物等の移動物体を認識する手法とし
て勾配法や相関演算法があり、ハードウェア化が容易で
ある点から後者の相関演算法がよく利用されている。
グ法とも呼ばれ、画像中に対象物の動きベクトル、つま
りオプティカルフローを計算するのに利用される手法で
あり、例えば図10に示すように、所定時間相前後した
2つのフレーム画像(時刻tと時刻t+1のフレーム画
像)に対して、 D(u,v)=Σx,y∈R|If(x,y)−I
f+1(x+u,y+v)| で定義される各画素毎の輝度差の和、つまり残差D
(u,v)が最小となるかどうかを探索し、最小となれ
ばそのときの移動ベクトル(u,v)をもって、その座
標位置(x,y)での対象物の動き量とするものであ
る。
Rは参照画像領域、If(x,y)はフレームfでの画
像上での座標(x,y)での輝度、If+1(x+u,
y+v)はフレームf+1での画像上での座標(x+
u,y+v)での輝度である。
上記したような2つのフレーム画像におけるある対象物
について所定値以上のマッチング正解率を期待すると、
参照画像領域を大きくする必要があり、その際探索方向
を2次元にすると計算量が勢い増加してしまう。
例えば図11に示すように、計算方向を1次元方向、つ
まり撮像方向を示す1点に対応する無限遠点からの放射
状方向に限定し、計算量を低減することが従来行われて
いる。
車両運動から計算される移動量と、画像処理によって求
めたオプティカルフローとの一致、不一致によってフロ
ー精度を向上することも提案されている。例えば図12
に示すように、自車速vと2次元−3次元投影式から、
風景の無限遠点への画像上における移動量d_minu
sと、無限遠点から自車との相対速度で迫る追い越し車
両等の移動物体の画像上での最大移動量d−plusと
を計算することができる。
して計算量が多く、高速演算が可能なCPUが必要とな
るため、実用化において大きな支障となり、自車との相
対速度の大きい移動物体を認識することが非常に困難で
あるという問題があった。
プティカルフローの計算量を大幅に低減し、自車との相
対速度の大きい移動物体の認識も可能にすることを目的
とする。
ために、本発明にかかる移動物体の認識方法は、走行中
に自車に搭載した撮像手段により自車後側方を撮像し、
所定時間相前後した2つのフレーム画像中にそれぞれ所
定の大きさに設定される参照画像領域内における各画素
毎の輝度差の累積和が最小となるかどうかを探索し、最
小となれば前記両参照画像領域が同一物体を表わすべく
マッチングしていると判断して前記両参照画像領域の移
動をオプティカルフローとして導出し、導出した前記オ
プティカルフローの方向及び大きさから自車後側方の移
動物体を認識する移動物体の認識方法において、前記フ
レーム画像について、走行中の自車から撮像方向を示す
1点に対応する無限遠点から放射状の探索ライン上にそ
れぞれ複数の計算点を定め、現在より所定時間前の前フ
レーム画像中のある計算点に前記参照画像領域を設定す
ると共に、前記前フレーム画像から前記所定時間後の現
在フレーム画像中に、前記探索ラインに沿って移動した
位置に前記参照画像領域を設定し、前記前フレーム画像
の前記参照画像領域、及び、前記現在フレーム画像の前
記参照画像領域について、これら参照画像領域内におけ
る各画素毎の輝度差の累積和を演算してこの累積和の最
小値を求めて保持しておき、ある時刻における前記フレ
ーム画像中の前記計算点に設定される前記参照画像領域
と、その所定時間後の次フレーム画像中の前記計算点に
設定される前記参照画像領域との前記累積和を演算して
マッチングを判断する際に、その演算途中で前記最小値
を超えるときには超えた時点で演算を中止し、演算終了
時に前記最小値を下回るときには前記最小値を更新する
ことを特徴としている。
るフレーム画像と、その所定時間後の次フレーム画像に
ついて、参照画像領域内の各画素毎の輝度差の累積和を
演算している途中で、その累積和が保持しておいた最小
値を超えるときにはその時点でその演算を中止するた
め、従来に比べてオプティカルフローの計算量を大幅に
低減することができ、自車との相対速度の大きい移動物
体であっても容易にそのオプティカルフローを計算して
認識することができる。
おいた最小値を超えなければ、今回の演算による累積和
が新たな最小値をとして更新されるため、マッチングの
精度が低下することはない。
は、前記前フレーム画像に最初に前記参照画像領域を設
定する際に、前記前フレーム画像中において自車速と同
じ大きさの相対速度で移動する風景部分に設定し、前記
前フレーム画像から前記所定時間後の前記現在フレーム
画像中には、自車速に応じた量だけ所定の前記探索ライ
ンを前記無限遠点に向かう方向に移動した位置に前記参
照画像領域を設定することを特徴としている。
速と同じ大きさの相対速度で、自車と反対方向に移動す
るため、そのような風景部分に累積和の最小値を与える
計算点を設定することで、輝度差の累積和の最小値を容
易に求めることができる。
は、前記前フレーム画像に最初に前記参照画像領域を設
定する際に、前記前フレーム画像中において自車速に対
してある相対速度で移動する移動部分に設定し、前記前
フレーム画像から前記所定時間後の前記現在フレーム画
像中には、自車速に対する相対速度に応じた量だけ所定
の前記探索ラインに沿って移動した位置に前記参照画像
領域を設定し、前記自車に対する相対速度が自車速より
も大きいかどうかにより、前記現在フレーム画像に設定
すべき前記参照画像領域の位置を前記探索ラインに沿っ
て前記無限遠点から離れる方向にするかその反対方向に
するかを決定することを特徴としている。
い越す追い越し車両の場合には、相対速度は無限遠点か
ら離れる方向であることから、現在フレーム画像中に無
限遠点から離れる方向に相対速度に応じた量だけ移動し
た位置に参照画像領域を設定することにより、追い越し
車両についてのマッチングの基準となる累積和を容易に
得ることができる。
は、前記無限遠点付近では前記計算点の数を密にし、前
記撮像手段付近では前記計算点の数を粗にすることを特
徴としている。このような構成によれば、例えば自車の
後側方を撮像中に、追い越し車両が自車に接近しても、
計算量に大きな影響を与える自車近辺の計算点の数が少
ないことから、いたずらに計算量が増加することもな
く、追い越し車両の認識を迅速に行うことができる。
は、前記各計算点について、前記現在フレーム画像にお
いてマッチングにより得られたオプティカルフローの方
向を保持しておき、前記次フレーム画像では、その保持
したオプティカルフローの方向から探索を開始すること
を特徴としている。
おけるオプティカルフローの方向から探索を開始するた
め、オプティカルフローの計算における上記した輝度差
の累積和が最小値を超えて計算が中止される確率が非常
に高くなり、自車との相対速度の大きい移動物体のオプ
ティカルフローを計算するときに、その計算量の低減に
大きく寄与することができる。
は、前記撮像手段と同じ方向を観測する距離検出手段を
設け、前記距離検出手段により、前記累積和の最小値を
与える前記計算点を定めるための基準となる反射点を特
定することを特徴としている。
より検出される距離変化から、ある対象物の相対速度が
わかり、累積和の最小値を与える計算点を定める際に、
そこが風景部分であるのかどうか簡単に判断することで
き、累積和の最小値を与える計算点の設定を容易に行う
ことができる。
は、前記距離検出手段が、レーザ光をその照射方向と直
交方向に走査しつつ照射し、反射光を観測するまでの時
間を計測して反射点までの距離を検出するスキャンレー
ザレーダであり、前記スキャンレーザレーダの走査時間
が前記所定時間に設定されていることを特徴としてい
る。
レーダは、ある程度の水平視野をもって距離検出を行う
ことができるため、撮像手段による撮像範囲とほぼ同じ
範囲内で距離検出を行い、累積和の最小値を与える計算
点の設定をより容易に行うことができる。
実施形態について図1ないし図5を参照して説明する。
但し、図1はブロック図、図2ないし図5は動作説明図
である。
の単眼CCDカメラ1が搭載され、このCCDカメラ1
により自車の後側方が撮像され、得られた各時刻毎のフ
レーム画像がCPU2によりRAM等から成るメモリ3
に保存される。そして、CPU2は各フレーム画像を処
理して画像中の対象物のオプティカルフローを計算して
その移動量を求め、その対象物が車両かどうか認識す
る。
ついて、走行中の自車から撮像方向を示す1点に対応す
る無限遠点から放射状の探索ライン上にそれぞれ複数の
計算点が定められ、図2に示すように、現在より所定時
間であるΔt時間前の時刻Tにおける前フレーム画像中
のある計算点に、所定の大きさの参照画像領域(図2中
の矩形)が設定されると共に、前フレーム画像から所定
時間であるΔt時間後の時刻T+1における現在フレー
ム画像に、探索ライン(図2中の直線)上を移動した位
置に参照画像領域が設定され、前フレーム画像の参照画
像領域、及び、現在フレーム画像の参照画像領域につい
て、これら参照画像領域内における各画素毎の輝度差の
累積和が演算されてこの累積和の最小値Corr_mi
nが早い段階で求められてメモリ3に保持される。
像領域を設定する際、その前フレーム画像中において自
車速vと同じ大きさの相対速度で自車と反対方向に移動
する風景部分に設定し、前フレーム画像からΔt時間後
の現在フレーム画像中には、自車速に応じた量だけ探索
ラインを無限遠点に向かう方向に移動した位置に参照画
像領域を設定するとよい。
じ大きさの相対速度で、自車と反対方向に移動するた
め、そのような風景部分に累積和の最小値Corr_m
inを与える計算点を設定することで、輝度差の累積和
の最小値Corr_minをかなりの高確率で簡単に求
めることができるからである。
域を設定する際、前フレーム画像中において自車速に対
してある相対速度で移動する例えば追い越し車両部分に
設定し、前フレーム画像からΔt時間後の現在フレーム
画像中には、自車速vに対する相対速度に応じた量だけ
探索ラインに沿って移動した位置に参照画像領域を設定
し、そのとき追い越し車両は自車に対する相対速度が自
車速よりも大きいことから、現在フレーム画像に設定す
べき参照画像領域の位置を探索ラインに沿って無限遠点
から離れる方向に設定すればよい。
両部分に参照画像領域を設定して輝度差の累積和の最小
値Corr_minを比較的簡単に求めることができ
る。
密にし、前記撮像手段付近では前記計算点の数を粗にす
るのが望ましい。こうすれば、自車の後側方を撮像中
に、追い越し車両が自車に接近しても、計算量に大きな
影響を与える自車近辺の計算点の数が少ないことから、
いたずらに計算量が増加することもなく、追い越し車両
の認識を迅速に行うことができる。
におけるフレーム画像中の計算点に設定される参照画像
領域と、その所定時間であるΔt時間後の時刻T+2に
おける次フレーム画像において、探索ライン(図2中の
直線)を無限遠点に向かう方向に移動した計算点に設定
される参照画像領域との各画素毎の輝度差の累積和が演
算され、その演算途中において、図3に示すように、演
算中の累積和が予め求めておいた最小値Corr_mi
nを超えるときには、その時点で演算が中止されるよう
になっている。
た最小値Corr_minを超えなければ、CPU2に
より、新たにそのときの累積和が最小値Corr_mi
nとしてメモリ3に更新保持される。こうすれば、マッ
チング精度の低下を防止することができる。
(図中の○印)について、時刻T+1の現在フレーム画
像において、無限遠点からの探索ラインにおいてマッチ
ングにより得られたオプティカルフローの方向が、例え
ば無限遠点から離れる方向にであれば、同図(a)中の
“−(マイナス)”、無限遠点に向かう方向であれば、
同図(a)中の“+(プラス)”というように、マッチ
ング方向を保持しておき、Δ時間後の時刻T+2の次フ
レーム画像では、同図(b)に示すように、前回保持し
たオプティカルフローの方向から探索が開始されるよう
になっている。
前のフレームにおけるオプティカルフローの方向から探
索を開始するため、オプティカルフローの計算における
上記した輝度差の累積和が最小値を超えて計算が中止さ
れる確率が非常に高くなり、自車との相対速度の大きい
移動物体のオプティカルフローを計算するときにもその
計算量のいっそうの低減を図ることができる。
おいてマッチングしてオプティカルフローの方向が得ら
れた位置を中心にして、図5中に付した番号“1”,
“2”,…順に+、−の両方向に交互に探索を繰り返す
ようにしてもよい。こうすれば、ほとんどの場合、前回
のマッチング位置の近傍で今回もマッチングが得られる
ため、より計算量の低減を図ることができる。
Tにおけるフレーム画像と、その所定時間であるΔt時
間後の時刻T+1における次フレーム画像について、参
照画像領域内の各画素毎の輝度差の累積和を演算してい
る途中で、その累積和が保持しておいた最小値を超える
ときにはその時点でその演算を中止するため、従来に比
べてオプティカルフローの計算量を大幅に低減すること
ができ、自車との相対速度の大きい移動物体であっても
容易にそのオプティカルフローを計算して認識すること
が可能になる。
た最小値を超えなければ、今回の演算による累積和が新
たな最小値として更新されるため、マッチングの精度が
低下することを防止できる。
について図6ないし図9を参照して説明する。但し、図
6はブロック図、図7ないし図9は動作説明図である。
尚、本実施形態において、CPU2の基本的な機能は第
1実施形態と略同じであるため、以下では、主として第
1実施形態と異なる点について説明することとし、重複
した説明は省略する。
Dカメラ1と同じ自車後側方を観測する距離検出手段と
して、レーザ光をその照射方向と直交する水平方向に走
査しつつ照射し、反射光を観測するまでの時間を計測し
て反射点までの距離を検出するスキャンレーザレーダ4
を設け、このスキャンレーザレーダ4により、自車速と
同じ大きさの相対速度で自車と反対方向に移動する反射
点を特定し、特定したその反射点を、累積和の最小値を
与える計算点とするようにしている。
は、上記したマッチングを得るためのフレーム画像のサ
ンプリング周期であるΔt(本発明における所定時間)
に設定するのが望ましい。
び時刻t+1において、自車に対する障害物A,Bがど
のように移動したかがスキャンレーザレーダ4の出力変
化からわかり、障害物A,Bの自車に対する相対速度及
び方向がわかる。
1サンプリング周期での反射点データの距離変化は、そ
のまま自車に対する障害物の相対速度を表わし、また図
9に示す3次元空間と2次元画像平面の投影式より、図
8に示すように、3次元空間中での移動ベクトルは2次
元画像平面での移動ベクトルに変換することができる。
像がどの部分に移動したかを探索する上記の輝度差計算
を、参照画像領域Ibの近辺だけで行うことができるよ
うになり、風景などの反射データがない部分に対して
は、輝度差計算を一切行わなくても、スキャンレーザレ
ーダ4による測定結果から、障害物が存在しないことを
ある程度裏付けることができるため、風景部分に対する
計算量を第1実施形態の場合よりもかなり低減すること
ができる。
を防止するために、通常高感度に設定されノイズを計測
しやすいが、本発明の場合、例えばベクトルabが誤検
出であったときには、参照画像領域IaとIbの相関演
算値が一致しないため、スキャンレーザレーダ4のノイ
ズであると判定することができ、移動物体の認識精度の
向上に寄与することができる。
レーザレーダ4により検出される距離変化から、ある対
象物の相対速度がわかり、上記した2つのフレーム画像
中の参照画像領域内における各画素毎の輝度差の累積和
の最小値を与える計算点を定める際に、そこが風景部分
であるのか自車以外の車両であるのかを簡単に判断する
ことできるため、累積和の最小値を与える計算点の設定
を容易に行うことができる。
程度の水平視野をもって距離検出を行うことができるた
め、CCDカメラによる撮像範囲とほぼ同じ範囲内で距
離検出を行い、累積和の最小値を与える計算点の設定を
より容易に行うことができる。
して、スキャンレーザレーダ4を用いた場合について説
明したが、距離検出手段はスキャンレーザレーダに限定
されるものでないのは勿論である。
として単眼のCCDカメラ1を用いた場合について説明
したが、撮像手段は上記したCCDカメラに限定される
ものでないのはいうまでもない。
れるものではなく、その趣旨を逸脱しない限りにおいて
上述したもの以外に種々の変更を行うことが可能であ
る。
よれば、ある時刻におけるフレーム画像と、その所定時
間後の次フレーム画像について、参照画像領域内の各画
素毎の輝度差の累積和を演算している途中で、その累積
和が保持しておいた最小値を超えるときにはその時点で
その演算を中止するため、従来に比べてオプティカルフ
ローの計算量を大幅に低減することができ、自車との相
対速度の大きい移動物体であっても容易にそのオプティ
カルフローを計算して認識することが可能になり、高度
で快適な運転支援システムの提供に貢献することができ
る。
た最小値を超えなければ、今回の演算による累積和が新
たな最小値をとして更新されるため、マッチングの精度
が低下することを防止できる。
景部分は自車速と同じ大きさの相対速度で、自車と反対
方向に移動するため、そのような風景部分に累積和の最
小値を与える計算点を設定することで、輝度差の累積和
の最小値を容易に求めることが可能になる。
えば自車を追い越す追い越し車両の場合には、相対速度
は無限遠点から離れる方向であることから、現在フレー
ム画像中に無限遠点から離れる方向に相対速度に応じた
量だけ移動した位置に参照画像領域を設定することによ
り、追い越し車両についてのマッチングの基準となる累
積和を容易に得ることが可能になる。
えば自車の後側方を撮像中に、追い越し車両が自車に接
近しても、計算量に大きな影響を与える自車近辺の計算
点の数が少ないことから、いたずらに計算量が増加する
こともなく、追い越し車両の認識を迅速に行うことが可
能になる。
のフレームにおけるオプティカルフローの方向から探索
を開始するため、オプティカルフローの計算における上
記した輝度差の累積和が最小値を超えて計算が中止され
る確率が非常に高くなり、自車との相対速度の大きい移
動物体のオプティカルフローを計算するときに、その計
算量の低減に大きく寄与することが可能になる。
離検出手段により検出される距離変化から、ある対象物
の相対速度がわかり、累積和の最小値を与える計算点を
定める際に、そこが風景部分であるのかどうか簡単に判
断することでき、累積和の最小値を与える計算点の設定
を容易に行うことが可能になる。
キャンレーザレーダは、ある程度の水平視野をもって距
離検出を行うことができるため、撮像手段による撮像範
囲とほぼ同じ範囲内で距離検出を行い、累積和の最小値
を与える計算点の設定をより容易に行うことが可能にな
る。
Claims (7)
- 【請求項1】 走行中に自車に搭載した撮像手段により
自車後側方を撮像し、所定時間相前後した2つのフレー
ム画像中にそれぞれ所定の大きさに設定される参照画像
領域内における各画素毎の輝度差の累積和が最小となる
かどうかを探索し、最小となれば前記両参照画像領域が
同一物体を表わすべくマッチングしていると判断して前
記両参照画像領域の移動をオプティカルフローとして導
出し、導出した前記オプティカルフローの方向及び大き
さから自車後側方の移動物体を認識する移動物体の認識
方法において、 前記フレーム画像について、走行中の自車から撮像方向
を示す1点に対応する無限遠点から放射状の探索ライン
上にそれぞれ複数の計算点を定め、 現在より所定時間前の前フレーム画像中のある計算点に
前記参照画像領域を設定すると共に、前記前フレーム画
像から前記所定時間後の現在フレーム画像中に、前記探
索ラインに沿って移動した位置に前記参照画像領域を設
定し、 前記前フレーム画像の前記参照画像領域、及び、前記現
在フレーム画像の前記参照画像領域について、これら参
照画像領域内における各画素毎の輝度差の累積和を演算
してこの累積和の最小値を求めて保持しておき、 ある時刻における前記フレーム画像中の前記計算点に設
定される前記参照画像領域と、その所定時間後の次フレ
ーム画像中の前記計算点に設定される前記参照画像領域
との前記累積和を演算してマッチングを判断する際に、
その演算途中で前記最小値を超えるときには超えた時点
で演算を中止し、演算終了時に前記最小値を下回るとき
には前記最小値を更新することを特徴とする移動物体の
認識方法。 - 【請求項2】 前記前フレーム画像に最初に前記参照画
像領域を設定する際に、前記前フレーム画像中において
自車速と同じ大きさの相対速度で移動する風景部分に設
定し、前記前フレーム画像から前記所定時間後の前記現
在フレーム画像中には、自車速に応じた量だけ所定の前
記探索ラインを前記無限遠点に向かう方向に移動した位
置に前記参照画像領域を設定することを特徴とする請求
項1に記載の移動物体の認識方法。 - 【請求項3】 前記前フレーム画像に最初に前記参照画
像領域を設定する際に、前記前フレーム画像中において
自車速に対してある相対速度で移動する移動部分に設定
し、前記前フレーム画像から前記所定時間後の前記現在
フレーム画像中には、自車速に対する相対速度に応じた
量だけ所定の前記探索ラインに沿って移動した位置に前
記参照画像領域を設定し、前記自車に対する相対速度が
自車速よりも大きいかどうかにより、前記現在フレーム
画像に設定すべき前記参照画像領域の位置を前記探索ラ
インに沿って前記無限遠点から離れる方向にするかその
反対方向にするかを決定するすることを特徴とする請求
項1に記載の移動物体の認識方法。 - 【請求項4】 前記無限遠点付近では前記計算点の数を
密にし、前記撮像手段付近では前記計算点の数を粗にす
ることを特徴とする請求項1または2に記載の移動物体
の認識方法。 - 【請求項5】 前記各計算点について、前記現在フレー
ム画像においてマッチングにより得られたオプティカル
フローの方向を保持しておき、前記次フレーム画像で
は、その保持したオプティカルフローの方向から探索を
開始することを特徴とする請求項1ないし4のいずれか
に記載の移動物体の認識方法。 - 【請求項6】 前記撮像手段と同じ方向を観測する距離
検出手段を設け、前記距離検出手段により、前記累積和
の最小値を与える前記計算点を定めるための基準となる
反射点を特定することを特徴とする請求項1ないし5の
いずれかに記載の移動物体の認識方法。 - 【請求項7】 前記距離検出手段が、レーザ光をその照
射方向と直交方向に走査しつつ照射し、反射光を観測す
るまでの時間を計測して反射点までの距離を検出するス
キャンレーザレーダであり、前記スキャンレーザレーダ
の走査時間が前記所定時間に設定されていることを特徴
とする請求項6に記載の移動物体の認識方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001290759A JP3969984B2 (ja) | 2001-09-25 | 2001-09-25 | 移動物体の認識方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001290759A JP3969984B2 (ja) | 2001-09-25 | 2001-09-25 | 移動物体の認識方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2003099784A true JP2003099784A (ja) | 2003-04-04 |
JP3969984B2 JP3969984B2 (ja) | 2007-09-05 |
Family
ID=19113016
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001290759A Expired - Fee Related JP3969984B2 (ja) | 2001-09-25 | 2001-09-25 | 移動物体の認識方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3969984B2 (ja) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007233440A (ja) * | 2006-02-27 | 2007-09-13 | Omron Corp | 車載用画像処理装置 |
JP2012038031A (ja) * | 2010-08-05 | 2012-02-23 | Kyushu Institute Of Technology | 移動体の前方への飛出し物体の検出方法及びその装置 |
JP2013512150A (ja) * | 2009-11-25 | 2013-04-11 | コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツング | 走行する車両における横揺れ角を評価する方法 |
JP2018092547A (ja) * | 2016-12-07 | 2018-06-14 | キヤノン株式会社 | 画像処理装置、画像処理方法およびプログラム |
CN109952857A (zh) * | 2019-04-22 | 2019-07-02 | 山东交通学院 | 一种能自动完成割草作业的果园割草机及方法 |
CN113075716A (zh) * | 2021-03-19 | 2021-07-06 | 地平线(上海)人工智能技术有限公司 | 基于图像的车辆定位方法和装置、存储介质以及电子设备 |
JP2022185089A (ja) * | 2017-01-26 | 2022-12-13 | モービルアイ ビジョン テクノロジーズ リミテッド | 整合画像及びlidar情報に基づいた車両ナビゲーション |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0750769A (ja) * | 1993-08-06 | 1995-02-21 | Yazaki Corp | 車両用後側方監視方法 |
JPH1049681A (ja) * | 1996-05-31 | 1998-02-20 | Nec Corp | 画像の位置合わせ方法 |
JP2000251199A (ja) * | 1999-03-01 | 2000-09-14 | Yazaki Corp | 車両用後側方監視装置 |
-
2001
- 2001-09-25 JP JP2001290759A patent/JP3969984B2/ja not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0750769A (ja) * | 1993-08-06 | 1995-02-21 | Yazaki Corp | 車両用後側方監視方法 |
JPH1049681A (ja) * | 1996-05-31 | 1998-02-20 | Nec Corp | 画像の位置合わせ方法 |
JP2000251199A (ja) * | 1999-03-01 | 2000-09-14 | Yazaki Corp | 車両用後側方監視装置 |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007233440A (ja) * | 2006-02-27 | 2007-09-13 | Omron Corp | 車載用画像処理装置 |
JP2013512150A (ja) * | 2009-11-25 | 2013-04-11 | コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツング | 走行する車両における横揺れ角を評価する方法 |
JP2012038031A (ja) * | 2010-08-05 | 2012-02-23 | Kyushu Institute Of Technology | 移動体の前方への飛出し物体の検出方法及びその装置 |
JP2018092547A (ja) * | 2016-12-07 | 2018-06-14 | キヤノン株式会社 | 画像処理装置、画像処理方法およびプログラム |
JP2022185089A (ja) * | 2017-01-26 | 2022-12-13 | モービルアイ ビジョン テクノロジーズ リミテッド | 整合画像及びlidar情報に基づいた車両ナビゲーション |
US11953599B2 (en) | 2017-01-26 | 2024-04-09 | Mobileye Vision Technologies Ltd. | Vehicle navigation based on aligned image and LIDAR information |
JP7509501B2 (ja) | 2017-01-26 | 2024-07-02 | モービルアイ ビジョン テクノロジーズ リミテッド | 整合画像及びlidar情報に基づいた車両ナビゲーション |
CN109952857A (zh) * | 2019-04-22 | 2019-07-02 | 山东交通学院 | 一种能自动完成割草作业的果园割草机及方法 |
CN109952857B (zh) * | 2019-04-22 | 2024-04-05 | 山东交通学院 | 一种能自动完成割草作业的果园割草机及方法 |
CN113075716A (zh) * | 2021-03-19 | 2021-07-06 | 地平线(上海)人工智能技术有限公司 | 基于图像的车辆定位方法和装置、存储介质以及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
JP3969984B2 (ja) | 2007-09-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3861781B2 (ja) | 前方車両追跡システムおよび前方車両追跡方法 | |
US6956469B2 (en) | Method and apparatus for pedestrian detection | |
JP5472538B2 (ja) | 距離計測装置及び環境地図生成装置 | |
US20040057599A1 (en) | Image processing apparatus and method | |
JP2002352225A (ja) | 障害物検出装置及びその方法 | |
JP4407920B2 (ja) | 障害物認識方法及び障害物認識装置 | |
JP2005300315A (ja) | 物体検出装置 | |
JP2009041972A (ja) | 画像処理装置及びその方法 | |
JP2003296736A (ja) | 障害物検知装置及びその方法 | |
JP2006252473A (ja) | 障害物検出装置、キャリブレーション装置、キャリブレーション方法およびキャリブレーションプログラム | |
JP2003098424A (ja) | 画像処理測距装置 | |
EP3324359B1 (en) | Image processing device and image processing method | |
JP4102885B2 (ja) | 駐車車両検知方法及び駐車車両検知システム | |
JPH09226490A (ja) | 横断物の検出装置 | |
JP4032843B2 (ja) | 監視システムおよび監視方法、当該監視システムにおける距離補正装置および距離補正方法 | |
JP2016004446A (ja) | 動き推定装置 | |
JP3656056B2 (ja) | 割り込み車両検出装置及びその方法 | |
JP2009098025A (ja) | 物体検出装置 | |
JP2003304561A (ja) | ステレオ画像処理装置 | |
JP2000293693A (ja) | 障害物検出方法および装置 | |
JP2003077099A (ja) | 先行車両認識装置 | |
JPH1144533A (ja) | 先行車両検出装置 | |
JP2007233440A (ja) | 車載用画像処理装置 | |
JP3969984B2 (ja) | 移動物体の認識方法 | |
JP2004069583A (ja) | 画像処理装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040913 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20061121 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20061212 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070115 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20070227 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070315 |
|
A911 | Transfer of reconsideration by examiner before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20070424 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070605 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070605 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100615 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120615 Year of fee payment: 5 |
|
LAPS | Cancellation because of no payment of annual fees |