JP2001147117A - 距離検出装置 - Google Patents
距離検出装置Info
- Publication number
- JP2001147117A JP2001147117A JP33104399A JP33104399A JP2001147117A JP 2001147117 A JP2001147117 A JP 2001147117A JP 33104399 A JP33104399 A JP 33104399A JP 33104399 A JP33104399 A JP 33104399A JP 2001147117 A JP2001147117 A JP 2001147117A
- Authority
- JP
- Japan
- Prior art keywords
- image
- block
- similar
- parallax
- correlation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Abstract
対象物像の対応関係を正しく把握して正確な視差を算出
し、距離検出精度を向上させるとともに、従来に比べて
演算量をより低減することができる距離検出装置を提供
する。 【解決手段】 左画像内の類似対象物を探索し、複数の
類似対象物が存在するときは、それらを包含するクラス
タリングブロックを設定する。右画像内から対応するブ
ロックをSAD法により抽出し、左画像内のクラスタリ
ングブロックと、右画像から抽出したブロックとの相関
性を示す相関値ERRが、所定値ERRTH以下であっ
て高い相関性を示すときは、クラスタリングブロックに
含まれる複数の対象物を単一対象物とみなして視差を算
出する。
Description
り得られる2つの画像から対象物の視差を算出し、その
視差に基づいて対象物までの距離を検出する距離検出装
置に関する。
像に基づいて、画像内に含まれる対象物までの距離を検
出するための手法は従来より知られているが、例えば図
12に示すように画像内に形状の類似する対象物が複数
存在すると、2つの画像、すなわち左画像及び右画像に
含まれる対象物の対応関係を誤認識して、視差を算出
し、誤った距離を検出する可能性がある。図12におい
て、左画像中の対象物OBJ1,OBJ2及び及びOB
J3は、それぞれ右画像中の対象物OBJ1,OBJ2
及びOBJ3に対応するが、例えば左画像中の対象物O
BJ1に対応する右画像中の対象物(以下「対応対象
物」という)を特定するために、左画像中の対象物OB
J1を含む矩形ブロックB1Lを設定してこれとマッチ
ングのとれる矩形ブロックを、右画像中の探索領域RS
内で探索すると、正しい矩形ブロックB1Rではなく、
矩形ブロックB2Rを、対応対象物を含む矩形ブロック
として抽出し、視差の誤検出、したがって距離の誤検出
が発生する可能性がある。なお、対応する画像ブロック
の探索には、例えば対応する画素同士の輝度値の差(絶
対値)の合計が最小となるブロックを対応ブロックとし
て抽出するSAD(Sum ofAbsolute Difference)法が
用いられる。
囲状況の監視に使用する場合には、図13に示すよう
に、信号機のライト部101、道路標識102、電柱1
03、前走車のテールランプ104などの類似対象物が
数多く存在するため、上述したような誤検出を防止する
ことは重要である。
手法として、特開平7−152914号公報に示された
ものが知られている。この手法は、画像中の類似対象物
の配置(順序)が2つ画像内で同一であるという仮定を
用いて、2つの画像に含まれる対象物の対応づけを行う
ものである。
開平7−152914号公報に示された手法では、対象
物の視差算出と同時に、画像内の類似対象物を相関演算
により探索し、後処理で視差の修正を行っているため、
距離検出装置に使用する演算装置の演算量が非常に多く
なる場合があった。そのため、装置を車両に搭載して周
囲状況の監視を行う場合などでは、演算速度の高い高価
な演算装置を使用する必要が生じ、コストを増加させる
主要因となる。
あり、2つ撮像装置により得られる画像に含まれる対象
物像の対応関係を正しく把握して正確な視差を算出し、
距離検出精度を向上させるとともに、従来に比べて演算
量をより低減することができる距離検出装置を提供する
ことを目的とする。
請求項1に記載の発明は、2つの撮像手段によって得ら
れる2つの画像に基づいて対象物の視差を算出し、該視
差から前記対象物までの距離を検出する距離検出装置に
おいて、前記画像に含まれる類似対象物を抽出する類似
対象物抽出手段と、複数の類似対象物が抽出されたとき
に、該複数の類似対象物を類似対象物群としてまとめ
(クラスタ化し)、前記2つの画像にそれぞれ含まれる
前記類似対象物群の相関性を示す相関性パラメータを算
出し、該相関性パラメータが、所定閾値以上の高い相関
性を示すときは、前記類似対象物群を単一対象物とみな
して視差を算出する視差算出手段とを備えることを特徴
とする。
る画像に含まれる類似対象物が抽出され、複数の類似対
象物が抽出されたときに、該複数の類似対象物が類似対
象物群としてまとめられ、2つの画像にそれぞれ含まれ
る類似対象物群の相関性を示す相関性パラメータが算出
され、該相関性パラメータが、所定閾値以上の高い相関
性を示すときは、類似対象物群を単一対象物とみなして
視差が算出されるので、距離がほぼ同一の複数の類似対
象物については、対応関係を誤って視差を算出すること
が防止されるとともに、視差算出処理が1回で済み、演
算量を低減することができる。
タが、所定閾値以上の高い相関性を示さないときは、前
記類似対象物群に含まれる対象物をそれぞれ別個の対象
物として視差を算出する。その際、前記類似対象物群に
ついて算出した視差を参照することが望ましい。これに
より、別個の対象物として視差を算出する際の演算量を
低減することができる。
輝度値を二値化したデータを用いて類似対象物を抽出す
ることが望ましい。より具体的には、前記類対象物抽出
手段は、二値化したデータを用いて算出した対象物の面
積、外接四角形の縦横比及び重心位置に基づいて類似す
るか否かの判定を行い、類似対象物の抽出を行う。
ーラ線近傍で類似対象物の探索を行うことが望ましい。
参照して説明する。図1は本発明の一実施形態にかかる
距離検出装置を含む、車両の周辺監視装置の構成を示す
図であり、この装置は、遠赤外線を検出可能な2つの赤
外線カメラ1R,1Lと、当該車両のヨーレートを検出
するヨーレートセンサ5と、当該車両の走行速度(車
速)VCARを検出する車速センサ6と、ブレーキの操
作量を検出するためのブレーキセンサ7と、これらのカ
メラ1R,1Lによって得られる画像データの基づいて
車両前方の動物等の対象物を検出し、衝突の可能性が高
い場合に警報を発する画像処理ユニット2と、音声で警
報を発するためのスピーカ3と、カメラ1Rまたは1L
によって得られる画像を表示するとともに、衝突の可能
性が高い対象物を運転者に認識させるためのヘッドアッ
プディスプレイ(以下「HUD」という)4とを備えて
いる。
両10の前部に、車両10の横方向の中心軸に対してほ
ぼ対象な位置に配置されており、2つのカメラ1R、1
Lの光軸が互いに平行となり、両者の路面からの高さが
等しくなるように固定されている。赤外線カメラ1R、
1Lは、対象物の温度が高いほど、その出力信号レベル
が高くなる(輝度が増加する)特性を有している。
をディジタル信号に変換するA/D変換回路、ディジタ
ル化した画像信号を記憶する画像メモリ、各種演算処理
を行うCPU(Central Processing Unit)、CPUが
演算途中のデータを記憶するために使用するRAM(Ra
ndom Access Memory)、CPUが実行するプログラムや
テーブル、マップなどを記憶するROM(Read Only Me
mory)、スピーカ3の駆動信号、HUD4の表示信号な
どを出力する出力回路などを備えており、カメラ1R,
1L及びセンサ5〜7の出力信号は、ディジタル信号に
変換されて、CPUに入力されるように構成されてい
る。
のフロントウインドウの、運転者の前方位置に画面4a
が表示されるように設けられている。図3は画像処理ユ
ニット2における処理の手順を示すフローチャートであ
り、先ずカメラ1R、1Lの出力信号をA/D変換して
画像メモリに格納する(ステップS11,S12,S1
3)。画像メモリに格納される画像は、輝度情報を含ん
だグレースケール画像である。図4(a)(b)は、そ
れぞれはカメラ1R,1Lによって得られるグレースケ
ール画像(カメラ1Rにより右画像が得られ、カメラ1
Lにより左画像が得られる)を説明するための図であ
り、ハッチングを付した領域は、中間階調(グレー)の
領域であり、太い実線で囲んだ領域が、輝度レベルが高
く(高温で)、画面上に白色として表示される対象物の
領域(以下「高輝度領域」という)である。右画像と左
画像では、同一の対象物の画面上の水平位置がずれて表
示されるので、このずれ(視差)によりその対象物まで
の距離を算出することができる。
画像とし、その画像信号の2値化、すなわち、実験的に
決定される輝度閾値ITHより明るい領域を「1」
(白)とし、暗い領域を「0」(黒)とする処理を行
う。図5に図4(a)の画像を2値化した画像を示す。
この図は、ハッチングを付した領域が黒であり、太い実
線で囲まれた高輝度領域が白であることを示している。
データをランレングスデータに変換する処理を行う。図
6(a)はこれを説明するための図であり、この図では
2値化により白となった領域を画素レベルでラインL1
〜L8として示している。ラインL1〜L8は、いずれ
もy方向には1画素の幅を有しており、実際にはy方向
には隙間なく並んでいるが、説明のために離間して示し
ている。またラインL1〜L8は、x方向にはそれぞれ
2画素、2画素、3画素、8画素、7画素、8画素、8
画素、8画素の長さを有している。ランレングスデータ
は、ラインL1〜L8を各ラインの開始点(各ラインの
左端の点)の座標と、開始点から終了点(各ラインの右
端の点)までの長さ(画素数)とで示したものである。
例えばラインL3は、(x3,y5)、(x4,y5)
及び(x5,y5)の3画素からなるので、ランレング
スデータとしては、(x3,y5,3)となる。なお、
以下の説明においても、カメラ1R、1Lにより得られ
る画像内の長さ(視差)は画素を単位とする。
に示すように対象物のラベリングをすることにより、対
象物を抽出する処理を行う。すなわち、ランレングスデ
ータ化したラインL1〜L8のうち、y方向に重なる部
分のあるラインL1〜L3を1つの対象物OBJ1とみ
なし、ラインL4〜L8を1つの対象物OBJ2とみな
し、ランレングスデータに対象物ラベルOBJ1,2を
付加する。この処理により、例えば図5に示す高輝度領
域が、それぞれ対象物OBJ1からOBJ4として把握
されることになる。
に、抽出した対象物の面積重心G、面積S及び破線で示
すように対象物に外接する外接四角形の縦横比ASPE
CTを算出する。面積Sは、ランレングスデータの長さ
を同一対象物について積算することにより算出し、面積
重心Gの座標は、面積Sをx方向に2等分する線のx座
標及びy方向に2等分する線のy座標として算出し、縦
横比APECTは、図6(c)に示すDyとDxとの比
Dy/Dxとして算出する。なお、面積重心Gの位置
は、外接四角形の重心位置で代用してもよい。
態では左画像)に含まれる対象物の中から互いに類似す
る類似対象物を探索し、複数の類似対象物が抽出された
ときには、その類似対象物をひとまとめにして(クラス
タ化して)、右画像中の対応対象物を探索するためのク
ラスタリングブロックの設定を行う。
対象物OBJ1〜OBJ3が存在する場合に、先ず対象
物OBJ1に類似する類似対象物を、対象物OBJ1の
エピポーラ線LEP近傍において探索すると、対象物O
BJ2が類似対象物として抽出される。次にこれら2つ
の類似対象物OBJ1,OBJ2を含む矩形ブロック
(以下複数の対象物を含む矩形ブロックを「クラスタリ
ングブロック」という)B1Lを設定する。また対象物
OBJ3については、類似対象物がないので、対象物O
BJ3のみを含む矩形ブロックB3Lを設定する。ここ
で「エピポーラ線」とは、カメラ1R、1Lによって得
られる画像の仮想的な2つの視点と、対象物の面積重心
とを含む平面と、カメラ1R、1Lの撮像面との交線で
ある。
タを用いて以下の条件1)〜3)を満たす対象物を探索
することにより行う。 1)対象物OBJi(i=1,2,3,…)の画像上で
の面積をSiとし、対象物OBJj(j=1,2,3,
…≠i)の画像上での面積をSjとしたとき、 Sj/Si<1±ΔS であること。ただし、ΔSは面積比率の許容値(例えば
0.2)である。
をASPECTiとし、対象物OBJjの外接四角形の
縦横比をASPECTjとしたとき、 ASPECTj/ASPECTi<1±ΔASPECT であること。ただし、ΔASPECTは縦横比比率の許
容値(例えば0.2)である。
(面積重心位置座標)を、それぞれ(xi,yi)と
し、対象物OBJjの画像上での重心位置座標を、(x
j,yj)としたとき、 |xj−xi|<Δx |yj−yi|<Δy であること。ただし、Δx、Δyは、それぞれx方向及
びy方向の画像上の位置の許容値であり、Δxは例えば
基準とする対象物OBJiの横幅のKx倍(例えば5)
とし、Δyは対象物OBJiの高さのKy倍(例えば
2)とする。
の処理は、2値化した基準画像(本実施形態では、左画
像)ついて実行する。続くステップS20では、左画像
中のブロックB1L、B3Lを探索画像として、右画像
中に探索領域を設定し、相関演算を実行してブロックB
1L,B3Lに対応するブロックを抽出する。クラスタ
リングブロックB1Lを例にとると、図8(a)に示す
ブロックB1Lの各頂点座標に応じて右画像中に同図
(b)に示すように、探索領域RSを設定し、探索領域
RS内でブロックB1Lとの相関の高さを示す相関値E
RR(a,b)を下記式(1)により算出し、この相関
値ERR(a,b)が最小となる領域を対応ブロックと
して抽出する。なお、この相関演算は、2値画像ではな
くグレースケール画像を用いて行う。
ロックB1L内の座標(m,n)の位置の輝度値であ
り、IR(a+m−M,b+n−N)は、探索領域RS
内の座標(a,b)を基点とした、ブロックB1Lと同
一形状のブロックB1R内の座標(m,n)の位置の輝
度値である。基点の座標(a,b)を変化させて相関値
ERR(a,b)が最小となる位置を求めることによ
り、対応ブロックの位置が特定される。また探索領域R
Sは、図8に示すように、例えばy方向の高さHRSを
クラスタリングブロックB1Lの高さHの2倍程度と
し、x方向の幅WRSを距離zが小さい位置から、距離
検出可能領域の最遠点(最も距離の大きい点)の位置ま
でを含むように設定される。すなわち、図8(b)に示
すΔLminは、検知可能な視差の最小値(最小視差)
であり、使用するカメラ1R、1Lの特性や、取り付け
精度などで決まる。
た対応ブロックB1Rが示されており、視差Δd1が求
められる。図8では省略されているが、対象物OBJ3
を含むブロックB3Lについても同様にして右画像中の
対応ブロックの位置が特定され、視差が算出される。
ブロックB1Lについて算出された相関値ERRが、所
定値ERRTHより大きいか否かを判別し、ERR≦E
RRTHであって左画像中のブロックと、右画像中の対
応するブロックとの相関性が高いときは、クラスタリン
グブロックB1Lに含まれる対象物がほぼ同一の距離に
位置すると判定して、このブロックB1Lについて求め
られた視差Δd1を、このブロックB1Lに含まれる各
対象物OBJ1,OBJ2に対応する視差とする(ステ
ップS22)。すなわち、対象物OBJ1,OBJ2の
視差をそれぞれΔdOBJ1,ΔdOBJ2とすると、
ΔdOBJ1=ΔdOBJ2=Δd1とする。なお、対
象物OBJ3のみを含むブロックB3Lについての相関
値ERRは、マッチングがとれれば(右画像中から対応
ブロックを抽出できれば)、所定閾値ERRTH以下と
なるので、ステップS20で算出した視差がそのまま採
用される。
であって相関性が低いときは、例えば図10に示すよう
に、クラスタリングブロックB1Lに含まれる対象物O
BJ1,OBJ2の距離が離れていることを示すので、
クラスタリング(クラスタ化)を解除し、各対象物ごと
に矩形ブロックを設定して、視差の更新を行う(ステッ
プS24)。
図10(a)(b)に示すように、左画像中にブロック
B11Lを設定するとともに、右画像中に探索領域RS
1を設定する。ここで、探索領域RS1の高さは、クラ
スタリングブロックB1Lの探索領域RSと同一とし、
探索領域RS1の右端は探索領域RSの右端と一致させ
る、すなわち距離検出可能領域の最遠点に対応する位置
とし、探索領域RS1の左端は、クラスタリングブロッ
クB1Rの右端から幅ΔWRSだけずれた位置とする。
なお、幅ΔWRSは、最初クラスタリングブロックB1
Lの幅Wの1/2とし、探索の結果対応ブロックが存在
しなかったときは、クラスタリングブロックB1Lの探
索領域RSのWRSと等しくして再度探索を行う。探索
の結果特定された対応ブロックB11Rの位置から、視
差の修正量d11を算出し、対象物OBJ1の視差Δd
OBJ1=Δd1+d11に更新する。
(c)(d)に示すように、左画像中にブロックB12
Lを設定するとともに、右画像中に探索領域RS2を設
定する。ここで、探索領域RS2の高さは、クラスタリ
ングブロックB1Lの探索領域RSと同一とし、探索領
域RS2の右端は探索領域RS1の左端と一致させる、
すなわちクラスタリングブロックB1Rの右端からΔW
RSだけずれた位置とし、探索領域RS2の左端は、探
索領域RSの左端と一致させる。探索を実行し、図10
(d)に示した探索領域RS2内に対応ブロックが存在
しなかったときは、探索領域RS2の右端をクラスタリ
ングブロックB1Lの探索領域RSの右端に一致させて
再度探索を行う。
Rの位置から、視差の修正量d12を算出し、対象物O
BJ2の視差ΔdOBJ2=Δd1+d12に更新す
る。なお、図10(d)に示す例では、修正量d12
は、負の値となっている。続くステップS25では、ス
テップS22またはステップS24で算出した視差を下
記式(2)のΔdとして適用し、距離zを算出する。
ラ1Rの撮像素子11Rの中心位置と、カメラ1Lの撮
像素子11Lの中心位置との水平方向(x方向)の距離
(両カメラの光軸の間隔)、Fはレンズ12R、12L
の焦点距離、pは、撮像素子11R、11L内の画素間
隔である。
(左画像)内で類似対象物を抽出し、複数の類似対象物
(類似対象物群)が抽出されたときは、それら類似対象
物を包含するクラスタリングブロックを設定し、基準画
像と対をなす画像(右画像)内から対応するブロックを
SAD法(絶対差合計法)により抽出し、基準画像内の
クラスタリングブロックと、右画像から抽出したブロッ
クとの相関性を示す相関値ERRを算出し、その相関値
ERRが、所定値ERRTH以下であって所定閾値以上
の高い相関性を示すときは、クラスタリングブロックに
含まれる複数の対象物(類似対象物群)を単一対象物と
みなして視差を算出するようにしたので、距離がほぼ同
一の複数の類似対象物については、対応関係を誤って視
差を算出することが防止されるとともに、視差算出処理
が1回で済み、演算量を低減することができる。
低いとき(ERR>ERRTHであるとき)は、そのク
ラスタリングブロックに含まれる各対象物毎に矩形ブロ
ックを設定し、右画像中の対応するブロックを探索する
際に、既に算出されているクラスタリングブロックの視
差Δd1を参照するようにしたので、探索領域の設定を
適切に行うことができ、この点も演算量の低減に貢献す
る。
ル画像データではなく、2値化された画像データを用い
ることにより、さらに演算量を低減することが可能とな
る。画像処理ユニット2は、図3の処理により算出され
た対象物までの距離と、対象物の他の位置情報(自車両
10の進行方向に対して垂直な水平方向及び高さ方向の
座標)とに基づいて、その対象物と自車両10との衝突
の可能性を判定し、衝突の可能性が高いときは、スピー
カ3及びHUD4を介して運転者への警報を発する。
が撮像手段に相当し、画像処理ユニット2が距離検出装
置を構成する。具体的には、図3のステップS18、S
19が類似対象物抽出手段に相当し、同図のステップS
20〜S24が視差算出手段に相当し、相関値ERRが
相関性パラメータに相当する。なお、相関値ERRはそ
の値が減少するほど相関性が高いことを示すので、相関
値ERRが所定値ERRTH以下である場合が、「所定
閾値以上の高い相関性を示す場合」に相当する。
ではなく、種々の変形が可能である。例えば、上述した
実施形態では、1つの画像内にクラスタリングブロック
が1つ設定される例を示したが、クラスタリングブロッ
クが2以上設定される場合も、各クラスタリングブロッ
クについて同様の処理を繰り返すようにすればよい。
が、通常の可視光線のみ検出可能なテレビカメラなどを
使用してもよい。また、2つの撮像手段は、離間して配
置されていればよく、図2に示した配置に限定されるも
のではない。
像手段により得られる画像に含まれる類似対象物が抽出
され、複数の類似対象物が抽出されたときに、該複数の
類似対象物が類似対象物群としてまとめられ、2つの画
像にそれぞれ含まれる類似対象物群の相関性を示す相関
性パラメータが算出され、該相関性パラメータが、所定
閾値以上の高い相関性を示すときは、類似対象物群を単
一対象物とみなして視差が算出されるので、距離がほぼ
同一の複数の類似対象物については、対応関係を誤って
視差を算出することが防止されるとともに、視差算出処
理が1回で済み、演算量を低減することができる。
成を示すブロック図である。
めの図である。
の手順を示すフローチャートである。
像を説明するために、中間階調部にハッチングを付して
示す図である。
るために、黒の領域をハッチングを付して示す図であ
る。
グを説明するための図である。
の設定を説明するための図である。
るための図である。
る。
似対象物を含む例を説明するための図である。
の図である。
である。
る。
手段)
Claims (1)
- 【請求項1】 2つの撮像手段によって得られる2つの
画像に基づいて対象物の視差を算出し、該視差から前記
対象物までの距離を検出する距離検出装置において、 前記画像に含まれる類似対象物を抽出する類似対象物抽
出手段と、 複数の類似対象物が抽出されたときに、該複数の類似対
象物を類似対象物群としてまとめ、前記2つの画像にそ
れぞれ含まれる前記類似対象物群の相関性を示す相関性
パラメータを算出し、該相関性パラメータが、所定閾値
以上の高い相関性を示すときは、前記類似対象物群を単
一対象物とみなして視差を算出する視差算出手段とを備
えることを特徴とする距離検出装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP33104399A JP4162817B2 (ja) | 1999-11-22 | 1999-11-22 | 距離検出装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP33104399A JP4162817B2 (ja) | 1999-11-22 | 1999-11-22 | 距離検出装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2001147117A true JP2001147117A (ja) | 2001-05-29 |
JP4162817B2 JP4162817B2 (ja) | 2008-10-08 |
Family
ID=18239209
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP33104399A Expired - Fee Related JP4162817B2 (ja) | 1999-11-22 | 1999-11-22 | 距離検出装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4162817B2 (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006322795A (ja) * | 2005-05-18 | 2006-11-30 | Olympus Corp | 画像処理装置、画像処理方法および画像処理プログラム |
JP2007131178A (ja) * | 2005-11-10 | 2007-05-31 | Sumitomo Electric Ind Ltd | 障害物位置特定システム |
JP2008048386A (ja) * | 2006-08-17 | 2008-02-28 | Pixart Imaging Inc | 三次元立体データを生成するインタラクティブシステム |
JP2013116736A (ja) * | 2004-07-26 | 2013-06-13 | Automotive Systems Lab Inc | 道路使用弱者保護システム |
JP2013196682A (ja) * | 2012-03-16 | 2013-09-30 | Nec (China) Co Ltd | 人の集団検出方法、及び人の集団検出装置 |
-
1999
- 1999-11-22 JP JP33104399A patent/JP4162817B2/ja not_active Expired - Fee Related
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013116736A (ja) * | 2004-07-26 | 2013-06-13 | Automotive Systems Lab Inc | 道路使用弱者保護システム |
US9330321B2 (en) | 2004-07-26 | 2016-05-03 | Tk Holdings, Inc. | Method of processing an image of a visual scene |
JP2006322795A (ja) * | 2005-05-18 | 2006-11-30 | Olympus Corp | 画像処理装置、画像処理方法および画像処理プログラム |
JP2007131178A (ja) * | 2005-11-10 | 2007-05-31 | Sumitomo Electric Ind Ltd | 障害物位置特定システム |
JP2008048386A (ja) * | 2006-08-17 | 2008-02-28 | Pixart Imaging Inc | 三次元立体データを生成するインタラクティブシステム |
US8605987B2 (en) | 2006-08-17 | 2013-12-10 | Pixart Imaging Incorporation | Object-based 3-dimensional stereo information generation apparatus and method, and interactive system using the same |
JP2013196682A (ja) * | 2012-03-16 | 2013-09-30 | Nec (China) Co Ltd | 人の集団検出方法、及び人の集団検出装置 |
Also Published As
Publication number | Publication date |
---|---|
JP4162817B2 (ja) | 2008-10-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3515926B2 (ja) | 車両の周辺監視装置 | |
JP4615139B2 (ja) | 車両の周辺監視装置 | |
JP3760068B2 (ja) | 画像認識装置 | |
JP3764086B2 (ja) | 車両用情報提供装置 | |
JP4930046B2 (ja) | 路面判別方法および路面判別装置 | |
JP3739693B2 (ja) | 画像認識装置 | |
WO2010047054A1 (ja) | 車両の周辺監視装置 | |
US20030007074A1 (en) | Vehicle zone monitoring apparatus | |
JP4334686B2 (ja) | 車両の画像表示装置 | |
JPH06107096A (ja) | 車両用前方監視方法 | |
JP2012185540A (ja) | 画像処理装置、画像処理方法、及び画像処理プログラム | |
JP2001169310A (ja) | 距離検出装置 | |
JP3910345B2 (ja) | 位置検出装置 | |
JP2007316856A (ja) | 移動体検出装置、コンピュータプログラム及び移動体検出方法 | |
JP4128562B2 (ja) | 車両周辺監視装置 | |
JP3919975B2 (ja) | 車両の周辺監視装置 | |
JP3808287B2 (ja) | 位置検出装置 | |
JP4162817B2 (ja) | 距離検出装置 | |
JP2004126905A (ja) | 画像処理装置 | |
JP3936313B2 (ja) | 画像認識装置 | |
JP2008165595A (ja) | 障害物検出方法、障害物検出装置、障害物検出システム | |
JP3949628B2 (ja) | 車両の周辺監視装置 | |
JP4567072B2 (ja) | 車両周辺監視装置 | |
JP2009077022A (ja) | 運転支援システム及び車両 | |
JP2006155389A (ja) | 車両周辺監視装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20051205 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20071002 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20071121 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080401 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080513 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080708 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080723 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110801 Year of fee payment: 3 |
|
R150 | Certificate of patent (=grant) or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110801 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120801 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120801 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130801 Year of fee payment: 5 |
|
LAPS | Cancellation because of no payment of annual fees |