JP3739693B2 - 画像認識装置 - Google Patents

画像認識装置 Download PDF

Info

Publication number
JP3739693B2
JP3739693B2 JP2001345105A JP2001345105A JP3739693B2 JP 3739693 B2 JP3739693 B2 JP 3739693B2 JP 2001345105 A JP2001345105 A JP 2001345105A JP 2001345105 A JP2001345105 A JP 2001345105A JP 3739693 B2 JP3739693 B2 JP 3739693B2
Authority
JP
Japan
Prior art keywords
image
distance
determination
parallax
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001345105A
Other languages
English (en)
Other versions
JP2003150938A (ja
Inventor
伸治 長岡
孝之 辻
弘 服部
考造 嶋村
正人 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2001345105A priority Critical patent/JP3739693B2/ja
Priority to US10/286,541 priority patent/US7158664B2/en
Priority to DE10251880A priority patent/DE10251880B4/de
Publication of JP2003150938A publication Critical patent/JP2003150938A/ja
Application granted granted Critical
Publication of JP3739693B2 publication Critical patent/JP3739693B2/ja
Priority to US11/554,292 priority patent/US7474765B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/182Network patterns, e.g. roads or rivers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Measurement Of Optical Distance (AREA)
  • Traffic Control Systems (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

【0001】
【発明の属する技術分野】
この発明は、対象物の距離を2台の撮像手段により得られた2眼立体視画像から算出する画像認識装置に関する。
【0002】
【従来の技術】
従来、歩行者等の走行路上の障害物を車両の運転者に通知するために、車両の前方に搭載された1つあるいは複数のカメラの画像を運転席から目視可能な位置に表示し、運転者の前方視界を補助するものや、カメラの画像から自車両との接触の可能性がある障害物を検出し、車両側の自動回避動作等を行うものがある。ここで、運転者に表示される画像は、例えば自車両のコンソールに設置されるNAVIDisplayやフロントウィンドウの運転者の前方視界を妨げない位置に情報を表示するHUD(Head Up Display )、更には自車両の走行状態を数字で表すメータと一体化されたメータ一体Display等の画像表示装置に表示される。また、車両側の自動回避動作は、車両の各部を操作するために備えられた各種アクチュエータを自動制御することにより行われる。
【0003】
更に、このように車両の周辺の環境をカメラによって撮影し、撮影された画像から自車両との接触の可能性がある障害物を検出する装置としては、例えば特開平6−266828号公報に示すようなものが知られている。この装置では、2台のカメラで撮影した画像を処理して画像全体に渡る距離分布の情報を求め、更に距離分布の情報に対応する対象物の3次元位置情報を計算することで、道路の形状と側壁等の障害物を容易に、かつ確実に検出している。これにより、複数の障害物の存在を障害物毎に認識し、車両の運転者に警告したり、車両側の自動回避動作等を信頼性高く行うことができる。
【0004】
【発明が解決しようとする課題】
しかし、上述のような従来の装置では、画像全体に渡る距離分布を求める場合に、画像全体を決められた大きさの領域に分割し、該領域毎に距離分布を求めているため、対象物の大きさに対する領域の大きさが固定となり、処理の効率が悪いという問題があった。
すなわち、画像全体の大きさに対して、撮影された対象物の占める割合が大きい場合、対象物までの距離は対象物1つについて1つ求まれば良いので、対象物を必要以上に細かく分割して距離分布を求めると、処理の効率が悪く、距離分布全てを計算して対象物までの距離が算出されるまでに時間がかかるという問題があった。
【0005】
本発明は、上記課題に鑑みてなされたもので、カメラにより撮影された画像上の対象物の大きさを考慮しつつ、その視差から異なる物体の重なりの有無を判断し、重なっている場合はそれぞれの物体までの距離を独立して算出する画像認識装置を提供することを目的とする。
【0006】
【課題を解決するための手段】
上記課題を解決するために、請求項1の発明に係わる画像認識装置は、2台の撮像手段により得られるそれぞれの画像から対象物の視差を測定し、該視差に基づき前記対象物までの距離を算出する画像認識装置において、前記対象物を包含する高さを有すると共に前記対象物の左右のエッジをそれぞれ独立して含む判定領域を設定し、それぞれの判定領域の視差を測定して比較することで異なる物体の重なりの有無を判断する画像判定手段(例えば実施の形態のステップS26〜ステップS30)を備えたことを特徴とする。
以上の構成を備えた画像認識装置は、画像判定手段により、撮影された対象物の左、または右のエッジを含むように、対象物毎に異なる高さを考慮した領域をその都度設定し、この領域の視差を比較することで、左右のエッジの視差が一致するか、あるいは異なるかの比較結果を得る。これにより、対象物の左部分と右部分とが同一物体の一部か、それともそれぞれ異なる物体の一部であるかどうかを判断し、物体の重なりの有無を判断することができる。
【0007】
請求項2の発明に係わる画像認識装置は、請求項1に記載の画像認識装置において、前記画像判定手段が、異なる物体の重なりを認識した場合に、前記判定領域における距離判定点を前記判定領域のエッジ上に設定し、それぞれの物体までの距離を独立して算出する画像分離手段(例えば実施の形態のステップS30)を含むことを特徴とする。
以上の構成を備えた画像認識装置は、画像判定手段により、対象物が異なる物体の重なった状態であると認識した場合は、対象物の左右それぞれのエッジを距離判定点としてそれぞれの物体までの距離を算出し、物体を分離して捉えることができる。
【0008】
請求項3の発明に係わる画像認識装置は、請求項1、または請求項2に記載の画像認識装置において、前記対象物を囲む領域の大きさが所定値以上、あるいは前記対象物を囲む領域の横方向の長さに対する縦方向の長さの比が所定値以下である場合に、異なる物体の重なりを予測する画像予測手段(例えば実施の形態のステップS21)を備えたことを特徴とする。
以上の構成を備えた画像認識装置は、画像判定手段による異なる物体の重なり判断の前に、画像予測手段により対象物を囲む領域の大きさ、あるいは対象物を囲む領域の横方向の長さに対する縦方向の長さの比を用いて、対象物が異なる物体の重なった状態であるか否かの予測を行い、対象物が異なる物体の重なった状態であると予測される場合に、画像判断手段による判断を行うようにすることができる。
【0009】
【発明の実施の形態】
以下、図面を参照して本発明の実施の形態について説明する。
図1は、本発明の一実施の形態の画像認識装置の構成を示すブロック図である。
図1において、符号1は、本実施の形態の画像認識装置を制御するCPU(中央演算装置)を備えた画像処理ユニットであって、遠赤外線を検出可能な2つの赤外線カメラ2R、2Lと当該車両のヨーレートを検出するヨーレートセンサ3、更に、当該車両の走行速度(車速)を検出する車速センサ4とブレーキの操作を検出するためのブレーキセンサ5が接続される。これにより、画像処理ユニット1は、車両の周辺の赤外線画像と車両の走行状態を示す信号から、車両前方の歩行者や動物等の動く物体を検出し、衝突の可能性が高いと判断したときに警報を発する。
【0010】
また、画像処理ユニット1には、音声で警報を発するためのスピーカ6と、赤外線カメラ2R、2Lにより撮影された画像を表示し、衝突の危険性が高い対象物を車両の運転者に認識させるための、例えば自車両の走行状態を数字で表すメータと一体化されたメータ一体Displayや自車両のコンソールに設置されるNAVIDisplay、更にフロントウィンドウの運転者の前方視界を妨げない位置に情報を表示するHUD(Head Up Display )7a等を含む画像表示装置7が接続されている。
【0011】
また、画像処理ユニット1は、入力アナログ信号をディジタル信号に変換するA/D変換回路、ディジタル化した画像信号を記憶する画像メモリ、各種演算処理を行うCPU(中央演算装置)、CPUが演算途中のデータを記憶するために使用するRAM(Random Access Memory)、CPUが実行するプログラムやテーブル、マップなどを記憶するROM(Read Only Memory)、スピーカ6の駆動信号、HUD7a等の表示信号などを出力する出力回路を備えており、赤外線カメラ2R、2L及びヨーレートセンサ3、車速センサ4、ブレーキセンサ5の各出力信号は、ディジタル信号に変換されてCPUに入力されるように構成されている。
【0012】
また、図2に示すように、赤外線カメラ2R、2Lは、自車両10の前部に、自車両10の車幅方向中心部に対してほぼ対象な位置に配置されており、2つの赤外線カメラ2R、2Lの光軸が互いに平行であって、かつ両者の路面からの高さが等しくなるように固定されている。なお、赤外線カメラ2R、2Lは、対象物の温度が高いほど、その出力信号レベルが高くなる(輝度が増加する)特性を有している。
また、HUD7aは、自車両10のフロントウインドウの運転者の前方視界を妨げない位置に表示画面が表示されるように設けられている。
【0013】
次に、本実施の形態の動作について図面を参照して説明する。
図3は、本実施の形態の画像認識装置の画像処理ユニット1における処理手順を示すフローチャートである。
まず、画像処理ユニット1は、赤外線カメラ2R、2Lの出力信号である赤外線画像を取得して(ステップS1)、A/D変換し(ステップS2)、グレースケール画像を画像メモリに格納する(ステップS3)。なお、ここでは赤外線カメラ2Rにより右画像が得られ、赤外線カメラ2Lにより左画像が得られる。また、右画像と左画像では、同一の対象物の表示画面上の水平位置がずれて表示されるので、このずれ(視差)によりその対象物までの距離を算出することができる。
【0014】
次に、赤外線カメラ2Rにより得られた右画像を基準画像とし、その画像信号の2値化処理、すなわち、輝度閾値ITHより明るい領域を「1」(白)とし、暗い領域を「0」(黒)とする処理を行う(ステップS4)。
図4(a)は、赤外線カメラ2Rにより得られたグレースケール画像を示し、これに2値化処理を行うことにより、図4(b)に示すような画像を得る。なお、図4(b)において、例えばP1からP4の枠で囲った物体を、表示画面上に白色として表示される対象物(以下「高輝度領域」という)とする。
赤外線画像から2値化された画像データを取得したら、2値化した画像データをランレングスデータに変換する処理を行う(ステップS5)。
【0015】
図5(a)は、これを説明するための図であり、この図では2値化により白となった領域を画素レベルでラインL1〜L8として示している。ラインL1〜L8は、いずれもy方向には1画素の幅を有しており、実際にはy方向には隙間なく並んでいるが、説明のために離間して示している。またラインL1〜L8は、x方向にはそれぞれ2画素、2画素、3画素、8画素、7画素、8画素、8画素、8画素の長さを有している。ランレングスデータは、ラインL1〜L8を各ラインの開始点(各ラインの左端の点)の座標と、開始点から終了点(各ラインの右端の点)までの長さ(画素数)とで示したものである。例えばラインL3は、(x3,y5)、(x4,y5)及び(x5,y5)の3画素からなるので、ランレングスデータとしては、(x3,y5,3)となる。
【0016】
次に、ランレングスデータに変換された画像データから、対象物のラベリングをする(ステップS6)ことにより、対象物を抽出する処理を行う(ステップS7)。すなわち、ランレングスデータ化したラインL1〜L8のうち、図5(b)に示すように、y方向に重なる部分のあるラインL1〜L3を1つの対象物1とみなし、ラインL4〜L8を1つの対象物2とみなし、ランレングスデータに対象物ラベル1、2を付加する。この処理により、例えば図4(b)に示す高輝度領域が、それぞれ対象物1から4として把握されることになる。
【0017】
対象物の抽出が完了したら、次に、図5(c)に示すように、抽出した対象物の重心G、面積S及び破線で示す外接四角形の縦横比ASPECTを算出する(ステップS8)。
ここで、面積Sは、下記式(1)によりランレングスデータの長さを同一対象物について積算することにより算出する。ラベルAの対象物のランレングスデータを(x[i]、y[i]、run[i]、A)(i=0,1,2,・・・N−1)とすると、
【数1】
Figure 0003739693
また、対象物Aの重心Gの座標(xc、yc)は、ランレングスデータの長さを考慮した下記(2)、(3)式により算出する。
【数2】
Figure 0003739693
更に、縦横比ASPECTは、図5(c)に示すDyとDxとの比Dy/Dxとして算出する。
なお、式(1)、(2)、(3)に示すように、ランレングスデータは画素数(座標数)run[i]で示されているので、実際の長さは「−1」する必要がある。また、重心Gの位置は、外接四角形の重心位置で代用してもよい。
【0018】
対象物の重心、面積、外接四角形の縦横比が算出できたら、次に、対象物の時刻間追跡、すなわちサンプリング周期毎の同一対象物の認識を行う(ステップS9)。時刻間追跡は、アナログ量としての時刻tをサンプリング周期で離散化した時刻をkとし、図6(a)に示すように時刻kで対象物A、Bを抽出した場合、時刻(k+1)で抽出した対象物C、Dと、対象物A、Bとの同一性判定を行う。具体的には、以下の同一性判定条件1)〜3)を満たすときに、対象物A、Bと対象物C、Dとは同一であると判定し、対象物C、Dをそれぞれ対象物A、Bというラベルに変更することにより、時刻間追跡が行われる。
【0019】
1)時刻kにおける対象物i(=A,B)の画像上での重心位置座標を、それぞれ(xi(k),yi(k))とし、時刻(k+1)における対象物j(=C,D)の画像上での重心位置座標を、(xj(k+1),yj(k+1))としたとき、|xj(k+1)−xi(k)|<Δx|yj(k+1)−yi(k)|<Δyであること。ただし、Δx、Δyは、それぞれx方向及びy方向の画像上の移動量の許容値である。
2)時刻kにおける対象物i(=A,B)の画像上での面積をSi(k)とし、時刻(k+1)における対象物j(=C,D)の画像上での面積をSj(k+1)としたとき、Sj(k+1)/Si(k)<1±ΔSであること。ただし、ΔSは面積変化の許容値である。
3)時刻kにおける対象物i(=A,B)の外接四角形の縦横比をASPECTi(k)とし、時刻(k+1)における対象物j(=C,D)の外接四角形の縦横比をASPECTj(k+1)としたとき、ASPECTj(k+1)/ASPECTi(k)<1±ΔASPECTであること。ただし、ΔASPECTは縦横比変化の許容値である。
【0020】
例えば、図6(a)と(b)とを対比すると、各対象物は画像上での大きさが大きくなっているが、対象物Aと対象物Cとが上記同一性判定条件を満たし、対象物Bと対象物Dとが上記同一性判定条件を満たすので、対象物C、Dはそれぞれ対象物A、Bと認識される。このようにして認識された各対象物の(重心の)位置座標は、時系列位置データとしてメモリに格納され、後の演算処理に使用される。
なお、以上説明したステップS4〜S9の処理は、2値化した基準画像(本実施形態では、右画像)について実行する。
次に、車速センサ4により検出される車速VCAR及びヨーレートセンサ3より検出されるヨーレートYRを読み込み、ヨーレートYRを時間積分することより、図7に示すように自車両10の回頭角θrを算出する(ステップS10)。
【0021】
一方、ステップS9とステップS10の処理に平行して、ステップS11〜S13では、対象物と自車両10との距離zを算出する処理を行う。この演算はステップS9、及びステップS10より長い時間を要するため、ステップS9、S10より長い周期(例えばステップS1〜S10の実行周期の3倍程度の周期)で実行される。
まず、基準画像(右画像)の2値化画像によって追跡される対象物の中の1つを選択することにより、図8(a)に示すように右画像から探索画像R1(ここでは、外接四角形で囲まれる領域全体を探索画像とする)を抽出する(ステップS11)。
【0022】
次に、左画像中から探索画像に対応する画像(以下「対応画像」という)を探索する探索領域を設定し、相関演算を実行して対応画像を抽出する(ステップS12)。具体的には、図8(b)に示すように、探索画像R1の各頂点座標に応じて、左画像中に探索領域R2を設定し、探索領域R2内で探索画像R1との相関の高さを示す輝度差分総和値C(a,b)を下記式(4)により算出し、この総和値C(a,b)が最小となる領域を対応画像として抽出する。なお、この相関演算は、2値化画像ではなくグレースケール画像を用いて行う。
また同一対象物についての過去の位置データがあるときは、その位置データに基づいて探索領域R2より狭い領域R2a(図8(b)に破線で示す)を探索領域として設定する。
【数3】
Figure 0003739693
ここで、IR(m,n)は、図9に示す探索画像R1内の座標(m,n)の位置の輝度値であり、IL(a+m−M,b+n−N)は、探索領域内の座標(a,b)を基点とした、探索画像R1と同一形状の局所領域R3内の座標(m,n)の位置の輝度値である。基点の座標(a,b)を変化させて輝度差分総和値C(a,b)が最小となる位置を求めることにより、対応画像の位置が特定される。
【0023】
ステップS12の処理により、基準画像(右画像)中に探索画像R1と、左画像中にこの対象物に対応する対応画像R4とが抽出されるので、次に、探索画像R1の重心位置と対応画像R4の重心位置と視差Δd(画素数)を求め、下記式(5)に適用して、自車両10と、対象物との距離zを算出する(ステップS13)。
【数4】
Figure 0003739693
ここで、Bは基線長、赤外線カメラ2Rの撮像素子の中心位置と、赤外線カメラ2Lの撮像素子の中心位置との水平方向の距離(両赤外線カメラの光軸の間隔)、Fは赤外線カメラ2R、2Lのレンズの焦点距離、pは赤外線カメラ2R、2Lの撮像素子内の画素間隔である。
なお、対象物距離算出の方法については、詳細を後述する。
【0024】
ステップS10における回頭角θrの算出と、ステップS13における対象物との距離算出が完了したら、画像内の座標(x,y)及び式(5)により算出した距離zを下記式(6)に適用し、実空間座標(X,Y,Z)に変換する(ステップS14)。
ここで、実空間座標(X,Y,Z)は、図2に示すように、赤外線カメラ2R、2Lの取り付け位置の中点の位置(自車両10に固定された位置)を原点Oとして、図示のように定め、画像内の座標は、画像の中心を原点として水平方向をx、垂直方向をyと定めている。
【数5】
Figure 0003739693
ここで、(xc,yc)は、右画像上の座標(x,y)を、赤外線カメラ2Rの取り付け位置と、実空間原点Oとの相対位置関係に基づいて、実空間原点Oと画像の中心とを一致させた仮想的な画像内の座標に変換したものである。またfは、焦点距離Fと画素間隔pとの比である。
【0025】
また、実空間座標が求められたら、自車両10が回頭することによる画像上の位置ずれを補正するための回頭角補正を行う(ステップS15)。
回頭角補正は、図7に示すように、時刻kから(k+1)までの期間中に自車両10が例えば左方向に回頭角θrだけ回頭すると、カメラによって得られる画像上では、図10に示すようにΔxだけx方向にずれるので、これを補正する処理である。具体的には、下記式(7)に実空間座標(X,Y,Z)を適用して、補正座標(Xr,Yr,Zr)を算出する。算出した実空間位置データ(Xr,Yr,Zr)は、対象物毎に対応づけてメモリに格納する。なお、以下の説明では、回頭角補正後の座標を(X,Y,Z)と表示する。
【数6】
Figure 0003739693
【0026】
実空間座標に対する回頭角補正が完了したら、次に、同一対象物について、ΔTのモニタ期間内に得られた、回頭角補正後のN個の実空間位置データ(例えばN=10程度)、すなわち時系列データから、対象物と自車両10との相対移動ベクトルに対応する近似直線LMVを求める(ステップS16)。
具体的には、近似直線LMVの方向を示す方向ベクトルL=(lx,ly,lz)(|L|=1)とすると、下記式(8)で表される直線を求める。
【数7】
Figure 0003739693
ここでuは、任意の値をとる媒介変数であり、Xav、Yav、及びZavは、それぞれ実空間位置データ列のX座標の平均値、Y座標の平均値、及びZ座標の平均値である。
なお、式(8)は媒介変数uを消去すれば下記式(8a)のようになる。
(X−Xav)/lx=(Y−Yav)/ly=(Z−Zav)/lz・・・(8a)
【0027】
また、例えばP(0),P(1),P(2),…,P(N−2),P(N−1)が回頭角補正後の時系列データを示す場合、近似直線LMVは、この時系列データの平均位置座標Pav=(Xav,Yav,Zav)を通り、各データ点からの距離の2乗の平均値が最小となるような直線として求められる。
ここで、各データ点の座標を示すPに付した()内の数値はその値が増加するほど過去のデータであることを示す。例えば、P(0)は最新の位置座標、P(1)は1サンプル周期前の位置座標、P(2)は2サンプル周期前の位置座標を示す。
【0028】
次いで、最新の位置座標P(0)=(X(0),Y(0),Z(0))と、(N−1)サンプル前(時間ΔT前)の位置座標P(Nー1)=(X(N−1),Y(N−1),Z(N−1))を近似直線LMV上の位置に補正する。具体的には、前記式(8a)にZ座標Z(0)、Z(N−1)を適用することにより、すなわち下記式(9)により、補正後の位置座標Pv(0)=(Xv(0),Yv(0),Zv(0))及びPv(N−1)=(Xv(N−1),Yv(N−1),Zv(N−1))を求める。
【数8】
Figure 0003739693
【0029】
式(9)で算出された位置座標Pv(N−1)からPv(0)に向かうベクトルとして、相対移動ベクトルが得られる。
このようにモニタ期間ΔT内の複数(N個)のデータから対象物の自車両10に対する相対移動軌跡を近似する近似直線を算出して相対移動ベクトルを求めることにより、位置検出誤差の影響を軽減して対象物との衝突の可能性をより正確に予測することが可能となる。
また、ステップS16において、相対移動ベクトルが求められたら、次に、検出した対象物との衝突の可能性を判定する警報判定処理を行う(ステップS17)。
【0030】
警報判定処理(ステップS17)は、以下に示す衝突判定処理、接近判定領域内か否かの判定処理、侵入衝突判定処理のいずれかにより、自車両10と検出した対象物との衝突の可能性を判定する処理である。以下、図11に示すように、自車両10の進行方向に対してほぼ90°の方向から、速度Vpで進行してくる動物20がいる場合を例に取って説明する。
【0031】
<衝突判定処理>
まず、画像処理ユニット1は、動物20が時間ΔTの間に距離Zv(N−1)から距離Zv(0)に接近したことにより、下記式(10)を用いてZ方向の相対速度Vsを算出し、衝突判定処理を行う。衝突判定処理は、下記式(11)及び(12)が成立するとき、衝突の可能性があると判定する処理である。
Vs=(Zv(N−1)−Zv(0))/ΔT ・・・(10)
Zv(0)/Vs≦T ・・・(11)
|Yv(0)|≦H ・・・(12)
ここで、Zv(0)は最新の距離検出値(vは近似直線LMVによる補正後のデータであることを示すために付しているが、Z座標は補正前と同一の値である)であり、Zv(N−1)は、時間ΔT前の距離検出値である。またTは、余裕時間であり、衝突の可能性を予測衝突時刻より時間Tだけ前に判定することを意図したものである。従って、Tは例えば2〜5秒程度に設定される。またHは、Y方向、すなわち高さ方向の範囲を規定する所定高さであり、例えば自車両10の車高の2倍程度に設定される。
【0032】
<接近判定領域内か否かの判定処理>
ここでは、対象物が接近判定領域内に存在するか否かを判定する。例えば、図12は、赤外線カメラ2R、2Lで監視可能な領域を太い実線で示す外側の三角形の領域AR0で示し、更に領域AR0内の、Z1=Vs×Tより自車両10に近い領域AR1、AR2、AR3を、警報判定領域としている。
ここで、領域AR1は、自車両10の車幅αの両側に余裕β(例えば50〜100cm程度とする)を加えた範囲に対応する領域、換言すれば自車両10の車幅方向中心部の軸の両側に(α/2+β)の幅を有する領域であって、対象物がそのまま存在し続ければ衝突の可能性がきわめて高いので、接近判定領域と呼ぶ。領域AR2、AR3は、接近判定領域よりX座標の絶対値が大きい(接近判定領域の横方向外側の)領域であり、この領域内にある対象物については、後述する侵入衝突判定を行うので、侵入判定領域と呼ぶ。なおこれらの領域は、前記式(12)に示したようにY方向には、所定高さHを有する。
【0033】
<侵入衝突判定処理>
侵入衝突判定処理は、具体的には、画像上での最新のx座標であるxc(0)(文字cは前述したように画像の中心位置を実空間原点Oに一致させる補正を行った座標であることを示すために付している)と、時間ΔT前のx座標であるxc(N−1)との差が下記式(13)を満たすか否かを判別し、満たす場合に衝突の可能性が高いと判定する。
【数9】
Figure 0003739693
なお、図11に示すように、自車両10の進行方向に対してほぼ90°の方向から進行してくる動物20がいた場合、Xv(Nー1)/Zv(N−1)=Xv(0)/Zr(0)であるとき、換言すれば動物の速度Vpと相対速度Vsの比Vp/Vs=Xr(Nー1)/Zr(N−1)であるとき、自車両10から動物20を見る方位角θdは一定となり、衝突の可能性が高い。式(13)は、この可能性を自車両10の車幅αを考慮して判定するものである。
【0034】
警報判定処理(ステップS17)において衝突判定処理、接近判定領域内か否かの判定処理、侵入衝突判定処理のいずれにおいても、自車両10と検出した対象物との衝突の可能性がないと判定された場合(ステップS17のNO)、ステップS1へ戻り、上述の処理を繰り返す。
また、警報判定処理(ステップS17)において衝突判定処理、接近判定領域内か否かの判定処理、侵入衝突判定処理のいずれかにより、自車両10と検出した対象物との衝突の可能性があると判定された場合(ステップS17のYES)、ステップS18の警報出力判定処理へ進む。
【0035】
ステップS18では、以下のようにして警報出力判定処理、すなわち警報出力を行うか否かの判定を行う(ステップS18)。
警報出力判定処理は、まずブレーキセンサ5の出力BRから自車両10の運転者がブレーキ操作を行っているか否かを判別する。
もし、自車両10の運転者がブレーキ操作を行っている場合には、それによって発生する加速度Gs(減速方向を正とする)を算出し、この加速度Gsが所定閾値GTHより大きいときは、ブレーキ操作により衝突が回避されると判定して警報出力判定処理を終了し(ステップS18のNO)、ステップS1へ戻り、上述の処理を繰り返す。
これにより、適切なブレーキ操作が行われているときは、警報を発しないようにして、運転者に余計な煩わしさを与えないようにすることができる。
【0036】
また、加速度Gsが所定閾値GTH以下であるとき、または自車両10の運転者がブレーキ操作を行っていなければ、直ちにステップS19の処理へ進み(ステップS18のYES)、対象物と接触する可能性が高いので、スピーカ3を介して音声による警報を発する(ステップS19)とともに、画像表示装置7に対して、例えば赤外線カメラ2Rにより得られる画像を出力し、接近してくる対象物を自車両10の運転者に対する強調映像として表示する(ステップS20)。なお、所定閾値GTHは、下記式(14)のように定める。これは、ブレーキ操作中の加速度Gsがそのまま維持された場合に、距離Zv(0)以下の走行距離で自車両10が停止する条件に対応する値である。
【数10】
Figure 0003739693
【0037】
次に、図13に示すフローチャート、及び図14に示す図面を参照して、図3に示したフローチャートのステップS13における視差算出演算処理について説明する。
図13は、視差算出演算処理の動作を示すフローチャートである。
図13において、まず、画像処理ユニット1は、図14の右側画像に示した対象物50のように、対象物50の外接四角形51の幅Xが所定値Aより小さいか、または外接四角形51の横方向の長さ(幅X)に対する縦方向の長さ(高さY)の比が所定値Bより大きいか、すなわち
外接四角形51の幅X<A
(外接四角形51の高さY/外接四角形51の幅X)>B
のどちらかであるか否かを判定する(ステップS21)。
【0038】
ステップS21において、外接四角形51の幅Xが所定値Aより小さいか、または外接四角形51の横方向の長さ(幅X)に対する縦方向の長さ(高さY)の比が所定値Bより大きい場合(ステップS21のYES)、画像処理ユニット1は、右画像と左画像における対象物50の全体の外接四角形51を用いて、グレースケール画像による相関演算を実行する(ステップS22)。
次に、画像処理ユニット1は、ステップS21で実行した相関演算の結果から、右画像の対象物50と左画像の対象物50との相関度が高いか否かを判定する(ステップS23)。
ステップS23において、右画像の対象物50と左画像の対象物50との相関度が低い場合(ステップS23のNO)、この対象物は検出対象から除去する(ステップS24)。
【0039】
また、ステップS23において、右画像の対象物50と左画像の対象物50との相関度が高い場合(ステップS23のYES)、上述の(5)式により、対象物までの距離を算出する(ステップS25)。
一方、ステップS21において、外接四角形51の幅Xが所定値A以上で、かつ外接四角形51の横方向の長さ(幅X)に対する縦方向の長さ(高さY)の比が所定値B以下である場合(ステップS21のNO)、画像処理ユニット1は、対象物の重なりを予測し、図14の右画像に示すように、対象物を左右のエッジを含む2つの分割領域L_b52及び分割領域R_b53に分割する(ステップS26)。この時、分割領域L_b52及び分割領域R_b53の幅は、左右エッジからそれぞれ所定値Aとし、高さは分割前の外接四角形51の高さYとする。
【0040】
次に、図14の右画像に示すように、この分割領域L_b52及び分割領域R_b53の周囲にそれぞれ相関演算用ブロック54、55を設定し、同様に図14の左画像に示すように、右画像の対象物50に対応した左画像の対象物56、57に設定された相関演算用ブロック60、61との間でそれぞれ相関演算を行い、それぞれ視差dn_L及び視差dn_Rを算出する(ステップS27)。
それぞれ視差dn_L及び視差dn_Rが求められたら、画像処理ユニット1は算出された各視差量(dn_L、dn_R)において、視差dn_Lと視差dn_Rの差分の絶対値が所定値THより小さいか否か、すなわち
|dn_L−dn_R|<TH
を満たすか否かを判定する(ステップS28)。
【0041】
ステップS28において、視差dn_Lと視差dn_Rの差分の絶対値が所定値THより小さい場合(ステップS28のYES)、対象物の左右エッジは同視差であり、異なる物体の重なり状態は生じていないと判断できる。従って、対象物を分割して認識することは行わず、対象物視差を、
dn=(d_L+d_R)/2
として算出し、ステップS25へ進み、上述の(5)式により、対象物までの距離を算出する(ステップS25)。
【0042】
また、ステップS28において、視差dn_Lと視差dn_Rの差分の絶対値が所定値TH以上である場合(ステップS28のNO)、対象物の左右エッジの視差は異なり、異なる物体の重なり状態が生じていると判断できる。従って、対象物をLb、Rbの2つの対象物56、57に分割して認識する。この時、それぞれの対象物の重心(左エッジ対象物重心62、右エッジ対象物重心63)は、図14の右画像または左画像に示すように、横方向は各分割領域L_b52、58及び分割領域R_b53、59のエッジとし、高さ方向は分割前の対象物重心64と同じ高さとする(ステップS30)。
そして、ステップS25へ進み、上述の(5)式により、それぞれの対象物までの距離を算出する(ステップS25)。
なお、上述のステップS30においては、重なった状態の異なる物体について、不要なものは検出対象から除去しても良い。
【0043】
また、上述の実施の形態では、対象物における異なる物体の重なりが生じているか否かの判定を行い、重なりが生じていた場合には、対象物を2つの対象物に分割して認識する場合について説明したが、距離方向に長い1つの対象物に関しても、同様の方法によって距離方向に長いことによって発生する対象物の場所の違いによる視差の違いを判断し、該対象物の正確な位置を推定することができる。
更に、上述した実施の形態では、自車両の前方を監視する例を示したが、自車両の後方など、いずれの方向を監視するようにしてもよい。
また、本発明は、上述した実施形態に限るものではなく、種々の変形が可能である。例えば、上述の実施の形態では、対象物の画像を得るための撮像手段として赤外線カメラを使用したが、例えば特開平9−226490号公報に示されるように、通常の可視光線のみを検出可能なテレビカメラを使用しても良い。但し、赤外線カメラを用いることにより、動物あるいは走行中の車両などの抽出処理を簡略化することができるため、演算装置の演算能力が比較的低いものでも実現できる。
【0044】
また、本実施の形態では、画像処理ユニット1が、抽出領域設定手段と、探索領域設定手段と、物体認識手段と、視差算出手段とを含んでいる。より具体的には、図13のS21が画像予測手段に相当し、S26〜S30が画像判定手段に相当する。更にS30が画像分離手段に相当する。
【0045】
以上説明したように、本実施の形態の画像認識装置は、2値化処理によって2つの異なる物体が重なった状態で1つの対象物として抽出された場合でも、対象物の左右のエッジの視差から、それぞれのエッジの距離を算出する構成とした。
従って、左右のエッジの距離の違いから対象物における異なる物体の重なりを判定し、それぞれの対象物(物体)のエッジ点の位置と距離から、正確な対象物の位置の推定を行うことができるという効果が得られる。また、異なる物体の重なりだけでなく、距離方向に長い対象物に関しても、同様の方法により、左右のエッジの位置を計測することで、正確な位置を算出することを可能とした。
【0046】
【発明の効果】
以上の如く、請求項1に記載の画像認識装置によれば、画像判定手段により、撮影された対象物の左、または右のエッジを含むように、対象物毎に異なる高さを考慮した領域をその都度設定し、この領域の視差を比較することで、左右のエッジの視差が一致するか、あるいは異なるかの比較結果を得る。これにより、対象物の左部分と右部分とが同一物体の一部か、それともそれぞれ異なる物体の一部であるかどうかを判断し、物体の重なりの有無を判断することができる。
従って、撮影された対象物の大きさ毎に視差を求める領域が設定されるので、車両と対象物との距離によって、どのような大きさで対象物が撮影されても、必ず効率良く視差を求めることができるという効果が得られる。
【0047】
請求項2に記載の画像認識装置によれば、画像判定手段により、対象物が異なる物体の重なった状態であると認識した場合は、対象物の左右それぞれのエッジを距離判定点としてそれぞれの物体までの距離を算出し、物体を分離して捉えることができる。
従って、異なる物体の重なった状態が撮影されたことで、対象物の視差が場所によって異なるために対象物の距離が算出できず、不定になってしまうことを防ぎ、異なる物体毎に距離を正確に求めることができるという効果が得られる。
【0048】
請求項3に記載の画像認識装置によれば、画像判定手段による異なる物体の重なり判断の前に、予め画像予測手段により対象物を囲む領域の大きさ、あるいは対象物を囲む領域の横方向の長さに対する縦方向の長さの比を用いて、対象物が異なる物体の重なった状態であるか否かの予測を行い、対象物が異なる物体の重なった状態である可能性が高い場合にのみ、画像判断手段による判断を行うようにすることができる。
従って、対象物が物体の重なった状態である可能性が高い場合にのみ、画像判断手段の演算が実行されるため、画像認識装置における処理負荷を軽減することができるという効果が得られる。
【図面の簡単な説明】
【図1】 本発明の一実施の形態の画像認識装置の構成を示すブロック図である。
【図2】 車両における赤外線カメラやセンサ、ディスプレイ等の取り付け位置を示す図である。
【図3】 同実施の形態の画像認識装置の全体動作を示すフローチャートである。
【図4】 赤外線カメラにより得られるグレースケール画像とその2値化画像を示す図である。
【図5】 ランレングスデータへの変換処理及びラベリングを示す図である。
【図6】 対象物の時刻間追跡を示す図である。
【図7】 対象物画像の回頭角補正を示す図である。
【図8】 右画像中の探索画像と、左画像に設定する探索領域を示す図である。
【図9】 探索領域を対象とした相関演算処理を示す図である。
【図10】 車両の回頭により発生する画像上の対象物位置のずれを示す図である。
【図11】 衝突が発生しやすい場合を示す図である。
【図12】 車両前方の領域区分を示す図である。
【図13】 同実施の形態の視差算出演算処理動作を示すフローチャートである。
【図14】 同実施の形態の視差算出演算処理における右画像及び左画像を示す図である。
【符号の説明】
1 画像処理ユニット
2R、2L 赤外線カメラ
3 ヨーレートセンサ
4 車速センサ
5 ブレーキセンサ
6 スピーカ
7 画像表示装置
10 自車両
S21 画像予測手段
S26〜S30 画像判定手段
S30 画像分離手段

Claims (3)

  1. 2台の撮像手段により得られるそれぞれの画像から対象物の視差を測定し、該視差に基づき前記対象物までの距離を算出する画像認識装置において、
    前記対象物を包含する高さを有すると共に前記対象物の左右のエッジをそれぞれ独立して含む判定領域を設定し、それぞれの判定領域の視差を測定して比較することで異なる物体の重なりの有無を判断する画像判定手段
    を備えたことを特徴とする画像認識装置。
  2. 前記画像判定手段が、異なる物体の重なりを認識した場合に、前記判定領域における距離判定点を前記判定領域のエッジ上に設定し、それぞれの物体までの距離を独立して算出する画像分離手段
    を含むことを特徴とする請求項1に記載の画像認識装置。
  3. 前記対象物を囲む領域の大きさが所定値以上、あるいは前記対象物を囲む領域の横方向の長さに対する縦方向の長さの比が所定値以下である場合に、異なる物体の重なりを予測する画像予測手段
    を備えたことを特徴とする請求項1、または請求項2に記載の画像認識装置。
JP2001345105A 2001-11-09 2001-11-09 画像認識装置 Expired - Fee Related JP3739693B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2001345105A JP3739693B2 (ja) 2001-11-09 2001-11-09 画像認識装置
US10/286,541 US7158664B2 (en) 2001-11-09 2002-11-01 Image recognition apparatus
DE10251880A DE10251880B4 (de) 2001-11-09 2002-11-07 Bilderkennungsvorrichtung
US11/554,292 US7474765B2 (en) 2001-11-09 2006-10-30 Image recognition apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001345105A JP3739693B2 (ja) 2001-11-09 2001-11-09 画像認識装置

Publications (2)

Publication Number Publication Date
JP2003150938A JP2003150938A (ja) 2003-05-23
JP3739693B2 true JP3739693B2 (ja) 2006-01-25

Family

ID=19158504

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001345105A Expired - Fee Related JP3739693B2 (ja) 2001-11-09 2001-11-09 画像認識装置

Country Status (3)

Country Link
US (2) US7158664B2 (ja)
JP (1) JP3739693B2 (ja)
DE (1) DE10251880B4 (ja)

Families Citing this family (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5877897A (en) 1993-02-26 1999-03-02 Donnelly Corporation Automatic rearview mirror, vehicle lighting control and vehicle interior monitoring system using a photosensor array
US6822563B2 (en) 1997-09-22 2004-11-23 Donnelly Corporation Vehicle imaging system with accessory control
US6891563B2 (en) 1996-05-22 2005-05-10 Donnelly Corporation Vehicular vision system
US7655894B2 (en) 1996-03-25 2010-02-02 Donnelly Corporation Vehicular image sensing system
US7715591B2 (en) * 2002-04-24 2010-05-11 Hrl Laboratories, Llc High-performance sensor fusion architecture
WO2003093857A2 (en) 2002-05-03 2003-11-13 Donnelly Corporation Object detection system for vehicle
KR100507780B1 (ko) * 2002-12-20 2005-08-17 한국전자통신연구원 고속 마커프리 모션 캡쳐 장치 및 방법
JP2004350847A (ja) * 2003-05-28 2004-12-16 Okumura Yu-Ki Co Ltd 遊技機
JP3898157B2 (ja) * 2003-06-04 2007-03-28 本田技研工業株式会社 赤外線画像認識装置
DE10343406A1 (de) * 2003-09-19 2005-04-14 Daimlerchrysler Ag Entfernungsbestimmung eines Objektes
EP1530156B1 (en) * 2003-11-07 2012-03-14 Mitsubishi Electric Information Technology Centre Europe B.V. Visual object detection
US7526103B2 (en) 2004-04-15 2009-04-28 Donnelly Corporation Imaging system for vehicle
US7561720B2 (en) * 2004-04-30 2009-07-14 Visteon Global Technologies, Inc. Single camera system and method for range and lateral position measurement of a preceding vehicle
JP3987057B2 (ja) * 2004-06-14 2007-10-03 本田技研工業株式会社 車両周辺監視装置
US7650016B2 (en) * 2004-07-30 2010-01-19 Lockheed Martin Corporation System and method for tracking motion of an object image
US7639841B2 (en) * 2004-12-20 2009-12-29 Siemens Corporation System and method for on-road detection of a vehicle using knowledge fusion
US7561721B2 (en) * 2005-02-02 2009-07-14 Visteon Global Technologies, Inc. System and method for range measurement of a preceding vehicle
US7561732B1 (en) * 2005-02-04 2009-07-14 Hrl Laboratories, Llc Method and apparatus for three-dimensional shape estimation using constrained disparity propagation
US20070031008A1 (en) * 2005-08-02 2007-02-08 Visteon Global Technologies, Inc. System and method for range measurement of a preceding vehicle
US7623681B2 (en) * 2005-12-07 2009-11-24 Visteon Global Technologies, Inc. System and method for range measurement of a preceding vehicle
US7786898B2 (en) 2006-05-31 2010-08-31 Mobileye Technologies Ltd. Fusion of far infrared and visible images in enhanced obstacle detection in automotive applications
WO2008024639A2 (en) 2006-08-11 2008-02-28 Donnelly Corporation Automatic headlamp control system
JP4661734B2 (ja) * 2006-08-24 2011-03-30 株式会社デンソー 車載用の警告システム
JP5167614B2 (ja) * 2006-09-04 2013-03-21 コニカミノルタホールディングス株式会社 距離画像生成装置、距離画像生成方法及びプログラム
EP2254091B1 (en) 2009-05-19 2020-03-25 Veoneer Sweden AB Vision system and method for a motor vehicle
JP5039765B2 (ja) * 2009-09-17 2012-10-03 日立オートモティブシステムズ株式会社 車両制御装置
EP2378465A1 (en) 2010-04-13 2011-10-19 Autoliv Development AB Driver assisting system and method for a motor vehicle
TW201227399A (en) * 2010-12-24 2012-07-01 Hon Hai Prec Ind Co Ltd Motion recognition module, electronic device appling the motion recognition module and method thereof
JP5820159B2 (ja) * 2011-06-21 2015-11-24 キヤノン株式会社 画像処理装置及び画像処理方法
JP5645769B2 (ja) * 2011-08-01 2014-12-24 株式会社日立製作所 画像処理装置
US9487172B2 (en) * 2012-03-09 2016-11-08 Lg Electronics Inc. Image display device and method thereof
US8897543B1 (en) * 2012-05-18 2014-11-25 Google Inc. Bundle adjustment based on image capture intervals
US8965107B1 (en) 2012-05-18 2015-02-24 Google Inc. Feature reduction based on local densities for bundle adjustment of images
US8781721B2 (en) * 2012-06-06 2014-07-15 Google Inc. Obstacle evaluation technique
JP5959951B2 (ja) * 2012-06-15 2016-08-02 キヤノン株式会社 映像処理装置、映像処理方法、及びプログラム
DE102012215026A1 (de) * 2012-08-23 2014-05-28 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zum Betreiben eines Fahrzeugs
US9393961B1 (en) 2012-09-19 2016-07-19 Google Inc. Verifying a target object with reverse-parallax analysis
KR101716725B1 (ko) * 2012-10-22 2017-03-15 야마하하쓰도키 가부시키가이샤 거리 측정 장치 및 그것을 사용한 차량
US9652860B1 (en) * 2013-03-15 2017-05-16 Puretech Systems, Inc. System and method for autonomous PTZ tracking of aerial targets
KR101491305B1 (ko) * 2013-08-27 2015-02-06 현대자동차주식회사 장애물 검출 장치 및 방법
KR101439052B1 (ko) * 2013-09-05 2014-09-05 현대자동차주식회사 장애물 검출 장치 및 방법
JP6519262B2 (ja) * 2014-04-10 2019-05-29 株式会社リコー 立体物検出装置、立体物検出方法、立体物検出プログラム、及び移動体機器制御システム
CN105091847B (zh) * 2014-04-16 2017-12-29 联想(北京)有限公司 一种测量距离的方法及电子设备
IN2014MU03302A (ja) * 2014-10-16 2015-08-07 Kpit Technologies Ltd
JP6511283B2 (ja) * 2015-02-12 2019-05-15 日立オートモティブシステムズ株式会社 物体検知装置
JP6397801B2 (ja) * 2015-06-30 2018-09-26 日立オートモティブシステムズ株式会社 物体検知装置
CN105204411B (zh) * 2015-08-11 2018-04-17 上海交通大学 一种基于双目立体视觉的船舶靠泊辅助系统及方法
CN105654732A (zh) * 2016-03-03 2016-06-08 上海图甲信息科技有限公司 一种基于深度图像的道路监控系统及方法
JP6795027B2 (ja) * 2016-03-15 2020-12-02 株式会社リコー 情報処理装置、物体認識装置、機器制御システム、移動体、画像処理方法およびプログラム
CN106225764A (zh) * 2016-07-01 2016-12-14 北京小米移动软件有限公司 基于终端中双目摄像头的测距方法及终端
DE102016114168A1 (de) * 2016-08-01 2018-02-01 Connaught Electronics Ltd. Verfahren zum Erfassen eines Objekts in einem Umgebungsbereich eines Kraftfahrzeugs mit Vorhersage der Bewegung des Objekts, Kamerasystem sowie Kraftfahrzeug
DE102017119394A1 (de) * 2017-08-28 2019-02-28 HELLA GmbH & Co. KGaA Verfahren zur Ansteuerung mindestens eines Lichtmoduls einer Leuchteinheit eines Fahrzeugs, Leuchteinheit, Computerprogrammprodukt und computerlesbares Medium
US11836933B2 (en) * 2019-07-18 2023-12-05 Toyota Motor Europe Method for calculating information relative to a relative speed between an object and a camera
US10991130B2 (en) * 2019-07-29 2021-04-27 Verizon Patent And Licensing Inc. Systems and methods for implementing a sensor based real time tracking system
US11442463B1 (en) * 2019-09-23 2022-09-13 Amazon Technologies, Inc. System to determine stationary features by autonomous mobile device
JP7218818B2 (ja) * 2019-11-14 2023-02-07 株式会社Jvcケンウッド 記録制御装置、記録制御方法、及び、プログラム
US11373511B2 (en) 2020-09-14 2022-06-28 PureTech Systems Inc. Alarm processing and classification system and method

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3674369A (en) * 1968-09-18 1972-07-04 Hobrough Ltd Automatic orthophoto printer
JPS59182688A (ja) * 1983-03-31 1984-10-17 Toshiba Corp ステレオ視処理装置
JPH04313199A (ja) * 1991-03-20 1992-11-05 Mitsubishi Electric Corp 車間距離検出装置
JPH05265547A (ja) * 1992-03-23 1993-10-15 Fuji Heavy Ind Ltd 車輌用車外監視装置
JPH05296767A (ja) * 1992-04-20 1993-11-09 Mitsubishi Electric Corp 車間距離検出装置
JP3324821B2 (ja) 1993-03-12 2002-09-17 富士重工業株式会社 車輌用車外監視装置
JP3367170B2 (ja) * 1993-11-05 2003-01-14 株式会社豊田中央研究所 障害物検出装置
JPH07220194A (ja) * 1994-02-07 1995-08-18 Fujitsu Ltd 道路環境認識装置
JP3205477B2 (ja) * 1994-02-17 2001-09-04 富士フイルムマイクロデバイス株式会社 車間距離検出装置
US5768404A (en) * 1994-04-13 1998-06-16 Matsushita Electric Industrial Co., Ltd. Motion and disparity estimation method, image synthesis method, and apparatus for implementing same methods
EP0684585B1 (en) * 1994-04-22 2003-02-05 Canon Kabushiki Kaisha Image forming method and apparatus
US5606627A (en) * 1995-01-24 1997-02-25 Eotek Inc. Automated analytic stereo comparator
JP3035768B2 (ja) * 1995-05-22 2000-04-24 本田技研工業株式会社 車両用対照物検知装置
US5917940A (en) * 1996-01-23 1999-06-29 Nec Corporation Three dimensional reference image segmenting method and device and object discrimination system
JP3727400B2 (ja) 1996-02-22 2005-12-14 株式会社日本自動車部品総合研究所 横断者の検出装置
JPH10178564A (ja) * 1996-10-17 1998-06-30 Sharp Corp パノラマ画像作成装置及び記録媒体
US6259426B1 (en) * 1999-04-21 2001-07-10 Sony Corporation Video image display apparatus and method
JP4118452B2 (ja) * 1999-06-16 2008-07-16 本田技研工業株式会社 物体認識装置
CN1160210C (zh) * 1999-09-20 2004-08-04 松下电器产业株式会社 驾驶提醒装置
JP3261115B2 (ja) * 1999-09-22 2002-02-25 富士重工業株式会社 ステレオ画像処理装置
JP3859429B2 (ja) 2000-05-30 2006-12-20 本田技研工業株式会社 移動対象物検出装置

Also Published As

Publication number Publication date
US7474765B2 (en) 2009-01-06
JP2003150938A (ja) 2003-05-23
US7158664B2 (en) 2007-01-02
DE10251880B4 (de) 2009-01-08
US20030091228A1 (en) 2003-05-15
US20070053584A1 (en) 2007-03-08
DE10251880A1 (de) 2003-06-18

Similar Documents

Publication Publication Date Title
JP3739693B2 (ja) 画像認識装置
JP3764086B2 (ja) 車両用情報提供装置
JP4615139B2 (ja) 車両の周辺監視装置
JP4410292B1 (ja) 車両の周辺監視装置
US6327536B1 (en) Vehicle environment monitoring system
US7489805B2 (en) Vehicle surroundings monitoring apparatus
US7483549B2 (en) Vehicle surroundings monitoring apparatus
JP5503728B2 (ja) 車両の周辺監視装置
US7388476B2 (en) Vehicle surroundings monitoring apparatus
JP2003016429A (ja) 車両周辺監視装置
JPH0696397A (ja) 画像追尾装置および画像追尾方法
JP2008123462A (ja) 物体検知装置
JP2002314989A (ja) 車両用周辺監視装置
JP3916930B2 (ja) 進入警報装置
JP3919975B2 (ja) 車両の周辺監視装置
JP2007087203A (ja) 衝突判定システム、衝突判定方法及びコンピュータプログラム
JP2011103058A (ja) 誤認識防止装置
JP3949628B2 (ja) 車両の周辺監視装置
JP4176558B2 (ja) 車両周辺表示装置
JP3961269B2 (ja) 障害物警報装置
JP4567072B2 (ja) 車両周辺監視装置
JP3999025B2 (ja) 警報表示装置
JP3859429B2 (ja) 移動対象物検出装置
JP3939580B2 (ja) 障害物警報装置
JP2006252566A (ja) 移動対象物検出装置

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20051019

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20051025

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20051102

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081111

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091111

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091111

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101111

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101111

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111111

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111111

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121111

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131111

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees