JP4106163B2 - Obstacle detection apparatus and method - Google Patents

Obstacle detection apparatus and method Download PDF

Info

Publication number
JP4106163B2
JP4106163B2 JP27257799A JP27257799A JP4106163B2 JP 4106163 B2 JP4106163 B2 JP 4106163B2 JP 27257799 A JP27257799 A JP 27257799A JP 27257799 A JP27257799 A JP 27257799A JP 4106163 B2 JP4106163 B2 JP 4106163B2
Authority
JP
Japan
Prior art keywords
point
reference image
image
obstacle
collision time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP27257799A
Other languages
Japanese (ja)
Other versions
JP2001101420A (en
Inventor
寛 服部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP27257799A priority Critical patent/JP4106163B2/en
Priority to US09/659,815 priority patent/US6963661B1/en
Publication of JP2001101420A publication Critical patent/JP2001101420A/en
Priority to US11/116,307 priority patent/US7362881B2/en
Priority to US12/028,646 priority patent/US7706572B2/en
Application granted granted Critical
Publication of JP4106163B2 publication Critical patent/JP4106163B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、例えば、自動車の安全運転を支援するために、車載カメラにより、先行車や歩行者、駐車車両等、道路上に存在する障害物を検出する障害物検出装置、その方法及び記録媒体に関する。
【0002】
【従来の技術】
車に搭載したセンサを用いて、歩行者、他の歩行車両、駐車車両等の道路上の障害物を検知するための技術は、交通事故を防止する上で極めて重要な技術である。
【0003】
この車載センサによる障害物検知技術は、レーザや超音波等を利用するものと、TVカメラを利用するものに大別される。
【0004】
レーザを利用するものは高価であり、超音波を利用するものは超音波の解像度が低いため、障害物の検出精度に問題がある。
【0005】
これに対し、TVカメラは比較的安価であり、解像度や計測精度、計測範囲の面からも障害物検出に適する。また、TVカメラは走行レーンの検出も可能である。
【0006】
このTVカメラを用いる場合、1台のカメラを使用する方法と複数台のカメラ(ステレオカメラ)を使用する方法がある。
【0007】
1台のカメラを使用する方法は、そのカメラで撮影した1枚の画像から、輝度や色、あるいはテクスチャ(模様)等の情報を手がかりにして道路領域と障害物領域を分離する。
【0008】
例えば、画像中で精度の低い中程度の輝度領域、つまり灰色の領域を道路領域として抽出したり、テクスチャの少ない領域を道路領域として抽出し、それ以外の領域を障害物領域とする。
【0009】
しかし、道路と似た輝度、色、あるいはテクスチャを持つ障害物も数多く存在するため、この方法で一般の状況下において障害物領域と道路領域を切り分けるのは困難である。
【0010】
これに対し、複数台のカメラを用いる方法は3次元情報を手がかりにして障害物を検出する。
【0011】
複数台のカメラを用いて対象シーンの3次元情報を得る技術は、一般にステレオ視と呼ばれる。ステレオ視とは、例えば2つのカメラを左右に配置し、3次元空間中で同一である点を左右画像間で対応づけ、三角測量の要領で、その点の3次元位置を求めるものである。各カメラの道路平面からの高さや道路平面に対する傾き等を予め求めておくと、ステレオ視により、画像中の任意の点の道路平面からの高さが得られる。したがって、道路平面からの高さの有無により、障害物領域と道路領域を分離することができる。
【0012】
前記の1台のカメラを用いる方式では、前述のように、道路と似た輝度や色、テクスチャを持つ領域を障害物として検出することは困難であるが、ステレオ視によれば、道路面からの高さを手がかりにして障害物を検出するため、より一般的なシーンでの障害物検出が可能である。
【0013】
しかし、通常のステレオ視は、画像上の任意の点のステレオカメラからの距離を求める技術であり、このためには、予め複数のカメラの間隔や向き、及びカメラレンズの焦点距離、画像中心等に関するパラメータ(カメラパラメータ)を求める必要がある。これらのパラメータを求める作業をキャリブレーション(カメラキャリブレーション)と呼ぶ。
【0014】
キャリブレーションは、3次元位置が既知なサンプル点を多数用意し、その画像への投影位置を求め、各サンプル点の3次元位置と投影位置の間に成り立つ関係式を連立させてカメラパラメータを算出する作業である。
【0015】
しかし、このキャリブレーションは多大な時間と労力を必要とし、ステレオ視による障害物検出の実用化を妨げる原因の1つとなっている。
【0016】
また、通常のステレオ視は、3次元空間中で同一である点を左右画像間で対応づける必要がある。
【0017】
この対応づけ処理は図1に示すように行われる。左画面上のある点の右画像上の対応点は、同図に示すエピポーララインと呼ばれる線上にある。
【0018】
例えば、2台のカメラを平行に配置した場合には、エピポーララインは走査線に一致する。このエピポーラライン上で最も周囲の輝度のパターンが似ている点を対応点とする。
【0019】
しかし、基本的にこの対応づけは探索計算により行われるため、計算コストが極めて高いという問題がある。
【0020】
【発明が解決しようとする課題】
上記のように、障害物検出装置は、レーザや超音波を用いるものとTVカメラを用いるものに大別できるが、レーザや超音波を利用する障害物検出装置は高価であったり、計測精度が低いという問題があった。
【0021】
また、TVカメラを利用する障害物検出装置は、使用環境が限定されていたり、多大な時間と労力を必要とするキャリブレーションや、計算コストが高い左右画像の対応探索が必要であるという問題があった。
【0022】
そこで、本発明は上記事情を鑑みてなされたもので、一般環境において、比較的低価格で高精度な障害物検出が可能なステレオカメラを使用し、従来のステレオ視の問題であったキャリブレーションと対応探索処理を行うことなく、道路平面上に存在する障害物を高速に検出し、さらに、障害物の画像上の動きから、障害物が自車に衝突するまでの時間を計測する障害物検出装置、その方法及び記録媒体を提供する。
【0023】
【課題を解決するための手段】
本発明は、撮像点の異なる少なくとも2画像を入力し、蓄積する画像入力手段と、(1)前記画像入力手段が蓄積した複数の画像のうち一の画像を基準画像と設定し、(2)他の画像を参照画像と設定し、(3)3次元空間中のある面上を前記基準画像の撮像点に対して相対的に静止、または、運動する物体について、前記物体の動きの無限遠点に対応した前記基準画像上の投影点Uの位置(u0,v0)を抽出する特徴抽出手段と、
前記基準画像上の任意の点Pが前記面上にあると仮定した場合の前記参照画像上の対応点P’を算出し、これら点Pと点P’の輝度差から前記面上に存在しない点が含まれる障害領域を検出する検出手段と、前記検出手段により検出した前記障害領域と前記面との境界線上の点に関して、時刻tの前記基準画像上の位置(u,v)と、時刻(t−dt)の前記基準画像上の位置(u’,v’)と、前記特徴抽出手段により抽出した前記投影点Uの位置(u0,v0)とに基づいて、前記障害領域が前記基準画像の撮像点と一致するまでの衝突時間tcを計算する衝突時間計算手段とを有し、前記衝突時間計算手段は、γ=(v−v0)/(v’−v0)とtc=dt/(γ−1)とから衝突時間tcを求めることを特徴とする障害物検出装置である。
【0030】
本発明であると複数台のカメラで取得した複数の画像を処理して、3次元空間中のある面からの高さの有無により障害物を検出するため、明るさの変動や影の影響を受けず、画像中から障害物を検出することができる。
【0031】
また、従来のステレオ視の問題であった、多大な時間と労力を要するカメラキャリブレーションの作業と、計算コストの高い奥行き探索(対応探索)処理が不要なため、実用的効果は多大である。
【0032】
【発明の実施の形態】
以下で本発明の実施例を図面に従い説明する。
【0033】
本実施例は、図2に示すように車(以下では「自車」と呼ぶ)に左右2台のカメラを搭載し、そのステレオカメラで取得したステレオ画像を処理することにより、歩行者や先行車、駐車車両等、道路平面上に存在する障害物を検出し、さらに、その障害物が自車に衝突するまでの時間を計算する場合を想定している。
【0034】
図3は、本実施例における障害物検出装置の概略構成を示すもので、ここでは画像入力部1、画像蓄積部2、特徴抽出部3、検出部4、衝突時間計算部5から構成している。
【0035】
障害物検出装置では、互いの位置・姿勢や、レンズの焦点距離・画像中心等が未知な2台のカメラによりステレオ画像を取得し、静止時に予め求めておいた道路平面上の点の左右画像への投影位置の間に成り立つ関係を表した式(以下では「道路平面拘束式」と呼ぶ)を用いて、画像上の各点に対して道路平面からの高さの有無を判別し、障害物領域と道路領域を分離する。さらに、その障害物の画像上の軌跡から障害物が自車に衝突するまでの時間を計算する。
【0036】
図4に自車座標系を示す。
【0037】
自車座標系は、自車の進行(前後)方向をY軸方向とし、左右、上下方向を各々X,Z軸、道路平面をXY平面とする。本実施例では、自車と障害物は共に道路両端の2本の白線(直線l,l')に沿って走行することを前提とする。
【0038】
(画像入力部1)
画像入力部1は、左右2台のTVカメラを用いて2枚の画像を取得する。これら2台のカメラの自車座標系に対する位置や姿勢、各カメラのレンズの焦点距離や画像中心は未知であってよいが、本実施例では、各カメラは車に固定されており、走行中には変化しないものとする。
【0039】
(画像蓄積部2)
画像蓄積部2は、画像入力部1により入力された2枚の画像を画像メモリに蓄積する。
【0040】
(特徴抽出部3)
特徴抽出部3は、画像蓄積部2により蓄積された2枚のうちの片方の画像を基準画像とし(以下では左画像を基準画像とする)、その基準画像から図5に示すように、2本の直線l,lを検出する。
【0041】
その交点(2直線上の無限遠点の画像への投影点、以下では「消失点」と呼ぶ)を =(u,v)とする。この直線検出は例えば、エッジ抽出処理とHough変換等を用いて行う。
【0042】
(検出部4)
検出部4は、道路平面上の点の左右画像への投影点間に成り立つ拘束(以下では「道路平面拘束」と呼ぶ)を用いて障害物を検出する。以下にこの道路平面拘束について説明する。
【0043】
道路平面(XY平面)上の任意の点(X,Y)の左右画像への投影点を各々(u,v),(u,v)とすると、
【数1】

Figure 0004106163
という関係式が成り立つ。
【0044】
=(h11,h12,……,t'=(h'11,h'12,……,t'は各カメラの自車座標系に対する3次元位置と姿勢、各カメラに装着したレンズの焦点距離、画像中心に関するパラメータである。
【0045】
式(1),(2)からXとYを消去すると、
【数2】
Figure 0004106163
となる。
【0046】
ただし、=(H11,H12,……H33'で表される定数である。
【0047】
この式により、左画像上の点(u,v)が道路面上の点であると仮定した時の右画像上の対応点を求めることができる。
【0048】
言い換えると、左画像上の点(u,v)が道路平面上にあると仮定すると、その右画像上の対応点(u,v)は上式によって決まる。この式を道路平面拘束式と呼ぶ。
【0049】
なお、この式のパラメータ=(H11,H12,……H33は、静止時に予め求めておく。
【0050】
以下にその方法について説明する。
【0051】
まず、左画像から道路面上の特徴点(道路平面上に描かれた直線の交点や、ペイントの角点等)をN(≧4)個抽出する。
【0052】
次に、抽出した各特徴点の右画像上の対応点を求める。なお、この特徴点抽出と対応づけ処理は、マウスで画像上の点をポインティングすることにより行ってもよい。これらのN組の対応関係は、各々、式(3)を満たすので、2N本の連立方程式を得る。
【0053】
この連立方程式をについて解くことによりパラメータを求めることができる。
【0054】
この道路平面拘束式を用いて障害物を検出する方法について以下に示す。
【0055】
左画像の任意の点A(u,v)の輝度をI(u,v)とし、点Aが道路平面上に存在すると仮定した場合の右画像上の対応点A'(u,v)を式(3)から求め、その輝度をI(u,v)とする。
【0056】
点(u,v)が実際に道路平面上に存在すれば、点AとA'は正しい対応点の組(点AとA'が道路面上の同じ点の投影点)となるから、基本的には点Aと点A'の輝度が同じになる。したがって、
【数3】
Figure 0004106163
とおくとDiff=0となる。
【0057】
逆に、Diff=0でなければ点A(u,v)とA'(u,v)は正しい対応点の組ではないことになり、点(u,v)は道路平面上に存在しない点、つまり障害物上の点となる。
【0058】
これら一連の処理を基準画像上の全ての点に対して行うと、障害物領域を検出することができる。
【0059】
この際、障害物か否かの判定基準として、ある程度の誤差を考慮し、Diff>Thrとなる点は障害物領域に属すると判定してもよい。
【0060】
ここで、Thrは予め設定した閾値である。
【0061】
例えば、図6上に示すステレオ画像から、同図下に示すような障害物領域が検出される。
【0062】
(衝突時間計測部5)
衝突時間計測部5は、ステレオ画像のうちのどちらかの画像(これを基準画像と呼び、本実施例では、前記したように左画像を基準画像とする)上の障害物の軌跡(障害物の位置の時間変化)から、自車がその障害物に衝突するまでの時間(衝突時間)を計測する。
【0063】
まず、衝突時間について説明する。
【0064】
式(1)の分母をDとおく。すなわち、
D=h31X+h32Y+t (5)
である。
【0065】
Dは、図7に示すように、障害物の道路平面との接点T(X,Y)と基準カメラの視点Cの光軸方向の距離、すなわち奥行きである。
【0066】
時刻t−dt,tにおける障害物の道路平面との接点T',Tの奥行きを各々D',Dとする。ここで、障害物が自車座標系に対して時刻t−dt,t間の運動を継続した場合に奥行きが0になるまでの時間を衝突時間tと定義する。
【0067】
図8に奥行きの時間変化を示す。
【0068】
現在の時刻tから奥行きが0になるまでの時間が衝突時間tなので、tは同図のように表される。斜線で示した2つの三角形の相似関係から、
【数4】
Figure 0004106163
ただし、γ=D'/Dである。
【0069】
つまり、異なる2時刻における奥行きの比γから衝突時間tを求めることができる。
【0070】
以下に検出部4によって求めた各時刻の障害物領域の位置から、その衝突時間を計算する方法について説明する。
【0071】
現在の時刻tとそれより前の時刻t−dtにおいて障害物領域が基準画像上で図9に示すように検出されたとし、時刻tにおいて検出された障害物領域の最下端の線(障害物領域と道路領域の境界線)上の任意の1点を=(u,v)とする。点=(u,v)の時刻t−dtにおける位置'=(u',v')は、点 を結ぶ直線と、時刻t−dtにおける障害物領域と道路領域の境界線の交点として求めることができる。
【0072】
また、時刻t−dt,tにおける障害物の道路平面上の位置を各々、'=(X,Y+dY),=(X,Y)とする。
【0073】
本実施例では、自車と障害物はY軸に沿って運動する(進行方向が一致する)と仮定しているので、各時刻の障害物の位置のX座標は同一となる。'までの奥行きは、
【数5】
Figure 0004106163
ここで、Y軸に平行な直線l,l'上の無限遠方の点の投影点が =(u,v)であるから、式(1)でY→∞として、
【数6】
Figure 0004106163
このγを式(7)に代入することによって、障害物の衝突時間を計算することができる。
【0074】
つまり、図9に示すように道路平面上を運動する障害物の衝突時間は、その障害物の道路平面との接点の時刻t−dt,tにおける画像上の位置u',uと、直線l,l'の消失点 のみから計算でき、自車座標系に対するカメラの位置や姿勢に依存しない。
【0075】
以上のようにして、車載のステレオカメラからカメラパラメータを用いずに、かつ、奥行き探索を行うことなく道路平面上の障害物を検出し、さらに、その障害物が自車に衝突するまでの時間を計算することができる。
【0076】
(実施例の効果)
以上により、本実施例であると、ステレオカメラで取得したステレオ画像を処理して、道路平面からの高さの有無により障害物を検出するため、明るさの変動や影の影響を受けず、画像中から先行車や歩行者等の障害物を検出することができる。また、従来のステレオ視の問題であった、多大な時間と労力を要するカメラキャリブレーションの作業と、計算コストの高い奥行き探索(対応探索)処理が不要なため、実用的効果は多大である。
【0077】
(変更例1)
本実施例は画像入力部1で、2台のTVカメラを左右に並べて2枚の画像を入力しているが、これらのカメラは上下に配置してもよい。
【0078】
また、3台以上のカメラを配置してもよい。
【0079】
(変更例2)
特徴抽出部3は、道路平面上の2本の線を抽出する場合について説明したが、3本以上の線を抽出してもよいし、方向ベクトルが同じであれば、道路平面上にない線、例えば、ガードレール上の線を抽出してもよい。
【0080】
(変更例3)
検出部4はさらに図10に示す構成をとることもできる。
【0081】
ここでは、画像変換部4−1,差異計算部4−2から構成している。
【0082】
画像変換部4−1は、右画像を以下の手順に従って画像変換する。一般に、画像は画像上の点(u,v)を変数とし、その各点に対して輝度値が定義された関数f(u,v)として表現できる。以下では画像をこのように表現する。
【0083】
図11に示すようなステレオ画像が入力されたとし、右画像をg(u,v)、その変換後の画像をg'(u,v)を求める。以下のように、g'(u,v)を求める。
【0084】
【数7】
Figure 0004106163
ただし、(u,v)は、式(3)より求める。g'(u,v)は、画像g(u,v)上の全ての点が道路平面上に存在すると仮定した場合に、左カメラで得られる画像である。
【0085】
例えば、図12の右画像からは、同図に示すような変換画像を得る。
【0086】
図13に示すように、道路平面上にある点の投影点は、左画像と変換画像で同一となるのに対し、道路平面上にない点、すなわち、障害物(この場合は先行車両)上の点は、道路からの高さに応じて異なる位置に投影される。
【0087】
したがって、この左画像と変換画像の差分を取ることにより、道路平面上の障害物を検出する。つまり、左画像をf(u,v)とすると、
【数8】
Figure 0004106163
として、Diff'=0でなければ、あるいは誤差を考慮して、Diff'>Thr(Thrは予め設定した閾値)となる点(u,v)は障害物領域に属すると判定する。
【0088】
(変更例4)
検出部4は画素間差分をとることによって2枚の画像の差異を検出したが、各点に対して(2w+1)×(2w+1)のウィンドウを設定し、ウィンドウ内の輝度値の平均や分散、正規化相互相関等から差異を検出してもよい。
【0089】
2枚の画像F(u,v),G(u,v)の点(u,v)の正規化相互相関Cは以下の式から算出できる。
【0090】
【数9】
Figure 0004106163
ここで、N=(2w+1)×(2w+1),a,aは2枚の画像のウィンドウ内の輝度の平均、σ ,σ は2枚の画像ウィンドウ内の輝度の分散であり、−1≦C≦1である。
【0091】
この場合、C<Thrとなる点(u,v)が障害物領域に属すると判定する。ここで、Thr(≦1)は予め設定した閾値である。
【0092】
(変更例5)
本実施例では道路両端の2本の白線を直線として抽出したが、道路がカーブしている場合には白線は曲線となる。
【0093】
この場合には、白線を曲線として抽出すれば、同様に障害物を検出することができる。
【0094】
(変更例6)
道路面として平面を仮定して説明したが、曲面の場合であっても、平面の場合と同様に障害物を検出することができる。
【0095】
(変更例7)
自車と障害物に対し、車線に平行な運動を仮定したが、平行でない場合(例えば、車線変更する場合)にも適用可能である。
【0096】
(変更例8)
本実施例は、車載カメラからの障害物検出に関して記述したが、例えば、移動ロボットの自律走行にも適用することが可能であり、本手法は車載カメラからの障害物検出に限定されるものではない。
【0097】
(変更例9)
ステレオカメラを車の前方に設置し、前方の障害物を検出する場合について記述したが、車の側方や後方に設置して、各々の方向の障害物を検出することも可能である。
【0098】
(変更例10)
衝突時間計測部5は、計算した障害物に衝突するまでの時間が小さい場合には自車ドライバーに警報を発したり、衝突時間の大小に応じて音量や音質の異なる警報を発することも可能である。
【0099】
(変更例11)
車載ステレオカメラのカメラパラメータは走行中に変化しないものとしたが、変化する場合には道路平面拘束を更新すれば同様に障害物を検出し、その衝突時間を計算することができる。
【0100】
その他、本発明の要旨を逸脱しない範囲で変形を実施できる。
【0101】
【発明の効果】
本発明であると複数台のカメラで取得した複数の画像を処理して、3次元空間中のある面からの高さの有無により障害物を検出するため、明るさの変動や影の影響を受けず、画像中から障害物を検出することができる。
【0102】
また、従来のステレオ視の問題であった、多大な時間と労力を要するカメラキャリブレーションの作業と、計算コストの高い奥行き探索(対応探索)処理が不要なため、実用的効果は多大である。
【図面の簡単な説明】
【図1】ステレオ視の対応探索を説明するための図である。
【図2】本実施例の自車の説明図である。
【図3】本実施例の障害物検出装置のブロック図である。
【図4】自車座標系を説明するための図である。
【図5】特徴抽出部3における直線抽出処理を説明するための図である。
【図6】検出部4における障害物検出処理を説明するための図である。
【図7】奥行きを説明するための図である。
【図8】衝突時間を説明するための図(その1)である。
【図9】衝突時間を説明するための図(その2)である。
【図10】検出部4の変更例のブロック図である。
【図11】ステレオ画像である。
【図12】右画像とその変換画像を説明するための図である。
【図13】左画像と右画像の変換画像を説明するための図である。
【符号の説明】
1 画像入力部
2 画像蓄積部
3 特徴抽出部
4 検出部
5 衝突時間計算部[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an obstacle detection device for detecting obstacles existing on a road, such as a preceding vehicle, a pedestrian, a parked vehicle, etc., with a vehicle-mounted camera, for example, in order to support safe driving of an automobile, its method and recording medium About.
[0002]
[Prior art]
A technique for detecting obstacles on a road such as a pedestrian, another walking vehicle, and a parked vehicle using a sensor mounted on a car is a very important technique for preventing a traffic accident.
[0003]
Obstacle detection technology using this in-vehicle sensor is broadly classified into those using lasers and ultrasonic waves and those using TV cameras.
[0004]
Those using a laser are expensive, and those using an ultrasonic wave have a low resolution of the ultrasonic wave, so that there is a problem in obstacle detection accuracy.
[0005]
On the other hand, the TV camera is relatively inexpensive and is suitable for obstacle detection in terms of resolution, measurement accuracy, and measurement range. The TV camera can also detect the traveling lane.
[0006]
When using this TV camera, there are a method using one camera and a method using a plurality of cameras (stereo cameras).
[0007]
In the method using one camera, a road area and an obstacle area are separated from one image captured by the camera using information such as luminance, color, texture (pattern), and the like.
[0008]
For example, a medium luminance area with low accuracy in the image, that is, a gray area is extracted as a road area, an area with less texture is extracted as a road area, and the other areas are defined as obstacle areas.
[0009]
However, since there are many obstacles having luminance, color, or texture similar to roads, it is difficult to separate an obstacle area and a road area under this general method.
[0010]
On the other hand, the method using a plurality of cameras detects an obstacle using the three-dimensional information as a clue.
[0011]
A technique for obtaining three-dimensional information of a target scene using a plurality of cameras is generally called stereo vision. Stereo vision refers to, for example, arranging two cameras on the left and right sides, associating the same point in the three-dimensional space between the left and right images, and obtaining the three-dimensional position of the point in the manner of triangulation. If the height of each camera from the road plane, the inclination with respect to the road plane, and the like are obtained in advance, the height from the road plane at an arbitrary point in the image can be obtained by stereo viewing. Therefore, the obstacle area and the road area can be separated based on the presence or absence of the height from the road plane.
[0012]
In the method using one camera, as described above, it is difficult to detect an area having luminance, color, and texture similar to a road as an obstacle. Since the obstacle is detected using the height of the object as a clue, it is possible to detect the obstacle in a more general scene.
[0013]
However, normal stereo vision is a technique for obtaining the distance from a stereo camera at an arbitrary point on the image. For this purpose, the distance and orientation of a plurality of cameras, the focal length of the camera lens, the image center, etc. It is necessary to obtain a parameter (camera parameter). The operation for obtaining these parameters is called calibration (camera calibration).
[0014]
Calibration prepares a large number of sample points with known three-dimensional positions, calculates the projection position on the image, and calculates the camera parameters by combining the relational expressions established between the three-dimensional position and the projection position of each sample point. It is work to do.
[0015]
However, this calibration requires a lot of time and labor, and is one of the causes that hinder the practical use of obstacle detection by stereo vision.
[0016]
Further, in normal stereo vision, it is necessary to associate the same point in the three-dimensional space between the left and right images.
[0017]
This association process is performed as shown in FIG. A corresponding point on the right image of a certain point on the left screen is on a line called an epipolar line shown in FIG.
[0018]
For example, when two cameras are arranged in parallel, the epipolar line coincides with the scanning line. A point having the most similar luminance pattern on the epipolar line is taken as a corresponding point.
[0019]
However, since this association is basically performed by search calculation, there is a problem that the calculation cost is extremely high.
[0020]
[Problems to be solved by the invention]
As described above, obstacle detection devices can be broadly classified into those using lasers and ultrasonic waves and those using TV cameras. Obstacle detection devices using lasers and ultrasonic waves are expensive and have high measurement accuracy. There was a problem of being low.
[0021]
Moreover, the obstacle detection apparatus using a TV camera has a problem that the use environment is limited, calibration that requires a lot of time and labor, and correspondence search of left and right images that require high calculation costs are necessary. there were.
[0022]
Therefore, the present invention has been made in view of the above circumstances, and uses a stereo camera capable of detecting obstacles with high accuracy and relatively low price in a general environment, and has been a problem of conventional stereo vision calibration. Obstacles that detect obstacles on the road plane at high speed without performing correspondence search processing, and measure the time from the movement of the obstacles on the image until the obstacles collide with the vehicle A detection apparatus, a method thereof, and a recording medium are provided.
[0023]
[Means for Solving the Problems]
The present invention includes: an image input unit that inputs and stores at least two images having different imaging points; (1) one image among a plurality of images stored by the image input unit is set as a reference image; set a reference image and another image, (3) the upper surfaces of the three-dimensional space, stationary relative to the imaging point of the reference image or the moving object, endless movement of the object Feature extraction means for extracting the position (u0, v0) of the projection point U on the reference image corresponding to the far point;
The corresponding point P ′ on the reference image when an arbitrary point P on the reference image is assumed to be on the surface is calculated, and does not exist on the surface from the luminance difference between these points P and P ′. A detection unit that detects a faulty area including a point, a position (u, v) on the reference image at a time t with respect to a point on a boundary line between the faulty area and the surface detected by the detection unit, and a time Based on the position (u ′, v ′) on the reference image at (t−dt) and the position (u0, v0) of the projection point U extracted by the feature extraction means, A collision time calculation means for calculating a collision time tc until the image capture point coincides with the image capturing point. The collision time calculation means includes γ = (v−v0) / (v′−v0) and tc = dt / The obstacle detection device is characterized in that the collision time tc is obtained from (γ−1) .
[0030]
In the present invention, a plurality of images acquired by a plurality of cameras are processed to detect an obstacle based on the presence or absence of a height from a certain surface in a three-dimensional space. The obstacle can be detected from the image without receiving it.
[0031]
In addition, since there is no need for a camera calibration operation that requires a lot of time and labor and a depth search (correspondence search) process with a high calculation cost, which is a problem of conventional stereo vision, the practical effect is great.
[0032]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described below with reference to the drawings.
[0033]
In the present embodiment, as shown in FIG. 2, two left and right cameras are mounted on a vehicle (hereinafter referred to as “own vehicle”), and a stereo image acquired by the stereo camera is processed, so that a pedestrian or a preceding vehicle is processed. It is assumed that an obstacle such as a car, a parked vehicle, or the like existing on the road plane is detected and the time until the obstacle collides with the own vehicle is calculated.
[0034]
FIG. 3 shows a schematic configuration of the obstacle detection apparatus in the present embodiment, which is composed of an image input unit 1, an image storage unit 2, a feature extraction unit 3, a detection unit 4, and a collision time calculation unit 5. Yes.
[0035]
In the obstacle detection device, stereo images are acquired by two cameras whose position / posture, focal length of the lens, image center, etc. are unknown, and left and right images of points on the road plane that have been obtained in advance at rest Using a formula that expresses the relationship between the projected positions on the screen (hereinafter referred to as the “road plane constraint formula”), it is determined whether each point on the image has a height from the road plane, Separate the object area from the road area. Furthermore, the time until the obstacle collides with the host vehicle is calculated from the locus on the obstacle image.
[0036]
FIG. 4 shows the host vehicle coordinate system.
[0037]
In the own vehicle coordinate system, the traveling (front-rear) direction of the own vehicle is the Y-axis direction, the left and right and up-and-down directions are the X and Z axes, respectively, and the road plane is the XY plane. In this embodiment, it is assumed that both the vehicle and the obstacle travel along two white lines (straight lines l and l ′) at both ends of the road.
[0038]
(Image input unit 1)
The image input unit 1 acquires two images using two left and right TV cameras. Although the position and orientation of these two cameras with respect to the vehicle coordinate system, the focal length of the lens of each camera, and the image center may be unknown, in this embodiment, each camera is fixed to the car and is running. Shall not change.
[0039]
(Image storage unit 2)
The image storage unit 2 stores the two images input by the image input unit 1 in the image memory.
[0040]
(Feature extraction unit 3)
The feature extraction unit 3 uses one of the two images stored by the image storage unit 2 as a reference image (hereinafter, the left image is used as a reference image). As shown in FIG. The straight lines l 1 and l 2 are detected.
[0041]
Let u 0 = (u 0 , v 0 ) be the intersection (projection point on an image at an infinite point on two straight lines, hereinafter referred to as “vanishing point”). This straight line detection is performed using, for example, edge extraction processing and Hough transformation.
[0042]
(Detector 4)
The detection unit 4 detects an obstacle using a constraint (hereinafter referred to as “road plane constraint”) established between points projected on the left and right images of points on the road plane. The road plane constraint will be described below.
[0043]
Any point on the road plane (XY plane) (X, Y) of the projected points to the left and right images for each (u, v), when the (u r, v r),
[Expression 1]
Figure 0004106163
The following relational expression holds.
[0044]
h = (h 11 , h 12 ,..., t 3 ) T , h ′ = (h ′ 11 , h ′ 12 ,..., t ′ 3 ) T is the three-dimensional position of each camera relative to its own vehicle coordinate system. These are parameters relating to the posture, the focal length of the lens mounted on each camera, and the image center.
[0045]
If X and Y are deleted from the equations (1) and (2),
[Expression 2]
Figure 0004106163
It becomes.
[0046]
Here, H = (H 11 , H 12 ,... H 33 ) T is a constant represented by h 1 and h ′.
[0047]
From this equation, the corresponding point on the right image when the point (u, v) on the left image is assumed to be a point on the road surface can be obtained.
[0048]
In other words, assuming that the point (u, v) on the left image is on the road plane, the corresponding point (u r , v r ) on the right image is determined by the above equation. This equation is called a road plane constraint equation.
[0049]
It should be noted that the parameter H = (H 11 , H 12 ,... H 33 ) T in this equation is obtained in advance when the vehicle is stationary.
[0050]
The method will be described below.
[0051]
First, N (≧ 4) feature points on the road surface (intersections of straight lines drawn on the road plane, corner points of paint, etc.) are extracted from the left image.
[0052]
Next, a corresponding point on the right image of each extracted feature point is obtained. Note that this feature point extraction and association processing may be performed by pointing a point on the image with a mouse. Each of these N sets of correspondences satisfies Equation (3), and thus 2N simultaneous equations are obtained.
[0053]
The parameter H can be obtained by solving this simultaneous equation for H.
[0054]
A method for detecting an obstacle using this road plane constraint formula will be described below.
[0055]
The luminance of an arbitrary point A (u, v) in the left image is I L (u, v), and the corresponding point A ′ (u r , v on the right image when it is assumed that the point A exists on the road plane. the r) obtained from the equation (3), to the luminance I R (u r, and v r).
[0056]
If the point (u, v) actually exists on the road plane, the points A and A ′ are a correct pair of corresponding points (the points A and A ′ are projection points of the same point on the road surface). Specifically, the brightness of the point A and the point A ′ is the same. Therefore,
[Equation 3]
Figure 0004106163
In other words, Diff = 0.
[0057]
Conversely, Diff = 0 unless the point A (u, v) and A '(u r, v r ) becomes not a correct corresponding point pairs, the point (u, v) is present on the road plane It is a point that does not work, that is, a point on the obstacle.
[0058]
When these series of processes are performed on all points on the reference image, the obstacle region can be detected.
[0059]
At this time, as a criterion for determining whether or not the object is an obstacle, a point where Diff> Thr may be determined to belong to the obstacle region in consideration of a certain amount of error.
[0060]
Here, Thr is a preset threshold value.
[0061]
For example, an obstacle region as shown in the lower part of the figure is detected from the stereo image shown in the upper part of FIG.
[0062]
(Collision time measurement unit 5)
The collision time measuring unit 5 is a trajectory (obstacle) of an obstacle on one of the stereo images (this is referred to as a reference image, and in the present embodiment, the left image is used as the reference image as described above). The time until the host vehicle collides with the obstacle (collision time) is measured.
[0063]
First, the collision time will be described.
[0064]
Let D be the denominator of equation (1). That is,
D = h 31 X + h 32 Y + t 3 (5)
It is.
[0065]
As shown in FIG. 7, D is the distance in the optical axis direction between the contact T (X, Y) with the road plane of the obstacle and the viewpoint C of the reference camera, that is, the depth.
[0066]
Depths of the contact points T ′ and T with the road plane of the obstacle at time t-dt and t are D ′ and D, respectively. Here, the obstacle is defined as the time t-dt, collision time the time until the depth is 0 when continuing the movement between t t c relative to the vehicle coordinate system.
[0067]
FIG. 8 shows the time change of the depth.
[0068]
Since the time from the current time t until the depth becomes 0 is the collision time t c , t c is expressed as shown in FIG. From the similarity of two triangles indicated by diagonal lines,
[Expression 4]
Figure 0004106163
However, γ = D ′ / D.
[0069]
That is, the collision time t c can be obtained from the depth ratio γ at two different times.
[0070]
A method for calculating the collision time from the position of the obstacle area at each time obtained by the detection unit 4 will be described below.
[0071]
Assume that an obstacle area is detected on the reference image as shown in FIG. 9 at the current time t and a time t-dt before that, and the line at the lowest end of the obstacle area (obstacles) detected at the time t. Arbitrary one point on the boundary line between the area and the road area) is set to u = (u, v). The position u ′ = (u ′, v ′) at the time point t = dt of the point u = (u, v) is a straight line connecting the points u 0 , u and the boundary between the obstacle region and the road region at the time t-dt. It can be determined as the intersection of lines.
[0072]
Further, the positions of the obstacles on the road plane at the time t-dt, t are set as X ′ = (X, Y + dY) and X = (X, Y), respectively.
[0073]
In this embodiment, it is assumed that the own vehicle and the obstacle move along the Y axis (the traveling directions coincide), so the X coordinate of the position of the obstacle at each time is the same. The depth to X 'is
[Equation 5]
Figure 0004106163
Here, since the projection point of the point at infinity on the straight lines l and l ′ parallel to the Y axis is u 0 = (u 0 , v 0 ), Y → ∞ in the equation (1)
[Formula 6]
Figure 0004106163
By substituting γ into equation (7), the collision time of the obstacle can be calculated.
[0074]
That is, as shown in FIG. 9, the collision time of the obstacle moving on the road plane is determined by the position u ′, u on the image at the time t−dt, t of the contact point of the obstacle with the road plane and the straight line l. , L ′ can be calculated only from the vanishing point u 0 and does not depend on the position and orientation of the camera with respect to the vehicle coordinate system.
[0075]
As described above, an obstacle on the road plane is detected from the in-vehicle stereo camera without using camera parameters and without performing a depth search, and further, the time until the obstacle collides with the own vehicle. Can be calculated.
[0076]
(Effect of Example)
As described above, in the present embodiment, the stereo image acquired by the stereo camera is processed, and the obstacle is detected based on the presence or absence of the height from the road plane. Obstacles such as preceding cars and pedestrians can be detected from the image. In addition, since there is no need for a camera calibration operation that requires a lot of time and labor and a depth search (correspondence search) process with a high calculation cost, which is a problem of conventional stereo vision, the practical effect is great.
[0077]
(Modification 1)
In the present embodiment, the image input unit 1 inputs two images by arranging two TV cameras on the left and right, but these cameras may be arranged vertically.
[0078]
Three or more cameras may be arranged.
[0079]
(Modification 2)
The feature extraction unit 3 has been described with respect to extracting two lines on the road plane. However, three or more lines may be extracted. If the direction vector is the same, a line that is not on the road plane may be extracted. For example, a line on the guard rail may be extracted.
[0080]
(Modification 3)
The detection unit 4 can further have the configuration shown in FIG.
[0081]
Here, the image conversion unit 4-1 and the difference calculation unit 4-2 are used.
[0082]
The image conversion unit 4-1 converts the right image according to the following procedure. In general, an image can be expressed as a function f (u, v) in which a point (u, v) on the image is a variable and a luminance value is defined for each point. In the following, the image is expressed in this way.
[0083]
If a stereo image as shown in FIG. 11 is input, g (u, v) is obtained for the right image, and g ′ (u, v) is obtained for the converted image. G ′ (u, v) is obtained as follows.
[0084]
[Expression 7]
Figure 0004106163
However, (u r , v r ) is obtained from equation (3). g ′ (u, v) is an image obtained by the left camera when it is assumed that all points on the image g (u, v) exist on the road plane.
[0085]
For example, a converted image as shown in FIG. 12 is obtained from the right image in FIG.
[0086]
As shown in FIG. 13, the projected point of a point on the road plane is the same in the left image and the converted image, whereas it is not on the road plane, that is, on an obstacle (in this case, a preceding vehicle). These points are projected at different positions depending on the height from the road.
[0087]
Therefore, an obstacle on the road plane is detected by taking the difference between the left image and the converted image. That is, if the left image is f (u, v),
[Equation 8]
Figure 0004106163
As such, it is determined that the point (u, v) where Diff ′> Thr (Thr is a preset threshold value) does not belong to the obstacle region, if Diff ′ = 0 is not taken into consideration.
[0088]
(Modification 4)
The detection unit 4 detects the difference between the two images by taking the difference between the pixels, but sets a (2w + 1) × (2w + 1) window for each point, and averages and variances of luminance values in the window, A difference may be detected from normalized cross-correlation or the like.
[0089]
The normalized cross-correlation C of the point (u, v) of the two images F (u, v) and G (u, v) can be calculated from the following equation.
[0090]
[Equation 9]
Figure 0004106163
Here, N = (2w + 1) × (2w + 1), a 1 , a 2 are the average luminance in the windows of the two images, and σ 2 1 , σ 2 2 are the variances of the luminance in the two image windows. Yes, -1 ≦ C ≦ 1.
[0091]
In this case, it is determined that the point (u, v) where C <Thr belongs to the obstacle region. Here, Thr (≦ 1) is a preset threshold value.
[0092]
(Modification 5)
In this embodiment, two white lines at both ends of the road are extracted as straight lines. However, when the road is curved, the white lines are curved.
[0093]
In this case, if a white line is extracted as a curve, an obstacle can be detected in the same manner.
[0094]
(Modification 6)
Although the description has been made on the assumption that a road surface is a plane, an obstacle can be detected even in the case of a curved surface, as in the case of a plane.
[0095]
(Modification 7)
Although the movement parallel to the lane is assumed with respect to the own vehicle and the obstacle, the present invention is also applicable when the movement is not parallel (for example, when changing the lane).
[0096]
(Modification 8)
Although the present embodiment has been described with respect to obstacle detection from an in-vehicle camera, for example, it can be applied to autonomous traveling of a mobile robot, and this method is not limited to the detection of an obstacle from an in-vehicle camera. Absent.
[0097]
(Modification 9)
Although the case where the stereo camera is installed in front of the vehicle and the obstacle in the front is detected has been described, it is also possible to install the stereo camera in the side or rear of the vehicle and detect the obstacle in each direction.
[0098]
(Modification 10)
The collision time measurement unit 5 can issue a warning to the driver of the vehicle when the time until the collision with the calculated obstacle is small, or can issue a warning with different volume and sound quality depending on the magnitude of the collision time. is there.
[0099]
(Modification 11)
The camera parameters of the in-vehicle stereo camera are assumed not to change during traveling. However, if the vehicle parameters change, the obstacle can be detected in the same manner by updating the road plane constraint, and the collision time can be calculated.
[0100]
In addition, modifications can be made without departing from the scope of the present invention.
[0101]
【The invention's effect】
In the present invention, a plurality of images acquired by a plurality of cameras are processed to detect an obstacle based on the presence or absence of a height from a certain surface in a three-dimensional space. The obstacle can be detected from the image without receiving it.
[0102]
In addition, since there is no need for a camera calibration operation that requires a lot of time and labor and a depth search (correspondence search) process with a high calculation cost, which is a problem of conventional stereo vision, the practical effect is great.
[Brief description of the drawings]
FIG. 1 is a diagram for explaining correspondence search for stereo vision;
FIG. 2 is an explanatory diagram of the own vehicle according to the present embodiment.
FIG. 3 is a block diagram of an obstacle detection apparatus according to the present embodiment.
FIG. 4 is a diagram for explaining a host vehicle coordinate system;
FIG. 5 is a diagram for explaining straight line extraction processing in a feature extraction unit 3;
FIG. 6 is a diagram for explaining an obstacle detection process in a detection unit 4;
FIG. 7 is a diagram for explaining depth.
FIG. 8 is a diagram (part 1) for explaining a collision time;
FIG. 9 is a diagram (part 2) for explaining the collision time;
FIG. 10 is a block diagram of a modified example of the detection unit 4;
FIG. 11 is a stereo image.
FIG. 12 is a diagram for explaining a right image and its converted image.
FIG. 13 is a diagram for explaining a converted image of a left image and a right image.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 Image input part 2 Image storage part 3 Feature extraction part 4 Detection part 5 Collision time calculation part

Claims (6)

撮像点の異なる少なくとも2画像を入力し、蓄積する画像入力手段と、
(1)前記画像入力手段が蓄積した複数の画像のうち一の画像を基準画像と設定し、(2)他の画像を参照画像と設定し、(3)3次元空間中のある面上を前記基準画像の撮像点に対して相対的に静止、または、運動する物体について、前記物体の動きの無限遠点に対応した前記基準画像上の投影点Uの位置(u0,v0)を抽出する特徴抽出手段と、
前記基準画像上の任意の点Pが前記面上にあると仮定した場合の前記参照画像上の対応点P’を算出し、これら点Pと点P’の輝度差から前記面上に存在しない点が含まれる障害領域を検出する検出手段と、
前記検出手段により検出した前記障害領域と前記面との境界線上の点に関して、時刻tの前記基準画像上の位置(u,v)と、時刻(t−dt)の前記基準画像上の位置(u’,v’)と、前記特徴抽出手段により抽出した前記投影点Uの位置(u0,v0)とに基づいて、前記障害領域が前記基準画像の撮像点と一致するまでの衝突時間tcを計算する衝突時間計算手段とを有し、
前記衝突時間計算手段は、γ=(v−v0)/(v’−v0)とtc=dt/(γ−1)とから衝突時間tcを求める
ことを特徴とする障害物検出装置。
Image input means for inputting and storing at least two images having different imaging points;
(1) One image among a plurality of images accumulated by the image input means is set as a reference image , (2) another image is set as a reference image, and (3) a certain surface in a three-dimensional space , stationary relative to the imaging point of the reference image, or extracting the moving object, the position of the projected point U on the reference image corresponding to the point at infinity of the motion of the object of (u0, v0) Feature extraction means for
The corresponding point P ′ on the reference image when an arbitrary point P on the reference image is assumed to be on the surface is calculated, and does not exist on the surface from the luminance difference between these points P and P ′. Detecting means for detecting a faulty region including a point;
Regarding the point on the boundary line between the obstacle area and the surface detected by the detecting means, the position (u, v) on the reference image at time t and the position on the reference image at time (t-dt) ( u ′, v ′) and the position (u0, v0) of the projection point U extracted by the feature extraction means, the collision time tc until the obstacle area coincides with the imaging point of the reference image is calculated . A collision time calculation means for calculating,
The obstacle detection device, wherein the collision time calculation means obtains a collision time tc from γ = (v−v0) / (v′−v0) and tc = dt / (γ−1) .
前記特徴抽出手段が、
前記物体の動きの方向に一致する複数の線を、前記基準画像から抽出し、
それら抽出した複数の線の交点を前記投影点Uとする
ことを特徴とする請求項記載の障害物検出装置。
The feature extraction means is
Extracting a plurality of lines that match the direction of movement of the object from the reference image;
Obstacle detection device according to claim 1, wherein the intersections of a plurality of lines and their extracts, characterized in that said projection point U.
前記複数の画像の撮像点に対応する3次元空間上の互いの位置、前記画像を撮影するカメラの姿勢、前記各画像を撮影する各カメラの焦点距離、及び、画像中心が未知である
ことを特徴とする請求項記載の障害物検出装置。
The mutual position in the three-dimensional space corresponding to the imaging points of the plurality of images, the attitude of the camera that captures the image, the focal length of each camera that captures each image , and the image center are unknown. The obstacle detection device according to claim 1, wherein:
前記検出手段は、
前記基準画像上の任意の点Pが前記面上にあると仮定した場合の前記参照画像上の対応点P’を算出し、
前記点Pと点P’の周囲の輝度の類似度が閾値より小さいときに前記面上に存在しない点を検出する
ことを特徴とする請求項記載の障害物検出装置。
The detection means includes
Calculating a corresponding point P ′ on the reference image when an arbitrary point P on the reference image is assumed to be on the surface;
Obstacle detection device according to claim 1, wherein the detecting a point that is not on the surface when the similarity of the brightness of the surroundings is less than the threshold value of the point P and the point P '.
撮像点の異なる少なくとも2画像を入力し、蓄積する画像入力ステップと、
(1)前記画像入力ステップが蓄積した複数の画像のうち一の画像を基準画像と設定し、(2)他の画像を参照画像と設定し、(3)3次元空間中のある面上を前記基準画像の撮像点に対して相対的に静止、または、運動する物体について、前記物体の動きの無限遠点に対応した前記基準画像上の投影点Uの位置(u0,v0)を抽出する特徴抽出ステップと、
前記基準画像上の任意の点Pが前記面上にあると仮定した場合の前記参照画像上の対応点P’を算出し、これら点Pと点P’の輝度差から前記面上に存在しない点が含まれる障害領域を検出する検出ステップと、
前記検出ステップにより検出した前記障害領域と前記面との境界線上の点に関して、時刻tの前記基準画像上の位置(u,v)と、時刻(t−dt)の前記基準画像上の位置(u’,v’)と、前記特徴抽出ステップにより抽出した前記投影点Uの位置(u0,v0)とに基づいて、前記障害領域が前記基準画像の撮像点と一致するまでの衝突時間tcを計算する衝突時間計算ステップとを有し、
前記衝突時間計算ステップは、γ=(v−v0)/(v’−v0)とtc=dt/(γ −1)とから衝突時間tcを求める
ことを特徴とする障害物検出方法。
An image input step of inputting and storing at least two images having different imaging points;
(1) One image among the plurality of images accumulated in the image input step is set as a reference image , (2) another image is set as a reference image, and (3) a certain surface in the three-dimensional space , stationary relative to the imaging point of the reference image, or extracting the moving object, the position of the projected point U on the reference image corresponding to the point at infinity of the motion of the object of (u0, v0) A feature extraction step,
The corresponding point P ′ on the reference image when an arbitrary point P on the reference image is assumed to be on the surface is calculated, and does not exist on the surface from the luminance difference between these points P and P ′. A detecting step for detecting a faulty region including a point;
Regarding the point on the boundary line between the obstacle area and the surface detected by the detection step, the position (u, v) on the reference image at time t and the position on the reference image at time (t-dt) ( u ′, v ′) and the position (u0, v0) of the projection point U extracted by the feature extraction step, the collision time tc until the obstacle area coincides with the imaging point of the reference image is calculated . A collision time calculation step for calculating,
The obstacle detection method characterized in that the collision time calculation step obtains a collision time tc from γ = (v−v0) / (v′−v0) and tc = dt / (γ− 1) .
撮像点の異なる少なくとも2画像を入力し、蓄積する画像入力機能と、
(1)前記画像入力機能が蓄積した複数の画像のうち一の画像を基準画像と設定し、(2)他の画像を参照画像と設定し、(3)3次元空間中のある面上を前記基準画像の撮像点に対して相対的に静止、または、運動する物体について、前記物体の動きの無限遠点に対応した前記基準画像上の投影点Uの位置(u0,v0)を抽出する特徴抽出機能と、
前記基準画像上の任意の点Pが前記面上にあると仮定した場合の前記参照画像上の対応点P’を算出し、これら点Pと点P’の輝度差から前記面上に存在しない点が含まれる障害領域を検出する検出機能と、
前記検出機能により検出した前記障害領域と前記面との境界線上の点に関して、時刻tの前記基準画像上の位置(u,v)と、時刻(t−dt)の前記基準画像上の位置(u’,v’)と、前記特徴抽出機能により抽出した前記投影点Uの位置(u0,v0)とに基づいて、前記障害領域が前記基準画像の撮像点と一致するまでの衝突時間tcを計算する衝突時間計算機能とを実現し、
前記衝突時間計算機能は、γ=(v−v0)/(v’−v0)とtc=dt/(γ−1)とから衝突時間tcを求める
プログラムを記録した障害物検出方法の記録媒体。
An image input function for inputting and storing at least two images having different imaging points;
(1) One image among a plurality of images accumulated by the image input function is set as a reference image , (2) another image is set as a reference image, and (3) a certain surface in a three-dimensional space , stationary relative to the imaging point of the reference image, or extracting the moving object, the position of the projected point U on the reference image corresponding to the point at infinity of the motion of the object of (u0, v0) A feature extraction function,
The corresponding point P ′ on the reference image when an arbitrary point P on the reference image is assumed to be on the surface is calculated, and does not exist on the surface from the luminance difference between these points P and P ′. A detection function for detecting a faulty area including a point;
Regarding the point on the boundary line between the obstacle area and the surface detected by the detection function, the position (u, v) on the reference image at time t and the position (t-dt) on the reference image ( u ′, v ′) and the position (u0, v0) of the projection point U extracted by the feature extraction function, the collision time tc until the obstacle area coincides with the imaging point of the reference image is calculated . Realize the collision time calculation function to calculate,
The obstacle detection method recording medium in which the collision time calculation function records a program for obtaining the collision time tc from γ = (v−v0) / (v′−v0) and tc = dt / (γ−1) .
JP27257799A 1999-09-09 1999-09-27 Obstacle detection apparatus and method Expired - Fee Related JP4106163B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP27257799A JP4106163B2 (en) 1999-09-27 1999-09-27 Obstacle detection apparatus and method
US09/659,815 US6963661B1 (en) 1999-09-09 2000-09-11 Obstacle detection system and method therefor
US11/116,307 US7362881B2 (en) 1999-09-09 2005-04-28 Obstacle detection system and method therefor
US12/028,646 US7706572B2 (en) 1999-09-09 2008-02-08 Obstacle detection system and method therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP27257799A JP4106163B2 (en) 1999-09-27 1999-09-27 Obstacle detection apparatus and method

Publications (2)

Publication Number Publication Date
JP2001101420A JP2001101420A (en) 2001-04-13
JP4106163B2 true JP4106163B2 (en) 2008-06-25

Family

ID=17515863

Family Applications (1)

Application Number Title Priority Date Filing Date
JP27257799A Expired - Fee Related JP4106163B2 (en) 1999-09-09 1999-09-27 Obstacle detection apparatus and method

Country Status (1)

Country Link
JP (1) JP4106163B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018101455A1 (en) * 2016-12-02 2018-06-07 東日本旅客鉄道株式会社 Facility patrol system and facility patrol method

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3620532B2 (en) * 2002-11-12 2005-02-16 日産自動車株式会社 Vehicle notification device
JP4847090B2 (en) * 2005-10-14 2011-12-28 クラリオン株式会社 Position positioning device and position positioning method
JP5223675B2 (en) 2006-08-18 2013-06-26 日本電気株式会社 Vehicle detection device, vehicle detection method, and vehicle detection program
JP5482672B2 (en) * 2011-01-12 2014-05-07 株式会社デンソーアイティーラボラトリ Moving object detection device
KR101684095B1 (en) * 2015-04-09 2016-12-07 현대자동차주식회사 Apparatus and method for estimating distance to a pedestrian
JP6865660B2 (en) * 2017-09-11 2021-04-28 Kyb株式会社 Distance calculation device and distance calculation parameter setting method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018101455A1 (en) * 2016-12-02 2018-06-07 東日本旅客鉄道株式会社 Facility patrol system and facility patrol method
GB2571045A (en) * 2016-12-02 2019-08-14 Hitachi High Tech Fine Systems Corp Facility patrol system and facility patrol method
GB2571045B (en) * 2016-12-02 2022-03-23 Hitachi High Tech Fine Systems Corp Facility inspection system and facility inspection method

Also Published As

Publication number Publication date
JP2001101420A (en) 2001-04-13

Similar Documents

Publication Publication Date Title
JP3895238B2 (en) Obstacle detection apparatus and method
EP2924653B1 (en) Image processing apparatus and image processing method
JP4676373B2 (en) Peripheral recognition device, peripheral recognition method, and program
JP3904988B2 (en) Image processing apparatus and method
JP4899424B2 (en) Object detection device
JP3868876B2 (en) Obstacle detection apparatus and method
JP3630100B2 (en) Lane detection device
US20050196034A1 (en) Obstacle detection system and method therefor
JP2002352225A (en) Obstacle detector and its method
US20090052742A1 (en) Image processing apparatus and method thereof
JP2003067752A (en) Vehicle periphery monitoring device
WO2017145605A1 (en) Image processing device, image pickup device, moving body apparatus control system, image processing method, and program
JP4344860B2 (en) Road plan area and obstacle detection method using stereo image
JP3961584B2 (en) Lane marking detector
JP4256992B2 (en) Obstacle detection device
JP4967758B2 (en) Object movement detection method and detection apparatus
JP4106163B2 (en) Obstacle detection apparatus and method
JP3897337B2 (en) Road shoulder detection apparatus and method
JP3629935B2 (en) Speed measurement method for moving body and speed measurement device using the method
JP3586938B2 (en) In-vehicle distance measuring device
JP3465531B2 (en) Object recognition method and apparatus
JPH07271978A (en) Image processor
JP3456843B2 (en) Front inter-vehicle distance measurement device
JP4462533B2 (en) Road lane detection device
JP3447461B2 (en) Moving obstacle detecting apparatus and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050301

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20071221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080108

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080325

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080331

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110404

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees