JP4479174B2 - Object detection device - Google Patents

Object detection device Download PDF

Info

Publication number
JP4479174B2
JP4479174B2 JP2003186639A JP2003186639A JP4479174B2 JP 4479174 B2 JP4479174 B2 JP 4479174B2 JP 2003186639 A JP2003186639 A JP 2003186639A JP 2003186639 A JP2003186639 A JP 2003186639A JP 4479174 B2 JP4479174 B2 JP 4479174B2
Authority
JP
Japan
Prior art keywords
histogram
boundary candidate
horizontal boundary
horizontal
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2003186639A
Other languages
Japanese (ja)
Other versions
JP2005022429A (en
Inventor
武男 加藤
芳樹 二宮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Central R&D Labs Inc
Original Assignee
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Central R&D Labs Inc filed Critical Toyota Central R&D Labs Inc
Priority to JP2003186639A priority Critical patent/JP4479174B2/en
Publication of JP2005022429A publication Critical patent/JP2005022429A/en
Application granted granted Critical
Publication of JP4479174B2 publication Critical patent/JP4479174B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、車両等の移動体の前方監視等に有用で、その移動体に積載可能な物体検出装置に関する。
本発明の物体検出装置は、レーンキーピング機能や前方車両追従機能などの機能を車両に持たせる場合などに、効果的に利用することができる。
【0002】
【従来の技術】
【特許文献1】
特開平7−25286号公報
【特許文献2】
特開平8−188104号公報
【特許文献3】
特開平11−53692号公報
【特許文献4】
特開平8−329393号公報
【特許文献5】
特開2002−277540号公報
【0003】
車両を撮像した画像に関する所謂エッジヒストグラムによって車両検出する従来技法(信頼性向上技術)としては、例えば以下のものがある。
(1)上記の特許文献1によるもの。領域の重心の移動量と領域の縦横比を検証する。
(2)上記の特許文献2によるもの。境界候補の移動量を検証する。
(3)上記の特許文献3によるもの。候補領域内のオプティカルフローとの整合性を検証する。
【0004】
また、その他の関連技術としては、例えば以下の様なものがある。
(4)上記の特許文献4に記載されているもの。画像解析結果として得られた物体存在領域と、レーザレーダで検出した領域とが互いに重なるかを評価・検証する。
(5)上記の特許文献5に記載されているもの。異なる時刻の画像を評価する際に物体までの距離の測定値(又は推定値)を利用する。
【0005】
【発明が解決しようとする課題】
エッジヒストグラムによって車両を検出する方法では、背景のエッジの影響を受けてしまい、その結果、誤検出を生じることがある。特に、鉛直方向のエッジとして検出され易い、例えば電柱、路傍灯、道路標識、ガードレール等の柱や、その他の建物等が背景に写っている場合などには、この様な誤検出がしばしば見受けられる。
また、操舵等で自車が大きく運動した場合には、特許文献1や特許文献2の方法では、物体の認識(画像解析処理)が困難である。
また、操舵等で自車が大きく運動した場合には、その他の従来技術においても、オプティカルフローを求めるのが困難になる場合が少なくない。
【0006】
本発明は、上記の課題を解決するために成されたものであり、その目的は、走行車両の前方監視などに有用な物体検出装置の検出精度や信頼性を大きく向上させることである。
また、本発明の更なる目的は、物体の認識(画像解析処理)に必要となる演算処理の量を大幅に削減することにより、物体検出装置におけるCPUネックを緩和、軽減、或いは解消することである。
ただし、上記の個々の目的は、本発明の個々の手段の内の少なくとも何れか1つによって、個々に達成されれば十分なのであって、本願の個々の発明は、上記の全ての課題を同時に解決し得る手段が存在することを必ずしも保証するものではない。
【0007】
【課題を解決するための手段、並びに、作用及び発明の効果】
上記の課題を解決するためには、以下の手段が有効である。
即ち、本発明の第1の手段は、移動体に積載可能な物体検出装置であって、検出されるべき物体までの距離を測定する距離測定手段と、想定される検出対象範囲の全体画像を撮像する画像撮像手段と、距離の分布状態に基づいて全体画像内の解析対象領域を限定する解析対象領域限定手段と、複数の処理時刻における、距離測定手段により測定された距離と、画像撮像手段により撮像された画像を処理して得られる情報とを一組として記憶する情報保持手段と、解析対象領域を構成する部分画像において、水平方向にx軸をとり、そのx軸上の位置をx座標、垂直方向にy軸をとり、そのy軸上の位置をy座標とするとき、部分画像の画素情報に対するx軸方向である水平方向及びy軸方向である垂直方向の微分処理を用いて、部分画像の水平微分画像及び垂直微分画像を作成する微分画像作成手段と、水平微分画像において各x座標について、y軸に平行な線上の画素値の絶対値和をxの関数として求めて1次元の水平境界候補ヒストグラムを求め、垂直微分画像において各y座標について、x軸に平行な線上の画素値の絶対値和をyの関数として求めて1次元の垂直境界候補ヒストグラムを求めるヒストグラム作成手段と、各x座標について、あるy座標を有する垂直微分画像における画素値と、そのy座標における垂直境界候補ヒストグラムの値との積のy座標を変化させて得られる和をxの関数である中間ヒストグラムとして求める中間ヒストグラム作成手段と、xの関数である中間ヒストグラムをx座標について微分して、左右判定ヒストグラムを求める左右判定ヒストグラム作成手段と、水平境界候補ヒストグラムの極値をとるx座標を水平境界候補位置として求める水平境界位置候補選定手段と、水平境界位置候補選定手段により求められた各水平境界候補位置に関して、その水平境界候補位置を含む微小領域における左右判定ヒストグラムの値の絶対値の最大値を第1評価値とし、その左右判定ヒストグラムの値の正負に応じて、各水平境界候補位置を、左水平境界候補位置と右水平境界候補位置とに2分類する第1評価値演算手段と、第1評価値演算手段により2分類された各類における左水平境界候補位置と右水平境界候補位置の対の左右対称性に関する第2評価値を、各水平境界候補位置毎に、水平境界候補ヒストグラムの値から求める対称性評価値演算手段と、情報保持手段が保持する異なる第1処理時刻、第2処理時刻における物体までの第1距離、第2距離に基づいて、情報を共通の距離に対応する情報に変換するために、x軸方向及びy軸方向の長さの縮尺比を求め、水平境界候補ヒストグラムの値及びx座標を変換する縮尺比調整手段と、縮尺比調整手段により縮尺比調整された、各時刻毎の水平境界候補ヒストグラム間の照合度を、各水平境界候補位置について求めて、各水平境界候補位置の第3評価値として演算する照合手段と、各水平境界候補位置毎に、水平境界候補ヒストグラムの値、第1評価値、第2評価値、第3評価値に基づいて、水平境界候補位置が、物体の輪郭に一致する信頼度を算定する信頼度算定手段と、信頼度に基づいて物体の輪郭を推定する輪郭推定手段とを有することを特徴とする。
【0008】
上記の構成に従えば、物体の検出を画像中の全ての位置で行わず、まず、距離測定手段を使って物体の候補を検出し、解析対象領域限定手段によって、その候補を基に候補領域(:解析対象領域)を生成することができる。このため、物体の認識(画像解析処理)に必要となる演算処理量を大幅に削減することができる。また、評価の際に、複数時刻情報保持手段を用いて異なる時間での解析対象領域内の画像を比較したりすることにより、物体検出の信頼性を向上できる。
【0009】
したがって、上記の構成に従えば、画像中から物体の境界を高速に信頼性高く検出することができる。
また、上記の構成に従えば、演算(画像解析処理)の合理化によりCPUオーバーヘッドを大幅に削減することができるので、物体検出装置におけるCPUネックを緩和、軽減、或いは解消することができる。
特に、CPUオーバーヘッドを削減するという観点から言えば、上記の距離測定手段としては、ミリ波レーダやレーザレーダなどの波動センサを用いることが望ましい。
【0010】
【0011】
例えば前方車両に追従する場合などには、その前方車両までの距離の他にも、水平方向(:特に左右方向)におけるその前方車両の位置や幅が、前方車両を認識する上で非常に重要になる。例えばこの様な場合などには、上記のヒストグラム作成手段を用いて上記の1次元ヒストグラムを少なくとも水平方向について作成し、その1次元ヒストグラムに基づいて、少なくとも水平方向における前方車両の輪郭候補の位置座標を高速に特定することができる。したがって、このような方式によれば、解析対象領域が狭く限定されている上に、1次元ヒストグラムを作成するための演算は比較的簡単であるため、非常に高速に前方車両の水平方向の位置や幅を特定することができる。
勿論、水平方向に限らず、任意の方向に対してこの様な1次元ヒストグラムに基づく、物体の輪郭座標の算定を実施しても良い。
【0012】
【0013】
「画像処理データ」としては、上記の1次元ヒストグラムを用いても良いし、上記の輪郭候補を用いても良いし、或いは上記の部分画像(解析対象領域の画像)をそのまま用いても良い。
この様な構成に従えば、物体検出装置と被検体(検出対象)との間の距離が動的に変動した場合においても、縮尺比調整手段によりその変動の画像処理データに対する悪影響(:スケールの不整合)を打ち消すことができるため、複数時刻間における上記のデータ照合処理を高速、簡単かつ正確に実施することができる。
【0014】
前方走行車両に追従する場合、前方走行車両の画像は、通常左右対称形になる。したがって、この様な対称性を利用すれば、前述の様な背景による誤検出を大幅に削減することができ、よって、物体検出の信頼性を大きく向上させることができる。
以上の本発明の手段により、前記の課題を効果的、或いは合理的に解決することができる。
【0015】
【発明の実施の形態】
以下、本発明を具体的な実施例に基づいて説明する。ただし、本発明は以下に示す実施例に限定されるものではない。
(実施例)
図1は、本発明の実施例における物体検出装置100の主要構成を例示するシステム構成図である。この物体検出装置100は、主に、CPU101、ROM102、RAM103、IF(入出力インターフェイス104)、カメラ107(撮像手段)、ミリ波レーダ108(距離検出手段)、ECU(電子制御ユニット110)などから構成されている。
ただし、上記の距離検出手段(ミリ波レーダ108)の代替手段として例えばステレオカメラ等を使用することも可能である。
【0016】
図2に、本発明の実施例における物体検出装置100の基本的な制御手順を例示する。この物体検出装置100の大きな特徴の1つは、移動ステレオ法を用いる点にあり、それを実現するための前記の複数時刻情報保持手段が、ステップ200、ステップ210、ステップ220等によって実現される。ステップ210では、ステップ220が周期的に実行される様に同期処理(待ち処理)を実行する。この周期を以下、Δtとする。
即ち、この物体検出装置100は、最初にステップ200を実行し、その後、ステップ210〜ステップ290を上記の周期Δtで周期的に実行することにより、本発明の物体検出装置100の各手段(距離測定手段、画像撮像手段、解析対象領域限定手段、輪郭候補抽出手段、複数時刻情報保持手段、信頼度算定手段、輪郭推定手段)が連動して効率よく機能する様に構成されている。
以下、ステップ230〜ステップ290までの各ステップに付いて、図3〜図12を用いて詳細に説明する。
【0017】
[1]処理境域の決定
図3は、ステップ230における処理領域の決定形態を模式的に表すイメージ図である。
ステップ230を実行する際には、まず、ミリ波レーダ等によって物体の存在・距離及び方位を検出し、検出した距離と方位から画像中での処理領域(解析対象領域)を決定する(図3)。処理領域の左上座標を(x0,y0)、幅と高さをそれぞれw、hとする。本実施例では、画像中の座標原点は、カメラ光軸が撮像面と交差する点に一致するものとする。
処理領域(解析対象領域)の決定は、走行車線を検出することによっても可能である。また、全画面を処理領域としても良い。以下、記号I(x,y)は、本実施例では、画像座標(x,y)における画素の明度情報(撮像された画素情報)を表すものとする。
【0018】
[2]物体境界候補の検出
図4に、物体境界候補の検出(:ステップ240)を実行するサブルーチンの処理手順を例示する。
撮像された画像I(x,y)の処理領域内に対して、周知のPrewittフィルタを掛け、水平微分画像IDX(x,y)、垂直微分画像IDY(x,y)を作成する。該Prewittフィルタの係数を以下に示す。Prewittフィルタを掛けるとは、処理領域内の各画素位置毎に隣接する3×3画素に対して以下の係数を掛けて、それらの和を取って、その(x,y)座標における関数値を求めることを意味する。
【0019】
(Prewittフィルタ係数)
〔水平方向微分〕 〔垂直方向微分〕
−1 0 1 −1 −1 −1
−1 0 1 0 0 0
−1 0 1 1 1 1
以上の処理が、図4のステップ410の処理に相当する。
【0020】
更に、以下の垂直線分・水平線分の強調処理を行う。
【数1】
Idx(x,y) =IDX(x,y) (|IDX(x,y) |>|IDY(x,y) |),
Idx(x,y) =0 (|IDX(x,y) |≦|IDY(x,y) |) …(1)
【数2】
Idy(x,y) =IDY(x,y) (|IDY(x,y) |>|IDX(x,y) |),
Idy(x,y) =0 (|IDY(x,y) |≦|IDX(x,y) |) …(2)
この強調処理(ステップ420)により、ノイズや有力な候補等を巧く効果的に選別して、有力な候補のみを際立たせることができる。
【0021】
次に、水平微分画像Idxの各垂直ラインに対して、同一垂直ライン上の画素の画素値の絶対値和を求め、水平境界候補ヒストグラムHを作成する(図5(a))。
図5は、物体の境界ヒストグラム(V,H)の作成形態を模式的に表すイメージ図である。ここで、記号Idx(x,y)は強調処理された水平微分画像(加工された画素情報)であり、記号Idy(x,y)は強調処理された垂直微分画像(加工された画素情報)である。
【0022】
垂直方向についても同様に、垂直微分画像Idyの各水平ラインに対して、同一水平ライン上の画素の画素値の絶対値和を求め、垂直境界候補ヒストグラムVを作成する(図5(b))。その後、ヒストグラムV、Hにそれぞれ以下のフィルタを掛ける。
【数3】
Fv = { 1 2 1 },
Fh = { 1 4 5 4 1 } …(3)
【0023】
次に各ヒストグラムの局所的なピーク位置を検出する。検出したピークの内、そのピーク値が所定の閾値以上の場合には、その位置を水平境界候補、垂直境界候補の位置とし、その各候補の座標をxHiおよびyVjと表す。また、各境界候補の信頼度を次式(4)で定義する。
(記号)
xHi … 境界候補の位置(横軸方向の位置;1≦i≦n)
yVj … 境界候補の位置(縦軸方向の位置;1≦j≦m)
【数4】
Ch(xHi)=α・H(xHi),
Cv(yVj)=β・V(yVj) …(4)
【0024】
ただし、水平境界候補ヒストグラムのピーク位置を水平境界候補位置xHiとし、垂直境界候補ヒストグラムのピーク位置を垂直境界候補位置yVjとする。また、α,βはそれぞれ適当な規格化係数である。即ち、各位置の信頼度は、ヒストグラムの各値にそのまま比例するものとする。
尚、α=β=1となる様に、境界候補ヒストグラム(V,H)自身のスケールを予め規格化しておいても良い。また、Ch(xHi)は、H(xHi)に対するその他の単調増加関数として定義しておいても良い。Cv(yVj)とV(yVj)との関係についても同様である。
【0025】
[3]水平境界の左右判定
垂直方向微分画像Idyと垂直境界ヒストグラムVから中間ヒストグラムHMを作成する。
図6は、水平境界の左右判定(:ステップ250)を実行するサブルーチンの処理手順を例示するフローチャートであり、図7は、物体の左右の境界に係わるヒストグラム(中間ヒストグラムHM,左右判定ヒストグラムLR)の作成形態を模式的に表すイメージ図である。
【0026】
まず、ステップ620では、次式(5)に従って、中間ヒストグラムHM(図7(b))を作成する。
【数5】
HM(x)=y=y0Σy0+h-1(V(y)・Idy(x,y)) …(5)
そして、ステップ640では、作成した中間ヒストグラムHMに対して次式(6)の微分フィルタを掛け、左右判定ヒストグラムLR(図7(c))を作成する。
【数6】
Fdif = { −1 −1 0 1 1 } …(6)
【0027】
次に、ステップ660では、次式(7)で定義される「Cl:左境界らしさ」、「Cr:右境界らしさ」を各選択基準として、次式(8)の様に、境界候補位置{xHi}から、左境界候補位置{xHil}、及び右境界候補位置{xHir}をそれぞれ分離(選択)する。
【数7】
Cl(xHi)= max( LR(∀x))
(xHi−mlr1≦x≦xHi+mlr2),
Cr(xHi)= max(−LR(∀x))
(xHi−mlr2≦x≦xHi+mlr1),
(一例:mlr1=4,mlr2=1) …(7)
【数8】
{xHil}={xHi|Cl(xHi)>0},
{xHir}={xHi|Cr(xHi)>0} …(8)
【0028】
[4]境界候補の移動ステレオによる検証
図8は、ステップ260の移動ステレオ法における基本的な処理概念(照合方式)を説明する概念図である。
【0029】
時刻t1(:t=t1)における画像とその時の候補領域(解析対象領域)を図8(a)に示し、時刻t2(:t=t2=t1+Δt)における画像と候補領域を図8(b)に示す。ここで、時刻t1における車両までの距離をZ1とし、時刻t2における車両までの距離をZ2とする。
また、時刻t1における水平境界候補ヒストグラムをH1とし、時刻t2における水平境界候補ヒストグラムをH2とする。更に、時刻t1における画像中での処理領域の左上座標を(x01,y01)とし、時刻t2における処理領域の左上座標を(x02,y02)とする。
(その他の記号)
R1 … ヒストグラムH1の定義域
R2 … ヒストグラムH2の定義域
H1′ … H1を縮尺調整して得られる水平境界ヒストグラム
【0030】
まず、水平境界候補ヒストグラムH2内における、水平境界候補ヒストグラムH1の範囲R1に対応する位置を求める。ここで領域R1の左端位置をx0R1、幅をwR1とする。ただし、領域R1の決定方法としては、例えば以下の様な手順に従う方法などが考えられる。
(手順1)レーダで検出した距離Z1を基に、2.5mに対応する画像中での幅Wを決定する。
(手順2)そして、レーダで検出した方位xrを中心として、左右に幅W広げた領域(:定義域[xr−W,xr+W])をR1とする。
【0031】
以下、水平方向の解析処理手順について、詳しく説明する。
図9は、移動ステレオ法に基づく照合処理(:ステップ260)を実行するサブルーチンの処理手順を例示するフローチャートである。
[4−1]水平方向の解析処理手順
この処理は、ステップ810〜ステップ840に対応する。
(a)まず最初に、ステップ810では、ヒストグラムH1をZ1/Z2倍することにより、ヒストグラムH1′を作成する。この時、H1の領域R1に対応する、H1′内の領域R1′の左端位置x0R1′と幅wR1′は、次式(9)に基づいて決定する。
【0032】
次式(9)の右辺で、それぞれZ1/Z2を掛けているが、これは、撮像される画像中における同一の物体の大きさ(幅など)はその物体までの距離に反比例するという、2時刻間における極めて基本的な幾何学的関係(距離と大きさの対応関係)に基づいて、設計されたものである。
【数9】
x0R1′=x0R1・Z1/Z2
wR1′= wR1・Z1/Z2 …(9)
【0033】
(b)次に、ステップ820では、ヒストグラムH2内で、ヒストグラムH1′内の領域R1′の最も類似している領域R2を相関演算によって求め、例えば次式(10)に例示する様に、H1′とH2の対応位置を求める。相関演算は、領域R1′内の各要素毎のヒストグラム値の差分の絶対値の総和の値SAD(x)を用いて行う。
ただし、以下、argminは、該記号の右側に書かれた関数の関数値を最小にする引数を導出する記号とする。例えば、argminSAD(x)とは、関数SADに対して最小値を与える引数(独立変数)xのことを意味する。また、この最小値を探す際のxの適正範囲(検索範囲)は、特段の断りが無い限りその定義域と一致するものとする。
また、argmaxについても同様に、該記号の右側に書かれた関数の関数値を最大にする引数を指す記号とする。
【0034】
【数10】
x0R2=argminSAD(x),
SAD(x)=i=0ΣwR1-1|H2(x+i)
−H1′(x0R1′+i)| …(10)
領域R2の左端位置をx0R2とすると、ヒストグラムH2の位置x2に対応するヒストグラムH1′での位置x1′は、次式(11)に従う。
【数11】
x1′=x2−x0R2+xR01′ …(11)
【0035】
(c)次に、ステップ830では、各要素毎の差分演算によって、ヒストグラムH2とヒストグラムH1′の差分ヒストグラムHdを作成する。この際、H2の位置x2に対応する位置x1′がH1′外となるときは、その要素の値は0とする。
【数12】
Hd(x2)=|H2(x2)−H1′(x1′)|
(0≦x1′≦wR1′),
Hd(x2)= 0 ( 上記以外 ) …(12)
【0036】
(d)次に、ステップ840では、位置x2における移動ステレオ検証による信頼度Cms2(xHi)を、式(14)を用いて式(13)の様に算定する。
【数13】
Cms2(xHi)=Cms(xHi−ofms) (xHi≦xc),
Cms2(xHi)=Cms(xHi+ofms) (上記以外)…(13)
【数14】
Cms(x2)≡H2mean−〔{H2mean +i=xcΣx2Hd(i)}
/|x2−xc|〕,
H2mean={x=0ΣwR2-1H2(x)}/WR2 …(14)
【0037】
ここで、xcは左右の境界を分離する位置であり、例えばxc=x0R2+wR2/2などと設定すれば良い。ただし、境界候補の信頼度は、次式(13)に例示する様に、境界候補の位置xHiから内側に2画素幅分だけずらした位置(±ofms=±2)での信頼度を用いて再定義する。
【0038】
この様な再定義を行う理由は以下の通りである。
信頼度Cms(x2)では、範囲[xc,x2]内でHdを積分することにより信頼度を求めているが、xHiの位置は、垂直エッジ(水平境界候補)ヒストグラムHのピーク、すなわち値の大きな位置となる。また、Hdは、H2とH1′の差分なので、H1′の値が大きい位置xHiでは、H1′のスケール変換の誤差の影響を受けやすく、その結果、Hdの値は、不当に大きな値となるケースが発生し易い。その誤差の影響を緩和するためには、ピークより少し内側(ofms=2)となる、ヒストグラムH1′の値自身が比較的小さい位置(誤差の影響が比較的小さい位置)で所要の比較演算を行うことが望ましく、この様な計算技法によれば、より信頼性の高い算定結果を得ることができる。
垂直方向についても、概ね同様の傾向が見られる。
【0039】
[4−2]垂直方向の解析処理手順
尚、垂直方向の解析処理についても、図9のステップ860〜ステップ890において、上記の水平方向の解析処理手順と略同様に実行する。ただし、垂直方向に関しても同様に、その解析処理の結果として得られる関数をCms3(yVj)とする。即ち、この関数Cms3(yVj)は、上記の関数Cms2(xHi)に対応する垂直方向側の関数である。
【0040】
[5]対称性の検証
次に水平方向の対称性を利用した境界候補の信頼度の算出方法を説明する。まず、左境界候補位置xHil、右境界候補位置xHirで挟まれる領域の対称性を次式(15)で定義する。
【数15】
Csym(xHil,xHir)=MAX Fsym(xHil+a,xHir+b)
((a,b)=(0,0),(−1,0),(0,1)),
Fsym(X1,X2)=i=0Σ(X2-X1)/2{H(X1+i)×H(X2−i)}
…(15)
【0041】
ただし、ここでは、上記の記号MAXは、上記の3通りの(a,b)の何れかから、Fsymの関数値を最大にする(a,b)を選択する記号として用いている。
尚、式(15)の2つ目の式の右辺のΣ{}の中で、乗算{H(X1+i)×H(X2−i)}を行っているのは、ノイズなどの不具合に効果的に対処するためであるが、その他にも例えば、右辺のΣ{}の中では、差分演算を実施しても良い。ただし、その場合には、MAX演算をMIN演算に変更するなどの諸変更が必要である。
【0042】
そして、左境界候補位置xHil、右境界候補位置xHirの各信頼度を次式(16)で定義する。
【数16】
Clsym(xHil)=max(Csym(xHil,∀r))
(r∈{xHir}),
Crsym(xHir)=max(Csym(∀l,xHir))
(l∈{xHil}) …(16)
図10はこの式(16)の1つ目の演算結果(Clsym(xHil))を得るためのサブルーチンの処理手順(ステップ310〜ステップ375)を例示しており、また、図11はこの式(16)の2つ目の演算結果(Crsym(xHir))を得るためのサブルーチンの処理手順を例示している。例えばこれらの様な処理手順に従えば、上記のステップ270(:左右対称性の検証処理)を効果的に実現することができる。
【0043】
[6]信頼度の計算(図2のステップ280)
以上の処理で算出した各信頼度Ch,Cv,Cl,Cr,Cms2,Cms3,Clsym,Crsymに基づいて、装置が検出すべき物体の左右上下の各輪郭座標の最終的な信頼度(Cleft,Cright,Ctop,Cbtm)を次式(17)〜(20)によって定義する。
【数17】
Cleft(xHil)= a1・Ch(xHil)
+a2・Cl(xHil)
+a3・Cms2(xHil)
+a4・{Clsym(xHil)}1/2 …(17)
【数18】
Cright(xHir)= a1・Ch(xHir)
+a2・Cr(xHir)
+a3・Cms2(xHir)
+a4・{Crsym(xHir)}1/2 …(18)
【数19】
Ctop(yVjt) = b1・Cv(yVjt)
+b2・Cms3(yVjt),
{yVjt}={yVj|y0<yVj<y0+h/2} …(19)
【数20】
Cbtm(yVjb) = b1・Cv(yVjb)
+b2・Cms3(yVjb),
{yVjb}={yVj|y0+h/2<yVj<y0+h} …(20)
【0044】
上境界候補の位置yVjtと下境界候補の位置yVjbは、上記の様に候補領域(解析対象領域)の真ん中で、垂直方向の各境界候補位置{yVj}を、上境界候補位置{yVjt}と下境界候補位置{yVjb}の2グループに分離したものである。
また、a1,a2,a3,a4,b1,b2は、何れも適当な調整係数であり、本実施例においてはそれぞれ1程度で良い。
(各調整係数の設定例)
【数21】
a1=a2=1,
a3=a4=1,
b1=b2=1 …(21)
【0045】
[7]境界の決定(図2のステップ290)
最終的に出力されるべき物体の輪郭座標を次の様に定義する。即ち、上記の各信頼度に最大値を与える各境界候補の座標をそれぞれ、左端の輪郭座標:xHl,右端の輪郭座標:xHr,上端の輪郭座標:yVt,下端の輪郭座標:yVbとする。
【数22】
xHl=argmax(Cleft(xHil)),
xHr=argmax(Cright(xHir)),
yVt=argmax(Ctop(yVjt)),
yVb=argmax(Cbtm(yVjb)) …(22)
【0046】
図12は、図1の出力情報である輪郭座標の具体例を例示するイメージ図である。本実施例の物体検出装置100によれば、車両を用いた実際の実験結果においても、本図12のイメージ図と同様の演算結果が得られている。
即ち、例えば以上の様な実施形態により、本発明を効果的に実現することができる。
【図面の簡単な説明】
【図1】 本発明の実施例における物体検出装置100の主要構成を例示するシステム構成図。
【図2】 本発明の実施例における物体検出装置100の基本的な制御手順を例示するゼネラルフローチャート。
【図3】 ステップ230における処理領域の決定形態を模式的に表すイメージ図。
【図4】 物体境界候補の検出(:ステップ240)を実行するサブルーチンの処理手順を例示するフローチャート。
【図5】 物体の境界ヒストグラム(V,H)の作成形態を模式的に表すイメージ図。
【図6】 水平境界の左右判定(:ステップ250)を実行するサブルーチンの処理手順を例示するフローチャート。
【図7】 物体の左右の境界に係わるヒストグラム(HM,LR)の作成形態を模式的に表すイメージ図。
【図8】 ステップ260の移動ステレオ法における基本的な処理概念(照合方式)を説明する概念図。
【図9】 移動ステレオ法に基づく照合処理(:ステップ260)を実行するサブルーチンの処理手順を例示するフローチャート。
【図10】 左右対称性の検証処理(:ステップ270)を実行するサブルーチンの処理手順を例示するフローチャート(前半)。
【図11】 左右対称性の検証処理(:ステップ270)を実行するサブルーチンの処理手順を例示するフローチャート(後半)。
【図12】 図1の出力結果となる輪郭座標の具体例を例示するイメージ図。
【符号の説明】
100 … 物体検出装置
101 … CPU
102 … ROM
103 … RAM
104 … IF(入出力インターフェイス)
107 … カメラ(撮像手段)
108 … ミリ波レーダ(距離検出手段)
110 … ECU(電子制御ユニット)
I(x,y) … 画像座標(x,y)における画素の明度(撮像された画素情報)
Idx(x,y) … 強調処理された水平微分画像(加工された画素情報)
Idy(x,y) … 強調処理された垂直微分画像(加工された画素情報)
H … 水平境界ヒストグラム
V … 垂直境界ヒストグラム
HM … 中間ヒストグラム
LR … 左右判定ヒストグラム
Z1 … 時刻t=t1の時の物体までの距離
H1 … 時刻t=t1の時の水平境界ヒストグラム
R1 … ヒストグラムH1の定義域
Z2 … 時刻t=t2の時の物体までの距離
H2 … 時刻t=t2の時の水平境界ヒストグラム
R2 … ヒストグラムH2の定義域
H1′ … H1を縮尺調整して得られる水平境界ヒストグラム
xHi … 境界候補の位置(横軸方向の位置;1≦i≦n)
xHil … 左境界候補の位置
xHir … 右境界候補の位置
yVj … 境界候補の位置(縦軸方向の位置;1≦j≦m)
yVjt … 上境界候補の位置
yVjb … 下境界候補の位置
xHl … 輪郭座標(最終的に出力される、物体の左端の位置)
xHr … 輪郭座標(最終的に出力される、物体の右端の位置)
yVt … 輪郭座標(最終的に出力される、物体の上端の位置)
yVb … 輪郭座標(最終的に出力される、物体の下端の位置)
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an object detection device that is useful for monitoring a moving body such as a vehicle and that can be loaded on the moving body.
The object detection device of the present invention can be effectively used when a vehicle has functions such as a lane keeping function and a forward vehicle following function.
[0002]
[Prior art]
[Patent Document 1]
Japanese Patent Laid-Open No. 7-25286
[Patent Document 2]
JP-A-8-188104
[Patent Document 3]
Japanese Patent Laid-Open No. 11-53692
[Patent Document 4]
JP-A-8-329393
[Patent Document 5]
JP 2002-277540 A
[0003]
As a conventional technique (reliability improvement technique) for detecting a vehicle by using a so-called edge histogram relating to an image obtained by imaging the vehicle, for example, there are the following.
(1) According to Patent Document 1 above. The movement amount of the center of gravity of the area and the aspect ratio of the area are verified.
(2) According to Patent Document 2 above. Verify the amount of movement of boundary candidates.
(3) According to Patent Document 3 above. The consistency with the optical flow in the candidate area is verified.
[0004]
Other related technologies include, for example, the following.
(4) What is described in Patent Document 4 above. It is evaluated and verified whether the object existence area obtained as the image analysis result and the area detected by the laser radar overlap each other.
(5) What is described in Patent Document 5 above. When evaluating images at different times, a measured value (or an estimated value) of the distance to the object is used.
[0005]
[Problems to be solved by the invention]
In the method of detecting the vehicle by the edge histogram, it is affected by the background edge, and as a result, erroneous detection may occur. In particular, such false detections are often seen when vertical edges are easily detected, such as when poles, roadside lights, road signs, guardrails, or other pillars are visible in the background. .
Further, when the host vehicle moves greatly due to steering or the like, it is difficult to recognize an object (image analysis processing) with the methods of Patent Literature 1 and Patent Literature 2.
In addition, when the host vehicle moves greatly due to steering or the like, it is often difficult to obtain the optical flow even in other conventional techniques.
[0006]
The present invention has been made to solve the above-described problems, and an object of the present invention is to greatly improve the detection accuracy and reliability of an object detection device useful for forward monitoring of a traveling vehicle.
A further object of the present invention is to alleviate, reduce, or eliminate the CPU bottleneck in the object detection device by greatly reducing the amount of arithmetic processing required for object recognition (image analysis processing). is there.
However, it is sufficient that the above-mentioned individual objects are achieved individually by at least one of the individual means of the present invention, and the individual inventions of the present application simultaneously solve all the above-mentioned problems. It does not necessarily guarantee that there is a means that can be solved.
[0007]
[Means for Solving the Problem, Action, and Effect of the Invention]
In order to solve the above problems, the following means are effective.
That is, the first means of the present invention is an object detection apparatus that can be loaded on a moving body, and includes a distance measurement means for measuring a distance to an object to be detected, and an entire image of an assumed detection target range. Image capturing means for capturing, analysis target area limiting means for limiting the analysis target area in the entire image based on the distribution state of the distance, distances measured by the distance measuring means at a plurality of processing times, and image capturing means Information holding means for storing a set of information obtained by processing an image captured by Partial images that make up the analysis target area , Where the x-axis is taken in the horizontal direction, the x-axis position is taken as the x-coordinate, the y-axis is taken in the vertical direction, and the y-axis position is taken as the y-coordinate, the x-axis direction relative to the pixel information of the partial image Differential image generating means for generating a horizontal differential image and a vertical differential image of a partial image using differential processing in the horizontal direction and the vertical direction that is the y-axis direction, and each x coordinate in the horizontal differential image on the y-axis A one-dimensional horizontal boundary candidate histogram is obtained by calculating the absolute value sum of pixel values on a parallel line as a function of x, and for each y coordinate in the vertical differential image, the absolute value sum of the pixel values on the line parallel to the x axis is obtained. Histogram creation means for obtaining a one-dimensional vertical boundary candidate histogram as a function of y, a pixel value in a vertical differential image having a certain y coordinate for each x coordinate, and a vertical boundary candidate at that y coordinate Intermediate histogram creating means for obtaining a sum obtained by changing the y-coordinate of the product with the value of the strogram as an intermediate histogram which is a function of x; Left and right determination histogram creation means for obtaining horizontal boundary position candidate selection means for obtaining the x coordinate taking the extreme value of the horizontal boundary candidate histogram as a horizontal boundary candidate position, and each horizontal boundary candidate position obtained by the horizontal boundary position candidate selection means With respect to the horizontal boundary candidate position, the maximum value of the absolute value of the left / right determination histogram in the minute region including the horizontal boundary candidate position is set as the first evaluation value, and each horizontal boundary candidate position is set to the left according to the sign of the left / right determination histogram value. A first evaluation value calculating means for classifying into a horizontal boundary candidate position and a right horizontal boundary candidate position; and a first evaluation value calculating means Symmetry which calculates | requires the 2nd evaluation value regarding the left-right symmetry of the pair of the left horizontal boundary candidate position and right horizontal boundary candidate position in each class classified into two from the value of the horizontal boundary candidate histogram for each horizontal boundary candidate position In order to convert information into information corresponding to a common distance based on the first distance and the second distance to the object at different first processing times and second processing times held by the evaluation value calculation means and the information holding means The scale ratio adjusting means for obtaining the scale ratio of the lengths in the x-axis direction and the y-axis direction and converting the horizontal boundary candidate histogram value and the x coordinate, and the scale ratio adjusted by the scale ratio adjusting means for each time A collation means for obtaining a collation degree between the horizontal boundary candidate histograms for each horizontal boundary candidate position and calculating as a third evaluation value of each horizontal boundary candidate position, and for each horizontal boundary candidate position, a horizontal boundary candidate histogram Based on the gram value, the first evaluation value, the second evaluation value, and the third evaluation value, the reliability calculation means for calculating the reliability that the horizontal boundary candidate position matches the contour of the object, and the reliability It has a contour estimation means for estimating the contour of an object.
[0008]
According to the above configuration, object detection is not performed at all positions in the image. First, a candidate for an object is detected using a distance measurement unit, and a candidate region based on the candidate by an analysis target region limiting unit. (: Analysis target area) can be generated. For this reason, the amount of calculation processing required for object recognition (image analysis processing) can be significantly reduced. Further, in the evaluation, the reliability of object detection can be improved by comparing the images in the analysis target area at different times using the multiple time information holding means.
[0009]
Therefore, according to the above configuration, the boundary of the object can be detected from the image at high speed and with high reliability.
Further, according to the above configuration, the CPU overhead can be greatly reduced by rationalizing the calculation (image analysis processing), so that the CPU bottleneck in the object detection apparatus can be alleviated, reduced or eliminated.
In particular, from the viewpoint of reducing CPU overhead, it is desirable to use a wave sensor such as a millimeter wave radar or a laser radar as the distance measuring means.
[0010]
[0011]
For example, when following a forward vehicle, in addition to the distance to the forward vehicle, the position and width of the forward vehicle in the horizontal direction (particularly the left-right direction) are very important in recognizing the forward vehicle. become. For example, in such a case, the above-described one-dimensional histogram is created at least in the horizontal direction by using the above-described histogram creating means, and based on the one-dimensional histogram, the position coordinates of the contour candidate of the preceding vehicle at least in the horizontal direction. Can be identified at high speed. Therefore, according to such a method, since the analysis target area is narrowly limited and the calculation for creating the one-dimensional histogram is relatively simple, the horizontal position of the preceding vehicle is very fast. And width can be specified.
Of course, calculation of the contour coordinates of the object based on such a one-dimensional histogram may be performed not only in the horizontal direction but also in any direction.
[0012]
[0013]
As the “image processing data”, the above one-dimensional histogram may be used, the above contour candidates may be used, or the above partial image (image of the analysis target area) may be used as it is.
According to such a configuration, even when the distance between the object detection device and the subject (detection target) dynamically varies, the scale ratio adjusting means adversely affects the image processing data (: Inconsistency) can be canceled out, so that the above data collation process between a plurality of times can be performed at high speed, simply and accurately.
[0014]
When following a forward traveling vehicle, the image of the forward traveling vehicle is usually left-right symmetric. Therefore, by using such symmetry, the erroneous detection due to the background as described above can be greatly reduced, and the reliability of object detection can be greatly improved.
By the above means of the present invention, the above-mentioned problem can be effectively or rationally solved.
[0015]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, the present invention will be described based on specific examples. However, the present invention is not limited to the following examples.
(Example)
FIG. 1 is a system configuration diagram illustrating the main configuration of an object detection apparatus 100 according to an embodiment of the present invention. The object detection apparatus 100 mainly includes a CPU 101, ROM 102, RAM 103, IF (input / output interface 104), camera 107 (imaging means), millimeter wave radar 108 (distance detection means), ECU (electronic control unit 110), and the like. It is configured.
However, for example, a stereo camera or the like can be used as an alternative means of the distance detection means (millimeter wave radar 108).
[0016]
FIG. 2 illustrates a basic control procedure of the object detection apparatus 100 according to the embodiment of the present invention. One of the major features of the object detection apparatus 100 is that it uses a moving stereo method, and the multiple time information holding means for realizing it is realized by step 200, step 210, step 220, and the like. . In step 210, synchronous processing (waiting processing) is executed so that step 220 is periodically executed. This period is hereinafter referred to as Δt.
That is, this object detection apparatus 100 first executes step 200, and then periodically executes steps 210 to 290 with the above-mentioned period Δt, whereby each means (distance) of the object detection apparatus 100 of the present invention. Measuring means, image capturing means, analysis target area limiting means, contour candidate extracting means, multiple time information holding means, reliability calculating means, contour estimating means) are configured to function efficiently in conjunction with each other.
Hereinafter, each step from Step 230 to Step 290 will be described in detail with reference to FIGS.
[0017]
[1] Determination of processing boundaries
FIG. 3 is an image diagram schematically showing how the processing area is determined in step 230.
When executing step 230, first, the presence / distance and orientation of an object are detected by a millimeter wave radar or the like, and a processing area (analysis target area) in the image is determined from the detected distance and orientation (FIG. 3). ). The upper left coordinate of the processing area is (x0, y0), and the width and height are w and h, respectively. In this embodiment, it is assumed that the coordinate origin in the image coincides with a point where the camera optical axis intersects the imaging surface.
The processing area (analysis target area) can also be determined by detecting the traveling lane. Further, the entire screen may be used as the processing area. Hereinafter, the symbol I (x, y) represents pixel brightness information (captured pixel information) at the image coordinates (x, y) in this embodiment.
[0018]
[2] Detection of object boundary candidates
FIG. 4 illustrates a processing procedure of a subroutine for executing object boundary candidate detection (step 240).
A well-known Prewitt filter is applied to the processing area of the captured image I (x, y) to create a horizontal differential image IDX (x, y) and a vertical differential image IDY (x, y). The coefficients of the Prewitt filter are shown below. Multiplying the Prewitt filter means multiplying the 3 × 3 pixels adjacent to each pixel position in the processing region by the following coefficients, summing them, and calculating the function value in the (x, y) coordinates: Means seeking.
[0019]
(Prewitt filter coefficient)
(Horizontal differential) (Vertical differential)
-1 0 1 -1 -1 -1
-1 0 1 0 0 0
-1 0 1 1 1 1
The above process corresponds to the process of step 410 in FIG.
[0020]
Further, the following vertical / horizontal line enhancement processing is performed.
[Expression 1]
Idx (x, y) = IDX (x, y) (| IDX (x, y) | >> | IDY (x, y) |),
Idx (x, y) = 0 (| IDX (x, y) | ≦ | IDY (x, y) |) (1)
[Expression 2]
Idy (x, y) = IDY (x, y) (| IDY (x, y) | >> | IDX (x, y) |),
Idy (x, y) = 0 (| IDY (x, y) | ≦ | IDX (x, y) |) (2)
By this enhancement process (step 420), it is possible to effectively and effectively select noise, leading candidates, etc., and to highlight only leading candidates.
[0021]
Next, for each vertical line of the horizontal differential image Idx, the absolute value sum of the pixel values of the pixels on the same vertical line is obtained, and a horizontal boundary candidate histogram H is created (FIG. 5A).
FIG. 5 is an image diagram schematically showing a creation form of an object boundary histogram (V, H). Here, symbol Idx (x, y) is an enhanced horizontal differential image (processed pixel information), and symbol Idy (x, y) is an enhanced vertical differential image (processed pixel information). It is.
[0022]
Similarly in the vertical direction, the absolute value sum of the pixel values of the pixels on the same horizontal line is obtained for each horizontal line of the vertical differential image Idy, and a vertical boundary candidate histogram V is created (FIG. 5B). . Thereafter, the following filters are applied to the histograms V and H respectively.
[Equation 3]
Fv = {1 2 1},
Fh = {1 4 5 4 1} (3)
[0023]
Next, the local peak position of each histogram is detected. If the detected peak value is equal to or greater than a predetermined threshold, the position is set as a horizontal boundary candidate and a vertical boundary candidate position, and the coordinates of each candidate are represented as xHi and yVj. Further, the reliability of each boundary candidate is defined by the following equation (4).
(symbol)
xHi: Position of boundary candidate (position in the horizontal axis direction; 1 ≦ i ≦ n)
yVj: Position of boundary candidate (position in the vertical axis direction; 1 ≦ j ≦ m)
[Expression 4]
Ch (xHi) = α · H (xHi),
Cv (yVj) = β · V (yVj) (4)
[0024]
However, the peak position of the horizontal boundary candidate histogram is set as the horizontal boundary candidate position xHi, and the peak position of the vertical boundary candidate histogram is set as the vertical boundary candidate position yVj. Α and β are appropriate normalization coefficients. That is, the reliability of each position is directly proportional to each value of the histogram.
Note that the scale of the boundary candidate histogram (V, H) itself may be standardized so that α = β = 1. Ch (xHi) may be defined as another monotonically increasing function for H (xHi). The same applies to the relationship between Cv (yVj) and V (yVj).
[0025]
[3] Horizontal boundary judgment
An intermediate histogram HM is created from the vertical differential image Idy and the vertical boundary histogram V.
FIG. 6 is a flowchart illustrating a processing procedure of a subroutine for executing the horizontal boundary left / right determination (step 250), and FIG. 7 is a histogram relating to the left / right boundary of the object (intermediate histogram HM, left / right determination histogram LR). It is an image figure showing typically the creation form.
[0026]
First, in step 620, an intermediate histogram HM (FIG. 7B) is created according to the following equation (5).
[Equation 5]
HM (x) = y = y0 Σ y0 + h-1 (V (y) · Idy (x, y)) (5)
In step 640, the created intermediate histogram HM is subjected to a differential filter of the following equation (6) to create a left / right determination histogram LR (FIG. 7C).
[Formula 6]
Fdif = {− 1 −1 0 1 1} (6)
[0027]
Next, in step 660, “Cl: likelihood of left boundary” and “Cr: likelihood of right boundary” defined by the following equation (7) are used as selection criteria, as shown in the following equation (8): From xHi}, the left boundary candidate position {xHil} and the right boundary candidate position {xHir} are separated (selected), respectively.
[Expression 7]
Cl (xHi) = max (LR (∀x))
(XHi−mlr1 ≦ x ≦ xHi + mlr2),
Cr (xHi) = max (−LR (∀x))
(XHi−mlr2 ≦ x ≦ xHi + mlr1),
(Example: mlr1 = 4, mlr2 = 1) (7)
[Equation 8]
{XHil} = {xHi | Cl (xHi)> 0},
{XHir} = {xHi | Cr (xHi)> 0} (8)
[0028]
[4] Verification of boundary candidates by moving stereo
FIG. 8 is a conceptual diagram for explaining a basic processing concept (collation method) in the moving stereo method in step 260.
[0029]
FIG. 8A shows an image at time t1 (: t = t1) and a candidate area (analysis target area) at that time, and FIG. 8B shows an image and candidate area at time t2 (: t = t2 = t1 + Δt). Shown in Here, the distance to the vehicle at time t1 is Z1, and the distance to the vehicle at time t2 is Z2.
Further, the horizontal boundary candidate histogram at time t1 is H1, and the horizontal boundary candidate histogram at time t2 is H2. Further, the upper left coordinate of the processing area in the image at time t1 is (x01, y01), and the upper left coordinate of the processing area at time t2 is (x02, y02).
(Other symbols)
R1 ... Domain of histogram H1
R2 ... Domain of histogram H2
H1 '... Horizontal boundary histogram obtained by scaling H1
[0030]
First, a position corresponding to the range R1 of the horizontal boundary candidate histogram H1 in the horizontal boundary candidate histogram H2 is obtained. Here, the left end position of the region R1 is x0R1, and the width is wR1. However, as a method for determining the region R1, for example, a method according to the following procedure may be considered.
(Procedure 1) Based on the distance Z1 detected by the radar, the width W in the image corresponding to 2.5 m is determined.
(Procedure 2) Then, an area (: definition area [xr−W, xr + W]) widened to the left and right around the azimuth xr detected by the radar is defined as R1.
[0031]
Hereinafter, the analysis process procedure in the horizontal direction will be described in detail.
FIG. 9 is a flowchart exemplifying a processing procedure of a subroutine for executing a collation process (: step 260) based on the moving stereo method.
[4-1] Horizontal analysis processing procedure
This process corresponds to step 810 to step 840.
(A) First, in step 810, the histogram H1 'is generated by multiplying the histogram H1 by Z1 / Z2. At this time, the left end position x0R1 ′ and the width wR1 ′ of the region R1 ′ in H1 ′ corresponding to the region R1 of H1 are determined based on the following equation (9).
[0032]
The right side of the following equation (9) is multiplied by Z1 / Z2, respectively. This is because the size (width, etc.) of the same object in the captured image is inversely proportional to the distance to the object. It is designed based on a very basic geometrical relationship (distance and size correspondence) between times.
[Equation 9]
x0R1 '= x0R1 · Z1 / Z2
wR1 ′ = wR1 · Z1 / Z2 (9)
[0033]
(B) Next, in step 820, the region R2 that is most similar to the region R1 ′ in the histogram H1 ′ is obtained by correlation calculation in the histogram H2, and for example, as shown in the following equation (10), H1 Find the corresponding position of 'and H2. The correlation calculation is performed using the sum SAD (x) of absolute values of differences between histogram values for each element in the region R1 ′.
However, hereinafter, argmin is a symbol for deriving an argument that minimizes the function value of the function written on the right side of the symbol. For example, argminSAD (x) means an argument (independent variable) x that gives a minimum value to the function SAD. In addition, the appropriate range (search range) of x when searching for the minimum value matches the definition area unless otherwise specified.
Similarly, argmax is a symbol indicating an argument that maximizes the function value of the function written on the right side of the symbol.
[0034]
[Expression 10]
x0R2 = argminSAD (x),
SAD (x) = i = 0 Σ wR1-1 | H2 (x + i)
−H1 ′ (x0R1 ′ + i) | (10)
Assuming that the left end position of the region R2 is x0R2, the position x1 ′ in the histogram H1 ′ corresponding to the position x2 of the histogram H2 follows the following equation (11).
## EQU11 ##
x1 '= x2-x0R2 + xR01' (11)
[0035]
(C) Next, in step 830, a difference histogram Hd between the histogram H2 and the histogram H1 ′ is created by the difference calculation for each element. At this time, when the position x1 ′ corresponding to the position x2 of H2 is outside H1 ′, the value of the element is set to 0.
[Expression 12]
Hd (x2) = | H2 (x2) −H1 ′ (x1 ′) |
(0 ≦ x1 ′ ≦ wR1 ′),
Hd (x2) = 0 (other than above) (12)
[0036]
(D) Next, in Step 840, the reliability Cms2 (xHi) by the moving stereo verification at the position x2 is calculated as in Expression (13) using Expression (14).
[Formula 13]
Cms2 (xHi) = Cms (xHi−ofms) (xHi ≦ xc),
Cms2 (xHi) = Cms (xHi + ofms) (other than above) (13)
[Expression 14]
Cms (x2) = H2mean-[{H2mean + i = xc Σ x2 Hd (i)}
/ | X2-xc |],
H2mean = { x = 0 Σ wR2-1 H2 (x)} / WR2 (14)
[0037]
Here, xc is a position that separates the left and right boundaries, and for example, xc = x0R2 + wR2 / 2 may be set. However, the reliability of the boundary candidate is obtained by using the reliability at the position (± ofms = ± 2) shifted by the width of two pixels inward from the position xHi of the boundary candidate as exemplified in the following equation (13). Redefine.
[0038]
The reason for such redefinition is as follows.
In the reliability Cms (x2), the reliability is obtained by integrating Hd within the range [xc, x2]. The position of xHi is the peak of the vertical edge (horizontal boundary candidate) histogram H, that is, the value of Big position. Further, since Hd is the difference between H2 and H1 ′, at a position xHi where the value of H1 ′ is large, it is easily affected by the scale conversion error of H1 ′. As a result, the value of Hd becomes an unreasonably large value. Cases are likely to occur. In order to mitigate the influence of the error, a required comparison operation is performed at a position where the value of the histogram H1 ′ itself is relatively small (a position where the influence of the error is relatively small) that is slightly inside (ofms = 2). It is desirable to perform this, and according to such a calculation technique, a more reliable calculation result can be obtained.
The same tendency can be seen in the vertical direction.
[0039]
[4-2] Vertical analysis processing procedure
Note that the vertical analysis process is also executed in steps 860 to 890 in FIG. 9 in substantially the same manner as the horizontal analysis process described above. However, similarly in the vertical direction, a function obtained as a result of the analysis processing is Cms3 (yVj). That is, the function Cms3 (yVj) is a function on the vertical direction side corresponding to the function Cms2 (xHi).
[0040]
[5] Verification of symmetry
Next, a method for calculating the reliability of the boundary candidate using the symmetry in the horizontal direction will be described. First, the symmetry of the region between the left boundary candidate position xHil and the right boundary candidate position xHir is defined by the following equation (15).
[Expression 15]
Csym (xHil, xHir) = MAX Fsym (xHil + a, xHir + b)
((A, b) = (0,0), (-1,0), (0,1)),
Fsym (X1, X2) = i = 0 Σ (X2-X1) / 2 {H (X1 + i) × H (X2-i)}
... (15)
[0041]
However, here, the symbol MAX is used as a symbol for selecting (a, b) that maximizes the function value of Fsym from any one of the above three (a, b).
Note that performing multiplication {H (X1 + i) × H (X2-i)} in Σ {} on the right side of the second expression of Expression (15) is effective for problems such as noise. However, for example, a difference calculation may be performed in Σ {} on the right side. However, in that case, various changes such as changing the MAX operation to the MIN operation are necessary.
[0042]
Then, the reliability of the left boundary candidate position xHil and the right boundary candidate position xHir is defined by the following equation (16).
[Expression 16]
Clsym (xHil) = max (Csym (xHil, ∀r))
(Rε {xHir}),
Crsym (xHir) = max (Csym (∀l, xHir))
(L∈ {xHil}) (16)
FIG. 10 illustrates a subroutine processing procedure (step 310 to step 375) for obtaining the first calculation result (Clsym (xHil)) of the equation (16), and FIG. 16 illustrates a processing procedure of a subroutine for obtaining the second calculation result (Crsym (xHir)) of 16). For example, following these processing procedures, step 270 (: left / right symmetry verification processing) can be effectively realized.
[0043]
[6] Calculation of reliability (step 280 in FIG. 2)
Based on the respective reliability Ch, Cv, Cl, Cr, Cms2, Cms3, Clsym, and Crsym calculated by the above processing, the final reliability (Cleft, Cright, Ctop, Cbtm) are defined by the following equations (17) to (20).
[Expression 17]
Cleft (xHil) = a1 · Ch (xHil)
+ A2 · Cl (xHil)
+ A3 · Cms2 (xHil)
+ A4 · {Clsym (xHil)} 1/2 ... (17)
[Formula 18]
Cright (xHir) = a1 · Ch (xHir)
+ A2 · Cr (xHir)
+ A3 · Cms2 (xHir)
+ A4 · {Crsym (xHir)} 1/2 ... (18)
[Equation 19]
Ctop (yVjt) = b1 · Cv (yVjt)
+ B2 · Cms3 (yVjt),
{YVjt} = {yVj | y0 <yVj <y0 + h / 2} (19)
[Expression 20]
Cbtm (yVjb) = b1 · Cv (yVjb)
+ B2 · Cms3 (yVjb),
{YVjb} = {yVj | y0 + h / 2 <yVj <y0 + h} (20)
[0044]
The position of the upper boundary candidate yVjt and the position of the lower boundary candidate yVjb are the vertical boundary candidate positions {yVj} and the upper boundary candidate position {yVjt} in the middle of the candidate area (analysis target area) as described above. The lower boundary candidate position {yVjb} is divided into two groups.
Further, all of a1, a2, a3, a4, b1, and b2 are appropriate adjustment coefficients, and may be about 1 in this embodiment.
(Setting example of each adjustment factor)
[Expression 21]
a1 = a2 = 1,
a3 = a4 = 1,
b1 = b2 = 1 (21)
[0045]
[7] Determination of boundary (step 290 in FIG. 2)
The contour coordinates of the object to be finally output are defined as follows. That is, the coordinates of each boundary candidate that gives the maximum value to each reliability described above are the left end contour coordinates: xHl, the right end contour coordinates: xHr, the upper end contour coordinates: yVt, and the lower end contour coordinates: yVb.
[Expression 22]
xHl = argmax (Cleft (xHil)),
xHr = argmax (Cright (xHir)),
yVt = argmax (Ctop (yVjt)),
yVb = argmax (Cbtm (yVjb)) (22)
[0046]
FIG. 12 is an image diagram illustrating a specific example of contour coordinates that are output information of FIG. 1. According to the object detection apparatus 100 of the present embodiment, the same calculation results as in the image diagram of FIG. 12 are obtained in the actual experimental results using the vehicle.
That is, for example, the present invention can be effectively realized by the embodiment as described above.
[Brief description of the drawings]
FIG. 1 is a system configuration diagram illustrating a main configuration of an object detection apparatus 100 according to an embodiment of the present invention.
FIG. 2 is a general flowchart illustrating a basic control procedure of the object detection apparatus 100 according to the embodiment of the present invention.
FIG. 3 is an image diagram schematically showing how a processing area is determined in step 230;
FIG. 4 is a flowchart illustrating a processing procedure of a subroutine that executes detection of an object boundary candidate (step 240).
FIG. 5 is an image diagram schematically showing a form of creating an object boundary histogram (V, H).
FIG. 6 is a flowchart illustrating a processing procedure of a subroutine for executing a horizontal boundary left / right determination (step 250).
FIG. 7 is an image diagram schematically showing a creation form of histograms (HM, LR) related to the left and right boundaries of an object.
FIG. 8 is a conceptual diagram for explaining a basic processing concept (collation method) in the moving stereo method in step 260;
FIG. 9 is a flowchart illustrating a processing procedure of a subroutine for executing a collation process based on the moving stereo method (step 260).
FIG. 10 is a flowchart (first half) illustrating a processing procedure of a subroutine for executing a left / right symmetry verification process (step 270).
FIG. 11 is a flowchart (second half) illustrating the processing procedure of a subroutine for executing the left / right symmetry verification processing (step 270).
12 is an image diagram illustrating a specific example of contour coordinates that are the output result of FIG. 1;
[Explanation of symbols]
100 ... Object detection device
101 ... CPU
102… ROM
103 ... RAM
104 ... IF (input / output interface)
107: Camera (imaging means)
108 ... millimeter wave radar (distance detection means)
110 ... ECU (Electronic Control Unit)
I (x, y): Pixel brightness at image coordinates (x, y) (image information of captured pixels)
Idx (x, y) ... Horizontal differential image with enhanced processing (processed pixel information)
Idy (x, y)… vertical differential image with enhanced processing (processed pixel information)
H… Horizontal boundary histogram
V ... Vertical boundary histogram
HM ... Intermediate histogram
LR: Histogram for left / right determination
Z1 ... Distance to the object at time t = t1
H1 ... Horizontal boundary histogram at time t = t1
R1 ... Domain of histogram H1
Z2: Distance to the object at time t = t2
H2 ... Horizontal boundary histogram at time t = t2
R2 ... Domain of histogram H2
H1 '... Horizontal boundary histogram obtained by scaling H1
xHi: Position of boundary candidate (position in the horizontal axis direction; 1 ≦ i ≦ n)
xHil ... Left boundary candidate position
xHir ... Right boundary candidate position
yVj: Position of boundary candidate (position in the vertical axis direction; 1 ≦ j ≦ m)
yVjt ... Position of the upper boundary candidate
yVjb ... Lower boundary candidate position
xHl ... Contour coordinates (final output position of the left edge of the object)
xHr: Contour coordinates (final output, right edge position of the object)
yVt ... Contour coordinates (final output position of the upper end of the object)
yVb ... Contour coordinates (final output position of the lower end of the object)

Claims (1)

移動体に積載可能な物体検出装置であって、
検出されるべき物体までの距離を測定する距離測定手段と、
想定される検出対象範囲の全体画像を撮像する画像撮像手段と、
前記距離の分布状態に基づいて前記全体画像内の解析対象領域を限定する解析対象領域限定手段と、
複数の処理時刻における、前記距離測定手段により測定された前記距離と、前記画像撮像手段により撮像された画像を処理して得られる情報とを一組として記憶する情報保持手段と、
前記解析対象領域を構成する部分画像において、水平方向にx軸をとり、そのx軸上の位置をx座標、垂直方向にy軸をとり、そのy軸上の位置をy座標とするとき、前記部分画像の画素情報に対するx軸方向である水平方向及びy軸方向である垂直方向の微分処理を用いて、前記部分画像の水平微分画像及び垂直微分画像を作成する微分画像作成手段と、
前記水平微分画像において各x座標について、y軸に平行な線上の画素値の絶対値和をxの関数として求めて1次元の水平境界候補ヒストグラムを求め、前記垂直微分画像において各y座標について、x軸に平行な線上の画素値の絶対値和をyの関数として求めて1次元の垂直境界候補ヒストグラムを求めるヒストグラム作成手段と、
各x座標について、あるy座標を有する前記垂直微分画像における画素値と、そのy座標における前記垂直境界候補ヒストグラムの値との積のy座標を変化させて得られる和をxの関数である中間ヒストグラムとして求める中間ヒストグラム作成手段と、
xの関数である前記中間ヒストグラムをx座標について微分して、左右判定ヒストグラムを求める左右判定ヒストグラム作成手段と、
前記水平境界候補ヒストグラムの極値をとるx座標を水平境界候補位置として求める水平境界位置候補選定手段と、
前記水平境界位置候補選定手段により求められた各水平境界候補位置に関して、その水平境界候補位置を含む微小領域における前記左右判定ヒストグラムの値の絶対値の最大値を第1評価値とし、その左右判定ヒストグラムの値の正負に応じて、前記各水平境界候補位置を、左水平境界候補位置と右水平境界候補位置とに2分類する第1評価値演算手段と、
前記第1評価値演算手段により2分類された各類における左水平境界候補位置と右水平境界候補位置の対の左右対称性に関する第2評価値を、前記各水平境界候補位置毎に、前記水平境界候補ヒストグラムの値から求める対称性評価値演算手段と、
前記情報保持手段が保持する異なる第1処理時刻、第2処理時刻における前記物体までの第1距離、第2距離に基づいて、前記情報を共通の距離に対応する情報に変換するために、前記x軸方向及び前記y軸方向の長さの縮尺比を求め、前記水平境界候補ヒストグラムの値及びx座標を変換する縮尺比調整手段と、
前記縮尺比調整手段により縮尺比調整された、各時刻毎の水平境界候補ヒストグラム間の照合度を、前記各水平境界候補位置について求めて、前記各水平境界候補位置の第3評価値として演算する照合手段と、
前記各水平境界候補位置毎に、前記水平境界候補ヒストグラムの値、前記第1評価値、前記第2評価値、前記第3評価値に基づいて、前記水平境界候補位置が、前記物体の輪郭に一致する信頼度を算定する信頼度算定手段と、
前記信頼度に基づいて前記物体の輪郭を推定する輪郭推定手段と
を有することを特徴とする物体検出装置。
An object detection device that can be loaded on a moving object,
Distance measuring means for measuring the distance to the object to be detected;
Image capturing means for capturing an entire image of an assumed detection target range;
Analysis target region limiting means for limiting the analysis target region in the whole image based on the distribution state of the distance;
Information holding means for storing the distance measured by the distance measuring means at a plurality of processing times and information obtained by processing the image captured by the image capturing means as a set;
In the partial image constituting the analysis target area, when the x-axis is taken in the horizontal direction, the x-axis position is taken as the x-coordinate, the y-axis is taken in the vertical direction, and the y-axis position is taken as the y-coordinate, Differential image creation means for creating a horizontal differential image and a vertical differential image of the partial image using differential processing in the horizontal direction that is the x-axis direction and the vertical direction that is the y-axis direction with respect to the pixel information of the partial image;
For each x coordinate in the horizontal differential image, the absolute sum of pixel values on a line parallel to the y axis is obtained as a function of x to obtain a one-dimensional horizontal boundary candidate histogram, and for each y coordinate in the vertical differential image, a histogram creating means for obtaining a one-dimensional vertical boundary candidate histogram by obtaining an absolute value sum of pixel values on a line parallel to the x-axis as a function of y;
For each x-coordinate, the sum obtained by changing the y-coordinate of the product of the pixel value in the vertical differential image having a certain y-coordinate and the value of the vertical boundary candidate histogram in that y-coordinate is a function of x Intermediate histogram creation means to obtain as a histogram;
a left / right determination histogram creating means for differentiating the intermediate histogram which is a function of x with respect to the x coordinate to obtain a left / right determination histogram;
Horizontal boundary position candidate selecting means for obtaining an x coordinate taking an extreme value of the horizontal boundary candidate histogram as a horizontal boundary candidate position;
For each horizontal boundary candidate position obtained by the horizontal boundary position candidate selecting means, the maximum absolute value of the left and right determination histogram values in a minute region including the horizontal boundary candidate position is set as a first evaluation value, and the left and right determination is performed. First evaluation value calculating means for classifying each horizontal boundary candidate position into a left horizontal boundary candidate position and a right horizontal boundary candidate position according to the sign of the histogram,
A second evaluation value related to the left-right symmetry of the pair of the left horizontal boundary candidate position and the right horizontal boundary candidate position in each of the two classes classified by the first evaluation value calculation means is calculated for each horizontal boundary candidate position. Symmetry evaluation value calculation means to be obtained from the value of the boundary candidate histogram;
In order to convert the information into information corresponding to a common distance based on the different first processing time held by the information holding means, the first distance to the object at the second processing time, and the second distance, a scale ratio adjusting means for obtaining a scale ratio of lengths in the x-axis direction and the y-axis direction, and converting a value of the horizontal boundary candidate histogram and an x coordinate;
The collation degree between the horizontal boundary candidate histograms at each time, which is scale ratio adjusted by the scale ratio adjusting means, is obtained for each horizontal boundary candidate position, and is calculated as a third evaluation value of each horizontal boundary candidate position. Matching means;
For each horizontal boundary candidate position, based on the value of the horizontal boundary candidate histogram, the first evaluation value, the second evaluation value, and the third evaluation value, the horizontal boundary candidate position becomes the contour of the object. A reliability calculation means for calculating the matching reliability;
An object detection apparatus comprising: an outline estimation unit that estimates an outline of the object based on the reliability.
JP2003186639A 2003-06-30 2003-06-30 Object detection device Expired - Lifetime JP4479174B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003186639A JP4479174B2 (en) 2003-06-30 2003-06-30 Object detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003186639A JP4479174B2 (en) 2003-06-30 2003-06-30 Object detection device

Publications (2)

Publication Number Publication Date
JP2005022429A JP2005022429A (en) 2005-01-27
JP4479174B2 true JP4479174B2 (en) 2010-06-09

Family

ID=34185718

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003186639A Expired - Lifetime JP4479174B2 (en) 2003-06-30 2003-06-30 Object detection device

Country Status (1)

Country Link
JP (1) JP4479174B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006234513A (en) * 2005-02-23 2006-09-07 Toyota Central Res & Dev Lab Inc Obstruction detection system
JP4655961B2 (en) * 2006-02-27 2011-03-23 トヨタ自動車株式会社 Structure shape estimation device, obstacle detection device, and structure shape estimation method
JP5280768B2 (en) * 2008-08-18 2013-09-04 本田技研工業株式会社 Vehicle periphery monitoring device
CN103455996B (en) * 2012-05-31 2016-05-25 富士通株式会社 Edge extracting method and equipment

Also Published As

Publication number Publication date
JP2005022429A (en) 2005-01-27

Similar Documents

Publication Publication Date Title
JP7167397B2 (en) Method and apparatus for processing point cloud data
JP5689907B2 (en) Method for improving the detection of a moving object in a vehicle
US10970871B2 (en) Estimating two-dimensional object bounding box information based on bird&#39;s-eye view point cloud
US7231288B2 (en) System to determine distance to a lead vehicle
JP4919036B2 (en) Moving object recognition device
JP5124592B2 (en) System and method for detecting and tracking a vehicle
TWI452540B (en) Image based detecting system and method for traffic parameters and computer program product thereof
KR101609303B1 (en) Method to calibrate camera and apparatus therefor
KR101393881B1 (en) Method for recognizimg parking mark for vehicle
JP5716671B2 (en) Runway recognition device, vehicle, runway recognition method, and runway recognition program
CN108645375B (en) Rapid vehicle distance measurement optimization method for vehicle-mounted binocular system
JP2016081525A (en) Vehicular image recognition system and corresponding method
JP2006268097A (en) On-vehicle object detecting device, and object detecting method
WO2014002692A1 (en) Stereo camera
KR20150029551A (en) Determining source lane of moving item merging into destination lane
KR20110021500A (en) Method for real-time moving object tracking and distance measurement and apparatus thereof
Mazoul et al. Fast spatio-temporal stereo for intelligent transportation systems
JP4479174B2 (en) Object detection device
WO2022264533A1 (en) Detection-frame position-accuracy improving system and detection-frame position correction method
JP2001108434A (en) Method and apparatus for measuring distance
JP2006010652A (en) Object-detecting device
Shin et al. Vehicle classification by road lane detection and model fitting using a surveillance camera
JP7208051B2 (en) State recognition device
JP7309630B2 (en) Image processing device
JP6334773B2 (en) Stereo camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060324

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081111

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090908

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091106

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091201

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100223

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100308

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130326

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130326

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130326

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350