JP4962569B2 - 移動物体検出装置 - Google Patents

移動物体検出装置 Download PDF

Info

Publication number
JP4962569B2
JP4962569B2 JP2009521620A JP2009521620A JP4962569B2 JP 4962569 B2 JP4962569 B2 JP 4962569B2 JP 2009521620 A JP2009521620 A JP 2009521620A JP 2009521620 A JP2009521620 A JP 2009521620A JP 4962569 B2 JP4962569 B2 JP 4962569B2
Authority
JP
Japan
Prior art keywords
unit
vector
image
moving object
motion vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009521620A
Other languages
English (en)
Other versions
JPWO2009005025A1 (ja
Inventor
雄一 川上
寿夫 糊田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2009521620A priority Critical patent/JP4962569B2/ja
Publication of JPWO2009005025A1 publication Critical patent/JPWO2009005025A1/ja
Application granted granted Critical
Publication of JP4962569B2 publication Critical patent/JP4962569B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、移動体に搭載されたカメラで取得された時系列画像から、その画像内で実際に動いている移動物体を切り出す装置に関する。
この出願は、2007年7月3日に出願された日本国出願特願2007−175201および2007年7月5日に出願された日本国出願特願2007−177025を基礎とするものであり、それらの内容は、本願に含まれるものである。
前記移動物体を切り出す前記装置の具体的な用途の代表例としては、例えば、車載用カメラにおいて、車道への歩行者等の飛び出しを検出してドライバーへ危険を報知したり、ブレーキを掛けたりする装置が挙げられる。また、ロボットの技術分野においても、移動しながらに、人間等の動きを検出したいというニーズもある。ところが、移動中は、画像全体が変動するため、動きのある対象物を検出するのは、困難である。
そこで、そのような動きのある撮像画像から移動物体を検出するようにした従来技術として、例えば、特許文献1および特許文献2が挙げられる。特許文献1には、カメラを搭載した移動体の移動方向および移動速度を検出し、その検出結果から予測した画像と、実際の移動後の画像との差分から、移動物体を抽出する移動体の安全装置が開示されている。また、特許文献2には、基準画像と参照画像とで複数の画像パターン同士を比較することによって動きベクトルを求め、その最大頻度となる方向および移動量からカメラの動きを推定し、その推定画像と実際の画像との差から、移動物体を検出するたカメラ揺れ補正方法が開示されている。
前記特許文献1に開示の従来技術では、予測画像に誤差があると差分画像に誤差が生じてしまうため、移動物体の検出精度が低下してしまう。また、前記特許文献1の従来技術では、背景の3次元位置がないと、正確な予測画像を得ることが難しい。
また、特許文献2に開示の従来技術では、固定カメラの風等によるブレの対策であるので、カメラ自体が移動する場合は、動き推定が困難となってしまう。
日本国公開公報;特開平7−198737号公報 日本国公開公報;特開2006−94560号公報
本発明は、上述の事情に鑑みて為された発明であり、その目的は、移動する撮像手段の撮像画像から、移動物体をより正確に検出するようにした移動物体検出装置を提供することである。
本発明にかかる移動物体検出装置では、撮像部によって撮像された撮像画像間におけるオプティカルフローの単位ベクトルと、撮像部を搭載する移動体の移動ベクトルを前記画像と等しい画像領域上に展開した場合における前記移動ベクトルの単位ベクトルとが比較され、それらの差から移動物体が検出される。したがって、本発明にかかる移動物体検出装置は、移動する撮像部の撮像画像から移動物体をより正確に検出することができる。
本発明のこれらおよび他の目的、特徴ならびに長所は、図面に沿ってより詳しく説明される以下の記述によってより明らかにされる。
本発明の実施の一形態にかかる移動物体検出装置の電気的構成を示すブロック図である。 所定時間間隔を開けて撮影された車両前方の画像を比較して求められた動きベクトルの演算結果の一例を示す図である。 直進時の車両の移動に伴って発生する移動ベクトルの一例を示す図である。 前記図2で示す前方画像の動きベクトルから図3で示す車両の移動ベクトルを減算した演算結果の一例を示す図である。 本発明の実施の一形態にかかる移動物体の判定動作を説明するためのフローチャートである。 図5で示す移動物体の判定動作における動き領域検出動作をより詳しく説明するためのフローチャートである。 本発明の実施の他の形態に係る移動物体検出装置の電気的構成を示すブロック図である。 左にカーブを切りながら走行している状態での動きベクトルの一例を示す図である。 図8で示す動きベクトルの内、並進ベクトルを示す図である。 前記図8で示す前方画像の動きベクトルからの図9で示す並進ベクトルを減算した演算結果の一例を示す図である。 本発明の実施の他の形態に係る移動物体の判定動作を説明するためのフローチャートである。 本発明の実施の一形態に係る移動物体検出装置の電気的構成を示すブロック図である。 所定時間間隔を開けて撮影された車両前方の画像を比較して求められた動きベクトルの演算結果の一例を示す図である。 ステレオカメラの車両への取付け状態を説明するための平面図である。 前記ステレオカメラが、その光軸が車両の前後軸からずれて取付けられた場合において、車両の前進によって発生する放射方向のベクトル成分を示す図である。 前記図15で示す状況において、並進方向のベクトル成分を示す図である。 前記図15および図16のベクトル成分を合成した移動ベクトルを示す図である。 ステレオ画像から3次元3D計測部によって対象物までの距離を計測する方法を説明するための図である。 SAD法による対応点探索方法を説明するための図である。 本発明の実施の一形態に係る移動物体の判定動作を説明するためのフローチャートである。 本発明の実施の他の形態に係る移動物体検出装置の電気的構成を示すブロック図である。 本発明の実施の他の形態に係る動きベクトルの演算結果の一例を示す図である。 本発明の実施の他の形態に係る移動物体の判定動作を説明するためのフローチャートである。 図23で示す移動物体の判定動作における動き領域検出動作をより詳しく説明するためのフローチャートである。
以下、本発明にかかる実施の一形態を図面に基づいて説明する。なお、各図において同一の符号を付した構成は、同一の構成であることを示し、その説明を省略する。また、本明細書において、総称する場合には添え字を省略した参照符号で示し、個別の構成を指す場合には添え字を付した参照符号で示す。
(第1実施形態)
図1は、本発明の実施の一形態に係る移動物体検出装置1の電気的構成を示すブロック図である。この移動物体検出装置1は、移動体である車両に搭載され、車線検出技術によって車両の運転状況を検出する前方監視カメラにおいて、側方から飛び出す歩行者等の移動物体を検出するものである。移動物体検出装置1では、より具体的には、カメラ2の撮像画像に動き領域が検出された後は、その領域に対してパターンマッチング法等を用いることによって歩行者か否かの識別が行われ、歩行者であれば、ドライバーへ危険を報知したり、ブレーキを掛けたりする等の安全対策が行われる。このため、撮像手段である前記カメラ2が進行方向である前方に向けて設置され、前記カメラ2は、前方画像を時系列で出力してゆく。
このような移動体検出装置1は、例えば、移動体に搭載される撮像部の一例としてのカメラ2と、カメラ2から出力された予め定めるタイミングの撮像画像間で、画像内の動きベクトルを演算する動きベクトル演算部3と、移動体の前記予め定めるタイミング間における移動ベクトルを検出する移動ベクトル検出部4と、移動ベクトル検出部4で検出された移動ベクトルを、カメラ2の特性および移動体への取付け状態に基づいて、カメラ2の撮像画像と等しい画像領域上に展開する移動ベクトル展開部5と、動きベクトル演算部3で求められた画像の動きベクトルの単位ベクトルと、移動ベクトル展開部で求められた移動体の移動ベクトルの単位ベクトルとを比較するベクトル方向比較部6と、ベクトル方向比較部6の比較結果に基づいて、それらの差から撮像画像上での移動物体を認識する動き領域検出部7とを備えている。本実施形態では、後述からより明らかになるように、画像の動きベクトルの方向および前記画像領域上に展開された移動体の移動ベクトルの方向に基づいて撮像部で撮像された画像内の静止物体を除去することによって、画像内の移動物体が検出される。したがって、ベクトルは、方向および大きさを表現しているけれども、本書では、動きベクトルの単位ベクトルは、動きベクトルの方向を定義するために用いられ、移動ベクトルの単位ベクトルは、移動ベクトルの方向を定義するために用いられている。
カメラ2によって撮像された撮像画像は、動きベクトル演算部3において、所定期間分記憶される。動きベクトル演算部3は、さらにそれらの記憶画像の内、例えば1フレーム、0.1秒、1秒等の所定時間間隔における撮像画像間で、従来と同様の手法によって画像内の動きベクトルを演算する。動きベクトル演算部3は、例えば、画像の輝度勾配を用いるLucas−Kanade法、あるいはHorn−Schunckh法によって、前記画像内の動きベクトルを求める。
以下に、前記Lucas−Kanade法による動きベクトルの演算方法を説明する。前記時系列画像など、2枚の画像間の見かけの動きは、動きベクトル(オプティカルフロー)と呼ばれる。その動きベクトルを用いて、同一点は、2枚の画像上で同じ輝度であると仮定すると、以下の式1が成り立つ。
Figure 0004962569
ただし、Iは、画像の輝度であり、x,yは、画像上の座標であり、ν,νは、動きベクトルである。すなわち、式1の右辺は、タイミングtにおけるx,y点の輝度Iを表し、その左辺は、そのx,y点がdt後にν,νだけ移動して同じ輝度Iであることを表している。
この式1をテーラー展開すると、次の式2が得られる。
Figure 0004962569
式2を変形すると、式3となる。この式3は、オプティカルフローの拘束式と呼ばれる。
Figure 0004962569
一方、画像上の1点x,yに対して、上式1つで動きベクトルを求めることはできない。そこで、Lucas−Kanade法では、画像上の1点x,yの周辺にウインドウが設定され、ウインドウ内では動きベクトルが変わらないという仮定の下に、拘束式を重み付けして連立させることによって、x,yについて動きベクトルが計算される。より具体的には、Lucas−Kanade法では、下記の式4が解かれる。
Figure 0004962569
図2には、上述のような動きベクトルの演算結果の一例が示されている。図2には、前記カメラ2によるタイミングt+dtでの撮像画像と、タイミングtでの撮像画像との差分が動きベクトルとして表示されている。図2は、その左下の参照符号9で示す部分に移動物体が存在した場合の例を示している。
なお、前記Lucas−Kanade法のように、画像の輝度勾配を利用した方法は、数ピクセル以内の動きベクトルしか計算できない。このため、大きい移動ベクトルを演算するために、例えば、ピラミッド画像による粗密戦略(多重解像度戦略)が用いられる。この粗密戦略は、例えば、基準画像上のウインドウと参照画像上のウインドウとの画素数を1/8とし、それらのウインドウ間で1画素動いていれば、それらウインドウが1/4の画素数である場合では2画素、それらウインドウが1/2の画素数である場合では4画素、それらウインドウが正規の画素数である場合では8画素、動いていると判定するというものである。すなわち、この粗密戦略は、基準画像および参照画像の解像度をそれぞれ低解像度化し、この低解像度の基準画像および参照画像を用いて動きベクトルを求め、その解(その解像度での動きベクトル)を伝播させながら解像度を元の解像度まで順次に上げる手法である。より具体的には、まず、第1処理として、例えば画素を間引く間引き処理によって基準画像および参照画像の各縮小画像が作成される(低解像度化)。次に、第2処理として、これら基準画像および参照画像の各縮小画像を用いてその解像度での動きベクトルが求められる。次に、第3処理として、この動きベクトルを求めた画素を含む所定の範囲で基準画像および参照画像の各縮小画像が所定の倍率でそれぞれ拡大される(解の伝播)。次に、第4処理として、この拡大された基準画像および参照画像を用いてその解像度での動きベクトルが求められる。次に、第5処理として、元の大きさ(サイズ、解像度)となるまで、第3処理および第4処理を繰り返す。こうして低解像度に下げてゆくことによって徐々に大きな移動を検出可能とする前記のピラミッド画像による粗密戦略を用いることで、大きい移動ベクトルも演算することができる。
また、前記動きベクトル演算部3における動きベクトルの演算方法としては、ウインドウの相関に基づく相関法を用いることができる。この相関法では、基準画像上に注目点を含む基準ウインドウが設定され、参照画像上で、基準ウインドウと相関の高いウインドウが探索され、最も相関の高かったウインドウの場所を対応点として、注目点から対応点に向かうベクトルが動きベクトルとされる。
ここで、前記車両等の移動体に搭載されたカメラ2の撮像画像における動きベクトルには、移動体の移動に伴う移動ベクトルも含まれるので、注目すべきは、本実施の形態では、その移動ベクトルを移動ベクトル検出部4が検出し、移動ベクトル展開部5が、その移動ベクトルを前記動きベクトル演算部3で求められた動きベクトルと比較することが可能となるように、前記カメラ2での撮像画像と等しい画像領域上に展開することである。そして、前記移動ベクトル検出部4は、例えば、車両の速度(車速)を検出する車速センサを備えて成り、前記所定タイミングt,t+dt間の平均車速を求める。前記移動ベクトル展開部5は、求められた平均車速から、前記移動ベクトルを求める。
ここで、直進の場合であれば、前記移動ベクトルは、前記平均車速に対して或る程度予測することができる。すなわち、車両の移動に伴い、前記移動ベクトルは、大略的に図3で示すように、前記カメラ2の光軸2aの位置を中心として、そこから放射状に延びる。同じ距離の物体であれば、移動ベクトルは、画像中央部に映り込んだ場合に比べて、周辺部に映り込んだ場合に大きくなる。この移動ベクトルの大きさは、物体までの距離によって異なる。
したがって、既知である前記カメラ2の車両への取付け位置(車体の側か中央か、また天井部分かボンネット部分かなどの高さ)や取付け角度などの取付け状態から、前記光軸2aの位置が分り、前記カメラ2の焦点距離や画角などの特性および前記取付け角度から、画像中央部のベクトルと周辺部のベクトルとの大きさの比が或る程度推定され得る。そのため、この図3で示すような移動ベクトルは、逐次求められてもよいが、例えば、前記画像中央部と周辺部とのように画像領域が分割された各速度の標準値が予め求められて移動ベクトル展開部5に記憶されており、前記移動ベクトル検出部4からの前記平均車速の出力に応答して読み出されてもよい。
このように、前記移動ベクトル展開部5で求められた背景(静止物体)画像の移動ベクトルと、前記動きベクトル演算部3で求められた実際に得られた撮像画像の動きベクトルとは、ベクトル方向比較部6において画像上の所定ポイントが相互に比較される。そして、動き領域検出部7において、図4で示す前記参照符号9で示す領域が、移動物体のある領域と判定される。前記参照符号9で示す領域は、前記背景(静止物体)画像の移動ベクトルとは異なる方向の動きベクトルが検出された領域である。これらのベクトル方向比較部6および動き領域検出部7は、移動物体認識部の一構成例である。
前記ベクトル方向比較部6におけるベクトル同士の方向の比較(角度)は、ベクトルの内積を用いて、次の式5で与えられる。
Figure 0004962569
ただし、a,bは、それぞれ画像上の所定位置における演算された動きベクトルと、予測された移動ベクトルである。動き領域検出部7は、上式5で演算されたベクトル間の角度を予め与えられた閾値と比較し、閾値以上の領域を移動物体のある領域と判定する。
図5は、そのような移動物体の判定動作を説明するためのフローチャートである。この動作は、前記の1フレーム、0.1秒、1秒等の任意の時間間隔で行われる。ステップS1では、移動ベクトル検出部4で車速が求められ、ステップS2では、それに基づいて、移動ベクトル展開部5において、前記図3で示すような移動ベクトルが作成される。一方、ステップS3では、前記カメラ2の撮像画像が動きベクトル演算部3に取込まれて記憶され、ステップS4では、前記時間Δtだけ以前の画像と比較されて、前記図2で示すような画像内の動きベクトルが演算される。
その後、ステップS5において、前記移動ベクトル展開部5で求められた背景(静止物体)画像の移動ベクトルと、前記動きベクトル演算部3で求められた実際に得られた撮像画像の動きベクトルとが、ベクトル方向比較部6において比較され、ステップS6で、動き領域検出部7において、前記図4で示すように、背景(静止物体)画像の移動ベクトルとは異なる方向の動きベクトルを検出した参照符号9で示す領域が、移動物体のある領域と判定される。前記移動物体のある領域9が判定された後は、図示しない安全装置において、その領域9に対して、前述のようにパターンマッチング法などを用いて歩行者か否かの識別が行われ、歩行者であれば、ドライバーへ危険を報知したり、ブレーキを掛けたりするなどの安全対策が行われる。
図6は、前記ステップS6における動き領域検出部7による動き領域検出動作をより詳しく説明するためのフローチャートである。前記ステップS5において、ベクトル方向比較部6において、画面全体で移動ベクトルと動きベクトルとの差が求められている。そして、ステップS7では、その画面全体をスキャンしたか否かが判断され、そうでない場合(NO)には処理がステップS8に移り、画面内の所定のスキャン領域について、前記ベクトルの差が予め定める閾値THを超えているか否かが判断される。この判断の結果、超えている場合(YES)にはステップS9でその領域が動き領域と判定された後に、処理が前記ステップS7に戻り、一方、前記判断の結果、超えていない場合(NO)には処理がそのまま前記ステップS7に戻る。そして、再びステップS7では、画面全体をスキャンしたか否かが判断され、そうでない場合(NO)には次のスキャン領域について前記ステップS8、S9の処理が繰り返され、そうである場合(YES)には処理が終了される。
このように構成することによって、移動するカメラ2の撮像画像から、画像予測方式に比べて、移動物体をより正確に検出することができる。なお、カメラの場合は、通常、背景(静止物体)までの距離情報が無く、背景(静止物体)画像の動きベクトル予測を正確に行うことが出来ない。一方、移動体の進行方向とカメラ2の光軸とが近い場合には、移動体の移動に伴って生じる動きベクトルの方向および大きさの予測が可能となるので、上述のようにその予測した動きベクトルと実際の動きベクトルとの少なくとも方向を比較するによって、前記移動物体のある領域9の切り出しを行うことが可能となる。
次に、別の実施形態について説明する。
(第2実施形態)
図7は、本発明の実施の他の形態に係る移動物体検出装置11の電気的構成を示すブロック図である。この移動物体検出装置11は、前述の移動物体検出装置1に類似し、対応する部分には、同一の参照符号を付して示し、その説明を省略する。
本実施の形態において、注目すべきは、この移動物体検出装置11では、移動ベクトル検出部14は、前記車速センサに加えて、車両の操舵角を検出する舵角センサを備えて成り、その検出結果が並進ベクトル演算部12に入力され、前記所定のタイミングt,t+Δtの撮像画像間に生じる並進成分のベクトルが求められ、その並進成分のベクトルで、動きベクトル補正部13において、前記動きベクトル演算部3で求められた画像の動きベクトルが補正された後に、この補正された動きベクトルが前記ベクトル方向比較部6に入力されることである。
図8は、左にカーブを切りながら走行している状態で、前記動きベクトル演算部3で求められた動きベクトルの一例を示す図である。このように並進成分が加わっているために、動きベクトルは、綺麗な放射状とはならない。一方、前記カーブ走行による画像の並進は、対象物までの距離に拘わらず、図9に示すように画面全体に一様に現れる。したがって、前記移動ベクトル検出部14は、この並進の速度を検出し、前記並進ベクトル演算部12は、その検出結果から、この図9で示すような並進ベクトルを作成する。前記並進ベクトルの作成には、車両の操舵角と、走行速度とが使用され、t秒後の画像上の並進量は、以下の式6によって計算することができる。
Figure 0004962569
ただし、fは、レンズの焦点距離であり、pは、カメラ撮像素子の画素ピッチであり、vは、移動速度であり、Rは、ステアリングから計算される旋回半径である。
したがって、前記動きベクトル補正部13において、図8で示すような動きベクトルから、図9で示すような並進ベクトルを減算することによって、図8で示すような動きベクトルが補正されると、図10で示すような車両の前進成分による動きベクトルのみが抽出され得る。これによって、図8で参照符号9Aで示すように不明瞭であった移動物体の領域も、図10で参照符号9で示すように、前記図4と同様に明確に切出すことができる。
図11は、上述のような移動物体の判定動作を説明するためのフローチャートである。この動作は、前述の図5で示す判定動作に類似し、対応する部分には同一のステップ番号を付して示す。まず、ステップS11では、移動ベクトル検出部14で車速および舵角が求められ、ステップS2では、それに基づいて、移動ベクトル展開部5において、前記図3で示すような移動ベクトルが作成される。続いてステップS12では、前記並進ベクトル演算部12において、前記図9で示すような並進ベクトルが作成される。
その後、前記ステップS3でカメラ2の撮像画像が動きベクトル演算部3に取込まれ、ステップS4で前記図8で示すような動きベクトルが求められると、ステップS13で、前記画像動き補正部13において、前記図8で示す動きベクトルから、図9で示す並進ベクトルが減算されて補正されると、図10で示すような前進成分による動きベクトルのみが抽出される。その後は、前記ステップS5でベクトル同士の差が求められ、ステップS6で動き領域が検出される。
このように構成することで、車両がカーブを走行するにあたって生じる撮像画像の並進分を除去して、撮像画像の動きベクトルと、車両の移動ベクトルとを比較することができ、前記移動物体をより高精度に認識することが可能となる。
次に、別の実施形態について説明する。
(第3実施形態)
図12は、本発明の実施の他の形態に係る移動物体検出装置21の電気的構成を示すブロック図である。この移動物体検出装置21は、移動物体検出装置1と同様に、移動体である車両に搭載され、車線検出技術によって車両の運転状況を検出する前方監視カメラにおいて、側方から飛び出す歩行者等の移動物体を検出するものである。より具体的には、本実施の形態にかかる移動物体検出装置21では、ステレオカメラ2の撮像画像に動き領域が検出された後は、その領域に対してパターンマッチング法等を用いて歩行者か否かの識別が行われ、歩行者であれば、ドライバーへ危険を報知したり、ブレーキを掛けたりする等の安全対策が行われる。このため、複数の撮像手段である一対のステレオカメラ2が進行方向である前方に向けて、左右方向に予め設定された所定の間隔を開けて設置され、前方画像を時系列で出力してゆく。
このような移動体検出装置21は、例えば、移動体に搭載される複数の撮像部の一例としてのステレオカメラ22と、移動体の予め定めるタイミング間における移動ベクトルを検出する移動ベクトル検出部24と、前記ステレオカメラ2から出力された撮像画像から、画像内の対象物体までの距離を計測する3D計測部28と、移動ベクトル検出部24で検出された移動ベクトルを、ステレオカメラ22の特性および移動体への取付け状態、ならびに3D計測部28での計測結果に基づいて、ステレオカメラ28の各カメラの撮像画像と等しい画像領域上に展開する移動ベクトル展開部25と、動きベクトル演算部23で求められた画像の動きベクトルの単位ベクトルと、移動ベクトル展開部25で求められた移動体の移動ベクトルの単位ベクトルとを比較するベクトル方向比較部26と、ベクトル方向比較部26の比較結果に基づいて、それらの差から撮像画像上での移動物体を認識する動き領域検出部27とを備えている。これらベクトル比較部26および動き領域検出部27は、移動ベクトル展開部25で求められたベクトル情報および前記予め定めるタイミングの経過時点での前記ステレオカメラ22の撮像画像に基づいて、移動物体を認識する移動物体認識部の一例を構成している。
ステレオカメラ22によって撮像された撮像画像は、動きベクトル演算部3において、所定期間分それぞれ記憶される。動きベクトル演算部3は、さらにそれらの記憶画像の内、所定時間間隔の撮像画像間で、従来と同様の手法によって画像内の動きベクトルを演算する。動きベクトル演算部3は、例えば、上述した、画像の輝度勾配を用いるLucas−Kanade法、あるいはHorn−Schunckh法によって、前記画像内の動きベクトルを求める。
図13には、上述のような動きベクトルの演算結果の一例を示す。図13は、例えば、前記左側のカメラによるタイミングt+dtでの撮像画像と、タイミングtでの撮像画像との差分を動きベクトルとして表示したものである。左側のカメラであるので、右側の画像の方が大きく流れており、また左下の参照符号9Bで示す部分に、移動物体が存在した場合の例を示している。
なお、本実施形態でも、上述したピラミッド画像による粗密戦略が用いられてもよく、また、ウインドウの相関に基づく相関法が用いられてもよい。
ここで、前記車両などの移動体に搭載されたステレオカメラ2の撮像画像における動きベクトルには、移動体の移動に伴う移動ベクトルも含まれるので、注目すべきは、本実施の形態では、その移動ベクトルを移動ベクトル検出部24が検出し、移動ベクトル展開部25が、その移動ベクトルを前記動きベクトル演算部23で求められた動きベクトルと比較可能なように、前記ステレオカメラ22での撮像画像と等しい画像領域上に展開することである。前記移動ベクトル検出部24は、例えば、車速を検出する車速センサから成り、前記所定タイミングt,t+dt間の平均車速を求める。
その後、前記移動ベクトル展開部25で求められた背景(静止物体)画像の移動ベクトルと、前記動きベクトル演算部23で求められた実際に得られた撮像画像の動きベクトルとは、ベクトル比較部26において画像上の所定ポイントが相互に比較され、動き領域検出部27において、前述した図4と同様に、前記背景(静止物体)画像の移動ベクトルとは異なる動きベクトルを検出した前記参照符号9で示す領域が、移動物体のある領域と判定される。
ここで、図3に示す光軸2aは、ステレオカメラ22の光軸2aに相当し、このように構成される移動物体検出装置21において、図3は、ステレオカメラ22の光軸2aを車両の前後軸に一致させて取付けた状態で、直進時に現れる移動ベクトルの例を示す。このように前記移動ベクトルは、前記ステレオカメラ2の光軸2aの位置を中心として、そこから放射状に延びて現れる。
また、このように構成される移動物体検出装置21では、図14で示すように、前記ステレオカメラ22の光軸2aが、車両10の前後軸10aからずれて(オフセットして)取付けられていると、前記移動ベクトル展開部25において求められる移動ベクトルに、車両10が直進していても、そのずれに対応した前記光軸2aに垂直な方向の並進成分Vhが現れる。このようなオフセット取付けは、左右のカメラ22での視野角を広くする場合に、或いは車両10の中央には高精細なカメラ22’が取付けられた際にその側方監視を行う(左右の死角を補う)場合等で行われる。
この場合において、Vfをカメラ22の直進成分とし、rを対象点の画像中心(前記光軸2a)からの距離とし、pをカメラ撮像素子の画素ピッチとし、vを移動速度とし、Dを対象物までの距離とし、そして、θをカメラ2の取付け角度とすると、t秒後の画像上の放射方向のベクトルの大きさは、下記の式7から求めることができる。
Figure 0004962569
また、前記並進方向のベクトルの大きさは、下記の式8から求めることができる。
Figure 0004962569
ただし、fは、レンズの焦点距離である。
このため、前記ステレオカメラ22の左右の撮像画像の視差から前記対象物までの距離Dを計測する3D計測部28が設けられている。前記移動ベクトル展開部25には、この3D計測部28で計測された前記対象物までの距離Dの情報が入力される。そして、移動ベクトル展開部25は、既知である前記ステレオカメラ2の焦点距離や画角等の特性および前記ステレオカメラ22の車両10への取付け位置(車体の側か中央か、また天井部分かボンネット部分かなどの高さ)や取付け角度等の取付け状態、ならびに、前記距離Dの情報に基づいて、上記各式から放射方向のベクトルおよび並進方向のベクトルの大きさを求め、それらを合成して前記移動ベクトルとする。
図15には、求められた前記放射方向の成分の一例を示し、図16には、求められた前記並進方向の成分の一例を示し、図17には、それらを合成した前記ベクトル比較部26において動きベクトルと比較される移動ベクトルの例を示す。この図17で示す移動ベクトルと、前記動きベクトル演算部23で求められた前記図13で示すような実際の動きベクトルとの差分が求められると、上述した図4と同様の図となり、前述のように移動ベクトルとは異なる方向の動きベクトルの領域9が移動物体のある領域として判定され得る。
ここで、前記3D計測部28での距離Dの計測方法について以下に説明する。先ず、図18で示すように、基準画像上で注目点を決定し、その注目点周辺のエッジ情報に基づいてウインドウサイズが決定される。そして、参照画像上に前記基準画像上のウインドウに対応した大きさのウインドウが設定され、そのウインドウを走査しながら例えば相関演算やSAD演算等によって基準画像上のウインドウおよび参照画像上で走査中のウインドウ間について2つのウインドウの近さが判定され、基準画像上のウインドウに最も近いパターンが得られた地点に、基準画像上の前記ウインドウに対応するウインドウとして、参照画像上のウインドウが設定される。
その後、図10で示すように、ステレオカメラ22における基準カメラと参照カメラとの撮像面上での前記ウインドウの位置ずれ量をΔdとすると、対象物までの距離Dは、下記の式9で求められる。
D=fB/Δd ・・・(9)
ただし、Bは、カメラの基線長であり、fは、レンズの焦点距離である。
また、対象物の3次元位置(X,Y,Z)は、下記の式10(式10−1、式10−2、式10−3)で求めることができる。
X=x(D/f) ・・・(10−1)
Y=y(D/f) ・・・(10−2)
Z=D ・・・(10−3)
ただし、x,yは、基準画像上の注目画素の座標である。
図20は、上述のような移動物体の判定動作を説明するためのフローチャートである。ステップS21では、ステレオカメラ22で左右の撮像画像が取得され、ステップS22では、移動ベクトル検出部24で車速が求められ、ステップS23では、前記ステップS21の撮像画像から、前記3D計測部28において、上述の図18および図19で示すようにして、撮像画像内の対象物までの距離Dが求められる。続いて、ステップS24では、前記距離Dおよび車速ならびに前記ステレオカメラ22の車両10への取付け位置や取付け角度などに基づいて、移動ベクトル展開部25において、前記図15で示すような移動ベクトルが作成される。
続いて、ステップS25では、再び前記ステレオカメラ22で左右の撮像画像が取得される。前記ステップS21からこのステップS25までの撮像画像の取込み周期は、前記の1フレーム、0.1秒、1秒等の任意の時間間隔Δtであり、この図20で示す処理が前記間隔Δt毎に行われる場合には、前記ステップS21での画像取込みを削除し、前回処理時のこのステップS25での取込み画像が流用されてもよい。ただし、その場合において、ステップS22での車速検出と、前回ステップS25での画像の取込みタイミングとに差を生じるが、前記間隔Δtが短ければ、車速に大きな変化が生じないので、前記差を無視することが可能である。また、この図20で示す処理がΔt/n毎に行われ、画像の取込み間隔を前記Δtとすることによって前記間隔Δtを長くすることで、ベクトルの差を大きくすることが可能となる。
前記間隔Δtだけ隔てた撮像画像が取込まれると、ステップS26において、動きベクトル演算部23は、それらの画像を比較し、前記図13で示すような画像内の動きベクトルを演算する。その後、ステップS27において、前記移動ベクトル展開部25で求められた背景(静止物体)画像の移動ベクトルと、前記動きベクトル演算部23で求められた実際に得られた撮像画像の動きベクトルとが、ベクトル比較部26において比較され、ステップS28で、動き領域検出部27において、前記図4と同様に、背景(静止物体)画像の移動ベクトルとは異なる動きベクトルを検出した参照符号9で示す領域が、移動物体のある領域と判定される。前記移動物体のある領域9が判定された後は、図示しない安全装置において、その領域9に対して、前述のようにパターンマッチング法等を用いて歩行者か否かの識別が行われ、歩行者であれば、ドライバーへ危険を報知したり、ブレーキを掛けたりする等の安全対策が行われる。
このように本実施の形態では、移動するステレオカメラ22の撮像画像から、画像予測方式に比べて、移動物体をより正確に検出することが可能となる。また、ステレオカメラ22を用いて背景(静止物体)までの距離情報を得ることで、背景(静止物体)画像の動きベクトル予測をより正確に行うことも可能となる。さらにまた、検知範囲を拡げるなどのために前記ステレオカメラ22を、その光軸2aが車両10の前後軸10aに対して平行に取付けられなくても、各カメラ22での撮像画像に含まれる前記前後軸10aに対する光軸のずれ量θに対応した並進成分を打ち消すことも可能である。
次に、別の実施形態について説明する。
(第4実施形態)
図21は、本発明の実施の他の形態に係る移動物体検出装置31の電気的構成を示すブロック図である。この移動物体検出装置31は、前述の移動物体検出装置21に類似し、対応する部分には同一の参照符号を付して示し、その説明を省略する。
本実施の形態において、注目すべきは、この移動物体検出装置31では、前記移動ベクトル検出部24で検出された車速に基づいて、3D計測部28で検出された対象物の撮像画面上での位置(前記X,Y)および対象物までの距離Dから、移動ベクトル展開部25が各対象物体の移動ベクトルを予測し、その予測結果に基づいて、予測画像生成部32が前記ステレオカメラ22の撮像画像から、前記間隔Δt後の予測画像を生成することである。そして、動きベクトル演算部23は、前記ステレオカメラ22から出力された現在の撮像画像と、前記予測画像生成部32で生成された対応するカメラ22の予測画像との間で、画像内の動きベクトルをそれぞれ演算する。
前記動きベクトル演算部23で求められた動きベクトルは、予測画像と実際の画像との差分であり、図22に示すようになる。図22に示すように、ほぼ前記参照符号9Bで示す移動物体の存在する動き領域だけに、前記差分の小さな動きベクトルが検出される。このように動きベクトルと移動ベクトルとの比較に予測画像を併用することによって、前記小さな動きベクトルだけが検知される。したがって、動きベクトルを求めるにあたって、前記勾配法の場合は、例えば、前記ピラミッド画像による粗密戦略を使う必要がなくなり、すなわち画像のずらし量が小さくできる。また相関法の場合は、対応点探索領域が狭くなり、前記動きベクトルを求めるための演算量が少なくなり、より速く移動物体の認識が可能となる。
図23は、上述のような移動物体の判定動作を説明するためのフローチャートである。この動作は、前述の図20で示す判定動作に類似し、対応する部分には同一のステップ番号を付して示す。前述の図20と同様に、ステップS21では、ステレオカメラ22で左右の撮像画像が取得され、ステップS22では、移動ベクトル検出部24で車速が求められ、ステップS23では、前記ステップS21の撮像画像から、前記3D計測部28において、撮像画像内の対象物までの距離Dが求められる。そして、ステップS24では、前記距離Dおよび車速ならびに前記ステレオカメラ22の車両10への取付け位置や取付け角度などに基づいて、移動ベクトル展開部25において移動ベクトルが作成される。
ここで、注目すべきは、本実施の形態では、続くステップS31で、予測画像生成部32が前記ステレオカメラ22の撮像画像から、前記間隔Δt後の予測画像を生成する。続いて、ステップS25では、再び前記ステレオカメラ22で左右の撮像画像が取得され、ステップS32では、動きベクトル演算部23において、前記ステップS31での予測画像とステップS25での実際の画像との間で画像内の動きベクトルが演算され、そして、ステップS33では、動き領域検出部37において、前記図22で示すような動きベクトルから、移動物体の存在する領域が判定される。
図24は、前記ステップS33における動き領域検出部37による動き領域検出動作をより詳しく説明するためのフローチャートである。前記ステップS32において、動きベクトル演算部23において、予測画像と実際の画像との差が動きベクトルとして求められている。そして、ステップS41では、その画面全体をスキャンしたか否かが判断され、そうでない場合(NO)には、処理がステップS42に移り、画面内の所定のスキャン領域について、前記動きベクトルが有るか否かが判断される。この判断の結果、無い場合(NO)には、処理が前記ステップS41に戻り、一方、有る場合(YES)には、さらにステップS43において、その動きベクトルの大きさが予め定める閾値THを超えているか否かが判断される。この判断の結果、超えている場合(YES)には、ステップS44でその領域が動き領域と判定された後に、処理が前記ステップS41に戻り、一方、超えていない場合(NO)には、処理がそのまま前記ステップS41に戻る。再びステップS41では、画面全体をスキャンしたか否かが判断され、そうでない場合には次のスキャン領域について前記ステップS42〜S44を繰返し、そうである場合には処理が終了される。
本明細書は、上記のように様々な態様の技術を開示しているが、そのうち主な技術を以下に纏める。
一態様にかかる移動物体検出装置は、移動体に搭載される撮像部と、前記撮像部から出力された予め定めるタイミングの撮像画像間で、オプティカルフローを演算する動きベクトル演算部と、前記移動体の前記予め定めるタイミング間における移動ベクトルを検出する移動ベクトル検出部と、前記移動ベクトル検出部で検出された移動ベクトルを、前記撮像部の特性および移動体への取付け状態に基づいて、前記撮像部の撮像画像と等しい画像領域上に展開する移動ベクトル展開部と、前記動きベクトル演算部で求められたオプティカルフローの単位ベクトルと、前記移動ベクトル展開部で求められた移動体の移動ベクトルの単位ベクトルとを比較し、それらの差から移動物体を認識する移動物体認識部とを含む。そして、好ましくは、前記移動物体認識部は、前記オプティカルフローと移動ベクトルとの移動方向のみを比較するものである。
この構成によれば、車両に搭載されて歩行者の飛び出しの検知等に使用される移動物体検出装置において、先ず、カメラ等の撮像部から時系列に出力される撮像画像の内、動きベクトル演算部は、例えば1フレーム、0.1秒、1秒等の所定時間間隔の撮像画像間で、従来と同様に画像内のオプティカルフローを演算する。ここで、前記車両などの移動体に搭載された撮像部の撮像画像におけるオプティカルフローには、移動体の移動に伴う移動ベクトルも含まれるので、その成分を、移動ベクトル検出部は、前記移動体の前記所定時間間隔における車速や舵角などから検出する。
移動ベクトル展開部は、前記移動ベクトル検出部で求められた移動ベクトルを、既知である前記撮像部の焦点距離や画角などの特性および移動体への取付け位置(車体の側か中央か、また天井部分かボンネット部分かなどの高さ)や取付け角度などの取付け状態に基づいて、前記撮像部の撮像画像と等しい画像領域上に展開することで、前記動きベクトル演算部で求められた画像のオプティカルフローとの比較を可能にする。そして、移動物体認識部は、それらのベクトルの少なくとも移動方向を相互に比較し、それらの差から前記撮像画像上での移動物体を認識する。すなわち、移動物体認識部は、移動体の移動情報から求められる背景(静止物体)画像の移動ベクトルと、実際に得られた撮像画像のオプティカルフローとを比較し、背景(静止物体)画像の移動ベクトルとは異なる方向のオプティカルフローを検出した領域を、移動物体のある領域とする。
したがって、本態様にかかる移動物体検出装置は、移動する撮像部の撮像画像から、画像予測方式に比べて、移動物体をより正確に検出することができる。なお、カメラは、通常、背景(静止物体)までの距離情報が無く、背景(静止物体)画像のオプティカルフロー予測を正確に行うことが難しい。しかしながら、移動体の進行方向と撮像部の光軸とが近い場合には、移動体の移動に伴って生じるオプティカルフローの方向および大きさの予測が可能となるので、その予測したオプティカルフローと実際のオプティカルフローとの少なくとも前記移動方向を比較することによって、前記移動物体の存在する領域を検出することが可能となる。
また、他の一態様では、上述の移動物体検出装置において、前記撮像部は、車両に搭載され、前記移動ベクトル検出部は、車速センサおよび舵角センサから成り、前記移動ベクトル展開部は、前記車速センサからの出力に応答して前記移動ベクトルを展開し、前記車速センサおよび舵角センサからの出力に応答して、前記撮像部での前記予め定めるタイミングの撮像画像間に生じる並進成分のベクトルを求める並進ベクトル演算部と、前記動きベクトル演算部で求められた画像のオプティカルフローを、前記並進ベクトル演算部で求められた並進ベクトルで補正して前記移動物体認識部へ与える画像動き補正部とをさらに備える。
この構成によれば、車両がカーブを走行するにあたって生じる撮像画像の並進分を除いて、撮像画像のオプティカルフローと、車両の移動ベクトルとが比較される。したがって、本態様にかかる移動物体検出装置は、前記移動物体をより高精度に認識することができる。
また、他の一態様にかかる移動物体検出装置は、移動体に搭載される複数の撮像部と、前記移動体の予め定めるタイミング間における移動ベクトルを検出する移動ベクトル検出部と、前記複数の撮像部から出力された撮像画像から、画像内の対象物体までの距離を計測する計測部と、前記移動ベクトル検出部で検出された移動ベクトルを、前記撮像部の特性および移動体への取付け状態、ならびに前記計測部での計測結果に基づいて、前記各撮像部の撮像画像と等しい画像領域上に展開する移動ベクトル展開部と、前記移動ベクトル展開部で求められたベクトル情報および前記予め定めるタイミング経過時点での前記撮像部の撮像画像に基づいて、移動物体を認識する移動物体認識部とを含む。
この構成によれば、車両に搭載されて歩行者の飛び出しの検知などに使用される移動物体検出装置において、先ず、一対のステレオカメラなどの複数の撮像部からそれぞれ時系列に出力される撮像画像から、計測部は、画像内の対象物体までの距離を計測する。また、前記車両などの移動体に搭載された撮像部の撮像画像におけるオプティカルフローには、移動体の移動に伴う移動ベクトルも含まれるので、その成分を、移動ベクトル検出部は、所定時間間隔における車速や舵角などから検出する。
移動ベクトル展開部は、前記移動ベクトル検出部で求められた移動ベクトルを、既知である前記撮像部の焦点距離や画角などの特性および移動体への取付け位置や取付け角度などの取付け状態に基づいて、さらに前記計測部での計測結果に基づいて、前記各撮像部の撮像画像と等しい画像領域上に展開する。その移動ベクトル展開部で求められたベクトル情報に前記予め定めるタイミングの経過時点での前記撮像部の撮像画像に基づいて、移動物体認識部は、移動物体を認識する。
したがって、本態様にかかる移動物体検出装置は、移動する撮像部の撮像画像から、画像予測方式に比べて、移動物体をより正確に検出することができる。
また、他の一態様では、上述の移動物体検出装置において、前記撮像部は、複数であり、前記複数の撮像部から出力された撮像画像から、画像内の対象物体までの距離を計測する計測部をさらに備え、前記動きベクトル演算部は、少なくとも1つの撮像部から出力された前記予め定めるタイミングの撮像画像間で、オプティカルフローを演算し、前記移動ベクトル展開部は、前記移動ベクトル検出部で検出された移動ベクトルを、前記撮像部の特性および移動体への取付け状態、ならびに前記計測部での計測結果に基づいて、前記各撮像部の撮像画像と等しい画像領域上に展開する。
この構成によれば、移動する複数の撮像部の撮像画像から、画像予測方式に比べて、移動物体をより正確に検出することができる。
また、他の一態様では、上述の移動物体検出装置において、少なくとも1つの撮像部から出力された前記予め定めるタイミングの開始時点での前記撮像部の撮像画像に対し、前記移動ベクトル展開部で展開された移動ベクトルに従って、前記予め定めるタイミングの経過時点での予測画像を生成する予測画像生成部を備え、前記動きベクトル演算部は、少なくとも1つの撮像部から出力された前記予め定めるタイミングの経過時点での撮像画像と、前記予測画像生成部で生成された予測画像との間で、オプティカルフローを演算し、前記移動物体認識部は、前記動きベクトル演算部で求められたオプティカルフローから、移動物体を認識する。
この構成によれば、オプティカルフローの存在する領域に移動物体が存在すると推定することができ、移動物体を正確に検出することが可能となる。そして、前記動きベクトル演算部で比較する画像間のオプティカルフローは、ほぼ前記所定時間における移動物体の移動量となる。したがって、前記オプティカルフローを求めるための画像のずらし量を少なくすることが可能となり、また、前記オプティカルフローを求めるための演算量を少なくすることが可能となる。
また、他の一態様では、これら上述の移動物体検出装置において、好ましくは、前記動きベクトル演算部は、画像の輝度勾配を用いる手法によって前記オプティカルフローを求める。この構成によれば、移動量が小さい場合(画像間における離れ度合いが小さい場合)に対し、サブピクセル単位まで細かい移動量を測定することが可能となる。すなわち、この態様は、移動量が小さいものを精度よく測定したい場合に好適である。
また、他の一態様では、これら上述の移動物体検出装置において、好ましくは、前記動きベクトル演算部は、ウインドウの相関に基づく相関法によって前記オプティカルフローを求める。この構成によれば、移動量が大きい場合(画像間における離れ度合いが大きい場合)に、サブピクセル単位まで移動量を測定することが可能となる。すなわち、この態様は、移動量が大きいものを粗く測定したい場合に好適である。
また、他の一態様では、これら上述の移動物体検出装置において、前記動きベクトル演算部は、ピラミッド画像による粗密戦略を用いる。この構成によれば、比較的大きい移動ベクトルも演算することが可能となる。
本発明を表現するために、上述において図面を参照しながら実施形態を通して本発明を適切且つ十分に説明したが、当業者であれば上述の実施形態を変更および/または改良することは容易に為し得ることであると認識すべきである。したがって、当業者が実施する変更形態または改良形態が、請求の範囲に記載された請求項の権利範囲を離脱するレベルのものでない限り、当該変更形態または当該改良形態は、当該請求項の権利範囲に包括されると解釈される。
本発明によれば、画像内で実際に動いている移動物体を検出する移動物体検出装置を提供することができる。

Claims (7)

  1. 前方へ向けて移動体に搭載される撮像部と、
    前記撮像部から出力された予め定めるタイミングの撮像画像間で、オプティカルフローを演算する動きベクトル演算部と、
    前記移動体の前記予め定めるタイミング間における移動体の直進に伴う移動ベクトルを前記移動体の移動速度に基づいて検出する移動ベクトル検出部と、
    前記移動ベクトル検出部で検出された移動ベクトルを、前記撮像部の特性と、移動体への取付け状態による光軸の位置とに基づいて、前記撮像部の撮像画像と等しい画像領域上に展開する移動ベクトル展開部と、
    前記動きベクトル演算部で求められたオプティカルフローの単位ベクトルと、前記移動ベクトル展開部で求められた移動体の移動ベクトルの単位ベクトルとを比較し、それらの方向の差から移動物体を認識する移動物体認識部と
    を含むことを特徴とする移動物体検出装置。
  2. 前記撮像部は、車両に搭載され、
    前記移動ベクトル検出部は、車速センサおよび舵角センサから成り、
    前記移動ベクトル展開部は、前記車速センサからの出力に応答して前記移動ベクトルを展開し、
    前記車速センサおよび舵角センサからの出力に応答して、前記撮像部での前記予め定めるタイミングの撮像画像間に生じる並進成分のベクトルを求める並進ベクトル演算部と、
    前記動きベクトル演算部で求められたオプティカルフローを、前記並進ベクトル演算部で求められた並進ベクトルで補正して前記移動物体認識部へ与える画像動き補正部と
    をさらに備えることを特徴とする請求項1に記載の移動物体検出装置。
  3. 前記撮像部は、複数であり、
    前記複数の撮像部から出力された撮像画像から、画像内の対象物体までの距離を計測する計測部をさらに備え、
    前記動きベクトル演算部は、少なくとも1つの撮像部から出力された前記予め定めるタイミングの撮像画像間で、オプティカルフローを演算し、
    前記移動ベクトル展開部は、前記移動ベクトル検出部で検出された移動ベクトルを、前記撮像部の特性と、移動体への取付け状態による光軸の位置と、前記計測部での計測結果に基づいて、前記各撮像部の撮像画像と等しい画像領域上に展開すること
    を特徴とする請求項1に記載の移動物体検出装置。
  4. 少なくとも1つの撮像部から出力された前記予め定めるタイミングの開始時点での前記撮像部の撮像画像に対し、前記移動ベクトル展開部で展開された移動ベクトルに従って、前記予め定めるタイミングの経過時点での予測画像を生成する予測画像生成部を備え、
    前記動きベクトル演算部は、少なくとも1つの撮像部から出力された前記予め定めるタイミングの経過時点での撮像画像と、前記予測画像生成部で生成された予測画像との間で、オプティカルフローを演算し、
    前記移動物体認識部は、前記動きベクトル演算部で求められたオプティカルフローから、移動物体を認識すること
    を特徴とする請求項に記載の移動物体検出装置。
  5. 前記動きベクトル演算部は、画像の輝度勾配を用いる手法によって前記オプティカルフローを求めること
    を特徴とする請求項1ないし請求項のいずれか1項に記載の移動物体検出装置。
  6. 前記動きベクトル演算部は、ウインドウの相関に基づく相関法によって前記オプティカルフローを求めること
    を特徴とする請求項1ないし請求項のいずれか1項に記載の移動物体検出装置。
  7. 前記動きベクトル演算部は、ピラミッド画像による粗密戦略を用いること
    を特徴とする請求項または請求項に記載の移動物体検出装置。
JP2009521620A 2007-07-03 2008-06-30 移動物体検出装置 Active JP4962569B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009521620A JP4962569B2 (ja) 2007-07-03 2008-06-30 移動物体検出装置

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP2007175201 2007-07-03
JP2007175201 2007-07-03
JP2007177025 2007-07-05
JP2007177025 2007-07-05
PCT/JP2008/061813 WO2009005025A1 (ja) 2007-07-03 2008-06-30 移動物体検出装置
JP2009521620A JP4962569B2 (ja) 2007-07-03 2008-06-30 移動物体検出装置

Publications (2)

Publication Number Publication Date
JPWO2009005025A1 JPWO2009005025A1 (ja) 2010-08-26
JP4962569B2 true JP4962569B2 (ja) 2012-06-27

Family

ID=40226070

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009521620A Active JP4962569B2 (ja) 2007-07-03 2008-06-30 移動物体検出装置

Country Status (2)

Country Link
JP (1) JP4962569B2 (ja)
WO (1) WO2009005025A1 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2256667B1 (en) * 2009-05-28 2012-06-27 Honda Research Institute Europe GmbH Driver assistance system or robot with dynamic attention module
JP5642049B2 (ja) * 2011-11-16 2014-12-17 クラリオン株式会社 車両用外界認識装置およびそれを用いた車両システム
JP5785515B2 (ja) * 2012-04-04 2015-09-30 株式会社デンソーアイティーラボラトリ 歩行者検出装置及び方法、並びに車両用衝突判定装置
JP6069938B2 (ja) * 2012-08-07 2017-02-01 日産自動車株式会社 飛び出し検出装置
KR101348855B1 (ko) 2012-10-30 2014-01-16 성균관대학교산학협력단 모션 센서를 이용한 탐색 영역을 감축하는 실시간 영상 안정화 방법, 장치 및 촬상 장치
JP6084048B2 (ja) * 2013-01-28 2017-02-22 富士通テン株式会社 物体検出装置、物体検出システム及び物体検出方法
JP6178580B2 (ja) * 2013-01-28 2017-08-09 富士通テン株式会社 物体検出装置、物体検出システム及び物体検出方法
JP6587006B2 (ja) * 2018-03-14 2019-10-09 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 動体検出装置、制御装置、移動体、動体検出方法、及びプログラム
CN109544520B (zh) * 2018-11-09 2023-08-18 福建和盛高科技产业有限公司 一种视频图像扭曲自动检测方法
JP6922951B2 (ja) * 2019-08-09 2021-08-18 フジテック株式会社 画像処理装置および画像処理方法
JP2021092996A (ja) * 2019-12-11 2021-06-17 国立大学法人 東京大学 計測システム、車両、計測方法、計測装置及び計測プログラム
WO2021200329A1 (ja) * 2020-03-30 2021-10-07 ソニーグループ株式会社 情報処理装置、情報処理方法および情報処理プログラム
GB2598082A (en) * 2020-07-08 2022-02-23 Continental Automotive Gmbh Road mirror detection system and method

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10222679A (ja) * 1997-02-04 1998-08-21 Toyota Motor Corp 車両用画像処理装置
JP3395634B2 (ja) * 1998-03-12 2003-04-14 三菱自動車工業株式会社 オプティカルフロー式後方情報検出装置
JP3580475B2 (ja) * 1998-09-14 2004-10-20 矢崎総業株式会社 周辺監視装置
JP2002094849A (ja) * 2000-09-12 2002-03-29 Sanyo Electric Co Ltd 広視野画像撮像装置
JP2003044996A (ja) * 2001-07-31 2003-02-14 Matsushita Electric Ind Co Ltd 障害物検出装置
JP3776094B2 (ja) * 2002-05-09 2006-05-17 松下電器産業株式会社 監視装置、監視方法および監視用プログラム
JP2004145592A (ja) * 2002-10-24 2004-05-20 Nippon Telegr & Teleph Corp <Ntt> 移動ベクトル抽出装置及び方法及びプログラム及びその記録媒体
JP3914973B2 (ja) * 2003-11-27 2007-05-16 防衛省技術研究本部長 画像の動き検出装置
JP2005214914A (ja) * 2004-02-02 2005-08-11 Fuji Heavy Ind Ltd 移動速度検出装置および移動速度検出方法
JP4193740B2 (ja) * 2004-03-26 2008-12-10 三菱自動車工業株式会社 ノーズビューモニタ装置
JP4899424B2 (ja) * 2005-11-04 2012-03-21 トヨタ自動車株式会社 物体検出装置

Also Published As

Publication number Publication date
WO2009005025A1 (ja) 2009-01-08
JPWO2009005025A1 (ja) 2010-08-26

Similar Documents

Publication Publication Date Title
JP4962569B2 (ja) 移動物体検出装置
JP4868964B2 (ja) 走行状態判定装置
CN108351207B (zh) 立体相机装置
JP3739693B2 (ja) 画像認識装置
WO2017158983A1 (ja) 物体認識装置、物体認識方法及び物体認識プログラム
JP4899424B2 (ja) 物体検出装置
JP4788798B2 (ja) 物体検出装置
KR100785724B1 (ko) 주차 지원 프로그램을 기록한 컴퓨터 판독 가능한 기록매체, 주차 지원 장치, 주차 지원 화면
US20060115115A1 (en) Vehicle surroundings monitoring apparatus
WO2010125833A1 (ja) 車両周辺監視装置
JP2009181492A (ja) 解析装置
CN102211523B (zh) 用于跟踪对象标记位置的方法和装置
JP6291866B2 (ja) 運転支援装置、および運転支援方法
JP6032034B2 (ja) 物体検知装置
JP2008158640A (ja) 移動物体検出装置
JP2009053818A (ja) 画像処理装置及びその方法
JP2010256995A (ja) 物体認識装置
JP4067340B2 (ja) 対象物認識装置および対象物認識方法
JP2008309519A (ja) 画像処理を用いた物体検出装置
JP2011175572A (ja) 車線認識装置
JP2009139324A (ja) 車両用走行路面検出装置
JP2009276906A (ja) 走行情報提供装置
JP2005170290A (ja) 障害物検出装置
JP4872943B2 (ja) 解析装置
JP2007272461A (ja) 運動推定装置、方法及びプログラム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110927

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120228

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120312

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150406

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350