JP2004054684A - 物体検出装置及び方法 - Google Patents

物体検出装置及び方法 Download PDF

Info

Publication number
JP2004054684A
JP2004054684A JP2002212507A JP2002212507A JP2004054684A JP 2004054684 A JP2004054684 A JP 2004054684A JP 2002212507 A JP2002212507 A JP 2002212507A JP 2002212507 A JP2002212507 A JP 2002212507A JP 2004054684 A JP2004054684 A JP 2004054684A
Authority
JP
Japan
Prior art keywords
input image
image
flow
local
global
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002212507A
Other languages
English (en)
Other versions
JP3979894B2 (ja
Inventor
Koji Tsujino
辻野 広司
Hiroshi Kondo
近藤 宏
Shinichi Nagai
永井 慎一
Koji Akatsuka
赤塚 浩二
Atsushi Miura
三浦 淳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2002212507A priority Critical patent/JP3979894B2/ja
Priority to US10/624,786 priority patent/US7295684B2/en
Priority to EP03016718.3A priority patent/EP1391845B1/en
Publication of JP2004054684A publication Critical patent/JP2004054684A/ja
Application granted granted Critical
Publication of JP3979894B2 publication Critical patent/JP3979894B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/0008Industrial image inspection checking presence/absence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】自己運動する運動体から撮像された入力画像内の物体を高精度に検出する。
【解決手段】第1の入力画像及び第1の入力画像と時間的に連続する第2の入力画像を組にして出力し、この組から局所的なフローを計算する。また、撮像装置の運動を計測して慣性情報を計算する。計算した慣性情報を使用して、撮像装置の運動によって入力画像内に生じる動き成分を計算し、該動き成分と第1の入力画像を使用して第2の入力画像の予測画像を計算する。この予測画像と実際の第2の入力画像の差分を取った差分画像データを算出する。算出した差分画像データを使用して前記局所的なフローを修正する。修正した局所的なフローを所定の閾値と比較して、入力画像内において物体が存在する可能性の高い図候補領域を抽出する。最後に、図候補領域における物体の有無を判定する。
【選択図】図1

Description

【0001】
【発明の属する技術分野】
本発明は、入力画像から画像内の物体を検出する物体検出装置に関し、より具体的には、自己運動する運動体から撮像された画像内の物体を検出できる物体検出装置に関する。
【0002】
【従来の技術】
従来、取得画像に基づいて画像から物体を検出する方法はいくつか知られているが、その中の1つに、取得した時間画像からオプティカルフローを求め、同一運動成分を持つ領域から物体に相当する部分を検出する方法がある。この方法は、画像内で移動する物体を容易に検出できるため、この方法を適用した物体検出装置が多く知られている(例えば、特開平7−249127号公報)。
【0003】
しかし、自動車等に撮像装置が搭載されているときのように、画像を取得するための撮像装置そのものが運動する場合では、撮像装置自体の運動によってもオプティカルフローが生じるため、移動物体を正確に検出するのが困難となる。
【0004】
このような場合、求めたオプティカルフローから、撮像装置自体の運動による成分を除去できれば、画像内で移動する物体をより正確に検出できるようになる。例えば、特開平2000−242797号公報には、グラディエント法によって画像内のオプティカルフローを検出する際に使用する拡散係数を可変にした運動検出方法が開示されている。この方法によると、拡散係数を従来のように一定ではなく所定の条件を付加して変化させることで、耐ノイズ性が向上し、かつ物体境界でのオプティカルフローの差分を強調することができるとしている。
【0005】
【発明が解決しようとする課題】
しかしながら、上記方法では、検出が容易である移動物体のオプティカルフローは高精度に得ることができても、静止背景中の静止物体は背景とみなされているためオプティカルフローの補正がなされず、静止物体を高精度に検出することはできない。運動体から静止背景中の静止物体を観測すると、実はそれぞれの物体に応じたオプティカルフローを得ることができるのであるが、背景からのオプティカルフローとの分離が困難であり、これを高精度に分離する技術は実現されていない。
【0006】
従って、本発明は、自己運動する運動体から撮像された画像内の静止した物体をも高精度に検出することのできる物体検出装置を提供することを目的とする。
【0007】
【課題を解決するための手段】
本発明は、運動する撮像装置により撮像される入力画像内の物体を検出する物体検出装置であって、運動によって入力画像内に生じる動き成分を認識し該動き成分と一貫しない領域を分離する大局的画像処理と、入力画像内の局所的なフロー情報を計算する局所的画像処理とを並列して実行し、双方の処理結果を相互に参照することによって物体検出の精度を向上することを特徴とする。
【0008】
本発明の一実施形態は、運動する撮像装置により撮像される入力画像内の物体を検出する物体検出装置であって、第1の入力画像及び第1の入力画像と時間的に連続する第2の入力画像を組にして出力する連続画像出力部と、前記第1の入力画像と第2の入力画像から局所的なフローを計算する局所的画像処理部と、前記撮像装置の動きを計測して慣性情報を計算する慣性情報取得部とを備える。前記物体検出装置は、前記慣性情報を使用して、前記撮像装置の運動によって入力画像内に生じる動き成分である大局的フローを計算し、該大局的フローと前記第1の入力画像から前記第2の入力画像の予測画像を計算し、該予測画像と第2の入力画像の差分を取った差分画像データを算出する大局的画像処理部も備える。さらに、前記物体検出装置は、前記差分画像データを使用して前記局所的フローを修正し、修正した局所的フローを所定の閾値と比較して、前記入力画像内において物体が存在する可能性の高い図候補領域を抽出する図地分析部と、前記図候補領域における物体の有無を判定する物体有無判定部とを備える。
【0009】
この形態によると、入力画像を自己運動に基づく領域(「地」)とそれ以外の領域(「図」)に大まかに分離する差分画像データを計算する大局的画像処理と、入力画像内の局所的フローを計算する局所的画像処理とを並列に実行し、差分画像データを用いて局所的フローを修正することによって、精度の高い物体検出が可能となる。
【0010】
予測画像の計算には、大局的フローより得られる各画素の変位により、第1の入力画像をワープ変換することにより予測画像を計算するワープ推定法を使用する。従って、撮像装置の運動によって入力画像内に生じる大局的フローを計算できる環境では、事前の学習をすることなく物体の検出ができる。
【0011】
前記大局的フローは慣性情報から計算されるが、大局的フローの精度を増せばワープ推定法により計算される予測画像の精度が増すので、結果として物体検出精度が向上する。従って、本発明の別の実施形態では、前記図地分析部は、初めに大局的画像処理部が算出した差分画像データと局所的フローを使用して前記大局的フローを修正し、前記大局的画像処理部は、修正された大局的フローと前記第1の入力画像から前記第2の入力画像の予測画像を再度作成し、該予測画像と第2の入力画像の差分を取った修正差分画像データを算出するように構成される。
【0012】
本発明のさらに別の実施形態は、第1の入力画像、第1の入力画像と時間的に連続する第2の入力画像及び第3の入力画像を組にして出力する連続画像出力部と、前記第1の入力画像と第2の入力画像から局所的フローを計算する局所的画像処理部を備える。前記物体検出装置は、予め前記入力画像についての固有空間を構築しておき、該固有空間に前記第1の入力画像及び第2の入力画像を投影することにより前記第3の入力画像の予測画像を計算し、該予測画像と第3の入力画像との差分を取った差分画像データを算出する大局的画像処理部も備える。さらに、前記物体検出装置は、前記差分画像データを使用して前記局所的フローを修正し、修正した局所的フローと所定の閾値を比較して、前記入力画像内において物体が存在する可能性の高い図候補領域を抽出する図地分析部と、前記図候補領域における物体の有無を判定する物体有無判定部とを備える。
【0013】
この形態によると、物体検出を実行する前に、時間的に連続した2枚以上の入力画像の組から固有空間を作成しておき、物体検出時にはこの固有空間を使用して予測画像を計算するので、撮像装置の運動によって入力画像内に生じる大局的フローを計算できない環境でも正確な物体検出が可能となる。
【0014】
大局的フローや慣性情報を含めて固有空間を作成することもできる。この場合、予測画像の計算時には、入力画像の他に大局的フローや慣性情報も必要となる。
【0015】
【発明の実施の形態】
以下、図1〜16を参照して本発明の実施形態を説明する。
【0016】
<第1の実施形態>
図1は本発明の一実施形態である物体検出装置10の全体的な構成を示すブロック図である。物体検出装置10は、自律走行自動車等の運動体に搭載されるCCDカメラ等の撮像装置12により所定の時間間隔で撮像された運動体の移動方向の画像を常時受け取り、画像内の物体の有無を判定し、その判定結果を出力する。判定結果は運動体のモータや舵等に送られて、運動体の移動の障害となる物体の回避等に利用される。物体の有無の判定結果を自律走行自動車等の乗員や外部に通知するようにしてもよい。
【0017】
物体検出装置10は、例えば、種々の演算を実行するCPU、演算結果を一時記憶するためのメモリ、学習結果等を記憶するROM、データの入出力を行うインタフェース等を備えるマイクロコンピュータにより実現される。物体検出装置10は、撮像装置12と共に上記運動体に搭載され、物体検出処理を行うように構成される。別の実施形態では、運動体に搭載された撮像装置12により撮像された画像を任意の通信手段を介して別の場所にあるコンピュータへと送信し、そのコンピュータにより本発明の物体検出処理を行うことができる。以上のことを踏まえて、図1では物体検出装置10を機能ブロック図で表している。これら各機能ブロックの一部または全部は、ソフトウェア、ファームウェア、あるいはハードウェアの何れでも実現することができる。
【0018】
連続画像出力部14は、カメラ等の撮像装置12により所定の時間間隔毎に撮像される画像を時間的に連続する2枚以上の画像の組にして、局所的画像処理部16及び大局的画像処理部18に供給する。局所的画像処理部16は、少なくとも2枚の時間的に連続する画像の組を局所領域に細分化し、各局所領域画像にガボールフィルタを適用して局所領域におけるオプティカルフロー(以下、「局所的フロー」と呼ぶ)を計算する。局所的フローは図地分析部22に供給される。
【0019】
慣性情報取得部20は、撮像装置12が搭載された運動体の速度、ヨーレイト、ピッチ等の運動に関する情報(以下、「慣性情報」と呼ぶ)を各種センサ等により計測し、大局的画像処理部18に供給する。大局的画像処理部18は、連続画像出力部14より供給された時間的に連続する2枚以上の画像と慣性情報取得部20より供給された慣性情報に基づいて、画像の全体的な特徴(後述する差分画像データ)を求める。この差分画像データは図地分析部22に供給される。
【0020】
図地分析部22は、差分画像データを利用して局所的画像処理部16から供給された局所的フローを修正し、修正した局所的フローに基づいて、画像の中で「図」と推定される領域(つまり、画像内で物体が存在する可能性が高い領域)を抽出し、物体有無判定部24に供給する。
【0021】
物体有無判定部24は、図と推定された領域に実際に物体が存在するか否かをクラスタリング等の手法により判定する。判定結果は判定出力部26を介して出力される。
【0022】
次に、局所的画像処理部16、大局的画像処理部18、図地分析部22及び物体有無判定部24の各機能ブロックについて、それぞれの処理を詳細に説明する。
【0023】
図2は、局所的画像処理部16の処理を説明するフローチャートである。
【0024】
まず、局所的画像処理部16は連続画像出力部14から時間的に連続する2枚の画像を受け取る(S30)。以下の説明では、連続する時刻t、t+1における画像内の座標(x,y)の画素の輝度値をそれぞれImg(x,y,t)、Img(x,y,t+1)と表すことにする。ここで、座標(x,y)は、入力画像の左上を原点とした直交座標である。また、輝度値は0から255までの整数値をとる。
【0025】
さらに、局所的画像処理部16は、画像のx方向、y方向の正負方向についてのガボールフィルタの基底をそれぞれ次式により計算する。
【0026】
【数1】
Figure 2004054684
ここで、Gs(x,y)はガボールフィルタの基底のsin成分であり、Gc(x,y)はガボールフィルタの基底のcos成分である。式(1)中の(x,y)は、画像毎の中心を原点とした座標で記述しており、輝度値Img(x,y,t)の座標(x,y)とは異なる(式(1)中のx、y、rには、r=(x+y の関係がある)。「a」は定数であり、「a」を中心にフィルター感度が高くなるような値に設定される。また式(1)の2式に加え、それぞれの軸を90度回転させたときの2式により、上下x方向及び左右y方向のガボールフィルタ基底が得られる。
【0027】
本実施例では、後述するように、ガボールフィルタを局所領域毎にx、yの正負方向(画像の上下左右の各方向)に対して適用することによって、オプティカルフローがその局所領域でどの方向であるのかを明確に捉えるようにする。
【0028】
ガボールフィルタは人間の受容野の特性に似せたフィルタであり、画像内で運動体が運動したとき、中心部分よりも周辺の方でオプティカルフローの特徴がより明確に現れる特性がある。そこで、画像内の座標(x,y)に応じてガボールフィルタの特性(受容野サイズすなわちフィルター(窓)の大きさ)や空間周波数の最適化を行っても良い。
【0029】
次に、局所的画像処理部16は時刻t、t+1の画像から局所領域を1つ選択する(S32)。本明細書において「局所領域」とは、画像内の局所的なオプティカルフローを計算するために設定され、それぞれが同一のサイズを有する小領域のことを言う。本実施形態では、撮像装置12により撮像される画像全体は320×240画素であり、各局所領域は45×45画素に設定されている。画像全体と局所領域の位置関係の一例を図3(a)に示す。図において、外側の長方形が撮像される画像の全体であり、模様の付いた正方形が局所領域である。各局所領域は、図のように隣り合う局所領域とオーバーラップするように設定されるのが好ましい。このように局所領域をオーバーラップさせるのは、局所領域の境界付近の画素値を複数回局所領域に含めることによって、より正確な物体検出が可能となるためである。しかし、オーバーラップ幅を大きくすると処理速度が低下するので、これを考慮した適切な値に設定される。
【0030】
ルーチンの初回には、局所的画像処理部16は画像の左上隅に位置する局所領域を選択する。
【0031】
局所的画像処理部16は、時刻t、t+1の画像から選択した局所領域に含まれる各画素 Img(x,y,t)、Img(x,y,t+1)と上記式(1)で計算されるガボールフィルタの基底との積和演算を行い、当該局所領域の全画素についての積和値x、xt+1、y、yt+1を次式により計算する(S34)。
【0032】
【数2】
Figure 2004054684
【0033】
続いて、計算した積和値について次式によりコントラスト(x+y)を加重した位相の時間微分値dwを計算する(S36)。
【0034】
【数3】
Figure 2004054684
【0035】
ステップS34、S36の計算を、上下左右4方向のガボールフィルタの基底を使用してそれぞれ行うことによって、オプティカルフローの上下左右4方向の成分が算出される。つまり、選択された局所領域について4方向のdw値が算出されることになる。これらは方向別にdwマップに格納される。dwマップは、局所領域の画像内の位置に対応した配列を有している。例えば、画像全体が5×5個の局所領域を含む場合、dwマップは、図3(b)に示すように、図3(a)と同一の模様を持つ位置にdw値が格納される配列となる。
【0036】
1つの局所領域について計算が終了すると、局所的画像処理部16は図3(a)において矢印で示すような順序で次の局所領域を選択していき(S38)、以後全ての局所領域について上記ステップS32〜S36を繰り返す。
【0037】
全ての局所領域についての計算が終了すると、局所的画像処理部16は、各局所領域について、方向別のdwマップに格納されている4つのdw値を比較して、最大のものを選出する。そしてその値を当該局所領域の最大dw値とし、その方向を当該局所領域の最大フロー方向とする(S40)。そして、最大dw値と最大フロー方向を、dwマップと同様の配列を持つ最大dwマップ(図5(a))及び最大方向マップ(図5(b))にそれぞれ格納する(S42)。
【0038】
局所的画像処理部16におけるこの処理の具体例を図4及び5を参照して説明する。図4の(a)、(b)は、ステップS36で算出される4方向のdw値のうち、それぞれ上下の2方向のdwマップのみを代表して表したものである。図中の数字は各局所領域のdw値を表しており、ここでは一部の局所領域についてのみその値が示されている。
【0039】
各局所領域について全方向マップのdw値を比較し、最大のものを当該局所領域の最大dw値として選出し、また最大dw値を有する方向を当該局所領域の最大方向とする。例えば、図4(a)、(b)でそれぞれ左上隅に位置する局所領域のdw値を比較すると、それぞれ「3」、「1」であるから、この局所領域における最大dw値は「3」となり、この値が最大dwマップに格納される(図5(a))、また最大フロー方向は「3」の値を持つ方向である「上」となり、この方向が最大方向マップに格納される(図5(b))。実際の処理では、上下左右の4方向のdw値について同様の比較がなされる。この処理を全ての局所領域に対して順次繰り返していく。
【0040】
なお、図5(b)では例示のために方向を矢印で示しているが、実際には適当な数字に置き換えられて格納される。
【0041】
以上の処理によって得られた最大dwマップは、局所的フローとして図地分析部22に供給される。
【0042】
次に、大局的画像処理部18及び図地分析部22の処理について、図6のフローチャートを参照して詳細に説明する。
【0043】
まず、大局的画像処理部18は、慣性情報取得部20から供給された慣性情報を用いて、撮像装置12の運動によって入力画像内に生じる動き成分(以下、「大局的フロー」と呼ぶ)を計算する(S50)。この計算方法を図7を参照して説明する。まず、撮像装置12の3次元座標系(X,Y,Z)をZ軸がカメラの光軸と一致するように設定する。Z=fで表される面を撮像面とし、撮像面の座標系(x,y)をx軸及びy軸が撮像装置の座標系のX軸及びY軸と同じ方向を向くように設定する。ここで、fは焦点距離である。この場合、撮像装置12について計測された慣性情報が並進速度(U,V,W)と角速度(A,B,C)であるとき、背景上における点P(X,Y,Z)が投影される撮像面上の点(x,y)における速度ベクトル(u,v)は、以下の式で計算される。
【0044】
【数4】
Figure 2004054684
【0045】
得られた速度ベクトル(u,v)が大局的フローとなる。
【0046】
式(4)によれば、画素毎に大局的フローが求まることになるが、そうすると画像内のノイズに敏感になりすぎるので、本実施形態では、適当な数の局所領域(例えば縦4×横4の計16個の局所領域)を1セットとし、この1セットの局所領域に含まれる画素について求められた速度ベクトルを平均し、これを当該1セットの局所領域の大局的フローとして用いている。あるいは、1セットの画像領域の中心付近にある画素の速度ベクトルを大局的フローとして用いる。
【0047】
図6に戻り、大局的画像処理部18は、大局的フローを使用して、時刻tにおける画像から時刻t+1における画像を予測する(S52)。具体的には、時刻tにおける画像内の各画素の位置を対応する大局的フロー(速度ベクトル)(u,v)だけ動かすことによって、時刻t+1における予測画像を計算することができる(図8参照)。これを、「ワープ推定法」と呼ぶ。
【0048】
そして、大局的画像処理部18は、時刻t+1における予測画像と、連続画像出力部20から実際に供給された時刻t+1の画像とを画像内で同じ座標にある画素の輝度値同士で比較し、画像全体について輝度値の差分の絶対値を計算する(S54)。以下、これを「差分画像データ」と呼ぶことにする。計算した差分画像データは図地分析部22に供給される。
【0049】
図地分析部22は、供給された差分画像データを使用して局所的フローを修正する(S60)。まず、差分画像データを入力画像について設定されている局所領域と同じように分ける。次に、各局所領域に含まれる画素について差分の絶対値の平均を計算する。そして、この平均値に比例する係数mを、次式(5)に従って、最大dwマップ内で対応する局所領域の位置に格納されている各dw値に掛け合わせる。
【0050】
RLF=m×LF/255   (5)
ここで、「LF」は最大dwマップの各局所領域のdw値であり、「RLF」は修正後のdw値を示す。修正後のdw値は最大dwマップの対応する位置に格納される。以下、これを「修正局所的フロー」と呼ぶ。
【0051】
図地分析部22は、各局所領域の修正局所的フローを予め設定されている閾値と比較する(S62)。そして、閾値より大きい修正局所的フローを有する局所領域を「図」と推定される領域(以下、「図候補領域」と呼ぶ)として抽出し(S62)、物体有無判定部24に供給する。このように、図地分析部22において、「地」または「図」と推定された領域の差分画像データによって、局所的フローが一層強調されることになる。
【0052】
大局的フローは、撮像される画像に関係のない慣性情報から計算されるため、画像内に物体が無いとした場合に生じる画像内の各画素の動きを表している。従って、撮像装置12が移動しているか静止しているかにかかわらず、物体の存在する領域の画像は予測画像と一致しないことになり、その領域の差分画像データは大きな値を持つ。言い換えると、差分画像データが小さい部分は、時間的に連続する2枚の画像から求めた局所的フローと大局的フローが近似していること、つまり画像のその部分が撮像装置の運動(自己運動)と近いことを表している。従って、この部分は図地分析部22によって「地」と推定される。反対に、差分画像データが大きい部分は、画像のその部分に自己運動と異なる動きがあることを表している。従って、この部分は図地分析部22によって「図」と推定される。
【0053】
次に、物体有無判定部24について説明する。物体有無判定部24は、供給された図候補領域のうち類似度の高い局所的フローを有する領域をクラスタリングして物体の有無を判定する。
【0054】
まず、図候補領域とされた局所領域のうち、領域間の距離が所定の閾値以下のものを同じクラスタに編入する。そして、そのクラスタと別の局所領域の間の距離に応じて、局所領域をクラスタに編入するか否かを決定していく。すべての局所領域が何れかのクラスタに属したら、所定数以上の局所領域を含むクラスタは残し、他のクラスタはノイズとして排除する。最終的にクラスタが残った場合、物体有無判定部24は入力画像内に物体が存在すると判定し、残らなかった場合は、入力画像内に物体は存在しないと判定する。このクラスタリングについては、他の任意の公知の手法を用いても良い。
【0055】
以上説明したようにして、第1の実施形態に係る物体検出装置10は、設計者が記述できる環境(例えば、運動体が平面状を移動するときのように、慣性情報から大局的フローを計算できる環境)においては、事前に何ら学習を行うことなく、画像内の物体を検出することが可能である。
【0056】
<第2の実施形態>
次に、本発明の第2の実施形態を説明する。
【0057】
図9は本発明の第2の実施形態に係る物体検出装置100の全体的な構成を示すブロック図である。連続画像出力部114、局所的画像処理部116、慣性情報取得部120、物体有無判定部124及び判定出力部126は、第1の実施形態に関して既に述べた各機能ブロックと同様であるが、大局的画像処理部118及び図地分析部122における処理、並びに図地分析部122から大局的画像処理部118にフィードバックがある点が第1の実施形態と異なる。従って、以下では、第2の実施形態における大局的画像処理部118と図地分析部122の処理についてのみ図10のフローチャートを参照して説明する。
【0058】
ステップS130〜S134における処理は、図6のステップS50〜S54と同様である。ステップS130で計算された大局的フローとステップS134で計算された差分画像データは、図地分析部122に供給される。
【0059】
図地分析部122は、差分画像データと局所的画像処理部116から受け取る局所的フローを使用して大局的フローを修正する(S150)。この修正は、図11に示すフローチャートに従って、以下のように行われる。
【0060】
図地分析部122は、まず各局所領域の局所的フローと予め設定されている閾値とを比較し、閾値より小さい局所的フローを有する局所領域を「地」として抽出する(S160)。そして、「地」と推定された局所領域に含まれる画像部分の大局的フローの大きさと方向を修正対象として選択する(S162)。
【0061】
最初に大局的フローの大きさの修正について説明する(図11の左列のフロー)。選択した大局的フローに対応する1セットの局所領域について、各局所領域の最大dw値を最大dwマップから選び出し、その平均を計算する(S164)。次にこの平均値の大局的フローの大きさに対する割合を計算する(S166)。「地」と推定された局所領域に含まれる画像部分の大局的フローの全てについて以上の計算を行い、さらに割合の平均値を計算する(S168)。最後に、この割合の平均値を、画像内に含まれる大局的フローの大きさのすべてについて掛け合わせ、得られたものを大局的フローの大きさとする(S170)。
【0062】
続いて大局的フローの方向の修正について説明する(図11の右列のフロー)。選択した大局的フローに対応する1セットの局所領域について、各局所領域の各方向のdw値を方向マップから選び出し、その方向の角度を持つベクトルとして全ての方向について合成する(S172)。合成されたベクトルの方向を対応する大局的フローの方向とする(S174)。大きさと方向を修正された大局的フロー(以下「修正大局的フロー」と呼ぶ)は、大局的画像処理部118に送られる。
【0063】
図10に戻り、大局的画像処理部118は、時刻tの画像と修正大局的フローを使用して上記のワープ推定法により時刻t+1の予測画像を計算する(S136)。そしてこの予測画像と時刻t+1の実際の画像の差分をとって差分画像データを計算する(S138)。これを「修正差分画像データ」と呼ぶ。修正差分画像データは図地分析部122に送られる。
【0064】
図地分析部122は、ステップS60について説明したのと同様にして、修正差分画像データを使用して局所的フローを修正し(S152)、修正局所的フローに基づいて図候補領域を抽出する(S154)。
【0065】
以降の処理は第1の実施形態と同様である。
【0066】
このように第2の実施形態では、慣性情報を利用して計算される大局的フローと、局所領域について計算される局所的フローを相互に参照して修正することによって、画像内の物体の検出精度を向上させる。
【0067】
<第3の実施形態>
続いて、本発明の第3の実施形態について説明する。
【0068】
この実施形態では、撮像装置12を搭載した運動体は、物体検出の実行に先立って物体検出を行おうとするコースを移動して、移動方向の画像を撮像し、後述する自己運動予測空間を構築しておく(以下、この過程を「学習」と呼ぶ)。そして、物体検出の実行時には、自己運動予測空間上に過去と現在の画像を投影し、それを再構成することによって予測画像を計算する。
【0069】
図12は第3の実施形態に係る物体検出装置200の全体的な構成を示すブロック図である。大局的画像処理部218の処理以外は、図1に示す第1の実施形態に係る物体検出装置10の各機能ブロックと同じである。従って、以下では、図13及び図14を参照して大局的画像処理部218の処理のみを説明する。
【0070】
図13は学習時のフローチャートである。このとき大局的画像処理部218は、物体検出を行おうとするコースを移動しながら移動方向の画像を予め撮像しておき、その画像から自己運動予測空間を構築する。
【0071】
まず、大局的画像処理部218は、連続画像出力部214から時刻t−1、時刻t及び時刻t+1における画像からなる3枚の連続画像の組を受け取る(S230)。この連続画像の組は、所定の期間にわたって必要な数だけ収集される。収集が終わると、この3枚の画像を横一列に接続したものに対してKL変換を実行して固有空間(自己運動予測空間)を構築する(S232)。このとき、慣性情報取得部220から得る慣性情報も併せたものに対してKL変換して、自己運動予測空間を構築しても良い。
【0072】
図14は物体検出時のフローチャートである。このとき大局的画像処理部218は、自己運動予測空間を作成したコースと同一のコース上を移動し、連続画像出力部214から時刻t−1及び時刻tにおける画像の組を受け取る。そして、時刻t−1及び時刻tにおける画像の組を自己運動予測空間に投影し再構成することで、時刻t+1の予測画像を計算する(S240)。具体的には、時刻t−1及び時刻tにおける画像からなる入力ベクトルに上記のKL変換で求めた自己運動予測空間を構成する主成分ベクトルを順次掛け合わせていくことによって、自己運動予測空間における座標を計算する。この座標から、接続された3枚の連続画像の組を再現することができ、これから時刻t+1の画像に対応する部分を切り出すことによって予測画像が得られる。
【0073】
ステップS232で慣性情報も合わせてKL変換を行った場合は、実行時にも慣性情報を加えて再構成を行う。
【0074】
そして、上記の第1の実施形態と同様にして、時刻t+1の予測画像と連続画像出力部214から供給された時刻t+1の実際の画像とを比較して、差分画像データを計算する(S242)。以降の図地分析部222の処理(S250〜S252)は第1の実施形態と同様である。
【0075】
このように第3の実施形態では、上記のワープ推定法のような画像予測が不可能な環境(例えば、運動体が凹凸のある面を移動するときのように、画素を単純に大局的フローの分だけ移動させて予測画像とすることができない環境)においても、同じ環境を予め運動体に走行させ、学習による事前の知識として自己運動予測空間を構築しておくことで、物体検出が可能となる。
【0076】
<第4の実施形態>
続いて、本発明の第4の実施形態を説明する。
【0077】
第3の実施形態と同様に、この実施形態では、撮像装置12を搭載した運動体は、物体検出の実行に先立って物体検出を行おうとするコースを移動して、移動方向の画像を撮像し、自己運動予測空間を構築しておく。そして、物体検出実行時は、自己運動予測空間上に過去と現在の画像を投影し、それを再構成することによって予測画像と大局的フローを計算する。
【0078】
図15は本発明の第4の実施形態に係る物体検出装置300の全体的な構成を示すブロック図である。大局的画像処理部318の処理以外は図10に示す第2の実施形態の物体検出装置100の各機能ブロックと同じである。従って、以下では、図16及び図17を参照して大局的画像処理部18の処理のみを説明する。
【0079】
図16は学習時のフローチャートである。このとき大局的画像処理部318は、物体検出を行おうとするコースを移動しながら移動方向の画像を予め撮像しておき、その画像から自己運動予測空間を構築する。まず、大局的画像処理部318は、任意の方法により時刻tにおける大局的フローを計算する(S330)。続いて、大局的画像処理部318は、連続画像出力部314から時刻t−1、時刻t及び時刻t+1における画像からなる3枚の連続画像の組を受け取る(S332)。この連続画像の組は、所定の期間にわたって必要な数だけ収集される。収集が終わると、この3枚の画像を横一列に接続したものに大局的フローを加えたもの対してKL変換を実行して自己運動予測空間を構築する(S334)。慣性情報も併せたものに対して自己運動予測空間を構築しても良い。
【0080】
図17は物体検出時のフローチャートである。このとき大局的画像処理部318は、自己運動予測空間を作成したコースと同一のコース上を移動し、連続画像出力部314から時刻t−1及び時刻tにおける画像の組を受け取る。そして、時刻t−1及び時刻tにおける画像の組を自己運動予測空間に投影し上記ステップS240について説明したのと同様に再構成することで、時刻t+1の予測画像と大局的フローを計算する(S340)。続いて、時刻t+1における予測画像と、連続画像出力部314から実際に供給された時刻t+1の画像とを比較して、差分画像データを計算する(S342)。差分画像データと大局的フローは図地分析部322に供給される。
【0081】
図地分析部322は、上記第2の実施形態と同様にして、差分画像データと局所的画像処理部316から受け取る局所的フローを用いて大局的フローを修正する(S350)。大局的画像処理部318は、時刻tの画像と修正大局的フローから、上記ワープ推定法を用いて時刻t+1の予測画像を計算する(S344)。そしてこの予測画像と時刻t+1の実際の画像から再び差分画像データを計算する(S346)。以降の図地分析部322の処理(S352〜S354)は第2の実施形態と同じである。
【0082】
このように第4の実施形態では、学習時に大局的フローも利用して自己運動予測空間を構築しておくので、物体検出実行時に式(4)のような計算を行わなくても、予測画像と大局的フローの両方を求めることができる。
【0083】
以上、種々の実施形態を示したが、本発明はこれらに限定されるものではない。
【0084】
【発明の効果】
本発明によれば、入力画像内の図と地を大まかに分離する差分画像データを計算する大局的画像処理と、入力画像内の局所的フローを計算する局所的画像処理とを並列に実行し、双方の処理結果を相互に参照することによって、高速に精度の高い物体検出が可能となる。また、慣性情報との融合により、物体検出精度を向上することが可能となる。さらに、自己運動による入力画像の変化を予測するため、静止した物体の検出も可能となる。
【図面の簡単な説明】
【図1】本発明の第1の実施形態による物体検出装置の全体構成図である。
【図2】局所的画像処理部における処理を説明するフローチャートである。
【図3】局所領域の位置とマップの対応関係を説明する図である。
【図4】各方向のdwマップの一例を示す図である。
【図5】最大dwマップと最大方向マップの一例を示す図である。
【図6】図1の大局的画像処理部と図地分析部における処理を説明するフローチャートである。
【図7】慣性情報から大局的フローを求める方法の一例を示す図である。
【図8】ワープ推定法を説明する図である。
【図9】本発明の第2の実施形態による物体検出装置の全体構成図である。
【図10】図9の大局的画像処理部と図地分析部における処理を説明するフローチャートである。
【図11】大局的フローの修正を説明するフローチャートである。
【図12】本発明の第3の実施形態による物体検出装置の全体構成図である。
【図13】図12の大局的画像処理部の学習時における処理を説明するフローチャートである。
【図14】図12の大局的画像処理部と図地分析部の物体検出時における処理を説明するフローチャートである。
【図15】本発明の第3の実施形態による物体検出装置の全体構成図である。
【図16】図15の大局的画像処理部の学習時における処理を説明するフローチャートである。
【図17】図15の大局的画像処理部と図地分析部の物体検出時における処理を説明するフローチャートである。
【符号の説明】
10、100、200、300    物体検出装置
12、112、212、312    撮像装置
14、114、214、314    連続画像出力部
16、116、216、316    局所的画像処理部
18、118、218、318    大局的画像処理部
20、120、220、320    慣性情報取得部
22、122、222、322    図地分析部
24、124、224、324    物体有無判定部
26、126、226、326    判定出力部

Claims (12)

  1. 運動する撮像装置により撮像される入力画像内の物体を検出する物体検出装置であって、
    運動によって入力画像内に生じる動き成分を認識し該動き成分と一貫しない領域を分離する大局的画像処理と、入力画像内の局所的なフロー情報を計算する局所的画像処理とを並列して実行し、双方の処理結果を相互に参照することによって物体検出の精度を向上することを特徴とする、物体検出装置。
  2. 運動する撮像装置により撮像される入力画像内の物体を検出する物体検出装置であって、
    第1の入力画像及び第1の入力画像と時間的に連続する第2の入力画像を組にして出力する連続画像出力部と、
    前記第1の入力画像と第2の入力画像から局所的フローを計算する局所的画像処理部と、
    前記撮像装置の動きを計測して慣性情報を計算する慣性情報取得部と、
    前記慣性情報を使用して、前記撮像装置の運動によって入力画像内に生じる動き成分である大局的フローを計算し、該大局的フローと前記第1の入力画像を使用して前記第2の入力画像の予測画像を計算し、該予測画像と第2の入力画像の差分を取った差分画像データを算出する大局的画像処理部と、
    前記差分画像データを使用して前記局所的フローを修正し、修正された局所的フローを所定の閾値と比較して、前記入力画像内において物体が存在する可能性の高い図候補領域を抽出する図地分析部と、
    前記図候補領域における物体の有無を判定する物体有無判定部と、
    を含む物体検出装置。
  3. 運動する撮像装置により撮像される入力画像内の物体を検出する物体検出装置であって、
    第1の入力画像及び第1の入力画像と時間的に連続する第2の入力画像を組にして出力する連続画像出力部と、
    前記第1の入力画像と第2の入力画像から局所的フローを計算する局所的画像処理部と、
    前記撮像装置の動きを計測して慣性情報を計算する慣性情報取得部と、
    前記慣性情報を使用して、前記撮像装置の運動によって入力画像内に生じる動き成分である大局的フローを計算し、該大局的フローと前記第1の入力画像を使用して前記第2の入力画像の予測画像を計算し、該予測画像と第2の入力画像の差分を取った差分画像データを算出する大局的画像処理部と、
    前記差分画像データと前記局所的フローを使用して前記大局的フローを修正する図地分析部とを含み、
    前記大局的画像処理部は、修正された大局的フローと前記第1の入力画像を使用して前記第2の入力画像の予測画像を再度作成し、該再度作成された予測画像と前記第2の入力画像の差分を取った修正差分画像データを算出し、
    前記図地分析部は、前記修正差分画像データを使用して前記局所的フローを修正し、修正した局所的フローを所定の閾値と比較して、前記入力画像内において物体が存在する可能性の高い図候補領域を抽出し、
    前記図候補領域における物体の有無を判定する物体有無判定部をさらに含む物体検出装置。
  4. 前記大局的画像処理部は、前記大局的フローより得られる各画素の変位により、前記第1の入力画像をワープ変換することにより予測画像を計算するワープ推定法を用いる、請求項2または3に記載の物体検出装置。
  5. 運動する撮像装置により撮像される入力画像内の物体を検出する物体検出装置であって、
    第1の入力画像、第1の入力画像と時間的に連続する第2の入力画像及び第3の入力画像を組にして出力する連続画像出力部と、
    前記第1の入力画像と第2の入力画像から局所的フローを計算する局所的画像処理部と、
    予め前記入力画像についての固有空間を構築しておき、該固有空間に前記第1の入力画像及び第2の入力画像を投影することにより前記第3の入力画像の予測画像を計算し、該予測画像と前記第3の入力画像との差分を取った差分画像データを算出する大局的画像処理部と、
    前記差分画像データを使用して前記局所的フローを修正し、修正した局所的フローを所定の閾値と比較して、前記入力画像内において物体が存在する可能性の高い局所的な領域である図候補領域を抽出する図地分析部と、
    前記図候補領域における物体の有無を判定する物体有無判定部と、
    を含む物体検出装置。
  6. 運動する撮像装置により撮像される入力画像内の物体を検出する物体検出装置であって、
    第1の入力画像、第1の入力画像と時間的に連続する第2の入力画像及び第3の入力画像を組にして出力する連続画像出力部と、
    前記第1の入力画像と第2の入力画像から局所的フローを計算する局所的画像処理部と、
    前記撮像装置の動きを計測して慣性情報を計算する慣性情報取得部と、
    前記慣性情報を使用して、前記撮像装置の運動によって入力画像内に生じる動き成分である大局的フローを計算し、予め前記入力画像と前記大局的フローについての固有空間を構築しておき、該固有空間に前記第1の入力画像及び第2の入力画像を投影することにより前記第3の入力画像の予測画像と大局的フローを計算し、該予測画像と前記第3の入力画像との差分を取った差分画像データを算出する大局的画像処理部と、
    前記差分画像データと局所的フローを使用して前記大局的フローを修正する図地分析部とを含み、
    前記大局的画像処理部は、修正された大局的フローと前記第2の入力画像を使用して前記第3の入力画像の予測画像を再度計算し、該再度計算した予測画像と前記第3の入力画像の差分を取った修正差分画像データを算出し、
    前記図地分析部は、前記差分画像データを使用して前記局所的フローを修正し、修正した局所的フローを所定の閾値と比較して、前記入力画像内において物体が存在する可能性の高い局所的な領域である図候補領域を抽出し、
    前記図候補領域における物体の有無を判定する物体有無判定部をさらに含む物体検出装置。
  7. 前記局所的フローは、前記入力画像内の局所領域毎にガボールフィルタを適用して計算されるオプティカルフローである、請求項2、3、5または6に記載の物体検出装置。
  8. 前記物体有無判定部は、図候補領域のクラスタリングを行い、最終的に図候補領域が残ったとき、画像内に物体が存在すると判定する、請求項2、3、5または6に記載の物体検出装置。
  9. 運動する撮像装置により撮像される入力画像内の物体を検出する方法であって、
    第1の入力画像及び第1の入力画像と時間的に連続する第2の入力画像を組にして出力し、
    前記第1の入力画像と第2の入力画像から局所的フローを計算し、
    前記撮像装置の動きを計測して慣性情報を計算し、
    該慣性情報を使用して、前記撮像装置の運動によって入力画像内に生じる動き成分である大局的フローを計算し、
    該大局的フローと前記第1の入力画像を使用して前記第2の入力画像の予測画像を計算し、
    該予測画像と第2の入力画像の差分を取った差分画像データを算出し、
    該差分画像データを使用して前記局所的フローを修正し、
    修正された局所的フローを所定の閾値と比較して、前記入力画像内において物体が存在する可能性の高い図候補領域を抽出し、
    該図候補領域における物体の有無を判定することを含む物体検出方法。
  10. 運動する撮像装置により撮像される入力画像内の物体を検出する方法であって、
    第1の入力画像及び第1の入力画像と時間的に連続する第2の入力画像を組にして出力し、
    前記第1の入力画像と第2の入力画像から局所的フローを計算し、
    前記撮像装置の動きを計測して慣性情報を計算し、
    該慣性情報を使用して、前記撮像装置の運動によって入力画像内に生じる動き成分である大局的フローを計算し、
    該大局的フローと前記第1の入力画像を使用して前記第2の入力画像の予測画像を計算し、
    該予測画像と第2の入力画像の差分を取った差分画像データを算出し、
    該差分画像データと前記局所的フローを使用して前記大局的フローを修正し、修正された大局的フローと前記第1の入力画像を使用して前記第2の入力画像の予測画像を再度作成し、
    該再度作成された予測画像と前記第2の入力画像の差分を取った修正差分画像データを算出し、
    該修正差分画像データを使用して前記局所的フローを修正し、
    修正された局所的フローを所定の閾値と比較して、前記入力画像内において物体が存在する可能性の高い図候補領域を抽出し、
    該図候補領域における物体の有無を判定すること含む物体検出方法。
  11. 運動する撮像装置により撮像される入力画像内の物体を検出する方法であって、
    第1の入力画像、第1の入力画像と時間的に連続する第2の入力画像及び第3の入力画像を組にして出力し、
    前記第1の入力画像と第2の入力画像から局所的フローを計算し、
    予め前記入力画像についての固有空間を構築しておき、該固有空間に前記第1の入力画像及び第2の入力画像を投影することにより前記第3の入力画像の予測画像を計算し、
    該予測画像と前記第3の入力画像との差分を取った差分画像データを算出し、
    該差分画像データを使用して前記局所的フローを修正し、
    修正した局所的フローを所定の閾値と比較して、前記入力画像内において物体が存在する可能性の高い局所的な領域である図候補領域を抽出し、
    該図候補領域における物体の有無を判定することを含む物体検出方法。
  12. 運動する撮像装置により撮像される入力画像内の物体を検出する方法であって、
    第1の入力画像、第1の入力画像と時間的に連続する第2の入力画像及び第3の入力画像を組にして出力し、
    前記第1の入力画像と第2の入力画像から局所的フローを計算し、
    前記撮像装置の動きを計測して慣性情報を計算し、
    前記慣性情報を使用して、前記撮像装置の運動によって入力画像内に生じる動き成分である大局的フローを計算し、
    予め前記入力画像と前記大局的フローについての固有空間を構築しておき、該固有空間に前記第1の入力画像及び第2の入力画像を投影することにより前記第3の入力画像の予測画像と大局的フローを計算し、
    該予測画像と前記第3の入力画像との差分を取った差分画像データを算出し、
    該差分画像データと局所的フローを使用して前記大局的フローを修正し、
    修正された大局的フローと前記第2の入力画像を使用して前記第3の入力画像の予測画像を再度計算し、
    該再度計算した予測画像と前記第3の入力画像の差分を取った修正差分画像データを算出し、
    該差分画像データを使用して前記局所的フローを修正し、
    修正した局所的フローを所定の閾値と比較して、前記入力画像内において物体が存在する可能性の高い局所的な領域である図候補領域を抽出し、
    該図候補領域における物体の有無を判定することを含む物体検出方法。
JP2002212507A 2002-07-22 2002-07-22 物体検出装置及び方法 Expired - Fee Related JP3979894B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2002212507A JP3979894B2 (ja) 2002-07-22 2002-07-22 物体検出装置及び方法
US10/624,786 US7295684B2 (en) 2002-07-22 2003-07-21 Image-based object detection apparatus and method
EP03016718.3A EP1391845B1 (en) 2002-07-22 2003-07-22 Image based object detection apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002212507A JP3979894B2 (ja) 2002-07-22 2002-07-22 物体検出装置及び方法

Publications (2)

Publication Number Publication Date
JP2004054684A true JP2004054684A (ja) 2004-02-19
JP3979894B2 JP3979894B2 (ja) 2007-09-19

Family

ID=31184435

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002212507A Expired - Fee Related JP3979894B2 (ja) 2002-07-22 2002-07-22 物体検出装置及び方法

Country Status (3)

Country Link
US (1) US7295684B2 (ja)
EP (1) EP1391845B1 (ja)
JP (1) JP3979894B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007142267A1 (ja) * 2006-06-06 2007-12-13 Nec Corporation 移動量計算システムおよび障害物検知システム
JP2008108118A (ja) * 2006-10-26 2008-05-08 Honda Motor Co Ltd 画像処理装置
WO2018054054A1 (zh) * 2016-09-23 2018-03-29 中兴通讯股份有限公司 一种人脸识别的方法、装置、移动终端及计算机存储介质

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3885999B2 (ja) * 2001-12-28 2007-02-28 本田技研工業株式会社 物体検出装置
JP3979894B2 (ja) * 2002-07-22 2007-09-19 本田技研工業株式会社 物体検出装置及び方法
TWI236901B (en) 2004-06-11 2005-08-01 Oriental Inst Technology An apparatus and method for identifying surrounding environment by means of image processing and for outputting the resutls
CN1313973C (zh) * 2004-07-30 2007-05-02 中国科学院电子学研究所 舰船扰动双参平面检测法
JP4426535B2 (ja) * 2006-01-17 2010-03-03 本田技研工業株式会社 車両の周辺監視装置
KR100801087B1 (ko) * 2006-07-05 2008-02-11 삼성전자주식회사 스트럭처드 라이트를 이용한 이동체 감지 시스템 및 방법,상기 시스템을 포함하는 이동 로봇
JP2008080472A (ja) * 2006-09-29 2008-04-10 Toshiba Corp ロボット装置及びその制御方法
JP4724638B2 (ja) * 2006-10-20 2011-07-13 株式会社日立製作所 オブジェクト検出方法
JP4709794B2 (ja) * 2007-03-15 2011-06-22 株式会社東芝 動き推定装置及びその方法
CN101247479B (zh) * 2008-03-26 2010-07-07 北京中星微电子有限公司 一种基于图像中目标区域的自动曝光方法
CN102396002B (zh) * 2009-04-15 2015-07-08 丰田自动车株式会社 目标探测装置
JP4788798B2 (ja) * 2009-04-23 2011-10-05 トヨタ自動車株式会社 物体検出装置
KR101184460B1 (ko) * 2010-02-05 2012-09-19 연세대학교 산학협력단 마우스 포인터 제어 장치 및 방법
WO2012047202A1 (en) * 2010-10-05 2012-04-12 Utc Fire & Security Corporation System and method for object detection
US8761442B2 (en) 2012-03-29 2014-06-24 The Nielsen Company (Us), Llc Methods and apparatus to count people in images
US9275285B2 (en) 2012-03-29 2016-03-01 The Nielsen Company (Us), Llc Methods and apparatus to count people in images
US8660307B2 (en) 2012-03-29 2014-02-25 The Nielsen Company (Us), Llc Methods and apparatus to count people in images
US9092675B2 (en) 2012-03-29 2015-07-28 The Nielsen Company (Us), Llc Methods and apparatus to count people in images
RU2498346C1 (ru) * 2012-04-17 2013-11-10 Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования "Московский авиационный институт (национальный исследовательский университет") (МАИ) Способ обнаружения подвижного объекта
TWI528790B (zh) * 2013-12-13 2016-04-01 瑞昱半導體股份有限公司 多媒體系統之視窗偵測裝置與方法
US10580144B2 (en) 2017-11-29 2020-03-03 International Business Machines Corporation Method and system for tracking holographic object
US20200155118A1 (en) * 2018-11-19 2020-05-21 General Electric Company Methods and systems for automatic beam steering

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05151355A (ja) * 1991-11-29 1993-06-18 Honda Motor Co Ltd 二次元動画像のオプテイカルフロー生成方式
JPH06130076A (ja) * 1992-10-15 1994-05-13 Daihatsu Motor Co Ltd 斜め後方走行車検出方法
JPH06282655A (ja) * 1993-03-30 1994-10-07 Toyota Motor Corp 移動体認識装置
JPH11219436A (ja) * 1998-01-30 1999-08-10 Toshiba Corp 動きベクトル検出回路および動きベクトル検出方法
JP2000082145A (ja) * 1998-01-07 2000-03-21 Toshiba Corp 物体抽出装置
JP2000511715A (ja) * 1996-04-18 2000-09-05 サーノフ コーポレイション 計算効率の良いデジタル画像ワーピング
JP2000251199A (ja) * 1999-03-01 2000-09-14 Yazaki Corp 車両用後側方監視装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3364771B2 (ja) 1994-03-09 2003-01-08 本田技研工業株式会社 移動物体検出装置
US6266085B1 (en) * 1994-11-17 2001-07-24 Canon Kabushiki Kaisha Camera imaging and magnification device
DE69629732T2 (de) * 1995-01-23 2004-07-15 Fuji Photo Film Co., Ltd., Minami-Ashigara Vorrichtung zur rechnerunterstützten Diagnose
US6185337B1 (en) * 1996-12-17 2001-02-06 Honda Giken Kogyo Kabushiki Kaisha System and method for image recognition
JP2927350B2 (ja) * 1997-03-27 1999-07-28 株式会社モノリス 多重解像度フィルタ処理方法およびその方法を利用することのできる画像マッチング方法
US6421463B1 (en) * 1998-04-01 2002-07-16 Massachusetts Institute Of Technology Trainable system to search for objects in images
US6782132B1 (en) * 1998-08-12 2004-08-24 Pixonics, Inc. Video coding and reconstruction apparatus and methods
JP2000242797A (ja) 1999-02-18 2000-09-08 Toyota Motor Corp 画像の運動検出方法及び物体検出装置
US6535620B2 (en) * 2000-03-10 2003-03-18 Sarnoff Corporation Method and apparatus for qualitative spatiotemporal data processing
JP4159794B2 (ja) * 2001-05-02 2008-10-01 本田技研工業株式会社 画像処理装置及び方法
JP3810657B2 (ja) * 2001-07-31 2006-08-16 松下電器産業株式会社 運動物体検出方法および装置
JP3885999B2 (ja) * 2001-12-28 2007-02-28 本田技研工業株式会社 物体検出装置
JP3979894B2 (ja) * 2002-07-22 2007-09-19 本田技研工業株式会社 物体検出装置及び方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05151355A (ja) * 1991-11-29 1993-06-18 Honda Motor Co Ltd 二次元動画像のオプテイカルフロー生成方式
JPH06130076A (ja) * 1992-10-15 1994-05-13 Daihatsu Motor Co Ltd 斜め後方走行車検出方法
JPH06282655A (ja) * 1993-03-30 1994-10-07 Toyota Motor Corp 移動体認識装置
JP2000511715A (ja) * 1996-04-18 2000-09-05 サーノフ コーポレイション 計算効率の良いデジタル画像ワーピング
JP2000082145A (ja) * 1998-01-07 2000-03-21 Toshiba Corp 物体抽出装置
JPH11219436A (ja) * 1998-01-30 1999-08-10 Toshiba Corp 動きベクトル検出回路および動きベクトル検出方法
JP2000251199A (ja) * 1999-03-01 2000-09-14 Yazaki Corp 車両用後側方監視装置

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007142267A1 (ja) * 2006-06-06 2007-12-13 Nec Corporation 移動量計算システムおよび障害物検知システム
US8199970B2 (en) 2006-06-06 2012-06-12 Nec Corporation Moving amount calculation system and obstacle detection system
JP5257069B2 (ja) * 2006-06-06 2013-08-07 日本電気株式会社 移動量計算システムおよび障害物検知システム
JP2008108118A (ja) * 2006-10-26 2008-05-08 Honda Motor Co Ltd 画像処理装置
JP4704998B2 (ja) * 2006-10-26 2011-06-22 本田技研工業株式会社 画像処理装置
WO2018054054A1 (zh) * 2016-09-23 2018-03-29 中兴通讯股份有限公司 一种人脸识别的方法、装置、移动终端及计算机存储介质

Also Published As

Publication number Publication date
EP1391845A3 (en) 2011-06-22
US20050248654A1 (en) 2005-11-10
US7295684B2 (en) 2007-11-13
EP1391845A2 (en) 2004-02-25
JP3979894B2 (ja) 2007-09-19
EP1391845B1 (en) 2018-10-24

Similar Documents

Publication Publication Date Title
JP2004054684A (ja) 物体検出装置及び方法
JP4349367B2 (ja) 物体の位置姿勢を推定する推定システム、推定方法および推定プログラム
Akolkar et al. Real-time high speed motion prediction using fast aperture-robust event-driven visual flow
US9589326B2 (en) Depth image processing apparatus and method based on camera pose conversion
JP3885999B2 (ja) 物体検出装置
CN109472820B (zh) 单目rgb-d相机实时人脸重建方法及装置
JP2017526082A (ja) 動作推定方法、移動体、およびプロセッサに動作推定方法を実行させるコンピュータプログラムコードでコード化された非一時的コンピュータ可読媒体
US20130127998A1 (en) Measurement apparatus, information processing apparatus, information processing method, and storage medium
JP2008506953A5 (ja)
JP6584208B2 (ja) 情報処理装置、情報処理方法、プログラム
KR20150144726A (ko) 검색 기반 상관 매칭을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
US10650535B2 (en) Measurement device and measurement method
JP6116765B1 (ja) 物体検出装置及び物体検出方法
JP7173471B2 (ja) 3次元位置推定装置及びプログラム
JP6817742B2 (ja) 情報処理装置およびその制御方法
JP6310288B2 (ja) 画像処理装置および3次元物体トラッキング方法
JP2006350897A (ja) 運動計測装置
JP2005078528A (ja) 物体検出装置及び方法
CN113160221B (zh) 图像处理方法、装置、计算机设备和存储介质
JP2010231350A (ja) 人物識別装置、そのプログラム、及び、その方法
JP4523915B2 (ja) 輪郭抽出装置、輪郭抽出方法及び輪郭抽出プログラム
JP4935769B2 (ja) 平面領域推定装置及びプログラム
JP2011209070A (ja) 画像処理装置
CN105339981A (zh) 用于使用一组基元配准数据的方法
JP2006227739A (ja) 画像処理装置及び画像処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070117

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070316

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070417

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070531

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070626

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070626

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100706

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100706

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110706

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110706

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120706

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120706

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130706

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140706

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees