JP3885999B2 - 物体検出装置 - Google Patents

物体検出装置 Download PDF

Info

Publication number
JP3885999B2
JP3885999B2 JP2001399472A JP2001399472A JP3885999B2 JP 3885999 B2 JP3885999 B2 JP 3885999B2 JP 2001399472 A JP2001399472 A JP 2001399472A JP 2001399472 A JP2001399472 A JP 2001399472A JP 3885999 B2 JP3885999 B2 JP 3885999B2
Authority
JP
Japan
Prior art keywords
flow
local
region
local region
moving body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001399472A
Other languages
English (en)
Other versions
JP2003196664A (ja
Inventor
広司 辻野
宏 近藤
淳 三浦
慎一 永井
浩二 赤塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2001399472A priority Critical patent/JP3885999B2/ja
Priority to US10/322,307 priority patent/US7062071B2/en
Priority to EP02028805A priority patent/EP1329850B1/en
Publication of JP2003196664A publication Critical patent/JP2003196664A/ja
Application granted granted Critical
Publication of JP3885999B2 publication Critical patent/JP3885999B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/262Analysis of motion using transform domain methods, e.g. Fourier domain methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Description

【0001】
【発明の属する技術分野】
本発明は、入力画像から画像内の物体を検出する物体検出装置に関し、より具体的には、自己運動する物体から撮像された画像内の静止物体と移動物体とを検出できる物体検出装置に関する。
【0002】
【従来の技術】
従来、取得画像に基づいて画像から物体を検出する方法はいくつか知られているが、中でも取得された時間画像からオプティカルフローを求め、同一運動成分を持つ領域から物体に相当する部分を検出する方法がある。この方法は、画像内で移動する物体を容易に検出できるため、この方法が適用された物体検出装置が多く知られている(例えば、特開平7−249127号公報)。
【0003】
しかし、画像を取得するための撮像装置そのものが運動する場合、例えば、自動車等に撮像装置が搭載されている場合、撮像装置自体の運動によってもオプティカルフローが生じるため、上記方法では移動物体を正確に検出するのが困難となる。
【0004】
このような場合、求めたオプティカルフローから、撮像装置自体の運動による成分を除去できれば、画像内で移動する物体をより正確に検出できるようになる。例えば、特開平2000−242797号公報には、グラディエント法によって画像内のオプティカルフローを検出する際に使用する拡散係数を可変にした運動検出方法が開示されている。この方法によると、拡散係数を従来のように一定ではなく所定の条件を付加して変化させることで、耐ノイズ性が向上し、かつ物体境界でのオプティカルフローの差分を強調することができるとしている。
【0005】
【発明が解決しようとする課題】
しかしながら、上記方法では、検出が容易である移動物体のオプティカルフローは高精度に得ることができても、静止背景中の静止物体は背景とみなされているためオプティカルフローの補正がなされず、静止物体を高精度に検出することはできない。運動体から静止背景中の静止物体を観測すると、実はそれぞれの物体に応じたオプティカルフローを得ることができるのであるが、背景からのオプティカルフローとの分離が困難であり、これを高精度に分離する技術は実現されていない。
【0006】
従って、本発明は、オプティカルフローを用いて、自己運動する撮像装置により取得される画像から、静止物体及び移動物体の両方を高精度に検出することのできる物体検出装置を提供することを目的とする。
【0007】
【課題を解決するための手段】
本発明の物体検出装置は、運動体に搭載されたCCDカメラ等の撮像手段により撮像された時間的に連続する2枚以上の入力画像に対し、ガボールフィルタを適用して入力画像中の局所領域のオプティカルフローを取得する。次いで、背景画像からのオプティカルフローを予測することによって、運動体の運動により生じるフロー情報をより厳密に排除する処理を行う。すなわち、入力画像から物体の存在しない領域(「地」の部分)を明確化し、この「地」の部分を排除することで結果として入力画像中で物体の存在しそうな領域(「図」の部分)を抽出し、この抽出した「図」の部分のフロー情報を用いて物体の有無を判定する。
【0008】
より具体的には、本発明の物体検出装置は、前記入力画像における局所領域毎のフロー情報を得るローカルフロー処理手段と、前記各局所領域におけるフロー情報を利用して、前記入力画像中の所定数の大領域に関するフロー情報を得るグローバルフロー処理手段と、前記大領域に関するフロー情報に基づいて前記運動体の運動を推測し、推測された運動に応じた新たなフロー情報を得て、該新たなフロー情報と前記各局所領域におけるフロー情報とを比較して前記推測された運動と異なるフローを有する局所領域を抽出するフロー特徴計算手段と、該抽出された局所領域において物体の有無を判定する物体有無判定手段と、を備える。
【0009】
この構成によると、入力画像から運動体の運動により生じるフロー情報を排除することができるので、入力画像中の物体を高精度に検出することができる。さらに、物体の有無の判定は、抽出された「図」の部分の画像のみに対して実行されるので、高速に計算を行うことができる。尚、「推測された運動に応じた新たなフロー情報」とは、具体的には詳細な説明に述べる「フィードバック局所フロー」のことを指す。
【0010】
前記ローカルフロー処理手段は、局所領域のフロー情報を計算する役割を持つ。ここで局所領域とは入力画像を等分した局所領域のことを指し、各局所領域は互いにオーバーラップしていることが好ましい。各局所領域のサイズ及び、オーバーラップの程度は、計算に要する時間と物体検出の精度に応じて選択される。
【0011】
局所領域のフロー情報とは、例えば各局所領域において支配的なフローの方向とそのフローの大きさとを含む。これらは以下の手順により求められる。すなわち、まず時間的に連続する入力画像中の前記局所領域毎にガボールフィルタを適用して、各局所領域のフロー情報として所定の方向毎にオプティカルフローの大きさを得る。所定の方向は、上下左右の4方向であることが好ましい。続いて各局所領域について各方向のオプティカルフローの大きさを比較し、大きさが最大のフローをその局所領域のフローの大きさとし、対応する方向をその局所領域のフローの方向とする。この処理によって、各局所領域において支配的なフロー方向、つまり各局所領域のオプティカルフローが運動体の運動によるものと画像中の物体の存在によるもののどちらの影響を強く受けているかを計算することができる。
【0012】
計算した局所領域のフロー情報は、グローバルフロー処理部でも用いられる。グローバルフロー処理部は、前記大領域毎に、その大領域に含まれる全ての局所領域のフロー情報を取得し、取得したフロー情報に基づいて、前記大領域毎に予め設定されているフロー方向を有する局所領域を選択し、選択した局所領域のフローの大きさの平均値をその大領域のフロー情報とする。このグローバルフロー処理は、運動体の運動の種類に応じて大領域には特徴的なフロー情報が生じることから、後に行う運動体の運動の推定に用いるために行われる。
【0013】
従って大領域は適当な数だけ用意し、また各大領域は、運動体の運動を最も良く反映するように、入力画像の互いに異なる周縁部を占める領域であるのが好ましい。周縁部を占める領域とは、例えば入力画像の各辺から2/5の領域である。より好適には入力画像の上部2/5の領域、下部2/5の領域、左部2/5の領域、右部2/5の領域であり、上部、下部の領域に付いてはそれぞれ上下方向のフロー、左部、右部の領域に付いてはそれぞれ左右方向のフローの局所領域のフローの大きさの平均値を取るのが好ましい。但し、大領域の全入力画像に対する大きさは、運動体の運動が反映されにくい入力画像中央付近の領域を除けば、2/5でなく他の値であっても良い。
【0014】
フロー特徴計算手段は、前記大領域に関するフロー情報を第1の学習の結果に適用して前記運動体の運動を推測する。この第1の学習は 画面中に物体を余り含まない入力画像を用いて行われ、大領域に関するフロー情報と、センサ等により得られるかあるいは予め教師データとして与えられる運動体の運動との関係をニューラルネットワークを用いて関連付けることによって行われる。この第1の学習により、大領域に関するフロー情報から運動体の運動を推測することが可能になる。また、画面中に物体を余り含まない画像を用いて学習を行うことで、後述するように画像中の動いている物体だけでなく静止物体をも検出することできる。
【0015】
尚、ニューラルネットワークの例としては、パーセプトロンが挙げられる。この場合、運動体の運動はパーセプトロンの出力セルの値として推測される。
【0016】
さらに、フロー特徴計算手段は、推測した運動体の運動によって生じるフローと異なるフローを持つ局所領域を抽出する。そして、物体有無判定手段は、抽出された局所領域に対して第2の学習結果に基づいて物体が本当に存在するかを判定する。この第2の学習は、運動体から外部環境を撮像させて、そのとき抽出された局所領域のフロー情報と物体の有無とを関連付けさせることによって行われる。この学習により得られたデータセットに対し主成分分析を施して得られる固有ベクトルを用いて、物体有無判定が行われる。この方法は記憶容量等の面から好ましいが、パターンマッチング等の他の既知の方法で物体有無判定を行っても良い。
【0017】
尚、ローカルフロー処理手段で得られるフロー情報から直接運動体の運動を推測し、推測した運動体の運動によって生じるフローと異なるフローを持つ局所領域を抽出することも可能である。このようにすれば、本発明による物体検出装置は、グローバルフロー処理手段を備えていなくても物体検出処理を実行することができる。
【0018】
また、フロー特徴計算手段における局所領域の抽出は、2回繰り返されることが好ましい。すなわち、フロー特徴計算手段において抽出された局所領域は、再度前記グローバルフロー処理手段とフロー特徴計算手段により既に述べたと同様に処理され、再び運動体の運動によって生じるフローと異なるフローを持つ局所領域を抽出するようにすることもできる。この再度抽出された局所領域に対して物体有無判定処理を行うことによって、フロー特徴の抽出精度と物体領域の特徴抽出精度をより向上させることができる。
【0019】
本発明は別の一面によると、上記構成をプログラムにより実現すると捉えることもできる。すなわち、本発明は、運動体において時間的に連続して撮像される入力画像から物体を検出する物体検出プログラムであって、前記入力画像における局所領域毎のフロー情報を得るローカルフロー処理ステップと、前記各局所領域におけるフロー情報を利用して、前記入力画像中の所定数の大領域に関するフロー情報を得るグローバルフロー処理ステップと、前記大領域に関するフロー情報に基づいて前記運動体の運動を推測し、推測された運動に応じた新たなフロー情報を得て、該新たなフロー情報と前記各局所領域におけるフロー情報とを比較して前記推測された運動と異なるフローを有する局所領域を抽出するフロー特徴計算ステップと、該抽出された局所領域において物体の有無を判定する物体有無判定ステップと、を含むプログラムを含む。
【0020】
上記プログラムには、上記の他の特徴を実現するステップをさらに含めることが可能である。
【0021】
【発明の実施の形態】
以下、図を参照して本発明による物体検出装置の実施形態を説明する。
【0022】
図1は物体検出装置10の全体的な構成を示すブロック図である。物体検出装置10は、自律走行自動車等の運動体に搭載されたCCDカメラ等の撮像装置12により所定時間間隔で撮像された運動体の移動方向の画像を常時受け取り、画像から運動体の移動に障害となる物体があるか否かを判定し、判定結果を出力することができる。出力は、運動体のモータや舵等に送られて、必要に応じて運動体は減速、停止や物体の回避等の動作を行う。また判定結果に基づき、運動体の移動に障害となる物体の有無を自律走行自動車の乗員に通知等を行うようにしてもよい。
【0023】
物体検出装置10は、例えば、種々の演算を実行するCPU、演算結果を一時記憶するためのメモリ、学習結果等を記憶するROM、データの入出力を行うインタフェース等を備えるマイクロコンピュータにより実現される。また、物体検出装置10は一般に撮像装置12と共に上記運動体に搭載され、物体検出処理を行うが、撮像装置12により撮像された画像を運動体に搭載された任意の無線通信手段を介して別の場所にあるコンピュータへと送信し、そのコンピュータにより物体検出処理を行っても良い。以上のことを踏まえて、図1では物体検出装置10を機能ブロック図で表してある。これら各機能ブロックの一部または全部は、ソフトウェア、ファームウェア、あるいはハードウェアの何れでも実現することができる。
【0024】
撮像装置12により所定の時間間隔毎に撮像された画像は、画像入力部1を介してローカルフロー処理部2に送られる。ローカルフロー処理部2は、少なくとも2枚の時間的に連続する画像に対し、ガボールフィルタを適用して画像内の複数の局所領域におけるフロー情報(以下、「ローカルフロー」という)を計算する。これらローカルフローは、フロー特徴計算部4に送られると共に、更なる処理を受けるためにグローバルフロー処理部3にも送られる。
【0025】
グローバルフロー処理部3は、ローカルフローを使用して、局所領域よりも大きい大領域のフロー情報(以下、「グローバルフロー」という)を計算する。
【0026】
フロー特徴計算部4は、ローカルフロー、グローバルフロー、及び予め学習済みのデータ5に基づいて推定される運動体のフローに整合しないローカルフローを持つ局所領域を上記画像から抽出する。物体有無判定部7は、抽出された局所領域に実際に物体が存在するか否かを予め学習済みのデータ6に基づいて判定し、その判定結果は判定出力部8を介して出力される。
【0027】
次に、各ブロックについてそれぞれの機能を詳細に説明する。
【0028】
<ローカルフロー処理部>
図2は、ローカルフロー処理部2の物体検出実行時の処理を説明するフローチャートである。
【0029】
まず、ローカルフロー処理部2は画像入力部1から連続する2枚の画像を受け取る(S2-1)。時刻t、t+1における連続する2枚の画像をそれぞれImg(x,y,t)、Img(x,y,t+1)と表すことにする。ここで、座標(x,y)は、入力画像の左上を原点とした直交座標であり、Img(x,y,t)は時刻tにおける座標(x,y)の画素の輝度値であり、0から255の数値で表される。
【0030】
また、画像のx方向、y方向について、それぞれガボールフィルタの基底を次式により計算しておく。
【0031】
【数1】
Figure 0003885999
【0032】
ここで、Gs(x,y)はガボールフィルタの基底のsin成分であり、Gc(x,y)はガボールフィルタの基底のcos成分である。この二式とそれぞれ軸を90度回転させたときの二式によって、上下左右4方向のオプティカルフローが検出される。
【0033】
また上記式(1)中のx、yは画像の中心を原点とした座標で記述している(式(1)中のx、y、rには、r=(x+y) / の関係がある)。式(1)中の「a」は定数であり、「a」を中心にフィルター感度が高くなるように設定されている。また式(1)は、空間周波数の帯域幅が約1オクターブになるように設定されている。
【0034】
ガボールフィルタは人間の受容野の特性に似せたフィルタである。運動体が運動すると、オプティカルフローは中心部分よりも周辺の方がフローの特徴がはっきりと現れる特性がある。そこで、後述するようにガボールフィルタを局所領域毎にx、yの正負方向(画像の上下左右の各方向)に対して適用することによって、オプティカルフローがその局所領域でどの方向に動いたのかを明確に捉えることができる。なお、画像の位置(x,y)に応じてガボールフィルタの特性(受容野サイズすなわちフィルターの大きさ(窓))や空間周波数の最適化を行っても良い。
【0035】
次に、ローカルフロー処理部2は画像内の1つの局所領域を選択する(S2-2)。局所領域とは画像内の局所的なフローを計算するために設定される所定のサイズの複数の領域であり、例えば、画像全体が320×240画素である場合、局所領域はそれぞれ45×45画素の大きさである。初回には、画像の左上隅に位置する局所領域が選ばれる。
【0036】
1つの局所領域に対して以下に説明するような処理が終わると、次の局所領域に移動するが、このとき局所領域同士が少しずつオーバーラップするように右方にスライドして行く(図3(a))。そして画像の最右端まで達すると、今度は下方向にもオーバーラップするようにスライドする。このように局所領域をオーバーラップさせるのは、局所領域の境界付近の画素値を複数回局所領域に含めることによって、より正確な物体検出が可能となるためである。しかし、オーバーラップ量を多くすると処理速度が低下するので、オーバーラップ量はこれらを検討して適切な値に設定される。
【0037】
図2に戻り、時刻t、t+1の画像について、ステップS2-2で選択された局所領域に含まれる各画素値 Img(x,y,t)、Img(x,y,t+1)と、上記式(1)のガボール基底との積和演算を行って、当該局所領域の全画素についての積和値x、xt+1、y、yt+1を計算する(S2-3)。これは次式で表される。
【0038】
【数2】
Figure 0003885999
【0039】
続いて、計算した積和値を用いて次式によりコントラスト(x+y)を加重した位相の時間微分値dwを計算する(S2-4)。
【0040】
【数3】
Figure 0003885999
【0041】
ステップS2-3、S2-4によって、局所フローの上下左右の4方向の成分が算出される。すなわち、選択された局所領域について4方向のdwが算出される。
【0042】
続いてこの各方向のdwを比較して最大のものを選出する。そしてそのdwを当該局所領域のdw値とし、その方向を当該局所領域のフロー方向とする(S2-5)。局所領域について得られたこれらdw値とフロー方向は、図3(b)に示すように各局所領域の画像内の位置に対応する箇所のdwマップ、方向マップにそれぞれ代入される(S2-6)。
【0043】
1つの局所領域について計算が終了すると、既に説明したように現在の局所領域とオーバーラップする次の局所領域に移り、以後全ての局所領域について上記の計算が行われる(S2-7)。
【0044】
ローカルフロー処理の具体例を図4、5を参照して説明する。図4の(a)、(b)は、dwマップのうち、上下二方向のdwマップを代表して表したものである。dwマップ中の数字は、それぞれの箇所に対応する局所領域のdw値であり、図では一部の局所領域についてのみその値が記載してある。そして、各局所領域について全方向のdw値が比較され、最大のものがその局所領域のdwマップの値として選出され、また最大のdw値を有する方向がその局所領域の方向マップのフロー方向として決定される。例えば、図4(a)、(b)の左上隅に位置する局所領域のdw値を比較すると、それぞれ「3」、「1」であるから、この局所領域におけるdwマップの値は「3」となり(図5の(a))、またフロー方向は「3」の値を持つ方向である「上」となるのである(図5の(b))。実際の物体検出処理では、上下左右の4方向のdw値について同様の比較がなされる。この作業を全ての局所領域に対して順次繰り返していくと、図5(a)、(b)のように画像フレーム全体についてdwマップと方向マップとを得ることができる。なお、dw値が同一であった場合は、前回と同じ値が付与される。
【0045】
以上説明したローカルフロー処理によって、各局所領域のオプティカルフローが上下左右のうちどの方向の成分を強く持っているかが分かる。
【0046】
<グローバルフロー処理部>
図6はグローバルフロー処理部3の物体検出実行時の処理を説明するフローチャートである。グローバルフロー処理部3は、ローカルフロー処理部2で求められたdwマップと方向マップとを受け取る(S3-1)。次に、所定の8つの大領域(a)〜(h)のうち1つの大領域を選択する(S3-2)。
【0047】
大領域の例を図7に示す。図7において、(a)〜(h)の太線の長方形は画像全体のフレームであり、斜線のかかった領域が大領域である。大領域は、画像全体のフレームの端部から全長の2/5の長さになるように設定されている。さらに、大領域にはそれぞれ上下左右のうち何れか1つのフロー方向が指定されている(図7においては矢印で示されている)。
【0048】
グローバルフロー処理部3は、ステップS3-2で選択された大領域内に含まれる局所領域のうち、そのフロー方向が図7の大領域(a)〜(h)について予め指定されている方向である局所領域を選ぶ(S3-3)。そして、選ばれた局所領域に対応するdw値の平均値を算出する(S3-4)。より具体的に説明すると、大領域(a)が選択された場合、斜線の領域に含まれる局所領域について、方向マップを検索して上方向のフローを持つ局所領域を選び出す。そして、dwマップを検索して、選び出した局所領域のdw値を得て、それらの平均値を取るのである。例えば、大領域(a)については、図5(a)の上方向のdwマップのうち太線で囲まれた部分の値の平均値が算出される。
【0049】
大領域(a)についてdw値の平均値が算出されると、続いて(b)以下の大領域についても同様の計算が行われる(S3-5)。8つの大領域全てについてdw値の平均値が算出されると、図8に示すようなグローバルフローマップを作成する(S3-6)。このマップには、大領域(a)についてフロー方向が「上」である局所領域のdw値の平均値、大領域(b)についてフロー方向が「下」である局所領域のdw値の平均値、というように上から順に格納される。
【0050】
このようなグローバルフローマップを作成することで、運動体の運動に応じて出現する画像の特徴をマップで表現することができる。例えば、運動体が前進移動をしている場合は、図7中の大領域(a)、(d)、(e)、(g)のdw値の平均値が大きな値となる。また、右折前進移動をしている場合は、大領域(a)、(d)、(f)、(g)に大きなdw値が現れるし、左折前進移動をしている場合は大領域(a)、(d)、(e)、(h)に大きなdw値が現れる。
【0051】
本実施形態では8つの大領域を用いているが、より多種の大領域を用いることで運動体の運動に応じた画像をさらに詳細に表現することもできる。
【0052】
図7の8つの大領域の大きさを全画像フレームの全長の「2/5」とした理由は、既に述べたようにオプティカルフローは画像の中央部分よりも周辺領域により特徴が強調されて出てくるので、この特徴を効果的に捉えるためである。大領域を画像全体フレームの周辺に限定適用することにより、計算負荷を大きく低減させたまま、運動体の運動に応じて現れる画像の特徴を適確に捉えることが可能となる。従って、画像フレームの中心を外れていれば、全画像フレームの全長の1/3、1/4といった他の大きさを大領域の範囲に設定しても良い。
【0053】
<フロー特徴計算部>
フロー特徴計算部4では、運動体の運動により生じるフローと同じフロー方向を持つ局所領域(「地」)と、異なるフローをもつ局所領域(「図」)とに分離するいわゆる図地分離が行われる。
【0054】
既に述べたように、運動体の運動に応じて出現する画像の特徴は8個のdw値の平均値、すなわち8個の特徴量で表現することができる。そこで、8個の特徴量と運動体の運動を表すパラメータ(以下「自己運動パラメータ」と呼ぶ)との対応関係の教師データを用いてパーセプトロン等により学習を行えば、8個の特徴量から自己運動パラメータへの写像を容易に得ることができる。そして、この学習により、物体検出時にはセンサ等を用いることなく8個の特徴量から自己運動パラメータを推測することが可能となる。
【0055】
自己運動パラメータの例としては、運動体に付設されたスピードメータから得られる運動体の速度や、ジャイロスコープにより検出される回転角などが挙げられる。採用するべき自己運動パラメータの種類は、物体検出装置10の処理する画像内で排除すべき自己運動の影響を考慮して、運動体の運動の特徴に応じて決定される。例えば回転運動している運動体において物体を検出したい場合は、運動体の回転方向等が自己運動パラメータとして採用される。また、速度が可変の運動体において物体を検出したい場合は、運動体の速度等を自己運動パラメータとして採用することが考えられる。また運動体の運動を示すコードを自己運動パラメータとして用いることもできる。本実施形態では、運動体の進行方向、すなわち前進移動、右折前進移動、左折前進移動の何れかのパラメータがその進行方向に応じてフロー特徴計算部4に与えられる。
【0056】
図9は、フロー特徴計算部4で予め行われる8個の特徴量と自己運動パラメータの対応関係の学習を行うパーセプトロンの概念図である。左側のセル(入力層)Xはグローバルフロー処理部3の処理の結果算出される8個の特徴量にそれぞれ対応している。つまり一番上のセルは図7の大領域(a)におけるdw値の平均値であり、2番目のセルは大領域(b)におけるdw値の平均値であり、以下同様である。また右側のセル(出力層)Yは、各自己運動パラメータに相当する。本実施形態では、上から前進移動、右折前進移動、左折前進移動の各自己運動パラメータに対応して設けられる。入力層、出力層のセルは、それぞれ特徴量、自己運動パラメータの種類に応じて適当な数だけ準備される。
【0057】
8個の特徴量と自己運動パラメータの対応関係の教師データは、例えば図10のようなデータ構造で与えられる。自己運動パラメータは、セルYと同数与えられる。フロー特徴計算部4は、以下の手順により学習を行う。
【0058】
を入力層のi番目のセルの値、Yを出力層のj番目のセルの値とすると、Yは次式により計算される。
【0059】
【数4】
Figure 0003885999
【0060】
ここで、Wijは入力層のセル(入力セル)iと出力層のセル(出力セル)jの間の重みであり、適当な初期値が与えられている。
【0061】
式(4)のXに教師データの特徴量(8個)を代入してYが求められると、教師データの自己運動パラメータとの比較が行われる。そして、Yが教師データの自己運動パラメータと一致したときはT=1とし、異なるときはTi=0をとして、次式により出力セルjの誤差Eが求められる。
【0062】
【数5】
Figure 0003885999
【0063】
続いて重みWijが更新される。この重みの更新は、誤差逆伝播法により次式に従って行われる。
【0064】
【数6】
Figure 0003885999
【0065】
こうして、与えられた全ての教師データセットについて同様の処理が行われ、次々に重みWijが更新されていく。そして学習が終わると、8個の特徴量(dw値の平均値)から重みWijを用いて自己運動パラメータ、すなわち、運動体がどのような運動をしているかを推測できるようになる。
【0066】
なお、この対応関係の学習には、他の任意の学習方法を用いても良い。
【0067】
また、一般にオプティカルフローにおいては、局所領域のフローの抽出を行うと、静止物体がある領域には異種のフローが生じるという性質があるので、教師データは障害物(静止物体)を余り含まない画像に基づいて準備されるのが好ましい。このような教師データを用いて学習することで、自己運動パラメータと整合する局所領域のフロー方向と異なるフローとして、画像内を移動する物体のみならず静止物体をも検出することができるようになる。
【0068】
図11はフロー特徴計算部4の物体検出実行時の処理を説明するフローチャートである。
【0069】
まず、フロー特徴計算部4は、ローカルフロー処理部2で得られたdwマップと方向マップ、グローバルフロー処理部3で得られた8個の特徴量(dw値の平均値)を受け取る(S4-1)。そして受け取った8個の特徴量と学習済みのパーセプトロンの重みWから、式(4)により出力セルの出力値Yを算出し、その中から最大値を持つ出力セルを選択する(S4-2)。例えば、図9のパーセプトロンの3つの出力セルの出力値がそれぞれ(0.5, 0.25, 0.25)の場合、「0.5」を出力したセルを勝者として選択する。そして、選択された出力セルの値を「1」、他の出力セルの値を「0」と設定する(つまり、3つの出力セルの出力値を(1, 0, 0)と設定する)。
【0070】
続いて、正規化された出力値と設定された出力値との誤差を計算する(S4-3)。上記の例では、誤差は(-0.5, 0.25, 0.25)となる。これを「誤差パラメータ」と呼ぶ。
【0071】
この誤差パラメータに逆にパーセプトロンの重みWをかけることによって、入力セルにそれぞれ対応する新たな8つのパラメータを得ることができる(S4-4)。これを「新8つのパラメータ値」と呼ぶ。この新8つのパラメータ値は、全て0以外の値となり、また負の値になることもある。
【0072】
新8つのパラメータ値と、対応する図5(a)のdwマップの値との掛け算を行う(S4-5)。具体的に説明すると、新8つのパラメータ値が入力セルの上から順に(1,2,3,4,5,6,7,8)と算出された場合、つまり図7の大領域(a)〜(h)にそれぞれ対応して(1,2,3,4,5,6,7,8)と計算された場合、大領域(a)に含まれかつフロー方向が上の局所領域のdw値をdwマップと方向マップの検索によって選び出し(図5(a)の太線A内の値)、それぞれ新8つのパラメータ値である「1」と掛け合わされる。また、例えば大領域(g)に含まれかつフロー方向が左の局所領域のdw値を、dwマップと方向マップとを検索して選び出し(図5(a)の太線B内の値)、それぞれ新8つのパラメータ値である「7」と掛け合わされる。同様の計算を新8つのパラメータ値の全てについて行った結果の例を図12の(a)に示す(これを「フィードバック局所フロー」と呼ぶ)。なお、図12(a)中の数値は負の値となることもある。
【0073】
そして、図12(a)のマップの各数値について所定のしきい値(図12の例ではしきい値「1.0」)と比較し、しきい値より小さい部分を「地」の部分(図12(b))、しきい値以上の部分を「図」の部分(図12(c))として分離する(S4-6)。
【0074】
さらに、分離された「図」の部分の数値を「0」とした新たな局所フローのdwマップを得る(図12(d))。この新たな局所フローに対して、上記グローバルフロー処理及び上記ステップS4-1からS4-6の処理を再び実行する(S4-7)。
【0075】
そして、2回目のステップS4-6において分離された「図」の部分の局所領域(図10(c))を含む矩形の領域(図10(c)の太線で囲われた領域)を、画像の中で物体が存在する可能性のある領域(以下、「物体存在可能性領域」という)と推定する(S4-8)。この矩形の領域は予め定められた一定のサイズであり、2回目のステップS4-6で分離された局所領域が所定の矩形のサイズに対し大きかったりあるいは小さかったりする場合は、「図」の領域が最もよく含まれるように矩形領域を設定する。この矩形の領域、すなわち物体存在可能性領域は、入力画像の中で物体が含まれている可能性が高いと予想される領域であり、この領域に対して物体有無判定部7により物体の有無が判定される。
【0076】
上記のように誤差パラメータを算出した後さらにフィードバック局所フローを計算するのは、真の自己運動パラメータとの誤差を強調することによって、しきい地による分離を実行し易くするためである。以上の処理によって、より精度良く物体存在可能性領域を切り出すことができるようになる。特に、S4-1〜S4-2の処理を繰り返すことで、物体存在可能性領域の抽出がより精度良く達成されることになる。
【0077】
<物体有無判定部>
物体有無判定部7は、フロー特徴計算部4で分離された物体存在可能性領域に物体が本当に含まれているか否かを判定する。
【0078】
物体有無判定部7は予め第2の学習を行って、物体有無の判定を行うための固有空間ベクトルを作成しておく。
【0079】
図13は、固有空間ベクトルを作成するための学習を示すフローチャートである。
【0080】
まず、物体検出装置10に「物体有り」と判定させたい種々の物体を含む環境を物体検出装置10の撮像装置12により撮像させ(S6-1)、既に述べたようにローカルフロー処理部2、グローバルフロー処理部3、フロー特徴抽出部4により順に処理し、自己運動と整合しないフローが得られた局所領域を含む矩形の領域(図12(c)の物体存在可能性領域)を得る(S6-2)。このとき撮像させる物体には、移動している物体と静止している物体の両方が含まれ、また物体が存在しない画像も撮像させる。さらに、運動体の移動時と静止時の両方の場合について画像の撮像を行う。
【0081】
そして、得られた物体存在可能性領域を人間が見て、実際に物体が存在するか否かの教師信号を物体検出装置10に与える(S6-3)。この教師信号は、例えば物体が存在するときは「1.0」、存在しないときは「0.0」を示すような、物体の有無を表す信号である。
【0082】
一連の画像の撮像と教師信号の付与を繰り返すことによって(S6-1〜S6-4)、画像(入力画像の全体フレームではなく、物体存在可能性領域の画像)と物体の有無を表す数値化表現とのセットを多数集めたデータセットが得られる(S6-5)。このデータセットは、例えば図14のようなデータ構造を有している。図14(a)において、1段目は、現実の画像フレーム内の物体存在可能性領域に含まれる画素の系列であり、所定順序で画素毎の0から255の画素濃度が格納される。2段目は、物体存在可能性領域内の各局所領域のフローの系列であり、例えば図14(b)に示すように、各局所領域のフロー方向とdw値がそれぞれ格納される。3段目には、物体存在可能性領域内の画像フレーム全体の中での位置情報が格納される。ここで、既に述べたように物体存在可能性領域の矩形サイズは一定なので、例えば矩形の左上隅の位置(x,y)を記憶すれば十分である。そして4段目には物体の有無を表す数値化表現(1.0または0.0)が格納される。例えば、1段目から順に20個、20個、2個、1個のデータがある場合は、合計43次元のデータセットが得られることになる。
【0083】
さらに、事前の学習時には、得られたデータセットについて、主成分分析により固有空間ベクトルPCA1、PCA2、…、PCAnを計算しておく(S6-6)。ここでnは使用する固有ベクトルの数であり、データセットの特徴をどの程度正確に表現するかによって定められる累積寄与率に応じて決定される。
【0084】
以上の学習を予め行っておくことによって、物体存在可能性領域内における物体の有無を正確に判定できるようになる。図15は、この物体有無判定部7における有無判定処理を説明するフローチャートである。
【0085】
まずフロー特徴計算部4から自己運動と整合しない局所領域(物体存在可能性領域)に関するデータを得る(S7-1)。このデータは、図11を用いて説明した計算により得られた物体存在可能性領域について図14と同じデータ構造を有する。そして、図14(a)の4段目のデータ欄(物体有無の数値化表現)を「0.5」として、既に説明した主成分分析で計算された固有空間ベクトルにより張られた固有空間に、当該物体存在可能性領域に基づくデータを投射する(S7-2)。すなわち、物体存在可能性領域に関するデータに基づいた入力ベクトルに主成分ベクトルを第1次〜第n次までかけていくことによって、投射した固有空間の座標位置が得られる。以上の説明を数式で表現すると、以下のようになる。
【0086】
【数7】
x1 = X・PCA1
x2 = X・PCA2… xn = X・PCAn (7)
上式において、Xが入力ベクトルであり、(x1,x2,…,xn)が固有空間の座標位置である。そして、次式により入力ベクトルを再合成して、再合成された入力ベクトルX’を得る(S7-3)。
【0087】
【数8】
X’ = x1・PCA1 + x2・PCA2 + … + xn・PCAn (8)
得られた再合成後の入力ベクトルX’と0.5(物体有無の数値化表現)との大小を比較し(S7-4)、X’が0.5より大きいときは、物体存在可能性領域に「物体有り」と判定し(S7-5)、X’が0.5以下であるときは「物体なし」と判定する(S7-6)。
【0088】
以上のような処理によって、物体有無判定部7は、フロー特徴計算部の出力する図の部分における物体の有無を正確に判定することができる。
【0089】
<物体検出処理の実施例>
以上で各機能ブロックにおける処理の説明を終わり、続いて、物体検出装置10を運動体に搭載して実際に物体を検出させるときの手順について説明する。
【0090】
物体検出を実行する前に、まず2種類の学習を行っておく。第1の学習は、上述したようにグローバルフロー処理部3で行われ、グローバルフロー(8個の特徴量)と自己運動パラメータとの対応関係を得る学習である。この学習により、物体検出装置10はグローバルフローから自己運動パラメータを計算することができるようになる。
【0091】
第2の学習は、上述したように物体有無判定部7で行われ、運動体を運動させながら、認識させたい物体を撮像装置12に撮像させたときの局所領域のフローの系列と物体の有無の関係の学習である。この学習の結果得られる固有空間ベクトルを用いることにより、物体存在可能性領域での物体の有無を判定することができるようになる。
【0092】
第1、第2の学習結果は、それぞれ学習済みデータ5、6(図1)として物体検出装置10内の図示しないROM等に格納される。
【0093】
図16は物体検出処理のフローチャートである。まず取得した2枚以上の連続画像(S100)について、ローカルフロー処理部2により局所領域のローカルフローが計算される(S102)。ローカルフローを求めた後、グローバルフロー処理部により大領域のグローバルフローが計算される(S104)。
【0094】
フロー特徴計算部4は、ローカルフローとグローバルフローから自己運動パラメータを推定し(S106)、自己運動パラメータに整合する領域と整合しない領域(物体存在可能性領域)とに分離する図地分離を行う(S108)。そして、物体存在可能性領域があるか否かを判定する(S110)。ステップS110の答がNO、つまり物体存在可能性領域がない場合は、入力画像内に物体が存在する可能性がないので、新たな連続画像について一連の処理が繰り返される。ステップS110の答がYESであり物体存在可能性領域がある場合は、画像全体から物体存在可能性領域を除いた領域について、さらに上述したのと同様の処理を繰り返す。つまり、ローカルフローの計算(S112)、グローバルフローの計算(S114)、自己運動パラメータの推定(S116)、図地分離(S118)が行われる。
【0095】
ステップS108で分離した物体存在可能性領域について直ちに物体有無判定を行っても良いが、本実施形態ではステップS112〜S118のように画像全体から物体存在可能性領域を除いた領域について再度同じ処理を繰り返す。これは、1回の図地分離では、ノイズ等により正確な物体存在可能性領域が得られないことがあるので、繰り返し処理することによって図地分離の精度を高めるためである。
【0096】
ステップS118で再度求められた物体存在可能性領域は、物体有無判定部7に送られ、当該領域に物体が本当にあるか否かが判定される(S120)。「物体有り」と判定された場合は、判定出力部8によりその結果が出力される(S122)。「物体なし」と判定された場合は、ステップS124に進む。ステップS124で物体検出処理を継続するか否かが判定され、継続する場合はステップS100に戻り、さらに連続画像について一連の処理が繰り返される。
【0097】
ステップS122で出力された判定結果は運動体のモータや舵に送られ、または乗員に通知される。これによって運動体または運動体の乗員は、入力画像中の物体の有無に応じた適切な停止、回避等の動作をとることができる。
【0098】
以上特定の実施形態について詳細に説明したが、本発明はこれらに限定されるものではない。例えば、物体有無判定部7での判定は上記のような固有ベクトルに基づく方法によらず、周知のパターンマッチングによる方法でも良い。
【0099】
またグローバルフローとして、上記の方法によらず、例えば画像中央部から左右に寄った領域と中央部より下側に広がる領域の3点、あるいはこの3点に中央部より上側に広がる領域を加えた4点のローカルフローの特徴の組み合わせを用いることも可能である。
【0100】
さらに、ローカルフロー処理部2で得られるフロー情報から運動体の運動を推測し、推測された運動により生ずると(第1の学習の結果)考えられるフローと異なるフロー部分を物体存在可能性領域として切り出すことが可能である。このようにすれば、物体検出装置10は、グローバルフロー処理部3を備えていなくても物体検出処理を実行することができる。
【0101】
以上説明してきたように、本発明は、自己運動に応じて生じるフローを有する部分を最初に明確化し、その他の残りの部分について物体有無の判定を行う点に特徴がある。
【0102】
【発明の効果】
本発明によれば、ローカルフロー処理とグローバルフロー処理を共に実行し、自己運動に整合しない領域を分離して、その領域のみに対して物体の有無の判定計算を実行するようにしたので、少ない負荷でかつ高速に物体の有無を検出することができる。
【0103】
また、グローバルフロー処理部におけるパーセプトロン学習において、静止物体を余り含まない画像に基づいて学習することで、自己運動パラメータと整合する局所領域のフロー方向と異なるフローとして、画像内を移動する物体のみならず静止物体をも検出することができるようになる。
【図面の簡単な説明】
【図1】本発明の物体検出装置の全体構成を表すブロック図である。
【図2】ローカルフロー処理部のフローチャートである。
【図3】局所領域の位置とマップの対応関係を示す概念図である。
【図4】各方向のdwマップを示す概念図である。
【図5】方向マップとdwマップを示す概念図である。
【図6】グローバルフロー処理部のフローチャートである。
【図7】大領域の一例を示す図である。
【図8】グローバルフローマップを示す図である。
【図9】フロー特徴計算部における学習を行うパーセプトロンの一例を示す図である。
【図10】教師データのデータ構造を示す図である。
【図11】フロー特徴計算部のフローチャートである。
【図12】図地分離を説明するための概念図である。
【図13】物体有無判定部における学習のフローチャートである。
【図14】教師データのデータ構造を示す図である。
【図15】物体有無判定部のフローチャートである。
【図16】物体検出装置による物体検出処理の全体のフローチャートである。
【符号の説明】
1 画像入力部
2 ローカルフロー処理部
3 グローバルフロー処理部
4 フロー特徴計算部
5 学習済みデータ
6 学習済みデータ
7 物体有無判定部
8 判定出力部
10 物体検出装置
12 撮像装置

Claims (13)

  1. 運動体において時間的に連続して撮像される入力画像から物体を検出する物体検出装置であって、
    前記入力画像に設定された所定サイズの複数の局所領域のそれぞれにおいて、所定方向毎にオプティカルフローを求め、大きさが最大となるオプティカルフローの大きさおよびその方向を当該局所領域のフロー情報として算出する、ローカルフロー処理手段と、
    前記入力画像の互いに異なる周縁部を占め、それぞれが複数の前記局所領域を含みかつ予め1つのフロー方向が指定されている複数の大領域において、それぞれに含まれる前記局所領域のうち当該大領域の指定フロー方向に一致するフロー情報を有する局所領域を選択し、該選択した局所領域のオプティカルフローの大きさの平均値をその大領域のフロー情報として算出する、グローバルフロー処理手段と、
    前記大領域に関するフロー情報に基づいて前記運動体の運動を推測し、該推測された運動と異なるフローを有する局所領域を抽出する図地分離処理を行う、フロー特徴計算手段と、
    図として抽出された局所領域に対して、予め取得した物体情報を利用した固有ベクトル法またはパターンマッチング法を用いて物体の有無を検出する、物体有無判定手段と、
    を備える物体検出装置。
  2. 前記ローカルフロー処理手段は、前記局所領域毎にガボールフィルタを適用して、各局所領域のフロー情報として所定の方向毎にオプティカルフローの大きさを得る、請求項1に記載の物体検出装置。
  3. 前記フロー特徴計算手段は、 1 の学習として大領域に関するフロー情報と前記運動体との関係を予めニューラルネットワークを用いて関連付けておき、前記大領域に関するフロー情報を第1の学習の結果に適用して前記運動体の運動を推測する、請求項1または2に記載の物体検出装置。
  4. 前記ニューラルネットワークはパーセプトロンである、請求項に記載の物体検出装置。
  5. 前記フロー特徴計算手段において抽出された局所領域が再度前記グローバルフロー処理手段及びフロー特徴計算手段において処理される、請求項1乃至4のいずれかに記載の物体検出装置。
  6. 前記物体有無判定手段は、前記運動体から外部環境を撮像させ、抽出された局所領域と物体の有無とを関連付けさせるため、予め行われる第2の学習に基づいて前記判定を行う、請求項1乃至5のいずれかに記載の物体検出装置。
  7. 運動体において時間的に連続して撮像される入力画像から物体を検出する物体検出プログラムであって、
    画像入力部を介して前記入力画像を受け取り、前記入力画像に設定された所定サイズの複数の局所領域のそれぞれにおいて、所定方向毎にオプティカルフローを求め、大きさが最大となるオプティカルフローの大きさおよびその方向を当該局所領域のフロー情報としてメモリに記憶する、ローカルフロー処理ステップと、
    前記入力画像の互いに異なる周縁部を占め、それぞれが複数の前記局所領域を含みかつ予め1つのフロー方向が指定されている複数の大領域において、それぞれに含まれる前記局所領域のうち当該大領域の指定フロー方向に一致するフロー情報を有する局所領域を選択し、該選択した局所領域のオプティカルフローの大きさの平均値をその大領域のフロー情報としてメモリに記憶する、グローバルフロー処理ステップと、
    前記大領域に関するフロー情報に基づいて前記運動体の運動を推測し、該推測された運動と異なるフローを有する局所領域を抽出する図地分離処理を行う、フロー特徴計算ステップと、
    図として抽出された局所領域に対して、予め取得した物体情報を利用した固有ベクトル法またはパターンマッチング法を用いて物体の有無を検出する、物体有無判定ステップと、
    コンピュータに実行させるための物体検出プログラム。
  8. 前記ローカルフロー処理ステップは、前記局所領域毎にガボールフィルタを適用し、各局所領域のフロー情報として所定の方向毎にオプティカルフローの大きさを得ることを含む、請求項に記載の物体検出プログラム。
  9. 前記フロー特徴計算ステップは、 1 の学習として大領域に関するフロー情報と前記運動体との関係を予めニューラルネットワークを用いて関連付けておき、前記大領域に関するフロー情報を第1の学習の結果に適用して前記運動体の運動を推測することを含む、請求項7または8に記載の物体検出プログラム。
  10. 前記ニューラルネットワークはパーセプトロンである、請求項に記載の物体検出プログラム。
  11. 前記フロー特徴計算ステップにおいて抽出された局所領域が再度前記グローバルフロー処理ステップ及びフロー特徴計算ステップにおいて処理される、請求項乃至10いずれかに記載の物体検出プログラム。
  12. 前記物体有無判定ステップは、前記運動体から外部環境を撮像させ、抽出された局所領域と物体の有無とを関連付けさせるため、予め行われる第2の学習に基づいて前記判定を行うことを含む、請求項乃至11いずれかに記載の物体検出プログラム。
  13. 運動体において時間的に連続して撮像される入力画像から物体を検出する物体検出方法であって、
    前記入力画像に設定された所定サイズの複数の局所領域のそれぞれにおいて、所定方向毎にオプティカルフローを求め、大きさが最大となるオプティカルフローの大きさおよびその方向を当該局所領域のフロー情報として算出し、
    前記入力画像の互いに異なる周縁部を占め、それぞれが複数の前記局所領域を含みかつ予め1つのフロー方向が指定されている複数の大領域において、それぞれに含まれる前記局所領域のうち当該大領域の指定フロー方向に一致するフロー情報を有する局所領域を選択し、該選択した局所領域のオプティカルフローの大きさの平均値をその大領域のフロー情報として算出し、
    前記大領域に関するフロー情報に基づいて前記運動体の運動を推測し、
    前記推測された運動と異なるフローを有する局所領域を抽出する図地分離処理を行い、
    図として抽出された局所領域に対して、予め取得した物体情報を利用した固有ベクトル法またはパターンマッチング法を用いて物体の有無を検出する、
    ことを含む物体検出方法。
JP2001399472A 2001-12-28 2001-12-28 物体検出装置 Expired - Fee Related JP3885999B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2001399472A JP3885999B2 (ja) 2001-12-28 2001-12-28 物体検出装置
US10/322,307 US7062071B2 (en) 2001-12-28 2002-12-17 Apparatus, program and method for detecting both stationary objects and moving objects in an image using optical flow
EP02028805A EP1329850B1 (en) 2001-12-28 2002-12-23 Apparatus, program and method for detecting both stationary objects and moving objects in an image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001399472A JP3885999B2 (ja) 2001-12-28 2001-12-28 物体検出装置

Publications (2)

Publication Number Publication Date
JP2003196664A JP2003196664A (ja) 2003-07-11
JP3885999B2 true JP3885999B2 (ja) 2007-02-28

Family

ID=19189475

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001399472A Expired - Fee Related JP3885999B2 (ja) 2001-12-28 2001-12-28 物体検出装置

Country Status (3)

Country Link
US (1) US7062071B2 (ja)
EP (1) EP1329850B1 (ja)
JP (1) JP3885999B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210295053A1 (en) * 2020-03-18 2021-09-23 Hitachi, Ltd. Observed-object recognition system and method

Families Citing this family (56)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7545949B2 (en) * 2004-06-09 2009-06-09 Cognex Technology And Investment Corporation Method for setting parameters of a vision detector using production line information
US9092841B2 (en) 2004-06-09 2015-07-28 Cognex Technology And Investment Llc Method and apparatus for visual detection and inspection of objects
JP3979894B2 (ja) * 2002-07-22 2007-09-19 本田技研工業株式会社 物体検出装置及び方法
US7305145B2 (en) 2003-05-23 2007-12-04 Lockheed Martin Corporation Method and apparatus for filtering an image
US8989516B2 (en) * 2007-09-18 2015-03-24 Fotonation Limited Image processing method and apparatus
US7639889B2 (en) 2004-11-10 2009-12-29 Fotonation Ireland Ltd. Method of notifying users regarding motion artifacts based on image analysis
US7636486B2 (en) 2004-11-10 2009-12-22 Fotonation Ireland Ltd. Method of determining PSF using multiple instances of a nominally similar scene
US8199222B2 (en) 2007-03-05 2012-06-12 DigitalOptics Corporation Europe Limited Low-light video frame enhancement
US8180173B2 (en) 2007-09-21 2012-05-15 DigitalOptics Corporation Europe Limited Flash artifact eye defect correction in blurred images using anisotropic blurring
US8417055B2 (en) 2007-03-05 2013-04-09 DigitalOptics Corporation Europe Limited Image processing method and apparatus
US8264576B2 (en) 2007-03-05 2012-09-11 DigitalOptics Corporation Europe Limited RGBW sensor array
US9160897B2 (en) * 2007-06-14 2015-10-13 Fotonation Limited Fast motion estimation method
JP2005078528A (ja) * 2003-09-02 2005-03-24 Honda Motor Co Ltd 物体検出装置及び方法
JP3882083B2 (ja) 2003-11-26 2007-02-14 国立大学法人岐阜大学 測距装置
JP4270010B2 (ja) * 2004-04-05 2009-05-27 株式会社デンソー 物体危険判定装置
US8243986B2 (en) 2004-06-09 2012-08-14 Cognex Technology And Investment Corporation Method and apparatus for automatic visual event detection
US8127247B2 (en) 2004-06-09 2012-02-28 Cognex Corporation Human-machine-interface and method for manipulating data in a machine vision system
US8891852B2 (en) 2004-06-09 2014-11-18 Cognex Technology And Investment Corporation Method and apparatus for configuring and testing a machine vision detector
US20050276445A1 (en) 2004-06-09 2005-12-15 Silver William M Method and apparatus for automatic visual detection, recording, and retrieval of events
DE102004044626B4 (de) * 2004-09-13 2008-11-20 Leica Microsystems Cms Gmbh Verfahren zur Untersuchung von Transportprozessen
US8121392B2 (en) * 2004-10-25 2012-02-21 Parata Systems, Llc Embedded imaging and control system
US20060098844A1 (en) * 2004-11-05 2006-05-11 Huitao Luo Object detection utilizing a rotated version of an image
US7639888B2 (en) 2004-11-10 2009-12-29 Fotonation Ireland Ltd. Method and apparatus for initiating subsequent exposures based on determination of motion blurring artifacts
US7720315B2 (en) * 2004-11-12 2010-05-18 Cognex Technology And Investment Corporation System and method for displaying and using non-numeric graphic elements to control and monitor a vision system
US7636449B2 (en) 2004-11-12 2009-12-22 Cognex Technology And Investment Corporation System and method for assigning analysis parameters to vision detector using a graphical interface
US9292187B2 (en) 2004-11-12 2016-03-22 Cognex Corporation System, method and graphical user interface for displaying and controlling vision system operating parameters
US20060262188A1 (en) * 2005-05-20 2006-11-23 Oded Elyada System and method for detecting changes in an environment
DE102005045017A1 (de) * 2005-09-21 2007-03-22 Robert Bosch Gmbh Verfahren und Fahrerassistenzsystem zur sensorbasierten Anfahrtsteuerung eines Kraftfahrzeugs
JP4711797B2 (ja) 2005-09-30 2011-06-29 モレックス インコーポレイテド モジュール用ソケット
JP4426535B2 (ja) * 2006-01-17 2010-03-03 本田技研工業株式会社 車両の周辺監視装置
US8666661B2 (en) * 2006-03-31 2014-03-04 The Boeing Company Video navigation
IES20070229A2 (en) 2006-06-05 2007-10-03 Fotonation Vision Ltd Image acquisition method and apparatus
JP4724638B2 (ja) * 2006-10-20 2011-07-13 株式会社日立製作所 オブジェクト検出方法
JP4704998B2 (ja) * 2006-10-26 2011-06-22 本田技研工業株式会社 画像処理装置
DE102006053286A1 (de) * 2006-11-13 2008-05-15 Robert Bosch Gmbh Verfahren zur Detektion von bewegungsauffälligen Bildbereichen, Vorrichtung sowie Computerprogramm zur Durchführung des Verfahrens
JP4802112B2 (ja) * 2007-02-08 2011-10-26 株式会社東芝 トラッキング方法及びトラッキング装置
JP2008219063A (ja) * 2007-02-28 2008-09-18 Sanyo Electric Co Ltd 車両周辺監視装置及び方法
US7773118B2 (en) 2007-03-25 2010-08-10 Fotonation Vision Limited Handheld article with movement discrimination
US8237099B2 (en) 2007-06-15 2012-08-07 Cognex Corporation Method and system for optoelectronic detection and location of objects
US8103085B1 (en) 2007-09-25 2012-01-24 Cognex Corporation System and method for detecting flaws in objects using machine vision
CN100465989C (zh) * 2007-10-09 2009-03-04 天津工业大学 基于综合特征一致性模型的人造目标检测方法
DE102007062996A1 (de) * 2007-12-21 2009-06-25 Robert Bosch Gmbh Werkzeugmaschinenvorrichtung
US8890951B2 (en) * 2008-04-24 2014-11-18 GM Global Technology Operations LLC Clear path detection with patch smoothing approach
US8803966B2 (en) * 2008-04-24 2014-08-12 GM Global Technology Operations LLC Clear path detection using an example-based approach
FR2935214B1 (fr) * 2008-08-20 2010-10-08 Eads Europ Aeronautic Defence Procede et un dispositif de commande, a distance, d'une camera embarquee dans une station mobile
JP4998955B2 (ja) * 2008-10-24 2012-08-15 日本電信電話株式会社 崩落検知システムおよび方法
KR101199492B1 (ko) * 2008-12-22 2012-11-09 한국전자통신연구원 광역 이동을 고려한 실시간 카메라 트래킹 장치 및 방법
CN102396002B (zh) 2009-04-15 2015-07-08 丰田自动车株式会社 目标探测装置
KR101141312B1 (ko) 2011-05-16 2012-05-04 동국대학교 산학협력단 영상의 융합 기법을 이용한 의료용 혈관영상 처리방법
US9651499B2 (en) 2011-12-20 2017-05-16 Cognex Corporation Configurable image trigger for a vision system and method for using the same
JP6198105B2 (ja) * 2013-03-21 2017-09-20 公立大学法人大阪市立大学 画像処理装置、画像処理プログラム及び画像処理方法
US9361575B2 (en) * 2013-12-11 2016-06-07 Volvo Car Corporation Method of programming a neural network computer
JP6116765B1 (ja) * 2015-12-02 2017-04-19 三菱電機株式会社 物体検出装置及び物体検出方法
DE102017104957A1 (de) 2017-03-09 2018-09-13 Connaught Electronics Ltd. Verfahren zum Bestimmen einer Bewegung von zueinander korrespondierenden Bildpunkten in einer Bildsequenz aus einem Umgebungsbereich eines Kraftfahrzeugs, Auswerteeinrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug
US10565714B2 (en) 2018-05-25 2020-02-18 Denso Corporation Feature tracking for visual odometry
CN113033552B (zh) * 2021-03-19 2024-02-02 北京字跳网络技术有限公司 文本识别方法、装置和电子设备

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3364771B2 (ja) 1994-03-09 2003-01-08 本田技研工業株式会社 移動物体検出装置
US6049619A (en) * 1996-02-12 2000-04-11 Sarnoff Corporation Method and apparatus for detecting moving objects in two- and three-dimensional scenes
JPH1091795A (ja) * 1996-09-12 1998-04-10 Toshiba Corp 移動物体検出装置及び移動物体検出方法
US6185337B1 (en) * 1996-12-17 2001-02-06 Honda Giken Kogyo Kabushiki Kaisha System and method for image recognition
JPH10334270A (ja) * 1997-05-28 1998-12-18 Mitsubishi Electric Corp 動作認識装置及び動作認識プログラムを記録した記録媒体
JP2000242797A (ja) 1999-02-18 2000-09-08 Toyota Motor Corp 画像の運動検出方法及び物体検出装置
JP3979894B2 (ja) * 2002-07-22 2007-09-19 本田技研工業株式会社 物体検出装置及び方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210295053A1 (en) * 2020-03-18 2021-09-23 Hitachi, Ltd. Observed-object recognition system and method
US11562567B2 (en) * 2020-03-18 2023-01-24 Hitachi, Ltd. Observed-object recognition system and method

Also Published As

Publication number Publication date
EP1329850B1 (en) 2013-01-23
US7062071B2 (en) 2006-06-13
EP1329850A3 (en) 2008-07-02
JP2003196664A (ja) 2003-07-11
US20030152271A1 (en) 2003-08-14
EP1329850A2 (en) 2003-07-23

Similar Documents

Publication Publication Date Title
JP3885999B2 (ja) 物体検出装置
KR100886439B1 (ko) 물체 상태를 추정하는 추정 시스템, 추정 방법, 및 추정프로그램
JP3979894B2 (ja) 物体検出装置及び方法
CN110956069B (zh) 一种行人3d位置的检测方法及装置、车载终端
JP5227629B2 (ja) オブジェクト検出方法、オブジェクト検出装置、およびオブジェクト検出プログラム
CN108550162B (zh) 一种基于深度强化学习的物体检测方法
US20030185421A1 (en) Image processing apparatus and method
JP2006302284A (ja) 2d画像ドメインデータを3d高密度レンジマップに変換するためのシステムおよび方法
CN114365201A (zh) 结构注释
CN112001241B (zh) 基于通道注意力机制的微表情识别方法及系统
JP6901803B2 (ja) フォールトトレランス及びフラクチュエーションロバスト性のための複数のニューラルネットワークを使用して揺れるカメラにより生成されたビデオからジッタリングを取り除くための学習方法及び学習装置、そしてそれを利用したテスト方法及びテスト装置
JP2018022340A (ja) 画像処理装置、情報処理方法及びプログラム
JP5027030B2 (ja) オブジェクト検出方法、オブジェクト検出装置、およびオブジェクト検出プログラム
EP2372652A1 (en) Method for estimating a plane in a range image and range image camera
WO2024060978A1 (zh) 关键点检测模型训练及虚拟角色驱动的方法和装置
JP2005078528A (ja) 物体検出装置及び方法
WO2019230965A1 (ja) 物体らしさ推定装置、方法、およびプログラム
US20190180449A1 (en) Determining Optical Flow
JP7128578B2 (ja) 物体検出装置、物体検出プログラム、物体検出方法、及び学習装置
JP7309392B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP2022148383A (ja) 学習方法、学習装置、及び、プログラム
JP2001092978A (ja) 人物像の姿勢推定装置および人物像の姿勢推定プログラムを記録した記録媒体
JP2024056578A (ja) 画像処理装置、撮影装置、画像処理装置の制御方法及びプログラム
JP7341079B2 (ja) 距離画像推定装置及び操縦装置
JP6995960B2 (ja) 画像処理装置、画像処理方法及びプログラム

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060808

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060822

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061020

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20061115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20061116

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 3885999

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091201

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101201

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101201

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111201

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111201

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121201

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131201

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees