JP4429680B2 - 適応型人工視覚方法及びシステム - Google Patents

適応型人工視覚方法及びシステム Download PDF

Info

Publication number
JP4429680B2
JP4429680B2 JP2003350124A JP2003350124A JP4429680B2 JP 4429680 B2 JP4429680 B2 JP 4429680B2 JP 2003350124 A JP2003350124 A JP 2003350124A JP 2003350124 A JP2003350124 A JP 2003350124A JP 4429680 B2 JP4429680 B2 JP 4429680B2
Authority
JP
Japan
Prior art keywords
dynamic
patch
patches
artificial vision
static
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003350124A
Other languages
English (en)
Other versions
JP2004133940A (ja
Inventor
カプラン、フレデリック
Original Assignee
ソニー フランス エスアー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー フランス エスアー filed Critical ソニー フランス エスアー
Publication of JP2004133940A publication Critical patent/JP2004133940A/ja
Application granted granted Critical
Publication of JP4429680B2 publication Critical patent/JP4429680B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Description

本発明は、適応型人工視覚方法及び適応型人工視覚システムに関する。
多くの人工視覚システムにおいて、対象物は予め与えられているか又は存在しない。
幾つかのシステムでは、画像の特定の特徴(色、境界など)に基づいて画像のセグメンテーションが実行されているが、このようなシステムでは、対象物を概念的に把握しているわけではない。これらのシステムでは、そのシステム自体において関心があるように見える領域が抽出されているだけである。この方法は、「対象物」が提示されているバックグランドが既知であるか又は強調されている(例えば、白いフロア上の着色された対象物)場合にはうまく機能する。このようなケースでは、自動的に抽出されたセグメンテーション要素は、ある対象物の「輪郭」と見なすことができる。
また他のシステムでは、モデルとして使用されるように与えられた所定の対象物のセットにより、対象物の識別が実行される。モデルが十分に優れた品質である場合、このようなシステムの性能は、非常に優れたものになり得る(例えば非特許文献1を参照)。
エス ウルマン(S. Ullman)著、「ハイレベルビジョン:対象物認識と視覚認知」ハンドブック、1996年、米国マサチューセッツ州ボストン、MITプレス。
しかしながら、残念なことに、ある状況下では、上述した2つの条件のいずれも適合しない場合がある。これは特に、事前に知らされていない「対象物」の存在の発見を試みる、よくある未知の環境で動作するロボットの状況に該当する。この場合、対象物のセグメンテーション及び認識では、以下のように要約できるブートストラップ(bootstrapping)の問題がある。
・セグメンテーションアルゴリズムは、対象物のテンプレートが提示されないと、現実の条件下ではうまく動作しない。
・対象物のテンプレートは、優れたセグメンテーションアルゴリズムがないと構築できない。
このような状況は、技術的な行き詰まりを招くこととなる。
本発明は、前述の問題点を解消するとともに、事前に把握してない対象物が現れる未知の環境でも、人工視覚認識の効率的なブートストラップを可能にすることを目的にしている。
本発明の一実施形態によれば適応型人工視覚方法が提供される。この適応型人工視覚方法においては、
(a)同期された時間ステップの対(t−1、t;t、t+1;・・・)を、対に含まれる2つの同期時間ステップの時間差τが予め定めた遅延時間τとなるように、連続的に設定し、
(b)予め定めた遅延時間τで隔てられた同期時間ステップの各対(t−1、t;t、t+1;・・・)における2つの連続する画像(I−1、I;I、I+1;・・・)を比較し、2つの連続画像間での対象物の動きを特徴化を考慮して、2つの連続画像の各画素間の距離を算出することによってデルタ画像Δを取得し、
(c)デルタ画像Δから特徴部分を抽出することで、空白の初期レパートリーにおいてリアルタイムで順次構築されてきた第1のレパートリー(repertory)Rに予め記憶されていた動的パッチと比較されるべき、動的パッチ候補Pを求め、
(d)第1のレパートリーRの中から類似性が最も高い動的パッチDを選択するか、あるいは、類似性が高い動的パッチが無い場合には動的パッチ候補Pを第1のレパートリーRに加えることで、同期時間ステップの各対(t−1、t;t、t+1;・・・)における2つの連続画像(I−1、I;I、I+1;・・・)の比較から動的パッチDを取得して保存し、
(e)第1のレパートリーRdに保存された動的パッチDを時間的に統合(integrate)して、観測された再発生している動き又はイベントの特徴を示すアクティブな動的パッチの安定セットを検出し、保存する。
適応型人工視覚方法において、再発生している動きの特徴を示すアクティブな動的パッチの安定セットが検出された場合、動きの中心が識別され、動きの中心から予め定めた距離dにおける静的パターンの認識処理により静的パッチが取得され、第2のレパートリーRに格納される与えられた時間ステップでのアクティブな静的パッチSのセットを構成するように、静的パッチが分析される構成としてもよい。
また適応型人工視覚方法において、観測された既知の再発生している動きに繰り返し関与している対象物の特徴を示すアクティブな静的パッチの安定セットを検出し格納するために、第2のレパートリーRに格納された静的パッチSを空間的に統合(integrate)してもよい。
本発明の他の実施形態においては、静的パターン認識及び静的パッチ生成の処理が、再発生している動きの特徴を示すアクティブな動的パッチの安定セットが検出された後、開始される。
本発明のさらに他の実施形態においては、静的パターン認識及び静的パッチ生成の処理は、動的動き認識及び動的パッチ生成の処理と同時に開始され、再発生している動きの特徴を示すアクティブな動的パッチの安定セットが検出された場合、静的パターン認識処理は、識別された動きの中心を中心とする限定された画像領域に位置する静的パッチについてのみ継続される。
本発明のさらに他の実施形態においては、2つの連続画像(It−1、I)の各ピクセル間の距離の算出の際には、最も顕著な差だけを残すためにフィルタ関数fthが用いられ、デルタ画像Δ
Δ=fth(||(It−1、I)||)
により求められる。
フィルタ関数fthは閾値関数であってもよい。
本発明のさらに他の実施形態においては、デルタ画像Δから特徴を抽出するステップには、各色要素に対する分布のガウス色モデルの算出が含まれる。また、デルタ画像Δから特徴を抽出するステップに、色要素、形状及びテクスチャのいずれかに対する分布をモデル化するヒストグラムを用いてもよい。
本発明のさらに他の実施形態においては、静的パッチは、1つの特徴点(salient point)が検出された場合、同期時間ステップtにおいて提供された画像Iでの特徴点群(x、y)に基づき取得されるものであり、囲んでいるピクセルに対応する領域Rx、yが定義され、領域Rx、yから特徴を抽出することで静的パッチの候補Sx,yを決定する。
上述のような場合、領域Rx、yからの特徴抽出では、隣接ピクセルに対する色変化を測定し、領域Rx、yにおける色分布の色モデルを算出してもよい。
また、同期時間ステップ(t−1、t;T+t−1;T+t;・・・)の連続する時間ステップは、予め定めた遅延時間τのn倍に等しい時間Tで隔てられているものであり、nはゼロ又は正の整数であるよう構成されていてもよい。
しかしながら、同期時間ステップの連続する対(t−1、t;t、t+1;・・・)は連続的であり、連続する同期時間ステップの2対の間が断続的ではないことがより好ましい。
本発明の一実施形態による方法においては、上記構成に加えて、再発生している動きの特徴を示すアクティブな動的パッチの安定セット間での状態遷移を検出するステップと、識別された一連の動きを含む複雑なイベントを予想するための状態遷移グラフを構築するステップとをさらに備えるよう構成されていてもよい。
本発明のさらに他の実施形態によれば、適応型人工視覚システムが提供される。本適応型人工視覚システムは、
同期された時間ステップの対(t−1、t;t、t+1;・・・)を、対に含まれる2つの同期時間ステップの時間差τが予め定めた遅延時間τとなるように、連続的に設定するクロックと、
カメラにより提供された同期時間ステップ(t−1、t;t、t+1;・・・)での画像(I−1、I;I、I+1;・・・)を入力する入力手段と、
予め定めた遅延時間τで隔てられた同期時間ステップの各対(t−1、t;t、t+1;・・・)に入力された2つの連続する画像(I−1、I;I、I+1;・・・)を比較し、2つの連続画像の各画素間の距離を算出することによってデルタ画像Δを取得する第1の比較手段と、
対象物の特徴化された動きを記述するための、可視要素部分(elementary visual part)を示す動的パッチを格納する第1の記憶手段と、
デルタ画像Δから特徴部分を抽出し、動的パッチ候補Pを生成する特徴抽出手段と、
比較されるべき動的パッチ候補Pと、第1の記憶手段に予め格納されている動的パッチとを比較する第2の比較手段と、
第1の記憶手段の中から最も近い動的パッチDを選択するか、あるいは、充分に近い動的パッチが無い場合には動的パッチ候補Pを第1の記憶手段に格納することで、同期時間ステップの各対(t−1、t;t、t+1;・・・)における2つの連続画像(I−1、I;I、I+1;・・・)の比較する毎に動的パッチDを第1の記憶手段に格納する選択手段と、
予め定めた個数N1の同期時間ステップの対に対応する時間TF1において第1の記憶手段に格納されている動的パッチDの各々の頻度を算出する算出手段と、予め定めた閾値よりも高い頻度を示した動的パッチDから構成されるアクティブな動的パッチのセットを決定する閾値手段とを備える第1の時間的統合手段と、
予め定めた個数N2の同期時間ステップの対に対応する時間TF2において決定されたアクティブな動的パッチのセット各々の頻度を算出する算出手段と、予め定めた閾値よりも高い頻度を示したアクティブな動的パッチのセット各々を、再発生している動きに対応する動的パッチの安定セットとして決定する閾値手段とを備える第2の時間的統合手段とを備える。
また、上記システムは、アクティブな動的パッチの安定セットによって示されている再発生している動きの中心を識別する手段と、再発生している動きの中心から予め定めた距離dにある静的パッチを分析するために静的パターン解析を開始させる手段とをさらに備える構成としてもよい。
本発明によれば、事前に把握してない対象物が現れる未知の環境でも、人工視覚認識の効率的なブートストラップを可能にする適応型人工視覚方法及び/又はシステムが提供される。
本発明に係る適応型人工視覚方法及びシステムは、対象物及びイベントの認識をブートストラップ(bootstrapping)できるように考案されている。
本発明に係る適応型人工視覚方法及びシステムは、非常に大まかな認識性能から開始される。この適応型人工視覚システムは、動的又は静的イベントを示す可視要素部分である、パッチ(patch)を認識するように適応されているため、印象主義的(impressionist)であるとも言える。動的イベントは、通常、動きにより設定され、静的イベントは対象物により設定される。
パッチは、その視覚的な認識を最低限のレベルで表すために、本発明に係る適応型人工視覚方法及びシステムによって構築されるものである。この適応型人工視覚システムでの視覚体験が積み重ねられるにつれて、この適応型人工視覚システムは、安定セット(stable set)を見出すために、これらのパッチを統合するよう動作する。この統合処理は、時間的及び空間的な領域の両方で行われる。しばらくすると、適応型人工視覚システムは、再発生している動きの認識が可能になる。この段階に達した後、適応型人工視覚システムは、検出された動きに関与している対象物の構造の抽出を試みる。この手法により、適応型人工視覚システムは、これらの対象物の動きがない場合でも、その認識が可能になる。適応型人工視覚システムは、何も無い状態からスタートし、段階を経る毎に学習して、より複雑な表現も認識できるように構成される。
パッチの安定セットは、環境中に発生したり存在している事物(イベントや対象物)についての、より高いレベルの表現形式を構成している。更に、動的パッチのセットが構築される方法は、静的パッチのセットが処理される方法に直接影響する。実際、優れた動的認識がまず前提となり、これに基づいて静的認識が開始されることになる。
図1、2、7を参照して、動的認識処理を更に詳細に説明する。
クロック101は、t−1、tのような同期された時間ステップの連続する対を設定する。2つの同期時間ステップ、例えば同期時間ステップの対のt−1、tの間の時間差τは、予め定めた遅延時間τに等しい。
同期時間ステップの連続する対、例えばt−1、t;T+t−1、T+t;・・・は、予め定めた遅延時間τのn倍に等しい時間Tの期間で、分離される。ここで、nは正の整数であるか又はゼロに等しい。好ましくは、n=0であり、同期時間ステップの連続する対t−1、t;t、t+1;・・・は、同期時間ステップの2つの連続する対の間に任意の時間的な中断がない状態で連続している。
環境の画像は、ビデオカメラのようなカメラ103によって取得され、クロック101によって同期された入力回路102を介して、この適応型人工視覚システムへ入力される。すなわち、カメラ103が撮像した場面のデジタル画像It−1、I、It+1、・・・の入力は、設定した連続時間ステップt−1、t;t、t+1;・・・での入力回路102による第1のコンパレータ104への入力によって実施される。
以下では、同期時間ステップの連続する対t−1、t;t、t+1;・・・は、連続している(すなわちn=0、T=nτ=0)と想定している。
動的パッチは、予め定めた遅延時間τで隔てられた同期時間ステップt−1、t;t、t+1;・・・の各対で第1のコンパレータ104に入力した2つの連続画像It−1、I;I、It+1;・・・を比較して得られている。
デルタ画像△は、2つの連続する画像It−1、I;I、It+1、・・・間で生じた特徴イベント(対象物の動き)を鑑みて、2つの連続画像It−1、I;I、It+1、・・・の各画素間での距離の計算の結果得られる。
第1のコンパレータ104は、最も顕著な差分だけを保持するように、閾値関数fthのようなフィルタ関数を含んでいてもよい。このような場合、画像の対It−1、Iを考慮すると、△=fth(||I−It−1||)である。
メモリMは、対象物の動きを特徴化した可視要素部分を表す動的パッチDを保存するために用いられる。
デルタ画像△は、該デルタ画像△から特徴を抽出するとともに動的パッチ候補Pを生成するモジュール105へ送られる。デルタ画像△の特徴を抽出するモジュール105は、異なる周知の技術を使用することができる。例えば、色成分毎の分布に関するガウス色モデルは、モジュール105で計算することができる。また代わりに、モジュール105でデルタ画像△から特徴を抽出するステップには、色の成分、形状又はテクスチャの分布をモデル化するヒストグラムを用いる処理が含まれていてもよい。色モデルが使用される場合、動的パッチ候補Pは、デルタ画像△の色の分布を表している。
メモリMは、初期の空白レパートリーからリアルタイムで継続的に構築されるレパートリーRを含んでいる。
モジュール106では、動的パッチ候補PがメモリMのレパートリーRに既に格納されている動的パッチと比較される。
選択モジュール107は、メモリMで最も類似している動的パッチDの選択を可能とするか、又は、これが最初のステップである場合あるいは十分に類似する動的パッチが存在しない場合、選択モジュール107は、メモリM内のレパートリーRに動的パッチ候補Pの格納を可能とするように構成されている。したがって、動的パッチDは、同期時間ステップの各対における2つの連続する画像の比較のために、各比較のたびにメモリMに保存される。
図2において、参照番号20A、20Bは、ある色(例えば赤)のボールを持つ手の第1の動きを示す2つの連続した画像の一例を示す。参照番号20Cは、連続する画像20A、20Bに対応するデルタ画像△を示す。動的パッチD20は、デルタ画像20Cから構築されて、メモリMのレパートリーRに保存される。
同様に、参照番号22A、22Bは、同じ赤色のボールを持つ手の第2の動きを示す2つの連続した画像の一例を示す。参照番号22Cは、画像22A、22Bに対応するとともに、動的パッチD22の生成を可能にするデルタ画像Δを示している。
参照番号26A、26Bは、他の色のボール、例えば黄色のボールを持つ手の第3の動きを示す2つの連続画像の他の対の一例を示す。参照番号26Cは、画像26A、26Bに対応するとともに、動的パッチD26の生成を可能にするデルタ画像Δを示している。
動的パッチD20、D22、D26は、メモリMのレパートリーRに全て保存される。
図7のモジュール108は、第1の時間的統合手段を構成するとともに、同期時間ステップの対に関して予め定めた数N1に対応する時間TF1中に、レジスタからなるレパートリーRに保存されていた各動的パッチDの頻度を計算する計算手段108Aを備えている。閾値手段108Bは、その頻度が予め定めた閾値より高い動的パッチDを有するアクティブな動的パッチのセットを設定するように構成されている。
次に、時間ステップの最後のN1番目の対におけるレパートリーRの各動的パッチDの頻度が計算される。頻度がある閾値を超えている動的パッチDの全てが、アクティブと呼ばれる。任意の時間ステップにおいて、適応型人工視覚システムが検出したイベントを特徴付けたとされるアクティブな動的パッチのセットが提供される。
例えば、時間ステップtでは、図1の画像1から、3つの動的パッチがアクティブと見なされる(A=D20、D22、D26)。図1の画像1は、黄色のボールを持って動いている手を示すとともに、デルタ画像20C(赤のボールを持つ手の第1の動き)と、デルタ画像22C(赤のボールを持つ手の第2の動き)と、デルタ画像26C(黄のボールを持つ手の第3の動き)とにそれぞれ対応する動的パッチD20、D22、D26とから設定されると考えることができる。
図7に示した適応型人工視覚システムは、第2の時間的統合手段を構成するモジュール109を更に備えている。モジュール109は、同期時間ステップの対に関して予め定めた数N2に対応する時間TF2中に、動的パッチD20、D22、D26のように設定したアクティブな動的パッチの各セットAの頻度を計算する計算手段109Aを備えている。閾値手段109Bは、その頻度が予め定めた閾値より高い、アクティブな動的パッチのセットAの各々について、再発生している動きに対応する動的パッチの安定セットを設定するよう構成されている。
以上のように、アクティブな各動的パッチの頻度が計算される。あるアクティブな動的パッチのセットが非常に頻繁に再発する場合、それは安定していると見なされる。これは、この環境内で定期的に生じることに対応すると想定された場合である。すなわち、単なるパッチより高いレベルとなるイベントが生成される。このような動的イベントは、例えば図1での「黄色のボールを示す」イベントとして設定されるように生成されて、再発生している動きに関与するパッチのセットにより設定される。図1の例では、イベントが動的パッチD20、D22、D26のセットで設定され、これらのデータがメモリMに保存される。
このような動的イベントが構築されると、特別な検出器が直ちに形成され、アクティブな動的パッチのセットの1つが、このイベントに対応するたびに起動がされる。図2は、このような検出の一例を示す図である。ユーザは、黄色のボールをカメラに示している。適応型人工視覚システムは、このイベントをアクティブな動的パッチのセットA=(D20、D22、D26)で特徴付ける。適応型人工視覚システムは、既に過去に数回現れた動的イベントとして、このセットを認識する。どのように認識が行われるかについてより明確に示すために、図2に初期パッチの生成に使用された2つの画像を、検出に関与するパッチ毎に示している。動的パッチD20、D22は、赤色のボールがカメラに示された時に生成されていた。動的パッチD26は、この時に黄色のボールを伴う類似のイベントに対するものであった。最初の2つは、丸い形状の対象物を示す時に行われた手の特別な動きの特徴であり、最後のものは、関与していた黄色に関して更に特定したものである。パッチの記述は、適応型人工視覚システムが発生しているものをより簡潔に記すために生成する、非常に単純な「言語」と見なすことができる。新しいイベントが感知されるたびに、この適応型人工視覚システムは、該イベントを説明するために、レパートリーに存在するパッチをできるだけ利用する。
したがって、背景の部分にすぎない特徴に対して、関心のある対象物を移動できると想定される場合には、動的認識処理で得た結果を用いて、静的認識処理をブートストラップ又は再フォーカスすることができる。
動きからなる動的イベントに反復性があると高い信頼性で検出した場合、適応型人工視覚システムは、図7のモジュール110で識別した動きの中心に直ちにフォーカスをあて、モジュール112で実現する静的パターン認識がトリガ手段111によってトリガされる。このため、再発生する動きの中心から予め定めた距離dに位置する静的パッチが分析されて、ある時間ステップにおけるアクティブな動的パッチのセットが構成される。
図3では、手の動きに対応する既知のイベントが検出された画像(画像3)を示す図である。その場合、4つの静的パッチが、その部分と見なされる(S16、S29、S34、S40)。
適応型人工視覚システムは、動的ケースと全く同じようにアクティブな各静的パッチのセットの頻度を計算してもよい。あるセットが既知の動きに規則的に関与している場合、それらは実際に存在する対象物に対応していると想定される。そこで静的な対象物が生成される。この静的対象物は、規則的に感知される静的パッチのセットによって設定される。
第1の静的対象物が構築されると直ちに、適応型人工視覚システムは、各時間ステップにおいて該第1の静的対象物が存在するかどうかを調べる。適応型人工視覚システムは、画像分析中に検出したパッチを検索して、対象物の定義に対応している構成を探す。対象物は、再発生している動きの部分だったために、最初に生成されていたが、ここでは動いていない場合でも検出することができる。図1の例では、適応型人工視覚システムは、既知の動き(動きを示す手)及び既知の対象物(ボール)の両方を検出する。
図4は、図3の画像30を含めた画像群から、適応型人工視覚システムが構築できる静的パッチのセットに対応する対象物の例を示している。対象物11〜14は、この具体例では、各々手、首、ボール、犬型ロボットを表している。
次に、静的認識システムの具体的な例について説明する。
静的パッチは、視覚感知Iにおける特徴点に基づいている。例えば、人の顔での特徴点は目と口である。これらの特徴点は、例えば隣接画素との比較によって得られる色変化を測定することで判定することができる。これは、一般的に、エッジ検出のために用いる方法である。
特徴点(x、y)を検出すると、周囲の画素に対応する領域Rx、yが、下記のように定められる。
x、y=regionaround(x、y)
動的ケースのように異なる特徴が抽出できるが、一実施形態によれば、この領域の画素の色モデルが計算される。これが静的パス候補Sx、yを構成する。
x、y=colordistribution(Rx、y
このパッチが、メモリMに存在するパッチと比較される。メモリMで最も類似するパッチSが選択される。十分に類似するパッチが存在しない場合、Sx、yがメモリMに加えられる。
=closetpatch(Sx、y、M
各時間ステップtで、適応型人工視覚システムは、画像Iを分析して、それを記す静的パッチSのセットを生成する。静的パッチSの数が大きければ大きいほど、認識性能が高まる。しかしながら、このような処理が全ての時間ステップで進むにつれて、過度に時間を費やす分析とならないように注意しなければならない。したがって、実施する際には、可能性のある静的パッチSの数を制限することがより好ましい。これは、次に示すような様々な方式により実現できる。
1.低い分解能で分析を行う;
2.時間ステップ毎に画像のある部分だけに集中するフォーカス設定機構を導入する;
3.各特徴点間の最短距離を指定する;
4.画像を事前にフィルタリングして、関心のある事物(飽和色又は肌のような色)を含んでいると思われる部分を抽出する;
5.特徴点を固定した数に限定して、最も特徴的な点だけ取り出す。
動的パッチの安定セットにより設定された既に認識済みのイベントEの一例を、図5の画像50に示す。このイベントEの例は、2つの動的パッチD、Dから設定した手の動きから成り立っている。
図5の画像51、52、53は、動的パッチの他の安定セット、すなわちD−D−D、D−D−D、D−D−D11から各々設定した他のイベントE、E、Eを示している。
画像51、52、53は、手に保持したボールから構成された、対象物を持つ手の更なる動きを示している。画像51と画像53は、異なる色のボールを持つ手の非常に似た動きを示している。画像51と画像52は、同じ色のボールを持つ手の少し異なる動きを示している。
イベントE、E、Eの形状は全て、イベントEを設定する動的パッチD、Dを含んでいるが、第3の動的パッチの追加だけによるイベントEの設定とは異なっている(各々D、D、D11)。したがって、動的パッチの安定セットによって設定した、それらの構造から始まる、異なるイベントE、E、E、Eの間での類似性が識別できる。すなわちイベントE、E、Eは全て、他の自律的なイベントEに構造的に関連しているので、類似イベントの同じファミリーに属すると認識できる。
図6は、イベント空間を構成する他の方法を示している。
動的パッチの安定セットによって設定したイベントEが時間ステップtで認識される場合、本発明を適用した適応型人工視覚システムでは、動的パッチの安定セットによって設定したイベントEが認識された更なる時間ステップtで生成された新たな状況が観察される。
時間ステップtと時間ステップtとの間の時間差が、予め定めた時間間隔△(△は同期時間ステップt−1、t;t、t+1;・・・との間の予め定めた遅延時間τよりはるかに長く、かつ、動的パッチの安定セットの統合時間よりも長い)より短い場合、イベントEとイベントEとの間での状態遷移が識別され、状態遷移アーク(transition arc)が生成される。状態遷移グラフは、イベントE、E、・・・の間での状態遷移アークにより順次構成され、動的パッチの安定セットによって識別した動きのタイプを設定していく。
なお、ある長さの時間中に同じ動きが継続し、状態遷移アークが異なる時間ステップt、tで観察された類似イベントEの間に存在することがある。もちろん、状態遷移アークは、連続する時間ステップt、tで観察された異なるイベントEとイベントEの間でも構成できる。
異なるイベントが複数回観察されたある長さの時間の後、観察した状態遷移の頻度を用いて、同じ状態の検出時に各々識別した状態遷移が生じる確率を予測できる。
図6は、3つの異なるイベントE、E、Eをそれぞれ示す3つの画像61、62、63を示す。
図6の例で、画像61は、最上部から対象物を保持して前後に動かしている手を示していて、この動きは動的パッチD、Dの安定セットによって設定されたイベントEを構成している。
画像62は、底部から対象物を保持して振り回している手を示していて、この動きは動的パッチD、Dの安定セットによって設定したイベントEを構成している。
画像63は、最上部から対象物を保持して回転させている手を示していて、この動きは動的パッチD、D、Dの安定セットによって設定したイベントEを構成している。
図6には、状態遷移アークが、各々新しい変化の確率が既に観察済みの状態遷移とその頻度とから各々算出された新しい状態遷移の確率と共に図示してある。
この具体例では、イベントEがそれ自体に続く確率は70%であるが、イベントEがイベントEに続く確率は30%であり、イベントEがイベントEに続く確率は10%である。イベントEがそれ自体に続く確率は85%であるが、イベントEがイベントEに続く確率は10%であり、イベントEがイベントEに続く確率は5%である。最後に、イベントEがそれ自体に続く確率は65%であるが、イベントEがイベントEに続く確率は30%であり、イベントEがイベントEに続く確率は5%である。
本発明に係る適応型人工視覚システムでは、パッチ又はパッチのセットがメモリM、Mに保存されるため、膨大な量のデータを保存する必要はない。さらに、必要に応じて、保存するデータの量を減少するために、パッチの安定セットに用いられない一部のプロトタイプパッチDを一定の間隔で消去してもよい。
本発明に係る適応型人工視覚システムは、過度に大きな処理パワーを必要とせず、埋込型のシステムにおいて実行できることが確認されている。例えば、適応型人工視覚システムは、492×362画素のカラーCCDカメラを具備するロボットに埋め込みが可能であり、他のコンピュータに無線LANを経由して接続することができる。このようなコンピュータとしては、例えば、リナックスで動作するソニー株式会社のバイオノート(商標)PCGCIXNがある。
ロボットは、家屋のような未知に環境において進化している。このような条件では、従来のセグメンテーション方法は不十分な結果しか提供しないのに対し、本発明によれば大きな改良をもたらすことができる。特に本発明に係る適応型人工視覚方法システムがロボットが対象物の名前の学習を試みるアプリケーションで使用される場合、特定の対象物に対する注意を共有させるための優れた機構は、この適応型人工視覚システムの重要な構成要素となる。本発明に係る適応型人工視覚方法システムを具備するロボットでは、印象主義的な視覚モジュールが、ロボットの頭部を制御する注意マネージャ(attention manager)と結合している。したがって、ロボットは移動する事物や自身が知っている事物とに向けて、その頭部を旋回させることができる。ブートストラップ処理が進むにつれて、ロボットがより鋭い注意深さを示すことで、ロボットの認識処理の進行状態が示される。
本発明に係る適応型人工視覚方法システムによって観察され検出される、再発生しているイベントの一例を描く画像である。 図1に示したイベントの認識に関与する3つの異なる動的パッチの構築処理を描く画像のセットを示す。 動的パッチのセットによって既に認識されていたイベントの検出中にアクティブな静的パッチのセットの構造を描く一例として与えられた画像である。 イベントと対象物の認識の処理中に構築された静的パッチのセットに対応する対象物の画像の例を示す。 パッチの2つの安定セットによって識別された基準となる動きを描く画像と、基準となる動きにリンクする3つのパッチのセットによって識別された更なる動きを描く3つの更なる画像とを示す。 ある動きから他の動きへの状態遷移を生じるとともに、状態遷移グラフの構築を可能にする異なる動きを描く画像を示す。 本発明に係る適応型人工視覚システムのアーキテクチュアの一例を示す略図である。
符号の説明
101 クロック、102 入力回路、103 カメラ、104 第1のコンパレータ、105 モジュール、106 モジュール、107 選択モジュール、108 モジュール、109 モジュール

Claims (16)

  1. 適応型人工視覚方法において、
    (a)同期された時間ステップの対(t−1、t;t、t+1;・・・)を、該対に含まれる2つの同期時間ステップの時間差τが予め定めた遅延時間τとなるように、連続的に設定し、
    (b)前記予め定めた遅延時間τで隔てられた同期時間ステップの各対(t−1、t;t、t+1;・・・)における2つの連続する画像(I−1、I;I、I+1;・・・)を比較し、該2つの連続画像の各画素間の距離を算出することによってデルタ画像Δを取得し、
    (c)前記2つの連続画像(I −1 、I;I、I +1 ;・・・)間での対象物の動きを特徴化して、前記デルタ画像Δから特徴部分を抽出することで、空白の初期レパートリーに、対象物の動きを特徴化した可視要素部分を表す動的パッチD を順次記憶して第1のレパートリーR を構築しておき、当該第1のレパートリーR の構築後に新たな2つの連続画像(I −1 、I;I、I +1 ;・・・)の比較により取得された前記デルタ画像Δ から前記特徴部分を抽出することで、前記第1のレパートリーR既に記憶されていた前記動的パッチと比較されるべき動的パッチ候補Pを求め、
    (d)前記第1のレパートリーRの中から類似性が最も高い動的パッチDを選択するか、あるいは、類似性が高い動的パッチが無い場合には前記動的パッチ候補Pを前記第1のレパートリーRに加えることで、前記新たな2つの連続画像(I−1、I;I、I+1;・・・)の前記比較に対応する動的パッチDを取得して保存し、
    (e)予め定めた個数N1の前記同期時間ステップの対に対応する時間T F1 において前記第1のレパートリーR に保存された動的パッチD の各々の頻度を算出し、予め定めた閾値よりも高い頻度を示した動的パッチD から構成されるアクティブな動的パッチのセットを決定し、
    (f)予め定めた個数N2の前記同期時間ステップの対に対応する時間T F2 において前記決定されたアクティブな動的パッチのセット各々の頻度を算出し、予め定めた閾値よりも高い頻度を示すアクティブな動的パッチのセット各々を、前記新たな2つの連続画像(I −1 、I;I、I +1 ;・・・)において再発生している動きまたはイベントの特徴を示すアクティブな動的パッチの安定セットA として検出し保存する
    適応型人工視覚方法。
  2. 前記再発生している動きの特徴を示すアクティブな動的パッチの安定セット が検出された場合、該動きの中心が識別され、該動きの中心から予め定めた距離dにおける静的パターンの認識処理により静的パッチが取得され、第2のレパートリーRに格納される与えられた時間ステップでのアクティブな静的パッチSのセットを構成するように、該静的パッチが分析されることを特徴とする請求項1に記載の適応型人工視覚方法。
  3. 観測された既知の再発生している動きに繰り返し関与している対象物の特徴を示すアクティブな静的パッチの安定セットを検出し格納するために、前記第2のレパートリーRに格納された静的パッチSが空間的に統合されることを特徴とする請求項2に記載の適応型人工視覚方法。
  4. 前記静的パターン認識及び前記静的パッチ生成の処理は、前記再発生している動きの特徴を示すアクティブな動的パッチの安定セット が検出された後、開始されることを特徴とする請求項2又は3に記載の適応型人工視覚方法。
  5. 前記静的パターン認識及び前記静的パッチ生成の処理は、前記動的動き認識及び動的パッチ生成の処理と共に開始され、前記再発生している動きの特徴を示すアクティブな動的パッチの安定セット が検出された場合、前記静的パターン認識処理は、前記識別された動きの中心を中心とする限定された画像領域に位置する静的パッチについてのみ継続されることを特徴とする請求項2又は3に記載の適応型人工視覚方法。
  6. 前記2つの連続画像(It−1、I)の各ピクセル間の距離の算出の際には、最も顕著な差だけを残すためにフィルタ関数fthが用いられ、前記デルタ画像Δ
    Δ=fth(||(It−1、I)||)
    により求められることを特徴とする請求項1乃至5のいずれか1項に記載の適応型人工視覚方法。
  7. 前記フィルタ関数fthは閾値関数であることを特徴とする請求項6に記載の適応型人工視覚方法。
  8. 前記デルタ画像Δから特徴を抽出するステップには、各色要素に対する分布のガウス色モデルの算出が含まれることを特徴とする請求項1乃至7のいずれか1項に記載の適応型人工視覚方法。
  9. 前記デルタ画像Δから特徴を抽出するステップには、色要素、形状及びテクスチャのいずれかに対する分布をモデル化するヒストグラムを用いることを特徴とする請求項1乃至7のいずれか1項に記載の適応型人工視覚方法。
  10. 前記静的パッチは、1つの特徴点が検出された場合、同期時間ステップtにおいて提供された画像Iでの特徴点群(x、y)に基づき取得されるものであり、囲んでいるピクセルに対応する領域Rx、yが定義され、該領域Rx、yから特徴を抽出することで静的パッチの候補Sx、yを決定することを特徴とする請求項2乃至5のいずれか1項に記載の適応型人工視覚方法。
  11. 前記領域Rx、yからの特徴抽出では、隣接ピクセルに対する色変化を測定し、該領域Rx、yにおける色分布の色モデルを算出することを特徴とする請求項10に記載の適応型人工視覚方法。
  12. 前記同期時間ステップ(t−1、t;T+t−1;T+t;・・・)の連続する時間ステップは、前記予め定めた遅延時間τのn倍に等しい時間Tで隔てられているものであり、該nはゼロ又は正の整数であることを特徴とする請求項1乃至11のいずれか1項に記載の適応型人工視覚方法。
  13. 前記同期時間ステップの連続する対(t−1、t;t、t+1;・・・)は連続的であり、連続する同期時間ステップの2対の間が断続的ではないことを特徴とする請求項12に記載の適応型人工視覚方法。
  14. 再発生している動きの特徴を示すアクティブな動的パッチの安定セット 間での状態遷移を検出するステップと、
    識別された一連の動きを含む複雑なイベントを予想するための状態遷移グラフを構築するステップとをさらに有する請求項1乃至13のいずれか1項に記載の適応型人工視覚方法。
  15. 適応型人工視覚システムにおいて、
    同期された時間ステップの対(t−1、t;t、t+1;・・・)を、該対に含まれる2つの同期時間ステップの時間差τが予め定めた遅延時間τとなるように、連続的に設定するクロックと、
    カメラにより提供された前記同期時間ステップ(t−1、t;t、t+1;・・・)での画像(I−1、I;I、I+1;・・・)を入力する入力手段と、
    前記予め定めた遅延時間τで隔てられた同期時間ステップの各対(t−1、t;t、t+1;・・・)において入力された2つの連続する画像(I−1、I;I、I+1;・・・)を比較し、該2つの連続画像の各画素間の距離を算出することによってデルタ画像Δを取得する第1の比較手段と、
    前記2つの連続画像(I −1 、I;I、I +1 ;・・・)間での対象物の動きを特徴化して、前記デルタ画像Δ から特徴部分を抽出することで生成された、対象物の動きを特徴化した可視要素部分を示す動的パッチを格納する第1の記憶手段と、
    前記動的パッチの格納後に入力された新たな2つの連続画像(I −1 、I;I、I +1 ;・・・)の比較により取得された前記デルタ画像Δから特徴部分を抽出し、動的パッチ候補Pを生成する特徴抽出手段と、
    前記動的パッチ候補Pと、前記第1の記憶手段に既に格納されている動的パッチとを比較する第2の比較手段と、
    前記第1の記憶手段の中から類似性が最も高い動的パッチDを選択するか、あるいは、類似性が高い動的パッチが無い場合には前記動的パッチ候補Pを前記第1の記憶手段に格納することで、前記新たな2つの連続画像(I −1 、I;I、I +1 ;・・・)の比較に対応する動的パッチDiを前記第1の記憶手段に格納する選択手段と、
    予め定めた個数N1の前記同期時間ステップの対に対応する時間TF1において前記第1の記憶手段に格納されている動的パッチDの各々の頻度を算出する第1の算出手段と、予め定めた閾値よりも高い頻度を示した動的パッチDから構成されるアクティブな動的パッチのセットを決定する第1の閾値手段とを有する第1の時間的統合手段と、
    予め定めた個数N2の前記同期時間ステップの対に対応する時間TF2において前記決定されたアクティブな動的パッチのセット各々の頻度を算出する第2の算出手段と、予め定めた閾値よりも高い頻度を示したアクティブな動的パッチのセット各々を、前記新たな2つの連続画像(I −1 、I;I、I +1 ;・・・)において再発生している動きまたはイベントの特徴を示すアクティブな動的パッチの安定セット として決定する第2の閾値手段とを有する第2の時間的統合手段と
    を備える適応型人工視覚システム。
  16. 前記アクティブな動的パッチの安定セット によって示されている再発生している動きの中心を識別する手段と、
    前記再発生している動きの中心から予め定めた距離dにある静的パッチを分析するために静的パターン解析を開始させる手段とをさらに備える請求項15に記載の適応型人工視覚システム。
JP2003350124A 2002-10-08 2003-10-08 適応型人工視覚方法及びシステム Expired - Fee Related JP4429680B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
EP02292478A EP1418530B1 (en) 2002-10-08 2002-10-08 Adaptive artificial vision method and system

Publications (2)

Publication Number Publication Date
JP2004133940A JP2004133940A (ja) 2004-04-30
JP4429680B2 true JP4429680B2 (ja) 2010-03-10

Family

ID=32050107

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003350124A Expired - Fee Related JP4429680B2 (ja) 2002-10-08 2003-10-08 適応型人工視覚方法及びシステム

Country Status (3)

Country Link
US (1) US7477759B2 (ja)
EP (1) EP1418530B1 (ja)
JP (1) JP4429680B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8265392B2 (en) * 2006-02-07 2012-09-11 Qualcomm Incorporated Inter-mode region-of-interest video object segmentation
US8265349B2 (en) * 2006-02-07 2012-09-11 Qualcomm Incorporated Intra-mode region-of-interest video object segmentation
US8150155B2 (en) 2006-02-07 2012-04-03 Qualcomm Incorporated Multi-mode region-of-interest video object segmentation
JP2011199716A (ja) * 2010-03-23 2011-10-06 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
US9117100B2 (en) * 2013-09-11 2015-08-25 Qualcomm Incorporated Dynamic learning for object tracking
US10824870B2 (en) * 2017-06-29 2020-11-03 Accenture Global Solutions Limited Natural language eminence based robotic agent control

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6077271A (ja) * 1983-10-03 1985-05-01 Fuji Xerox Co Ltd 画像フアイル装置
US5150426A (en) * 1990-11-20 1992-09-22 Hughes Aircraft Company Moving target detection method using two-frame subtraction and a two quadrant multiplier
US5604821A (en) * 1992-02-28 1997-02-18 The University Of South Florida Structure and method for dynamic scene analysis
JP3725784B2 (ja) * 1998-08-07 2005-12-14 コリア インスティテュート オブ サイエンス アンド テクノロジー 色フレームイメージシーケンスで移動体を検出する装置及び方法
US6681031B2 (en) * 1998-08-10 2004-01-20 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
EP1239405A3 (en) * 2001-03-09 2004-05-19 Kabushiki Kaisha Toshiba Face image recognition apparatus
US7239719B2 (en) * 2003-08-22 2007-07-03 Bbn Technologies Corp. Automatic target detection and motion analysis from image data

Also Published As

Publication number Publication date
US20040071347A1 (en) 2004-04-15
JP2004133940A (ja) 2004-04-30
EP1418530A1 (en) 2004-05-12
EP1418530B1 (en) 2012-12-05
US7477759B2 (en) 2009-01-13

Similar Documents

Publication Publication Date Title
US11270108B2 (en) Object tracking method and apparatus
US6545706B1 (en) System, method and article of manufacture for tracking a head of a camera-generated image of a person
US9846810B2 (en) Method, system and apparatus for tracking objects of a scene
JP4766495B2 (ja) 対象物追跡装置および対象物追跡方法
JP2008009914A (ja) 画像処理装置、画像処理方法、プログラム、記憶媒体
JP2007316882A (ja) 遠隔操作装置及び方法
JP4788525B2 (ja) 物体識別パラメータ学習システム、物体識別パラメータ学習方法および物体識別パラメータ学習用プログラム
JP2011134114A (ja) パターン認識方法およびパターン認識装置
JP4682820B2 (ja) オブジェクト追跡装置及びオブジェクト追跡方法、並びにプログラム
KR101279561B1 (ko) 깊이정보 기반 고속 고정밀 얼굴 검출 및 추적 방법
US20170263005A1 (en) Method for moving object detection by a kalman filter-based approach
JP2011078009A (ja) 撮像装置および撮像装置用プログラム
KR20180020123A (ko) 비동기 신호 처리 방법
JP4429680B2 (ja) 適応型人工視覚方法及びシステム
JP2005115544A (ja) 動作識別装置、及び対象物の姿勢識別装置
JP6373446B2 (ja) ビデオフレームを選択するプログラム、システム、装置、及び方法
WO2019207875A1 (ja) 情報処理装置、情報処理方法及びプログラム
US10140503B2 (en) Subject tracking apparatus, control method, image processing apparatus, and image pickup apparatus
CN114510142B (zh) 基于二维图像的手势识别方法及其系统和电子设备
Xiao et al. 3D-assisted coarse-to-fine extreme-pose facial landmark detection
RU2276407C2 (ru) Способ и устройство для сегментации фона на основе локализации движения
JP4449483B2 (ja) 画像解析装置、および画像解析方法、並びにコンピュータ・プログラム
JP7253872B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP6265370B2 (ja) 対象物追跡方法及び対象物追跡システム
JP2005071125A (ja) 被写体検出装置、被写体検出方法、被写体データ選定プログラムおよび被写体位置検出プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060913

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20080410

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20080411

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090407

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20090701

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20090708

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20090806

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20090825

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091007

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091201

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091216

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121225

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131225

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees