JP4238278B2 - ジェスチャ・インターフェースの適応型追跡 - Google Patents

ジェスチャ・インターフェースの適応型追跡 Download PDF

Info

Publication number
JP4238278B2
JP4238278B2 JP2007540407A JP2007540407A JP4238278B2 JP 4238278 B2 JP4238278 B2 JP 4238278B2 JP 2007540407 A JP2007540407 A JP 2007540407A JP 2007540407 A JP2007540407 A JP 2007540407A JP 4238278 B2 JP4238278 B2 JP 4238278B2
Authority
JP
Japan
Prior art keywords
image
sign
difference
time
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007540407A
Other languages
English (en)
Other versions
JP2008519376A5 (ja
JP2008519376A (ja
Inventor
イワノフ ユーリ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Publication of JP2008519376A publication Critical patent/JP2008519376A/ja
Publication of JP2008519376A5 publication Critical patent/JP2008519376A5/ja
Application granted granted Critical
Publication of JP4238278B2 publication Critical patent/JP4238278B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Description

発明者: ユーリ イワノフ
関連出願への参照
本出願は、2004年11月2日に出願された米国仮特許出願第60/624,634号、「ジェスチャ・インターフェースの適応型追跡(Adaptive Tracking For Gesture Interfaces)」および2005年9月12日に出願された米国実用特許出願第11/225,415号、「ジェスチャ・インターフェースの適応型追跡(Adaptive Tracking For Gesture Interfaces)」に基づいて、米国法典(USC)の第35巻第119(e)による優先権を主張するものであり、これらの内容のすべては参照により本明細書中に含まれるものとする。
本発明は、一般的には、ジェスチャ・インターフェースの分野に関し、より詳細には、視野内の移動体を特定し、追跡するアルゴリズムに関する。
ジェスチャ・インターフェースは、身体の動きを通して、ユーザがコンピュータシステムに指令を伝えることができる手段である。これはコンピュータが前景物体をその動きによって特定して、背景から前景物体を区別できることを必要とする。したがって、ジェスチャ認識アルゴリズムは、このような目的で開発されている。
従来のジェスチャ認識アルゴリズムは、様々な制限を受けている。追跡に対する多くの既存のアプローチは、移動領域を特定する中間ステップとして、何らかの背景除去方式(background subtraction)の形を含む。この背景除去方式を実行するため、長時間に亘って背景のモデルを作成する必要がある。背景モデルを維持する必要性により、カメラの動作が大きいモバイル用途にこのような方法を使用することは制限を受けることになる。追跡に対する既存のアプローチの第2の制限は、特に移動物体が固有の軌道を戻る際に、移動物体に属するピクセルを特定するときに発生する誤差である。この制限については、特定のアルゴリズムであるウォールフラワーアルゴリズム(Wallflower Algorithm)を参照して以下に述べる。ウォールフラワーアルゴリズムは、コンピュータビジョンに関する第7回国際会議(Seventh International Conference on Computer Vision)の第255−261ページ(1999年)に記載された、ケンタロウ・トヤマ(Kentaro Toyama),ジョン・クルム(John Krumm),バリー・ブルミット(Barry Brumitt)およびブライアン・メイヤーズ(Brian Meyers)著による「ウォールフラワー:背景維持の原理と実践(Wallflower: Principles and practice of background maintenance)」に詳述されており、その記載内容のすべては、参照により本明細書に含まれるものとする。
ウォールフラワーアルゴリズムは3つの部分からなる。すなわち、長時間に亘って背景のモデルを作成するピクセルベース(pixel-based)と、移動物体に属する色の領域を検出して物体のセグメント化を行う領域ベース(region-based)と、追跡システムのスーパーバイザーとして機能して、いつ追跡条件が再初期化またはコンテクストの切替えを必要とするかを決定するフレームベース(frame-based)である。移動物体に属するものとしてピクセルを誤認する問題は、ウォールフラワーアルゴリズムの領域ベース部分に起因する。図1は、ウォールフラワーアルゴリズムが、移動物体に属しているものとしてどのようにピクセルを特定し、どのようにして誤認が生じるかを説明するものである。最初のステップは、三連のビデオフレームのうちの2つの連続する組どうしの相違を検出することである。便宜上、ビデオフレームの時間をt−1,t,t+1として参照する。ボックス101および102はビデオカメラの視野を表しており、3つの時間に亘る長方形物体の動きを示している。R1は時間t−1における移動物体の位置を示し、R2は時間tにおける移動物体の位置を示し、R3は時間t+1における移動物体の位置を示す。したがって、ボックス101は、時間tにおけるビデオフレームを重ねた時間t−1におけるビデオフレームの合成画像である。ボックス102は、時間tにおけるビデオフレームを重ねた時間t+1におけるビデオフレームの合成画像である。マスク103は、時間t−1におけるビデオフレームと時間tにおけるビデオフレームとの差異を示す。同様にマスク104は、時間tにおけるビデオフレームと時間t+1におけるビデオフレームとの差異を示す。マスク103と104において、黒色の領域は2つの時間でピクセルの色彩が変化しなかったことを示しており、白色の領域はピクセルの色彩が変化したことを示している。ボックス105は、マスク103とマスク104との交差部分を示す。ウォールフラワーアルゴリズムによると、ボックス105における白色領域106と107は、時間tでピクセルが背景ではなく移動物体に属することを示している。しかしながら、この状況において、三連の連続するフレームが、白色領域107におけるピクセルのように、交互に被覆および露出されるピクセルのグループを含む場合、実際には背景の一部であったとしても、そのグループは移動物体に属していると誤認される。ウォールフラワーアルゴリズムは、領域107におけるピクセルが背景に属していると特定すべきところ、時間tでは移動物体に属していると誤認する。
上述したことより、たとえカメラの動作が大きい状況であっても、移動物体に属するピクセルと任意の背景に属するピクセルとを正確に区別するシステムおよび方法に対する必要性が存在する。
本発明は、短期背景モデル(short-term background model)および符号差演算(signed difference operation)を用いて、一連の画像における移動物体に属するピクセルを特定するジェスチャ認識システムおよび方法を含む。
一例として、均一色の物体が黒色背景の前で動く場合を想定する。本発明の一実施形態によると、第1画像と第2の後の画像との間では、物体が動くことでその領域で背景が覆われるので、暗色から明色へと変化するピクセルには正符号が割り当てられる。一方、物体の動きによってその領域が露出されると、明色から暗色へと変化するピクセルには負符号が割り当てられる。換言すると、符号差演算は、第1画像と第2画像を比較するために用いられる。同様に、符号差演算は、第2画像と第3の後の画像を比較するのに用いられる。2つの符号差画像の間で符号が正から負へと変化したピクセルは、背景ではなく、第2画像における移動物体に属する。
別の例では、任意の有色背景が、フレームを差別化した結果の符号に影響を及ぼすこともある。結果の符合は、単純背景モデルと比較して正規化されなければならない。最初に、第1の時間に対して短期背景モデルが生成される。短期背景モデルは、少なくとも2つのフレームで一致するかまたは不変のピクセルの最新値を含む。2つのフレーム間での符号差が決定される。最新画像および短期背景モデルから符号補正マスクを決定する。符号正規差マスクが決定される。第2の後の時間に対して、短期背景モデルが生成される。第2の時間に対する符号差が決定される。第2の時間における画像および第2の時間に対する短期背景モデルから、符号補正マスクが決定される。第2の時間に対して、符号正規差マスクが決定される。そして、第1の符号正規差マスクにおいて正符号を有するピクセルと、第2の符号正規差マスクにおいて負符号を有するピクセルは、たとえその移動物体が固有の軌道を戻る場合であっても、背景ではなく、第2画像における移動物体に属すると識別される。
本明細書に記載された特徴および利点は、すべてを包括するものではなく、特に、図面、明細書、特許請求の範囲を踏まえて、多くの他の特徴および利点が当業者に明らかになる。さらに明細書中で使用する用語は、主に読み易くしたり、理解し易くしたりするために選択されたものであり、本発明の主題を制限したり、限定したりする目的で選択したものではないことに留意すべきである。
本発明の他の利点および特徴は、添付の図面と共に、後述する発明の詳細な説明および添付の特許請求の範囲を参照することで、より簡単に明確になる。
図面において、同様または類似の参照符号が使用される場合には、同様または類似の機能を示しうることに留意されたい。図面は、単なる例示の目的で本発明の実施形態を示すに過ぎない。当業者であれば、以下の説明により、明細書に記載した本発明の原理を逸脱しない限り、明細書に例示した構成と方法に対する代替的な実施形態を採用できることが容易に理解できる。
図面および以下の説明は、本発明の特定の実施形態を例示するに過ぎない。以下の説明から、特許請求の範囲に記載された発明の原則から逸脱することなく採用できる実施可能な変形例として、ここに開示された構成および方法の別の実施形態が容易に理解できる。
本発明の幾つかの実施形態の詳細について参照する。これらの例は、添付の図面に記載されている。
本発明は、移動物体に属するピクセルを特定する方法200を含む。この方法は、時間t201で、時間tに対する不一致マスクを作成するステップ202から開始する。一実施形態では、前回の時間(例えば、t−1)から時間tまでのピクセルの値における変化の絶対値が、小さい正の値εよりも大きいピクセルをすべて選択することで、不一致マスクIが検出される。εの値は、画像ノイズの平均値よりも大きくなるように選択される。例えば、各カラーチャンネル(color channel)において256段階を提供する共通の24ビットRGB画像エンコードでは、εの値は典型的には10または15に設定される。時間tにおける不一致マスクIは、下記の方程式によって検出できる。
Figure 0004238278
この方程式において、Rは各ピクセルの値を示す。したがって、時間t−1における各ピクセルの値は、ピクセル対ピクセルベースで、時間tにおける各ピクセルの値から減算される。得られたマスクは、RおよびRt−1の値が異なるすべての位置で1の値を含むか、さもなければ0を含む。
ステップ203では、ステップ202で生成されたマスクを用いて、時間tに対する一致画像を更新する。一致マスクは短期背景モデルとして作用する。一致マスクは、少なくとも2つのフレームで「一致する」かまたは不変であるピクセルの最新値を保持することで帰納的に形成される。一実施形態では、時間tにおける一致画像Vは、下記の方程式によって検出できる。
Figure 0004238278
第1項の「It−1」は、前回の時間t−1からの前回の一致画像Vから保持される必要があるピクセルの値を示す。これらは時間t−1と時間tの間で変化しているものとして、方程式(1)で特定されたピクセルである。したがって、これらのピクセルの最新値は一致していないので、これらは一致画像では使用されない。代わりに、前回の一致画像からのピクセルの値が使用される。第2項の「(1−I)R」は、新たな一致値が保持され、前回の一致画像を更新するピクセルの値を示す。係数「(1−I)」は、不一致マスクIの補数を示す。したがって、これは時間t−1と時間tとの間で一致するかまたは不変のままであるピクセルを示す。この係数にRを乗算する。この方程式は、時間tにおける一致画像Vを形成するために加えられる時間tにおけるこれらピクセルのそれぞれの値であるからである。
ステップ204では、時間tに対する符号フレーム差を決定する。一実施形態では、符号フレーム差Sが下記の方程式によって検出される。
Figure 0004238278
この方程式において、符号は重要であるが、結果の正確な値は無視できる。結果の符合は、下記の方程式(5)で正式に抽出される。
ステップ205では、時間tに対する符号補正マスクが決定される。ピクセル値が暗色から明色へと変化している画像領域に対しては、符号補正マスクが、この変化の符号を正規化された表現形式に補正する。このマスクは、明るい背景の前に暗い物体が位置する場合と同様に、暗い背景の前に位置する明るい物体の均一な処理を許容する。一実施形態では、下記の方程式により、最新画像と一致画像から符号補正マスクFが決定される。
Figure 0004238278
注意すべき事項として、移動物体によって覆われない背景ピクセルは一致画像Vと同じである。一つのアプローチとして、これらのピクセルには明確な差が割り当てられる。そのため、現在の値と一致画像値との差に対して階段関数Hを適用し、ノイズに起因する差を考慮して閾値βを用いる。階段関数Hは、すべての負の値に対して0の値を有し、それ以外では1を有する。したがって、Fは−1または1である。換言すると、現在の画像Rと一致画像Vとの差が閾値βよりも小さいすべてのピクセルに対して符号が変更される。
ステップ206では、時間tに対する符号正規差マスクが決定される。一実施形態では、下記の方程式より、時間tに対する符号正規差マスクが決定される。
Figure 0004238278
Figure 0004238278
Figure 0004238278
Figure 0004238278
マスクMは、符号正規差マスクの符号が正から負へと変化したピクセルを含む。負の値は0に設定され、正の値は1に設定される。このマスクMは、たとえ物体が固有の軌道を戻る場合であっても、背景ではなく、時間tでフレーム内の物体に属するピクセルを含む。
図3を参照すると、本発明の方法の一実施形態が図示されている。この例では、説明を簡略化するため、均一な色の物体が黒色背景の前で動いている。本発明の原理から逸脱しない限り、移動物体がどのような形状または色の構成でも良く、移動物体が複雑な背景の前で動くことも可能であることは、当業者であれば理解できる。
図1と同様に、図3のR1は時間t−1における移動物体の位置を示し、R2は時間tにおける移動物体の位置を示し、R3は時間t+1における移動物体の位置を示す。したがって、ボックス101は、時間tにおけるビデオフレームを重ねた時間t−1におけるビデオフレームの合成画像である。ボックス102は、時間tにおけるビデオフレームを重ねた時間t+1におけるビデオフレームの合成画像である。上記ステップ202乃至206で説明したように、以下の説明では、どのように背景(黒一色の背景の場合)が画像から効率的に除去され、符号正規差マスクが決定されるのかを説明する。
ステップ202を参照して上述したように、前回の時間からのピクセルの値における変化の絶対値が、小さい正の値εよりも大きいピクセルをすべて選択することで、不一致マスクが生成される。図3に図示した例では、ボックス101の不一致マスクは、領域310のピクセルを除き、R1とR2内のすべてのピクセルを含むことになる。領域310のピクセルは、時間tにおいて時間t−1と同じ値を保持している。なぜならこれらのピクセルは、2つの時間において移動物体の一部であるからである。そして、ステップ203を参照して上述したように、不一致マスクを用いて一致画像が更新される。したがって、短期背景モデルが更新される。ステップ204を参照して上述したように、時間t−1におけるビデオフレームと時間tにおけるビデオフレームとの間で符号差が決定される。その後、時間tにおけるビデオフレームと時間t+1におけるビデオフレームとの間で符号差が決定される。この例は黒色背景の前で移動する単一色の物体を含むので、ステップ205で決定される符合補正マスクは、いずれかの場合でも符号差の符号を変更することはない。したがって、ステップ206で決定された符号正規差マスクは、それぞれの場合において元の符号差と同一の符号を有する。
図3において、符号正規差マスクは、マスク103とマスク104である。マスク103は、時間t−1におけるビデオフレームと時間tにおけるビデオフレームとの差異を示す。同様にマスク104は、時間tにおけるビデオフレームと時間t+1におけるビデオフレームとの差異を示す。マスク103と104において、黒色の領域は2つの時間でピクセルの色彩が変化しなかったことを示しており、白色の領域はピクセルの色彩が変化したことを示している。図1とは対照的に、変化を示す符号が保持される。白色領域301は、この例では時間t−1と時間tとの間でピクセルの値が暗色(黒色背景の値)から明色(移動物体の値)へと変化したことにより、正の符号が割り当てられる。白色領域302は、ピクセルの値が明色から暗色へと変化したことにより、負の符号が割り当てられる。符号の割り当ては、本発明から逸脱することなく、この方法全体を通して切り替えることができることは明らかである。
ステップ209では、符号正規差マスクの符号が正から後に負へと変化するピクセルの組が特定される。図3の例では、ボックス105は、マスク103と104との交差部を示し、符号が変化したピクセルを特定することを許容する。注意すべき事項として、符号正規差マスク103と104からの符号を保持することで、白色領域305は白色領域306から区別される。白色領域305では符号が正から負へと変化する一方で、白色領域306では符号が負から正へと変化する。本発明の方法では、移動物体の一部であるとして、符号正規差マスクの符号が時間tにおける正から時間t+1における負へと変化するピクセルの組を特定して、符号正規差マスクの符号が負から正へと変化するピクセルの組を除外するので、本発明による方法は、移動物体に属するピクセルを正確に特定することができる。ウォールフラワーアルゴリズムでは、図1に示す白色領域107のピクセルを移動物体に属するものとして誤認するのに対して、本発明の方法によると、これらのピクセルは背景に属するものとして正確に特定されることになる。
符号差を維持する結果、真のピクセル(true pixel)と擬似ピクセル(phantom pixel)は異なる方向に符号変化が起こる。この事は、たとえ物体がこの例のように固有の軌道を戻る場合であっても、移動物体の一部である真のピクセルと偽の正符号とを区別するのに用いることができる。
当該技術分野では公知のように、移動物体に属するピクセルを正確に特定することは、適切な物体色モデルを形成するために重要である。正確な物体色モデルにより、移動物体の追跡が支援される。図4を参照すると、動いている手の連続映像に対して、ウォールフラワーアルゴリズム法と比較した本発明の技法が示されている。第1列401は、2つの技法を試験するために使用された連続映像から選択した画像を示す。第2列402は、カラーモデルを形成するために、ウォールフラワーアルゴリズムによって選択されたピクセルを示す。第2列402の非黒色のピクセルによって示されるように、ウォールフラワーアルゴリズムによって選択されたピクセルは、人物のシャツと、人物の背後にあるガラスの反射のみならず、背景の一部も含んでいる。移動物体の一部ではないにも拘らず列402と列403に表れた非黒色のピクセルを見る限りでは、(ウォールフラワーアルゴリズムでは)移動物体用のカラーモデルの選択は十分ではない。第3列403は、本発明の方法によって同一の連続映像から選択したピクセルを示す。列403に示すように、本発明の方法による選択感度(selectivity)は高いことがわかる。したがって、移動物体用の選択性カラーモデルの取得に関して、本発明の性能がウォールフラワーアルゴリズムよりも優れていることが示される。
この開示を読むことによって、当業者は、本発明の開示した原理を通して、ピクセルの組を特定するシステムおよび方法に対する更に別の代替的な構成設計や機能設計が可能であることが理解できる。以上、本発明の特定の実施例と適用例について図解して説明したが、本発明は明細書で開示された通りの構成や構成要素に限定されるものではなく、添付の特許請求の範囲に記載された本発明の精神および範囲を逸脱することなく、明細書に開示された本発明の方法および装置の配置、処理、および詳細に対して、様々な改変、変更、および変形を行うことができることは当業者に明らかである。
移動物体に属するピクセルを特定する従来の方法を示す。 本発明の一実施形態により移動物体に属するピクセルを特定する方法を示す流れ図である。 本発明の一実施形態により移動物体に属するピクセルを特定する方法の各ステップを示す。 ウォールフラワーアルゴリズムによって生成した結果と、本発明の方法の一実施形態によって生成した結果との比較を示す。

Claims (20)

  1. 第1画像、第2画像、および第3画像を含む少なくとも3つの画像において第1物体の位置が異なる場合に、ピクセルを収集するステップを含み、この第1物体の形状を特定する方法であって、
    (a)前記第1画像と前記第2画像との間でピクセル位置における値の第1差を決定するステップと、
    (b)前記第1差に応じた第1符合を割り当てるステップと、
    (c)前記第1画像および前記第2画像における第1組のピクセル位置のそれぞれに対して、前記(a)乃至(b)のステップを繰り返すステップと、
    (d)前記第2画像と前記第3画像との間でピクセル位置における値の第2差を決定するステップと、
    (e)前記第2差に応じた第2符合を割り当てるステップと、
    (f)前記第2画像および前記第3画像における第1組のピクセル位置のそれぞれに対して、前記(d)乃至(e)のステップを繰り返すステップと、
    (g)前記各ピクセル位置に応じた第1符合および第2符合が第1パターンを有するようなピクセル位置を特定するステップと、
    からなることを特徴とするコンピュータを利用した方法。
  2. 前記第1パターンは、負の第1符号と正の第2符号とを含むことを特徴とする請求項1に記載の方法。
  3. 前記第1パターンは、正の第1符号と負の第2符号とを含むことを特徴とする請求項1に記載の方法。
  4. 前記第1画像は前記第2画像よりも時間的に早く、前記第2画像は前記第3画像よりも時間的に早いことを特徴とする請求項1に記載の方法。
  5. 前記第1組のピクセル位置は、前記第1画像におけるすべてのピクセル位置を含むことを特徴とする請求項1に記載の方法。
  6. 前記値の第1差が正であるとき、前記第1差に応じた前記第1符合は正であることを特徴とする請求項1に記載の方法。
  7. 前記値の第1差が正であるとき、前記第1差に応じた前記第1符号はであることを特徴とする請求項1に記載の方法。
  8. 第1画像、第2画像、および第3画像を含む少なくとも3つの画像において第1物体の位置が異なる場合に、ピクセルを収集するステップを含み、この第1物体の形状を特定する方法であって、
    (a)前記第1画像と前記第2画像との間でピクセル位置における値の第1差を決定するステップと、
    (b)前記第1差に応じた第1符合を割り当てるステップと、
    (c)前記第2画像と前記第3画像との間でピクセル位置における値の第2差を決定するステップと、
    (d)前記第2差に応じた第2符合を割り当てるステップと、
    (e)前記少なくとも3つの画像における第1組のピクセル位置のそれぞれに対して、前記(a)乃至(d)のステップを繰り返すステップと、
    (f)前記各ピクセル位置に応じた第1符合および第2符合が第1パターンを有するようなピクセル位置を特定するステップと、
    からなることを特徴とするコンピュータを利用した方法。
  9. 前記第1パターンは、負の第1符号と正の第2符号とを含むことを特徴とする請求項8に記載の方法。
  10. 前記第1パターンは、正の第1符号と負の第2符号とを含むことを特徴とする請求項8に記載の方法。
  11. 前記第1画像は前記第2画像よりも時間的に早く、前記第2画像は前記第3画像よりも時間的に早いことを特徴とする請求項8に記載の方法。
  12. 前記第1組のピクセル位置は、前記第1画像におけるすべてのピクセル位置を含むことを特徴とする請求項8に記載の方法。
  13. 前記値の第1差が正であるとき、前記第1差に応じた前記第1符合は正であることを特徴とする請求項8に記載の方法。
  14. 前記値の第1差が正であるとき、前記第1差に応じた前記第1符合は負であることを特徴とする請求項8に記載の方法。
  15. 第1画像、第2画像、および第3画像を含む少なくとも3つの画像において第1物体の位置が異なる場合に、ピクセルを収集するステップを含み、この第1物体の形状を特定するシステムであって、
    前記第1画像と前記第2画像との間で、少なくとも2つのピクセル位置における値の第1差を決定する第1決定手段と、
    前記少なくとも2つのピクセル位置のそれぞれで、前記第1差に応じた第1符合を割り当てる第1割り当て手段と、
    前記第2画像と前記第3画像との間で、前記少なくとも2つのピクセル位置における値の第2差を決定する第2決定手段と、
    前記少なくとも2つのピクセル位置のそれぞれで、前記第2差に応じた第2符合を割り当てる第2割り当て手段と、
    前記各ピクセル位置に応じた第1符合および第2符合が第1パターンを有するようなピクセル位置を特定する特定手段と、
    からなることを特徴とするコンピュータを利用したシステム。
  16. 前記第1パターンは、負の第1符号と正の第2符号とを含むことを特徴とする請求項15に記載のシステム。
  17. 前記第1パターンは、正の第1符号と負の第2符号とを含むことを特徴とする請求項15に記載のシステム。
  18. 前記第1画像は前記第2画像よりも時間的に早く、前記第2画像は前記第3画像よりも時間的に早いことを特徴とする請求項15に記載のシステム。
  19. 前記少なくとも2つのピクセル位置は、前記第1画像におけるすべてのピクセル位置を含むことを特徴とする請求項15に記載のシステム。
  20. 前記値の第1差が正であるとき、前記第1差に応じた前記第1符合は正であることを特徴とする請求項15に記載のシステム。
JP2007540407A 2004-11-02 2005-11-01 ジェスチャ・インターフェースの適応型追跡 Expired - Fee Related JP4238278B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US62463404P 2004-11-02 2004-11-02
US11/225,415 US7190811B2 (en) 2004-11-02 2005-09-12 Adaptive tracking for gesture interfaces
PCT/US2005/039705 WO2006050448A2 (en) 2004-11-02 2005-11-01 Adaptive tracking for gesture interfaces

Publications (3)

Publication Number Publication Date
JP2008519376A JP2008519376A (ja) 2008-06-05
JP2008519376A5 JP2008519376A5 (ja) 2008-12-11
JP4238278B2 true JP4238278B2 (ja) 2009-03-18

Family

ID=36261936

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007540407A Expired - Fee Related JP4238278B2 (ja) 2004-11-02 2005-11-01 ジェスチャ・インターフェースの適応型追跡

Country Status (3)

Country Link
US (1) US7190811B2 (ja)
JP (1) JP4238278B2 (ja)
WO (1) WO2006050448A2 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100588042B1 (ko) * 2004-01-14 2006-06-09 한국과학기술연구원 인터액티브 프레젠테이션 시스템
US8144934B2 (en) * 2007-05-02 2012-03-27 Nikon Corporation Photographic subject tracking method, computer program product and photographic subject tracking device
US9417700B2 (en) 2009-05-21 2016-08-16 Edge3 Technologies Gesture recognition systems and related methods
US8396252B2 (en) 2010-05-20 2013-03-12 Edge 3 Technologies Systems and related methods for three dimensional gesture recognition in vehicles
US8666144B2 (en) 2010-09-02 2014-03-04 Edge 3 Technologies, Inc. Method and apparatus for determining disparity of texture
WO2012030872A1 (en) 2010-09-02 2012-03-08 Edge3 Technologies Inc. Method and apparatus for confusion learning
US8582866B2 (en) 2011-02-10 2013-11-12 Edge 3 Technologies, Inc. Method and apparatus for disparity computation in stereo images
US8655093B2 (en) 2010-09-02 2014-02-18 Edge 3 Technologies, Inc. Method and apparatus for performing segmentation of an image
US8890803B2 (en) 2010-09-13 2014-11-18 Samsung Electronics Co., Ltd. Gesture control system
EP2428870A1 (en) * 2010-09-13 2012-03-14 Samsung Electronics Co., Ltd. Device and method for controlling gesture for mobile device
US8970589B2 (en) 2011-02-10 2015-03-03 Edge 3 Technologies, Inc. Near-touch interaction with a stereo camera grid structured tessellations
US9030445B2 (en) * 2011-10-07 2015-05-12 Qualcomm Incorporated Vision-based interactive projection system
US9672609B1 (en) 2011-11-11 2017-06-06 Edge 3 Technologies, Inc. Method and apparatus for improved depth-map estimation
US10721448B2 (en) 2013-03-15 2020-07-21 Edge 3 Technologies, Inc. Method and apparatus for adaptive exposure bracketing, segmentation and scene organization
KR101534742B1 (ko) 2013-12-10 2015-07-07 현대자동차 주식회사 차량용 제스처 인식 시스템 및 그 방법

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
NL8004312A (nl) * 1980-07-28 1982-03-01 Philips Nv Bewegingsdetectieschakeling.
DE4013474C2 (de) * 1990-04-27 1995-10-12 Broadcast Television Syst Anordnung zur Reduktion von Rauschen in einem Videosignal
JP3651419B2 (ja) * 2001-08-03 2005-05-25 日産自動車株式会社 環境認識装置
US7646401B2 (en) * 2004-01-30 2010-01-12 ObjectVideo, Inc Video-based passback event detection

Also Published As

Publication number Publication date
WO2006050448A9 (en) 2006-08-03
US7190811B2 (en) 2007-03-13
JP2008519376A (ja) 2008-06-05
WO2006050448A2 (en) 2006-05-11
US20060093186A1 (en) 2006-05-04
WO2006050448A3 (en) 2007-03-01

Similar Documents

Publication Publication Date Title
JP4238278B2 (ja) ジェスチャ・インターフェースの適応型追跡
JP5280503B2 (ja) 画像表示方法、共有ボードシステム
CN103729858B (zh) 一种视频监控系统中遗留物品的检测方法
CN111886600B (zh) 一种用于图像的实例级别分割的设备和方法
EP2367139A1 (en) Matching device, digital image processing system, matching device control program, computer-readable recording medium, and matching device control method
JP4533836B2 (ja) 変動領域検出装置及びその方法
EP2309454B1 (en) Apparatus and method for detecting motion
TW202004667A (zh) 物件追蹤系統及方法
US6240197B1 (en) Technique for disambiguating proximate objects within an image
CN111539980A (zh) 一种基于可见光的多目标追踪方法
US10803625B2 (en) Detection system and picturing filtering method thereof
JPH10255057A (ja) 移動物体抽出装置
JP2019160299A5 (ja)
JP7074174B2 (ja) 識別器学習装置、識別器学習方法およびコンピュータプログラム
JP4780564B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP5046148B2 (ja) 画像解析装置および対象物認識方法
JPH11306348A (ja) 対象物検出装置及び対象物検出方法
Abdusalomov et al. Review on various widely used shadow detection methods to identify a shadow from images
JP2002032752A (ja) 明るい窓を自動的に検出する方法
JP2010087882A (ja) 移動物体追跡装置
Zhu et al. Background subtraction based on non-parametric model
CN108711164B (zh) 一种基于LBP和Color特征的运动检测方法
JP6350331B2 (ja) 追尾装置、追尾方法及び追尾プログラム
JPH11283036A (ja) 対象物検出装置及び対象物検出方法
JP2002259968A (ja) 色抽出方法及び色抽出装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081024

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081024

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20081024

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20081117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081216

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081219

R150 Certificate of patent or registration of utility model

Ref document number: 4238278

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111226

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121226

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121226

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131226

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees