JP2016520946A - 人間対コンピュータの自然な3次元ハンドジェスチャベースのナビゲーション方法 - Google Patents

人間対コンピュータの自然な3次元ハンドジェスチャベースのナビゲーション方法 Download PDF

Info

Publication number
JP2016520946A
JP2016520946A JP2016518540A JP2016518540A JP2016520946A JP 2016520946 A JP2016520946 A JP 2016520946A JP 2016518540 A JP2016518540 A JP 2016518540A JP 2016518540 A JP2016518540 A JP 2016518540A JP 2016520946 A JP2016520946 A JP 2016520946A
Authority
JP
Japan
Prior art keywords
hand
gesture
natural
poi
interaction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016518540A
Other languages
English (en)
Inventor
ゾット、ダヴィッド ダル
ゾット、ダヴィッド ダル
レニュイ、アントワーヌ
シモンズ、ケヴィン
Original Assignee
ソフトキネティック ソフトウェア
ソフトキネティック ソフトウェア
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソフトキネティック ソフトウェア, ソフトキネティック ソフトウェア filed Critical ソフトキネティック ソフトウェア
Publication of JP2016520946A publication Critical patent/JP2016520946A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Abstract

人間対コンピュータの3次元ハンドジェスチャベースの自然なインタラクションを可能にするための方法が本明細書において説明される。測距撮像システムによって提供される奥行き画像から、方法は、ユーザが自身の手を自由に動かす環境において制御(インタラクション)ジェスチャが作動している期間を区切るための所定の型の自然なジェスチャの始まり(開始)および終了(停止)を含む特定の一連の自然なジェスチャを効率的かつ堅固に検出することを可能にする。本発明は、限定的ではないが特に、指先または手先ベースの自然なジェスチャの終了までグラフィカルユーザインタフェース内での効率的かつ堅固なナビゲーション、ズーム、およびスクロールインタラクションを提供するために、指先または手先ベースの自然なジェスチャの開始に続いて意図的に実行される自然なジェスチャを偽陽性や遅延を一切伴わずに検出することに関する。

Description

本発明は、3次元ハンドベースジェスチャ認識を用いる人間対コンピュータのインタラクションにおける、またはそれらに関する改良に関する。本発明は、それだけには限らないが特に、イベントをトリガするためのデバイスシステムを有さず自由に動く手の連続的な動作にも関わらず従来のグラフィカルユーザインタフェースにおいて信頼できるナビゲーション、スクロール、およびズームインタラクションを提供するように、意図的に行われる特定の一連の自然なジェスチャの、偽陽性や遅延を伴わないリアルタイム検出に関する。
従来の人間対コンピュータインタフェースは、例えばキーボード、マウス、遠隔制御装置およびポインティングデバイスなどのハードウェア制御システムインタフェースを含む。そのようなインタフェースの場合、それらのデバイスインタフェースによって、例えばトリガされる2値イベントや連続値などの制御コマンドが、インタフェースがインタラクトしようと意図されるコンピュータシステムへ送信され得ることが可能になるように、物理的動作は、例えばタッチする、動かす、把持する、ポイントする、押す、動かす、クリックする、あるいはそれらの動作の複数を連続して、または同時に行うなど、ハードウェアデバイス自体で実行される必要がある。
コンピュータシステムは多くの場合、ユーザに視覚フィードバックを提供するために表示されるウインドウ、ボタン、および他のアイテムや要素を有するグラフィカルユーザインタフェース(GUI)を備え、それらは、従来の人間対コンピュータハードウェアインタフェースの有用性および人間工学に準拠して設計される。例えば、オペレーティングシステムは多くの場合、例えばマップ、画像、またはテキストボックスなどコンテンツ内のナビゲーションを可能にするためのスクロールバーを備えるGUIウインドウを有し、そのサイズは、ディスプレイスクリーンサイズ自体の大きさによって区切られたエリア内に表示されるものよりも大きい。スクロールバーとのインタラクションは、マウス型ハードウェアデバイスのホイールを用いて、あるいはマウスの動きと把持クリック動作とを併用することによって最適化される。更に、従来のGUIは多くの場合、GUIのコンテンツのズームインおよびズームアウトのためにマウスボタンによってユーザがクリックするボタンを備える。
更に、従来のGUIはまた多くの場合、マウスの動きに応じてマップをスクロールさせるため、あるいは1つのマップエリアから別のマップエリアに変更するために、連続的なマウスの動きを伴ったクリックを通常必要とするマップナビゲーションGUIインタラクションを備える。
昨今は、非接触インタラクションシステムが使用できるようになりつつある。これらのシステムは、時間に関してシーンの画像を連続的に捕捉するためのデバイス、および捕捉されたシーンにおいてユーザによって実行されたジェスチャを決定するための方法に基づく。そのような非接触インタラクションシステムは、既存のハードウェアインタフェースと併用されるか、あるいは任意選択的に、従来のハードウェアインタフェースと同じ制御コマンドを連続的に捕捉されたシーンの画像において認識されたジェスチャからトリガすることによって単独で用いられることが意図される。
US−A−2011/0115892号において、従来の2次元(2D)カメラは、2D画像において、可視スペクトルにおける光を捕捉し、ジェスチャが認識され得るユーザの指を検出するために用いられる。コンピュータ化されたシステムとインタラクトするためにジェスチャが用いられ得る。しかし、従来の2D撮像技術に固有の制約、特に撮像システムに固有の制約が、変化する明るさを有する環境における物体の検出および認識を信頼できないものにする。例えば、ペンなど指に似た物体は、用いられる技術が原因となり誤って指として識別または検出されることがあり、あるいは、シーンの明るさに対する画像品質の依存が原因となり、連続的に捕捉された画像における指の追跡が失われ得る。
最新の2D画像処理技術は、ユーザの手の許容可能な検出を行い、いくつかのハンドパラメータおよびその動きの検出および分析による非常に単純なハンドジェスチャベースのインタラクションを提供するために、従来の2Dカラーカメラを用いることを可能にする。特に、2D背景学習技術およびその後の背景除去処理と併用される最新鋭の自動露出技術は、シーンからの対象となる前景物体の更に効率的な抽出を提供し、シーンはクラスタに分割され、そこから物体認識が実行され得る。この方法で、ユーザの手は、肌色検出および形状的特徴に起因するある程度の堅固性を伴って2Dカラー画像から抽出され、基本的なジェスチャ認識が実行され得る。しかし、ユーザの身体部分と撮像デバイスとの距離が著しく変化し、その結果、捕捉された2D画像におけるそれらの表現が一貫性を欠くことがあるため、現実の3D環境において自由に動くユーザの身体部分(例えば手)を効率的かつ正確に分析することは未だ不可能である。
US−A−2011/197263号は、手の基準点と基準となる手構造との合致および比較に頼る、空間入力ベースのマルチユーザ共有ディスプレイセッションを提供するためのシステムおよび方法を開示する。検出された手の部分は、合致する手の部分を識別し、手の部分同士を繋ぎ合わせ、手の基準点のベクトルを生成し、合致する手構造を識別するために、手の基準データ記憶装置に記憶された基準となる手オブジェクトモデルと比較され得る。手の基準点のベクトルは、合致する手構造を識別するために、手の基準データ記憶装置に記憶された基準となる手構造と比較され得る。
US−A−2013/278504号は、手の周囲にバウンディングボックスが効果的に設けられた手検出システムを開示する。手に関連する形状的特徴、例えば、偏心度、緊密度、向き、矩形性、幅中心、高さ中心、最小ボックス角度、最小ボックス幅、欠陥の数、バウンディングボックスの左部と右部との距離、および/またはバウンディングボックスの上部と下部との距離が、システム内に記憶されたデータとの比較のためにジェスチャ識別モジュールへ入力される。
CN−A−102 236 409号は、エッジ検出を用いて入力画像において手が識別されると、事前設定された開始および停止ジェスチャが実行されたかを判別するために手が追跡される手検出システムを開示する。ジェスチャの判別は、手における見えている指の数に基づく。
US−A−2012/0069168号において、例えば手の平中心や手の平の付け根、および、シーンから抽出された手のマスクを用いた手の平中心から手の輪郭すなわち末端部までの画素の距離など、様々な手関連データやハンドパラメータを探索するために色情報が用いられる。これらの距離は、手が開いているか閉じているかを判定するためにも用いることができ、この判定から、手がオブジェクト「選択」ジェスチャを実行しているかが判別され得る。しかし、そのようなジェスチャベースの方法には限界があるので、コンピュータとの3Dポインティングのようなインタラクションを分析するためのローエンドプラットフォームにおいて効率的なリアルタイム処理を提供する堅固なソリューションを提供することはできず、また、そのような方法は、色を区別することができない暗い環境で使用することもできない。更に、検出される「選択」ジェスチャは、実際の対物距離およびサイズの測定値が存在しないために正確ではない。従って撮像デバイスからの様々な距離で正確に仮想オブジェクトを「ポイント」し「選択」することは確かではない。更に、そのようなソリューションは、例えば3D空間において変化する手の向きや指ベースの3Dジェスチャのサポートなど、高い信頼性レベルの要件をサポートするために用いることはできない。
任意のソリューションまたは環境において堅固かつ効率的なハンドジェスチャ認識を可能にするために2D画像捕捉ソリューションが強力な回復不能の制限に見舞われると、結果としてそれらは、信頼できる制御コマンドまたは信頼できる関連する人間対コンピュータインタラクションを提供する更に導出された信号処理方法を可能にするために適切ではないと承認される。
しかし、第3の次元、すなわち奥行きに関する情報は、いくつかの新たな距離感知カメラシステムである3Dカメラによって昨今使用できるようになったデータである。それらの3Dカメラすなわち3D撮像システムの1つの利点は、特に、例えばユーザの手および手に関連するパラメータのより良い検出認識および追跡を可能にする、より正確で絶対的な距離メトリック情報を提供する能力である。この第3次元は更に、例えば、ユーザの身体部分すなわち手の末端部に対応する少なくとも1つのクラスタ、およびハンドプッシュジェスチャ、ハンドクリックジェスチャ、ハンドプルジェスチャ、ハンドスワイプジェスチャ、ハンドサークルジェスチャ、あるいは単に手の3D位置ベースのポインティングジェスチャのうち少なくとも1つを、ユーザを備えるクラスタ化された奥行きマップにおいて、一般的に長距離(例えば約3m)で決定することを備える方法が開示される、EP−A−2613223号におけるような静的および/または動的ジェスチャを含む、空間内の3D位置および/または3D姿勢を決定することを可能にする。ジェスチャは予め決定され、明確で一貫した動作を実行している手や末端部が検出された3D空間の区切られたエリア内で認識される。
更に、そのような距離撮像システム(3Dカメラ)は、それ自体に照明を設け得るので、可視スペクトルではなく赤外線スペクトルにおいて作動することができる。例えば飛行時間型(TOF)3Dカメラなどのそのような距離感知システムは、シーン捕捉がもはやそのシーンの自然照明に依存しないことにより、ユーザの身体部分(例えば手)の部分のより堅固で、安定した、信頼できる正確な検出を有する可能性をもたらす3D情報を提供する。加えて、物体の絶対的サイズおよび距離の測定値の供給は、画像感知デバイスから対象となる物体(すなわち手)までの距離に対する計算能力の依存(リアルタイム要件面)を打開する。
手の3D寸法および3D位置のリアルタイムでの測定に取り組むいくつかの画像処理方法、および関連するハンドベース3Dジェスチャ認識技術は現在、着実に、3Dカメラによって提供されるデータの使用に適合するようになっている。そのような方法は、少なくとも奥行き情報、および任意選択的に、シーンの照明レベルに対応するグレースケール信頼画像およびカラー画像の少なくとも1つを用いる。
3Dハンドベースジェスチャ認識の分野における従来技術の発展にも関わらず、距離撮像システムによって提供されるデータから、正確で、効率が良く(すなわち、限られた処理能力要件に伴う遅延がなく)、堅固かつ信頼できる(すなわち、偽陽性ジェスチャ検出がない)システムを得ることは未だ困難である。指ベースジェスチャ認識はかつてない分野である。これは、ジェスチャ認識技術が適用され得るユーザの手および/または指の新たな検出および追跡技術、新たなジェスチャ認識技術それ自体、および新たな、または適合した人間対コンピュータインタラクションの組み合わせを必要とする問題の複雑さに起因する。
具体的には、第1の問題は、タッチベースのインタラクションやマウスデバイスベースのインタラクションのために設計されたGUIのための人間対コンピュータインタフェース(HCI)として、3Dハンドジェスチャ認識ベースのインタラクションが現在最も使用されており、例えば連続的な制御値と併用されるイベントトリガなどの更なるコマンドを必要とする。手の動作は実際には連続的な現象であるので、意図的なインタラクションと非意図的なインタラクションとを区別する能力を伴って従来のGUIを有する3Dハンドジェスチャ認識システムを用いようと試みる場合、第2の問題が生じる。更に具体的には、第3の本質的な問題は、ユーザが自由に動く環境において所定の自然なジェスチャの始まり(開始)および終了(停止)の正確かつ信頼できる検出を、少なくとも1つの片手の連続的な動きの中で決定しなければならないことである。
これは、ジェスチャが好適には自然で、直感的で、行うのが非常に簡単である必要がある場合、また、手が、制御ジェスチャ(すなわちインタラクション)が開始および停止し得る時を示すイベントをトリガするために用いられ得る任意のボタン、ホイール、または任意の専用に設計されたアクチュエータを元々備えていないため、更にいっそう問題となる。
従来のGUIの1つのボタンを、遅延を伴わずに直感的に制御すること、あるいは、例えばマップにおいて、制御すべきスクロールバーを有するアプリケーションのGUIにおいて、または明確かつ確実に認識可能かつ反復可能な単純なジェスチャによってアクセスされ得る複数のウインドウを有するGUIにおいてなど、GUIにおける自然で正確で迅速かつ単純な上下左右のスクロールのための開閉状態を備えるにすぎない既存の3Dハンドベースジェスチャ認識システムを容易に用いることは、不可能に近いというのが1つの結論である。
本明細書で説明される本発明は、これらの問題に対する解決策を提供する。
本発明の一態様によると、3次元ハンドジェスチャベースの認識システムを用いて自然な人間対コンピュータインタラクションを提供するための方法が提供され、方法は、
a)ユーザの手における少なくとも2つの注視点を決定するステップと、
b)上記2つの注視点によって実行される自然なジェスチャを認識するステップであって、
b1)3次元空間における2つの注視点が互いに近づき合う場合に2つの注視点の間の距離が所定の閾値を下回ることを判別することによって、人間対コンピュータインタラクションの始まりをトリガする3次元ハンドポーズに対応する第1の自然なジェスチャを認識することと、
b2)上記第1の3次元ハンドポーズが続く限り制御される連続的な人間対コンピュータインタラクションを制御するために、手の少なくとも1つの注視点の動きから第2の自然なジェスチャを認識することと、
b3)人間対コンピュータインタラクションの終了をトリガするために、上記第1の3次元ハンドポーズが解除され次第判別される第3の自然なジェスチャを認識することと
を含むステップと、
c)上記注視点によって実行される一連の上記第1、第2、および第3の自然なジェスチャを用いてグラフィカルユーザインタフェースとインタラクトするステップと
を含む方法が提供される。
時間内に後続する3次元ハンドポーズの明確な発生を検出することによって、自然な手の動きが意図的であるか非意図的であるか、すなわち制御ジェスチャが意図的であるか非意図的であるか、およびそれが開始および停止する時を判定することが可能である。
少なくとも2つの注視点を用いて3次元ハンドポーズに対応する第1の3次元ジェスチャを検出および判別すること、および、上記第1の3次元ハンドポーズが続く限り人間対コンピュータインタラクションを制御することによって、連続的なインタラクションに対応する第2の後続する3次元ジェスチャを検出および判別することが可能である。上記第1の3次元ハンドポーズ(すなわち、開始イベントをトリガした3次元ジェスチャ)の解除は、停止イベントに対応する第3の3次元ジェスチャの検出をトリガし、上記第2の後続する連続的な3次元インタラクションの停止を意味する。
更に、3次元ハンドポーズに対応する第1の3次元ジェスチャにおける穴の存在、およびそれに続く、第1の3次元ハンドポーズの解除に対応する第3の3次元ジェスチャにおける除去を検出することによって、手の動きが意図的であるか非意図的であるかをより堅固に判別することが可能である。これは、人間対コンピュータインタラクションのために用いられる一連の自然な3次元ハンドジェスチャの3つの主相、すなわち、人間対コンピュータインタラクションの開始、人間対コンピュータインタラクションそのもの、および人間対コンピュータインタラクションの終了の正確かつ信頼できる検出を提供する。
本発明は、第1の態様において、ユーザの手におけるパラメータおよび注視点(POI)を決定するための方法に関し、それらのPOIは指先を含むがその限りではない。パラメータの決定は、3D測距撮像システムによって捕捉されるクラスタ化された3D点群(すなわちクラスタ化された奥行きマップ)を入力として用いる。少なくとも1つの手の3D位置、ポーズ、動作、および向きに関わらず検出は可能である。
具体的には本発明は、手のPOIを検出および追跡することに関し、それらPOIは、手先、指先(すなわち手および指の末端部)、手の平中心、および、手の平中心と末端部における他の複数のPOIとを用いて決定されるPOIの中から少なくとも2つのPOIを備えることを特徴とし、これらPOIの2つは、信頼できる指先ベースの「摘む」3Dジェスチャ、信頼できる指先ベースの「クリック」3Dジェスチャ、および手先の「掴む」3Dジェスチャの少なくとも1つの検出を可能にするために選択および追跡され、これらPOIの1つは、ハンドベース3D「ポインティング」ジェスチャ(またはインタラクションジェスチャ)を可能にするために選択および追跡される。
本発明は、第2の態様において、指先ベースの「摘む」ジェスチャ、指先ベースの「クリック」ジェスチャ、およびハンドベースの「掴む」ジェスチャの中から所定の3Dジェスチャが発生し、解除された時を判別するため、また、ハンドベースの「ポインティング」3Dジェスチャ(またはインタラクションジェスチャ)から連続的な制御コマンドを決定するための方法に関する。
本発明は、第3の態様において、信頼できる指先ベースの「摘む」3Dジェスチャ、信頼できる指先ベースの「クリック」3Dジェスチャ、および手先の「掴む」3Dジェスチャの1つの発生および解除の検出によって判別される、「開始」および「終了」インタラクションイベントの一連の検出とともに、ハンドベースの連続的な「ポインティング」ジェスチャ(またはインタラクションジェスチャ)を用いることによって、グラフィカルユーザインタフェースのスクロール、ズーム、およびナビゲーション機能を制御するための3Dハンドジェスチャベースの人間対コンピュータインタラクション処理に関する。
1つの有利な実施形態において、本発明は、3次元指およびハンド3Dジェスチャベース認識システムを用いる自然な人間対コンピュータインタラクションを提供し、その方法は、第1の所定の3Dジェスチャ(開始イベント)が所定の人間対コンピュータインタラクションの始まりをトリガし、第2の後続する(連続的インタラクション)3Dジェスチャが人間対コンピュータインタラクションを制御し、第3の所定の3Dジェスチャ(停止イベント)が認識されると第2の(インタラクション)3Dジェスチャが過ぎ去ることを特徴とする。
一実施形態において、ステップb2)は、ステップb1)に続いて実行され、少なくとも1つの注視点の位置の連続的な変化を検出および追跡することを備える。この位置の連続的な変化の検出および追跡は、手における少なくとも1つのPOIの3D位置の変化を検出および追跡することを備え得る。
好適な一実施形態において、ステップb1)およびb3)は、ステップb2)に関して用いられる注視点と異なる注視点を用いることを備える。この場合、第1および第3(開始および停止イベント)に対応する所定の3Dジェスチャは、第2の後続の(インタラクション)3Dジェスチャを判別するために用いられるPOIとは異なる手のPOIの分析によって認識される。
更に有利には、所定の3D(開始イベント)ジェスチャが認識されると、少なくとも1つのPOIのスクリーン上のポインタ表現は、それが指しているグラフィカルユーザインタフェース内のポイントされた可動要素、および表示されたグラフィカルユーザインタフェース内のそれが指している位置の少なくとも1つにロックされ、所定の3Dジェスチャ(停止イベント)が認識されると、スクリーン上の表現は、それがロックされていたグラフィカルユーザインタフェース内の位置や要素からロック解除される。
本明細書で用いられる「ロックされた」または「ロックする」という用語は、グラフィカルユーザインタフェースの可動要素とポインタとの関連付けを指す。対応するグラフィカル表現は、表現をロック解除しGUI全体を自由に動くことを可能にする停止イベントの検出まで、グラフィカルユーザインタフェースの上記可動要素の空間内での位置に結び付けられる。
本明細書で用いられる「ロック解除された」または「ロック解除する」という用語は、グラフィカルユーザインタフェースの可動要素とポイントとの分離を指す。
更に有利には、少なくとも1つのポインタのスクリーン上の表現がロックされると、第2の後続する(連続的インタラクション)3Dジェスチャは、(連続的インタラクション)ジェスチャを制御する手における注視点の3D位置に対して、ポインタがロックされているグラフィカルユーザインタフェース要素の位置を変化させる。
好適には、(開始イベント)および(停止イベント)所定の3Dジェスチャは、開閉3Dハンドジェスチャ、指先ベースの「クリック」3Dジェスチャ、指先ベースの「摘む」3Dジェスチャ、手先ベースの「掴む」3Dジェスチャの1つの発生およびそれぞれの解除である。
更に好適には、グラフィカルユーザインタフェースのスクロール、グラフィカルユーザインタフェース上でのズーム効果、グラフィカルユーザインタフェースに関連する要素のスクロール、およびグラフィカルユーザインタフェースの変更の少なくとも1つを制御するために第2の(連続的インタラクション)3Dジェスチャ入力として用いられるPOIの位置における変化。
更に好適には、ハンドジェスチャの認識は、3次元手骨格モデリング技術、3次元手先およびパラメータ検出技術の少なくとも1つによってユーザの手において決定されたPOIを用いて実行される。
有利には、3つの後続の自然な(開始、インタラクション、停止)ジェスチャは、少なくとも1つの片手を用いて実行される。
別の一実施形態において、手において決定される少なくとも1つのPOIの位置の変化の検出および追跡は、開始および停止イベントがトリガされた手ではない方の手において実行される。
別の一実施形態において、インタラクションは、出現するウインドウが、上記第2の後続する自然なジェスチャの方向に応じて選択され、上記第2の後続する自然なジェスチャが、所定の閾値を上回る注視点の位置の変化を備える場合、後続する第2の(連続的インタラクション)3Dジェスチャに相対的なグラフィカルユーザインタフェースの変化である。
本発明の他の詳しい特徴は、特許請求の範囲によって定義され、下記の説明において裏付けられる。
本発明をより良く理解するために、以下で、一例として添付図面が参照される。
本発明に係る方法の3つの主な処理ステップのフロー図を示す。 手の平中心、親指の指先、および手先の位置に関するPOI、および本発明によって決定されるような他のPOIによる補間POIとともにハンドベースの「掴む」姿勢をとっている手の側面図を示す。 開いた「摘む」ポーズをとる手の奥行きマップを示す。 開いた「摘む」ポーズをとる手の奥行きマップに対応する応答マップを示す。 自然な指およびハンドベース3Dジェスチャによってスクリーン上のマップをスクロールするために実行される連続的かつ自然な手の動作の軌跡を示す。 自然な指先ベースの開始および停止インタラクション3Dジェスチャによってスクリーン上に表示されたウインドウを変更/スライドするために実行される連続的かつ自然な手の動作の軌跡を示す。 指先ベースの「摘む」3次元ジェスチャを実行する2ステップの2次元透視図を示す。 指先ベースの「摘む」3次元ジェスチャの次元透視図を示し、穴検出を可能にするための直交する線を上に伴う、手の平中心から手の方向に突出した近傍線を示す。 手の平中心を概算するために用いられる距離マップを示す。
本発明は、効率的かつ堅固なハンドパラメータベースの3Dジェスチャ認識技術を用いて従来のグラフィカルユーザインタフェース(GUI)を制御するための指およびハンドベースの自然な3次元(3D)ジェスチャインタラクションに関する。これは特に、3Dジェスチャベースである1つの方法に基づいて、マウスおよびタッチジェスチャインタラクションのために元来設計されたGUIにおけるナビゲーション、ズームおよびスクロール機能に対処する。これは更に、例えば自動車インフォテイメント(情報/娯楽)システム制御、パーソナルコンピュータシステム制御、タブレット、スマートフォン、および他の組込み型コンピュータの制御などの近距離ジェスチャベースインタラクションに非常に適している。
本明細書の発明は、特定の図面を参照して特定の実施形態に関して説明されるが、当業者は、本発明がそれらに限定されないことを認めるであろう。説明される図面は単なる概略図であり、非限定的である。図面において、いくつかの要素の大きさは、例示目的のために縮尺通りに表されず拡大して示され得る。更に、以下で説明されるような図面の特定の向きは、限定的ではなく一例として示される。
本明細書で用いられる「自然なインタラクション」や「自然な3Dジェスチャベースインタラクション」という用語は人間対コンピュータインタラクションを指し、この場合、人間は一切のハードウェアデバイスやマーカを操作、携行、または使用する必要がなく、インタラクティブコンピュータシステムは、例えばコンピュータを直感的に制御するためにユーザの手の動作によって提供される情報を、演算手段を用いて捕捉および抽出するための3D飛行時間型(TOF)カメラなどの測距撮像システムといった撮像手段に関連し、情報は、好適には、所定の自然な3Dジェスチャのセットの形式である。
本明細書で用いられる「仮想表現」および「表現」という用語は、インタラクティングオブジェクトのGUIまたは仮想世界におけるデジタル表現を示す。このインタラクティングオブジェクトは、例えば、ユーザがインタラクトし得るオペレーティングシステムのGUIにおけるフォルダなど、仮想世界自体におけるオブジェクトであってよい。このインタラクティングオブジェクトは、例えば、オペレーティングシステムのGUIとのポインティングまたはマウスポインティングインタラクションを可能にするためにその位置が経時的に追跡されるユーザの手に関連するポインタ表現など、現実世界における実在のインタラクティングオブジェクトの仮想世界におけるデジタル表現であってもよい。
本明細書で用いられる「ハンドパラメータ」という用語は、少なくとも、手に関連する以下のパラメータを指す。手先および指先、(「手の平中心」と称される)手の平の中心、(「手の平半径」と称される)手の平の半径、(「手の平垂線」と称される)手の平に対する垂線、(「手の平開度」または「手の平開閉状態」と称される)手の平の開き、手の平の付け根、および手の平中心から手の輪郭までの距離。
本明細書で用いられる「特異注視点」という用語は、ユーザの手における特異点、すなわち、手の末端部、指先、手先、手の質量の中心、手の平中心、または手から得られる他の信頼できる点の少なくとも1つの位置を用いて決定され、かつ時間に対して追跡され得る位置にある他の任意の点を指す。
「注視点」という用語は、以下で概ね「POI」と称される。
本明細書で用いられる「手先」という用語は、手の主な末端部に対応する単一のPOIを指す。これは特に、指の末端部に近い平均位置に位置付けられ得る。
本明細書で用いられる「指先」という用語は、各個別の指先すなわち指の末端部を表す、間隙を介するいくつかの位置を指す。各個別の指先は、通常、特異POIまたはPOIであるとみなされる。
本明細書で用いられる「ポインタ」という用語は、POIまたは選択されたPOIのセットのディスプレイスクリーン上での表現を指す。
本明細書で用いられる「ポーズ」または「姿勢」という用語は、時間内の特定の瞬間における物理的な手の姿勢を指す。これは、手の特定のPOIのセットの位置の空間における特定の配置に対応し、具体的には、指先に対応するPOIの、互いに対する、また手の平中心に対する、空間における配置に対応する。
本明細書で用いられる「ジェスチャ」または「3Dジェスチャ」という用語は、時間に対するPOIまたはPOIのセットの空間における配置の変化を指す。代替または追加として、「ジェスチャ」という用語は、時間に対して空間内で変化しないPOIの配置(ポーズ)の位置の変化も指す。ポーズが時間に対して変化しない場合、すなわち、空間におけるPOIの配置が変化しないままである場合、それは、静的ジェスチャとして説明される。POIの配置が変化しないままであり、かつ配置の位置が時間に対して空間内で変化する場合、それは、静的ポーズを有する動的ジェスチャとして説明される。POIの配置が時間に対して変化する場合、それは、様々なポーズを有する動的ジェスチャとして説明される。
本明細書で説明される「ポインティング」という用語は、「ポインティングジェスチャ」を指す。これは例えば、現実世界のユーザに関連する基準3D位置、すなわち、ポインタの仮想表現が存在する位置を仮想空間において決定するために用いられ得る、末端部に対応する空間内の位置として、手先の少なくとも1つ、または関連するPOIを用いることを示す。ポインタの仮想表現の位置の決定は、例えば、現実世界3D空間におけるユーザPOIの絶対位置を用いること、決定された基準3D位置に対する現実世界3D空間におけるユーザPOIの相対位置を用いること、または、例えば、手の平中心から人差し指の先へのベクトルによって定められる方向や、目から、例えば人差し指の先など手の末端部に対応するPOIの1つへのベクトルによって定められる方向など、2つのPOI間に設定されるベクトルの主方向によって決定される相対位置を用いることを含むいくつかの方法に従って遂行され得る。「ポインティング」は、例えば少なくとも2つのPOIの位置の統計モードを用いることを含む、いくつかのポインタを更に使用し得ることが理解されるであろう。統計モードは例えば、それらの位置の平均値、中央値、最大値、最小値、または加重和の少なくとも1つであってよい。
本明細書で用いられる「インタラクション3Dジェスチャ」という用語は、例えば、好適には、ポインタやスクロールバーの制御など、コンピュータインタフェースによって可能になるインタラクションを制御するための空間内の位置に対するPOIの相対位置を用いる「ポインティング」ジェスチャなど、連続的なジェスチャを指す。
本明細書で用いられる「開始3Dジェスチャ」(開始イベント)および「停止3Dジェスチャ」(停止イベント)という用語は、1つの所定の自然な3Dジェスチャが実行された、あるいはそれぞれ解除されたと認識された時点で発生するイベントを指す。
本明細書で用いられる「掴む」ジェスチャ、「摘む」ジェスチャ、および「クリック」ジェスチャという用語は、好適には、少なくとも2つのPOIの動作およびポーズの分析から開始または停止ジェスチャベースのイベントをトリガするための、ハンドパラメータを用いて実行される自然な3Dジェスチャを指す。
「摘む」ジェスチャは、人間工学的考察に関して、指先のPOIの中から選択された少なくとも2つのPOIが、互いに接触しようとして近づき合わされるように手を閉じることを指す。2つのPOI間の距離または相対距離は、「摘む」ジェスチャのレベルや量に関連する値を決定するために更に用いられ得る。「摘むジェスチャ」は、好適には、親指の指先のPOIと人差し指の先のPOIとを用いることを備える。「摘む」ジェスチャの検出は、使用可能であれば、1つの好適な透視図において、手の形状における穴の状態を追加として検出することによって向上し得る。
「掴むジェスチャ」は「摘むジェスチャ」の変化形であり、第1のPOIが親指の指先、かつ第2のPOIが手先である。
「クリックジェスチャ」は、例えば、持続期間が時間遅延閾値に応じて決定され得る非常に短い期間維持される手のポーズの検出など、散発的なイベントに対応することを特徴とするジェスチャである。「クリックジェスチャ」は、詳しくは、考慮される2つのPOI間の接触が、所定の時間遅延閾値を下回る持続期間を有する非常に短い期間維持されることを特徴とする、上述された「摘む」および「掴む」ジェスチャに対応するが、その限りではない。あるいは「クリックジェスチャ」は、例えば所定の距離および所定の期間内で(主成分分析(PCA)によって決定されたような)手の2つの主軸に対して上下に一度素早く振動する人差し指の先や手先など、単一のPOIを用いて実行されることもある。
本発明は一般に、改良された非接触かつ自然な人間対コンピュータインタラクションを提供するための方法に関し、特に、直感的かつ容易に連続して実行される3Dジェスチャを用いてGUIを制御するための方法に関する。ジェスチャは、例えばコンピュータシステムに関連する3Dカメラなどの距離撮像システムによって時間に対して連続的に捕捉されたユーザの手の動作によって空間内で実行される。本明細書で説明される方法に従って作動するコンピュータシステム、3Dカメラ、およびGUIは、非接触かつ自然な人間対コンピュータインタラクションシステムを形成する。測距カメラデバイスに対するユーザの位置は、インタラクトしている手およびその手のPOIが測距カメラデバイスの撮像センサにおいて撮像され得る限り、重要ではない。
本発明によると、ハンドジェスチャ情報は、測距カメラデバイスによって提供されるデータから抽出され、そのデータは、少なくとも画素ごとの奥行き測定値、および任意選択的にシーン照明および/または色情報を備える(頂点のセットとも称される)3D点群あるいは奥行きマップの形式をとる。
本発明の実施形態によると、図1は、方法の3つの主な処理ステップ、すなわち、インタラクトしているハンドパラメータが検出、識別、および経時的に追跡され、関連するPOIを定める第1のステップ(ステップ100)、考慮されている関連POIの動作およびポーズから3Dジェスチャが認識される第2のステップ(ステップ101)、および、ステップ(101)によって認識された所定の3Dジェスチャのセットが、GUIとのインタラクションを制御するために用いられる第3のステップ(ステップ102)のフロー図を示す。GUIとのインタラクションの制御は更に、ステップ(100)において検出されるPOIの数や識別を変更し得るフィードバックループ(103)、または数を変更し得る別のフィードバックループ(104)を更に備え得る。
第1のステップ、ステップ100は、ハンドパラメータのセットを検出、識別、および追跡することを目的とし、それらによって、いくつかの関連POI、すなわち特異POIまたはPOIが、GUIとの更なるインタラクションを可能にする3Dジェスチャを決定するために選択されることになる。ハンドパラメータは、少なくとも1つ、好適には2つの安定した信頼できるPOIを提供することができるように、好適には、手先部、すなわち手先および指先を含み得るがその限りではない。更に、ステップ100は、手の平半径、手の平開度、および手の平垂線というパラメータの少なくとも1つを決定することも備え得る。更に、ハンドパラメータが決定される元となる少なくとも1つの信頼できるPOIを用いて、方法は更に、GUIとインタラクトしているポインタに関連させるための少なくとも1つのPOIを決定することを備える。
本発明の第1のステップは、ユーザの少なくとも1つの手を備える奥行きマップまたは対応する3D点群(すなわち、頂点のセット)の形式で、入力情報を用いる。奥行きマップは、当該技術において知られている方法に従っていくつかのクラスタに分割され、クラスタの各々は適切にラベル付けされる。使用されると識別された手に対応するラベルも提供される。インタラクトする手は、無作為に(例えば、両手の一方の選択、左手)、あるいは空間内の位置や動作から自動的に決定され得る(例えば、動きを示すラベル付きの手が選択され得る)。但し、インタラクトする手に対応するラベル付き3D点のみが、後続する処理ステップにおいて考慮されることになる。
第1の一態様において、ステップ100は、手の平中心を検出および決定することを第1に備えてよく、これは、「距離変換」の事前計算を必要とし、その出力は、使用されると識別された手の距離マップである。手の平中心の検出は必須ではないが、ポインティングジェスチャインタラクションのための基準として用いられる比較的安定したPOIを提供するために有利なモードである。手の距離マップは、例えば図8に示すような、手の各画素が、最も近い手の境界線までの現実世界のメトリックシステムでの距離に等しい値を有する画像であり、ここで、使用されるラベル付きの手は、背景から、および他の任意の不要なユーザのラベル付き身体部分から切り出される。図において、手の表現における各画素の中身が暗くなるほど、その画素は、ラベル付きの手の中心から遠くなる。そのような距離マップ画像は、手の2値ラベル画像における2つのパスを用いて計算され得る。距離変換を実行するためにいくつかの方法が用いられ得る。しかし、本発明における1つの重要な点は、ラベル画像の各画素が3D点群における位置に対応するので、また、距離マップにおける各距離は現実世界における距離メトリックに対応するので、各画素について得られた距離値は、現実世界におけるメトリック距離に関連し得る点である。例えば距離変換は、第1のパスが2値ラベル画像の左上の角から右下の角に向かい、第2のパスが反対の方向に向かう2パス処理を用いて実行され得る。各パスについて、距離は、各画素について累積され、既にパスによって処理された全ての直接隣り合う画素の最小値の和に対応する。例えば、第1のパスにおいて、画素のすぐ隣は、左、斜め左、上、および斜め右の画素であってよい。現在画素について決定された距離は、4つの隣り合う画素の最小値足す1であると決定され得る。更に、画素の基本的な幾何学的特性を考慮すると、横/縦に隣り合う画素の値は、例えば5の値など所定の係数によって加重され、斜めに隣り合う画素は、例えば7の値など別の所定の重み係数によって加重され得る。7/5の比は、典型的な正方画素の対角線と辺との間で保つ比に一致する

。平方根計算は更に多くの処理ユニットリソースを必要とするため、そのような比を用いることは、計算の最適化において好適な実施形態である。更に、処理効率を向上させるために、奥行きマップ全体の限られた部分が処理されることになり、その境界は、奥行きマップ内で考慮される手に対応するラベル付き3Dピントの最大値および最小値および上下左右の部分によって定められる。手の平中心の位置を概算するために、処理はその後、少なくとも距離情報強度が手の他の全ての画素の最大値である画素の位置を決定することを備え、好適な実施形態において、事前に決定される手の平中心までの距離を最小にすることは、事前に決定される手の平中心位置の場所を滑らかに変更することを可能にするために考慮され得る。そのように概算された手の平中心の位置を精密化するために当該技術による3D安定化技術が更に用いられ得る。
別の態様においてステップ100は、例えば手の3D点群にわたり実行されるPCAなどを用いて手先の3D位置を検出および決定することも備える。起点が手の平の中心であるように設定され、かつ方向がPCAによって求められる主方向であるように設定された3Dベクトルを用いて、手の主方向を定めるベクトルの各セクションについて、主方向に直交する別のベクトルの方向に従って、ベクトル主軸から手の輪郭までの画素(または3D点)の数をカウントするために、ヒストグラムが計算される。
主方向を表すベクトルの各セクションは、例えば1mm刻みの距離メトリックによって表現され得る。生成されたヒストグラムが最も高いエネルギを示す正規直交方向(すなわち、整数値が最大である点)を選択することによって、あるいは手の2つの主方向によって形成される2本の軸およびカメラ座標系の2本の所定の軸によってそれぞれ形成される面によって生じる角度を最大化するように、主方向に直交するベクトルは、手の主方向に対するカメラ位置の配置に関して、PCAによって得られた手の第2の主方向から任意に選択され得る。そのように決定されたヒストグラムを用いて、その後、手先は、手の画素の最小数が投影された主ベクトルのセクションに対応するエリアとして決定され得る。好適な一実施形態において、投影される画素が少ないヒストグラムのセクションに対応し、ゆえに手先であると決定される空間における手の主方向に沿った手の最も厚い部分に対応する、2つの所定の閾値の間の範囲が例えば95%〜99%の範囲などに定められ得る。概算された手先の位置を精密化するために、当該技術分野において周知である3D安定化技術が追加として用いられ得る。
ステップ100はその後、(図3aを参照して以下で説明されるような)入力奥行きマップ301における手のポーズに関わらず手先の3D位置を検出および決定することを備える。手先は、指先に近い、手の末端部に対応するエリアを備える。そのような検出を遂行するために、(図3bを参照して以下で説明されるような)「応答画像」302が決定され得る。応答画像において、画素の値は、3D点が表現される基準3D座標系に関して、考慮される各画素と隣り合う8つの画素との奥行きの差を表す。高い値は、末端部である可能性が高いことを示す。各画素(3D点)の値は、一般的な8つの方向(すなわち、上、左上、右、右下、下、左下、左、左上)に沿った8つの隣り合う画素から計算される。各方向において、現在点から2cmの距離にある画素(3D点)が考慮される。各方向における2cmの距離の投影にどの画素が対応するかを調べるために、撮像デバイスすなわちカメラの規格は、現在点の奥行き値と併用されるか、あるいは基準3D座標系を用いて容易に決定される。この動作はもちろん、有効な画素、すなわち所定の閾値を上回る信頼値を有する画素(3D点)についてのみ行われる。信頼値は、画素において受ける赤外線(IR)照明の量を表す。それら8つの画素について、現在画素との3D位置の差が決定され、現在画素の値は、3番目に小さい値と考えられる。例えば、図3aおよび図3bに対応する一実施形態において、手がカメラに面している場合、3D位置の差は奥行きの差にほぼ一致するであろう。3番目に小さい値は、任意の非末端部が、1つの側面(例えば手の平の側面)に連結されないことによって大きい値を有することが容易であるため、および、手のそれらの部分は指としての応答を提供しないことが望まれるため、選択される。しかし指も、それらが手に連結される何らかの方向を有し得る。そのため、2つの最小応答値を有する2つの方向は無視される。いくつかの手のポーズは、手の物理的な末端部の各々について適切な応答を提供しないことがあり、例えば、閉じた握りこぶしは、手先に対応する単一の応答を提供するであろうことに留意する。しかし本発明は、2つのPOI(すなわち末端部)が使用でき、ポインティングジェスチャがある場合、手の平中心の推定されたPOI位置からそれが実行され得る、所定のジェスチャのセットに頼ってインタラクションが設計されるので、そのような可能性による影響を受けない。
更に、応答画像および奥行きマップ画像に基づいて、連結された成分画像が決定され得る。これは、2つの隣接する画素(すなわち3D点)の両方が応答画像において正の応答値を有する場合、すなわちそれらが末端部であり、かつ奥行きにおいて十分に近い(例えば1cm以内)場合に限り、それらに同じラベルを設定することを可能にするラベル画像に対応する。つまり、2つの隣り合う画素(すなわち3D点)は、それらが、例えば1cmなどの所定の閾値を上回る、例えば図3に従う奥行き差などの距離値差を有する場合、あるいは、それらの1つが、末端部応答画像において正の応答値を有さない場合、同じラベルを有さないことになる。この画像はその後、2つの目的のために用いられ得る。第1は、単一の手末端部が指先であるように、末端部応答を集合的にグループ化し指先候補にすることを可能にすることであり、第2は、画像から不所望の小さな応答を除去することである。具体的には、成分のサイズが例えば1cmなど所定の閾値よりも小さい場合、それは却下され得る。
本発明の方法は更に、手の平中心、手先、指先、あるいは、それらのパラメータの位置の組み合わせから補間される位置にある点の中から、事前に決定されたハンドパラメータの少なくとも1つを選択することによってPOIを決定することを備える。好適には、2つのPOIは、本発明の特定のインタラクションに従って決定されなければならない。POIの数および識別は、GUIによって必要とされるインタラクションによって制御されるフィードバックループ103によって設定され得る。具体的には、POIの決定は、手先に対応するラベル付き応答を用いることを必要とする。これは、互いの距離に基づいて(成分が孤立しているほど、重みが大きくなるように)応答画像における各ラベル付き手先部応答(すなわち、成分)について重み付け値を計算することによって実現され得る。このように、少なくとも2つのPOIの事前選択は、2つの最も大きい重みを有する2つの成分を選択することによって容易に実行され得る。
本発明の好適な一実施形態において、応答画像における成分全ての中から中心点が決定され得る。手成分の3D点全ての単純な加重和が重み付け手段として用いられる場合、手の上部に目に見える指が多く存在し、そのため、親指の先の応答のみが存在する下側領域よりも上側領域でより強い応答が得られるので、得られる中心点は、手の上部に偏在することになる。この事態を回避するため、各成分の重み付けは、応答が属する成分の識別に従って精密化される。(例えば、親指の指先に対応する成分など)成分が他の全ての成分から離れている場合、それはより大きい重みを有し、(例えば、指先など)他の成分に近接している場合、それはより小さな重みを有することになる。それによって、孤立した指(ほとんどの場合、親指)が、その他の指が見えている場合、それらよりも高い重み付けを得ることが保証される。またそれによって、少なくとも手先と比較される親指の指先すなわち親指の先をより堅固に識別すること、および/または、上記親指に対する、またPCAによって得られた手の主方向および手の平中心位置に対するその他の指先の位置に関して個別に識別され得るその他の指の指先をより堅固に識別することが保証される。
この目的のために、成分間の距離は、例えば5という所定の係数と手の半径との乗算として計算される手の長さによって正規化され得る。末端部全ての中心点が、事前に定められた成分重み付けを用いて加重和として計算される。中心点が決定されると、それは、3Dデカルト空間において成分を区別するために用いられる。そのために、決定された中心点と手の平中心とを通る面が用いられる。好適には、面の一方の側面に親指があり、他方の側面に他の指があることが目的であるので、中心点および手の平中心によって形成される軸に対する面の向きは、2つの主成分の中心点の面までの距離を同時に最大化するように連続的に決定され得る。そのように決定された面が与えられると、その後、手の点は、面におけるそれらの側面に従って容易に分類され得る。更に、検出された使用できる成分の数、それら各々のサイズおよび位置に従って、親指の指先成分、手先成分、または他の指先成分の少なくとも1つであってよい、使用できる成分のアイデンティティを正確に判別することが可能となる。その後、ステップ(103)におけるフィードバックループによって提供され得る、インタラクションに必要な成分の識別に従って、2つの「POI」の選択が実行され得る。
更に、本発明が、自然な3Dジェスチャを認識するために2つのPOIを検出および追跡することを必要とする場合、3Dジェスチャが「ポインティング」インタラクションジェスチャであれば、単一のPOIで十分になり得る。そのような単一のPOIは、手の平中心であるように設定され得る。好適な実施形態において、第1のPOIは親指の指先のPOIであり、第2のPOIは手先部の1つのPOIまたは例えば人差し指の先のPOIなど1つの別の指先のPOIである、2つの「POI」が決定されると、2つのPOIの間の追加の安定した仮想POIが、当該技術分野において周知である補間技術によって計算され得る。仮想POIは、手の平中心の動きによって調整され「ポインティングジェスチャ」を可能にするために用いられ得る「POI」の中心であってよい。
図2において、「掴む」姿勢を取っている手の側面図が示され、手先POI201、親指の先POI202、手の平中心POI203の位置、および他の上述したPOIを用いて計算される追加の安定した仮想POI204の位置が図上に示される。具体的には、この仮想POIの位置は、手の平中心が例えば3mmなど所定の距離を上回って動いた場合のみ更新され得る。これは、本発明の有利な一態様を保証する。すなわち、ユーザは、彼/彼女が「摘むジェスチャ」、「クリックジェスチャ」または「掴むジェスチャ」を同時に実行しなければならない場合にも、彼/彼女の指先によるインタラクション(すなわちポインティング)を自然かつ快適に感じるであろう。更に、仮想POIの動きを手の平中心の動きと関連させることによって、これは、ノイズ、ジッター、または僅かな指の動きに関わらず、手が動かない場合、仮想POIに関連するポインタが動かないことを保証する。更に、仮想POIの位置におけるジッターを回避するために、この処理は、2値、すなわち開始または停止ではなく、過去のフレームにおける仮想POI位置と新たに検出された仮想POIの位置の中心との間の単純な線形回帰によって、0〜3mmの範囲内の手の平中心の動きから平滑化され得る。当該技術分野において周知である3D安定化技術は、好適には、概算されたPOI位置を精密化するために用いられ得る。
図3aにおいて、開いた、すなわち解除された「摘む」ポーズを取っている手の前面図奥行きマップ301が示される。ここでは、人差し指の先および親指の先に対応するPOIが示される。図3bは、図3aに示す奥行きマップに対応する応答マップ302を示す。見て分かるように、応答マップ302は、人差し指の先、および親指の先に関する明確な応答信号を示す。
更に、追加の一実施形態において、手の平垂線は、手の平自体の向きを決定するため、および、指のアイデンティティを区別するために定められる面を精密化するために用いられ得る。手の平垂線は、手の平中心から指先の中心点位置までのベクトルと、事前に決定された手の平垂線との間の角度を用いて調整され得る。この角度は、2つの情報セット間の滑らかなブレンディングを実現するために、いくつかのカスタムパラメタリゼーションに従って重み付けされ得る。手の平垂線は、PCAを用いて計算され、重要性が最も低い方向であるように設定される。
更に、手の平半径の正確な推定値は、手の平中心から最も近い手の輪郭までの距離の推定値を用いること、および、手の平中心の現在位置における奥行き値およびカメラの規格を用いることによって、距離マップから得ることができる。
更に、一般的に手が開いているか閉じているかを表すブール値であってよい手の開度は、事前に決定されたPOIから得ることもできる。手は、指先が検出されない場合(すなわち、指先に対応するPOIが存在しない場合)、閉じているとみなされる。2つのPOIが使用できる場合、手の開度は、選択された2つのPOI間の距離と手の平半径との比を用いて更新され得る。その比が所定の閾値よりも小さく、かつ事前に手が開いているとみなされていた場合、手の開度は調整され、閉じているとしてフラグ付けされることになる。比が別の所定の閾値を上回る場合、手は開いているとみなされることになる。
手におけるPOIを決定するための上述した方法が好適な実施形態である場合、本発明のステップ100は、代替または補足として、3D撮像システムの視野内でインタラクトする手のモデルを用い得る。手のモデルは、手に対応する3D点群において追跡および適合され得る。例えば、手の骨格モデルが用いられ得る。周知の適合および追跡技術は、ハンドパラメータの各々の3D位置をリアルタイムで決定することを可能にする。その後、ハンドパラメータの2つが2つのPOIとして選択されてよく、そこから3Dジェスチャが更に認識される。各ハンドパラメータはモデル内で識別されるので、この選択は容易に行われ、インタフェースを制御するために用いられるジェスチャが、どのハンドパラメータが選択されるべきかを定めることになる。例えば、「摘む」3Dジェスチャを可能にするためのPOIとして、親指の指先および人差し指の先が選択され、「掴む」3Dジェスチャを可能にするための2つのPOIとして、親指の指先および手先が選択されるだろう。
POIの検出および決定は、本方法に関わらず、後述するようなマルチハンドインタラクションを可能にするように、シーン内の複数の手において実行され得ることに留意すべきである。
本発明の第2のステップ(ステップ101)は、GUIとのインタラクションを制御する必要な所定の3Dジェスチャを検出するために、ステップ100で決定された少なくとも1つの手におけるPOIの選択の経時的な追跡および分析を備える。ステップ102において予想され詳述されるインタラクションによると、様々な所定の3Dジェスチャはフレームごとに個別に、連続して、および好適には同時に認識され得る。3Dジェスチャの認識を実行するために、まず、各POIの経時的な空間内での位置が追跡される。
第1のジェスチャ認識の一態様において、単一のPOIの経時的な3D位置は、従来の「ポインティング」ジェスチャに入力を提供するために用いられ得る。選択されたPOIの空間における相対位置は、それに応じてスクリーンに表示されるポインタが動くことを可能にする。例えばPOIは、手先がいずれも使用できない場合は手の平中心であり、信頼できる指先が使用できない場合は手先であり、ポインティングのためには人差し指が自然に用いられるので、使用できる場合、好適には人差し指の先であり、あるいは必要であれば他の任意の指先であってよい。他の一実施形態において、他の指先は仮想POIであってよく、3D空間におけるその位置は、手の平中心、指先、および手先の中から少なくとも2つの所定のハンドパラメータによる補間位置を用いて計算される。更に、GUI内のポインタに関連するPOIは、ハンドパラメータに対応する他の任意の安定したPOIに従って精密化された位置を有し得る。例えば、ユーザがポインティングジェスチャを実行する時、手の実際の自発的な動きを検証するために手の平中心点が用いられ得るため、GUI内のポインタに関連するPOIの位置は、空間における手の平中心点の位置に従って精密化され得る。どのPOIが使用されるかの決定は、柔軟性を伴わず静的に設定され得るが、パラメトリックかつ、フィードバックループ103を用いるインタラクションによって制御されてもよい。更に有利な実施形態において、「ポインティングジェスチャ」は、フレームごとにどのハンドパラメータが使用できる場合であっても実行され得るので、インタラクションの連続性が可能になり得る。更に詳しくは、どのハンドパラメータが使用できるかに従ってGUI内のポインタに関連するPOIを設定するために、ステートマシンを備える自動化処理が用いられ得る。例えば好適には、人間工学および自然性に関して、「ポインティングジェスチャ」は、第1に他の2つから補間される仮想POIに関連し、第2に人差し指の先に対応するPOIに関連し、第3に手先に対応するPOIに関連し、そして最後に、常に使用できるので、手の平中心点に関連することになる。
更に、上述したように、ポインタのスクリーン上での位置は、それが関連するPOIの空間内の位置に対して相対的に設定され得る。他の一実施形態において、ポインタの位置は、それが関連する手におけるPOIの動きの絶対メトリック距離に関して移動し得る。
第2のジェスチャ認識の態様において、「クリックジェスチャ」、「掴むジェスチャ」、または「摘むジェスチャ」の中から少なくとも1つの動的ジェスチャの発生または解除の検出に少なくとも対応する入力を提供するために、2つのPOIが用いられる。これらのジェスチャや、それらの発生または解除の認識は、それぞれ「開始イベント」および「停止イベント」を個々にトリガすることが意図される。好適な実施形態において、連続的な「ポインティングジェスチャ」を潜在的に同時に実行している方の手において2つのPOIが選択され得る。しかし2つのPOIは、距離撮像センサによって撮像されたもう一方の手において事前に定められていることがある。一実施形態において、本発明は、ステートマシンを使用することにより自然なジェスチャベースのインタラクションを実行するために人間工学的に最も使用可能性のあるPOIを自動的に管理および決定することを備え得るので、少なくとも2つのPOIが使用できる場合、ステップ100において選択されたPOIに関して、「掴むジェスチャ」と「摘むジェスチャ」とを区別することが自動的に可能となる。選択された2つのPOIが手先および親指の先である場合、ジェスチャは「掴むジェスチャ」になり、選択された2つのPOIが人差し指の先および親指の先である場合、ジェスチャは「摘むジェスチャ」になる。「クリックジェスチャ」もまた、「掴むジェスチャ」および「摘むジェスチャ」のいずれか1つを実行する時、2つのPOIが、所定の時間閾値(例えば0.5秒)を下回る短い期間で互いに近づき合い、その期間の間、2つのPOIが合わさり(通常、手先として検出され得る種類の)単一のPOIを形成し、その期間の後、元の2つのPOIが再び検出され、非接触状態/姿勢に戻ることで特徴付けられる、「掴むジェスチャ」または「摘むジェスチャ」のいずれかに対応するものとして区別される。「クリックジェスチャ」は、動的な指ベース3Dジェスチャである。
一方の片手の手先または1本の指の指先が使用できる状態に対応する特定の一実施形態において、そのような場合、その片手の使用可能な末端部に関連するPOIの特定の動きによって、「クリックジェスチャ」は、それがトリガされ得るような本方法に従って可能にもなる。更に詳しくは、「クリックジェスチャ」イベントは、POIが、例えば上下の動きなど1回の振動の形式をとる動作を実行する場合に限り、トリガされてよく、その動きは、所定の距離閾値を下回り(例えば2cm未満)、その持続期間は、時間閾値よりも短い(例えば0.5秒未満)。この特定の実施形態は、用いられる検出および追跡方法に関わらずPOI追跡が失われ得る場合、インタラクション方法をより堅固にする。
「掴むジェスチャ」および「摘むジェスチャ」それぞれの発生および解除イベントの検出に関して、それらのイベントはそれぞれ、手および指ベースの動的ジェスチャの分析によって判別される。更に詳しくは、発生および解除イベントの検出は、追跡されている2つのPOIのアイデンティティ(すなわち、親指の指先と手の指先、または親指の指先と人差し指の先)に応じて決定されてよく、2つのPOIが互いに近づき合い単一のPOIを形成すると、またはそれらの間の距離が所定の閾値(例えば0.2mm)未満になると、それぞれ、「掴み発生イベント」や「摘み発生イベント」がトリガされ、「開始ジェスチャイベント」として設定され得る。2つのPOIが単一のPOIを形成することによって「開始ジェスチャイベント」をトリガした場合、あるいはそれらの間の距離が所定の閾値(例えば0.2mm)未満になった場合、かつ、単一のPOIが再び元の2つのPOIになり、および/または2つのPOI間の距離が別の所定の閾値(例えば0.3mm)を上回ると、それぞれ、「掴み解除イベント」または「摘み解除イベント」がトリガされ、「停止ジェスチャイベント」として設定され得る。好適には、2つのPOIが距離閾値に近づいた時の不安定で断片的な検出を回避するために、「開始ジェスチャイベント」および「停止ジェスチャイベント」を検出するための距離閾値基準とともにヒステリシス関数が用いられ得る。例えば、人間工学的かつ自然なジェスチャに関する本発明の好適な一実施形態において、方法は、「摘む」動的ジェスチャ検出を可能にするために手先部から選択された少なくとも2つのPOIの分析を備える。上述したように、「摘む」は、任意選択的に少なくとも1つのポインタとして表示される、互いに近づき合うことができる2つの向かい合った先端部に対応してよく、2つの手先、関連するPOI、またはポインタの間の距離は、連続測定である「摘み」の程度の判別を可能にする。好適には、「摘む」ジェスチャは、図6に関して以下で説明されるように、親指の指先が第1の選択されたPOIに対応し、人差し指の先が第2の選択されたPOIに対応する時に実行されるジェスチャとして事前に定められる。
また、本発明の第2のステップ101の更に好適な一実施形態において、距離撮像カメラデバイスがインタラクトしている手の上面図を捕捉する場合、例えば3Dカメラデバイスが車両の天井に設置され、ユーザが右手を自由に動かしながら座っている場合、第1の実施形態の方法は、手形状のある所定の透視図において穴の状態を検出することによって「開始ジェスチャイベント」および「停止ジェスチャイベント」の検出を強化することを目的とするいくつかの追加の処理によって改良され得る。右手の検出は、(例えば、欧州、米国、カナダなどにおける)左ハンドルを有する車両の場合であり、(例えば英国、オーストラリア、ニュージーランドなどにおける)右ハンドルを有する車両の場合は左手の検出が適していることが理解されるであろう。
挙げられた例によると、図6は、600で示すような「摘む」3Dジェスチャに基づく指先の2D上面図または表現を示す。ここで、事前に選択されたインタラクトする手は、少なくとも2つの明確に区別される指および指先を備え、(透視図によると)610に示すそれらの2D形状は、指が、「3D摘むジェスチャ開始イベント」または単に「開始ジェスチャイベント」をトリガし得る「摘み発生」ポーズを取る場合、穴602を備える。
そのように、「摘み発生」ポーズは「開始」イベントに対応し、その時点から、手による、あるいはそれに限られないが例えばある所定の注視点(例えば質量の中心)など手における少なくとも1つの特定の特徴による任意の後続動作が追跡され、3Dジェスチャが実行されたかを判別するために分析される。追跡および分析は、手のポーズが解除されるまで、すなわち本実施形態において「摘み発生」ポーズが停止するまで維持される。
図7は、穴602を伴う601として図6に示されるものと同じ手形状表現700を示す。手形状表現700は、PCAによって決定されたような手の主方向705に平行に沿った手の平中心703から突出する複数の平行な近傍線706を示すとともに穴701を含み、その上に、(有限平均奥行き値を有する)手の物質から隙間までの推移、あるいは大幅に異なる奥行き値(すなわち、手の物質の有限平均値との差が所定の閾値を上回る奥行き値や背景に対応する値)を検出すると、手のエッジおよび穴候補のエッジ702を決定するために表現に対応する奥行きマップの境界線まで、少なくとも2本の直交する線704が投影される。更に詳しくは、「物質」から「物質無し」までの各推移について、投影された光線は、画像における手の輪郭全体を検出することを可能にする。更に、各推移について、投影された線が推移を伴わず画像の境界線に達する場合、その推移は手の輪郭としてフラグ付けされ、一方、投影された光線において検出された他のエッジは702に示すものと同様の穴候補としてフラグ付けされる。各穴エッジ候補について、その後、ループを定める経路が検査され得る。経路解析アルゴリズムは、手形状における実際の穴として検証されるために所定の閾値(例えば2cm)を上回らなければならない穴候補の輪郭長さを測定するために用いられ得る。複数の近傍線706は、手における完全かつ正確な輪郭検出を可能にするために用いられ得る。
穴検出方法に関する他の方法も用いられ得る。例えば、追跡される手の透視図の3D点群または2D表現は、ハンドパラメータ(例えば指のサイズ)に準拠する寸法に対するクラスタの平均サイズによって制約を受ける撮像デバイスすなわちカメラと手との平均距離に応じて決定され得る所定の数のクラスタにクラスタ化され得る。連結成分分析(すなわち、クラスタの連結)に基づく穴検出は、その後、撮像された手における穴の有無を判別するために用いられ得る。検出された穴の数、サイズ、形状、または他のパラメータは、検出ステップを強化し、手が取っている静的ポーズにおける有効な穴の存在を検証するために更に用いられ得る。
上述した指先または手先ベースの「摘むジェスチャ」の発生および「掴むジェスチャ」の発生のそれぞれおよび解除の検出に関して、それらのジェスチャは、別のステートマシンを備え得る上述した穴検出処理を用いることによって改良され得る。例えば「摘むジェスチャ」の発生および「掴むジェスチャ」の発生はそれぞれ、穴検出が検証される場合に限り、検証され得る。この目的のため、ステートマシンは、「待ち」ステータスによって初期化され得る。手先から2つの区別されるPOIが検出され次第、ステートマシンは「開始」ステータスに設定される。2つのPOIが互いに近づく動きに続いてPOIの数が2から1になると、まず穴候補の状態が検査され、次に使用できるPOIの数の安定性が検査される、検証ステップが開始される。POIの数の変化の頻度が所定の閾値を上回る場合、または穴が検出されない場合、「開始イベントジェスチャ」の検証は却下され、両者が満たされる場合、「開始ベントジェスチャ」が検証され、それに応じてステートマシンのステータスが設定される。ステータスにおける断片的な変化を更に良好に回避するために、例えばヒステリシス関数など最新技術による更なるフィルタリングがステートマシンのステータスに適用され得る。
本発明の第3かつ最後のステップであるステップ102は、(ステップ101によって)認識された3Dジェスチャによる情報を入力情報として用いて柔軟で堅固かつ自然な人間対コンピュータインタラクションを提供することを備える。インタラクションスキームは、更に具体的には、3つの後続ジェスチャが実行されることが必要不可欠であること、および、それら3つの後続ジェスチャが自然なインタラクションを可能にすることを特徴とする。それらのジェスチャの中で、少なくとも1つは(ハンドまたは指先ベースの)連続的な動的ジェスチャであり、他の2つはジェスチャベースイベント、好適には指先ジェスチャベースイベントである。更に詳しくは、ユーザの手の連続した自由な動作において、方法は、所定の人間対コンピュータインタラクションの始まり(開始)をトリガする第1の所定の3Dジェスチャイベント、人間対コンピュータインタラクションを制御する第2の後続(連続的インタラクション)3Dジェスチャ、第3の所定の(停止)3Dジェスチャイベントが認識されると終了する第2の(連続的インタラクション)3Dジェスチャを検出することを備え得る。
更に具体的には、第1のジェスチャイベントは好適には、「クリックジェスチャ」、「摘むジェスチャ」、「掴むジェスチャ」、または開閉ハンドジェスチャの1つを用いて実行される3Dジェスチャである。第2のジェスチャは通常、GUI内のポインタが、ポインティングジェスチャが関連するPOIの位置に関連付けられると、GUIの任意の部分へのアクセスを可能にする「ポインティングジェスチャ」であり、第3のジェスチャは、「摘むジェスチャ」、「掴むジェスチャ」、「閉ハンドイベントジェスチャ」、または「クリックイベントジェスチャ」や「開ハンドイベントジェスチャ」の新たな発生を考慮すると、インタラクションの終了をトリガする第1のジェスチャの解除である。
本発明のスキームに特有の1つの利点は、様々なGUIを用いる自然な指およびハンドベースインタラクションを可能にする3つの後続する所定のジェスチャを必要とすることであり、接触または接触素子が操作されることを一切必要としない共通のデバイスベースインタラクティブシステム(例えばマウスやタッチスクリーン)のインタラクションを含む。例えば、本発明の一実施形態によると、例えば車両GPSシステムなどのナビゲーションシステムにおける3Dハンドジェスチャベースインタラクションは、片手を用いて安全に制御され得る。
図4は、自然なハンドベース3Dジェスチャによってスクリーン403上のマップ内でナビゲートするために実行される連続的な手の動作400の軌跡の背面図を示す。ナビゲーションは、点線400によって示される軌跡を伴う連続的な手の動作中に実行される、示された開始ジェスチャ検出401と停止ジェスチャ検出時間402との間に発生するスクロールインタラクションを備える。スクリーン上のマップに関連する移動/スクロールは、インタラクションが終了すると406を中心とするエリア404から407を中心とするエリア405に移動するようにマップの位置を変更する。ユーザが実行している3Dジェスチャに関するユーザへの視覚フィードバックを可能にするために、ユーザのインタラクトしている手における1つのPOIに関連するポインタが継続的に表示され得る。
例えば、本発明の別の一実施形態によると、様々なウインドウを備えるGUIにおける3Dハンドジェスチャベースナビゲーションは、片手を用いて安全に制御され得る。
図5は、自然なハンドベース3Dジェスチャによってディスプレイスクリーン503内にGUI505またはスライドを変更するために実行される連続的な手の動作500の軌跡の背面図を示す。ユーザの片手におけるPOIに関連するポインタがフィードバック情報として表示され得る。軌跡506を通るその動きは、例えば、それが関連するPOIの点線500によって示されるような絶対変位に相対的な絶対変位になるようにされる。ユーザのインタラクトしている手の連続的な動作中、501における摘むジェスチャの検出によって第1の「開始イベントジェスチャ」がトリガされると、502において「摘むジェスチャ」が解除されて「停止イベントジェスチャ」が検出されるまで、インタラクトしている手の自然な連続した動作の距離および方向が測定される。「開始ジェスチャ」イベント507および「停止ジェスチャ」イベント508が示される軌跡506に沿った(円によって示す)ポインタの移動に対応するその動作によると、動作が所定の距離閾値(例えば5cm)を上回る場合、および軌跡が一方向におけるリニアリティ相関値(例えば、0.8の線形相関比)を示す場合、および動作が所定の期間内(例えば、1秒未満)で実行される場合。それによって、以前は表示されていなかったウインドウやGUIすなわちスライド504が表示され、以前表示されていたウインドウやGUIすなわちスライド505がスクリーンから消去される。インタフェースに従って、軌跡は、上下左右方向への動きの少なくとも1つ、あるいはそれらの動作の組み合わせであってよく、それらは例えば、自動車用インフォテイメントシステムにおいて、オーディオメニューからGPSメニュー、またビデオメニューに至る推移を可能にするなど、メニューを制御および変更することが意図され得る。
例えば、本発明の別の一態様によると、インタラクションは、距離および時間閾値を用いずにポインティングジェスチャを用いることによってインタフェース、ウインドウ、またはGUIを変更することを備え得る。更に詳しくは、「クリックジェスチャ」、「摘むジェスチャ」、「掴むジェスチャ」の1つによる開始ジェスチャが検出されると、ポインタの後続位置が、ディスプレイスクリーンに対するその位置に応じてGUIへの変更を決定することになる。ポインタがスクリーンの上端に到達すると、例えばオーディオシステムにおいて音楽のプレイリストをスライドさせるように、GUIは上部にスライドされ得る。インタラクションは、任意の方向に従って設定されてよく、連続的であってもステップごとベースであってもよい。
例えば、本発明の別の一態様によると、インタラクションは、GUIにズームインすることを備え得る。ズーム機能は例えば、「掴むジェスチャ」に関連してよく、「クリック」および/または「摘むジェスチャ」の認識を用いる他の種類のインタラクションを可能にする。「掴むジェスチャ」の発生として識別されるような「開始イベント」がトリガされると、例えば、掴むジェスチャが維持されている間、それが解除されるまで、ディスプレイスクリーンに手を近づけるような連続的な動きは表示されたGUIにズームインし、ディスプレイスクリーンから遠ざかる動きはGUIからズームアウトする。
本発明の態様は特定の実施形態に関して説明されてきたが、これらの態様は、一方の手で「開始および停止ジェスチャ」を、もう一方の手で連続的な「インタラクションジェスチャ」をトリガするために両手を併用することを含む他の形式で実現され得ることが容易に理解されるであろう。

Claims (13)

  1. 3次元ハンドジェスチャベース認識システムを用いる自然な人間対コンピュータインタラクションを提供するための方法であって、
    a)ユーザの手における少なくとも2つの注視点を決定するステップと、
    b)前記少なくとも2つの注視点によって実行される自然なジェスチャを認識するステップであって、
    b1)3次元空間における2つの注視点が互いに近づき合う場合に前記2つの注視点の間の距離が所定の閾値を下回ることを判別することによって、人間対コンピュータインタラクションの始まりをトリガする3次元ハンドポーズに対応する第1の自然なジェスチャを認識することと、
    b2)前記第1の3次元ハンドポーズが続く限り制御される連続的な人間対コンピュータインタラクションを制御するために、前記手の少なくとも1つの注視点の動きから第2の自然なジェスチャを認識することと、
    b3)前記人間対コンピュータインタラクションの終了をトリガするために、前記第1の3次元ハンドポーズが解除され次第判別される第3の自然なジェスチャを認識することと
    を含むステップと、
    c)前記注視点によって実行される一連の前記第1、第2、および第3の自然なジェスチャを用いてグラフィカルユーザインタフェースとインタラクトするステップと
    を含む方法。
  2. 前記対応する3次元ハンドポーズが所定の3次元形状透視図において検出される穴を備える場合、前記第1の自然なジェスチャを検証することをステップb1)が更に含む、請求項1に記載の方法。
  3. 前記穴がもはや検出されない場合、前記第3の自然なジェスチャのトリガを判別することをステップb3)が更に含む、請求項2に記載の方法。
  4. ステップb2)は、前記少なくとも1つの注視点の位置の連続的な変化を検出および追跡することを含む、請求項1〜3のうちいずれか1項に記載の方法。
  5. ステップb1)およびb3)は、ステップb2)のために用いられる注視点とは異なる注視点を用いることを含む、請求項4に記載の方法。
  6. ポインティングジェスチャを可能にするために、少なくとも1つのポインタのスクリーン上の表現を前記手の注視点と関連させるステップと、
    前記第1の自然なジェスチャがステップb1)において認識されると、前記ポインタの前記スクリーン上の表現を、それが指しているグラフィカルユーザインタフェース内の可動要素および表示されたグラフィカルユーザインタフェースにおいてそれが指している位置のうちの少なくとも1つにロックするステップと、
    前記第3の自然なジェスチャがステップb3)において認識されると、前記スクリーン上の表現をロック解除するステップと
    を更に含む、請求項1〜5のいずれか1項に記載の方法。
  7. 前記少なくとも1つのポインタのスクリーン上の表現がロックされる場合、ステップb2)は、前記第2の自然なジェスチャに対応する前記少なくとも1つの注視点の位置の変化に対して前記少なくとも1つのポインタがロックされる前記グラフィカルユーザインタフェース内の前記可動要素の位置を変化させることを含む、請求項6に記載の方法。
  8. 前記第1および第3の自然なジェスチャは、開閉ハンドジェスチャ、指先ベースの「クリック」ジェスチャ、指先ベースの「摘む」ジェスチャ、および手先ベースの「掴む」ジェスチャのうちの少なくとも1つのアクティブ化および非アクティブ化にそれぞれ対応する、請求項1〜7のいずれか1項に記載の方法。
  9. グラフィカルユーザインタフェースのスクロール、グラフィカルユーザインタフェース上でのズーム効果、グラフィカルユーザインタフェースに関連する要素のスクロール、およびグラフィカルユーザインタフェースの変更のうちの少なくとも1つを制御するために、前記第2の自然なジェスチャに関する少なくとも1つの注視点の位置の変化を用いることをステップb2)が含む、請求項1〜8のいずれか1項に記載の方法。
  10. ステップb)は、ユーザの手において決定される注視点を用いてハンドジェスチャを認識することを含み、前記認識は、3次元手骨格モデリング技術および3次元手先およびパラメータ検出技術のうちの少なくとも1つを用いて実行される、請求項1〜9のいずれか1項に記載の方法。
  11. 前記第1、第2、および第3の自然なジェスチャは、少なくとも1つの手を用いて実行される、請求項1〜10のいずれか1項に記載の方法。
  12. ステップb1)およびb3)は第1の手を用いて実行され、ステップb2)は別の手を用いて実行される、請求項1〜11のいずれか1項に記載の方法。
  13. グラフィカルユーザインタフェースの変更は、ステップb2)において実行される前記第2の自然なジェスチャの方向に依存する、請求項9〜12のいずれか1項に記載の方法。
JP2016518540A 2014-01-07 2015-01-06 人間対コンピュータの自然な3次元ハンドジェスチャベースのナビゲーション方法 Pending JP2016520946A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP14150363.1A EP2891950B1 (en) 2014-01-07 2014-01-07 Human-to-computer natural three-dimensional hand gesture based navigation method
EP14150363.1 2014-01-07
PCT/EP2015/050091 WO2015104257A1 (en) 2014-01-07 2015-01-06 Human-to-computer natural three-dimensional hand gesture based navigation method

Publications (1)

Publication Number Publication Date
JP2016520946A true JP2016520946A (ja) 2016-07-14

Family

ID=49920160

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016518540A Pending JP2016520946A (ja) 2014-01-07 2015-01-06 人間対コンピュータの自然な3次元ハンドジェスチャベースのナビゲーション方法

Country Status (6)

Country Link
US (1) US11294470B2 (ja)
EP (1) EP2891950B1 (ja)
JP (1) JP2016520946A (ja)
KR (1) KR101761050B1 (ja)
CN (1) CN105849673A (ja)
WO (1) WO2015104257A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018077839A (ja) * 2016-11-10 2018-05-17 メタル インダストリーズ リサーチ アンド ディベロップメント センター 深度値に基づいたジェスチャ操作方法および深度値に基づいたジェスチャ操作システム
JP2020052991A (ja) * 2018-09-25 2020-04-02 未來市股▲ふん▼有限公司 ジェスチャ認識に基づく対話型ディスプレイの方法及び装置
WO2023214542A1 (ja) * 2022-05-02 2023-11-09 ディープインサイト株式会社 コンピュータプログラム、画像処理装置、画像処理方法及び車載インタフェース装置

Families Citing this family (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2872967B1 (en) 2012-07-13 2018-11-21 Sony Depthsensing Solutions SA/NV Method and system for detecting hand-related parameters for human-to-computer gesture-based interaction
WO2014129683A1 (ko) * 2013-02-21 2014-08-28 엘지전자 주식회사 원격 포인팅 방법
US9645654B2 (en) * 2013-12-04 2017-05-09 Leap Motion, Inc. Initializing predictive information for free space gesture control and communication
US9778750B2 (en) * 2014-09-30 2017-10-03 Xerox Corporation Hand-gesture-based region of interest localization
KR101636460B1 (ko) * 2014-11-05 2016-07-05 삼성전자주식회사 전자 장치 및 그 제어 방법
US10628505B2 (en) * 2016-03-30 2020-04-21 Microsoft Technology Licensing, Llc Using gesture selection to obtain contextually relevant information
KR20170128668A (ko) * 2016-05-12 2017-11-23 한국전자통신연구원 핸드 제스처 인식 장치 및 방법
CN109153332B (zh) 2016-05-20 2022-07-08 福特全球技术公司 车辆用户接口的手语输入
WO2017212641A1 (ja) * 2016-06-10 2017-12-14 三菱電機株式会社 ユーザインタフェース装置及びユーザインタフェース方法
US10102423B2 (en) * 2016-06-30 2018-10-16 Snap Inc. Object modeling and replacement in a video stream
US10192147B2 (en) * 2016-08-30 2019-01-29 Microsoft Technology Licensing, Llc Foreign substance detection in a depth sensing system
DE102016216577A1 (de) * 2016-09-01 2018-03-01 Volkswagen Aktiengesellschaft Verfahren zur Interaktion mit Bildinhalten, die auf einer Anzeigevorrichtung in einem Fahrzeug dargestellt werden
US9958951B1 (en) * 2016-09-12 2018-05-01 Meta Company System and method for providing views of virtual content in an augmented reality environment
WO2018084577A1 (en) 2016-11-03 2018-05-11 Samsung Electronics Co., Ltd. Data recognition model construction apparatus and method for constructing data recognition model thereof, and data recognition apparatus and method for recognizing data thereof
CN107015658A (zh) * 2017-04-25 2017-08-04 北京视据科技有限公司 一种空间图形数据可视化的控制方法及装置
CN107678551B (zh) * 2017-10-19 2021-12-28 京东方科技集团股份有限公司 手势识别方法和装置、电子设备
WO2019134888A1 (en) 2018-01-03 2019-07-11 Sony Semiconductor Solutions Corporation Gesture recognition using a mobile device
CN108363542A (zh) * 2018-03-13 2018-08-03 北京硬壳科技有限公司 基于悬浮触控的内容交互方法和装置
CN108537827A (zh) * 2018-03-23 2018-09-14 上海数迹智能科技有限公司 一种基于深度图的实时低复杂度手指运动轨迹形状识别算法
CN108985259B (zh) * 2018-08-03 2022-03-18 百度在线网络技术(北京)有限公司 人体动作识别方法和装置
TWI710973B (zh) 2018-08-10 2020-11-21 緯創資通股份有限公司 手勢識別方法、手勢識別模組及手勢識別系統
CN109582136B (zh) * 2018-11-13 2022-05-03 深圳市创凯智能股份有限公司 三维窗口手势导航方法、装置、移动终端及存储介质
CN110433489A (zh) * 2018-11-28 2019-11-12 网易(杭州)网络有限公司 游戏中瞄准的控制方法、装置、存储介质和电子装置
CN109582144A (zh) * 2018-12-06 2019-04-05 江苏萝卜交通科技有限公司 一种人机交互的手势识别方法
EP3948498A4 (en) * 2019-03-28 2022-12-28 Ghsp, Inc. INTERACTIVE KITCHEN DISPLAY
CN110555408B (zh) * 2019-09-03 2023-07-28 深圳龙岗智能视听研究院 一种基于自适应映射关系的单摄像头实时三维人体姿态检测方法
US11150800B1 (en) * 2019-09-16 2021-10-19 Facebook Technologies, Llc Pinch-based input systems and methods
SG10201913029SA (en) * 2019-12-23 2021-04-29 Sensetime Int Pte Ltd Target tracking method and apparatus, electronic device, and storage medium
US11256413B2 (en) * 2020-02-10 2022-02-22 Synaptics Incorporated Non-contact gesture commands for touch screens
US11237641B2 (en) * 2020-03-27 2022-02-01 Lenovo (Singapore) Pte. Ltd. Palm based object position adjustment
CN112288771B (zh) * 2020-10-14 2022-03-25 华南农业大学 群体环境中多猪体运动轨迹提取和行为分析方法
CN114639158A (zh) * 2020-11-30 2022-06-17 伊姆西Ip控股有限责任公司 计算机交互方法、设备和程序产品
JP2022087700A (ja) * 2020-12-01 2022-06-13 京セラドキュメントソリューションズ株式会社 電子機器および画像形成装置
US11416079B2 (en) * 2020-12-03 2022-08-16 Motorola Mobility Llc Snap motion gesture detection and response
EP4281946A1 (en) 2021-01-25 2023-11-29 Sony Semiconductor Solutions Corporation Electronic device, method and computer program
CN112784926A (zh) * 2021-02-07 2021-05-11 四川长虹电器股份有限公司 一种手势交互的方法和系统
CN113238650B (zh) * 2021-04-15 2023-04-07 青岛小鸟看看科技有限公司 手势识别和控制的方法、装置及虚拟现实设备
CN113158912B (zh) * 2021-04-25 2023-12-26 北京华捷艾米科技有限公司 手势识别方法及装置、存储介质及电子设备
TWI790764B (zh) * 2021-09-30 2023-01-21 宏碁股份有限公司 三維手勢偵測裝置及三維手勢偵測方法
US11768544B2 (en) * 2022-02-01 2023-09-26 Microsoft Technology Licensing, Llc Gesture recognition based on likelihood of interaction
CN114387626B (zh) * 2022-03-23 2022-08-26 合肥的卢深视科技有限公司 一种手势分类方法、装置、电子设备及存储介质
EP4339745A1 (en) * 2022-09-19 2024-03-20 ameria AG Touchless user-interface control method including fading

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006268212A (ja) * 2005-03-23 2006-10-05 Hiroshi Mitsumata 命令入力装置
JP2010152791A (ja) * 2008-12-26 2010-07-08 Nippon Syst Wear Kk 対象物検出用画像処理装置、方法、プログラム、並びに該プログラムを格納するコンピュータ可読媒体
JP2012160051A (ja) * 2011-02-01 2012-08-23 Kddi Corp 情報端末装置
US20130033459A1 (en) * 2010-04-13 2013-02-07 Nokia Corporation Apparatus, method, computer program and user interface
WO2013147804A1 (en) * 2012-03-29 2013-10-03 Intel Corporation Creation of three-dimensional graphics using gestures
EP2680228A1 (en) * 2012-06-25 2014-01-01 Softkinetic Software Improvements in or relating to three dimensional close interactions.
JP2014235634A (ja) * 2013-06-04 2014-12-15 国立大学法人 筑波大学 手指動作検出装置、手指動作検出方法、手指動作検出プログラム、及び仮想物体処理システム

Family Cites Families (69)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5724264A (en) 1993-07-16 1998-03-03 Immersion Human Interface Corp. Method and apparatus for tracking the position and orientation of a stylus and for digitizing a 3-D object
US5936612A (en) 1997-05-30 1999-08-10 Wang; Yanqing Computer input device and method for 3-D direct manipulation of graphic objects
AU6419200A (en) 1999-07-30 2001-02-19 Yanqing Wang Computer input device for multiple-dimensional control
JP2003256850A (ja) * 2001-12-27 2003-09-12 Sanyo Electric Co Ltd 動き認識装置および画像処理装置並びにプログラム
JP4355341B2 (ja) * 2003-05-29 2009-10-28 本田技研工業株式会社 深度データを用いたビジュアルトラッキング
US20060277466A1 (en) 2005-05-13 2006-12-07 Anderson Thomas G Bimodal user interaction with a simulated object
JP2009042796A (ja) 2005-11-25 2009-02-26 Panasonic Corp ジェスチャー入力装置および方法
US8086971B2 (en) 2006-06-28 2011-12-27 Nokia Corporation Apparatus, methods and computer program products providing finger-based and hand-based gesture commands for portable electronic device applications
US8411149B2 (en) 2006-08-03 2013-04-02 Alterface S.A. Method and device for identifying and extracting images of multiple users, and for recognizing user gestures
US20100023314A1 (en) 2006-08-13 2010-01-28 Jose Hernandez-Rebollar ASL Glove with 3-Axis Accelerometers
CN101952818B (zh) * 2007-09-14 2016-05-25 智慧投资控股81有限责任公司 基于姿态的用户交互的处理
CN101874404B (zh) 2007-09-24 2013-09-18 高通股份有限公司 用于语音和视频通信的增强接口
US8005263B2 (en) * 2007-10-26 2011-08-23 Honda Motor Co., Ltd. Hand sign recognition using label assignment
US20090172606A1 (en) * 2007-12-31 2009-07-02 Motorola, Inc. Method and apparatus for two-handed computer user interface with gesture recognition
EP2258587A4 (en) 2008-03-19 2013-08-07 Denso Corp OPERATING DEVICE FOR A VEHICLE
JP5077774B2 (ja) 2008-03-19 2012-11-21 株式会社デンソー 車両用操作入力装置
US20090254855A1 (en) 2008-04-08 2009-10-08 Sony Ericsson Mobile Communications, Ab Communication terminals with superimposed user interface
JP2010079332A (ja) 2008-09-24 2010-04-08 Mitsubishi Electric Corp 遠隔操作装置及び遠隔操作方法
US20100177039A1 (en) 2009-01-10 2010-07-15 Isaac Grant Finger Indicia Input Device for Computer
US9507411B2 (en) 2009-09-22 2016-11-29 Facebook, Inc. Hand tracker for device with display
US20110115892A1 (en) 2009-11-13 2011-05-19 VisionBrite Technologies, Inc. Real-time embedded visible spectrum light vision-based human finger detection and tracking method
US8843857B2 (en) * 2009-11-19 2014-09-23 Microsoft Corporation Distance scalable no touch computing
US8522308B2 (en) * 2010-02-11 2013-08-27 Verizon Patent And Licensing Inc. Systems and methods for providing a spatial-input-based multi-user shared display experience
CN102844733A (zh) * 2010-02-26 2012-12-26 喀普康有限公司 计算机装置、存储介质以及控制方法
CN102236409A (zh) * 2010-04-30 2011-11-09 宏碁股份有限公司 基于影像的动作手势辨识方法及系统
JP2011258130A (ja) * 2010-06-11 2011-12-22 Namco Bandai Games Inc プログラム、情報記憶媒体及び画像生成システム
US8639020B1 (en) * 2010-06-16 2014-01-28 Intel Corporation Method and system for modeling subjects from a depth map
US20110317871A1 (en) * 2010-06-29 2011-12-29 Microsoft Corporation Skeletal joint recognition and tracking system
US9098182B2 (en) * 2010-07-30 2015-08-04 Apple Inc. Device, method, and graphical user interface for copying user interface objects between content regions
JP2012073658A (ja) 2010-09-01 2012-04-12 Shinsedai Kk コンピュータシステム
US8743064B2 (en) * 2010-09-17 2014-06-03 A.I. Solutions, Inc. Gesture orbit design
US9213890B2 (en) 2010-09-17 2015-12-15 Sony Corporation Gesture recognition system for TV control
JP2012068690A (ja) 2010-09-21 2012-04-05 Univ Of Tsukuba 手指ジェスチャ検出装置
WO2012054830A1 (en) * 2010-10-21 2012-04-26 SET Corporation Method and system of video object tracking
US20110139600A1 (en) 2010-11-29 2011-06-16 King Fahd University Of Petroleum And Minerals Gaseous density convective desalination and cooling system
US9104308B2 (en) * 2010-12-17 2015-08-11 The Hong Kong University Of Science And Technology Multi-touch finger registration and its applications
US8488888B2 (en) 2010-12-28 2013-07-16 Microsoft Corporation Classification of posture states
EP2474950B1 (en) 2011-01-05 2013-08-21 Softkinetic Software Natural gesture based user interface methods and systems
US9201590B2 (en) * 2011-03-16 2015-12-01 Lg Electronics Inc. Method and electronic device for gesture-based key input
US9152306B2 (en) * 2011-03-29 2015-10-06 Intel Corporation Techniques for touch and non-touch user interaction input
US10671841B2 (en) * 2011-05-02 2020-06-02 Microsoft Technology Licensing, Llc Attribute state classification
US9104271B1 (en) 2011-06-03 2015-08-11 Richard Adams Gloved human-machine interface
US8929612B2 (en) 2011-06-06 2015-01-06 Microsoft Corporation System for recognizing an open or closed hand
JP5845002B2 (ja) 2011-06-07 2016-01-20 ソニー株式会社 画像処理装置および方法、並びにプログラム
JP6074170B2 (ja) 2011-06-23 2017-02-01 インテル・コーポレーション 近距離動作のトラッキングのシステムおよび方法
CN102841733B (zh) * 2011-06-24 2015-02-18 株式会社理光 虚拟触摸屏系统以及自动切换交互模式的方法
US9377867B2 (en) * 2011-08-11 2016-06-28 Eyesight Mobile Technologies Ltd. Gesture based interface system and method
US20130104086A1 (en) 2011-10-21 2013-04-25 Digital Artforms, Inc. Systems and methods for human-computer interaction using a two handed interface
CN103946863A (zh) * 2011-11-01 2014-07-23 英特尔公司 基于动态姿态的短距离人机交互
TW201322058A (zh) * 2011-11-16 2013-06-01 Chunghwa Picture Tubes Ltd 手勢辨識系統及方法
US9400600B2 (en) * 2011-12-16 2016-07-26 Samsung Electronics Co., Ltd. Method, apparatus, and graphical user interface for providing visual effects on a touchscreen display
KR101237472B1 (ko) * 2011-12-30 2013-02-28 삼성전자주식회사 전자 장치 및 그의 제어 방법
EP2613223A1 (en) 2012-01-09 2013-07-10 Softkinetic Software System and method for enhanced gesture-based interaction
US8854433B1 (en) * 2012-02-03 2014-10-07 Aquifi, Inc. Method and system enabling natural user interface gestures with an electronic system
US9111135B2 (en) 2012-06-25 2015-08-18 Aquifi, Inc. Systems and methods for tracking human hands using parts based template matching using corresponding pixels in bounded regions of a sequence of frames that are a specified distance interval from a reference camera
US8934675B2 (en) 2012-06-25 2015-01-13 Aquifi, Inc. Systems and methods for tracking human hands by performing parts based template matching using images from multiple viewpoints
EP2872967B1 (en) 2012-07-13 2018-11-21 Sony Depthsensing Solutions SA/NV Method and system for detecting hand-related parameters for human-to-computer gesture-based interaction
US9152173B2 (en) 2012-10-09 2015-10-06 Microsoft Technology Licensing, Llc Transparent display device
US9019267B2 (en) 2012-10-30 2015-04-28 Apple Inc. Depth mapping with enhanced resolution
US9720505B2 (en) * 2013-01-03 2017-08-01 Meta Company Extramissive spatial imaging digital eye glass apparatuses, methods and systems for virtual or augmediated vision, manipulation, creation, or interaction with objects, materials, or other entities
US9129155B2 (en) 2013-01-30 2015-09-08 Aquifi, Inc. Systems and methods for initializing motion tracking of human hands using template matching within bounded regions determined using a depth map
US9092665B2 (en) 2013-01-30 2015-07-28 Aquifi, Inc Systems and methods for initializing motion tracking of human hands
CN103971400B (zh) 2013-02-06 2018-02-02 阿里巴巴集团控股有限公司 一种基于标识码的三维交互的方法和系统
US9310851B2 (en) 2013-06-03 2016-04-12 Amchael Visual Technology Corporation Three-dimensional (3D) human-computer interaction system using computer mouse as a 3D pointing device and an operation method thereof
CN105980965A (zh) * 2013-10-10 2016-09-28 视力移动科技公司 用于非接触式打字的系统、设备和方法
US9494415B2 (en) 2013-11-07 2016-11-15 Intel Corporation Object position determination
US10416834B1 (en) * 2013-11-15 2019-09-17 Leap Motion, Inc. Interaction strength using virtual objects for machine control
ITCO20130068A1 (it) * 2013-12-18 2015-06-19 Nu Tech S A S Di De Michele Marco & Co Metodo per fornire comandi d'utente ad un elaboratore elettronico e relativi programma per elaborare e circuito elettronico.
KR20150084524A (ko) 2014-01-14 2015-07-22 삼성전자주식회사 디스플레이 장치 및 이의 제어 방법

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006268212A (ja) * 2005-03-23 2006-10-05 Hiroshi Mitsumata 命令入力装置
JP2010152791A (ja) * 2008-12-26 2010-07-08 Nippon Syst Wear Kk 対象物検出用画像処理装置、方法、プログラム、並びに該プログラムを格納するコンピュータ可読媒体
US20130033459A1 (en) * 2010-04-13 2013-02-07 Nokia Corporation Apparatus, method, computer program and user interface
JP2012160051A (ja) * 2011-02-01 2012-08-23 Kddi Corp 情報端末装置
WO2013147804A1 (en) * 2012-03-29 2013-10-03 Intel Corporation Creation of three-dimensional graphics using gestures
EP2680228A1 (en) * 2012-06-25 2014-01-01 Softkinetic Software Improvements in or relating to three dimensional close interactions.
JP2015510203A (ja) * 2012-06-25 2015-04-02 ソフトキネティック ソフトウェア 3次元の近接インタラクションにおける、又は3次元の近接インタラクションに関連する改善
JP2014235634A (ja) * 2013-06-04 2014-12-15 国立大学法人 筑波大学 手指動作検出装置、手指動作検出方法、手指動作検出プログラム、及び仮想物体処理システム

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
入江 耕太 他: "ジェスチャ認識を用いたインテリジェントルームの構築", 第21回日本ロボット学会学術講演会予稿集CD−ROM 2003年, JPN6016039120, 20 September 2003 (2003-09-20), JP, pages 15 - 1, ISSN: 0003418935 *
大槻 麻衣 他: "3D空間における仮想オブジェクトの分解・観察に適した操作法の提案と実装", 日本バーチャルリアリティ学会論文誌, vol. 第16巻、第2号, JPN6016039118, 30 June 2011 (2011-06-30), JP, pages 227 - 237, ISSN: 0003677578 *
大槻 麻衣 他: "3D空間中に配置された電子オブジェクト選択のための空間クリッピング手法の提案と実装", HUMAN INTERFACE 2010 論文集 地球と生きる [DVD−ROM] ヒューマンインタ, JPN6016039119, 7 September 2010 (2010-09-07), JP, pages 457 - 460, ISSN: 0003418934 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018077839A (ja) * 2016-11-10 2018-05-17 メタル インダストリーズ リサーチ アンド ディベロップメント センター 深度値に基づいたジェスチャ操作方法および深度値に基づいたジェスチャ操作システム
US10824240B2 (en) 2016-11-10 2020-11-03 Metal Industries Research & Development Centre Gesture operation method based on depth values and system thereof
JP2020052991A (ja) * 2018-09-25 2020-04-02 未來市股▲ふん▼有限公司 ジェスチャ認識に基づく対話型ディスプレイの方法及び装置
US10732725B2 (en) 2018-09-25 2020-08-04 XRSpace CO., LTD. Method and apparatus of interactive display based on gesture recognition
WO2023214542A1 (ja) * 2022-05-02 2023-11-09 ディープインサイト株式会社 コンピュータプログラム、画像処理装置、画像処理方法及び車載インタフェース装置

Also Published As

Publication number Publication date
WO2015104257A1 (en) 2015-07-16
US11294470B2 (en) 2022-04-05
EP2891950A1 (en) 2015-07-08
CN105849673A (zh) 2016-08-10
KR101761050B1 (ko) 2017-07-24
EP2891950B1 (en) 2018-08-15
US20160124513A1 (en) 2016-05-05
KR20160006751A (ko) 2016-01-19

Similar Documents

Publication Publication Date Title
JP2016520946A (ja) 人間対コンピュータの自然な3次元ハンドジェスチャベースのナビゲーション方法
JP6360050B2 (ja) 手の上の特異な注目すべき点を使用した人間−コンピュータ・ジェスチャ・ベース同時相互作用のための方法及びシステム
US10248218B2 (en) Systems and methods of direct pointing detection for interaction with a digital device
US8666115B2 (en) Computer vision gesture based control of a device
KR101688355B1 (ko) 다수의 지각 감지 입력의 상호작용
CN105229582B (zh) 基于近距离传感器和图像传感器的手势检测
CN108845668B (zh) 人机交互系统和方法
US20140139429A1 (en) System and method for computer vision based hand gesture identification
KR20130105725A (ko) 콘텐츠의 양 손 제어에 기반한 컴퓨터 비전
WO2012170349A2 (en) System for finger recognition and tracking
AU2012268589A1 (en) System for finger recognition and tracking
WO2012081012A1 (en) Computer vision based hand identification
US20140053115A1 (en) Computer vision gesture based control of a device
WO2017029749A1 (ja) 情報処理装置、その制御方法、プログラム、及び記憶媒体
US8970479B1 (en) Hand gesture detection
CN105759955B (zh) 输入装置
KR101386655B1 (ko) 3d 공간 터치 시스템 및 방법

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151209

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161005

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161013

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170113

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20170224

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170720

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20171107