JP6360050B2 - 手の上の特異な注目すべき点を使用した人間−コンピュータ・ジェスチャ・ベース同時相互作用のための方法及びシステム - Google Patents

手の上の特異な注目すべき点を使用した人間−コンピュータ・ジェスチャ・ベース同時相互作用のための方法及びシステム Download PDF

Info

Publication number
JP6360050B2
JP6360050B2 JP2015521026A JP2015521026A JP6360050B2 JP 6360050 B2 JP6360050 B2 JP 6360050B2 JP 2015521026 A JP2015521026 A JP 2015521026A JP 2015521026 A JP2015521026 A JP 2015521026A JP 6360050 B2 JP6360050 B2 JP 6360050B2
Authority
JP
Japan
Prior art keywords
hand
tip
points
gesture
notable
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015521026A
Other languages
English (en)
Other versions
JP2015522195A (ja
Inventor
ピノー、ジル
サリホグル、ウトク
ソウザ、カルロス
トロ、ジュリアン
ギーグ、ローラン
Original Assignee
ソフトキネティック ソフトウェア
ソフトキネティック ソフトウェア
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソフトキネティック ソフトウェア, ソフトキネティック ソフトウェア filed Critical ソフトキネティック ソフトウェア
Publication of JP2015522195A publication Critical patent/JP2015522195A/ja
Application granted granted Critical
Publication of JP6360050B2 publication Critical patent/JP6360050B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/113Recognition of static hand signs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Description

本発明は、ユーザの少なくとも片方の手によって実施されるジェスチャに基づく人間−コンピュータの自然な相互作用(interaction)の改善、又はそれに関連する改善に関し、より詳細には、それには限定されないが、その片方の手を使用して同時に実施されるポインティング・ジェスチャ及び起動ジェスチャなどの複数の三次元(3D:three dimensional)ジェスチャの検出に関する。本発明は、ユーザの少なくとも一方の手を含む3Dシーンを取り込むための深度知覚画像化デバイス、及び個々の片方の手によって同時に実施され得る複数の3Dジェスチャの同時認識を可能にする計算手段の使用を含む。詳細には、本発明は、手の末端、複数の指の先端、複数の手の先端、手の質量中心及び掌中心など、3Dジェスチャを認識するための入力として使用される、手の上の複数の特異な複数の注目すべき点(POI:points of interest)を検出し、空間中で追跡し、且つ、解析するための手段を備えている。本発明は、さらに、識別された手及び/又は指並びにそれらの関連する複数の注目すべき点によって実施される3Dジェスチャを使用し、ユーザが、特に同時のポインティング及び起動ジェスチャを使用してコンピュータ・システムと自然且つ直感的に相互作用することを可能にするグラフィカル・ユーザ・インタフェース・システムに関する。
従来の人間−コンピュータ・インタフェースは、通常、キーボード、マウス、遠隔制御及びポインティング・デバイスなどのハードウェア制御システム・インタフェースを含む。このようなインタフェースの場合、そのインタフェースが相互作用することが意図されているコンピュータ・システムに制御コマンドを送ることができるように、ハードウェア・デバイス自体を使用して、これらのデバイス・インタフェースによって可能にされるように物理的なアクション、例えば接触アクション、移動アクション、保持アクション、ポインティング・アクション、プレス・アクション、クリック・アクションを実施しなければならず、さらには複数のこれらのアクションを、一緒に、連続的に、又は同時に実施しなければならない。
ごく最近、例えば米国特許出願公開第2011/0115892(A)号明細書に記載されているような自然な相互作用システムが出現し、可視スペクトルの光を取り込むため、及びユーザの指を検出するために従来の二次元(2D:two dimensional)カメラが使用されている。しかしながらその種の技術の限界のため、指のような対象、例えば取り込まれたシーンの中のペンが指として誤って識別又は検出される可能性があり、或いはシーン照度に対する依存性のために指の追跡が失われる可能性がある。しかしながら最新の画像化処理技法によれば、従来のカメラを使用して手を検出することができ、且つ、手の末端の解析を可能にする入力を提供することができる。しかしながらこれらの技法を使用しても、3Dシーンの中に存在している何らかの他の末端を正確に解析することは依然として不可能であり、とりわけ、異なる距離における強い頑強性(robustness)又は背景照度に対する強い頑強性において解析することは依然として不可能である。
米国特許出願公開第2012/0069168(A)号明細書では、シーンから抽出される手のマスクを使用して、異なる手に関連するデータ、つまり掌中心及び掌のつけね、並びに掌中心から手の輪郭即ち端部までの距離などの手パラメータを見出すために色情報が使用されている。これらの距離は、手が閉じているか、或いは開いているかどうかを評価するためにさらに使用することも可能であり、また、その評価から、「選択」すなわち「つかむ(grab)」に関連するジェスチャを手が実施しているかどうかを決定することも可能である。しかしながらジェスチャに基づくこのような方法には限界があり、コンピュータとの相互作用のような3Dポインティングを解決するための頑強とした方法を提供することはできず、また、色を区別することができない暗い環境で動作させることもできない。さらに、提供される距離は単なる相対測値にすぎないため、検出される「つかむ」ジェスチャは極めて不正確であり、したがってセンサ又は画像化デバイスから様々な距離に位置している仮想対象を正確に「指示(point)」し、且つ、「つかむ」ために使用することはできない。さらに、このような方法は、正確且つ信頼性の高い「つかむ」ジェスチャを得るためには不可欠であり、或いはシーンの中の手の「つまむ(pinch)」ジェスチャのレベル又は相対量を測定するためには同じく不可欠である、3Dシーンの中の2つの独立した複数の注目すべき点の間の正確な目標距離などの情報を提供しない。
しかしながら第3の時限、即ち深度に関連する情報は重要な追加であり、それは、現在ではレンジ・センシング・カメラからの入力を使用することによって決定することができる。さらに、レンジ・センシング・カメラは、例えば可視スペクトルの代わりに赤外スペクトルで動作させることができる。このようなレンジ・センシング・カメラは、シーン取込みがシーンの自然な照度に無関係であり、また、画像知覚デバイスからの距離がいかなる距離であれ、対象の絶対サイズ及び複数の注目すべき点の間の距離を決定することができるため、より頑強とした、且つ、より安定した、信頼性の高い正確なユーザの手のモデルを有するための可能性を切り開く三次元(3D)情報を提供する。
これまでは、手の指の追跡又は三次元における何らかの他の関連する複数の注目すべき点の追跡と共に手の頑強とした検出及びその追跡は不可能であった。さらに、片方の手又はその関連する特異な複数の注目すべき点によって連続的又は同時に実施される異なる種類のジェスチャの頑強とした認識も同じく不可能であった。詳細には、3Dシーンの中の少なくとも片方の手の上の複数の特異な複数の注目すべき点を決定することができ、且つ、これらのジェスチャがそれらのジェスチャに関連する片方の手によって同時に実施される場合であっても、誤りである可能性のある検出を招くことなくこれらの複数の注目すべき点を追跡し、それによりポインティング及び起動ジェスチャを認識することができる自然な3Dジェスチャ・ベース相互作用システムは、今のところ存在しない。
グラフィカル・ユーザ・インタフェース(GUI:graphical user interface)技術の分野では、ポインタに基づくインタフェースの使用が一般的であり、また、接触又は多重接触インタフェースの使用が増加している。ポインタに基づくこのようなインタフェースを使用している代表的な入力デバイスには、マウス及びタッチ・スクリーンがある。少なくとも1つのポインタに基づくこのような入力デバイスは、その取扱いが正確であり、また、コマンドを明確に区別し、且つ、関連するコンピュータ・システムのGUI、例えばユーザの相互作用の状態に関する明確なフィードバックをユーザに提供するクリック・ボタンを使用して、同時に特徴を指示し、且つ、起動することができるハードウェア・マウス・デバイスに転送することができる点で有利である。しかしながらハードウェアの使用は、フィードバックの一部を部分的にハードウェア・デバイス自体との接触によって構築しなければならないため、場合によっては不利である。
最近、人間−コンピュータ相互作用を可能にするための画像処理の分野で、指及び手の検出、それらの追跡、それらの識別、及びごく限られた範囲ではあるが、空間におけるそれらの運動の認識に関するいくつかの技法が開発された。さらに、実時間コンピュータ・ビジョン・ベースの人間の指認識は、認証アプリケーションのための指紋認識及び掌紋認識にほとんど的が絞られている。さらに、複雑な背景の中で人間の指を認識することができるようにするために、指の運動の追跡及び定義済みジェスチャにおける指の運動の解釈は、従来、画像化システム及び該画像化システムをサポートしている画像信号処理システムの能力によって制限されている。1つの結論は、手/指3Dジェスチャ・ベースの自然な相互作用のための明確な、疑いの余地のないフィードバックを提供するための努力が真になされていないことである。
一方、ユーザの身体の一部、例えば手又は手の上の指の3D運動を認識し、且つ、追跡することによってポインタを制御するための自然な相互作用技法は、依然として、制御に対応する運動と相互作用自体には無関係の運動に対応する運動とを明確に区別する必要があるため、比較的低い認識比率を示すことが知られている。その問題を解決するための共通の技法は、効率的な片手で同時の「ポインティング」及び「起動(activation)」ジェスチャ認識とは適合しない、連続的に実行される明確な「開始」及び/又は「停止」ジェスチャなどの特殊なアクションを使用するため、非直観的な難しさを要求する。さらに、手又は指ジェスチャ・ベースの自然な相互作用技法は、3D空間におけるユーザの運動に帰し得るポインタの変位をユーザの観点からのマウスの変位に対応させることが依然として困難であるため、同じく問題である。これは、とりわけ、自然ベースの相互作用、詳細には、ジェスチャが認識されたか否かを示すフィードバックを、自然なジェスチャを実施するユーザに提供することができない相互作用形システムと適合して使用するようには開発されていないGUI又は相互作用形システムの場合に言える。これは、起動ボタンが起動フィードバックとして物理的なクリックを提供するハードウェア・マウスとは全く異なる。
米国特許出願公開第2011/0115892(A)号明細書 米国特許出願公開第2012/0069168(A)号明細書
本発明は、一態様では、それらに限定されないが、3Dレンジ・ファインディング画像化システムを使用して取り込まれたシーンから得られる3D点クラウドの中の手及び指の複数の先端を含む、ユーザの少なくとも片方の手のパラメータ及び特異な複数の注目すべき点を検出するための特定の実施態様に関しており、これらの3D点のクラスタは、考察中の手を表す。この検出は、手のポーズ及び配向に無関係に実施することができる。
本発明は、より詳細には、「ポインティング」ジェスチャを可能にするための、片方の手の上の少なくとも第1の注目すべき点、好ましくは先端又は末端の検出に関し、好ましい実施例では、信頼性の高い「つまむ」、「つかむ」、「クリック」又は「スナップ」ジェスチャを可能にするために、少なくとも2つの特異な複数の注目すべき点が関連する連続又は同時相互作用の中で識別される。
より好ましくは、本発明は、片方の手の上の2つのPOIの検出に関し、この検出によって、例えば、人差し指の先端などの検出された末端の中から少なくとも1つの第1のPOIを決定することができ、また、他のPOIを親指の先端などの手の第2の末端として決定することができる。通常、その相互作用のために必要な2つのPOIのうちの1つとして任意の指を割り当てることができる。
他の実施例では、第1のPOIは、例えば人差し指の先端などの指の先端として決定することができ、一方、少なくとも第2のPOIは、3D点クラウド内における掌中心又は手の質量中心として決定することができる。この実施例では、第2のPOIは、ポインティング・ジェスチャのために使用することができ、一方、第1のPOIは、人差し指の先端の上下運動によってトリガされる起動ジェスチャのために使用することができ、つまり、どちらかのジェスチャの何らかの誤った検出を招くことなく、ポインティング・ジェスチャと同時に実施することができる「スナップ(snap)」ジェスチャのために使用することができる。
特定の形態では、方法は、何本かの指が互いにそろうと、複数の手の先端の頑強とした有効な決定を可能にするための手段を備えており、例えば第1の先端を親指の検出された先端として決定することができ、また、他の先端を、他の個々の指が互いにそろった手の末端に対応する手の先端として決定することができ、その末端の位置は、すべての他の複数の指の先端の近似平均位置に対応する。2つの先端が検出され、且つ、対応する複数の注目すべき点が使用される形態では、方法は、第3の注目すべき点の決定をさらに含むことができ、その位置は、後のプロセスでポインタとして使用される重要な「中間(intermediate)」点を生成するために、2つの先端に応じて決定される。特定の実施例では、先端などの2つの注目すべき点の運動は対称的ではないことがあり、したがって正確な自然な相互作用のためには場合によっては問題であるため、この第3の点は、「つまむ」ようなジェスチャの間、その位置のずれが回避されるように決定される。
本発明の方法及びシステムは、手の指の2つの先端の検出に限定されず、同じ手の指の上、及び/又はいくつかの手の上でより多くの先端又はPOIと共に使用することも可能であることは理解されよう。詳細には、方法及びシステムは、「つまむ」又は「つかむ」ベースの相互作用のために最も適した複数の注目すべき点が自動的に決定され、且つ、選択されるように、互いに反対側の少なくとも2つの異なる注目すべき点をいくつかの手の先端の中から区別するための手段を備えている。
本発明は、第2の態様では、少なくとも手の複数の先端及び好ましくはこれらの手の複数の先端に関連する一組の注目すべき点を含む一組の決定された注目すべき点の空間及び時間における配置、及びそれらの互いの関係を解析するための特定の実施態様に関している。解析は、第1のサブ・ステップで、最新技術で知られている方法を使用して、「ポインティング」ジェスチャ又は「スワイプ(swipe)」ジェスチャなどの動的ジェスチャを決定するために、複数の注目すべき点のうちの少なくとも1つの時間の経過に伴う運動を検出し、且つ、認識することを目的としている。解析は、第2のサブ・ステップで、所与の時間点における特定の配置を認識し、且つ、手のポーズを決定するために、複数の注目すべき点の空間配置を一度で検出し、且つ、認識すること、つまり空間におけるそれらの個々の位置を検出し、且つ、認識することを目的としている。所与の時間点における手のポーズ解析には、パターン一致認識方法などの最新技術で知られている任意の他の方法を使用することができる。好ましくは、手のポーズ認識を使用して、複数の注目すべき点を一体にリンクしている幾何学的パラメータを解析することができる。解析は、第3のサブ・ステップで、手の非静的ポーズを有する動的ジェスチャを決定し、且つ、静的ポーズを有する動的ジェスチャからそれらを区別するために、適用可能である場合、時間の経過に伴う複数の注目すべき点の空間配置の変化、つまりそれらの個々の位置の変化を検出し、且つ、認識することを目的としている。詳細には、方法は、少なくとも「つまむ」又は「つかむ」ジェスチャの形態であってもよい手の非静的ポーズを有する動的ジェスチャの認識を含む。
本発明は、第3の態様では、複数の注目すべき点の中から、フィードバック手段を有する特定のシステム、例えばGUIと相互作用するための複数のポインタとして使用される複数の注目すべき点を決定するための方法の特定の実施態様に関しており、その設計は、少なくとも1つのポインタの表現と順応し、好ましくは2つのポインタの表現と順応する。システムのGUIは、さらに、ユーザの手の(複数の)注目すべき点の表現、つまり(複数の)ポインタと組み合わせて使用することができる個々の相互作用能力を有する異なる仮想対象を表すことができる。より好ましくは、表現される仮想対象又はGUIの表面の空間のいくつかの部分は、位置又は(複数の)注目すべき点と関連付けられた(複数の)ポインタによって、或いは(複数の)注目すべき点自体によって実施されるジェスチャに応じてユーザに視覚フィードバックを提供することができる。さらに好ましくは、表現される仮想対象又はGUIの表面の空間のいくつかの部分は、ユーザの手の(複数の)注目すべき点と関連付けられた(複数の)ポインタが特定の位置を指示し、及び/又はジェスチャを実施している場合、或いは(複数の)注目すべき点自体によって特定の位置を指示し、及び/又はジェスチャを実施している場合、ひずみ、移動、明滅、強調又は他の手段の形態の視覚フィードバックをユーザに提供することができる。さらに、(複数の)ポインタは、その位置に応じて、検出されたジェスチャに応じて、或いは相互作用している仮想対象に応じて視覚フィードバックを引き渡すことも可能である。本発明の好ましい実施例では、相互作用は、複数のポインタの、GUI上に表示された対象を使用した文脈的な表現の自動決定、及びGUIの領域内のこれらの対象とのそれらの相互作用と共に、表示するための、手の上の複数の注目すべき点の数の自動決定、及び複数のポインタの数の自動決定をさらに含むことができる。
本発明の他の特徴は、本明細書の特許請求の範囲によって定義される。
本発明をより良好に理解するために、以下、実例として添付の図面を参照する。
本発明による方法の3つの主要な処理ステップの流れ図である。 本発明による方法の第1の主要なステップの4つのサブ・ステップの流れ図である。 いくつかの手パラメータを決定する際に考慮すべき、ユーザの手の可能ポスチャー又はポーズを示す図である。 いくつかの手パラメータを決定する際に考慮すべき、ユーザの手の可能ポスチャー又はポーズを示す図である。 いくつかの手パラメータを決定する際に考慮すべき、ユーザの手の可能ポスチャー又はポーズを示す図である。 いくつかの手パラメータを決定する際に考慮すべき、ユーザの手の可能ポスチャー又はポーズを示す図である。 いくつかの手パラメータを決定する際に考慮すべき、ユーザの手の可能ポスチャー又はポーズを示す図である。 いくつかの手パラメータを決定する際に考慮すべき、ユーザの手の可能ポスチャー又はポーズを示す図である。 本発明による方法によってその先端を決定することができる2本の指を使用して対象をつかむ原理を示す図である。 本発明による方法によってその先端を決定することができる2本の指を使用して対象をつかむ原理を示す図である。 本発明の方法に従って決定するための手のポスチャー(posture:姿勢)における手の複数の先端及び掌中心の位置決めを示す図である。 本発明の方法に従って決定するための手のポスチャーにおける手の複数の先端及び掌中心の位置決めを示す図である。 本発明の方法に従って決定するための手のポスチャーにおける手の複数の先端及び掌中心の位置決めを示す図である。 本発明の方法に従って決定するための手のポスチャーにおける握りこぶしの先端の位置決めを示す図である。 手の複数の先端の位置決め、掌中心、及び重要な追加点の位置決めと重畳した「つかむ」ポスチャー内の手の側面図である。 手の先端の位置決め、親指の先端、及びポインタとして設定することができる重要な追加点の位置決めと重畳した「つかむ」ポスチャー内の手の正面図である。 手の距離マップを示す図である。 開いた「つまむ」姿勢を想定した手の深度マップを示す図である。 図9aの深度マップに対応する応答マップを示す図である。 閉じた「つまむ」姿勢を想定した手の深度マップを示す図である。 図10aの深度マップに対応する応答マップを示す図である。 親指が鮮明な応答信号を生成し、且つ、他の応答が手の先端に対応する、深度マップを示す図である。 図11aの深度マップに対応する応答マップを示す図である。 複数の末端に対する深度マップを示す図である。 図12aの深度マップに対応する応答マップを示す図である。 仮想対象及び複数の手の先端の中から決定された複数の注目すべき点と関連付けられた2つのポインタの表現を含む何らかの相互作用を示す図である。 同時ポインティング及び起動ジェスチャを可能にするポスチャーの中の手の側面図である。
本発明について、特定の実施例に関して、特定の図面を参照して説明するが、本発明はそれらに限定されない。説明される図面は単なる略図にすぎず、非制限である。図面では、何らかの要素のサイズは、実例で説明することを目的として場合によっては誇張されており、スケール通りには描かれていない。
さらに、以下で説明される図の特定の配向は非制限であるが、実例として示されている。
本明細書において使用されている「自然な相互作用」又は「自然な三次元(3D)ジェスチャ・ベース相互作用」という用語は、人間が何らかのハードウェア・デバイス又はマーカを取り扱い、持ち運び、或いは使用する必要がない人間−コンピュータ相互作用を意味しており、相互作用形コンピュータ・システムは、コンピュータを制御するためにユーザによって提供される、好ましくは何らかの計算手段によって認識することができるジェスチャの形態の情報をこれらの計算手段を使用して取り込み、且つ、抽出するための三次元(3D)タイム・オブ・フライト(TOF:time−of−flight)カメラのようなレンジ・ファインディング(range finding)画像化システムなどの画像化手段に関連付けられている。
本明細書において使用されている「ポーズ(pose)」又は「ポスチャー(posture)」という用語は、特定の瞬間における物理的な手のポスチャーを意味している。これは、手の一組の特定の点の位置の空間における特定の配置に対応し、詳細には、空間における、一組の特異な(複数の)注目すべき点の配置に対応する。
本明細書において使用されている「特異な複数の注目すべき点(singular points of interest)」又は「注目すべき点(point of interest)」という用語は、ユーザ特異点の手の上の特異点、つまり手の末端、複数の指の先端、複数の手の先端、手の質量中心、掌中心又は任意の他の点を意味しており、その位置は、時間に対して追跡することができる手から得られる他の信頼性の高い点のうちの少なくとも1つの位置を使用して決定することができる。
「注目すべき点」又は「複数の注目すべき点」という用語は、以下、一括して「POI」として参照され、1つ又は複数の注目すべき点が説明されているかどうかの決定は、「POI」という用語が使用されている文脈から明らかであろう。
本明細書において使用されている「ジェスチャ(gesture)」という用語は、時間に対するPOI又は一組のPOIの空間配置の変化を意味している。追加又は別法として、「ジェスチャ」という用語は、時間に対する、空間におけるPOIの不変の配置の位置の変化を意味することも可能である。ポーズが時間に対して変化しない、つまり空間におけるPOIの配置が不変を維持する場合、それは静的ジェスチャとして説明される。POIの配置が不変を維持し、且つ、配置の位置が時間に対して空間中で変化する場合、これは、静的ポーズを有する動的ジェスチャとして説明することができる。POIの配置が時間に対して変化する場合、これは、異なるポーズを有する動的ジェスチャとして説明される。
本明細書において使用されている「手の先端(hand tip)」という用語は、手の主要な末端に対応する単一のPOIを意味している。手の先端は、より詳細には指の末端に近い平均位置に配置することができる。
本明細書において使用されている「複数の指の先端(finger tips)」という用語は、個々の指の先端又は指の末端を表すいくつかの空間位置を意味している。個々の指の先端は、典型的にはPOIと見なされる。
本明細書において使用されている「複数の手の先端(hand tips)」という用語は、手の先端を意味しており、また、同じく複数の指の先端を意味している。
本明細書において使用されている「ポインタ」又は「複数のポインタ」という用語は、POI又は一組の選択されたPOIの仮想世界における表現を意味している。
本明細書において使用されている「複数のグラバ(grabbers)」という用語は、手の上のPOIと結合している所定の数の複数のポインタを意味している。それらは、基本的に、ユーザが少なくとも一方のユーザの手を使用して「つまむジェスチャ」を実施している場合に、手の重要な末端を識別するために使用される少なくとも2つのポインタを含む。親指及び人差し指を使用する場合、親指及び人差し指の複数の先端は、それぞれ下部及び上部の「複数のグラバ」を含む。3本以上の指が使用される場合、下部「グラバ」は、親指の上に固定することができ、また、上部「グラバ」は、他の指の平均位置であってもよい。さらに、「下部グラバ」及び「上部グラバ」という用語の使用は、シーンに対する関連するPOIの配向を意味している。「下部グラバ」及び「上部グラバ」は、実際上は、シーンの中のPOIの配向に応じて、左側及び右側の「複数のグラバ」と見なすことができる。
本明細書において使用されている「ポインティング」という用語は、「ポインティング・ジェスチャ」を意味している。それは、例えば複数の手の先端のうちの少なくとも1つ又は関連するPOIを、実世界のユーザに関連する基準3D位置、つまり仮想空間における、ポインタの仮想表現が配置される位置を決定するために使用することができる末端に対応する空間中の位置として使用することに対応する。ポインタの仮想表現の位置の決定は、例えば実世界3D空間におけるユーザPOIの絶対位置決めの使用、決定された基準3D位置に対する実世界3D空間におけるユーザPOIの相対位置決めの使用、又は2つのPOIの間に設定されるベクトルの主方向、例えば掌中心から人差し指の先端までのベクトルによって画定される方向によって決定される相対位置決めの使用を始めとするいくつかの方法に従って達成することができる。「ポインティング」は、例えば少なくとも2つのPOIの位置の統計的モードの使用を始めとするいくつかのポインタの追加利用することができることは理解されよう。統計的モードは、例えば、それらの位置の平均、中間、最大、最小又は重み付き合計のうちの少なくとも1つであってもよい。
本明細書において使用されている「起動ジェスチャ」という用語は、システムによって認識され、マウス・クリックの事象トリガと同様の事象トリガとして使用されるジェスチャを意味している。起動ジェスチャは、「つまむ」ジェスチャ、指「スナップ」ジェスチャ及び/又は「つかむ」ジェスチャを含むことができる。
「つまむ(pinching)」という用語は、人間工学考察に関して、手が閉じられ、したがって手の部分を表すPOIの中から選択された少なくとも2つのPOI又はそれらの対応する複数のポインタが互いにより接近することを意味している。「つまむ」は、起動のために使用される認識されたジェスチャであってもよい。2つのPOIの間の距離又は相対距離は、「つまむ」ジェスチャのレベル又は量に関連する値を決定するために追加使用することができる。
「つかむ(grabbing)」という用語は、人間工学考察に関して、手が閉じられ、したがって手の部分を表すPOIの中から選択された少なくとも2つのPOI又はそれらの対応する複数のポインタが、仮想世界におけるそれらの表現の間の距離が「つかまれる」対象又は仮想対象の表現のサイズに対応するまで互いにより接近することを意味している。その時点で、対象は、「つかまれた」と見なすことができ、例えばユーザによって実施されるジェスチャの関数として握られ、移動され、配向され、並進され、引きずられ、落下され、等々の形態で取り扱うことができる。「つかむ」は、認識されたジェスチャであってもよい。
「スナップ・ジェスチャ」という用語は、人間工学考察に関して、指の先端、好ましくは人差し指の先端、又は手の先端に対応するPOIの上下運動、或いはそれらの関連する複数のポインタの上下運動を意味している。「スナップ・ジェスチャ」は、典型的には、人間−機械相互作用システムにおけるクリックなどの事象をトリガリングするための起動ジェスチャとして使用されるジェスチャである。
本明細書において使用されている「手パラメータ」という用語は、手に関連する少なくとも以下のパラメータを意味している。複数の手の先端、掌の中心(「掌中心」と呼ばれる)、掌の半径(「掌半径」と呼ばれる)、掌に対する垂直線(normal)(「掌垂直線」と呼ばれる)、掌の開度(「掌開度」と呼ばれる)、掌のつけね、及び掌中心から手の輪郭までの距離。
本明細書において使用されている「仮想表現(virtual representation)」及び「表現(representation)」という用語は、相互作用対象の仮想世界におけるディジタル図解に対応している。この相互作用対象は、仮想世界自体からの対象、例えばユーザが相互作用することができるオペレーティング・システムのGUIからのフォルダであってもよい。また、この相互作用対象は、実世界からの実相互作用対象の仮想世界におけるディジタル図解、例えばユーザの手であってもよく、その位置は、ポインティング又はオペレーティング・システムのGUIとの仮想世界におけるマウス・ポインティング相互作用を可能にするために、時間に対して追跡される。
本発明は、一般に、非接触の自然な相互作用システムを提供するための装置及び方法に関係しており、より詳細には、手の指及び/又は手自体及び/又は手のパラメータからの3D位置及び3Dジェスチャから決定される制御を使用して、非接触方式で少なくとも1つのマウス・ポインタを制御するための自然な相互作用システムを提供するための装置及び方法に関している。詳細には、「ポインティング」、「つまむ」、「つかむ」又は「スナッピング」ジェスチャ及びそれらの派生物などの頑強とした信頼性の高いポインティング及び起動ジェスチャを検出することができ、それによりこれらのポインティング及び起動ジェスチャに応じて適切な前後関係のフィードバックを提供するシステムとの3Dの自然な相互作用の人間工学を改善することができ、これらのポインティング及び起動ジェスチャは、さらに、連続的に実施することができるだけではなく、同時に実施することも可能である。
本発明の方法は、マルチ・タッチ・スクリーンの種類の相互作用を提供することができ、或いはポインティング及び起動操作を有効に検出する場合、従来のマウスより、より自然な相互作用を単純に提供することができる3D手ジェスチャ認識に基づいているため、従来のマウス・タイプの相互作用に限定されない。
本発明によれば、レンジ・ファインディング・カメラ・デバイスによって提供されるデータ、つまり深度マップ又は3D点クラウド(一組の頂点又は頂点とも呼ばれる)から抽出される手ジェスチャ情報に関連する情報に関連してコンピュータ化されるシステムとの人間の直観的な自然な相互作用を可能にする方法及びシステムが提供される。相互作用は、少なくとも1つのポインタ、好ましくは少なくとも2つのポインタを決定し、それにより適宜に設計されるGUIと文脈的に相互作用するために、所定の手パラメータ、即ち手の掌中心及び複数の手の先端を利用する。
方法は、以下の3つの主要なステップを含む。
第1のステップは、少なくとも掌中心及び複数の手の先端を含む少なくとも1つの手パラメータ及びその特異なPOIの検出を含む。この第1のステップの目的は、いくつかの関連するPOI、つまり、さらなる相互作用のために使用することができる複数のポインタを個々に決定し、或いは組み合わせて決定するために使用することができる特異なPOI又はPOIを決定することである。
第2のステップは、ジェスチャ相互作用を検出するために、少なくとも1つのPOI又はその関連するポインタの選択の時間に対する追跡及び解析を含む。選択されるPOIの数に応じて、少なくともポインティング・ジェスチャを決定することができる。本発明の好ましい実施例によれば、少なくとも2つのPOIが使用される場合、「つまむ」、「つかむ」および「指スナップ」のジェスチャ、及び、それらに潜在的に関連する「クリック」又は「ダブル・クリック」などの相互作用を、ポインティング・ジェスチャとは独立して、或いは同時に決定することができる。
このステップでは、例えば以下のような、認識される様々なジェスチャが存在している。
(i)手の上の単一のPOIを使用した「ポインティング」ジェスチャであって、このような単一のPOIは、指の先端、手の先端、手の掌中心、等々であってもよい。
(ii)手の上の少なくとも2つのPOIを使用した「ポインティング」ジェスチャであって、一実施例では、2つのPOI位置の間の補間は、事実上、ポインタとして作用する他のPOIを提供する。補間のために使用される2つのPOIは、2つの指の先端であっても、1つの指の先端及び手の先端、好ましくは、人間工学的に指の先端とは反対側であるため、例えば親指であっても、1つの指の先端及び手の掌中心であってもよい。他の実施例では、「ポインティング」ジェスチャは、2つのPOI、例えば指先端及び掌中心の間の方向ベクトルを使用して決定される。補間の基本のために、或いは方向ベクトルを決定するために、任意の2つの適切なPOIを使用することができることは理解されよう。
(iii)少なくとも1つの単一のPOIを使用した「起動」又は「起動」ジェスチャであって、例えば掌中心を使用した「プッシュ」ジェスチャ、「つまむ」及び/又は「つかむ」のための少なくとも2つのPOIを使用した「起動」又は「起動」ジェスチャ、或いは「スナップ」ジェスチャのための移動POI及び静的POIを使用した「起動」又は「起動」ジェスチャ。
(iv)例えばポインティングのための掌中心及び「スナップ」ジェスチャで起動するための1つの指の先端、又は「つまむ」及び/又は「つかむ」ジェスチャのための2つの指の先端を使用した少なくとも2つのPOIを使用した同時「ポインティング」及び「起動」。
(v)例えば2つの指の先端と共に掌中心を使用した、1つの指の先端及び1つの手の先端と共に掌中心を使用した、2つの指の先端及び補間されたPOIを使用した、或いは2つの指の先端及び掌中心を補間されたPOIと共に使用した少なくとも3つのPOIを使用した同時ポインティング及び起動。好ましい実施例では、「ポインティング」ポインタの位置は、2つのPOIから補間され、「ポインティング」ジェスチャ以外のジェスチャを実施するためにそれらが同時に使用されると、これらの2つのPOIの回転及び個々の運動に対して不変にされる。
第3のステップは、ユーザの手のPOIの表現と相互作用する際に、人間工学的で、直観的且つ自然な相互作用を可能にし、例えば対象を強調し、且つ、対象の形態を搾り出すために、仮想対象を含むGUIを有するシステムに関連して検出される複数のポインタ及びジェスチャの使用、及び前後関係(contextual)のフィードバックの引渡しを含む。
本発明の一実施例によれば、図1は、方法の3つの主要な処理ステップ、即ち手パラメータの検出(ステップ100)、それらの運動及びポスチャーのPOIの決定及び追跡並びに解析(ステップ101)、及び(複数の)注目すべき点の表現と、順応する自然な非接触ジェスチャ・ベースGUIの間の相互作用の前後関係の決定(ステップ102)を示す流れ図を示している。フィードバック制御ループは、矢印103で示されているように、ステップ100で手パラメータを検出するために、ステップ102における前後関係の決定から提供されている。さらに、矢印104で示されているように、ステップ102における前後関係の決定から、ステップ102におけるそれらの運動及びポスチャーのPOIの決定及び追跡並びに解析まで、他のフィードバック制御ループが提供されている。
本発明の第1のステップ(ステップ100)は、少なくとも1つの安定したPOIを提供することができるように、特定の複数の手の先端、つまり手の先端及び複数の指の先端を含む手パラメータを検出することを目的としている。好ましくは、方法は、安定したPOIを決定することができる上部POI及び下部POIの検出をさらに含むことができる。
さらに、未だ利用可能ではない場合、方法は、掌半径、手開度及び掌垂直線のパラメータのうちの少なくとも1つの決定を含むことも可能である。
これらの決定された注目すべき点の中から少なくとも1つの注目すべき点を使用して、方法は、以下でステップ102に関連してより詳細に説明するように、システムと相互作用するための少なくとも1つのポインタの決定をさらに含む。好ましくは、方法は、相互作用を実施するための複数の手の先端に対応する上部及び下部POIに関連付けられた少なくとも2つのポインタの決定を含む。
本発明の第1のステップは、ユーザの手及びラベル・イメージの少なくとも一方のを含む深度マップ又は対応する3D点クラウド(つまり一組の頂点)を少なくとも含む入力情報を使用する。[3D点クラウドは、いくつかのクラスタにセグメント化され、クラスタの各々にはラベルが振られている]。識別された手のラベルが使用され、また、制御点の数を決定する定義済みの値が決定される(制御点のこの定義済みの数は、可能にされた場合、矢印103によって示されているフィードバック制御ループのため、ユーザ・インタフェースによって任意選択で提供される)。さらに、決定すべき複数のポインタの数を決定する定義済みの値を使用することも可能である(複数のポインタのこの定義済みの数は、可能にされた場合、矢印103によって示されているフィードバック制御ループのため、ユーザ・インタフェースによって提供することができる)。
本発明の第1のステップであるステップ100は、図2に示されている4つの処理サブ・ステップ、即ち手の掌中心及び複数の手の先端の検出及び決定(ステップ200)、注目すべき点の決定(ステップ201)、POIを使用した(複数の)ポインタの決定(ステップ202)、及び開度及び掌垂直線などの他の追加手パラメータの決定及び/又は精製(ステップ203)を含む。
ステップ200は、最初に、「距離変換」の事前計算を必要とする手の掌中心の検出及び決定を含み、距離変換の出力は、使用すべき識別された手の距離マップである。手の距離マップは、手の個々のピクセルが、メトリック・システム(metric system)内で、図8に示されているような手の最も近い境界までの距離に等しい値を有するイメージである。詳細には、図8では、使用すべきラベルがつけられた手は、ユーザの他の役に立たないラベルがつけられた部分及び背景から隔離されている。図解では、手の表現の中の個々のピクセルの内容が暗くなるにつれて、このピクセルは、ラベルがつけられた手の境界からますます遠ざかっている。このような距離マップ・イメージは、手の2進ラベル・イメージ上の2つのパス(ツー・パス)を使用して計算することができる。
距離変換は、いくつかの方法を使用して実施することができる。しかしながら、本発明における1つの重要な点は、ラベル・イメージの個々のピクセルが3D点クラウド内の位置に対応し、また、距離マップの中の個々の距離が実世界における距離メトリックに対応するため、ピクセル毎に得られる距離値を実世界におけるメトリック距離に関連付けることができることである。例えば距離変換は、第1のパスが2進ラベル・イメージの左上隅から右下隅までであり、また、第2のパスがその反対の方向であるツー・パス・プロセスを使用して実施することができる。パス毎に、ピクセル毎の距離が累積され、これは、パスによって既に処理済みのすべての直接隣接するピクセルの最小値の合計に対応する。例えば第1のパスでは、あるピクセルのすぐ隣のピクセルは、左側、対角線の左側、上側及び対角線の右側のピクセルであってもよい。現在のピクセルに対して決定される距離は、4つの隣接するピクセルの最小値+1として決定することができる。さらに、ピクセルの基本的な幾何学的特性を考慮するために、水平方向/垂直方向に隣接するピクセルの値は、所定の係数、例えば5の値によって重みを付けることができ、一方、対角線の方向に隣接するピクセルの値は、他の所定の重み係数、例えば7の値によって重みを付けることができる。7/5比率は、典型的な正方形ピクセルの対角線と辺の間の保存比(preserving ratio)に対応している(7/5=1.4≒√2)。
掌中心位置を見出し、或いは近似するために、プロセスは、少なくとも、距離情報強度が手の他のすべてのピクセルの最大値であるピクセル位置の決定を含み、好ましい実施例では、既に決定されている掌中心位置の滑らかな位置変化を可能にするために、既に決定されている掌中心までの距離を最小にすることを考慮することができる。
次に、ステップ200は、手の3D点クラウド全体にわたって実施される主成分解析(PCA:Principal Component Analysis)を使用した手の先端の決定を含む。原点が掌の中心として設定され、且つ、その方向がPCAによって与えられる主方向として設定されるベクトルを使用して、そのベクトルに対して正規直交であるピクセルの数がカウントされ、そのベクトルの個々のセクション上に突出するようにヒストグラムが計算される。ベクトルのセクションは、例えば1mmステップの距離メトリックによって表すことができる。次に、このようにして決定されたヒストグラムを使用して、手ピクセルの最小が突出しているベクトルのセクションに対応する領域として手の先端を決定することができる。1つの好ましい最も頑強とした実施例では、2つの所定の閾値の間の範囲を画定することができ、例えば、ピクセルの突出が比較的小さいヒストグラムのセクションに対応し、したがって手の先端である仮定される空間における手の主方向に沿った手の最も分厚いセクションに対応する95%から99%の範囲を画定することができる。
第3に、ステップ200は、複数の指の先端を近似する手の末端に対応する領域である複数の手の先端の三次元における決定を含む。そのために、図9bに示されている「応答イメージ」が決定される。応答イメージでは、ピクセルの値は、考察中のピクセルとその隣接する8個のピクセルの間の深度の差を表している。大きい値は、末端である確率が高いことを示している。個々のピクセル値は、共通の8つの方向(つまり上、左上、右、右下、下、左下、左及び左上の方向)に沿って隣接する8個のピクセルから計算される。個々の方向では、現在の点から2cmの距離に位置しているピクセルが考慮される。どのピクセルが個々の方向における2cmの距離の突出に対応しているかを見出すために、画像化デバイス又はカメラの仕様が現在の点の深度値と共に使用される。この操作は、当然、有効なピクセルに対してのみ実施される。これらの8個のピクセルに対して、現在のピクセルとの深度の差が決定され、且つ、現在のピクセルの値が第3の最も小さい値と見なされる。第3の最も小さい値が選択されるのは、一方の辺(例えば掌の辺)に接続されていないことによってすべての非末端部分に大きい値を持たせることが容易であり、また、手のこれらの部分は、指として応答を提供しないことが望ましいことによるものである。さらに、指はいくつかの方向を有することも可能であり、それらは手に接続される。そのため、2つの最も小さい応答値を有する2つの方向は無視される。
残念ながら、状況によっては、手の個々の物理的な末端に対して適切な応答を提供しないことがあり、例えば閉じた握りこぶしは、図5dに示されているような手の先端に対応する1つの単一の応答を提供することができ、また、「停止」(図3f及び5aに示されているような開いた掌)は、他の個々の指に対する応答ではなく、親指に対する応答、及び図11a及び11bの応答イメージ上の半径1cmの円で示されているような互いにそろったすべての他の指に対する1つの単一の他の応答を提供することができるだけである。図10a及び10bでは、手の先端の円は、応答イメージ(図10b)の中に1002で示されており、1001(図10a)の深度画像から、明確に画定された末端は存在していないことは明らかである。これは、手のポーズがどのようなものであれ、「ポインティング」のための少なくとも1つのPOIを与える有効な解決法を常に提供する点で、この方法の頑強性を示している。
以下の図11a及び11bに示されている実例では、親指に対する1つの単一の応答、及び互いにそろったすべての他の指に対する1つの単一の応答しか存在していないが、さらなる相互作用のための「複数のグラバ」として選択することができる2つの信頼性の高いPOIを提供している。
さらに、個々の応答をきちんと整頓するために、例えば知られている従来のガウス・フィルタを使用して応答イメージに円滑化フィルタを適用することも可能である。
さらに、円滑化された応答イメージ及びyイメージに基づいて、接続された成分イメージを決定することができる。これは、2つの隣接するピクセルが応答イメージの中でいずれも正の応答値を有している、つまりそれらが末端であり、且つ、それらの深度が十分に接近している(<1cm)場合、その場合に限ってその2つの隣接するピクセルに同じラベルを与えるラベル・イメージに対応する。言い換えると、2つの隣接するピクセルは、それらが所定の閾値、例えば1cmより大きい深度値差を有している場合、又はそれらの一方が末端応答イメージの中で正の応答値を有していない場合、同じラベルを有することはできない。次に2つの目的のためにこのイメージを使用することができ、第1の目的は、指の先端候補を形成し、且つ、不要な小さい応答をイメージから除去するために、末端応答をまとめてグループ化することができるようにすることである。成分が所定の閾値、例えば1cmより小さい場合、その成分を除くことができる。
一実施例では、POIを決定するステップは、少なくとも掌中心、手の先端、複数の手の先端、又はこれらのパラメータの組合せを含む予め決定された手パラメータの中から少なくとも1つの点を選択することによって少なくとも1つの単一のPOIを決定するステップを含む。そのためには、例えばこれらのパラメータのうちの単一の1つをPOIとして定義しなければならない。そのためには、場合によっては、例えばこれらのパラメータのうちの2つをPOIとして定義しなければならない。また、そのためには、場合によっては、一組の手パラメータ及びPOI、又は手パラメータ及びPOIのサブセットの平均位置を同じく定義しなければならない。
他の実施例では、POIを決定するステップは、手パラメータのうちの少なくとも2つ、又は1つの手パラメータといくつかの他の手パラメータの組合せを選択することによって少なくとも2つのPOIを決定するステップを含む。好ましくは、例えば「つかむ」のために使用される2つの注目すべき点を使用した相互作用を考察する場合、第3のPOIを「ポインティング」のために使用することができ、また、これらの2つのPOIに応じて第3のPOIを決定することができる。
詳細には、複数の手の先端に対応するラベルがつけられた応答からのPOIの決定は、他のラベルがつけられた応答までの距離に基づいて、応答イメージ中のラベルが振られた応答(即ち成分)毎の重み付けを計算することによって達成することができる(成分の隔離が大きいほど、その重み付けが大きくなる)。応答イメージは、ラベルが振られた少なくとも1つの成分を含んでいなければならない。2つのポインタが期待される場合、応答は、少なくとも2つのグループに分離しなければならない。個々のグループは、複数のポインタ又は「複数のグラバ」のうちの1つの位置を計算するために使用される。そのためには、末端応答イメージの中に正の応答を有する手の点の中から中心点を見出さなければならない。末端応答イメージの中のそれらの応答を使用した手のすべての点の単純な重み付き合計が重み付けとして採用されると、得られた掌中心は、目に見えるより多くの指が存在し、したがってその領域における応答が一般により強力であるため、手の上部部分に向かってバイアスされることになる。それを回避するために、応答の重み付けが使用されるだけでなく、応答が属している成分の応じた係数が使用される。
ある成分が他のすべての成分から遠い場合、その成分は、より大きい重み付けを有することになり、また、その成分が他の成分に近い場合、それは、より小さい重み付けを有することになる。これは、指が目に見える場合、隔離された指(ほとんどの場合、親指)は、残りの指より大きい重み付けを得ることを保証する。1本の他の指しか目に見えない場合、定義により、両方の指が同じ重み付けを有することになる。距離は、手の半径に例えば5の係数を掛けたものとして計算される手のスパンによって正規化される。
末端の中心は、それらの重み付き応答及びそれらの成分と関連付けられた重み付けを使用して、重み付き合計として計算される。
中心が決定されると、その中心は、3Dカルテシアン(Cartesian)空間における応答を分離するために使用される。そのために、決定された中心点を通る平面が使用される。目的は、その平面の1つの辺に好ましくは親指を有し、また、残りの指を他の辺に有することであるため、1つのPOI(又は「グラバ」)から他のPOI(又は「グラバ」)への方向がその平面に対する垂直線として採用され、中心点と結合されて、その平面の完全な定義を提供する。
しかしながら、これらの点を「複数のグラバ」として考察する場合、信頼性の高い複数の注目すべき点を時間に対してより良好に追跡し、且つ、引き渡すために、つまり先行するフレームからのそれらの位置に対する、時間に対するそれらの個々の位置の信頼性の高い決定を保証するためには、t−1(現在のフレームはtである)を使用することができることが好ましい。第1のフレームに対しては、アップ軸が基準として使用される。最初の軸が誤っていてもアルゴリズムが正しい配向に収束するため、この選択はインパクトがない。アップ軸が選択されるのは、このアップ軸が通常のポーズにおける「複数のグラバ」の最も可能性の高い一般方向であることによるものである。
先行するステップから平面が与えられると、平面のそれらの辺に応じて手の点が分類され、且つ、グループ毎の重心を使用して2つの「複数のグラバ」のための最良の候補を、例えば個々の重心により近い「複数のグラバ」として得ることができる。
次に、複数の手の先端、掌中心及びPOIのうちの1つとして複数のポインタを決定することができる。好ましい実施例では、「複数のグラバ」が決定されると、複数のグラバ間の安定した追加ポインティング座標を計算することができる。それは、掌中心の運動によって調整された「複数のグラバ」の中心であってもよい。しかしながらこの点の値は、掌中心が例えば3mmを超えて移動した場合にのみ更新される。これは、たとえユーザが「つまんでも」、ユーザがユーザの手を移動させない限りポインタは移動しないことを保証する。このプロセスは、ジッタを回避するために2進ではなく、その代わりに、新しい「複数のグラバ」の中心と先行するフレームの安定化された点の間の単純な線形回帰によって、0と3mmの間の範囲内で手の運動が円滑化される。
さらに、掌垂直線を使用して掌自体の配向を決定することも可能である。掌垂直線は、掌中心からポインタ位置までのベクトルと既に決定済みの掌垂直線の間の角度を使用して調整される。この角度は、2つの情報セットの間のブレンディング(blending)を円滑にするために、いくつかのカスタム・パラメータ化に応じて重み付けされる。掌垂直線はPCAを使用して計算され、また、最も重要ではない方向は掌垂直線である。また、この垂直線は、カメラ方向などの情報を使用して同じくブレンドされる。
さらに、掌半径は距離マップから得ることができ、つまり定義済みの係数、例えば5で割った距離マップの値から得ることができ、それにより手の最も近い境界までの距離の予測値が提供され、また、カメラの仕様及び掌中心の現在の位置における深度値を使用して、ミリメートルの単位で掌半径を予測することができる。
さらに、手が開いているか、或いは閉じているかどうかを表すブール値である手開度を得ることも可能である。指の先端が検出されない場合、手は閉じていると見なされる。手開度は、「複数のグラバ」距離と掌半径の間の比率を使用して更新することができる。比率が所定の閾値より小さい場合、また、手が予め開いていると見なされている場合、手の開度を調整することができ、且つ、閉じた手として印を付けることができる。比率が他の所定の閾値より大きくなると、手は開いていると見なされる。
要約すると、本発明の第1のステップからの出力は、好ましくは少なくとも1つのPOIの決定を含み、その3D位置は、3Dジェスチャ・ベース相互作用を実施するために使用され、また、好ましくは少なくとも2つのPOIの決定を含み、その位置は、片方の手で同時に実施されるポインティング及び起動3Dジェスチャに適合する3Dジェスチャ認識ベース相互作用に使用される。
本発明の第2のステップ(図1のステップ101)は、ジェスチャ及び相互作用を検出するための、POI又はそれらに関連する複数のポインタの選択の時間に対する追跡及び解析を含む。少なくとも片方の手の上で選択されたPOI数に応じて、異なるジェスチャを独立して、単独に、又は同時に決定することができる。
ジェスチャを決定するために、最初に、追跡及びポインティング目的のために個々のPOIの時間に対する空間位置が使用される。とりわけ、少なくとも1つのポインタによって表される、或いは好ましくは2つのポインタによって表される少なくとも2つのPOIを使用する場合、フレーム間の追跡により、一貫した「ポインティング」が保証される。一実施例では、単一のPOIを使用することができる。このPOIは、ポインティング特徴を可能にするためのポインタとして選定することができ、また、上で説明した先行するステップで検出された複数の手の先端のうちの1つとして決定することができる。例えばポインタは、必要に応じて、複数の手の先端を利用することができない場合は掌中心であっても、信頼性の高い指の先端を利用することができない場合は手の先端であっても、利用可能である場合はポインティングのために自然に使用される人差し指の先端であっても、又は任意の他の指の先端であっても、或いは他の点であってもよく、3D空間におけるその位置は、掌中心、複数の指の先端及び手の先端のうちの所定の手パラメータのうちの少なくとも2つを使用してコンピュータ化される。本発明の好ましい実施例によれば、GUI上の個々のポインタ表現の位置の変化又は少なくとも1つのPOIの位置の変化の解析は、例えば「波」、「プッシュ」、「スワイプ」、「円」、「指スナップ」の形態の動的ジェスチャ又は他の動的ジェスチャを決定するための従来のジェスチャ認識方法を使用してさらに解析することができる。このような動的ジェスチャの決定は、相互作用形GUIのための入力として使用される事象をトリガリングするために使用される。これは、少なくとも1つのポインタの位置とそのポインタによって指示される対象の組合せであってもよいが、この組合せは不可欠ではない。
次に、ジェスチャの決定で、手ポスチャーを決定するために、互いに対して決定されたPOIの所与の時間における空間位置が使用される。時間によって手の位置が変化しない不変の手ポスチャーは、静的ジェスチャとして決定される。静的ポスチャーは、手パラメータのサブセットの空間配置である。例えば親指が接続されていない開いた手は、「停止」ポスチャー又はジェスチャに対応させることができ、その配置は、親指の先端、掌中心及び手の先端の間が直角を形成することによって画定される。ポスチャーの検出は、形状一致技法の使用などの最新技術で知られているいくつかの方法を使用して達成することができる。しかしながら、本発明の好ましい実施例によれば、手ポスチャーの決定は、POIのサブセットの空間配置の幾何構造の検出を含む。複数の手の先端のうちの少なくとも1つ及び手の掌中心を含む決定されたPOIの各々が互いに接続される。POI間のリンクの距離及び方向、並びにそれらの交点の特性(値の角度)が計算され、それにより一組のデータ・パラメータが決定される。POIの数及びこのようにして定義されたそれらのデータ・パラメータに応じて、検出すべき主ポスチャーを含むデータベースとの比較によって位置が決定される。フレーム毎に、期待された手ポスチャーのうちの1つが検出されると、事象をトリガして相互作用システムを駆動することができる。
その次に、ジェスチャの決定で、時間に対する、決定されたPOIの互いに対する空間位置の変化、つまり時間に対する手ポスチャーの変化を使用して、例えば「つまむ」、「つかむ」、「クリック」、「スナップ」又は他のジェスチャの形態の手の動的ジェスチャが決定される。
例えば、本発明の一実施例では、方法は、「つまむ」動的ジェスチャの検出を可能にするために、POIを画定している少なくとも2つの手の先端及び関連する複数のポインタの解析を含む。上で説明したように、「つまむ」は、任意選択で複数のポインタとして表示される、互いに向かって移動させることができる互いに反対側の2つの先端に対応させることができ、2つの手の先端又は関連するPOI或いは複数のポインタの間の距離によって「つまむ」の程度を決定することができる。
本発明の他の実施例では、少なくとも2つの「グラバ」が特定の時間期間にわたって互いに接触し、次に非接触状態/ポスチャーに復帰する「つまむ」である場合、「クリック」動的ジェスチャを決定することができる。
「つかむ」ジェスチャは、ユーザ・インタフェースの中に示されている仮想対象と相互作用する場合、文脈的に検出することができる。「つかむ」は、2つのポインタの形態でGUIの中で示すことができる少なくとも2つのPOIの検出を含む。2つのポインタが仮想対象とその2つの互いに反対側で接触すると、「つかむ」を検出することができる。
「プッシュ」ジェスチャは、ユーザ・インタフェースによって可能にされた場合、少なくとも1つのポインタの表現が仮想対象表現と接触し、且つ、ポインタの連続運動がGUI内の仮想対象表現を押すと検出することができる。
「指スナップ」、より単純には「スナップ」ジェスチャは、ユーザ・インタフェースによって可能にされた場合、少なくとも2つのPOIが片方の手の上で選択されると検出することができる。好ましくは掌中心の近似又は手の質量中心に対応する第1のPOIは、ポインティング・ジェスチャのために使用することができる3D位置を提供し、一方、好ましくは人差し指の先端などの指の先端に対応する第2のPOIは、「起動ジェスチャ」を認識するための3D位置を提供する。決定済みの速度での、決定済みの振幅及び継続期間のPOIのアップ及びダウンの自然な運動は、信頼性の高い事象トリガ相互作用として使用することができる「指スナップ」(又は「スナップ」)ジェスチャを画定する。その特定の実施例の信頼性は、指の先端及び手の掌中心の両方が同じ手の指の先端及び掌中心であるにもかかわらず、指の先端の位置が手の掌中心の位置に対して相関されないことに依存している。
本発明の第3のステップは、GUIとの人間−コンピュータ非接触相互作用を可能にする方法及びシステムを含む。方法は、インタフェースを制御するための手段に関しており、また、システムは、インタフェース及び視覚フィードバックを表示するための手段に関している。方法及びシステムは、距離測値を含む入力情報を利用しており、また、従来の2D非接触相互作用形システムとは対照的に、レンジ・ファインディング画像化システム又はカメラまでの手の距離には無関係であるPOIから抽出されるポインティング及び起動ジェスチャなどの関連する情報を含む入力情報を利用している。本発明では、相互作用は、上で説明したステップを時間に対して使用して決定される手及びジェスチャのPOIの時空的特性(spatio-temporal properties)の解析に依存しており、詳細にはPOIの仮想表現、即ち仮想対象に対して前後関係の(複数の)ポインタ、例えば「ポインティング」相互作用、「つかむ」相互作用、操作相互作用(例えば「つまむ」、回転、「引きずり及び落下」、「プッシュ」)、及びクリック相互作用(例えば「指スナップ」又は「スナップ」)の解析に依存している。
以下の説明は、本発明の異なる態様を示す実施例に関しており、これらの実施例は、スクリーン上に表示される仮想対象との相互作用のために上で説明したステップで抽出される手パラメータの非制限の使用と見なされたい。
「ポインティング」相互作用を示す第1の実施例では、方法は、仮想世界空間におけるポインタ表現の位置を決定するために、特異なPOI、即ち基準POIとして上で決定された掌中心の使用を含むことができる。時間に対する掌の位置の変化は、時間に対する仮想空間におけるその表現の位置の変化をトリガする。仮想世界位置への実世界位置の変換は、1対1絶対比率を使用して線形計算することができ、或いは1対x相対比率を使用して線形計算することができ、x係数は、ユーザが予め決定することができ、或いは、例えばユーザによって予め定義される多項式変換比率を使用した非線形計算は、画像化デバイスまでの手の距離に依存する比率を有することができる。
他の実施例では、同様の方法は、時間に対する仮想世界空間におけるポインタ表現の位置を決定するために、手の先端の基準位置の使用を含むことができる。この特定の事例では、指の構成に無関係に、つまりすべての指が一体に接合されているかどうか、部分的に一体に接合されているかどうか、又はすべての指が互いに離れているかどうかに無関係に手の先端が決定される。図3a乃至3fは、指の構成の実例を示したものである。
さらに他の実施例では、同様の方法は、時間に対する仮想世界空間へのポインタ表現の位置を決定するために、第1の基準位置(図3c)の使用を含むことができる。この特定の事例は、個々の複数の指の先端を検出することができない手に対応していてもよく、また、例えばレンジ・ファインディング画像化デバイスに対する手の最も近い位置が握りこぶしの先端として選択される手に対応していてもよい。
好ましい一実施例では、同様の方法は、時間に対する仮想世界空間におけるポインタ表現の位置を決定するために、少なくとも1つの単一の指の先端基準位置の使用を含むことができる。1つの単一の指の先端を使用して、現実における物を指示するためのこの特定の共通且つ自然な方法は、例えば「人差し」指の先端の位置の常時使用に対応していてもよく、或いは他の実施例では、例えば手の先端の主方向を使用して決定される指の先端の方向の使用に対応していてもよい。
他の好ましい一実施例では、方法は、時間に対する仮想世界空間における単一のポインタ表現の位置を決定するために、いくつかの手パラメータの使用を含むことができる。例えば方法は、単一のポインタ表現の位置を決定するために、少なくとも2つの手パラメータの重み付き合計を使用することができる。単一のポインタ位置は、選択された手パラメータ間の位置に対応していてもよい。例えば単一のポインタ位置は、手の先端と親指の先端などの離れた指の先端の間の位置に対応していてもよく、言及されている先端までの個々の距離は、所定の重み付け係数によって加減される。詳細には、親指の先端と他の手の先端又は指の先端などの離れた指を考察すると、「つまむ」運動の非対称性は、他の先端が親指の先端より大きい振幅で移動することがあるため、離れた指の先端の位置に関連する重み付け係数には、場合によっては他の先端に関連する重み付け係数より重い重み付け係数を要求することがある。このような特定の重み付き計算(又は補間)の目的は、ポインタの位置が引き出される2つのPOIが他のジェスチャ、例えば「つまむ」及び「つかむ」ジェスチャなどの起動ジェスチャを実施している間に、ポインティング・ジェスチャのための信頼性が高く、且つ、安定したポインタ位置を得ることであり、下部ポインタ位置は、例えば最も小さい運動を実施するポインタ位置と見なされ、したがってより大きい重み付け係数を含むポインタ位置と見なされる。ポインタ位置(2つのPOIから引き出される)は、これらのPOIが起動ジェスチャを実施している場合、個々のPOIの独立した運動に対して不変であり、また、手の回転に対して不変である。
他の実例として、ポインタの適切な重み付け係数の決定は、これらの複数のポインタに対応する個々の手パラメータの掌中心までの距離を考察することであり、より近い手パラメータは、移動がより小さいことが仮定され、したがって最も大きい重み付け係数を有する手パラメータである。この他の実例は、手の配向に対して不変で、且つ、複数の手の先端及び複数の指の先端の識別に無関係の重み付けを期待する場合にとりわけ適している。
他の好ましい一実施例では、方法は、時間に対する仮想世界空間におけるいくつかのポインタ表現の位置を決定するために、いくつかの手パラメータの使用を含むことができる。例えばいくつかのポインタ表現は、手の先端に対応する「ポインタ」、及び親指の先端に対応する「ポインタ」などの少なくとも2つの手パラメータの個々の表現を含むことができる。派生的実施例では、3つ以上のポインタを決定することができる。他の単純な一実例は、仮想世界で表現すべき3つのポインタの決定に対応している。これらの3つのポインタは、手の先端、親指の先端、及びこれらの2つの手パラメータ位置の間の重み付けされた位置に対応していてもよい他のPOIであってもよい。
さらに他の一実施例では、方法は、手ポスチャーは、手パラメータの信頼性の高い検出を可能にすることができても、或いはできなくてもよいため、このポスチャーに応じて表現される複数のポインタの数の自動定義を含むことができる。
さらに他の一実施例では、方法は、好ましくは、使用されるGUIを使用して、また、詳細にはこのGUIの中に示されている対象に応じて文脈的に表現すべき複数のポインタの数の自動定義を含むことができる。例えば方法は、ポインタ表現を使用してスクリーン領域を分解するために、手の先端に対応していてもよい1つの単一のポインタを定義することができる。例えばスクリーン領域が、例えば握りが可能であることによって少なくとも2つのポインタ相互作用と順応するフォルダ表現を含む特定の位置では、インタフェースは、例えば手の先端及び親指の先端などの離れた指の先端などの2つの手パラメータに対応していてもよい2つのポインタ表現を定義することができる。この場合、これらの複数のポインタの運動は、GUIによって許可されると、フォルダの「つかむ」操作を可能にすることができる。
「つかむ」相互作用である第2の実施例では、方法は、上で説明したようにして決定された掌中心の、仮想世界空間における単一のポインタ表現の位置を決定するための基準位置を画定する手パラメータとしての使用を含む。方法は、手の上の2つのPOI、例えば手の先端及び親指の先端の決定をさらに含む。この場合、相互作用は、特徴の「つかむ」を可能にする仮想対象に向かうポインティングを含む。仮想対象の「つかむ」は、2つのPOIが所定の閾値未満の距離まで互いに接近して移動する場合に生じる。その時点で仮想対象の表現がポインタ表現の位置に関連付けられ、且つ、適宜に移動する。仮想対象は、2つの注目すべき点の間の距離が第2の所定の閾値に到達した時点で解放される(もはや「つかまれていない」)。
他の実施例では、方法は、複数の手の先端の中から2つのPOIの決定、及びそれに応じた2つのポインタの決定を含み、それにより例えば手の先端及び親指の先端に対応していてもよいこれらの2つのポインタの視覚フィードバックが得られる。この場合、相互作用は、特徴の「つかむ」を可能にする仮想対象に向かうポインティングからなることになる。仮想対象の「つかむ」は、例えばカメラ又はレンジ画像化デバイスが抱えている潜在的な精度の問題を補償するために、2つのPOIの各々が、何らかの所定の閾値を包含する特定のリミットに対して、仮想対象表現の境界と接触すると生じる。その時点で仮想対象の表現がポインタ表現の位置に関連付けられ、且つ、適宜に移動する。仮想対象は、少なくとも1つのポインタと対象の境界の間の距離が第2の所定の閾値に到達した時点で解放される(もはや「つかまれていない」)。
他の好ましい実施例では、方法は、上で説明したようにして決定された手パラメータの中から選択されるポインタの使用を含み、例えばそのポインタは特定のPOIに対応していてもよく、その位置は、例えば親指の先端及び人差し指の先端に対応していてもよい2つの他のPOIの間の位置として決定される。ポインタの表現が特徴の「つかむ」と適合する対象の領域又は表現に到達すると、そのポインタは、特定のPOIが決定されたPOIのうちの少なくとも2つに関連する少なくとも2つのポインタに分割することができる。次に上で説明したように仮想対象は「つかまれ」、且つ、操作されることが可能となる。複数のポインタの表現は、他の条件に到達し、例えば複数のポインタが所定の閾値より長い距離だけ互いに分離されるまでの間は可視状態を維持する。「つかむ」のための条件がもはや関連しなくなると、先行する単一のポインタの状態が再確立される。
操作相互作用である第3の実施例では、方法は、上で説明したようにして決定された手パラメータから選択される少なくとも1つのポインタ、好ましくは2つのポインタの使用を含み、例えばそのポインタは、複数の手の先端のうちの少なくとも1つに対応していてもよい。スクリーン上に表現される仮想対象に対する複数のポインタの位置を使用して、その仮想対象の少なくとも1つのパラメータの操作をトリガし、制御し、且つ、停止することができる。例えば操作の開始及び終了のトリガリングは、仮想対象の境界までの2つのポインタの距離にリンクさせることができ、操作は、複数のポインタの平均位置に応じた仮想対象の位置の決定からなっていてもよく、また、表示スクリーンの水平軸及び垂直軸に対して決定される1つのポインタから他のポインタへの方向に応じて仮想対象の配向を決定することができる。
他の実施例では、方法は、一組の特定の時空的条件を満足すると事象をトリガするために、いくつかの手パラメータを使用した「クリック」相互作用を含むことができる。例えばポインタが、例えばフォルダからのアプリケーションの開始などのシステム事象をトリガするための「クリック」事象が期待されるスクリーンの領域に位置し、2つのPOIの間又は2つの表示されたポインタの間の距離が、最大の定義済み継続期間の間、定義済み閾値より短くなると、「クリック」ジェスチャの検出及び関連する事象をトリガすることができる。
好ましい一実施例では、GUIの仮想対象は、複数のポインタが仮想対象のサイズより寄り集まるとフィードバックを提供することができ、例えば複数のポインタの間の距離に応じて対象を絞ることができる。
好ましくは、相互作用システムは、実施される相互作用に応じて、複数のポインタ又は対象のレンダリングの変化などの視覚フィードバック情報を提供することも可能である。例えば対象が2つのポインタによって「つままれる」と、仮想対象絞りの視覚フィードバックを生成することができる。
さらに、複数のポインタ及び仮想対象の個々の位置を文脈的に解析することによって相互作用を最適化することも可能であり、それにより仮想対象によって可能にされる相互作用の達成を改善することができる。例えば仮想対象に近い、「つかむ」操作を可能にする2つのポインタは、仮想対象の境界に引き付けることができ、それによりユーザ経験を改善することができる。
さらに、レンジ・ファインディング画像化デバイスの精度を補償し、或いはユーザ経験を改善し、それにより仮想空間における接触を厳密にする必要なく対象との相互作用を許容するために、許容誤差を導入することも可能である。
より好ましくは、相互作用形システムのスタート・アップ時に仮想対象相互作用能力をプリセットすることも可能であり、また、ユーザによって実施される相互作用及び操作に応じて、この仮想対象相互作用能力を動的に変化させることも可能である。例えば対象は、回転させるだけでノブ(knob)制御にすることができ、対象は、一方向に並進させるだけでスライダにすることができ、対象は、押されるだけでスイッチにすることができ、対象は、ポインタが対象から遠すぎない場合にのみ出現し、或いは対象は、対象が「つかまれる」場所に応じて異なる挙動を示すことができる。
完全無欠にするために、図4は、少なくとも2つの手の先端を対象の表面に向かって収束させることによって対象を「つかむ」方法の1つを示したものである。この事例では複数の手の先端は、親指の先端及び「人差し指」の先端を含んでいるが、親指の先端及び中指、薬指又は小指の先端であってもよい。実際の対象をつかむ場合、人は、通常、何の困難もなく、対象の互いに反対側に向かって収束する複数本の指と向い合い、一方、人は、空中で、実際の対象に狙いを付けることなくつかむジェスチャを実施する場合、通常、著しく非対称なジェスチャを実施する。1つの仮想対象及び少なくとも2つのポインタの視覚フィードバックを表現することにより(図13)、この能力を回復して、実際の対象の場合と同様の方法で複数のポインタを仮想対象に向かって収束させることができる。
図5a乃至5cは、同じ手ポスチャーに対する、501で示されている複数の手の先端、及び502及び503で示されている掌中心の位置を示したものであり、また、図5dは、握りこぶしの先端及びその関連する掌中心503並びに手の先端503を示したものである。
図6は、複数の手の先端(601)の位置決め、親指の先端(602)、掌中心(603)、及びいくつかの手の先端(604)を使用して計算された安定した追加POIの位置決めと重畳した「つかむ」ポスチャー内の手の側面図を示したものである。
図7は、手の先端(701)の位置決め、親指の先端(702)、及びいくつかの手の先端(703)を使用して計算された安定した追加POIの位置決めと重畳した「つかむ」ポスチャー内の手の正面図を示したものである。
図8は、手の距離マップを示したもので、指及び親指と共に輪郭即ち外形を見ることができる。また、掌も、掌の中心の強調された領域によって示されている、掌中心と見なすことができる部分と共に同じく見ることができる。
図9aには、開いた「つまむ」姿勢を想定した手の深度マップ901が示されている。ここでは、人差し指及び親指の先端に対応するPOIが示されている。図9bは、図9aに示されている深度マップに対応する応答マップ902を示したものである。図から分かるように、応答マップ902は、上部グラバである人差し指の先端のため、及び下部グラバである親指の先端のための鮮明な応答信号を有している。
図10aには、閉じた「つまむ」姿勢を想定した手の深度マップ1001が示されている。人差し指の先端に対応するPOIのみを見ることができる。図10bは、図10aの深度マップに対応する応答マップ1002を示したもので、鮮明な応答信号は、人差し指の先端に対してのみ得られる。
図11aには、手及び親指の先端に対応するPOIが存在している開いた手の深度マップ1101が示されている。図11bは、図11aの深度マップに対応する応答マップ1102を示したものである。この事例では、鮮明な応答信号は、親指及び手の先端から得られる。
図12aには手の深度マップが示されている。図12bは、図12aの深度マップに対応する応答マップを示したものである。図12bでは、鮮明な応答は、手の複数の末端、この事例では親指及び指に対して得られる。
図13は、仮想対象(1306で示されている)及び手のいくつかの決定済みの注目すべき点と関連付けられた2つのポインタ(1305によって示されている)の表現を含む何らかの相互作用を示したものである。1301で示されているように、複数のポインタは仮想対象に接触していない。2つのポインタは、1302で仮想対象と接触しており、仮想対象は、絞られた形状の形態の下で視覚フィードバックを提供しており、絞りの程度は、考察されている複数のポインタの間の距離に関連している。この事例では、対象はつかまれていると見なすことができ、次に、複数のポインタの他の個々の位置に応じて操作することができる。1303では、絞られた仮想対象は、2つのポインタによって握られていると見なされ、次に、これらの複数のポインタの間の距離が対象の最初のサイズ以下を維持している限り、複数のポインタの個々の位置に応じて操作することができる。操作は、例えば、1302と比較した場合の1303で示されているような回転、並進、スケーリングなどの変換又は仮想対象によって前後関係から許容される他の変換のうちの少なくとも1つであってもよい。
仮想対象は1304で完全に絞られる。一実施例では、この状態は、対象表現の特定の挙動、例えば形態の変化のトリガリングにリンクさせることができ、また、仮想対象自体に相関されていない特定の事象、例えばユーザ・インタフェースにリンクされているアプリケーションの起動のトリガリングにさらに結合することも可能である。
図14には、起動ジェスチャと共に使用することができるPOI1401(人差し指の先端を表している)の位置決めと重畳したユーザの手の側面図が示されている。また、手の質量中心と関連付けられる、ポインティング・ジェスチャのために使用することができる追加POI1402も同じく重畳されている。矢印1403は、「指スナップ」起動ジェスチャのための上下指ジェスチャを示している。
以上、本発明の態様について、特定の実施例に関連して説明したが、これらの態様は他の形態で実施することも可能であることは容易に理解されよう。

Claims (21)

  1. 三次元手ジェスチャ認識システムに基づく自然な人間−コンピュータ相互作用を提供するための方法であって、
    a)少なくとも一人のユーザの少なくとも1つの手を含むシーンを画像化するステップであって、画像化されたシーンはシーン内の対象物とカメラの距離である深度情報を含むステップと、
    b)前記少なくとも1つの手に関連付けられた少なくとも3つの注目すべき点を決定するために、前記画像化されたシーンを前記深度情報を使用して処理するステップと、
    c)時間に対する個々の注目すべき点の追跡された運動を提供するために、前記少なくとも3つの注目すべき点を追跡するステップと、
    d)個々の注目すべき点の前記追跡された運動を解析するステップと、
    e)前記追跡された前記少なくとも3つの注目すべき点の運動の解析から、2つの注目すべき点に基づく起動ジェスチャと単一の注目すべき点に基づくポインティング・ジェスチャの同時実行を決定するステップと、
    f)前記決定された同時の起動ジェスチャとポインティング・ジェスチャの実行を人間−コンピュータ相互作用のために使用するステップと
    を含み
    前記注目すべき点は、指の先端、手の先端、掌中心、手の質量中心のうちの1つ、及び前記指の先端、前記手の先端、前記掌中心及び前記手の質量中心のうちの少なくとも2つの組合せの派生物を含み、
    前記方法は、前記手のすべての正規直交ピクセルが突出しているベクトルのヒストグラム中の所定の範囲に対応する空間における位置を決定することによって手の先端の位置を決定するステップをさらに含み、前記ベクトルが、その方向が手3D点クラウド上で実施されるPCA解析の主方向に相関され、また、その原点が前記手の掌中心と相関関係の位置に配置されることを特徴とする、方法。
  2. 三次元手ジェスチャ認識システムに基づく自然な人間−コンピュータ相互作用を提供するための方法であって、
    a)少なくとも一人のユーザの少なくとも1つの手を含むシーンを画像化するステップであって、画像化されたシーンはシーン内の対象物とカメラの距離である深度情報を含むステップと、
    b)前記少なくとも1つの手に関連付けられた少なくとも3つの注目すべき点を決定するために、前記画像化されたシーンを前記深度情報を使用して処理するステップと、
    c)時間に対する個々の注目すべき点の追跡された運動を提供するために、前記少なくとも3つの注目すべき点を追跡するステップと、
    d)個々の注目すべき点の前記追跡された運動を解析するステップと、
    e)前記追跡された前記少なくとも3つの注目すべき点の運動の解析から、2つの注目すべき点に基づく起動ジェスチャと単一の注目すべき点に基づくポインティング・ジェスチャの同時実行を決定するステップと、
    f)前記決定された同時の起動ジェスチャとポインティング・ジェスチャの実行を人間−コンピュータ相互作用のために使用するステップと
    を含み、
    前記注目すべき点は、指の先端、手の先端、掌中心、手の質量中心のうちの1つ、及び前記指の先端、前記手の先端、前記掌中心及び前記手の質量中心のうちの少なくとも2つの組合せの派生物を含み、
    前記方法は、応答マップを計算することによって複数の手の先端又は末端を決定するステップをさらに含み、前記応答マップのピクセルの値は、該ピクセルと該ピクセルに隣接する複数のピクセルのそれぞれとの深度の違いを計算し、計算した複数の深度の違いのなかの3番目に小さな値として決定され、個々の隣接するピクセルが、一組の所定の方向における所定の距離に位置し、また、該ピクセルとは異なる所定の値より大きい深度値を有する、方法。
  3. 距離マップ及びPCA解析のうちの1つを使用して前記掌中心の位置を決定するステップをさらに含む、請求項1または2に記載の方法。
  4. 前記ポインティング・ジェスチャが、2つの指先、1つ掌中心、補間された注目すべき点のうちの1つを使用して決定される、請求項1からまでのいずれか一項に記載の方法。
  5. 前記ポインティング・ジェスチャが、2つの注目すべき点から補間された注目すべき点を使用する、請求項に記載の方法。
  6. 前記ポインティング・ジェスチャが、前記起動ジェスチャを提供する2つの指の先端間の補間された注目すべき点を使用する、請求項に記載の方法。
  7. 前記ポインティング・ジェスチャが、掌中心に相当する注目すべき点を使用する、請求項に記載の方法。
  8. 前記起動ジェスチャが、2つの指の先端、および1つの指の先端と1つの手の先端のうちのいずれかによって実施される、請求項に記載の方法。
  9. 起動ジェスチャの実行のための前記2つの注目すべき点が、2つの指の先端、1つの指の先端と手の先端、および1つの指の先端と掌中心のうちのいずれかを含む、請求項1からまでのいずれか一項に記載の方法。
  10. 前記ポインティング・ジェスチャが、回転に対して不変である、請求項1からまでのいずれか一項に記載の方法。
  11. ジェスチャの実行に応答して、ユーザに前後関係のフィードバックを提供するステップをさらに含む、請求項1から10までのいずれか一項に記載の方法。
  12. フィードバック情報の提供を可能にする前記システムが、仮想要素を含むグラフィカル・ユーザ・インタフェースであって、前記仮想要素が、それらが相互作用する少なくとも1つのポインタをレンダリングすることができる、請求項11に記載の方法。
  13. 前記システムと、少なくとも1つのポインタによって表現されるユーザの手の前記複数の注目すべき点との間の相互作用が、接触、絞る、つまむ、つかむ、回転、プッシュ、落下、クリック及びそれらの派生的ジェスチャのうちの少なくとも1つを含む仮想対象の操作を含む自然な相互作用である、請求項12に記載の方法。
  14. 相互作用が、少なくとも1つのポインタによって表現される少なくとも2つの注目すべき点を使用した仮想対象の操作を含む、請求項12または13に記載の方法。
  15. 相互作用が、2つのポインタ又は複数のグラバによって表現される少なくとも2つの制御点を使用した仮想対象の操作を含む、請求項12から14までのいずれか一項に記載の方法。
  16. 相互作用が、2つのポインタ又は複数のグラバ及び他のポインタによって表現される少なくとも2つの制御点を使用した仮想対象の操作を含み、前記他のポインタの位置が2つの他のポインタの間として決定される、請求項12から15までのいずれか一項に記載の方法。
  17. グラフィカル・ユーザ・インタフェース内の対象及び複数のポインタの表現を、ユーザによって実施されるジェスチャ及びそれらの個々の空間位置に応じて修正するステップをさらに含む、請求項12から16までのいずれか一項に記載の方法。
  18. 三次元手ジェスチャ認識システムであって、前記システムは少なくとも一人のユーザの少なくとも1つの手を含むシーンを画像化することが可能であり、シーン内の対象物との距離である深度情報を取得できるレンジ・センシング・カメラを含む画像化システムと、前記画像化システムに関連する相互作用コンピュータシステムを含み、前記相互作用コンピュータシステムは、
    i)前記少なくとも1つの手に関連付けられた少なくとも3つの注目すべき点を決定するために、前記画像化されたシーンを前記深度情報を使用して処理するステップと、
    ii)時間に対する個々の注目すべき点の追跡された運動を提供するために、前記少なくとも3つの注目すべき点を追跡するステップと、
    iii)個々の注目すべき点の前記追跡された運動を解析するステップと、
    iv)前記追跡された前記少なくとも3つの注目すべき点の運動の解析から、2つの注目すべき点に基づく起動ジェスチャと単一の注目すべき点に基づくポインティング・ジェスチャの同時実行を決定するステップと、
    v)前記決定された起動ジェスチャとポインティング・ジェスチャの実行を人間−コンピュータ相互作用のために使用するステップと、
    を含むステップを実行することができ
    前記相互作用コンピュータシステムは、前記注目すべき点は、指の先端、手の先端、掌中心、手の質量中心のうちの1つ、及び前記指の先端、前記手の先端、前記掌中心及び前記手の質量中心のうちの少なくとも2つの組合せの派生物を含み、
    前記手のすべての正規直交ピクセルが突出しているベクトルのヒストグラム中の所定の範囲に対応する空間における位置を決定することによって手の先端の位置を決定するステップをさらに実行することができ、前記ベクトルが、その方向が手3D点クラウド上で実施されるPCA解析の主方向に相関され、また、その原点が前記手の掌中心と相関関係の位置に配置されることを特徴とする、三次元手ジェスチャ認識システム。
  19. 三次元手ジェスチャ認識システムであって、前記システムは少なくとも一人のユーザの少なくとも1つの手を含むシーンを画像化することが可能であり、シーン内の対象物との距離である深度情報を取得できるレンジ・センシング・カメラを含む画像化システムと、前記画像化システムに関連する相互作用コンピュータシステムを含み、前記相互作用コンピュータシステムは、
    i)前記少なくとも1つの手に関連付けられた少なくとも3つの注目すべき点を決定するために、前記画像化されたシーンを前記深度情報を使用して処理するステップと、
    ii)時間に対する個々の注目すべき点の追跡された運動を提供するために、前記少なくとも3つの注目すべき点を追跡するステップと、
    iii)個々の注目すべき点の前記追跡された運動を解析するステップと、
    iv)前記追跡された前記少なくとも3つの注目すべき点の運動の解析から、2つの注目すべき点に基づく起動ジェスチャと単一の注目すべき点に基づくポインティング・ジェスチャの同時実行を決定するステップと、
    v)前記決定された起動ジェスチャとポインティング・ジェスチャの実行を人間−コンピュータ相互作用のために使用するステップと、
    を含むステップを実行することができ
    前記注目すべき点は、指の先端、手の先端、掌中心、手の質量中心のうちの1つ、及び前記指の先端、前記手の先端、前記掌中心及び前記手の質量中心のうちの少なくとも2つの組合せの派生物を含み、
    前記相互作用コンピュータシステムは、応答マップを計算することによって複数の手の先端又は末端を決定するステップをさらに実行することができ、前記応答マップのピクセルの値は、該ピクセルと該ピクセルに隣接する複数のピクセルのそれぞれとの深度の違いを計算し、計算した複数の深度の違いのなかの3番目に小さな値として決定され、個々の隣接するピクセルが、一組の所定の方向における所定の距離に位置し、また、該ピクセルとは異なる所定の値より大きい深度値を有する、三次元手ジェスチャ認識システム。
  20. 三次元手ジェスチャ認識システムであって、
    シーンの錐台の少なくとも一人のユーザの少なくとも1つの手を含む少なくとも1枚の画像を供給するように動作し、画像化されたシーンはシーン内の対象物とカメラの距離である深度情報を含む三次元画像化システムと、
    前記三次元画像システムに関連するプロセッサであって、前記少なくとも1枚の画像に対して、
    前記少なくとも1つの手に関係する少なくとも3つの注目すべき点を前記深度情報を使用して識別し、
    時間に対して前記少なくとも3つの注目すべき点の各々の追跡した動きを生成し、
    前記追跡した動きの分析を行い、
    2つの注目すべき点に基づく起動ジェスチャと単一の注目すべき点に基づくポインティング・ジェスチャの同時実行を識別する、
    処理を行うプロセッサ、
    を含み、
    前記注目すべき点は、指の先端、手の先端、掌中心、手の質量中心のうちの1つ、及び前記指の先端、前記手の先端、前記掌中心及び前記手の質量中心のうちの少なくとも2つの組合せの派生物を含み、
    前記プロセッサは、前記手のすべての正規直交ピクセルが突出しているベクトルのヒストグラム中の所定の範囲に対応する空間における位置を決定することによって手の先端の位置を決定する処理をさらに行い、前記ベクトルが、その方向が手3D点クラウド上で実施されるPCA解析の主方向に相関され、また、その原点が前記手の掌中心と相関関係の位置に配置されることを特徴とする、三次元手ジェスチャ認識システム。
  21. 三次元手ジェスチャ認識システムであって、
    シーンの錐台の少なくとも一人のユーザの少なくとも1つの手を含む少なくとも1枚の画像を供給するように動作し、画像化されたシーンはシーン内の対象物とカメラの距離である深度情報を含む三次元画像化システムと、
    前記三次元画像システムに関連するプロセッサであって、前記少なくとも1枚の画像に対して、
    前記少なくとも1つの手に関係する少なくとも3つの注目すべき点を前記深度情報を使用して識別し、
    時間に対して前記少なくとも3つの注目すべき点の各々の追跡した動きを生成し、
    前記追跡した動きの分析を行い、
    2つの注目すべき点に基づく起動ジェスチャと単一の注目すべき点に基づくポインティング・ジェスチャの同時実行を識別する、
    処理を行うプロセッサ、
    を含み、
    前記注目すべき点は、指の先端、手の先端、掌中心、手の質量中心のうちの1つ、及び前記指の先端、前記手の先端、前記掌中心及び前記手の質量中心のうちの少なくとも2つの組合せの派生物を含み、
    前記プロセッサは、応答マップを計算することによって複数の手の先端又は末端を決定する処理をさらに行い、前記応答マップのピクセルの値は、該ピクセルと該ピクセルに隣接する複数のピクセルのそれぞれとの深度の違いを計算し、計算した複数の深度の違いのなかの3番目に小さな値として決定され、個々の隣接するピクセルが、一組の所定の方向における所定の距離に位置し、また、該ピクセルとは異なる所定の値より大きい深度値を有する、三次元手ジェスチャ認識システム。
JP2015521026A 2012-07-13 2013-07-12 手の上の特異な注目すべき点を使用した人間−コンピュータ・ジェスチャ・ベース同時相互作用のための方法及びシステム Active JP6360050B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP12176458.3 2012-07-13
EP12176458 2012-07-13
PCT/EP2013/064860 WO2014009561A2 (en) 2012-07-13 2013-07-12 Method and system for human-to-computer gesture based simultaneous interactions using singular points of interest on a hand

Publications (2)

Publication Number Publication Date
JP2015522195A JP2015522195A (ja) 2015-08-03
JP6360050B2 true JP6360050B2 (ja) 2018-07-18

Family

ID=46798994

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015521026A Active JP6360050B2 (ja) 2012-07-13 2013-07-12 手の上の特異な注目すべき点を使用した人間−コンピュータ・ジェスチャ・ベース同時相互作用のための方法及びシステム

Country Status (6)

Country Link
US (2) US9864433B2 (ja)
EP (2) EP2872967B1 (ja)
JP (1) JP6360050B2 (ja)
KR (1) KR101757080B1 (ja)
CN (1) CN105378593B (ja)
WO (1) WO2014009561A2 (ja)

Families Citing this family (95)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9671566B2 (en) 2012-06-11 2017-06-06 Magic Leap, Inc. Planar waveguide apparatus with diffraction element(s) and system employing same
CN105378593B (zh) 2012-07-13 2019-03-01 索尼深度传感解决方案股份有限公司 利用手上的奇异兴趣点基于手势进行人机同步交互的方法和系统
WO2015006784A2 (en) 2013-07-12 2015-01-15 Magic Leap, Inc. Planar waveguide apparatus with diffraction element(s) and system employing same
US10533850B2 (en) * 2013-07-12 2020-01-14 Magic Leap, Inc. Method and system for inserting recognized object data into a virtual world
US10168873B1 (en) 2013-10-29 2019-01-01 Leap Motion, Inc. Virtual interactions for machine control
US9996797B1 (en) 2013-10-31 2018-06-12 Leap Motion, Inc. Interactions with virtual objects for machine control
US10416834B1 (en) * 2013-11-15 2019-09-17 Leap Motion, Inc. Interaction strength using virtual objects for machine control
EP2891950B1 (en) 2014-01-07 2018-08-15 Sony Depthsensing Solutions Human-to-computer natural three-dimensional hand gesture based navigation method
WO2015118756A1 (ja) * 2014-02-10 2015-08-13 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
EP2908218B1 (en) * 2014-02-14 2018-03-14 Omron Corporation Gesture recognition apparatus and control method of gesture recognition apparatus
JP6349800B2 (ja) * 2014-03-12 2018-07-04 オムロン株式会社 ジェスチャ認識装置およびジェスチャ認識装置の制御方法
US9996160B2 (en) 2014-02-18 2018-06-12 Sony Corporation Method and apparatus for gesture detection and display control
US9766460B2 (en) 2014-07-25 2017-09-19 Microsoft Technology Licensing, Llc Ground plane adjustment in a virtual reality environment
US10416760B2 (en) 2014-07-25 2019-09-17 Microsoft Technology Licensing, Llc Gaze-based object placement within a virtual reality environment
US20160027214A1 (en) * 2014-07-25 2016-01-28 Robert Memmott Mouse sharing between a desktop and a virtual world
US10451875B2 (en) 2014-07-25 2019-10-22 Microsoft Technology Licensing, Llc Smart transparency for virtual objects
US10311638B2 (en) 2014-07-25 2019-06-04 Microsoft Technology Licensing, Llc Anti-trip when immersed in a virtual reality environment
US9858720B2 (en) 2014-07-25 2018-01-02 Microsoft Technology Licensing, Llc Three-dimensional mixed-reality viewport
US10123846B2 (en) 2014-11-13 2018-11-13 Intuitive Surgical Operations, Inc. User-interface control using master controller
EP3217910B1 (en) * 2014-11-13 2021-03-31 Intuitive Surgical Operations, Inc. Interaction between user-interface and master controller
DE102014017166A1 (de) 2014-11-20 2016-05-25 Audi Ag Verfahren zum Betreiben einer Objektbewertungsvorrichtung für ein Kraftfahrzeug, Objektbewertungsvorrichtung für ein Kraftfahrzeug und Kraftfahrzeug mit einer Objektbewertungsvorrichtung
DE102014226546A1 (de) * 2014-12-19 2016-06-23 Robert Bosch Gmbh Verfahren zum Betreiben einer Eingabevorrichtung, Eingabevorrichtung, Kraftfahrzeug
JP6603024B2 (ja) 2015-02-10 2019-11-06 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法
JP6561400B2 (ja) * 2015-02-10 2019-08-21 任天堂株式会社 情報処理装置、情報処理プログラム、情報処理システム、および、情報処理方法
JP6534011B2 (ja) 2015-02-10 2019-06-26 任天堂株式会社 情報処理装置、情報処理プログラム、情報処理システム、および、情報処理方法
JP6519075B2 (ja) * 2015-02-10 2019-05-29 任天堂株式会社 情報処理装置、情報処理プログラム、情報処理システム、および、情報処理方法
PL411338A1 (pl) * 2015-02-23 2016-08-29 Samsung Electronics Polska Spółka Z Ograniczoną Odpowiedzialnością Sposób interakcji z wirtualnymi obiektami w przestrzeni trójwymiarowej oraz system do interakcji z wirtualnymi obiektami w przestrzeni trójwymiarowej
CN105068662B (zh) * 2015-09-07 2018-03-06 哈尔滨市一舍科技有限公司 一种用于人机交互的电子设备
US10607413B1 (en) * 2015-09-08 2020-03-31 Ultrahaptics IP Two Limited Systems and methods of rerendering image hands to create a realistic grab experience in virtual reality/augmented reality environments
US10649536B2 (en) * 2015-11-24 2020-05-12 Intel Corporation Determination of hand dimensions for hand and gesture recognition with a computing interface
CN106909871A (zh) * 2015-12-22 2017-06-30 江苏达科智能科技有限公司 手势指令识别方法
CN106909872A (zh) * 2015-12-22 2017-06-30 江苏达科智能科技有限公司 人手轮廓识别方法
US20170185156A1 (en) * 2015-12-29 2017-06-29 Microsoft Technology Licensing, Llc Hand tracking for user interface operation at-a-distance
CN105844705B (zh) * 2016-03-29 2018-11-09 联想(北京)有限公司 一种三维虚拟对象模型生成方法及电子设备
KR101671831B1 (ko) * 2016-04-11 2016-11-03 김수민 동작 인식 센서를 이용한 3차원 입력 장치
KR101976605B1 (ko) * 2016-05-20 2019-05-09 이탁건 전자기기 및 그 동작 방법
WO2017204120A1 (ja) * 2016-05-25 2017-11-30 株式会社ソニー・インタラクティブエンタテインメント 画像処理装置、画像処理方法およびプログラム
CN107977071B (zh) * 2016-10-24 2020-02-28 中国移动通信有限公司研究院 一种适用于空间系统的操作方法及装置
EP3324270A1 (en) * 2016-11-16 2018-05-23 Thomson Licensing Selection of an object in an augmented reality environment
WO2018157286A1 (zh) 2017-02-28 2018-09-07 深圳市大疆创新科技有限公司 一种识别方法、设备以及可移动平台
CN108230383B (zh) * 2017-03-29 2021-03-23 北京市商汤科技开发有限公司 手部三维数据确定方法、装置及电子设备
US10261595B1 (en) * 2017-05-19 2019-04-16 Facebook Technologies, Llc High resolution tracking and response to hand gestures through three dimensions
US10776763B2 (en) 2017-09-12 2020-09-15 Paypal, Inc. System and method for performing gesture-based unified multi-marketplace transactions
CN108536354A (zh) * 2018-04-04 2018-09-14 网易(杭州)网络有限公司 虚拟现实场景中定位字符位置的方法和装置
DE102018206676B4 (de) * 2018-04-30 2021-11-04 Deutsche Bahn Aktiengesellschaft Verfahren zur Interaktion einer Zeigevorrichtung mit einem auf einer Projektionsfläche eines virtuellen Desktops angeordneten Zielpunkts
US10635895B2 (en) 2018-06-27 2020-04-28 Facebook Technologies, Llc Gesture-based casting and manipulation of virtual content in artificial-reality environments
CN109063653A (zh) * 2018-08-07 2018-12-21 北京字节跳动网络技术有限公司 图像处理方法和装置
US10732725B2 (en) * 2018-09-25 2020-08-04 XRSpace CO., LTD. Method and apparatus of interactive display based on gesture recognition
US10942577B2 (en) 2018-09-26 2021-03-09 Rockwell Automation Technologies, Inc. Augmented reality interaction techniques
CN111103967A (zh) * 2018-10-25 2020-05-05 北京微播视界科技有限公司 虚拟对象的控制方法和装置
CN109697407A (zh) * 2018-11-13 2019-04-30 北京物灵智能科技有限公司 一种图像处理方法及装置
CN111258413A (zh) * 2018-11-30 2020-06-09 北京字节跳动网络技术有限公司 虚拟对象的控制方法和装置
EP3926585A4 (en) * 2019-02-13 2022-03-30 Sony Group Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND RECORDING MEDIUM
WO2020209624A1 (en) * 2019-04-11 2020-10-15 Samsung Electronics Co., Ltd. Head mounted display device and operating method thereof
CN111949112A (zh) * 2019-05-14 2020-11-17 Oppo广东移动通信有限公司 对象交互方法及装置、系统、计算机可读介质和电子设备
US11189099B2 (en) 2019-09-20 2021-11-30 Facebook Technologies, Llc Global and local mode virtual object interactions
US11176745B2 (en) 2019-09-20 2021-11-16 Facebook Technologies, Llc Projection casting in virtual environments
EP4031956A1 (en) * 2019-09-20 2022-07-27 InterDigital CE Patent Holdings, SAS Device and method for hand-based user interaction in vr and ar environments
US11170576B2 (en) 2019-09-20 2021-11-09 Facebook Technologies, Llc Progressive display of virtual objects
US10991163B2 (en) 2019-09-20 2021-04-27 Facebook Technologies, Llc Projection casting in virtual environments
US11086406B1 (en) * 2019-09-20 2021-08-10 Facebook Technologies, Llc Three-state gesture virtual controls
US11275453B1 (en) 2019-09-30 2022-03-15 Snap Inc. Smart ring for manipulating virtual objects displayed by a wearable device
US11086476B2 (en) * 2019-10-23 2021-08-10 Facebook Technologies, Llc 3D interactions with web content
CN110908512A (zh) * 2019-11-14 2020-03-24 光沦科技(杭州)有限公司 一种基于动态手势坐标映射的人机交互方法
US11175730B2 (en) 2019-12-06 2021-11-16 Facebook Technologies, Llc Posture-based virtual space configurations
US11475639B2 (en) 2020-01-03 2022-10-18 Meta Platforms Technologies, Llc Self presence in artificial reality
CN115443445A (zh) * 2020-02-26 2022-12-06 奇跃公司 用于可穿戴系统的手部手势输入
US11798429B1 (en) 2020-05-04 2023-10-24 Snap Inc. Virtual tutorials for musical instruments with finger tracking in augmented reality
US11257280B1 (en) 2020-05-28 2022-02-22 Facebook Technologies, Llc Element-based switching of ray casting rules
US11256336B2 (en) 2020-06-29 2022-02-22 Facebook Technologies, Llc Integration of artificial reality interaction modes
US11176755B1 (en) 2020-08-31 2021-11-16 Facebook Technologies, Llc Artificial reality augments and surfaces
US11227445B1 (en) 2020-08-31 2022-01-18 Facebook Technologies, Llc Artificial reality augments and surfaces
US11178376B1 (en) 2020-09-04 2021-11-16 Facebook Technologies, Llc Metering for display modes in artificial reality
CN116324680A (zh) * 2020-09-11 2023-06-23 苹果公司 用于操纵环境中的对象的方法
US11925863B2 (en) 2020-09-18 2024-03-12 Snap Inc. Tracking hand gestures for interactive game control in augmented reality
US11113893B1 (en) 2020-11-17 2021-09-07 Facebook Technologies, Llc Artificial reality environment with glints displayed by an extra reality device
CN114639158A (zh) * 2020-11-30 2022-06-17 伊姆西Ip控股有限责任公司 计算机交互方法、设备和程序产品
US11416079B2 (en) 2020-12-03 2022-08-16 Motorola Mobility Llc Snap motion gesture detection and response
CN112488059B (zh) * 2020-12-18 2022-10-04 哈尔滨拓博科技有限公司 一种基于深度学习模型级联的空间手势控制方法
US20220197393A1 (en) * 2020-12-22 2022-06-23 Snap Inc. Gesture control on an eyewear device
US11461973B2 (en) 2020-12-22 2022-10-04 Meta Platforms Technologies, Llc Virtual reality locomotion via hand gesture
US11782577B2 (en) 2020-12-22 2023-10-10 Snap Inc. Media content player on an eyewear device
US11409405B1 (en) 2020-12-22 2022-08-09 Facebook Technologies, Llc Augment orchestration in an artificial reality environment
US11797162B2 (en) 2020-12-22 2023-10-24 Snap Inc. 3D painting on an eyewear device
US11740313B2 (en) 2020-12-30 2023-08-29 Snap Inc. Augmented reality precision tracking and display
CN112748805B (zh) * 2021-01-12 2023-07-04 深圳佑驾创新科技有限公司 手势控制方法、装置、计算机设备和存储介质
CN112926423B (zh) 2021-02-07 2023-08-25 青岛小鸟看看科技有限公司 捏合手势检测识别方法、装置及系统
US11294475B1 (en) 2021-02-08 2022-04-05 Facebook Technologies, Llc Artificial reality multi-modal input switching model
CN117120962A (zh) * 2021-04-08 2023-11-24 斯纳普公司 用于控制虚拟和图形元素的映射手部区域之间的双手交互
US11861070B2 (en) 2021-04-19 2024-01-02 Snap Inc. Hand gestures for animating and controlling virtual and graphical elements
US11762952B2 (en) 2021-06-28 2023-09-19 Meta Platforms Technologies, Llc Artificial reality application lifecycle
US11295503B1 (en) 2021-06-28 2022-04-05 Facebook Technologies, Llc Interactive avatars in artificial reality
US11748944B2 (en) 2021-10-27 2023-09-05 Meta Platforms Technologies, Llc Virtual object structures and interrelationships
US11798247B2 (en) 2021-10-27 2023-10-24 Meta Platforms Technologies, Llc Virtual object structures and interrelationships
US11947862B1 (en) 2022-12-30 2024-04-02 Meta Platforms Technologies, Llc Streaming native application content to artificial reality devices

Family Cites Families (77)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5168531A (en) * 1991-06-27 1992-12-01 Digital Equipment Corporation Real-time recognition of pointing information from video
US5724264A (en) * 1993-07-16 1998-03-03 Immersion Human Interface Corp. Method and apparatus for tracking the position and orientation of a stylus and for digitizing a 3-D object
US5936612A (en) * 1997-05-30 1999-08-10 Wang; Yanqing Computer input device and method for 3-D direct manipulation of graphic objects
WO2001009708A1 (en) * 1999-07-30 2001-02-08 Yanqing Wang Computer input device for multiple-dimensional control
JP2003256850A (ja) 2001-12-27 2003-09-12 Sanyo Electric Co Ltd 動き認識装置および画像処理装置並びにプログラム
JP4355341B2 (ja) 2003-05-29 2009-10-28 本田技研工業株式会社 深度データを用いたビジュアルトラッキング
JP2006268212A (ja) 2005-03-23 2006-10-05 Hiroshi Mitsumata 命令入力装置
US20060277466A1 (en) * 2005-05-13 2006-12-07 Anderson Thomas G Bimodal user interaction with a simulated object
JP2009042796A (ja) * 2005-11-25 2009-02-26 Panasonic Corp ジェスチャー入力装置および方法
US8086971B2 (en) * 2006-06-28 2011-12-27 Nokia Corporation Apparatus, methods and computer program products providing finger-based and hand-based gesture commands for portable electronic device applications
WO2008014826A1 (en) * 2006-08-03 2008-02-07 Alterface S.A. Method and device for identifying and extracting images of multiple users, and for recognizing user gestures
US20100023314A1 (en) * 2006-08-13 2010-01-28 Jose Hernandez-Rebollar ASL Glove with 3-Axis Accelerometers
FR2911983B1 (fr) 2007-01-25 2009-05-29 St Microelectronics Sa Procede de suivi automatique des mouvements de la mains dans une sequence d'images.
CN101952818B (zh) 2007-09-14 2016-05-25 智慧投资控股81有限责任公司 基于姿态的用户交互的处理
CN101874404B (zh) 2007-09-24 2013-09-18 高通股份有限公司 用于语音和视频通信的增强接口
US8005263B2 (en) * 2007-10-26 2011-08-23 Honda Motor Co., Ltd. Hand sign recognition using label assignment
US20090172606A1 (en) 2007-12-31 2009-07-02 Motorola, Inc. Method and apparatus for two-handed computer user interface with gesture recognition
EP2258587A4 (en) 2008-03-19 2013-08-07 Denso Corp OPERATING DEVICE FOR A VEHICLE
JP5077774B2 (ja) * 2008-03-19 2012-11-21 株式会社デンソー 車両用操作入力装置
US20090254855A1 (en) * 2008-04-08 2009-10-08 Sony Ericsson Mobile Communications, Ab Communication terminals with superimposed user interface
TW201017944A (en) 2008-08-13 2010-05-01 Sandisk 3D Llc Methods and apparatus for increasing memory density using diode layer sharing
JP2010079332A (ja) * 2008-09-24 2010-04-08 Mitsubishi Electric Corp 遠隔操作装置及び遠隔操作方法
JP5156617B2 (ja) 2008-12-26 2013-03-06 日本システムウエア株式会社 対象物検出用画像処理装置、方法、プログラム、並びに該プログラムを格納するコンピュータ可読媒体
US20100177039A1 (en) * 2009-01-10 2010-07-15 Isaac Grant Finger Indicia Input Device for Computer
EP2480955B1 (en) * 2009-09-22 2018-05-16 Facebook Inc. Remote control of computer devices
US20110115892A1 (en) 2009-11-13 2011-05-19 VisionBrite Technologies, Inc. Real-time embedded visible spectrum light vision-based human finger detection and tracking method
US8843857B2 (en) 2009-11-19 2014-09-23 Microsoft Corporation Distance scalable no touch computing
US8522308B2 (en) 2010-02-11 2013-08-27 Verizon Patent And Licensing Inc. Systems and methods for providing a spatial-input-based multi-user shared display experience
WO2011127646A1 (en) 2010-04-13 2011-10-20 Nokia Corporation An apparatus, method, computer program and user interface
CN102236409A (zh) 2010-04-30 2011-11-09 宏碁股份有限公司 基于影像的动作手势辨识方法及系统
JP2011258130A (ja) 2010-06-11 2011-12-22 Namco Bandai Games Inc プログラム、情報記憶媒体及び画像生成システム
US8639020B1 (en) 2010-06-16 2014-01-28 Intel Corporation Method and system for modeling subjects from a depth map
US20110317871A1 (en) 2010-06-29 2011-12-29 Microsoft Corporation Skeletal joint recognition and tracking system
JP2012073658A (ja) * 2010-09-01 2012-04-12 Shinsedai Kk コンピュータシステム
US8743064B2 (en) 2010-09-17 2014-06-03 A.I. Solutions, Inc. Gesture orbit design
US9213890B2 (en) 2010-09-17 2015-12-15 Sony Corporation Gesture recognition system for TV control
JP2012068690A (ja) * 2010-09-21 2012-04-05 Univ Of Tsukuba 手指ジェスチャ検出装置
US8457356B2 (en) 2010-10-21 2013-06-04 SET Corporation Method and system of video object tracking
JP5300825B2 (ja) * 2010-11-17 2013-09-25 シャープ株式会社 指示受付装置、指示受付方法、コンピュータプログラム及び記録媒体
JP5706672B2 (ja) * 2010-11-18 2015-04-22 シャープ株式会社 指示システム、及び、マウスシステム
US20110139600A1 (en) * 2010-11-29 2011-06-16 King Fahd University Of Petroleum And Minerals Gaseous density convective desalination and cooling system
US9104308B2 (en) 2010-12-17 2015-08-11 The Hong Kong University Of Science And Technology Multi-touch finger registration and its applications
US8488888B2 (en) 2010-12-28 2013-07-16 Microsoft Corporation Classification of posture states
US9898361B2 (en) * 2011-01-04 2018-02-20 Seagate Technology Llc Multi-tier detection and decoding in flash memories
EP2474950B1 (en) * 2011-01-05 2013-08-21 Softkinetic Software Natural gesture based user interface methods and systems
JP5569973B2 (ja) 2011-02-01 2014-08-13 Kddi株式会社 情報端末装置、方法及びプログラム
US9201590B2 (en) 2011-03-16 2015-12-01 Lg Electronics Inc. Method and electronic device for gesture-based key input
US9152306B2 (en) 2011-03-29 2015-10-06 Intel Corporation Techniques for touch and non-touch user interaction input
US10671841B2 (en) 2011-05-02 2020-06-02 Microsoft Technology Licensing, Llc Attribute state classification
US9104271B1 (en) * 2011-06-03 2015-08-11 Richard Adams Gloved human-machine interface
US8929612B2 (en) * 2011-06-06 2015-01-06 Microsoft Corporation System for recognizing an open or closed hand
JP5845002B2 (ja) * 2011-06-07 2016-01-20 ソニー株式会社 画像処理装置および方法、並びにプログラム
JP6074170B2 (ja) 2011-06-23 2017-02-01 インテル・コーポレーション 近距離動作のトラッキングのシステムおよび方法
CN103890695B (zh) 2011-08-11 2017-10-13 视力移动技术有限公司 基于手势的接口系统和方法
US20130104086A1 (en) * 2011-10-21 2013-04-25 Digital Artforms, Inc. Systems and methods for human-computer interaction using a two handed interface
CN103946863A (zh) 2011-11-01 2014-07-23 英特尔公司 基于动态姿态的短距离人机交互
US9400600B2 (en) 2011-12-16 2016-07-26 Samsung Electronics Co., Ltd. Method, apparatus, and graphical user interface for providing visual effects on a touchscreen display
KR101237472B1 (ko) 2011-12-30 2013-02-28 삼성전자주식회사 전자 장치 및 그의 제어 방법
EP2613223A1 (en) 2012-01-09 2013-07-10 Softkinetic Software System and method for enhanced gesture-based interaction
WO2013147804A1 (en) 2012-03-29 2013-10-03 Intel Corporation Creation of three-dimensional graphics using gestures
EP2680228B1 (en) 2012-06-25 2014-11-26 Softkinetic Software Improvements in or relating to three dimensional close interactions.
US8934675B2 (en) * 2012-06-25 2015-01-13 Aquifi, Inc. Systems and methods for tracking human hands by performing parts based template matching using images from multiple viewpoints
US9111135B2 (en) * 2012-06-25 2015-08-18 Aquifi, Inc. Systems and methods for tracking human hands using parts based template matching using corresponding pixels in bounded regions of a sequence of frames that are a specified distance interval from a reference camera
CN105378593B (zh) 2012-07-13 2019-03-01 索尼深度传感解决方案股份有限公司 利用手上的奇异兴趣点基于手势进行人机同步交互的方法和系统
US9152173B2 (en) * 2012-10-09 2015-10-06 Microsoft Technology Licensing, Llc Transparent display device
US9019267B2 (en) * 2012-10-30 2015-04-28 Apple Inc. Depth mapping with enhanced resolution
CA2896985A1 (en) 2013-01-03 2014-07-10 Meta Company Extramissive spatial imaging digital eye glass for virtual or augmediated vision
US9092665B2 (en) * 2013-01-30 2015-07-28 Aquifi, Inc Systems and methods for initializing motion tracking of human hands
US9129155B2 (en) * 2013-01-30 2015-09-08 Aquifi, Inc. Systems and methods for initializing motion tracking of human hands using template matching within bounded regions determined using a depth map
CN103971400B (zh) * 2013-02-06 2018-02-02 阿里巴巴集团控股有限公司 一种基于标识码的三维交互的方法和系统
US9310851B2 (en) * 2013-06-03 2016-04-12 Amchael Visual Technology Corporation Three-dimensional (3D) human-computer interaction system using computer mouse as a 3D pointing device and an operation method thereof
JP2014235634A (ja) 2013-06-04 2014-12-15 国立大学法人 筑波大学 手指動作検出装置、手指動作検出方法、手指動作検出プログラム、及び仮想物体処理システム
US10203812B2 (en) 2013-10-10 2019-02-12 Eyesight Mobile Technologies, LTD. Systems, devices, and methods for touch-free typing
WO2015069252A1 (en) * 2013-11-07 2015-05-14 Intel Corporation Object position determination
US10416834B1 (en) 2013-11-15 2019-09-17 Leap Motion, Inc. Interaction strength using virtual objects for machine control
EP2891950B1 (en) 2014-01-07 2018-08-15 Sony Depthsensing Solutions Human-to-computer natural three-dimensional hand gesture based navigation method
KR20150084524A (ko) * 2014-01-14 2015-07-22 삼성전자주식회사 디스플레이 장치 및 이의 제어 방법

Also Published As

Publication number Publication date
EP2872967B1 (en) 2018-11-21
EP3007039B1 (en) 2018-12-05
US11513601B2 (en) 2022-11-29
KR101757080B1 (ko) 2017-07-11
CN105378593B (zh) 2019-03-01
US20170097687A1 (en) 2017-04-06
EP3007039A1 (en) 2016-04-13
WO2014009561A3 (en) 2014-05-01
CN105378593A (zh) 2016-03-02
EP2872967A2 (en) 2015-05-20
KR20150034215A (ko) 2015-04-02
US20150153833A1 (en) 2015-06-04
JP2015522195A (ja) 2015-08-03
US9864433B2 (en) 2018-01-09
WO2014009561A2 (en) 2014-01-16

Similar Documents

Publication Publication Date Title
JP6360050B2 (ja) 手の上の特異な注目すべき点を使用した人間−コンピュータ・ジェスチャ・ベース同時相互作用のための方法及びシステム
KR101761050B1 (ko) 인간-컴퓨터 자연스러운 3차원 손 제스처 기반 내비게이션 방법
US8552976B2 (en) Virtual controller for visual displays
US9377867B2 (en) Gesture based interface system and method
US8897491B2 (en) System for finger recognition and tracking
CN108845668B (zh) 人机交互系统和方法
US20120202569A1 (en) Three-Dimensional User Interface for Game Applications
US20120204133A1 (en) Gesture-Based User Interface
Rossol et al. A multisensor technique for gesture recognition through intelligent skeletal pose analysis
TWI571772B (zh) 虛擬滑鼠驅動裝置及虛擬滑鼠模擬方法
Saba et al. Dante vision: In-air and touch gesture sensing for natural surface interaction with combined depth and thermal cameras
JP6651388B2 (ja) ジェスチャモデリング装置、ジェスチャモデリング方法、ジェスチャモデリングシステム用のプログラム、およびジェスチャモデリングシステム
Wu et al. A visual attention-based method to address the midas touch problem existing in gesture-based interaction
Hartanto et al. Real time hand gesture movements tracking and recognizing system
Annabel et al. Design and Development of Multimodal Virtual Mouse
US20230085330A1 (en) Touchless image-based input interface
Prabhakar et al. AI And Hand Gesture Recognition Based Virtual Mouse
Craciun et al. Interface for gestural interaction in virtual reality environments

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150709

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160602

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160816

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20161125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170324

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20170509

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20170706

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170707

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20170721

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180410

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180621

R150 Certificate of patent or registration of utility model

Ref document number: 6360050

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250