JP7191714B2 - デジタルデバイスとの対話のための直接的なポインティング検出のためのシステムおよび方法 - Google Patents

デジタルデバイスとの対話のための直接的なポインティング検出のためのシステムおよび方法 Download PDF

Info

Publication number
JP7191714B2
JP7191714B2 JP2019020548A JP2019020548A JP7191714B2 JP 7191714 B2 JP7191714 B2 JP 7191714B2 JP 2019020548 A JP2019020548 A JP 2019020548A JP 2019020548 A JP2019020548 A JP 2019020548A JP 7191714 B2 JP7191714 B2 JP 7191714B2
Authority
JP
Japan
Prior art keywords
display
user
pointing
eye
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019020548A
Other languages
English (en)
Other versions
JP2019087279A (ja
Inventor
カッツ イタイ
Original Assignee
アイサイト モバイル テクノロジーズ リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アイサイト モバイル テクノロジーズ リミテッド filed Critical アイサイト モバイル テクノロジーズ リミテッド
Publication of JP2019087279A publication Critical patent/JP2019087279A/ja
Priority to JP2022100231A priority Critical patent/JP2022118183A/ja
Application granted granted Critical
Publication of JP7191714B2 publication Critical patent/JP7191714B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes

Description

(関連出願)
本願は、2013年6月27日に出願された、米国仮出願第61/840,447号に対する優先権を主張するものであり、該米国仮出願の全体は、参照により本明細書中に援用される。
本開示は、タッチフリージェスチャ検出の分野に関し、より具体的には、タッチフリージェスチャを検出するセンサを使用するためのデバイスおよびコンピュータ可読媒体に関する。
ユーザが、デバイスまたはデバイス上で実行中のアプリケーションと対話できるようにすることは、多くの異なる状況で有用である。例えば、キーボード、マウス、ジョイスティックは、多くの場合、ユーザが、データを入力する、データを操作する、およびシステムのプロセッサに様々な他の行動を実行させることを可能にするため、電子システムに含まれる。しかしながら、キーボード、マウス、ジョイスティック等、タッチベースの入力デバイスは、ますます、タッチフリーのユーザ対話を可能にするデバイスにより置き換えまたは補充されつつある。例えば、システムは、イメージセンサを含み得、例えば、ユーザの手および/または指を含むユーザの画像を捕捉し得る。プロセッサは、そのような画像を受信し、ユーザによって実行されるタッチフリージェスチャに基づいて行動を開始するように構成され得る。タッチフリージェスチャを検出し、入力するための技法を改善することが望ましい。
開示されたある実施形態では、タッチフリージェスチャ認識システムが開示される。タッチフリージェスチャ認識システムは、少なくとも1つのプロセッサを含み得る。少なくとも1つのプロセッサは、ディスプレイ上の少なくとも第1の位置で第1のタッチフリージェスチャを促す第1のディスプレイ情報のユーザへの提示を可能にすることと、ユーザによる第1のタッチフリージェスチャに相関付けられたディスプレイ上の第1のジェスチャリング位置に対応する少なくとも1つのイメージセンサからの第1のジェスチャ情報を受信することであって、第1のジェスチャリング位置は、ユーザの一方の眼がユーザの他方の眼に対して優位であることの結果として、第1のディスプレイ情報の位置と少なくとも部分的に異なっている、ことと、第1のディスプレイ情報の位置および第1のジェスチャリング位置に関連付けられる第1のオフセットを決定することと、ディスプレイ上の少なくとも第2の位置で、その後のタッチフリージェスチャを行うようユーザに促す第2の情報の提示を可能にすることと、ユーザによる後続のタッチフリージェスチャに対応する少なくとも1つのイメージセンサからの後続のジェスチャ情報を受信することと、後続のタッチフリージェスチャの影響を受けるディスプレイ上の位置を決定するために第1のオフセットを使用することとを行うように構成され得る。
実施形態に関連する追加的側面は、以下の記述に一部説明され、一部は、説明から理解されるか、または開示された実施形態の実施によって習得され得る。
前述の概略的な記述および以下の詳細な記述はいずれも例示および説明のみのためであり、特許請求の範囲を限定するものではないと理解されるべきである。
例えば、本願は以下の項目を提供する。
(項目1)
ディスプレイ上の少なくとも第1の位置で、第1のタッチフリージェスチャを促す第1のディスプレイ情報のユーザへの提示を可能にすることと、
前記ユーザによる第1のタッチフリージェスチャに相関付けられた、前記ディスプレイ上の第1のジェスチャリング位置に対応する少なくとも1つのイメージセンサからの第1のジェスチャ情報を受信することであって、前記第1のジェスチャリング位置は、ユーザの一方の眼がユーザの他方の眼に対して優位であることの結果として、前記第1のディスプレイ情報の位置と少なくとも部分的に異なっている、ことと、
前記第1のディスプレイ情報の前記位置および前記第1のジェスチャリング位置に関連付けられる第1のオフセットを決定することと、
前記ディスプレイ上の少なくとも第2の位置で、その後のタッチフリージェスチャを行うよう、前記ユーザに促す第2の情報の提示を可能にすることと、
前記ユーザによる後続のタッチフリージェスチャに対応する、前記少なくとも1つのイメージセンサからの後続のジェスチャ情報を受信することと、
前記後続のタッチフリージェスチャによって影響される前記ディスプレイ上の位置を決定するために、前記第1のオフセットを使用することと
を行うように構成された少なくとも1つのプロセッサを備える、タッチフリージェスチャ認識システム。
(項目2)
前記第1のタッチフリージェスチャおよび前記後続のタッチフリージェスチャは、指さしを含み、前記少なくとも1つのプロセッサはさらに、前記ディスプレイ上のポインティング位置を決定するために、前記少なくとも1つのイメージセンサからの前記第1のジェスチャ情報および前記後続のジェスチャ情報を使用するように構成される、項目1に記載のシステム。
(項目3)
前記少なくとも1つのプロセッサはさらに、前記後続のタッチフリージェスチャに関連付けられる、認識されたジェスチャを反映する送り先への出力を送信するように構成される、項目1に記載のシステム。
(項目4)
前記後続のジェスチャリング位置は、前記ユーザの一方の眼が前記ユーザの他方の眼に対して優位である結果として、前記ディスプレイ上の前記第2の情報の位置と少なくとも部分的に異なる、項目1に記載のシステム。
(項目5)
前記少なくとも1つのプロセッサはさらに、前記ユーザの第1の眼に関連付けられる少なくとも1つの第1の目線を用いて生成される第1の候補ポインティング領域と、前記ユーザの第2の眼に関連付けられる第2の目線を用いて生成される第2の候補ポインティング領域との少なくとも1つを特定することによって前記第1のオフセットを決定するように構成される、項目1に記載のシステム。
(項目6)
前記第1のオフセットに関連付けられる情報は、視線の計算の出発点として作用する瞳孔を除く顔上の位置に対応し、前記少なくとも1つのプロセッサはさらに、前記後続のタッチフリージェスチャの意図する位置を決定するために、前記顔上の前記瞳孔を除く位置を用いるように構成される、項目1に記載のシステム。
(項目7)
前記少なくとも1つのプロセッサは、前記ディスプレイ上における前記後続のタッチフリージェスチャの意図する位置を決定するために、前記第1のオフセットに関連付けられる情報を用いるように構成される、項目1に記載のシステム。
(項目8)
前記少なくとも1つのプロセッサはさらに、
前記第1の眼に関連付けられる位置から指先を通して前記ディスプレイ上まで通る第1の視線に関連付けられる、前記ディスプレイ上の第1の領域内の第1の点と、
前記第2の眼に関連付けられる第2の位置から前記指先を通して前記ディスプレイ上まで通る第2の視線に関連付けられる、前記ディスプレイ上の第2の領域内の第2の点と
の少なくとも1つを選択することにより、前記第1のジェスチャリング位置を決定するように構成される、項目1に記載のシステム。
(項目9)
前記少なくとも1つのプロセッサはさらに、前記第1の点および前記第2の点の略近傍における少なくとも第3の点を決定することにより、前記第1のジェスチャリング位置を決定するように構成される、項目8に記載のシステム。
(項目10)
前記少なくとも1つのプロセッサはさらに、前記ディスプレイの異なる領域について、眼球優位性に関連付けられる異なるオフセットを決定するように構成される、項目1に記載のシステム。
(項目11)
前記少なくとも1つのプロセッサはさらに、複数の異なる時間間隔で多数の候補ポインティング域領域を用いることにより、ポインティングの位置を決定するように構成される、項目1に記載のシステム。
(項目12)
前記少なくとも1つのプロセッサはさらに、複数のユーザのそれぞれについて、前記第1のオフセットに関連付けられる固有情報を格納するように構成される、項目1に記載のシステム。
(項目13)
前記少なくとも1つのプロセッサはさらに、前記複数のユーザのそれぞれについての識別に関連付けられる、前記少なくとも1つのイメージセンサから受信される情報を、前記格納される固有情報として格納するように構成される、項目12に記載のシステム。
(項目14)
前記少なくとも1つのプロセッサはさらに、前記複数のユーザのそれぞれについて瞳孔を除く顔上の位置に関する情報を、前記格納される固有情報として格納するように構成される、項目12に記載のシステム。
(項目15)
前記第1のオフセットに関連付けられる情報は、前記ユーザの一方の眼が、前記ユーザの他方の眼に対して優位であるという標示を含む、項目1に記載のシステム。
(項目16)
前記第1のオフセットに関連付けられる情報は、前記ユーザの前記一方の眼が、前記ユーザの前記他方の眼に対して優位である度合いの標示を含む、項目1に記載のシステム。
(項目17)
少なくとも1つのプロセッサによって実行されるとき、
ディスプレイ上の少なくとも第1の位置における第1のタッチフリージェスチャを促す第1のディスプレイ情報のユーザへの提示を可能にすることと、
前記ユーザによる第1のタッチフリージェスチャに相関付けられた前記ディスプレイ上の第1のジェスチャリング位置に対応する少なくとも1つのイメージセンサからの第1のジェスチャ情報を受信することであって、前記第1のジェスチャリング位置は、少なくとも部分的に、ユーザの一方の眼がユーザの他方の眼に対して優位的であることの結果として、第1のディスプレイ情報の位置とは異なる、ことと、
前記第1のディスプレイ情報の位置および前記第1のジェスチャリング位置に関連付けられる第1のオフセットを決定することと、
前記ディスプレイ上の少なくとも第2の位置における後続のタッチフリージェスチャを行うことを前記ユーザに促す第2の情報の提示を可能にすることと、
前記ユーザによる後続のタッチフリージェスチャに対応する少なくとも1つのイメージセンサからの後続のジェスチャ情報を受信することと、
前記後続のタッチフリージェスチャによって影響される、前記ディスプレイ上の位置を決定するために前記第1のオフセットを用いることと
を含む動作を前記少なくとも1つのプロセッサが行うようにする指示を含む、非一過性コンピュータ可読媒体。
(項目18)
前記後続のジェスチャリング位置は、前記ユーザの一方の眼が、前記ユーザの他方の眼に対して優位であることを示す情報の結果、前記ディスプレイ上の前記第2の情報の位置と少なくとも部分的に異なる、項目17に記載の非一過性コンピュータ可読媒体。
(項目19)
前記指示は、前記少なくとも1つのプロセッサによって実行されるときさらに、前記ユーザの第1の眼に関連付けられる少なくとも1つの第1の目線を用いて生成される第1の候補ポインティング領域と、前記ユーザの第2の眼に関連付けられる第2の目線を用いて生成される第2の候補ポインティング領域との少なくとも1つを特定することにより、前記第1のオフセットを決定することを含む追加的動作を前記少なくとも1つのプロセッサに行わせる、項目17に記載の非一過性コンピュータ可読媒体。
(項目20)
前記第1のオフセットに関連付けられる前記情報は、瞳孔を除く顔上の位置に対応して視線計算の出発点として作用し、前記指示は、前記少なくとも1つのプロセッサによって実行されるとき、前記後続のタッチフリージェスチャの意図する位置を決定するために、前記顔上の瞳孔を除く位置を用いることを含む追加的動作を前記少なくとも1つのプロセッサに行わせるようにする、項目17に記載の非一過性コンピュータ可読媒体。
本明細書に組み込まれ本明細書の一部を構成する付随の図面は、本発明のいくつかの例示的実施形態を図示し、記述とともに、本発明の原理を説明するために役立つ。
図1は、開示される実施形態のいくつかによる、タッチフリーユーザインタフェースシステムの例示的な描写表現を図示する。
図2Aは、開示された実施形態のいくつかによる、タッチフリーユーザインタフェースの例示的な処理ユニットを図示する。
図2Bは、開示された実施形態のいくつかによる、システムの例示的なブロック図を図示する。
図3Aは、本発明の実施形態に関する方法、システム、およびコンピュータ可読媒体により使用され得る、例示的なオフセット決定ステップを図示する。
図3Bは、本発明の実施形態に関する方法、システム、およびコンピュータ可読媒体により使用され得る、例示的なジェスチャ検出および特定ステップを図示する。
図4は、開示された実施形態のいくつかによる、タッチフリーユーザインタフェースシステムの例示的な描写表現を図示する。
図5は、本発明の実施形態に関する方法、システム、およびコンピュータ可読媒体により使用され得る、ポインティング位置を特定するための例示的なステップを図示する。
図6Aは、開示された実施形態のいくつかによる、タッチフリーユーザインタフェースシステムの例示的な描写表現を図示する。
図6Bは、開示された実施形態のいくつかによる、タッチフリーユーザインタフェースシステムの例示的な描写表現を図示する。
図7は、本発明の実施形態に関する方法、システム、およびコンピュータ可読媒体により使用され得る、例示的な較正ステップを図示する。
図8は、開示された実施形態のいくつかによる、タッチフリーユーザインタフェースシステムの例示的な描写表現を図示する。
図9は、本発明の実施形態に関する方法、システム、およびコンピュータ可読媒体により使用され得る、候補面または候補領域を特定するための例示的なステップを図示する。
図10は、開示された実施形態のいくつかによる、例示的な候補面のベン図を図示する。
図11は、本発明の実施形態に関連する方法、システム、およびコンピュータ可読媒体により使用され得る、例示的なジェスチャ追跡ステップを図示する。
図12は、本発明の実施形態に関する方法、システム、およびコンピュータ可読媒体により使用され得る、眼球優位性を決定するための例示的なステップを図示する。
図13は、開示された実施形態のいくつかによる、タッチフリーユーザインタフェースシステムの例示的な描写表現を図示する。
図14は、開示された実施形態のいくつかによる、ユーザの顔の例示的な描写表現を図示する。
図15は、開示された実施形態のいくつかによる、ユーザの手の例示的な描写表現を図示する。
図16Aは、開示された実施形態のいくつかによる、ポインティング視覚効果の例示的な描写表現を図示する。
図16Bは、開示された実施形態のいくつかによる、ポインティング視覚効果の例示的な描写表現を図示する。
図17は、開示された実施形態のいくつかによる、タッチフリーユーザインタフェースシステムの例示的な描写表現を図示する。
ここで、付随の図面に図示される例示的実施形態を詳細に参照する。可能な限り、同じ参照番号は、図面全体を通して同じまたは同等部分を指すために使用されるであろう。
図1は、ディスプレイ6を有するデバイス4のタッチフリー動作のためのシステム2の実施形態を描写する。デバイス4は、例えば、携帯電話、スマート眼鏡、パーソナルコンピュータ(PC)、娯楽デバイス、セットトップボックス、テレビ、携帯ゲーム機、タブレットコンピュータ、電子リーダー、携帯型ゲーム機、ラップトップまたはウルトラブック等の携帯型コンピュータ、台所用品等の家電製品、通信デバイス、空調サーモスタット、ドッキングステーション、携帯ビデオゲームデバイス等のゲーム機、デジタルカメラ、時計、エンターテイメントデバイス、スピーカー、スマートホームデバイス、メディアプレーヤまたはメディアシステム、位置ベースのデバイス、ピコプロジェクタまたは埋め込み型プロジェクタ、医療ディスプレイデバイス等の医療デバイス、車両、車載/空中インフォテイメントシステム、ナビゲーションシステム、ウェアラブルデバイス、拡張現実対応のデバイス、ウェアラブルゴーグル、ロボット、対話型デジタル看板、デジタルキオスク、自動販売機、現金自動預け払い機(ATM)、またはユーザからデータを受信するもしくはユーザへデータを出力する任意の他の装置もしくはシステムを含み得る。
ディスプレイ6は、画像または他の視覚情報の表示を引き起こし得る任意の平面、表面、または他の手段を含んでもよい。さらに、ディスプレイ6は、平面または表面上に画像または可視情報を投影する任意のタイプのプロジェクタを含んでもよい。例えば、ディスプレイ6は、テレビ受像機、コンピュータモニタ、ヘッドマウントディスプレイ、放送用参照モニタ、液晶ディスプレイ(LCD)スクリーン、発光ダイオード(LED)ベースのディスプレイ、LEDバックライトLCDディスプレイ、陰極線管(CRT)ディスプレイ、エレクトロルミネッセンス(ELD)ディスプレイ、電子ペーパー/インクディスプレイ、プラズマディスプレイパネル、有機発光ダイオード(OLED)ディスプレイ、薄膜トランジスタ(TFT)ディスプレイ、ハイパフォーマンスアドレッシング(HPA)ディスプレイ、表面伝導型電子放出素子ディスプレイ、量子ドットディスプレイ、干渉変調器ディスプレイ、掃引容積ディスプレイ、カーボンナノチューブディスプレイ、可変焦点ミラーディスプレイ、発光体積型ディスプレイ、レーザディスプレイ、ホログラフィックディスプレイ、光照射野ディスプレイ、壁、三次元ディスプレイ、電子インクディスプレイ、および視覚情報を出力するための任意の他の電子デバイスの1つまたはそれを上回るものを含み得る。ディスプレイ6は、タッチスクリーンを含むまたはその一部であってもよい。図1は、デバイス4の一部としてのディスプレイ6を描写する。しかしながら、代替的実施形態では、ディスプレイ6は、デバイス4の外部にあってもよい。
システム2はまた、デバイス4に隣接して配置され、破線10で囲まれた3次元(3-D)視空間の画像を取得するように構成された、イメージセンサ8も含み得る(またはこれから情報を受信し得る)。イメージセンサ8は、例えば、カメラ、光センサ、赤外線(IR)センサ、超音波センサ、近接センサ、CMOSイメージセンサ、短波赤外線(SWIR)イメージセンサ、または反射率センサ、CCDイメージセンサ、反射率センサ、3次元イメージセンサまたは2つもしくはそれを上回る2次元(2-D)立体イメージセンサを含む奥行きビデオシステム、および環境の視覚特性を検知することが可能な任意の他のデバイスのうちの1つまたはそれを上回るものを含む、任意の画像取得デバイスを含み得る。一例として、図1は、デバイス4に隣接するイメージセンサ8を描写するが、代替的実施形態では、イメージセンサ8は、デバイス4に組み込まれる、またはデバイス4から離れても配置され得る。
破線10で示される視空間に位置するユーザ16は、イメージセンサ8により得られた画像に現れ得る。イメージセンサ8は、2-Dまたは3-Dモノクロ、カラー、またはIRのビデオを、イメージセンサ8と一体のまたは有線もしくは無線の通信チャネルによってメージセンサ8に接続された処理ユニット12に出力し得る。
本発明の実施形態は、少なくとも1つのプロセッサを含んでもよい。本明細書で使用されるように、用語「プロセッサ」は、単数または複数の入力に対して論理演算を実行する電気回路を含み得る。例えば、そのようなプロセッサは、1つまたはそれを上回る集積回路、マイクロチップ、マイクロコントローラ、マイクロプロセッサ、中央演算処理装置(CPU)の全部または一部、グラフィックス処理ユニット(GPU)、デジタル信号プロセッサ(DSP)、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)、または指示を実行するもしくは論理演算を実行するために好適な任意の他の回路を含み得る。少なくとも1つのプロセッサは、例えば、図2Aに描写される処理ユニット12等の処理装置と一致するまたはその一部を構成し得る。図2Aの処理ユニット12は、とりわけ、プロセッサ15と、イメージセンサ8によって得られた画像を格納するために用いられ得るメモリ13とを含み得る。処理ユニット12および/またはプロセッサ15は、プロセッサ15および/またはメモリ13内にある1つまたはそれを上回る指示を実行するように構成され得る。
メモリ13は、例えば、持続性メモリ、ROM、EEPROM、EAROM、フラッシュメモリデバイス、磁気ディスク、光磁気ディスク、CD―ROM、DVD―ROM、およびブルーレイメディアのうちの1つまたはそれを上回るものを含み得、指示(すなわち、ソフトウェアまたはファームウェア)および/または他のデータを含み得る。図2Aは、処理ユニット12の一部としてメモリ13を描写するが、他の実施形態では、メモリ13は、処理ユニット12の外部にあってもよい。
処理ユニット12は、イメージセンサ8により得られた画像を解析し、ディスプレイ6と対話するためにユーザ16によって利用され得る1つまたはそれを上回る所定のポインティング要素を追跡するように構成され得る。ポインティング要素は、例えば、イメージセンサ8の視空間に配置されたユーザ16の指先14を含み得る。いくつかの実施形態では、ポインティング要素は、例えば、ユーザ16の1つまたはそれを上回る手、手の一部、1つまたはそれを上回る指、1つまたはそれを上回る指の一部、および1つまたはそれを上回る指先14、または手持ち式スタイラスを含み得る。図1は、ポインティング要素として指先14を示すが、他のポインティング要素は、同様に使用され得、同じ目的を果たし得る。このように、指先14が本明細書で言及される場合、それは例としてのみ考慮されるべきであって、他のポインティング要素をも含むものとして広く解釈されるべきである。
処理ユニット12は、ユーザ16が指先14を向けて指し得るディスプレイ6上のアイコン20等のディスプレイ情報を提示するように構成され得る。処理ユニット12は、ユーザ16が指す位置に対応する出力18(インジケータ18)をディスプレイ6上に示すように構成され得る。例えば、図17に示すように、ユーザ16は、ディスプレイ6のディスプレイ情報(アイコン20)を指す意図があるとする。この実施例では、処理ユニット12は、ユーザ16がジェスチャリング位置19を実際に指していると判定し得る。しかしながら、処理ユニット12は、ディスプレイ情報とジェスチャリング位置19との間の差に関連するオフセットOを決定し得る。オフセットOに関する情報を部分的に使用して、処理ユニット12は、ユーザの意図を反映するディスプレイ6の送り先に出力(例えば、インジケータ18)を送信し得る。図17に示される実施例では、インジケータ18は、ユーザ16が実際にはジェスチャリング位置19を指しているにもかかわらず、アイコン20と同じ位置に表示される。
ジェスチャリング位置19は、ユーザが指す位置としてシステム2により何らかの地点に画定されるディスプレイ6上の位置に関連付けられた任意の数学的表現であってもよい。ジェスチャリング位置19は、ディスプレイ上の特定の座標(x、y)または(3-Dディスプレイの場合にはx、y、z)を含み得る。ジェスチャリング位置19は、ディスプレイ6上の領域または位置(例えば、候補面)を含み得る。加えて、ジェスチャリング位置19は、ディスプレイ上の位置に関連する確率関数(例えば、3次元ガウス関数等)として定義され得る。ジェスチャリング位置19は、ジェスチャリング位置19のディスプレイ6上の位置の推定がどの程度正確かを示す確率指標等、検出の品質を記述する追加の数字のセットに関連付けられ得る。
例えば、ユーザ16にデジタル情報を提示する能力を含む着用可能な眼鏡等のスマート眼鏡の場合には、ジェスチャリング位置は、スマート眼鏡ディスプレイによって提示されるデジタル情報をユーザが見るように知覚する面である仮想平面の位置として画定され得る。
ディスプレイ情報は、静止画像、動画像、(アイコン等の)対話型オブジェクト、ビデオ、および/または情報の視覚的な表現を含み得る。ディスプレイ情報は、上記のような任意のディスプレイ方法により表示され得、フラットディスプレイ、湾曲したディスプレイ、プロジェクタ、着用可能な眼鏡で使用されるような透明ディスプレイおよび/またはユーザの眼もしくは瞳孔に直接的または間接的に投影するディスプレイを含み得る。
指されたアイコンの標示またはフィードバックは、例えば、視覚的標示、オーディオ標示、触覚標示、超音波標示、および触覚標示のうちの1つまたはそれを上回るものによって提供され得る。視覚的標示を表示することは、例えば、ディスプレイ6上にアイコンを表示すること、ディスプレイ6上のアイコンを変えること、ディスプレイ6上のアイコンの色を変えること、標示灯を表示すること、ハイライト、シャドーイング、または他の効果を表示すること、ディスプレイ6上のインジケータを動かすこと、方向の振動標示を提供すること、および/または空気の触覚標示を提供することを含み得る。視覚的インジケータは、ディスプレイ6上に現れる全ての他の画像または映像の上方(または前)に現れ得る。ユーザ16により選択されるディスプレイ6上のアイコン等の視覚的インジケータは、共通の目線24(または視線)上にあるユーザの眼22および指先14と同一線上にあり得る。本明細書で使用されるように、また、より詳細に後述される理由のため、用語「ユーザの眼」は、視線に関するユーザの顔の位置や面積を規定する略語である。したがって、本明細書で使用されるように、用語「ユーザの眼」は、いずれかの眼の瞳孔または眼の他の特徴、ユーザの眼の間の顔の位置、またはユーザの少なくとも1つの眼に関連するユーザの顔上の位置、または視線に相関付けられ得る顔のある他の解剖学的特徴を包含する。この概念は、時として「仮想の眼」と称される。
アイコンは、ディスプレイ6に表示され、ユーザ16により選択され得る例示的なグラフィカル要素である。アイコンに加えて、グラフィカル要素はまた、例えば、表示された画像および/または動画中に表示されたオブジェクト、ディスプレイ6上または表示されたファイル内に表示されたテキスト、および対話型ゲーム内に表示されたオブジェクトを含み得る。本記述全体を通して、用語「アイコン」および「グラフィカル要素」は、任意の表示された情報を含むように広く使用される。
図3Aのステップ313に描写されるように、本発明の実施形態は、ディスプレイ6上の少なくとも第1の位置で、第1のタッチフリージェスチャを促す情報の第1のディスプレイの、ユーザ16への提示を可能にし得る。提示を可能にすることは、例えば、情報またはその表現がディスプレイ6を介してユーザ16に提示されるように、プロセッサ15からディスプレイデバイスにデータを送信することによって生じ得る。表現は、図1に例としてのみ図示されるように、ディスプレイ6に向かってタッチフリージェスチャを行うことをユーザ16に呼び起こす、または促すように設計され得る。特に、図1は、指差しタッチフリージェスチャを行うユーザ16を描写する。ディスプレイ6上の第1の位置は、概して、ディスプレイ情報の位置に対応する。対応は、さらに詳細に後述するように、ユーザの知覚(すなわち、表示される情報)と表示された情報の実際の位置(すなわち、ジェスチャリング位置)との間に違いがあり得るため正確でないことがあり得る。第1の情報は、以下に詳述されるように、例えば、グラフィカル要素、アイコン、または他の情報を含み得る。
例えば、処理ユニット12はまた、1つまたはそれを上回る選択可能なグラフィカル要素またはアイコンをディスプレイ6上に表示するように構成され得る。図1は、例示的な4つのアイコン20a、20b、20c、および20dを図示する。しかしながら、いくつかの実施形態では、任意数のアイコンが、任意の時間にディスプレイ6に表示されてもよい。アイコン20a-20dはいずれも、ユーザ16が選択しようとする特定のアイコンを指先14で指すことによりユーザ16により選択され得る。
図3Aのステップ315に描写されるように、本発明の実施形態は、ユーザ16による第1のタッチフリージェスチャに相関付けられ、これを反映するディスプレイ6上の第1のジェスチャリング位置に対応する第1のジェスチャ情報を受信し得る。第1のジェスチャ情報は、より詳細に後述するように、任意の動きまたはポーズに対応し得る。ジェスチャ情報は、例えば、検出されたハンドジェスチャまたはポインティング要素に対応する数値またはグラフィックデータを含み得る。数値またはグラフィックデータは、少なくとも1つのプロセッサ15によって受信され得、プロセッサ15は、それを既知のディスプレイ位置に相関付け得る。
処理ユニット12は、所定の基準に基づいてユーザ16によるアイコンの選択を特定するように構成され得る。例えば、ユーザ16がアイコンを所定の時間(すなわち、所定の秒数)にわたり指したとき、処理ユニット12は、このアイコンを選択し得る。加えて、処理ユニット12は、ユーザ16が選択されるアイコンに向かって所定の動作を行うとき、ユーザ16によるアイコンの選択を特定するように構成され得る。例えば、所定の動作は、選択されたアイコンに向かう指先14の動きの後に選択されたアイコンから離れる指先14の動きが続くタッピング動作を含み得る。システム2は、ユーザ16がアイコンを指して選択したときに、視覚および/または音声フィードバックを生成するように構成され得る。例えば、1つのアイコンがディスプレイ6上に配置され、ユーザのジェスチャが検出された場合、システム2は、ユーザ16が表示されたアイコンだけに向かってジェスチャすると仮定するように構成され得る。多数のアイコンが表示される場合、システム2は、ユーザのジェスチャに関連付けられるジェスチャリング位置19に最も近いアイコンに向かってユーザ16がジェスチャすると仮定するように構成され得る。
さらに詳細に後述するように、一方よりも優位な1つの眼をユーザ16が有し得るため、ディスプレイ6上の実際のジェスチャリング位置(検出されるポインティング位置)は、ユーザ16が自身が指していると考えるアイコンの実際の表示位置と異なり得る。したがって、タッチフリージェスチャシステムの精度を高めるために、システムは、図17および図3Aのステップ317に概して描写され、より詳細に後述されるように、第1の表示情報(例えば、アイコン20)の位置および第1のジェスチャリング位置19に関連付けられるオフセットOを決定することを可能にされ得る。オフセットOは、多くの異なる方法で決定され、適用され得る。例えば、オフセットOは、ユーザの両眼間の中心点からのオフセット位置で「仮想の眼」を選択することにより達成され得、仮想の眼は、視線の出発点として使用され得る。代わりに、オフセットOは、ユーザ16がジェスチャするアイコン(例えば、アイコン20)とジェスチャリングの検出された位置、すなわち、ジェスチャリング位置19との間のディスプレイ上で検出された差に基づいて決定され得る。実施例およびさらなる詳細は、図12、13、および17に関連して、後に提供される。
記述は、時として単一オフセットOの決定について述べるが、これは省略であり、システムは、高いレベルの精度を潜在的に達成するために(連続的または定期的な間隔で)多数のオフセットを決定することが可能であるとともに、ディスプレイ6上の異なる位置に関連し、アイコンの異なるサイズに関連し、アイコンの異なるクラスタに関連し、またはジェスチャの位置が検出されるディスプレイ上の領域または位置内でのアイコン間の距離に関連する、多数のオフセットを決定することも可能であることを理解すべきである。さらに、オフセットは、1つの座標、2つの座標、または3-Dの場合には3つの座標で表される任意の方向に存在し得る。さらに、オフセットOは、ユーザが指していると知覚するディスプレイ上の位置とシステム2の指示によるジェスチャリング位置19との差異に関連付けられる任意の数学的表現であり得る。オフセットOは、ディスプレイ6自体上のこれら2つの位置間の距離(例えば、右に24ピクセル、上に8ピクセル)、2つの位置間の差を示すベクトル(2Dまたは3Dベクトル)、これら2つの位置の間の距離に関連する数字の組、および/またはこれらの2位置間の距離を表す式に関係し得る。オフセットOは、(ユーザの眼22等)ユーザの顔の他の解剖学的部位に対する「仮想の眼」の位置に関係し得る。オフセットOは、ユーザのポインティング要素(例えば、指先14)の位置に関係し得、ポインティング要素の検出位置を補正するために使用され得る。オフセットOはまた、「仮想の眼」の前を出発し、ポインティング要素を通してディスプレイ6と交差する、計算された目線24の任意の特徴に関係し得る。第2の情報が、図3Aのステップ319に示されるようにその後に表示され、ユーザ16が第2の情報に対してジェスチャするとき、図3Aのステップ321に示されるように、第2のジェスチャに関連付けられるグラフィカルまたは数値データは、イメージセンサ(例えば、図1中のイメージセンサ8)を介して受信され得、プロセッサ(例えば、図2Aのプロセッサ15)に転送され得る。他方に対して優位である一方の眼をユーザが有するという事実により、第2のまたは後続のジェスチャ位置は、第2の情報、すなわち、ユーザが指すことを意図する位置と正確に整合しない場合がある。しかしながら、ステップ323に示されるように、プロセッサ15は、前にステップ317で決定された第1のオフセット(または複数のオフセット)を用いて位置ずれを補正するように構成され得る。補正の結果、ユーザの意図は決定され得、対応する行動が開始され得る。1つのそのような行動は、ユーザの意図の表示表現を提供するように出力をディスプレイ6に送る(例えば、システムが、ユーザの指す位置がアイコンの左に3インチ外れていることを検出したとしても、オフセット補正は、カーソルがアイコン上またはその近傍に表示されるようにする)ことを含み得る。オフセットの例示的な動作は、図12および13に関連し、さらに詳細に述べられる。
いくつかの実施形態では、指先14は、ポインティングする際またはタッピング動作中に、ディスプレイ6に接触しない。図1に図示される実施例では、指先14は、アイコン20bに向けて指している。処理ユニット12は、イメージセンサ8により得られた画像ストリーム(例えば、ビデオストリーム)の画像を解析することにより、指先14を所定の時間にわたりアイコン20bに向かって指すユーザ16を検出するか、アイコン20bに向かってタッピング動作(またはクリック動作)を行うユーザ16を検出し得る。処理ユニット12が特定のアイコンが選択されたことを判断するとき、対応するコマンドおよび/または選択されたアイコンに関連付けられるメッセージは、それぞれ実行または生成され得る。メッセージの生成またはコマンドの実行は、対応する結果を、任意の1つまたはそれを上回るオペレーティングシステム、1つまたはそれを上回るローカルサービス、1つまたはそれを上回るアプリケーション、1つまたはそれを上回るデバイス、1つまたはそれを上回るリモートアプリケーション、1つまたはそれを上回るリモートサービス、または1つまたはそれを上回るリモートデバイスにアドレスし得る。
いくつかの実施形態では、デバイス4は、通信を伴うグラフィカル要素の選択に応答して、外部デバイスまたはウェブサイトと通信し得る。通信は、外部デバイスまたはウェブサイト上で実行中の1つまたはそれを上回るアプリケーション、外部デバイスまたはウェブサイト上で実行中のサービス、外部デバイスまたはウェブサイト上で実行中のオペレーティングシステム、外部デバイスまたはウェブサイト上で実行中のプロセス、外部デバイスまたはウェブサイトのプロセッサ上で実行中の1つまたはそれを上回るアプリケーション、外部デバイスまたはウェブサイトのバックグラウンドで実行中のソフトウェアプログラム、または外部デバイスまたはウェブサイト上で実行中の1つまたはそれを上回るサービスにメッセージを送信することを含み得る。さらに、通信は、デバイス4上で実行中のアプリケーション、デバイス4上で実行中のサービス、デバイス4上で実行中のオペレーティングシステム、デバイス4上で実行中のプロセス、デバイス4のプロセッサ15上で実行中の1つまたはそれを上回るアプリケーション、デバイス4のバックグラウンドで実行中のソフトウェアプログラム、またはデバイス4上で実行中の1つまたはそれを上回るサービスにメッセージを送信することを含み得る。外部デバイスまたはウェブサイトとの通信は、通信ネットワーク上で生じ得る。
グラフィカル要素の選択に応答して、メッセージは、外部デバイスまたはウェブサイト上で実行中のアプリケーション、外部デバイスまたはウェブサイト上で実行中のサービス、外部デバイスまたはウェブサイト上で実行中のオペレーティングシステム、外部デバイスまたはウェブサイトで実行中のプロセス、外部デバイスまたはウェブサイトのプロセッサ上で実行中の1つまたはそれを上回るアプリケーション、外部デバイスまたはウェブサイトのバックグラウンドで実行されるソフトウェアプログラム、または外部デバイスもしくはウェブサイト上で実行中の1つまたはそれを上回るサービスから画像内で特定されたグラフィカル要素に関連するデータを要求する外部デバイスまたはウェブサイトに送信され得る。メッセージはまた、デバイス4上で実行中のアプリケーション、デバイス4上で実行中のサービス、デバイス4上で実行中のオペレーティングシステム、デバイス4上で実行中のプロセス、デバイス4のプロセッサ15上で実行中の1つまたはそれを上回るアプリケーション、デバイス4のバックグラウンドで実行中のソフトウェアプログラム、またはデバイス4上で実行中の1つもしくはそれを上回るサービスから画像内で特定されるグラフィカル要素に関連するデータを要求するデバイス4に送信され得る。
外部デバイスまたはウェブサイトに送られるメッセージは、コマンドを含み得る。このコマンドは、例えば、外部デバイスまたはウェブサイト上でアプリケーションを実行させるコマンド、外部デバイスまたはウェブサイト上で実行中のアプリケーションを停止させるコマンド、外部デバイスまたはウェブサイトで実行されるサービスを起動するコマンド、外部デバイスまたはウェブサイトで実行中のサービスを停止させるコマンド、または画像中で特定されたグラフィカル要素に関連するデータを送信するコマンドを含み得る。デバイス4へのメッセージはコマンドを含み得る。このコマンドは、例えば、デバイス4上でアプリケーションを実行させるコマンド、デバイス4上で実行中のアプリケーションを停止させるコマンド、デバイス4で実行されるサービスを起動するコマンド、デバイス4で実行中のサービスを停止させるコマンド、または画像中で特定されたグラフィカル要素に関連するデータを送信するコマンドを含み得る。
グラフィカル要素の選択に応答して、デバイス4は、画像内で特定されたグラフィカル要素に関連するデータを外部デバイスまたはウェブサイトから受信し得、デバイス4は、受信されたデータをユーザ16に提示し得る。
実行されたコマンドおよび/または2つの手等の2つのポインティング要素で指すことによって生成されたメッセージは、例えば、領域を選択する、指先を互いに向かってまたは離れて動かすことにより選択された領域を拡大または縮小する、および指先を回転させることにより選択した領域を回転させることを含むことができる。実行されたコマンドおよび/または2本の指で指すことによって生成されたメッセージは、音楽トラックをビデオトラックと組み合わせる等、2つのオブジェクト間の対話を形成することを含み得る。加えて、ユーザ16は、ディスプレイ6に1つの指をさし、ディスプレイ6上の別の場所に向けて別の指を指し、動かすことで、ゲーム対話を形成するようにコマンドを実行し得および/またはメッセージを生成し得る。加えて、ユーザ16は、画面を横切ってアイコンをスライドさせる(この動作は、デバイスのロックを解除するために使用され得る)、ページまたはフォルダをスクロールさせる、およびボリュームを増加もしくは減少させるようにコマンドを実行し得および/またはメッセージを生成し得る。コマンドは、1つまたはそれを上回るアイコンの上の「スワイプコマンド」であってもよい。
ユーザ16が指していたディスプレイ6上の位置を特定した後、ユーザ16によって行われる所定のジェスチャに応答して、コマンドが実行され得、および/またはメッセージが生成され得る。システム2は、ジェスチャを検出し、関連するコマンドを実行し、および/または関連するメッセージを生成するように構成され得る。検出されるジェスチャは、例えば、スワイプ動作、2本の指のピンチ動作、ポインティング、左から右へのジェスチャ、右から左へのジェスチャ、上向きのジェスチャ、下向きのジェスチャ、押し込みジェスチャ、握りこぶしを開くこと、握りこぶしを開きイメージセンサ8に向かって動くこと、タッピングジェスチャ、手を振るジェスチャ、指または手で行う円を描くジェスチャ、時計回りおよび/または反時計回りのジェスチャ、拍手するジェスチャ、逆拍手ジェスチャ、手を拳に閉じること、挟み込みジェスチャ、逆挟み込みジェスチャ、手の指を扇形に開くこと、手の指を一緒に閉じること、グラフィカル要素を指すこと、起動中のオブジェクトを所定の時間だけ保持すること、グラフィカル要素上をクリックすること、グラフィカル要素上をダブルクリックすること、グラフィカル要素の右側をクリックすること、グラフィカル要素の左側をクリックすること、グラフィカル要素の底部をクリックすること、グラフィカル要素の上部をクリックすること、オブジェクトを掴むこと、右からグラフィカル要素に向かうジェスチャリング、左からグラフィカル要素に向かうジェスチャリング、左からグラフィカル要素を通して通過すること、オブジェクトを押すこと、手を叩くこと、グラフィカル要素に向かって手を振ること、ブラストジェスチャ、グラフィカル要素上での時計回りまたは反時計回りジェスチャ、2本の指でグラフィカル要素を掴むこと、クリック-ドラッグ-リリース動作、アイコンをスライドさせること、および/またはセンサによって検知可能な任意の他の動作またはポーズのうちの1つまたはそれを上回るものを含み得る。
図2Bは、システム2の例示的な模式的表現を描写する。特に、処理ユニット12は、例えば、イメージセンサ8によって捕捉された画像を格納するように構成された画像データリポジトリ202と、ディスプレイ6上にアイコンを生成し、表示するように構成されたグラフィカル要素生成器(すなわち、アイコン生成器)204と、ディスプレイ6上に表示されたそれぞれのアイコンに関連付けられるコマンドの実行を可能にするように構成されたコマンド実行モジュール206と、較正プロセスを行うように構成された較正モジュール208と、マシンビジョンユニット210とを備え得る。マシンビジョンユニット210は、例えば、捕捉された画像から、ユーザ16によって行われたジェスチャを特定するように構成されたジェスチャ認識モジュール212と、ユーザ16が向かって指すディスプレイ6上の点または位置を特定するように構成された目線特定モジュール214とを備え得る。
図3Bは、システム2によって実行され得る例示的な方法を示すフローチャートを描写する。本方法は、ディスプレイ6の前方にある視空間の少なくとも1つの画像を捕捉するステップ301を含み得る。例えば、イメージセンサ8は、ディスプレイ6の前方にある視空間の連続した画像を捕捉し得る。画像は、捕捉され得、画像データリポジトリ202等のデータリポジトリ内に格納され得る。捕捉された画像は、後に処理され得る、またはそれらが捕捉された際に即時処理され得る。捕捉された画像は、例えば、ディスプレイ6の前方に位置し、ディスプレイ6上に表示される1つまたはそれを上回るグラフィカル要素との対話を試みるユーザ16(すなわち、ディスプレイ6上に表示されたアイコンまたはテキストに向かって指先14等のポインティング要素を指そうとするユーザ16)を含み得る。
捕捉された画像はまた、1つまたはそれを上回るユーザの眼22等のユーザ16の顔の1つまたはそれを上回る所定部分および指先14等の1つまたはそれを上回るポインティング要素をも含み得る。本方法は、少なくとも1つの画像内のポインティングジェスチャを検出するステップ303を含み得る。特に、ユーザ16およびポインティング要素の特定は、例えば、ジェスチャ認識モジュール212を含む、マシンビジョンユニット210の助けを借りて、達成され得る。
本方法は、1つまたはそれを上回るポインティング要素が向かって指すディスプレイ6上の点または位置を特定するステップ305を含み得る。この点は、例えば、目線特定モジュール214の助けを借りて、特定され得る。ユーザの眼22、指先14、および選択されたアイコンが位置するディスプレイ6上の点は、同一直線上にあり、共通の目線24上に配置されるため、処理ユニット12は、目線24を特定するように構成され得る。ステップ305は、ユーザ16が向かって指すディスプレイ6上の点の特定を向上させるために指定された1つまたはそれを上回るプロセスを含み得る。図1は、目線24を特定するために用いられ得るユーザ16の顔の一部としてユーザの眼22を示すが、顔の他の部分も同様に特定され、その目的のために使用され得る。したがって、1つまたはそれを上回るユーザの眼22が本明細書に述べられるときは常に、例としてのみ考慮されるべきであり、顔の他の部分も同様に含むものとして広く解釈されるべきである。
本方法は、ディスプレイ6上の特定された点に関して所定の基準を満たす、ディスプレイ6上に表示されたビジュアルオブジェクトを特定するステップ307を含み得る。例えば、ビジュアルオブジェクト(またはグラフィカル要素)は、ユーザ16によって選択されたディスプレイ6上の特定された点に最も近いビジュアルオブジェクトであってもよい。
本方法は、ポインティング要素がビジュアルオブジェクトに向けて指す間に、いつ所定の条件が満たされたかを決定するステップ309を含み得る。ステップ309は、選択されたビジュアルオブジェクト(グラフィカル要素)が決定された後に行われ得る。上記のように、条件は、例えば、決定された点に向かってポインティング要素が指すおよび/または所定のジェスチャ(例えば、ディスプレイ6に向かうタッピング運動)を行う所定の期間または任意の他の好適な条件を含み得る。
本方法は、ビジュアルオブジェクトに関連付けられた所定の動作コマンドを実行するステップ311を含み得る。ステップ311は、所定の条件が満たされた後に行われ得る。例えば、コマンド実行モジュール206は、選択されたグラフィカル要素に関連付けられるデバイス4内の他の機能的要素と対話する等、コマンドを実行するように構成され得る。
対話するユーザ16によりどのグラフィカル要素が選択されたかを決定するためには、まず、ユーザ16が向かって指すディスプレイ6上の点を特定することが望ましい。
いくつかの実施形態では、イメージセンサ8は、3-Dイメージセンサまたは1対の2次元立体イメージセンサを含み得る。これらの実施形態では、処理ユニット12は、3-Dの視空間におけるユーザの眼22および/または指14のx座標、y座標、およびz座標の位置を特定するように構成され得る。処理ユニット12はその後、眼22に頂点を有し、指先14を通過する目線24を決定し得る。図1に図示されるように、ドットまたはマーカー18は、目線24がディスプレイ6と交差するディスプレイ6上の位置に配置され得る。いくつかの実施形態では、システム2は、2-Dおよび3-Dイメージセンサの組み合わせを含み得、2-Dイメージセンサによって捕捉された画像からユーザの眼22および指先14のx座標およびy座標を取得し、3-Dイメージセンサによって捕捉された画像からユーザの眼22および指14のz座標を取得するように構成され得る。いくつかの実施形態では、3-Dイメージセンサは、低解像度の画像を取得するように構成され得る。2-Dおよび3-Dイメージセンサからの複合情報は、3-D目線24を決定するために使用され得る。
他の実施形態では、イメージセンサ8は、2-D位置センサを含んでもよい。ディスプレイ6の前方に立つユーザ16は、ディスプレイ6上のどこを指してもよく、ユーザのポインティングに関連する特定の目線24は、イメージセンサ8によって捕捉されるユーザの眼22(または他の解剖学的位置)の2-D位置(すなわち、x座標およびy座標)およびポインティング要素(すなわち、指先14)の2-D位置、ならびに解剖学的位置とディスプレイ6との間の距離およびポインティング要素とディスプレイ6またはユーザ16またはユーザの眼22との間の距離に基づいて決定され得る。
いくつかの実施形態では、処理ユニット12は、ユーザ16が向かって指すディスプレイ6上の点を決定するように構成され得る。例えば、ユーザの眼22のx座標およびy座標は、イメージセンサ8によって捕捉される画像から決定され得る。例えば、図6に図示されるように、ユーザ16とディスプレイ6との間の距離R1が推定され得る。推定された距離R1に基づいて、視空間におけるユーザの眼22のz座標が得られ得る。
距離R1は、例えば、イメージセンサ8によって得られる画像内で特定されるユーザの両眼22の間隔に基づいて決定され得る。同様の距離は、異なる個人の両眼(例えば、瞳孔)の間に存在する。類似性の度合いは、同じ民族グループに属する個人についてより高い。したがって、ユーザ16の両眼の間隔は、ユーザの眼22とディスプレイ6との間の距離R1を示し得る。
ポインティング要素のx座標およびy座標は、イメージセンサ8によって捕捉される画像から決定され得る。ポインティング要素とユーザ16との間の推定距離R1を用いて、ポインティング要素の視空間でのz座標が得られ得る。
ユーザの眼22(または仮想の眼もしくは他の解剖学的特徴)のx座標、y座標、およびz座標ならびにポインティング要素のx座標、y座標、およびz座標がいったん得られると、これら2つの点を通って延在する直線(目線24)が、決定され得、この線がディスプレイ6と交差する点が特定され得る。この線とディスプレイ6との特定された交点は、ユーザ16が向かって指すディスプレイ6上の点、例えば、ジェスチャ位置として決定され得る。
いくつかの実施形態では、ディスプレイ6は、3-Dディスプレイであり得、表示されるグラフィカル要素は、ディスプレイ6の前方またはデバイス4の後方の視空間内に位置するものとしてユーザ16に認識される3-Dグラフィカル要素であり得る。したがって、ユーザ16が向かって指す点の位置を決定することは、3-Dディスプレイで実行され得、ここで、特定された目線24は、ユーザの眼22からポインティング要素を通して、ディスプレイ6の前方の空間にあるものとユーザ16に認識される、それぞれのグラフィカル要素を表す視覚的要素まで延在する。
いくつかの実施形態では、ディスプレイ6は、2-Dディスプレイであり、表示されるグラフィカル要素は、2-Dグラフィカル要素であり得る。したがって、ユーザ16が向かって指す点の位置を決定することは、2-Dディスプレイ6で行われ、特定された目線24は、ユーザの眼22からポインティング要素を通して、目線24とディスプレイ6との交点まで延在する。
図4は、ディスプレイ6に向かって指差しするユーザ16の例示的描写表現を描写する。ユーザ16が向かって指すディスプレイ6上の点をより良く決定するには、指す間に視空間内のポインティング要素の位置を特定することが有利であり得る。したがって、ポインティング要素がディスプレイ6に最も近くなるポインティングジェスチャ時のポインティング要素の位置である点P’を特定することが有利である。ポインティングジェスチャ時のユーザ16の手の動きは、ディスプレイ6に最も近く位置する点P’によって特徴付けられる運動ベクトルとして図示される。
システム2は、ポインティングジェスチャの間に点P’を特定するように構成され得る。イメージセンサ8が3-Dイメージセンサまたは立体イメージセンサを含む、いくつかの実施形態では、処理ユニット12は、点P’のz座標が、ポインティング要素がディスプレイ6に最も近く配置されたときのポインティング要素の位置を示し得るよう、捕捉された画像から点P’を抽出するように構成され得る。
イメージセンサ8が2-Dイメージセンサを含む、いくつかの実施形態では、点P’は、ポインティングジェスチャ時におけるポインティング要素の1つまたはそれを上回る特徴の解析に基づいて特定され、これは、例えば、ポインティング要素の運動経路、ポインティング要素の運動ベクトル、ポインティング要素の運動ベクトルの変化、ポインティング要素のポーズ、ポインティング要素のサイズ、ポインティング要素の加速および/または減速を含み得る。いくつかの実施形態では、点P’の特定は、視野面内でのポインティング要素の位置変化に基づき得る。例えば、ユーザ16が腕を伸ばし、点P’に達した後、ユーザ16は、腕を後退させ得る。視空間内でのポインティング要素の位置(すなわち、座標)の変化は、腕が後退されたことを示し得、点P’の特定に使用され得る。
いくつかの実施形態では、点P’は、ポインティングジェスチャの際のポインティング要素のサイズ変化に基づいて特定され得る。例えば、ユーザ16がディスプレイ6に向かって腕を伸ばすと、ポインティング要素のサイズが増大し得る(例えば、捕捉された画像内での指先14のサイズが大きくなり得る)。処理ユニット12は、ポインティング要素のサイズを追跡し、ポインティング要素のサイズが最大となるポインティング要素の位置を決定するように構成され得る。
図5は、点P’を特定するための例示的方法を図示するフローチャートを描写する。図5を参照して記載される動作は、例えば、マシンビジョンモジュール210を含む処理ユニット12によって実行されることができる。
本方法は、ディスプレイ6と対話するユーザ16の少なくとも1つの画像を捕捉するステップ501を含み得る。特に、イメージセンサ8は、ディスプレイ6上に表示されるアイコンと対話しようとするユーザ16の画像を捕捉し得る。本方法は、少なくとも1つの画像内でポインティング要素を検出するステップ503を含み得る。本方法は、ポインティング要素の先端のサイズ変化を特定するステップ505を含み得る。ステップ505の間に、捕捉された画像は、処理され得、異なる画像内でのポインティング要素のサイズ変化が特定され得る。例えば、ポインティングジェスチャ開始時の初期位置での指先14のサイズとディスプレイ6に向かう腕の動きに沿った異なる位置での指先14のサイズとの間の比が計算され得、指先14のサイズの増加率が特定され得る。ポインティングの最大サイズは、いったんポインティング要素がディスプレイ6から最短距離に配置されると生じ得、初期位置に対するサイズの最大変化が記録され得る。その後に腕が後退されるとき、サイズ変化は、ポインティング要素のサイズが小さくなるにつれて小さくなる。
本方法は、ポインティング要素先端の初期サイズと現在のサイズとの間の最大の変化が決定されるポインティング要素の位置を特定するステップ507を含み得る。本方法は、点P’として特定された位置を指定するステップ508を含み得る。
図6Aは、ディスプレイ6に向かって指すユーザ16を描写する上面図である。図6Aに示されるように、イメージセンサ8は、ディスプレイ6に隣接して配置され得、破線10で示される3-D視空間の画像を捕捉することができる。ユーザ16のディスプレイ6からの距離R1は、ディスプレイ6からユーザ16の両眼の間(例えば、瞳孔の間)の仮想線上の点まで延在する線R1で示される。上述したように、距離R1は、例えば、イメージセンサによって得られる画像内で特定されるユーザの両眼間の距離に基づいて決定され得る。
さらに、典型的な人間の行動に基づくと、ユーザ16がディスプレイ6の方を向いて指すとき、彼の腕は、体から完全に伸ばされていないと仮定され得、腕が体の方に戻るとき、腕は完全に後退されるとは限らないと仮定され得る。ユーザ16の体からディスプレイ6に向かうポインティング要素の伸長長さは、範囲R2として図6Aおよび図6Bに示される。
範囲R2は、例えば、ユーザの身長ならびに体の推定比率に基づいて推定され得、加えて、範囲R2は、ディスプレイ6からのユーザ16の距離R1を示す情報に基づいて推定され得る。加えて、ユーザ16の年齢や性別に関する情報も、範囲R2の推定の際に使用され得る。加えて、範囲R2は、指差しの際のユーザ16の腕の伸長を示す(各ユーザ16の身長および比率を考慮し得る)、複数のユーザ16から得られた統計記録情報から推定され得る。さらに、この情報は、異なる地理的および/または人種的起源に関連し得る異なるポインティングジェスチャを区別するために、ユーザ16の地理的および/または人種的起源に基づいて分類され得る。このように、例えば、範囲R2の平均長さは、多くのユーザ16の腕伸長長さに関し記録された情報から計算され得る。
範囲R2は、ユーザの体からのポインティング要素の距離の推定を可能にし得る一方、ある程度の偏差が、異なるユーザ16によって行われるポインティングジェスチャでの腕の伸長の間に存在し得る。図6Aはまた、異なるポインティングジェスチャ間の腕の伸長の潜在的な偏差を表す偏差量Δrを図示する。上述のように、範囲R2が異なるユーザ16のポインティングジェスチャにおける測定された腕の伸長の平均値であると仮定すると、偏差量Δrは、(例えば、高さ因子の正規化後の)上記平均値の1つまたはそれを上回る標準偏差に等しい値として求められ得る。
図6Bは、ポインティング要素の異なる例示的伸長を描写する上面図である。図6Bに示されるように、イメージセンサ8は、ディスプレイ6に隣接して配置され得、3-D視空間の画像を捕捉することが可能であり得る。ユーザ16の画像は、イメージセンサ8によって捕捉され得る。3-Dイメージセンサにより捕捉される画像とは異なり、2-Dイメージセンサによって捕捉される画像は、ディスプレイ6上にユーザ16の画像投影を奥行き感なしで提供し得る。図6Bに示されるように、ユーザ16は、自らの腕を伸長し、ディスプレイ6に向かって指し得る。異なる長さを有する2つの伸長が示される。伸長a(長い方の伸長)から延在する目線は、点P1でディスプレイ6と交差し、伸長b(短い方の伸長)から延在する目線は、点P2でディスプレイ6と交差する。
伸長aおよびbは、ディスプレイ6上の異なる位置を指し得るにもかかわらず、これらの伸長は両方とも、イメージセンサ8によると、同じ、すなわち、同一の線R3に収束するように見られ得る。
上述したように、ジェスチャリング位置19(ユーザ16が向かって指すディスプレイ6上の位置)を特定するために、ユーザ16の眼、ポインティング要素、および目線24のディスプレイ6との各交点を結ぶ目線24が決定され得る。しかしながら、目線24の特定中に存在し得る様々な不確定性の結果として、ユーザ16が正確にはディスプレイ6のどこを指しているのかということについても不確定性が存在し得る。これらの不確定性は、例えば、ポインティングオブジェクトの先端の特定に関する不確定性および目線24を最もよく表し得るユーザ16の両眼間に位置する点の特定に関する不確定性を含み得る。さらに、上述のように、2-Dイメージセンサは、ディスプレイ6からのユーザ16の距離に対する、ユーザ16の体からのポインティング要素の実際の伸長に関して追加的な不確定性を含み得る。
これら潜在的な不確定性の結果、ユーザ16がディスプレイ6の方を向いて指すとき、ユーザ16が指しているであろうディスプレイ6上の1点を特定する代わりに、より大きな領域(または候補面)が、ディスプレイ6上に特定され得る。候補面は、ユーザの眼22から延在する複数の可能な線がポインティング素子を通してディスプレイ6と交差する領域を表し得る。イメージセンサ8により得られる画像は、ユーザの眼22および指先14を含み得、投影面上への目線24の投影(投影面は、イメージセンサ8によって捕捉される平面)を含み得る。投影面上への投影が目線24の投影面上への投影と同一な視空間内の全ての線のセットは、候補面を形成する。ユーザの眼22からポインティング要素および共通の候補面を通して延在する各線は、候補目線である。候補面は、例えば、候補面内の画素数(候補面は1つまたはそれを上回る画素を含み得る)、(例えば、ピクセル数または測定された直径で表される)そのサイズ、その形状、画面上の位置等を含む異なる特徴により特徴付けられ得る。
したがって、上述した不確定性にかかわらず、ユーザ16が向かって指すディスプレイ6の点または位置をより正確に特定することは有利であろう。以下の図面を参照して説明する動作は、2-D、3-D、および立体イメージセンサの任意の1つを搭載したシステムに適用可能である。
いくつかの実施形態では、ユーザ16は、較正手順を実行し得る。較正手順では、ユーザ16は、ディスプレイ6に表示される1つまたはそれを上回るグラフィカル要素(例えば、アイコン)を順次指すように指示され得る。グラフィカル要素の1つは、例えば、その選択がデバイス4をスタンバイモードからアクティブモードに切り替える、またはその選択がディスプレイ6のロックを解除し得るような、グラフィカル要素を含み得る。ユーザ16がこのようなグラフィカル要素に向かって指すとき、処理ユニット12は、ユーザ16がグラフィカル要素を指している間に、イメージセンサ8で得られた画像内のポインティングオブジェクトおよびユーザの眼22の位置を決定し得る。指先14は、例えば、本明細書にその全体が参照により組み込まれる、米国特許出願公開第2008/0042981号として公開された本出願人による同時係属中の米国特許出願第10/593,628号に開示されるイメージセンサ8によって得られる画像内で特定され得る。
画像中の顔および眼を特定するための方法は、当業者に公知である。ユーザ16が、その後、ディスプレイ16上のアイコンを指すとき、処理ユニット12は、ディスプレイ6上の位置、したがって、ユーザ16が較正データを用いて指すアイコンの位置を、ユーザの眼22と指先14との間の距離およびイメージセンサ8により得られる画像内のユーザの両眼間の距離から決定され得るユーザ16とディスプレイ6との間の距離の制約とともに決定し得る。
図7は、較正モジュール208を含む処理ユニット12で較正プロセスを行うための例示的方法を図示するフローチャートを描写する。較正プロセスの間、ユーザ16とディスプレイ6との間の距離R1およびポインティング要素とユーザの体との間の範囲R2は、より正確に推定され得る。本方法は、較正順序をディスプレイ6上に表示するステップ701を含む。ステップ701の間に、1つまたはそれを上回るグラフィカル要素(例えば、アイコン)は、所定の順序または形状でディスプレイ6に表示され得、較正順序を提供し得る。較正順序は、ディスプレイ6上のアイコンの位置ならびに別のアイコンとの対話の時間および/または順序によって特徴付けられ得る。ユーザ16は、所定の順によりアイコンと対話する(例えば、指差しまたはスワイプする)ように要求され得る。いくつかの実施形態では、較正順序はまた、所定のパターンまたは形状に応じてスワイプされるまたは動かされるアイコンも含み得る。
いくつかの場合、ユーザ16は、較正プロセスに気付かないこともあり得る。例えば、上述したように、較正プロセスは、ディスプレイ6のロックを解除するための対話(例えば、ディスプレイ6に表示されたアイコンを左から右へスワイプする等)としてユーザ16に提示され得る。または、較正は、ユーザ16が表示されたアイコンを指す通常使用の間に起こり得る。
本方法は、ディスプレイ6と対話するユーザ16の少なくとも1つの画像を捕捉するステップ703を含み得る。ステップ703の間に、ユーザ16は、較正順序によって要求されるようにディスプレイ6と対話し得、イメージセンサ8は、ユーザ16がそうする際の画像を捕捉し得る。本方法は、視野面内のユーザ16の位置を決定するステップ705を含み得る。ステップ705の間に、イメージセンサ8によって捕捉される画像内のユーザ16(例えば、ユーザの眼22)の位置(すなわち、x-座標およびy-座標)が決定され得る。本方法は、ポインティング要素の個別の点P’を決定するステップ707を含み得る。ステップ707の間に、ポインティングジェスチャは、特定され得、ポインティング要素がディスプレイ6に最も近く配置されるポインティング要素の位置(すなわち、x座標およびy座標)を示す点P’が決定され得る。
本方法は、ディスプレイ6上のそれぞれのアイコンを点P’の2-D位置およびユーザ16の2-D位置に結ぶ目線24を決定するステップ709を含み得る。較正プロセスは、所定の較正順序によって実行され得るため、ユーザ16が現在指すことを要求されるディスプレイ6に表示されたグラフィカル要素がどれかを示す情報は、処理ユニット12に利用可能である。したがって、処理ユニット12は、ユーザ16の位置、点P’、およびユーザ16が向かって指すディスプレイ6上のそれぞれのグラフィカル要素を結ぶ目線24の間をより容易に相関付け得る。これにより、それぞれの目線24は、ディスプレイ6上の関連するグラフィカル要素から、それぞれの点P’に位置するポインティング素子を通して、ユーザ16のそれぞれの位置に延在し得る。
図8は、例示的な較正プロセスを描写する上面図である。図8に示されるように、イメージセンサ8は、ディスプレイ6に隣接して配置され得、破線10によって示される3-D視空間の画像を捕捉することができ得る。ユーザ16は、アイコンGに向かって指し得、これが較正順序(図示せず)の一部となっている。ディスプレイ6の前方に立つユーザ16の2-D位置は、線L1上に位置し得る。ユーザ16とディスプレイ6との間の距離R1は、上述のように推定され得るが、較正プロセスはこの推定の改善を可能にし得る。点P’の2-D位置は、線L2上に配置され得る。線L1および線L2の間に及ぶ範囲R2は、上述のように推定され得るが、較正プロセスは、この推定の改善を可能にし得る。
図6Aを参照して上述したように、不確定性は、偏差Δrによって上に示したように、範囲R2に関して存在し得る。したがって、線L1および線L2の間の距離は、R2+Δr/2およびR2-Δr/2の間のいずれかとして推定され得る。較正プロセスの間に、第1の直線L3は、ディスプレイ6上のアイコンGから延在し、線L1および線L2の間の距離がR2-Δr/2に等しくなるように線L1およびL2に接続し、第2の直線L4は、ディスプレイ6上のアイコンGから延在し、線L1および線L2の間の距離がR2+Δr/2に等しくなるように線L2および線L1に接続する。図8に示されるように、線L2上の点aと線L1上の点u1との距離は、R2-Δr/2に等しくなり、線L2上の点bと線L1上の点u2との間の距離R2’’は、R2+Δr/2に等しくなる。
線L1上の点ELは、点u1と点u2との間に位置する任意の点として決定され得る、ユーザ16の推定位置を表し得る。例えば、点ELは、点u1と点u2との間のちょうど真ん中に位置する点であり得る。線L2上の各点は、線L1上の選択された点からの直線を、線L2を通してアイコンiに延長することによって決定され得る。本較正方法は、ユーザ16にフィードバックを提供し、ユーザ16が較正順序に従う際にステップ703から709までを繰り返すステップ711を含み得る。フィードバックは、例えば、各グラフィカル要素の色、サイズ、形状、および位置のうちの1つまたはそれよりも多くを変えることによって、または可聴標示によって、ユーザ16に提供され得る。ユーザ16が較正順序に従い、ディスプレイ6上の各グラフィカル要素と対話する際、ステップ703から709までが繰り返され得る。
任意のアイコンGについて、ユーザ16の位置を表す、線L1上の各点ELiは、上述のように求められ得る。本方法は、異なる視覚的要素で生成される多数の目線に基づく範囲R1および範囲R2を決定するステップ713を含み得る。ステップ713の間に、範囲R1およびR2の最終的な推定値が決定され得る。範囲R1およびR2の最終的な推定値は、較正順序で異なるアイコンに関して得られる全ての点EL(例えば、全ての特定された点の中心に位置する点)に基づいて決定され得る。
本方法は、ディスプレイ6に向かう特定のポインティングジェスチャに応答し、範囲R1およびR2に基づき各目線24を特定するステップ715を含み得る。ステップ715は、システムがいったん較正されるとおよび/または通常の動作中に生じ得る。
処理ユニット12は、ディスプレイ6上の各アイコンについて異なる範囲R2を決定するように構成されてもよく、異なるアイコンおよびディスプレイ6上のそれぞれの位置を対応する範囲R2と関連付けるマップを作成してもよい。(較正アイコンによって占められていない)ディスプレイ6の任意の他の点は、マップに基づいてそれぞれの範囲R2に関連付けられ得る。この関連付けは、例えば、アイコンの位置およびそれぞれの範囲R2の線形結合に基づき得る。
通常動作中に、処理ユニット12は、ディスプレイ6に向かうユーザ16のポインティングジェスチャに応答して、ポインティングジェスチャの概略的な方向を特定し、特定された概略的な方向に最も近いディスプレイ6上の点に位置する、較正アイコンに関連付けられる特定の範囲R2を選択するように構成され得る。
上述した較正プロセスに加えて、またはそれに代わって、ユーザ16が向かって指すディスプレイ6上の点または位置をより正確に特定する他の技法も可能であり得る。上に説明したように、ユーザ16が向かって指すディスプレイ6の点を決定するときに用いられるパラメータに関する異なる不確定性により、候補面は、ディスプレイ6上で特定され得、ユーザ16の両眼から延在する複数の可能な線がポインティング素子を通してディスプレイ6と交差する平面を表し得る。
図9は、候補面のサイズを減少させ、ユーザ16が向かって指すディスプレイ6上の点をより正確に特定するためのマシンビジョンユニット210を含む処理ユニット12を使用し得る、例示的方法を図示するフローチャートを描写する。
本方法は、ディスプレイ6と対話するユーザ16の少なくとも1つの画像を捕捉するステップ901を含み得る。ステップ901の間に、イメージセンサ8は、ディスプレイ6に表示されるグラフィカル要素と対話しようとするユーザ16の画像を捕捉し得る。本方法は、少なくとも1つの画像内でユーザの眼22およびポインティング要素を特定するステップ903を含み得る。特に、捕捉された画像は、処理され得、ユーザの眼22およびポインティング要素が捕捉された画像内に特定され得る。本方法は、一連の位置データを得るステップ905を含み得る。ステップ905の間に、ポインティング要素の運動経路は、それがディスプレイ6に向かって延長される間に追跡され得、運動経路内のポインティング要素(例えば、指先14)の異なる位置を含む、一連の位置の値が得られ得る。
位置の値は、所与の画像内のポインティング要素の位置を記述し得るパラメータを含む。例えば、位置の値は、イメージセンサ8によって捕捉される視野面内におけるポインティング要素先端のx座標およびy座標であってもよい。ユーザ16は、ディスプレイ6近くに向かって腕を伸ばし得、視野面に対する指14の(x座標およびy座標で示される)2-D位置が取得され、保存され得る。
腕がポインティングジェスチャの間にディスプレイ6近くに向かって伸ばされ、ディスプレイ6からある距離で開始し、収束点から先に向かって移動する一方で、ポインティング要素は、ディスプレイ6の同じ位置を指し得る(例えば、ポインティング要素は、同様の目線24と整列し得る)。この運動経路の間に、イメージセンサ8は、ポインティング要素の異なる点が、ユーザの眼22、ポインティング要素(すなわち、指先14を)、およびディスプレイ6上の点を通過する同一の目線24上に整列するように一連の画像を捕捉し得る。
本方法は、点P’でポインティング要素を特定するステップ907を含み得る。ステップ907の間、ポインティング要素(すなわち、指先14)の動きは、ポインティング要素が点P’に位置することが特定されるまで追跡され得る。この時点で、所定数の位置の値は、ディスプレイ6に向かうポインティング要素の運動経路から抽出された位置の値の順序から選択され得る。選択される位置の値は、例えば、ディスプレイ6に最も近い点である点P’にポインティング要素が達する前のN個の画像(またはフレーム)と相関する位置の値であり得る。代わりに、選択される位置の値は、同様の目線上に配置された順次位置であり得る。
上記のように、(例えば、視野面上のx座標およびy座標で表される)位置値の順序内の各位置の値は、それぞれの位置の値が示す位置に配置されるポインティング素子を通して、ディスプレイ6と交差するユーザの眼22を結ぶそれぞれの目線24に関連付けられ得る。上述した不確定性のため、それぞれの目線は、ディスプレイ6上の各候補面に関連付けられ得る。
本方法は、所定数の位置データ要素を選択し、それぞれの候補面をディスプレイ6上で特定するステップ909を含み得る。ステップ909の間に、それぞれの候補面は、ディスプレイ6上で特定される選択位置の値に関連付けられ得る。本方法は、ディスプレイ6上の選択された領域として、全ての候補面の間の重複領域を特定するステップ911を含み得る。ステップ911の間に、候補面の間の重複領域は、特定され、選択された視野面として示され得、それによって、候補面のサイズを小さくし、ユーザ16が向かって指す点としてディスプレイ6上の小さな領域を特定する。
図10は、部分的に重複する3つの候補面を示す例示的なベン図を描写する。3つの候補面のそれぞれは、ディスプレイ6上のある領域または位置を覆う円として図示される。各面は、位置の値の記録順序における最後の3つの位置の値(位置の値:n、n-1、およびn-2)の異なる位置の値に関連付けられる。
上記のように、収束点およびその先で、位置の値の順序内の異なる位置の値に関連付けられる3つの異なる視野面のそれぞれは、重複領域を覆い得る。図9に図示されるように、3つの候補面は、同じ領域を指し得、選択された投影面として指定される(クロスハッチング模様で示される)重複部分を共有し得る。
図11は、処理ユニット12で行われ得る、例示的方法を図示するフローチャートを描写する。システム2は、ディスプレイ6に向かって指すユーザ16にフィードバックを提供するように構成され得る。このフィードバックは、ポインティング要素をディスプレイ6の所望の点に向けて指し、より容易に所望のグラフィカル要素を選択するようにユーザ16を支援し得る。図11に関連する以下の動作は、2-Dディスプレイに照らして提供されるが、同様の動作は、3-Dディスプレイでも実行され得る。
本方法は、ディスプレイ6と対話するユーザ16の少なくとも1つの画像を捕捉するステップ1101を含み得る。ステップ1101の間に、イメージセンサ8は、ディスプレイ6に表示されるアイコンと対話しようとするユーザ16の画像を捕捉し得る。本方法は、少なくとも1つの画像内でユーザの眼22およびポインティング要素を特定するステップ1103を含み得る。本方法は、ディスプレイ6上にポインティング視覚効果を表示するステップ1105を含み得る。ステップ1105は、ポインティングジェスチャの検出に応答して生じ得る。ポインティング視覚効果は、例えば、任意の形状または色、透明または不透明によって特徴付けられる色の染みであってもよく、グラフィカル要素の上または背後にあり得る、ディスプレイ6に表示されるグラフィカル要素に対し任意の位置に配置され得る。例えば、ポインティング視覚効果は、それを透過するグラフィカル要素が認識可能である透明色の1つまたはそれを上回る丸い対称形状を有し得、ディスプレイ6の一部を照らすフラッシュライトビームとしてユーザ16に表示され得る。ポインティング視覚効果のディスプレイ6上の初期位置は、ポインティング要素が最初に指す方向に基づいて決定され得る。
本方法は、ポインティング要素の運動経路を追跡するステップ1107を含み得る。ポインティング要素を追跡する一方で、ステップ905を参照して上述された図9に示されたように、位置の値のそれぞれの順序が得られ得る。
本方法は、ポインティング要素の動きに相関してポインティング視覚効果の1つまたはそれを上回る特性を変更するステップ1109を含み得る。例えば、ポインティング要素がディスプレイ6に向かって近くに伸ばされる際、ポインティング視覚効果の1つまたはそれを上回る特性は、ポインティング要素の動きに相関して変更され得る。特性は、例えば、ポインティング視覚効果の形状、サイズ、および色のうちの1つまたはそれを上回るものを含み得る。例えば、ポインティング視覚効果は、ポインティング要素とディスプレイ6との距離が減少するにつれてサイズが小さくなり得る。
ユーザ16がディスプレイ6に向かって腕を伸ばすと、ユーザ16は、ディスプレイ6上に表示される所望のグラフィカル要素の位置に向けてポインティング視覚効果を動かすように直観的に試み得る。選択されたグラフィカル要素に向けてポインティング視覚効果を移動させようとするユーザ16により行われ得るポインティング要素の矯正動作は、処理ユニット12によって特定され得る。随意に、ディスプレイ6上のポインティング視覚効果の位置は、ユーザ16の矯正動作に基づいて変化し得る。例えば、ディスプレイ6上のポインティング視覚効果の位置は、ユーザ16によって行われる矯正ジェスチャの方向に相関して変化できる。
別の実施例では、円形のポインティング視覚効果は、ポインティング要素がディスプレイ6に向かって近づくにつれ小さくなり得る。随意に、ポインティング視覚効果は、矯正ジェスチャの方向に減じ得る。図16Aは、左側に位置するアイコン(四角で示す)に向かう矯正ジェスチャに応じてサイズが小さくなり、左に移動したポインティング視覚効果を図示し、図16Bは、右側に位置するアイコン(四角で示す)に向かう矯正ジェスチャに応じてサイズが小さくなり、右側に移動したポインティング視覚効果を図示する。
本方法は、ディスプレイ6上のポインティング視覚効果の既知の位置とポインティング要素の動きとに基づいてグラフィカル要素を決定するステップ1111を含み得る。例えば、ポインティング視覚効果に対して所定の基準に準拠するアイコンは、選択されたアイコンとして特定され得る。さらに、染みに最も近く配置されたまたは染みに対して矯正ジェスチャの方向に配置されたアイコンは、ユーザ16により選択されたアイコンとして決定され得る。
上記のように、処理ユニット12は、ユーザの眼22から、ポインティング要素の先端を通過し、その後、ディスプレイ6を通過して延在する目線24を特定するように構成され得る。このため、処理ユニット12は、捕捉された画像内でユーザの眼22を特定するように構成され得る。
図12は、ユーザの眼22からポインティング要素の先端を通してユーザ16が指すディスプレイ6上の所望の位置に至る目線24を、ユーザ16がディスプレイ6を指すときにユーザのどちらの目が優位かを考慮することにより算出するための例示的方法を図示するフローチャートを描写する。ディスプレイ6上のグラフィカル要素を指すとき、眼球優位性は、ディスプレイ6上のアイコンの実際の位置とユーザ16が指す位置との間にオフセットが生じる原因となる。言い換えると、ユーザの両眼の間の中間点からポインティング要素の先端を通して目線24を計算するとき、得られる目線は、ディスプレイ6上のアイコンの位置と交差しない場合がある。したがって、第1のジェスチャリング位置は、ユーザ16の一方の眼がユーザ16のもう一方の眼に対して優位であることの結果として、第1のディスプレイ情報の位置から少なくとも部分的に異なる。このオフセットを補正するために、本発明による方法およびシステムは、ユーザの利き眼に関連するアプリオリ情報を用いて目線24を計算し得る。この優位性に関する情報は、システムが表示されるアイコンの正確な位置を知り得、したがって、アイコンを指すように促されたユーザ16が、アイコンからオフセットした位置を指すのを検出されたときにオフセットを決定し得るため、較正中または通常の使用中にシステムによって導出され得る。
アプリオリ情報はまた、データベースまたはウィンクの間等、ユーザの行為からも得られ得る。ユーザ16は、そのような情報を直接求められ、あるいはユーザ16は、ウィンクするように求められる。ウィンクする間、利き眼は、開いたままの眼として判明されてもよい。このようにして、システム2は、ユーザの優位な眼によって目線24を計算し、より高い精度をもって、上記の異なるポインティングジェスチャ中にユーザ16が指す位置の推定を確立し得る。
さらに、目線24は、ユーザ16の指先14を通して指すディスプレイ6上の点から抽出され得る。しかしながら、それがユーザの瞳孔に達せず、代わりに、より優位な「利き眼」に関連する2つの瞳孔の間のいずれかの点に達する可能性がある。上記し、以下の図14に描写されるように、利き眼に関連するオフセットにより、目線24または視線は、アイコンに対するオフセット位置(仮想の眼Ve)からポインティング要素を通してユーザの顔の瞳孔間の位置まで延在する。したがって、ユーザの瞳孔の一方からの開始点を固定するよりもむしろ、目線24が計算されるユーザの眼の間のより正確な出発点を確立することが有利であり得る。
しかしながら、実際には、目線24は、左眼または右眼またはそれらの間の任意の他の点のいずれかと重複し得る点で、ユーザ16の両眼の間に延在する仮想線上に位置する任意の点と交差し得る。ジェスチャリング位置19、すなわち、所与の目線24が延在するディスプレイ6上の点をより正確に決定するために、ユーザが指すつもりの意図されたディスプレイ位置に関連付けられる目線24に対応するユーザ16の「仮想の眼」を表す、より正確な位置を決定することは、任意のユーザの右眼または左眼の1つまたはそれらを結ぶ線上の任意の点を恣意的に選ぶよりむしろ有利であり得る。
図12は、ユーザの両眼の間の基準点を、較正モジュール208を含む処理ユニット12で決定するための例示的方法をより詳細に描写する。基準点は、所与の目線24とユーザ16の両眼(例えば、瞳孔)の間に延在する視線とのより正確な交点を表し得る。図12を参照して記述されたプロセスは、例えば、1回限りの較正処理として実行され得または定期的に更新され得る。
本方法は、ディスプレイ6上にアイコンを表示するステップ1201を含み得る。本方法は、ディスプレイ6と対話するユーザ16の画像を捕捉するステップ1203を含み得る。ステップ1203で捕捉される画像は、イメージセンサ8によって捕捉され得る。
随意に、ユーザ16は、ディスプレイ6に表示されるアイコンに向かって指すように指示または要求され得る。指示は、可聴指示として、較正プロセスの一部として、または対話を必要とする情報の単なる表示として、ディスプレイ6上でユーザ16に提供され得る。本方法は、ユーザ16の第1の眼に結ばれる目線によって生成される第1の候補面を特定するステップ1205を含み得る。ステップ1205の間に、ディスプレイ6に向かうユーザ16のポインティングジェスチャは、特定され得、ポインティング素子を通してユーザの片眼につながる第1の目線およびディスプレイ6上の第1のジェスチャリング位置が決定され得、それぞれの候補面がディスプレイ6に特定され得る。
本方法は、ユーザ16の第2の眼につながる目線によって生成される第2の候補面を特定するステップ1207を含み得る。ステップ1207の間に、ディスプレイ6に向かうユーザ16のポインティングジェスチャは、特定され得、ポインティングオブジェクトを通してディスプレイ6上の第2のジェスチャリング位置にユーザのもう一方の眼をつなぐ第2の目線が決定され得、それぞれの候補面がディスプレイ6に特定され得る。上記のように、第1および第2の候補面は、上述の方法に基づいて決定され得るが、特に、第1および第2の候補面は、ユーザ16とディスプレイ6との間の距離R1およびポインティング要素と視野面におけるポインティング要素の位置との間の伸長範囲R2の推定に基づいて部分的に決定され得る。
図13は、ディスプレイ6上に表示され得る較正アイコンClを示す略図である。図13は、1つはユーザ16の左眼を結ぶ目線(文字Lで示される)によって生成され得、他方はユーザ16の右眼を結ぶ目線(文字Rで示される)によって生成され得る2つの候補面をさらに図示する。図13に示される図示された実施例では、候補面Lとは異なり、候補面Rの一部が較正アイコンClと重複することに留意されたい。
アイコンの位置に対する2つの候補面のそれぞれの位置に基づいて、処理ユニット12は、両眼のいずれがより優位であるかを決定するように構成され得、ジェスチャリング位置19に関連付けられるオフセットOを決定し得る。システム2は、追加のジェスチャリング位置を決定する際に、その眼または「仮想の眼」を使用し得る。処理ユニット12は、オフセットOに関連する情報を通じて、どちらの眼がより優位であるかを示すように構成され得る。さらに、処理ユニットは、例えば、候補面LおよびRと較正アイコンClおよび/またはユーザの眼に対する「仮想の眼」の相対位置、すなわち、ユーザの左眼と右眼との間の総距離に対する「仮想の眼」Veとユーザの左眼および右眼の1つとの間の距離の比との重なりの割合に基づき得る、左右の眼の間の優位性の度合いを示すように構成され得る。図12に関して開示された方法はまた、第1候補面および第2の候補面を結ぶ線を延長するステップ1209も含み得る。図12を参照して図示される1つの実施例によれば、(図13に示されるような)線130は、候補面Lの中心と候補面Rの中心との間に延長されることができる。本方法は、線130に沿う(線130に近い、すなわち、略近傍の)アイコンClに最も近い点を決定するステップ1211を含み得る。例えば、(ユーザ16が向かって指す標的であり得る)較正アイコンClの中心に最も近い位置にある線130上の第3の点が特定される。較正アイコンClに最も近い点は、線130をセグメントAおよびBに分割し得る。図13に示される実施例では、セグメントAは、アイコンClに最も近い点から、ユーザ16の左眼を「スタート」し、ポインティング要素(例えば、指先14)に向かってディスプレイ6と交差する視線を計算することによって決定されるジェスチャリング位置19に延在し得る。ジェスチャ位置はまた、平面Lの中心としても定義され得る。また、セグメントBは、較正アイコンClに最も近い点から、ユーザ16の右眼を「スタート」し、ポインティング要素(例えば、指先14)に向かってディスプレイ6と交差する視線を計算することによって決定されるジェスチャリング位置の中心に延在し得る。ジェスチャ位置はまた、平面Rの中心としても定義され得る。本方法は、(図14に示されるように)ユーザ16の両眼または瞳孔の間に延在する線上の対応する点Ve(または「仮想の眼」)を特定するステップ1213を含み得る。
点Veは、ユーザ16の両眼間に延在する線をセグメントCおよびセグメントDに分割し得る。例えば、セグメントCは、点Veからユーザの左瞳に延在し得、セグメントDは、点Veからユーザの右瞳に延在し得る。ユーザ16の両眼または瞳孔の間に延在する線上における点Veの位置は、A/Bの比率がC/Dの比率と等しくなるように、点Veの位置を内挿することによって決定され得る。
処理ユニット12は、目線を特定するときに、ユーザ16の顔との交点として対応点Veを使用するように構成され得る。本プロセスは、「仮想の眼」の場所を微調整し、ディスプレイ6に対するユーザ16の異なる場所に応じてそれを微調整するために、より収集された値に達するよう、較正が行われるたびに行われ得ることに留意されたい。
随意に、図12を参照して記述される動作は、それぞれがディスプレイ6上の異なる位置に配置される複数のアイコンについて反復され得る。したがって、両眼間の異なる各点Veは、ディスプレイ6上の異なる領域または位置に向けられるポインティングジェスチャを処理することにより特定され得る。
「仮想の眼」の位置および/または「仮想の眼」のマッピング情報は、システム2またはシステム2を使用する他のデバイスによって後に使用されるよう、全ての特定のユーザ16に関連付けられた(デバイス4上またはデバイス4の外部の)メモリに格納され得る。システム2が(例えば、顔認識、ユーザの音声署名、またはユーザ16による明示によって)ユーザ16を特定するとき、システム2は、「仮想の眼」の位置および/または「仮想の眼」のマッピング情報を示す、格納された情報を取り出し得る。それぞれのユーザ6について格納される「仮想の眼」および/または「仮想の眼のマッピング情報」は、イメージセンサ8により得られる固有の識別情報を含み得、各ユーザ6に関連付けられるオフセットに関する情報を含み得る。例えば、各ユーザ6について格納される情報は、ユーザの瞳孔を含むユーザの眼等、顔の特徴の位置を含む顔の情報を含み得る。加えて、各ユーザについて保存されるオフセット情報は、ユーザの瞳孔を含むユーザの眼に関するユーザ6のオフセット情報を含み得る。
本発明の実施形態は、ジェスチャリング位置19とユーザ16が指すと認識されるディスプレイ8上の位置との間のディスプレイ6上の差異を表すベクトルに関連付けられる1つまたはそれを上回るオフセットを格納するステップを含み得る。例えば、
候補面Rの中心からの距離およびユーザ16が指すように促されるアイコンの中心。そして、ユーザ16が後続のタッチフリージェスチャを行うとき、システム2は、ユーザが指す表示情報(アイコン)を正確に決定するため、ジェスチャリング位置19を補正するように格納されたオフセットを使用し得る。システム2は、ディスプレイの異なる領域に関連付けられる多数のオフセットを格納し得、格納されたオフセットの好適な1つをジェスチャリング位置19に応じて使用し得る。本発明の実施形態は、指先14等ユーザ16のポインティング要素の特定を可能にし得る。手の特徴は、指先14または手に持たれるもしくは手に着用されるその他任意のポインティング要素を特定するために役立つ。図15は、指先14、指先14上の爪26、および人差し指の関節28を含むユーザの手を描写する。
ポインティング要素を決定するための方法は、ポインティング要素がユーザの右手または左手の一部またはこれに関連付けられているかどうかを決定するステップを含み得る。イメージセンサ8によって捕捉される画像から、ユーザ16がジェスチャを行うとき、どちらの手を動かすか容易に決定し得る。本方法は、人差し指の指先14上の爪26を決定するステップを含み得る。指先の爪26を決定するステップに代えて、またはそれに加えて、本方法は、ユーザ16が右手で指す場合には手の左側部分に、そしてユーザ16が左手で指す場合には手の右側部分に人差し指の関節28を検出し得る。代わりに、システムは、第3、第4、および第5指の関節等、一連の関節のシグネチャを検出するように構成され得る。本システムはまた、指す手の特徴である、図15に図示される折り畳まれた親指を検出し得る。これは、図15に図示されるように、人差し指の先端が、その認識可能な特徴において、手の他のより明確な部分からあまり区別されないため有用であり得る。しかしながら、手のよりはっきり異なる部分がいったん見つかると、指先の位置は、推定され得る。
より具体的には、推定は、ユーザの顔に対する手の幅、高さ、および/または位置の測定または推定を通して生じ得る。このデータは、ユーザの手の特定の解剖学的構造および寸法を推定するために役立ち得、したがって、指先14の位置を、それが捕捉された画像から容易に明らかではない場合には、予測するのを助け得る。さらに、指間隔同士の既知の関係が推定を向上させるのに役立ち得る。1つまたはそれを上回る指輪等の宝石は、指先14の位置を決定するための基準点として用いられ得る。特定のユーザ16のためメモリ13に保存される基準データまたは平均的な解剖学的データは、推定を改善するのを助け得る。上述の基準データはいずれも、ポインティング位置を特定することに関連付けられるアルゴリズムで使用され得る。基準点は、例えば、手、宝石、(指先14上の爪26を含む)いずれかの爪、および人差し指の関節28等1つまたはそれを上回る関節の中心位置を含み得る。基準点がいったん特定されると、アルゴリズムは、基準点に対する指14の推定位置として、x、y座標またはx、y、z座標でのオフセット距離を算出し得る。本方法は、1つまたはそれを上回る基準点を特定し、追跡し得、指先14の位置を推定するため、基準点に関連付けられる対応するオフセットを適用し得る。
本発明の他の実施形態は、タッチフリージェスチャ認識システムを較正するためのデバイスを含み、デバイスは、ディスプレイ上の少なくとも1つのプロンプト位置でユーザにタッチフリージェスチャを行なわせるプロンプトの提示を可能にすることと、ディスプレイ上の対応するジェスチャリング位置を示すカメラからの情報を受信することであって、ディスプレイ上のジェスチャリング位置とユーザの意図したジェスチャリング位置との間の不整列の結果、ジェスチャリング位置は、少なくとも1つのプロンプトの位置とは異なる、ことと、不整列を考慮するため、ジェスチャ認識システムを較正することとを行うように構成された少なくとも1つのプロセッサを含み得る。
加えて、タッチフリージェスチャ認識システムを較正するためのデバイスでは、少なくとも1つのプロセッサはさらに、較正に加え、少なくとも1つの動作のためのタッチフリージェスチャを使用することと;較正が生じていることをユーザに対して特定することなく、プロンプトがアプリケーションの使用中に生じることを可能にすることと;使用中にディスプレイ上で検出されるジェスチャの位置とユーザが選択しようとしていることが疑われるディスプレイ上のアイコンの位置との間の違いを考慮して、ジェスチャ認識システムを定期的に再較正することにより、アプリケーションの使用中にジェスチャ位置の精度を定期的に向上させることと;予測に基づいて較正するために、ディスプレイ上のジェスチャ位置の特定のアイコンへの近接性に基づいて、特定のアイコンを有効にするユーザの意図を予測することと;ユーザが特殊な較正手順を必要とすることなく、アプリケーションの通常の使用中に定期的な再較正を可能にすることと;少なくとも1つのプロンプトの位置でタッチフリージェスチャに続く次のアクションをユーザが実行した後まで、較正を遅らせることと;アプライアンスロック解除プロセス中に再較正することによりジェスチャ位置の精度を向上させることと;アイコンの位置とジェスチャの場所との間に差があるときに、ユーザの意図が特定のアイコンを有効にすることにあるかどうかをディスプレイ上のアイコンのレイアウトに基づいて決定することと;ディスプレイに対するユーザの所定の動きを検出した後、関連するアプライアンスのロックを解除するようユーザに促すことと;複数のポインティング位置および複数のポインティング位置のそれぞれに関連付けられるアイコンの相対的な位置に関連する情報を保存し、保存された情報を用いてジェスチャ認識システムを較正することと;ジェスチャ位置とジェスチャ位置に関連付けられるアイコンの相対的な位置に関連した情報を保存し、および/または保存される情報をもとにジェスチャ認識システムを較正することと;ユーザの視覚に固有な特性を考慮して、ロック解除プロセスの間に、較正することとを行うように構成され得る。
加えて、タッチフリージェスチャ認識システムを較正するためのデバイスでは、プロンプトは、関連するアプライアンスまたは少なくとも1つのアイコンをロック解除するようにユーザを合図するための少なくとも1つのアイコンを含み得、タッチフリージェスチャは、ポインティングジェスチャであり、少なくとも1つのプロセッサは、ユーザに少なくとも1つのアイコンを指すよう合図するように構成される。ディスプレイ上の少なくとも1つの位置は、第1の既知の位置と第2の既知の位置とを含み得、較正は、第1の既知の場所から第2の既知の場所へジェスチャするよう、ユーザにプロンプトすることに関連する情報に基づく。ユーザの所定の動きは、カメラの視界の外に動くユーザの少なくとも体の一部を含み得る。
ジェスチャリング位置は、ポインティング位置であり得、少なくとも1つのプロセッサはさらに、ポインティング位置および少なくとも第1のアイコンの位置に基づいて、ジェスチャ認識システムを最初に較正すること;最初の較正の後、ユーザがジェスチャを使用してアプリケーションを制御することを可能にすること;アプリケーションの制御時に、ディスプレイ上の少なくとも第2のアイコンに対するジェスチャに関する情報を収集すること;および/またはユーザが少なくとも第2のアイコンを指そうとしたとき、アプリケーション制御の際に再較正することを行うように構成され得る。
不整列は、ユーザの一方の眼がユーザの他方の眼に対して優位であることの結果であり得、少なくとも1つのプロセッサはさらに、ユーザの一方の眼がユーザの他方の眼に対して優位であることを考慮して、ジェスチャ認識システムを較正すること;ジェスチャ位置と少なくとも一つのプロンプト位置との間のオフセットを決定すること;および/またはオフセットに基づいてその後のジェスチャ位置の決定に適用する調整を決定することを行うように構成され得る。
本発明の他の実施形態は、ディスプレイ上の少なくとも1つのプロンプトの位置でタッチフリーポインティングジェスチャを行うようユーザにプロンプトを提示することを可能にすることと;タッチフリーポインティングジェスチャに対応するイメージセンサからの画像情報を受信することと;タッチフリーポインティングジェスチャに関連する指先の位置を決定することでわって、指先の位置は、ユーザの指の先端の他に、ユーザの解剖学的特徴に少なくとも部分的に基づいて決定される、ことと;決定された指先の位置に少なくとも部分的に基づいて、タッチフリージェスチャに関連するディスプレイ上のポインティング位置を決定することとを行うように構成された少なくとも1つのプロセッサを含むタッチフリージェスチャ認識システムを含み得る。
タッチフリージェスチャ認識システムはまた、手の向きの違いに基づいてポインティング位置を決定するための複数のアルゴリズムを格納する少なくとも1つのメモリデバイスを含み得、少なくとも1つのプロセッサはさらに、画像情報中の手の向きに少なくとも部分的に基づいて複数のアルゴリズムから好適なアルゴリズムを選択し、好適なアルゴリズムに少なくとも部分的に基づいてポインティング位置を決定するように構成され得る。
タッチフリージェスチャ認識システムはまた、画像情報内で右手または左手のいずれが検出されたかどうかに基づいて、ポインティング位置を決定する複数のアルゴリズムを格納するための少なくとも1つのメモリデバイスを含み得、少なくとも1つのプロセッサはさらに、右手が検出されたかまたは左手が検出されたかに少なくとも部分的に基づいて、複数のアルゴリズムから好適なアルゴリズムを選択し、好適なアルゴリズムに少なくとも部分的に基づいてポインティング位置を決定すること;および/またはユーザの解剖学的特徴とユーザの手の少なくとも一部との間のオフセットに少なくとも部分的に基づいて、ユーザの手が左手かまたは右手かを決定することを行うように構成される。
タッチフリージェスチャ認識システムでは、解剖学的特徴は、指の爪を含み得、ユーザの手の幅、長さ、サイズ、または位置の少なくとも1つであり得、および/またはポインティングジェスチャで使われた指先ではない第2の指先であり得、少なくとも1つのプロセッサはさらに、ポインティングに使用された指先および第2の指先に少なくとも部分的に基づいて、指先の位置を決定するように構成され得る。
タッチフリージェスチャ認識システムでは、少なくとも1つのプロセッサはさらに、画像情報内での指先の位置特定がない中で、ユーザの手の指先以外の所定の領域に少なくとも部分的に基づいて、指先の位置を決定すること、および/または指すために使用される指の推定長さに少なくとも部分的に基づいて、指先の位置を決定することを行うように構成され得る。
タッチフリージェスチャ認識システムでは、少なくとも1つのプロセッサはさらに、画像情報内の手が左手または右手であるかどうかを決定し、右手と決定される場合は手の左上の領域、または左手と決定される場合は手の右上の領域に関連する位置として、指先位置を決定すること;手のサイズに関連するフィルタマスクを画像情報に適用することにより手を位置付けること;画像情報内でユーザの手の2本の指を検出し、2本の指の間の位置として指先の位置を決定すること;および/または画像情報内のユーザの手の複数の指を検出し、複数の指に少なくとも部分的に基づいて指先位置を決定することであって、複数の指のそれぞれが指先位置を決定するための異なる加重に関連付けられることとを行うように構成され得る。
タッチフリージェスチャ認識システムでは、少なくとも1つのプロセッサはさらに、1回目に画像情報内で指先を位置付けることなく指先の位置を決定した後に、引き続き非指先情報を用いて指先を追跡するように構成され得る。
タッチフリージェスチャ認識システムでは、少なくとも1つのプロセッサはさらに、1回目に指先位置を位置付けたが、2回目に指先位置を位置付けるのに失敗した後、1回目の指先位置と非指先情報とを用いて、指先を追跡するように構成され得る。
本発明の他の実施形態は、タッチフリージェスチャ認識システム内で視覚的なフィードバックを提供するためのデバイスを含み得、デバイスは、ディスプレイ上の画像の提示を可能にすることと;ユーザによって実行されるタッチフリージェスチャを示すカメラからの情報を受信することと;ディスプレイ上のジェスチャリングインジケータの提示を可能にすることであって、ジェスチャリングインジケータは、ディスプレイに対するユーザのタッチフリージェスチャの位置を表す、ことと;ユーザのタッチフリージェスチャがディスプレイから第1の距離にあるとき、ディスプレイ上の最初の画面内にジェスチャリングインジケータを提示することと;ユーザのタッチフリージェスチャが第1の距離とは異なるディスプレイからの第2の距離にあるとき、ディスプレイ上の第2の画面にジェスチャリングインジケータを提示することとを行うように構成された少なくとも1つのプロセッサを含む。
タッチフリージェスチャ認識システムでは、ジェスチャリングインジケータは、ポインティングインジケータであり得る。カメラから受信される情報は、ユーザの手の少なくとも一部を反映し得る。ディスプレイ上の画像は、少なくとも1つのアイコンを含む。
タッチフリージェスチャ認識システムでは、少なくとも1つのプロセッサはさらに、ユーザによるタッチフリージェスチャのディスプレイからの距離が減少するにつれジェスチャリングインジケータのサイズを減少させること;ユーザによるタッチフリージェスチャのディスプレイからの距離が増大するにつれジェスチャリングインジケータのサイズを増大させること;ユーザのタッチフリージェスチャに関連付けられる補正動作を検出し、補正動作に基づいて、アイコンを選択するユーザの意図を決定すること;ジェスチャの一部が検出された後にのみおよび/またはユーザの手がイメージセンサの視野の所定の領域に検出されたときにジェスチャインジケータを提示すること;ディスプレイに相対するジェスチャ動作の検出位置が所定の閾値内に入った後でのみジェスチャインジケータを提示することと;ユーザのタッチフリージェスチャのディスプレイからの距離が減少するにつれジェスチャリングインジケータのサイズを増大させること;および/またはユーザのタッチフリージェスチャのディスプレイからの距離が増大するにつれ、ジェスチャリングインジケータのサイズを減少させることを行うように構成され得る。
タッチフリージェスチャ認識システムでは、ディスプレイは、仮想3Dディスプレイであり得、少なくとも1つのプロセッサはさらに、ユーザの手とディスプレイとの間の距離が変化するにつれ、ジェスチャインジケータとディスプレイとの間の距離が変化するようにすること;仮想の3Dインジケータが、ユーザの手の少なくとも一部から出てくるかのように現れるようにすること;ユーザのタッチフリージェスチャのディスプレイからの距離が減少するにつれ、仮想の3Dインジケータのサイズを減少させること;および/またはジェスチャリングインジケータを、ディスプレイ上の情報選択に先立つ第1の形式とディスプレイ上の情報選択後の第2の形式の2つの形式で表示することを行うように構成され得る。
本開示の主題によるシステム2は、好適にプログラムされたコンピュータを含み得ることが理解されるであろう。同様に、本開示の主題は、開示される主題の方法を実行するためのコンピュータによって読取可能である、コンピュータプログラムを企図する。本開示の主題は、本開示の主題の方法を実行するための機械によって実行可能な指示のプログラムを具現化する、機械可読メモリをさらに企図する。
本開示の主題は、その用途において、本明細書に含まれるまたは図面に図示される記述に明記される詳細な説明に限定されるものではないことと理解されるべきである。本開示の主題は、他の実施形態および様々な方法で実行することが可能である。したがって、本明細書中で用いられる表現および用語は説明のためであり、限定とみなすべきではないことを理解されたい。このように、当業者は、本開示が基づく概念が、本開示の主題が提示するいくつかの目的を実行するための他の構造、方法、およびシステムを設計する基礎として容易に利用され得ることを理解するであろう。
明確にするため、別個の実施形態の文脈において本明細書に記載される特定の特徴はまた、単一の実施形態に組み合わせて提供され得る。逆に、簡潔にするために、単一の実施形態の文脈で説明される種々の特徴はまた、別々に多数の実施形態または任意の好適な副組み合わせとしても提供され得る。さらに、特徴は、特定の組み合わせで作用するように上述され得、当初はそのように主張され得るが、特許請求の範囲の記載の組み合わせからの1つまたはそれを上回る特徴は、いくつかの場合には組み合わせから削除され得、特許請求の組み合わせは、副組み合わせまたは副組み合わせの変形を対象とし得る。
特定の実施形態が、記述された。他の実施形態も、以下の特許請求の範囲内にある。

Claims (26)

  1. 少なくとも1つのプロセッサを備えるタッチフリージェスチャ認識システムであって、
    前記少なくとも1つのプロセッサは、
    ディスプレイ上の少なくとも第1の位置で、第1のタッチフリージェスチャを促す第1のディスプレイ情報のユーザへの提示を可能にすることと、
    イメージセンサの視空間の複数の画像を取得することと、
    前記視空間の前記複数の画像に基づいて、前記視空間内の1つのポインティング要素の位置を示すデータを取得することと、
    前記視空間の前記複数の画像に基づいて、前記ユーザの第1の眼に関連付けられている位置および前記ユーザの第2の眼に関連付けられている位置を示すデータを取得することと、
    前記ユーザの前記第1の眼に関連付けられている位置から前記ポインティング要素の位置を通して前記ディスプレイ上まで通過する第1の視線に関連付けられている、前記ディスプレイ上の第1の候補ポインティング領域を特定することと、
    前記ユーザの前記第2の眼に関連付けられている位置から前記ポインティング要素の位置を通して前記ディスプレイ上まで通過する第2の視線に関連付けられている、前記ディスプレイ上の第2の候補ポインティング領域を特定することと、
    前記ポインティング要素の位置を示すデータおよび前記特定された第1の候補ポインティング領域および前記特定された第2の候補ポインティング領域を用いて、前記ディスプレイ上の目的とされる点または領域を決定することと、
    前記ディスプレイ上の前記目的とされる点または領域に対応するアクションを開始することと
    を行うように構成されている、タッチフリージェスチャ認識システム。
  2. 前記ポインティング要素は、人差し指を含み、前記少なくとも1つのプロセッサは、指先を検出することにより、前記検出に基づいて前記ディスプレイ上の前記目的とされる点または領域を決定するようにさらに構成されている、請求項1に記載にシステム。
  3. 前記第1の候補ポインティング領域の位置または前記第2の候補ポインティング領域の位置のうちの少なくとも1つは、少なくとも部分的に前記ユーザの一方の眼が前記ユーザの他方の眼に対して優位である結果として、前記ディスプレイ上の前記目的とされる点または領域とは異なる、請求項1に記載のシステム。
  4. 前記少なくとも1つのプロセッサは、前記ユーザの前記第1の眼に関連付けられている少なくとも1つの前記第1の視線を用いて生成される前記第1の候補ポインティング領域と前記ユーザの第2の眼に関連付けられている前記第2の視線を用いて生成される前記第2の候補ポインティング領域とのうちの少なくとも1つと、前記ディスプレイ上の前記第1の位置との間の第1のオフセットを決定するようにさらに構成されている、請求項1に記載のシステム。
  5. 前記第1のオフセットは、視線の計算の出発点として作用する瞳孔を除く顔上の位置に対応し、前記少なくとも1つのプロセッサは、前記ディスプレイ上の前記目的とされる点または領域を決定するために、前記瞳孔を除く顔上の位置を用いるようにさらに構成されている、請求項4に記載のシステム。
  6. 前記少なくとも1つのプロセッサは、前記特定された第1の候補ポインティング領域および前記第2の候補ポインティング領域の略近傍における第3の点を用いて、前記ディスプレイ上の前記目的とされる点または領域を決定するようにさらに構成されている、請求項1に記載のシステム。
  7. 前記少なくとも1つのプロセッサは、前記ディスプレイ上の多数の候補ポインティング領域を用いることにより、前記ディスプレイ上の前記目的とされる点または領域を決定するようにさらに構成されている、請求項1に記載のシステム。
  8. 前記少なくとも1つのプロセッサは、複数のユーザのそれぞれについて、前記第1のオフセットに関連付けられている固有情報を格納するようにさらに構成されている、請求項4に記載のシステム。
  9. 前記少なくとも1つのプロセッサは、前記複数のユーザのそれぞれについての特定に関連付けられている、前記少なくとも1つのイメージセンサから受信される情報を、前記格納される固有情報として格納するようにさらに構成されている、請求項に記載のシステム。
  10. 前記少なくとも1つのプロセッサは、
    前記複数のユーザのそれぞれについて瞳孔を除く顔上の位置に関する情報を前記格納される固有情報として格納することと、
    前記格納された固有情報を用いて前記ディスプレイ上の前記目的とされる点または領域を決定することと
    を行うようにさらに構成されている、請求項に記載のシステム。
  11. 前記第1のオフセットに関連付けられている前記固有情報は、前記ユーザの一方の眼が、前記ユーザの他方の眼に対して優位であるという標示を含む、請求項に記載のシステム。
  12. 前記第1のオフセットに関連付けられている前記固有情報は、前記ユーザの前記一方の眼が、前記ユーザの前記他方の眼に対して優位である度合いの標示を含む、請求項に記載のシステム。
  13. 非一過性コンピュータ読み取り可能な媒体であって、前記非一過性コンピュータ読み取り可能な媒体は、指示を含み、前記指示は、少なくとも1つのプロセッサによって実行されると、
    ディスプレイ上の少なくとも第1の位置で、第1のタッチフリージェスチャを促す第1のディスプレイ情報のユーザへの提示を可能にすることと、
    イメージセンサの視空間の複数の画像を取得することと、
    前記視空間の前記複数の画像に基づいて、前記視空間内の1つのポインティング要素の位置を示すデータを取得することと、
    前記視空間の前記複数の画像に基づいて、前記ユーザの第1の眼に関連付けられている位置および前記ユーザの第2の眼に関連付けられている位置を示すデータを取得することと、
    前記ユーザの前記第1の眼に関連付けられている位置から前記ポインティング要素の位置を通して前記ディスプレイ上まで通過する第1の視線に関連付けられている、前記ディスプレイ上の第1の候補ポインティング領域を特定することと、
    前記ユーザの前記第2の眼に関連付けられている位置から前記ポインティング要素の位置を通して前記ディスプレイ上まで通過する第2の視線に関連付けられている、前記ディスプレイ上の第2の候補ポインティング領域を特定することと、
    前記ポインティング要素の位置を示すデータおよび前記特定された第1の候補ポインティング領域および前記特定された第2の候補ポインティング領域を用いて、前記ディスプレイ上の目的とされる点または領域を決定することと、
    前記ディスプレイ上の前記目的とされる点または領域に対応するアクションを開始することと
    を含む動作を前記少なくとも1つのプロセッサに行わせる、非一過性コンピュータ読み取り可能な媒体。
  14. 前記第1の候補ポインティング領域の位置または前記第2の候補ポインティング領域の位置のうちの少なくとも1つは、少なくとも部分的に前記ユーザの一方の眼が前記ユーザの他方の眼に対して優位であることを示す情報の結果として、前記ディスプレイ上の前記目的とされる点または領域とは異なる、請求項13に記載の非一過性コンピュータ読み取り可能な媒体。
  15. 前記指示は、前記少なくとも1つのプロセッサによって実行されると、前記ユーザの前記第1の眼に関連付けられている少なくとも1つの前記第1の視線を用いて生成される前記第1の候補ポインティング領域と前記ユーザの第2の眼に関連付けられている前記第2の視線を用いて生成される前記第2の候補ポインティング領域とのうちの少なくとも1つと、前記ディスプレイ上の前記第1の位置との間の第1のオフセットを決定することを含む追加的動作を実行することを前記少なくとも1つのプロセッサにさらに行わせる、請求項13に記載の非一過性コンピュータ読み取り可能な媒体。
  16. 前記第1のオフセットは、瞳孔を除く顔上の位置に対応して視線計算の出発点として作用し、前記指示は、前記少なくとも1つのプロセッサによって実行されると、前記ディスプレイ上の前記目的とされる点または領域を決定するために、前記瞳孔を除く顔上の位置を用いることを含む追加的動作を実行することを前記少なくとも1つのプロセッサにさらに行わせる、請求項15に記載の非一過性コンピュータ読み取り可能な媒体。
  17. 前記第1の候補ポインティング領域および前記第2の候補ポインティング領域と較正アイコンとの重なりの割合、または、
    前記第1の眼と前記第2の眼との間の全距離に対する、前記第1の眼と前記第2の眼とのうちの1つと仮想の眼との間の距離との比
    に基づいて、前記少なくとも1つのプロセッサは、前記第1の眼と前記第2の眼との間の優位性の度合いを決定するようにさらに構成されており、
    前記仮想の眼は、前記第1の眼および前記第2の眼の瞳以外の前記ユーザの顔の位置に対応する、請求項4に記載のシステム。
  18. 前記第1の候補ポインティング領域および前記第2の候補ポインティング領域のそれぞれは、少なくとも1つのピクセルを含む、請求項1に記載のシステム。
  19. 前記少なくとも1つのプロセッサは、指先上の爪を検出することにより、前記検出に基づいて前記ディスプレイ上の前記目的とされる点または領域を決定するようにさらに構成されている、請求項2に記載のシステム。
  20. 前記少なくとも1つのプロセッサは、前記人差し指の関節を検出することにより、前記検出に基づいて前記ディスプレイ上の前記目的とされる点または領域を決定するようにさらに構成されている、請求項2に記載のシステム。
  21. 前記少なくとも1つのプロセッサは、
    前記ユーザの右手に関連付けられているポインティング要素または前記ユーザの左手に関連付けられているポインティング要素のうちの少なくとも一方を決定することと、
    前記決定を用いることにより、前記視空間内の前記ポインティング要素の位置を示すデータを取得することと
    を行うようにさらに構成されている、請求項1に記載のシステム。
  22. 前記少なくとも1つのプロセッサは、前記視空間内の前記ポインティング要素の位置および前記ディスプレイ上の前記目的とされる点または領域を示すデータに関連付けられているフィードバック標示を開始するようにさらに構成されており、前記フィードバック標示は、視覚的標示、オーディオ標示、触覚標示、超音波標示、または触覚標示のうちの少なくとも1つである、請求項1に記載のシステム。
  23. 前記少なくとも1つのプロセッサは、少なくとも2つのポインティング要素を検出し、前記少なくとも2つのポインティング要素の位置を示すデータを用いて前記ディスプレイ上の前記目的とされる点または領域を決定するようにさらに構成されている、請求項1に記載のシステム。
  24. 前記少なくとも1つのプロセッサは、前記少なくとも2つのポインティング要素間の動きを検出し、前記少なくとも2つのポインティング要素間の前記検出された動きおよび前記ディスプレイ上の前記目的とされる点または領域に対応するアクションを開始するようにさらに構成されている、請求項23に記載にシステム。
  25. 前記アクションを開始することは、前記ディスプレイ上に表示される情報を修正することを含む、請求項24に記載にシステム。
  26. 前記アクションを開始することは、グラフィカル要素を掴むこと、グラフィカル要素上での時計回りジェスチャまたは反時計回りジェスチャを行うこと、前記ディスプレイ上の領域を拡大すること、前記ディスプレイ上の領域を縮小すること、または前記ディスプレイ上の領域を回転させること、のうちの少なくとも1つを含む、請求項24に記載にシステム。
JP2019020548A 2013-06-27 2019-02-07 デジタルデバイスとの対話のための直接的なポインティング検出のためのシステムおよび方法 Active JP7191714B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022100231A JP2022118183A (ja) 2013-06-27 2022-06-22 デジタルデバイスとの対話のための直接的なポインティング検出のためのシステムおよび方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201361840447P 2013-06-27 2013-06-27
US61/840,447 2013-06-27

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016522897A Division JP6480434B2 (ja) 2013-06-27 2014-06-27 デジタルデバイスとの対話のための直接的なポインティング検出のためのシステムおよび方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022100231A Division JP2022118183A (ja) 2013-06-27 2022-06-22 デジタルデバイスとの対話のための直接的なポインティング検出のためのシステムおよび方法

Publications (2)

Publication Number Publication Date
JP2019087279A JP2019087279A (ja) 2019-06-06
JP7191714B2 true JP7191714B2 (ja) 2022-12-19

Family

ID=52346795

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2016522897A Expired - Fee Related JP6480434B2 (ja) 2013-06-27 2014-06-27 デジタルデバイスとの対話のための直接的なポインティング検出のためのシステムおよび方法
JP2019020548A Active JP7191714B2 (ja) 2013-06-27 2019-02-07 デジタルデバイスとの対話のための直接的なポインティング検出のためのシステムおよび方法
JP2022100231A Pending JP2022118183A (ja) 2013-06-27 2022-06-22 デジタルデバイスとの対話のための直接的なポインティング検出のためのシステムおよび方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2016522897A Expired - Fee Related JP6480434B2 (ja) 2013-06-27 2014-06-27 デジタルデバイスとの対話のための直接的なポインティング検出のためのシステムおよび方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022100231A Pending JP2022118183A (ja) 2013-06-27 2022-06-22 デジタルデバイスとの対話のための直接的なポインティング検出のためのシステムおよび方法

Country Status (5)

Country Link
US (3) US9846486B2 (ja)
JP (3) JP6480434B2 (ja)
KR (2) KR20220136517A (ja)
CN (2) CN105593787B (ja)
WO (1) WO2015008164A2 (ja)

Families Citing this family (89)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013136333A1 (en) 2012-03-13 2013-09-19 Eyesight Mobile Technologies Ltd. Touch free user interface
US10180029B2 (en) * 2013-03-15 2019-01-15 Springs Window Fashions, Llc Window covering motorized lift and control system motor and operation
CN105593787B (zh) 2013-06-27 2019-07-05 视力移动科技公司 用于与数字设备交互的直接指向检测的系统和方法
US10914951B2 (en) * 2013-08-19 2021-02-09 Qualcomm Incorporated Visual, audible, and/or haptic feedback for optical see-through head mounted display with user interaction tracking
US10089786B2 (en) * 2013-08-19 2018-10-02 Qualcomm Incorporated Automatic customization of graphical user interface for optical see-through head mounted display with user interaction tracking
TWI505135B (zh) * 2013-08-20 2015-10-21 Utechzone Co Ltd 顯示畫面的控制系統、輸入裝置及控制方法
EP3049876B1 (en) * 2013-09-25 2018-09-12 Schneider Electric Buildings LLC Method and device for adjusting a set point
KR101533319B1 (ko) * 2014-02-22 2015-07-03 주식회사 브이터치 카메라 중심의 가상터치를 이용한 원격 조작 장치 및 방법
US10332200B1 (en) 2014-03-17 2019-06-25 Wells Fargo Bank, N.A. Dual-use display screen for financial services applications
KR20150108216A (ko) * 2014-03-17 2015-09-25 삼성전자주식회사 입력 처리 방법 및 그 전자 장치
TW201544993A (zh) * 2014-05-28 2015-12-01 Pegatron Corp 手勢控制之方法、手勢控制模組及其具有手勢控制模組之穿戴式裝置
US9632686B1 (en) * 2014-07-24 2017-04-25 Wells Fargo Bank, N.A. Collaborative document creation
US10452195B2 (en) * 2014-12-30 2019-10-22 Samsung Electronics Co., Ltd. Electronic system with gesture calibration mechanism and method of operation thereof
CN107787497B (zh) * 2015-06-10 2021-06-22 维塔驰有限公司 用于在基于用户的空间坐标系中检测手势的方法和装置
US9703387B2 (en) 2015-08-31 2017-07-11 Konica Minolta Laboratory U.S.A., Inc. System and method of real-time interactive operation of user interface
US9939899B2 (en) 2015-09-25 2018-04-10 Apple Inc. Motion and gesture input from a wearable device
JP6632298B2 (ja) * 2015-09-29 2020-01-22 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
DE102015226153A1 (de) * 2015-12-21 2017-06-22 Bayerische Motoren Werke Aktiengesellschaft Anzeigevorrichtung und Bedieneinrichtung
KR102559625B1 (ko) * 2016-01-25 2023-07-26 삼성전자주식회사 증강 현실 출력 방법 및 이를 지원하는 전자 장치
JP6859999B2 (ja) * 2016-02-23 2021-04-14 ソニー株式会社 遠隔操作装置、および遠隔操作方法、遠隔操作システム、並びにプログラム
US20180164895A1 (en) * 2016-02-23 2018-06-14 Sony Corporation Remote control apparatus, remote control method, remote control system, and program
WO2017200571A1 (en) 2016-05-16 2017-11-23 Google Llc Gesture-based control of a user interface
CN106019958B (zh) * 2016-05-31 2021-08-31 广东美的制冷设备有限公司 手势识别控制方法、手势识别控制装置和家用电器
EP3463162A4 (en) * 2016-06-03 2020-06-24 Covidien LP SYSTEMS, METHODS AND COMPUTER READABLE PROGRAM PRODUCTS FOR CONTROLLING A ROBOT CONTROLLED MANIPULATOR
CN106265006B (zh) * 2016-07-29 2019-05-17 维沃移动通信有限公司 一种主视眼的矫正装置的控制方法及移动终端
CN107835288A (zh) * 2016-09-16 2018-03-23 天津思博科科技发展有限公司 应用智能终端实现的互动娱乐装置
CN109804652A (zh) * 2016-09-28 2019-05-24 索尼公司 设备、计算机程序和方法
KR101937823B1 (ko) * 2016-10-24 2019-01-14 주식회사 브이터치 객체 제어를 지원하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체
CN108227914B (zh) 2016-12-12 2021-03-05 财团法人工业技术研究院 透明显示装置、使用其的控制方法及其控制器
CN106896914A (zh) * 2017-01-17 2017-06-27 珠海格力电器股份有限公司 信息的转换方法和装置
US10254846B1 (en) * 2017-03-15 2019-04-09 Meta Company Systems and methods to facilitate interactions with virtual content in an augmented reality environment
US9785250B1 (en) * 2017-05-15 2017-10-10 Newtonoid Technologies, L.L.C. Intelligent gesture based security system and method
JP2019008351A (ja) * 2017-06-20 2019-01-17 ソニー株式会社 情報処理装置、情報処理方法及び記録媒体
JP6572943B2 (ja) * 2017-06-23 2019-09-11 カシオ計算機株式会社 ロボット、ロボットの制御方法及びプログラム
CN110312760B (zh) 2017-06-23 2022-03-01 积水化学工业株式会社 树脂组合物、无机微粒分散浆料组合物、无机微粒分散片
EP4224293B1 (en) * 2017-07-03 2024-04-03 Aptiv Technologies Limited System and method for determining a pointing direction in 3d space
CN109388233B (zh) 2017-08-14 2022-07-29 财团法人工业技术研究院 透明显示装置及其控制方法
EP3336848B1 (en) 2017-08-15 2023-09-27 Siemens Healthcare GmbH Method for operating a medical imaging device and medical imaging device
KR102463712B1 (ko) * 2017-11-24 2022-11-08 현대자동차주식회사 가상 터치 인식 장치 및 그의 인식 오류 보정 방법
US10817068B2 (en) * 2018-01-23 2020-10-27 Toyota Research Institute, Inc. Vehicle systems and methods for determining target based on selecting a virtual eye position or a pointing direction
US10706300B2 (en) * 2018-01-23 2020-07-07 Toyota Research Institute, Inc. Vehicle systems and methods for determining a target based on a virtual eye position and a pointing direction
US10853674B2 (en) 2018-01-23 2020-12-01 Toyota Research Institute, Inc. Vehicle systems and methods for determining a gaze target based on a virtual eye position
JP6898021B2 (ja) * 2018-03-07 2021-07-07 Necソリューションイノベータ株式会社 操作入力装置、操作入力方法、及びプログラム
CN108388347B (zh) * 2018-03-15 2021-05-25 网易(杭州)网络有限公司 虚拟现实中的交互控制方法和装置及存储介质、终端
US10643362B2 (en) * 2018-03-26 2020-05-05 Lenovo (Singapore) Pte Ltd Message location based on limb location
CN110531843A (zh) * 2018-05-24 2019-12-03 富泰华工业(深圳)有限公司 电子装置及电子装置的操作控制方法
JP7135444B2 (ja) * 2018-05-29 2022-09-13 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム
CN108874127A (zh) * 2018-05-30 2018-11-23 北京小度信息科技有限公司 信息交互方法、装置、电子设备及计算机可读存储介质
CN109143875B (zh) * 2018-06-29 2021-06-15 广州市得腾技术服务有限责任公司 一种手势控制智能家居方法及其系统
US10884507B2 (en) * 2018-07-13 2021-01-05 Otis Elevator Company Gesture controlled door opening for elevators considering angular movement and orientation
TWI734024B (zh) 2018-08-28 2021-07-21 財團法人工業技術研究院 指向判斷系統以及指向判斷方法
WO2020050324A1 (ja) * 2018-09-05 2020-03-12 株式会社小糸製作所 車両用表示システム、車両システム及び車両
US10755250B2 (en) 2018-09-07 2020-08-25 Bank Of America Corporation Processing system for providing a teller assistant experience using enhanced reality interfaces
US10462425B1 (en) 2018-09-07 2019-10-29 Bank Of America Corporation Processing system for providing a teller assistant experience using enhanced reality interfaces
KR102155378B1 (ko) * 2018-09-19 2020-09-14 주식회사 브이터치 객체 제어를 지원하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체
CN109542654A (zh) * 2018-11-23 2019-03-29 京东方科技集团股份有限公司 自动贩卖机和确定用户选定商品的方法
JP7416391B2 (ja) * 2018-12-28 2024-01-17 国立大学法人高知大学 ポインティング装置
KR20200093091A (ko) * 2019-01-07 2020-08-05 현대자동차주식회사 단말기, 그를 가지는 차량 및 그 제어 방법
CN109753157B (zh) * 2019-01-11 2022-04-26 京东方科技集团股份有限公司 显示屏的手势控制方法及装置
US11442549B1 (en) * 2019-02-07 2022-09-13 Apple Inc. Placement of 3D effects based on 2D paintings
KR102225342B1 (ko) * 2019-02-13 2021-03-09 주식회사 브이터치 객체 제어를 지원하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체
KR102191061B1 (ko) * 2019-03-11 2020-12-15 주식회사 브이터치 2차원 카메라를 이용하여 객체 제어를 지원하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체
WO2020263250A1 (en) 2019-06-26 2020-12-30 Google Llc Radar-based authentication status feedback
US10832486B1 (en) 2019-07-17 2020-11-10 Gustav Lo Systems and methods for displaying augmented anatomical features
EP4004686A1 (en) 2019-07-26 2022-06-01 Google LLC Authentication management through imu and radar
CN113853567B (zh) 2019-07-26 2024-03-29 谷歌有限责任公司 基于imu和雷达降低状态
US11385722B2 (en) 2019-07-26 2022-07-12 Google Llc Robust radar-based gesture-recognition by user equipment
US11868537B2 (en) 2019-07-26 2024-01-09 Google Llc Robust radar-based gesture-recognition by user equipment
EP4010756A4 (en) * 2019-08-09 2023-09-20 Light Field Lab, Inc. DIGITAL SIGNAL SYSTEM BASED ON A LIGHT FIELD DISPLAY SYSTEM
CN110481419B (zh) * 2019-08-16 2021-12-07 广州小鹏汽车科技有限公司 一种人车交互方法、系统、车辆及存储介质
TWI804671B (zh) * 2019-08-28 2023-06-11 財團法人工業技術研究院 互動顯示方法與互動顯示系統
EP3936980A1 (en) 2019-08-30 2022-01-12 Google LLC Input methods for mobile devices
KR20220098805A (ko) 2019-08-30 2022-07-12 구글 엘엘씨 다중 입력 모드에 대한 입력 모드 통지
US11467672B2 (en) 2019-08-30 2022-10-11 Google Llc Context-sensitive control of radar-based gesture-recognition
WO2021040748A1 (en) 2019-08-30 2021-03-04 Google Llc Visual indicator for paused radar gestures
US11100790B2 (en) 2019-09-25 2021-08-24 Universal City Studios Llc Systems and methods for determining projected target location of a handheld object
US11934584B2 (en) * 2019-09-27 2024-03-19 Apple Inc. Finger orientation touch detection
WO2021153577A1 (ja) * 2020-01-31 2021-08-05 ソニーグループ株式会社 視線検出装置のキャリブレーション
CN115443445A (zh) * 2020-02-26 2022-12-06 奇跃公司 用于可穿戴系统的手部手势输入
CN111538436B (zh) * 2020-04-11 2023-07-18 北京元芯碳基集成电路研究院 一种基于碳基电路的多功能显示器及其制作方法
CN113946205B (zh) * 2020-07-17 2024-02-09 云米互联科技(广东)有限公司 燃气控制方法、燃气设备及存储介质
CN113946206A (zh) * 2020-07-17 2022-01-18 云米互联科技(广东)有限公司 家电交互方法、家电设备及存储介质
US11474690B2 (en) * 2020-08-14 2022-10-18 VTouch Co., Ltd. Method, system and non-transitory computer-readable recording medium for non-contact control
CN112363626B (zh) * 2020-11-25 2021-10-01 广东魅视科技股份有限公司 基于人体姿态和手势姿态视觉识别的大屏幕交互控制方法
US11630639B2 (en) * 2020-12-08 2023-04-18 Samsung Electronics Co., Ltd. Control method of electronic device using a plurality of sensors and electronic device thereof
JP7176020B2 (ja) * 2021-02-03 2022-11-21 マクセル株式会社 携帯端末の制御方法
US11755150B2 (en) * 2021-09-21 2023-09-12 Apple Inc. Input location correction based on device motion
KR102513444B1 (ko) 2021-11-25 2023-03-24 한국과학기술원 스마트 홈 시스템에서 객체 등록을 지원하는 방법 및 장치
JP2023135920A (ja) * 2022-03-16 2023-09-29 パナソニックIpマネジメント株式会社 制御装置および制御方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002259989A (ja) 2001-03-02 2002-09-13 Gifu Prefecture ポインティングジェスチャ検出方法及びその装置
JP2004362218A (ja) 2003-06-04 2004-12-24 Canon Inc 三次元物体操作方法
JP2005069734A (ja) 2003-08-20 2005-03-17 Tokyo Univ Of Marine Science & Technology 指さし行為による物体の空間位置の教示方法
JP2005138755A (ja) 2003-11-07 2005-06-02 Denso Corp 虚像表示装置およびプログラム
JP2013521576A (ja) 2010-02-28 2013-06-10 オスターハウト グループ インコーポレイテッド 対話式ヘッド取付け型アイピース上での地域広告コンテンツ
JP2013250882A (ja) 2012-06-01 2013-12-12 Sharp Corp 注目位置検出装置、注目位置検出方法、及び注目位置検出プログラム
WO2015008164A2 (en) 2013-06-27 2015-01-22 Eyesight Mobile Technologies Ltd. Systems and methods of direct pointing detection for interaction with a digital device

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6531999B1 (en) * 2000-07-13 2003-03-11 Koninklijke Philips Electronics N.V. Pointing direction calibration in video conferencing and other camera-based system applications
US6600475B2 (en) * 2001-01-22 2003-07-29 Koninklijke Philips Electronics N.V. Single camera system for gesture-based input and target indication
US8745541B2 (en) * 2003-03-25 2014-06-03 Microsoft Corporation Architecture for controlling a computer using hand gestures
IL161002A0 (en) * 2004-03-22 2004-08-31 Itay Katz Virtual video keyboard system
US9001036B2 (en) * 2007-12-20 2015-04-07 University Of Central Florida Research Foundation, Inc. Systems and methods of camera-based fingertip tracking
JP5117418B2 (ja) * 2009-01-28 2013-01-16 株式会社東芝 情報処理装置及び情報処理方法
CN102342056A (zh) * 2009-03-05 2012-02-01 三菱电机株式会社 无线通信系统、发送装置以及接收装置
KR101585466B1 (ko) * 2009-06-01 2016-01-15 엘지전자 주식회사 움직임 검출에 의한 전자장치 동작 제어방법 및 이를 채용하는 전자장치
US8964298B2 (en) 2010-02-28 2015-02-24 Microsoft Corporation Video display modification based on sensor input for a see-through near-to-eye display
US20110228051A1 (en) * 2010-03-17 2011-09-22 Goksel Dedeoglu Stereoscopic Viewing Comfort Through Gaze Estimation
JP5450791B2 (ja) * 2010-03-18 2014-03-26 富士フイルム株式会社 立体表示装置及び立体撮影装置、並びに利き目判定方法及びこれに用いる利き目判定プログラム並びに記録媒体
CN102812419A (zh) * 2010-03-18 2012-12-05 富士胶片株式会社 立体图像显示设备及其控制方法
US20120274550A1 (en) * 2010-03-24 2012-11-01 Robert Campbell Gesture mapping for display device
WO2011158511A1 (ja) * 2010-06-17 2011-12-22 パナソニック株式会社 指示入力装置、指示入力方法、プログラム、記録媒体および集積回路
JP5676608B2 (ja) * 2010-06-29 2015-02-25 富士フイルム株式会社 立体表示装置、立体撮影装置、および指示判定方法
US8907929B2 (en) * 2010-06-29 2014-12-09 Qualcomm Incorporated Touchless sensing and gesture recognition using continuous wave ultrasound signals
WO2012021967A1 (en) * 2010-08-16 2012-02-23 Tandemlaunch Technologies Inc. System and method for analyzing three-dimensional (3d) media content
KR101729023B1 (ko) * 2010-10-05 2017-04-21 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
KR101151962B1 (ko) * 2011-02-16 2012-06-01 김석중 포인터를 사용하지 않는 가상 터치 장치 및 방법
CN103890695B (zh) * 2011-08-11 2017-10-13 视力移动技术有限公司 基于手势的接口系统和方法
US20130050069A1 (en) * 2011-08-23 2013-02-28 Sony Corporation, A Japanese Corporation Method and system for use in providing three dimensional user interface
US8947351B1 (en) * 2011-09-27 2015-02-03 Amazon Technologies, Inc. Point of view determinations for finger tracking
GB2511973A (en) * 2011-12-27 2014-09-17 Hewlett Packard Development Co User interface device
WO2013190538A1 (en) * 2012-06-20 2013-12-27 Pointgrab Ltd. Method for touchless control of a device
US20140282269A1 (en) * 2013-03-13 2014-09-18 Amazon Technologies, Inc. Non-occluded display for hover interactions
US9487537B2 (en) 2013-06-12 2016-11-08 Archer Daniels Midland Co. Synthesis of isohexide dicarbamates and derivatives thereof

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002259989A (ja) 2001-03-02 2002-09-13 Gifu Prefecture ポインティングジェスチャ検出方法及びその装置
JP2004362218A (ja) 2003-06-04 2004-12-24 Canon Inc 三次元物体操作方法
JP2005069734A (ja) 2003-08-20 2005-03-17 Tokyo Univ Of Marine Science & Technology 指さし行為による物体の空間位置の教示方法
JP2005138755A (ja) 2003-11-07 2005-06-02 Denso Corp 虚像表示装置およびプログラム
JP2013521576A (ja) 2010-02-28 2013-06-10 オスターハウト グループ インコーポレイテッド 対話式ヘッド取付け型アイピース上での地域広告コンテンツ
JP2013250882A (ja) 2012-06-01 2013-12-12 Sharp Corp 注目位置検出装置、注目位置検出方法、及び注目位置検出プログラム
US20150145762A1 (en) 2012-06-01 2015-05-28 Sharp Kabushiki Kaisha Position-of-interest detection device, position-of-interest detection method, and position-of-interest detection program
WO2015008164A2 (en) 2013-06-27 2015-01-22 Eyesight Mobile Technologies Ltd. Systems and methods of direct pointing detection for interaction with a digital device
JP2016523420A (ja) 2013-06-27 2016-08-08 アイサイト モバイル テクノロジーズ リミテッド デジタルデバイスとの対話のための直接的なポインティング検出のためのシステムおよび方法

Also Published As

Publication number Publication date
JP2019087279A (ja) 2019-06-06
WO2015008164A2 (en) 2015-01-22
US11314335B2 (en) 2022-04-26
CN105593787B (zh) 2019-07-05
US9846486B2 (en) 2017-12-19
KR20160048062A (ko) 2016-05-03
CN110442231A (zh) 2019-11-12
US20210157412A1 (en) 2021-05-27
US20190004611A1 (en) 2019-01-03
CN105593787A (zh) 2016-05-18
KR102517425B1 (ko) 2023-03-31
JP6480434B2 (ja) 2019-03-13
KR20220136517A (ko) 2022-10-07
US20160179205A1 (en) 2016-06-23
JP2022118183A (ja) 2022-08-12
WO2015008164A3 (en) 2015-07-16
US10817067B2 (en) 2020-10-27
JP2016523420A (ja) 2016-08-08

Similar Documents

Publication Publication Date Title
JP7191714B2 (ja) デジタルデバイスとの対話のための直接的なポインティング検出のためのシステムおよび方法
US20220382379A1 (en) Touch Free User Interface
US10120454B2 (en) Gesture recognition control device
US10761610B2 (en) Vehicle systems and methods for interaction detection
US10203764B2 (en) Systems and methods for triggering actions based on touch-free gesture detection
US20180292907A1 (en) Gesture control system and method for smart home
US9001006B2 (en) Optical-see-through head mounted display system and interactive operation
WO2014106219A1 (en) User centric interface for interaction with visual display that recognizes user intentions
US20200142495A1 (en) Gesture recognition control device
KR20160080109A (ko) 사용자 인터페이스 제어를 위한 시스템 및 기법
US20160139762A1 (en) Aligning gaze and pointing directions
KR102325684B1 (ko) 두부 착용형 시선 추적 입력 장치 및 이를 이용하는 입력 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200515

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200812

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201104

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210420

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210715

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211020

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220622

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20220622

C11 Written invitation by the commissioner to file amendments

Free format text: JAPANESE INTERMEDIATE CODE: C11

Effective date: 20220705

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20220824

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20220825

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221012

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20221111

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221207

R150 Certificate of patent or registration of utility model

Ref document number: 7191714

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150