JP2019087279A - Systems and methods of direct pointing detection for interaction with digital device - Google Patents

Systems and methods of direct pointing detection for interaction with digital device Download PDF

Info

Publication number
JP2019087279A
JP2019087279A JP2019020548A JP2019020548A JP2019087279A JP 2019087279 A JP2019087279 A JP 2019087279A JP 2019020548 A JP2019020548 A JP 2019020548A JP 2019020548 A JP2019020548 A JP 2019020548A JP 2019087279 A JP2019087279 A JP 2019087279A
Authority
JP
Japan
Prior art keywords
user
display
pointing
gesture
eye
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019020548A
Other languages
Japanese (ja)
Other versions
JP7191714B2 (en
Inventor
カッツ イタイ
Katz Itay
カッツ イタイ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Eyesight Mobile Technologies Ltd
Original Assignee
Eyesight Mobile Technologies Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Eyesight Mobile Technologies Ltd filed Critical Eyesight Mobile Technologies Ltd
Publication of JP2019087279A publication Critical patent/JP2019087279A/en
Priority to JP2022100231A priority Critical patent/JP2022118183A/en
Application granted granted Critical
Publication of JP7191714B2 publication Critical patent/JP7191714B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes

Abstract

To provide systems and methods of direct pointing detection for interaction with a digital device.SOLUTION: Systems, methods and non-transitory computer-readable media are disclosed. For example, a touch-free gesture recognition system is disclosed that includes at least one processor. The processor may be configured to enable presentation of first display information to a user to prompt a first touch-free gesture at at least a first location on a display. The processor may also be configured to receive first gesture information from at least one image sensor corresponding to a first gesturing location on the display correlated with a first touch-free gesture by the user.SELECTED DRAWING: Figure 1

Description

(関連出願)
本願は、2013年6月27日に出願された、米国仮出願第61/840,447号に対する優先権を主張するものであり、該米国仮出願の全体は、参照により本明細書中に援用される。
(Related application)
This application claims priority to US Provisional Application No. 61 / 840,447, filed Jun. 27, 2013, which is incorporated herein by reference in its entirety. Be done.

本開示は、タッチフリージェスチャ検出の分野に関し、より具体的には、タッチフリージェスチャを検出するセンサを使用するためのデバイスおよびコンピュータ可読媒体に関する。   The present disclosure relates to the field of touch free gesture detection, and more particularly to devices and computer readable media for using sensors that detect touch free gestures.

ユーザが、デバイスまたはデバイス上で実行中のアプリケーションと対話できるようにすることは、多くの異なる状況で有用である。例えば、キーボード、マウス、ジョイスティックは、多くの場合、ユーザが、データを入力する、データを操作する、およびシステムのプロセッサに様々な他の行動を実行させることを可能にするため、電子システムに含まれる。しかしながら、キーボード、マウス、ジョイスティック等、タッチベースの入力デバイスは、ますます、タッチフリーのユーザ対話を可能にするデバイスにより置き換えまたは補充されつつある。例えば、システムは、イメージセンサを含み得、例えば、ユーザの手および/または指を含むユーザの画像を捕捉し得る。プロセッサは、そのような画像を受信し、ユーザによって実行されるタッチフリージェスチャに基づいて行動を開始するように構成され得る。タッチフリージェスチャを検出し、入力するための技法を改善することが望ましい。   Allowing the user to interact with the device or an application running on the device is useful in many different situations. For example, keyboards, mice, joysticks are often included in electronic systems to allow the user to enter data, manipulate data, and cause the system's processor to perform various other actions. Be However, touch-based input devices such as keyboards, mice, joysticks etc. are increasingly being replaced or supplemented by devices that allow touch-free user interaction. For example, the system may include an image sensor and may capture an image of the user, including, for example, the user's hands and / or fingers. The processor may be configured to receive such an image and initiate an action based on a touch free gesture performed by the user. It is desirable to improve the techniques for detecting and inputting touch free gestures.

開示されたある実施形態では、タッチフリージェスチャ認識システムが開示される。タッチフリージェスチャ認識システムは、少なくとも1つのプロセッサを含み得る。少なくとも1つのプロセッサは、ディスプレイ上の少なくとも第1の位置で第1のタッチフリージェスチャを促す第1のディスプレイ情報のユーザへの提示を可能にすることと、ユーザによる第1のタッチフリージェスチャに相関付けられたディスプレイ上の第1のジェスチャリング位置に対応する少なくとも1つのイメージセンサからの第1のジェスチャ情報を受信することであって、第1のジェスチャリング位置は、ユーザの一方の眼がユーザの他方の眼に対して優位であることの結果として、第1のディスプレイ情報の位置と少なくとも部分的に異なっている、ことと、第1のディスプレイ情報の位置および第1のジェスチャリング位置に関連付けられる第1のオフセットを決定することと、ディスプレイ上の少なくとも第2の位置で、その後のタッチフリージェスチャを行うようユーザに促す第2の情報の提示を可能にすることと、ユーザによる後続のタッチフリージェスチャに対応する少なくとも1つのイメージセンサからの後続のジェスチャ情報を受信することと、後続のタッチフリージェスチャの影響を受けるディスプレイ上の位置を決定するために第1のオフセットを使用することとを行うように構成され得る。   In one disclosed embodiment, a touch free gesture recognition system is disclosed. The touch free gesture recognition system may include at least one processor. At least one processor enables presentation of first display information prompting the first touch free gesture at least at a first position on the display to the user and correlates to the first touch free gesture by the user Receiving first gesture information from at least one image sensor corresponding to a first gestured position on the attached display, the first gestured position being one of the user's eyes being the user The position of the first display information and at least partially different from the position of the first display information as a result of being superior to the other eye of the Determining a first offset to be set and at least a second position on the display Enabling presentation of a second piece of information prompting the user to perform a subsequent touch free gesture; receiving subsequent gesture information from at least one image sensor corresponding to the subsequent touch free gesture by the user And using a first offset to determine a position on the display that is affected by the subsequent touch free gesture.

実施形態に関連する追加的側面は、以下の記述に一部説明され、一部は、説明から理解されるか、または開示された実施形態の実施によって習得され得る。   Additional aspects related to the embodiments are described in part in the following description, and some may be understood from the description or may be learned by the practice of the disclosed embodiments.

前述の概略的な記述および以下の詳細な記述はいずれも例示および説明のみのためであり、特許請求の範囲を限定するものではないと理解されるべきである。
例えば、本願は以下の項目を提供する。
(項目1)
ディスプレイ上の少なくとも第1の位置で、第1のタッチフリージェスチャを促す第1のディスプレイ情報のユーザへの提示を可能にすることと、
前記ユーザによる第1のタッチフリージェスチャに相関付けられた、前記ディスプレイ上の第1のジェスチャリング位置に対応する少なくとも1つのイメージセンサからの第1のジェスチャ情報を受信することであって、前記第1のジェスチャリング位置は、ユーザの一方の眼がユーザの他方の眼に対して優位であることの結果として、前記第1のディスプレイ情報の位置と少なくとも部分的に異なっている、ことと、
前記第1のディスプレイ情報の前記位置および前記第1のジェスチャリング位置に関連付けられる第1のオフセットを決定することと、
前記ディスプレイ上の少なくとも第2の位置で、その後のタッチフリージェスチャを行うよう、前記ユーザに促す第2の情報の提示を可能にすることと、
前記ユーザによる後続のタッチフリージェスチャに対応する、前記少なくとも1つのイメージセンサからの後続のジェスチャ情報を受信することと、
前記後続のタッチフリージェスチャによって影響される前記ディスプレイ上の位置を決定するために、前記第1のオフセットを使用することと
を行うように構成された少なくとも1つのプロセッサを備える、タッチフリージェスチャ認識システム。
(項目2)
前記第1のタッチフリージェスチャおよび前記後続のタッチフリージェスチャは、指さしを含み、前記少なくとも1つのプロセッサはさらに、前記ディスプレイ上のポインティング位置を決定するために、前記少なくとも1つのイメージセンサからの前記第1のジェスチャ情報および前記後続のジェスチャ情報を使用するように構成される、項目1に記載のシステム。
(項目3)
前記少なくとも1つのプロセッサはさらに、前記後続のタッチフリージェスチャに関連付けられる、認識されたジェスチャを反映する送り先への出力を送信するように構成される、項目1に記載のシステム。
(項目4)
前記後続のジェスチャリング位置は、前記ユーザの一方の眼が前記ユーザの他方の眼に対して優位である結果として、前記ディスプレイ上の前記第2の情報の位置と少なくとも部分的に異なる、項目1に記載のシステム。
(項目5)
前記少なくとも1つのプロセッサはさらに、前記ユーザの第1の眼に関連付けられる少なくとも1つの第1の目線を用いて生成される第1の候補ポインティング領域と、前記ユーザの第2の眼に関連付けられる第2の目線を用いて生成される第2の候補ポインティング領域との少なくとも1つを特定することによって前記第1のオフセットを決定するように構成される、項目1に記載のシステム。
(項目6)
前記第1のオフセットに関連付けられる情報は、視線の計算の出発点として作用する瞳孔を除く顔上の位置に対応し、前記少なくとも1つのプロセッサはさらに、前記後続のタッチフリージェスチャの意図する位置を決定するために、前記顔上の前記瞳孔を除く位置を用いるように構成される、項目1に記載のシステム。
(項目7)
前記少なくとも1つのプロセッサは、前記ディスプレイ上における前記後続のタッチフリージェスチャの意図する位置を決定するために、前記第1のオフセットに関連付けられる情報を用いるように構成される、項目1に記載のシステム。
(項目8)
前記少なくとも1つのプロセッサはさらに、
前記第1の眼に関連付けられる位置から指先を通して前記ディスプレイ上まで通る第1の視線に関連付けられる、前記ディスプレイ上の第1の領域内の第1の点と、
前記第2の眼に関連付けられる第2の位置から前記指先を通して前記ディスプレイ上まで通る第2の視線に関連付けられる、前記ディスプレイ上の第2の領域内の第2の点と
の少なくとも1つを選択することにより、前記第1のジェスチャリング位置を決定するように構成される、項目1に記載のシステム。
(項目9)
前記少なくとも1つのプロセッサはさらに、前記第1の点および前記第2の点の略近傍における少なくとも第3の点を決定することにより、前記第1のジェスチャリング位置を決定するように構成される、項目8に記載のシステム。
(項目10)
前記少なくとも1つのプロセッサはさらに、前記ディスプレイの異なる領域について、眼球優位性に関連付けられる異なるオフセットを決定するように構成される、項目1に記載のシステム。
(項目11)
前記少なくとも1つのプロセッサはさらに、複数の異なる時間間隔で多数の候補ポインティング域領域を用いることにより、ポインティングの位置を決定するように構成される、項目1に記載のシステム。
(項目12)
前記少なくとも1つのプロセッサはさらに、複数のユーザのそれぞれについて、前記第1のオフセットに関連付けられる固有情報を格納するように構成される、項目1に記載のシステム。
(項目13)
前記少なくとも1つのプロセッサはさらに、前記複数のユーザのそれぞれについての識別に関連付けられる、前記少なくとも1つのイメージセンサから受信される情報を、前記格納される固有情報として格納するように構成される、項目12に記載のシステム。
(項目14)
前記少なくとも1つのプロセッサはさらに、前記複数のユーザのそれぞれについて瞳孔を除く顔上の位置に関する情報を、前記格納される固有情報として格納するように構成される、項目12に記載のシステム。
(項目15)
前記第1のオフセットに関連付けられる情報は、前記ユーザの一方の眼が、前記ユーザの他方の眼に対して優位であるという標示を含む、項目1に記載のシステム。
(項目16)
前記第1のオフセットに関連付けられる情報は、前記ユーザの前記一方の眼が、前記ユーザの前記他方の眼に対して優位である度合いの標示を含む、項目1に記載のシステム。
(項目17)
少なくとも1つのプロセッサによって実行されるとき、
ディスプレイ上の少なくとも第1の位置における第1のタッチフリージェスチャを促す第1のディスプレイ情報のユーザへの提示を可能にすることと、
前記ユーザによる第1のタッチフリージェスチャに相関付けられた前記ディスプレイ上の第1のジェスチャリング位置に対応する少なくとも1つのイメージセンサからの第1のジェスチャ情報を受信することであって、前記第1のジェスチャリング位置は、少なくとも部分的に、ユーザの一方の眼がユーザの他方の眼に対して優位的であることの結果として、第1のディスプレイ情報の位置とは異なる、ことと、
前記第1のディスプレイ情報の位置および前記第1のジェスチャリング位置に関連付けられる第1のオフセットを決定することと、
前記ディスプレイ上の少なくとも第2の位置における後続のタッチフリージェスチャを行うことを前記ユーザに促す第2の情報の提示を可能にすることと、
前記ユーザによる後続のタッチフリージェスチャに対応する少なくとも1つのイメージセンサからの後続のジェスチャ情報を受信することと、
前記後続のタッチフリージェスチャによって影響される、前記ディスプレイ上の位置を決定するために前記第1のオフセットを用いることと
を含む動作を前記少なくとも1つのプロセッサが行うようにする指示を含む、非一過性コンピュータ可読媒体。
(項目18)
前記後続のジェスチャリング位置は、前記ユーザの一方の眼が、前記ユーザの他方の眼に対して優位であることを示す情報の結果、前記ディスプレイ上の前記第2の情報の位置と少なくとも部分的に異なる、項目17に記載の非一過性コンピュータ可読媒体。
(項目19)
前記指示は、前記少なくとも1つのプロセッサによって実行されるときさらに、前記ユーザの第1の眼に関連付けられる少なくとも1つの第1の目線を用いて生成される第1の候補ポインティング領域と、前記ユーザの第2の眼に関連付けられる第2の目線を用いて生成される第2の候補ポインティング領域との少なくとも1つを特定することにより、前記第1のオフセットを決定することを含む追加的動作を前記少なくとも1つのプロセッサに行わせる、項目17に記載の非一過性コンピュータ可読媒体。
(項目20)
前記第1のオフセットに関連付けられる前記情報は、瞳孔を除く顔上の位置に対応して視線計算の出発点として作用し、前記指示は、前記少なくとも1つのプロセッサによって実行されるとき、前記後続のタッチフリージェスチャの意図する位置を決定するために、前記顔上の瞳孔を除く位置を用いることを含む追加的動作を前記少なくとも1つのプロセッサに行わせるようにする、項目17に記載の非一過性コンピュータ可読媒体。
It is to be understood that both the foregoing general description and the following detailed description are for the purpose of illustration and description only and are not intended to limit the scope of the claims.
For example, the present application provides the following items.
(Item 1)
Enabling presentation to a user of first display information prompting a first touch free gesture at at least a first position on the display;
Receiving first gesture information from at least one image sensor corresponding to a first gesturing position on the display, correlated to a first touch free gesture by the user; The gesturing position of 1 being at least partially different from the position of the first display information as a result of the user's one eye predominating over the other eye of the user;
Determining a first offset associated with the position of the first display information and the first gesturing position;
Enabling presentation of second information prompting the user to perform a subsequent touch free gesture at at least a second position on the display;
Receiving subsequent gesture information from the at least one image sensor, corresponding to a subsequent touch free gesture by the user;
A touch-free gesture recognition system comprising at least one processor configured to: use the first offset to determine a position on the display affected by the subsequent touch-free gesture. .
(Item 2)
The first touch free gesture and the subsequent touch free gesture include a pointing, and the at least one processor is further operable to determine the pointing position from the at least one image sensor to determine a pointing position on the display. The system of claim 1, wherein the system is configured to use one gesture information and the subsequent gesture information.
(Item 3)
The system of claim 1, wherein the at least one processor is further configured to transmit an output to a destination reflecting a recognized gesture that is associated with the subsequent touch free gesture.
(Item 4)
Item 1 wherein the subsequent gesturing position is at least partially different from the position of the second information on the display as a result of one eye of the user taking precedence over the other eye of the user The system described in.
(Item 5)
The at least one processor is further configured to: generate a first candidate pointing area generated using at least one first line of sight associated with a first eye of the user; and a second associated with a second eye of the user The system of claim 1, wherein the system is configured to determine the first offset by identifying at least one of a second candidate pointing area generated using two eyes.
(Item 6)
The information associated with the first offset corresponds to a location on the face other than the pupil that acts as a starting point for the gaze calculation, and the at least one processor further determines the intended location of the subsequent touch free gesture The system according to claim 1, configured to use a position on the face excluding the pupil to determine.
(Item 7)
The system of claim 1, wherein the at least one processor is configured to use information associated with the first offset to determine an intended position of the subsequent touch free gesture on the display. .
(Item 8)
The at least one processor further comprises:
A first point in a first area on the display, associated with a first line of sight passing from a position associated with the first eye through the fingertip to the top of the display;
Selecting at least one of a second point in a second area on the display associated with a second line of sight passing from the second position associated with the second eye to the display through the fingertip to the display The system according to claim 1, wherein the system is configured to determine the first gesturing position by:
(Item 9)
The at least one processor is further configured to determine the first gesturing position by determining at least a third point substantially proximate to the first point and the second point; The system according to item 8.
(Item 10)
The system of claim 1, wherein the at least one processor is further configured to determine different offsets associated with ocular dominance for different areas of the display.
(Item 11)
The system of claim 1, wherein the at least one processor is further configured to determine a position of pointing by using multiple candidate pointing area regions at multiple different time intervals.
(Item 12)
The system of claim 1, wherein the at least one processor is further configured to store, for each of a plurality of users, unique information associated with the first offset.
(Item 13)
The at least one processor is further configured to store, as the stored unique information, information received from the at least one image sensor associated with an identification for each of the plurality of users The system according to 12.
(Item 14)
13. The system of claim 12, wherein the at least one processor is further configured to store, as the stored unique information, information regarding a position on the face excluding a pupil for each of the plurality of users.
(Item 15)
The system of claim 1, wherein the information associated with the first offset includes an indication that one eye of the user is superior to the other eye of the user.
(Item 16)
The system of claim 1, wherein the information associated with the first offset includes an indication of the degree to which the one eye of the user is superior to the other eye of the user.
(Item 17)
When executed by at least one processor,
Enabling presentation to a user of first display information prompting a first touch free gesture at at least a first position on the display;
Receiving first gesture information from at least one image sensor corresponding to a first gesture location on the display correlated to a first touch free gesture by the user, the first gesture information The gesturing position of the first display information may differ from the position of the first display information, at least in part as a result of the user's one eye predominating over the other eye of the user
Determining a position of the first display information and a first offset associated with the first gesturing position;
Enabling the presentation of second information prompting the user to make a subsequent touch free gesture at at least a second position on the display;
Receiving subsequent gesture information from at least one image sensor corresponding to a subsequent touch free gesture by the user;
Non-one, including an indication to cause the at least one processor to perform an action that is affected by the subsequent touch free gesture, including using the first offset to determine a position on the display Transient computer readable medium.
(Item 18)
The subsequent gesturing position may be at least partially with the position of the second information on the display as a result of the information indicating that one eye of the user is superior to the other eye of the user. 18. A non-transitory computer readable medium according to item 17 which is different.
(Item 19)
The instruction is further executed by the at least one processor to: a first candidate pointing area generated using at least one first line of sight associated with the first eye of the user; Said additional action comprising determining said first offset by identifying at least one of a second candidate pointing area generated using a second line of sight associated with a second eye 18. A non-transitory computer readable medium according to item 17 which causes at least one processor to do.
(Item 20)
The information associated with the first offset acts as a starting point for gaze calculation in response to a position on the face other than the pupil, the indication being executed by the at least one processor. 18. A non-transient according to item 17, causing the at least one processor to perform additional operations including using a position on the face excluding a pupil to determine an intended position of a touch free gesture. Computer readable medium.

本明細書に組み込まれ本明細書の一部を構成する付随の図面は、本発明のいくつかの例示的実施形態を図示し、記述とともに、本発明の原理を説明するために役立つ。   The accompanying drawings, which are incorporated in and constitute a part of this specification, illustrate several exemplary embodiments of the present invention and, together with the description, serve to explain the principles of the present invention.

図1は、開示される実施形態のいくつかによる、タッチフリーユーザインタフェースシステムの例示的な描写表現を図示する。FIG. 1 illustrates an exemplary pictorial representation of a touch free user interface system according to some of the disclosed embodiments.

図2Aは、開示された実施形態のいくつかによる、タッチフリーユーザインタフェースの例示的な処理ユニットを図示する。FIG. 2A illustrates an exemplary processing unit of a touch free user interface according to some of the disclosed embodiments.

図2Bは、開示された実施形態のいくつかによる、システムの例示的なブロック図を図示する。FIG. 2B illustrates an exemplary block diagram of a system in accordance with some of the disclosed embodiments.

図3Aは、本発明の実施形態に関する方法、システム、およびコンピュータ可読媒体により使用され得る、例示的なオフセット決定ステップを図示する。FIG. 3A illustrates an exemplary offset determination step that may be used by methods, systems and computer readable media according to embodiments of the present invention.

図3Bは、本発明の実施形態に関する方法、システム、およびコンピュータ可読媒体により使用され得る、例示的なジェスチャ検出および特定ステップを図示する。FIG. 3B illustrates exemplary gesture detection and identification steps that may be used by methods, systems and computer readable media according to embodiments of the present invention.

図4は、開示された実施形態のいくつかによる、タッチフリーユーザインタフェースシステムの例示的な描写表現を図示する。FIG. 4 illustrates an exemplary pictorial representation of a touch free user interface system according to some of the disclosed embodiments.

図5は、本発明の実施形態に関する方法、システム、およびコンピュータ可読媒体により使用され得る、ポインティング位置を特定するための例示的なステップを図示する。FIG. 5 illustrates exemplary steps for identifying a pointing location that may be used by methods, systems and computer readable media according to embodiments of the present invention.

図6Aは、開示された実施形態のいくつかによる、タッチフリーユーザインタフェースシステムの例示的な描写表現を図示する。FIG. 6A illustrates an exemplary pictorial representation of a touch free user interface system according to some of the disclosed embodiments.

図6Bは、開示された実施形態のいくつかによる、タッチフリーユーザインタフェースシステムの例示的な描写表現を図示する。FIG. 6B illustrates an exemplary pictorial representation of a touch free user interface system according to some of the disclosed embodiments.

図7は、本発明の実施形態に関する方法、システム、およびコンピュータ可読媒体により使用され得る、例示的な較正ステップを図示する。FIG. 7 illustrates an exemplary calibration step that may be used by methods, systems and computer readable media according to embodiments of the present invention.

図8は、開示された実施形態のいくつかによる、タッチフリーユーザインタフェースシステムの例示的な描写表現を図示する。FIG. 8 illustrates an exemplary pictorial representation of a touch free user interface system according to some of the disclosed embodiments.

図9は、本発明の実施形態に関する方法、システム、およびコンピュータ可読媒体により使用され得る、候補面または候補領域を特定するための例示的なステップを図示する。FIG. 9 illustrates exemplary steps for identifying candidate faces or regions that may be used by methods, systems and computer readable media according to embodiments of the present invention.

図10は、開示された実施形態のいくつかによる、例示的な候補面のベン図を図示する。FIG. 10 illustrates a Venn diagram of an exemplary candidate surface according to some of the disclosed embodiments.

図11は、本発明の実施形態に関連する方法、システム、およびコンピュータ可読媒体により使用され得る、例示的なジェスチャ追跡ステップを図示する。FIG. 11 illustrates exemplary gesture tracking steps that may be used by methods, systems and computer readable media associated with embodiments of the present invention.

図12は、本発明の実施形態に関する方法、システム、およびコンピュータ可読媒体により使用され得る、眼球優位性を決定するための例示的なステップを図示する。FIG. 12 illustrates exemplary steps for determining ocular dominance that may be used by methods, systems and computer readable media according to embodiments of the present invention.

図13は、開示された実施形態のいくつかによる、タッチフリーユーザインタフェースシステムの例示的な描写表現を図示する。FIG. 13 illustrates an exemplary pictorial representation of a touch free user interface system according to some of the disclosed embodiments.

図14は、開示された実施形態のいくつかによる、ユーザの顔の例示的な描写表現を図示する。FIG. 14 illustrates an exemplary pictorial representation of a user's face in accordance with some of the disclosed embodiments.

図15は、開示された実施形態のいくつかによる、ユーザの手の例示的な描写表現を図示する。FIG. 15 illustrates an exemplary pictorial representation of a user's hand, according to some of the disclosed embodiments.

図16Aは、開示された実施形態のいくつかによる、ポインティング視覚効果の例示的な描写表現を図示する。FIG. 16A illustrates an exemplary pictorial representation of pointing visual effects in accordance with some of the disclosed embodiments.

図16Bは、開示された実施形態のいくつかによる、ポインティング視覚効果の例示的な描写表現を図示する。FIG. 16B illustrates an exemplary pictorial representation of pointing visual effects in accordance with some of the disclosed embodiments.

図17は、開示された実施形態のいくつかによる、タッチフリーユーザインタフェースシステムの例示的な描写表現を図示する。FIG. 17 illustrates an exemplary pictorial representation of a touch free user interface system according to some of the disclosed embodiments.

ここで、付随の図面に図示される例示的実施形態を詳細に参照する。可能な限り、同じ参照番号は、図面全体を通して同じまたは同等部分を指すために使用されるであろう。   Reference will now be made in detail to the exemplary embodiments illustrated in the accompanying drawings. Wherever possible, the same reference numbers will be used throughout the drawings to refer to the same or like parts.

図1は、ディスプレイ6を有するデバイス4のタッチフリー動作のためのシステム2の実施形態を描写する。デバイス4は、例えば、携帯電話、スマート眼鏡、パーソナルコンピュータ(PC)、娯楽デバイス、セットトップボックス、テレビ、携帯ゲーム機、タブレットコンピュータ、電子リーダー、携帯型ゲーム機、ラップトップまたはウルトラブック等の携帯型コンピュータ、台所用品等の家電製品、通信デバイス、空調サーモスタット、ドッキングステーション、携帯ビデオゲームデバイス等のゲーム機、デジタルカメラ、時計、エンターテイメントデバイス、スピーカー、スマートホームデバイス、メディアプレーヤまたはメディアシステム、位置ベースのデバイス、ピコプロジェクタまたは埋め込み型プロジェクタ、医療ディスプレイデバイス等の医療デバイス、車両、車載/空中インフォテイメントシステム、ナビゲーションシステム、ウェアラブルデバイス、拡張現実対応のデバイス、ウェアラブルゴーグル、ロボット、対話型デジタル看板、デジタルキオスク、自動販売機、現金自動預け払い機(ATM)、またはユーザからデータを受信するもしくはユーザへデータを出力する任意の他の装置もしくはシステムを含み得る。   FIG. 1 depicts an embodiment of a system 2 for touch free operation of a device 4 having a display 6. The device 4 is, for example, a mobile phone, smart glasses, personal computer (PC), entertainment device, set top box, television, portable game console, tablet computer, electronic reader, portable game console, laptop or ultra book, etc. Computers, home appliances such as kitchenware, communication devices, air conditioning thermostats, docking stations, game machines such as portable video game devices, digital cameras, watches, entertainment devices, speakers, smart home devices, media players or media systems, position based Devices, pico projectors or embedded projectors, medical devices such as medical display devices, vehicles, in-vehicle / air infotainment systems, navigation systems Wearable devices, devices compatible with augmented reality, wearable goggles, robots, interactive digital signage, digital kiosks, vending machines, automated teller machines (ATMs), or any other means of receiving data from or outputting data to a user Other devices or systems.

ディスプレイ6は、画像または他の視覚情報の表示を引き起こし得る任意の平面、表面、または他の手段を含んでもよい。さらに、ディスプレイ6は、平面または表面上に画像または可視情報を投影する任意のタイプのプロジェクタを含んでもよい。例えば、ディスプレイ6は、テレビ受像機、コンピュータモニタ、ヘッドマウントディスプレイ、放送用参照モニタ、液晶ディスプレイ(LCD)スクリーン、発光ダイオード(LED)ベースのディスプレイ、LEDバックライトLCDディスプレイ、陰極線管(CRT)ディスプレイ、エレクトロルミネッセンス(ELD)ディスプレイ、電子ペーパー/インクディスプレイ、プラズマディスプレイパネル、有機発光ダイオード(OLED)ディスプレイ、薄膜トランジスタ(TFT)ディスプレイ、ハイパフォーマンスアドレッシング(HPA)ディスプレイ、表面伝導型電子放出素子ディスプレイ、量子ドットディスプレイ、干渉変調器ディスプレイ、掃引容積ディスプレイ、カーボンナノチューブディスプレイ、可変焦点ミラーディスプレイ、発光体積型ディスプレイ、レーザディスプレイ、ホログラフィックディスプレイ、光照射野ディスプレイ、壁、三次元ディスプレイ、電子インクディスプレイ、および視覚情報を出力するための任意の他の電子デバイスの1つまたはそれを上回るものを含み得る。ディスプレイ6は、タッチスクリーンを含むまたはその一部であってもよい。図1は、デバイス4の一部としてのディスプレイ6を描写する。しかしながら、代替的実施形態では、ディスプレイ6は、デバイス4の外部にあってもよい。   Display 6 may include any plane, surface, or other means that can cause the display of an image or other visual information. Further, the display 6 may include any type of projector that projects image or visible information on a flat or surface. For example, the display 6 may be a television receiver, computer monitor, head mounted display, broadcast reference monitor, liquid crystal display (LCD) screen, light emitting diode (LED) based display, LED backlight LCD display, cathode ray tube (CRT) display , Electroluminescent (ELD) display, electronic paper / ink display, plasma display panel, organic light emitting diode (OLED) display, thin film transistor (TFT) display, high performance addressing (HPA) display, surface conduction electron emission element display, quantum dot display , Interferometric modulator display, swept volume display, carbon nanotube display, variable focus mirror One or more of a splay, light emitting volume display, laser display, holographic display, light field display, wall, three dimensional display, electronic ink display, and any other electronic device for outputting visual information May include. The display 6 may include or be part of a touch screen. FIG. 1 depicts a display 6 as part of a device 4. However, in alternative embodiments, the display 6 may be external to the device 4.

システム2はまた、デバイス4に隣接して配置され、破線10で囲まれた3次元(3−D)視空間の画像を取得するように構成された、イメージセンサ8も含み得る(またはこれから情報を受信し得る)。イメージセンサ8は、例えば、カメラ、光センサ、赤外線(IR)センサ、超音波センサ、近接センサ、CMOSイメージセンサ、短波赤外線(SWIR)イメージセンサ、または反射率センサ、CCDイメージセンサ、反射率センサ、3次元イメージセンサまたは2つもしくはそれを上回る2次元(2−D)立体イメージセンサを含む奥行きビデオシステム、および環境の視覚特性を検知することが可能な任意の他のデバイスのうちの1つまたはそれを上回るものを含む、任意の画像取得デバイスを含み得る。一例として、図1は、デバイス4に隣接するイメージセンサ8を描写するが、代替的実施形態では、イメージセンサ8は、デバイス4に組み込まれる、またはデバイス4から離れても配置され得る。   The system 2 may also include an image sensor 8 (or from which information is placed adjacent to the device 4 and configured to acquire an image of a three-dimensional (3-D) view space enclosed by a dashed line 10 Can receive The image sensor 8 is, for example, a camera, an optical sensor, an infrared (IR) sensor, an ultrasonic sensor, a proximity sensor, a CMOS image sensor, a short wave infrared (SWIR) image sensor, or a reflectance sensor, a CCD image sensor, a reflectance sensor, A depth video system that includes a three-dimensional image sensor or two or more two-dimensional (2-D) stereoscopic image sensors, and one of any other devices capable of detecting visual characteristics of the environment It may include any image acquisition device, including more than that. As an example, FIG. 1 depicts image sensor 8 adjacent to device 4, but in alternative embodiments, image sensor 8 may be incorporated into device 4 or be located remotely from device 4.

破線10で示される視空間に位置するユーザ16は、イメージセンサ8により得られた画像に現れ得る。イメージセンサ8は、2−Dまたは3−Dモノクロ、カラー、またはIRのビデオを、イメージセンサ8と一体のまたは有線もしくは無線の通信チャネルによってメージセンサ8に接続された処理ユニット12に出力し得る。   A user 16 located in the viewing space indicated by the dashed line 10 may appear in the image obtained by the image sensor 8. The image sensor 8 may output 2-D or 3-D monochrome, color or IR video to the processing unit 12 connected to the image sensor 8 by a communication channel integral with the image sensor 8 or by a wired or wireless communication channel.

本発明の実施形態は、少なくとも1つのプロセッサを含んでもよい。本明細書で使用されるように、用語「プロセッサ」は、単数または複数の入力に対して論理演算を実行する電気回路を含み得る。例えば、そのようなプロセッサは、1つまたはそれを上回る集積回路、マイクロチップ、マイクロコントローラ、マイクロプロセッサ、中央演算処理装置(CPU)の全部または一部、グラフィックス処理ユニット(GPU)、デジタル信号プロセッサ(DSP)、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)、または指示を実行するもしくは論理演算を実行するために好適な任意の他の回路を含み得る。少なくとも1つのプロセッサは、例えば、図2Aに描写される処理ユニット12等の処理装置と一致するまたはその一部を構成し得る。図2Aの処理ユニット12は、とりわけ、プロセッサ15と、イメージセンサ8によって得られた画像を格納するために用いられ得るメモリ13とを含み得る。処理ユニット12および/またはプロセッサ15は、プロセッサ15および/またはメモリ13内にある1つまたはそれを上回る指示を実行するように構成され得る。   Embodiments of the invention may include at least one processor. As used herein, the term "processor" may include an electrical circuit that performs logical operations on one or more inputs. For example, such a processor may be one or more integrated circuits, microchips, microcontrollers, microprocessors, all or part of a central processing unit (CPU), graphics processing unit (GPU), digital signal processor (DSP), field programmable gate array (FPGA), application specific integrated circuit (ASIC), or any other circuit suitable for performing instructions or performing logic operations. The at least one processor may, for example, correspond to or form part of a processing device, such as the processing unit 12 depicted in FIG. 2A. The processing unit 12 of FIG. 2A may include, inter alia, a processor 15 and a memory 13 that may be used to store the image obtained by the image sensor 8. Processing unit 12 and / or processor 15 may be configured to execute one or more instructions within processor 15 and / or memory 13.

メモリ13は、例えば、持続性メモリ、ROM、EEPROM、EAROM、フラッシュメモリデバイス、磁気ディスク、光磁気ディスク、CD―ROM、DVD―ROM、およびブルーレイメディアのうちの1つまたはそれを上回るものを含み得、指示(すなわち、ソフトウェアまたはファームウェア)および/または他のデータを含み得る。図2Aは、処理ユニット12の一部としてメモリ13を描写するが、他の実施形態では、メモリ13は、処理ユニット12の外部にあってもよい。   The memory 13 includes, for example, one or more of persistent memory, ROM, EEPROM, EAROM, flash memory device, magnetic disk, magneto-optical disk, CD-ROM, DVD-ROM, and Blu-ray media. And may include instructions (ie, software or firmware) and / or other data. Although FIG. 2A depicts memory 13 as part of processing unit 12, in other embodiments, memory 13 may be external to processing unit 12.

処理ユニット12は、イメージセンサ8により得られた画像を解析し、ディスプレイ6と対話するためにユーザ16によって利用され得る1つまたはそれを上回る所定のポインティング要素を追跡するように構成され得る。ポインティング要素は、例えば、イメージセンサ8の視空間に配置されたユーザ16の指先14を含み得る。いくつかの実施形態では、ポインティング要素は、例えば、ユーザ16の1つまたはそれを上回る手、手の一部、1つまたはそれを上回る指、1つまたはそれを上回る指の一部、および1つまたはそれを上回る指先14、または手持ち式スタイラスを含み得る。図1は、ポインティング要素として指先14を示すが、他のポインティング要素は、同様に使用され得、同じ目的を果たし得る。このように、指先14が本明細書で言及される場合、それは例としてのみ考慮されるべきであって、他のポインティング要素をも含むものとして広く解釈されるべきである。   The processing unit 12 may be configured to analyze the image obtained by the image sensor 8 and track one or more predetermined pointing elements that may be utilized by the user 16 to interact with the display 6. The pointing element may include, for example, the fingertip 14 of the user 16 disposed in the viewing space of the image sensor 8. In some embodiments, the pointing element includes, for example, one or more hands of the user 16, a portion of the hand, one or more fingers, a portion of one or more fingers, and One or more finger tips 14 may be included, or a hand-held stylus. Although FIG. 1 shows a fingertip 14 as a pointing element, other pointing elements may be used as well and serve the same purpose. Thus, when the fingertip 14 is referred to herein, it should be considered as an example only, and should be broadly interpreted as also including other pointing elements.

処理ユニット12は、ユーザ16が指先14を向けて指し得るディスプレイ6上のアイコン20等のディスプレイ情報を提示するように構成され得る。処理ユニット12は、ユーザ16が指す位置に対応する出力18(インジケータ18)をディスプレイ6上に示すように構成され得る。例えば、図17に示すように、ユーザ16は、ディスプレイ6のディスプレイ情報(アイコン20)を指す意図があるとする。この実施例では、処理ユニット12は、ユーザ16がジェスチャリング位置19を実際に指していると判定し得る。しかしながら、処理ユニット12は、ディスプレイ情報とジェスチャリング位置19との間の差に関連するオフセットOを決定し得る。オフセットOに関する情報を部分的に使用して、処理ユニット12は、ユーザの意図を反映するディスプレイ6の送り先に出力(例えば、インジケータ18)を送信し得る。図17に示される実施例では、インジケータ18は、ユーザ16が実際にはジェスチャリング位置19を指しているにもかかわらず、アイコン20と同じ位置に表示される。   The processing unit 12 may be configured to present display information, such as an icon 20 on the display 6 that the user 16 may point to the fingertip 14. The processing unit 12 may be configured to show on the display 6 an output 18 (indicator 18) corresponding to the position to which the user 16 points. For example, as shown in FIG. 17, it is assumed that the user 16 intends to indicate display information (icon 20) on the display 6. In this example, processing unit 12 may determine that user 16 is actually pointing to gesturing position 19. However, the processing unit 12 may determine an offset O associated with the difference between the display information and the gesturing position 19. Using, in part, the information regarding the offset O, the processing unit 12 may send an output (e.g., an indicator 18) to the display 6 destination that reflects the user's intent. In the embodiment shown in FIG. 17, the indicator 18 is displayed at the same position as the icon 20, even though the user 16 actually points to the gesturing position 19.

ジェスチャリング位置19は、ユーザが指す位置としてシステム2により何らかの地点に画定されるディスプレイ6上の位置に関連付けられた任意の数学的表現であってもよい。ジェスチャリング位置19は、ディスプレイ上の特定の座標(x、y)または(3−Dディスプレイの場合にはx、y、z)を含み得る。ジェスチャリング位置19は、ディスプレイ6上の領域または位置(例えば、候補面)を含み得る。加えて、ジェスチャリング位置19は、ディスプレイ上の位置に関連する確率関数(例えば、3次元ガウス関数等)として定義され得る。ジェスチャリング位置19は、ジェスチャリング位置19のディスプレイ6上の位置の推定がどの程度正確かを示す確率指標等、検出の品質を記述する追加の数字のセットに関連付けられ得る。   The gesturing position 19 may be any mathematical representation associated with a position on the display 6 defined at some point by the system 2 as the position the user points to. The gesturing position 19 may include specific coordinates (x, y) or (x, y, z in the case of a 3-D display) on the display. The gesturing position 19 may include an area or position (eg, a candidate surface) on the display 6. In addition, the gesturing position 19 may be defined as a probability function (eg, a three-dimensional Gaussian function, etc.) associated with the position on the display. The gesturing position 19 may be associated with a set of additional numbers describing the quality of the detection, such as a probability index indicating how accurate the estimation of the position of the gesturing position 19 on the display 6 is.

例えば、ユーザ16にデジタル情報を提示する能力を含む着用可能な眼鏡等のスマート眼鏡の場合には、ジェスチャリング位置は、スマート眼鏡ディスプレイによって提示されるデジタル情報をユーザが見るように知覚する面である仮想平面の位置として画定され得る。   For example, in the case of smart glasses, such as wearable glasses that include the ability to present digital information to the user 16, the gesturing position is such that the user perceives the digital information presented by the smart glasses display to be viewed It can be defined as the position of a certain virtual plane.

ディスプレイ情報は、静止画像、動画像、(アイコン等の)対話型オブジェクト、ビデオ、および/または情報の視覚的な表現を含み得る。ディスプレイ情報は、上記のような任意のディスプレイ方法により表示され得、フラットディスプレイ、湾曲したディスプレイ、プロジェクタ、着用可能な眼鏡で使用されるような透明ディスプレイおよび/またはユーザの眼もしくは瞳孔に直接的または間接的に投影するディスプレイを含み得る。   Display information may include still images, moving images, interactive objects (such as icons), videos, and / or visual representations of information. The display information may be displayed by any display method as described above, and may be directly on the flat display, curved display, transparent display as used in projectors, wearable glasses and / or the eye or pupil of the user or It may include a display that projects indirectly.

指されたアイコンの標示またはフィードバックは、例えば、視覚的標示、オーディオ標示、触覚標示、超音波標示、および触覚標示のうちの1つまたはそれを上回るものによって提供され得る。視覚的標示を表示することは、例えば、ディスプレイ6上にアイコンを表示すること、ディスプレイ6上のアイコンを変えること、ディスプレイ6上のアイコンの色を変えること、標示灯を表示すること、ハイライト、シャドーイング、または他の効果を表示すること、ディスプレイ6上のインジケータを動かすこと、方向の振動標示を提供すること、および/または空気の触覚標示を提供することを含み得る。視覚的インジケータは、ディスプレイ6上に現れる全ての他の画像または映像の上方(または前)に現れ得る。ユーザ16により選択されるディスプレイ6上のアイコン等の視覚的インジケータは、共通の目線24(または視線)上にあるユーザの眼22および指先14と同一線上にあり得る。本明細書で使用されるように、また、より詳細に後述される理由のため、用語「ユーザの眼」は、視線に関するユーザの顔の位置や面積を規定する略語である。したがって、本明細書で使用されるように、用語「ユーザの眼」は、いずれかの眼の瞳孔または眼の他の特徴、ユーザの眼の間の顔の位置、またはユーザの少なくとも1つの眼に関連するユーザの顔上の位置、または視線に相関付けられ得る顔のある他の解剖学的特徴を包含する。この概念は、時として「仮想の眼」と称される。   Marking or feedback of the pointed icon may be provided, for example, by one or more of visual marking, audio marking, tactile marking, ultrasound marking, and tactile marking. Displaying a visual indicator may, for example, display an icon on the display 6, change the icon on the display 6, change the color of the icon on the display 6, display an indicator light, highlight , Displaying shadowing or other effects, moving an indicator on the display 6, providing a vibratory indication of direction, and / or providing a tactile indication of air. A visual indicator may appear above (or in front of) any other image or video appearing on the display 6. A visual indicator such as an icon on display 6 selected by user 16 may be co-linear with the user's eyes 22 and fingertips 14 on a common line of sight 24 (or gaze). As used herein, and for reasons that will be described in more detail below, the term "user's eye" is an abbreviation that defines the position or area of the user's face relative to the line of sight. Thus, as used herein, the term "user's eye" refers to the pupil or any other feature of the eye, the position of the face between the user's eyes, or at least one eye of the user And position on the user's face associated with the subject, or some other anatomical feature of the face that can be correlated to the line of sight. This concept is sometimes referred to as a "virtual eye."

アイコンは、ディスプレイ6に表示され、ユーザ16により選択され得る例示的なグラフィカル要素である。アイコンに加えて、グラフィカル要素はまた、例えば、表示された画像および/または動画中に表示されたオブジェクト、ディスプレイ6上または表示されたファイル内に表示されたテキスト、および対話型ゲーム内に表示されたオブジェクトを含み得る。本記述全体を通して、用語「アイコン」および「グラフィカル要素」は、任意の表示された情報を含むように広く使用される。   The icons are exemplary graphical elements that can be displayed on the display 6 and selected by the user 16. In addition to the icons, the graphical elements are also displayed, for example, the objects displayed in the displayed image and / or the animation, the text displayed on the display 6 or in the displayed file, and in the interactive game May contain objects. Throughout this description, the terms "icon" and "graphical element" are used broadly to include any displayed information.

図3Aのステップ313に描写されるように、本発明の実施形態は、ディスプレイ6上の少なくとも第1の位置で、第1のタッチフリージェスチャを促す情報の第1のディスプレイの、ユーザ16への提示を可能にし得る。提示を可能にすることは、例えば、情報またはその表現がディスプレイ6を介してユーザ16に提示されるように、プロセッサ15からディスプレイデバイスにデータを送信することによって生じ得る。表現は、図1に例としてのみ図示されるように、ディスプレイ6に向かってタッチフリージェスチャを行うことをユーザ16に呼び起こす、または促すように設計され得る。特に、図1は、指差しタッチフリージェスチャを行うユーザ16を描写する。ディスプレイ6上の第1の位置は、概して、ディスプレイ情報の位置に対応する。対応は、さらに詳細に後述するように、ユーザの知覚(すなわち、表示される情報)と表示された情報の実際の位置(すなわち、ジェスチャリング位置)との間に違いがあり得るため正確でないことがあり得る。第1の情報は、以下に詳述されるように、例えば、グラフィカル要素、アイコン、または他の情報を含み得る。   As depicted in step 313 of FIG. 3A, embodiments of the present invention provide the user 16 with a first display of information prompting a first touch free gesture at at least a first position on the display 6. May make presentation possible. Enabling the presentation may occur, for example, by transmitting data from the processor 15 to the display device such that the information or a representation thereof is presented to the user 16 via the display 6. The representation may be designed to evoke or prompt the user 16 to make a touch free gesture towards the display 6, as illustrated by way of example only in FIG. In particular, FIG. 1 depicts a user 16 performing a pointing hand free gesture. The first position on the display 6 generally corresponds to the position of the display information. The correspondence is not accurate as there may be a difference between the user's perception (i.e. the displayed information) and the actual position of the displayed information (i.e. the gesturing position) as described in more detail below. There is a possibility. The first information may include, for example, graphical elements, icons, or other information as detailed below.

例えば、処理ユニット12はまた、1つまたはそれを上回る選択可能なグラフィカル要素またはアイコンをディスプレイ6上に表示するように構成され得る。図1は、例示的な4つのアイコン20a、20b、20c、および20dを図示する。しかしながら、いくつかの実施形態では、任意数のアイコンが、任意の時間にディスプレイ6に表示されてもよい。アイコン20a−20dはいずれも、ユーザ16が選択しようとする特定のアイコンを指先14で指すことによりユーザ16により選択され得る。   For example, processing unit 12 may also be configured to display one or more selectable graphical elements or icons on display 6. FIG. 1 illustrates four exemplary icons 20a, 20b, 20c, and 20d. However, in some embodiments, any number of icons may be displayed on the display 6 at any time. Any of the icons 20a-20d may be selected by the user 16 by pointing at the particular icon that the user 16 is to select.

図3Aのステップ315に描写されるように、本発明の実施形態は、ユーザ16による第1のタッチフリージェスチャに相関付けられ、これを反映するディスプレイ6上の第1のジェスチャリング位置に対応する第1のジェスチャ情報を受信し得る。第1のジェスチャ情報は、より詳細に後述するように、任意の動きまたはポーズに対応し得る。ジェスチャ情報は、例えば、検出されたハンドジェスチャまたはポインティング要素に対応する数値またはグラフィックデータを含み得る。数値またはグラフィックデータは、少なくとも1つのプロセッサ15によって受信され得、プロセッサ15は、それを既知のディスプレイ位置に相関付け得る。   As depicted in step 315 of FIG. 3A, embodiments of the present invention correspond to a first gesturing position on the display 6 that is correlated and reflects a first touch free gesture by the user 16 The first gesture information may be received. The first gesture information may correspond to any movement or pose, as described in more detail below. The gesture information may include, for example, numerical value or graphic data corresponding to the detected hand gesture or pointing element. Numeric or graphic data may be received by the at least one processor 15, which may correlate it to a known display position.

処理ユニット12は、所定の基準に基づいてユーザ16によるアイコンの選択を特定するように構成され得る。例えば、ユーザ16がアイコンを所定の時間(すなわち、所定の秒数)にわたり指したとき、処理ユニット12は、このアイコンを選択し得る。加えて、処理ユニット12は、ユーザ16が選択されるアイコンに向かって所定の動作を行うとき、ユーザ16によるアイコンの選択を特定するように構成され得る。例えば、所定の動作は、選択されたアイコンに向かう指先14の動きの後に選択されたアイコンから離れる指先14の動きが続くタッピング動作を含み得る。システム2は、ユーザ16がアイコンを指して選択したときに、視覚および/または音声フィードバックを生成するように構成され得る。例えば、1つのアイコンがディスプレイ6上に配置され、ユーザのジェスチャが検出された場合、システム2は、ユーザ16が表示されたアイコンだけに向かってジェスチャすると仮定するように構成され得る。多数のアイコンが表示される場合、システム2は、ユーザのジェスチャに関連付けられるジェスチャリング位置19に最も近いアイコンに向かってユーザ16がジェスチャすると仮定するように構成され得る。   Processing unit 12 may be configured to identify the selection of the icon by user 16 based on predetermined criteria. For example, processing unit 12 may select the icon when user 16 points the icon for a predetermined amount of time (ie, a predetermined number of seconds). In addition, processing unit 12 may be configured to identify the selection of the icon by user 16 as the user 16 performs a predetermined action towards the selected icon. For example, the predetermined movement may include a tapping movement followed by movement of the fingertip 14 away from the selected icon after movement of the fingertip 14 towards the selected icon. The system 2 may be configured to generate visual and / or audio feedback when the user 16 selects by pointing to an icon. For example, if one icon is placed on the display 6 and a user gesture is detected, the system 2 may be configured to assume that the user 16 gestures only to the displayed icon. If multiple icons are displayed, system 2 may be configured to assume that user 16 gestures towards the icon closest to the gesturing position 19 associated with the user's gesture.

さらに詳細に後述するように、一方よりも優位な1つの眼をユーザ16が有し得るため、ディスプレイ6上の実際のジェスチャリング位置(検出されるポインティング位置)は、ユーザ16が自身が指していると考えるアイコンの実際の表示位置と異なり得る。したがって、タッチフリージェスチャシステムの精度を高めるために、システムは、図17および図3Aのステップ317に概して描写され、より詳細に後述されるように、第1の表示情報(例えば、アイコン20)の位置および第1のジェスチャリング位置19に関連付けられるオフセットOを決定することを可能にされ得る。オフセットOは、多くの異なる方法で決定され、適用され得る。例えば、オフセットOは、ユーザの両眼間の中心点からのオフセット位置で「仮想の眼」を選択することにより達成され得、仮想の眼は、視線の出発点として使用され得る。代わりに、オフセットOは、ユーザ16がジェスチャするアイコン(例えば、アイコン20)とジェスチャリングの検出された位置、すなわち、ジェスチャリング位置19との間のディスプレイ上で検出された差に基づいて決定され得る。実施例およびさらなる詳細は、図12、13、および17に関連して、後に提供される。   As will be described in more detail below, the user 16 may have one dominant eye over the other, so the actual gesturing position on the display 6 (pointing position to be detected) is pointed to by the user 16 himself. It may differ from the actual display position of the icon considered to be on. Thus, to enhance the accuracy of the touch free gesture system, the system is depicted generally at step 317 of FIGS. 17 and 3A, and as described in more detail below, of the first display information (eg, icon 20). It may be enabled to determine the position and the offset O associated with the first gesturing position 19. The offset O can be determined and applied in many different ways. For example, the offset O may be achieved by selecting a "virtual eye" at an offset position from the center point between the user's eyes, and the virtual eye may be used as a starting point of gaze. Instead, the offset O is determined based on the detected difference between the icon (e.g. icon 20) the user 16 gestures and the detected position of the gesturing, i.e. the gesturing position 19 obtain. Examples and further details will be provided later in connection with FIGS. 12, 13 and 17.

記述は、時として単一オフセットOの決定について述べるが、これは省略であり、システムは、高いレベルの精度を潜在的に達成するために(連続的または定期的な間隔で)多数のオフセットを決定することが可能であるとともに、ディスプレイ6上の異なる位置に関連し、アイコンの異なるサイズに関連し、アイコンの異なるクラスタに関連し、またはジェスチャの位置が検出されるディスプレイ上の領域または位置内でのアイコン間の距離に関連する、多数のオフセットを決定することも可能であることを理解すべきである。さらに、オフセットは、1つの座標、2つの座標、または3−Dの場合には3つの座標で表される任意の方向に存在し得る。さらに、オフセットOは、ユーザが指していると知覚するディスプレイ上の位置とシステム2の指示によるジェスチャリング位置19との差異に関連付けられる任意の数学的表現であり得る。オフセットOは、ディスプレイ6自体上のこれら2つの位置間の距離(例えば、右に24ピクセル、上に8ピクセル)、2つの位置間の差を示すベクトル(2Dまたは3Dベクトル)、これら2つの位置の間の距離に関連する数字の組、および/またはこれらの2位置間の距離を表す式に関係し得る。オフセットOは、(ユーザの眼22等)ユーザの顔の他の解剖学的部位に対する「仮想の眼」の位置に関係し得る。オフセットOは、ユーザのポインティング要素(例えば、指先14)の位置に関係し得、ポインティング要素の検出位置を補正するために使用され得る。オフセットOはまた、「仮想の眼」の前を出発し、ポインティング要素を通してディスプレイ6と交差する、計算された目線24の任意の特徴に関係し得る。第2の情報が、図3Aのステップ319に示されるようにその後に表示され、ユーザ16が第2の情報に対してジェスチャするとき、図3Aのステップ321に示されるように、第2のジェスチャに関連付けられるグラフィカルまたは数値データは、イメージセンサ(例えば、図1中のイメージセンサ8)を介して受信され得、プロセッサ(例えば、図2Aのプロセッサ15)に転送され得る。他方に対して優位である一方の眼をユーザが有するという事実により、第2のまたは後続のジェスチャ位置は、第2の情報、すなわち、ユーザが指すことを意図する位置と正確に整合しない場合がある。しかしながら、ステップ323に示されるように、プロセッサ15は、前にステップ317で決定された第1のオフセット(または複数のオフセット)を用いて位置ずれを補正するように構成され得る。補正の結果、ユーザの意図は決定され得、対応する行動が開始され得る。1つのそのような行動は、ユーザの意図の表示表現を提供するように出力をディスプレイ6に送る(例えば、システムが、ユーザの指す位置がアイコンの左に3インチ外れていることを検出したとしても、オフセット補正は、カーソルがアイコン上またはその近傍に表示されるようにする)ことを含み得る。オフセットの例示的な動作は、図12および13に関連し、さらに詳細に述べられる。   The description sometimes refers to the determination of a single offset O, but this is an omission, and the system has a large number of offsets (at consecutive or periodic intervals) to potentially achieve a high level of accuracy. It is possible to determine and relate to different positions on the display 6, relate to different sizes of icons, relate to different clusters of icons, or within the area or position on the display where the position of the gesture is detected It should be understood that it is also possible to determine a number of offsets related to the distance between the icons at. Furthermore, the offset may be in any direction represented by one coordinate, two coordinates, or three coordinates in the case of 3-D. Furthermore, the offset O may be any mathematical expression associated with the difference between the position on the display that the user perceives as pointing and the gesturing position 19 as directed by the system 2. The offset O is the distance between these two positions on the display 6 itself (e.g. 24 pixels to the right, 8 pixels on the top), a vector (2D or 3D vector) indicating the difference between the two positions, these two positions A set of numbers related to the distance between and / or an expression representing the distance between these two positions. The offset O may relate to the position of the "virtual eye" relative to other anatomical parts of the user's face (such as the user's eye 22). The offset O may be related to the position of the user's pointing element (e.g. the fingertip 14) and may be used to correct the detected position of the pointing element. The offset O may also relate to any feature of the calculated eye 24 that departs in front of the "virtual eye" and intersects the display 6 through the pointing element. The second information is then displayed as shown in step 319 of FIG. 3A, and when the user 16 makes a gesture to the second information, as shown in step 321 of FIG. 3A, the second gesture Graphical or numerical data associated with may be received via an image sensor (eg, image sensor 8 in FIG. 1) and transferred to a processor (eg, processor 15 of FIG. 2A). Due to the fact that the user has one eye that is superior to the other, the second or subsequent gesture position may not be exactly aligned with the second information, ie the position that the user intends to point to is there. However, as shown in step 323, processor 15 may be configured to correct for misalignment using the first offset (or offsets) previously determined in step 317. As a result of the correction, the user's intention may be determined and the corresponding action may be initiated. One such action sends output to the display 6 to provide a display representation of the user's intention (eg, as the system detects that the user's pointing position is 3 inches to the left of the icon) Also, the offset correction may include causing the cursor to be displayed on or near the icon). Exemplary operation of the offset is described in further detail in connection with FIGS. 12 and 13.

いくつかの実施形態では、指先14は、ポインティングする際またはタッピング動作中に、ディスプレイ6に接触しない。図1に図示される実施例では、指先14は、アイコン20bに向けて指している。処理ユニット12は、イメージセンサ8により得られた画像ストリーム(例えば、ビデオストリーム)の画像を解析することにより、指先14を所定の時間にわたりアイコン20bに向かって指すユーザ16を検出するか、アイコン20bに向かってタッピング動作(またはクリック動作)を行うユーザ16を検出し得る。処理ユニット12が特定のアイコンが選択されたことを判断するとき、対応するコマンドおよび/または選択されたアイコンに関連付けられるメッセージは、それぞれ実行または生成され得る。メッセージの生成またはコマンドの実行は、対応する結果を、任意の1つまたはそれを上回るオペレーティングシステム、1つまたはそれを上回るローカルサービス、1つまたはそれを上回るアプリケーション、1つまたはそれを上回るデバイス、1つまたはそれを上回るリモートアプリケーション、1つまたはそれを上回るリモートサービス、または1つまたはそれを上回るリモートデバイスにアドレスし得る。   In some embodiments, the finger tip 14 does not touch the display 6 when pointing or tapping. In the embodiment illustrated in FIG. 1, the fingertip 14 points towards the icon 20b. The processing unit 12 detects the user 16 pointing the fingertip 14 towards the icon 20b for a predetermined time, by analyzing the image of the image stream (e.g. video stream) obtained by the image sensor 8, or the icon 20b The user 16 who performs a tapping operation (or a clicking operation) toward the user can be detected. When the processing unit 12 determines that a particular icon has been selected, the messages associated with the corresponding command and / or the selected icon may be respectively executed or generated. The generation of a message or the execution of a command results in the corresponding result being any one or more operating systems, one or more local services, one or more applications, one or more devices, One or more remote applications, one or more remote services, or one or more remote devices may be addressed.

いくつかの実施形態では、デバイス4は、通信を伴うグラフィカル要素の選択に応答して、外部デバイスまたはウェブサイトと通信し得る。通信は、外部デバイスまたはウェブサイト上で実行中の1つまたはそれを上回るアプリケーション、外部デバイスまたはウェブサイト上で実行中のサービス、外部デバイスまたはウェブサイト上で実行中のオペレーティングシステム、外部デバイスまたはウェブサイト上で実行中のプロセス、外部デバイスまたはウェブサイトのプロセッサ上で実行中の1つまたはそれを上回るアプリケーション、外部デバイスまたはウェブサイトのバックグラウンドで実行中のソフトウェアプログラム、または外部デバイスまたはウェブサイト上で実行中の1つまたはそれを上回るサービスにメッセージを送信することを含み得る。さらに、通信は、デバイス4上で実行中のアプリケーション、デバイス4上で実行中のサービス、デバイス4上で実行中のオペレーティングシステム、デバイス4上で実行中のプロセス、デバイス4のプロセッサ15上で実行中の1つまたはそれを上回るアプリケーション、デバイス4のバックグラウンドで実行中のソフトウェアプログラム、またはデバイス4上で実行中の1つまたはそれを上回るサービスにメッセージを送信することを含み得る。外部デバイスまたはウェブサイトとの通信は、通信ネットワーク上で生じ得る。   In some embodiments, device 4 may communicate with an external device or website in response to selection of graphical elements that involve communication. Communication may be by one or more applications running on an external device or website, services running on an external device or website, an operating system running on an external device or website, an external device or website A process running on the site, one or more applications running on an external device or website processor, a software program running in the background on an external device or website, or on an external device or website Sending the message to one or more of the services running at. Furthermore, communication is performed on the application running on device 4, the service running on device 4, the operating system running on device 4, the process running on device 4, the processor 15 of device 4 It may include sending the message to one or more of the applications, a software program running in the background of the device 4, or one or more services running on the device 4. Communication with external devices or websites may occur over a communication network.

グラフィカル要素の選択に応答して、メッセージは、外部デバイスまたはウェブサイト上で実行中のアプリケーション、外部デバイスまたはウェブサイト上で実行中のサービス、外部デバイスまたはウェブサイト上で実行中のオペレーティングシステム、外部デバイスまたはウェブサイトで実行中のプロセス、外部デバイスまたはウェブサイトのプロセッサ上で実行中の1つまたはそれを上回るアプリケーション、外部デバイスまたはウェブサイトのバックグラウンドで実行されるソフトウェアプログラム、または外部デバイスもしくはウェブサイト上で実行中の1つまたはそれを上回るサービスから画像内で特定されたグラフィカル要素に関連するデータを要求する外部デバイスまたはウェブサイトに送信され得る。メッセージはまた、デバイス4上で実行中のアプリケーション、デバイス4上で実行中のサービス、デバイス4上で実行中のオペレーティングシステム、デバイス4上で実行中のプロセス、デバイス4のプロセッサ15上で実行中の1つまたはそれを上回るアプリケーション、デバイス4のバックグラウンドで実行中のソフトウェアプログラム、またはデバイス4上で実行中の1つもしくはそれを上回るサービスから画像内で特定されるグラフィカル要素に関連するデータを要求するデバイス4に送信され得る。   In response to the selection of the graphical element, the message may be an application running on the external device or website, a service running on the external device or website, an operating system running on the external device or website, an external Process running on the device or website, one or more applications running on the external device or processor of the website, a software program running in the background of the external device or website, or an external device or website One or more services running on the site may be sent to an external device or website requesting data related to the graphical element identified in the image. The message may also be an application running on device 4, a service running on device 4, an operating system running on device 4, a process running on device 4, a running on processor 15 of device 4. Data associated with graphical elements identified in the image from one or more of the following applications, a software program running in the background of device 4, or one or more services running on device 4 It can be sent to the requesting device 4.

外部デバイスまたはウェブサイトに送られるメッセージは、コマンドを含み得る。このコマンドは、例えば、外部デバイスまたはウェブサイト上でアプリケーションを実行させるコマンド、外部デバイスまたはウェブサイト上で実行中のアプリケーションを停止させるコマンド、外部デバイスまたはウェブサイトで実行されるサービスを起動するコマンド、外部デバイスまたはウェブサイトで実行中のサービスを停止させるコマンド、または画像中で特定されたグラフィカル要素に関連するデータを送信するコマンドを含み得る。デバイス4へのメッセージはコマンドを含み得る。このコマンドは、例えば、デバイス4上でアプリケーションを実行させるコマンド、デバイス4上で実行中のアプリケーションを停止させるコマンド、デバイス4で実行されるサービスを起動するコマンド、デバイス4で実行中のサービスを停止させるコマンド、または画像中で特定されたグラフィカル要素に関連するデータを送信するコマンドを含み得る。   The message sent to the external device or website may include commands. This command is, for example, a command to execute an application on an external device or website, a command to stop an application running on an external device or website, a command to start a service executed on an external device or website, It may include a command to stop the service running on the external device or website, or a command to send data related to the graphical element identified in the image. The message to device 4 may include a command. This command is, for example, a command to execute an application on device 4, a command to stop an application running on device 4, a command to start a service to be executed on device 4, a service running on device 4 Or a command to send data associated with the graphical element identified in the image.

グラフィカル要素の選択に応答して、デバイス4は、画像内で特定されたグラフィカル要素に関連するデータを外部デバイスまたはウェブサイトから受信し得、デバイス4は、受信されたデータをユーザ16に提示し得る。   In response to the selection of the graphical element, device 4 may receive data associated with the graphical element identified in the image from the external device or website, and device 4 presents the received data to user 16 obtain.

実行されたコマンドおよび/または2つの手等の2つのポインティング要素で指すことによって生成されたメッセージは、例えば、領域を選択する、指先を互いに向かってまたは離れて動かすことにより選択された領域を拡大または縮小する、および指先を回転させることにより選択した領域を回転させることを含むことができる。実行されたコマンドおよび/または2本の指で指すことによって生成されたメッセージは、音楽トラックをビデオトラックと組み合わせる等、2つのオブジェクト間の対話を形成することを含み得る。加えて、ユーザ16は、ディスプレイ6に1つの指をさし、ディスプレイ6上の別の場所に向けて別の指を指し、動かすことで、ゲーム対話を形成するようにコマンドを実行し得および/またはメッセージを生成し得る。加えて、ユーザ16は、画面を横切ってアイコンをスライドさせる(この動作は、デバイスのロックを解除するために使用され得る)、ページまたはフォルダをスクロールさせる、およびボリュームを増加もしくは減少させるようにコマンドを実行し得および/またはメッセージを生成し得る。コマンドは、1つまたはそれを上回るアイコンの上の「スワイプコマンド」であってもよい。   The command executed and / or the message generated by pointing with two pointing elements, such as two hands, for example select an area, enlarge the selected area by moving the fingertips towards or away from each other Or reducing and rotating the selected area by rotating the fingertip. The command executed and / or the message generated by pointing with two fingers may include forming an interaction between two objects, such as combining a music track with a video track. In addition, the user 16 may execute a command to form a game interaction by pointing the display 6 at one finger, pointing at another finger towards another location on the display 6, and moving it. And / or may generate a message. In addition, the user 16 slides the icon across the screen (this action can be used to unlock the device), scroll the page or folder, and command to increase or decrease the volume May be performed and / or messages may be generated. The command may be a "swipe command" on one or more icons.

ユーザ16が指していたディスプレイ6上の位置を特定した後、ユーザ16によって行われる所定のジェスチャに応答して、コマンドが実行され得、および/またはメッセージが生成され得る。システム2は、ジェスチャを検出し、関連するコマンドを実行し、および/または関連するメッセージを生成するように構成され得る。検出されるジェスチャは、例えば、スワイプ動作、2本の指のピンチ動作、ポインティング、左から右へのジェスチャ、右から左へのジェスチャ、上向きのジェスチャ、下向きのジェスチャ、押し込みジェスチャ、握りこぶしを開くこと、握りこぶしを開きイメージセンサ8に向かって動くこと、タッピングジェスチャ、手を振るジェスチャ、指または手で行う円を描くジェスチャ、時計回りおよび/または反時計回りのジェスチャ、拍手するジェスチャ、逆拍手ジェスチャ、手を拳に閉じること、挟み込みジェスチャ、逆挟み込みジェスチャ、手の指を扇形に開くこと、手の指を一緒に閉じること、グラフィカル要素を指すこと、起動中のオブジェクトを所定の時間だけ保持すること、グラフィカル要素上をクリックすること、グラフィカル要素上をダブルクリックすること、グラフィカル要素の右側をクリックすること、グラフィカル要素の左側をクリックすること、グラフィカル要素の底部をクリックすること、グラフィカル要素の上部をクリックすること、オブジェクトを掴むこと、右からグラフィカル要素に向かうジェスチャリング、左からグラフィカル要素に向かうジェスチャリング、左からグラフィカル要素を通して通過すること、オブジェクトを押すこと、手を叩くこと、グラフィカル要素に向かって手を振ること、ブラストジェスチャ、グラフィカル要素上での時計回りまたは反時計回りジェスチャ、2本の指でグラフィカル要素を掴むこと、クリック−ドラッグ−リリース動作、アイコンをスライドさせること、および/またはセンサによって検知可能な任意の他の動作またはポーズのうちの1つまたはそれを上回るものを含み得る。   After identifying the location on display 6 that user 16 was pointing to, commands may be performed and / or messages may be generated in response to predetermined gestures performed by user 16. System 2 may be configured to detect gestures, execute associated commands, and / or generate associated messages. The gesture to be detected includes, for example, swipe action, pinch action of two fingers, pointing, gesture from left to right, gesture from right to left, upward gesture, downward gesture, pressing gesture, opening a fist Opening the fist, moving toward the image sensor 8, tapping gesture, waving gesture, circular gesture with finger or hand, clockwise and / or counterclockwise gesture, clap gesture, reverse clap gesture, Close the hand into a fist, pinch gesture, reverse pinch gesture, fan finger open the finger, close finger finger together, point to the graphical element, hold the active object for a predetermined time Clicking on graphical elements, graphica Double clicking on the element, clicking on the right side of the graphical element, clicking on the left side of the graphical element, clicking on the bottom of the graphical element, clicking on the top of the graphical element, grabbing the object, right Gesturing from graphical elements to graphical elements, gesturing from graphical elements to the left, passing through graphical elements from the left, pushing objects, hitting hands, waving hands to graphical elements, blasting gestures, graphical Clockwise or counterclockwise gesture on the element, grasping the graphical element with two fingers, click-drag-release action, sliding an icon, and / or any sensor detectable by a sensor It may include those over one or it of the other operation or pause.

図2Bは、システム2の例示的な模式的表現を描写する。特に、処理ユニット12は、例えば、イメージセンサ8によって捕捉された画像を格納するように構成された画像データリポジトリ202と、ディスプレイ6上にアイコンを生成し、表示するように構成されたグラフィカル要素生成器(すなわち、アイコン生成器)204と、ディスプレイ6上に表示されたそれぞれのアイコンに関連付けられるコマンドの実行を可能にするように構成されたコマンド実行モジュール206と、較正プロセスを行うように構成された較正モジュール208と、マシンビジョンユニット210とを備え得る。マシンビジョンユニット210は、例えば、捕捉された画像から、ユーザ16によって行われたジェスチャを特定するように構成されたジェスチャ認識モジュール212と、ユーザ16が向かって指すディスプレイ6上の点または位置を特定するように構成された目線特定モジュール214とを備え得る。   FIG. 2B depicts an exemplary schematic representation of System 2. In particular, the processing unit 12 may, for example, be an image data repository 202 configured to store the image captured by the image sensor 8 and graphical element generation configured to generate and display an icon on the display 6 (I.e., an icon generator) 204, a command execution module 206 configured to enable the execution of commands associated with the respective icons displayed on the display 6, and a calibration process. A calibration module 208 and a machine vision unit 210 may be provided. The machine vision unit 210 identifies, for example, from the captured image, a gesture recognition module 212 configured to identify a gesture performed by the user 16 and a point or position on the display 6 to which the user 16 points. And an eye identification module 214 configured to:

図3Bは、システム2によって実行され得る例示的な方法を示すフローチャートを描写する。本方法は、ディスプレイ6の前方にある視空間の少なくとも1つの画像を捕捉するステップ301を含み得る。例えば、イメージセンサ8は、ディスプレイ6の前方にある視空間の連続した画像を捕捉し得る。画像は、捕捉され得、画像データリポジトリ202等のデータリポジトリ内に格納され得る。捕捉された画像は、後に処理され得る、またはそれらが捕捉された際に即時処理され得る。捕捉された画像は、例えば、ディスプレイ6の前方に位置し、ディスプレイ6上に表示される1つまたはそれを上回るグラフィカル要素との対話を試みるユーザ16(すなわち、ディスプレイ6上に表示されたアイコンまたはテキストに向かって指先14等のポインティング要素を指そうとするユーザ16)を含み得る。   FIG. 3B depicts a flowchart illustrating an exemplary method that may be performed by system 2. The method may include capturing 301 at least one image of viewing space in front of the display 6. For example, the image sensor 8 may capture a continuous image of the viewing space in front of the display 6. Images may be captured and stored in a data repository, such as image data repository 202. The captured images may be processed later, or may be processed immediately when they are captured. The captured image may, for example, be located in front of the display 6 and attempt to interact with one or more graphical elements displayed on the display 6 (ie an icon displayed on the display 6 or A user 16 may wish to point to text pointing a pointing element such as a finger tip 14).

捕捉された画像はまた、1つまたはそれを上回るユーザの眼22等のユーザ16の顔の1つまたはそれを上回る所定部分および指先14等の1つまたはそれを上回るポインティング要素をも含み得る。本方法は、少なくとも1つの画像内のポインティングジェスチャを検出するステップ303を含み得る。特に、ユーザ16およびポインティング要素の特定は、例えば、ジェスチャ認識モジュール212を含む、マシンビジョンユニット210の助けを借りて、達成され得る。   The captured image may also include one or more predetermined portions of the user's 16 face, such as one or more user's eyes 22, and one or more pointing elements, such as a finger tip. The method may include detecting 303 a pointing gesture in at least one image. In particular, the identification of the user 16 and the pointing element can be achieved with the aid of the machine vision unit 210, which comprises, for example, the gesture recognition module 212.

本方法は、1つまたはそれを上回るポインティング要素が向かって指すディスプレイ6上の点または位置を特定するステップ305を含み得る。この点は、例えば、目線特定モジュール214の助けを借りて、特定され得る。ユーザの眼22、指先14、および選択されたアイコンが位置するディスプレイ6上の点は、同一直線上にあり、共通の目線24上に配置されるため、処理ユニット12は、目線24を特定するように構成され得る。ステップ305は、ユーザ16が向かって指すディスプレイ6上の点の特定を向上させるために指定された1つまたはそれを上回るプロセスを含み得る。図1は、目線24を特定するために用いられ得るユーザ16の顔の一部としてユーザの眼22を示すが、顔の他の部分も同様に特定され、その目的のために使用され得る。したがって、1つまたはそれを上回るユーザの眼22が本明細書に述べられるときは常に、例としてのみ考慮されるべきであり、顔の他の部分も同様に含むものとして広く解釈されるべきである。   The method may include identifying 305 a point or position on the display 6 to which one or more pointing elements point towards. This point may be identified, for example, with the help of the eye identification module 214. The processing unit 12 identifies the eye 24 as the user's eye 22, the fingertip 14 and the point on the display 6 at which the selected icon is located are collinear and located on the common eye 24. Can be configured as follows. Step 305 may include one or more processes specified to improve the identification of the point on display 6 to which user 16 points. Although FIG. 1 shows the user's eye 22 as part of the face of the user 16 that may be used to identify the line of sight 24, other parts of the face may be identified as well and used for that purpose. Thus, whenever one or more user eyes 22 are mentioned herein, they should be considered as examples only, and should be interpreted broadly as including other parts of the face as well. is there.

本方法は、ディスプレイ6上の特定された点に関して所定の基準を満たす、ディスプレイ6上に表示されたビジュアルオブジェクトを特定するステップ307を含み得る。例えば、ビジュアルオブジェクト(またはグラフィカル要素)は、ユーザ16によって選択されたディスプレイ6上の特定された点に最も近いビジュアルオブジェクトであってもよい。   The method may include identifying 307 the visual object displayed on the display 6 that meets predetermined criteria for the identified point on the display 6. For example, the visual object (or graphical element) may be the visual object closest to the identified point on display 6 selected by user 16.

本方法は、ポインティング要素がビジュアルオブジェクトに向けて指す間に、いつ所定の条件が満たされたかを決定するステップ309を含み得る。ステップ309は、選択されたビジュアルオブジェクト(グラフィカル要素)が決定された後に行われ得る。上記のように、条件は、例えば、決定された点に向かってポインティング要素が指すおよび/または所定のジェスチャ(例えば、ディスプレイ6に向かうタッピング運動)を行う所定の期間または任意の他の好適な条件を含み得る。   The method may include the step 309 of determining when the predetermined condition is met while pointing element pointing towards the visual object. Step 309 may be performed after the selected visual object (graphical element) has been determined. As mentioned above, the condition is, for example, a predetermined period of time in which the pointing element points towards the determined point and / or performs a predetermined gesture (e.g. tapping movement towards the display 6) or any other suitable condition May be included.

本方法は、ビジュアルオブジェクトに関連付けられた所定の動作コマンドを実行するステップ311を含み得る。ステップ311は、所定の条件が満たされた後に行われ得る。例えば、コマンド実行モジュール206は、選択されたグラフィカル要素に関連付けられるデバイス4内の他の機能的要素と対話する等、コマンドを実行するように構成され得る。   The method may include the step 311 of performing a predetermined action command associated with the visual object. Step 311 may be performed after a predetermined condition is met. For example, the command execution module 206 may be configured to execute commands, such as interacting with other functional elements in the device 4 associated with the selected graphical element.

対話するユーザ16によりどのグラフィカル要素が選択されたかを決定するためには、まず、ユーザ16が向かって指すディスプレイ6上の点を特定することが望ましい。   In order to determine which graphical element was selected by the interacting user 16, it is desirable to first identify the point on the display 6 to which the user 16 points.

いくつかの実施形態では、イメージセンサ8は、3−Dイメージセンサまたは1対の2次元立体イメージセンサを含み得る。これらの実施形態では、処理ユニット12は、3−Dの視空間におけるユーザの眼22および/または指14のx座標、y座標、およびz座標の位置を特定するように構成され得る。処理ユニット12はその後、眼22に頂点を有し、指先14を通過する目線24を決定し得る。図1に図示されるように、ドットまたはマーカー18は、目線24がディスプレイ6と交差するディスプレイ6上の位置に配置され得る。いくつかの実施形態では、システム2は、2−Dおよび3−Dイメージセンサの組み合わせを含み得、2−Dイメージセンサによって捕捉された画像からユーザの眼22および指先14のx座標およびy座標を取得し、3−Dイメージセンサによって捕捉された画像からユーザの眼22および指14のz座標を取得するように構成され得る。いくつかの実施形態では、3−Dイメージセンサは、低解像度の画像を取得するように構成され得る。2−Dおよび3−Dイメージセンサからの複合情報は、3−D目線24を決定するために使用され得る。   In some embodiments, the image sensor 8 may include a 3-D image sensor or a pair of two-dimensional stereoscopic image sensors. In these embodiments, processing unit 12 may be configured to locate the x, y, and z coordinates of the user's eye 22 and / or finger 14 in 3-D viewing space. The processing unit 12 may then determine the line of sight 24 having the apex on the eye 22 and passing through the fingertip 14. As illustrated in FIG. 1, dots or markers 18 may be placed at locations on the display 6 where the eyes 24 intersect the display 6. In some embodiments, system 2 may include a combination of 2-D and 3-D image sensors, and from the image captured by the 2-D image sensor, the x and y coordinates of the user's eyes 22 and fingertips 14 , And may be configured to obtain z-coordinates of the user's eye 22 and finger 14 from the image captured by the 3-D image sensor. In some embodiments, the 3-D image sensor may be configured to acquire low resolution images. Composite information from the 2-D and 3-D image sensors may be used to determine the 3-D line of sight 24.

他の実施形態では、イメージセンサ8は、2−D位置センサを含んでもよい。ディスプレイ6の前方に立つユーザ16は、ディスプレイ6上のどこを指してもよく、ユーザのポインティングに関連する特定の目線24は、イメージセンサ8によって捕捉されるユーザの眼22(または他の解剖学的位置)の2−D位置(すなわち、x座標およびy座標)およびポインティング要素(すなわち、指先14)の2−D位置、ならびに解剖学的位置とディスプレイ6との間の距離およびポインティング要素とディスプレイ6またはユーザ16またはユーザの眼22との間の距離に基づいて決定され得る。   In another embodiment, the image sensor 8 may include a 2-D position sensor. The user 16 standing in front of the display 6 may point anywhere on the display 6 and the particular line of sight 24 associated with the user's pointing is the eye 22 of the user captured by the image sensor 8 (or other anatomy Position (ie, x and y coordinates) and pointing element (ie, fingertip 14), and the distance between the anatomical position and the display 6 and the pointing element and display It may be determined based on the distance between the user 6 or the user 16 or the eye 22 of the user.

いくつかの実施形態では、処理ユニット12は、ユーザ16が向かって指すディスプレイ6上の点を決定するように構成され得る。例えば、ユーザの眼22のx座標およびy座標は、イメージセンサ8によって捕捉される画像から決定され得る。例えば、図6に図示されるように、ユーザ16とディスプレイ6との間の距離R1が推定され得る。推定された距離R1に基づいて、視空間におけるユーザの眼22のz座標が得られ得る。   In some embodiments, processing unit 12 may be configured to determine the point on display 6 to which user 16 points. For example, the x and y coordinates of the user's eye 22 may be determined from the image captured by the image sensor 8. For example, as illustrated in FIG. 6, the distance R1 between the user 16 and the display 6 may be estimated. Based on the estimated distance R1, the z-coordinate of the user's eye 22 in the viewing space may be obtained.

距離R1は、例えば、イメージセンサ8によって得られる画像内で特定されるユーザの両眼22の間隔に基づいて決定され得る。同様の距離は、異なる個人の両眼(例えば、瞳孔)の間に存在する。類似性の度合いは、同じ民族グループに属する個人についてより高い。したがって、ユーザ16の両眼の間隔は、ユーザの眼22とディスプレイ6との間の距離R1を示し得る。   The distance R1 may be determined based on, for example, the distance between the user's eyes 22 identified in the image obtained by the image sensor 8. Similar distances exist between the eyes (eg, pupils) of different individuals. The degree of similarity is higher for individuals belonging to the same ethnic group. Thus, the distance between the user 16's eyes may indicate the distance R1 between the user's eye 22 and the display 6.

ポインティング要素のx座標およびy座標は、イメージセンサ8によって捕捉される画像から決定され得る。ポインティング要素とユーザ16との間の推定距離R1を用いて、ポインティング要素の視空間でのz座標が得られ得る。   The x and y coordinates of the pointing element may be determined from the image captured by the image sensor 8. Using the estimated distance R1 between the pointing element and the user 16, the z-coordinate in the visual space of the pointing element may be obtained.

ユーザの眼22(または仮想の眼もしくは他の解剖学的特徴)のx座標、y座標、およびz座標ならびにポインティング要素のx座標、y座標、およびz座標がいったん得られると、これら2つの点を通って延在する直線(目線24)が、決定され得、この線がディスプレイ6と交差する点が特定され得る。この線とディスプレイ6との特定された交点は、ユーザ16が向かって指すディスプレイ6上の点、例えば、ジェスチャ位置として決定され得る。   Once the x, y, and z coordinates of the user's eye 22 (or a virtual eye or other anatomical feature) and the x, y, and z coordinates of the pointing element are obtained, these two points A straight line (eyeline 24) extending through may be determined, and a point at which the line intersects the display 6 may be identified. The identified intersection of this line with the display 6 may be determined as a point on the display 6 to which the user 16 points, for example a gesture position.

いくつかの実施形態では、ディスプレイ6は、3−Dディスプレイであり得、表示されるグラフィカル要素は、ディスプレイ6の前方またはデバイス4の後方の視空間内に位置するものとしてユーザ16に認識される3−Dグラフィカル要素であり得る。したがって、ユーザ16が向かって指す点の位置を決定することは、3−Dディスプレイで実行され得、ここで、特定された目線24は、ユーザの眼22からポインティング要素を通して、ディスプレイ6の前方の空間にあるものとユーザ16に認識される、それぞれのグラフィカル要素を表す視覚的要素まで延在する。   In some embodiments, the display 6 may be a 3-D display and the displayed graphical elements are recognized by the user 16 as being located in the viewing space in front of the display 6 or behind the device 4 It may be a 3-D graphical element. Thus, determining the position of the point to which the user 16 points may be performed on the 3-D display, where the identified line of sight 24 is from the user's eye 22 through the pointing element in front of the display 6 It extends to visual elements representing the respective graphical elements that are perceived by the user 16 as being in space.

いくつかの実施形態では、ディスプレイ6は、2−Dディスプレイであり、表示されるグラフィカル要素は、2−Dグラフィカル要素であり得る。したがって、ユーザ16が向かって指す点の位置を決定することは、2−Dディスプレイ6で行われ、特定された目線24は、ユーザの眼22からポインティング要素を通して、目線24とディスプレイ6との交点まで延在する。   In some embodiments, display 6 is a 2-D display, and the graphical elements displayed may be 2-D graphical elements. Thus, determining the position of the point to which the user 16 points is performed on the 2-D display 6 and the identified line of sight 24 intersects the line of sight 24 with the display 6 through the pointing element from the user's eye 22 Extend up to

図4は、ディスプレイ6に向かって指差しするユーザ16の例示的描写表現を描写する。ユーザ16が向かって指すディスプレイ6上の点をより良く決定するには、指す間に視空間内のポインティング要素の位置を特定することが有利であり得る。したがって、ポインティング要素がディスプレイ6に最も近くなるポインティングジェスチャ時のポインティング要素の位置である点P’を特定することが有利である。ポインティングジェスチャ時のユーザ16の手の動きは、ディスプレイ6に最も近く位置する点P’によって特徴付けられる運動ベクトルとして図示される。   FIG. 4 depicts an exemplary pictorial representation of the user 16 pointing towards the display 6. To better determine the point on the display 6 to which the user 16 points, it may be advantageous to locate the pointing element within the viewing space while pointing. Therefore, it is advantageous to identify a point P 'that is the position of the pointing element during the pointing gesture when the pointing element is closest to the display 6. The movement of the hand of the user 16 during the pointing gesture is illustrated as a motion vector characterized by the point P 'located closest to the display 6.

システム2は、ポインティングジェスチャの間に点P’を特定するように構成され得る。イメージセンサ8が3−Dイメージセンサまたは立体イメージセンサを含む、いくつかの実施形態では、処理ユニット12は、点P’のz座標が、ポインティング要素がディスプレイ6に最も近く配置されたときのポインティング要素の位置を示し得るよう、捕捉された画像から点P’を抽出するように構成され得る。   System 2 may be configured to identify point P 'during pointing gestures. In some embodiments where the image sensor 8 includes a 3-D image sensor or a stereoscopic image sensor, the processing unit 12 may point when the z-coordinate of the point P 'is located closest to the display 6 It may be configured to extract a point P 'from the captured image so as to indicate the position of the element.

イメージセンサ8が2−Dイメージセンサを含む、いくつかの実施形態では、点P’は、ポインティングジェスチャ時におけるポインティング要素の1つまたはそれを上回る特徴の解析に基づいて特定され、これは、例えば、ポインティング要素の運動経路、ポインティング要素の運動ベクトル、ポインティング要素の運動ベクトルの変化、ポインティング要素のポーズ、ポインティング要素のサイズ、ポインティング要素の加速および/または減速を含み得る。いくつかの実施形態では、点P’の特定は、視野面内でのポインティング要素の位置変化に基づき得る。例えば、ユーザ16が腕を伸ばし、点P’に達した後、ユーザ16は、腕を後退させ得る。視空間内でのポインティング要素の位置(すなわち、座標)の変化は、腕が後退されたことを示し得、点P’の特定に使用され得る。   In some embodiments where the image sensor 8 comprises a 2-D image sensor, the point P 'is identified based on analysis of one or more features of the pointing element at the time of the pointing gesture, for example Motion of the pointing element, motion vector of the pointing element, change of motion vector of the pointing element, pose of the pointing element, size of the pointing element, acceleration and / or deceleration of the pointing element. In some embodiments, the identification of the point P 'may be based on a change in position of the pointing element in the field of view. For example, after the user 16 stretches the arm and reaches the point P ', the user 16 may retract the arm. A change in the position (i.e., coordinates) of the pointing element within the viewing space may indicate that the arm has been retracted and may be used to identify point P '.

いくつかの実施形態では、点P’は、ポインティングジェスチャの際のポインティング要素のサイズ変化に基づいて特定され得る。例えば、ユーザ16がディスプレイ6に向かって腕を伸ばすと、ポインティング要素のサイズが増大し得る(例えば、捕捉された画像内での指先14のサイズが大きくなり得る)。処理ユニット12は、ポインティング要素のサイズを追跡し、ポインティング要素のサイズが最大となるポインティング要素の位置を決定するように構成され得る。   In some embodiments, the point P 'may be identified based on a change in size of the pointing element during a pointing gesture. For example, as the user 16 stretches the arm towards the display 6, the size of the pointing element may increase (e.g., the size of the fingertip 14 in the captured image may increase). The processing unit 12 may be configured to track the size of the pointing element and to determine the position of the pointing element at which the size of the pointing element is at a maximum.

図5は、点P’を特定するための例示的方法を図示するフローチャートを描写する。図5を参照して記載される動作は、例えば、マシンビジョンモジュール210を含む処理ユニット12によって実行されることができる。   FIG. 5 depicts a flowchart illustrating an exemplary method for identifying point P '. The operations described with reference to FIG. 5 may be performed by the processing unit 12 including, for example, a machine vision module 210.

本方法は、ディスプレイ6と対話するユーザ16の少なくとも1つの画像を捕捉するステップ501を含み得る。特に、イメージセンサ8は、ディスプレイ6上に表示されるアイコンと対話しようとするユーザ16の画像を捕捉し得る。本方法は、少なくとも1つの画像内でポインティング要素を検出するステップ503を含み得る。本方法は、ポインティング要素の先端のサイズ変化を特定するステップ505を含み得る。ステップ505の間に、捕捉された画像は、処理され得、異なる画像内でのポインティング要素のサイズ変化が特定され得る。例えば、ポインティングジェスチャ開始時の初期位置での指先14のサイズとディスプレイ6に向かう腕の動きに沿った異なる位置での指先14のサイズとの間の比が計算され得、指先14のサイズの増加率が特定され得る。ポインティングの最大サイズは、いったんポインティング要素がディスプレイ6から最短距離に配置されると生じ得、初期位置に対するサイズの最大変化が記録され得る。その後に腕が後退されるとき、サイズ変化は、ポインティング要素のサイズが小さくなるにつれて小さくなる。   The method may include capturing 501 at least one image of the user 16 interacting with the display 6. In particular, the image sensor 8 may capture an image of the user 16 attempting to interact with the icons displayed on the display 6. The method may include detecting 503 the pointing element in at least one image. The method may include identifying 505 a change in size of the tip of the pointing element. During step 505, captured images may be processed to identify changes in the size of the pointing element in different images. For example, the ratio between the size of the fingertip 14 at the initial position at the start of the pointing gesture and the size of the fingertip 14 at different locations along the movement of the arm towards the display 6 may be calculated, increasing the size of the fingertip 14 Rates may be identified. The maximum size of pointing may occur once the pointing element is placed at the shortest distance from the display 6, and the largest change in size relative to the initial position may be recorded. When the arm is subsequently retracted, the size change decreases as the size of the pointing element decreases.

本方法は、ポインティング要素先端の初期サイズと現在のサイズとの間の最大の変化が決定されるポインティング要素の位置を特定するステップ507を含み得る。本方法は、点P’として特定された位置を指定するステップ508を含み得る。   The method may include locating 507 the position of the pointing element at which the largest change between the initial size of the pointing element tip and the current size is determined. The method may include the step 508 of specifying the location identified as point P '.

図6Aは、ディスプレイ6に向かって指すユーザ16を描写する上面図である。図6Aに示されるように、イメージセンサ8は、ディスプレイ6に隣接して配置され得、破線10で示される3−D視空間の画像を捕捉することができる。ユーザ16のディスプレイ6からの距離R1は、ディスプレイ6からユーザ16の両眼の間(例えば、瞳孔の間)の仮想線上の点まで延在する線R1で示される。上述したように、距離R1は、例えば、イメージセンサによって得られる画像内で特定されるユーザの両眼間の距離に基づいて決定され得る。   FIG. 6A is a top view depicting a user 16 pointing towards the display 6. As shown in FIG. 6A, the image sensor 8 may be disposed adjacent to the display 6 and can capture an image of 3-D viewing space indicated by the dashed line 10. The distance R1 of the user 16 from the display 6 is indicated by a line R1 extending from the display 6 to a point on an imaginary line between the eyes of the user 16 (eg, between the pupils). As mentioned above, the distance R1 may be determined, for example, based on the distance between the user's eyes identified in the image obtained by the image sensor.

さらに、典型的な人間の行動に基づくと、ユーザ16がディスプレイ6の方を向いて指すとき、彼の腕は、体から完全に伸ばされていないと仮定され得、腕が体の方に戻るとき、腕は完全に後退されるとは限らないと仮定され得る。ユーザ16の体からディスプレイ6に向かうポインティング要素の伸長長さは、範囲R2として図6Aおよび図6Bに示される。   Furthermore, based on typical human behavior, when the user 16 points towards the display 6, it can be assumed that his arm is not fully extended from the body, and the arm returns to the body Sometimes it can be assumed that the arms are not necessarily completely retracted. The extended length of the pointing element from the body of the user 16 towards the display 6 is shown in FIG. 6A and 6B as the range R2.

範囲R2は、例えば、ユーザの身長ならびに体の推定比率に基づいて推定され得、加えて、範囲R2は、ディスプレイ6からのユーザ16の距離R1を示す情報に基づいて推定され得る。加えて、ユーザ16の年齢や性別に関する情報も、範囲R2の推定の際に使用され得る。加えて、範囲R2は、指差しの際のユーザ16の腕の伸長を示す(各ユーザ16の身長および比率を考慮し得る)、複数のユーザ16から得られた統計記録情報から推定され得る。さらに、この情報は、異なる地理的および/または人種的起源に関連し得る異なるポインティングジェスチャを区別するために、ユーザ16の地理的および/または人種的起源に基づいて分類され得る。このように、例えば、範囲R2の平均長さは、多くのユーザ16の腕伸長長さに関し記録された情報から計算され得る。   The range R2 may be estimated based on, for example, the height of the user as well as the estimated ratio of the body, and in addition, the range R2 may be estimated based on information indicating the distance R1 of the user 16 from the display 6. In addition, information regarding the age and gender of user 16 may also be used in estimating range R2. In addition, the range R2 can be estimated from statistical recording information obtained from a plurality of users 16 (which may take into account the height and proportion of each user 16) showing the extension of the arms of the user 16 when pointing. Further, this information may be classified based on the geographic and / or racial origin of the user 16 to distinguish different pointing gestures that may be related to different geographic and / or racial origins. Thus, for example, the average length of the range R2 can be calculated from the information recorded for the arm extension length of many users 16.

範囲R2は、ユーザの体からのポインティング要素の距離の推定を可能にし得る一方、ある程度の偏差が、異なるユーザ16によって行われるポインティングジェスチャでの腕の伸長の間に存在し得る。図6Aはまた、異なるポインティングジェスチャ間の腕の伸長の潜在的な偏差を表す偏差量Δrを図示する。上述のように、範囲R2が異なるユーザ16のポインティングジェスチャにおける測定された腕の伸長の平均値であると仮定すると、偏差量Δrは、(例えば、高さ因子の正規化後の)上記平均値の1つまたはそれを上回る標準偏差に等しい値として求められ得る。   The range R2 may allow estimation of the distance of the pointing element from the user's body, while some deviation may be present during the extension of the arm in a pointing gesture performed by different users 16. FIG. 6A also illustrates a deviation amount Δr that represents the potential deviation of arm extension between different pointing gestures. As described above, assuming that the range R2 is an average value of measured arm extension in different pointing gestures of the user 16, the deviation amount Δr is the above average value (for example, after normalization of the height factor) It may be determined as a value equal to one or more standard deviations of.

図6Bは、ポインティング要素の異なる例示的伸長を描写する上面図である。図6Bに示されるように、イメージセンサ8は、ディスプレイ6に隣接して配置され得、3−D視空間の画像を捕捉することが可能であり得る。ユーザ16の画像は、イメージセンサ8によって捕捉され得る。3−Dイメージセンサにより捕捉される画像とは異なり、2−Dイメージセンサによって捕捉される画像は、ディスプレイ6上にユーザ16の画像投影を奥行き感なしで提供し得る。図6Bに示されるように、ユーザ16は、自らの腕を伸長し、ディスプレイ6に向かって指し得る。異なる長さを有する2つの伸長が示される。伸長a(長い方の伸長)から延在する目線は、点P1でディスプレイ6と交差し、伸長b(短い方の伸長)から延在する目線は、点P2でディスプレイ6と交差する。   FIG. 6B is a top view depicting different exemplary extensions of the pointing element. As shown in FIG. 6B, an image sensor 8 may be disposed adjacent to the display 6 and may be capable of capturing an image of 3-D viewing space. An image of the user 16 may be captured by the image sensor 8. Unlike the images captured by the 3-D image sensor, the images captured by the 2-D image sensor may provide an image projection of the user 16 on the display 6 without a sense of depth. As shown in FIG. 6B, the user 16 may extend his or her arm and point towards the display 6. Two stretches with different lengths are shown. A line extending from extension a (long extension) intersects the display 6 at point P1, and a line extending from extension b (short extension) intersects the display 6 at point P2.

伸長aおよびbは、ディスプレイ6上の異なる位置を指し得るにもかかわらず、これらの伸長は両方とも、イメージセンサ8によると、同じ、すなわち、同一の線R3に収束するように見られ得る。   Although the extensions a and b may point to different locations on the display 6, both of these extensions can be seen by the image sensor 8 to converge to the same or the same line R3.

上述したように、ジェスチャリング位置19(ユーザ16が向かって指すディスプレイ6上の位置)を特定するために、ユーザ16の眼、ポインティング要素、および目線24のディスプレイ6との各交点を結ぶ目線24が決定され得る。しかしながら、目線24の特定中に存在し得る様々な不確定性の結果として、ユーザ16が正確にはディスプレイ6のどこを指しているのかということについても不確定性が存在し得る。これらの不確定性は、例えば、ポインティングオブジェクトの先端の特定に関する不確定性および目線24を最もよく表し得るユーザ16の両眼間に位置する点の特定に関する不確定性を含み得る。さらに、上述のように、2−Dイメージセンサは、ディスプレイ6からのユーザ16の距離に対する、ユーザ16の体からのポインティング要素の実際の伸長に関して追加的な不確定性を含み得る。   As described above, in order to identify the gesturing position 19 (the position on the display 6 to which the user 16 points), the eye 24 connecting each intersection point of the eye 16 with the eye of the user 16 and the display 6 of the eye 24. Can be determined. However, as a result of the various uncertainties that may be present during the identification of the line of sight 24, there may also be uncertainty as to where exactly the user 16 is pointing to the display 6. These uncertainties may include, for example, the uncertainty regarding the identification of the tip of the pointing object and the uncertainty regarding the identification of a point located between the two eyes of the user 16 who may best represent the eye line 24. Furthermore, as mentioned above, the 2-D image sensor may include additional uncertainty regarding the actual extension of the pointing element from the body of the user 16 relative to the distance of the user 16 from the display 6.

これら潜在的な不確定性の結果、ユーザ16がディスプレイ6の方を向いて指すとき、ユーザ16が指しているであろうディスプレイ6上の1点を特定する代わりに、より大きな領域(または候補面)が、ディスプレイ6上に特定され得る。候補面は、ユーザの眼22から延在する複数の可能な線がポインティング素子を通してディスプレイ6と交差する領域を表し得る。イメージセンサ8により得られる画像は、ユーザの眼22および指先14を含み得、投影面上への目線24の投影(投影面は、イメージセンサ8によって捕捉される平面)を含み得る。投影面上への投影が目線24の投影面上への投影と同一な視空間内の全ての線のセットは、候補面を形成する。ユーザの眼22からポインティング要素および共通の候補面を通して延在する各線は、候補目線である。候補面は、例えば、候補面内の画素数(候補面は1つまたはそれを上回る画素を含み得る)、(例えば、ピクセル数または測定された直径で表される)そのサイズ、その形状、画面上の位置等を含む異なる特徴により特徴付けられ得る。   As a result of these potential uncertainties, when the user 16 points towards the display 6, instead of identifying a point on the display 6 that the user 16 would be pointing to, a larger area (or a candidate A face may be identified on the display 6. The candidate surface may represent the area where the plurality of possible lines extending from the user's eye 22 intersect the display 6 through the pointing element. The image obtained by the image sensor 8 may include the user's eye 22 and the fingertip 14 and may include the projection of the eye 24 onto the projection plane (the projection plane is the plane captured by the image sensor 8). The set of all the lines in the visual space that the projection on the projection plane is the same as the projection on the projection plane of the eye 24 forms a candidate plane. Each line extending from the user's eye 22 through the pointing element and the common candidate plane is a candidate eye. The candidate surface may be, for example, the number of pixels in the candidate surface (the candidate surface may include one or more pixels), its size (eg, represented by the number of pixels or the measured diameter), its shape, screen It may be characterized by different features, including its position above.

したがって、上述した不確定性にかかわらず、ユーザ16が向かって指すディスプレイ6の点または位置をより正確に特定することは有利であろう。以下の図面を参照して説明する動作は、2−D、3−D、および立体イメージセンサの任意の1つを搭載したシステムに適用可能である。   Therefore, regardless of the above-mentioned uncertainty, it would be advantageous to more accurately identify the point or position of the display 6 to which the user 16 points. The operations described with reference to the following figures are applicable to systems equipped with any one of 2-D, 3-D, and stereoscopic image sensors.

いくつかの実施形態では、ユーザ16は、較正手順を実行し得る。較正手順では、ユーザ16は、ディスプレイ6に表示される1つまたはそれを上回るグラフィカル要素(例えば、アイコン)を順次指すように指示され得る。グラフィカル要素の1つは、例えば、その選択がデバイス4をスタンバイモードからアクティブモードに切り替える、またはその選択がディスプレイ6のロックを解除し得るような、グラフィカル要素を含み得る。ユーザ16がこのようなグラフィカル要素に向かって指すとき、処理ユニット12は、ユーザ16がグラフィカル要素を指している間に、イメージセンサ8で得られた画像内のポインティングオブジェクトおよびユーザの眼22の位置を決定し得る。指先14は、例えば、本明細書にその全体が参照により組み込まれる、米国特許出願公開第2008/0042981号として公開された本出願人による同時係属中の米国特許出願第10/593,628号に開示されるイメージセンサ8によって得られる画像内で特定され得る。   In some embodiments, user 16 may perform a calibration procedure. In the calibration procedure, the user 16 may be instructed to sequentially point to one or more graphical elements (eg, icons) displayed on the display 6. One of the graphical elements may include, for example, a graphical element such that the selection may switch the device 4 from standby mode to active mode, or the selection may unlock the display 6. When the user 16 points towards such a graphical element, the processing unit 12 determines the position of the pointing object and the user's eye 22 in the image obtained by the image sensor 8 while the user 16 is pointing to the graphical element. Can be determined. The fingertip 14 is, for example, disclosed in co-pending US patent application Ser. No. 10 / 593,628, published as US Patent Application Publication No. 2008/0042981, which is incorporated herein by reference in its entirety. It can be identified in the image obtained by the disclosed image sensor 8.

画像中の顔および眼を特定するための方法は、当業者に公知である。ユーザ16が、その後、ディスプレイ16上のアイコンを指すとき、処理ユニット12は、ディスプレイ6上の位置、したがって、ユーザ16が較正データを用いて指すアイコンの位置を、ユーザの眼22と指先14との間の距離およびイメージセンサ8により得られる画像内のユーザの両眼間の距離から決定され得るユーザ16とディスプレイ6との間の距離の制約とともに決定し得る。   Methods for identifying faces and eyes in images are known to those skilled in the art. When the user 16 subsequently points to an icon on the display 16, the processing unit 12 determines the position on the display 6 and thus the position of the icon to which the user 16 points using calibration data, with the user's eye 22 and the fingertip 14. And a constraint on the distance between the user 16 and the display 6 which can be determined from the distance between the user's eyes in the image obtained by the image sensor 8.

図7は、較正モジュール208を含む処理ユニット12で較正プロセスを行うための例示的方法を図示するフローチャートを描写する。較正プロセスの間、ユーザ16とディスプレイ6との間の距離R1およびポインティング要素とユーザの体との間の範囲R2は、より正確に推定され得る。本方法は、較正順序をディスプレイ6上に表示するステップ701を含む。ステップ701の間に、1つまたはそれを上回るグラフィカル要素(例えば、アイコン)は、所定の順序または形状でディスプレイ6に表示され得、較正順序を提供し得る。較正順序は、ディスプレイ6上のアイコンの位置ならびに別のアイコンとの対話の時間および/または順序によって特徴付けられ得る。ユーザ16は、所定の順によりアイコンと対話する(例えば、指差しまたはスワイプする)ように要求され得る。いくつかの実施形態では、較正順序はまた、所定のパターンまたは形状に応じてスワイプされるまたは動かされるアイコンも含み得る。   FIG. 7 depicts a flow chart illustrating an exemplary method for performing a calibration process in processing unit 12 that includes calibration module 208. During the calibration process, the distance R1 between the user 16 and the display 6 and the range R2 between the pointing element and the user's body may be more accurately estimated. The method comprises the step 701 of displaying the calibration sequence on the display 6. During step 701, one or more graphical elements (eg, icons) may be displayed on the display 6 in a predetermined order or shape, to provide a calibration order. The calibration order may be characterized by the position of the icon on the display 6 as well as the time and / or order of interaction with another icon. The user 16 may be required to interact (eg, point or swipe) with the icons in a predetermined order. In some embodiments, the calibration sequence may also include icons that are swiped or moved according to a predetermined pattern or shape.

いくつかの場合、ユーザ16は、較正プロセスに気付かないこともあり得る。例えば、上述したように、較正プロセスは、ディスプレイ6のロックを解除するための対話(例えば、ディスプレイ6に表示されたアイコンを左から右へスワイプする等)としてユーザ16に提示され得る。または、較正は、ユーザ16が表示されたアイコンを指す通常使用の間に起こり得る。   In some cases, user 16 may not even notice the calibration process. For example, as described above, the calibration process may be presented to the user 16 as an interaction to unlock the display 6 (eg, swiping an icon displayed on the display 6 from left to right, etc.). Alternatively, calibration may occur during normal use where the user 16 points to the displayed icon.

本方法は、ディスプレイ6と対話するユーザ16の少なくとも1つの画像を捕捉するステップ703を含み得る。ステップ703の間に、ユーザ16は、較正順序によって要求されるようにディスプレイ6と対話し得、イメージセンサ8は、ユーザ16がそうする際の画像を捕捉し得る。本方法は、視野面内のユーザ16の位置を決定するステップ705を含み得る。ステップ705の間に、イメージセンサ8によって捕捉される画像内のユーザ16(例えば、ユーザの眼22)の位置(すなわち、x−座標およびy−座標)が決定され得る。本方法は、ポインティング要素の個別の点P’を決定するステップ707を含み得る。ステップ707の間に、ポインティングジェスチャは、特定され得、ポインティング要素がディスプレイ6に最も近く配置されるポインティング要素の位置(すなわち、x座標およびy座標)を示す点P’が決定され得る。   The method may include capturing 703 at least one image of the user 16 interacting with the display 6. During step 703, the user 16 may interact with the display 6 as required by the calibration sequence, and the image sensor 8 may capture an image as the user 16 does so. The method may include the step 705 of determining the position of the user 16 in the viewing plane. During step 705, the position (i.e., x-coordinate and y-coordinate) of the user 16 (e.g., the user's eye 22) in the image captured by the image sensor 8 may be determined. The method may include the step 707 of determining individual points P 'of the pointing element. During step 707, a pointing gesture may be identified and a point P 'indicating the position (i.e., x and y coordinates) of the pointing element at which the pointing element is located closest to the display 6 may be determined.

本方法は、ディスプレイ6上のそれぞれのアイコンを点P’の2−D位置およびユーザ16の2−D位置に結ぶ目線24を決定するステップ709を含み得る。較正プロセスは、所定の較正順序によって実行され得るため、ユーザ16が現在指すことを要求されるディスプレイ6に表示されたグラフィカル要素がどれかを示す情報は、処理ユニット12に利用可能である。したがって、処理ユニット12は、ユーザ16の位置、点P’、およびユーザ16が向かって指すディスプレイ6上のそれぞれのグラフィカル要素を結ぶ目線24の間をより容易に相関付け得る。これにより、それぞれの目線24は、ディスプレイ6上の関連するグラフィカル要素から、それぞれの点P’に位置するポインティング素子を通して、ユーザ16のそれぞれの位置に延在し得る。   The method may include determining 709 a line of sight 24 connecting each icon on display 6 to the 2-D position of point P 'and the 2-D position of user 16. Since the calibration process may be performed according to a predetermined calibration sequence, information indicating which graphical elements displayed on the display 6 the user 16 is currently required to point to is available to the processing unit 12. Thus, the processing unit 12 may more easily correlate between the position of the user 16, the point P 'and the line of sight 24 connecting the respective graphical elements on the display 6 to which the user 16 points. Thereby, each line of sight 24 can extend from the associated graphical element on the display 6 to the respective position of the user 16 through the pointing element located at the respective point P '.

図8は、例示的な較正プロセスを描写する上面図である。図8に示されるように、イメージセンサ8は、ディスプレイ6に隣接して配置され得、破線10によって示される3−D視空間の画像を捕捉することができ得る。ユーザ16は、アイコンGに向かって指し得、これが較正順序(図示せず)の一部となっている。ディスプレイ6の前方に立つユーザ16の2−D位置は、線L1上に位置し得る。ユーザ16とディスプレイ6との間の距離R1は、上述のように推定され得るが、較正プロセスはこの推定の改善を可能にし得る。点P’の2−D位置は、線L2上に配置され得る。線L1および線L2の間に及ぶ範囲R2は、上述のように推定され得るが、較正プロセスは、この推定の改善を可能にし得る。 FIG. 8 is a top view depicting an exemplary calibration process. As shown in FIG. 8, the image sensor 8 may be disposed adjacent to the display 6 and may be able to capture an image of 3-D viewing space indicated by the dashed line 10. User 16, may refer towards the icon G 1, which is part of the calibration sequence (not shown). The 2-D position of the user 16 standing in front of the display 6 may be located on the line L1. Although the distance R1 between the user 16 and the display 6 may be estimated as described above, the calibration process may allow for an improvement of this estimation. The 2-D position of point P 'may be located on line L2. Although the range R2 extending between line L1 and line L2 may be estimated as described above, the calibration process may allow for an improvement of this estimation.

図6Aを参照して上述したように、不確定性は、偏差Δrによって上に示したように、範囲R2に関して存在し得る。したがって、線L1および線L2の間の距離は、R2+Δr/2およびR2−Δr/2の間のいずれかとして推定され得る。較正プロセスの間に、第1の直線L3は、ディスプレイ6上のアイコンGから延在し、線L1および線L2の間の距離がR2−Δr/2に等しくなるように線L1およびL2に接続し、第2の直線L4は、ディスプレイ6上のアイコンGから延在し、線L1および線L2の間の距離がR2+Δr/2に等しくなるように線L2および線L1に接続する。図8に示されるように、線L2上の点aと線L1上の点u1との距離は、R2−Δr/2に等しくなり、線L2上の点bと線L1上の点u2との間の距離R2’’は、R2+Δr/2に等しくなる。 As described above with reference to FIG. 6A, uncertainty may exist for the range R2, as indicated above by the deviation Δr. Thus, the distance between line L1 and line L2 can be estimated as either between R2 + Δr / 2 and R2-Δr / 2. During the calibration process, the first straight line L3 extends from the icon G 1 on the display 6, the lines L1 and L2 as the distance between equals R2-Δr / 2 line L1 and line L2 connected, the second straight line L4 extends from the icon G 1 on the display 6, the distance between the lines L1 and line L2 is connected to line L2 and the line L1 to be equal to R2 + [Delta] r / 2. As shown in FIG. 8, the distance between the point a on the line L2 and the point u1 on the line L1 is equal to R2-Δr / 2, and the distance between the point b on the line L2 and the point u2 on the line L1 is The distance R2 ′ ′ between them is equal to R2 + Δr / 2.

線L1上の点ELは、点u1と点u2との間に位置する任意の点として決定され得る、ユーザ16の推定位置を表し得る。例えば、点ELは、点u1と点u2との間のちょうど真ん中に位置する点であり得る。線L2上の各点は、線L1上の選択された点からの直線を、線L2を通してアイコンiに延長することによって決定され得る。本較正方法は、ユーザ16にフィードバックを提供し、ユーザ16が較正順序に従う際にステップ703から709までを繰り返すステップ711を含み得る。フィードバックは、例えば、各グラフィカル要素の色、サイズ、形状、および位置のうちの1つまたはそれよりも多くを変えることによって、または可聴標示によって、ユーザ16に提供され得る。ユーザ16が較正順序に従い、ディスプレイ6上の各グラフィカル要素と対話する際、ステップ703から709までが繰り返され得る。   Point EL on line L1 may represent the estimated position of user 16 which may be determined as any point located between point u1 and point u2. For example, the point EL may be a point located in the middle between the point u1 and the point u2. Each point on line L2 may be determined by extending a straight line from the selected point on line L1 to icon i through line L2. The calibration method may include a step 711 of providing feedback to the user 16 and repeating steps 703 to 709 as the user 16 follows the calibration sequence. Feedback may be provided to the user 16, for example, by changing one or more of the color, size, shape and position of each graphical element, or by audible marking. Steps 703 through 709 may be repeated as user 16 interacts with each graphical element on display 6 according to the calibration sequence.

任意のアイコンGについて、ユーザ16の位置を表す、線L1上の各点ELiは、上述のように求められ得る。本方法は、異なる視覚的要素で生成される多数の目線に基づく範囲R1および範囲R2を決定するステップ713を含み得る。ステップ713の間に、範囲R1およびR2の最終的な推定値が決定され得る。範囲R1およびR2の最終的な推定値は、較正順序で異なるアイコンに関して得られる全ての点EL(例えば、全ての特定された点の中心に位置する点)に基づいて決定され得る。 For any icon G 1, represents the position of the user 16, each point ELi on the line L1, may be determined as described above. The method may include the step 713 of determining a range R1 and a range R2 based on multiple eye lines generated with different visual elements. During step 713, final estimates of the ranges R1 and R2 may be determined. The final estimates of the ranges R1 and R2 may be determined based on all points EL obtained for different icons in calibration order (e.g. points located at the center of all identified points).

本方法は、ディスプレイ6に向かう特定のポインティングジェスチャに応答し、範囲R1およびR2に基づき各目線24を特定するステップ715を含み得る。ステップ715は、システムがいったん較正されるとおよび/または通常の動作中に生じ得る。   The method may include identifying 715 each eye line 24 based on the ranges R1 and R2 in response to a particular pointing gesture directed to the display 6. Step 715 may occur once the system has been calibrated and / or during normal operation.

処理ユニット12は、ディスプレイ6上の各アイコンについて異なる範囲R2を決定するように構成されてもよく、異なるアイコンおよびディスプレイ6上のそれぞれの位置を対応する範囲R2と関連付けるマップを作成してもよい。(較正アイコンによって占められていない)ディスプレイ6の任意の他の点は、マップに基づいてそれぞれの範囲R2に関連付けられ得る。この関連付けは、例えば、アイコンの位置およびそれぞれの範囲R2の線形結合に基づき得る。   The processing unit 12 may be configured to determine a different range R2 for each icon on the display 6, and may create a map that associates the different icons and their respective position on the display 6 with the corresponding range R2. . Any other point of the display 6 (not occupied by the calibration icon) may be associated with the respective range R2 based on the map. This association may be based, for example, on the position of the icons and the linear combination of the respective ranges R2.

通常動作中に、処理ユニット12は、ディスプレイ6に向かうユーザ16のポインティングジェスチャに応答して、ポインティングジェスチャの概略的な方向を特定し、特定された概略的な方向に最も近いディスプレイ6上の点に位置する、較正アイコンに関連付けられる特定の範囲R2を選択するように構成され得る。   During normal operation, the processing unit 12 is responsive to the pointing gesture of the user 16 towards the display 6 to identify the general direction of the pointing gesture, and the point on the display 6 closest to the specified general direction. , May be configured to select a particular range R2 associated with the calibration icon.

上述した較正プロセスに加えて、またはそれに代わって、ユーザ16が向かって指すディスプレイ6上の点または位置をより正確に特定する他の技法も可能であり得る。上に説明したように、ユーザ16が向かって指すディスプレイ6の点を決定するときに用いられるパラメータに関する異なる不確定性により、候補面は、ディスプレイ6上で特定され得、ユーザ16の両眼から延在する複数の可能な線がポインティング素子を通してディスプレイ6と交差する平面を表し得る。   In addition to, or instead of, the calibration process described above, other techniques may be possible to more accurately identify the point or position on the display 6 to which the user 16 points. As explained above, due to the different uncertainty regarding the parameters used in determining the point on display 6 to which user 16 points, candidate faces may be identified on display 6 from both eyes of user 16 A plurality of possible lines extending may represent a plane intersecting the display 6 through the pointing element.

図9は、候補面のサイズを減少させ、ユーザ16が向かって指すディスプレイ6上の点をより正確に特定するためのマシンビジョンユニット210を含む処理ユニット12を使用し得る、例示的方法を図示するフローチャートを描写する。   FIG. 9 illustrates an exemplary method that may use processing unit 12 including machine vision unit 210 to reduce the size of the candidate surface and to more accurately identify the point on display 6 that user 16 points to. Portray a flow chart.

本方法は、ディスプレイ6と対話するユーザ16の少なくとも1つの画像を捕捉するステップ901を含み得る。ステップ901の間に、イメージセンサ8は、ディスプレイ6に表示されるグラフィカル要素と対話しようとするユーザ16の画像を捕捉し得る。本方法は、少なくとも1つの画像内でユーザの眼22およびポインティング要素を特定するステップ903を含み得る。特に、捕捉された画像は、処理され得、ユーザの眼22およびポインティング要素が捕捉された画像内に特定され得る。本方法は、一連の位置データを得るステップ905を含み得る。ステップ905の間に、ポインティング要素の運動経路は、それがディスプレイ6に向かって延長される間に追跡され得、運動経路内のポインティング要素(例えば、指先14)の異なる位置を含む、一連の位置の値が得られ得る。   The method may include capturing 901 at least one image of the user 16 interacting with the display 6. During step 901, the image sensor 8 may capture an image of the user 16 attempting to interact with the graphical elements displayed on the display 6. The method may include the step 903 of identifying the user's eye 22 and the pointing element within the at least one image. In particular, the captured image may be processed and identified within the captured image of the user's eye 22 and pointing element. The method may include the step 905 of obtaining a series of position data. During step 905, the movement path of the pointing element may be tracked while it is extended towards the display 6, and a series of positions including different positions of the pointing element (eg, the fingertip 14) in the movement path The value of can be obtained.

位置の値は、所与の画像内のポインティング要素の位置を記述し得るパラメータを含む。例えば、位置の値は、イメージセンサ8によって捕捉される視野面内におけるポインティング要素先端のx座標およびy座標であってもよい。ユーザ16は、ディスプレイ6近くに向かって腕を伸ばし得、視野面に対する指14の(x座標およびy座標で示される)2−D位置が取得され、保存され得る。   The position values include parameters that may describe the position of the pointing element in a given image. For example, the value of the position may be the x and y coordinates of the tip of the pointing element in the field of view captured by the image sensor 8. The user 16 can stretch the arm towards the display 6 and the 2-D position (shown in x and y coordinates) of the finger 14 relative to the viewing plane can be obtained and stored.

腕がポインティングジェスチャの間にディスプレイ6近くに向かって伸ばされ、ディスプレイ6からある距離で開始し、収束点から先に向かって移動する一方で、ポインティング要素は、ディスプレイ6の同じ位置を指し得る(例えば、ポインティング要素は、同様の目線24と整列し得る)。この運動経路の間に、イメージセンサ8は、ポインティング要素の異なる点が、ユーザの眼22、ポインティング要素(すなわち、指先14を)、およびディスプレイ6上の点を通過する同一の目線24上に整列するように一連の画像を捕捉し得る。   While the arm is extended towards the display 6 during the pointing gesture, starting at a distance from the display 6 and moving from the convergence point forward, the pointing element may point to the same position of the display 6 ( For example, the pointing element may be aligned with the same line of sight 24). During this movement path, the image sensor 8 aligns the different points of the pointing element on the same eye 24 passing through the user's eye 22, the pointing element (ie the fingertip 14) and the points on the display 6 A series of images can be captured as

本方法は、点P’でポインティング要素を特定するステップ907を含み得る。ステップ907の間、ポインティング要素(すなわち、指先14)の動きは、ポインティング要素が点P’に位置することが特定されるまで追跡され得る。この時点で、所定数の位置の値は、ディスプレイ6に向かうポインティング要素の運動経路から抽出された位置の値の順序から選択され得る。選択される位置の値は、例えば、ディスプレイ6に最も近い点である点P’にポインティング要素が達する前のN個の画像(またはフレーム)と相関する位置の値であり得る。代わりに、選択される位置の値は、同様の目線上に配置された順次位置であり得る。   The method may include the step 907 of identifying a pointing element at point P '. During step 907, movement of the pointing element (i.e., the fingertip 14) may be tracked until it is identified that the pointing element is located at point P '. At this point, a predetermined number of position values may be selected from the order of the position values extracted from the movement path of the pointing element towards the display 6. The value of the selected position may be, for example, the value of the position correlated with N images (or frames) before the pointing element reaches the point P ′ which is the point closest to the display 6. Alternatively, the value of the selected position may be a sequential position located on the same line of sight.

上記のように、(例えば、視野面上のx座標およびy座標で表される)位置値の順序内の各位置の値は、それぞれの位置の値が示す位置に配置されるポインティング素子を通して、ディスプレイ6と交差するユーザの眼22を結ぶそれぞれの目線24に関連付けられ得る。上述した不確定性のため、それぞれの目線は、ディスプレイ6上の各候補面に関連付けられ得る。   As described above, the value of each position in the sequence of position values (represented, for example, by the x coordinate and y coordinate on the field of view) passes through the pointing element placed at the position indicated by the value of the respective position It may be associated with each line of sight 24 connecting the user's eyes 22 intersecting the display 6. Due to the above-mentioned uncertainty, each line of sight may be associated with each candidate face on the display 6.

本方法は、所定数の位置データ要素を選択し、それぞれの候補面をディスプレイ6上で特定するステップ909を含み得る。ステップ909の間に、それぞれの候補面は、ディスプレイ6上で特定される選択位置の値に関連付けられ得る。本方法は、ディスプレイ6上の選択された領域として、全ての候補面の間の重複領域を特定するステップ911を含み得る。ステップ911の間に、候補面の間の重複領域は、特定され、選択された視野面として示され得、それによって、候補面のサイズを小さくし、ユーザ16が向かって指す点としてディスプレイ6上の小さな領域を特定する。   The method may include the step 909 of selecting a predetermined number of position data elements and identifying each candidate surface on the display 6. During step 909, each candidate face may be associated with the value of the selected position identified on the display 6. The method may include the step 911 of identifying the overlap area between all the candidate faces as the selected area on the display 6. During step 911, overlapping areas between candidate planes may be identified and shown as selected view planes, thereby reducing the size of the candidate planes and displaying on display 6 as the point to which user 16 points. Identify a small area of

図10は、部分的に重複する3つの候補面を示す例示的なベン図を描写する。3つの候補面のそれぞれは、ディスプレイ6上のある領域または位置を覆う円として図示される。各面は、位置の値の記録順序における最後の3つの位置の値(位置の値:n、n−1、およびn−2)の異なる位置の値に関連付けられる。   FIG. 10 depicts an exemplary Venn diagram showing three candidate planes that partially overlap. Each of the three candidate planes is illustrated as a circle covering an area or position on display 6. Each face is associated with different position values of the last three position values (position values: n, n-1 and n-2) in the order of recording of position values.

上記のように、収束点およびその先で、位置の値の順序内の異なる位置の値に関連付けられる3つの異なる視野面のそれぞれは、重複領域を覆い得る。図9に図示されるように、3つの候補面は、同じ領域を指し得、選択された投影面として指定される(クロスハッチング模様で示される)重複部分を共有し得る。   As mentioned above, at the convergence point and beyond, each of the three different viewing planes associated with different position values within the sequence of position values may cover the overlapping area. As illustrated in FIG. 9, the three candidate planes may point to the same area and may share an overlap (indicated by the cross hatching pattern) designated as the selected projection plane.

図11は、処理ユニット12で行われ得る、例示的方法を図示するフローチャートを描写する。システム2は、ディスプレイ6に向かって指すユーザ16にフィードバックを提供するように構成され得る。このフィードバックは、ポインティング要素をディスプレイ6の所望の点に向けて指し、より容易に所望のグラフィカル要素を選択するようにユーザ16を支援し得る。図11に関連する以下の動作は、2−Dディスプレイに照らして提供されるが、同様の動作は、3−Dディスプレイでも実行され得る。   FIG. 11 depicts a flowchart illustrating an exemplary method that may be performed at processing unit 12. System 2 may be configured to provide feedback to user 16 pointing towards display 6. This feedback may point the pointing element towards the desired point on the display 6 and assist the user 16 to more easily select the desired graphical element. The following operations associated with FIG. 11 are provided in the context of a 2-D display, although similar operations may be performed with a 3-D display.

本方法は、ディスプレイ6と対話するユーザ16の少なくとも1つの画像を捕捉するステップ1101を含み得る。ステップ1101の間に、イメージセンサ8は、ディスプレイ6に表示されるアイコンと対話しようとするユーザ16の画像を捕捉し得る。本方法は、少なくとも1つの画像内でユーザの眼22およびポインティング要素を特定するステップ1103を含み得る。本方法は、ディスプレイ6上にポインティング視覚効果を表示するステップ1105を含み得る。ステップ1105は、ポインティングジェスチャの検出に応答して生じ得る。ポインティング視覚効果は、例えば、任意の形状または色、透明または不透明によって特徴付けられる色の染みであってもよく、グラフィカル要素の上または背後にあり得る、ディスプレイ6に表示されるグラフィカル要素に対し任意の位置に配置され得る。例えば、ポインティング視覚効果は、それを透過するグラフィカル要素が認識可能である透明色の1つまたはそれを上回る丸い対称形状を有し得、ディスプレイ6の一部を照らすフラッシュライトビームとしてユーザ16に表示され得る。ポインティング視覚効果のディスプレイ6上の初期位置は、ポインティング要素が最初に指す方向に基づいて決定され得る。   The method may include capturing 1101 at least one image of the user 16 interacting with the display 6. During step 1101, the image sensor 8 may capture an image of the user 16 attempting to interact with the icons displayed on the display 6. The method may include the step 1103 of identifying the user's eye 22 and the pointing element within the at least one image. The method may include displaying 1105 the pointing visual effect on the display 6. Step 1105 may occur in response to the detection of a pointing gesture. The pointing visual effect may be, for example, a stain of a color characterized by any shape or color, transparency or opacity, and may be any of the graphical elements displayed on the display 6, which may be on or behind the graphical elements It can be placed in the position of For example, the pointing visual effect may have one or more round symmetrical shapes of transparent color to which the graphical element transmitting it is recognizable, and may be displayed to the user 16 as a flashlight beam that illuminates a portion of the display 6 It can be done. The initial position on the display 6 of the pointing visual effect may be determined based on the direction in which the pointing element initially points.

本方法は、ポインティング要素の運動経路を追跡するステップ1107を含み得る。ポインティング要素を追跡する一方で、ステップ905を参照して上述された図9に示されたように、位置の値のそれぞれの順序が得られ得る。   The method may include the step of tracking 1107 the movement path of the pointing element. While tracking the pointing elements, as shown in FIG. 9 described above with reference to step 905, an order of each of the position values may be obtained.

本方法は、ポインティング要素の動きに相関してポインティング視覚効果の1つまたはそれを上回る特性を変更するステップ1109を含み得る。例えば、ポインティング要素がディスプレイ6に向かって近くに伸ばされる際、ポインティング視覚効果の1つまたはそれを上回る特性は、ポインティング要素の動きに相関して変更され得る。特性は、例えば、ポインティング視覚効果の形状、サイズ、および色のうちの1つまたはそれを上回るものを含み得る。例えば、ポインティング視覚効果は、ポインティング要素とディスプレイ6との距離が減少するにつれてサイズが小さくなり得る。   The method may include the step 1109 of changing one or more characteristics of the pointing visual effect in correlation with the movement of the pointing element. For example, when the pointing element is stretched closer towards the display 6, one or more characteristics of the pointing visual effect may be changed in correlation with the movement of the pointing element. The characteristics may include, for example, one or more of the shape, size, and color of the pointing visual effect. For example, pointing visual effects may decrease in size as the distance between the pointing element and the display 6 decreases.

ユーザ16がディスプレイ6に向かって腕を伸ばすと、ユーザ16は、ディスプレイ6上に表示される所望のグラフィカル要素の位置に向けてポインティング視覚効果を動かすように直観的に試み得る。選択されたグラフィカル要素に向けてポインティング視覚効果を移動させようとするユーザ16により行われ得るポインティング要素の矯正動作は、処理ユニット12によって特定され得る。随意に、ディスプレイ6上のポインティング視覚効果の位置は、ユーザ16の矯正動作に基づいて変化し得る。例えば、ディスプレイ6上のポインティング視覚効果の位置は、ユーザ16によって行われる矯正ジェスチャの方向に相関して変化できる。   As the user 16 stretches his arm towards the display 6, the user 16 can intuitively try to move the pointing visual effect towards the position of the desired graphical element displayed on the display 6. The corrective action of the pointing element, which may be performed by the user 16 attempting to move the pointing visual effect towards the selected graphical element, may be identified by the processing unit 12. Optionally, the position of the pointing visual effect on display 6 may change based on the corrective action of user 16. For example, the position of the pointing visual effect on the display 6 may change relative to the direction of the correction gesture made by the user 16.

別の実施例では、円形のポインティング視覚効果は、ポインティング要素がディスプレイ6に向かって近づくにつれ小さくなり得る。随意に、ポインティング視覚効果は、矯正ジェスチャの方向に減じ得る。図16Aは、左側に位置するアイコン(四角で示す)に向かう矯正ジェスチャに応じてサイズが小さくなり、左に移動したポインティング視覚効果を図示し、図16Bは、右側に位置するアイコン(四角で示す)に向かう矯正ジェスチャに応じてサイズが小さくなり、右側に移動したポインティング視覚効果を図示する。   In another embodiment, the circular pointing visual effect may decrease as the pointing element approaches the display 6. Optionally, pointing visual effects can be reduced in the direction of the correction gesture. FIG. 16A illustrates the pointing visual effect as it is reduced in size and moved to the left in response to the correction gesture directed to the icon located at the left (shown as a square), and FIG. 16B illustrates the icon located at the right (shown as a square) The size is reduced in response to the correction gesture towards) and illustrates the pointing visual effect moved to the right.

本方法は、ディスプレイ6上のポインティング視覚効果の既知の位置とポインティング要素の動きとに基づいてグラフィカル要素を決定するステップ1111を含み得る。例えば、ポインティング視覚効果に対して所定の基準に準拠するアイコンは、選択されたアイコンとして特定され得る。さらに、染みに最も近く配置されたまたは染みに対して矯正ジェスチャの方向に配置されたアイコンは、ユーザ16により選択されたアイコンとして決定され得る。   The method may include determining 1111 a graphical element based on the known position of the pointing visual effect on the display 6 and the movement of the pointing element. For example, an icon that conforms to predetermined criteria for pointing visual effects may be identified as the selected icon. Further, the icon closest to the stain or in the direction of the correction gesture with respect to the stain may be determined as the icon selected by the user 16.

上記のように、処理ユニット12は、ユーザの眼22から、ポインティング要素の先端を通過し、その後、ディスプレイ6を通過して延在する目線24を特定するように構成され得る。このため、処理ユニット12は、捕捉された画像内でユーザの眼22を特定するように構成され得る。   As mentioned above, the processing unit 12 may be configured to identify a line of sight 24 that passes from the user's eye 22 past the tip of the pointing element and then through the display 6. Thus, the processing unit 12 may be configured to identify the user's eye 22 in the captured image.

図12は、ユーザの眼22からポインティング要素の先端を通してユーザ16が指すディスプレイ6上の所望の位置に至る目線24を、ユーザ16がディスプレイ6を指すときにユーザのどちらの目が優位かを考慮することにより算出するための例示的方法を図示するフローチャートを描写する。ディスプレイ6上のグラフィカル要素を指すとき、眼球優位性は、ディスプレイ6上のアイコンの実際の位置とユーザ16が指す位置との間にオフセットが生じる原因となる。言い換えると、ユーザの両眼の間の中間点からポインティング要素の先端を通して目線24を計算するとき、得られる目線は、ディスプレイ6上のアイコンの位置と交差しない場合がある。したがって、第1のジェスチャリング位置は、ユーザ16の一方の眼がユーザ16のもう一方の眼に対して優位であることの結果として、第1のディスプレイ情報の位置から少なくとも部分的に異なる。このオフセットを補正するために、本発明による方法およびシステムは、ユーザの利き眼に関連するアプリオリ情報を用いて目線24を計算し得る。この優位性に関する情報は、システムが表示されるアイコンの正確な位置を知り得、したがって、アイコンを指すように促されたユーザ16が、アイコンからオフセットした位置を指すのを検出されたときにオフセットを決定し得るため、較正中または通常の使用中にシステムによって導出され得る。   FIG. 12 takes into account the line of sight 24 from the user's eye 22 through the tip of the pointing element to the desired position on the display 6 pointed to by the user 16, which eye of the user dominates when the user 16 points to the display 6 10 depicts a flowchart illustrating an exemplary method for calculating by When pointing to graphical elements on the display 6, the ocular dominance causes an offset between the actual position of the icon on the display 6 and the position pointed to by the user 16. In other words, when calculating the eye line 24 from the midpoint between the user's eyes through the tip of the pointing element, the resulting eye line may not intersect the position of the icon on the display 6. Thus, the first gesturing position is at least partially different from the position of the first display information as a result of one eye of the user 16 being superior to the other eye of the user 16. In order to correct this offset, the method and system according to the invention may calculate the line of sight 24 using a-priori information associated with the user's dominant eye. The information regarding this superiority can know the exact position of the icon displayed by the system, and thus offset when the user 16 prompted to point to the icon is detected pointing to a position offset from the icon Can be derived by the system during calibration or during normal use.

アプリオリ情報はまた、データベースまたはウィンクの間等、ユーザの行為からも得られ得る。ユーザ16は、そのような情報を直接求められ、あるいはユーザ16は、ウィンクするように求められる。ウィンクする間、利き眼は、開いたままの眼として判明されてもよい。このようにして、システム2は、ユーザの優位な眼によって目線24を計算し、より高い精度をもって、上記の異なるポインティングジェスチャ中にユーザ16が指す位置の推定を確立し得る。   A priori information may also be obtained from the user's actions, such as during a database or wink. The user 16 may be directly asked for such information, or the user 16 may be asked to wink. During winking, the dominant eye may turn out to be an open eye. In this way, system 2 may calculate eye line 24 with the user's dominant eye and establish an estimate of the position pointed to by user 16 during the different pointing gestures described above with higher accuracy.

さらに、目線24は、ユーザ16の指先14を通して指すディスプレイ6上の点から抽出され得る。しかしながら、それがユーザの瞳孔に達せず、代わりに、より優位な「利き眼」に関連する2つの瞳孔の間のいずれかの点に達する可能性がある。上記し、以下の図14に描写されるように、利き眼に関連するオフセットにより、目線24または視線は、アイコンに対するオフセット位置(仮想の眼Ve)からポインティング要素を通してユーザの顔の瞳孔間の位置まで延在する。したがって、ユーザの瞳孔の一方からの開始点を固定するよりもむしろ、目線24が計算されるユーザの眼の間のより正確な出発点を確立することが有利であり得る。   Further, the eye line 24 may be extracted from a point on the display 6 that points through the finger 14 of the user 16. However, it may not reach the user's pupil, but instead may reach any point between the two pupils associated with the more dominant "dominant eye". As described above and depicted in FIG. 14 below, due to the offset associated with the dominant eye, the eye 24 or line of sight is from the offset position (virtual eye Ve) to the icon through the pointing element to the position between the pupils of the user's face. Extend up to Thus, rather than fixing the starting point from one of the user's pupils, it may be advantageous to establish a more accurate starting point between the user's eyes for which the eyes 24 are calculated.

しかしながら、実際には、目線24は、左眼または右眼またはそれらの間の任意の他の点のいずれかと重複し得る点で、ユーザ16の両眼の間に延在する仮想線上に位置する任意の点と交差し得る。ジェスチャリング位置19、すなわち、所与の目線24が延在するディスプレイ6上の点をより正確に決定するために、ユーザが指すつもりの意図されたディスプレイ位置に関連付けられる目線24に対応するユーザ16の「仮想の眼」を表す、より正確な位置を決定することは、任意のユーザの右眼または左眼の1つまたはそれらを結ぶ線上の任意の点を恣意的に選ぶよりむしろ有利であり得る。   However, in practice, the line of sight 24 lies on a virtual line extending between the two eyes of the user 16 in that it may overlap with either the left eye or the right eye or any other point therebetween. It can intersect with any point. A user 16 corresponding to the eye 24 associated with the intended display position to which the user intends to point in order to more accurately determine the gesturing position 19, ie the point on the display 6 at which a given eye 24 extends. Determining a more accurate position, which represents the 'virtual eye' of the, is advantageous rather than arbitrarily choosing one of the right or left eyes of any user or any point on the line connecting them. obtain.

図12は、ユーザの両眼の間の基準点を、較正モジュール208を含む処理ユニット12で決定するための例示的方法をより詳細に描写する。基準点は、所与の目線24とユーザ16の両眼(例えば、瞳孔)の間に延在する視線とのより正確な交点を表し得る。図12を参照して記述されたプロセスは、例えば、1回限りの較正処理として実行され得または定期的に更新され得る。   FIG. 12 depicts in more detail an exemplary method for determining at the processing unit 12 including the calibration module 208 a reference point between the user's eyes. The reference point may represent a more accurate intersection of a given eye line 24 and a line of sight extending between the user's 16 eyes (e.g., the pupil). The process described with reference to FIG. 12 may, for example, be performed as a one-time calibration process or may be updated periodically.

本方法は、ディスプレイ6上にアイコンを表示するステップ1201を含み得る。本方法は、ディスプレイ6と対話するユーザ16の画像を捕捉するステップ1203を含み得る。ステップ1203で捕捉される画像は、イメージセンサ8によって捕捉され得る。   The method may include the step 1201 of displaying an icon on the display 6. The method may include capturing 1203 an image of the user 16 interacting with the display 6. The image captured at step 1203 may be captured by image sensor 8.

随意に、ユーザ16は、ディスプレイ6に表示されるアイコンに向かって指すように指示または要求され得る。指示は、可聴指示として、較正プロセスの一部として、または対話を必要とする情報の単なる表示として、ディスプレイ6上でユーザ16に提供され得る。本方法は、ユーザ16の第1の眼に結ばれる目線によって生成される第1の候補面を特定するステップ1205を含み得る。ステップ1205の間に、ディスプレイ6に向かうユーザ16のポインティングジェスチャは、特定され得、ポインティング素子を通してユーザの片眼につながる第1の目線およびディスプレイ6上の第1のジェスチャリング位置が決定され得、それぞれの候補面がディスプレイ6に特定され得る。   Optionally, the user 16 may be instructed or required to point towards an icon displayed on the display 6. The indication may be provided to the user 16 on the display 6 as an audible indication, as part of a calibration process, or just as a display of information requiring interaction. The method may include identifying 1205 a first candidate surface generated by a line of sight tied to the first eye of the user 16. During step 1205, a pointing gesture of the user 16 towards the display 6 may be identified, and a first line of sight leading to one eye of the user through the pointing element and a first gesturing position on the display 6 may be determined Each candidate surface may be identified on the display 6.

本方法は、ユーザ16の第2の眼につながる目線によって生成される第2の候補面を特定するステップ1207を含み得る。ステップ1207の間に、ディスプレイ6に向かうユーザ16のポインティングジェスチャは、特定され得、ポインティングオブジェクトを通してディスプレイ6上の第2のジェスチャリング位置にユーザのもう一方の眼をつなぐ第2の目線が決定され得、それぞれの候補面がディスプレイ6に特定され得る。上記のように、第1および第2の候補面は、上述の方法に基づいて決定され得るが、特に、第1および第2の候補面は、ユーザ16とディスプレイ6との間の距離R1およびポインティング要素と視野面におけるポインティング要素の位置との間の伸長範囲R2の推定に基づいて部分的に決定され得る。   The method may include identifying 1207 a second candidate surface generated by a line of sight leading to the second eye of the user 16. During step 1207, a pointing gesture of the user 16 towards the display 6 may be identified, and a second line of sight connecting the other eye of the user to the second gesturing position on the display 6 through the pointing object is determined Each candidate surface may be identified on the display 6. As mentioned above, the first and second candidate planes may be determined based on the method described above, but in particular the first and second candidate planes are the distance R1 between the user 16 and the display 6 and It may be determined in part based on an estimate of the extension range R2 between the pointing element and the position of the pointing element in the field of view.

図13は、ディスプレイ6上に表示され得る較正アイコンClを示す略図である。図13は、1つはユーザ16の左眼を結ぶ目線(文字Lで示される)によって生成され得、他方はユーザ16の右眼を結ぶ目線(文字Rで示される)によって生成され得る2つの候補面をさらに図示する。図13に示される図示された実施例では、候補面Lとは異なり、候補面Rの一部が較正アイコンClと重複することに留意されたい。   FIG. 13 is a schematic diagram showing the calibration icon Cl that may be displayed on the display 6. FIG. 13 shows two that one may be generated by the line of sight (indicated by the letter L) connecting the left eye of the user 16 and the other by the line of sight (indicated by the letter R) connecting the right eye of the user 16 The candidate plane is further illustrated. It should be noted that in the illustrated embodiment shown in FIG. 13, unlike the candidate plane L, a portion of the candidate plane R overlaps the calibration icon Cl.

アイコンの位置に対する2つの候補面のそれぞれの位置に基づいて、処理ユニット12は、両眼のいずれがより優位であるかを決定するように構成され得、ジェスチャリング位置19に関連付けられるオフセットOを決定し得る。システム2は、追加のジェスチャリング位置を決定する際に、その眼または「仮想の眼」を使用し得る。処理ユニット12は、オフセットOに関連する情報を通じて、どちらの眼がより優位であるかを示すように構成され得る。さらに、処理ユニットは、例えば、候補面LおよびRと較正アイコンClおよび/またはユーザの眼に対する「仮想の眼」の相対位置、すなわち、ユーザの左眼と右眼との間の総距離に対する「仮想の眼」Veとユーザの左眼および右眼の1つとの間の距離の比との重なりの割合に基づき得る、左右の眼の間の優位性の度合いを示すように構成され得る。図12に関して開示された方法はまた、第1候補面および第2の候補面を結ぶ線を延長するステップ1209も含み得る。図12を参照して図示される1つの実施例によれば、(図13に示されるような)線130は、候補面Lの中心と候補面Rの中心との間に延長されることができる。本方法は、線130に沿う(線130に近い、すなわち、略近傍の)アイコンClに最も近い点を決定するステップ1211を含み得る。例えば、(ユーザ16が向かって指す標的であり得る)較正アイコンClの中心に最も近い位置にある線130上の第3の点が特定される。較正アイコンClに最も近い点は、線130をセグメントAおよびBに分割し得る。図13に示される実施例では、セグメントAは、アイコンClに最も近い点から、ユーザ16の左眼を「スタート」し、ポインティング要素(例えば、指先14)に向かってディスプレイ6と交差する視線を計算することによって決定されるジェスチャリング位置19に延在し得る。ジェスチャ位置はまた、平面Lの中心としても定義され得る。また、セグメントBは、較正アイコンClに最も近い点から、ユーザ16の右眼を「スタート」し、ポインティング要素(例えば、指先14)に向かってディスプレイ6と交差する視線を計算することによって決定されるジェスチャリング位置の中心に延在し得る。ジェスチャ位置はまた、平面Rの中心としても定義され得る。本方法は、(図14に示されるように)ユーザ16の両眼または瞳孔の間に延在する線上の対応する点Ve(または「仮想の眼」)を特定するステップ1213を含み得る。   Based on the position of each of the two candidate planes with respect to the position of the icon, the processing unit 12 may be configured to determine which of the eyes is more dominant, and the offset O associated with the gesturing position 19 It can be decided. System 2 may use that eye or “virtual eye” in determining additional gesturing positions. The processing unit 12 may be configured to indicate which eye is more dominant through the information associated with the offset O. Furthermore, the processing unit may, for example, “relative to the candidate faces L and R and the calibration icon Cl and / or the relative position of the“ virtual eye ”with respect to the user's eye, ie the total distance between the user's left and right eyes It may be configured to indicate the degree of dominance between the left and right eyes, which may be based on the percentage of overlap of the ratio of the distance between the virtual eye "Ve" and one of the user's left and right eyes. The method disclosed with respect to FIG. 12 may also include extending 1209 a line connecting the first and second candidate planes. According to one embodiment illustrated with reference to FIG. 12, the line 130 (as shown in FIG. 13) may be extended between the center of the candidate plane L and the center of the candidate plane R it can. The method may include the step 1211 of determining a point closest to the icon Cl (close to the line 130, i.e., substantially close to the line 130). For example, a third point on line 130 that is closest to the center of calibration icon Cl (which may be the target that user 16 points to) is identified. The point closest to the calibration icon Cl may divide the line 130 into segments A and B. In the example shown in FIG. 13, segment A “starts” the left eye of the user 16 from the point closest to the icon Cl and has a line of sight intersecting the display 6 towards the pointing element (eg the fingertip 14) It may extend to a gesturing position 19 determined by calculation. The gesture position may also be defined as the center of plane L. Also, segment B is determined by “starting” the right eye of the user 16 from the point closest to the calibration icon Cl and calculating the line of sight that intersects the display 6 towards the pointing element (eg, the fingertip 14) Can extend to the center of the gesturing position. The gesture position may also be defined as the center of plane R. The method may include identifying 1213 a corresponding point Ve (or “virtual eye”) on a line extending between the eyes or pupils of the user 16 (as shown in FIG. 14).

点Veは、ユーザ16の両眼間に延在する線をセグメントCおよびセグメントDに分割し得る。例えば、セグメントCは、点Veからユーザの左瞳に延在し得、セグメントDは、点Veからユーザの右瞳に延在し得る。ユーザ16の両眼または瞳孔の間に延在する線上における点Veの位置は、A/Bの比率がC/Dの比率と等しくなるように、点Veの位置を内挿することによって決定され得る。   Point Ve may divide the line extending between the eyes of user 16 into segment C and segment D. For example, segment C may extend from point Ve to the user's left pupil, and segment D may extend from point Ve to the user's right pupil. The position of point Ve on a line extending between the eyes or pupils of user 16 is determined by interpolating the position of point Ve such that the ratio A / B is equal to the ratio C / D. obtain.

処理ユニット12は、目線を特定するときに、ユーザ16の顔との交点として対応点Veを使用するように構成され得る。本プロセスは、「仮想の眼」の場所を微調整し、ディスプレイ6に対するユーザ16の異なる場所に応じてそれを微調整するために、より収集された値に達するよう、較正が行われるたびに行われ得ることに留意されたい。   The processing unit 12 may be configured to use the corresponding point Ve as an intersection with the face of the user 16 when identifying the eye line. The process fine-tunes the location of the "virtual eye" and each time calibration is performed to reach more collected values to fine-tune it according to the different locations of the user 16 relative to the display 6. Note that it can be done.

随意に、図12を参照して記述される動作は、それぞれがディスプレイ6上の異なる位置に配置される複数のアイコンについて反復され得る。したがって、両眼間の異なる各点Veは、ディスプレイ6上の異なる領域または位置に向けられるポインティングジェスチャを処理することにより特定され得る。   Optionally, the operations described with reference to FIG. 12 may be repeated for a plurality of icons, each located at a different position on the display 6. Thus, each different point Ve between the eyes can be identified by processing pointing gestures directed to different areas or locations on the display 6.

「仮想の眼」の位置および/または「仮想の眼」のマッピング情報は、システム2またはシステム2を使用する他のデバイスによって後に使用されるよう、全ての特定のユーザ16に関連付けられた(デバイス4上またはデバイス4の外部の)メモリに格納され得る。システム2が(例えば、顔認識、ユーザの音声署名、またはユーザ16による明示によって)ユーザ16を特定するとき、システム2は、「仮想の眼」の位置および/または「仮想の眼」のマッピング情報を示す、格納された情報を取り出し得る。それぞれのユーザ6について格納される「仮想の眼」および/または「仮想の眼のマッピング情報」は、イメージセンサ8により得られる固有の識別情報を含み得、各ユーザ6に関連付けられるオフセットに関する情報を含み得る。例えば、各ユーザ6について格納される情報は、ユーザの瞳孔を含むユーザの眼等、顔の特徴の位置を含む顔の情報を含み得る。加えて、各ユーザについて保存されるオフセット情報は、ユーザの瞳孔を含むユーザの眼に関するユーザ6のオフセット情報を含み得る。   The “virtual eye” location and / or “virtual eye” mapping information is associated with all the specific users 16 for later use by system 2 or other devices using system 2 (device 4) or external to device 4). When system 2 identifies user 16 (e.g., by face recognition, user voice signature, or explicitness by user 16), system 2 determines "virtual eye" location and / or "virtual eye" mapping information Can be retrieved to indicate stored information. The “virtual eyes” and / or “virtual eye mapping information” stored for each user 6 may include unique identification information obtained by the image sensor 8 and information on the offset associated with each user 6 May be included. For example, the information stored for each user 6 may include face information including the location of facial features, such as the user's eyes, including the user's pupil. In addition, the offset information stored for each user may include the offset information of user 6 with respect to the user's eyes, including the user's pupil.

本発明の実施形態は、ジェスチャリング位置19とユーザ16が指すと認識されるディスプレイ8上の位置との間のディスプレイ6上の差異を表すベクトルに関連付けられる1つまたはそれを上回るオフセットを格納するステップを含み得る。例えば、
候補面Rの中心からの距離およびユーザ16が指すように促されるアイコンの中心。そして、ユーザ16が後続のタッチフリージェスチャを行うとき、システム2は、ユーザが指す表示情報(アイコン)を正確に決定するため、ジェスチャリング位置19を補正するように格納されたオフセットを使用し得る。システム2は、ディスプレイの異なる領域に関連付けられる多数のオフセットを格納し得、格納されたオフセットの好適な1つをジェスチャリング位置19に応じて使用し得る。本発明の実施形態は、指先14等ユーザ16のポインティング要素の特定を可能にし得る。手の特徴は、指先14または手に持たれるもしくは手に着用されるその他任意のポインティング要素を特定するために役立つ。図15は、指先14、指先14上の爪26、および人差し指の関節28を含むユーザの手を描写する。
Embodiments of the present invention store one or more offsets associated with a vector representing the difference on the display 6 between the gesturing position 19 and the position on the display 8 that the user 16 recognizes as pointing to May include steps. For example,
The distance from the center of the candidate surface R and the center of the icon that the user 16 is prompted to point to. And, when the user 16 makes a subsequent touch free gesture, the system 2 may use the stored offset to correct the gesturing position 19 to accurately determine the display information (icon) pointed to by the user . The system 2 may store multiple offsets associated with different areas of the display, and may use a suitable one of the stored offsets in response to the gesturing position 19. Embodiments of the present invention may allow for the identification of the pointing element of the user 16 such as the fingertip 14. Hand features serve to identify the fingertip 14 or any other pointing element that is held or worn by the hand. FIG. 15 depicts the user's hand including the fingertip 14, the nail 26 on the fingertip 14, and the forefinger joint 28.

ポインティング要素を決定するための方法は、ポインティング要素がユーザの右手または左手の一部またはこれに関連付けられているかどうかを決定するステップを含み得る。イメージセンサ8によって捕捉される画像から、ユーザ16がジェスチャを行うとき、どちらの手を動かすか容易に決定し得る。本方法は、人差し指の指先14上の爪26を決定するステップを含み得る。指先の爪26を決定するステップに代えて、またはそれに加えて、本方法は、ユーザ16が右手で指す場合には手の左側部分に、そしてユーザ16が左手で指す場合には手の右側部分に人差し指の関節28を検出し得る。代わりに、システムは、第3、第4、および第5指の関節等、一連の関節のシグネチャを検出するように構成され得る。本システムはまた、指す手の特徴である、図15に図示される折り畳まれた親指を検出し得る。これは、図15に図示されるように、人差し指の先端が、その認識可能な特徴において、手の他のより明確な部分からあまり区別されないため有用であり得る。しかしながら、手のよりはっきり異なる部分がいったん見つかると、指先の位置は、推定され得る。   The method for determining the pointing element may include the step of determining whether the pointing element is associated with or part of the user's right hand or left hand. From the image captured by the image sensor 8 it can be easily determined which hand to move when the user 16 makes a gesture. The method may include the step of determining the nail 26 on the index finger tip 14. Instead of or in addition to the step of determining the fingernails 26, the method is on the left side of the hand if the user 16 points with the right hand and the right side of the hand if the user 16 points with the left hand The joint 28 of the forefinger can be detected. Alternatively, the system may be configured to detect a series of joint signatures, such as the joints of the third, fourth and fifth fingers. The system may also detect the folded thumb illustrated in FIG. 15, which is a feature of the pointing hand. This may be useful as illustrated in FIG. 15 because the tip of the forefinger is less distinguishable in its recognizable features from other more distinct parts of the hand. However, once a more distinct part of the hand is found, the position of the fingertip can be estimated.

より具体的には、推定は、ユーザの顔に対する手の幅、高さ、および/または位置の測定または推定を通して生じ得る。このデータは、ユーザの手の特定の解剖学的構造および寸法を推定するために役立ち得、したがって、指先14の位置を、それが捕捉された画像から容易に明らかではない場合には、予測するのを助け得る。さらに、指間隔同士の既知の関係が推定を向上させるのに役立ち得る。1つまたはそれを上回る指輪等の宝石は、指先14の位置を決定するための基準点として用いられ得る。特定のユーザ16のためメモリ13に保存される基準データまたは平均的な解剖学的データは、推定を改善するのを助け得る。上述の基準データはいずれも、ポインティング位置を特定することに関連付けられるアルゴリズムで使用され得る。基準点は、例えば、手、宝石、(指先14上の爪26を含む)いずれかの爪、および人差し指の関節28等1つまたはそれを上回る関節の中心位置を含み得る。基準点がいったん特定されると、アルゴリズムは、基準点に対する指14の推定位置として、x、y座標またはx、y、z座標でのオフセット距離を算出し得る。本方法は、1つまたはそれを上回る基準点を特定し、追跡し得、指先14の位置を推定するため、基準点に関連付けられる対応するオフセットを適用し得る。   More specifically, the estimation may occur through measurement or estimation of the width, height, and / or position of the hand relative to the user's face. This data can help to estimate the specific anatomy and dimensions of the user's hand, and thus predict the location of the fingertip 14 if it is not readily apparent from the image from which it was captured I can help. In addition, known relationships between finger spacings can help to improve the estimation. Gems such as one or more rings may be used as reference points to determine the position of the fingertip 14. Reference data or average anatomical data stored in memory 13 for a particular user 16 may help to improve the estimation. Any of the above reference data may be used in the algorithm associated with identifying the pointing position. The reference point may include, for example, the center position of one or more joints, such as the hand, a gem, any nail (including the nail 26 on the fingertip 14), and the joint 28 of the forefinger. Once the reference point is identified, the algorithm may calculate an offset distance in x, y coordinates or x, y, z coordinates as the estimated position of the finger 14 relative to the reference point. The method may identify and track one or more reference points, and may apply corresponding offsets associated with the reference points to estimate the position of the fingertip 14.

本発明の他の実施形態は、タッチフリージェスチャ認識システムを較正するためのデバイスを含み、デバイスは、ディスプレイ上の少なくとも1つのプロンプト位置でユーザにタッチフリージェスチャを行なわせるプロンプトの提示を可能にすることと、ディスプレイ上の対応するジェスチャリング位置を示すカメラからの情報を受信することであって、ディスプレイ上のジェスチャリング位置とユーザの意図したジェスチャリング位置との間の不整列の結果、ジェスチャリング位置は、少なくとも1つのプロンプトの位置とは異なる、ことと、不整列を考慮するため、ジェスチャ認識システムを較正することとを行うように構成された少なくとも1つのプロセッサを含み得る。   Another embodiment of the invention includes a device for calibrating a touch free gesture recognition system, the device enabling the presentation of a prompt for the user to perform a touch free gesture at at least one prompt position on the display And receiving information from the camera indicating the corresponding gesturing position on the display, wherein the gesturing results from misalignment between the gesturing position on the display and the user's intended gesturing position. The position may include at least one processor configured to perform different than the position of the at least one prompt and to calibrate the gesture recognition system to account for misalignment.

加えて、タッチフリージェスチャ認識システムを較正するためのデバイスでは、少なくとも1つのプロセッサはさらに、較正に加え、少なくとも1つの動作のためのタッチフリージェスチャを使用することと;較正が生じていることをユーザに対して特定することなく、プロンプトがアプリケーションの使用中に生じることを可能にすることと;使用中にディスプレイ上で検出されるジェスチャの位置とユーザが選択しようとしていることが疑われるディスプレイ上のアイコンの位置との間の違いを考慮して、ジェスチャ認識システムを定期的に再較正することにより、アプリケーションの使用中にジェスチャ位置の精度を定期的に向上させることと;予測に基づいて較正するために、ディスプレイ上のジェスチャ位置の特定のアイコンへの近接性に基づいて、特定のアイコンを有効にするユーザの意図を予測することと;ユーザが特殊な較正手順を必要とすることなく、アプリケーションの通常の使用中に定期的な再較正を可能にすることと;少なくとも1つのプロンプトの位置でタッチフリージェスチャに続く次のアクションをユーザが実行した後まで、較正を遅らせることと;アプライアンスロック解除プロセス中に再較正することによりジェスチャ位置の精度を向上させることと;アイコンの位置とジェスチャの場所との間に差があるときに、ユーザの意図が特定のアイコンを有効にすることにあるかどうかをディスプレイ上のアイコンのレイアウトに基づいて決定することと;ディスプレイに対するユーザの所定の動きを検出した後、関連するアプライアンスのロックを解除するようユーザに促すことと;複数のポインティング位置および複数のポインティング位置のそれぞれに関連付けられるアイコンの相対的な位置に関連する情報を保存し、保存された情報を用いてジェスチャ認識システムを較正することと;ジェスチャ位置とジェスチャ位置に関連付けられるアイコンの相対的な位置に関連した情報を保存し、および/または保存される情報をもとにジェスチャ認識システムを較正することと;ユーザの視覚に固有な特性を考慮して、ロック解除プロセスの間に、較正することとを行うように構成され得る。   In addition, in a device for calibrating a touch-free gesture recognition system, the at least one processor further uses, in addition to the calibration, a touch-free gesture for at least one operation; Allowing the prompt to occur during use of the application without specifying for the user; the location of gestures detected on the display during use and on the display that the user is trying to select Periodically improve the accuracy of the gesture position while using the application by periodically recalibrating the gesture recognition system, taking into account the difference between the position of the icon of the and the calibration based on the prediction; To the specific icon of the gesture position on the display Predicting the user's intention to activate a specific icon based on touch; enabling periodic recalibration during normal use of the application, without the user needing a special calibration procedure Improve the accuracy of the gesture position by delaying the calibration until after the user has performed the next action following the touch-free gesture at the position of at least one prompt; recalibration during the appliance unlocking process Determining whether the user's intention is to activate a particular icon based on the layout of the icon on the display, when there is a difference between the position of the icon and the location of the gesture. And after detecting the user's predetermined movement relative to the display, lock the associated appliance Prompting the user to divide; storing information associated with the plurality of pointing positions and the relative position of the icon associated with each of the plurality of pointing positions, and calibrating the gesture recognition system using the stored information Storing the information related to the relative position of the gesture position and the icon associated with the gesture position, and / or calibrating the gesture recognition system based on the stored information; specific to the user's vision Can be configured to perform and calibrate during the unlocking process taking into account certain characteristics.

加えて、タッチフリージェスチャ認識システムを較正するためのデバイスでは、プロンプトは、関連するアプライアンスまたは少なくとも1つのアイコンをロック解除するようにユーザを合図するための少なくとも1つのアイコンを含み得、タッチフリージェスチャは、ポインティングジェスチャであり、少なくとも1つのプロセッサは、ユーザに少なくとも1つのアイコンを指すよう合図するように構成される。ディスプレイ上の少なくとも1つの位置は、第1の既知の位置と第2の既知の位置とを含み得、較正は、第1の既知の場所から第2の既知の場所へジェスチャするよう、ユーザにプロンプトすることに関連する情報に基づく。ユーザの所定の動きは、カメラの視界の外に動くユーザの少なくとも体の一部を含み得る。   In addition, in a device for calibrating a touch free gesture recognition system, the prompt may include at least one icon for signaling the user to unlock the associated appliance or at least one icon, the touch free gesture Is a pointing gesture and at least one processor is configured to signal the user to point at least one icon. The at least one position on the display may include a first known position and a second known position, and the calibration allows the user to gesture from the first known position to the second known position. Based on information related to prompting. The predetermined movement of the user may include at least a portion of the body of the user moving out of the field of view of the camera.

ジェスチャリング位置は、ポインティング位置であり得、少なくとも1つのプロセッサはさらに、ポインティング位置および少なくとも第1のアイコンの位置に基づいて、ジェスチャ認識システムを最初に較正すること;最初の較正の後、ユーザがジェスチャを使用してアプリケーションを制御することを可能にすること;アプリケーションの制御時に、ディスプレイ上の少なくとも第2のアイコンに対するジェスチャに関する情報を収集すること;および/またはユーザが少なくとも第2のアイコンを指そうとしたとき、アプリケーション制御の際に再較正することを行うように構成され得る。   The gesturing position may be a pointing position, and the at least one processor further calibrates the gesture recognition system initially based on the pointing position and the position of the at least first icon; after the first calibration, the user Enabling control of the application using a gesture; collecting information on the gesture for the at least second icon on the display when controlling the application; and / or the user fingering at least the second icon When doing so, it may be configured to perform recalibration during application control.

不整列は、ユーザの一方の眼がユーザの他方の眼に対して優位であることの結果であり得、少なくとも1つのプロセッサはさらに、ユーザの一方の眼がユーザの他方の眼に対して優位であることを考慮して、ジェスチャ認識システムを較正すること;ジェスチャ位置と少なくとも一つのプロンプト位置との間のオフセットを決定すること;および/またはオフセットに基づいてその後のジェスチャ位置の決定に適用する調整を決定することを行うように構成され得る。   Misalignment may be the result of the user's one eye predominating over the user's other eye, and the at least one processor further indicates that one eye of the user predominates over the other eye of the user Calibrating the gesture recognition system taking into account that: determining an offset between the gesture position and the at least one prompt position; and / or applying to the subsequent determination of the gesture position based on the offset It may be configured to make an adjustment decision.

本発明の他の実施形態は、ディスプレイ上の少なくとも1つのプロンプトの位置でタッチフリーポインティングジェスチャを行うようユーザにプロンプトを提示することを可能にすることと;タッチフリーポインティングジェスチャに対応するイメージセンサからの画像情報を受信することと;タッチフリーポインティングジェスチャに関連する指先の位置を決定することでわって、指先の位置は、ユーザの指の先端の他に、ユーザの解剖学的特徴に少なくとも部分的に基づいて決定される、ことと;決定された指先の位置に少なくとも部分的に基づいて、タッチフリージェスチャに関連するディスプレイ上のポインティング位置を決定することとを行うように構成された少なくとも1つのプロセッサを含むタッチフリージェスチャ認識システムを含み得る。   Another embodiment of the invention makes it possible to present a prompt to the user to make a touch free pointing gesture at the position of at least one prompt on the display; from an image sensor corresponding to a touch free pointing gesture The position of the fingertip is at least partially dependent on the user's anatomical features in addition to the user's finger tip, by receiving the image information of the; and determining the position of the fingertip associated with the touch free pointing gesture. At least one configured to: determine based on the selected position; and determining a pointing position on the display associated with the touch free gesture based at least in part on the determined position of the fingertip. Touch Gesture Recognition System with Two Processors It may include a beam.

タッチフリージェスチャ認識システムはまた、手の向きの違いに基づいてポインティング位置を決定するための複数のアルゴリズムを格納する少なくとも1つのメモリデバイスを含み得、少なくとも1つのプロセッサはさらに、画像情報中の手の向きに少なくとも部分的に基づいて複数のアルゴリズムから好適なアルゴリズムを選択し、好適なアルゴリズムに少なくとも部分的に基づいてポインティング位置を決定するように構成され得る。   The touch free gesture recognition system may also include at least one memory device storing a plurality of algorithms for determining a pointing position based on differences in hand orientation, and the at least one processor is further operable to: The preferred algorithm may be selected from the plurality of algorithms based at least in part on the orientation of and the pointing position may be determined based at least in part on the preferred algorithm.

タッチフリージェスチャ認識システムはまた、画像情報内で右手または左手のいずれが検出されたかどうかに基づいて、ポインティング位置を決定する複数のアルゴリズムを格納するための少なくとも1つのメモリデバイスを含み得、少なくとも1つのプロセッサはさらに、右手が検出されたかまたは左手が検出されたかに少なくとも部分的に基づいて、複数のアルゴリズムから好適なアルゴリズムを選択し、好適なアルゴリズムに少なくとも部分的に基づいてポインティング位置を決定すること;および/またはユーザの解剖学的特徴とユーザの手の少なくとも一部との間のオフセットに少なくとも部分的に基づいて、ユーザの手が左手かまたは右手かを決定することを行うように構成される。   The touch free gesture recognition system may also include at least one memory device for storing a plurality of algorithms for determining the pointing position based on whether a right hand or a left hand is detected in the image information, the at least one memory device. The one processor further selects a suitable algorithm from the plurality of algorithms based at least in part on whether the right hand or the left hand is detected, and determines the pointing position based at least in part on the suitable algorithm. And / or configured to determine whether the user's hand is the left hand or the right hand based at least in part on the offset between the anatomical features of the user and at least a portion of the user's hand Be done.

タッチフリージェスチャ認識システムでは、解剖学的特徴は、指の爪を含み得、ユーザの手の幅、長さ、サイズ、または位置の少なくとも1つであり得、および/またはポインティングジェスチャで使われた指先ではない第2の指先であり得、少なくとも1つのプロセッサはさらに、ポインティングに使用された指先および第2の指先に少なくとも部分的に基づいて、指先の位置を決定するように構成され得る。   In a touch-free gesture recognition system, the anatomical feature may include a fingernail, may be at least one of the user's hand width, length, size, or position, and / or used in a pointing gesture It may be a second fingertip that is not a fingertip, and the at least one processor may be further configured to determine the location of the fingertip based at least in part on the fingertip used for pointing and the second fingertip.

タッチフリージェスチャ認識システムでは、少なくとも1つのプロセッサはさらに、画像情報内での指先の位置特定がない中で、ユーザの手の指先以外の所定の領域に少なくとも部分的に基づいて、指先の位置を決定すること、および/または指すために使用される指の推定長さに少なくとも部分的に基づいて、指先の位置を決定することを行うように構成され得る。   In a touch-free gesture recognition system, the at least one processor is further configured to at least partially position the fingertip in a predetermined area other than the fingertip of the user's hand in the absence of the location of the fingertip in the image information. The location of the fingertip may be configured to be determined based at least in part on the determined length of the finger used to determine and / or point.

タッチフリージェスチャ認識システムでは、少なくとも1つのプロセッサはさらに、画像情報内の手が左手または右手であるかどうかを決定し、右手と決定される場合は手の左上の領域、または左手と決定される場合は手の右上の領域に関連する位置として、指先位置を決定すること;手のサイズに関連するフィルタマスクを画像情報に適用することにより手を位置付けること;画像情報内でユーザの手の2本の指を検出し、2本の指の間の位置として指先の位置を決定すること;および/または画像情報内のユーザの手の複数の指を検出し、複数の指に少なくとも部分的に基づいて指先位置を決定することであって、複数の指のそれぞれが指先位置を決定するための異なる加重に関連付けられることとを行うように構成され得る。   In a touch-free gesture recognition system, the at least one processor further determines whether the hand in the image information is a left hand or a right hand, and if determined as a right hand, is determined as the upper left region of the hand or the left hand If the position of the fingertip is determined as a position relative to the upper right area of the hand; positioning the hand by applying a filter mask related to the size of the hand to the image information; 2 of the user's hand within the image information Detecting the fingers of the book and determining the position of the fingertip as a position between the two fingers; and / or detecting the fingers of the user's hand in the image information, at least partially on the fingers Determining the fingertip position based on, wherein each of the plurality of fingers may be configured to be associated with different weights for determining the fingertip position.

タッチフリージェスチャ認識システムでは、少なくとも1つのプロセッサはさらに、1回目に画像情報内で指先を位置付けることなく指先の位置を決定した後に、引き続き非指先情報を用いて指先を追跡するように構成され得る。   In a touch-free gesture recognition system, the at least one processor may be further configured to continue tracking the fingertip with non-fingertip information after determining the position of the fingertip without first positioning the fingertip in the image information .

タッチフリージェスチャ認識システムでは、少なくとも1つのプロセッサはさらに、1回目に指先位置を位置付けたが、2回目に指先位置を位置付けるのに失敗した後、1回目の指先位置と非指先情報とを用いて、指先を追跡するように構成され得る。   In a touch-free gesture recognition system, at least one processor further positions the fingertip position at the first time, but fails to position the fingertip position at the second time, using the first fingertip position and non-fingertip information , Can be configured to track the fingertips.

本発明の他の実施形態は、タッチフリージェスチャ認識システム内で視覚的なフィードバックを提供するためのデバイスを含み得、デバイスは、ディスプレイ上の画像の提示を可能にすることと;ユーザによって実行されるタッチフリージェスチャを示すカメラからの情報を受信することと;ディスプレイ上のジェスチャリングインジケータの提示を可能にすることであって、ジェスチャリングインジケータは、ディスプレイに対するユーザのタッチフリージェスチャの位置を表す、ことと;ユーザのタッチフリージェスチャがディスプレイから第1の距離にあるとき、ディスプレイ上の最初の画面内にジェスチャリングインジケータを提示することと;ユーザのタッチフリージェスチャが第1の距離とは異なるディスプレイからの第2の距離にあるとき、ディスプレイ上の第2の画面にジェスチャリングインジケータを提示することとを行うように構成された少なくとも1つのプロセッサを含む。   Other embodiments of the invention may include a device for providing visual feedback in a touch free gesture recognition system, the device enabling presentation of an image on a display; performed by a user Receiving information from the camera indicating a touch free gesture; and enabling presentation of a gesturing indicator on the display, the gesture ring indicator representing the position of the touch free gesture of the user relative to the display, Presenting the gesturing indicator in the first screen on the display when the touch free gesture of the user is at the first distance from the display; display the touch free gesture of the user being different from the first distance Second distance from When in, including at least one processor configured to perform the method comprising: presenting a gesturing indicator to a second screen on the display.

タッチフリージェスチャ認識システムでは、ジェスチャリングインジケータは、ポインティングインジケータであり得る。カメラから受信される情報は、ユーザの手の少なくとも一部を反映し得る。ディスプレイ上の画像は、少なくとも1つのアイコンを含む。   In a touch free gesture recognition system, the gesture ring indicator may be a pointing indicator. The information received from the camera may reflect at least a portion of the user's hand. The image on the display includes at least one icon.

タッチフリージェスチャ認識システムでは、少なくとも1つのプロセッサはさらに、ユーザによるタッチフリージェスチャのディスプレイからの距離が減少するにつれジェスチャリングインジケータのサイズを減少させること;ユーザによるタッチフリージェスチャのディスプレイからの距離が増大するにつれジェスチャリングインジケータのサイズを増大させること;ユーザのタッチフリージェスチャに関連付けられる補正動作を検出し、補正動作に基づいて、アイコンを選択するユーザの意図を決定すること;ジェスチャの一部が検出された後にのみおよび/またはユーザの手がイメージセンサの視野の所定の領域に検出されたときにジェスチャインジケータを提示すること;ディスプレイに相対するジェスチャ動作の検出位置が所定の閾値内に入った後でのみジェスチャインジケータを提示することと;ユーザのタッチフリージェスチャのディスプレイからの距離が減少するにつれジェスチャリングインジケータのサイズを増大させること;および/またはユーザのタッチフリージェスチャのディスプレイからの距離が増大するにつれ、ジェスチャリングインジケータのサイズを減少させることを行うように構成され得る。   In a touch-free gesture recognition system, at least one processor further reduces the size of the gesturing indicator as the distance from the display of the touch-free gesture by the user decreases; the distance from the display of the touch-free gesture by the user increases Increasing the size of the gesturing indicator as it detects; detecting the corrective action associated with the user's touch-free gesture; determining the user's intention to select the icon based on the corrective action; part of the gesture detecting Presenting the gesture indicator only after being detected and / or when the user's hand is detected in a predetermined area of the field of view of the image sensor; the detection position of the gesture movement relative to the display is predetermined Presenting the gesture indicator only after entering into the value; increasing the size of the gesturing indicator as the distance of the touch-free gesture of the user from the display decreases; and / or display of the touch-free gesture of the user As the distance from Z increases, the size of the gesturing indicator may be configured to decrease.

タッチフリージェスチャ認識システムでは、ディスプレイは、仮想3Dディスプレイであり得、少なくとも1つのプロセッサはさらに、ユーザの手とディスプレイとの間の距離が変化するにつれ、ジェスチャインジケータとディスプレイとの間の距離が変化するようにすること;仮想の3Dインジケータが、ユーザの手の少なくとも一部から出てくるかのように現れるようにすること;ユーザのタッチフリージェスチャのディスプレイからの距離が減少するにつれ、仮想の3Dインジケータのサイズを減少させること;および/またはジェスチャリングインジケータを、ディスプレイ上の情報選択に先立つ第1の形式とディスプレイ上の情報選択後の第2の形式の2つの形式で表示することを行うように構成され得る。   In a touch free gesture recognition system, the display may be a virtual 3D display, and the at least one processor further changes the distance between the gesture indicator and the display as the distance between the user's hand and the display changes. Making the virtual 3D indicator appear as if coming out of at least a part of the user's hand; as the distance from the display of the user's touch-free gesture decreases, Reduce the size of the 3D indicator; and / or display the gesturing indicator in two forms, a first form prior to information selection on the display and a second form after information selection on the display Can be configured as follows.

本開示の主題によるシステム2は、好適にプログラムされたコンピュータを含み得ることが理解されるであろう。同様に、本開示の主題は、開示される主題の方法を実行するためのコンピュータによって読取可能である、コンピュータプログラムを企図する。本開示の主題は、本開示の主題の方法を実行するための機械によって実行可能な指示のプログラムを具現化する、機械可読メモリをさらに企図する。   It will be appreciated that the system 2 according to the subject matter of the present disclosure may comprise a suitably programmed computer. Similarly, the subject matter of the present disclosure contemplates a computer program readable by a computer for performing the methods of the disclosed subject matter. The subject matter of the present disclosure further contemplates a machine readable memory embodying a program of instructions executable by the machine for performing the methods of the subject matter of the present disclosure.

本開示の主題は、その用途において、本明細書に含まれるまたは図面に図示される記述に明記される詳細な説明に限定されるものではないことと理解されるべきである。本開示の主題は、他の実施形態および様々な方法で実行することが可能である。したがって、本明細書中で用いられる表現および用語は説明のためであり、限定とみなすべきではないことを理解されたい。このように、当業者は、本開示が基づく概念が、本開示の主題が提示するいくつかの目的を実行するための他の構造、方法、およびシステムを設計する基礎として容易に利用され得ることを理解するであろう。   It is to be understood that the subject matter of the present disclosure is not limited in its application to the detailed description contained in the specification or specified in the description illustrated in the drawings. The subject matter of the present disclosure can be implemented in other embodiments and in various ways. Thus, it is to be understood that the phraseology and terminology employed herein is for the purpose of description and should not be regarded as limiting. Thus, one of ordinary skill in the art can readily employ the concepts on which the present disclosure is based as a basis for designing other structures, methods, and systems for carrying out the several objectives presented by the subject matter of the present disclosure. Will understand.

明確にするため、別個の実施形態の文脈において本明細書に記載される特定の特徴はまた、単一の実施形態に組み合わせて提供され得る。逆に、簡潔にするために、単一の実施形態の文脈で説明される種々の特徴はまた、別々に多数の実施形態または任意の好適な副組み合わせとしても提供され得る。さらに、特徴は、特定の組み合わせで作用するように上述され得、当初はそのように主張され得るが、特許請求の範囲の記載の組み合わせからの1つまたはそれを上回る特徴は、いくつかの場合には組み合わせから削除され得、特許請求の組み合わせは、副組み合わせまたは副組み合わせの変形を対象とし得る。   For clarity, certain features described herein in the context of separate embodiments may also be provided in combination in a single embodiment. Conversely, various features that are, for brevity, described in the context of a single embodiment, can also be provided separately as a number of embodiments or any suitable subcombination. Further, the features may be described above as acting in a particular combination, and may be initially claimed as such, but one or more features from the combination described in the claims may in some cases be May be eliminated from the combination, and the combination of claims may be directed to variants of subcombinations or subcombinations.

特定の実施形態が、記述された。他の実施形態も、以下の特許請求の範囲内にある。

Specific embodiments have been described. Other embodiments are within the scope of the following claims.

Claims (1)

明細書に記載された発明。The invention described in the specification.
JP2019020548A 2013-06-27 2019-02-07 Systems and methods for direct pointing detection for interaction with digital devices Active JP7191714B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022100231A JP2022118183A (en) 2013-06-27 2022-06-22 Systems and methods of direct pointing detection for interaction with digital device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201361840447P 2013-06-27 2013-06-27
US61/840,447 2013-06-27

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016522897A Division JP6480434B2 (en) 2013-06-27 2014-06-27 System and method for direct pointing detection for interaction with digital devices

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022100231A Division JP2022118183A (en) 2013-06-27 2022-06-22 Systems and methods of direct pointing detection for interaction with digital device

Publications (2)

Publication Number Publication Date
JP2019087279A true JP2019087279A (en) 2019-06-06
JP7191714B2 JP7191714B2 (en) 2022-12-19

Family

ID=52346795

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2016522897A Expired - Fee Related JP6480434B2 (en) 2013-06-27 2014-06-27 System and method for direct pointing detection for interaction with digital devices
JP2019020548A Active JP7191714B2 (en) 2013-06-27 2019-02-07 Systems and methods for direct pointing detection for interaction with digital devices
JP2022100231A Pending JP2022118183A (en) 2013-06-27 2022-06-22 Systems and methods of direct pointing detection for interaction with digital device

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2016522897A Expired - Fee Related JP6480434B2 (en) 2013-06-27 2014-06-27 System and method for direct pointing detection for interaction with digital devices

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022100231A Pending JP2022118183A (en) 2013-06-27 2022-06-22 Systems and methods of direct pointing detection for interaction with digital device

Country Status (5)

Country Link
US (3) US9846486B2 (en)
JP (3) JP6480434B2 (en)
KR (2) KR20220136517A (en)
CN (2) CN105593787B (en)
WO (1) WO2015008164A2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023176034A1 (en) * 2022-03-16 2023-09-21 パナソニックIpマネジメント株式会社 Control device and control method
JP7453708B2 (en) 2019-07-17 2024-03-21 ロウ,グスタフ System and method for displaying extended anatomical features

Families Citing this family (87)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9671869B2 (en) * 2012-03-13 2017-06-06 Eyesight Mobile Technologies Ltd. Systems and methods of direct pointing detection for interaction with a digital device
WO2014143655A1 (en) * 2013-03-15 2014-09-18 Springs Window Fashions, Llc Window covering motorized lift and control system drive arrangement
JP6480434B2 (en) 2013-06-27 2019-03-13 アイサイト モバイル テクノロジーズ リミテッド System and method for direct pointing detection for interaction with digital devices
US10089786B2 (en) * 2013-08-19 2018-10-02 Qualcomm Incorporated Automatic customization of graphical user interface for optical see-through head mounted display with user interaction tracking
US10914951B2 (en) * 2013-08-19 2021-02-09 Qualcomm Incorporated Visual, audible, and/or haptic feedback for optical see-through head mounted display with user interaction tracking
TWI505135B (en) * 2013-08-20 2015-10-21 Utechzone Co Ltd Control system for display screen, control apparatus and control method
WO2015047242A1 (en) * 2013-09-25 2015-04-02 Schneider Electric Buildings Llc Method and device for adjusting a set point
KR101533319B1 (en) * 2014-02-22 2015-07-03 주식회사 브이터치 Remote control apparatus and method using camera centric virtual touch
KR20150108216A (en) * 2014-03-17 2015-09-25 삼성전자주식회사 Method for processing input and an electronic device thereof
US10332200B1 (en) 2014-03-17 2019-06-25 Wells Fargo Bank, N.A. Dual-use display screen for financial services applications
TW201544993A (en) * 2014-05-28 2015-12-01 Pegatron Corp Gesture control method, gesture control module, and wearable device having the same
US9632686B1 (en) * 2014-07-24 2017-04-25 Wells Fargo Bank, N.A. Collaborative document creation
US10452195B2 (en) * 2014-12-30 2019-10-22 Samsung Electronics Co., Ltd. Electronic system with gesture calibration mechanism and method of operation thereof
CN107787497B (en) * 2015-06-10 2021-06-22 维塔驰有限公司 Method and apparatus for detecting gestures in a user-based spatial coordinate system
US9703387B2 (en) * 2015-08-31 2017-07-11 Konica Minolta Laboratory U.S.A., Inc. System and method of real-time interactive operation of user interface
US9939899B2 (en) * 2015-09-25 2018-04-10 Apple Inc. Motion and gesture input from a wearable device
JP6632298B2 (en) * 2015-09-29 2020-01-22 キヤノン株式会社 Information processing apparatus, information processing method and program
DE102015226153A1 (en) * 2015-12-21 2017-06-22 Bayerische Motoren Werke Aktiengesellschaft Display device and operating device
KR102559625B1 (en) * 2016-01-25 2023-07-26 삼성전자주식회사 Method for Outputting Augmented Reality and Electronic Device supporting the same
US20180164895A1 (en) * 2016-02-23 2018-06-14 Sony Corporation Remote control apparatus, remote control method, remote control system, and program
EP3422152A4 (en) * 2016-02-23 2020-03-11 Sony Corporation Remote operation device, remote operation method, remote operation system, and program
WO2017200571A1 (en) 2016-05-16 2017-11-23 Google Llc Gesture-based control of a user interface
CN111290285B (en) * 2016-05-31 2023-04-07 广东美的制冷设备有限公司 Gesture recognition control method, gesture recognition control device and equipment
EP3463162A4 (en) 2016-06-03 2020-06-24 Covidien LP Systems, methods, and computer-readable program products for controlling a robotically delivered manipulator
CN106265006B (en) * 2016-07-29 2019-05-17 维沃移动通信有限公司 A kind of control method and mobile terminal of the apparatus for correcting of dominant eye
CN107835288A (en) * 2016-09-16 2018-03-23 天津思博科科技发展有限公司 The interdynamic recreational apparatus realized using intelligent terminal
WO2018059905A1 (en) * 2016-09-28 2018-04-05 Sony Corporation A device, computer program and method
KR101937823B1 (en) * 2016-10-24 2019-01-14 주식회사 브이터치 Method, system and non-transitory computer-readable recording medium for assisting object control
CN108227914B (en) 2016-12-12 2021-03-05 财团法人工业技术研究院 Transparent display device, control method using the same, and controller thereof
CN106896914A (en) * 2017-01-17 2017-06-27 珠海格力电器股份有限公司 The conversion method and device of information
US10254846B1 (en) * 2017-03-15 2019-04-09 Meta Company Systems and methods to facilitate interactions with virtual content in an augmented reality environment
US9785250B1 (en) * 2017-05-15 2017-10-10 Newtonoid Technologies, L.L.C. Intelligent gesture based security system and method
JP2019008351A (en) * 2017-06-20 2019-01-17 ソニー株式会社 Information processing apparatus, information processing method and recording medium
WO2018235907A1 (en) 2017-06-23 2018-12-27 積水化学工業株式会社 Resin composition, inorganic fine particle-dispersed slurry composition, inorganic fine particle-dispersed sheet, method for manufacturing all-solid-state battery, and method for manufacturing laminated ceramic capacitor
JP6572943B2 (en) * 2017-06-23 2019-09-11 カシオ計算機株式会社 Robot, robot control method and program
EP4224293B1 (en) * 2017-07-03 2024-04-03 Aptiv Technologies Limited System and method for determining a pointing direction in 3d space
CN109388233B (en) 2017-08-14 2022-07-29 财团法人工业技术研究院 Transparent display device and control method thereof
EP3336848B1 (en) 2017-08-15 2023-09-27 Siemens Healthcare GmbH Method for operating a medical imaging device and medical imaging device
KR102463712B1 (en) * 2017-11-24 2022-11-08 현대자동차주식회사 Virtual touch recognition apparatus and method for correcting recognition error thereof
US10853674B2 (en) 2018-01-23 2020-12-01 Toyota Research Institute, Inc. Vehicle systems and methods for determining a gaze target based on a virtual eye position
US10706300B2 (en) * 2018-01-23 2020-07-07 Toyota Research Institute, Inc. Vehicle systems and methods for determining a target based on a virtual eye position and a pointing direction
US10817068B2 (en) * 2018-01-23 2020-10-27 Toyota Research Institute, Inc. Vehicle systems and methods for determining target based on selecting a virtual eye position or a pointing direction
WO2019171635A1 (en) * 2018-03-07 2019-09-12 Necソリューションイノベータ株式会社 Operation input device, operation input method, anc computer-readable recording medium
CN108388347B (en) * 2018-03-15 2021-05-25 网易(杭州)网络有限公司 Interaction control method and device in virtual reality, storage medium and terminal
US10643362B2 (en) * 2018-03-26 2020-05-05 Lenovo (Singapore) Pte Ltd Message location based on limb location
CN110531843A (en) * 2018-05-24 2019-12-03 富泰华工业(深圳)有限公司 The method of controlling operation thereof of electronic device and electronic device
JP7135444B2 (en) * 2018-05-29 2022-09-13 富士フイルムビジネスイノベーション株式会社 Information processing device and program
CN108874127A (en) * 2018-05-30 2018-11-23 北京小度信息科技有限公司 Information interacting method, device, electronic equipment and computer readable storage medium
CN109143875B (en) * 2018-06-29 2021-06-15 广州市得腾技术服务有限责任公司 Gesture control smart home method and system
US10884507B2 (en) * 2018-07-13 2021-01-05 Otis Elevator Company Gesture controlled door opening for elevators considering angular movement and orientation
TWI734024B (en) * 2018-08-28 2021-07-21 財團法人工業技術研究院 Direction determination system and direction determination method
EP3848245A1 (en) * 2018-09-05 2021-07-14 Koito Manufacturing Co., Ltd. Vehicle display system, vehicle system, and vehicle
US10462425B1 (en) 2018-09-07 2019-10-29 Bank Of America Corporation Processing system for providing a teller assistant experience using enhanced reality interfaces
US10755250B2 (en) 2018-09-07 2020-08-25 Bank Of America Corporation Processing system for providing a teller assistant experience using enhanced reality interfaces
KR102155378B1 (en) * 2018-09-19 2020-09-14 주식회사 브이터치 Method, system and non-transitory computer-readable recording medium for supporting object control
CN109542654A (en) * 2018-11-23 2019-03-29 京东方科技集团股份有限公司 Vending machine and the method for determining the selected commodity of user
JP7416391B2 (en) * 2018-12-28 2024-01-17 国立大学法人高知大学 pointing device
KR20200093091A (en) * 2019-01-07 2020-08-05 현대자동차주식회사 Terminal device, vehicle having the same and method for controlling the same
CN109753157B (en) * 2019-01-11 2022-04-26 京东方科技集团股份有限公司 Gesture control method and device of display screen
US11442549B1 (en) * 2019-02-07 2022-09-13 Apple Inc. Placement of 3D effects based on 2D paintings
KR102225342B1 (en) * 2019-02-13 2021-03-09 주식회사 브이터치 Method, system and non-transitory computer-readable recording medium for supporting object control
KR102191061B1 (en) * 2019-03-11 2020-12-15 주식회사 브이터치 Method, system and non-transitory computer-readable recording medium for supporting object control by using a 2d camera
EP3991067A1 (en) 2019-06-26 2022-05-04 Google LLC Radar-based authentication status feedback
KR20220005081A (en) 2019-07-26 2022-01-12 구글 엘엘씨 State reduction based on IMU and radar
EP4004686A1 (en) 2019-07-26 2022-06-01 Google LLC Authentication management through imu and radar
US11868537B2 (en) 2019-07-26 2024-01-09 Google Llc Robust radar-based gesture-recognition by user equipment
US11385722B2 (en) 2019-07-26 2022-07-12 Google Llc Robust radar-based gesture-recognition by user equipment
KR20220045166A (en) * 2019-08-09 2022-04-12 라이트 필드 랩 인코포레이티드 Digital signage system based on light field display system
CN110481419B (en) * 2019-08-16 2021-12-07 广州小鹏汽车科技有限公司 Human-vehicle interaction method, system, vehicle and storage medium
TWI804671B (en) * 2019-08-28 2023-06-11 財團法人工業技術研究院 Interaction display method and interaction display system
EP3936980A1 (en) 2019-08-30 2022-01-12 Google LLC Input methods for mobile devices
KR20220098805A (en) 2019-08-30 2022-07-12 구글 엘엘씨 Input-mode notification for a multi-input node
WO2021040748A1 (en) 2019-08-30 2021-03-04 Google Llc Visual indicator for paused radar gestures
US11467672B2 (en) 2019-08-30 2022-10-11 Google Llc Context-sensitive control of radar-based gesture-recognition
US11100790B2 (en) * 2019-09-25 2021-08-24 Universal City Studios Llc Systems and methods for determining projected target location of a handheld object
US11934584B2 (en) * 2019-09-27 2024-03-19 Apple Inc. Finger orientation touch detection
WO2021153577A1 (en) * 2020-01-31 2021-08-05 ソニーグループ株式会社 Calibration of sight-line detection device
EP4111291A4 (en) * 2020-02-26 2023-08-16 Magic Leap, Inc. Hand gesture input for wearable system
CN111538436B (en) * 2020-04-11 2023-07-18 北京元芯碳基集成电路研究院 Multifunctional display based on carbon-based circuit and manufacturing method thereof
CN113946205B (en) * 2020-07-17 2024-02-09 云米互联科技(广东)有限公司 Gas control method, gas equipment and storage medium
CN113946206A (en) * 2020-07-17 2022-01-18 云米互联科技(广东)有限公司 Household appliance interaction method, household appliance equipment and storage medium
US11474690B2 (en) * 2020-08-14 2022-10-18 VTouch Co., Ltd. Method, system and non-transitory computer-readable recording medium for non-contact control
CN112363626B (en) * 2020-11-25 2021-10-01 广东魅视科技股份有限公司 Large screen interaction control method based on human body posture and gesture posture visual recognition
US11630639B2 (en) * 2020-12-08 2023-04-18 Samsung Electronics Co., Ltd. Control method of electronic device using a plurality of sensors and electronic device thereof
JP7176020B2 (en) * 2021-02-03 2022-11-21 マクセル株式会社 Mobile device control method
US11755150B2 (en) * 2021-09-21 2023-09-12 Apple Inc. Input location correction based on device motion
KR102513444B1 (en) 2021-11-25 2023-03-24 한국과학기술원 Method and Apparatus for Assisting Object Registration in a Smart Home System

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002259989A (en) * 2001-03-02 2002-09-13 Gifu Prefecture Pointing gesture detecting method and its device
JP2004362218A (en) * 2003-06-04 2004-12-24 Canon Inc Three-dimensional object operating method
JP2005069734A (en) * 2003-08-20 2005-03-17 Tokyo Univ Of Marine Science & Technology Method of instructing spatial position of object by pointing action
JP2005138755A (en) * 2003-11-07 2005-06-02 Denso Corp Device and program for displaying virtual images
JP2013521576A (en) * 2010-02-28 2013-06-10 オスターハウト グループ インコーポレイテッド Local advertising content on interactive head-mounted eyepieces
JP2013250882A (en) * 2012-06-01 2013-12-12 Sharp Corp Attention position detection device, attention position detection method, and attention position detection program
WO2015008164A2 (en) * 2013-06-27 2015-01-22 Eyesight Mobile Technologies Ltd. Systems and methods of direct pointing detection for interaction with a digital device

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6531999B1 (en) * 2000-07-13 2003-03-11 Koninklijke Philips Electronics N.V. Pointing direction calibration in video conferencing and other camera-based system applications
US6600475B2 (en) * 2001-01-22 2003-07-29 Koninklijke Philips Electronics N.V. Single camera system for gesture-based input and target indication
US8745541B2 (en) * 2003-03-25 2014-06-03 Microsoft Corporation Architecture for controlling a computer using hand gestures
IL161002A0 (en) * 2004-03-22 2004-08-31 Itay Katz Virtual video keyboard system
US9001036B2 (en) * 2007-12-20 2015-04-07 University Of Central Florida Research Foundation, Inc. Systems and methods of camera-based fingertip tracking
JP5117418B2 (en) * 2009-01-28 2013-01-16 株式会社東芝 Information processing apparatus and information processing method
JP5183798B2 (en) * 2009-03-05 2013-04-17 三菱電機株式会社 Wireless communication system, transmitting apparatus and receiving apparatus
KR101585466B1 (en) * 2009-06-01 2016-01-15 엘지전자 주식회사 Method for Controlling Operation of Electronic Appliance Using Motion Detection and Electronic Appliance Employing the Same
US8964298B2 (en) * 2010-02-28 2015-02-24 Microsoft Corporation Video display modification based on sensor input for a see-through near-to-eye display
US20110228051A1 (en) * 2010-03-17 2011-09-22 Goksel Dedeoglu Stereoscopic Viewing Comfort Through Gaze Estimation
CN102812420B (en) * 2010-03-18 2016-01-20 富士胶片株式会社 3 d display device and stereoscopic imaging apparatus, Dominant eye decision method for said apparatus
US20130002661A1 (en) * 2010-03-18 2013-01-03 Kouichi Tanaka Stereoscopic image display apparatus and method of controlling same
CN102822773A (en) * 2010-03-24 2012-12-12 惠普开发有限公司 Gesture mapping for display device
CN102812416B (en) * 2010-06-17 2015-10-07 松下电器(美国)知识产权公司 Pointing input device, indicative input method, program, recording medium and integrated circuit
US8907929B2 (en) 2010-06-29 2014-12-09 Qualcomm Incorporated Touchless sensing and gesture recognition using continuous wave ultrasound signals
CN102971692B (en) * 2010-06-29 2016-06-08 富士胶片株式会社 Three-dimensional display apparatus, 3-D view capture device and instruction defining method
WO2012021967A1 (en) * 2010-08-16 2012-02-23 Tandemlaunch Technologies Inc. System and method for analyzing three-dimensional (3d) media content
KR101729023B1 (en) * 2010-10-05 2017-04-21 엘지전자 주식회사 Mobile terminal and operation control method thereof
KR101151962B1 (en) * 2011-02-16 2012-06-01 김석중 Virtual touch apparatus and method without pointer on the screen
WO2013021385A2 (en) * 2011-08-11 2013-02-14 Eyesight Mobile Technologies Ltd. Gesture based interface system and method
US20130050069A1 (en) * 2011-08-23 2013-02-28 Sony Corporation, A Japanese Corporation Method and system for use in providing three dimensional user interface
US8947351B1 (en) * 2011-09-27 2015-02-03 Amazon Technologies, Inc. Point of view determinations for finger tracking
WO2013098827A1 (en) * 2011-12-27 2013-07-04 Hewlett-Packard Development Company, L.P. User interface device
WO2013190538A1 (en) * 2012-06-20 2013-12-27 Pointgrab Ltd. Method for touchless control of a device
US20140282269A1 (en) * 2013-03-13 2014-09-18 Amazon Technologies, Inc. Non-occluded display for hover interactions
EP3008058A4 (en) 2013-06-12 2017-02-15 Archer Daniels Midland Co. Synthesis of dicarbamates from reduction products of 2-hydroxymethyl-5-furufural (hmf) and derivatives thereof

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002259989A (en) * 2001-03-02 2002-09-13 Gifu Prefecture Pointing gesture detecting method and its device
JP2004362218A (en) * 2003-06-04 2004-12-24 Canon Inc Three-dimensional object operating method
JP2005069734A (en) * 2003-08-20 2005-03-17 Tokyo Univ Of Marine Science & Technology Method of instructing spatial position of object by pointing action
JP2005138755A (en) * 2003-11-07 2005-06-02 Denso Corp Device and program for displaying virtual images
JP2013521576A (en) * 2010-02-28 2013-06-10 オスターハウト グループ インコーポレイテッド Local advertising content on interactive head-mounted eyepieces
JP2013250882A (en) * 2012-06-01 2013-12-12 Sharp Corp Attention position detection device, attention position detection method, and attention position detection program
US20150145762A1 (en) * 2012-06-01 2015-05-28 Sharp Kabushiki Kaisha Position-of-interest detection device, position-of-interest detection method, and position-of-interest detection program
WO2015008164A2 (en) * 2013-06-27 2015-01-22 Eyesight Mobile Technologies Ltd. Systems and methods of direct pointing detection for interaction with a digital device
JP2016523420A (en) * 2013-06-27 2016-08-08 アイサイト モバイル テクノロジーズ リミテッド System and method for direct pointing detection for interaction with digital devices

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7453708B2 (en) 2019-07-17 2024-03-21 ロウ,グスタフ System and method for displaying extended anatomical features
WO2023176034A1 (en) * 2022-03-16 2023-09-21 パナソニックIpマネジメント株式会社 Control device and control method

Also Published As

Publication number Publication date
CN105593787B (en) 2019-07-05
US20160179205A1 (en) 2016-06-23
US10817067B2 (en) 2020-10-27
CN110442231A (en) 2019-11-12
JP2016523420A (en) 2016-08-08
KR20220136517A (en) 2022-10-07
CN105593787A (en) 2016-05-18
WO2015008164A2 (en) 2015-01-22
WO2015008164A3 (en) 2015-07-16
KR20160048062A (en) 2016-05-03
JP6480434B2 (en) 2019-03-13
US20190004611A1 (en) 2019-01-03
US20210157412A1 (en) 2021-05-27
JP2022118183A (en) 2022-08-12
KR102517425B1 (en) 2023-03-31
JP7191714B2 (en) 2022-12-19
US9846486B2 (en) 2017-12-19
US11314335B2 (en) 2022-04-26

Similar Documents

Publication Publication Date Title
JP7191714B2 (en) Systems and methods for direct pointing detection for interaction with digital devices
US10120454B2 (en) Gesture recognition control device
US20210096651A1 (en) Vehicle systems and methods for interaction detection
US20220382379A1 (en) Touch Free User Interface
US20220261112A1 (en) Systems, devices, and methods for touch-free typing
US10203764B2 (en) Systems and methods for triggering actions based on touch-free gesture detection
US20180292907A1 (en) Gesture control system and method for smart home
US20200142495A1 (en) Gesture recognition control device
KR20160080109A (en) Systems and techniques for user interface control
WO2014106219A1 (en) User centric interface for interaction with visual display that recognizes user intentions
US20170139545A1 (en) Information processing apparatus, information processing method, and program
JP2021189659A (en) Information processing device, information processing method based on input operation of user, and computer program for executing the method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200515

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200812

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201104

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210420

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210715

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211020

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220622

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20220622

C11 Written invitation by the commissioner to file amendments

Free format text: JAPANESE INTERMEDIATE CODE: C11

Effective date: 20220705

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20220824

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20220825

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221012

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20221111

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221207

R150 Certificate of patent or registration of utility model

Ref document number: 7191714

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150