JP7191714B2 - デジタルデバイスとの対話のための直接的なポインティング検出のためのシステムおよび方法 - Google Patents
デジタルデバイスとの対話のための直接的なポインティング検出のためのシステムおよび方法 Download PDFInfo
- Publication number
- JP7191714B2 JP7191714B2 JP2019020548A JP2019020548A JP7191714B2 JP 7191714 B2 JP7191714 B2 JP 7191714B2 JP 2019020548 A JP2019020548 A JP 2019020548A JP 2019020548 A JP2019020548 A JP 2019020548A JP 7191714 B2 JP7191714 B2 JP 7191714B2
- Authority
- JP
- Japan
- Prior art keywords
- display
- user
- pointing
- eye
- processor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/383—Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
Description
本願は、2013年6月27日に出願された、米国仮出願第61/840,447号に対する優先権を主張するものであり、該米国仮出願の全体は、参照により本明細書中に援用される。
例えば、本願は以下の項目を提供する。
(項目1)
ディスプレイ上の少なくとも第1の位置で、第1のタッチフリージェスチャを促す第1のディスプレイ情報のユーザへの提示を可能にすることと、
前記ユーザによる第1のタッチフリージェスチャに相関付けられた、前記ディスプレイ上の第1のジェスチャリング位置に対応する少なくとも1つのイメージセンサからの第1のジェスチャ情報を受信することであって、前記第1のジェスチャリング位置は、ユーザの一方の眼がユーザの他方の眼に対して優位であることの結果として、前記第1のディスプレイ情報の位置と少なくとも部分的に異なっている、ことと、
前記第1のディスプレイ情報の前記位置および前記第1のジェスチャリング位置に関連付けられる第1のオフセットを決定することと、
前記ディスプレイ上の少なくとも第2の位置で、その後のタッチフリージェスチャを行うよう、前記ユーザに促す第2の情報の提示を可能にすることと、
前記ユーザによる後続のタッチフリージェスチャに対応する、前記少なくとも1つのイメージセンサからの後続のジェスチャ情報を受信することと、
前記後続のタッチフリージェスチャによって影響される前記ディスプレイ上の位置を決定するために、前記第1のオフセットを使用することと
を行うように構成された少なくとも1つのプロセッサを備える、タッチフリージェスチャ認識システム。
(項目2)
前記第1のタッチフリージェスチャおよび前記後続のタッチフリージェスチャは、指さしを含み、前記少なくとも1つのプロセッサはさらに、前記ディスプレイ上のポインティング位置を決定するために、前記少なくとも1つのイメージセンサからの前記第1のジェスチャ情報および前記後続のジェスチャ情報を使用するように構成される、項目1に記載のシステム。
(項目3)
前記少なくとも1つのプロセッサはさらに、前記後続のタッチフリージェスチャに関連付けられる、認識されたジェスチャを反映する送り先への出力を送信するように構成される、項目1に記載のシステム。
(項目4)
前記後続のジェスチャリング位置は、前記ユーザの一方の眼が前記ユーザの他方の眼に対して優位である結果として、前記ディスプレイ上の前記第2の情報の位置と少なくとも部分的に異なる、項目1に記載のシステム。
(項目5)
前記少なくとも1つのプロセッサはさらに、前記ユーザの第1の眼に関連付けられる少なくとも1つの第1の目線を用いて生成される第1の候補ポインティング領域と、前記ユーザの第2の眼に関連付けられる第2の目線を用いて生成される第2の候補ポインティング領域との少なくとも1つを特定することによって前記第1のオフセットを決定するように構成される、項目1に記載のシステム。
(項目6)
前記第1のオフセットに関連付けられる情報は、視線の計算の出発点として作用する瞳孔を除く顔上の位置に対応し、前記少なくとも1つのプロセッサはさらに、前記後続のタッチフリージェスチャの意図する位置を決定するために、前記顔上の前記瞳孔を除く位置を用いるように構成される、項目1に記載のシステム。
(項目7)
前記少なくとも1つのプロセッサは、前記ディスプレイ上における前記後続のタッチフリージェスチャの意図する位置を決定するために、前記第1のオフセットに関連付けられる情報を用いるように構成される、項目1に記載のシステム。
(項目8)
前記少なくとも1つのプロセッサはさらに、
前記第1の眼に関連付けられる位置から指先を通して前記ディスプレイ上まで通る第1の視線に関連付けられる、前記ディスプレイ上の第1の領域内の第1の点と、
前記第2の眼に関連付けられる第2の位置から前記指先を通して前記ディスプレイ上まで通る第2の視線に関連付けられる、前記ディスプレイ上の第2の領域内の第2の点と
の少なくとも1つを選択することにより、前記第1のジェスチャリング位置を決定するように構成される、項目1に記載のシステム。
(項目9)
前記少なくとも1つのプロセッサはさらに、前記第1の点および前記第2の点の略近傍における少なくとも第3の点を決定することにより、前記第1のジェスチャリング位置を決定するように構成される、項目8に記載のシステム。
(項目10)
前記少なくとも1つのプロセッサはさらに、前記ディスプレイの異なる領域について、眼球優位性に関連付けられる異なるオフセットを決定するように構成される、項目1に記載のシステム。
(項目11)
前記少なくとも1つのプロセッサはさらに、複数の異なる時間間隔で多数の候補ポインティング域領域を用いることにより、ポインティングの位置を決定するように構成される、項目1に記載のシステム。
(項目12)
前記少なくとも1つのプロセッサはさらに、複数のユーザのそれぞれについて、前記第1のオフセットに関連付けられる固有情報を格納するように構成される、項目1に記載のシステム。
(項目13)
前記少なくとも1つのプロセッサはさらに、前記複数のユーザのそれぞれについての識別に関連付けられる、前記少なくとも1つのイメージセンサから受信される情報を、前記格納される固有情報として格納するように構成される、項目12に記載のシステム。
(項目14)
前記少なくとも1つのプロセッサはさらに、前記複数のユーザのそれぞれについて瞳孔を除く顔上の位置に関する情報を、前記格納される固有情報として格納するように構成される、項目12に記載のシステム。
(項目15)
前記第1のオフセットに関連付けられる情報は、前記ユーザの一方の眼が、前記ユーザの他方の眼に対して優位であるという標示を含む、項目1に記載のシステム。
(項目16)
前記第1のオフセットに関連付けられる情報は、前記ユーザの前記一方の眼が、前記ユーザの前記他方の眼に対して優位である度合いの標示を含む、項目1に記載のシステム。
(項目17)
少なくとも1つのプロセッサによって実行されるとき、
ディスプレイ上の少なくとも第1の位置における第1のタッチフリージェスチャを促す第1のディスプレイ情報のユーザへの提示を可能にすることと、
前記ユーザによる第1のタッチフリージェスチャに相関付けられた前記ディスプレイ上の第1のジェスチャリング位置に対応する少なくとも1つのイメージセンサからの第1のジェスチャ情報を受信することであって、前記第1のジェスチャリング位置は、少なくとも部分的に、ユーザの一方の眼がユーザの他方の眼に対して優位的であることの結果として、第1のディスプレイ情報の位置とは異なる、ことと、
前記第1のディスプレイ情報の位置および前記第1のジェスチャリング位置に関連付けられる第1のオフセットを決定することと、
前記ディスプレイ上の少なくとも第2の位置における後続のタッチフリージェスチャを行うことを前記ユーザに促す第2の情報の提示を可能にすることと、
前記ユーザによる後続のタッチフリージェスチャに対応する少なくとも1つのイメージセンサからの後続のジェスチャ情報を受信することと、
前記後続のタッチフリージェスチャによって影響される、前記ディスプレイ上の位置を決定するために前記第1のオフセットを用いることと
を含む動作を前記少なくとも1つのプロセッサが行うようにする指示を含む、非一過性コンピュータ可読媒体。
(項目18)
前記後続のジェスチャリング位置は、前記ユーザの一方の眼が、前記ユーザの他方の眼に対して優位であることを示す情報の結果、前記ディスプレイ上の前記第2の情報の位置と少なくとも部分的に異なる、項目17に記載の非一過性コンピュータ可読媒体。
(項目19)
前記指示は、前記少なくとも1つのプロセッサによって実行されるときさらに、前記ユーザの第1の眼に関連付けられる少なくとも1つの第1の目線を用いて生成される第1の候補ポインティング領域と、前記ユーザの第2の眼に関連付けられる第2の目線を用いて生成される第2の候補ポインティング領域との少なくとも1つを特定することにより、前記第1のオフセットを決定することを含む追加的動作を前記少なくとも1つのプロセッサに行わせる、項目17に記載の非一過性コンピュータ可読媒体。
(項目20)
前記第1のオフセットに関連付けられる前記情報は、瞳孔を除く顔上の位置に対応して視線計算の出発点として作用し、前記指示は、前記少なくとも1つのプロセッサによって実行されるとき、前記後続のタッチフリージェスチャの意図する位置を決定するために、前記顔上の瞳孔を除く位置を用いることを含む追加的動作を前記少なくとも1つのプロセッサに行わせるようにする、項目17に記載の非一過性コンピュータ可読媒体。
候補面Rの中心からの距離およびユーザ16が指すように促されるアイコンの中心。そして、ユーザ16が後続のタッチフリージェスチャを行うとき、システム2は、ユーザが指す表示情報(アイコン)を正確に決定するため、ジェスチャリング位置19を補正するように格納されたオフセットを使用し得る。システム2は、ディスプレイの異なる領域に関連付けられる多数のオフセットを格納し得、格納されたオフセットの好適な1つをジェスチャリング位置19に応じて使用し得る。本発明の実施形態は、指先14等ユーザ16のポインティング要素の特定を可能にし得る。手の特徴は、指先14または手に持たれるもしくは手に着用されるその他任意のポインティング要素を特定するために役立つ。図15は、指先14、指先14上の爪26、および人差し指の関節28を含むユーザの手を描写する。
Claims (26)
- 少なくとも1つのプロセッサを備えるタッチフリージェスチャ認識システムであって、
前記少なくとも1つのプロセッサは、
ディスプレイ上の少なくとも第1の位置で、第1のタッチフリージェスチャを促す第1のディスプレイ情報のユーザへの提示を可能にすることと、
イメージセンサの視空間の複数の画像を取得することと、
前記視空間の前記複数の画像に基づいて、前記視空間内の1つのポインティング要素の位置を示すデータを取得することと、
前記視空間の前記複数の画像に基づいて、前記ユーザの第1の眼に関連付けられている位置および前記ユーザの第2の眼に関連付けられている位置を示すデータを取得することと、
前記ユーザの前記第1の眼に関連付けられている位置から前記ポインティング要素の位置を通して前記ディスプレイ上まで通過する第1の視線に関連付けられている、前記ディスプレイ上の第1の候補ポインティング領域を特定することと、
前記ユーザの前記第2の眼に関連付けられている位置から前記ポインティング要素の位置を通して前記ディスプレイ上まで通過する第2の視線に関連付けられている、前記ディスプレイ上の第2の候補ポインティング領域を特定することと、
前記ポインティング要素の位置を示すデータおよび前記特定された第1の候補ポインティング領域および前記特定された第2の候補ポインティング領域を用いて、前記ディスプレイ上の目的とされる点または領域を決定することと、
前記ディスプレイ上の前記目的とされる点または領域に対応するアクションを開始することと
を行うように構成されている、タッチフリージェスチャ認識システム。 - 前記ポインティング要素は、人差し指を含み、前記少なくとも1つのプロセッサは、指先を検出することにより、前記検出に基づいて前記ディスプレイ上の前記目的とされる点または領域を決定するようにさらに構成されている、請求項1に記載にシステム。
- 前記第1の候補ポインティング領域の位置または前記第2の候補ポインティング領域の位置のうちの少なくとも1つは、少なくとも部分的に前記ユーザの一方の眼が前記ユーザの他方の眼に対して優位である結果として、前記ディスプレイ上の前記目的とされる点または領域とは異なる、請求項1に記載のシステム。
- 前記少なくとも1つのプロセッサは、前記ユーザの前記第1の眼に関連付けられている少なくとも1つの前記第1の視線を用いて生成される前記第1の候補ポインティング領域と前記ユーザの第2の眼に関連付けられている前記第2の視線を用いて生成される前記第2の候補ポインティング領域とのうちの少なくとも1つと、前記ディスプレイ上の前記第1の位置との間の第1のオフセットを決定するようにさらに構成されている、請求項1に記載のシステム。
- 前記第1のオフセットは、視線の計算の出発点として作用する瞳孔を除く顔上の位置に対応し、前記少なくとも1つのプロセッサは、前記ディスプレイ上の前記目的とされる点または領域を決定するために、前記瞳孔を除く顔上の位置を用いるようにさらに構成されている、請求項4に記載のシステム。
- 前記少なくとも1つのプロセッサは、前記特定された第1の候補ポインティング領域および前記第2の候補ポインティング領域の略近傍における第3の点を用いて、前記ディスプレイ上の前記目的とされる点または領域を決定するようにさらに構成されている、請求項1に記載のシステム。
- 前記少なくとも1つのプロセッサは、前記ディスプレイ上の多数の候補ポインティング領域を用いることにより、前記ディスプレイ上の前記目的とされる点または領域を決定するようにさらに構成されている、請求項1に記載のシステム。
- 前記少なくとも1つのプロセッサは、複数のユーザのそれぞれについて、前記第1のオフセットに関連付けられている固有情報を格納するようにさらに構成されている、請求項4に記載のシステム。
- 前記少なくとも1つのプロセッサは、前記複数のユーザのそれぞれについての特定に関連付けられている、前記少なくとも1つのイメージセンサから受信される情報を、前記格納される固有情報として格納するようにさらに構成されている、請求項8に記載のシステム。
- 前記少なくとも1つのプロセッサは、
前記複数のユーザのそれぞれについて瞳孔を除く顔上の位置に関する情報を前記格納される固有情報として格納することと、
前記格納された固有情報を用いて前記ディスプレイ上の前記目的とされる点または領域を決定することと
を行うようにさらに構成されている、請求項8に記載のシステム。 - 前記第1のオフセットに関連付けられている前記固有情報は、前記ユーザの一方の眼が、前記ユーザの他方の眼に対して優位であるという標示を含む、請求項8に記載のシステム。
- 前記第1のオフセットに関連付けられている前記固有情報は、前記ユーザの前記一方の眼が、前記ユーザの前記他方の眼に対して優位である度合いの標示を含む、請求項8に記載のシステム。
- 非一過性コンピュータ読み取り可能な媒体であって、前記非一過性コンピュータ読み取り可能な媒体は、指示を含み、前記指示は、少なくとも1つのプロセッサによって実行されると、
ディスプレイ上の少なくとも第1の位置で、第1のタッチフリージェスチャを促す第1のディスプレイ情報のユーザへの提示を可能にすることと、
イメージセンサの視空間の複数の画像を取得することと、
前記視空間の前記複数の画像に基づいて、前記視空間内の1つのポインティング要素の位置を示すデータを取得することと、
前記視空間の前記複数の画像に基づいて、前記ユーザの第1の眼に関連付けられている位置および前記ユーザの第2の眼に関連付けられている位置を示すデータを取得することと、
前記ユーザの前記第1の眼に関連付けられている位置から前記ポインティング要素の位置を通して前記ディスプレイ上まで通過する第1の視線に関連付けられている、前記ディスプレイ上の第1の候補ポインティング領域を特定することと、
前記ユーザの前記第2の眼に関連付けられている位置から前記ポインティング要素の位置を通して前記ディスプレイ上まで通過する第2の視線に関連付けられている、前記ディスプレイ上の第2の候補ポインティング領域を特定することと、
前記ポインティング要素の位置を示すデータおよび前記特定された第1の候補ポインティング領域および前記特定された第2の候補ポインティング領域を用いて、前記ディスプレイ上の目的とされる点または領域を決定することと、
前記ディスプレイ上の前記目的とされる点または領域に対応するアクションを開始することと
を含む動作を前記少なくとも1つのプロセッサに行わせる、非一過性コンピュータ読み取り可能な媒体。 - 前記第1の候補ポインティング領域の位置または前記第2の候補ポインティング領域の位置のうちの少なくとも1つは、少なくとも部分的に前記ユーザの一方の眼が前記ユーザの他方の眼に対して優位であることを示す情報の結果として、前記ディスプレイ上の前記目的とされる点または領域とは異なる、請求項13に記載の非一過性コンピュータ読み取り可能な媒体。
- 前記指示は、前記少なくとも1つのプロセッサによって実行されると、前記ユーザの前記第1の眼に関連付けられている少なくとも1つの前記第1の視線を用いて生成される前記第1の候補ポインティング領域と前記ユーザの第2の眼に関連付けられている前記第2の視線を用いて生成される前記第2の候補ポインティング領域とのうちの少なくとも1つと、前記ディスプレイ上の前記第1の位置との間の第1のオフセットを決定することを含む追加的動作を実行することを前記少なくとも1つのプロセッサにさらに行わせる、請求項13に記載の非一過性コンピュータ読み取り可能な媒体。
- 前記第1のオフセットは、瞳孔を除く顔上の位置に対応して視線計算の出発点として作用し、前記指示は、前記少なくとも1つのプロセッサによって実行されると、前記ディスプレイ上の前記目的とされる点または領域を決定するために、前記瞳孔を除く顔上の位置を用いることを含む追加的動作を実行することを前記少なくとも1つのプロセッサにさらに行わせる、請求項15に記載の非一過性コンピュータ読み取り可能な媒体。
- 前記第1の候補ポインティング領域および前記第2の候補ポインティング領域と較正アイコンとの重なりの割合、または、
前記第1の眼と前記第2の眼との間の全距離に対する、前記第1の眼と前記第2の眼とのうちの1つと仮想の眼との間の距離との比
に基づいて、前記少なくとも1つのプロセッサは、前記第1の眼と前記第2の眼との間の優位性の度合いを決定するようにさらに構成されており、
前記仮想の眼は、前記第1の眼および前記第2の眼の瞳以外の前記ユーザの顔の位置に対応する、請求項4に記載のシステム。 - 前記第1の候補ポインティング領域および前記第2の候補ポインティング領域のそれぞれは、少なくとも1つのピクセルを含む、請求項1に記載のシステム。
- 前記少なくとも1つのプロセッサは、指先上の爪を検出することにより、前記検出に基づいて前記ディスプレイ上の前記目的とされる点または領域を決定するようにさらに構成されている、請求項2に記載のシステム。
- 前記少なくとも1つのプロセッサは、前記人差し指の関節を検出することにより、前記検出に基づいて前記ディスプレイ上の前記目的とされる点または領域を決定するようにさらに構成されている、請求項2に記載のシステム。
- 前記少なくとも1つのプロセッサは、
前記ユーザの右手に関連付けられているポインティング要素または前記ユーザの左手に関連付けられているポインティング要素のうちの少なくとも一方を決定することと、
前記決定を用いることにより、前記視空間内の前記ポインティング要素の位置を示すデータを取得することと
を行うようにさらに構成されている、請求項1に記載のシステム。 - 前記少なくとも1つのプロセッサは、前記視空間内の前記ポインティング要素の位置および前記ディスプレイ上の前記目的とされる点または領域を示すデータに関連付けられているフィードバック標示を開始するようにさらに構成されており、前記フィードバック標示は、視覚的標示、オーディオ標示、触覚標示、超音波標示、または触覚標示のうちの少なくとも1つである、請求項1に記載のシステム。
- 前記少なくとも1つのプロセッサは、少なくとも2つのポインティング要素を検出し、前記少なくとも2つのポインティング要素の位置を示すデータを用いて前記ディスプレイ上の前記目的とされる点または領域を決定するようにさらに構成されている、請求項1に記載のシステム。
- 前記少なくとも1つのプロセッサは、前記少なくとも2つのポインティング要素間の動きを検出し、前記少なくとも2つのポインティング要素間の前記検出された動きおよび前記ディスプレイ上の前記目的とされる点または領域に対応するアクションを開始するようにさらに構成されている、請求項23に記載にシステム。
- 前記アクションを開始することは、前記ディスプレイ上に表示される情報を修正することを含む、請求項24に記載にシステム。
- 前記アクションを開始することは、グラフィカル要素を掴むこと、グラフィカル要素上での時計回りジェスチャまたは反時計回りジェスチャを行うこと、前記ディスプレイ上の領域を拡大すること、前記ディスプレイ上の領域を縮小すること、または前記ディスプレイ上の領域を回転させること、のうちの少なくとも1つを含む、請求項24に記載にシステム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022100231A JP2022118183A (ja) | 2013-06-27 | 2022-06-22 | デジタルデバイスとの対話のための直接的なポインティング検出のためのシステムおよび方法 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201361840447P | 2013-06-27 | 2013-06-27 | |
US61/840,447 | 2013-06-27 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016522897A Division JP6480434B2 (ja) | 2013-06-27 | 2014-06-27 | デジタルデバイスとの対話のための直接的なポインティング検出のためのシステムおよび方法 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022100231A Division JP2022118183A (ja) | 2013-06-27 | 2022-06-22 | デジタルデバイスとの対話のための直接的なポインティング検出のためのシステムおよび方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019087279A JP2019087279A (ja) | 2019-06-06 |
JP7191714B2 true JP7191714B2 (ja) | 2022-12-19 |
Family
ID=52346795
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016522897A Expired - Fee Related JP6480434B2 (ja) | 2013-06-27 | 2014-06-27 | デジタルデバイスとの対話のための直接的なポインティング検出のためのシステムおよび方法 |
JP2019020548A Active JP7191714B2 (ja) | 2013-06-27 | 2019-02-07 | デジタルデバイスとの対話のための直接的なポインティング検出のためのシステムおよび方法 |
JP2022100231A Pending JP2022118183A (ja) | 2013-06-27 | 2022-06-22 | デジタルデバイスとの対話のための直接的なポインティング検出のためのシステムおよび方法 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016522897A Expired - Fee Related JP6480434B2 (ja) | 2013-06-27 | 2014-06-27 | デジタルデバイスとの対話のための直接的なポインティング検出のためのシステムおよび方法 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022100231A Pending JP2022118183A (ja) | 2013-06-27 | 2022-06-22 | デジタルデバイスとの対話のための直接的なポインティング検出のためのシステムおよび方法 |
Country Status (5)
Country | Link |
---|---|
US (3) | US9846486B2 (ja) |
JP (3) | JP6480434B2 (ja) |
KR (2) | KR20220136517A (ja) |
CN (2) | CN105593787B (ja) |
WO (1) | WO2015008164A2 (ja) |
Families Citing this family (89)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013136333A1 (en) | 2012-03-13 | 2013-09-19 | Eyesight Mobile Technologies Ltd. | Touch free user interface |
US10180029B2 (en) * | 2013-03-15 | 2019-01-15 | Springs Window Fashions, Llc | Window covering motorized lift and control system motor and operation |
CN105593787B (zh) | 2013-06-27 | 2019-07-05 | 视力移动科技公司 | 用于与数字设备交互的直接指向检测的系统和方法 |
US10914951B2 (en) * | 2013-08-19 | 2021-02-09 | Qualcomm Incorporated | Visual, audible, and/or haptic feedback for optical see-through head mounted display with user interaction tracking |
US10089786B2 (en) * | 2013-08-19 | 2018-10-02 | Qualcomm Incorporated | Automatic customization of graphical user interface for optical see-through head mounted display with user interaction tracking |
TWI505135B (zh) * | 2013-08-20 | 2015-10-21 | Utechzone Co Ltd | 顯示畫面的控制系統、輸入裝置及控制方法 |
EP3049876B1 (en) * | 2013-09-25 | 2018-09-12 | Schneider Electric Buildings LLC | Method and device for adjusting a set point |
KR101533319B1 (ko) * | 2014-02-22 | 2015-07-03 | 주식회사 브이터치 | 카메라 중심의 가상터치를 이용한 원격 조작 장치 및 방법 |
US10332200B1 (en) | 2014-03-17 | 2019-06-25 | Wells Fargo Bank, N.A. | Dual-use display screen for financial services applications |
KR20150108216A (ko) * | 2014-03-17 | 2015-09-25 | 삼성전자주식회사 | 입력 처리 방법 및 그 전자 장치 |
TW201544993A (zh) * | 2014-05-28 | 2015-12-01 | Pegatron Corp | 手勢控制之方法、手勢控制模組及其具有手勢控制模組之穿戴式裝置 |
US9632686B1 (en) * | 2014-07-24 | 2017-04-25 | Wells Fargo Bank, N.A. | Collaborative document creation |
US10452195B2 (en) * | 2014-12-30 | 2019-10-22 | Samsung Electronics Co., Ltd. | Electronic system with gesture calibration mechanism and method of operation thereof |
CN107787497B (zh) * | 2015-06-10 | 2021-06-22 | 维塔驰有限公司 | 用于在基于用户的空间坐标系中检测手势的方法和装置 |
US9703387B2 (en) | 2015-08-31 | 2017-07-11 | Konica Minolta Laboratory U.S.A., Inc. | System and method of real-time interactive operation of user interface |
US9939899B2 (en) | 2015-09-25 | 2018-04-10 | Apple Inc. | Motion and gesture input from a wearable device |
JP6632298B2 (ja) * | 2015-09-29 | 2020-01-22 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
DE102015226153A1 (de) * | 2015-12-21 | 2017-06-22 | Bayerische Motoren Werke Aktiengesellschaft | Anzeigevorrichtung und Bedieneinrichtung |
KR102559625B1 (ko) * | 2016-01-25 | 2023-07-26 | 삼성전자주식회사 | 증강 현실 출력 방법 및 이를 지원하는 전자 장치 |
JP6859999B2 (ja) * | 2016-02-23 | 2021-04-14 | ソニー株式会社 | 遠隔操作装置、および遠隔操作方法、遠隔操作システム、並びにプログラム |
US20180164895A1 (en) * | 2016-02-23 | 2018-06-14 | Sony Corporation | Remote control apparatus, remote control method, remote control system, and program |
WO2017200571A1 (en) | 2016-05-16 | 2017-11-23 | Google Llc | Gesture-based control of a user interface |
CN106019958B (zh) * | 2016-05-31 | 2021-08-31 | 广东美的制冷设备有限公司 | 手势识别控制方法、手势识别控制装置和家用电器 |
EP3463162A4 (en) * | 2016-06-03 | 2020-06-24 | Covidien LP | SYSTEMS, METHODS AND COMPUTER READABLE PROGRAM PRODUCTS FOR CONTROLLING A ROBOT CONTROLLED MANIPULATOR |
CN106265006B (zh) * | 2016-07-29 | 2019-05-17 | 维沃移动通信有限公司 | 一种主视眼的矫正装置的控制方法及移动终端 |
CN107835288A (zh) * | 2016-09-16 | 2018-03-23 | 天津思博科科技发展有限公司 | 应用智能终端实现的互动娱乐装置 |
CN109804652A (zh) * | 2016-09-28 | 2019-05-24 | 索尼公司 | 设备、计算机程序和方法 |
KR101937823B1 (ko) * | 2016-10-24 | 2019-01-14 | 주식회사 브이터치 | 객체 제어를 지원하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체 |
CN108227914B (zh) | 2016-12-12 | 2021-03-05 | 财团法人工业技术研究院 | 透明显示装置、使用其的控制方法及其控制器 |
CN106896914A (zh) * | 2017-01-17 | 2017-06-27 | 珠海格力电器股份有限公司 | 信息的转换方法和装置 |
US10254846B1 (en) * | 2017-03-15 | 2019-04-09 | Meta Company | Systems and methods to facilitate interactions with virtual content in an augmented reality environment |
US9785250B1 (en) * | 2017-05-15 | 2017-10-10 | Newtonoid Technologies, L.L.C. | Intelligent gesture based security system and method |
JP2019008351A (ja) * | 2017-06-20 | 2019-01-17 | ソニー株式会社 | 情報処理装置、情報処理方法及び記録媒体 |
JP6572943B2 (ja) * | 2017-06-23 | 2019-09-11 | カシオ計算機株式会社 | ロボット、ロボットの制御方法及びプログラム |
CN110312760B (zh) | 2017-06-23 | 2022-03-01 | 积水化学工业株式会社 | 树脂组合物、无机微粒分散浆料组合物、无机微粒分散片 |
EP4224293B1 (en) * | 2017-07-03 | 2024-04-03 | Aptiv Technologies Limited | System and method for determining a pointing direction in 3d space |
CN109388233B (zh) | 2017-08-14 | 2022-07-29 | 财团法人工业技术研究院 | 透明显示装置及其控制方法 |
EP3336848B1 (en) | 2017-08-15 | 2023-09-27 | Siemens Healthcare GmbH | Method for operating a medical imaging device and medical imaging device |
KR102463712B1 (ko) * | 2017-11-24 | 2022-11-08 | 현대자동차주식회사 | 가상 터치 인식 장치 및 그의 인식 오류 보정 방법 |
US10817068B2 (en) * | 2018-01-23 | 2020-10-27 | Toyota Research Institute, Inc. | Vehicle systems and methods for determining target based on selecting a virtual eye position or a pointing direction |
US10706300B2 (en) * | 2018-01-23 | 2020-07-07 | Toyota Research Institute, Inc. | Vehicle systems and methods for determining a target based on a virtual eye position and a pointing direction |
US10853674B2 (en) | 2018-01-23 | 2020-12-01 | Toyota Research Institute, Inc. | Vehicle systems and methods for determining a gaze target based on a virtual eye position |
JP6898021B2 (ja) * | 2018-03-07 | 2021-07-07 | Necソリューションイノベータ株式会社 | 操作入力装置、操作入力方法、及びプログラム |
CN108388347B (zh) * | 2018-03-15 | 2021-05-25 | 网易(杭州)网络有限公司 | 虚拟现实中的交互控制方法和装置及存储介质、终端 |
US10643362B2 (en) * | 2018-03-26 | 2020-05-05 | Lenovo (Singapore) Pte Ltd | Message location based on limb location |
CN110531843A (zh) * | 2018-05-24 | 2019-12-03 | 富泰华工业(深圳)有限公司 | 电子装置及电子装置的操作控制方法 |
JP7135444B2 (ja) * | 2018-05-29 | 2022-09-13 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置及びプログラム |
CN108874127A (zh) * | 2018-05-30 | 2018-11-23 | 北京小度信息科技有限公司 | 信息交互方法、装置、电子设备及计算机可读存储介质 |
CN109143875B (zh) * | 2018-06-29 | 2021-06-15 | 广州市得腾技术服务有限责任公司 | 一种手势控制智能家居方法及其系统 |
US10884507B2 (en) * | 2018-07-13 | 2021-01-05 | Otis Elevator Company | Gesture controlled door opening for elevators considering angular movement and orientation |
TWI734024B (zh) | 2018-08-28 | 2021-07-21 | 財團法人工業技術研究院 | 指向判斷系統以及指向判斷方法 |
WO2020050324A1 (ja) * | 2018-09-05 | 2020-03-12 | 株式会社小糸製作所 | 車両用表示システム、車両システム及び車両 |
US10755250B2 (en) | 2018-09-07 | 2020-08-25 | Bank Of America Corporation | Processing system for providing a teller assistant experience using enhanced reality interfaces |
US10462425B1 (en) | 2018-09-07 | 2019-10-29 | Bank Of America Corporation | Processing system for providing a teller assistant experience using enhanced reality interfaces |
KR102155378B1 (ko) * | 2018-09-19 | 2020-09-14 | 주식회사 브이터치 | 객체 제어를 지원하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체 |
CN109542654A (zh) * | 2018-11-23 | 2019-03-29 | 京东方科技集团股份有限公司 | 自动贩卖机和确定用户选定商品的方法 |
JP7416391B2 (ja) * | 2018-12-28 | 2024-01-17 | 国立大学法人高知大学 | ポインティング装置 |
KR20200093091A (ko) * | 2019-01-07 | 2020-08-05 | 현대자동차주식회사 | 단말기, 그를 가지는 차량 및 그 제어 방법 |
CN109753157B (zh) * | 2019-01-11 | 2022-04-26 | 京东方科技集团股份有限公司 | 显示屏的手势控制方法及装置 |
US11442549B1 (en) * | 2019-02-07 | 2022-09-13 | Apple Inc. | Placement of 3D effects based on 2D paintings |
KR102225342B1 (ko) * | 2019-02-13 | 2021-03-09 | 주식회사 브이터치 | 객체 제어를 지원하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체 |
KR102191061B1 (ko) * | 2019-03-11 | 2020-12-15 | 주식회사 브이터치 | 2차원 카메라를 이용하여 객체 제어를 지원하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체 |
WO2020263250A1 (en) | 2019-06-26 | 2020-12-30 | Google Llc | Radar-based authentication status feedback |
US10832486B1 (en) | 2019-07-17 | 2020-11-10 | Gustav Lo | Systems and methods for displaying augmented anatomical features |
EP4004686A1 (en) | 2019-07-26 | 2022-06-01 | Google LLC | Authentication management through imu and radar |
CN113853567B (zh) | 2019-07-26 | 2024-03-29 | 谷歌有限责任公司 | 基于imu和雷达降低状态 |
US11385722B2 (en) | 2019-07-26 | 2022-07-12 | Google Llc | Robust radar-based gesture-recognition by user equipment |
US11868537B2 (en) | 2019-07-26 | 2024-01-09 | Google Llc | Robust radar-based gesture-recognition by user equipment |
EP4010756A4 (en) * | 2019-08-09 | 2023-09-20 | Light Field Lab, Inc. | DIGITAL SIGNAL SYSTEM BASED ON A LIGHT FIELD DISPLAY SYSTEM |
CN110481419B (zh) * | 2019-08-16 | 2021-12-07 | 广州小鹏汽车科技有限公司 | 一种人车交互方法、系统、车辆及存储介质 |
TWI804671B (zh) * | 2019-08-28 | 2023-06-11 | 財團法人工業技術研究院 | 互動顯示方法與互動顯示系統 |
EP3936980A1 (en) | 2019-08-30 | 2022-01-12 | Google LLC | Input methods for mobile devices |
KR20220098805A (ko) | 2019-08-30 | 2022-07-12 | 구글 엘엘씨 | 다중 입력 모드에 대한 입력 모드 통지 |
US11467672B2 (en) | 2019-08-30 | 2022-10-11 | Google Llc | Context-sensitive control of radar-based gesture-recognition |
WO2021040748A1 (en) | 2019-08-30 | 2021-03-04 | Google Llc | Visual indicator for paused radar gestures |
US11100790B2 (en) | 2019-09-25 | 2021-08-24 | Universal City Studios Llc | Systems and methods for determining projected target location of a handheld object |
US11934584B2 (en) * | 2019-09-27 | 2024-03-19 | Apple Inc. | Finger orientation touch detection |
WO2021153577A1 (ja) * | 2020-01-31 | 2021-08-05 | ソニーグループ株式会社 | 視線検出装置のキャリブレーション |
CN115443445A (zh) * | 2020-02-26 | 2022-12-06 | 奇跃公司 | 用于可穿戴系统的手部手势输入 |
CN111538436B (zh) * | 2020-04-11 | 2023-07-18 | 北京元芯碳基集成电路研究院 | 一种基于碳基电路的多功能显示器及其制作方法 |
CN113946205B (zh) * | 2020-07-17 | 2024-02-09 | 云米互联科技(广东)有限公司 | 燃气控制方法、燃气设备及存储介质 |
CN113946206A (zh) * | 2020-07-17 | 2022-01-18 | 云米互联科技(广东)有限公司 | 家电交互方法、家电设备及存储介质 |
US11474690B2 (en) * | 2020-08-14 | 2022-10-18 | VTouch Co., Ltd. | Method, system and non-transitory computer-readable recording medium for non-contact control |
CN112363626B (zh) * | 2020-11-25 | 2021-10-01 | 广东魅视科技股份有限公司 | 基于人体姿态和手势姿态视觉识别的大屏幕交互控制方法 |
US11630639B2 (en) * | 2020-12-08 | 2023-04-18 | Samsung Electronics Co., Ltd. | Control method of electronic device using a plurality of sensors and electronic device thereof |
JP7176020B2 (ja) * | 2021-02-03 | 2022-11-21 | マクセル株式会社 | 携帯端末の制御方法 |
US11755150B2 (en) * | 2021-09-21 | 2023-09-12 | Apple Inc. | Input location correction based on device motion |
KR102513444B1 (ko) | 2021-11-25 | 2023-03-24 | 한국과학기술원 | 스마트 홈 시스템에서 객체 등록을 지원하는 방법 및 장치 |
JP2023135920A (ja) * | 2022-03-16 | 2023-09-29 | パナソニックIpマネジメント株式会社 | 制御装置および制御方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002259989A (ja) | 2001-03-02 | 2002-09-13 | Gifu Prefecture | ポインティングジェスチャ検出方法及びその装置 |
JP2004362218A (ja) | 2003-06-04 | 2004-12-24 | Canon Inc | 三次元物体操作方法 |
JP2005069734A (ja) | 2003-08-20 | 2005-03-17 | Tokyo Univ Of Marine Science & Technology | 指さし行為による物体の空間位置の教示方法 |
JP2005138755A (ja) | 2003-11-07 | 2005-06-02 | Denso Corp | 虚像表示装置およびプログラム |
JP2013521576A (ja) | 2010-02-28 | 2013-06-10 | オスターハウト グループ インコーポレイテッド | 対話式ヘッド取付け型アイピース上での地域広告コンテンツ |
JP2013250882A (ja) | 2012-06-01 | 2013-12-12 | Sharp Corp | 注目位置検出装置、注目位置検出方法、及び注目位置検出プログラム |
WO2015008164A2 (en) | 2013-06-27 | 2015-01-22 | Eyesight Mobile Technologies Ltd. | Systems and methods of direct pointing detection for interaction with a digital device |
Family Cites Families (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6531999B1 (en) * | 2000-07-13 | 2003-03-11 | Koninklijke Philips Electronics N.V. | Pointing direction calibration in video conferencing and other camera-based system applications |
US6600475B2 (en) * | 2001-01-22 | 2003-07-29 | Koninklijke Philips Electronics N.V. | Single camera system for gesture-based input and target indication |
US8745541B2 (en) * | 2003-03-25 | 2014-06-03 | Microsoft Corporation | Architecture for controlling a computer using hand gestures |
IL161002A0 (en) * | 2004-03-22 | 2004-08-31 | Itay Katz | Virtual video keyboard system |
US9001036B2 (en) * | 2007-12-20 | 2015-04-07 | University Of Central Florida Research Foundation, Inc. | Systems and methods of camera-based fingertip tracking |
JP5117418B2 (ja) * | 2009-01-28 | 2013-01-16 | 株式会社東芝 | 情報処理装置及び情報処理方法 |
CN102342056A (zh) * | 2009-03-05 | 2012-02-01 | 三菱电机株式会社 | 无线通信系统、发送装置以及接收装置 |
KR101585466B1 (ko) * | 2009-06-01 | 2016-01-15 | 엘지전자 주식회사 | 움직임 검출에 의한 전자장치 동작 제어방법 및 이를 채용하는 전자장치 |
US8964298B2 (en) | 2010-02-28 | 2015-02-24 | Microsoft Corporation | Video display modification based on sensor input for a see-through near-to-eye display |
US20110228051A1 (en) * | 2010-03-17 | 2011-09-22 | Goksel Dedeoglu | Stereoscopic Viewing Comfort Through Gaze Estimation |
JP5450791B2 (ja) * | 2010-03-18 | 2014-03-26 | 富士フイルム株式会社 | 立体表示装置及び立体撮影装置、並びに利き目判定方法及びこれに用いる利き目判定プログラム並びに記録媒体 |
CN102812419A (zh) * | 2010-03-18 | 2012-12-05 | 富士胶片株式会社 | 立体图像显示设备及其控制方法 |
US20120274550A1 (en) * | 2010-03-24 | 2012-11-01 | Robert Campbell | Gesture mapping for display device |
WO2011158511A1 (ja) * | 2010-06-17 | 2011-12-22 | パナソニック株式会社 | 指示入力装置、指示入力方法、プログラム、記録媒体および集積回路 |
JP5676608B2 (ja) * | 2010-06-29 | 2015-02-25 | 富士フイルム株式会社 | 立体表示装置、立体撮影装置、および指示判定方法 |
US8907929B2 (en) * | 2010-06-29 | 2014-12-09 | Qualcomm Incorporated | Touchless sensing and gesture recognition using continuous wave ultrasound signals |
WO2012021967A1 (en) * | 2010-08-16 | 2012-02-23 | Tandemlaunch Technologies Inc. | System and method for analyzing three-dimensional (3d) media content |
KR101729023B1 (ko) * | 2010-10-05 | 2017-04-21 | 엘지전자 주식회사 | 휴대 단말기 및 그 동작 제어방법 |
KR101151962B1 (ko) * | 2011-02-16 | 2012-06-01 | 김석중 | 포인터를 사용하지 않는 가상 터치 장치 및 방법 |
CN103890695B (zh) * | 2011-08-11 | 2017-10-13 | 视力移动技术有限公司 | 基于手势的接口系统和方法 |
US20130050069A1 (en) * | 2011-08-23 | 2013-02-28 | Sony Corporation, A Japanese Corporation | Method and system for use in providing three dimensional user interface |
US8947351B1 (en) * | 2011-09-27 | 2015-02-03 | Amazon Technologies, Inc. | Point of view determinations for finger tracking |
GB2511973A (en) * | 2011-12-27 | 2014-09-17 | Hewlett Packard Development Co | User interface device |
WO2013190538A1 (en) * | 2012-06-20 | 2013-12-27 | Pointgrab Ltd. | Method for touchless control of a device |
US20140282269A1 (en) * | 2013-03-13 | 2014-09-18 | Amazon Technologies, Inc. | Non-occluded display for hover interactions |
US9487537B2 (en) | 2013-06-12 | 2016-11-08 | Archer Daniels Midland Co. | Synthesis of isohexide dicarbamates and derivatives thereof |
-
2014
- 2014-06-27 CN CN201480047184.5A patent/CN105593787B/zh active Active
- 2014-06-27 WO PCT/IB2014/002318 patent/WO2015008164A2/en active Application Filing
- 2014-06-27 US US14/392,276 patent/US9846486B2/en active Active
- 2014-06-27 CN CN201910498012.4A patent/CN110442231A/zh active Pending
- 2014-06-27 JP JP2016522897A patent/JP6480434B2/ja not_active Expired - Fee Related
- 2014-06-27 KR KR1020227034149A patent/KR20220136517A/ko not_active Application Discontinuation
- 2014-06-27 KR KR1020167002166A patent/KR102517425B1/ko active IP Right Grant
-
2017
- 2017-12-18 US US15/845,146 patent/US10817067B2/en active Active
-
2019
- 2019-02-07 JP JP2019020548A patent/JP7191714B2/ja active Active
-
2020
- 2020-10-26 US US17/079,837 patent/US11314335B2/en active Active
-
2022
- 2022-06-22 JP JP2022100231A patent/JP2022118183A/ja active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002259989A (ja) | 2001-03-02 | 2002-09-13 | Gifu Prefecture | ポインティングジェスチャ検出方法及びその装置 |
JP2004362218A (ja) | 2003-06-04 | 2004-12-24 | Canon Inc | 三次元物体操作方法 |
JP2005069734A (ja) | 2003-08-20 | 2005-03-17 | Tokyo Univ Of Marine Science & Technology | 指さし行為による物体の空間位置の教示方法 |
JP2005138755A (ja) | 2003-11-07 | 2005-06-02 | Denso Corp | 虚像表示装置およびプログラム |
JP2013521576A (ja) | 2010-02-28 | 2013-06-10 | オスターハウト グループ インコーポレイテッド | 対話式ヘッド取付け型アイピース上での地域広告コンテンツ |
JP2013250882A (ja) | 2012-06-01 | 2013-12-12 | Sharp Corp | 注目位置検出装置、注目位置検出方法、及び注目位置検出プログラム |
US20150145762A1 (en) | 2012-06-01 | 2015-05-28 | Sharp Kabushiki Kaisha | Position-of-interest detection device, position-of-interest detection method, and position-of-interest detection program |
WO2015008164A2 (en) | 2013-06-27 | 2015-01-22 | Eyesight Mobile Technologies Ltd. | Systems and methods of direct pointing detection for interaction with a digital device |
JP2016523420A (ja) | 2013-06-27 | 2016-08-08 | アイサイト モバイル テクノロジーズ リミテッド | デジタルデバイスとの対話のための直接的なポインティング検出のためのシステムおよび方法 |
Also Published As
Publication number | Publication date |
---|---|
JP2019087279A (ja) | 2019-06-06 |
WO2015008164A2 (en) | 2015-01-22 |
US11314335B2 (en) | 2022-04-26 |
CN105593787B (zh) | 2019-07-05 |
US9846486B2 (en) | 2017-12-19 |
KR20160048062A (ko) | 2016-05-03 |
CN110442231A (zh) | 2019-11-12 |
US20210157412A1 (en) | 2021-05-27 |
US20190004611A1 (en) | 2019-01-03 |
CN105593787A (zh) | 2016-05-18 |
KR102517425B1 (ko) | 2023-03-31 |
JP6480434B2 (ja) | 2019-03-13 |
KR20220136517A (ko) | 2022-10-07 |
US20160179205A1 (en) | 2016-06-23 |
JP2022118183A (ja) | 2022-08-12 |
WO2015008164A3 (en) | 2015-07-16 |
US10817067B2 (en) | 2020-10-27 |
JP2016523420A (ja) | 2016-08-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7191714B2 (ja) | デジタルデバイスとの対話のための直接的なポインティング検出のためのシステムおよび方法 | |
US20220382379A1 (en) | Touch Free User Interface | |
US10120454B2 (en) | Gesture recognition control device | |
US10761610B2 (en) | Vehicle systems and methods for interaction detection | |
US10203764B2 (en) | Systems and methods for triggering actions based on touch-free gesture detection | |
US20180292907A1 (en) | Gesture control system and method for smart home | |
US9001006B2 (en) | Optical-see-through head mounted display system and interactive operation | |
WO2014106219A1 (en) | User centric interface for interaction with visual display that recognizes user intentions | |
US20200142495A1 (en) | Gesture recognition control device | |
KR20160080109A (ko) | 사용자 인터페이스 제어를 위한 시스템 및 기법 | |
US20160139762A1 (en) | Aligning gaze and pointing directions | |
KR102325684B1 (ko) | 두부 착용형 시선 추적 입력 장치 및 이를 이용하는 입력 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190207 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200515 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20200812 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201104 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210420 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20210715 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211020 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220222 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220622 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20220622 |
|
C11 | Written invitation by the commissioner to file amendments |
Free format text: JAPANESE INTERMEDIATE CODE: C11 Effective date: 20220705 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20220824 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20220825 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221012 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20221111 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221207 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7191714 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |