JP6165979B2 - 注視補助型タッチスクリーン入力 - Google Patents
注視補助型タッチスクリーン入力 Download PDFInfo
- Publication number
- JP6165979B2 JP6165979B2 JP2016524529A JP2016524529A JP6165979B2 JP 6165979 B2 JP6165979 B2 JP 6165979B2 JP 2016524529 A JP2016524529 A JP 2016524529A JP 2016524529 A JP2016524529 A JP 2016524529A JP 6165979 B2 JP6165979 B2 JP 6165979B2
- Authority
- JP
- Japan
- Prior art keywords
- touch
- signal
- gaze
- user
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 claims description 58
- 230000000007 visual effect Effects 0.000 claims description 56
- 230000004044 response Effects 0.000 claims description 26
- 238000001514 detection method Methods 0.000 claims description 18
- 238000004590 computer program Methods 0.000 claims 2
- 230000008569 process Effects 0.000 description 30
- 238000004891 communication Methods 0.000 description 24
- 238000010586 diagram Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 238000005259 measurement Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 description 3
- 239000011521 glass Substances 0.000 description 3
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 210000004087 cornea Anatomy 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 238000005192 partition Methods 0.000 description 2
- 210000001747 pupil Anatomy 0.000 description 2
- 210000000707 wrist Anatomy 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
- 238000002366 time-of-flight method Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04104—Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04808—Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
Description
例1は、注視補助型タッチスクリーン入力を用いるコンピューティングシステムであって:コンピューティングシステムのタッチスクリーン上のユーザのタッチを示すタッチ信号を受け取り、タッチスクリーン上のユーザの注視の領域を示す注視位置信号を受け取り、注視位置信号及びタッチ信号に少なくとも部分的に基づいて、コンピューティングシステムへの入力信号を生成する、入力登録ロジックを備えるコンピューティングシステムである。
Claims (28)
- 注視補助型タッチスクリーン入力を用いるコンピューティングシステムであって:
当該コンピューティングシステムのタッチスクリーン上のユーザのタッチを示すタッチ信号を受け取り、
前記タッチスクリーン上のユーザの注視領域を示す注視位置信号を受け取り、
前記タッチ信号のタッチタイプが、注視非関連のタイプとして分類されるか、注視関連のタイプとして分類されるかを決定し、
前記注視位置信号、前記タッチ信号及び前記決定されたタッチタイプに少なくとも部分的に基づいて、当該コンピューティングシステムの入力信号を生成する、
入力登録ロジックを備える、コンピューティングシステム。 - 前記入力登録ロジックに結合され、前記注視位置信号を生成する、注視位置ロジック
を更に備える、請求項1に記載のコンピューティングシステム。 - 前記注視位置ロジックに結合され、画像キャプチャデバイスから前記ユーザの目の画像を受け取る、画像キャプチャロジックを更に備え、
前記注視位置ロジックは、前記受け取った画像に少なくとも部分的に基づいて前記注視位置信号を生成する
請求項2に記載のコンピューティングシステム。 - 前記入力登録ロジックに結合され、前記タッチ信号を生成する、タッチ検出ロジック
を更に備える、請求項1に記載のコンピューティングシステム。 - 前記タッチタイプは、前記注視非関連のタイプ及び前記注視関連のタイプを含む複数の所定のタッチタイプのうちの1つであり、前記入力登録ロジックは、前記注視位置信号及び前記タッチ信号に少なくとも部分的に基づく前記複数の所定のタッチタイプのうちの1つの選択を通して、前記入力信号を生成し、
前記入力信号は、前記選択されたタッチタイプを示す、
請求項1に記載のコンピューティングシステム。 - 前記複数の所定のタッチタイプは、1つ以上の注視非関連のタイプ及び1つ以上の注視関連のタイプを含み、前記注視位置信号及び前記タッチ信号に少なくとも部分的に基づいて前記複数の所定のタッチタイプのうちの1つを選択するため、前記入力登録ロジックは、
前記タッチ信号に少なくとも部分的に基づいて、前記タッチが前記ユーザの前記注視領域の外側に置かれたことを判断し、
前記タッチが前記ユーザの前記注視領域の外側に置かれたという判断に応答して、注視非関連のタイプを選択する
、請求項5に記載のコンピューティングシステム。 - 前記入力登録ロジックは更に:
前記タッチ信号に少なくとも部分的に基づいて、前記タッチが前記ユーザの前記注視領域の外側に置かれたと判断し;
前記タッチ信号に少なくとも部分的に基づいて、前記タッチ信号がいずれの注視非関連のタッチタイプにも整合していないと判断し;
前記タッチが前記ユーザの前記注視領域の外側に置かれたという判断と、前記タッチ信号がいずれの注視非関連のタッチタイプにも整合していないという判断に応答して、入力信号を生成する目的について前記タッチ信号を無視する;
請求項1に記載のコンピューティングシステム。 - 前記注視位置信号は第1の注視位置信号であり、前記ユーザは第1のユーザであり、前記タッチ信号は第1のタッチ信号であり、前記入力信号は第1の入力信号であり、
前記入力登録ロジックは:
前記タッチスクリーン上の第2のユーザのタッチを示す第2のタッチ信号を受け取り;
前記タッチスクリーン上の前記第2のユーザの注視領域を示す第2の注視位置信号を受け取り;
前記第2の注視位置信号及び前記第2のタッチ信号に少なくとも部分的に基づいて、第2の入力信号を生成する;
請求項1に記載のコンピューティングシステム。 - 前記入力登録ロジックに結合され、前記第1及び第2のタッチ信号を少なくとも部分的に並行して生成する、タッチ検出ロジック、
を更に備える、請求項8に記載のコンピューティングシステム。 - 前記タッチスクリーン上に、前記第1の入力信号に少なくとも部分的に基づく第1の視覚的要素と、前記第2の入力信号に少なくとも部分的に基づく第2の視覚的要素との表示をもたらす、表示ロジックを更に備え、前記第1及び第2の視覚的要素が同時に表示される、
請求項8に記載のコンピューティングシステム。 - 前記入力登録ロジックは更に、前記タッチスクリーンに対する前記ユーザの目の位置を示すポジション信号を受け取る、
請求項1乃至10のいずれか一項に記載のコンピューティングシステム。 - 前記入力登録ロジックに結合され、前記ポジション信号を生成する観察位置ロジック
を更に備える、請求項11に記載のコンピューティングシステム。 - 前記観察位置ロジックに結合され、前記ポジション信号を受け取り、前記ポジション信号に少なくとも部分的に基づいて、所望の視覚的歪みを指示する調整信号を生成する、表示調整ロジックと;
前記表示調整ロジックに結合されて、前記タッチスクリーン上に、前記調整信号に従って歪めた1つ以上の視覚的要素の表示をもたらす、表示ロジックと;
を更に備える、請求項12に記載のコンピューティングシステム。 - コンピューティングシステムのための注視補助型タッチスクリーン入力を生成する方法であって:
前記コンピューティングシステムによって、該コンピューティングシステムのタッチスクリーン上のユーザの注視領域を示す注視位置信号を受け取るステップと;
前記コンピューティングシステムによって、前記タッチスクリーン上のユーザのタッチを示すタッチ信号を受け取るステップと;
前記コンピューティングシステムによって、前記タッチ信号のタッチタイプが、注視非関連のタイプとして分類されるか、注視関連のタイプとして分類されるかを決定するステップと;
前記コンピューティングシステムによって、前記注視位置信号、前記タッチ信号及び前記決定されたタッチタイプに少なくとも部分的に基づいて、前記コンピューティングシステムの入力信号を生成するステップと;
を備える、方法。 - 前記コンピューティングシステムによって、画像キャプチャデバイスから前記ユーザの目の画像を受け取るステップを更に備え、
前記注視位置信号は、前記受け取った画像に少なくとも部分的に基づく、
請求項14に記載の方法。 - 前記タッチ信号のタッチタイプが、注視非関連のタイプとして分類されるか、注視関連のタイプとして分類されるかを決定するステップは、前記注視位置信号及び前記タッチ信号に少なくとも部分的に基づいて、前記注視非関連のタイプ及び前記注視関連のタイプを含む複数の所定のタッチタイプのうちの1つを選択するステップを備え、
前記入力信号は、前記選択されたタッチタイプを示す、
請求項14に記載の方法。 - 前記複数の所定のタッチタイプは、1つ以上の注視非関連のタイプ及び1つ以上の注視関連のタイプを含み、前記注視位置信号及び前記タッチ信号に少なくとも部分的に基づいて、前記複数の所定のタッチタイプのうちの1つを選択するステップは、
前記タッチが前記ユーザの前記注視領域の外側に置かれたことを前記タッチ信号が示していると判断するステップと、
前記タッチが前記ユーザの前記注視領域の外側に置かれたことを前記タッチ信号が示していると判断したことに応答して、注視非関連のタイプを選択するステップと
を備える、請求項16に記載の方法。 - 前記タッチ信号に少なくとも部分的に基づいて、前記タッチが前記ユーザの前記注視領域の外側に置かれたと判断するステップと;
前記タッチ信号に少なくとも部分的に基づいて、前記タッチ信号がいずれの注視非関連のタッチタイプにも整合していないと判断するステップと;
前記タッチが前記ユーザの前記注視領域の外側に置かれ、かつ前記タッチ信号がいずれの注視非関連のタッチタイプにも整合していないと判断したことに応答して、入力信号を生成する目的について前記タッチ信号を無視するステップと;
を更に備える、請求項14に記載の方法。 - 前記注視位置信号は第1の注視位置信号であり、前記ユーザは第1のユーザであり、前記タッチ信号は第1のタッチ信号であり、前記入力信号は第1の入力信号であり、当該方法は:
前記コンピューティングシステムによって、前記タッチスクリーン上の第2のユーザの注視領域を示す第2の注視位置信号を受け取るステップと;
前記コンピューティングシステムによって、前記タッチスクリーン上の前記第2のユーザのタッチを示す第2のタッチ信号を受け取るステップと;
前記コンピューティングシステムによって、前記第2の注視位置信号及び前記第2のタッチ信号に少なくとも部分的に基づいて、第2の入力信号を生成するステップと;
を更に備える、請求項14に記載の方法。 - 前記コンピューティングシステムによって、前記タッチスクリーン上に、前記第1の入力信号に少なくとも部分的に基づく第1の視覚的要素と、前記第2の入力信号に少なくとも部分的に基づく第2の視覚的要素との同時表示をもたらすステップ
を更に備える、請求項19に記載の方法。 - 前記コンピューティングシステムによって、前記タッチスクリーンに対する前記ユーザの目の位置を示すポジション信号を受け取るステップ
を更に備える、
請求項14に記載の方法。 - 前記コンピューティングシステムによって、前記ポジション信号に少なくとも部分的に基づいて、所望の視覚的歪みを指示する調整信号を生成するステップと;
前記タッチスクリーン上に、前記調整信号に従って歪めた1つ以上の視覚的要素の表示をもたらすステップと;
を更に備える、請求項21に記載の方法。 - コンピューティングデバイスの1つ以上の処理デバイスによって実行されると、該コンピューティングデバイスに、請求項14乃至22のいずれか一項に記載の方法を実行させるコンピュータプログラム。
- 注視補助型タッチスクリーン入力を用いるシステムであって:
コンピューティングシステムのタッチスクリーン上のユーザの注視領域を示す注視位置信号を受け取るための手段と;
前記タッチスクリーン上の前記ユーザのタッチを示すタッチ信号を受け取るための手段と;
前記タッチ信号のタッチタイプが、注視非関連のタイプとして分類されるか、注視関連のタイプとして分類されるかを決定するための手段と;
前記注視位置信号、前記タッチ信号及び前記タッチタイプに少なくとも部分的に基づいて、当該システムの入力信号を生成するための手段と;
を備える、システム。 - 前記タッチ信号のタッチタイプが、注視非関連のタイプとして分類されるか、注視関連のタイプとして分類されるかを決定するための手段は、前記注視位置信号及び前記タッチ信号に少なくとも部分的に基づいて、前記注視非関連のタイプ及び前記注視関連のタイプを含む複数の所定のタッチタイプのうちの1つを選択するための手段を備え、
前記入力信号は、前記選択されたタッチタイプを示す、
請求項24に記載のシステム。 - 前記注視位置信号は第1の注視位置信号であり、前記ユーザは第1のユーザであり、前記タッチ信号は第1のタッチ信号であり、前記入力信号は第1の入力信号であり、当該システムは:
前記タッチスクリーン上の第2のユーザの注視領域を示す第2の注視位置信号を受け取るための手段と;
前記タッチスクリーン上の前記第2のユーザのタッチを示す第2のタッチ信号を受け取るための手段と;
前記第2の注視位置信号及び前記第2のタッチ信号に少なくとも部分的に基づいて、第2の入力信号を生成するための手段と;
を更に備える、請求項24に記載のシステム。 - 前記タッチスクリーンに対する前記ユーザの目の位置を示すポジション信号を受け取るための手段
を更に備える、
請求項24に記載のシステム。 - 請求項23に記載のコンピュータプログラムを記憶するコンピュータ読取可能媒体。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/US2013/068125 WO2015065478A1 (en) | 2013-11-01 | 2013-11-01 | Gaze-assisted touchscreen inputs |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016533575A JP2016533575A (ja) | 2016-10-27 |
JP6165979B2 true JP6165979B2 (ja) | 2017-07-19 |
Family
ID=53004878
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016524529A Active JP6165979B2 (ja) | 2013-11-01 | 2013-11-01 | 注視補助型タッチスクリーン入力 |
Country Status (5)
Country | Link |
---|---|
US (1) | US9575559B2 (ja) |
EP (1) | EP3063602B1 (ja) |
JP (1) | JP6165979B2 (ja) |
CN (1) | CN105593785B (ja) |
WO (1) | WO2015065478A1 (ja) |
Families Citing this family (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8885882B1 (en) * | 2011-07-14 | 2014-11-11 | The Research Foundation For The State University Of New York | Real time eye tracking for human computer interaction |
KR20150083553A (ko) * | 2014-01-10 | 2015-07-20 | 삼성전자주식회사 | 입력 처리 방법 및 장치 |
US10209779B2 (en) * | 2014-02-21 | 2019-02-19 | Samsung Electronics Co., Ltd. | Method for displaying content and electronic device therefor |
KR101619651B1 (ko) * | 2014-11-26 | 2016-05-10 | 현대자동차주식회사 | 운전자 감시장치 및 그의 조명제어방법 |
JP2016163166A (ja) * | 2015-03-02 | 2016-09-05 | 株式会社リコー | 通信端末、面談システム、表示方法及びプログラム |
TW201703722A (zh) * | 2015-07-21 | 2017-02-01 | 明達醫學科技股份有限公司 | 量測裝置及其運作方法 |
US9990044B2 (en) * | 2015-10-30 | 2018-06-05 | Intel Corporation | Gaze tracking system |
US9905244B2 (en) * | 2016-02-02 | 2018-02-27 | Ebay Inc. | Personalized, real-time audio processing |
US9898082B1 (en) * | 2016-11-01 | 2018-02-20 | Massachusetts Institute Of Technology | Methods and apparatus for eye tracking |
WO2018103072A1 (zh) * | 2016-12-09 | 2018-06-14 | 深圳市柔宇科技有限公司 | 用户界面的调整方法、调整系统及头戴显示设备 |
US10620910B2 (en) * | 2016-12-23 | 2020-04-14 | Realwear, Inc. | Hands-free navigation of touch-based operating systems |
US11507216B2 (en) | 2016-12-23 | 2022-11-22 | Realwear, Inc. | Customizing user interfaces of binary applications |
US10936872B2 (en) | 2016-12-23 | 2021-03-02 | Realwear, Inc. | Hands-free contextually aware object interaction for wearable display |
US11099716B2 (en) | 2016-12-23 | 2021-08-24 | Realwear, Inc. | Context based content navigation for wearable display |
JP6253861B1 (ja) * | 2017-03-15 | 2017-12-27 | 三菱電機株式会社 | タッチジェスチャ判定装置、タッチジェスチャ判定方法、タッチジェスチャ判定プログラム、及びタッチパネル入力装置 |
WO2018186031A1 (ja) * | 2017-04-03 | 2018-10-11 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
US10304209B2 (en) | 2017-04-19 | 2019-05-28 | The Nielsen Company (Us), Llc | Methods and systems to increase accuracy of eye tracking |
US11029834B2 (en) * | 2017-12-20 | 2021-06-08 | International Business Machines Corporation | Utilizing biometric feedback to allow users to scroll content into a viewable display area |
CN109101110A (zh) * | 2018-08-10 | 2018-12-28 | 北京七鑫易维信息技术有限公司 | 一种操作指令执行方法、装置、用户终端及存储介质 |
TWI734024B (zh) * | 2018-08-28 | 2021-07-21 | 財團法人工業技術研究院 | 指向判斷系統以及指向判斷方法 |
US10761648B2 (en) * | 2019-01-16 | 2020-09-01 | Michael D. Marra | Gaze detection interlock feature for touch screen devices |
US11347367B2 (en) * | 2019-01-18 | 2022-05-31 | Dell Products L.P. | Information handling system see do user interface management |
US11169653B2 (en) | 2019-01-18 | 2021-11-09 | Dell Products L.P. | Asymmetric information handling system user interface management |
US11009907B2 (en) | 2019-01-18 | 2021-05-18 | Dell Products L.P. | Portable information handling system user interface selection based on keyboard configuration |
US11379016B2 (en) | 2019-05-23 | 2022-07-05 | Intel Corporation | Methods and apparatus to operate closed-lid portable computers |
TWI804671B (zh) * | 2019-08-28 | 2023-06-11 | 財團法人工業技術研究院 | 互動顯示方法與互動顯示系統 |
US11733761B2 (en) | 2019-11-11 | 2023-08-22 | Intel Corporation | Methods and apparatus to manage power and performance of computing devices based on user presence |
US11809535B2 (en) | 2019-12-23 | 2023-11-07 | Intel Corporation | Systems and methods for multi-modal user device authentication |
US11474598B2 (en) * | 2021-01-26 | 2022-10-18 | Huawei Technologies Co., Ltd. | Systems and methods for gaze prediction on touch-enabled devices using touch interactions |
CN112987930A (zh) * | 2021-03-17 | 2021-06-18 | 读书郎教育科技有限公司 | 一种实现和大尺寸电子产品便捷交互的方法 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6204828B1 (en) | 1998-03-31 | 2001-03-20 | International Business Machines Corporation | Integrated gaze/manual cursor positioning system |
JPH11296304A (ja) * | 1998-04-10 | 1999-10-29 | Ricoh Co Ltd | 画面表示入力装置及び視差補正方法 |
SE524003C2 (sv) * | 2002-11-21 | 2004-06-15 | Tobii Technology Ab | Förfarande och anläggning för att detektera och följa ett öga samt dess blickvinkel |
US8793620B2 (en) * | 2011-04-21 | 2014-07-29 | Sony Computer Entertainment Inc. | Gaze-assisted computer interface |
US20110304606A1 (en) * | 2010-06-14 | 2011-12-15 | Oto Technologies, Llc | Method and system for implementing look-ahead protection in a computing device |
US8493390B2 (en) * | 2010-12-08 | 2013-07-23 | Sony Computer Entertainment America, Inc. | Adaptive displays using gaze tracking |
JP2012203671A (ja) * | 2011-03-25 | 2012-10-22 | Nec Casio Mobile Communications Ltd | 電子機器、情報生成方法及びプログラム |
US8766936B2 (en) * | 2011-03-25 | 2014-07-01 | Honeywell International Inc. | Touch screen and method for providing stable touches |
KR101810170B1 (ko) * | 2011-10-10 | 2017-12-20 | 삼성전자 주식회사 | 사용자 위치 기반 이미지 표시 방법 및 장치 |
US20130145304A1 (en) * | 2011-12-02 | 2013-06-06 | International Business Machines Corporation | Confirming input intent using eye tracking |
WO2013095389A1 (en) * | 2011-12-20 | 2013-06-27 | Hewlett-Packard Development Company, Lp | Transformation of image data based on user position |
US10013053B2 (en) * | 2012-01-04 | 2018-07-03 | Tobii Ab | System for gaze interaction |
KR101850034B1 (ko) * | 2012-01-06 | 2018-04-20 | 엘지전자 주식회사 | 이동 단말기 및 그 제어방법 |
AU2013239179B2 (en) * | 2012-03-26 | 2015-08-20 | Apple Inc. | Enhanced virtual touchpad and touchscreen |
KR20150031986A (ko) * | 2013-09-17 | 2015-03-25 | 삼성전자주식회사 | 디스플레이장치 및 그 제어방법 |
-
2013
- 2013-11-01 EP EP13896672.6A patent/EP3063602B1/en active Active
- 2013-11-01 JP JP2016524529A patent/JP6165979B2/ja active Active
- 2013-11-01 WO PCT/US2013/068125 patent/WO2015065478A1/en active Application Filing
- 2013-11-01 US US14/127,955 patent/US9575559B2/en active Active
- 2013-11-01 CN CN201380080038.8A patent/CN105593785B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN105593785A (zh) | 2016-05-18 |
EP3063602A1 (en) | 2016-09-07 |
US9575559B2 (en) | 2017-02-21 |
JP2016533575A (ja) | 2016-10-27 |
US20150338914A1 (en) | 2015-11-26 |
EP3063602B1 (en) | 2019-10-23 |
EP3063602A4 (en) | 2017-08-02 |
WO2015065478A1 (en) | 2015-05-07 |
CN105593785B (zh) | 2019-11-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6165979B2 (ja) | 注視補助型タッチスクリーン入力 | |
JP7283506B2 (ja) | 情報処理装置、情報処理方法、及び情報処理プログラム | |
US9395821B2 (en) | Systems and techniques for user interface control | |
US11036284B2 (en) | Tracking and drift correction | |
EP2509070B1 (en) | Apparatus and method for determining relevance of input speech | |
US20160132189A1 (en) | Method of controlling the display of images and electronic device adapted to the same | |
US11481025B2 (en) | Display control apparatus, display apparatus, and display control method | |
TWI525477B (zh) | 接收用戶輸入的系統與方法,及其程式儲存媒體 | |
JP6250024B2 (ja) | キャリブレーション装置、キャリブレーションプログラム、およびキャリブレーション方法 | |
US11360550B2 (en) | IMU for touch detection | |
JP2021096490A (ja) | 情報処理装置、情報処理方法、およびプログラム | |
WO2019085519A1 (zh) | 面部跟踪方法及装置 | |
WO2020080107A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
US20240077937A1 (en) | Devices, methods, and graphical user interfaces for controlling avatars within three-dimensional environments | |
WO2023003759A1 (en) | Multi-modal tracking of an input device | |
US20230333643A1 (en) | Eye Tracking Based Selection of a User Interface (UI) Element Based on Targeting Criteria | |
US20220261085A1 (en) | Measurement based on point selection | |
US20240103626A1 (en) | Haptic ring | |
EP3850468B1 (en) | Snapping range for augmented reality objects | |
TW201826234A (zh) | 手語辨識方法 | |
KR20240041257A (ko) | 응시 유지 이벤트 평가에 기초한 사용자 인터페이스 응답 | |
WO2022173724A1 (en) | Transitioning content in views of three-dimensional environments using alternative positional constraints |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160418 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170131 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170207 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170427 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170523 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170621 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6165979 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |