JP6165979B2 - 注視補助型タッチスクリーン入力 - Google Patents

注視補助型タッチスクリーン入力 Download PDF

Info

Publication number
JP6165979B2
JP6165979B2 JP2016524529A JP2016524529A JP6165979B2 JP 6165979 B2 JP6165979 B2 JP 6165979B2 JP 2016524529 A JP2016524529 A JP 2016524529A JP 2016524529 A JP2016524529 A JP 2016524529A JP 6165979 B2 JP6165979 B2 JP 6165979B2
Authority
JP
Japan
Prior art keywords
touch
signal
gaze
user
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016524529A
Other languages
English (en)
Other versions
JP2016533575A (ja
Inventor
アール. アンドリスコ,ネイサン
アール. アンドリスコ,ネイサン
Original Assignee
インテル コーポレイション
インテル コーポレイション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by インテル コーポレイション, インテル コーポレイション filed Critical インテル コーポレイション
Publication of JP2016533575A publication Critical patent/JP2016533575A/ja
Application granted granted Critical
Publication of JP6165979B2 publication Critical patent/JP6165979B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Description

本開示は一般に、データ処理の分野に関し、より具体的には、注視補助型(gaze-assisted)タッチスクリーン入力に関する。
タッチスクリーンベースのデバイス(例えばタブレット及びスマートフォン)のユーザは、異なる種類のタッチを区別して予期しない方法で誤ったタッチに応答するデバイスの限られた能力に、イライラさせられることがしばしばある。加えて、ユーザがこれらのデバイスを一般的でない角度で見るとき(例えばデバイスの右端又は左端から見るとき)、タッチの正確性は、所望のタッチ位置が実際のタッチ位置に整合しないという視差効果によって低下する。これらの性能の制限は、タッチスクリーンデバイスを用いるユーザの経験の品質を大いに低下させる可能性がある。
実施形態は、添付の図面とともに以下の詳細な説明により容易に理解されるであろう。この説明を容易にするため、同様の参照番号は同様の構造的要素を示す。実施形態は、限定ではなく例として図示されている。添付の図面の図は次の通りである。
様々な実施形態に係る、注視補助型タッチスクリーン入力のために構成された例示のコンピューティングシステムのブロック図である。 様々な実施形態に係る、図1のコンピューティングシステムによって実装され得る例示の注視補助型タッチスクリーン入力システムのブロック図である。 様々な実施形態に係る、ユーザが図1のコンピューティングシステムのタッチスクリーンを見ているときの注視位置信号の生成のシナリオを示す図である。 様々な実施形態に係る、図1のコンピューティングシステムのタッチスクリーンのユーザの注視の領域を示す図である。 様々な実施形態に係る、ユーザのタッチ信号の処理の前及び後に、図1のコンピューティングシステムのタッチスクリーン上にレンダリングされるユーザの注視の領域、タッチ及び表示を示す図である。 様々な実施形態に係る、ユーザのタッチ信号の処理の前及び後に、図1のコンピューティングシステムのタッチスクリーン上にレンダリングされるユーザの注視の領域、タッチ及び表示を示す図である。 様々な実施形態に係る、図1のコンピューティングシステムのタッチスクリーンを見ている2人のユーザを示す図である。 様々な実施形態に係る、2人のユーザのタッチ信号の処理の前及び後に、図1のコンピューティングシステムのタッチスクリーン上にレンダリングされる注視領域、タッチ及び表示を示す図である。 様々な実施形態に係る、2人のユーザのタッチ信号の処理の前及び後に、図1のコンピューティングシステムのタッチスクリーン上にレンダリングされる注視領域、タッチ及び表示を示す図である。 様々な実施形態に係る、ユーザが図1のコンピューティングシステムのタッチスクリーンを見ているときのポジション信号の生成のシナリオを示す図である。 様々な実施形態に係る、ポジション信号の処理の前及び後に、図1のコンピューティングシステムのタッチスクリーン上にレンダリングされる表示を示す図である。 様々な実施形態に係る、位置信号の処理の前及び後に、図1のコンピューティングシステムのタッチスクリーン上にレンダリングされる表示を示す図である。 様々な実施形態に係る、注視補助型タッチスクリーン入力を生成する例示の処理のフロー図である。 様々な実施形態に係る、注視補助型タッチスクリーン入力を生成する例示の処理のフロー図である。 様々な実施形態に係る、注視補助型タッチスクリーン入力を生成する例示の処理のフロー図である。
注視補助型タッチスクリーン入力に関する実施形態が開示される。一部の実施形態では、コンピューティングシステムは、タッチスクリーン上のユーザの注視の領域を示す注視位置信号を受け取り、タッチスクリーン上のユーザのタッチを示すタッチ信号を受け取り、注視位置信号及びタッチ信号に少なくとも部分的に基づいて、コンピューティングデイバスの入力信号を生成する。
以下の詳細な説明では、説明の一部を形成する添付の図面を参照するが、図面では同様の数字は、全体を通して同様の部分を示しており、また図面は、実施され得る例示の実施形態として示されている。理解されるように、他の実施形態が用いられてもよく、本開示の範囲から逸脱することなく、構造的又は論理的変更が行われてもよい。したがって、以下の詳細な説明は限定的意味に解釈されるべきではない。
様々な動作は、複数の別個のアクション又は動作として、特許請求に係る主題を理解する際に最も有益な方法で順番に説明されていることがある。しかしながら、説明の順序は、これらの動作が必ず順序依存であることを示唆するように解釈されるべきではない。特に、これらの動作は、提示の順序で実行されなくてもよい。説明される動作は、説明される実施形態と異なる順序で実行されてよい。更なる実施形態では、様々な追加の動作が実行されてよく、かつ/又は説明される動作が省略されてもよい。
本開示の目的では、「A及び/又はB」というフレーズは、(A)、(B)又は(AとB)を意味する。本開示の目的では、「A、B及び/又はC」というフレーズは、(A)、(B)、(C)、(AとB)、(AとC)、(BとC)又は(AとBとC)を意味する。
本説明では、「ある実施形態において」又は「実施形態において」というフレーズを使用するが、このフレーズはそれぞれ、同じ又は異なる実施形態のうちの1つ又は複数を指すことがある。さらに、「備える」、「含む」、「有する」という用語及び同様の用語は、本開示の実施形態に関して使用されるとき、同義である。本明細書で使用されるとき、「結合される」というフレーズは、2つ以上の要素が直接物理的に又は電気的に接触していること、あるいは2つ以上の要素が相互に直接的には接触していないが、依然として(例えばそれら自体の変換を実行するかそれ自体の効果を有し得る、1つ以上の中間要素を介して)相互に協調するか相互作用する状態にあることを意味する。例えば2つの要素は、両要素が共通の要素(例えばメモリデバイス)と通信するとき、相互に結合され得る。本明細書で使用されるとき、「ロジック(論理)」という用語は、特定用途向け集積回路(ASIC)、電子回路、プロセッサ(共有、専用又はグループ)及び/又は1つ以上のソフトウェア若しくはファームウェアプログラムを実行するメモリ(共有、専用又はグループ)、組合せ論理回路及び/又は説明される機能を提供する他の適切なコンポーネントを指すか、これらの一部であるか、あるいはこれらを含み得る。本明細書で使用されるとき、信号は、コンポーネントに対して外部又は内部的に生成される場合、そのコンポーネントによって「受け取られる」ことがあり、そのコンポーネントによって通知及び/又は処理され得る。
図1は、様々な実施形態に係る注視補助型タッチスクリーン入力のために構成された例示のコンピューティングシステム100を示す。一部の実施形態において、コンピューティングシステム100は、コンピューティングシステムのタッチスクリーン上のユーザの注視の領域を示す注視位置信号を受け取り、タッチスクリーン上のユーザのタッチを示すタッチ信号を受け取り、そして、注視位置信号及びタッチ信号に少なくとも部分的に基づいて、コンピューティングシステムの入力信号を生成するように構成され得る。コンピューティングシステム100は、パーソナルコンピューティングデバイス102、タッチスクリーン104及びリモートコンピューティングデバイス106を含み得る。パーソナルコンピューティングデバイス102、タッチスクリーン104及びリモートコンピューティングデバイス106の各々は、注視補助型タッチスクリーン入力コンポーネント(図1では、それぞれ注視補助型タッチスクリーン入力コンポーネント114、116及び118として図示される)を含むことができる。注視補助型タッチスクリーン入力オペレーションは、コンピューティングシステム100の注視補助型タッチスクリーン入力コンポーネント114、116及び118の間で適切に分散され得る。本明細書では、注視補助型タッチスクリーン入力コンポーネント114、116及び118の間の注視補助型タッチスクリーン入力オペレーションの分散の数例を検討するが、より多くの又はより少ないコンポーネントの任意の他の組合せ及びそのオペレーションの任意の他の分散が使用されてもよい。例えば一部の実施形態において、注視補助型タッチスクリーン入力コンポーネント114又は注視補助型タッチスクリーン入力コンポーネント118を省略してもよく、全ての適切な注視補助型タッチスクリーン入力オペレーション(例えば本明細書で説明されるオペレーションの全て)が残りの注視補助型タッチスクリーン入力コンポーネントによって実行されてもよい。一部の実施形態において、コンピューティングシステム100は、以下で図2に関連して議論される注視補助型タッチスクリーン入力システム200として構成され得る。本開示に組み込まれる注視補助型タッチスクリーン入力の教示を除いて、パーソナルコンピューティングデバイス102、タッチスクリーン104及びリモートコンピューティングデバイス106は、当技術分野で公知の広範なそのようなデバイスとすることができる。限定ではないが、具体的な例を以下に説明する。
コンピューティングシステム100のコンポーネント間の通信は、通信経路108、110及び112によって有効にされ得る。通信経路108、110及び112は各々、直接結合上の、並びに/あるいはパーソネルネットワーク、ローカルネットワーク及び/又はワイドエリアネットワーク上の、有線通信経路及び/又は無線通信経路を含み得る。パーソナルコンピューティングデバイス102、タッチスクリーン104及びリモートコンピューティングデバイス106の各々は、ネットワークインタフェースカード、モデム、WiFiデバイス、Bluetooth(登録商標)デバイス等のような、通信経路108、110及び112をサポートするための適切なハードウェアを含み得る。一部の実施形態において、通信経路108、110及び112は、図1に図示されるようなコンポーネント間の直接通信経路であってよい。本明細書で使用されるとき、図1のコンピューティングシステム100(又は本明細書で開示される任意のシステム若しくはデバイス)の2つのコンポーネント間の「直接」通信経路への言及は、別の図示されるコンポーネント中をルーティングするだけでなく、他の図示されないデバイス(例えばルータ及び/又はスイッチ)中をルーティングし得る通信経路を指すこともある。
コンピューティングシステム100内に含まれるデバイスは各々、処理デバイス及び記憶デバイス(図示せず)を含み得る。処理デバイスは、1つ以上の処理コア、ASIC、電子回路、プロセッサ(共有、専用又はグループ)、組合せの論理回路及び/又は電子データを処理するよう構成され得る他の適切なコンポーネントのような、1つ以上の処理デバイスを含み得る。記憶デバイスは、任意の適切なメモリ又は大容量記憶デバイス(例えば半導体ドライブ、ディスケット、ハードドライブ、コンパクトディスク読み取り専用メモリ(CD-ROM)等)を含み得る。コンピューティングシステム100内に含まれるコンピューティングデバイスの各々は、処理デバイス、記憶デバイス及びそれぞれのコンピューティングデバイス内に含まれる任意の他のデバイスを通信可能に結合する、1つ以上のバス(及び適切であればバスブリッジ)を含み得る。記憶デバイスは、コンピューティングデバイスの処理デバイスによって実行されると、該コンピューティングデバイスに本明細書で開示される技術及び方法のいずれか又はその任意の一部を実施させる命令を有する、コンピュータ読取可能媒体の1つ以上のコピーを含み得る、演算ロジックのセットを含み得る。一部の実施形態において、演算ロジックは、図2に関連して下述されるロジックのいずれかを含み得る。
図1では3つの別個のコンポーネントとして図示されているが、パーソナルコンピューティングデバイス102、タッチスクリーン104及びリモートコンピューティングデバイス106は、任意の所望の方法で組み合わされてよく、あるいは分割してもよい。例えばコンピューティングシステム100の一部の実施形態では、パーソナルコンピューティングデバイス102は、タブレット又はスマートフォンであってよく、タッチスクリーン104は、そのタブレット又はスマートフォンと一体であり得る(例えばタブレット又はスマートフォンの表面を形成する)。一部の実施形態において、タッチスクリーン104は、スタンドアロンのデバイス(例えば描画タブレット)であってよく、パーソナルコンピューティングデバイス102は、有線又は無線通信経路108を通してタッチスクリーン104からパーソナルコンピューティングデバイス102に送信されるタッチデータに基づいて、(本明細書で説明されるような)注視補助型タッチスクリーン入力オペレーションを実行するよう構成される、デスクトップコンピュータであってよい。幾つかの更なる組み合わせも本明細書で説明される。
パーソナルコンピューティングデバイス102は、ユーザ(すなわち、「着用者」)の身体に装着されるよう構成される衣服、アクセサリ又は他のサポート構造に一体化されるコンピューティングデバイスであってよい。装着可能なパーソナルコンピューティングデバイス102の適切なサポート構造の例は、他の中でも特に、眼鏡、ヘッドセット、ヘアアクセサリ(例えばヘッドバンド又はバレッタ)、イヤホン(ear piece)、ジュエリー(例えばブローチ、イヤリング又はネックレス)、リストバンド(例えば腕時計)、ネックバンド(例えばタイ又はスカーフ)、衣服(例えばシャツ、パンツ、ドレススカート又はジャケット)、靴、ストラップ(lanyard)又はネームタグ、コンタクトレンズ又は埋め込み型のサポート構造等がある。一部の実施形態において、パーソナルコンピューティングデバイス102は、画像キャプチャデバイス(例えば以下で議論される図2の画像キャプチャデバイス232)を含む装着可能なコンピューティングデバイスであり得る。一部の実施形態において、パーソナルコンピューティングデバイス102は、画像キャプチャデバイスを有する、手首装着型コンピューティングデバイスであってよい。一部の実施形態において、パーソナルコンピューティングデバイス102は、着用者側に面する画像キャプチャデバイスを有する、眼鏡装着型コンピューティングデバイスであってよい。一部の実施形態において、パーソナルコンピューティングデバイス102は、「世界側に面する(world-facing)」画像キャプチャデバイス(すなわち、着用者から離れる方向に向けられる画像キャプチャデバイス)を含む、装着可能コンピューティングデバイスであってよい。
パーソナルコンピューティングデバイス102は、デスクトップ又はスタンドアロンのコンピューティングデバイスであってよく、あるいはポケットやバックパック又は他のキャリーケース内に携行し、ユーザの手の1つ以上による操作のために構成されるコンピューティングデバイスであってよい。パーソナルコンピューティングデバイス102として機能し得るコンピューティングデバイスの例には、セルラフォン、スマートフォン、他のハンドヘルドモバイル通信デバイス、タブレット、電子ブックリーダ、パーソナルデジタルアシスタント、ラップトップ又は他のそのようなコンピューティングデバイスが含まれ得る。パーソナルコンピューティングデバイス102(及び本明細書で説明される他のコンポーネント)は、単一形で示されることがあるが、任意の数のパーソナルコンピューティングデバイスがパーソナルコンピューティングデバイス102に含まれてよい(同様に、任意のコンポーネントが複数のそのようなコンポーネントを含んでよい)。
パーソナルコンピューティングデバイス102によって実行される画像処理及び他の動作は、例えばパーソナルコンピューティングデバイス102上のアプリケーション又はプラグインによって制御され得る。一部の実施形態において、パーソナルコンピューティングデバイス102は、1のコンピューティングデバイスが、別のコンピューティングデバイスよりも多くのコンピューティングリソース(例えば処理能力、メモリ及び/又は通信帯域)を有する、2つ以上のコンピューティングデバイスを含んでよい。例えばパーソナルコンピューティングデバイス102は、より大きなタブレットコンピューティングデバイスと、より小さい手首又は眼鏡装着型のコンピューティングデバイスとを含んでよい。そのような実施形態では、より小さなコンピューティングデイバスによってキャプチャされて事前処理されるデータ(例えば画像、オーディオ又は他のセンサデータ)は、更なる処理のために、より小さなコンピューティングデバイスからより大きなコンピューティングデバイスへ伝送され得る。
コンピューティングシステム100は、タッチスクリーン104を含み得る。本明細書で使用されるとき、「タッチスクリーン」は、ユーザの指との接触又は他の接触指示(例えばスタイラス)によって制御され得る視覚的表示がレンダリングされるスクリーンを提供する、デバイスを含み得る。説明の容易性のために、本明細書で説明される主な接触指示はユーザの指とするが、指の代わりに、任意の適切な接触指示を使用してもよい。タッチスクリーン104を実装するのに使用され得るタッチスクリーン技術の非限定的な例には、抵抗膜方式タッチスクリーン、表面音響波タッチスクリーン、静電容量方式タッチスクリーン、赤外線ベースのタッチスクリーン及び任意の他の適切なタッチスクリーン技術が含まれる。
タッチスクリーン104は、タッチ信号を生成する適切なセンサハードウェア及びロジックを含み得る。タッチ信号は、タッチ位置(例えばタッチのエリア、形状又はスケルトンを説明する(x,y)座標の1つ以上のセット)、(例えばユーザの指又は変形可能なスタイラスと、タッチスクリーン104との間の接触エリアによって、あるいは圧力センサによって測定されるような)タッチ圧力、接触の期間、任意の他の情報又はそのような情報の任意の組合せに関する情報を含み得る。一部の実施形態において、タッチスクリーン104は、タッチ信号を、パーソナルコンピューティングデバイス102及び/又はリモートコンピューティングデバイス106に有線又は無線通信経路(例えばそれぞれ経路108及び112)を介してストリームするように構成され得る。一部の実施形態では、上記のように、タッチスクリーン104は、パーソナルコンピューティングデバイス102に対してローカルに接続(又はこれと一体化)され得る。
リモートコンピューティングデバイス106は、パーソナルコンピューティングデバイス102及び/又はタッチスクリーン104からリモートの(例えば「クラウド」コンピューティング構成で編成される)1つ以上のサーバ又は他のコンピューティングデバイスを含み得る。パーソナルコンピューティングデバイス102とリモートコンピューティングデバイス106との間の通信経路110、並びにタッチスクリーン104とリモートコンピューティングデバイス106との間の通信経路112は、任意のリモートの有線又は無線通信プロトコルに応じて構成され得る。一部の実施形態において、リモートコンピューティングデバイス106は、パーソナルコンピューティングデバイス102及びタッチスクリーン104より多くのコンピューティングリソース(例えば処理能力、メモリ及び/又は通信帯域)を有することがある。したがって、一部の実施形態では、パーソナルコンピューティングデバイス102及び/又はタッチスクリーン104によってキャプチャされ、事前処理されるデータ(例えばタッチ信号内に具現化されるタッチデータ)は、更なる処理のために通信経路110及び/112を介してリモートコンピューティングデバイス106へ伝送され得る。一部の実施形態において、リモートコンピューティングデバイス106は、図2に関連して以下で検討される、注視補助型タッチスクリーン入力オペレーションの大部分を実行することができる。一部の実施形態において、リモートコンピューティングデバイス106は、タッチ信号、(以下で説明される)注視位置信号、又はコンピューティングデバイス100が本明細書で開示される技術に従って注視補助型タッチスクリーン入力オペレーションを実行するときにアクセスされ得る任意の他のデータを格納するための記憶デバイスを含み得る。
本明細書で開示される注視補助型タッチスクリーン入力システムの一部の実施形態では、コンピューティングシステム100のコンポーネント間の通信経路のうちの1つ又は複数が含まれないことがある。例えば一部の実施形態では、タッチスクリーン104は、通信経路112を介してリモートコンピューティングデバイス106に直接通信しないが、パーソナルコンピューティングデバイス102及び通信経路108と110を介してリモートコンピューティングデバイス106と通信することがある。
図2は、様々な実施形態に係る例示の注視補助型タッチスクリーン入力システム200のブロック図である。システム200は、入出力(I/O)デバイス228、処理ロジック202及び記憶デバイス226を含み得る。システム200は、様々な実施形態に従って、図のコンピューティングシステム100によって実装され得る。特に、システム200のコンポーネントは、任意の適切な方法で、コンピューティングシステム100のコンポーネントのうちの1つ又は複数の間に分散され得る。システム200のコンポーネントは、例示の目的でコンピューティングシステム100によって実装されるよう説明されるが、システム200は、任意の適切に構成されるコンピューティングデバイス又はコンピューティングデバイスの集合によって実装されてもよい。一部の実施形態において、システム200は、コンピューティングシステム100のパーソナルコンピューティングデバイス102によって実装され得る。一部のそのような実施形態では、タッチスクリーン104がパーソナルコンピューティングデバイス102と一体であってよい。
システム200は、複数の注視補助型タッチスクリーン入力オペレーションのいずれかを実行するように構成され得る。例えばシステム200は、システム200のタッチスクリーン上のユーザのタッチを示すタッチ信号を受け取り、タッチスクリーン上のユーザの注視の領域を示す注視位置信号を受け取り、注視位置信号及びタッチ信号に少なくとも部分的に基づいて入力信号を生成する。入力信号は、例えばシステム200のオペレーティングシステム、システム200上で実行するアプリケーション、システム200と通信する別のデバイス又はシステム200に対して内部若しくは外部の任意の他のコンポーネントに提供され得る。
図2ではシステム200の複数のコンポーネントを図示しているが、様々な実施形態では、実行すべき注視補助型タッチスクリーン入力オペレーションに適切であるようにコンポーネントを省略してもよい。例えば一部の実施形態では、システム200は、注視位置ロジック204を含まないが、注視位置ロジック204との間の信号の送受信を可能にするよう有線又は無線通信経路を介して(例えば別個のデバイス内に具現化される)注視位置ロジック204と結合されてもよい。別の例では、一部の実施形態において、システム200は、タッチ検出ロジック206を含まないが、タッチ検出ロジック206との間の信号の送受信を可能にするよう有線又は無線通信経路を介して(例えば別個のデバイス内に具現化される)タッチ検出ロジック206と結合されてもよい。別の例では、システム200の一部の実施形態は、(以下で説明されるような)表示調整のためには構成されず、したがって観察位置(viewing position)ロジック212及び/又は表示調整ロジック216を含まないことがある。
上記のように、システム200は、I/Oデバイス228を含み得る。I/Oデバイス228は、タッチスクリーン104、画像キャプチャデバイス232及び他のデバイス234を含み得る。タッチスクリーン104は、図1に関連して説明される実施形態のうちのいずれかの形を取ることができる。
一部の実施形態において、画像キャプチャデバイス232は1つ以上のカメラを含み得る。本明細書で使用されるとき、「カメラ」という用語は、静止画カメラ及びビデオカメラを含み得る。カメラは、アナログであってもデジタルであってもよい。一部の実施形態において、画像キャプチャデバイス232は、高精細度のビデオをキャプチャすることができる。一部の実施形態において、画像キャプチャデバイス232は、画像データ(例えばビデオデータ)を、パーソナルコンピューティングデバイス102及び/又はリモートコンピューティングデバイス106へ有線又は無線通信経路(例えばそれぞれ経路108及び112)を介してストリーミングするよう構成され得る。一部の実施形態では、画像キャプチャデバイス232は、パーソナルコンピューティングデバイス102に対してローカルに接続(又はこれと一体化)されてよく、他の実施形態では、画像キャプチャデバイス232は、パーソナルコンピューティングデバイス102からリモートであってよい。
画像キャプチャデバイス232は、任意の撮像波長(例えば可視又は赤外光)を使用することができる。一部の実施形態において、画像キャプチャデバイス232は、可視光カメラ及び赤外カメラを含むことがあり、これらのデバイスによってキャプチャされた画像を組み合わせてもよく、あるいはこれらを別個に取り扱ってもよい。一部の実施形態において、画像キャプチャデバイス232は、異なる向きの2つ以上のカメラ(例えば装着可能なパーソナルコンピューティングデバイス102上に設置されて、「世界側に面する」向きでユーザから離れる方に面する1つのカメラと、パーソナルコンピューティングデバイス102に設置されて、パーソナルコンピューティングデバイス102が使用されるときにユーザの方に面する1つのカメラ)を含み得る。一部の実施形態において、画像キャプチャデバイス232は、単一の画像キャプチャデバイス(例えば単一のカメラ)を含み得る。
画像キャプチャデバイス232は、アレイカメラを含んでよく、このアレイカメラ内では、複数のレンズが同じ対象についての複数の画像を同時にキャプチャすることが可能である。アレイカメラによってキャプチャされる各画像は、露光時間、焦点距離、ホワイトバランス等によって変化し得る。画像キャプチャデバイス232は、画像を組み合わせるための任意の公知の技術を実行し、あるいは(例えばコンピューティングデバイス100の他のコンポーネントとともに)様々な画像ブラウジング経験を提供するように構成される。一部の実施形態において、画像キャプチャデバイス232は、撮像されたシーン内の様々な物体の深度に関する情報を提供し得る深度カメラを含んでよい。一部の深度カメラは、飛行時間技術を使用して深度情報を決定することができる。
一部の実施形態において、画像キャプチャデバイス232は、タッチスクリーン104上に又はその近くに設置されてよく、タッチスクリーン104のユーザの1つ以上の画像をキャプチャすることができる。これらの画像を使用して、(例えば注視位置ロジック204に関連して以下で説明されるように)ユーザの注視の領域を決定し、かつ/又は(例えば観察位置ロジック212に関連して以下で説明されるように)タッチスクリーン104に対するユーザの目の位置を決定することができる。一部の実施形態において、画像キャプチャデバイス232は、ユーザの目の上又はその近くに取り付けられる装着可能なパーソナルコンピューティングデバイス102内に設置されてよく、タッチスクリーン104が使用されている間にタッチスクリーン104の画像をキャプチャすることができる。これらの画像を使用して、(例えば注視位置ロジック204に関連して以下で説明されるように)ユーザの注視の領域を決定し、かつ/又は(例えば観察位置ロジック212に関連して以下で説明されるように)タッチスクリーン104に対するユーザの目の位置を決定することができる。
I/Oデバイス228内に含まれる他のデバイス234は、任意の適切な入力、出力又は記憶デバイスを含み得る。他のデバイス234に含まれ得るデバイスは、(ユーザの眼鏡及びタッチスクリーン104内に設置され、ユーザの目とタッチスクリーン104との間の距離を示す信号を生成し得る)近接性センサ、(タッチスクリーン104上又はその近くに設置されて、ユーザの声の分析に基づいてユーザの頭の位置を三角測量し得る)1つ以上のマイクロフォン又は任意の他の適切なデバイスを含み得る。一部の実施形態において、他のデバイス234は、画像キャプチャデバイス232とともに動作して、画像内の様々な特徴の識別を助けるよう画像キャプチャ中に可視、赤外又は他のタイプの光を生成する、1つ以上の光源を含んでもよい。例えば何らかの公知のアイトラッキング技術は、1つ以上の赤外LEDを使用して、ユーザの顔の照明を提供し、角膜の表面上での反射を生じる。その反射を使用して、画像内の目及び角膜の中心を探すことができる。
上記のように、システム200は処理ロジック202を含み得る。処理ロジック202は、複数の論理コンポーネントを含み得る。一部の実施形態では、処理ロジック202は、注視位置ロジック204を含み得る。注視位置ロジック204は、タッチスクリーン104上のユーザの注視の領域を示す注視位置信号を生成するよう構成され得る。ユーザの注視の領域は、ユーザの目の最も高い視力領域(acuity region)で観察される、タッチスクリーン104上の1つ以上の位置を含み得る。一部の実施形態において、処理ロジック202は、画像キャプチャロジック210を含んでよく、画像キャプチャロジック210は、注視位置ロジック204に結合されて、画像キャプチャデバイス232からのユーザの目の画像を受け取るように構成され得る。注視位置ロジック204は、画像キャプチャデバイス232から受け取った画像に少なくとも部分的に基づいて注視位置信号を生成するように構成され得る。
図3は、様々な実施形態に係る、ユーザ306がシステム200のタッチスクリーン104を見ているときの注視位置信号の生成シナリオの2つのビュー302及び304を示している。特に、タッチスクリーン104は、パーソナルコンピューティングデバイス102(例えばスマートフォン又はタブレットデバイスであってよい)に含まれるように示されている。ユーザ306の注視は、タッチスクリーン104へ、特にタッチスクリーン104上の領域312へ向けられている。ユーザの目310は、タッチスクリーン104の表面に対して直交する方向に、タッチスクリーン104の上に距離zに置かれている。角度α1は、目310の水平面314から測定される、瞳308が向けられる角度を表すことができる。角度α2は、ユーザの目310の垂直面316から測定される、瞳308が向けられる角度を表すことができる。ユーザの注視は、距離z、角度α1及びα2によって特徴付けられ、これに応じて、(注視領域312を示す)位置信号が注視位置ロジック204によって生成される。
図3に示される角度及び距離は例示に過ぎず、注視位置ロジック204は、任意の適切なデバイスからの任意の適切な測定値を使用して、注視領域312を決定することができる。アイトラッキングの既存の技術は、三角測量技術の使用を可能にしてカメラ配置から距離を決定する、立体構成でユーザの目の画像をキャプチャするよう配置される、複数のカメラを使用する技術を含む。一部の技術は、角膜の反射と屈折特性、角膜の曲率中心と瞳の中心の位置、光軸からの窩のオフセット、角膜の曲率半径及び他の物理的パラメータを含み得る、目の物理的なモデルを用いる。注視位置ロジック204によって任意の適切な注視トラッキング技術が実装され得る。
注視領域312は、幾つかの方法のいずれかで特徴付けられ得る。一部の実施形態では、注視領域312を、タッチスクリーン104上のポイントとして特徴付けることができる。一部のそのような実施形態では、注視位置信号は、タッチスクリーン104の座標系内のポイントの座標を表すことができる(例えばタッチスクリーン104の平面内の2次元の座標系の(x,y)座標)。一部の実施形態では、注視領域312を、タッチスクリーン104のエリアとして特徴付けることができる。エリアは、任意の適切な形状を有してよい。例えば注視領域312は円形であってよく、注視位置信号は、その円の中心の座標を表すことができ、またその円の半径を表すこともできる。別の例では、注視領域312は楕円であってよく、注視位置信号は、その楕円の焦点の座標と、楕円の長径及び短径の長さを表すことができる。図4は、長径402、短径404及び中心406を有する、タッチスクリーン104上の楕円の注視領域312を図示している。別の例では、タッチスクリーン104は、複数のラベル付けされる矩形又は他の多角形に区分されてもよく、注視領域は、これらの区分の1つ又は複数を含み得る。これらの区分の境界及びラベルを記憶デバイス226に記憶することができる。一部のそのような実施形態において、注視位置信号は、注視領域内に含まれる各区分のラベルを表すことができる。別の例では、注視領域312は、任意の形状(例えばイレギュラーな形状)を有してもよく、注視位置信号は、その注視領域312の外周の座標を表すことができる。注視位置ロジック240は、注視領域312の任意の適切な特性を使用することができる。注視領域312の形状及び/又はサイズは、注視位置ロジック204が、ユーザ306の注視がどこに向けられているかを決定することができる正確性に依存し得る。例えば注視位置ロジック204は、ユーザ306の注視がより高い正確性で決定され得る方向に対応する長径と、ユーザ306の注視がより低い正確性で決定され得る短径とを有する、楕円形の注視領域を識別することができる。
一部の実施形態において、処理ロジック202は、タッチ検出ロジック206を含み得る。タッチ検出ロジック206は、タッチスクリーン104上のユーザのタッチを示すタッチ信号を生成するように構成され得る。タッチ信号は、タッチ位置(例えばタッチのエリア、形状又はスケルトンを説明する(x,y)座標の1つ以上のセット)、(例えばユーザの指又は変形可能なスタイラスとタッチスクリーン104との間の接触エリアによって、あるいは圧力センサによって測定されるような)タッチ圧力、接触の期間、任意の他の適切な情報又はそのような情報の任意の組合せに関する情報を含み得る。
一部の実施形態において、処理ロジック202は、入力登録ロジック208を含み得る。入力登録ロジック208は、注視位置ロジック204及びタッチ検出ロジック206に結合され得る。入力登録ロジック208は、注視位置信号を注視位置ロジック204から受け取り、タッチ信号をタッチ検出ロジック206から受け取るように構成され得る。また、入力登録ロジック208は、注視位置信号及びタッチ信号に少なくとも部分的に基づいて入力信号を生成するように構成され得る。本明細書で使用されるとき、「入力信号」は、ユーザ入力として提供される任意の信号であってよい。入力信号は、システム200のハードウェア若しくはソフトウェアコンポーネントへ、かつ/又はシステム200とは別個のデバイスのハードウェア若しくはソフトウェアコンポーネントへ提供され得る。入力信号の例には、タッチスクリーン104の特定の部分におけるユーザのタッチ、そのタッチの特性が含まれ得る。入力信号の他の例には、タッチスクリーン104上に表示される特定のオプションのユーザ選択を示す信号、タッチスクリーン104との接触を通した特定の機能のユーザ起動、あるいはユーザ入力を示す任意の他の信号があり得る。一部の実施形態において、入力登録ロジック208によって生成される入力信号は、システム200のオペレーティングシステムレベルで生成され得る。例えばシステム200のオペレーティングシステムは、オペレーティングシステム内で実行中のアプリケーションによってクエリされるか、他の方法でモニタされ得るタッチ信号を生成するように構成され得る(例えば地図アプリケーションは、特定の位置におけるユーザのタップに応答して、地図を中心に置き直す機能を含むことがあり、タップ及びタップの位置に関する情報は、地図アプリケーションによって呼び出されるオペレーティングシステムレベルの機能によって提供され得る)。そのような実施形態では、入力登録ロジック208は、タッチ信号がアプリケーションに提供される前に、オペレーティングシステムレベルでタッチ信号を評価することができ、これにより、そのようなタッチ信号を「フィルタ」するよう機能することができる。一部の実施形態において、入力登録ロジック208は、アプリケーションレベルで動作し、特定のアプリケーションによって使用され、オペレーティングシステムレベルの機能により、アプリケーションへ提供されるタッチ信号を「フィルタ」又は他の方法で処理することができる。
一部の実施形態において、入力登録ロジック208は、タッチ信号に少なくとも部分的に基づいて、複数の所定のタッチタイプのうちの1つの選択を通して、入力信号を生成するように構成され得る。所定のタッチタイプの例には、タップ、スワイプ、ピンチ及びスプレットが含まれる、タップは、タッチスクリーン104とユーザとの間の(例えば単一の指又はスタイラスを通した)瞬間的な単一の接触(single contact)を含み得る。スワイプは、(例えばユーザが指を左右に動かしてタッチスクリーン104にレンダリングされた本のページをめくるときに有益であるような)直線又は曲線上のタッチスクリーン104とユーザとの間の伸張される単一の接触を含み得る。ピンチは、(例えばユーザが、自身の指をタッチスクリーン104上ですぐ近くに持っていき、表示されたウェブページの一部をズームインするときに有益であるような)タッチスクリーン104とユーザとの間の同時の2つの接触点であり、これらの接触点は、タッチスクリーン104の表面上で一緒に描画され得る。スプレッドは、タッチスクリーン104とユーザとの間の同時の2つの接触点であって、これらの接触点は、タッチスクリーン104の表面上で別個になるよう描画され得る。タッチタイプの他の例には、例えばプレスアンドホールド、回転及びスライドアンドドラッグが含まれる。異なるタッチタイプがタッチスクリーン104の異なる領域に関連付けられてもよく;例えばユーザがタッチスクリーン104のエッジ近くの点に触れて、素早くかつ簡単に指をタッチスクリーン104の内側へスライドさせるとき、「フリック」タッチタイプがシステム200によって認識され得る。様々なタッチタイプの特徴を記憶デバイス226内に記憶することができ、これらの様々なタッチタイプの特徴は、(例えば入力登録ロジック208が、受け取ったタッチ信号に最もよく対応するタッチタイプを選択するために、受け取ったタッチ信号を、記憶した様々なタッチタイプの特徴と比較するときに)入力登録ロジック208によってアクセスされ得る。一部の実施形態では、以下で検討されるように、入力登録ロジック208により生成される入力信号は、どのタッチタイプが、検出されたタッチに関連付けられるかを示すことができる。
一部の実施形態において、入力登録ロジック208は、タッチ信号及び注視位置信号に少なくとも部分的に基づいて、複数の所定のタッチタイプのうちの1つを選択するよう構成され得る。上記のように、一部の実施形態では、記憶デバイス226に記憶されたタッチタイプは、1つ以上の注視非関連のタイプ(non-gaze-associated types)及び1つ以上の注視関連のタイプ(gaze-associated types)を含むことができる。注視非関連のタイプは、そのタッチスクリーン上の位置が概してユーザの注視領域に対応しないタッチタイプ、とすることができる。言い換えると、注視非関連のタイプは、ユーザが、タッチアクションを実行するタッチスクリーン上の部分を見ずに実行することになるタッチアクションを表す。一部の実施形態において、スワイプは、ユーザが概してスワイプを実行しているタッチスクリーン上の同じ領域を見ないという点で、注視非関連タイプである。ピンチは、注視非関連タイプの別の例である。注視関連タイプは、そのスクリーン上の位置が概してユーザの注視領域に対応するタッチタイプ、とすることができる。一部の実施形態において、タップは、ユーザが概してタップしているタッチスクリーン上の同じ領域を見るという点で、注視関連タイプである。
タッチタイプが注視関連であるか、注視非関連であるかは、コンテキストに依存して(例えばどのアプリケーションがシステム100上で実行中であり、タッチスクリーン104上にユーザインタフェースを表示しているかに依存して)変化し得る。例えば一部のアプリケーションは、スワイプタッチタイプをタッチスクリーン104の異なる領域で使用して、様々なオプションのユーザ選択を指示してもよい。そのようなアプリケーションでは、スワイプタッチタイプは、ユーザが概してそのユーザ選択に対応するタッチスクリーン104の領域を見ることになるという点で、注視関連であり得る。他のアプリケーションでは、スワイプタッチタイプは、例えばユーザインタフェースの一部(例えばコントロールパネル)をロック解除するか、一連のドキュメント内の以前のドキュメントへ動かすのに使用され得る。そのようなアプリケーションでは、スワイプタッチタイプは、ユーザがスワイプを実行するときに接触領域以外のスクリーンの領域を見ることになることが多いという意味で、注視非関連であり得る。記憶デバイス226は、様々なコンテキストにおいて(例えば様々なアプリケーション、オペレーティングシステム又は他の動作環境において)様々なタッチタイプが注視関連であるか、注視非関連であるかに関する情報を記憶することができる。
一部の実施形態において、入力登録ロジック208は、タッチ及び注視領域の相対的な位置に応じて注視関連又は注視非関連のタッチタイプを選択することによって、注視位置信号に基づいてタッチタイプを選択するように構成され得る。特に、入力登録ロジック208は、タッチ信号に少なくとも部分的に基づいて、タッチが、注視領域の外側に置かれたと判断することがある。この判断に応答して、入力登録ロジック208は、そのタッチについて、注視非関連のタッチタイプを選択することができる。一部の実施形態では、タッチが注視領域の内側に置かれたという、入力登録ロジック208による判断に応答して、入力登録ロジックは、そのタッチについて注視関連又は注視非関連のタッチタイプを選択することができる。
例えば図5は、タッチスクリーン104上の注視領域312及び数個のタッチ502、504及び506を図示している。タッチ502及び504は、短い期間を有し、かつタッチ506の伸張された接触エリアに比べてかなり局所的なタッチを表すことができる。一部の実施形態において、タッチ検出ロジック206は、(例えば上述のように記憶デバイス226内に記憶される所定のタッチタイプのセットに対して)タッチ502、504の特徴を分析し、いずれかの注視位置情報が利用可能になるか、受信及び/又は処理される前に、タッチ502、504及び506の各々について、予備のタッチタイプを選択することができる。一部の実施形態において、この予備の決定は、入力登録ロジック208によって行われることもあるが;説明の容易性のために、この予備の決定は、タッチ検出ロジック206によって行われるものとして議論することにする。例えばタッチ検出ロジック206は、接触の期間と接触のエリアに基づいてタッチ502及び504を「タップ」として分類することが最も良く、一方、タッチ506を「スライド」として分類することが最も良いと決定することができる。タッチ検出ロジック206(又は必要に応じて入力登録ロジック208)は、これらのタッチの各々について対応するタッチタイプを示す予備のタッチタイプ信号を生成することができる。
入力登録ロジック208は、予備のタッチタイプ信号を受け取り(あるいは、予備のタッチタイプの識別を要さずに、タッチ検出ロジック206からタッチ信号を受け取ってもよい)、各タッチの位置が注視領域312内であるかどうかを判断することができる。タッチ位置が注視領域312内でない場合、入力登録ロジック208は、そのタッチについて注視非関連のタッチタイプを選択することができる。タッチ位置が注視領域312内である場合、入力登録ロジック208は、そのタッチについて、注視関連又は注視非関連のタッチタイプを選択することができる。例えば図5に図示されるように、タッチ502は、注視領域312の内側に置かれる。タップが注視関連タッチタイプであり、タッチ502の特徴が(例えば記憶デバイス226内に記憶されるような)タップの特徴に適合する場合、入力登録ロジック208は、タッチ502がタップであることを示す入力信号を生成することができる。
しかしながら、タッチ504は注視領域312の内側に置かれていない。タップが注視関連タッチタイプである場合、タッチ504の位置以外の特徴(例えば接触のエリア及び期間)がタップの特徴に適合する場合であっても、入力登録ロジック208は、タッチ504がタップであることを示す入力信号は生成しない。代わりに、入力登録ロジック208は、タッチ504の特徴に適合する別のタッチタイプを探すことができる。適切なタッチタイプが見つからない場合、入力登録ロジック208は、タイプ「なし(none)」を選択することができる。一部の実施形態において、入力登録ロジック208は、入力信号を生成する目的についてタッチ504を無視することにより、タイプ「なし」を選択することができる(例えばタッチ504を、ユーザとタッチスクリーン104との間の偶然の接触として扱うことができる)。
図5に更に図示されるように、タッチ506は注視領域312の外側に置かれている。しかしながら、タッチ506の特徴が(例えば記憶デバイス226内に記憶されるような)スライドの特徴と適合する場合、スライドが注視非関連のタッチタイプであれば、入力登録ロジック208は、タッチ506がスライドであることを示す入力信号を生成することができる。
一部の実施形態において、入力登録ロジック208は、注視関連のタッチタイプとして指定されることになるタッチについて、そのタッチが厳密に注視領域の内側にあることを必要としないことがある。例えばタッチは部分的に注視領域の内側にあり、部分的に注視領域の外側にあってよい。別の例では、タッチは、注視領域の内側で始まって注視領域の外側で終了してもよい。別の例として、タッチは単に、(適切な場合に)注視関連タッチタイプとして指定されるために、注視領域の所定の距離内にあればよい。所定の距離は、絶対的距離(例えば1センチメートル)、相対的距離(例えば注視領域の半径の10%以下の注視領域の距離内)又は任意の他の適切な距離であってよい。
図2に戻ると、一部の実施形態において、処理ロジック202は、表示ロジック214を含むことができる。表示ロジック214は、タッチスクリーン104に結合され、タッチスクリーン104上に様々な視覚的要素の表示をもたらすよう構成され得る。一部の実施形態において、表示ロジック214は、入力登録ロジック208に結合され、入力登録ロジック208により生成される入力信号に基づいて、タッチスクリーン104上に1つ以上の視覚的要素の表示をもたらすよう構成され得る。
例えば図5は、表示ロジック214によって提供され得るタッチスクリーン104上の表示(ディスプレイ)500を示している。図5に示されるように、表示500は、文字ブロック508及びテーマ変更エリア510といった複数の視覚的要素を含み得る。入力登録ロジック208が、上記のように、タッチ502に応答して「タップ」入力信号を生成する場合、表示ロジック214は、この入力信号に基づいて、タッチスクリーン104上に視覚的要素の表示をもたらすことができる。そのような視覚的要素は、図6の表示600内の影付きのボックス602として示されている。入力登録ロジック208が、上記のように、タッチ506に応答して「スライド」入力信号を生成する場合、表示ロジック214は、この入力信号に基づいて、タッチスクリーン104上に視覚的要素の表示をもたらすことができる。そのような視覚的要素は、表示600内ではテーマの図形604として示されており、このテーマの図形は、表示500のテーマの図形512と置き替わってよい。
一部の実施形態において、注視位置ロジック204は、各注視信号が、タッチスクリーン104を見ている異なるユーザに対応する、複数の注視位置信号を生成するように構成され得る。タッチ検出ロジック206は、各タッチ信号がタッチスクリーン104上の異なるタッチに対応する、複数のタッチ信号を生成するように構成され得る。一部の実施形態において、入力登録ロジック208は、複数の位置信号と複数のタッチ信号を受け取り、タッチ信号の位置を各ユーザの注視領域と比較することによって、どのタッチ信号がどのユーザに対応するかを判断するように構成され得る。特に、入力登録ロジック208は、2人以上のユーザの各々の注視領域に対応する位置信号を受け取り、タッチ信号を受け取り、タッチ信号の位置に最も近い注視領域を識別し、タッチ信号を、最も近い注視領域に対応するユーザに関連付けるように構成され得る。一部の実施形態において、入力登録ロジック208は、複数のタッチ入力を受け取り、(異なる注視位置信号によって指示される)異なる注視領域に対するタッチ信号の位置の近接性に基づいて、これらのタッチ信号を異なるユーザに関連付け、受け取った注視位置信号及び受け取ったタッチ信号に少なくとも部分的に基づいて、複数の異なる入力信号を生成することができる。一部の実施形態において、タッチ検出ロジック206は、複数のタッチ信号を、少なくとも部分的に並行に生成することができる。一部の実施形態において、入力登録ロジック208は、複数の入力信号を、少なくとも部分的に並行に生成することができる。
図7は、(図示されるように、パーソナルコンピューティングデバイス102に含まれる)タッチスクリーン104を見ている第1のユーザ702及び第2のユーザ704を図示している。第1のユーザ702の注視は、タッチスクリーン104上の第1の領域706へ向けられ、第2のユーザ704の注視は、タッチスクリーン104の第2の領域708へ向けられ得る。第1及び第2の注視領域706及び708は、図8では、タッチスクリーン104の表示800上に重なるように図示されている。図8に図示されるように、第1及び第2の注視領域706及び708は、異なる形状を有することができ、タッチスクリーン104上の異なる位置を有することができる。注視位置ロジック204は、第1及び第2の注視領域706を示す第1及び第2の注視位置信号を生成し、これらの注視位置信号を入力登録ロジック208へ提供することができる。
図8は、2つのタッチ802及び804も図示している。図示されるように、タッチ802は、第1の注視領域706内にある。一部の実施形態において、入力登録ロジック208は、(第1の注視領域706を示す)第1の注視位置信号を受け取り、(タッチ802を示す)第1のタッチ信号を受け取り、タッチ802が第1の注視領域706内にあると判断することができる。この判断に応答して、入力登録ロジック208は、タッチ802が第1のユーザ702によって行われたと判断し、第1のユーザ702に関連付けられる入力信号を生成することができる。入力登録ロジック208は、(第2の注視領域708を示す)第2の注視位置信号を受け取り、(タッチ804を示す)第2のタッチ信号を受け取り、タッチ804が少なくとも部分的に第2の注視領域708内にあると判断することができる。この判断に応答して、入力登録ロジック208は、タッチ804が第2のユーザ704によって行われたと判断し、第2のユーザ704に関連付けられる入力信号を生成することができる。
一部の実施形態において、入力登録ロジック208は、タッチ802及び804を示すタッチ信号を、並行に、素早く連続で、あるいは第1及び第2の注視領域706及び708を示す注視位置信号の受け取りに関連する任意の適切な順序で受け取ることができる。したがって、入力登録ロジック208は、(例えば所与の時間枠内に)受け取った全てのタッチ信号を、受け取った全ての注視位置信号に対して評価して、どのタッチ信号が、特定の注視位置信号と同じユーザに対応し得るかを決定することができる。図8の例では、入力登録ロジック208は、タッチ802が、第2の注視領域708よりも第1の注視領域706に近いと判断し、これに応答して、タッチ802は第2のユーザ704に関連付けられないと判断することができる。あるいは、入力登録ロジック208は、タッチ802が第2の注視領域708から所定の距離より離れていると判断し、これに応答して、タッチ802は第2のユーザ704に関連付けられないと判断することができる。
入力登録ロジック208が、異なるユーザに対応する異なる入力信号を生成する実施形態において、表示ロジック214は、タッチスクリーン104上に、第1の入力信号に少なくとも部分的に基づく第1の視覚的要素と、第2の入力信号に少なくとも部分的に基づく第2の視覚的要素との表示をもたらすことができる。第1及び第2の視覚的要素を同時に表示することができる。
図8に戻ると、表示800は、第1及び第2の視覚的要素806及び808も含む。図8の第1及び第2の視覚的要素806及び808はアバターであり、例えばコンピュータゲームにおけるプレイヤのキャラクター又は仮想世界の環境における代表者を表すことができる。第1の視覚的要素806を第1のユーザ702に関連付けることができ(例えば第1の視覚的要素806は、第1のユーザ702によってコントロールされるプレイヤのキャラクターとすることができる)、第2の視覚的要素808を第2のユーザ704に関連付けることができる。一部の実施形態において、第1及び第2の注視位置信号と、タッチ802及び804を示すタッチ信号を受け取ったことに応答して、入力登録ロジック208は、第1のユーザ702が第1の視覚的要素806をタッチ802の位置へ動かしたいと思っていることを示す入力信号と、第2のユーザ704が第2の視覚的要素808をタッチ804の位置へ動かしたいと思っていることを示す入力信号を生成することができる。これらの入力信号に応答して、表示ロジック214は、タッチスクリーン104上に図9の表示900をもたらすことができる。図9に示されるように、第1の視覚的要素806はタッチ802の位置902へ再配置され、第2の視覚的要素808はタッチ804の位置904へ再配置される。この手法では、入力登録ロジック208は、単一のタッチスクリーン上の複数のユーザからの入力信号を区別することができ、ゲームプレイ、ドキュメントの編集、同時ウェブブラウジング又は任意の他の複数のシナリオのような、マルチユーザコンピューティングアプリケーションを有効にすることができる。
図2に戻ると、一部の実施形態において、処理ロジック202は、観察位置ロジック212を含み得る。観察位置ロジック212は、入力登録ロジック208に結合され、タッチスクリーン104に対するユーザの目の位置を示すポジション信号(position signal)を生成することができる。一部の実施形態において、観察位置ロジック212は、画像キャプチャロジック210に結合されてよく、画像キャプチャデバイス232から受け取ったユーザの目の画像に少なくとも部分的に基づいてポジション信号を生成するように構成され得る。
図10は、ユーザ1006が(パーソナルコンピューティングデバイス102に含まれるように示される)タッチスクリーン104を見ているときのポジション信号の生成シナリオの2つのビュー1002及び1004を示す。ユーザの目1010は、タッチスクリーン104の表面に対して直交する方向に、タッチスクリーン104の上の距離zに置かれ得る。参照ポイント1008は、タッチスクリーン104上に(あるいは、その位置がタッチスクリーン104との関係で定義される任意の位置内に)定義され得る。一部の実施形態において、参照ポイント1008は、画像キャプチャデバイス232がパーソナルコンピューティングデバイス102上で置かれるポイントであってよい。角度β1は、タッチスクリーン104の表面の水平面1014から測定される、ユーザの目1010が置かれる角度を表すことができる。角度β2は、参照ポイント1008の垂直面1016から測定される、ユーザの目101の間の中央のポイントが置かれる角度を表すことができる。ユーザの目の位置は、距離z及び角度β1とβ2によって特徴付けられ、これに応じてポジション信号が観察位置ロジック212によって生成される。
図10に表される角度及び距離は単なる例示に過ぎず、観察位置ロジック212は、任意の適切な測定値を使用して、ポジション信号を生成するためにユーザの目の位置を決定することができる、例えば一部の既存の技術は、タッチスクリーン104に対して既知の位置に設置される画像キャプチャデバイス232によってキャプチャされるユーザの顔の画像を使用して、ユーザの顔における目印の3次元モデルを作成し、これにより、タッチスクリーン104に対するユーザの目の位置を決定することができる。一部の実施形態において、1つ以上のデバイスは、頭部装着型デバイス(例えば1対の眼鏡内に含まれる無線周波数識別タグ)に含まれることがあり、これらのデバイスは、タッチスクリーン104上に又はその近くに設置される協調デバイスと通信することができ、(例えば検出された無線周波数信号の強さに基づいて)ユーザの目とタッチスクリーン104との間の相対的な位置を決定することができる。頭部位置モデリングのための任意の公知の技術が、観察位置ロジック212によって実装され得る。
一部の実施形態において、処理ロジック202は、表示調整ロジック216を含むことができる。表示調整ロジック216は、観察位置ロジック212に結合され、観察位置ロジック212によって生成されるポジション信号に少なくとも部分的に基づいて、所望の視覚的歪みを指示する調整信号を生成するように構成され得る。特に、表示調整ロジック216は、(例えば観察位置ロジック212によって生成されるポジション信号に基づいて)ユーザがタッチスクリーン104を見ている角度を決定し、ユーザがタッチスクリーン104の表面に対して直交する方向でタッチスクリーン104を見ている場合に見えるであろう要素と同じように、表示要素がユーザに対して見えるように、表示要素を視覚的に歪めることによって表示を補正するよう、調整信号を生成することができる。本明細書で使用されるとき、「ユーザがタッチスクリーンを見ている角度」は、タッチスクリーンの表面に直交する軸に対するユーザの目の位置を表す1つ以上の角度の測定値を含み得る。例えば角度は、2つの角度測定値を含み得る。一部の実施形態では、表示調整ロジック216は、ユーザが、タッチスクリーン104の表面に対して直交する角度以外の角度からタッチスクリーン104を見るときに生じるタッチスクリーン104上の表示の明らかな歪みを補正するために、調整ロジックを生成するように構成され得る。この歪みの特定の例は、「キーストーン効果(keystone effect)」又は「トュームストーン効果(tombstone effect)」と呼ばれることがある。図11は、この歪みの例を示している。図11では、所望の表示1100がタッチスクリーン104上に(例えば表示ロジック214によって)表示される。しかしながら、タッチスクリーン104を、(例えば透視図1102によって図示されるように)タッチスクリーン104の表面に対して垂直以外の角度からみるとき、表示1100は歪んで見えるであろう。特に、図11に図示されるように、表示1100のユーザに近い部分1104は、表示1100のユーザから離れた部分1106よりも拡大されるであろう。
表示調整ロジック216は、観察位置ロジック212によって生成されるポジション信号を使用して、表示1100の歪みを指示する調整信号を生成することができ、その結果、ポジション信号によって示される位置からタッチスクリーン104を見ているユーザは、適切に寸法調整された表示1100を見ることができるようになる。特に、表示ロジック214は、表示調整ロジック216に結合され、表示調整ロジック216によって生成される調整信号に従って歪めた1つ以上の視覚的要素の表示をタッチスクリーン104上にもたらすよう構成され得る。例えば図12は、観察位置ロジック212によって生成された調整信号に基づいて、表示ロジック214によって生成され得る表示1200を図示している。表示1200は、所望の表示1100と比べて歪曲され得る。しかしながら、表示1200がタッチスクリーン104上でレンダリングされるとき、ポジション信号によって指示される位置からタッチスクリーン104を見ているユーザは、該ユーザに対して所望の表示1100を正しくレンダリングする、透視図1202を見ることになる。一部の実施形態において、表示調整ロジック216は、表示の歪みが閾値を超える必要があることをユーザの位置が示さない限り調整が行われないように、歪みの閾値を含むことができる。そのような閾値は、表示調整ロジック216が、ユーザを当惑させる可能性がある頻繁かつ微かな調整をタッチスクリーン104上の表示に対して行うことを防ぐことができる。
図13は、一部の実施形態に従って、注視補助型タッチスクリーン入力(例えばタッチスクリーン104との接触に基づく入力)を生成するための処理1300を示すフロー図である。処理1300(及び本明細書で説明される他の処理)の動作は、説明の目的で特定の順序で実行されるように図示されているが、適切に並行に、あるいは任意の他の順序で実行されてもよい。例えば位置信号を受け取ることに関連する動作は、タッチ信号を受け取ることに関連する動作に対して、並行して、部分的に並行して、あるいは任意の適切な順序で実行され得る。
処理1300(及び本明細書で説明される他の処理)の動作は、説明の目的で、コンピューティングシステム100内で具現化されるような、システム200のコンポーネントによって実行されるように説明され得るが、処理1300(及び本明細書で説明される他の処理)の動作は、いずれかの適切に構成されるコンピューティングデバイス又はコンピューティングデバイスのコレクションによって実行されてもよい。処理1300(及び本明細書で説明される他の処理)の動作のいずれかが、本明細書で説明されるシステム100及び200の実施形態のいずれかに従って実行されてよい。
処理1300は動作1302で始まり、動作1302において、タッチスクリーン104上のユーザの注視の領域を示す注視位置信号を(例えば入力登録ロジック208によって)受け取ることができる。注視位置信号は、本明細書で説明される実施形態のいずれかに従って生成され得る。一部の実施形態では、注視位置信号を、画像キャプチャデバイス232からのユーザの目の画像に基づいて生成することができる。
動作1304において、タッチスクリーン104上のユーザのタッチを示すタッチ信号を(例えば入力登録ロジック208によって)受け取ることができる。タッチ信号は、本明細書で説明される実施形態のいずれかに従って生成され得る。
動作1306において、(動作1302で受け取った)注視位置信号及び(動作1304で受け取った)タッチ信号に少なくとも部分的に基づいて、入力信号を(例えば入力登録ロジック208によって)生成することができる。入力信号は、本明細書で説明される実施形態のいずれかに従って生成され得る。一部の実施形態では、動作1306は、注視位置信号及びタッチ信号に少なくとも部分的に基づいて、複数の所定のタッチタイプのうちの1つを選択することを含むことができ、入力信号は、選択されたタッチタイプを示す。一部のそのような実施形態において、複数の所定のタッチタイプは、1つ以上の注視非関連のタイプと、1つ以上の注視関連のタイプを含んでよい。注視位置信号及びタッチ信号に少なくとも部分的に基づいて、複数の所定のタッチタイプのうちの1つを選択することは、タッチがユーザの注視の領域の外側に置かれたことをタッチ信号が示していると判断することと、タッチがユーザの注視の領域の外側に置かれたことをタッチ信号が示していると判断したことに応答して、注視非関連のタイプを選択することを含むことができる。その後、処理1300は終了する。
図14は、一部の実施形態に従って、注視補助型タッチスクリーン入力(例えばタッチスクリーン104との接触に基づく入力)を生成するための処理1400を示すフロー図である。処理1400は動作1402で始まり、動作1402において、タッチスクリーン104上の複数のユーザの注視に対応する複数の領域を示す複数の注視位置信号を、(例えば入力登録ロジック208によって)受け取ることができる。注視位置信号は、本明細書で説明される実施形態のいずれかに従って生成され得る。例えば注視信号を、画像キャプチャデバイス232からのユーザの目の1つ以上の画像に基づいて生成することができる。説明の目的のために、図14の残りの説明では2人のユーザ(第1のユーザと第2のユーザ)に言及するが、処理1400を任意の人数のユーザに適用することができる。一部の実施形態では、動作1402において、複数の注視位置信号が少なくとも部分的に並行して受け取られてもよい。
動作1404において、タッチスクリーン104上のユーザのタッチを示すタッチ信号を、(例えば入力登録ロジック208によって)受け取ることができる。タッチ信号は、本明細書で説明される実施形態のいずれかに従って生成され得る。一部の実施形態において、タッチ信号は、どのユーザがタッチを行ったかを特定しないことがある。一部の実施形態では、動作1404は、タッチスクリーン104上の1人以上のユーザのタッチを示す2つのタッチ信号を受け取ることを含むことができる。一部の実施形態では、動作1404において、複数のタッチ信号が少なくとも部分的に並行して受け取られてもよい。
動作1406において(動作1402で受け取った)注視位置信号及び(動作1404で受け取った)タッチ信号に少なくとも部分的に基づいて、入力信号を(例えば入力登録ロジック208によって)生成することができる。入力信号は、本明細書で説明される実施形態のいずれかに従って生成され得る。一部の実施形態では、(動作1404において受け取ったタッチ信号によって示される)タッチの位置を、(動作1402で受け取った注視位置信号によって示される)第1及び第2のユーザの注視領域と(例えば入力登録ロジック208によって)比較し、(例えば入力登録ロジック208によって)タッチを第1及び第2のユーザの一方に割り当てることができる。この割り当ては、注視領域に対する近接性に基づくものであってよく、本明細書で説明される実施形態のいずれか(例えば図7〜図9に関連して上述される実施形態)に従って実行され得る。動作1404において2つのタッチ信号が受け取られる処理1400の実施形態では、各タッチ信号は、上述のように(例えばシステム200によって)第1及び第2のユーザに割り当てられ得る。一部の実施形態では、第1のタッチを第1のユーザに関連付けることができ、第2のタッチを第2のユーザに関連付けることができる。その後、第1及び第2のタッチに対応する第1及び第2の入力信号を(例えばシステム200によって)生成することができる。
動作1408において、動作1406において生成された入力信号に少なくとも部分的に基づいて、(例えば表示ロジック214によって)視覚的要素の表示が生じる。例えば入力信号に応答して、第1のユーザに関連付けられる視覚的要素(例えばコンピュータゲームにおける第1のユーザのアバターを表す視覚的要素)の動きが生じる。動作1406において第1及び第2の入力信号が生成される実施形態では、第1の入力信号に少なくとも部分的に基づく第1の視覚的要素と、第2の入力信号に少なくとも部分的に基づく第2の視覚的要素との同時表示が、タッチスクリーン104上において(例えばシステム200によって)生じることがある。そのような表示の例は、図8〜図9に関連して上記されている。その後、処理1400は終了する。
図15は、一部の実施形態に従って、注視補助型タッチスクリーン入力(例えばタッチスクリーン104との接触に基づく入力)を生成するための処理1500を示すフロー図である。処理1500は動作1502で始まり、動作1502において、タッチスクリーン104に対するユーザの目の位置を示すポジション信号を、(例えば観察位置ロジック212によって)受け取ることができる。ポジション信号は、(例えば図10〜図12に関連して説明されるもののように)本明細書で説明される実施形態のいずれかに従って生成され得る。例えばポジション信号は、画像キャプチャデバイス232からのユーザの目の1つ以上の画像に基づいて生成され得る。
動作1504において、所望の視覚的歪みを指示する調整信号を、動作1502において受け取ったポジション信号に少なくとも部分的に基づいて、(例えば表示調整ロジック216によって)生成することができる。調整信号は、本明細書で説明される実施形態のいずれかに従って生成され得る。一部の実施形態において、調整信号は、タッチスクリーン104のユーザの視点から起こるキーストーン効果又は関連する視覚的効果を補正するよう、タッチスクリーン104上の視覚的要素の表示に対する調整を示すことができる。
動作1506において、調整信号に従って歪めた1つ以上の視覚的要素を、(例えば表示ロジック214によって)タッチスクリーン104上に表示させることができる。そのような表示の例は、図11〜図12に関連して上記されている。その後、処理1500は終了する。
様々な実施形態において、処理1300、1400及び1500は、タッチスクリーン関連のデータ処理動作を実行するよう、任意の所望の組合せで組み合わされ得る。例えば一部の実施形態において、処理1500は、ユーザの目の位置に応じてタッチスクリーン104上の表示を継続的に調整するように(例えばシステム200によって)実行され得る。さらに、調整された表示は、異なるユーザに関連付けられる異なる視覚的要素を含んでよく、そのような視覚的要素の表示は、処理1400に従って生成される異なるユーザからの入力信号に応じて調整され得る。組み合わされた処理は、処理1300の様々な実施形態との関連で上記した注視関連及び注視非関連のタッチタイプの動作も含み得る。したがって、これらの処理の任意の所望の組合せを実行して、ユーザのタッチスクリーン経験を向上させることができる。
本明細書で開示される実施形態の様々なものは、タッチスクリーンデバイスのユーザの経験の品質を向上させることができる。特に、一部の実施形態は、タッチスクリーン上ですぐ近くの2つの潜在的なタッチポイントを区別するコンピューティングシステムの能力を向上させることができ;注視位置情報を使用することによって、コンピューティングシステムは、所望のタッチポイントを特定する能力を向上させることができる。注視関連のタッチタイプと注視非関連のタッチタイプとの間を区別する実施形態は、異なるタッチタイプの間を区別するコンピューティングシステムの能力を向上させ(例えばピンチがタップと間違えられる可能性を低減する)、ユーザとコンピューティングシステムとの間のより良い対話を可能にすることができる。本明細書で開示される表示調整技術を用いる幾つかの実施形態は、ユーザが触っていると思っているタッチスクリーン上のポイントを、ユーザが実際に触っているポイントとより良く整合させることができ、これによりユーザのフラストレーションを低減することができる。
以下の段落では、本開示の実施形態の例を説明する。
例1は、注視補助型タッチスクリーン入力を用いるコンピューティングシステムであって:コンピューティングシステムのタッチスクリーン上のユーザのタッチを示すタッチ信号を受け取り、タッチスクリーン上のユーザの注視の領域を示す注視位置信号を受け取り、注視位置信号及びタッチ信号に少なくとも部分的に基づいて、コンピューティングシステムへの入力信号を生成する、入力登録ロジックを備えるコンピューティングシステムである。
例2は、例1に係る主題を含むことがあり、入力登録ロジックに結合され、注視位置信号を生成する、注視位置ロジックを更に含み得る。
例3は、例2に係る主題を含むことがあり、注視位置ロジックに結合され、画像キャプチャデバイスからユーザの目の画像を受け取る、画像キャプチャロジックを更に備え、注視位置ロジックは、受け取った画像に少なくとも部分的に基づいて注視位置信号を生成する。
例4は、例1−3のいずれかに係る主題を含むことがあり、入力登録ロジックに結合され、タッチ信号を生成する、タッチ検出ロジックを更に含み得る。
例5は、例1−4のいずれかに係る主題を含むことがあり、入力登録ロジックが、注視位置信号及びタッチ信号に少なくとも部分的に基づく複数の所定のタッチタイプのうちの1つの選択を通して入力信号を生成し、入力信号が、選択されたタッチタイプを示すことを更に特定し得る。
例6は、例5に係る主題を含むことがあり、複数の所定のタッチタイプが、1つ以上の注視非関連のタイプと、1つ以上の注視関連のタイプとを含み、注視位置信号及びタッチ信号に少なくとも部分的に基づく複数の所定のタッチタイプのうちの1つの選択が:タッチ信号に少なくとも部分的に基づく、タッチがユーザの注視の領域の外側に置かれたという判断と、タッチがユーザの注視の領域の外側に置かれたという判断に応じた、注視関連のタイプの選択とを含むことを更に特定し得る。
例7は、例1−6のいずれかに係る主題を含むことがあり、入力登録ロジックが更に:タッチスクリーン上のユーザの第2のタッチを示す第2のタッチ信号を受け取り;タッチスクリーン上のユーザの注視の第2の領域を示す第2の注視位置信号を受け取り;第2のタッチ信号に少なくとも部分的に基づいて、第2のタッチがユーザの注視の第2の領域の外側に置かれたと判断し;第2のタッチ信号に少なくとも部分的に基づいて、第2のタッチ信号がいずれの注視非関連のタッチタイプにも整合していないと判断し;第2のタッチがユーザの注視の第2の領域の外側に置かれたという判断と、第2のタッチ信号がいずれの注視非関連のタッチタイプにも整合していないという判断に応答して、入力信号を生成する目的について第2のタッチ信号を無視すること、を更に特定し得る。
例8は、例1−7のいずれかに係る主題を含むことがあり、注視位置信号が第1の注視位置信号であり、ユーザが第1のユーザであり、タッチ信号が第1のタッチ信号であり、入力信号が第1の入力信号であること、並びに入力登録ロジックが:タッチスクリーン上の第2のユーザのタッチを示す第2のタッチ信号を受け取り;タッチスクリーン上の第2のユーザの注視の領域を示す第2の注視位置信号を受け取り;第2の注視位置信号及び第2のタッチ信号に少なくとも部分的に基づいて、第2の入力信号を生成すること、を更に特定し得る。
例9は、例8に係る主題を含むことがあり、入力登録ロジックに結合され、第1及び第2のタッチ信号を少なくとも部分的に並行して生成する、タッチ検出ロジックを更に含み得る。
例10は、例8−9のいずれかに係る主題を含むことがあり、タッチスクリーン上に、第1の入力信号に少なくとも部分的に基づく第1の視覚的要素と、第2の入力信号に少なくとも部分的に基づく第2の視覚的要素との表示をもたらす、表示ロジックを更に含み、第1及び第2の視覚的要素が同時に表示される。
例11は、例1−10のいずれかに係る主題を含むことがあり、入力登録ロジックが、タッチスクリーンに対するユーザの目の位置を示すポジション信号を受け取ること、入力信号がポジション信号に少なくとも部分的に基づくことを更に特定し得る。
例12は、例11に係る主題を含むことがあり、入力登録ロジックに結合され、ポジション信号を生成する観察位置ロジックを更に含み得る。
例13は、例1−12のいずれかに係る主題を含むことがあり、観察位置ロジックに結合され、ポジション信号を受け取り、ポジション信号に少なくとも部分的に基づいて、所望の視覚的歪みを指示する調整信号を生成する表示調整ロジックと;表示調整ロジックに結合されて、タッチスクリーン上に、調整信号に従って歪めた1つ以上の視覚的要素の表示をもたらす、表示ロジックとを更に含み得る。
例14は、コンピューティングシステムのための注視補助型タッチスクリーン入力を生成する方法であって:コンピューティングシステムによって、該コンピューティングシステムのタッチスクリーン上のユーザの注視の領域を示す注視位置信号を受け取るステップと;コンピューティングシステムによって、タッチスクリーン上のユーザのタッチを示すタッチ信号を受け取るステップと;コンピューティングシステムによって、注視位置信号及びタッチ信号に少なくとも部分的に基づいて、コンピューティングシステムの入力信号を生成するステップと;を備える方法である。
例15は、例14に係る主題を含むことがあり、コンピューティングシステムによって、画像キャプチャデバイスからユーザの目の画像を受け取るステップを更に含み、注視位置信号は、受け取った画像に少なくとも部分的に基づく。
例16は、例14−15のいずれかに係る主題を含むことがあり、注視位置信号及びタッチ信号に少なくとも部分的に基づいて、コンピューティングシステムの入力信号を生成するステップが、注視位置信号及びタッチ信号に少なくとも部分的に基づいて複数の所定のタッチタイプのうちの1つを選択するステップを備えることと、入力信号が、選択されたタッチタイプを示すことを更に特定し得る。
例17は、例16に係る主題を含むことがあり、複数の所定のタッチタイプは、1つ以上の注視非関連のタイプと、1つ以上の注視関連のタイプとを含み、注視位置信号及びタッチ信号に少なくとも部分的に基づいて複数の所定のタッチタイプのうちの1つを選択するステップは、タッチがユーザの注視の領域の外側に置かれたことをタッチ信号が示していると判断するステップと、タッチがユーザの注視の領域の外側に置かれたことをタッチ信号が示していると判断したことに応答して、注視関連のタイプを選択するステップとを含む。
例18は、例14−17のいずれかに係る主題を含むことがあり、タッチスクリーン上のユーザの第2のタッチを示す第2のタッチ信号を受け取るステップと;タッチスクリーン上のユーザの注視の第2の領域を示す第2の注視位置信号を受け取るステップと;第2のタッチ信号に少なくとも部分的に基づいて、第2のタッチがユーザの注視の第2の領域の外側に置かれたと判断するステップと;第2のタッチ信号に少なくとも部分的に基づいて、第2のタッチ信号がいずれの注視非関連のタッチタイプにも整合していないと判断するステップと;第2のタッチが前記ユーザの注視の前記第2の領域の外側に置かれたと判断したことと、第2のタッチ信号がいずれの注視非関連のタッチタイプにも整合していないと判断したことに応答して、入力信号を生成する目的について第2のタッチ信号を無視するステップと;を更に含み得る。
例19は、例14−18のいずれかに係る主題を含むことがあり、注視位置信号は第1の注視位置信号であり、ユーザは第1のユーザであり、タッチ信号は第1のタッチ信号であり、入力信号は第1の入力信号であり、方法は:コンピューティングシステムによって、タッチスクリーン上の第2のユーザの注視の領域を示す第2の注視位置信号を受け取るステップと;コンピューティングシステムによって、タッチスクリーン上の第2のユーザのタッチを示す第2のタッチ信号を受け取るステップと;コンピューティングシステムによって、第2の注視位置信号及び第2のタッチ信号に少なくとも部分的に基づいて、第2の入力信号を生成するステップと;を更に含み得る。
例20は、例19に係る主題を含むことがあり、第1のタッチ信号を受け取るステップは、コンピューティングデバイスによって、第2のタッチ信号を受け取るステップと少なくとも部分的に並行に実行される。
例21は、例19−20のいずれかに係る主題を含むことがあり、コンピューティングシステムによって、タッチスクリーン上に、第1の入力信号に少なくとも部分的に基づく第1の視覚的要素と、第2の入力信号に少なくとも部分的に基づく第2の視覚的要素との同時表示をもたらすステップを更に含み得る。
例22は、例14−21のいずれかに係る主題を含むことがあり、コンピューティングシステムによって、タッチスクリーンに対するユーザの目の位置を示すポジション信号を受け取るステップを更に含み、タッチスクリーン上のユーザのタッチを示すタッチ信号は、ポジション信号に少なくとも部分的に基づく。
例23は、例22に係る主題を含むことがあり、コンピューティングシステムによって、ポジション信号に少なくとも部分的に基づいて、所望の視覚的歪みを指示する調整信号を生成するステップと;タッチスクリーン上に、調整信号に従って歪めた1つ以上の視覚的要素の表示をもたらすステップとを更に含み得る。
例24は、コンピューティングデバイスの1つ以上の処理デバイスによって実行されると、該コンピューティングデバイスに、例14乃至23のいずれかに係る方法を実行させる命令を有する1つ以上のコンピュータ読取可能媒体である。
例25は、1つ以上の処理デバイスと、1つ以上の処理デバイスによって実行されると、該コンピューティングデバイスに、例14乃至23のいずれかに係る方法を実行させる命令を有する1つ以上のコンピュータ読取可能媒体とを含む装置である。
例26は、注視補助型タッチスクリーン入力を用いるシステムであって:コンピューティングシステムのタッチスクリーン上のユーザの注視の領域を示す注視位置信号を受け取るための手段と;タッチスクリーン上のユーザのタッチを示すタッチ信号を受け取るための手段と;注視位置信号及びタッチ信号に少なくとも部分的に基づいて、システムの入力信号を生成するための手段と;を含むシステムである。
例27は、例26に係る主題を含むことがあり、注視位置信号を生成するための手段を更に含み得る。
例28は、例27に係る主題を含むことがあり、注視位置信号を生成するための手段は、画像キャプチャデバイスからユーザの目の画像を受け取るための手段を含み、注視位置信号は、受け取った画像に少なくとも部分的に基づく。
例29は、例26−28のいずれかに係る主題を含むことがあり、タッチ信号を生成するための手段を更に含み得る。
例30は、例26−29のいずれかに係る主題を含むことがあり、注視位置信号及びタッチ信号に少なくとも部分的に基づいて、入力信号を生成するための手段は、注視位置信号及びタッチ信号に少なくとも部分的に基づいて複数の所定のタッチタイプのうちの1つを選択するための手段を備え、入力信号は、選択されたタッチタイプを示す。
例31は、例30に係る主題を含むことがあり、複数の所定のタッチタイプが、1つ以上の注視非関連のタイプ及び1つ以上の注視関連のタイプを含むこと、並びに注視位置信号及びタッチ信号に少なくとも部分的に基づいて複数の所定のタッチタイプのうちの1つを選択するための手段が:タッチ信号に少なくとも部分的に基づいて、前記タッチが前記ユーザの注視の領域の外側に置かれたことを判断するための手段と;タッチがユーザの注視の領域の外側に置かれたことを判断したことに応答して、注視関連のタイプを選択するための手段とを含むことを更に特定し得る。
例32は、例26−31のいずれに係る主題を含むことがあり、更に:タッチスクリーン上のユーザの第2のタッチを示す第2のタッチ信号を受け取る手段と;タッチスクリーン上のユーザの注視の第2の領域を示す第2の注視位置信号を受け取る手段と;第2のタッチ信号に少なくとも部分的に基づいて、第2のタッチがユーザの注視の第2の領域の外側に置かれたと判断する手段と;第2のタッチ信号に少なくとも部分的に基づいて、第2のタッチ信号がいずれの注視非関連のタッチタイプにも整合していないと判断する手段とを含み、入力信号を生成するための手段は、第2のタッチがユーザの注視の第2の領域の外側に置かれたと判断することと、第2のタッチ信号がいずれの注視非関連のタッチタイプにも整合していないと判断したこととに応答して、第2のタッチ信号を無視するように構成される。
例33は、例26−32のいずれに係る主題を含むことがあり、注視位置信号が第1の注視位置信号であり、ユーザが第1のユーザであり、タッチ信号が第1のタッチ信号であり、入力信号が第1の入力信号であることと、システムが:タッチスクリーン上の第2のユーザの注視の領域を示す第2の注視位置信号を受け取るための手段と;タッチスクリーン上の第2のユーザのタッチを示す第2のタッチ信号を受け取るための手段と;第2の注視位置信号と第2のタッチ信号に少なくとも部分的に基づいて、第2の入力信号を生成するための手段と;を更に含む。
例34は、例33に係る主題を含むことがあり、第1のタッチ信号を受け取るための手段は、前記第2のタッチ信号を生成するための手段による第2のタッチ信号の受け取りと少なくとも部分的に並行に、第1のタッチ信号を受け取るように構成される。
例35は、例33−34のいずれかに係る主題を含むことがあり、タッチスクリーン上に、第1の入力信号に少なくとも部分的に基づく第1の視覚的要素と、第2の入力信号に少なくとも部分的に基づく第2の視覚的要素との同時表示をもたらすための手段を更に含み得る。
例36は、例26−35のいずれかに係る主題を含むことがあり、タッチスクリーンに対するユーザの目の位置を示すポジション信号を受け取るための手段を更に含み、タッチスクリーン上のユーザのタッチを示すタッチ信号波、ポジション信号に少なくとも部分的に基づく。
例37は、例36に係る主題を含むことがあり、ポジション信号を生成するための手段を更に含み得る。
例38は、例37に係る主題を含むことがあり、ポジション信号に少なくとも部分的に基づいて、所望の視覚的歪みを指示する調整信号を生成するための手段と;タッチスクリーン上に、調整信号に従って歪めた1つ以上の視覚的要素の表示をもたらすための手段と;を更に含み得る。
本明細書では特定の実施形態を図示し、説明したが、当業者には認識されるように、同じ目的を達成するよう考えられる多様な代替及び/又は均等な実施形態又は実装が、その範囲から逸脱することなく、図示及び説明される実施形態に置き替わってよい。当業者には、諸実施形態が多種多様な方法で実装され得ることが容易に認識されよう。本明細書は、本明細書で議論される実施形態の全ての適応又は変形を網羅するよう意図される。

Claims (28)

  1. 注視補助型タッチスクリーン入力を用いるコンピューティングシステムであって:
    当該コンピューティングシステムのタッチスクリーン上のユーザのタッチを示すタッチ信号を受け取り、
    前記タッチスクリーン上のユーザの注視領域を示す注視位置信号を受け取り、
    前記タッチ信号のタッチタイプが、注視非関連のタイプとして分類されるか、注視関連のタイプとして分類されるかを決定し、
    前記注視位置信号前記タッチ信号及び前記決定されたタッチタイプに少なくとも部分的に基づいて、当該コンピューティングシステムの入力信号を生成する、
    入力登録ロジックを備える、コンピューティングシステム。
  2. 前記入力登録ロジックに結合され、前記注視位置信号を生成する、注視位置ロジック
    を更に備える、請求項1に記載のコンピューティングシステム。
  3. 前記注視位置ロジックに結合され、画像キャプチャデバイスから前記ユーザの目の画像を受け取る、画像キャプチャロジックを更に備え、
    前記注視位置ロジックは、前記受け取った画像に少なくとも部分的に基づいて前記注視位置信号を生成する
    請求項2に記載のコンピューティングシステム。
  4. 前記入力登録ロジックに結合され、前記タッチ信号を生成する、タッチ検出ロジック
    を更に備える、請求項1に記載のコンピューティングシステム。
  5. 前記タッチタイプは、前記注視非関連のタイプ及び前記注視関連のタイプを含む複数の所定のタッチタイプのうちの1つであり、前記入力登録ロジックは、前記注視位置信号及び前記タッチ信号に少なくとも部分的に基づく前記複数の所定のタッチタイプのうちの1つの選択を通して、前記入力信号を生成し、
    前記入力信号は、前記選択されたタッチタイプを示す、
    請求項1に記載のコンピューティングシステム。
  6. 前記複数の所定のタッチタイプは、1つ以上の注視非関連のタイプ及び1つ以上の注視関連のタイプを含み、前記注視位置信号及び前記タッチ信号に少なくとも部分的に基づいて前記複数の所定のタッチタイプのうちの1つ選択するため前記入力登録ロジックは、
    前記タッチ信号に少なくとも部分的に基づいて、前記タッチが前記ユーザの前記注視領域の外側に置かれたことを判断
    前記タッチが前記ユーザの前記注視領域の外側に置かれたという判断に応答し、注視関連のタイプ選択する
    、請求項5に記載のコンピューティングシステム。
  7. 前記入力登録ロジックは更に
    前記タッチ信号に少なくとも部分的に基づいて、前記タッチが前記ユーザの前記注視領域の外側に置かれたと判断し;
    前記タッチ信号に少なくとも部分的に基づいて、前記タッチ信号がいずれの注視非関連のタッチタイプにも整合していないと判断し;
    記タッチが前記ユーザの前記注視領域の外側に置かれたという判断と、前記タッチ信号がいずれの注視非関連のタッチタイプにも整合していないという判断に応答して、入力信号を生成する目的について前記タッチ信号を無視する;

    請求項1に記載のコンピューティングシステム。
  8. 前記注視位置信号は第1の注視位置信号であり、前記ユーザは第1のユーザであり、前記タッチ信号は第1のタッチ信号であり、前記入力信号は第1の入力信号であり、
    前記入力登録ロジックは:
    前記タッチスクリーン上の第2のユーザのタッチを示す第2のタッチ信号を受け取り;
    前記タッチスクリーン上の前記第2のユーザの注視領域を示す第2の注視位置信号を受け取り;
    前記第2の注視位置信号及び前記第2のタッチ信号に少なくとも部分的に基づいて、第2の入力信号を生成する;
    請求項1に記載のコンピューティングシステム。
  9. 前記入力登録ロジックに結合され、前記第1及び第2のタッチ信号を少なくとも部分的に並行して生成する、タッチ検出ロジック、
    を更に備える、請求項8に記載のコンピューティングシステム。
  10. 前記タッチスクリーン上に、前記第1の入力信号に少なくとも部分的に基づく第1の視覚的要素と、前記第2の入力信号に少なくとも部分的に基づく第2の視覚的要素との表示をもたらす、表示ロジックを更に備え、前記第1及び第2の視覚的要素が同時に表示される、
    請求項8に記載のコンピューティングシステム。
  11. 前記入力登録ロジックは更に、前記タッチスクリーンに対する前記ユーザの目の位置を示すポジション信号を受け取る、
    請求項1乃至10のいずれか一項に記載のコンピューティングシステム。
  12. 前記入力登録ロジックに結合され、前記ポジション信号を生成する観察位置ロジック
    を更に備える、請求項11に記載のコンピューティングシステム。
  13. 前記観察位置ロジックに結合され、前記ポジション信号を受け取り、前記ポジション信号に少なくとも部分的に基づいて、所望の視覚的歪みを指示する調整信号を生成する、表示調整ロジックと;
    前記表示調整ロジックに結合されて、前記タッチスクリーン上に、前記調整信号に従って歪めた1つ以上の視覚的要素の表示をもたらす、表示ロジックと;
    を更に備える、請求項12に記載のコンピューティングシステム。
  14. コンピューティングシステムのための注視補助型タッチスクリーン入力を生成する方法であって:
    前記コンピューティングシステムによって、該コンピューティングシステムのタッチスクリーン上のユーザの注視領域を示す注視位置信号を受け取るステップと;
    前記コンピューティングシステムによって、前記タッチスクリーン上のユーザのタッチを示すタッチ信号を受け取るステップと;
    前記コンピューティングシステムによって、前記タッチ信号のタッチタイプが、注視非関連のタイプとして分類されるか、注視関連のタイプとして分類されるかを決定するステップと;
    前記コンピューティングシステムによって、前記注視位置信号前記タッチ信号及び前記決定されたタッチタイプに少なくとも部分的に基づいて、前記コンピューティングシステムの入力信号を生成するステップと;
    を備える、方法。
  15. 前記コンピューティングシステムによって、画像キャプチャデバイスから前記ユーザの目の画像を受け取るステップを更に備え、
    前記注視位置信号は、前記受け取った画像に少なくとも部分的に基づく、
    請求項14に記載の方法。
  16. 前記タッチ信号のタッチタイプが、注視非関連のタイプとして分類されるか、注視関連のタイプとして分類されるかを決定するステップは、前記注視位置信号及び前記タッチ信号に少なくとも部分的に基づいて、前記注視非関連のタイプ及び前記注視関連のタイプを含む複数の所定のタッチタイプのうちの1つを選択するステップを備え、
    前記入力信号は、前記選択されたタッチタイプを示す、
    請求項14に記載の方法。
  17. 前記複数の所定のタッチタイプは、1つ以上の注視非関連のタイプ及び1つ以上の注視関連のタイプを含み、前記注視位置信号及び前記タッチ信号に少なくとも部分的に基づいて、前記複数の所定のタッチタイプのうちの1つを選択するステップは、
    前記タッチが前記ユーザの前記注視領域の外側に置かれたことを前記タッチ信号が示していると判断するステップと、
    前記タッチが前記ユーザの前記注視領域の外側に置かれたことを前記タッチ信号が示していると判断したことに応答して、注視非関連のタイプを選択するステップと
    を備える、請求項16に記載の方法。
  18. 記タッチ信号に少なくとも部分的に基づいて、前記タッチが前記ユーザの前記注視領域の外側に置かれたと判断するステップと;
    記タッチ信号に少なくとも部分的に基づいて、前記タッチ信号がいずれの注視非関連のタッチタイプにも整合していないと判断するステップと;
    記タッチが前記ユーザの前記注視領域の外側に置かれ、かつ前記タッチ信号がいずれの注視非関連のタッチタイプにも整合していないと判断したことに応答して、入力信号を生成する目的について前記タッチ信号を無視するステップと;
    を更に備える、請求項14に記載の方法。
  19. 前記注視位置信号は第1の注視位置信号であり、前記ユーザは第1のユーザであり、前記タッチ信号は第1のタッチ信号であり、前記入力信号は第1の入力信号であり、当該方法は:
    前記コンピューティングシステムによって、前記タッチスクリーン上の第2のユーザの注視領域を示す第2の注視位置信号を受け取るステップと;
    前記コンピューティングシステムによって、前記タッチスクリーン上の前記第2のユーザのタッチを示す第2のタッチ信号を受け取るステップと;
    前記コンピューティングシステムによって、前記第2の注視位置信号及び前記第2のタッチ信号に少なくとも部分的に基づいて、第2の入力信号を生成するステップと;
    を更に備える、請求項14に記載の方法。
  20. 前記コンピューティングシステムによって、前記タッチスクリーン上に、前記第1の入力信号に少なくとも部分的に基づく第1の視覚的要素と、前記第2の入力信号に少なくとも部分的に基づく第2の視覚的要素との同時表示をもたらすステップ
    を更に備える、請求項19に記載の方法。
  21. 前記コンピューティングシステムによって、前記タッチスクリーンに対する前記ユーザの目の位置を示すポジション信号を受け取るステップ
    を更に備える、
    請求項14に記載の方法。
  22. 前記コンピューティングシステムによって、前記ポジション信号に少なくとも部分的に基づいて、所望の視覚的歪みを指示する調整信号を生成するステップと;
    前記タッチスクリーン上に、前記調整信号に従って歪めた1つ以上の視覚的要素の表示をもたらすステップと;
    を更に備える、請求項21に記載の方法。
  23. コンピューティングデバイスの1つ以上の処理デバイスによって実行されると、該コンピューティングデバイスに、請求項14乃至22のいずれか一項に記載の方法を実行させるコンピュータプログラム。
  24. 注視補助型タッチスクリーン入力を用いるシステムであって:
    コンピューティングシステムのタッチスクリーン上のユーザの注視領域を示す注視位置信号を受け取るための手段と;
    前記タッチスクリーン上の前記ユーザのタッチを示すタッチ信号を受け取るための手段と;
    前記タッチ信号のタッチタイプが、注視非関連のタイプとして分類されるか、注視関連のタイプとして分類されるかを決定するための手段と;
    前記注視位置信号前記タッチ信号及び前記タッチタイプに少なくとも部分的に基づいて、当該システムの入力信号を生成するための手段と;
    を備える、システム。
  25. 前記タッチ信号のタッチタイプが、注視非関連のタイプとして分類されるか、注視関連のタイプとして分類されるかを決定するための手段は、前記注視位置信号及び前記タッチ信号に少なくとも部分的に基づいて、前記注視非関連のタイプ及び前記注視関連のタイプを含む複数の所定のタッチタイプのうちの1つを選択するための手段を備え、
    前記入力信号は、前記選択されたタッチタイプを示す、
    請求項24に記載のシステム。
  26. 前記注視位置信号は第1の注視位置信号であり、前記ユーザは第1のユーザであり、前記タッチ信号は第1のタッチ信号であり、前記入力信号は第1の入力信号であり、当該システムは:
    前記タッチスクリーン上の第2のユーザの注視領域を示す第2の注視位置信号を受け取るための手段と;
    前記タッチスクリーン上の前記第2のユーザのタッチを示す第2のタッチ信号を受け取るための手段と;
    前記第2の注視位置信号及び前記第2のタッチ信号に少なくとも部分的に基づいて、第2の入力信号を生成するための手段と;
    を更に備える、請求項24に記載のシステム。
  27. 前記タッチスクリーンに対する前記ユーザの目の位置を示すポジション信号を受け取るための手段
    を更に備える、
    請求項24に記載のシステム。
  28. 請求項23に記載のコンピュータプログラムを記憶するコンピュータ読取可能媒体。
JP2016524529A 2013-11-01 2013-11-01 注視補助型タッチスクリーン入力 Active JP6165979B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2013/068125 WO2015065478A1 (en) 2013-11-01 2013-11-01 Gaze-assisted touchscreen inputs

Publications (2)

Publication Number Publication Date
JP2016533575A JP2016533575A (ja) 2016-10-27
JP6165979B2 true JP6165979B2 (ja) 2017-07-19

Family

ID=53004878

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016524529A Active JP6165979B2 (ja) 2013-11-01 2013-11-01 注視補助型タッチスクリーン入力

Country Status (5)

Country Link
US (1) US9575559B2 (ja)
EP (1) EP3063602B1 (ja)
JP (1) JP6165979B2 (ja)
CN (1) CN105593785B (ja)
WO (1) WO2015065478A1 (ja)

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8885882B1 (en) * 2011-07-14 2014-11-11 The Research Foundation For The State University Of New York Real time eye tracking for human computer interaction
KR20150083553A (ko) * 2014-01-10 2015-07-20 삼성전자주식회사 입력 처리 방법 및 장치
US10209779B2 (en) * 2014-02-21 2019-02-19 Samsung Electronics Co., Ltd. Method for displaying content and electronic device therefor
KR101619651B1 (ko) * 2014-11-26 2016-05-10 현대자동차주식회사 운전자 감시장치 및 그의 조명제어방법
JP2016163166A (ja) * 2015-03-02 2016-09-05 株式会社リコー 通信端末、面談システム、表示方法及びプログラム
TW201703722A (zh) * 2015-07-21 2017-02-01 明達醫學科技股份有限公司 量測裝置及其運作方法
US9990044B2 (en) * 2015-10-30 2018-06-05 Intel Corporation Gaze tracking system
US9905244B2 (en) * 2016-02-02 2018-02-27 Ebay Inc. Personalized, real-time audio processing
US9898082B1 (en) * 2016-11-01 2018-02-20 Massachusetts Institute Of Technology Methods and apparatus for eye tracking
WO2018103072A1 (zh) * 2016-12-09 2018-06-14 深圳市柔宇科技有限公司 用户界面的调整方法、调整系统及头戴显示设备
US10620910B2 (en) * 2016-12-23 2020-04-14 Realwear, Inc. Hands-free navigation of touch-based operating systems
US11507216B2 (en) 2016-12-23 2022-11-22 Realwear, Inc. Customizing user interfaces of binary applications
US10936872B2 (en) 2016-12-23 2021-03-02 Realwear, Inc. Hands-free contextually aware object interaction for wearable display
US11099716B2 (en) 2016-12-23 2021-08-24 Realwear, Inc. Context based content navigation for wearable display
JP6253861B1 (ja) * 2017-03-15 2017-12-27 三菱電機株式会社 タッチジェスチャ判定装置、タッチジェスチャ判定方法、タッチジェスチャ判定プログラム、及びタッチパネル入力装置
WO2018186031A1 (ja) * 2017-04-03 2018-10-11 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
US10304209B2 (en) 2017-04-19 2019-05-28 The Nielsen Company (Us), Llc Methods and systems to increase accuracy of eye tracking
US11029834B2 (en) * 2017-12-20 2021-06-08 International Business Machines Corporation Utilizing biometric feedback to allow users to scroll content into a viewable display area
CN109101110A (zh) * 2018-08-10 2018-12-28 北京七鑫易维信息技术有限公司 一种操作指令执行方法、装置、用户终端及存储介质
TWI734024B (zh) * 2018-08-28 2021-07-21 財團法人工業技術研究院 指向判斷系統以及指向判斷方法
US10761648B2 (en) * 2019-01-16 2020-09-01 Michael D. Marra Gaze detection interlock feature for touch screen devices
US11347367B2 (en) * 2019-01-18 2022-05-31 Dell Products L.P. Information handling system see do user interface management
US11169653B2 (en) 2019-01-18 2021-11-09 Dell Products L.P. Asymmetric information handling system user interface management
US11009907B2 (en) 2019-01-18 2021-05-18 Dell Products L.P. Portable information handling system user interface selection based on keyboard configuration
US11379016B2 (en) 2019-05-23 2022-07-05 Intel Corporation Methods and apparatus to operate closed-lid portable computers
TWI804671B (zh) * 2019-08-28 2023-06-11 財團法人工業技術研究院 互動顯示方法與互動顯示系統
US11733761B2 (en) 2019-11-11 2023-08-22 Intel Corporation Methods and apparatus to manage power and performance of computing devices based on user presence
US11809535B2 (en) 2019-12-23 2023-11-07 Intel Corporation Systems and methods for multi-modal user device authentication
US11474598B2 (en) * 2021-01-26 2022-10-18 Huawei Technologies Co., Ltd. Systems and methods for gaze prediction on touch-enabled devices using touch interactions
CN112987930A (zh) * 2021-03-17 2021-06-18 读书郎教育科技有限公司 一种实现和大尺寸电子产品便捷交互的方法

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6204828B1 (en) 1998-03-31 2001-03-20 International Business Machines Corporation Integrated gaze/manual cursor positioning system
JPH11296304A (ja) * 1998-04-10 1999-10-29 Ricoh Co Ltd 画面表示入力装置及び視差補正方法
SE524003C2 (sv) * 2002-11-21 2004-06-15 Tobii Technology Ab Förfarande och anläggning för att detektera och följa ett öga samt dess blickvinkel
US8793620B2 (en) * 2011-04-21 2014-07-29 Sony Computer Entertainment Inc. Gaze-assisted computer interface
US20110304606A1 (en) * 2010-06-14 2011-12-15 Oto Technologies, Llc Method and system for implementing look-ahead protection in a computing device
US8493390B2 (en) * 2010-12-08 2013-07-23 Sony Computer Entertainment America, Inc. Adaptive displays using gaze tracking
JP2012203671A (ja) * 2011-03-25 2012-10-22 Nec Casio Mobile Communications Ltd 電子機器、情報生成方法及びプログラム
US8766936B2 (en) * 2011-03-25 2014-07-01 Honeywell International Inc. Touch screen and method for providing stable touches
KR101810170B1 (ko) * 2011-10-10 2017-12-20 삼성전자 주식회사 사용자 위치 기반 이미지 표시 방법 및 장치
US20130145304A1 (en) * 2011-12-02 2013-06-06 International Business Machines Corporation Confirming input intent using eye tracking
WO2013095389A1 (en) * 2011-12-20 2013-06-27 Hewlett-Packard Development Company, Lp Transformation of image data based on user position
US10013053B2 (en) * 2012-01-04 2018-07-03 Tobii Ab System for gaze interaction
KR101850034B1 (ko) * 2012-01-06 2018-04-20 엘지전자 주식회사 이동 단말기 및 그 제어방법
AU2013239179B2 (en) * 2012-03-26 2015-08-20 Apple Inc. Enhanced virtual touchpad and touchscreen
KR20150031986A (ko) * 2013-09-17 2015-03-25 삼성전자주식회사 디스플레이장치 및 그 제어방법

Also Published As

Publication number Publication date
CN105593785A (zh) 2016-05-18
EP3063602A1 (en) 2016-09-07
US9575559B2 (en) 2017-02-21
JP2016533575A (ja) 2016-10-27
US20150338914A1 (en) 2015-11-26
EP3063602B1 (en) 2019-10-23
EP3063602A4 (en) 2017-08-02
WO2015065478A1 (en) 2015-05-07
CN105593785B (zh) 2019-11-12

Similar Documents

Publication Publication Date Title
JP6165979B2 (ja) 注視補助型タッチスクリーン入力
JP7283506B2 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
US9395821B2 (en) Systems and techniques for user interface control
US11036284B2 (en) Tracking and drift correction
EP2509070B1 (en) Apparatus and method for determining relevance of input speech
US20160132189A1 (en) Method of controlling the display of images and electronic device adapted to the same
US11481025B2 (en) Display control apparatus, display apparatus, and display control method
TWI525477B (zh) 接收用戶輸入的系統與方法,及其程式儲存媒體
JP6250024B2 (ja) キャリブレーション装置、キャリブレーションプログラム、およびキャリブレーション方法
US11360550B2 (en) IMU for touch detection
JP2021096490A (ja) 情報処理装置、情報処理方法、およびプログラム
WO2019085519A1 (zh) 面部跟踪方法及装置
WO2020080107A1 (ja) 情報処理装置、情報処理方法、及びプログラム
US20240077937A1 (en) Devices, methods, and graphical user interfaces for controlling avatars within three-dimensional environments
WO2023003759A1 (en) Multi-modal tracking of an input device
US20230333643A1 (en) Eye Tracking Based Selection of a User Interface (UI) Element Based on Targeting Criteria
US20220261085A1 (en) Measurement based on point selection
US20240103626A1 (en) Haptic ring
EP3850468B1 (en) Snapping range for augmented reality objects
TW201826234A (zh) 手語辨識方法
KR20240041257A (ko) 응시 유지 이벤트 평가에 기초한 사용자 인터페이스 응답
WO2022173724A1 (en) Transitioning content in views of three-dimensional environments using alternative positional constraints

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160418

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170427

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170523

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170621

R150 Certificate of patent or registration of utility model

Ref document number: 6165979

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250