JP2018041477A - 注視決定とデバイス入力との使用 - Google Patents

注視決定とデバイス入力との使用 Download PDF

Info

Publication number
JP2018041477A
JP2018041477A JP2017195726A JP2017195726A JP2018041477A JP 2018041477 A JP2018041477 A JP 2018041477A JP 2017195726 A JP2017195726 A JP 2017195726A JP 2017195726 A JP2017195726 A JP 2017195726A JP 2018041477 A JP2018041477 A JP 2018041477A
Authority
JP
Japan
Prior art keywords
user
computing device
gaze direction
gaze
operating state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017195726A
Other languages
English (en)
Other versions
JP6542324B2 (ja
Inventor
ティモシー・ティー.・グレイ
T Gray Timothy
アーロン・マイケル・ドンスバッチ
Michael Donsbach Aaron
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Amazon Technologies Inc
Original Assignee
Amazon Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Amazon Technologies Inc filed Critical Amazon Technologies Inc
Publication of JP2018041477A publication Critical patent/JP2018041477A/ja
Application granted granted Critical
Publication of JP6542324B2 publication Critical patent/JP6542324B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1686Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W12/00Security arrangements; Authentication; Protecting privacy or anonymity
    • H04W12/06Authentication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/08Network architectures or network communication protocols for network security for authentication of entities
    • H04L63/0861Network architectures or network communication protocols for network security for authentication of entities using biometrical features, e.g. fingerprint, retina-scan

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Computer Security & Cryptography (AREA)
  • Software Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)
  • Position Input By Displaying (AREA)
  • Telephone Function (AREA)

Abstract

【課題】ユーザの注視が実質的にデバイスの方向であると決定したとき、タップまたは音声コマンド等のユーザからの所定の入力により、以前に利用できなかった少なくともいくつかのデバイスの機能性へのアクセスを提供する。【解決手段】状況300において、コンピューティングデバイス302が、所定の入力と思われるものを検出したが、ユーザ310の注視308がデバイスの方向ではない場合、コンピューティングデバイスは、ロックされた動作状態を維持する。注視決定は、ユーザがコンピューティングデバイスの少なくともいくつかのさらなる機能性をロック解除することを意図する指示として利用される。【選択図】図3

Description

人々は、種々のタイプのコンテンツにアクセスするために、ますますコンピューティングデバイスに依存しているが、コンテンツの大部分は、ユーザに対して秘密であるか、またはそうでなければ慎重を期する可能性がある。例えば、ユーザは、コンピューティングデバイス上に個人の連絡先情報のリストを記憶させるかもしれないし、またはそのユーザの銀行口座へのアクセスを提供するアプリケーションをインストールするかもしれない。故に、デバイスに対する無許可のアクセスから保護することが望ましい可能性がある。多くの場合、そのような保護は、ユーザがデバイスへのアクセスを望む度に、パスワードまたは他の識別情報を入力することをユーザに要求する。多くのユーザにとって、そのような繰り返しの妥当性確認は、気を散らせるか、さらには面倒である可能性がある。したがって、従来のセキュリティ機構は、常に識別情報を入力することによるユーザの不満と、所与のデバイスの保護レベルとの間でバランスを取らなければならない。
以下、本開示に従う種々の実施態様を、図面を参照して説明する。
種々の実施形態に従ってユーザがコンピューティングデバイスをロック解除することができる、例示的な状況を示す図である。 種々の実施形態に従ってユーザがコンピューティングデバイスをロック解除することができる、別の実施例を示す図である。 種々の実施形態に従ってユーザがコンピューティングデバイスをロック解除することができる、別の実施例を示す図である。 種々の実施形態に従って注視決定を使用してコンピューティングデバイスをロック解除するための例示的な過程を示す図である。 種々の実施形態に従ってユーザを認識するための例示的な技法を示す図である。 種々の実施形態に従って使用することができる、ユーザの注視方向を決定するための例示的な手法を示す図である。 種々の実施形態に従って使用することができる、ユーザの注視方向を決定するための例示的な手法を示す図である。 種々の実施形態に従って使用することができる、ユーザの注視方向を決定するための例示的な手法を示す図である。 種々の実施形態に従って使用することができる、ユーザの注視方向を決定するための例示的な手法を示す図である。 種々の実施形態に従って使用することができる、ユーザの注視方向を決定するための例示的な手法を示す図である。 種々の実施形態に従って使用することができる、ユーザの注視方向を決定するための例示的な手法を示す図である。 種々の実施形態に従って使用することができる、ユーザの注視方向を決定するための例示的な手法を示す図である。 種々の実施形態に従って使用することができる、ユーザの注視方向を決定するための例示的な手法を示す図である。 種々の実施形態に従って使用することができる、ユーザの注視方向を決定するための例示的な手法を示す図である。 種々の実施形態に従って使用することができる、虹彩認識を行うための例示的な技法の第1の部分を示す図である。 種々の実施形態に従って使用することができる、虹彩認識を行うための例示的な技法の可能な第2の部分を示す図である。 種々の実施形態に従って使用することができる、虹彩認識を行うための例示的な技法の可能な第2の部分を示す図である。 種々の実施形態に従ってユーザの識別情報を確認することに応じてユーザに提示することができる、例示的なパーソナライズされたインタフェースを示す図である。 種々の実施形態に従って注視決定を使用してデバイスをロック解除するための別の例示的な過程を示す図である。 種々の実施形態に従って使用することができる注視情報を取り込むように動作可能な要素を含む、例示的なコンピューティングデバイスを示す図である。 図12で示されるようなコンピューティングデバイスの例示的な構成要素を示す図である。 種々の実施形態を実装することができる環境を示す図である。
本開示の種々の実施形態に従うシステムおよび方法は、ユーザがコンピューティングデバイスと相互作用することを可能にするために、従来の手法で経験される上述のおよび他の欠陥の1つ以上を克服し得る。具体的には、種々の実施形態は、例えば、ユーザの所定の注視方向、およびタップまたは音声コマンド等の所定の入力に少なくとも部分的に基づいて、ユーザが、コンピューティングデバイスをロック解除すること、またはそうでなければそのデバイスの機能性へのアクセスを取得することを可能にする。さらに、デバイスは、少なくともいくつかの実施形態において、ユーザには見えない方法で、ロック解除過程中に、ユーザ認証を行うことができる。そのような手法は、ユーザが手動で識別情報を入力することを必要とすることなく、デバイスへの安全なアクセスを提供することができる。
従来のコンピューティングデバイスは、しばしば、その偶然の開始を防止するために、ならびにデータへの無許可のアクセスを回避するために、少なくともいくつかの機能性をロックする動作状態を含む。多くの場合、この状態は、しばしば、パスワードまたは他の識別情報を入力することをユーザに要求する、ロック画面およびあるレベルの保護を含む。ロック画面は、しばしば、ロック画面の背景画像、動的なバッテリの状態、ネットワークアイコン、メッセージアイコン、種々の警告もしくは更新、パスワードまたはパスコードを入力してそこへのアクセスを得るためのログイン画面等の、情報または構成要素を含む。種々の実施形態において、コンピューティングデバイスは、ロックされた動作状態において、ロック画面を表示しながら、ユーザの画像情報(例えば、静止画像またはビデオ)を取り込む。画像情報は、ユーザの注視方向を決定するために解析される。ユーザの注視が実質的にコンピューティングデバイスの方向であるとき、タップまたは音声コマンド等のユーザからの所定の入力または動作が、コンピューティングデバイスをロック解除させることができ、よって、ロックされた動作状態において以前に利用できなかった少なくともいくつかの機能性へのアクセスをユーザに提供することができる。しかしながら、コンピューティングデバイスが、所定の入力と思われるものを検出したが、ユーザの注視がロック画面の方向ではない場合、コンピューティングデバイスは、ロックされた動作状態を維持する。したがって、種々の実施形態に従って、入力−注視または注視−入力のロック解除手順は、注視決定を、ユーザがコンピューティングデバイスの少なくともいくつかのさらなる機能性をロック解除することを意図する、所定の入力を伴う指示として利用する。
種々の実施形態において、画像は、ユーザの眼底から反射される赤外線放射を検出する、赤外線(IR)センサから取り込むことができる。少なくともいくつかの実施形態において、コンピューティングデバイスは、例えばジャイロスコープ、加速度計、または他の行動もしくは近接センサによって突然の行動の変化が検出されたときに、ユーザの注視方向を決定するために、画像取り込みモードを開始する。
さらに、ある手法は、パーソナライズされた特徴を提供するだけでなく、生体識別を加えることによってセキュリティを高めようとしている。例えば、コンピューティングデバイスは、1つ以上の顔またはユーザ認識技法を使用して、ユーザを認識しようとするために、ユーザの画像を取り込み、画像を解析することができる。例えば、コンピューティングデバイスは、許可されたユーザを認証するために、虹彩認識、網膜走査を行うか、または種々の顔認識アルゴリズムを実行することができ、したがって、種々のユーザの記憶されたプロファイルを検索するため等の、数ある中でも、パスワードの必要性を排除する。そのような手法は、生体情報を解析して、適切なアカウントまたは、または同じデバイス上で異なるユーザがセットアップするための設定を検索するために、注視決定によって取得された画像情報を巧みに利用することができ、各ユーザが、異なる入力、オプション等を選択することを可能にする。
種々の他の応用、過程、および用途は、種々の実施形態に関して下で提示される。
ある従来のデバイスにおいて、ユーザは、表示画面を横断して指をスワイプさせデバイスをロック解除することができ、次いで、パスワードまたは他の識別情報を入力する。しかしながら、デバイスがユーザの注視を追跡することができれば、そのような動作を完全に置換、補足、または排除することができる。例えば、図1は、コンピューティングデバイス102の表示要素104を視聴しているユーザ110の例示的な状況100を示す。本実施例において、コンピューティングデバイス102は、ロックされた動作状態である。表示要素104を視聴している間、注視線108によって描写される視角または注視方向は、所与の範囲に入っており、ユーザまたはデバイス等の動き等の種々の因子に依存して相対的である傾向がある。本明細書で後でさらに詳細に論じるように、コンピューティングデバイス102は、ユーザの注視108が表示要素104上にあるときに検出するように構成することができ、また、その時点で、コンピューティングデバイス102をロック解除するか、またはそうでなければその少なくともいくつかのさらなる機能性へのアクセスを取得するために、1つ以上のタップ、スワイプ、音声コマンド、空中ジェスチャー等の所定の入力を受け取ることができる。
本明細書で後でさらに詳細に論じるように、ユーザの注視方向を決定するために、画像取り込み要素106がコンピューティングデバイス102上に位置付けられ、よって、画像取り込み要素106は、ユーザ110に関する情報を取り込むことができる可能性がある。本実施例において、表示要素104は、ユーザの注視が実質的に表示要素104に向いている(例えば、注視線108が所定の範囲内で表示要素104に向いている)と決定することに応じて、コンピューティングデバイス100をロック解除するために、ユーザに「タップ」するよう求めるメッセージをユーザに提示する。ユーザ110がメッセージを読んでいるときに、例えば、ユーザの注視108は、実質的に、テキストが表示される表示要素104の中央に向いていることになる。ユーザ110がコンピューティングデバイス100に対して相対的であること、および、ユーザの眼球の特徴の相対位置(例えば、網膜反射または瞳孔/虹彩の位置)を決定することによって、1つ以上の画像の解析は、眼球がその相対配向であるときに、ユーザが表示要素104のその部分に注目している可能性があるという指示を提供することができる。ユーザの注視108の決定は、本実施例において、所定の入力を受け取った時点で、コンピューティングデバイス102をロックされた動作状態からロック解除する特定の動作を行おうとするユーザの意図を確定するものと解釈することができる。
故に、本実施例において、示されるユーザ110は、表示要素104をタップし、それによって、所定の入力を提供し、そして、コンピューティングデバイス100をロック解除するか、またはそうでなければロックされた動作状態において以前に利用できなかった少なくともいくつかのさらなる機能性へのアクセスを提供する。したがって、本実施例において、注視決定は、入力の受け取ると、ユーザがコンピューティングデバイスの少なくともいくつかのさらなる機能性をロック解除することを意図しているという指示をデバイスに提供する。
図2は、一実施形態に従って、ユーザ210が以前にロックされた動作状態であったコンピューティングデバイス202上のコンテンツを視聴している、例示的な状況200を示す。上で論じたように、タッチコントロールを使用して画面を横断してグラフィカル要素をスワイプさせることは、従来のコンピューティングデバイスをロック解除するために多くのユーザによって使用される手法である。しかしながら、本実施例において、ユーザ210は、ユーザの注視線208で表されるように実質的にタッチ画面204の方向を見ながら、「タップ」ジェスチャーをタッチ画面204に提供することによって、コンピューティングデバイス200をロック解除することができる。しかしながら、コンピューティングデバイス200が、「タップ」ジェスチャーと思われるものを検出したが、ユーザの注視が画面204以外の場所である場合、図3に関して論じられるように、ユーザが従来のスワイプまたはPIN入力等の別のロック解除機構を提供していない限り、コンピューティングデバイス200は、ロックされた状態を維持する。したがって、本実施例において、注視決定は、ユーザがコンピューティングデバイスの少なくともいくつかのさらなる機能性をロック解除することを意図しているという指示をコンピューティングデバイスに提供する。
図3は、一実施形態に従って、ユーザ310が所定のタッチジェスチャーをロックされた動作状態であるコンピューティングデバイス302に提供する、例示的な状況300を示す。本実施例において、ユーザ310は、所定のタッチジェスチャーをタッチ画面304に提供しているが、ユーザがコンピューティングデバイス302の方向を見ていないので、スクリーンはブランクであり、デバイスは応答していない。本実施例において、ユーザの注視308は、他の場所を向いており、コンピューティングデバイス302の方向ではなく、したがって、コンピューティングデバイス302は、所定のタッチジェスチャーと思われるものが存在していても、ユーザ310がデバイスをロック解除することを意図しているという指示を受け取っていない。したがって、本実施例において、ユーザの注視308が、タッチ画面304上にないか、または実質的にコンピューティングデバイス302の方向でなければ、ユーザが、入力−注視または注視−入力のロック解除手順を使用して、コンピューティングデバイス302の少なくともいくつかのさらなる機能性をロック解除することを意図しているといういずれの指示もデバイスに提供しない。
一実施形態において、コンピューティングデバイスは、所定のタッチジェスチャーまたは入力を要求することなく、ユーザがコンピューティングデバイスに注目しているときに、ロックされた動作状態から簡単にロック解除することができる。したがって、コンピューティングデバイスは、ユーザが目をそらしているときにはロックされ、そしてユーザがデバイスに注目すればロック解除される。同じ目的で、コンピューティングデバイスは、必ずしもロックされた動作状態であるという必要でない。言い換えれば、コンピューティングデバイスは、ユーザがコンピューティングデバイスに注目しているときに、またはコンピューティングデバイスが、ユーザの注視方向がコンピューティングデバイスのディスプレイと交差していると決定したときに、ユーザからの入力を受け付けるように構成することができ、また、ユーザが目をそらしているときには入力を受け付けることができないように構成することができる。
注視決定を開始するために、種々のトリガーまたはキューを使用することができる。一実施形態において、コンピューティングデバイスが、ジャイロスコープまたは加速度計等の1つ以上の行動センサによって動きの変化を検出したときに、ユーザの注視方向を決定するために、画像取り込みモードをトリガーすることができる。本実施例では、画像取り込みモードが開始されたときに、またはユーザの注視が実質的に表示要素に向いていると決定した時点で、メッセージをユーザに表示することができる。あるいは、光センサが、ユーザがポケットまたは財布からデバイスを取り出したとき等の、照明の変化を検出したときに、画像取り込みモードを開始することができる。例えば、照明されていないデバイスまたは節電モードのデバイスは、ユーザがデバイスを持ち上げ、視聴するための位置に傾ける等によってデバイスに関わろうとしていることを示唆する特定の動作が検出されたときに、「起こす」ことができる。別の実施形態では、バッテリ寿命等のある因子、およびユーザがおそらく起きている昼間等の時間帯に応じて、画像取り込みモードを継続する、または実質的に継続することができる。別の実施形態では、コンピュータデバイスがロックされているとき、および/またはデバイスがユーザによって保持されていると判定されたとき等の特定の状況であることが検出されたときには常に、画像取り込みモードが開始される。他のモードまたは状況の表示も可能である。
図4は、種々の実施形態に従って利用することができる、入力−注視または注視−入力のロック解除手順のための過程400の実施例を示す。別途指示がない限り、本明細書で論じられる任意の過程について、種々の実施形態の範囲内で、類似する、もしくは代替の順序で、または並列に行われる、さらなる、より少ない、または代替のステップがあり得ることを理解されたい。本実施例において、402で、ロック画面がコンピューティングデバイスの表示要素上に表示される。種々の実施形態のロック画面は、種々の機能性を使用不可にするか、またはその機能性が不注意にトリガーされる、開かれる、立ち上げられる、アクセスされる、もしくはそうでなければ開始されることからロックする。一般的に、ロック画面は、ロック画面の背景画像、バッテリの状態、ネットワークアイコン、メッセージ、および警告バナー等の要素を含む。本実施例において、404で、コンピューティングデバイスの少なくとも1つの画像取り込み要素を使用して画像情報が取り込まれる。406で、表示要素に対するユーザの注視方向を決定するために、画像情報が解析される。種々の実施形態において、ロック画面は、ユーザの注視方向が実質的に表示要素に向いていると決定した時点で、ユーザに所定の入力を促すことができる。他の実施形態において、デバイスは、ロック画面を表示し、ユーザに促すことなく、所定の入力に対して準備することができる。本実施例において、408で、ユーザの注視方向がコンピューティングデバイスに向いていないと決定された場合は、410で、画面は、ロックされた状態を維持する。しかしながら、本実施例において、408で、ユーザの注視方向が実質的にコンピューティングデバイスの方向であると決定された場合は、412で、コンピューティングデバイスは、ユーザが所定の入力を提供したかどうかを確認または判定する。ユーザが所定の入力を提供しなかった場合は、414で、コンピューティングデバイスは、ロックされた状態を継続する。しかしながら、本実施例において、ユーザが所定の入力を提供した場合は、416で、コンピューティングデバイスの少なくともいくつかのさらなる機能性へのアクセスをユーザに提供する。過程ステップ408および412の順序は、種々の実施形態において入れ替えることができること、またはこれらの過程ステップは、並列して行うことができることを理解されたい。
少なくともいくつかの実施形態において、コンピューティングデバイスは、ユーザの視聴が特定の場所に留まる時間量に少なくとも部分的に基づいて、「注視」と「一見」とを区別することができる。例えば、ユーザが、実質的にデバイスの方向において、本明細書で「一見」と称される眼球ジェスチャーに関わっていると判定されたときに、デバイスは、それ自体をロック解除できないようにし得、この場合、ユーザの注視方向は、比較的短い期間(例えば、最小閾値時間量未満)にわたって、実質的にある場所に向かっていると判定される。ユーザが実質的にデバイスの表示要素の方向を見て、次いで、半秒未満で目をそらした場合、例えば、ユーザは、その領域を一見したと判定され得、デバイスは、ロックされた状態を維持し、入力に利用できない。ユーザが、本明細書で「注視する」と称されるより長い期間にわたって、注視方向を実質的に表示要素に向け続けた場合、デバイスは、入力およびその後のロック解除のために利用可能にできる。
種々の実施形態は、デバイスが以前にも増してカメラまたは赤外線センサ等の撮像要素を装備し、したがって、デバイスのユーザの画像情報を取り込むことができる、という事実を利用することができる。上で説明したように、この画像情報は、ユーザの相対的な視聴場所または注視方向を決定するために解析することができる。加えて、画像情報は、生体情報を決定して、種々のパーソナライズされた特徴をユーザに提供するために解析することができ、ならびに個人ユーザを認証することによってセキュリティを高めるために利用することができる。例えば、デバイスは、顔認識、虹彩認識、網膜走査等を使用してユーザを認識しようとする際に、ユーザの画像情報を取り込むことができる。ユーザの識別情報が、顔認識、虹彩認識、網膜走査、シグネチャの読み出し、ログイン、または他のそのような情報を通して識別されたときに、インタフェースをカスタマイズする、および/または特定のユーザの制御スキームを調整するために、適切なモデルを使用することができる。故に、ユーザの注視方向および識別情報を決定するための種々の例示的な技法が説明される。
ユーザの注視方向を決定するために、デバイスは、少なくともいくつかの実施形態において、デバイスに対するユーザの相対位置、ならびにその位置でのユーザの大きさまたは他の態様を決定しなければならない。例えば、図5は、画像および/またはビデオ取り込み等の機能性を行うように動作可能な、1つ以上のカメラまたは他のそのような取り込み要素506を含む、コンピューティングデバイス504を示す。画像取り込み要素506は、例えば、カメラ、電荷結合素子(CCD)、行動検出センサ、または赤外線センサ等であり得る。図5において、ユーザの頭部502は、画像取り込み要素506のうちの1つの視野512内に位置する。本実施例において、コンピューティングデバイス504は、ユーザの顔および/またはユーザを識別する際に有用であり得る種々の目印もしくは特徴の場所を特定するように動作可能な、顔認識過程または他のそのようなアプリケーションを使用して解析するために、ユーザの顔の1つ以上の画像を取り込む。少なくともいくつかの実施形態において、これらの特徴の相対的な場所は、特徴の相対的な場所をユーザ502の記憶された特徴の場所とマッチさせようとするために、1人以上のユーザに関する1組の顔の特徴の場所またはそのライブラリと比較することができる。種々のパターンまたは点マッチングアルゴリズムを、当技術分野で知られているそのような過程に使用することができる。相対的な点分布または他のそのようなデータセットが、少なくとも最小の信頼レベルでユーザの情報とマッチする場合に、ユーザをデバイスに対して認証することができる(例えば、識別されたユーザは、ユーザによって手動で提供される任意の情報にマッチすると仮定する)。少なくともいくつかの実施形態において、処理等に必要とされるリソースの量を低減させるために、頭部追跡を使用して、種々の実施形態に従って解析しなければならない画像情報の量を低減させることができる。
図6(a)は、ユーザの頭部およびユーザの眼球の相対位置を決定するために、画像を取り込み、解析する実施例600を示す。アルゴリズムがユーザの瞳孔を区別することができるシステムでは、システムはまた、眼球の位置に対する瞳孔の相対位置を利用することもできる。例えば、図6(b)は、ユーザが「左」を見ている(またはユーザの「右」に目を向けている)場合を示し、よって、各ユーザの瞳孔の中心点は、(画像の中で)それぞれの眼球の中心点の左にある。同様に、図6(c)は、ユーザが「上」を見ている場合を示す。見て分かるように、瞳孔の位置は、眼球の中心点の上側に移動している。瞳孔の位置は、ユーザが自分の頭部を移動させることなく変化する可能性がある。したがって、システムは、いくつかの実施形態において、頭部の位置の変化を伴わない一見または注視を検出することができ得る。システムはまた、自分の目を長期間にわたって閉じるユーザ等の、動きを検出することもでき、この場合、デバイスは、電子ブックリーダーを、例えば「スリープ」モードもしくは電力制限モードにする、画像取り込みを停止させる、またはデバイスの電源をオフにする等の動作を行うことができる。システムは、いくつかの実施形態において、眼球の振戦、滑らかな追跡、および弾道運動等の、様々なタイプの動きを区別することができる。
ユーザの注視方向を決定する際に使用することができる、別の例示的な技法は、図7(a)〜7(f)に関して説明される。本実施例において、種々の手法は、ユーザの相対配向を決定するための種々の有用な態様を決定するために、ユーザの顔の1つ以上の所望の特徴の場所を特定しようとする。例えば、ユーザの頭部または顔のおよその場所およびサイズを決定するために、画像を解析することができる。図7(a)は、ユーザの頭部または顔700のおよその位置および領域が決定され、そのような決定を行うための複数の画像解析アルゴリズムのうちの1つを使用して、位置の表示として仮想「ボックス」702が顔の周囲に配置される実施例を示す。1つのアルゴリズムを使用することで、仮想「ボックス」がユーザの顔の周囲に配置され、このボックスの位置および/またはサイズは、相対的なユーザの位置を監視するために継続的に更新され、監視される。また、ユーザの眼球のそれぞれ(または一部の場合では、縦に並ぶ眼球)のおよその場所および領域704を決定するために、類似のアルゴリズムを使用することもできる。ユーザの眼球の場所も決定することによって、ユーザの頭部と決定される画像が実際にユーザの頭部を含む可能性をより高くでき、およびユーザがコンピューティングデバイスを注視しているかどうかを判定することができるといった、利点を得ることができる。さらに、うなずくまたは首を前後に振る等の行動を行うときには、ユーザの眼球の相対的な動きを、ユーザの頭部の全体的な動きよりも容易に検出することができる。
ユーザの顔上の特徴の場所を決定するために、種々の他のアルゴリズムを使用することができる。例えば、図7(b)は、ユーザの顔の種々の特徴が識別され、画像の中に地点の場所706が割り当てられる例示的な方法を示す。したがって、システムは、ユーザの特徴の種々の態様を検出することができる。そのような手法は、ユーザの口元の端点および少なくとも1つの中心点等の、特徴に沿った種々の地点を決定することができるので、特定の状況において、図7(a)の一般的な手法に勝る利点を提供する。
ユーザの顔の特徴の位置が識別されると、ユーザとデバイスとの間の相対動作を検出することができる。例えば、図7(c)は、ユーザの頭部600が、撮像要素の視聴可能な領域に対して上下に移動している実施例を示す。論じられるように、これは、ユーザが自分の頭部を振る、またはユーザがデバイスを上下に移動させる等の結果であり得る。図7(d)は、ユーザ、デバイス、またはそれらの双方の動きを通して、ユーザがデバイスに対して右から左に移動している、類似の実施例を示す。見て分かるように、各動きは、それぞれ、垂直または水平の動きとして追跡することができ、それぞれ、異なって処理することができる。理解されるように、そのような過程はまた、対角線または他のそのような動きも検出することができる。図7(e)はさらに、ユーザがデバイスおよび/またはユーザの頭部を傾斜させ、眼球の位置の相対変化が回転として検出される実施例を示す。いくつかのシステムでは、眼球の相対位置に対応する「線」が監視され、この線の角度の変化は、この回転を解釈すべきときを判定するために、角度閾値と比較することができる。
図7(f)は、ユーザの顔上の種々の特徴の位置を決定するために、図7(b)に関して説明したような手法を使用する、別の利点を示す。この誇張された実施例では、第2のユーザの頭部708の特徴が、異なる相対位置および間隔を有することが分かる。したがって、デバイスはまた、1人のユーザの特徴の位置を決定することができるだけでなく、異なるユーザを区別することもできる。後で本明細書で論じられるように、これは、デバイスが、異なるユーザに対して異なって行うことができるようにする。また、デバイスは、例えば、デバイスに向かうおよびそこから離れる動きをデバイスが検出することができるように、種々の特徴の間隔の量および比率に基づいて、ユーザがどのくらいデバイスに近いのかを検出するように構成することができる。これは、注視検出の精度を向上させるのを補助することができる。
上で述べたように、デバイスをロック解除するために注視追跡を使用することはまた、取り込まれた画像情報に基づいてユーザを識別する能力を種々のデバイスに提供することもできる。例えば、取り込まれた画像情報は、ユーザを識別するために使用することができるそのユーザの虹彩または網膜上の固有の地点等の、ユーザの眼球の特徴を識別するために使用することができる。そのような情報は、パスワードまたはパスコード等の識別情報の物理的または手動入力を必要としない、安全なロック解除機構を提供するために、注視−入力または入力−注視のロック解除手順とともに使用することができる。
一実施例において、図8は、ヒトの眼球800について取り込まれた情報の一例を示し、眼球のおよその外側境界802および内側境界804の場所を特定するために、眼球の基本形状が利用される。いくつかの実施形態において、これは、処理要件を低減させ、かつ認識速度を高めるために、ユーザの眼球の片方にだけしか行われないが、他の実施形態では、より安全なアプリケーションのために必要とされ得るので、精度を高めるために両方の眼球も解析され得る。いくつかの実施形態において、第2の眼球について取り込まれる情報は、第1の眼球の結果が確定的でない場合、または第1の眼球の解析に問題がある場合等にだけ解析される。照明、相対角度等に基づき得る場合等に、どちらの眼球を解析するのかを決定するために、種々のアルゴリズムまたは設定を使用することができる。
虹彩に対応する画像の一部分が識別されると、マッチングまたは特徴場所特定過程を使用して、ユーザを識別しようとすることができる。図9(a)において、例えば、虹彩の固有または独特の特徴902は、当該の目的について知られているまたは使用される任意の適切な生体特徴決定過程を使用して決定することができる。他の過程では、代わりにユーザを識別しようとするために画像マッチング過程が使用され得るが、そのような画像マッチングは、比較的にプロセッサおよび/またはメモリ集約的である可能性があり、よって、代わりに固有の特徴を識別しようとし、次いで、代わりに比較的小さい組のデータ点に基づいてデバイスをマッチさせることを可能にするために、携帯型デバイス等のあるデバイスに望ましい可能性がある。図9(b)は、虹彩情報が実質的に直線状の1組の特徴点に対して調整される、虹彩情報920の別の実施例を示し、少なくともいくつかの実施形態において、マッチングを簡略化することができる一方で、依然として許容可能な信頼性のある結果を提供する。
上で述べたように、ユーザを認識する能力は、デバイスが、ユーザ認証に応じて、種々のデバイスについて知られているまたは使用される任意のパーソナライズされたコンテンツまたは機能性をユーザに提供することを可能にする。例えば、図10は、種々の実施形態のうちの1つに従って、注視監視過程の一部としてユーザが認識および/または認証されることに応じて、コンピューティングデバイス1000の表示要素1002上に表示される可能性がある、例示的な初期画面を示す。本実施例において、初期画面は、パーソナライズされたメッセージ、ならびにスケジュール情報1006およびそのユーザが受け取ったメッセージ1008を示す情報等のパーソナライズされた情報を認識されたユーザ1004に表示する。デバイスはまた、そのユーザによって選択される、またはそうでなければ該ユーザと関連付けられる特定のアプリケーション1010もしくは他の要素、または機能性も表示することができる。当技術分野で知られているように、種々の他のタイプの個人化も利用することができる。
故に、図11は、種々の実施形態に従ってユーザ識別情報を利用する注視決定を使用してデバイスをロック解除するための、例示的な過程1100を示す。図4に関して上で述べたように、別途指示がない限り、本明細書で論じられる任意の過程について、種々の実施形態の範囲内で、類似する、もしくは代替の順序で、または並列に行われる、さらなる、より少ない、または代替のステップがあり得ることを理解されたい。本実施例において、ユーザの注視は、コンピューティングデバイス1102によって注視追跡モードで追跡または監視される。いくつかの実施形態において、ユーザは、このモードを手動で起動させなければならないが、他のモードにおいて、デバイスは、コンピューティングデバイスがロックされているとき、および/またはデバイスがユーザによって保持されていると判定されたとき、デバイスが移動したとき、もしくは行動検出器が近隣の動きを検出したとき等の特定の状況であると検出されたときには常に、モードを起動させることができる。他の起動モードも可能である。注視追跡が作動中であるときに、デバイスは、近隣の人の場所を特定しようとするために、デバイスの周囲の画像情報を取り込むことができる。人が検出された場合、デバイス(またはデバイスと通信しているシステムもしくはサービス)は、そのユーザの眼球の場所を特定し、その人の視聴場所および/または注視方向を決定しようとすることができる。本実施例において、ロック画面は、コンピューティングデバイス1104のディスプレイ上に表示される。いくつかの実施形態において、ロック画面は、注視追跡を起動させたときに表示される。一実施形態において、ジャイロスコープおよび/または加速度計は、ユーザが単に、デバイスを「起こす」ために、ポケットまたは財布からデバイスを取り出し、自動的に照明するか、またはロック画面上に情報を表示することを示す動作を検出することができる。例えば、照明されていないデバイスまたは節電モードのデバイスは、ユーザがデバイスを持ち上げ、視聴するための位置に傾ける等によってデバイスに関わろうとしていることを示唆する特定の動作が検出されたときに、「起こす」ことができる。ある場合では、ユーザがデバイスに関わろうとしていることを判定するために、ジャイロスコープおよび/または加速度計の代わりに、またはそれに加えて光センサを使用することができる。例えば、デバイスは、暗所では「眠った」状態を維持することができ、また、ユーザが財布またはポケットからデバイスを取り出したとき等の、光センサが光を検出したときに「起こす」ことができる。他のモードまたは状況の表示も可能である。
本実施例では、1106で、コンピューティングデバイスがユーザの注視方向を決定しようとする。ユーザがコンピューティングデバイスをロック解除すること、またはそうでなければそれへのアクセスを獲得することを望むときに、デバイスは、ユーザの注視方向が実質的にディスプレイに向いている可能性があることを検出する。故に、本実施例では、1108で、ユーザの注視が実質的にコンピューティングデバイスのディスプレイに向いていることを検出する。いくつかの実施形態において、注視がデバイスに向いていることを検出することは、表示要素を起動させること、近隣のネットワークに接続すること、またはそうでなければ、リソースの節約もしくは他のそのような目的で、少なくとも一時的にオフにされていた、もしくは低電力モードにされていた機能性もしくは要素を起動させる等の、他の動作も行わせることができる。
ユーザが実質的にディスプレイを注視していると判定されたとき、本実施例では、1110で、コンピューティングデバイスが、ユーザが所定の入力を提供したかどうかを確認または判定することができる。所定の入力は、コンピューティングデバイスの画像取り込み要素の視野内で、デバイス自体によって行われるか、またはユーザの手によって行われる、タップ、スワイプ、音声コマンド、または空中ジェスチャーのうちの少なくとも1つとすることができる。コンピューティングデバイスは、ユーザが最初に所定の入力を提供したかどうかを判定し、ユーザの注視方向を決定することができることを理解されたい。本実施例において、ユーザが所定の入力を提供しなかった場合、1112で、コンピューティングデバイスは、ロックされた状態を維持する。少なくともいくつかの実施形態において、ユーザは、パスコードを入力する、または他の手法を使用する等による、代わりにデバイスをロック解除するための他の機構を有する。
注視方向が、許容可能な逸脱範囲内で、実質的にコンピューティングデバイスのディスプレイに向いており、かつユーザが所定の入力を提供した場合、1114で、デバイスは、取り込まれた画像情報を使用して、ユーザの注視方向が決定されたときに、またはその前後に、取り込まれた情報から虹彩認識、網膜走査、顔認識等のうちの1つ以上を行うことによってユーザの識別情報を決定することができる。識別情報を決定するための他の方法、アルゴリズム、または技法も可能である。1116で、マッチング過程を使用して、ユーザの虹彩認識、網膜走査、または顔認識のうちの1つ以上からの識別特徴または結果を、コンピューティングデバイスまたはそれと通信しているリモートサーバに記憶された既知のおよび/または許可されたユーザとマッチさせようとすることができる。いかなるマッチも見つからなかった場合、1120で、人がデバイスをロック解除することができない、または少なくともデバイスのある機能性を取得することができない等の、非ユーザ事例を取り扱うことができる。ユーザのマッチが決定され、そのユーザがデバイス上の少なくともある機能性にアクセスすることを許可された場合、1122で、デバイスへの(パーソナライズまたは限定され得る)アクセスをそのユーザに提供することができる。いくつかの時点でデバイスが再度ロックされた場合、過程の少なくとも一部分を必要に応じて繰り返すことができる。
図12は、種々の実施形態に従って使用することができる、コンピューティングデバイス1200の実施例を示す。携帯型コンピューティングデバイス(例えば、スマートフォン、電子ブックリーダー、またはタブレットコンピュータ)が示されているが、本明細書で論じられる種々の実施形態に従って、入力を受け取り、処理することができる任意のデバイスを使用することができることを理解されたい。デバイスとしては、例えば、数ある中でも、デスクトップコンピュータ、ノートブックコンピュータ、電子ブックリーダー、携帯情報端末、携帯電話、ビデオゲーミングコンソールもしくはコントローラ、テレビ、テレビ用リモコン、テレビ用セットトップボックス、および携帯型メディアプレーヤーが挙げられる。
この実施例において、コンピューティングデバイス1200は、表示画面1202を有し、該表示画面は、通常の操作下で、表示画面に対面するユーザに(例えば、表示画面の側と同じコンピューティングデバイスの側に)情報を表示する。この実施例において、コンピューティングデバイスは、1つ以上の画像取り込み要素を含むことができ、この実施例では、デバイスの前側に2つの画像取り込み要素1204を含むが、画像取り込み要素はまた、または代替として、デバイスの側部または隅部に配置することができること、および任意の適切な数の類似のまたは異なるタイプの取り込み要素があり得ることを理解されたい。各画像取り込み要素1204は、例えば、カメラ、電荷結合素子(CCD)、行動検出センサ、もしくは赤外線センサであり得、または任意の他の適切な画像取り込み技術を利用することができる。コンピューティングデバイスはまた、少なくとも1つのマイクロホン1208、または他のタイプの入力データを取り込むことができる他の音声取り込み要素(複数可)を含むこともできる。デバイスの位置および/または方向の変化を検出するために、少なくとも1つの方向決定要素1210を使用することができる。当技術分野で知られているように、種々の他のタイプの入力も、当該デバイスとともに使用するために利用することができる。
図13は、図12に関して説明されるデバイス500等の、コンピューティングデバイス1300の1組の基本構成要素を例示する。この実施例において、デバイスは、メモリデバイスまたは要素1304に記憶することができる命令を実行するための、少なくとも1つのプロセッサ1102を含む。当業者には明らかなように、デバイスは、プロセッサ1302によって実行するためのプログラム命令のための第1のデータ記憶装置等の、数多くのタイプのメモリ、データ記憶装置、またはコンピュータが読み出し可能な媒体を含むことができ、同じまたは別個の記憶装置を画像またはデータに使用することができ、他のデバイスと情報を共有するためにリムーバブルメモリを利用することができ、また、他のデバイスと共有するために任意の数の通信手法を利用することができる。デバイスは、一般的に、タッチ画面、電子インク(eインク)、有機または無機発光ダイオード(OLEDおよびLED)、または液晶ディスプレイ(LCD)等の、いくつかのタイプの表示要素1306を含むが、携帯型メディアプレーヤー等のデバイスは、音声スピーカーを通す等の、他の手段を介して情報を伝達し得る。論じられるように、数多くの実施形態におけるデバイスは、デバイスの近傍のユーザ、人々、または物体を撮像することができる、少なくとも2つのカメラまたは検出器等の、少なくとも2つの画像取り込み要素1108を含む。画像取り込みは、単一の画像、多数の画像、定期的な撮像、連続画像取り込み、画像ストリーミング等を使用して行うことができることを理解されたい。デバイスはまた、上で論じられるような加速度計、ジャイロスコープ、電子コンパス、またはGPSデバイス等の、1つ以上の配向および/または場所決定要素1310も含むことができる。これらの要素は、位置、動き、および/または配向データをプロセッサに提供するために、プロセッサと通信することができる。
デバイスは、ユーザから従来の入力を受け取ることができる、少なくとも1つのさらなる入力デバイス1312を含むことができる。この従来の入力としては、例えば、押しボタン、タッチパッド、タッチ画面、ホイール、ジョイスティック、キーボード、マウス、トラックボール、キーパッド、またはそれによってユーザがコマンドをデバイスに入力することができる任意の他のそのようなデバイスまたは要素が挙げられる。いくつかの実施形態において、これらのI/Oデバイスは、無線赤外線もしくはBluetooth(登録商標)、または他のリンクによっても接続することができる。しかしながら、いくつかの実施形態において、そのようなデバイスは、いかなるボタンも含まない場合があり、また、視覚および音声命令の組み合わせを通してだけ制御され得、よって、ユーザは、デバイスと接触することを必要とせずに、デバイスを制御することができる。
いくつかの実施形態において、コンピューティングデバイスは、そのデバイスの各ユーザについてマッチング情報を記憶することができ、よって、マッチングおよび/または認証過程をデバイス上で行うことができる。他の実施形態において、画像および/または特徴情報は、処理のために、リモートシステムまたはサービス等のリモートな場所に送ることができる。いくつかの実施形態において、デバイスは、例えば、注視追跡を起動するか、ロック画面を表示するか、または種々の他の動作モードを表示するために使用することができる、赤外線検出器または行動センサを含むことができる。
論じられるように、説明される実施形態に従って、異なる手法を種々の環境で実装することができる。例えば、図14は、種々の実施形態に従って態様を実装するための、環境1400の実施例を示す。認識されるように、説明の目的でウェブに基づく環境が使用されるが、種々の実施形態を実装するために、必要に応じて、異なる環境が使用され得る。システムは、電子クライアントデバイス1402を含み、該デバイスとしては、適切なネットワーク1404を通じて要求、メッセージ、または情報を送信および受信し、情報をデバイスのユーザに搬送するように操作可能な、任意の適切なデバイスが挙げられる。そのようなクライアントデバイスの例としては、パーソナルコンピュータ、携帯電話、ハンドヘルドメッセージングデバイス、ラップトップコンピュータ、セットトップボックス、携帯情報端末、電子ブックリーダー等が挙げられる。ネットワークとしては、イントラネット、インターネット、セルラーネットワーク、ローカルエリアネットワーク、もしくは任意の他のそのようなネットワーク、またはそれらの組み合わせを含む、任意の適切なネットワークが挙げられる。そのようなシステムに使用される構成要素は、選択されたネットワークおよび/または選択環境のタイプに少なくとも部分的に依存し得る。そのようなネットワークを介して通信するためのプロトコルおよび構成要素はよく知られており、本明細書では詳細に論じない。ネットワークを通じた通信は、有線接続または無線接続、およびそれらの組み合わせを介して可能にすることができる。本実施例では、当業者には明らかなように、要求を受け取り、それに応じてコンテンツを提供するためのウェブサーバ1406を環境が含むので、このネットワークは、インターネットを含むが、他のネットワークの場合、類似の目的を提供する代替のデバイスを使用することができる。
実例となる環境は、少なくとも1つのアプリケーションサーバ1408と、データストア1410とを含む。連鎖され得るまたはそうでなければ構成され得る、適切なデータストアからデータを取得する等の作業を行うように相互作用することができる、いくつかのアプリケーションサーバ、層もしくは他の要素、過程、または構成要素があり得ることを理解されたい。本明細書で使用される「データストア」という用語は、データを記憶し、それにアクセスし、それを取り出すことができる任意のデバイスまたはデバイスの組み合わせを指し、任意の数のデータサーバ、データベース、データ記憶デバイス、データ記憶媒体、およびそれらの任意の組み合わせを、任意の標準型、分散型、またはクラスタ型の環境において含み得る。アプリケーションサーバ1408は、クライアントデバイスのための1つ以上のアプリケーションの態様を実行するために、必要に応じて、データストア1410と統合するための、およびアプリケーションのためのデータアクセスおよびビジネスロジックの大部分を取り扱うための、任意の適切なハードウェアおよびソフトウェアを含むことができる。アプリケーションサーバは、データストアと連携してアクセス制御サービスを提供し、また、この実施例においてHTML、XML、または別の適切な構造化言語の形態でウェブサーバ1406によってユーザに提供され得る、ユーザに転送されるテキスト、グラフィックス、オーディオ、および/またはビデオ等のコンテンツを生成することができる。全ての要求および応答、ならびにクライアントデバイス1402とアプリケーションサーバ1408との間のコンテンツの送達は、ウェブサーバ1406によって取り扱うことができる。本明細書で論じられる構造化コードは、本明細書で他の場所で論じられるように、任意の適切なデバイスまたはホストマシン上で実行することができるので、ウェブサーバおよびアプリケーションサーバは必要とされず、これらは単に例示的な構成要素に過ぎないことを理解されたい。
データストア1410は、いくつかの別個のデータテーブル、データベース、または他のデータ記憶機構と、特定の態様に関連するデータを記憶するための媒体を含むことができる。例えば、例示されるデータストアは、製品側のコンテンツを提供するために使用することができる、コンテンツ(例えば、製品データ)1412およびユーザ情報1416を記憶するための機構を含む。データストアはまた、ログデータまたはセッションデータ1414を記憶するための機構も含むように示される。ページ画像情報およびアクセス権利情報等の、データストアに記憶する必要があり得る、数多くの他の態様があり得、必要に応じて上で列記した機構のいずれかに、またはデータストア1410の付加的な機構に記憶することができることを理解されたい。データストア1410は、アプリケーションサーバ1408から命令を受け取って、それに応じてデータを取得する、更新する、またはそうでなければ処理するために、それと関連する論理を通して操作可能である。一例において、ユーザは、特定のタイプのアイテムの検索要求を提出し得る。この場合、データストアは、ユーザの識別情報を照合するためにユーザ情報にアクセスし得、また、そのタイプのアイテムに関する情報を取得するために、カタログの詳細情報にアクセスすることができる。情報は、次いで、ユーザがユーザデバイス1402上のブラウザを介して視聴することができる、ウェブページ上の結果リスト等で、ユーザに返すことができる。関心の特定のアイテムの情報は、ブラウザの専用ページまたはウィンドウで視聴することができる。
各サーバは、一般的に、そのサーバの一般管理および操作のための実行可能プログラム命令を提供するオペレーティングシステムを含み、また一般的に、サーバのプロセッサによって実行されたときに、サーバがその意図する機能性を行うことを可能にする命令を記憶する、コンピュータ読み出し可能な媒体を含む。オペレーティングシステムおよびサーバの一般機能性の好適な実装例は、既知であるか、または商業的に入手可能であり、また、特に本明細書の開示に照らして、当業者によって容易に実装される。
一実施形態における環境は、1つ以上のコンピュータネットワークまたは直接接続を使用して、通信リンクを介して相互接続される複数のコンピュータシステムおよび構成要素を利用する、分散コンピューティング環境である。しかしながら、そのようなシステムは、図14で例示されるよりも少ない数または多い数の構成要素を有するシステムで十分同等に動作できることが、当業者に認識されるであろう。したがって、図14のシステム1400の描写は、事実上、実例となるものであり、本開示の範囲を限定するものとみなすべきではない。
種々の実施形態はさらに、多種多様な操作環境で実装することができ、一部の場合において、いくつかのアプリケーションのいずれかを操作するために使用することができる、1つ以上のユーザコンピュータまたはコンピューティングデバイスを含むことができる。ユーザまたはクライアントデバイスとしては、標準的なオペレーティングシステムを実行するデスクトップまたはラップトップコンピュータ等の、数多くの汎用パーソナルコンピュータ、ならびに、モバイルソフトウェアを実行し、かついくつかのネットワークおよびメッセージングプロトコルをサポートすることができる、セルラーデバイス、無線デバイス、およびハンドヘルドデバイスのいずれかが挙げられる。そのようなシステムとしてはまた、開発およびデータベース管理等の目的で、種々の市販のオペレーティングシステムおよび他の既知のアプリケーションのいずれかを実行する、数多くのワークステーションも挙げられる。これらのデバイスとしてはまた、ネットワークを介して通信することができる、ダミー端末、シンクライアント、ゲームシステム、および他のデバイス等の、他のコンピューティングデバイスも挙げられる。
大部分の実施形態は、TCP/IP、OSI、FTP、UPnP、NFS、CIFS、およびAppleTalk等の、種々の市販のプロトコルのいずれかを使用して通信をサポートするための、当業者が精通している少なくとも1つのネットワークを利用する。ネットワークは、例えば、ローカルエリアネットワーク、ワイドエリアネットワーク、仮想プライベートネットワーク、インターネット、イントラネット、エクストラネット、公衆交換電話網、赤外線ネットワーク、無線ネットワーク、およびそれらの任意の組み合わせとすることができる。
ウェブサーバを利用する実施形態において、ウェブサーバは、HTTPサーバ、FTPサーバ、CGIサーバ、データサーバ、Java(登録商標)サーバ、およびビジネスアプリケーションサーバを含む、種々のサーバまたは中間層アプリケーションのいずれかを動作させることができる。サーバ(複数可)はまた、ユーザデバイスからの要求に応じて、Java(登録商標)、C、C#、もしくはC++等の任意のプログラミング言語、またはPerl、Python、もしくはTCL等の任意のスクリプト言語、ならびにそれらの組み合わせで書かれた1つ以上のスクリプトまたはプログラムとして実装され得る1つ以上のウェブアプリケーションを実行すること等によって、プログラムまたはスクリプトを実行することも可能であり得る。サーバ(複数可)としてはまた、Oracle(登録商標)、Microsoft(登録商標)、Sybase(登録商標)、およびIBM(登録商標)から市販されているものが挙げられるがそれらに限定されない、データベースサーバも挙げられる。
環境は、上で論じたように、種々のデータストア、ならびに他のメモリおよび記憶媒体を含むことができる。これらは、1つ以上のコンピュータに対してローカルな(および/またはその中に存在する)、またはネットワーク全体にわたるコンピュータのいずれかまたは全てからリモートな記憶媒体上等の、種々の場所に存在することができる。特定の1組の実施形態において、情報は、当業者が精通しているストレージエリアネットワーク(SAN)の中に存在し得る。同様に、必要に応じて、コンピュータ、サーバ、または他のネットワークデバイスに起因する機能性を行うための任意の必要なファイルが、ローカルおよび/またはリモートで記憶され得る。システムがコンピュータ制御のデバイスを含む場合、そのような各デバイスは、バスを介して電気的に連結され得るハードウェア要素を含むことができ、該要素は、例えば、少なくとも1つの中央処理ユニット(CPU)と、少なくとも1つの入力デバイス(例えば、マウス、キーボード、コントローラ、タッチセンサ式表示要素、またはキーパッド)と、少なくとも1つの出力デバイス(例えば、表示デバイス、プリンタ、またはスピーカー)とを含む。そのようなシステムはまた、ディスクドライブ、光記憶デバイス、およびランダムアクセスメモリ(RAM)またはリードオンリーメモリ(ROM)等の固体記憶デバイス、ならびにリムーバブル媒体デバイス、メモリカード、フラッシュカード等の、1つ以上の記憶デバイスも含み得る。
そのようなデバイスとしてはまた、上で説明したように、コンピュータ読み出し可能な記憶媒体リーダー、通信デバイス(例えば、モデム、ネットワークカード(無線または有線)、赤外線通信デバイス等)、および作業メモリも挙げることができる。コンピュータ読み出し可能な記憶媒体リーダーは、リモート、ローカル、固定の、および/またはリムーバブルな記憶デバイスを表すコンピュータ読み出し可能な記憶媒体、ならびにコンピュータ読み出し可能な情報を一時的におよび/またはより恒久的に含む、記憶する、伝送する、および取り出すための記憶媒体と接続することができる、またはそれを受け取るように構成することができる。システムおよび種々のデバイスはまた、一般的に、オペレーティングシステム、およびクライアントアプリケーションまたはウェブブラウザ等のアプリケーションプログラムを含む、少なくとも1つのワーキングメモリデバイス内に位置する、数多くのソフトウェアアプリケーション、モジュール、サービス、または他の要素も含む。代替の実施形態は、上で説明した数多くの変形例を有し得ることを理解されたい。例えば、カスタマイズされたハードウェアも使用され得、および/または特定の要素が、ハードウェア、ソフトウェア(アプレット等のポータブルソフトウェアを含む)、または双方で実装され得る。さらに、ネットワーク入力/出力デバイス等の他のコンピューティングデバイスへの接続が利用され得る。
コードまたはコードの部分を収容するための記憶媒体およびコンピュータ読み出し可能な媒体としては、コンピュータ読み出し可能な命令、データ構造、プログラムモジュール、または他のデータ等の情報を記憶および/または伝送するための任意の方法または技術で実装される揮発性および不揮発性で、取り外し可能および取り外し不可能な媒体等が挙げられるが、それらに限定されない、RAM、ROM、EEPROM(登録商標)、フラッシュメモリ、または他のメモリ技術、CD−ROM、デジタル多用途ディスク(DVD)または他の光記憶装置、磁気カセット、磁気テープ、磁気ディスク記憶装置、または他の磁気記憶デバイス、または所望の情報を記憶するために使用することができ、システムデバイスによってアクセスすることができる、任意の他の媒体を含む、記憶媒体および通信媒体を含む、当技術分野において知られているまたは使用される、任意の適切な媒体が挙げられる。本明細書で提供される開示および教示に基づいて、当業者は、種々の実施形態を実装するための他の様式および/または方法を認識するであろう。
したがって、本明細書および図面は、限定的な意味ではなく、例示的な意味であるとみなされるべきである。しかしながら、特許請求の範囲に記載された本発明のより広い趣旨および範囲から逸脱することなく、種々の修正および変更が行われ得ることが明らかであろう。
付記
付記1.
方法であって、
実行可能命令とともに構成される1つ以上のコンピュータシステムの制御下で、
コンピューティングデバイスのカメラを使用してユーザの少なくとも一部分の画像を取り込むことと、
ユーザの注視方向を決定するために、コンピューティングデバイスのプロセッサを使用して画像を解析することと、
コンピューティングデバイスのタッチ画面上でのユーザからのタッチジェスチャーを検出することと、
タッチジェスチャーの検出中に、ユーザの注視方向が表示画面と交差したときに、コンピューティングデバイスをロックされた動作状態からロック解除された動作状態に変更させることと、を含む、方法。
付記2.
タッチジェスチャーは、コンピューティングデバイスのタッチ画面上のタップまたはスワイプのうちの少なくとも1つである、請求項1に記載の方法。
付記3.
カメラは、コンピューティングデバイスの少なくとも1つの赤外線(IR)エミッタからの、ユーザによって反射された光を検出するように動作可能な、少なくとも1つのIRセンサを含む、請求項1に記載の方法。
付記4.
ユーザの眼球の少なくとも1つを表す情報が、許可されたユーザについて記憶された情報にマッチするかどうかを判定するために、虹彩認識、網膜走査、または顔認識のうちの少なくとも1つを行うことをさらに含む、請求項1に記載の方法。
付記5.
方法であって、
実行可能命令とともに構成される1つ以上のコンピュータシステムの制御下で、
コンピューティングデバイスの少なくとも1つのカメラを使用して取り込まれた1つ以上の画像を解析することによって、ユーザの注視方向を決定することと、
コンピューティングデバイスへの入力を受け取ることと、
コンピュータデバイスへの入力を受け取った時点で、ユーザの注視方向がコンピューティングデバイスに向いているときに、コンピューティングデバイスをロックされた動作状態からロック解除された動作状態に変更させることと、を含む、方法。
付記6.
コンピュータデバイスは、デスクトップコンピュータ、ノートブックコンピュータ、タブレットコンピュータ、電子ブックリーダー、スマートフォン、ビデオゲーミングコンソールもしくはコントローラ、テレビ、テレビ用リモコン、テレビ用セットトップボックス、またはポータブルメディアプレーヤーのうちの少なくとも1つである、請求項5に記載の方法。
付記7.
少なくとも1つのカメラは、コンピューティングデバイスの少なくとも1つの赤外線(IR)エミッタからの、ユーザによって反射された光を検出するように動作可能な、少なくとも1つのIRセンサを含む、請求項5に記載の方法。
付記8.
ジャイロスコープまたは加速度計のうちの少なくとも1つが行動の変化を検出したときに、ユーザの注視方向を決定するために、画像取り込みモードを起動させることをさらに含む、請求項5に記載の方法。
付記9.
入力は、音声コマンド、空中ジェスチャー、コンピューティングデバイスのタッチ画面上のタップ、またはコンピューティングデバイスのタッチ画面上のスワイプのうちの少なくとも1つである、請求項5に記載の方法。
付記10.
注視方向を決定することは、コンピューティングデバイスの画像取り込みシーケンスを開始することを含み、開始することは、加速度計から入力を受け取ることに応じて、または照明の変化に応じて、定期的に起こるように構成される、請求項5に記載の方法。
付記11.
ユーザの眼球の少なくとも1つを表す情報が、許可されたユーザについて記憶された情報にマッチするかどうかを判定するために、虹彩認識、網膜走査、または顔認識のうちの少なくとも1つを行うことをさらに含む、請求項5に記載の方法。
付記12.
コンピューティングデバイスであって、
デバイスプロセッサと、
表示画面と、
メモリデバイスであって、プロセッサによって実行されて、1組の動作を行い、コンピューティングデバイスが、
コンピューティングデバイスの少なくとも1つのカメラを使用して取り込まれた1つ以上の画像を解析することによって、ユーザの注視方向を決定すること、および
ユーザの注視方向がコンピューティングデバイスに向いているときに、コンピューティングデバイスをロックされた動作状態からロック解除された動作状態に変更させること、を可能にするように動作可能な命令を含む、メモリデバイスと、を備える、コンピューティングデバイス。
付記13.
少なくとも1つのカメラは、コンピューティングデバイスの少なくとも1つの赤外線(IR)エミッタからの、ユーザによって反射された光を検出するように動作可能な、少なくとも1つのIRセンサを含む、請求項12に記載のコンピューティングデバイス。
付記14.
コンピューティングデバイスは、ユーザの注視方向がコンピューティングデバイスに向いていないときに、ユーザからの入力を無視する、請求項12に記載のコンピューティングデバイス。
付記15.
コンピュータデバイスは、デスクトップコンピュータ、ノートブックコンピュータ、タブレットコンピュータ、電子ブックリーダー、スマートフォン、ビデオゲーミングコンソールもしくはコントローラ、テレビ、テレビ用リモコン、テレビ用セットトップボックス、またはポータブルメディアプレーヤーのうちの少なくとも1つである、請求項12に記載のコンピューティングデバイス。
付記
付記1.
方法であって、
実行可能命令とともに構成される1つ以上のコンピュータシステムの制御下で、
コンピューティングデバイスのカメラを使用してユーザの少なくとも一部分の画像を取り込むことと、
ユーザの注視方向を決定するために、コンピューティングデバイスのプロセッサを使用して画像を解析することと、
コンピューティングデバイスのタッチ画面上でのユーザからのタッチジェスチャーを検出することと、
タッチジェスチャーの検出中に、ユーザの注視方向が表示画面と交差したときに、コンピューティングデバイスをロックされた動作状態からロック解除された動作状態に変更させることと、を含む、方法。
付記2.
タッチジェスチャーは、コンピューティングデバイスのタッチ画面上のタップまたはスワイプのうちの少なくとも1つである、請求項1に記載の方法。
付記3.
カメラは、コンピューティングデバイスの少なくとも1つの赤外線(IR)エミッタからの、ユーザによって反射された光を検出するように動作可能な、少なくとも1つのIRセンサを含む、請求項1に記載の方法。
付記4.
ユーザの眼球の少なくとも1つを表す情報が、許可されたユーザについて記憶された情報にマッチするかどうかを判定するために、虹彩認識、網膜走査、または顔認識のうちの少なくとも1つを行うことをさらに含む、請求項1に記載の方法。
付記5.
方法であって、
実行可能命令とともに構成される1つ以上のコンピュータシステムの制御下で、
コンピューティングデバイスの少なくとも1つのカメラを使用して取り込まれた1つ以上の画像を解析することによって、ユーザの注視方向を決定することと、
コンピューティングデバイスへの入力を受け取ることと、
コンピュータデバイスへの入力を受け取った時点で、ユーザの注視方向がコンピューティングデバイスに向いているときに、コンピューティングデバイスをロックされた動作状態からロック解除された動作状態に変更させることと、を含む、方法。
付記6.
コンピュータデバイスは、デスクトップコンピュータ、ノートブックコンピュータ、タブレットコンピュータ、電子ブックリーダー、スマートフォン、ビデオゲーミングコンソールもしくはコントローラ、テレビ、テレビ用リモコン、テレビ用セットトップボックス、またはポータブルメディアプレーヤーのうちの少なくとも1つである、請求項5に記載の方法。
付記7.
少なくとも1つのカメラは、コンピューティングデバイスの少なくとも1つの赤外線(IR)エミッタからの、ユーザによって反射された光を検出するように動作可能な、少なくとも1つのIRセンサを含む、請求項5に記載の方法。
付記8.
ジャイロスコープまたは加速度計のうちの少なくとも1つが行動の変化を検出したときに、ユーザの注視方向を決定するために、画像取り込みモードを起動させることをさらに含む、請求項5に記載の方法。
付記9.
入力は、音声コマンド、空中ジェスチャー、コンピューティングデバイスのタッチ画面上のタップ、またはコンピューティングデバイスのタッチ画面上のスワイプのうちの少なくとも1つである、請求項5に記載の方法。
付記10.
注視方向を決定することは、コンピューティングデバイスの画像取り込みシーケンスを開始することを含み、開始することは、加速度計から入力を受け取ることに応じて、または照明の変化に応じて、定期的に起こるように構成される、請求項5に記載の方法。
付記11.
ユーザの眼球の少なくとも1つを表す情報が、許可されたユーザについて記憶された情報にマッチするかどうかを判定するために、虹彩認識、網膜走査、または顔認識のうちの少なくとも1つを行うことをさらに含む、請求項5に記載の方法。
付記12.
コンピューティングデバイスであって、
デバイスプロセッサと、
表示画面と、
メモリデバイスであって、プロセッサによって実行されて、1組の動作を行い、コンピューティングデバイスが、
コンピューティングデバイスの少なくとも1つのカメラを使用して取り込まれた1つ以上の画像を解析することによって、ユーザの注視方向を決定すること、および
ユーザの注視方向がコンピューティングデバイスに向いているときに、コンピューティングデバイスをロックされた動作状態からロック解除された動作状態に変更させること、を可能にするように動作可能な命令を含む、メモリデバイスと、を備える、コンピューティングデバイス。
付記13.
少なくとも1つのカメラは、コンピューティングデバイスの少なくとも1つの赤外線(IR)エミッタからの、ユーザによって反射された光を検出するように動作可能な、少なくとも1つのIRセンサを含む、請求項12に記載のコンピューティングデバイス。
付記14.
コンピューティングデバイスは、ユーザの注視方向がコンピューティングデバイスに向いていないときに、ユーザからの入力を無視する、請求項12に記載のコンピューティングデバイス。
付記15.
コンピュータデバイスは、デスクトップコンピュータ、ノートブックコンピュータ、タブレットコンピュータ、電子ブックリーダー、スマートフォン、ビデオゲーミングコンソールもしくはコントローラ、テレビ、テレビ用リモコン、テレビ用セットトップボックス、またはポータブルメディアプレーヤーのうちの少なくとも1つである、請求項12に記載のコンピューティングデバイス。
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[1]方法であって、
実行可能命令とともに構成される1つ以上のコンピュータシステムの制御下で、
コンピューティングデバイスのカメラを使用してユーザの少なくとも一部分の画像を取り込むことと、
前記ユーザの注視方向を決定するために、前記コンピューティングデバイスのプロセッサを使用して前記画像を解析することと、
前記コンピューティングデバイスのタッチ画面上での前記ユーザからのタッチジェスチャーを検出することと、
前記タッチジェスチャーの検出中に、前記ユーザの前記注視方向が前記表示画面と交差したときに、前記コンピューティングデバイスをロックされた動作状態からロック解除された動作状態に変更させることと、を含む、方法。
[2]前記タッチジェスチャーは、前記コンピューティングデバイスの前記タッチ画面上のタップまたはスワイプのうちの少なくとも1つである、[1]に記載の方法。
[3]前記カメラは、前記コンピューティングデバイスの少なくとも1つの赤外線(IR)エミッタからの、前記ユーザによって反射された光を検出するように動作可能な、少なくとも1つのIRセンサを含む、[1]に記載の方法。
[4]前記ユーザの眼球の少なくとも1つを表す情報が、許可されたユーザについて記憶された情報にマッチするかどうかを判定するために、虹彩認識、網膜走査、または顔認識のうちの少なくとも1つを行うことをさらに含む、[1]に記載の方法。
[5]方法であって、
実行可能命令とともに構成される1つ以上のコンピュータシステムの制御下で、
コンピューティングデバイスの少なくとも1つのカメラを使用して取り込まれた1つ以上の画像を解析することによって、ユーザの注視方向を決定することと、
前記コンピューティングデバイスへの入力を受け取ることと、
前記コンピューティングデバイスへの前記入力を受け取った時点で、前記ユーザの前記注視方向が前記コンピューティングデバイスに向いているときに、前記コンピューティングデバイスをロックされた動作状態からロック解除された動作状態に変更させることと、を含む、方法。
[6]前記コンピューティングデバイスは、デスクトップコンピュータ、ノートブックコンピュータ、タブレットコンピュータ、電子ブックリーダー、スマートフォン、ビデオゲーミングコンソールもしくはコントローラ、テレビ、テレビ用リモコン、テレビ用セットトップボックス、またはポータブルメディアプレーヤーのうちの少なくとも1つである、[5]に記載の方法。
[7]前記少なくとも1つのカメラは、前記コンピューティングデバイスの少なくとも1つの赤外線(IR)エミッタからの、前記ユーザによって反射された光を検出するように動作可能な、少なくとも1つのIRセンサを含む、[5]に記載の方法。
[8]ジャイロスコープまたは加速度計のうちの少なくとも1つが行動の変化を検出したときに、前記ユーザの前記注視方向を決定するために、画像取り込みモードを起動させることをさらに含む、[5]に記載の方法。
[9]前記入力は、音声コマンド、空中ジェスチャー、前記コンピューティングデバイスのタッチ画面上のタップ、または前記コンピューティングデバイスの前記タッチ画面上のスワイプのうちの少なくとも1つである、[5]に記載の方法。
[10]注視方向を決定することは、前記コンピューティングデバイスの画像取り込みシーケンスを開始することを含み、前記開始することは、加速度計から入力を受け取ることに応じて、または照明の変化に応じて、定期的に起こるように構成される、[5]に記載の方法。
[11]前記ユーザの眼球の少なくとも1つを表す情報が、許可されたユーザについて記憶された情報にマッチするかどうかを判定するために、虹彩認識、網膜走査、または顔認識のうちの少なくとも1つを行うことをさらに含む、[5]に記載の方法。
[12]コンピューティングデバイスであって、
デバイスプロセッサと、
表示画面と、
メモリデバイスであって、前記プロセッサによって実行されて、1組の動作を行い、前記コンピューティングデバイスが、
前記コンピューティングデバイスの少なくとも1つのカメラを使用して取り込まれた1つ以上の画像を解析することによって、ユーザの注視方向を決定すること、および
前記ユーザの前記注視方向が前記コンピューティングデバイスに向いているときに、前記コンピューティングデバイスをロックされた動作状態からロック解除された動作状態に変更させること、を可能にするように動作可能な命令を含む、メモリデバイスと、を備える、コンピューティングデバイス。
[13]前記少なくとも1つのカメラは、前記コンピューティングデバイスの少なくとも1つの赤外線(IR)エミッタからの、前記ユーザによって反射された光を検出するように動作可能な、少なくとも1つのIRセンサを含む、[12]に記載のコンピューティングデバイス。
[14]前記コンピューティングデバイスは、前記ユーザの前記注視方向が前記コンピューティングデバイスに向いていないときに、前記ユーザからの入力を無視する、[12]に記載のコンピューティングデバイス。
[15]前記コンピューティングデバイスは、デスクトップコンピュータ、ノートブックコンピュータ、タブレットコンピュータ、電子ブックリーダー、スマートフォン、ビデオゲーミングコンソールもしくはコントローラ、テレビ、テレビ用リモコン、テレビ用セットトップボックス、またはポータブルメディアプレーヤーのうちの少なくとも1つである、[12]に記載のコンピューティングデバイス。

Claims (15)

  1. 方法であって、
    実行可能命令とともに構成される1つ以上のコンピュータシステムの制御下で、
    コンピューティングデバイスのカメラを使用してユーザの少なくとも一部分の画像を取り込むことと、
    前記ユーザの注視方向を決定するために、前記コンピューティングデバイスのプロセッサを使用して前記画像を解析することと、
    前記コンピューティングデバイスのタッチ画面上での前記ユーザからのタッチジェスチャーを検出することと、
    前記タッチジェスチャーの検出中に、前記ユーザの前記注視方向が前記表示画面と交差したときに、前記コンピューティングデバイスをロックされた動作状態からロック解除された動作状態に変更させることと、を含む、方法。
  2. 前記タッチジェスチャーは、前記コンピューティングデバイスの前記タッチ画面上のタップまたはスワイプのうちの少なくとも1つである、請求項1に記載の方法。
  3. 前記カメラは、前記コンピューティングデバイスの少なくとも1つの赤外線(IR)エミッタからの、前記ユーザによって反射された光を検出するように動作可能な、少なくとも1つのIRセンサを含む、請求項1に記載の方法。
  4. 前記ユーザの眼球の少なくとも1つを表す情報が、許可されたユーザについて記憶された情報にマッチするかどうかを判定するために、虹彩認識、網膜走査、または顔認識のうちの少なくとも1つを行うことをさらに含む、請求項1に記載の方法。
  5. 方法であって、
    実行可能命令とともに構成される1つ以上のコンピュータシステムの制御下で、
    コンピューティングデバイスの少なくとも1つのカメラを使用して取り込まれた1つ以上の画像を解析することによって、ユーザの注視方向を決定することと、
    前記コンピューティングデバイスへの入力を受け取ることと、
    前記コンピューティングデバイスへの前記入力を受け取った時点で、前記ユーザの前記注視方向が前記コンピューティングデバイスに向いているときに、前記コンピューティングデバイスをロックされた動作状態からロック解除された動作状態に変更させることと、を含む、方法。
  6. 前記コンピューティングデバイスは、デスクトップコンピュータ、ノートブックコンピュータ、タブレットコンピュータ、電子ブックリーダー、スマートフォン、ビデオゲーミングコンソールもしくはコントローラ、テレビ、テレビ用リモコン、テレビ用セットトップボックス、またはポータブルメディアプレーヤーのうちの少なくとも1つである、請求項5に記載の方法。
  7. 前記少なくとも1つのカメラは、前記コンピューティングデバイスの少なくとも1つの赤外線(IR)エミッタからの、前記ユーザによって反射された光を検出するように動作可能な、少なくとも1つのIRセンサを含む、請求項5に記載の方法。
  8. ジャイロスコープまたは加速度計のうちの少なくとも1つが行動の変化を検出したときに、前記ユーザの前記注視方向を決定するために、画像取り込みモードを起動させることをさらに含む、請求項5に記載の方法。
  9. 前記入力は、音声コマンド、空中ジェスチャー、前記コンピューティングデバイスのタッチ画面上のタップ、または前記コンピューティングデバイスの前記タッチ画面上のスワイプのうちの少なくとも1つである、請求項5に記載の方法。
  10. 注視方向を決定することは、前記コンピューティングデバイスの画像取り込みシーケンスを開始することを含み、前記開始することは、加速度計から入力を受け取ることに応じて、または照明の変化に応じて、定期的に起こるように構成される、請求項5に記載の方法。
  11. 前記ユーザの眼球の少なくとも1つを表す情報が、許可されたユーザについて記憶された情報にマッチするかどうかを判定するために、虹彩認識、網膜走査、または顔認識のうちの少なくとも1つを行うことをさらに含む、請求項5に記載の方法。
  12. コンピューティングデバイスであって、
    デバイスプロセッサと、
    表示画面と、
    メモリデバイスであって、前記プロセッサによって実行されて、1組の動作を行い、前記コンピューティングデバイスが、
    前記コンピューティングデバイスの少なくとも1つのカメラを使用して取り込まれた1つ以上の画像を解析することによって、ユーザの注視方向を決定すること、および
    前記ユーザの前記注視方向が前記コンピューティングデバイスに向いているときに、前記コンピューティングデバイスをロックされた動作状態からロック解除された動作状態に変更させること、を可能にするように動作可能な命令を含む、メモリデバイスと、を備える、コンピューティングデバイス。
  13. 前記少なくとも1つのカメラは、前記コンピューティングデバイスの少なくとも1つの赤外線(IR)エミッタからの、前記ユーザによって反射された光を検出するように動作可能な、少なくとも1つのIRセンサを含む、請求項12に記載のコンピューティングデバイス。
  14. 前記コンピューティングデバイスは、前記ユーザの前記注視方向が前記コンピューティングデバイスに向いていないときに、前記ユーザからの入力を無視する、請求項12に記載のコンピューティングデバイス。
  15. 前記コンピューティングデバイスは、デスクトップコンピュータ、ノートブックコンピュータ、タブレットコンピュータ、電子ブックリーダー、スマートフォン、ビデオゲーミングコンソールもしくはコントローラ、テレビ、テレビ用リモコン、テレビ用セットトップボックス、またはポータブルメディアプレーヤーのうちの少なくとも1つである、請求項12に記載のコンピューティングデバイス。
JP2017195726A 2012-06-25 2017-10-06 注視決定とデバイス入力との使用 Active JP6542324B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/532,304 2012-06-25
US13/532,304 US20130342672A1 (en) 2012-06-25 2012-06-25 Using gaze determination with device input

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015520414A Division JP2015525918A (ja) 2012-06-25 2013-06-25 注視決定とデバイス入力との使用

Publications (2)

Publication Number Publication Date
JP2018041477A true JP2018041477A (ja) 2018-03-15
JP6542324B2 JP6542324B2 (ja) 2019-07-10

Family

ID=49774122

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2015520414A Withdrawn JP2015525918A (ja) 2012-06-25 2013-06-25 注視決定とデバイス入力との使用
JP2017195726A Active JP6542324B2 (ja) 2012-06-25 2017-10-06 注視決定とデバイス入力との使用

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2015520414A Withdrawn JP2015525918A (ja) 2012-06-25 2013-06-25 注視決定とデバイス入力との使用

Country Status (5)

Country Link
US (1) US20130342672A1 (ja)
EP (1) EP2864978A4 (ja)
JP (2) JP2015525918A (ja)
CN (1) CN104662600B (ja)
WO (1) WO2014004584A2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7275239B1 (ja) 2021-12-08 2023-05-17 レノボ・シンガポール・プライベート・リミテッド 電子機器、及び制御方法
JP7354376B1 (ja) * 2022-07-26 2023-10-02 レノボ・シンガポール・プライベート・リミテッド 情報処理装置、及び制御方法
JP7389270B2 (ja) 2020-03-27 2023-11-29 アップル インコーポレイテッド 視線ベースのナビゲーションのためのデバイス、方法、及びグラフィカルユーザインタフェース
US11972043B2 (en) 2014-06-19 2024-04-30 Apple Inc. User detection by a computing device

Families Citing this family (172)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US8782775B2 (en) 2007-09-24 2014-07-15 Apple Inc. Embedded authentication systems in an electronic device
US8600120B2 (en) 2008-01-03 2013-12-03 Apple Inc. Personal computing device control using face detection and recognition
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
US10706373B2 (en) 2011-06-03 2020-07-07 Apple Inc. Performing actions associated with task items that represent tasks to perform
US9002322B2 (en) 2011-09-29 2015-04-07 Apple Inc. Authentication with secondary approver
US10417037B2 (en) 2012-05-15 2019-09-17 Apple Inc. Systems and methods for integrating third party services with a digital assistant
US9575960B1 (en) * 2012-09-17 2017-02-21 Amazon Technologies, Inc. Auditory enhancement using word analysis
US9406103B1 (en) 2012-09-26 2016-08-02 Amazon Technologies, Inc. Inline message alert
KR20140042280A (ko) * 2012-09-28 2014-04-07 엘지전자 주식회사 포터블 디바이스 및 그 제어 방법
US8990843B2 (en) 2012-10-26 2015-03-24 Mobitv, Inc. Eye tracking based defocusing
US9092600B2 (en) * 2012-11-05 2015-07-28 Microsoft Technology Licensing, Llc User authentication on augmented reality display device
KR102206044B1 (ko) * 2012-12-10 2021-01-21 삼성전자주식회사 뱅글 타입의 모바일 디바이스와 그 제어 방법 및 ui 표시 방법
EP3617843A1 (en) * 2012-12-10 2020-03-04 Samsung Electronics Co., Ltd. Mobile device, control method thereof, and ui display method
US9996150B2 (en) * 2012-12-19 2018-06-12 Qualcomm Incorporated Enabling augmented reality using eye gaze tracking
CN103902027A (zh) * 2012-12-26 2014-07-02 鸿富锦精密工业(深圳)有限公司 智能切换装置及其智能切换方法和系统
US20140191939A1 (en) * 2013-01-09 2014-07-10 Microsoft Corporation Using nonverbal communication in determining actions
DE212014000045U1 (de) 2013-02-07 2015-09-24 Apple Inc. Sprach-Trigger für einen digitalen Assistenten
US9274599B1 (en) * 2013-02-11 2016-03-01 Google Inc. Input detection
US9395816B2 (en) * 2013-02-28 2016-07-19 Lg Electronics Inc. Display device for selectively outputting tactile feedback and visual feedback and method for controlling the same
US10652394B2 (en) 2013-03-14 2020-05-12 Apple Inc. System and method for processing voicemail
US10748529B1 (en) 2013-03-15 2020-08-18 Apple Inc. Voice activated device for use with a voice-based digital assistant
US9671864B2 (en) 2013-03-21 2017-06-06 Chian Chiu Li System and methods for providing information
US9075435B1 (en) * 2013-04-22 2015-07-07 Amazon Technologies, Inc. Context-aware notifications
KR101440274B1 (ko) * 2013-04-25 2014-09-17 주식회사 슈프리마 얼굴 인식 서비스 제공 장치 및 방법
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
US20140368432A1 (en) * 2013-06-17 2014-12-18 Tencent Technology (Shenzhen) Company Limited Wearable smart glasses as well as device and method for controlling the same
KR102160767B1 (ko) * 2013-06-20 2020-09-29 삼성전자주식회사 제스처를 감지하여 기능을 제어하는 휴대 단말 및 방법
JP6295534B2 (ja) * 2013-07-29 2018-03-20 オムロン株式会社 プログラマブル表示器、制御方法、およびプログラム
US9495125B2 (en) 2013-08-13 2016-11-15 Beijing Lenovo Software Ltd. Electronic device and display method
US9898037B2 (en) 2013-08-13 2018-02-20 Beijing Lenovo Software Ltd. Electronic device and display method
US9519142B2 (en) * 2013-08-13 2016-12-13 Beijing Lenovo Software Ltd. Electronic device and display method
US10108258B2 (en) * 2013-09-06 2018-10-23 Intel Corporation Multiple viewpoint image capture of a display user
US9898642B2 (en) 2013-09-09 2018-02-20 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs
US20150085057A1 (en) * 2013-09-25 2015-03-26 Cisco Technology, Inc. Optimized sharing for mobile clients on virtual conference
US20150123901A1 (en) * 2013-11-04 2015-05-07 Microsoft Corporation Gesture disambiguation using orientation information
DE102013226244A1 (de) * 2013-12-17 2015-06-18 Siemens Aktiengesellschaft Medizintechnische Steuerung
WO2015133700A1 (ko) * 2014-03-06 2015-09-11 에스케이플래닛 주식회사 눈동자 위치에 기반한 잠금 해제를 수행하는 사용자 장치, 눈동자 위치에 기반한 사용자 장치의 잠금 해제 방법 및 컴퓨터 프로그램이 기록된 기록매체
KR102224933B1 (ko) * 2014-03-07 2021-03-08 에스케이플래닛 주식회사 눈동자 위치에 기반한 잠금 해제를 수행하는 사용자 장치, 눈동자 위치에 기반한 사용자 장치의 잠금 해제 방법 및 컴퓨터 프로그램이 기록된 기록매체
KR102224934B1 (ko) * 2014-03-06 2021-03-08 에스케이플래닛 주식회사 눈동자 위치 및 정지 시간에 기반한 잠금 해제를 수행하는 사용자 장치, 눈동자 위치 및 정지 시간에 기반한 사용자 장치의 잠금 해제 방법 및 컴퓨터 프로그램이 기록된 기록매체
JP6197702B2 (ja) * 2014-03-10 2017-09-20 富士通株式会社 入力方法,プログラム及び入力装置
JP6650193B2 (ja) * 2014-03-13 2020-02-19 株式会社三菱Ufj銀行 携帯端末および情報提供装置
JP5928551B2 (ja) * 2014-04-01 2016-06-01 カシオ計算機株式会社 情報処理システム、情報機器、装着型情報機器、情報機器の機能実行方法、装着型情報機器の情報通知方法、装着型情報機器の情報機器制御方法、装着型情報機器の画像送信方法、及びプログラム
US10482461B2 (en) 2014-05-29 2019-11-19 Apple Inc. User interface for payments
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
WO2015184186A1 (en) 2014-05-30 2015-12-03 Apple Inc. Multi-command single utterance input method
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US9918020B2 (en) * 2014-06-25 2018-03-13 Google Llc User portable device having floating sensor assembly to maintain fixed geometric configuration of sensors
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US9645641B2 (en) 2014-08-01 2017-05-09 Microsoft Technology Licensing, Llc Reflection-based control activation
US11256792B2 (en) 2014-08-28 2022-02-22 Facetec, Inc. Method and apparatus for creation and use of digital identification
CA2902093C (en) * 2014-08-28 2023-03-07 Kevin Alan Tussy Facial recognition authentication system including path parameters
US10698995B2 (en) 2014-08-28 2020-06-30 Facetec, Inc. Method to verify identity using a previously collected biometric image/data
US10803160B2 (en) 2014-08-28 2020-10-13 Facetec, Inc. Method to verify and identify blockchain with user question data
US10614204B2 (en) 2014-08-28 2020-04-07 Facetec, Inc. Facial recognition authentication system including path parameters
US10915618B2 (en) 2014-08-28 2021-02-09 Facetec, Inc. Method to add remotely collected biometric images / templates to a database record of personal information
CN105487767A (zh) * 2014-09-16 2016-04-13 中兴通讯股份有限公司 终端设备解锁方法及装置
US9948770B2 (en) 2014-10-07 2018-04-17 Microsoft Technology Licensing, Llc Providing sender identification information
CN104391646B (zh) * 2014-11-19 2017-12-26 百度在线网络技术(北京)有限公司 调整对象属性信息的方法及装置
US10068127B2 (en) * 2014-12-19 2018-09-04 Iris Id, Inc. Automatic detection of face and thereby localize the eye region for iris recognition
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
CN107408171B (zh) 2015-03-17 2020-11-24 微软技术许可有限责任公司 基于生物测定用户认证有选择地在锁屏上提供个人信息和对功能的访问
US10678897B2 (en) 2015-04-16 2020-06-09 Tobii Ab Identification, authentication, and/or guiding of a user using gaze information
KR20170138475A (ko) * 2015-04-16 2017-12-15 토비 에이비 시선 정보를 사용하는 사용자의 식별 및/또는 인증
US10200824B2 (en) 2015-05-27 2019-02-05 Apple Inc. Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device
CN106293039B (zh) * 2015-06-17 2019-04-12 北京智谷睿拓技术服务有限公司 设备间的交互方法以及用户设备
CN106325468B (zh) 2015-06-17 2019-09-10 北京智谷睿拓技术服务有限公司 设备间的交互方法以及用户设备
CN106293040B (zh) 2015-06-17 2019-04-16 北京智谷睿拓技术服务有限公司 设备间的交互方法以及近眼设备
US20160378747A1 (en) 2015-06-29 2016-12-29 Apple Inc. Virtual assistant for media playback
JP6578797B2 (ja) * 2015-08-06 2019-09-25 オムロン株式会社 操作装置およびx線撮影ユニット
KR101696602B1 (ko) * 2015-08-11 2017-01-23 주식회사 슈프리마 제스처를 이용한 생체 인증
US10331312B2 (en) 2015-09-08 2019-06-25 Apple Inc. Intelligent automated assistant in a media environment
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10740384B2 (en) 2015-09-08 2020-08-11 Apple Inc. Intelligent automated assistant for media search and playback
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US9830708B1 (en) * 2015-10-15 2017-11-28 Snap Inc. Image segmentation of a video stream
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10956666B2 (en) 2015-11-09 2021-03-23 Apple Inc. Unconventional virtual assistant interactions
KR102402829B1 (ko) * 2015-11-10 2022-05-30 삼성전자 주식회사 사용자 인증 방법 및 이를 지원하는 전자 장치
TWI574171B (zh) * 2015-12-01 2017-03-11 由田新技股份有限公司 動態圖形的眼動認證系統、方法、電腦可讀取紀錄媒體及電腦程式產品
US9990921B2 (en) * 2015-12-09 2018-06-05 Lenovo (Singapore) Pte. Ltd. User focus activated voice recognition
US9841813B2 (en) 2015-12-22 2017-12-12 Delphi Technologies, Inc. Automated vehicle human-machine interface system based on glance-direction
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
JP2017151556A (ja) * 2016-02-22 2017-08-31 富士通株式会社 電子機器、認証方法および認証プログラム
CN106055938A (zh) * 2016-03-01 2016-10-26 北京佳拓思科技有限公司 一种基于光的解锁装置
US10733275B1 (en) * 2016-04-01 2020-08-04 Massachusetts Mutual Life Insurance Company Access control through head imaging and biometric authentication
US10956544B1 (en) 2016-04-01 2021-03-23 Massachusetts Mutual Life Insurance Company Access control through head imaging and biometric authentication
CN107305434A (zh) * 2016-04-25 2017-10-31 中兴通讯股份有限公司 按键操作的识别方法和装置
USD987653S1 (en) 2016-04-26 2023-05-30 Facetec, Inc. Display screen or portion thereof with graphical user interface
DK179186B1 (en) 2016-05-19 2018-01-15 Apple Inc REMOTE AUTHORIZATION TO CONTINUE WITH AN ACTION
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
KR20180006087A (ko) * 2016-07-08 2018-01-17 삼성전자주식회사 사용자의 의도에 기반한 홍채 인식 방법 및 이를 구현한 전자 장치
CN106178502A (zh) * 2016-08-10 2016-12-07 合肥泰壤信息科技有限公司 一种基于视觉与语音识别技术的游戏控制系统及方法
CN109791764A (zh) * 2016-09-01 2019-05-21 亚马逊技术公司 基于话音的通信
DK179978B1 (en) * 2016-09-23 2019-11-27 Apple Inc. IMAGE DATA FOR ENHANCED USER INTERACTIONS
US20180088665A1 (en) * 2016-09-26 2018-03-29 Lenovo (Singapore) Pte. Ltd. Eye tracking selection validation
CN106598445A (zh) * 2016-12-14 2017-04-26 北京小米移动软件有限公司 输出通讯消息的方法及装置
JP2018141965A (ja) * 2017-02-24 2018-09-13 株式会社半導体エネルギー研究所 情報端末、表示装置、および画像処理システム
US10726832B2 (en) 2017-05-11 2020-07-28 Apple Inc. Maintaining privacy of personal information
DK180048B1 (en) 2017-05-11 2020-02-04 Apple Inc. MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION
DK201770427A1 (en) 2017-05-12 2018-12-20 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
DK179948B1 (en) 2017-05-16 2019-10-22 Apple Inc. Recording and sending Emoji
KR20230144661A (ko) 2017-05-16 2023-10-16 애플 인크. 이모지 레코딩 및 전송
AU2018270420B2 (en) * 2017-05-16 2021-08-05 Apple Inc. Image data for enhanced user interactions
US20180336892A1 (en) 2017-05-16 2018-11-22 Apple Inc. Detecting a trigger of a digital assistant
US10303715B2 (en) 2017-05-16 2019-05-28 Apple Inc. Intelligent automated assistant for media exploration
CN108701043B (zh) 2017-06-05 2020-08-07 华为技术有限公司 一种显示的处理方法及装置
CN107341006B (zh) * 2017-06-21 2020-04-21 Oppo广东移动通信有限公司 锁屏壁纸推荐方法及相关产品
KR102185854B1 (ko) 2017-09-09 2020-12-02 애플 인크. 생체측정 인증의 구현
KR102301599B1 (ko) 2017-09-09 2021-09-10 애플 인크. 생체측정 인증의 구현
IL282574B2 (en) 2017-09-18 2023-10-01 Element Inc Methods, systems and media for detecting forgeries in mobile authentication
CN107679506A (zh) * 2017-10-12 2018-02-09 Tcl通力电子(惠州)有限公司 智能产品的唤醒方法、智能产品及计算机可读存储介质
US10768697B2 (en) 2017-11-02 2020-09-08 Chian Chiu Li System and method for providing information
US11423896B2 (en) * 2017-12-22 2022-08-23 Telefonaktiebolaget Lm Ericsson (Publ) Gaze-initiated voice control
US10818288B2 (en) 2018-03-26 2020-10-27 Apple Inc. Natural assistant interaction
CN108509782A (zh) * 2018-03-29 2018-09-07 维沃移动通信有限公司 一种人脸识别控制方法及移动终端
CN110580102B (zh) 2018-04-12 2021-09-24 Oppo广东移动通信有限公司 亮屏方法、装置、移动终端及存储介质
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
US11145294B2 (en) 2018-05-07 2021-10-12 Apple Inc. Intelligent automated assistant for delivering content from user experiences
DK179992B1 (en) 2018-05-07 2020-01-14 Apple Inc. DISPLAY OF USER INTERFACES ASSOCIATED WITH PHYSICAL ACTIVITIES
DK201870374A1 (en) 2018-05-07 2019-12-04 Apple Inc. AVATAR CREATION USER INTERFACE
US10892996B2 (en) 2018-06-01 2021-01-12 Apple Inc. Variable latency device coordination
DK179822B1 (da) 2018-06-01 2019-07-12 Apple Inc. Voice interaction at a primary device to access call functionality of a companion device
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
US11170085B2 (en) 2018-06-03 2021-11-09 Apple Inc. Implementation of biometric authentication
EP3803540B1 (en) * 2018-06-11 2023-05-24 Brainlab AG Gesture control of medical displays
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
US11100349B2 (en) 2018-09-28 2021-08-24 Apple Inc. Audio assisted enrollment
US10860096B2 (en) 2018-09-28 2020-12-08 Apple Inc. Device control using gaze information
CN109544519B (zh) * 2018-11-08 2020-09-25 顺德职业技术学院 一种基于检测装置下的图片合成方法
US10789952B2 (en) 2018-12-20 2020-09-29 Microsoft Technology Licensing, Llc Voice command execution from auxiliary input
US11107261B2 (en) 2019-01-18 2021-08-31 Apple Inc. Virtual avatar animation based on facial feature movement
WO2020171098A1 (ja) * 2019-02-19 2020-08-27 株式会社Nttドコモ 視線とジェスチャを用いた情報表示装置
EP3938953A4 (en) 2019-03-12 2022-12-28 Element, Inc. FACIAL RECOGNITION SPOOFING DETECTION WITH MOBILE DEVICES
CN110058777B (zh) * 2019-03-13 2022-03-29 华为技术有限公司 快捷功能启动的方法及电子设备
US11348573B2 (en) 2019-03-18 2022-05-31 Apple Inc. Multimodality in digital assistant systems
JP2019179553A (ja) * 2019-04-24 2019-10-17 株式会社三菱Ufj銀行 携帯端末および情報提供装置
JP7317162B2 (ja) * 2019-04-24 2023-07-28 株式会社三菱Ufj銀行 携帯端末、情報表示方法および情報処理システム
JP7212743B2 (ja) * 2019-04-24 2023-01-25 株式会社三菱Ufj銀行 携帯端末およびプログラム
US10852822B2 (en) 2019-05-01 2020-12-01 Aptiv Technologies Limited Display method
DK201970509A1 (en) 2019-05-06 2021-01-15 Apple Inc Spoken notifications
US11307752B2 (en) 2019-05-06 2022-04-19 Apple Inc. User configurable task triggers
DK201970530A1 (en) 2019-05-06 2021-01-28 Apple Inc Avatar integration with multiple applications
US20200353868A1 (en) * 2019-05-07 2020-11-12 Gentex Corporation Eye gaze based liveliness and multi-factor authentication process
US11140099B2 (en) 2019-05-21 2021-10-05 Apple Inc. Providing message response suggestions
DK180129B1 (en) 2019-05-31 2020-06-02 Apple Inc. USER ACTIVITY SHORTCUT SUGGESTIONS
DK201970510A1 (en) 2019-05-31 2021-02-11 Apple Inc Voice identification in digital assistant systems
US11227599B2 (en) 2019-06-01 2022-01-18 Apple Inc. Methods and user interfaces for voice-based control of electronic devices
US10812783B1 (en) 2019-08-01 2020-10-20 International Business Machines Corporation Managing information display of a display system
US11507248B2 (en) 2019-12-16 2022-11-22 Element Inc. Methods, systems, and media for anti-spoofing using eye-tracking
US11183193B1 (en) 2020-05-11 2021-11-23 Apple Inc. Digital assistant hardware abstraction
US11061543B1 (en) 2020-05-11 2021-07-13 Apple Inc. Providing relevant data items based on context
US20230176648A1 (en) * 2020-05-19 2023-06-08 Telefonaktiebolaget Lm Ericsson (Publ) Personal Device Activation and Unlocking Using Gaze Tracking
JP2023529126A (ja) 2020-06-08 2023-07-07 アップル インコーポレイテッド 三次元環境におけるアバターの提示
US11513604B2 (en) 2020-06-17 2022-11-29 Motorola Mobility Llc Selectable response options displayed based-on device grip position
US11490204B2 (en) 2020-07-20 2022-11-01 Apple Inc. Multi-device audio adjustment coordination
US11438683B2 (en) 2020-07-21 2022-09-06 Apple Inc. User identification using headphones
US11543860B2 (en) 2020-07-30 2023-01-03 Motorola Mobility Llc Adaptive grip suppression tuning
US11595511B2 (en) 2020-07-30 2023-02-28 Motorola Mobility Llc Adaptive grip suppression within curved display edges
CN112040070B (zh) * 2020-08-31 2022-09-09 的卢技术有限公司 一种结合识别用户当前使用设备的信息传输方法
CN116112597B (zh) * 2020-09-03 2023-10-20 荣耀终端有限公司 具有灭屏显示功能的电子设备及其显示灭屏界面的方法、存储介质
US11287972B1 (en) 2020-09-18 2022-03-29 Motorola Mobility Llc Selectable element selection within a curved display edge
US11508276B2 (en) 2020-09-18 2022-11-22 Motorola Mobility Llc Adaptive user interface display size for curved display edges
US11573620B2 (en) 2021-04-20 2023-02-07 Chian Chiu Li Systems and methods for providing information and performing task
US11981288B2 (en) * 2021-08-24 2024-05-14 Ford Global Technologies, Llc Activating vehicle components based on intent of individual near vehicle
CN113687899A (zh) * 2021-08-25 2021-11-23 读书郎教育科技有限公司 一种解决查看通知与人脸解锁冲突的方法及设备
US11726734B2 (en) 2022-01-13 2023-08-15 Motorola Mobility Llc Configuring an external presentation device based on an impairment of a user

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100079508A1 (en) * 2008-09-30 2010-04-01 Andrew Hodge Electronic devices with gaze detection capabilities
JP2010541046A (ja) * 2007-09-24 2010-12-24 アップル インコーポレイテッド 電子デバイスに組み込まれた認証システム
US20110151934A1 (en) * 2009-12-23 2011-06-23 Sony Ericsson Mobile Communications Ab Automatic Keypad Unlocking Method and Apparatus for Mobile Terminal
US20110302538A1 (en) * 2010-06-03 2011-12-08 Vennelakanti Ramadevi System and method for distinguishing multimodal commands directed at a machine from ambient human communications

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0918775A (ja) * 1995-06-27 1997-01-17 Canon Inc 視線入力装置
US5689619A (en) * 1996-08-09 1997-11-18 The United States Of America As Represented By The Secretary Of The Army Eyetracker control of heads-up displays
JPH11353118A (ja) * 1998-06-08 1999-12-24 Ntt Data Corp 情報入力装置
US20070078552A1 (en) * 2006-01-13 2007-04-05 Outland Research, Llc Gaze-based power conservation for portable media players
JP2004013947A (ja) * 2002-06-04 2004-01-15 Victor Co Of Japan Ltd 情報記録担体、再生装置、記録装置、記録再生装置、再生方法、記録方法及び記録再生方法
US9274598B2 (en) * 2003-08-25 2016-03-01 International Business Machines Corporation System and method for selecting and activating a target object using a combination of eye gaze and key presses
US7091471B2 (en) * 2004-03-15 2006-08-15 Agilent Technologies, Inc. Using eye detection for providing control and power management of electronic devices
JP4686708B2 (ja) * 2005-02-28 2011-05-25 国立大学法人神戸大学 ポインティングシステム及びポインティング方法
US7438414B2 (en) 2005-07-28 2008-10-21 Outland Research, Llc Gaze discriminating electronic control apparatus, system, method and computer program product
JP2007102415A (ja) * 2005-10-03 2007-04-19 Nec Corp 2つの入力モードを有する携帯端末、プログラム及び携帯端末への指令入力方法
WO2009073584A1 (en) * 2007-11-29 2009-06-11 Oculis Labs, Inc. Method and apparatus for display of secure visual content
US20090273562A1 (en) * 2008-05-02 2009-11-05 International Business Machines Corporation Enhancing computer screen security using customized control of displayed content area
WO2010024415A1 (ja) * 2008-08-28 2010-03-04 京セラ株式会社 通信機器
US8160311B1 (en) * 2008-09-26 2012-04-17 Philip Raymond Schaefer System and method for detecting facial gestures for control of an electronic device
WO2010095075A1 (en) * 2009-02-20 2010-08-26 Koninklijke Philips Electronics N.V. System, method and apparatus for causing a device to enter an active mode
JP5299866B2 (ja) * 2009-05-19 2013-09-25 日立コンシューマエレクトロニクス株式会社 映像表示装置
KR101596890B1 (ko) * 2009-07-29 2016-03-07 삼성전자주식회사 사용자의 시선 정보를 이용한 디지털 오브젝트 탐색 장치 및 방법
US8698845B2 (en) * 2010-01-06 2014-04-15 Apple Inc. Device, method, and graphical user interface with interactive popup views
JP2011217146A (ja) * 2010-03-31 2011-10-27 Ntt Docomo Inc 携帯端末、及び、携帯端末の表示制御方法
US8982160B2 (en) * 2010-04-16 2015-03-17 Qualcomm, Incorporated Apparatus and methods for dynamically correlating virtual keyboard dimensions to user finger size
JP2012022589A (ja) * 2010-07-16 2012-02-02 Hitachi Ltd 商品選択支援方法
US8854318B2 (en) * 2010-09-01 2014-10-07 Nokia Corporation Mode switching
KR101295583B1 (ko) * 2010-09-13 2013-08-09 엘지전자 주식회사 이동 단말기 및 그 동작 제어 방법
US8594374B1 (en) * 2011-03-30 2013-11-26 Amazon Technologies, Inc. Secure device unlock with gaze calibration
US10013053B2 (en) * 2012-01-04 2018-07-03 Tobii Ab System for gaze interaction
WO2013144807A1 (en) * 2012-03-26 2013-10-03 Primesense Ltd. Enhanced virtual touchpad and touchscreen
US20130271355A1 (en) * 2012-04-13 2013-10-17 Nokia Corporation Multi-segment wearable accessory

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010541046A (ja) * 2007-09-24 2010-12-24 アップル インコーポレイテッド 電子デバイスに組み込まれた認証システム
US20100079508A1 (en) * 2008-09-30 2010-04-01 Andrew Hodge Electronic devices with gaze detection capabilities
US20110151934A1 (en) * 2009-12-23 2011-06-23 Sony Ericsson Mobile Communications Ab Automatic Keypad Unlocking Method and Apparatus for Mobile Terminal
US20110302538A1 (en) * 2010-06-03 2011-12-08 Vennelakanti Ramadevi System and method for distinguishing multimodal commands directed at a machine from ambient human communications

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11972043B2 (en) 2014-06-19 2024-04-30 Apple Inc. User detection by a computing device
JP7389270B2 (ja) 2020-03-27 2023-11-29 アップル インコーポレイテッド 視線ベースのナビゲーションのためのデバイス、方法、及びグラフィカルユーザインタフェース
JP7275239B1 (ja) 2021-12-08 2023-05-17 レノボ・シンガポール・プライベート・リミテッド 電子機器、及び制御方法
JP2023084910A (ja) * 2021-12-08 2023-06-20 レノボ・シンガポール・プライベート・リミテッド 電子機器、及び制御方法
JP7354376B1 (ja) * 2022-07-26 2023-10-02 レノボ・シンガポール・プライベート・リミテッド 情報処理装置、及び制御方法

Also Published As

Publication number Publication date
EP2864978A4 (en) 2016-02-24
CN104662600B (zh) 2018-02-16
EP2864978A2 (en) 2015-04-29
WO2014004584A3 (en) 2014-04-03
JP6542324B2 (ja) 2019-07-10
CN104662600A (zh) 2015-05-27
US20130342672A1 (en) 2013-12-26
JP2015525918A (ja) 2015-09-07
WO2014004584A2 (en) 2014-01-03

Similar Documents

Publication Publication Date Title
JP6542324B2 (ja) 注視決定とデバイス入力との使用
US9280652B1 (en) Secure device unlock with gaze calibration
US10242364B2 (en) Image analysis for user authentication
US11330012B2 (en) System, method, and device of authenticating a user based on selfie image or selfie video
US11170085B2 (en) Implementation of biometric authentication
US9706406B1 (en) Security measures for an electronic device
US10360360B2 (en) Systems and methods for controlling output of content based on human recognition data detection
US9049983B1 (en) Ear recognition as device input
JP6058626B2 (ja) 注視に基づくコンテンツディスプレイ
EP2707835B1 (en) Using spatial information with device interaction
US20160226865A1 (en) Motion based authentication systems and methods
US10223133B2 (en) Methods and systems for detecting a user and intelligently altering user device settings
US20150049017A1 (en) Gesture recognition for device input
JP2013186851A (ja) セキュリティを解除するための情報の入力が要求される情報処理装置及びログイン方法
US9645789B1 (en) Secure messaging
US9424416B1 (en) Accessing applications from secured states
US9697649B1 (en) Controlling access to a device
US11507646B1 (en) User authentication using video analysis
US11687632B2 (en) Display visibility block

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180711

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180821

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190514

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190612

R150 Certificate of patent or registration of utility model

Ref document number: 6542324

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250