JP2014516181A - 視線によるデバイスの挙動の変更 - Google Patents

視線によるデバイスの挙動の変更 Download PDF

Info

Publication number
JP2014516181A
JP2014516181A JP2014512880A JP2014512880A JP2014516181A JP 2014516181 A JP2014516181 A JP 2014516181A JP 2014512880 A JP2014512880 A JP 2014512880A JP 2014512880 A JP2014512880 A JP 2014512880A JP 2014516181 A JP2014516181 A JP 2014516181A
Authority
JP
Japan
Prior art keywords
sight
line
electronic device
user
mode
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014512880A
Other languages
English (en)
Other versions
JP6017545B2 (ja
Inventor
オスマン スティーブン
ロジャー スタッフォード ジェフリー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Sony Computer Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc, Sony Computer Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Publication of JP2014516181A publication Critical patent/JP2014516181A/ja
Application granted granted Critical
Publication of JP6017545B2 publication Critical patent/JP6017545B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3206Monitoring of events, devices or parameters that trigger a change in power modality
    • G06F1/3231Monitoring the presence, absence or movement of users
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3234Power saving characterised by the action undertaken
    • G06F1/325Power saving in peripheral device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3234Power saving characterised by the action undertaken
    • G06F1/325Power saving in peripheral device
    • G06F1/3265Power saving in display device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3234Power saving characterised by the action undertaken
    • G06F1/3287Power saving characterised by the action undertaken by switching off individual functional units in the computer system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/149Instrument input by detecting viewing direction not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Computing Systems (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Navigation (AREA)
  • Position Input By Displaying (AREA)

Abstract

電子デバイスの挙動を制御するための方法、デバイス、およびコンピュータプログラムが提示される。方法は、動作の第1のモードにおいて電子デバイスを動作させるための動作と、電子デバイスとインターフェースをとるユーザの視線を追跡するための動作と、を含む。電子デバイスは、視線が所定の対象の方へ向けられている限り、動作の第1のモードに維持される。別の動作では、視線が所定の対象の方へ向けられていることが検出されないとき、電子デバイスは、動作の第1のモードとは異なる動作の第2のモードにおいて動作される。

Description

本発明は、電子デバイスの挙動を制御するための方法に関するものであり、より詳細には、1人以上のユーザの視線に基づいてデバイスの挙動を制御するための方法およびシステムに関するものである。
電子デバイスは、日常生活にますます浸透してきている。デバイスには各種機能のセットあるいは特徴集合、いわゆるフィーチャセット(feature set:FS)が増え続けており、ユーザのために幅広い種類の機能およびオプションを提供する。オプションの数が増えるにつれ、ユーザが電子デバイスによって提供されたオプションの全てを選択し、その全てを通してナビゲートしようとする際に、その使いやすさがますます重要になっている。時には、オプションのいくつかは、デバイスの現在の環境上変化するものに起因して利用可能でさえなく、しかも、ユーザは、更に、メニューオプションの複雑なツリーを提示される可能性がある。
例えば、全地球測位システム(GPS)デバイスにおけるオプションは、ユーザが、音声ナビゲーション支援(車の運転者のための言葉による指示)または運転者の近くに位置している表示部内に示される地図上の方向から選択することを可能にする。しかしながら、夜間にカーブのある道路上を運転しているユーザは、そのユーザは前方の道路に注意を集中しなければならないので、地図を追うことは困難である可能性がある。
視線検出の科学研究の進歩は、デバイスが、1人以上のユーザが一定の対象を現在見ているかどうかを判断することを可能にする。電子デバイスのユーザビリティおよび設定可能性を改善するために、より良いユーザインターフェースは、人間と機械との間の相互作用を改善させる直観的で使い易いインターフェースを生成するために、デバイスの状態のみならずユーザの状況を考慮に入れる必要がある。
以下の発明の実施形態は、このような状況の下になされたものである。
本発明の実施形態は、ユーザの視線方向に基づいて電子デバイスの挙動を制御するための方法およびシステムを提供する。本発明は、コンピュータ可読媒体上のプロセス、器具、システム、デバイスまたは方法などの、多数の手法において実施され得ることを理解されたい。本発明のいくつかの発明的実施形態は以下に記載される。
一実施形態では、方法は、動作の第1のモードにおいて電子デバイスを動作させるための動作と、電子デバイスとインターフェースをとるユーザの視線を追跡するための動作とを含む。電子デバイスは、視線が所定の対象の方へ向いている限り、動作の第1のモードに維持される。別の動作では、システムは、視線が所定の対象の方へ向いていないことを検出する。電子デバイスは、視線が所定の対象の方へ向いていないことを検出した後に、動作の第1のモードとは異なる動作の第2のモードにおいて動作される。
別の実施形態では、電子デバイスは視線検出モジュールおよびプロセッサを含む。視線検出モジュールは、電子デバイスとインターフェースをとるユーザの視線が所定の対象の方へ向いているかどうかを判断する。プロセッサは、電子デバイスについての動作の異なるモードをサポートし、動作のモードは、動作の第1のモードおよび第2のモードを含む。ユーザの視線が所定の対象の方へ向いている間、プロセッサは動作の第1のモードにおいて動作し、プロセッサは、視線検出モジュールが、ユーザの視線が所定の対象の方へ向いていないことを検出した後に、動作の第2のモードにおいて動作する。
更に別の実施形態では、非一時的コンピュータ可読記憶媒体内に組み込まれたコンピュータプログラムは、電子デバイスの挙動を制御するために、1つ以上のプロセッサによって実行されるときに、プログラム命令を含む。媒体に含まれるものは、動作の第1のモードにおいて電子デバイスを動作させるためのプログラム命令と、電子デバイスとインターフェースをとるユーザの視線を追跡するためのプログラム命令とである。更に、媒体はまた、視線が所定の対象の方へ向いている限り、動作の第1のモードに電子デバイスを維持するためのプログラム命令と、視線が所定の対象の方へ向いていないことを検出するためのプログラム命令とを含む。追加的なプログラム命令は、視線が所定の対象の方へ向いていないことを検出した後に、動作の第1のモードとは異なる動作の第2のモードにおける電子デバイスの動作を可能にする。
発明の他の態様は、例として発明の原理を例示する添付の図面と併用される、以下の発明を実施するための形態から明らかになるであろう。
本発明は、添付の図面と併用される以下の記載を参照にして、最も良く理解されるであろう。
一実施形態に係るユーザの視線に基づいて動作のモードを変えるナビゲーションシステムを例示する説明図である。 一実施形態に係るユーザの視線に基づいて動作のモードを変えるナビゲーションシステムを例示する説明図である。 一実施形態に係るユーザの視線に基づいて動作のモードを変えるナビゲーションシステムを例示する説明図である。 一実施形態に係る視線検出を用いる衝突回避システムを例示する説明図である。 一実施形態に係る視線検出を用いる衝突回避システムを例示する説明図である。 複数の視線検出部を備える視線検出システムの実施形態を例示する説明図である。 一実施形態に係るユーザが表示部から目をそらしているときに起動されるビデオレコーダを示す。 一実施形態に係るユーザが表示部から目をそらしているときに起動されるビデオレコーダを示す。 一実施形態に係る子供の視線によって挙動を変える玩具を描写する。 一実施形態に係る子供の視線によって挙動を変える玩具を描写する。 電話中のユーザの視線によって挙動を変える移動電話の実施形態を例示する説明図である。 電話中のユーザの視線によって挙動を変える移動電話の実施形態を例示する説明図である。 一実施形態に係るユーザの視線によって変わるピクチャー・イン・ピクチャー表示部の挙動を例示する説明図である。 一実施形態に係るユーザの視線によって変わるピクチャー・イン・ピクチャー表示部の挙動を例示する説明図である。 一実施形態に係る腕時計がユーザの視線を検出するときに、より明るく光る腕時計を描写する。 一実施形態に係るユーザの視線に基づいて表示部の範囲の可視性を増大するデバイスを例示する説明図である。 一実施形態に係るユーザの視線に基づくスクリーンセーバの動作を例示する説明図である。 一実施形態に係るユーザの視線に基づくスクリーンセーバの動作を例示する説明図である。 一実施形態に係るいくつかのユーザの視線の方向に応答するシステムを例示する説明図である。 一実施形態に係るいくつかのユーザの視線の方向に応答するシステムを例示する説明図である。 一実施形態に係る視線検出システムのアーキテクチャを描写する。 視線対象が電子デバイスの外側に位置する視線検出システムの別の実施形態を描写する。 発明の一実施形態に係る電子デバイスの挙動を制御するためのおよびアラームを生成するためのアルゴリズムのフローを示す。 発明の一実施形態に係る電子デバイスの挙動を制御するためのおよびアラームを生成するための代替アルゴリズムのフローを示す。 発明の実施形態についての異なる状態図を例示する説明図である。 発明の実施形態についての異なる状態図を例示する説明図である。 発明の実施形態についての異なる状態図を例示する説明図である。 発明の一実施形態に係る電子デバイスの挙動を制御するためのプロセスフローチャートである。 発明の実施形態を実施するためのコンピュータシステムの簡易概略図である。
以下の実施形態は、ユーザ視線情報を利用する電子デバイスの挙動を制御するための方法、コンピュータプログラム、および器具を記載する。しかしながら、本発明は、これらの特定の詳細のうちのいくつかまたは全てを使わずに実施されることが可能であることは、当業者にとって明らかであろう。他の例では、周知のプロセス動作は、不必要に本発明を不明瞭にしないために詳細に記載されていない。
図1Aから図1Cまでは、一実施形態に係るユーザの視線に基づいて動作のモードを変えるナビゲーションシステムを例示する。ユーザの視線は、ユーザの注目または意思の良い指標である。入力として視線情報を用いることは、コンピュータシステムがユーザのタスクについてのコンテキスト情報を得ることを可能にし、次いで、そのコンテキスト情報は、より直観的で知的であるインターフェースを設計するために活用され得る。正確さの増加および視線追跡システムの費用の低減に伴って、視線追跡は、広範囲の用途に使用され得る。
眼球の追跡、または視線追跡は、(「ユーザが見ている」)視線の点、または頭部に対する眼球の動きを測定するプロセスである。アイトラッカーは、眼球位置および眼球の動きを測定するためのデバイスである。眼球の動きおよび視線方向を測定するための多くの方法がある。いくつかの方法は、ビデオ画像を使用し、そのビデオ画像から眼球位置は抽出され、他の方法は、探りコイルを使用するか、あるいは電気眼球図に基づく。別の方法では、赤外光が、赤外線カメラまたは検出器を備えるデバイス、あるいは赤外線カメラまたは検出器と通信するデバイスによって放出される。赤外光は、ユーザの網膜から赤外線カメラまたは検出器の後方に反射される。後方に反射された赤外光の量は、エミッタに向けた人間の視線に基づいている。デバイス上のユーザの視線は、カメラまたは検出器上で受け取られる赤外光が、ある期間に一定閾値に一旦達すると、判断される。視線についてのわずかな喪失は、眼のまばたきと考えられ、無視される。
視線検出を用いて、デバイス、例えば、携帯型娯楽デバイス、車載ナビゲーションシステム、子供の玩具、TVなどは、どのくらいの注目がユーザから集められるかに基づいて、それの挙動を変えることができる。いくつかの実施形態では、デバイスは、ユーザがデバイスを見ているかどうかだけを知る必要があるが、デバイスはユーザの視線の精密な方向を知る必要はない。他の実施形態では、ユーザの視線の精密な方向は、デバイスの挙動を制御するために考慮される。発明の実施形態は、消費者向け電子デバイスが視線検出をうまく利用し、その電子デバイスによって集められた注目に基づいて機能性を調整することを可能にする。視線検出を利用することによって、デバイスは、ユーザにより直観的な相互作用をもたらし得、改良された体験を提供し得る。
図1Aに示される実施形態では、視線検出システムは、運転者102が表示部108を見ているかどうかを判断するために使用され、その表示部はカーナビゲーションシステムを含む。視線検出システムは、運転者102の眼球104の映像を捕えるカメラ106を含む。カメラ106および表示部108を含む視線検出システムは、運転者102の視線が表示部の方へ向いているかどうかを判断する。システムは、視線に従って挙動を変える。すなわち、視線が表示部の方へ向いているとき、カーナビゲーションシステムは、運転者が目的地に到着することを支援するために地図を表示し、視線が表示部の方へ向いていないとき、カーナビゲーションシステムは、可聴式に方向をユーザに提供する。
図1Bは、ユーザが表示部を見ているときに地図120を示すこと含む動作のモードを例示する。図1Bの例は、運転者によって行われる次の方向転換の地図内の車の位置、指標、矢印を示す。表示部上の追加情報は、次の交差点までの距離、目的地までの距離、道の名前などを含み得る。
図1Cは、運転者が地図を見ていないとき、例えば運転者が前方の道路を見ているときの、動作のモードを例示する。スピーカ132は、言葉による合図、例えば「50メートルで左折してください」、「次の交差点で右折してください」、「次の10マイルの間、ハイウェイ17を運転してください」などを運転者に送る。表示部130は、薄暗くされ得るかまたはオフにされ得、あるいは言葉による合図を視覚による合図として示し得る。視覚による合図は、要求されない(表示部上の視覚による合図は、車内の他の人間に利用可能であり得る)。別の実施形態では、地図は表示部上に常に表示され、言葉による合図は、ユーザの視線が表示部上に無いときにだけ提供される。
挙動の変化は種々のデバイスおよびシナリオに利用され得る。例えば、テレビは、視線が消えてなくなるときに、表示中の番組を一時停止することができる(テレビシステムはデジタルビデオレコーダに接続される)。ユーザの視線に基づいて挙動を変えるデバイスの他の例は、図2A〜図11Bを参照にして以下に与えられる。
図2Aおよび図2Bは、一実施形態に係る視線検出を用いる衝突回避システムを例示する。ユーザインターフェースは、ユーザがデバイスにまたは状況に注意を払っているかどうかに従って、様式を変える。例えば、図2Aに例示されたシナリオでは、車204が車202の前で突然減速するときに潜在的なアラーム状況が生じ、その車202は車近接検出器によって検出される。(視線検出器、例えば図1Aに示されるものなどによって、検出されるように)ユーザ206が前方を見ている場合には、ユーザが前方の車を既に見ているので、アラームは生成されない。しかしながら、図2Bに示されるように、ユーザ206が前方を見ていない場合には、車近接検出器はアラームを生成することになり、そのアラームは可聴、可視、またはその両方のものであり得る。別の実施形態では、危険の閾値は、衝突が差し迫っているときを判断するために定義され、衝突が差し迫っている場合、ユーザ206が前方を見ているか否かにかかわらずアラームが生成される。閾値条件は、1つ以上の要因、例えば、車間距離、車の速度、車の相対速度、ユーザについての平均反応時間、ユーザがアラームを受け取ることを望む時を示す設定パラメータなどに基づいて計算される。
別の実施形態では、警報条件は、ユーザが車線を変更しているときやユーザが車線変更の目的車線に近づいてくる車を見ていないときに生成される。アラームは、ユーザが、他の車を見ることができる鏡を見ている場合に、あるいはユーザが第2の車の方向に前部の向きを変えた場合に、回避される。2つ以上の視線検出器が、ユーザが鏡を見ているか、あるいは車の側方を見ているかどうかを検出するために必要である可能性がある。
図3は、複数の視線検出部を備える視線検出システムの実施形態を例示する。図3の車は、いくつかの視線検出部302a〜302fを含む。各視線検出部は、ユーザがその視線検出部について対応する対象を見ているかどうかを検出する。全ての視線検出部からの情報は、グリッド304を定義するために組み合わされる。ユーザが見ているおおよその点または範囲のグリッド座標値は、視線検出部302a〜302fからの情報に基づいて計算される。
更に、異なる対象範囲A1〜A6(306a〜306f)は、アラームが生成されるときを判断するために定義される。1つ以上の特定の対象範囲が、状況に従って利用される。例えば、ユーザが右側の車線に変更しており、車が右側の車線にいる場合、衝突検出システムは、ユーザが対象範囲A4 306eを見ていない場合にアラームを生成することになり、ユーザが対象範囲A4 306eを見ている場合にアラームを生成しないことになる。図2Aおよび図2Bに例示されたものと同じシナリオでは、アラームは、前方の車との潜在的な衝突があるときに、ユーザが対象A3 306dを見ている場合に生成されることになる。図2Aの単一視線検出器は、ユーザが前方を見ていたことを検出した可能性があるが、ユーザは、道路標識、次の車線上の車、広告用の幕(banner)、歩行者などを見ていた可能性があるので、単一視線検出器は、ユーザが側方(A3)を見ていたことを検出していなかった可能性がある。それ故に、複数の視線検出器を有することによって追加される追加的解像度は、危険な状況を判断する能力を向上させる。その上、どこにユーザがそれらの視野を向けているかという更に良い理解があるので、解像度の増加は、生成されるアラームの数を制限し得る。
図4Aおよび図4Bは、一実施形態に係るユーザが表示部から目をそらしているときに起動されるビデオレコーダを示す。図4Aに示されるように、ユーザ402は、表示部404上のテレビ番組を観ている。視線検出システムは、ユーザが表示部を見ているまたは表示部から目をそらしているときを検出するためにユーザにねらいを定めたカメラ406を使用する。視線検出システムが、ユーザ402が表示部404を見ていることを判断すると、デジタルビデオレコーダ(DVR)408はテレビ番組を記録しない。しかしながら、図4Bに示されるように、ユーザ402が表示部402から目をそらしているとき、視線検出システムはアクションを起こす。
一実施形態では、DVR408は、ユーザが後で番組を観ることができるように番組を記録し始める(オンにされた光410は、DVRが記録していることを示す)。別の実施形態では、DVRは番組を記録し、ユーザがそれらの視線を表示部404の方へ戻すまで番組は一時停止される。ユーザが目をそらす場合にだけ記録する能力は、DVRの記録容量が制限される場合に有用である。
同じ原理は、例えば、ユーザが目をそらす場合にビデオゲームを一時停止すること、ストリーミングしているインターネット映像を一時停止すること、映画を表示しているDVRを一時停止すること、コンピュータゲームまたはいくつかの他のソフトウェアアプリケーションを一時停止することなど、表示部を用いる他の用途において使用される。
更に別の実施形態では、テレビセットは、視線がテレビ上に検出されない場合には音量を下げ、視線が検出される場合には音量を上げる。別の実施形態では、視線検出は記録の質を判断する。例えば、ユーザが表示部を見ている場合、ユーザは番組を再度観ないであろうことが推定されるので質の低い記録がなされる。しかしながら、ユーザが目をそらす場合、システムは、ユーザが将来、ユーザが見逃した番組の一部を観るであろうことを推定するので、記録は高解像度モードに切り換わる。
部屋内に数名の視聴者がいる場合、一実施形態は、番組を記録し始めることまたは一時停止することなどのアクションを起こす前にユーザのいずれかが表示部を見ているかどうかを判断する。別の実施形態では、試験用途またはウェブベースのクラスルームは、ユーザが注意を払っているときを判断するために視線検出を使用する。ユーザが注意を払っていない場合、標識(flag)が教師に表示され得、あるいはソフトウェアアプリケーションは、注意を払っているという評価をユーザに与えないことになる。
図5Aおよび図5Bは、一実施形態に係る子供の視線によって挙動を変える玩具を描写する。図5Aは、視線検出システムを含む玩具504で遊んでいる子供502を示す。玩具504が子供の視線が玩具上に定められることを検出すると、玩具504は、音を出すこと、言葉によるメッセージを生成すること、動き回ること、光を放つことなどによって子供502と相互作用する。
図5Bに例示されるように、子供502が玩具504を見ていない場合、玩具504は、子供が玩具で遊ぶことを誘ってみることによって、最終的には、所定期間後、停止させることによって、応答する。例えば、玩具は、言葉によるメッセージ(「私と遊んで」)を出すか、あるいはいくらかの光を放つ、サイレンを鳴らす、子供の近くに移動することなどをし得る。それ故に、子供の視線に従って玩具の挙動は変わる。
図6Aおよび図6Bは、電話上のユーザの視線によって挙動を変える移動電話の実施形態を例示する。図6Aに示されるように、移動電話604は、音声メールを得るための少なくとも2つの挙動モード、視覚によるモードおよび可聴モードを含む。移動電話604は、ユーザを向くカメラ含む視線検出システムを有し、音声メールアプリケーションの挙動はユーザ602の視線に従って変わる。ユーザ602が移動電話604を見ているとき(図6A)、移動電話は、視覚による音声メールインターフェースを用いて動作し、そのインターフェースは、音声メールのリスト、コマンドボタン(プレイ、巻き戻し、リプレイ、保存、次など)、受信されるデータ音声メールなどのうちの1つ以上を含む。
ユーザ602が移動電話604から目をそらしているとき、音声メールアプリケーションは、図6Bに示されるように、可聴音声メールモードに切り換わる。可聴音声メールモードは、ユーザ602に異なるオプションを案内するようにユーザ602に催促を提供する。ユーザは、その返事として所望のオプションを選択するために移動電話604に音声命令を与える。一実施形態では、ユーザは、他の種類の入力、例えば、ボタンを押すこと、タッチスクリーンをタッチすることなどを与え得る。例えば、ユーザ602は、オプションに対応する数を言うための選択のリストを与えられる可能性があり、ユーザは、対応する数を言うことによってオプションの1つを選択する。
別の実施形態では、ユーザの視線は電子デバイスの電力消費モードを変える。例えば、ユーザがデバイスから目をそらしているとき、デバイスは、入力デバイス、例えばボタン、タッチパネル、カメラなどに供給される電力の量を減らすために省電力モードに入る可能性がある。
図7Aおよび図7Bは、一実施形態に係るユーザの視線によって変化するピクチャー・イン・ピクチャー(PIP)表示部の挙動を例示する。表示部702は、ユーザが表示部702を見ているかどうかを検出することができるだけではなくて、ユーザが表示部702の特定部分を見ているかどうかを検出することもできる視線検出システムを含む。図7Aは、表示部のメイン部分における第1のビデオ704a、および表示部内の差し込み画における第2のビデオ704bを提示する表示部702を示し、その差し込み画はピクチャー・イン・ピクチャーウィンドウとして知られる。
視線検出システムが、閾値を超える時間の間、ユーザがピクチャー・イン・ピクチャーウィンドウ内のビデオ704bを見ていることを判断すると、視線検出システムは、第1のビデオおよび第2のビデオの表示を切り換える。図7Bに示されるように、第1のビデオ704aはピクチャー・イン・ピクチャーウィンドウ内に表示され、第2のビデオ704bは表示部702のメイン範囲内に表示される。
図7Aおよび図7Bは、ユーザ入力を必要とせずに、および動作モードが変わっていることのユーザへの通知(例えば、アラーム)を生成せずに、どのように表示部の動作モードが変わるかを例示する。視線システムは、視線方向の変化以外に、ユーザからのアクションまたは入力を必要とせずに、電子デバイスの動作モードの変化をトリガする。それ故に、動作モードの変化はユーザのアクションから独立している。別の例では、コンピュータプログラムは、ウェブページ上に表示されたいくつかの宣伝の1つに、ある期間(例えば、2秒)の間、ユーザの視線がとどまっているかどうかを検出する。ユーザの視線がその宣伝にとどまっている場合には、コンピュータプログラムは、その宣伝に関連するアクション、例えば、ユーザに追加情報を提供するために関連ウェブページを開くこと、アニメーションを走らせること、宣伝のサイズを増やすことなどを実行する。
一実施形態では、動作のモードが変えられていることを示す通知がユーザにもたらされるが、ユーザからの許可は、動作のモードを変えるために必要とされない。例えば、ビデオが切り換えられていること(例えば、「プログラムをピクチャー・イン・ピクチャープログラムと切り換えること」)を示す簡潔なメッセージが表示部上に示される。しかしながら、ユーザは、テレビにプログラムを切り換えることを命令するために有効な入力を(勿論、視線の変化以外に)まだ生成していない。
更に別の実施形態では、視線検出はユーザ入力と組み合わされる。視線検出システムが、ユーザの視線が変わったことを一旦判断すると、ユーザは、電子デバイスが動作モードを変えることになるかを判断するために入力を促される。例えば、視線検出システムが、ユーザの視線がピクチャー・イン・ピクチャー表示部上にあることを検出すると、テレビは、ユーザにプログラムを切り換える許可を求める(例えば、「PIPと切り換えたいですか?切り換えるには1を押し、キャンセルするには2を押してください」)。ウェブページ宣伝に関連して上記された例では、追加情報を自動的に与える代わりに、コンピュータプログラムは、ユーザが、宣伝された製品またはサービスについての追加情報を望むかどうかをユーザに尋ねる。ユーザが提案を受け入れる場合には、追加情報が提供される。
図8は、一実施形態に係る腕時計がユーザの視線を検出するときに、より明るく光る腕時計を描写する。腕時計802は視線検出システムを有し、視線検出システムが、ユーザが腕時計を見ていることを検出する場合には、腕時計は腕時計の可視性を向上させる。例えば、腕時計は、腕時計を明るくする光をつけ、あるいは、表示部をより明るくさせるために表示部への電力量を増加させ、白熱機構をオンし、表示部をオンにすることが可能である。
腕時計は、ユーザが腕時計を見ているときにだけ可視性が増大されるので電力を節約する。図8における実施形態は、例示的なものであり、限定することを意図しない。同じ原理は、他のデバイス、例えば、テレビセット、テレビ遠隔コントローラ、ゲームコンソール、ゲームコントローラ、キーボード、アラームコントロールパネル、電子書籍リーダー、車の計器盤内の器具などに使用され得る。デバイスは、電力モード消費を変えることができ、例えば、視線がデバイス上に検出される場合にはテレビまたは電話をスタンバイモードから起動する。
別の実施形態では、電力消費はまた、視線検出の状態と組み合わされる他のパラメータも考慮する。例えば、車の計器盤上の器具は、システムがそれが日光であることを検出し、計器盤が自然光によって十分に照らされる場合、ユーザが器具を見ているときに、放出される光を増加させない可能性がある。
図9は、一実施形態に係るユーザの視線に基づいて表示部の範囲の可視性を増大するデバイスを例示する。大型の表示部は、分割された範囲に分けられ、各範囲は異なるビデオを表示している。図9の例では、表示部は4つの範囲902a〜902dに分割される。視線検出システムがユーザがその範囲のうちの1つ、例えば範囲902aを見ていることを判断すると、システムは、観られているビデオの特質を変える。他の実施形態では、表示されるビデオがある観られていない範囲もまた、特質を変えることができる。例えば、システムは、ユーザが範囲902aを見ていることを検出すると、システムは、解像度を向上させること(例えば、ビデオ圧縮を減らすこと)によって、より大きいリソース帯域幅を範囲902aに与えることによって、あるいは観られた範囲にリソースを加えることによって、範囲902a内に表示されたビデオの質を上げる。より多くの中央処理装置(CPU)リソースが、ビデオのレンダリングを改善するために範囲902aのビデオに加えられ得、あるいはより大きな電力が範囲902aの表示素子(例えば、LED)に与えられる。残りの範囲は、より低い解像度であるものの十分に良い解像度で表示され得、そのため、ユーザは、別の範囲に焦点を変えることができ、表示されるものを見ることができる。
例えば、観られている範囲は1つの解像度で表示され、観られていない範囲は異なる解像度で表示される。一実施形態では、システムは、例えば、第2のユーザが、第1のユーザによって観られる範囲とは異なる範囲を観ているときなどに、2人以上のユーザを追跡し得る。この場合には、第2のユーザによって観られる領域はまた、より高い解像度で表示される。別の実施形態では、視線検出システムは、ユーザが、複数範囲のうちの1つ、例えば範囲902aなどを見ていることを判断すると、システムは、ユーザによって注視されている範囲において再生しているビデオと関連付けられた音声を再生する。従って、注視されていない範囲(902b、902d、および902c)からの音声はミュートされることになる。ユーザが視線を別の範囲(例えば、範囲902b)に変える場合には、前の範囲(例えば、902a)からの音声はミュートされることになり、新たな範囲(例えば、902b)と関連付けられた音声が再生されることになる。
更に別の実施形態では、どの範囲が視線で選択されているかを示す視覚による合図が、ユーザに提供される。例えば、アイコンは、選択された範囲上に表示され得、選択された範囲は、既定のパターンまたは色を有する境界で囲われ、光(例えば、およびLED)は、選択された範囲の隣の表示部の囲み内などでオンにされる。
図10Aおよび図10Bは、一実施形態に係るユーザの視線に基づくスクリーンセーバーの動作を例示する。スクリーンセーバーは、コンピュータが使用中ではないときにスクリーンを隠すか、動いている画像でスクリーンを埋める、コンピュータモニタ上の焼き付きを防ぐように最初に設計された、ある種のコンピュータプログラムである。スクリーンセーバーは、入力デバイス、例えばキーボードやマウスなどの非活動期間後に典型的には始められる。スクリーンセーバーは、マウスが動かされたことかキーが押されたこと示すオペレーティングシステムからのメッセージを受信した後に、終了する。
ユーザ152が表示部156上のドキュメントを読む間に、ユーザは、同じページを読むために長時間かける可能性がある。ユーザがスクリーンセーバー非活動時間のトリガを超える場合、スクリーンセーバー158は、(図10Bに示されるように)実行し始めることになり、ユーザは読み続けることができない。しかしながら、コンピュータに組み込まれた視線検出154システムは、スクリーンセーバーの挙動を向上させる。
コンピュータ内の視線検出システムは、ユーザの視線が表示部上にある間にコンピュータシステムがスクリーンセーバーを始めることを阻止する。ユーザの視線が表示部上に無い場合、コンピュータは、コンピュータ上の視線が検出されないとすぐにスクリーンセーバーを始める。別の実施形態では、一瞬の視線は、表示部上で検出されず、コンピュータは非活動タイマーを始め、タイマーが切れるとスクリーンセーバーが始められる。スクリーンセーバーが実行されている間にユーザがそれらの視線を表示部に戻す場合には、スクリーンセーバーが終了される。スクリーンセーバーが実行されていない場合、非活動タイマーはリセットされる。
スクリーンセーバーを制御するための視線検出はまた、表示部を含む他のデバイス、例えば書籍リーダー、タブレット、移動電話、ビデオゲームプレイヤーなどにも利用され得る。
図11Aおよび図11Bは、一実施形態に係るいくらかのユーザの視線の方向に応答するシステムを例示する。図11Aおよび図11Bの実施形態は、2人以上の視聴者からの視線を追跡する視線検出システムを含む。バー内の複数の視聴者162は、異なるビデオまたはプログラム164a〜164eを表示しているスクリーンを観ており、ここで、ビデオおよびプログラムのそれぞれは、異なるスクリーンに表示されるように切り換えられ得る。プログラム164cを示し他のスクリーンよりも大きな中央スクリーンがあり、システムは、最も人気のあるプログラムを中央スクリーン上に表示することを目指す。最も人気のあるプログラムを判断するために、視線検出システムは、どのプログラムを視聴者162が観ているかを判断する。最も多くの視聴者を有するプログラムは、最も人気のあるものと判断される。
図11Aの実施形態では、プログラム164bを観ている3人の視聴者がいて、他のプログラムの全ては3人よりも少ない視聴者を有するので、プログラム164bが視聴者に最も人気がある。スクリーン164b上のプログラムが最も人気があるので、システムは、図11Bに示されるように、プログラム164bが中央スクリーン上に表示されるように、プログラム164cおよび164bを切り換える。例えば、いくつかのスポーツイベントがバーで観られている。ある瞬間、小さなスクリーンに示されたゲームの1つにおいてゴールが決まり、常客の多くにそれらの注意をゴールが決まったゲームに移させる。視線検出システムは、ゴールが決まったこのプログラムが、最も人気のあるプログラムであることを検出し、次いで、システムは、その人気のあるプログラムを中央スクリーンに切り換える。
一実施形態では、一定時間にいずれの視聴者によっても観られていないスクリーンは、他のスクリーンと切り換えることによってではなくて、番組供給を変えることによって、例えばテレビチャネルを変えることなどによって、表示されたビデオまたはプログラムを変える。
別の実施形態では、視聴者が観ているプログラム上に集められたデータは、個人の大きなグループ用にデータを取得するために、他の位置からのデータと組み合わされる。組み合わされたデータは、いくつかの目的のために、例えば、大きなグループの視聴パターンを評価するため、コマーシャルの人気を判断するため、プログラムの視聴率を計算するためなどに使用される。この集計されたデータはまた、例えば、リアルタイムでプログラムの人気をリスト化すること、最も人気のあるプログラムをリスト化すること、企業が、人気のあるプログラムにおける宣伝により多く支払うように宣伝料を調整することなどによって、マーケティング目的のために使用され得る。
一実施形態では、システムは、所与の時間に最も人気のあるプログラムを表示する動的チャネル、あるいはユーザによって設定されたチャネルのリストから最も人気のあるプログラムを表示する動的チャネルを生成する。例えば、ユーザは、2つの異なるスポーツイベントを選択している可能性があり、表示されたプログラムは、スポーツイベントの動的に計算された人気に従って変動することになる。人気は、興奮させるイベント、例えば、得点、ペナルティなどが、スポーツイベントにおいて発生する場合に変化する。
番組内の部分の人気を判断するために、別の実施形態では、視線に基づく視聴者のビデオ選択に関して集められたデータが使用される。それ故に、将来の視聴者は、番組のどの部分がより高い視聴率を獲得したかを示す視聴率情報にアクセスすることができ、ここで、各部分は、個々の視聴率を与えられ、番組内の他の部分の視聴率とは独立している。コンテンツ視聴率のストリームが生成され、それによって、番組は、固有の番組視聴率によって評価されるだけではなく、むしろ番組は、視線投票に基づいて各部分(例えば、時、分、秒、一区切り、イニング、ハーフ、クォーター、セット、ゲームなど)で評価される。
別の実施形態では、電子デバイスは、表示部上に検出される視線が無いときにCPUリソースをグラフィカルユーザインターフェース(GUI)タスクの処理から離して他のタスクに向け直す。視線が表示部に戻ると、GUI処理は、GUIがユーザに応答することを確実にするために追加的CPUリソースを受け取る。更に別の実施形態では、アラーム時計が持続的な期間に視線を検出するときに、アラーム時計はオフにされるか、あるいはスヌーズするよう設定される。
図12は、一実施形態に係る視線検出システムのアーキテクチャを描写する。デバイス254は、少なくとも視線エンジン262、アクションエンジン268、およびアラームエンジン276を含む視線検出システムを含む。視線検出システムは、どの瞬間においても、ユーザ252が視線対象256にそれらの視線286を置いているかどうかを判断する。視線対象は、デバイスの全部、またはデバイスの一部、例えばビデオ表示部などであり得る。図13を参照にして以下に記載される別の実施形態では、視線対象はデバイス上に位置していない。
視線エンジン262は視線検出モジュール264および視線履歴データベース266を含む。視線検出モジュール264は、ユーザ252の視線が視線対象256上にあるかどうかを判断する。一実施形態では、視線検出モジュール264は、ユーザ252の眼球を解析する視線検出ソフトウェアと共に、ユーザ252に向いているカメラを含む。しかしながら、他の視線検出システムもまた可能である。当業者は、図12の実施形態は例示的なものであり、限定するものであることを意図していないことを理解するであろう。一実施形態では、視線状態(オンまたはオフ)の履歴はデータベース266内に保持される。視線履歴は、視線の履歴、例えば、図10Aおよび図10Bを参照にして上記されたスクリーンセーバー用途などを考慮に入れる実施形態において使用され得る。
アクションエンジン268は、アクションプロセッサ272、履歴データベース270、およびルールエンジン274を含む。アクションプロセッサ272は、視線情報に関連する入力を受け取り、ユーザの視線の状態に応答してどのアクションを取るかを判断する。アクションプロセッサ272への入力は、視線検出264からの視線状態、デバイス状態260、ユーザインターフェース258などを含む。アクションプロセッサ272はまた、アラームを生成するようアラームエンジン276に命令するために、あるいはデバイスによって実行されるいくつかの他のアクションを始動するために、アラームエンジン276とインターフェースをとる。履歴データベース270は、アクションプロセッサ272によって取られる異なるアクションの履歴、例えばアラームイベントのログなどを含む。
アクションプロセッサ272は、生じられたアクションを判断するために論理ルールを使用する。ルールは、ルールエンジンデータベース274内に格納され、デバイスの内側および外側で、ユーザまたは他のプログラムによって設定可能である。一実施形態では、サーバ284は、アクションエンジン268を設定するためにネットワーク282経由でデバイス254とインターフェースをとる。例えば、1つのルールは、「ユーザの車が前方の車との衝突から1秒未満離れ、ユーザの視線がその車の正面の方へ向いていないときに2秒の大音量ビープ音を生成する」ことであってもよい。別のルールは、「ナビゲーションシステムにおいて、ユーザが表示部を見ていないときに言葉による指示を使用し、ユーザが表示部を見ているときに地図ナビゲーションを使用する」ことであってもよい。
アラームエンジン276はアラームプロセッサ278およびアラームインターフェース280を含む。アラームプロセッサは、アクションプロセッサ272から命令を受け取り、命令をデバイスにおける特定アクションに変換し、その特定アクションは、アラームインターフェース280経由で通信される。デバイス254のデバイス状態260は、デバイスの状態と関連付けられたパラメータの値、より詳細には、視線検出に関連するパラメータの値およびそれと関連付けられたアクションの値を含む。アラームインターフェース280は、デバイス状態260を変える(例えば、表示部を薄暗くする)ことができ得、デバイス状態パラメータはまた、アクションプロセッサ272にも利用可能である。ユーザインターフェース258は、デバイス254内の異なる要素、例えば表示部、キーボード、マウス、車用器具、カメラ、スピーカなどに1つ以上のインターフェースを提供する。
図13は、視線対象が電子デバイスの外側に位置する視線検出システムの別の実施形態を描写する。視線対象352は、ユーザとインターフェースをとるデバイスの一部ではない。一実施形態では、車衝突検出システムは、ユーザが衝突検出システムを見ているかどうかをチェックせず、むしろ、ユーザが危険なまでに前方の車に近づいている場合にユーザが前方の車を見ているかどうかをチェックする。それ故に、視線対象は、視線検出システム内、あるいは視線検出システムを保持するデバイス内に無い。
一般的に言えば、第1の環境上パラメータ(例えば、前方の車、利用可能な帯域幅)の状態が追跡され、対応を必要とする状況(例えば、水が吹きこぼれること、車が前方で壊れること)が発生するかどうかを調べるために解析がなされ、ユーザの視線またはユーザの状態に基づいて判断がなされる。
更に別の実施形態では、視線エンジンは、デバイスの外側に位置しており、そのデバイスとインターフェースをとる。視線対象は、視線エンジンとデバイスとの両方の外側にある。3つの構成要素(視線エンジン、視線対象、およびデバイス)は、視線を検出するために互いにインターフェースをとり、ユーザの視線に反応するデバイスを有する。
図12および図13に例示される実施形態は例示的なものであることを留意されたい。他の実施形態は、異なるモジュールを利用してもよく、あるいはいくつかのモジュールは存在しなくてもよい。従って、本明細書に例示された実施形態は、排他的または限定的なものと解釈されるべきではなく、むしろ、例示的または説明的なものと解釈されるべきである。
図14Aは、発明の一実施形態に係る電子デバイスの挙動を制御するためのおよびアラームを生成するためのアルゴリズムのフローを示す。動作1402では、視線チェックが開始され、動作1404では、状態パラメータの値が判断される。状態パラメータは、デバイスの状態、またはデバイスに関連する環境におけるいくつかの条件の状態を定義する。動作1404の後、方法は、状態変数の値に基づいてアクション可能条件の存在についてチェックするために動作1406に進む。動作1408では、チェックの結果は、アクション可能条件があるときに方法が動作1410に進むかどうか、あるいは、アクション可能条件が無い場合に方法が動作1420に進むかどうかを決定する。動作1420では、方法は、必要に応じて、ある期間待機する。一実施形態では、待機期間はゼロであるのに対し、別の実施形態では、方法は、動作1404に戻る前および上記のように繰り返す前に、例えば100ミリ秒、1秒、1分などのある期間、待機する。
動作1410では、視線状態がチェックされ、動作1412では、方法動作は、アクションを起こすことが必要とされるかどうかを状態変数の値および視線状態に基づいて判断する。例えば、視線状態が「前方を見ていない運転者」であり、および状態変数が前方の車との衝突が2秒以内に生じることになることを示す場合には、ユーザに警告するための判断がなされる。
動作1414では、チェックが、アクションが必要とされるかどうかを判断するためになされ、アクションが必要とされる場合、方法は、アラームが起動される動作1416に進行する。アクションが必要とされない場合、方法は、動作1420に戻り進む。動作1416の後、方法は、アラーム条件がクリアされるまで待機するために動作1418に進む。例えば、アラーム条件は、運転者が前方を見ていることを検出されるとき、あるいは潜在的な衝突条件がクリアされるときに、クリアされ得る。
図14Bは、発明の一実施形態に係る電子デバイスの挙動を制御するためのおよびアラームを生成するための代替アルゴリズムのフローを示す。図14Bの実施形態では、視線は連続的にチェックされず、視線は、アクション可能条件が検出されるときにだけチェックされる。
それ故に、動作1404における動作では、状態パラメータの値が判断され、方法は、状態変数の値に基づいてアクション可能条件の存在についてチェックするために動作1406に進む。動作1408では、チェックの結果は、アクション可能条件があるときに方法が動作1402に進むかどうか、あるいは、アクション可能条件が無い場合に方法が動作1420に進むかどうかを決定する。動作1420では、方法は、必要に応じて、ある期間待機する。一実施形態では、待機間はゼロである一方で、別の実施形態では、方法は、動作1404に戻る前および上記のように繰り返す前に、例えば100ミリ秒、1秒、1分などのある期間、待機する。
動作1402では、視線チェックが始められ、方法は、視線状態がチェックされる動作1410に進む。動作1412では、方法動作は、アクションを起こすことが必要とされるかどうかを状態変数の値および視線状態に基づいて判断する。
動作1414では、チェックが、アクションが必要とされるかどうかを判断するためになされ、アクションが必要とされる場合、方法は、アラームが起動される動作1416に進行する。アクションが必要とされない場合、方法は、動作1420に戻り進む。動作1416の後、方法は、アラーム条件がクリアされるまで待機するために動作1418に進む。例えば、アラーム条件は、運転者が前方を見ていることが検出されるとき、あるいは潜在的な衝突条件がクリアされるときに、クリアされ得る。
図15A〜図15Cは、発明の実施形態についての異なる状態図を例示する。図15Aは、ユーザの視線の状態に基づいて挙動を変える視線検出アプリケーションの状態図を示す。状態552では、ユーザの視線は計器盤の表示部から外れる。車の計器盤上の表示部は薄暗くされ、ナビゲーションシステムは、どこで曲がるかの指示を、いわゆるターンバイターン方式で音声や言葉でユーザに与える。
状態554では、ユーザの視線は表示部上にある。従って、計器盤の表示部は、高輝度で、オンにされ、運転方向が、計器盤の表示部内の地図上に提供される。本明細書において、「視線がオン」とは、ユーザの視線が視線検出システムの対象に定められた状態のことを言い、「視線がオフ」とは、ユーザの視線が視線検出システムの対象に定められていない状態のことを言う。
状態552と状態554との間の推移は、視線状態の変化によってトリガされる。状態機械が状態552にあり、視線状態がオンに変わると、状態機械は状態552から状態554に推移し、状態機械が状態554にあり、視線状態がオフに変わると、状態機械は状態554から状態552に推移する。
図15Bは、視線検出を用いるインタラクティブな玩具のための状態機械を表わす。状態機械は、3つの状態、すなわち、玩具がオンである状態556、玩具がオフである状態560、および玩具が言葉による合図をユーザに提供し、それらの注意を集める状態558を含む(インタラクティブな玩具について上記した例を参照のこと)。
状態556における間、視線状態がオフに切り換わる場合、状態機械は状態558に推移する。状態558における間に視線状態が「オン」に再び変わる場合には、状態機械は状態556に戻る。しかしながら、状態558における間、子供の視線が閾値期間に検出されない場合、状態機械は、玩具がオフにされる状態560に推移する。最終的には、玩具がオンにされるときに遷移は状態560から状態556に行われることになる。
図15Aから図15Cに例示された実施形態は例示的なものであることを留意されたい。状態図は、少なくとも1つの機能が視線検出状態に基づく種々の機能を実行するためにより多くの状態を含み得る状態図の簡易形態である。他の実施形態は、デバイスの状態を判断するために、あるいは状態推移を判断するために、視線を他のパラメータと組み合わせ得る。従って、本明細書に例示された実施形態は、排他的または限定的なものと解釈されるべきではなく、むしろ、例示的または説明的なものと解釈されるべきである。
図15Cは、視線検出を使用する衝突検出用途の状態図を表わす。状態578では、運転者は運転しており、アラーム条件は存在しない。状態580および572はアラーム状態、すなわち、イベントが、運転者に提示される、起こり得る警報条件をシステムに評価させる状態である。状態582および574は、警報がユーザに提示される状態であり、状態576は、システムが運転者が左折していることを検出する状態である。前に記したように、状態図は簡易図である。状態機械の別の実施形態は、他の状態、例えば右折すること、バックすることなどを含む可能性がある。
状態578における間、起こり得る衝突が検出される場合、状態機械は状態580に推移する。起こり得る衝突は、車が前方の車に近づいているときに検出されるが、運転者が衝突に反応し回避するのに十分な時間がまだある。しかしながら、状態578における間、衝突が差し迫っている場合、状態機械は、ユーザが警報を出される状態582に推移する。運転者が道路標識などを見て気を散らしている可能性があるので、運転者が前方を見ている場合でさえも、運転者に警報する重要性があるので、推移は、視線の状態とは独立してなされる。
状態580からの2つの起こり得る推移がある。すなわち、視線状態が「オフ」状態である場合に機械が状態582に推移し、システムは、運転者が状況に気付き、警報が必要とされないことを推定するので、視線状態が「オン」状態である場合に機械が状態578に推移する。このように、システムは、ユーザが衝突が回避され得る状況に既にあるときには、余分な警報を生成することを回避する。
状態582から、状態機械は、起こり得る前方衝突状態の終了が検出されるときに再び状態578に推移する。この条件は、前方の車からの距離が増えたとき、あるいは衝突が検出されたときに起こり、不必要に警報を作る。
図15Cの左側に関して、状態機械は、左折を行う間の衝突検出に関連する状態を含む。それ故に、システムは、車が左にハンドルを切っていることを検出するときに、状態推移は状態578から状態576に行われる。左折は、運転者が別の道へ左折を行っているので、あるいは運転者が左の車線に車線変更をしているので、起こり得る。状態576における間、システムは、車が前方にハンドルを切っていることを検出する場合には、状態機械は再び運転状態578に推移する。状態576における間、状態機械はまた、状態572または状態574に推移し得る。推移は、起こり得る衝突が左側で検出されるときに状態572に行われる。このことは、例えば、左の車線上に車があるとき、あるいは衝突を引き起こすことになる反対側の方向に移動する交通があるときである可能性がある。推移は、システムが左側の衝突が差し迫っていることを検出するときに状態576から状態574に行われる。
状態572から、状態機械は、システムが運転者が左の車両上にそれらの視線を置くことを検出するときに状態576に推移し、車両が運転者の死角上に検出されるときまたは運転者の視線が左を向いていないときに状態574に推移する。状態574から、状態機械は、左における衝突の可能性の終了が判断されると状態576に推移する。
図16は、発明の一実施形態に係る電子デバイスの挙動を制御するためのプロセスフローチャートである。動作1602では、電子デバイスは動作の第1のモードにおいて動作される。更に、動作1604では、電子デバイスとインターフェースをとるユーザの視線が追跡される。動作1604から、方法は、ユーザの視線が所定の対象の方へ向いている限り電子デバイスが動作の第1のモードを維持する動作1606に進む。
動作1608では、チェックが、ユーザの視線が所定の対象の方へ向いているかを判断するためになされる。視線が所定の対象の方へ向いている場合、方法は動作1606に戻り進み、視線が所定の対象の方へ向いていない場合には、方法は動作1610に進む。電子デバイスは、動作1610では、動作の第1のモードとは異なる動作の第2のモードにおいて動作される。それ故に、ユーザの視線が所定の対象から離れて動くときに、電子デバイスは、動作の異なるモードに変わる。
図17は、発明の実施形態を実施するための例示的なコンピュータシステムの簡易概略図である。本明細書に記載された方法は、デジタル処理システム、例えば、従来の、汎用コンピュータシステムなどを用いて実行される可能性があることを理解されたい。1つの機能だけを実行するために設計されるかプログラムされる特別用途のコンピュータが、代替案において使用される可能性がある。コンピュータシステムは、バス1710を通してランダムアクセスメモリ(RAM)1728、読み出し専用メモリ(ROM)1712、および大容量ストレージデバイス1714に結合される中央処理装置(CPU)1704を含む。視線コンピュータプログラム1708は、ランダムアクセスメモリ(RAM)1728内にあるが、また、大容量ストレージ1714またはROM1712内にもあり得る。
大容量ストレージデバイス1714は、ローカルまたはリモートであり得る、フロッピーディスクドライブまたは固定されたディスクドライブなどの永続的なデータストレージデバイスを表わす。ネットワークインターフェース1730は、ネットワーク1732経由の接続を提供し、他のデバイスとの通信を可能にする。CPU1704は、汎用プロセッサ、特別用途のプロセッサ、または特別にプログラムされた論理デバイスに具現化される可能性があることを理解されたい。入出力(I/O)インターフェースは、様々な周辺装置との通信を提供し、バス1710を通してCPU1704、RAM1728、ROM1712、および大容量ストレージデバイス1714と接続する。サンプル周辺装置は、表示部1718、キーボード1722、カーソル制御1724、取り外し可能な媒体デバイス1734、カメラ1740、視線検出器1742などを含む。
表示部1718は、本明細書に記載されたユーザインターフェースを表示するように構成される。キーボード1722、カーソル制御1724、取り外し可能な媒体デバイス1734、および他の周辺装置は、CPU1704への命令選択における情報を通信するためにI/Oインターフェース1720に結合される。外部デバイスへのデータおよび外部デバイスからのデータは、I/Oインターフェース1720を通して通信される可能性があることを理解されたい。発明はまた、タスクが有線ベースのまたは無線ネットワークを通してリンクされる遠隔処理デバイスによって実行される、分散型コンピューティング環境において実施され得る。
本発明の実施形態は、手持ち式デバイス、マイクロプロセッサシステム、マイクロプロセッサベースのまたはプログラム可能な消費者向け電子機器、ミニコンピュータ、汎用コンピュータおよび同様のものを含む種々のコンピュータシステム構成を用いて実施される可能性がある。発明はまた、タスクがネットワークを通してリンクされる遠隔処理デバイスによって実行される、分散型コンピューティング環境において実施され得る。
上記実施形態を念頭に置いて、発明は、コンピュータシステム内に格納されたデータを含む種々のコンピュータで実現される動作を使用することができることを理解されたい。これらの動作は、物理量の物理的操作を必要とするものである。発明の一部を形成する本明細書に記載された動作のいずれかは、有用な機械動作である。発明はまた、これらの動作を実行するためのデバイスまたは器具に関するものである。器具は、特別用途のコンピュータなどの必要とされた目的のために特別に構成され得る。特別用途のコンピュータとして定義されるとき、コンピュータはまた、特別用途の一部ではない他の処理、プログラム実行またはルーチンを実行することができる一方で、さらに、特別目的のために動作可能である。代わりに、動作は、コンピュータメモリ、キャッシュ内に格納された、あるいはネットワーク上で取得された1つ以上のコンピュータプログラムによって選択的に起動されるか構成される汎用コンピュータによって処理されてもよい。データがネットワーク上で取得されると、データは、ネットワーク上の他のコンピュータ、例えば、コンピューティングリソースのクラウドによって処理され得る。
本発明の1つ以上の実施形態はまた、コンピュータ可読媒体上のコンピュータ可読コードとして製作され得る。コンピュータ可読媒体は、データを格納し得る任意のデータストレージデバイスであり、そのデータは、その後、コンピュータシステムによって読み取られ得る。コンピュータ可読媒体の例は、ハードドライブ、ネットワークアタッチストレージ(NAS)、読み出し専用メモリ、ランダムアクセスメモリ、CD‐ROM、CD‐R、CD‐RW、磁気テープならびに他の光学式および非光学式データストレージデバイスを含む。コンピュータ可読媒体は、ネットワーク結合したコンピュータシステム上に分散されたコンピュータ可読有形物媒体を含むことができ、そのため、コンピュータ可読コードは分散型様式で格納され実行される。
方法の動作は特定の順番で記載されたが、他のハウスキーピング動作が動作の間に実行される可能性があるか、あるいは、動作は、それらの動作がわずかに異なる時間に起こるように調整される可能性があるか、または、オーバーレイ動作の処理が所望の手法で実行される限り、処理と関連付けられた種々の間隔で処理動作の発生を可能にするシステムに分散される可能性があることを理解されたい。
理解を明瞭とするために本発明をある程度詳細に記載したが、一定の変更および修正が添付された特許請求の範囲内で行われ得ることは明らかであろう。従って、本実施形態は、例示的なものであって限定的なものではないとみなされており、発明は、本明細書に与えられた詳細に限定されるものではなくて、添付された特許請求の範囲およびその均等物内で修正される可能性がある。

Claims (28)

  1. 電子デバイスの挙動を制御するための方法であって、
    動作の第1のモードにおいて前記電子デバイスを動作させることと、
    前記電子デバイスとインターフェースをとるユーザの視線を追跡することと、
    前記視線が所定の対象の方へ向けられている限り、前記動作の第1のモードに前記電子デバイスを維持することと、
    前記視線が前記所定の対象の方へ向けられていないことを検出することと、
    前記視線が前記所定の対象の方へ向けられていないことを検出した後に、前記動作の第1のモードとは異なる動作の第2のモードにおいて前記電子デバイスを動作させることと、を含む、方法。
  2. 前記電子デバイスはカーナビゲーションシステムであり、
    前記所定の対象は前記カーナビゲーションシステム用の表示部であり、
    前記動作の第1のモードは、前記表示部内の地図上に方向を提示することを含み、
    前記動作の第2のモードは、前記ユーザが前記表示部を見ていないときに、言葉で運転方向を伝えることを含む、請求項1に記載の方法。
  3. 前記電子デバイスは電子玩具であり、
    前記所定の対象は前記電子玩具であり、
    前記動作の第1のモードはインタラクティブなプレイを含み、
    前記動作の第2のモードは、前記電子玩具に注意を引くように言葉による合図を出すことを含む、請求項1に記載の方法。
  4. 前記電子デバイスはピクチャー・イン・ピクチャー表示部を有するテレビスクリーンであり、前記テレビスクリーンは、前記ユーザの前記視線が所定の時間にわたり、前記ピクチャー・イン・ピクチャー表示部上にあるときに、前記テレビスクリーン内に表示されるビデオを前記ピクチャー・イン・ピクチャー表示部内に表示されるビデオと切り換える、請求項1に記載の方法。
  5. 前記電子デバイスはテレビスクリーンであり、
    前記所定の対象は前記テレビスクリーンであり、
    前記動作の第1のモードは前記テレビスクリーン上にビデオを表示することを含み、
    前記動作の第2のモードは、前記ビデオを一時停止すること、前記ビデオを記録すること、前記テレビスクリーンの音量を上げるまたは下げること、および前記テレビスクリーンをオフにすることのうちの1つ以上を含む、請求項1に記載の方法。
  6. 前記電子デバイスは表示部を含み、
    前記所定の対象は前記表示部であり、
    前記動作の第1のモードは、前記表示部についての明るさの第1のレベルを含み、
    前記動作の第2のモードは、前記明るさの第1のレベルとは異なる前記表示部についての明るさの第2のレベルを含む、請求項1に記載の方法。
  7. 前記ユーザの前記視線を追跡することは、
    前記ユーザの前記視線の方向を周期的にチェックすることを更に含む、請求項1に記載の方法。
  8. 前記視線を検出することは、
    前記視線が、前記視線の前記方向をチェックする複数の連続期間にわたり前記所定の対象から離れるときに、前記視線が前記所定の対象から離れることを判断することを更に含む、請求項7に記載の方法。
  9. 前記動作の第2のモードにおいて前記デバイスを動作させる間に、前記視線が前記所定の対象に再度向けられるときに前記動作の第1のモードにおいて動作させるように、前記電子デバイスを切り換えることを更に含む、請求項8に記載の方法。
  10. 前記視線が前記所定の対象から離れて向けられたままである間に、前記動作の第2のモードにおいて動作する所定の時間後に、動作の第3のモードにおいて前記電子デバイスを動作させることを更に含む、請求項1に記載の方法。
  11. 前記動作の第3のモードは、前記電子デバイスの電源を切ること、または前記電子デバイスを一時中断することを含む、請求項10に記載の方法。
  12. 電子デバイスであって、
    前記電子デバイスとインターフェースをとるユーザの視線が所定の対象の方へ向けられているかどうかを判断する視線検出モジュールと、
    動作の第1のモードおよび動作の第2のモードを含む動作の異なるモードを有するプロセッサと、を備え、
    前記プロセッサは、前記ユーザの前記視線が前記所定の対象の方へ向けられている間に前記動作の第1のモードにおいて動作し、前記プロセッサは、前記視線検出モジュールが、前記ユーザの前記視線が前記所定の対象の方へ向けられていないことを検出した後に前記動作の第2のモードにおいて動作する、電子デバイス。
  13. 前記電子デバイスは、前記動作の第2のモードにおいて動作しているときに、前記電子デバイスから前記ユーザへの視覚による合図を必要とすることなく前記ユーザによって制御される、請求項12に記載の電子デバイス。
  14. 前記プロセッサと通信するテレビスクリーンを更に含み、前記所定の対象は前記テレビスクリーンであり、
    前記動作の第1のモードは、電源がオンにされた前記テレビスクリーンを含み、
    前記動作の第2のモードは、電源がオフにされた前記テレビスクリーンを含む、請求項12に記載の電子デバイス。
  15. 前記プロセッサと通信する入力デバイスと、
    表示部と、を更に含み、前記所定の対象は前記表示部であり、
    前記動作の第2のモードは、前記ユーザが前記表示部から目をそらしている間に、前記入力デバイスに送られる電力を減らすことを含む、請求項12に記載の電子デバイス。
  16. 前記プロセッサと通信する移動電話を更に含み、前記所定の対象は前記移動電話である、請求項12に記載の電子デバイス。
  17. 前記プロセッサを含む車を更に含み、前記所定の対象は前記車の正面における範囲であり、
    前記動作の第1のモードはアラームを生成せず、
    前記動作の第2のモードは、前記車が、前記車の正面における前記範囲内の障害物との起こり得る衝突状況に入る場合に、アラームを生成する、請求項12に記載の電子デバイス。
  18. 複数のビデオスクリーンを更に含み、各ビデオスクリーンが複数のビデオのうちの1つを表示し、前記ビデオスクリーンのうちの1つがメインビデオスクリーンであり、
    前記視線検出モジュールは、前記複数のビデオスクリーンを観ているユーザの全ての前記視線を判断し、どの前記ビデオスクリーンが大部分の前記ユーザの前記視線を置かれているかを判断し、
    前記プロセッサは、前記大部分が前記メインスクリーンと関連付けられていないときに、前記大部分の前記ユーザの前記視線を置かれている前記ビデオスクリーンと関連付けられた前記ビデオを前記メインスクリーンに切り換える、請求項12に記載の電子デバイス。
  19. 各表示範囲が複数のビデオのうちの1つを示す複数の表示範囲に分割された表示部を更に含み、
    前記視線検出モジュールは、前記複数の表示範囲を観ているユーザの全ての前記視線を判断し、どの前記表示範囲が少数の前記ユーザの前記視線を置かれているかを判断し、
    前記プロセッサは、前記少数の前記ユーザの前記視線を置かれている前記表示範囲のビデオ供給を変更し、前記ビデオ供給と関連付けられた音声が再生される、請求項12に記載の電子デバイス。
  20. 各ビデオスクリーンが複数のビデオのうちの1つを示す複数のビデオスクリーンを更に含み、
    前記視線検出モジュールは、どの前記ビデオスクリーンが前記ユーザの前記視線を置かれているかを判断し、
    前記プロセッサは、前記ユーザの前記視線を置かれていない前記ビデオスクリーンに提供されるコンピューティングリソースよりも、前記ユーザの前記視線を置かれている前記ビデオスクリーン上に表示された前記ビデオを処理するためにより多くのコンピューティングリソースを提供する、請求項12に記載の電子デバイス。
  21. 複数の表示範囲に分割された表示部を更に含み、前記視線検出モジュールは、どの表示範囲が前記ユーザの前記視線に対応するかを判断し、
    前記プロセッサは、前記ユーザの前記視線に対応する前記表示範囲に高品質のサービスを届ける、請求項12に記載の電子デバイス。
  22. 前記高品質のサービスは、前記ユーザの前記視線に対応する前記表示範囲の前記音声を再生することを含む、請求項21に記載の電子デバイス。
  23. 前記所定の対象であるアラーム時計を更に含み、
    前記動作の第1のモードは、アラームが鳴ることを含み、
    前記動作の第2のモードは、前記アラーム時計上の前記視線の検出後に前記アラームが鳴ることをオフにすることを含む、請求項12に記載の電子デバイス。
  24. 前記所定の対象である表示部を更に含み、
    前記動作の第1のモードは、前記ユーザの前記視線が前記表示部上にある間にスクリーンセーバープログラムを無効にすることを含み、
    前記動作の第2のモードは、前記ユーザの前記視線が前記表示部に無い間に前記スクリーンセーバープログラムを始めるためのタイマーを有効にすることを含む、請求項12に記載の電子デバイス。
  25. 電子デバイスの挙動を制御するために、1つ以上のプロセッサによって実行されるとき、非一時的コンピュータ可読記憶媒体内に組み込まれたコンピュータプログラムであって、
    動作の第1のモードにおいて前記電子デバイスを動作させるためのプログラム命令と、
    前記電子デバイスとインターフェースをとるユーザの視線を追跡するためのプログラム命令と、
    前記視線が所定の対象の方へ向いている限り、動作の第1のモードに前記電子デバイスを維持するためのプログラム命令と、
    前記視線が前記所定の対象の方へ向けられていないことを検出するためのプログラム命令と、
    前記視線が前記所定の対象の方へ向けられていないことを検出した後に、前記動作の第1のモードとは異なる動作の第2のモードにおいて前記電子デバイスを動作させるためのプログラム命令と、を備える、コンピュータプログラム。
  26. 前記ユーザの前記視線を追跡することは、複数の視線検出部を動作させることを含む、請求項25に記載のコンピュータプログラム。
  27. 前記視線が第2の対象の方へ向けられているときに動作の第3のモードにおいて前記電子デバイスを動作させるためのプログラム命令を更に含む、請求項26に記載のコンピュータプログラム。
  28. 電子デバイスであって、
    複数の視線検出モジュールからの情報が、前記電子デバイスとインターフェースをとるユーザの視線の方向を判断するために組み合わされる、当該複数の視線検出モジュールと、
    プロセッサであって、前記電子デバイスが動作の複数のモードを有し、動作の各モードが、前記視線の前記方向についての対応する対象範囲と関連付けられ、当該プロセッサは、前記視線の前記方向が前記対象範囲のうちの1つに向けられているかどうかを検出し、前記電子デバイスは、当該プロセッサが、前記視線の前記方向が前記動作のモードと関連付けられた前記対応する対象範囲の方に向いていることを検出するときに、前記動作の複数のモードからの前記動作のモードのうちの1つにおいて動作する、プロセッサと、を備える、電子デバイス。
JP2014512880A 2011-05-25 2012-05-16 視線によるデバイスの挙動の変更 Active JP6017545B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/115,927 2011-05-25
US13/115,927 US10120438B2 (en) 2011-05-25 2011-05-25 Eye gaze to alter device behavior
PCT/US2012/038153 WO2012162060A2 (en) 2011-05-25 2012-05-16 Eye gaze to alter device behavior

Publications (2)

Publication Number Publication Date
JP2014516181A true JP2014516181A (ja) 2014-07-07
JP6017545B2 JP6017545B2 (ja) 2016-11-02

Family

ID=46177550

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014512880A Active JP6017545B2 (ja) 2011-05-25 2012-05-16 視線によるデバイスの挙動の変更

Country Status (5)

Country Link
US (1) US10120438B2 (ja)
EP (1) EP2715486A2 (ja)
JP (1) JP6017545B2 (ja)
CN (1) CN103718134B (ja)
WO (1) WO2012162060A2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016126773A (ja) * 2014-12-29 2016-07-11 イマージョン コーポレーションImmersion Corporation 視線追跡に基づく触覚効果を生成するシステム及び方法
JP2016139330A (ja) * 2015-01-28 2016-08-04 富士ゼロックス株式会社 画像形成装置およびプログラム
JP2019169004A (ja) * 2018-03-23 2019-10-03 富士通デバイス株式会社 視線検出システムおよび視線検出プログラム
JP2020531963A (ja) * 2017-08-17 2020-11-05 シグニファイ ホールディング ビー ヴィSignify Holding B.V. 注意シフトに応じて光源のライト状態の好みを記憶する
JP2021009541A (ja) * 2019-07-01 2021-01-28 コニカミノルタ株式会社 画像形成装置、及び、画像形成システム
WO2023185762A1 (zh) * 2022-03-29 2023-10-05 华为技术有限公司 确定被控制设备的方法、确定目标用户的方法及电子设备

Families Citing this family (142)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9524606B1 (en) 2005-05-23 2016-12-20 Visualimits, Llc Method and system for providing dynamic casino game signage with selectable messaging timed to play of a table game
CN102292017B (zh) * 2009-01-26 2015-08-05 托比股份公司 由光学基准信号辅助的对凝视点的检测
US9499110B2 (en) * 2011-06-20 2016-11-22 Honda Motor Co., Ltd. Automotive instrument operating device and alert device
JP5830987B2 (ja) * 2011-07-06 2015-12-09 ソニー株式会社 表示制御装置、表示制御方法およびコンピュータプログラム
JP5905691B2 (ja) * 2011-09-26 2016-04-20 トヨタ自動車株式会社 車両用操作入力装置
US9658687B2 (en) 2011-09-30 2017-05-23 Microsoft Technology Licensing, Llc Visual focus-based control of coupled displays
US9383579B2 (en) * 2011-10-12 2016-07-05 Visteon Global Technologies, Inc. Method of controlling a display component of an adaptive display system
US9098069B2 (en) 2011-11-16 2015-08-04 Google Technology Holdings LLC Display device, corresponding systems, and methods for orienting output on a display
US9526127B1 (en) * 2011-11-18 2016-12-20 Google Inc. Affecting the behavior of a user device based on a user's gaze
JP5945417B2 (ja) * 2012-01-06 2016-07-05 京セラ株式会社 電子機器
US9256071B1 (en) * 2012-01-09 2016-02-09 Google Inc. User interface
US8947382B2 (en) 2012-02-28 2015-02-03 Motorola Mobility Llc Wearable display device, corresponding systems, and method for presenting output on the same
US8988349B2 (en) * 2012-02-28 2015-03-24 Google Technology Holdings LLC Methods and apparatuses for operating a display in an electronic device
US9702723B2 (en) * 2012-03-01 2017-07-11 Nokia Technologies Oy Method and apparatus for receiving user estimation of navigational instructions
US20140204014A1 (en) * 2012-03-30 2014-07-24 Sony Mobile Communications Ab Optimizing selection of a media object type in which to present content to a user of a device
US20130293530A1 (en) * 2012-05-04 2013-11-07 Kathryn Stone Perez Product augmentation and advertising in see through displays
US8893164B1 (en) 2012-05-16 2014-11-18 Google Inc. Audio system
US9823742B2 (en) 2012-05-18 2017-11-21 Microsoft Technology Licensing, Llc Interaction and management of devices using gaze detection
KR20140011203A (ko) * 2012-07-18 2014-01-28 삼성전자주식회사 복수의 디스플레이 장치와 연결된 제어 장치 및 그의 제어 방법, 그리고 디스플레이 장치 제어 시스템
US9253524B2 (en) * 2012-07-20 2016-02-02 Intel Corporation Selective post-processing of decoded video frames based on focus point determination
US20140067869A1 (en) * 2012-08-30 2014-03-06 Atheer, Inc. Method and apparatus for content association and history tracking in virtual and augmented reality
US9575960B1 (en) * 2012-09-17 2017-02-21 Amazon Technologies, Inc. Auditory enhancement using word analysis
US11468243B2 (en) * 2012-09-24 2022-10-11 Amazon Technologies, Inc. Identity-based display of text
US20150234457A1 (en) * 2012-10-15 2015-08-20 Umoove Services Ltd. System and method for content provision using gaze analysis
EP2728893B1 (en) * 2012-11-05 2020-04-22 Accenture Global Services Limited Controlling a data stream
US9485459B2 (en) * 2012-12-14 2016-11-01 Biscotti Inc. Virtual window
US9654563B2 (en) 2012-12-14 2017-05-16 Biscotti Inc. Virtual remote functionality
KR102049977B1 (ko) * 2012-12-31 2019-11-28 엘지전자 주식회사 이동 단말기
US8937552B1 (en) * 2013-01-02 2015-01-20 The Boeing Company Heads down warning system
DE102013001380B4 (de) * 2013-01-26 2018-04-26 Audi Ag Verfahren zum Betreiben wenigstens einer Anzeigeeinrichtung eines Kraftwagens und System mit wenigstens einer Anzeigeeinrichtung sowie Kraftwagen
US20140285352A1 (en) * 2013-03-20 2014-09-25 Lg Electronics Inc. Portable device and visual sensation detecting alarm control method thereof
KR102111457B1 (ko) * 2013-05-15 2020-05-15 엘지전자 주식회사 이동 단말기 및 이동 단말기의 제어 방법
DE102013009217A1 (de) * 2013-05-31 2014-12-04 Man Truck & Bus Ag Verfahren und Vorrichtung zur Umfelderfassung und -überwachung von Fahrzeugen, insbesondere von Nutzfahrzeugen
DE102013009568B3 (de) * 2013-06-07 2014-12-11 Audi Ag Verfahren zum blickrichtungsabhängigen Betreiben eines Anzeigesystems und Anzeigesystem sowie dessen Verwendung
US9908048B2 (en) * 2013-06-08 2018-03-06 Sony Interactive Entertainment Inc. Systems and methods for transitioning between transparent mode and non-transparent mode in a head mounted display
US10884493B2 (en) * 2013-06-20 2021-01-05 Uday Parshionikar Gesture based user interfaces, apparatuses and systems using eye tracking, head tracking, hand tracking, facial expressions and other user actions
US10558272B2 (en) * 2013-06-20 2020-02-11 Uday Parshionikar Gesture control via eye tracking, head tracking, facial expressions and other user actions
DE102013015204B4 (de) * 2013-09-13 2015-06-18 Audi Ag Verfahren und System zum Betreiben wenigstens einer Anzeigeeinrichtung eines Kraftwagens sowie Kraftwagen mit einem System zum Betreiben wenigstens einer Anzeigeeinrichtung
DE102013015205B3 (de) * 2013-09-13 2015-02-05 Audi Ag Verfahren und System zum Betreiben einer Mehrzahl von Anzeigeeinrichtungen eines Kraftwagens sowie Kraftwagen mit einem System zum Betreiben einer Mehrzahl von Anzeigeeinrichtungen
DE102013015634B4 (de) * 2013-09-20 2015-06-18 Audi Ag Verfahren und System zum Betreiben wenigstens einer Anzeigeeinrichtung eines Kraftwagens sowie Kraftwagen mit einem System zum Betreiben wenigstens einer Anzeigeeinrichtung
US10115164B1 (en) * 2013-10-04 2018-10-30 State Farm Mutual Automobile Insurance Company Systems and methods to quantify and differentiate individual insurance risk based on actual driving behavior and driving environment
WO2015084298A1 (en) * 2013-12-02 2015-06-11 Intel Corporation Optimizing the visual quality of media content based on user perception of the media content
US20150169047A1 (en) * 2013-12-16 2015-06-18 Nokia Corporation Method and apparatus for causation of capture of visual information indicative of a part of an environment
KR102208077B1 (ko) * 2014-01-02 2021-01-28 엘지전자 주식회사 디스플레이 장치 및 그의 동작 방법
US10667007B2 (en) * 2014-01-22 2020-05-26 Lenovo (Singapore) Pte. Ltd. Automated video content display control using eye detection
US9542844B2 (en) * 2014-02-11 2017-01-10 Google Inc. Providing navigation directions in view of device orientation relative to user
US20150235538A1 (en) * 2014-02-14 2015-08-20 GM Global Technology Operations LLC Methods and systems for processing attention data from a vehicle
CN103823560B (zh) * 2014-02-24 2017-01-04 联想(北京)有限公司 一种控制方法和装置
CN104951048A (zh) * 2014-03-24 2015-09-30 联想(北京)有限公司 信息处理方法及装置
KR102168911B1 (ko) * 2014-03-26 2020-10-22 삼성전자 주식회사 디스플레이장치 및 그 제어방법과, 디스플레이 시스템
US9342147B2 (en) 2014-04-10 2016-05-17 Microsoft Technology Licensing, Llc Non-visual feedback of visual change
US20150294639A1 (en) * 2014-04-14 2015-10-15 Sony Corporation Method and system for switching a mode of an electronic device
US10409366B2 (en) 2014-04-28 2019-09-10 Adobe Inc. Method and apparatus for controlling display of digital content using eye movement
US20150332085A1 (en) * 2014-05-14 2015-11-19 Looq System Inc Method and system for adaptive adjustment of terminal
US9583105B2 (en) * 2014-06-06 2017-02-28 Microsoft Technology Licensing, Llc Modification of visual content to facilitate improved speech recognition
WO2015190093A1 (ja) * 2014-06-10 2015-12-17 株式会社ソシオネクスト 半導体集積回路およびそれを備えた表示装置並びに制御方法
EP3167349A4 (en) * 2014-07-09 2018-02-14 Nokia Technologies OY Device control
WO2016029939A1 (en) * 2014-08-27 2016-03-03 Metaio Gmbh Method and system for determining at least one image feature in at least one image
EP3040809B1 (en) * 2015-01-02 2018-12-12 Harman Becker Automotive Systems GmbH Method and system for controlling a human-machine interface having at least two displays
CN107077212B (zh) 2015-01-30 2020-03-24 惠普发展公司,有限责任合伙企业 电子显示器照明
US10242379B2 (en) * 2015-01-30 2019-03-26 Adobe Inc. Tracking visual gaze information for controlling content display
KR102232544B1 (ko) * 2015-03-05 2021-03-26 삼성전자주식회사 번-인을 감소시키기 위한 방법 및 전자 장치
US9505413B2 (en) * 2015-03-20 2016-11-29 Harman International Industries, Incorporated Systems and methods for prioritized driver alerts
US11269403B2 (en) * 2015-05-04 2022-03-08 Disney Enterprises, Inc. Adaptive multi-window configuration based upon gaze tracking
CN104834446B (zh) * 2015-05-04 2018-10-26 惠州Tcl移动通信有限公司 一种基于眼球追踪技术的显示屏多屏控制方法及系统
DE102015210430A1 (de) * 2015-06-08 2016-12-08 Robert Bosch Gmbh Verfahren zum Erkennen eines Sprachkontexts für eine Sprachsteuerung, Verfahren zum Ermitteln eines Sprachsteuersignals für eine Sprachsteuerung und Vorrichtung zum Ausführen der Verfahren
DE102015211444A1 (de) * 2015-06-22 2016-12-22 Robert Bosch Gmbh Verfahren und Vorrichtung zum Unterscheiden von Blinzelereignissen und Instrumentenblicken unter Verwendung einer Augenöffnungsweite
US9857871B2 (en) 2015-09-04 2018-01-02 Sony Interactive Entertainment Inc. Apparatus and method for dynamic graphics rendering based on saccade detection
KR20170033549A (ko) * 2015-09-17 2017-03-27 삼성전자주식회사 디스플레이 장치, 그 제어 방법 및 컴퓨터 판독가능 기록 매체
US10126813B2 (en) 2015-09-21 2018-11-13 Microsoft Technology Licensing, Llc Omni-directional camera
US11194398B2 (en) * 2015-09-26 2021-12-07 Intel Corporation Technologies for adaptive rendering using 3D sensors
DE102015220398A1 (de) * 2015-10-20 2017-04-20 Robert Bosch Gmbh Verfahren zur Übermittlung von Informationen an einen Fahrer eines Kraftfahrzeuges und adaptives Fahrerassistenzsystem
WO2017075100A1 (en) * 2015-10-26 2017-05-04 Pillantas Inc. Systems and methods for eye vergence control
CN105425950A (zh) * 2015-11-04 2016-03-23 惠州Tcl移动通信有限公司 一种通过检测眼球状态实现终端调节的方法、系统及终端
CN105468144B (zh) * 2015-11-17 2019-02-12 小米科技有限责任公司 智能设备控制方法及装置
US10205994B2 (en) * 2015-12-17 2019-02-12 The Nielsen Company (Us), Llc Methods and apparatus to collect distributed user information for media impressions
KR20170076471A (ko) 2015-12-24 2017-07-04 삼성전자주식회사 변형 가능한 디스플레이 장치 및 이를 이용한 영상 표시 방법
US10775882B2 (en) * 2016-01-21 2020-09-15 Microsoft Technology Licensing, Llc Implicitly adaptive eye-tracking user interface
JP6917708B2 (ja) * 2016-02-29 2021-08-11 株式会社デンソー 運転者監視システム
US10169846B2 (en) * 2016-03-31 2019-01-01 Sony Interactive Entertainment Inc. Selective peripheral vision filtering in a foveated rendering system
US10401952B2 (en) 2016-03-31 2019-09-03 Sony Interactive Entertainment Inc. Reducing rendering computation and power consumption by detecting saccades and blinks
US10192528B2 (en) 2016-03-31 2019-01-29 Sony Interactive Entertainment Inc. Real-time user adaptive foveated rendering
US10372205B2 (en) 2016-03-31 2019-08-06 Sony Interactive Entertainment Inc. Reducing rendering computation and power consumption by detecting saccades and blinks
CN106054625A (zh) * 2016-05-31 2016-10-26 邓俊生 一种家庭影院
CN105955048A (zh) * 2016-05-31 2016-09-21 邓俊生 一种智能家庭影院
US10963914B2 (en) * 2016-06-13 2021-03-30 International Business Machines Corporation System, method, and recording medium for advertisement remarketing
US10776827B2 (en) 2016-06-13 2020-09-15 International Business Machines Corporation System, method, and recording medium for location-based advertisement
US11305766B2 (en) * 2016-09-26 2022-04-19 Iprd Group, Llc Combining driver alertness with advanced driver assistance systems (ADAS)
DE102016120075B4 (de) * 2016-10-21 2020-11-05 Harman Becker Automotive Systems Gmbh Bediensystem zur Bedienung eines Multifunktionssystems
CN106598511A (zh) * 2016-11-10 2017-04-26 珠海格力电器股份有限公司 一种电子设备屏幕切换方法、装置及电子设备
US20180150204A1 (en) * 2016-11-30 2018-05-31 Google Inc. Switching of active objects in an augmented and/or virtual reality environment
DE102016224235A1 (de) 2016-12-06 2018-06-07 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zur Anpassung der Darstellung von Bild- und/oder Bedienelementen auf einer grafischen Benutzerschnittstelle
DE102016225639A1 (de) * 2016-12-20 2018-07-05 Volkswagen Aktiengesellschaft Head-up-Display-Vorrichtung für ein Kraftfahrzeug, Verfahren, Vorrichtung und computerlesbares Speichermedium mit Instruktionen zur Steuerung einer Anzeige einer Head-up-Display-Vorrichtung
EP3367158A1 (en) 2017-02-23 2018-08-29 Nokia Technologies Oy Rendering content
KR20180099182A (ko) * 2017-02-28 2018-09-05 엘지전자 주식회사 헤드 마운티드 디스플레이를 포함하는 시스템 및 그 제어 방법
JP7092110B2 (ja) * 2017-03-07 2022-06-28 ソニーグループ株式会社 情報処理装置、情報処理方法、並びにプログラム
US10560508B2 (en) 2017-03-15 2020-02-11 International Business Machines Corporation Personalized video playback
CN110546601B (zh) * 2017-04-03 2023-09-26 索尼公司 信息处理装置、信息处理方法和程序
CN109212753B (zh) * 2017-07-06 2021-01-29 京东方科技集团股份有限公司 可变显示距离的抬头显示系统、抬头显示方法、驾驶设备
GB2567164A (en) 2017-10-04 2019-04-10 Continental Automotive Gmbh Display system in a vehicle
WO2019073291A1 (en) * 2017-10-11 2019-04-18 Eyecare Spa SYSTEM AND DEVICE FOR PRELIMINARY DIAGNOSIS OF OCULAR DISEASE
JP6915502B2 (ja) * 2017-11-09 2021-08-04 トヨタ自動車株式会社 ドライバ状態検出装置
US11120797B2 (en) * 2017-11-15 2021-09-14 Sony Corporation Information processing terminal, information processing apparatus, and information processing method
US10732826B2 (en) * 2017-11-22 2020-08-04 Microsoft Technology Licensing, Llc Dynamic device interaction adaptation based on user engagement
US10528817B2 (en) 2017-12-12 2020-01-07 International Business Machines Corporation Smart display apparatus and control system
US20190188756A1 (en) * 2017-12-15 2019-06-20 At&T Intellectual Property I, L.P. Methods and devices for determining distraction level of users to select targeted advertisements
US10942564B2 (en) 2018-05-17 2021-03-09 Sony Interactive Entertainment Inc. Dynamic graphics rendering based on predicted saccade landing point
US11262839B2 (en) 2018-05-17 2022-03-01 Sony Interactive Entertainment Inc. Eye tracking with prediction and late update to GPU for fast foveated rendering in an HMD environment
CN110682912B (zh) * 2018-06-19 2023-03-31 斑马智行网络(香港)有限公司 一种数据处理方法、装置和机器可读介质
WO2020055992A1 (en) 2018-09-11 2020-03-19 NetraDyne, Inc. Inward/outward vehicle monitoring for remote reporting and in-cab warning enhancements
CN109345887B (zh) * 2018-09-29 2021-03-16 北京金山安全软件有限公司 任务执行时长的获取方法、装置及电子设备
US20200112759A1 (en) * 2018-10-08 2020-04-09 Motorola Mobility Llc Control Interface Accessory with Monitoring Sensors and Corresponding Methods
KR102537781B1 (ko) 2018-11-13 2023-05-30 삼성전자주식회사 전자 장치 및 이의 제어 방법
CN109683705A (zh) * 2018-11-30 2019-04-26 北京七鑫易维信息技术有限公司 眼球注视控制交互控件的方法、装置和系统
US10921883B2 (en) * 2019-01-17 2021-02-16 International Business Machines Corporation Eye tracking for management of mobile device
US10553118B1 (en) * 2019-01-31 2020-02-04 StradVision, Inc. Method and device for learning generating lane departure warning (LDW) alarm by referring to information on driving situation to be used for ADAS, V2X or driver safety required to satisfy level 4 and level 5 of autonomous vehicles
CN109871253A (zh) * 2019-01-31 2019-06-11 维沃移动通信有限公司 一种显示方法及终端
US10694262B1 (en) * 2019-03-12 2020-06-23 Ambarella International Lp Overlaying ads on camera feed in automotive viewing applications
EP3722158A1 (en) * 2019-04-10 2020-10-14 Volvo Car Corporation A voice assistant system
DE112020002314T5 (de) * 2019-05-10 2022-03-10 Semiconductor Energy Laboratory Co., Ltd. Verbundgerät und Betriebsverfahren für elektronisches Gerät
US11042765B2 (en) 2019-05-14 2021-06-22 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for playing vehicle monitored content in a vehicle
US11379016B2 (en) 2019-05-23 2022-07-05 Intel Corporation Methods and apparatus to operate closed-lid portable computers
DE102019004167A1 (de) * 2019-06-12 2020-12-17 Daimler Ag Verfahren zur Optimierung der Bedienung einer optischen Anzeige
CN112339560B (zh) * 2019-08-06 2022-11-04 上海博泰悦臻网络技术服务有限公司 一种交互方法及车载导航端
US11875695B2 (en) * 2019-09-13 2024-01-16 Guangdong Midea Kitchen Appliances Manufacturing., Co., Ltd. System and method for providing intelligent assistance for food preparation
US11222504B2 (en) * 2019-09-23 2022-01-11 Igt Gaming system and method providing sports betting related replays
CN112584280B (zh) * 2019-09-27 2022-11-29 百度在线网络技术(北京)有限公司 智能设备的控制方法、装置、设备和介质
US11543873B2 (en) 2019-09-27 2023-01-03 Intel Corporation Wake-on-touch display screen devices and related methods
US11733761B2 (en) 2019-11-11 2023-08-22 Intel Corporation Methods and apparatus to manage power and performance of computing devices based on user presence
US11809535B2 (en) 2019-12-23 2023-11-07 Intel Corporation Systems and methods for multi-modal user device authentication
CN115176223A (zh) * 2019-12-27 2022-10-11 索尼集团公司 信息处理装置、信息处理方法和计算机程序
US11360528B2 (en) 2019-12-27 2022-06-14 Intel Corporation Apparatus and methods for thermal management of electronic user devices based on user activity
WO2021154437A1 (en) 2020-01-27 2021-08-05 Magic Leap, Inc. Gaze timer based augmentation of functionality of a user input device
US11166069B1 (en) 2020-05-04 2021-11-02 International Business Machines Corporation Video content conversion
CN112419666B (zh) * 2020-10-19 2022-06-14 钱继华 一种基于升降控制的智能居住服务方法及其系统
US11978266B2 (en) 2020-10-21 2024-05-07 Nvidia Corporation Occupant attentiveness and cognitive load monitoring for autonomous and semi-autonomous driving applications
JP2022070719A (ja) 2020-10-27 2022-05-13 シャープ株式会社 コンテンツ表示システム、コンテンツ表示方法、及びコンテンツ表示プログラム
US11500660B2 (en) 2020-11-20 2022-11-15 International Business Machines Corporation Self-learning artificial intelligence voice response based on user behavior during interaction
CN113204281A (zh) * 2021-03-22 2021-08-03 闻泰通讯股份有限公司 终端屏幕亮度动态调整方法、装置、电子设备及存储介质
US11749032B2 (en) 2021-05-17 2023-09-05 Toyota Research Institute, Inc. Systems and methods for adapting notifications according to component monitoring
US11934574B2 (en) * 2022-07-15 2024-03-19 Ghost Autonomy Inc. Modifying vehicle display parameters using operator gaze
US20240103611A1 (en) * 2022-09-22 2024-03-28 Apple Inc. Method and Device for Waking a Computing System

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10240389A (ja) * 1996-05-30 1998-09-11 Sun Microsyst Inc 視標追跡により駆動される照明とそれを用いた情報表示器
JP2000138872A (ja) * 1998-10-30 2000-05-16 Sony Corp 情報処理装置および方法、並びに提供媒体
JP2000278626A (ja) * 1999-03-29 2000-10-06 Sanyo Electric Co Ltd マルチ画面音声出力制御装置
JP2004145725A (ja) * 2002-10-25 2004-05-20 Mazda Motor Corp 車両用運転支援システム
JP2005063296A (ja) * 2003-08-19 2005-03-10 Matsushita Electric Ind Co Ltd 映像出力装置の制御装置
JP2005279896A (ja) * 2004-03-30 2005-10-13 Advanced Telecommunication Research Institute International ロボット
JP2006003787A (ja) * 2004-06-21 2006-01-05 Fujitsu Ten Ltd 表示制御装置
JP2006119408A (ja) * 2004-10-22 2006-05-11 Sony Corp 映像表示方法および映像表示装置
JP2008014904A (ja) * 2006-07-10 2008-01-24 Nippon Telegr & Teleph Corp <Ntt> 目覚まし時計および目覚まし機能制御方法
JP2008292753A (ja) * 2007-05-24 2008-12-04 Denso Corp 情報表示装置
JP2009267644A (ja) * 2008-04-23 2009-11-12 Sony Ericsson Mobilecommunications Japan Inc 携帯端末、その表示制御方法および表示制御プログラム
JP2010004118A (ja) * 2008-06-18 2010-01-07 Olympus Corp デジタルフォトフレーム、情報処理システム、制御方法、プログラム及び情報記憶媒体
US20100121501A1 (en) * 2008-11-10 2010-05-13 Moritz Neugebauer Operating device for a motor vehicle
JP2010204785A (ja) * 2009-03-02 2010-09-16 Omron Corp 安全監視装置および方法、並びに、プログラム

Family Cites Families (104)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5588139A (en) 1990-06-07 1996-12-24 Vpl Research, Inc. Method and system for generating objects for a multi-person virtual world using data flow networks
US5659691A (en) 1993-09-23 1997-08-19 Virtual Universe Corporation Virtual reality network with selective distribution and updating of data to reduce bandwidth requirements
ATE196560T1 (de) 1994-12-23 2000-10-15 Siemens Ag Verfahren zur umwandlung von sprachlich eingegebenen informationen in maschinenlesbare daten
JP3263286B2 (ja) * 1995-09-07 2002-03-04 松下電器産業株式会社 車載ナビゲーション装置
GB9606791D0 (en) 1996-03-29 1996-06-05 British Telecomm Control interface
NL1004648C2 (nl) 1996-11-11 1998-05-14 Johan Michiel Schaaij Computerspelsysteem.
US6118888A (en) 1997-02-28 2000-09-12 Kabushiki Kaisha Toshiba Multi-modal interface apparatus and method
US20020036617A1 (en) 1998-08-21 2002-03-28 Timothy R. Pryor Novel man machine interfaces and applications
US6522312B2 (en) 1997-09-01 2003-02-18 Canon Kabushiki Kaisha Apparatus for presenting mixed reality shared among operators
US6152563A (en) 1998-02-20 2000-11-28 Hutchinson; Thomas E. Eye gaze direction tracker
US6204828B1 (en) 1998-03-31 2001-03-20 International Business Machines Corporation Integrated gaze/manual cursor positioning system
US6282553B1 (en) 1998-11-04 2001-08-28 International Business Machines Corporation Gaze-based secure keypad entry system
EP1585066A3 (en) * 2000-03-31 2008-11-05 FUJIFILM Corporation Work data collection method
IL138831A (en) * 2000-10-03 2007-07-24 Rafael Advanced Defense Sys An information system is operated by Mabat
JP3701614B2 (ja) * 2001-03-09 2005-10-05 株式会社ソニー・コンピュータエンタテインメント 仮想空間制御プログラム、仮想空間制御プログラムを記録した記録媒体、プログラム実行装置、仮想空間制御方法
FI117488B (fi) 2001-05-16 2006-10-31 Myorigo Sarl Informaation selaus näytöllä
US7149691B2 (en) 2001-07-27 2006-12-12 Siemens Corporate Research, Inc. System and method for remotely experiencing a virtual environment
US20030062675A1 (en) 2001-09-28 2003-04-03 Canon Kabushiki Kaisha Image experiencing system and information processing method
JP4054585B2 (ja) 2002-02-18 2008-02-27 キヤノン株式会社 情報処理装置および方法
US20070265089A1 (en) 2002-05-13 2007-11-15 Consolidated Global Fun Unlimited Simulated phenomena interaction game
WO2004012141A2 (en) 2002-07-26 2004-02-05 Zaxel Systems, Inc. Virtual reality immersion system
US7352359B2 (en) 2002-07-27 2008-04-01 Sony Computer Entertainment America Inc. Method and system for applying gearing effects to inertial tracking
US7627139B2 (en) 2002-07-27 2009-12-01 Sony Computer Entertainment Inc. Computer image and audio processing of intensity and input devices for interfacing with a computer program
US6943754B2 (en) * 2002-09-27 2005-09-13 The Boeing Company Gaze tracking system, eye-tracking assembly and an associated method of calibration
US7427996B2 (en) 2002-10-16 2008-09-23 Canon Kabushiki Kaisha Image processing apparatus and image processing method
SE0203908D0 (sv) 2002-12-30 2002-12-30 Abb Research Ltd An augmented reality system and method
US6859144B2 (en) 2003-02-05 2005-02-22 Delphi Technologies, Inc. Vehicle situation alert system with eye gaze controlled alert signal generation
US7306337B2 (en) * 2003-03-06 2007-12-11 Rensselaer Polytechnic Institute Calibration-free gaze tracking under natural head movement
KR20060014399A (ko) * 2003-05-12 2006-02-15 엘비트 시스템스 엘티디. 시청각 통신 개선 방법 및 시스템
US11033821B2 (en) 2003-09-02 2021-06-15 Jeffrey D. Mullen Systems and methods for location based games and employment of the same on location enabled devices
US8323106B2 (en) 2008-05-30 2012-12-04 Sony Computer Entertainment America Llc Determination of controller three-dimensional location using image analysis and ultrasonic communication
BRPI0416441A (pt) * 2003-11-26 2007-02-27 Rafael Armament Dev Authority sistema de medição de posição de capacete, conjunto de capacete com tal sistema, e método de cálculo confiável em tempo real da direção de olhar da pupila
US9652032B2 (en) 2004-03-02 2017-05-16 Brian T. Mitchell Simulated training environments based upon fixated objects in specified regions
US7671916B2 (en) 2004-06-04 2010-03-02 Electronic Arts Inc. Motion sensor using dual camera inputs
US7532197B2 (en) * 2004-06-22 2009-05-12 Lenovo (Singapore) Pte Ltd. Method and system for automated monitoring of a display
JP2006071619A (ja) * 2004-08-03 2006-03-16 Denso Corp ナビゲーション装置およびプログラム
JP4434890B2 (ja) 2004-09-06 2010-03-17 キヤノン株式会社 画像合成方法及び装置
US20060066567A1 (en) * 2004-09-29 2006-03-30 Scharenbroch Gregory K System and method of controlling scrolling text display
US8585476B2 (en) 2004-11-16 2013-11-19 Jeffrey D Mullen Location-based games and augmented reality systems
US7396129B2 (en) 2004-11-22 2008-07-08 Carestream Health, Inc. Diagnostic system having gaze tracking
KR100633161B1 (ko) * 2005-01-20 2006-10-12 삼성전자주식회사 디스플레이 장치 및 데이터 라이팅 디바이스
DE102005003535A1 (de) 2005-01-25 2006-08-03 Daimlerchrysler Ag Optische und akustische Informationsausgabe
TWI278772B (en) 2005-02-23 2007-04-11 Nat Applied Res Lab Nat Ce Augmented reality system and method with mobile and interactive function for multiple users
EP1851727A4 (en) 2005-02-23 2008-12-03 Craig Summers AUTOMATIC SCENES MODELING FOR 3D CAMERA AND 3D VIDEO
US20060192775A1 (en) 2005-02-25 2006-08-31 Microsoft Corporation Using detected visual cues to change computer system operating states
US20060223635A1 (en) 2005-04-04 2006-10-05 Outland Research method and apparatus for an on-screen/off-screen first person gaming experience
US20070190494A1 (en) 2005-04-04 2007-08-16 Outland Research, Llc Multiplayer gaming using gps-enabled portable gaming devices
US7721225B2 (en) 2005-05-03 2010-05-18 Novell, Inc. System and method for creating and presenting modal dialog boxes in server-side component web applications
US20090282102A1 (en) 2005-05-27 2009-11-12 Koninklijke Philips Electronics, N.V. Playback device
US20070008338A1 (en) * 2005-05-28 2007-01-11 Young-Chan Kim Display system, display apparatus, and method of controlling video source and display apparatus
US20070015121A1 (en) 2005-06-02 2007-01-18 University Of Southern California Interactive Foreign Language Teaching
IL169934A (en) 2005-07-27 2013-02-28 Rafael Advanced Defense Sys Real-time geographic information system and method
WO2007056373A2 (en) * 2005-11-04 2007-05-18 Eyetracking, Inc. Characterizing dynamic regions of digital media data
US7429108B2 (en) 2005-11-05 2008-09-30 Outland Research, Llc Gaze-responsive interface to enhance on-screen user reading tasks
WO2007092512A2 (en) 2006-02-07 2007-08-16 Attention Technologies, Inc. Driver drowsiness and distraction monitor
WO2007097966A1 (en) 2006-02-16 2007-08-30 Oneida Indian Nation Integrated gaming and services system and method
US8730156B2 (en) 2010-03-05 2014-05-20 Sony Computer Entertainment America Llc Maintaining multiple views on a shared stable virtual space
US20110298829A1 (en) 2010-06-04 2011-12-08 Sony Computer Entertainment Inc. Selecting View Orientation in Portable Device via Image Analysis
WO2007105792A1 (ja) * 2006-03-15 2007-09-20 Omron Corporation 監視装置および監視方法、制御装置および制御方法、並びにプログラム
CN101466305B (zh) * 2006-06-11 2012-05-30 沃尔沃技术公司 用于确定和分析视觉兴趣位置的方法
GB2440348B (en) 2006-06-30 2008-10-22 Motorola Inc Computer device having a user interface and method for positioning a cursor thereon
US8564544B2 (en) 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
US20090146953A1 (en) 2006-10-30 2009-06-11 Imu Solutions, Inc. Methods for processing data from accelerometer in anticipating real-time cursor control movements
US8225229B2 (en) 2006-11-09 2012-07-17 Sony Mobile Communications Ab Adjusting display brightness and/or refresh rates based on eye tracking
US20080136775A1 (en) 2006-12-08 2008-06-12 Conant Carson V Virtual input device for computing
US8462109B2 (en) 2007-01-05 2013-06-11 Invensense, Inc. Controlling and accessing content using motion processing on mobile devices
US20090262074A1 (en) 2007-01-05 2009-10-22 Invensense Inc. Controlling and accessing content using motion processing on mobile devices
US10437459B2 (en) 2007-01-07 2019-10-08 Apple Inc. Multitouch data fusion
US20080220878A1 (en) 2007-02-23 2008-09-11 Oliver Michaelis Method and Apparatus to Create or Join Gaming Sessions Based on Proximity
JP5230114B2 (ja) 2007-03-13 2013-07-10 キヤノン株式会社 情報処理装置、情報処理方法
US8269822B2 (en) 2007-04-03 2012-09-18 Sony Computer Entertainment America, LLC Display viewing system and methods for optimizing display view based on active tracking
US8203591B2 (en) * 2007-04-30 2012-06-19 Cisco Technology, Inc. Method and system for optimal balance and spatial consistency
US8154583B2 (en) * 2007-05-31 2012-04-10 Eastman Kodak Company Eye gazing imaging for video communications
US8154578B2 (en) * 2007-05-31 2012-04-10 Eastman Kodak Company Multi-camera residential communication system
US8063929B2 (en) * 2007-05-31 2011-11-22 Eastman Kodak Company Managing scene transitions for video communication
US8253770B2 (en) * 2007-05-31 2012-08-28 Eastman Kodak Company Residential video communication system
US8159519B2 (en) * 2007-05-31 2012-04-17 Eastman Kodak Company Personal controls for personal video communications
US20090110245A1 (en) * 2007-10-30 2009-04-30 Karl Ola Thorn System and method for rendering and selecting a discrete portion of a digital image for manipulation
US9082213B2 (en) 2007-11-07 2015-07-14 Canon Kabushiki Kaisha Image processing apparatus for combining real object and virtual object and processing method therefor
US8419545B2 (en) 2007-11-28 2013-04-16 Ailive, Inc. Method and system for controlling movements of objects in a videogame
US8786675B2 (en) 2008-01-23 2014-07-22 Michael F. Deering Systems using eye mounted displays
US8259169B2 (en) * 2008-02-28 2012-09-04 Panasonic Corporation Eye-gaze detecting device and eye-gaze detecting method
ITFI20080049A1 (it) 2008-03-12 2009-09-13 Sr Labs Srl Apparato per la creazione, il salvataggio e la formattazione di documenti testuali tramite controllo oculare e metodo associato basato sul posizionamento ottimizzato del cursore.
US20090244097A1 (en) 2008-03-25 2009-10-01 Leonardo William Estevez System and Method for Providing Augmented Reality
US8808164B2 (en) * 2008-03-28 2014-08-19 Intuitive Surgical Operations, Inc. Controlling a robotic surgical tool with a display monitor
US8155479B2 (en) * 2008-03-28 2012-04-10 Intuitive Surgical Operations Inc. Automated panning and digital zooming for robotic surgical systems
KR20100011330A (ko) 2008-07-24 2010-02-03 삼성전자주식회사 이동 단말에서 보드 게임 서비스를 제공하는 장치 및 방법
US20100053151A1 (en) 2008-09-02 2010-03-04 Samsung Electronics Co., Ltd In-line mediation for manipulating three-dimensional content on a display device
US8212659B2 (en) * 2008-09-05 2012-07-03 Mazda Motor Corporation Driving assist device for vehicle
US8581838B2 (en) 2008-12-19 2013-11-12 Samsung Electronics Co., Ltd. Eye gaze control during avatar-based communication
US20100182232A1 (en) * 2009-01-22 2010-07-22 Alcatel-Lucent Usa Inc. Electronic Data Input System
US8274544B2 (en) * 2009-03-23 2012-09-25 Eastman Kodak Company Automated videography systems
US8237771B2 (en) * 2009-03-26 2012-08-07 Eastman Kodak Company Automated videography based communications
US8839121B2 (en) 2009-05-06 2014-09-16 Joseph Bertolami Systems and methods for unifying coordinate systems in augmented reality applications
US20100315413A1 (en) 2009-06-16 2010-12-16 Microsoft Corporation Surface Computer User Interaction
US8977972B2 (en) 2009-12-31 2015-03-10 Intel Corporation Using multi-modal input to control multiple objects on a display
US9507418B2 (en) 2010-01-21 2016-11-29 Tobii Ab Eye tracker based contextual action
US8890946B2 (en) * 2010-03-01 2014-11-18 Eyefluence, Inc. Systems and methods for spatially controlled scene illumination
US8922480B1 (en) * 2010-03-05 2014-12-30 Amazon Technologies, Inc. Viewer-based device control
US8913004B1 (en) * 2010-03-05 2014-12-16 Amazon Technologies, Inc. Action based device control
US20110320978A1 (en) 2010-06-29 2011-12-29 Horodezky Samuel J Method and apparatus for touchscreen gesture recognition overlay
US20120029302A1 (en) 2010-07-29 2012-02-02 Shih-Chung Hsu Apparatus and method for dynamic detection of electrophysiological signals for stillness feedback
US8957847B1 (en) * 2010-12-28 2015-02-17 Amazon Technologies, Inc. Low distraction interfaces
US20120188148A1 (en) 2011-01-24 2012-07-26 Microvision, Inc. Head Mounted Meta-Display System

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10240389A (ja) * 1996-05-30 1998-09-11 Sun Microsyst Inc 視標追跡により駆動される照明とそれを用いた情報表示器
JP2000138872A (ja) * 1998-10-30 2000-05-16 Sony Corp 情報処理装置および方法、並びに提供媒体
JP2000278626A (ja) * 1999-03-29 2000-10-06 Sanyo Electric Co Ltd マルチ画面音声出力制御装置
JP2004145725A (ja) * 2002-10-25 2004-05-20 Mazda Motor Corp 車両用運転支援システム
JP2005063296A (ja) * 2003-08-19 2005-03-10 Matsushita Electric Ind Co Ltd 映像出力装置の制御装置
JP2005279896A (ja) * 2004-03-30 2005-10-13 Advanced Telecommunication Research Institute International ロボット
JP2006003787A (ja) * 2004-06-21 2006-01-05 Fujitsu Ten Ltd 表示制御装置
JP2006119408A (ja) * 2004-10-22 2006-05-11 Sony Corp 映像表示方法および映像表示装置
JP2008014904A (ja) * 2006-07-10 2008-01-24 Nippon Telegr & Teleph Corp <Ntt> 目覚まし時計および目覚まし機能制御方法
JP2008292753A (ja) * 2007-05-24 2008-12-04 Denso Corp 情報表示装置
JP2009267644A (ja) * 2008-04-23 2009-11-12 Sony Ericsson Mobilecommunications Japan Inc 携帯端末、その表示制御方法および表示制御プログラム
JP2010004118A (ja) * 2008-06-18 2010-01-07 Olympus Corp デジタルフォトフレーム、情報処理システム、制御方法、プログラム及び情報記憶媒体
US20100121501A1 (en) * 2008-11-10 2010-05-13 Moritz Neugebauer Operating device for a motor vehicle
JP2010204785A (ja) * 2009-03-02 2010-09-16 Omron Corp 安全監視装置および方法、並びに、プログラム

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016126773A (ja) * 2014-12-29 2016-07-11 イマージョン コーポレーションImmersion Corporation 視線追跡に基づく触覚効果を生成するシステム及び方法
JP2016139330A (ja) * 2015-01-28 2016-08-04 富士ゼロックス株式会社 画像形成装置およびプログラム
JP2020531963A (ja) * 2017-08-17 2020-11-05 シグニファイ ホールディング ビー ヴィSignify Holding B.V. 注意シフトに応じて光源のライト状態の好みを記憶する
JP2019169004A (ja) * 2018-03-23 2019-10-03 富士通デバイス株式会社 視線検出システムおよび視線検出プログラム
JP2021009541A (ja) * 2019-07-01 2021-01-28 コニカミノルタ株式会社 画像形成装置、及び、画像形成システム
JP7419682B2 (ja) 2019-07-01 2024-01-23 コニカミノルタ株式会社 画像形成装置、及び、画像形成システム
WO2023185762A1 (zh) * 2022-03-29 2023-10-05 华为技术有限公司 确定被控制设备的方法、确定目标用户的方法及电子设备

Also Published As

Publication number Publication date
CN103718134A (zh) 2014-04-09
EP2715486A2 (en) 2014-04-09
WO2012162060A3 (en) 2013-04-11
JP6017545B2 (ja) 2016-11-02
US10120438B2 (en) 2018-11-06
WO2012162060A2 (en) 2012-11-29
CN103718134B (zh) 2017-02-22
US20120300061A1 (en) 2012-11-29

Similar Documents

Publication Publication Date Title
JP6017545B2 (ja) 視線によるデバイスの挙動の変更
US11016564B2 (en) System and method for providing information
US20230033604A1 (en) User interfaces including selectable representations of content items
US10416789B2 (en) Automatic selection of a wireless connectivity protocol for an input device
CN111247394B (zh) 信息处理装置和信息处理方法
US10466800B2 (en) Vehicle information processing device
CN104838335B (zh) 使用凝视检测的设备的交互和管理
KR102058891B1 (ko) 헤드 장착식 디스플레이를 위한 반응성 사용자 인터페이스
US10528150B2 (en) In-vehicle device
US10063928B2 (en) Methods, systems, and media for controlling a presentation of media content
US20140075311A1 (en) Methods and apparatus for controlling audio volume on an electronic device
US20230110773A1 (en) Control system and method using in-vehicle gesture input
EP2843513A1 (en) Wearable device and method of outputting content thereof
KR20140113465A (ko) 컨텐츠 기반 알림 메커니즘을 포함한 컴퓨터 시스템과 그 동작 방법
CN113901239B (zh) 信息展示方法、装置、设备及存储介质
MX2015004843A (es) Dispositivo de despliegue, metodo de control del dispositivo de despliegue, y procesador de informacion para controlar el dispositivo de despliegue.
US20230045996A1 (en) Control system using in-vehicle gesture input
CN106663271B (zh) 具有交叉面板互动的独立多面板显示器
US20180181263A1 (en) Uninterruptable overlay on a display
PH12015500078B1 (en) A method and device for controlling a display device
CN116775189A (zh) 交互控制装置、方法、车载设备、车辆及存储介质
WO2019195007A1 (en) Environment-based adjustments to user interface architecture
US11546414B2 (en) Method and apparatus for controlling devices to present content and storage medium
WO2020031795A1 (ja) 情報処理装置、情報処理方法およびプログラム
US20240192917A1 (en) Detecting notable occurrences associated with events

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140410

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150310

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150511

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160607

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160808

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160830

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160928

R150 Certificate of patent or registration of utility model

Ref document number: 6017545

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250