JP2017518554A - 表示装置の閲覧者の注視誘引 - Google Patents

表示装置の閲覧者の注視誘引 Download PDF

Info

Publication number
JP2017518554A
JP2017518554A JP2016560400A JP2016560400A JP2017518554A JP 2017518554 A JP2017518554 A JP 2017518554A JP 2016560400 A JP2016560400 A JP 2016560400A JP 2016560400 A JP2016560400 A JP 2016560400A JP 2017518554 A JP2017518554 A JP 2017518554A
Authority
JP
Japan
Prior art keywords
viewer
gaze
display
guide element
advertisement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016560400A
Other languages
English (en)
Other versions
JP6611733B2 (ja
JP2017518554A5 (ja
Inventor
エデン,イブラヒム
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2017518554A publication Critical patent/JP2017518554A/ja
Publication of JP2017518554A5 publication Critical patent/JP2017518554A5/ja
Application granted granted Critical
Publication of JP6611733B2 publication Critical patent/JP6611733B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0021Image watermarking
    • G06T1/0028Adaptive watermarking, e.g. Human Visual System [HVS]-based watermarking
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/219Input arrangements for video game devices characterised by their sensors, purposes or types for aiming at specific areas on the display, e.g. light-guns
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/426Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0242Determining effectiveness of advertisements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0242Determining effectiveness of advertisements
    • G06Q30/0246Traffic
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0273Determination of fees for advertising
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0021Image watermarking
    • G06T1/0028Adaptive watermarking, e.g. Human Visual System [HVS]-based watermarking
    • G06T1/0035Output size adaptive watermarking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • A63B71/06Indicating or scoring devices for games or players, or for other sports activities
    • A63B2071/0602Non-electronic means therefor
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • A63B71/06Indicating or scoring devices for games or players, or for other sports activities
    • A63B71/0619Displays, user interfaces and indicating devices, specially adapted for sport equipment, e.g. display mounted on treadmills
    • A63B71/0622Visual, audio or audio-visual systems for entertaining, instructing or motivating the user
    • A63B2071/0638Displaying moving images of recorded environment, e.g. virtual environment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2213/00Indexing scheme for animation
    • G06T2213/12Rule based animation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/16Using real world measurements to influence rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Accounting & Taxation (AREA)
  • Development Economics (AREA)
  • Strategic Management (AREA)
  • Finance (AREA)
  • Game Theory and Decision Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Ophthalmology & Optometry (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Road Signs Or Road Markings (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Traffic Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Navigation (AREA)

Abstract

ディスプレイの閲覧者の注視を引くことに関する例が開示される。例示的な一方法は、対象オブジェクトを表示するようにディスプレイを制御するステップと、注視追跡データを使用して閲覧者の注視ロケーションを監視するステップとを含む。閲覧者の注視ロケーションの近くを横断して対象オブジェクトに至る、算出された動的経路に沿って移動するガイド要素が表示される。閲覧者の注視ロケーションがガイド要素の所定の逸脱閾値内にある場合、ディスプレイは、対象オブジェクトまでの算出された動的ガイド経路に沿って移動するガイド要素の表示を続ける。閲覧者の注視ロケーションがガイド要素から少なくとも所定の逸脱閾値の差をつけて離れている場合、ディスプレイは、対象オブジェクトまでの算出された動的ガイド経路に沿って移動するガイド要素の表示を中止する。

Description

[0001] コンテンツの作成および/または配信装置は、注視追跡システムを利用してユーザの注視のロケーションを追跡することがある。状況によっては、映画の製作者、広告主、またはゲーム開発者などのコンテンツ作成者が、表示装置を介して表示される特定のロケーションまたはフィーチャ(feature)を見るようにユーザを誘導したいことがある。注視追跡システムを使用して、ユーザの注視の現在のロケーションを推定することができる。そのような現在のロケーションが希望のロケーションまたはフィーチャと一致しない場合は、希望のロケーションまたはフィーチャを目立つように視覚的に強化して、ユーザの注意と注視を捉えることができる。例えば、希望のロケーションまたはフィーチャを、明るい対照的な色で強調表示する、視覚的に拍動もしくは点滅させる、および/またはその他の形で外観を変化させて、ユーザの注意を引くことができる。
[0002] しかし、希望のロケーションやフィーチャをこのようにして強化することは、ユーザにとって目障りになる可能性があり、そのような強化がなければ満足の行くものであったユーザ体験の妨げになりかねない。また、希望のフィーチャが広告である場合には、ユーザは、広告を見るためにユーザ体験から意図的に引き離されることを好ましく思わない可能性がある。
[0003] 閲覧者の注視を引くことに関する様々な例が本明細書に開示される。開示される一方法では、対象オブジェクトを表示するように表示装置を制御し、注視追跡システムからの注視追跡データを使用して、ディスプレイの閲覧者の注視ロケーションを監視する。閲覧者の注視ロケーションに隣接する所定の領域の中を横断して対象オブジェクトに至る、算出された動的経路に沿って移動するようにガイド要素が表示される。
[0004] 注視追跡データを使用して、閲覧者の注視ロケーションがガイド要素の所定の逸脱閾値内にあるかどうかを判定する。閲覧者の注視ロケーションがガイド要素の所定の逸脱閾値内にある場合は、対象オブジェクトまでの算出された動的ガイド経路に沿って移動するガイド要素の表示を続けるようにディスプレイが制御される。しかしながら、閲覧者の注視ロケーションがガイド要素から少なくとも所定の逸脱閾値の差をつけて離れている場合は、対象オブジェクトまでの算出された動的ガイド経路に沿って移動するガイド要素の表示を中止するようにディスプレイが制御される。
[0005] この概要は、下記の詳細な説明でさらに説明する概念のいくつかを簡略化した形態で紹介するために提供される。この概要は、請求項に記載される主題の主要な特徴または必須の特徴を明らかにする意図はなく、また請求項に記載される主題の範囲を限定するために使用する意図もない。さらに、請求項に記載される主題は、本開示のいずれかの箇所に記載される不都合点のいずれかまたはすべてを解決する実装に限定されない。
[0006]本開示の例による、閲覧者の注視を引くためにディスプレイと共に利用することができる例示的コンピューティング装置の概略図である。 [0007]本開示の例による、閲覧者の注視を引くコンピューティング装置およびディスプレイと対話している室内の閲覧者の概略図である。 [0008]本開示の例による、閲覧者の注視を引くことができる、表示装置に表示された映画の概略図である。 [0009]本開示の例による、閲覧者の注視を引くことができる、表示装置に表示されたゲームの概略図である。 [0010]本開示の例による、閲覧者の注視を引くことができる、表示装置に表示されたウェブページの概略図である。 [0011]例示的な頭部装着型表示装置の概略図である。 [0012]本開示の例による、表示装置の閲覧者の注視を引くための方法のフローチャートである。 [0012]本開示の例による、表示装置の閲覧者の注視を引くための方法のフローチャートである。 [0013]コンピューティング装置の一例の簡略概略図である。
[0014] 図1は、表示装置の閲覧者の注視を引くためのコンピューティング装置の例示的実装の概略図を示す。下記で詳しく説明するように、コンピューティング装置は、注視追跡システムからの注視追跡データを使用して、閲覧者の注視ロケーションを監視する。注視誘引プログラムが、表示装置を制御して、閲覧者の注視ロケーションに隣接する所定の領域の中を横断して対象オブジェクトに至る、算出された動的経路に沿って移動するガイド要素を表示させる。閲覧者の注視がガイド要素に留まっている場合、ガイド要素は、対象オブジェクトまでの算出された動的ガイド経路に沿って移動を続ける。閲覧者の注視が少なくとも所定の逸脱閾値の差をつけてガイド要素から離れている場合は、対象オブジェクトまでの算出された動的ガイド経路に沿って移動するガイド要素はそれ以上表示されなくなる。
[0015] 様々な例では、コンピューティング装置は、閲覧者が対話することが可能な表示装置から物理的に分離している場合も、または表示装置に組み込まれる場合もある。図1は、表示装置14から物理的に分離したコンピューティング装置10の一例を概略的に示す。この例では、コンピューティング装置10は、セットトップボックス、ゲームコンソール、ウェブカメラ、頭部装着型コンピューティング装置もしくは他の装着型コンピューティング装置、キーボード、専用周辺機器、または一体型ディスプレイを備えない他の同様の装置などの別個の装置からなるか、あるいはそれらの別個の装置に組み込むことができる。
[0016] コンピューティング装置10は、有線接続を使用して表示装置14と動作的に接続されるか、または、WiFi、Bluetooth(登録商標)、もしくは任意の他の適切なワイヤレス通信プロトコルを介するワイヤレス接続を用いることができる。例えば、コンピューティング装置10は、通信可能にネットワーク16に結合されることが可能である。ネットワーク16は、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、有線ネットワーク、ワイヤレスネットワーク、パーソナルエリアネットワーク、またはそれらの組み合わせの形態をとることができ、インターネットを含むことができる。コンピューティング装置10の構成要素およびコンピューティング態様に関するさらなる詳細は、図8を参照して下記で詳しく説明する。
[0017] 図1は、頭部装着型ディスプレイ(HMD)装置18に組み込まれたコンピューティング装置12の一例も示す。HDM装置18は、仮想現実環境または複合現実環境を作成して、それを第1の閲覧者22に表示する。これらの例では、HDM装置18は、HDM装置を介して表示するための仮想環境または複合現実環境を生成することができる表示プログラム26を含むことができる。仮想環境は、HDM装置18を介して生成および表示される3次元(3D)のホログラフィオブジェクトや2次元(2D)の仮想画像などの仮想画像の形態である、1つまたは複数の視覚的要素を含むことができる。複合現実環境では、HDM装置18は、閲覧者が、閲覧者を取り囲む物理環境の中でそのようなホログラフィオブジェクトや仮想画像を見られるようにすることができる。
[0018] 下記で詳しく説明するように、一部の例では、HDM装置18は、閲覧者の片方の眼または両方の眼の前方に支持された、透明、半透明、または不透明のディスプレイを備えることができる。HDM装置18は、各種のセンサと、それに関係する、物理環境から物理環境データを受け取るシステムとを含むことができる。例えば、HDM装置18は、奥行き画像データを生成する1つまたは複数の奥行きカメラを含む奥行きセンサシステム30を含むことができる。
[0019] 一部の例では、HDM装置18は、RGBカメラや他の光学センサなどの少なくとも1つの外向きセンサを利用する光学センサシステム32を含むことができる。外向きセンサは、物理環境から2次元画像情報を取り込むことができる。HDM装置18は、1つもしくは複数の加速度計、ジャイロスコープ、頭部追跡システム、および/またはユーザの位置もしくは向きを判定するための他のセンサを備える位置センサシステム34も含むことができる。
[0020] HDM装置18は、電気信号を別の形態のエネルギーに変換する1つまたは複数のアクチュエータを備えたトランスデューサシステム38も含むことができる。一部の例では、トランスデューサシステム38は、オーディオフィードバックを閲覧者に提供するための1つまたは複数のスピーカを含むことができる。他の例では、トランスデューサシステム38は、振動など、触角を利用したフィードバックを生成して閲覧者に提供するための1つまたは複数の触覚トランスデューサを含むことができる。HDM装置18は、物理環境からオーディオ入力を受け取るためのマイクロフォンシステム42および1つまたは複数のマイクロフォンも含むことができる。
[0021] また、図1に示す例は、HDM装置18に組み込まれたコンピューティング装置12を示す。他の例では、コンピューティング装置12はHDM装置18とは別個の構成要素である場合もあることが認識されよう。様々なフォームファクタを持つ多くの種類および構成のHDM装置18が使用されてよく、本開示の範囲内にある。例示的なHDM装置の詳細な説明は、図6を参照して下記で提供する。
[0022] コンピューティング装置12は、タブレット、ノートブック、スマートフォン、もしくは他のモバイルコンピューティング装置、デスクトップコンピューティング装置、独立型モニタ、壁掛け型ディスプレイ、対話型ホワイトボード、または一体型ディスプレイを有する他の同様の装置など、他の適切な種類または形態の表示装置からなるか、またはそれらの表示装置に組み込むことができることも認識されよう。そのような装置には、下記で詳しく説明するように注視追跡システムも含まれ得る。
[0023] コンピューティング装置10とコンピューティング装置12は両方とも、大容量ストレージ40に記憶されることが可能な注視誘引プログラム46を含むことができる。注視誘引プログラム46はメモリ48にロードされ、プロセッサ52によって実行されて、下記で詳しく説明する方法およびプロセスの1つまたは複数を行うことができる。
[0024] コンピューティング装置10およびコンピューティング装置12は、注視追跡システム54から注視追跡データ50を受け取ることができる。様々な例で、注視追跡システム54は、表示装置14、HDM装置18、または、限定しないが上記の一体型ディスプレイを有する例示的装置を含む、他の適切な種類もしくは形態の表示装置と共通の筐体に置かれる可能性がある。他の例では、注視追跡システム54およびコンピューティング装置10は、頭部装着型や他の装着型の装置など一体型ディスプレイを含まない共通の筐体に組み込むか、または、限定しないが上記の一体型ディスプレイを持たない例示的装置を含む、一体型ディスプレイを含まない他の適切な種類もしくは形態のコンピューティング装置に組み込むことができる。
[0025] 引き続き図1を参照すると、例示的な表示装置14は、1つまたは複数の視覚的要素を第2の閲覧者62に提示するための表示システム58を含むことができる。下記で詳しく説明するように、注視誘引プログラム46は、注視追跡システム54からの注視追跡データ50を利用して、表示装置14、HDM18、または他の表示装置によって表示されるガイド要素を介して閲覧者の注視を引くことができる。
[0026] 次いで図2〜図5を参照して、次いで例示的な使用事例の説明を提供する。図2は、部屋200の中にいる数人の閲覧者の概略図であり、それらの閲覧者は、注視追跡システムからの注視追跡データを使用して閲覧者の注視を引くコンピューティング装置および表示装置と対話している。一例では、閲覧者アレックス202は、壁掛け型ディスプレイ210に表示される映画206を見ている。この例では、壁掛け型ディスプレイ210は、注視追跡システム54を備えるセットトップボックス214と、注視誘引プログラム46を含むコンピューティング装置とに通信的に結合されている。
[0027] ここで図3を参照すると、一例では、映画206の制作者は、映画の一場面で表示されるCoffee House302に閲覧者の注意を引き付けたいと考える。閲覧者の注意を引くために、注視誘引プログラム46は、表示装置210を制御してガイド要素を表示するように構成されてよい。この例では、ガイド要素は、映画の当該場面に追加されるコンピュータ生成画像である可能性のある鳥306からなる。注視追跡システム54からの注視追跡データを使用して、注視誘引プログラム46は、壁掛け型ディスプレイ210上での閲覧者アレックス202の注視ロケーションを監視することができる。例えば、図3に示すように、注視追跡システム54は、注視追跡データ50を使用して、閲覧者アレックス202が現在注視ロケーション308を注視していると判定することができる。
[0028] 鳥306は、Coffee House302に至る、算出された動的経路310に沿って移動するように表示することができる。さらに閲覧者アレックス202の注意を引くために、算出された動的経路310は、閲覧者アレックス202の注視ロケーション308に隣接する所定の領域314の中を横断することができる。また、閲覧者アレックス202の閲覧体験を中断させることや気を散らすことを最小に抑えるために、動的経路310は、鳥306の動きを自然で本物らしく見せるように算出することができる。有利には、そのような動的経路310を使用すると、閲覧者アレックス202が、自分の注意が操作されている、または意図的に逸らされていると感じることなく、映画206の視聴を続け、楽しめるようにすることができる。
[0029] 一部の例では、コンピュータで生成された鳥306は、映画206の中に実時間で描画されるコンピュータ生成画像の移動を支配するコンピュータ生成画像移動規則に従って、算出された動的経路310に沿って移動するように表示することができる。鳥306の形態のガイド要素のこの例は説明のために提供されるものであり、ガイド要素の多くの他の種類、形態、および例が利用されてよく、本開示の範囲内にあることも認識されよう。例えば、映画206を参照すると、利用することが可能な他のコンピュータで生成されるガイド要素には、限定されないが、浮遊する葉、人、車、または他の適切なガイド要素が含まれる。
[0030] 図3に示す例では、閲覧者アレックス202の注視ロケーション308に隣接する所定の領域314は、注視ロケーションと同心の半径Rを有する円である。半径Rは、任意の適切なやり方で決定することができ、例えば、壁掛け型ディスプレイ210からの閲覧者アレックス202の距離、壁掛け型ディスプレイの大きさ、壁掛け型ディスプレイに表示される1つもしくは複数の要素の大きさ、注視追跡システム54の精度、または他の適切な基準、の1つまたは複数に基づくことができる。様々な例では、半径Rは、およそ、0.5mm、1.0mm、5.0mm、10.0mm、50.0mm、100.0mmの長さ、または任意の他の適切な距離を有することができる。閲覧者の注視ロケーションに隣接する所定の領域の任意の他の適切な形状および/または構成も使用することができ、本開示の範囲内にあることも認識されよう。
[0031] 引き続き図3を参照すると、鳥306が算出された動的経路310に沿って進行するのに伴い、注視誘引プログラム46は、閲覧者アレックス202の注視が鳥の飛行を追っているかどうかを判定することができる。一例では、鳥306が注視ロケーション308を通過した後、注視誘引プログラム46は、閲覧者アレックス202の更新後の注視ロケーション308’が鳥306の所定の逸脱閾値内にあるかどうかを判定することができる。
[0032] 一例では、図3に示すように、閲覧者アレックス202の更新後の注視ロケーション308’は、更新後の注視ロケーションが鳥306の少なくとも一部分に重なっている場合に、鳥306の所定の逸脱閾値内にあると判定することができる。別の例では、閲覧者アレックス202の更新後の注視ロケーション308’は、注視ロケーションが必ずしも鳥と重なっていないが、鳥から所定の距離内にある場合に、鳥306の所定の逸脱閾値内にあると判定することができる。
[0033] 例えば、図3に示すように、所定の逸脱閾値318は、更新後の注視ロケーション308’と同心の半径Tの円からなることができる。上記の半径Rと同様に、半径Tは、任意の適切なやり方で決定することができ、例えば、壁掛け型ディスプレイ210からの閲覧者アレックス202の距離、壁掛け型ディスプレイの大きさ、鳥306および/もしくは壁掛け型ディスプレイに表示される1つもしくは複数の他の要素の大きさ、注視追跡システム54の精度、または任意の他の適切な基準、の1つまたは複数に基づくことができる。様々な例では、半径Tは、およそ、0.5mm、1.0mm、5.0mm、10.0mm、50.0mm、100.0mmの長さ、または任意の他の適切な長さを有することができる。所定の逸脱閾値の任意の他の適切な形状および/または構成も使用することができ、本開示の範囲内にあることも認識されよう。
[0034] 更新後の注視ロケーション308’が鳥306の所定の逸脱閾値内にある場合、注視誘引プログラム46は、壁掛け型ディスプレイ210を制御して、Coffee House302までの算出された動的経路310に沿って移動する鳥306の表示を続けることができる。有利には、このようにして、閲覧者アレックス202の注視をCoffee House302に導き、それによりCoffee Houseに対するアレックスの意識を増大させることができる。また、下記で詳しく説明するように、一部の例では、注視誘引プログラム46は、閲覧者アレックスの注視ロケーションがCoffee House302に重なっていることを判定する場合もあり、それに応答してCoffee Houseに広告利用料を割り当てる場合もある。
[0035] 別の例では、注視誘引プログラム46は、閲覧者アレックス202の注視ロケーションが少なくとも所定の逸脱閾値318の差をつけて鳥306から離れていると判定することができる。別の表現をすると、図3の例を参照すると、注視誘引プログラム46は、閲覧者アレックス202の注視ロケーションが318に示す円の外側にあると判定することができる。例えば、注視誘引プログラム46は、閲覧者アレックス202が自分の注視を注視ロケーション308に戻すと判定することができる。この例では、注視誘引プログラム46は、壁掛け型ディスプレイ210を制御して、Coffee House302までの算出された動的経路310に沿って移動する鳥306の表示を中止することができる。
[0036] 別の例では、注視誘引プログラム46は、閲覧者アレックスの注視ロケーションの注視軌跡312を監視し、追跡することができる。この例では、閲覧者アレックス202の注視ロケーションは、注視軌跡312が、算出された動的経路310の経路逸脱閾値316内にある時に、鳥306の所定の逸脱閾値内にあると判定することができる。例えば、鳥306がアレックスの注視ロケーション308に隣接する所定の領域314を通過した後、閲覧者アレックス202は最初に鳥の飛行を注視して追い、それによって注視軌跡312は経路逸脱閾値316内にある。
[0037] 図3に示すように、この例では経路逸脱閾値316は、所与の瞬時における注視軌跡312と、算出された動的経路310との間の距離である。様々な例では、経路逸脱閾値316は、およそ、0.5mm、1.0mm、5.0mm、10.0mm、50.0mm、100.0mmの長さ、または任意の他の適切な長さを有することができる。注視軌跡312と算出された動的経路310との任意の他の適切な比較を使用して、閲覧者アレックスの注視が鳥306を追っているかどうかを判定することもでき、本開示の範囲内にあることも認識されよう。
[0038] 上記のように、注視誘引プログラム46が、注視軌跡312が経路逸脱閾値316内にあると判定した場合、注視誘引プログラムは、壁掛け型ディスプレイ210を制御して、Coffee House302までの算出された動的経路310に沿って移動する鳥306の表示を続けることができる。別の例では、注視誘引プログラム46は、閲覧者アレックス202の注視軌跡312が、算出された動的経路310から少なくとも経路逸脱閾値316の差をつけて離れていると判定することができる。例えば、注視誘引プログラム46は、注視軌跡312で示されるように、閲覧者アレックス202が自分の注視を注視ロケーション308’’に移したと判定することができる。この例では、注視誘引プログラム46は、壁掛け型ディスプレイ210を制御して、Coffee House302までの算出された動的経路310に沿って移動する鳥306の表示を中止することができる。
[0039] 一例では、注視誘引プログラム46は、Coffee House302に至らない代替の経路322をたどるように鳥の移動を方向転換することにより、算出された動的経路310に沿って移動する鳥306の表示を中止することができる。このようにして、注視誘引プログラム46は、閲覧者がガイド要素を注視していない時にも対象オブジェクトに向かって進行するすべてのガイド要素を表示することを回避する。他の例では、注視誘引プログラム46は、ガイド要素をそれ以上表示しないことにより、算出された動的経路に沿って移動するガイド要素の表示を中止することができる。例えば、注視誘引プログラム46は、ガイド要素をディスプレイから消すことができる。
[0040] 別の例では、閲覧者アレックス202の注視ロケーションの変化に基づいて、算出された動的経路310をプログラム的に調整することができる。例えば、閲覧者アレックス202が自分の注視を更新後の注視ロケーション308’’に変えて見物人320を見ると、注視誘引プログラム46は、更新後の注視ロケーション308’’に隣接する所定の領域の中を横断してからCoffee House302へと続くように、算出された動的経路をプログラム的に調整することができる。
[0041] 別の例では、ここで図1および図2を参照すると、閲覧者メアリー230が自分のタブレットコンピュータ238でコンピュータゲーム234をプレーしている。タブレットコンピュータ238は、ディスプレイ242、注視追跡システム54、および注視誘引プログラム46を含むことができる。次いで図4を参照すると、一例ではコンピュータゲーム234は野球ゲーム400からなり、野球ゲーム400は、閲覧者メアリー230によって制御可能な打者404の形態のプレーヤキャラクタと、野球ゲームの非プレーヤキャラクタの移動規則に従って動く、投手408ならびに外野手412および414の形態の非プレーヤキャラクタとを含む。野球ゲーム400は、野球ゲームのオブジェクト移動規則に従って動く少なくとも1つのオブジェクトも含むことができる。この例では、オブジェクトは野球ボール420からなることができる。
[0042] この例では、ガイド要素は、投手408、外野手412、および/または野球ボール420からなることができる。例えば、注視誘引プログラム46は、タブレットコンピュータ238のディスプレイ242を制御して、非プレーヤキャラクタ移動規則に従って、算出された動的経路430に沿って移動する外野手412を表示することができる。算出された動的経路430は、外野壁に配置された、「カフェAで食事を(Eat at Cafe A)」するように閲覧者メアリー230を促す広告434に至る。ディスプレイ242上での閲覧者メアリー230の注視ロケーション450は、上記のように判定し、監視することができる。算出された動的経路430に沿った外野手412の移動も上記のように制御することができる。
[0043] 一部の例では、カフェAは、自社の広告434を野球ゲーム400に表示させるために宣伝料を支払う場合がある。一例では、注視誘引プログラム46が、閲覧者メアリー230の注視ロケーション450が広告434に重なっていると判定すると、広告利用料がカフェAに割り当てられる。有利には、このようにして、広告主は、その広告主の広告の実際の閲覧者のインプレッションに直接結び付けられた、インプレッション単位の広告利用料を支払う。
[0044] 別の例では、自社の広告434のためにカフェAが支払う宣伝料は、少なくとも部分的に、閲覧者が広告を注視している期間に基づくことができる。例えば、閲覧者メアリー230の注視ロケーション450が所定の期間未満の時間にわたり広告434に重なっている場合は、第1の広告利用料をカフェAに割り当てることができる。閲覧者メアリー230の注視ロケーション450が少なくとも所定の期間にわたり広告434に重なっている場合は、第1の広告利用料よりも大きい第2の広告利用料をカフェAに割り当てることができる。一部の例では、所定の期間は、0.5秒、1.0秒、2.0秒、5.0秒、または任意の他の適切な期間とすることができる。同様に、第1および第2の広告利用料には任意の適切な額を利用することができる。
[0045] 次いで図5を参照すると、一部の例では、対象オブジェクトは、ウェブページに表示される広告からなることができる。例えば、閲覧者メアリー230は、タッチ感知ディスプレイ242を含む自分のタブレットコンピュータ238でウェブページ500を閲覧しているとする。高速で通過する彗星504の形態のガイド要素を、閲覧者メアリー230の注視ロケーション510に隣接する所定の領域508の中を横断する算出された動的経路506に沿って移動するように表示することができる。算出された動的経路は、カフェAから「1枚ピザを買うともう1枚無料(2 For1 Pizza)」を知らせる、選択可能な広告512の形態の対象オブジェクトに至ることができる。
[0046] 一例では、閲覧者メアリー230は、ディスプレイ242の画面に触れることにより、選択可能な広告512に関連付けられた閲覧者入力を提供することができる。メアリーがタッチを選択した位置は、タッチ感知画面により、広告512の一部分と重なるタッチ位置点514に位置すると解釈されることができる。その結果、広告512を選択するその閲覧者入力により、カフェAに割り当てることができる広告利用料を発生させることができる。
[0047] ただし、例によっては、閲覧者メアリー230は広告512を選択するつもりではなかった可能性もある。例えば、閲覧者メアリー230は、平均よりも指が長く、「ここをクリック(CLICK HERE)」の選択可能ボタン520を選択するつもりであった可能性がある。タッチ感知ディスプレイ242のタッチ検出システムは、メアリーが意図したタッチの位置が点514に位置すると誤って解釈した可能性がある。この可能性に対処するために、閲覧者メアリー230のタッチ入力が受け取られ、広告512に関連付けられている場合に、注視誘引プログラム46は、閲覧者メアリー230の注視ロケーションが広告に重なっているかどうかを判定することができる。
[0048] 一例では、閲覧者入力が受け取られた時に閲覧者メアリー230の注視ロケーション524が広告512に重なっている場合には、カフェAに広告利用料が割り当てられる。一方、閲覧者入力が受け取られた時に閲覧者メアリー230の注視ロケーション530が広告512に重なっていない場合は、広告利用料がキャンセルされる。有利には、このようにして、選択可能な広告やウェブページ上の他の要素の故意でない選択や意図しない選択を特定することができ、それに対応する誤った広告利用料および/または他の意図されない動作を回避することができる。
[0049] 別の例で、図2を参照すると、閲覧者ウォリー250が、眼鏡254の形態のHDM装置を装着している。閲覧者ウォリー250は、HDM眼鏡254を介して複合現実体験を行っており、この複合現実体験は、眼鏡によって表示される、ホログラフィの魔女260と、浮遊するボール264の形態のガイド要素とを含んでいる。
[0050] 一例では、複合現実体験の開発者は、閲覧者ウォリーの注意を、部屋20の中に表示されるホログラフィのCoffee Houseの広告270に引き付けたいとする。上記のように、HDM眼鏡254の注視誘引プログラム46は、ガイド要素を表示するように構成することが可能である。この例では、ガイド要素は浮遊するボール264からなる。HDM眼鏡254の注視追跡システム54からの注視追跡データを使用して、注視誘引プログラム46は、閲覧者ウォリー250の注視ロケーションを監視することができる。
[0051] 浮遊するボール264は、Coffee Houseの広告270に至る算出された動的経路274に沿って移動するように表示することができる。上記のように、算出された動的経路274は、閲覧者ウォリー250の注視ロケーション282に隣接する所定の領域278の中を横断することができる。浮遊するボール264が算出された動的経路274に沿って進行するのに伴い、注視誘引プログラム46は、閲覧者ウォリー250の注視ロケーションがボールの所定の逸脱閾値内にあるかどうかを判定することができる。一例では、浮遊するボール264が注視ロケーション282を通過した後、注視誘引プログラム46は、閲覧者ウォリー250の更新後の注視ロケーション282’がボールにあり、所定の逸脱閾値内にあると判定することができる。それに応じて、注視誘引プログラム46は、HDM眼鏡254を制御して、Coffee Houseの広告270までの算出された動的経路274に沿って移動する浮遊するボール264の表示を続けることができる。
[0052] 他の例では、上記のように、注視誘引プログラム46は、閲覧者ウォリー250の別の注視ロケーション282’’がCoffee Houseの広告270に重なっていると判定することができ、それに応答してCoffee Houseに広告利用料を割り当てることができる。
[0053] 別の例では、注視誘引プログラム46は、閲覧者ウォリー250の注視ロケーションが、浮遊するボール264から少なくとも所定の逸脱閾値の差をつけて離れていることを判定することができる。この例では、注視誘引プログラム46は、HDM眼鏡254を制御して、Coffee Houseの広告270までの算出された動的経路274に沿って移動する浮遊するボール264の表示を中止することができる。例えば、HDM眼鏡254は、広告270に重ならない代替の経路286に沿って移動するように、浮遊するボール264を方向転換することができる。他の例では、HDM眼鏡254は、浮遊するボール264の表示を終了することができる。
[0054] 次いで図6を参照すると、透明ディスプレイを備えた装着型眼鏡の形態のHDM装置600の一例が提供される。他の例では、HDM装置600は、透明、半透明、および/または不透明のディスプレイが閲覧者の片方の眼または両方の眼の前方に支持された他の適切な形態をとることが可能であることが認識されよう。図1および図2に示すHDM装置は、下記で詳しく説明するようにHDM装置600の形態をとるか、または任意の他の適切なHDM装置の形態をとることが可能であることも認識されよう。
[0055] HDM装置600は、表示システム602と、ホログラフィオブジェクトなどの画像をHDM装置の装着者の眼に伝えることを可能にするシースルーまたは透明ディスプレイ604とを備える。透明ディスプレイ604は、透明ディスプレイを通して物理環境を見ている装着者にとっての現実世界の物理環境の見え方を視覚的に強化するように構成することができる。例えば、物理環境の見え方を、透明ディスプレイ604を介して提示される、拡張現実環境を作り出すグラフィック内容(例えば、それぞれが各自の色と輝度を持つ1つまたは複数の画素)で強化することができる。
[0056] 透明ディスプレイ604は、HDM装置の装着者が、仮想オブジェクト表現を表示している1つまたは複数の部分的に透明な画素を通して、物理環境にある物理的な現実世界の物体を見られるように構成することもできる。図6に示すように、一例では、透明ディスプレイ604は、レンズ606の内部に置かれた画像生成要素を含むことができる(例えばシースルー有機発光ダイオード(OLED)ディスプレイなど)。別の例として、透明ディスプレイ604は、レンズ606の縁部に光変調器を含むことができる。この例では、レンズ606は、光変調器からの光を装着者の眼に伝えるための導光体として働くことができる。そのような導光体は、装着者が、自分が見ている物理環境内に置かれた3Dのホログラフィ画像を知覚できるようにするとともに、物理環境内にある物理的物体も見られるようにし、それにより拡張現実環境を作り出すことができる。
[0057] HDM装置600は、各種センサとそれに関係するシステムも含むことができる。例えば、HDM装置600は、装着者の眼から注視追跡データの形態で画像データを取得するように構成された1つまたは複数の画像センサを含む注視追跡システム608を含むことができる。装着者がその情報の取得と使用に同意しているという条件で、注視追跡システム608はその情報を使用して、装着者の眼の位置および/または移動を追跡することができる。
[0058] 一例では、注視追跡システム608は、装着者のそれぞれの眼の注視の方向を検出するように構成された注視検出サブシステムを含む。注視検出サブシステムは、装着者のそれぞれの眼の注視の方向を任意の適切なやり方で判定するように構成することができる。例えば、注視検出サブシステムは、装着者のそれぞれの眼の角膜から光の輝きを反射させるように構成された赤外光源などの1つまたは複数の光源を備えることができる。そして、装着者の眼の画像を撮影するように、1つまたは複数の画像センサを構成することができる。
[0059] 画像センサから収集された画像データから判定される輝きの画像および瞳孔の画像を使用して、それぞれの眼の光軸を判定することができる。次いで、その情報を使用して、注視追跡システム608が、装着者が注視している方向を判定することができる。それに加えて、またはそれに代えて、追跡システム608は、どの物理的物体または仮想物体を装着者が注視しているか、あるいは、そのような物理的物体または仮想物体上のどの位置を装着者が注視しているかを判定することができる。そして、そのような注視追跡データがHDM装置600に提供されてよい。
[0060] 注視追跡システム608は、任意数の適切な数および構成の光源および画像センサを有してよいことも理解されよう。例えば、図6を参照すると、HDM装置600の注視追跡システム608は、少なくとも1つの内向きセンサ610を利用することができる。
[0061] HDM装置600は、物理環境から物理環境データを受け取るセンサシステムも含むことができる。例えば、HDM装置600は、HDM装置600の姿勢センサ614などの1つまたは複数の姿勢センサを利用する頭部追跡システム612も含むことにより、頭部姿勢データを取り込み、それにより装着者の頭部の位置の追跡、方向/場所および向きの感知、ならびに/または動き検出を可能にすることもできる。
[0062] 一例では、頭部追跡システム612は、3軸または3自由度の位置センサシステムとして構成された慣性測定ユニット(IMU)を備えることができる。この例示的な位置センサシステムは、例えば、3つの直交する軸(例えばx、y、およびz、またはロール、ピッチ、およびヨー)を中心とした3D空間内のHDM装置600の向きの変化を指示または測定する3つのジャイロスコープを含むことができる。一部の例では、IMUのセンサ信号から導出される向きを使用して、透明ディスプレイ604を介して、身体に固定された位置で1つまたは複数の仮想オブジェクトを表示することができ、身体に固定された位置では、各仮想オブジェクトの位置は、シースルーディスプレイの装着者に対して固定されているように見え、各仮想オブジェクトの位置は、物理環境にある現実世界の物体に対して可動に見える。
[0063] 別の例では、頭部追跡システム612は、6軸または6自由度の位置センサシステムとして構成されたIMUを備えることができる。この例示的な位置センサシステムは、例えば、3つの直交する軸に沿ったHDM装置600の場所の変化と、その3つの直交する軸を中心とした装置の向きの変化とを指示または測定する3つの加速度計および3つのジャイロスコープを含むことができる。
[0064] 頭部追跡システム612は、GPSまたは他の全地球航法システムなどの他の適切な測位技術にも対応することができる。さらに、位置センサシステムの具体例を説明したが、任意の他の適切な位置センサシステムが使用されてよいことが認識されよう。例えば、装着者に取り付けられたセンサおよび/または装着者の外部にあるセンサの任意の組み合わせからのセンサ情報に基づいて、頭部の姿勢および/または移動のデータを判定することができ、それらのセンサには、限定しないが、任意数のジャイロスコープ、加速度計、慣性測定ユニット、GPS装置、気圧計、磁力計、カメラ(例えば、可視光カメラ、赤外光カメラ、飛行時間奥行きカメラ、構造光奥行きカメラなど)、通信装置(例えばWIFIアンテナ/インターフェース)などが含まれる。
[0065] 一部の例では、HDM装置600は、HDM装置600の光学センサ616などの1つまたは複数の外向きセンサを利用して画像データを取り込む光学センサシステムも含むことができる。外向きセンサは、ジェスチャを利用した入力や、装着者またはセンサの視野内の人もしくは物理的物体によって行われる他の移動など、視野内の移動を検出することができる。外向きセンサは、物理環境とその環境内の物理的物体から、2D画像情報および奥行き情報を取り込むことができる。例えば、外向きセンサは、奥行きカメラ、可視光カメラ、赤外光カメラ、および/または位置追跡カメラを含むことができる。
[0066] 光学センサシステムは、1つまたは複数の奥行きカメラを介して奥行き追跡データを生成する奥行き追跡システムを含むことができる。一例では、各奥行きカメラは、立体視システムの左右のカメラを含むことができる。それら奥行きカメラの1つまたは複数から得られる時間分解された画像を、互いの画像に、および/または可視スペクトルカメラなどの別の光学センサからの画像に登録させ、組み合わせて、奥行き分解された映像を得ることができる。
[0067] 他の例では、構造化された赤外線照明を投影し、その照明が投影されたシーンから反射された照明を撮像するように、構造光奥行きカメラを構成することができる。撮像されたシーンの様々な領域にある隣接するフィーチャ間の間隔に基づいて、シーンの奥行きマップを構築することができる。さらに他の例では、奥行きカメラが、パルス状の赤外線照明をシーンに投影し、シーンから反射された照明を検出するように構成された飛行時間奥行きカメラの形態をとることができる。例えば、照明は赤外光源618によって提供することができる。本開示の範囲内で任意の他の適切な奥行きカメラを使用することが可能であることは認識されよう。
[0068] 外向きセンサは、HDM装置の装着者が存在する物理環境の画像を撮影することができる。HDM装置600に関して、一例では、拡張現実表示プログラムが、そのような撮影画像を使用してHDM装置の装着者を取り囲む物理環境をモデル化した仮想環境を生成する3Dモデリングシステムを含むことができる。一部の例では、光学センサ616は、IMUと協働して、HDM装置600の場所および向きを6自由度で判定することができる。そのような場所および向きの情報を使用して、透明ディスプレイ604を介して、1つまたは複数の仮想オブジェクトを環境に固定された(world-locked)位置で表示することができ、環境に固定された位置では、各仮想オブジェクトの位置は、透明ディスプレイを通して見える現実世界の物体に対して固定されているように見え、各仮想オブジェクトの位置は、シースルーディスプレイの装着者に対して可動に見える。
[0069] HDM装置600は、オーディオデータを取り込むマイクロフォン620などの1つまたは複数のマイクロフォンを含むマイクロフォンシステムも含むことができる。他の例では、オーディオは、HDM装置600のスピーカ622などの1つまたは複数のスピーカを介して装着者に提示することができる。
[0070] HDM装置600は、コントローラ624などのコントローラも含むことができる。コントローラ624は、下記で図8との関連で詳しく論じるように、HDM装置600の各種センサおよびシステムと通信状態にある論理サブシステムと記憶サブシステムとを含むことができる。一例では、記憶サブシステムは、センサから信号入力を受け取り、HDM装置600の姿勢を判定し、透明ディスプレイ604を介して表示されるコンテンツの表示特性を調整するために、論理サブシステムによって実行できる命令を含むことができる。
[0071] 図7Aおよび図7Bは、本開示の一実装による、表示装置の閲覧者の注視を引くための方法700のフローチャートを示す。以下の方法700の説明は、上記で説明した図1〜図6に示すソフトウェアおよびハードウェア構成要素を参照して提供する。方法700は、他の適切なハードウェアおよびソフトウェア構成要素を使用する他の文脈で行うことも可能であることが認識されよう。
[0072] 図7Aを参照すると、704で、方法700は、対象オブジェクトを表示するように表示装置を制御することを含むことができる。708で、方法700は、注視追跡システムからの注視追跡データを使用して、閲覧者の注視ロケーションを監視することを含むことができる。712で、方法700は、閲覧者の注視ロケーションに隣接する所定の領域の中を横断して対象オブジェクトに至る、算出された動的経路に沿って移動するガイド要素を表示するように表示装置を制御することを含むことができる。
[0073] 716で、方法700は、注視追跡データを使用して、閲覧者の注視ロケーションがガイド要素の所定の逸脱閾値内にあるかどうかを判定することを含むことができる。720で、方法700は、閲覧者の注視ロケーションがガイド要素の所定の逸脱閾値内にある場合は、対象オブジェクトまでの算出された動的ガイド経路に沿って移動するガイド要素の表示を続けるように表示装置を制御することを含むことができる。724で、方法700は、閲覧者の注視ロケーションがガイド要素から少なくとも所定の逸脱閾値の差をつけて離れている場合は、対象オブジェクトまでの算出された動的ガイド経路に沿って移動するガイド要素の表示を中止するように表示装置を制御することを含むことができる。
[0074] 728で、対象オブジェクトまでの算出された動的ガイド経路に沿って移動するガイド要素の表示を中止することは、算出された動的ガイド経路からガイド要素をそらすことを含むことができる。732で、対象オブジェクトまでの算出された動的ガイド経路に沿って移動するガイド要素の表示を中止することは、ガイド要素の表示を終了することを含むことができる。736で、所定の逸脱閾値はガイド要素からの距離からなる。738で、所定の逸脱閾値は、算出された動的経路からの経路逸脱閾値からなり、方法700は、閲覧者の注視軌跡が、算出された動的経路から少なくとも経路逸脱閾値の差をつけて離れているかどうかを判定することを含むことができる。閲覧者の注視軌跡が、算出された動的ガイド経路から少なくとも経路逸脱閾値の差をつけて離れている場合は、上記のように、対象オブジェクトまでの算出された動的経路に沿って移動するガイド要素の表示を中止するように表示装置を制御することができる。
[0075] 次いで図7Bを参照すると、740で、閲覧者がコンピュータゲームをプレーしている間に方法700が行われ、コンピュータゲームは、非プレーヤキャラクタ移動規則に従って動く少なくとも1つの非プレーヤキャラクタと、オブジェクト移動規則に従って動く少なくとも1つのオブジェクトとを有し、ガイド要素を表示するように表示装置を制御することは、非プレーヤキャラクタ移動規則またはオブジェクト移動規則に従って、算出された動的経路に沿ってガイド要素を移動させることをさらに含むことができる。744で、ユーザが映画を見ている間に方法が行われ、ガイド要素を表示するように表示装置を制御することは、映画において実時間で描画されるコンピュータ生成画像についてのコンピュータ生成画像移動規則に従って、算出された動的経路に沿ってガイド要素を移動させることをさらに含むことができる。
[0076] 748で、対象オブジェクトは、表示装置に表示される広告主の広告からなり、方法700は、閲覧者の注視ロケーションが広告に重なっている場合に広告主に広告利用料を割り当てることをさらに含むことができる。752で、上記広告利用料が第1の広告利用料であり、方法700は、閲覧者の注視ロケーションが少なくとも所定の期間にわたり広告に重なっている場合は、第1の広告利用料よりも大きい第2の広告利用料を割り当てることをさらに含むことができる。
[0077] 756で、対象オブジェクトは、ウェブページに表示される広告主の広告からなり、方法700は、広告に関連付けられた閲覧者入力を受け取ることを含むことができ、その閲覧者入力が広告利用料を発生させる。760で、閲覧者入力が受け取られた時に閲覧者の注視ロケーションがウェブページ上の広告に重なっている場合、方法700は、広告主に広告利用料を割り当てることを含むことができる。764で、閲覧者入力が受け取られた時に閲覧者の注視ロケーションがウェブページ上の広告に重なっていない場合、方法700は、広告利用料をキャンセルすることを含むことができる。768で、表示装置は、注視追跡システムを含む装着型表示装置からなることができる。
[0078] 方法700は例として提供され、制限的なものではないことは認識されよう。したがって、方法700は、図7Aおよび図7Bに示されるステップに加えて追加的なステップおよび/または代替のステップを含むことが可能であることを理解されたい。さらに、方法700は、任意の適切な順序で行われてよいことを理解されたい。さらに、本開示の範囲から逸脱することなく方法700から1つまたは複数のステップを省略できることを理解されたい。
[0079] 図8は、上記で説明した方法およびプロセスの1つまたは複数を行うことができるコンピューティングシステム800の非制限的な例を概略的に示す。コンピューティング装置10およびコンピューティング装置12は、コンピューティングシステム800の1つまたは複数の態様の形態をとるか、または含むことができる。コンピューティングシステム800は簡略化した形態で示している。本開示の範囲から逸脱することなく、実質的にどのようなコンピュータアーキテクチャでも使用可能であることを理解されたい。種々の例では、コンピューティングシステム800は、メインフレームコンピュータ、サーバコンピュータ、デスクトップコンピュータ、タブレットコンピュータ、家庭娯楽用コンピュータ、ネットワークコンピューティング装置、タブレット、ノートブック、スマートフォン、または他のモバイルコンピューティング装置、モバイル通信装置、ゲーム装置などの形態をとることができる。
[0080] 図8に示すように、コンピューティングシステム800は、論理サブシステム804および記憶サブシステム808を含む。コンピューティングシステム800は、任意選択により、センササブシステム812、表示サブシステム816、通信サブシステム820、入力サブシステム822、ならびに/または図8に図示されない他のサブシステムおよび構成要素も含んでもよい。コンピューティングシステム800はコンピュータ可読媒体も含むことができ、コンピュータ可読媒体は、コンピュータ可読記憶媒体およびコンピュータ可読通信媒体を含む。コンピューティングシステム800は、任意選択により、例えばキーボード、マウス、ゲームコントローラ、および/またはタッチ画面などの他のユーザ入力装置も含んでよい。さらに、一部の実施形態では、本明細書に記載される方法およびプロセスは、コンピュータアプリケーション、コンピュータサービス、コンピュータAPI、コンピュータライブラリ、および/または1つもしくは複数のコンピュータを含むコンピューティングシステム内の他のコンピュータプログラム製品、として実装することができる。
[0081] 論理サブシステム804は、1つまたは複数の命令を実行するように構成された1つまたは複数の物理的装置を含むことができる。例えば、論理サブシステム804は、1つまたは複数のアプリケーション、サービス、プログラム、ルーチン、ライブラリ、オブジェクト、コンポーネント、データ構造、または他の論理構築体の一部である1つまたは複数の命令を実行するように構成することができる。そのような命令を実装して、タスクを行う、データ型を実装する、1つまたは複数の装置の状態を変換する、またはその他の方法で所望の結果に到達することができる。
[0082] 論理サブシステム804は、ソフトウェア命令を実行するように構成された1つまたは複数のプロセッサを含むことができる。それに加えて、またはそれに代えて、論理サブシステムは、ハードウェア命令またはファームウェア命令を実行するように構成された1つまたは複数のハードウェアまたはファームウェア論理機械を含んでもよい。論理サブシステムのプロセッサは、シングルコアであってもマルチコアであってもよく、プロセッサで実行されるプログラムは、並列処理されるように構成しても、分散処理されるように構成してもよい。論理サブシステムは、任意選択により、遠隔に置かれた、および/または連携処理のために構成された2つ以上の装置にわたって分散された個々の構成要素を含むことができる。論理サブシステムの1つまたは複数の態様は、クラウドコンピューティング構成で構成された、遠隔からアクセス可能なネットワーク化コンピューティング装置によって仮想化し、実行することができる。
[0083] 記憶サブシステム808は、本明細書に開示される方法およびプロセスを実装するために論理サブシステム804によって実行可能なデータおよび/または命令を保持するように構成された1つまたは複数の物理的な恒久的な装置を含むことができる。そのような方法およびプロセスが実装されると、記憶サブシステム808の状態を(例えば異なるデータを保持するように)変換することができる。
[0084] 記憶サブシステム808は、取り外し可能媒体および/または内蔵装置を含むことができる。記憶サブシステム808は、とりわけ、光学メモリ装置(例えば、CD、DVD、HD-DVD、Blu-Rayディスクなど)、半導体メモリ装置(例えば、RAM、EPROM、EEPROMなど)および/または磁気メモリ装置(例えば、ハードディスクドライブ、フロッピーディスクドライブ、テープドライブ、MRAMなど)を含むことができる。記憶サブシステム808は、揮発性、不揮発性、動的、静的、読み書き両用、読出し専用、ランダムアクセス、逐次アクセス、場所でのアドレス指定可能、ファイルでのアドレス指定可能、および内容でのアドレス指定可能、の特質の1つまたは複数を持つ装置を含むことができる。
[0085] 一部の例では、論理サブシステム804および記憶サブシステム808の態様を1つまたは複数の共通の装置に組み込み、その共通の装置を通じて、本明細書に記載される機能を少なくとも一部実施することができる。そのようなハードウェア論理構成要素には、例えば、利用者プログラム可能ゲートアレイ(FPGA)、プログラム特定用途集積回路および特定用途集積回路(PASIC/ASIC)、特定プログラム標準製品および特定用途標準製品(PSSP/ASSPS)、システム・オン・チップ(SOC)システム、ならびに複雑プログラム可能論理装置(CPLD)が含まれる可能性がある。
[0086] 図8は、取り外し可能コンピュータ可読記憶媒体824の形態の記憶サブシステム808の一態様も示し、これを使用して、本明細書に記載される方法およびプロセスを実装するために実行可能なデータおよび/または命令を記憶することができる。取り外し可能コンピュータ可読記憶媒体824は、とりわけ、CD、DVD、HD−DVD、Blu−Rayディスク、EEPROM、および/またはフロッピーディスクの形態をとることができる。
[0087] 記憶サブシステム808は、1つまたは複数の物理的な恒久的な装置を含むことを認識されたい。それに対し、実装によっては、本明細書に記載される命令の態様は、少なくとも有限の時間にわたっては物理的装置によって保持されることのない純粋な信号(例えば電磁気信号や光学信号など)によって過渡的に伝搬される場合もある。さらに、本開示に係るデータおよび/または他の形態の情報は、コンピュータ可読通信媒体を介して純粋な信号によって伝搬されることが可能である。
[0088] 含まれる場合、センササブシステム812は、上記のように種々の物理現象(例えば、可視光、赤外光、音、加速、向き、位置など)を感知するように構成された1つまたは複数のセンサを含むことができる。センササブシステム812は、例えば、センサデータを論理サブシステム804に提供するように構成されることが可能である。そのようなデータには、注視追跡情報、画像情報、周囲照明情報、奥行き情報、オーディオ情報、位置情報、動き情報、ユーザの場所情報、および/または、上記の方法およびプロセスを行うために使用できる任意の他の適切なセンサデータが含まれる可能性がある。
[0089] 含まれる場合、表示サブシステム816を使用して、記憶サブシステム808によって保持されているデータの視覚的表現を提示することができる。上記の方法およびプロセスが、記憶サブシステム808よって保持されているデータを変更し、それにより記憶サブシステムの状態を変換すると、表示サブシステム816の状態も同様に変換されて、基礎となるデータの変化を視覚的に表現することができる。表示サブシステム816は、実質的にどのような種類の技術でも利用できる1つまたは複数の表示装置を含むことができる。そのような表示装置は、共有される筐体内で論理サブシステム804および/または記憶サブシステム808と組み合わせるか、またはそのような表示装置は周辺表示装置とすることができる。
[0090] 含まれる場合、通信サブシステム820は、コンピューティングシステム800を、1つもしくは複数のネットワークおよび/または1つもしくは複数の他のコンピューティング装置と通信的に結合するように構成されることが可能である。通信サブシステム820は、1つまたは複数の種々の通信プロトコルに対応する有線および/またはワイヤレスの通信装置を含むことができる。非制限的な例として、通信サブシステム820は、ワイヤレス電話ネットワーク、ワイヤレスローカルエリアネットワーク、有線ローカルエリアネットワーク、ワイヤレスワイドエリアネットワーク、有線ワイドエリアネットワークなどを介した通信のために構成することができる。一部の実施形態では、通信サブシステムは、コンピューティングシステム800が、インターネットなどのネットワークを介して、他の装置にメッセージを送信、および/または他の装置からメッセージを受信することを可能にできる。
[0091] 含まれる場合、入力サブシステム822は、1つまたは複数のセンサ、または、ゲームコントローラ、ジェスチャ入力検出装置、音声認識器、慣性測定ユニット、キーボード、マウス、もしくはタッチ画面などのユーザ入力装置を備えるか、またはそれらとインターフェースをとることができる。一部の実施形態では、入力サブシステム822は、選択された自然ユーザ入力(NUI)構成要素群を備えるか、またはそれとインターフェースをとることができる。そのような構成要素群は、組み込むか、周辺に置くことができ、入力動作の変換および/または処理は、基板上で扱われる場合も基板外で扱われる場合もある。例示的なNUI構成要素群には、発話認識および/または音声認識のためのマイクロフォン、マシンビジョンおよび/またはジェスチャ認識のための赤外線カメラ、カラーカメラ、立体カメラ、および/または奥行きカメラ、動き検出および/または意図認識のための頭部追跡器、眼追跡器、加速度計、および/またはジャイロスコープ、ならびに脳の活動を測定するための電場感知構成要素群が含まれる可能性がある。
[0092] 用語「プログラム」は、1つまたは複数の特定の機能を行うために実装されるコンピューティング装置10およびコンピューティング装置12の態様を記述するために使用される場合がある。場合によっては、そのようなプログラムは、論理サブシステム804が、記憶サブシステム808によって保持されている命令を実行することを介して具体化されることがある。同じアプリケーション、サービス、コードブロック、オブジェクト、ライブラリ、ルーチン、API、関数から異なるプログラムが具体化される場合があることを理解されたい。同様に、異なるアプリケーション、サービス、コードブロック、オブジェクト、ライブラリ、ルーチン、API、関数などによって同じプログラムを具体化することもできる。用語「プログラム」は、実行ファイル、データファイル、ライブラリ、ドライバ、スクリプト、データベースレコードなどの個体または群を包含するものとする。
[0093] 本明細書に記載される構成および/または手法は、本来は例示的な性質であり、多数の変形例が可能であることから、これらの具体的な実施形態または例は、制限的な意味に解釈すべきでないことを理解されたい。本明細書に記載される具体的なルーチンまたは方法は、任意数の処理方式の1つまたは複数を表す可能性がある。そのため、例示される各種の行為は、例示される順序で行う、他の順序で行う、並行して行う、または場合によっては省略することができる。同様に、上記のプロセスの順番は変更することができる。
[0094] 本開示の主題は、本明細書に開示される様々なプロセス、システムおよび構成、および他の特徴、機能、行為、ならびに/または特性のすべての新規で非自明の組み合わせおよびサブコンビネーションと、それらのあらゆる均等物とを含む。

Claims (10)

  1. 表示装置の閲覧者の注視を引くための方法であって、
    対象オブジェクトを表示するように前記表示装置を制御するステップと、
    注視追跡システムからの注視追跡データを使用して前記閲覧者の注視ロケーションを監視するステップと、
    前記閲覧者の注視ロケーションに隣接する所定の領域の中を横断して前記対象オブジェクトに至る、算出された動的経路に沿って移動するガイド要素を表示するように前記表示装置を制御するステップと、
    前記注視追跡データを使用して、前記閲覧者の注視ロケーションが前記ガイド要素の所定の逸脱閾値内にあるかどうかを判定するステップと、
    前記閲覧者の注視ロケーションが前記ガイド要素の前記所定の逸脱閾値内にある場合は、前記対象オブジェクトまでの前記算出された動的ガイド経路に沿って移動する前記ガイド要素の表示を続けるように前記表示装置を制御するステップと、
    前記閲覧者の注視ロケーションが前記ガイド要素から少なくとも前記所定の逸脱閾値の差をつけて離れている場合は、前記対象オブジェクトまでの前記算出された動的ガイド経路に沿って移動する前記ガイド要素の表示を中止するように前記表示装置を制御するステップと
    を含む方法。
  2. 前記算出された動的ガイド経路に沿って移動する前記ガイド要素の表示を中止するように前記表示装置を制御するステップが、前記算出された動的経路から前記ガイド要素をそらすステップ、または、前記ガイド要素の表示を終了するステップのいずれかをさらに含む請求項1に記載の方法。
  3. 前記所定の逸脱閾値は前記ガイド要素からの距離を含む請求項1に記載の方法。
  4. 前記注視追跡データを使用して、前記閲覧者の注視ロケーションが前記ガイド要素の所定の逸脱閾値内にあるかどうかを判定するステップが、前記閲覧者の注視軌跡が前記算出された動的経路の経路逸脱閾値内にあるかどうかを判定するステップをさらに含む請求項1に記載の方法。
  5. 前記方法が、前記閲覧者がコンピュータゲームをプレーしている間に行われ、前記コンピュータゲームは、非プレーヤキャラクタ移動規則に従って動く少なくとも1つの非プレーヤキャラクタと、オブジェクト移動規則に従って動く少なくとも1つのオブジェクトとを有し、前記ガイド要素を表示するように前記表示装置を制御するステップが、前記非プレーヤキャラクタ移動規則または前記オブジェクト移動規則に従って、前記算出された動的経路に沿って前記ガイド要素を移動させるステップをさらに含む請求項1に記載の方法。
  6. 表示装置の閲覧者の注視を引くためのコンピューティング装置であって、
    前記コンピューティング装置のプロセッサによって実行される注視誘引プログラムを備え、前記注視誘引プログラムは、
    対象オブジェクトを表示するように前記表示装置を制御し、
    注視追跡システムからの注視追跡データを使用して前記閲覧者の注視ロケーションを監視し、
    前記閲覧者の注視ロケーションに隣接する所定の領域の中を横断して前記対象オブジェクトに至る、算出された動的経路に沿って移動するガイド要素を表示するように前記表示装置を制御し、
    前記注視追跡データを使用して、前記閲覧者の注視軌跡が前記算出された動的経路の経路逸脱閾値内にあるかどうかを判定し、
    前記閲覧者の注視ロケーションが前記算出された動的経路の前記経路逸脱閾値内にある場合は、前記対象オブジェクトまでの前記算出された動的ガイド経路に沿って移動する前記ガイド要素の表示を続けるように前記表示装置を制御し、
    前記閲覧者の注視ロケーションが前記算出された動的経路から少なくとも前記経路逸脱閾値の差をつけて離れている場合は、前記算出された動的経路に沿って移動する前記ガイド要素を中止するように前記表示装置を制御する
    ように構成される、コンピューティング装置。
  7. 前記対象オブジェクトは前記表示装置に表示される広告主の広告を含み、前記注視誘引プログラムがさらに、前記閲覧者の注視ロケーションが前記広告に重なっている場合に、前記広告主に広告利用料を割り当てるように構成される請求項6に記載のコンピューティング装置。
  8. 前記広告利用料が第1の広告利用料であり、前記注視誘引プログラムがさらに、前記閲覧者の注視ロケーションが少なくとも所定の期間にわたり前記広告に重なっている場合に、前記第1の広告利用料よりも大きい第2の広告利用料を割り当てるように構成される請求項7に記載のコンピューティング装置。
  9. 前記対象オブジェクトはウェブページに表示される広告主の広告を含み、前記注視誘引プログラムがさらに、
    前記ウェブページに表示された前記広告に関連付けられた閲覧者入力を受け取り、前記閲覧者入力が広告利用料を発生させ、
    前記閲覧者入力が受け取られた時に前記閲覧者の注視ロケーションが前記ウェブページ上の前記広告に重なっている場合は、前記広告主に前記広告利用料を割り当て、
    前記閲覧者入力が受け取られた時に前記閲覧者の注視ロケーションが前記ウェブページ上の前記広告に重なっていない場合は、前記広告利用料をキャンセルする
    ように構成される請求項6に記載のコンピューティング装置。
  10. 前記コンピューティング装置が、前記注視追跡システムを含む装着型表示装置に組み込まれる請求項6に記載のコンピューティング装置。
JP2016560400A 2014-04-29 2015-04-23 表示装置の閲覧者の注視誘引 Active JP6611733B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/265,103 2014-04-29
US14/265,103 US10424103B2 (en) 2014-04-29 2014-04-29 Display device viewer gaze attraction
PCT/US2015/027186 WO2015167907A1 (en) 2014-04-29 2015-04-23 Display device viewer gaze attraction

Publications (3)

Publication Number Publication Date
JP2017518554A true JP2017518554A (ja) 2017-07-06
JP2017518554A5 JP2017518554A5 (ja) 2018-04-19
JP6611733B2 JP6611733B2 (ja) 2019-11-27

Family

ID=53059472

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016560400A Active JP6611733B2 (ja) 2014-04-29 2015-04-23 表示装置の閲覧者の注視誘引

Country Status (19)

Country Link
US (1) US10424103B2 (ja)
EP (1) EP3137974B1 (ja)
JP (1) JP6611733B2 (ja)
KR (1) KR102365579B1 (ja)
CN (1) CN106462233B (ja)
AU (1) AU2015253555B2 (ja)
BR (1) BR112016024851A2 (ja)
CA (1) CA2945610C (ja)
CL (1) CL2016002725A1 (ja)
IL (1) IL248499B (ja)
MX (1) MX366216B (ja)
MY (1) MY182791A (ja)
NZ (1) NZ725804A (ja)
PH (1) PH12016502031A1 (ja)
RU (1) RU2677593C2 (ja)
SG (1) SG11201608290UA (ja)
TW (1) TW201541382A (ja)
WO (1) WO2015167907A1 (ja)
ZA (1) ZA201606678B (ja)

Families Citing this family (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10424103B2 (en) * 2014-04-29 2019-09-24 Microsoft Technology Licensing, Llc Display device viewer gaze attraction
US9715781B2 (en) * 2014-09-26 2017-07-25 Bally Gaming, Inc. System and method for automatic eye tracking calibration
EP3062142B1 (en) 2015-02-26 2018-10-03 Nokia Technologies OY Apparatus for a near-eye display
US10113877B1 (en) * 2015-09-11 2018-10-30 Philip Raymond Schaefer System and method for providing directional information
TWI660304B (zh) * 2016-05-30 2019-05-21 李建樺 虛擬實境即時導覽方法及系統
US20180005437A1 (en) * 2016-06-30 2018-01-04 Glen J. Anderson Virtual manipulator rendering
US10139901B2 (en) * 2016-07-05 2018-11-27 Immersv, Inc. Virtual reality distraction monitor
US10979721B2 (en) 2016-11-17 2021-04-13 Dolby Laboratories Licensing Corporation Predicting and verifying regions of interest selections
CN107024982A (zh) * 2016-12-09 2017-08-08 阿里巴巴集团控股有限公司 一种虚拟现实设备的安全监控方法、装置及虚拟现实设备
US10650552B2 (en) 2016-12-29 2020-05-12 Magic Leap, Inc. Systems and methods for augmented reality
EP3343267B1 (en) 2016-12-30 2024-01-24 Magic Leap, Inc. Polychromatic light out-coupling apparatus, near-eye displays comprising the same, and method of out-coupling polychromatic light
EP3590026B1 (en) * 2017-03-02 2020-09-09 Signify Holding B.V. Lighting system and method
JP2018163461A (ja) * 2017-03-24 2018-10-18 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム
US10216260B2 (en) * 2017-03-27 2019-02-26 Microsoft Technology Licensing, Llc Selective rendering of sparse peripheral displays based on element saliency
SE541650C2 (en) * 2017-05-30 2019-11-19 Crunchfish Ab Improved activation of a virtual object
US10573061B2 (en) 2017-07-07 2020-02-25 Nvidia Corporation Saccadic redirection for virtual reality locomotion
US10578870B2 (en) 2017-07-26 2020-03-03 Magic Leap, Inc. Exit pupil expander
US11351453B2 (en) * 2017-09-12 2022-06-07 Sony Interactive Entertainment LLC Attention-based AI determination of player choices
KR101923322B1 (ko) * 2017-11-15 2018-11-28 한국과학기술원 이동형 디바이스를 이용한 사용자 시선 유도 시스템 및 그 방법
CN116990888A (zh) 2017-12-10 2023-11-03 奇跃公司 光波导上的抗反射涂层
US11187923B2 (en) 2017-12-20 2021-11-30 Magic Leap, Inc. Insert for augmented reality viewing device
US10477186B2 (en) * 2018-01-17 2019-11-12 Nextvr Inc. Methods and apparatus for calibrating and/or adjusting the arrangement of cameras in a camera pair
WO2019178567A1 (en) * 2018-03-15 2019-09-19 Magic Leap, Inc. Image correction due to deformation of components of a viewing device
CN112262361A (zh) * 2018-04-20 2021-01-22 Pcms控股公司 用于对混合现实内容进行基于注视的控制的方法和系统
WO2019231850A1 (en) 2018-05-31 2019-12-05 Magic Leap, Inc. Radar head pose localization
WO2020010097A1 (en) 2018-07-02 2020-01-09 Magic Leap, Inc. Pixel intensity modulation using modifying gain values
US11856479B2 (en) 2018-07-03 2023-12-26 Magic Leap, Inc. Systems and methods for virtual and augmented reality along a route with markers
WO2020023543A1 (en) 2018-07-24 2020-01-30 Magic Leap, Inc. Viewing device with dust seal integration
US11112862B2 (en) 2018-08-02 2021-09-07 Magic Leap, Inc. Viewing system with interpupillary distance compensation based on head motion
WO2020028191A1 (en) 2018-08-03 2020-02-06 Magic Leap, Inc. Unfused pose-based drift correction of a fused pose of a totem in a user interaction system
CN112955073A (zh) 2018-08-22 2021-06-11 奇跃公司 患者观察系统
US10855978B2 (en) 2018-09-14 2020-12-01 The Toronto-Dominion Bank System and method for receiving user input in virtual/augmented reality
US20200092245A1 (en) * 2018-09-18 2020-03-19 International Business Machines Corporation Provoking and maintaining user attention for urgent messages by actively monitoring user activity and biometrics
CN109194869A (zh) * 2018-10-09 2019-01-11 Oppo广东移动通信有限公司 控制方法、控制装置、深度相机和电子装置
WO2020153946A1 (en) * 2019-01-22 2020-07-30 Hewlett-Packard Development Company, L.P. Mixed reality presentation
JP2022523852A (ja) 2019-03-12 2022-04-26 マジック リープ, インコーポレイテッド 第1および第2の拡張現実ビューア間でのローカルコンテンツの位置合わせ
CN110245601B (zh) * 2019-06-11 2022-03-01 Oppo广东移动通信有限公司 眼球追踪方法及相关产品
SE1950971A1 (en) * 2019-08-23 2021-02-24 Your Speech Factory Ab Electronic device and method for conducting a users gaze direction
WO2021038800A1 (ja) * 2019-08-29 2021-03-04 富士通株式会社 広告閲覧情報出力方法及び広告閲覧情報出力プログラム、並びに情報処理装置
JP2023502927A (ja) 2019-11-15 2023-01-26 マジック リープ, インコーポレイテッド 外科手術環境において使用するための視認システム
KR102359602B1 (ko) * 2020-03-10 2022-02-08 한국과학기술원 디스플레이를 위한 시선 입력 방법 및 이를 수행하는 장치들
US11656681B2 (en) * 2020-08-31 2023-05-23 Hypear, Inc. System and method for determining user interactions with visual content presented in a mixed reality environment
CN116981978A (zh) * 2020-09-21 2023-10-31 苹果公司 用于动态确定呈现和过渡区域的方法和设备
US20230031871A1 (en) * 2021-07-29 2023-02-02 Meta Platforms Technologies, Llc User interface to select field of view of a camera in a smart glass
CN114604800B (zh) * 2022-03-31 2023-12-15 江苏西顿科技有限公司 一种防爆agv车

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002133312A (ja) * 2000-10-25 2002-05-10 Fuji Xerox Co Ltd 広告料金管理装置、広告料金管理システム、広告料金管理方法及びコンピュータ読み取り可能な記録媒体
US20100217656A1 (en) * 2009-02-20 2010-08-26 France Telecom Method and a system for supervising the activity of a user in a virtual world
JP2010244186A (ja) * 2009-04-02 2010-10-28 Access Co Ltd コンテンツ表示端末、コンテンツ表示方法およびプログラムならびに配信サーバ
US20120290401A1 (en) * 2011-05-11 2012-11-15 Google Inc. Gaze tracking system
US20130128364A1 (en) * 2011-11-22 2013-05-23 Google Inc. Method of Using Eye-Tracking to Center Image Content in a Display
US20130135204A1 (en) * 2011-11-30 2013-05-30 Google Inc. Unlocking a Screen Using Eye Tracking Information
JP2013521576A (ja) * 2010-02-28 2013-06-10 オスターハウト グループ インコーポレイテッド 対話式ヘッド取付け型アイピース上での地域広告コンテンツ
JP2013232205A (ja) * 2013-06-13 2013-11-14 Sega Corp 画像処理プログラムおよびコンピュータ読み取り可能な記録媒体
JP2014067401A (ja) * 2012-09-24 2014-04-17 Nhn Business Platform Corp ユーザの視線に基づいて広告を提供する方法およびシステム

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7963652B2 (en) 2003-11-14 2011-06-21 Queen's University At Kingston Method and apparatus for calibration-free eye tracking
AT505338B1 (de) 2007-06-12 2009-03-15 Ernst Dipl Ing Dr Pfleger Verfahren zur wahrnehmungsmessung
US20080309616A1 (en) 2007-06-13 2008-12-18 Massengill R Kemp Alertness testing method and apparatus
US20110128223A1 (en) 2008-08-07 2011-06-02 Koninklijke Phillips Electronics N.V. Method of and system for determining a head-motion/gaze relationship for a user, and an interactive display system
US7850306B2 (en) 2008-08-28 2010-12-14 Nokia Corporation Visual cognition aware display and visual data transmission architecture
EP2515206B1 (en) 2009-12-14 2019-08-14 Panasonic Intellectual Property Corporation of America User interface apparatus and input method
US8964298B2 (en) * 2010-02-28 2015-02-24 Microsoft Corporation Video display modification based on sensor input for a see-through near-to-eye display
US8493390B2 (en) 2010-12-08 2013-07-23 Sony Computer Entertainment America, Inc. Adaptive displays using gaze tracking
US8395656B1 (en) 2011-01-24 2013-03-12 Hewlett-Packard Development Company, L.P. Methods and apparatus to direct attention in a video content display
US8643680B2 (en) 2011-04-08 2014-02-04 Amazon Technologies, Inc. Gaze-based content display
US9198619B2 (en) * 2011-07-05 2015-12-01 Universidade De Vigo Method and system for activity/rest identification
JP5724110B2 (ja) 2011-07-07 2015-05-27 株式会社日立製作所 経路作成システム、経路作成方法及びプログラム
US20130054377A1 (en) 2011-08-30 2013-02-28 Nils Oliver Krahnstoever Person tracking and interactive advertising
CA2853709C (en) 2011-10-27 2020-09-01 Tandemlaunch Technologies Inc. System and method for calibrating eye gaze data
US20150042557A1 (en) 2012-03-07 2015-02-12 Sony Corporation Information processing apparatus, information processing method, and program
JP5924580B2 (ja) 2012-03-30 2016-05-25 大日本印刷株式会社 視点誘導装置および電子書籍端末
US10082863B2 (en) 2012-05-11 2018-09-25 Umoove Services Ltd. Gaze-based automatic scrolling
JP5986198B2 (ja) 2012-05-30 2016-09-06 パイオニア株式会社 表示装置、ヘッドマウントディスプレイ、表示方法及び表示プログラム、並びに記録媒体
US20130340005A1 (en) 2012-06-14 2013-12-19 Mobitv, Inc. Eye-tracking program guides
JP6014398B2 (ja) * 2012-07-20 2016-10-25 キヤノン株式会社 画像読取装置
US9164580B2 (en) 2012-08-24 2015-10-20 Microsoft Technology Licensing, Llc Calibration of eye tracking system
JP5492962B2 (ja) 2012-09-28 2014-05-14 富士重工業株式会社 視線誘導システム
US10884577B2 (en) 2013-01-15 2021-01-05 Poow Innovation Ltd. Identification of dynamic icons based on eye movement
EP2956844B1 (en) * 2013-02-14 2017-05-24 Facebook, Inc. Systems and methods of eye tracking calibration
RU2013118993A (ru) 2013-04-23 2013-09-10 Александр Николаевич Лукоянов Способ реализации адаптивного видео
US10424103B2 (en) 2014-04-29 2019-09-24 Microsoft Technology Licensing, Llc Display device viewer gaze attraction
KR102173699B1 (ko) * 2014-05-09 2020-11-03 아이플루언스, 인크. 안구 신호들의 인식 및 지속적인 생체 인증을 위한 시스템과 방법들
CN108780223B (zh) * 2016-03-11 2019-12-20 脸谱科技有限责任公司 用于生成眼睛模型的角膜球跟踪

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002133312A (ja) * 2000-10-25 2002-05-10 Fuji Xerox Co Ltd 広告料金管理装置、広告料金管理システム、広告料金管理方法及びコンピュータ読み取り可能な記録媒体
US20100217656A1 (en) * 2009-02-20 2010-08-26 France Telecom Method and a system for supervising the activity of a user in a virtual world
JP2010244186A (ja) * 2009-04-02 2010-10-28 Access Co Ltd コンテンツ表示端末、コンテンツ表示方法およびプログラムならびに配信サーバ
JP2013521576A (ja) * 2010-02-28 2013-06-10 オスターハウト グループ インコーポレイテッド 対話式ヘッド取付け型アイピース上での地域広告コンテンツ
US20120290401A1 (en) * 2011-05-11 2012-11-15 Google Inc. Gaze tracking system
US20130128364A1 (en) * 2011-11-22 2013-05-23 Google Inc. Method of Using Eye-Tracking to Center Image Content in a Display
US20130135204A1 (en) * 2011-11-30 2013-05-30 Google Inc. Unlocking a Screen Using Eye Tracking Information
JP2014067401A (ja) * 2012-09-24 2014-04-17 Nhn Business Platform Corp ユーザの視線に基づいて広告を提供する方法およびシステム
JP2013232205A (ja) * 2013-06-13 2013-11-14 Sega Corp 画像処理プログラムおよびコンピュータ読み取り可能な記録媒体

Also Published As

Publication number Publication date
MY182791A (en) 2021-02-05
KR102365579B1 (ko) 2022-02-18
AU2015253555B2 (en) 2019-11-07
AU2015253555A1 (en) 2016-10-20
BR112016024851A2 (pt) 2017-08-15
JP6611733B2 (ja) 2019-11-27
MX2016014097A (es) 2017-02-09
US20150310657A1 (en) 2015-10-29
KR20160148623A (ko) 2016-12-26
CA2945610A1 (en) 2015-11-05
NZ725804A (en) 2019-08-30
WO2015167907A1 (en) 2015-11-05
PH12016502031B1 (en) 2017-02-06
CN106462233B (zh) 2019-07-19
PH12016502031A1 (en) 2017-02-06
RU2016142480A3 (ja) 2018-11-12
IL248499A0 (en) 2016-12-29
IL248499B (en) 2019-11-28
SG11201608290UA (en) 2016-11-29
RU2677593C2 (ru) 2019-01-17
US10424103B2 (en) 2019-09-24
ZA201606678B (en) 2018-05-30
CN106462233A (zh) 2017-02-22
TW201541382A (zh) 2015-11-01
CA2945610C (en) 2022-03-29
EP3137974B1 (en) 2018-05-23
EP3137974A1 (en) 2017-03-08
MX366216B (es) 2019-07-02
CL2016002725A1 (es) 2017-02-24
RU2016142480A (ru) 2018-04-28

Similar Documents

Publication Publication Date Title
JP6611733B2 (ja) 表示装置の閲覧者の注視誘引
US10222981B2 (en) Holographic keyboard display
US9977492B2 (en) Mixed reality presentation
CN109803734B (zh) 虚拟对象移动
EP2946264B1 (en) Virtual interaction with image projection
JP6730286B2 (ja) 拡張現実視野オブジェクトフォロワー
CN110569750B (zh) 一种用于视线检测校准的方法和计算设备
US20140071163A1 (en) Augmented reality information detail
KR102296121B1 (ko) 사용자 인터페이스 내비게이션
CN106489171B (zh) 立体图像显示器
KR20170090490A (ko) 시선 타겟 애플리케이션 런처
TW201539256A (zh) 視覺改變的非視覺反饋
WO2014133919A1 (en) Mixed reality augmentation
EP2887639A1 (en) Augmented reality information detail
KR20150071613A (ko) 증강 현실 정보 상세도

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180312

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180312

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190509

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191029

R150 Certificate of patent or registration of utility model

Ref document number: 6611733

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250