CN106462233A - 显示设备观看者视线吸引 - Google Patents
显示设备观看者视线吸引 Download PDFInfo
- Publication number
- CN106462233A CN106462233A CN201580022931.4A CN201580022931A CN106462233A CN 106462233 A CN106462233 A CN 106462233A CN 201580022931 A CN201580022931 A CN 201580022931A CN 106462233 A CN106462233 A CN 106462233A
- Authority
- CN
- China
- Prior art keywords
- beholder
- sight line
- guide element
- computed
- display device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 claims abstract description 58
- 230000033001 locomotion Effects 0.000 claims description 30
- VYMDGNCVAMGZFE-UHFFFAOYSA-N phenylbutazonum Chemical compound O=C1C(CCCC)C(=O)N(C=2C=CC=CC=2)N1C1=CC=CC=C1 VYMDGNCVAMGZFE-UHFFFAOYSA-N 0.000 claims description 6
- 238000009826 distribution Methods 0.000 claims description 2
- 238000003860 storage Methods 0.000 description 20
- 230000008569 process Effects 0.000 description 15
- 238000004891 communication Methods 0.000 description 12
- 238000007667 floating Methods 0.000 description 11
- 239000011521 glass Substances 0.000 description 10
- 230000003287 optical effect Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 9
- 230000008859 change Effects 0.000 description 7
- 238000001514 detection method Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 5
- 230000003190 augmentative effect Effects 0.000 description 4
- 210000003128 head Anatomy 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000005286 illumination Methods 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 230000002045 lasting effect Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 210000000162 simple eye Anatomy 0.000 description 2
- 101000822695 Clostridium perfringens (strain 13 / Type A) Small, acid-soluble spore protein C1 Proteins 0.000 description 1
- 101000655262 Clostridium perfringens (strain 13 / Type A) Small, acid-soluble spore protein C2 Proteins 0.000 description 1
- 206010013486 Distractibility Diseases 0.000 description 1
- 101000655256 Paraclostridium bifermentans Small, acid-soluble spore protein alpha Proteins 0.000 description 1
- 101000655264 Paraclostridium bifermentans Small, acid-soluble spore protein beta Proteins 0.000 description 1
- 241000209140 Triticum Species 0.000 description 1
- 235000021307 Triticum Nutrition 0.000 description 1
- LSNBAGMWJRMBEO-PTKVLMSTSA-N [(3s,4e,6e,9s,10e,12e,14r,18r)-9-hydroxy-6,12,15,18-tetramethyl-16,19-dioxo-14-(2-oxopropanoylamino)-17-oxabicyclo[13.2.2]nonadeca-4,6,10,12-tetraen-3-yl] acetate Chemical compound C1[C@H](OC(C)=O)\C=C\C(\C)=C\C[C@H](O)\C=C\C(\C)=C\[C@@H](NC(=O)C(C)=O)C2(C)C(=O)[C@H](C)C1OC2=O LSNBAGMWJRMBEO-PTKVLMSTSA-N 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000000712 assembly Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000007177 brain activity Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 230000005684 electric field Effects 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 235000012054 meals Nutrition 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 235000013550 pizza Nutrition 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 238000002310 reflectometry Methods 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 238000003892 spreading Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000005728 strengthening Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000026683 transduction Effects 0.000 description 1
- 238000010361 transduction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/80—2D [Two Dimensional] animation, e.g. using sprites
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/0021—Image watermarking
- G06T1/0028—Adaptive watermarking, e.g. Human Visual System [HVS]-based watermarking
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/213—Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/219—Input arrangements for video game devices characterised by their sensors, purposes or types for aiming at specific areas on the display, e.g. light-guns
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/40—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
- A63F13/42—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
- A63F13/426—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/40—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
- A63F13/42—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
- A63F13/428—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04812—Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0241—Advertisements
- G06Q30/0242—Determining effectiveness of advertisements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0241—Advertisements
- G06Q30/0242—Determining effectiveness of advertisements
- G06Q30/0246—Traffic
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0241—Advertisements
- G06Q30/0273—Determination of fees for advertising
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/0021—Image watermarking
- G06T1/0028—Adaptive watermarking, e.g. Human Visual System [HVS]-based watermarking
- G06T1/0035—Output size adaptive watermarking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B71/00—Games or sports accessories not covered in groups A63B1/00 - A63B69/00
- A63B71/06—Indicating or scoring devices for games or players, or for other sports activities
- A63B2071/0602—Non-electronic means therefor
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B71/00—Games or sports accessories not covered in groups A63B1/00 - A63B69/00
- A63B71/06—Indicating or scoring devices for games or players, or for other sports activities
- A63B71/0619—Displays, user interfaces and indicating devices, specially adapted for sport equipment, e.g. display mounted on treadmills
- A63B71/0622—Visual, audio or audio-visual systems for entertaining, instructing or motivating the user
- A63B2071/0638—Displaying moving images of recorded environment, e.g. virtual environment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2213/00—Indexing scheme for animation
- G06T2213/12—Rule based animation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2215/00—Indexing scheme for image rendering
- G06T2215/16—Using real world measurements to influence rendering
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Business, Economics & Management (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Accounting & Taxation (AREA)
- Development Economics (AREA)
- Strategic Management (AREA)
- Finance (AREA)
- Game Theory and Decision Science (AREA)
- Entrepreneurship & Innovation (AREA)
- Economics (AREA)
- Marketing (AREA)
- General Business, Economics & Management (AREA)
- Ophthalmology & Optometry (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
- Road Signs Or Road Markings (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Navigation (AREA)
- Closed-Circuit Television Systems (AREA)
- Traffic Control Systems (AREA)
Abstract
公开了有关吸引显示器的观看者的视线的示例。一种示例方法包括控制显示器来显示目标对象并且使用视线追踪数据来监测观看者视线位置。引导元素被显示为沿着穿过临近观看者的视线位置并且通向目标对象的经计算的动态路径移动。如果观看者的视线位置在引导元素的预先确定的偏差阈值内,则显示器继续显示引导元素沿着经计算的动态引导路径向目标对象移动。如果观看者的视线位置偏离了引导元素至少预先确定的偏差阈值,则显示器不继续显示引导元素沿着经计算的动态引导路径向目标对象移动。
Description
背景技术
内容创建和/或传递设备可以利用视线(gaze)追踪系统来追踪用户的视线的位置。在一些情况下,诸如电影制片人、广告商、或者游戏开发者之类的内容创建者可以期望引导用户看向经由显示设备所显示的特定的位置或者特征。可以使用视线追踪系统来估计用户的视线的当前位置。如果这样的当前位置不对应于期望的位置或特征,则可以以显著的方式来可视地增强所期望的位置或特征,从而捕获用户的注意力和视线。例如,可以用明亮对比的颜色来突出显示所期望的位置和特征、使所期望的位置和特征可视地跳动或闪烁、和/或以其他方式在外观上对所期望的位置和特征进行改变来吸引用户的注意。
然而,以该方式来增强所期望的位置或特征可能使用户分心并且可能打断本来愉快的用户体验。额外地,在所期望的特征是广告的情况下,用户可能不想要从用户体验中被故意地引开至观看该广告。
发明内容
在本文中公开了关于吸引观看者的视线的各种示例。在所公开的一种方法中,控制显示设备来显示目标对象,并且使用来自视线追踪系统的视线追踪数据来监测显示器的观看者的视线位置。引导元素被显示为沿着经计算的动态路径移动,该经计算的动态路径穿过临近观看者的视线位置的预先确定的区域内部并且通向目标对象。
使用视线追踪数据来确定观看者的视线位置是否在引导元素的预先确定的偏差阈值内。如果观看者的视线位置在引导元素的预先确定的偏差阈值内,则控制显示器来继续显示引导元素沿着经计算的动态引导路径向目标对象移动。然而,如果观看者的视线位置偏离了引导元素至少预先确定的偏差阈值,则控制显示器不继续显示引导元素沿着经计算的动态引导路径向目标对象移动。
提供了该发明内容以用简化的形式介绍在下文的具体实施方式中所进一步描述的概念的选择。该发明内容不旨在标识所要求保护的主题的关键特征或本质特征,也不旨在用来限制所要求保护的主题的范围。此外,所要求保护的主题不限于解决了在该公开的任何部分中所述的任何或全部缺点的实现。
附图说明
图1是根据本公开的示例的可以与显示器一起利用来吸引观看者的视线的示例计算设备的示意图。
图2是根据本公开的示例的房间中的观看者与吸引观看者的视线的计算设备和显示器进行交互的示意图。
图3是根据本公开的示例的在显示设备上所显示的可以吸引观看者的视线的电影的示意图。
图4是根据本公开的示例的在显示设备上所显示的可以吸引观看者的视线的游戏的示意图。
图5是根据本公开的示例的在显示设备上所显示的可以吸引观看者的视线的网页的示意图。
图6是示例头戴显示设备的示意图。
图7A和7B是根据本公开的示例的用于吸引显示设备的观看者的视线的方法的流程图。
图8是计算设备的示例的简化的示意图。
具体实施方式
图1示出了用于吸引显示设备的观看者的视线的计算设备的示例实现的示意图。如在下文中更加详细地描述的,计算设备使用来自视线追踪系统的视线追踪数据来监测观看者的视线位置。视线吸引程序控制显示设备来显示引导元素沿着经计算的动态路径移动,该经计算的动态路径穿过临近观看者的视线位置的预先确定的区域内部并且通向目标对象。如果观看者的视线不离开引导元素,则引导元素继续沿着经计算的动态引导路径向目标对象移动。如果观看者的视线偏离了引导元素至少预先确定的偏差阈值,则不再显示引导元素沿着经计算的动态引导路径向目标对象移动。
在各种示例中,计算设备可以与观看者可以与其交互的显示设备物理上分离、或者集成到该显示设备中。图1示意性地示出了与显示设备14物理上分离的计算设备10的示例。在该示例中,计算设备10可以包括分离的设备或者可以集成到分离的设备中,所述分离的设备例如:机顶盒、游戏控制台、网络摄像头、头戴计算设备或其他可穿戴计算设备、键盘、专用外设、或者不包括集成的显示器的其他类似的设备。
计算设备10可以使用有线连接来可操作地与显示设备14连接,或者可以采用经由WiFi、蓝牙、或任何其他合适的无线通信协议的无线连接。例如,计算设备10可以通信地耦合至网络16。网络16可以采取局域网(LAN)、广域网(WAN)、有线网络、无线网络、个域网、或其组合的形式,并且可以包括互联网。在下文中参考图8更加详细地描述了关于计算设备10的组件和计算方面的额外的细节。
图1还示出了集成到头戴显示(HMD)设备18中的计算设备12的示例。HMD设备18可以创建并向第一观看者22显示虚拟现实环境或者混合现实环境。在这些示例中,HMD设备18可以包括可以生成虚拟环境或混合现实环境以供经由HMD设备进行显示的显示程序26。虚拟环境可以包括经由HMD设备18来生成并显示的以虚拟图像(例如,三维(3D)全息对象和二维(2D)虚拟图像)为形式的一个或多个可视元素。在混合现实环境中,HMD设备18可以使得观看者能够在观看者周围的物理环境内来观看这样的全息对象和虚拟图像。
如在下文中更加详细地描述的,在一些示例中,HMD设备18可以包括被支撑在观看者的单眼或双眼前的透明的、半透明的、或者非透明的显示器。HMD设备18可以包括从物理环境中接收物理环境数据的各种传感器和有关的系统。例如,HMD设备18可以包括深度传感器系统30,所述深度传感器系统30包括生成深度图像数据的一个或多个深度相机。
在一些示例中,HMD设备18可以包括利用至少一个面向外部的传感器(例如,RGB相机或其他光学传感器)的光学传感器系统32。面向外部的传感器可以从物理环境中捕获二维信息。HMD设备18还可以包括位置传感器系统34,该位置传感器系统34包括一个或多个加速度计、陀螺仪、头部追踪系统、和/或用于确定用户的位置或朝向的其他传感器。
HMD设备18还可以包括换能器系统38,所述换能器系统38包括将电信号转换成另一种形式的能量的一个或多个致动器。在一些示例中,换能器系统38可以包括用于向观看者提供音频反馈的一个或多个扬声器。在其他的示例中,换能器系统38可以包括用于生成触觉反馈(例如,振动)并将其提供给观看者的一个或多个触觉换能器。HMD设备18还可以包括用于从物理环境中接收音频输入的麦克风系统42和一个或多个麦克风。
额外地,在图1中所示出的示例示出了集成到HMD设备18中的计算设备12。应当理解的是,在其他示例中,计算设备可以是与HMD设备18分离的组件。具有各种形状因子的许多类型和配置的HMD设备18可以被使用并且在本公开的范围内。在下文中参考图6提供了对示例HMD设备的更加详细的描述。
还应当理解的是,计算设备12可以包括或者被集成到任何其他合适的类型或形式的显示设备中,例如,平板计算机、笔记本计算机、智能电话、或者其他移动计算设备、台式计算设备、独立监视器、壁装式显示器、交互式白板、或者具有集成的显示器的其他类似的设备。这样的设备还可以包括视线追踪系统,如在下文中更加详细地描述的。
计算设备10和计算设备12两者都可以包括可以存储在大容量存储40中的视线吸引程序46。可以将视线吸引程序46加载到存储器48中并且由处理器52执行以执行在下文中更加详细地描述的方法和过程中的一个或多个方法和过程。
计算设备10和计算设备12可以从视线追踪系统54中接收视线追踪数据50。在各种示例中,视线追踪系统54可以位于显示设备14中、位于HMD设备18中、或者与任何其他合适的类型或形式的显示设备(包括但不限于在上文中所讨论的具有集成显示器的那些示例设备)位于共同的外壳中。在其他示例中,可以将视线追踪系统54和计算设备10集成不包括集成的显示器的共同的外壳中,该不包括集成的显示器的共同的外壳可以例如是头戴或其他可穿戴设备、或者不包括集成的显示器的任何其他合适的类型或形式的计算设备(包括但不限于在上文中所讨论的不具有集成显示器的那些示例设备)。
继续参考图1,示例显示设备14可以包括用于将一个或多个可视的元素呈现给第二观看者62的显示系统58。如在下文中更加详细地描述的,视线吸引程序46可以经由由显示设备14、HMD 18、或其他显示设备所显示的引导元素而利用来自视线追踪系统54的视线追踪数据50来吸引观看者的视线。
现在参考图2-5,现在将提供对示例使用情况的描述。图2是房间200中的几个观看者与使用来自视线追踪系统的视线追踪数据来吸引观看者的视线的计算设备和显示设备进行交互的示意图。在一个示例中,观看者Alex202正在观看在壁装式显示器210上所显示的电影206。在该实例中,壁装式显示器210通信地耦合至机顶盒214,该机顶盒214包括视线追踪系统54以及包括视线吸引程序46的计算设备。
现在参考图3,在一个示例中,电影206的制片人可以期望将观看者的注意力吸引至在电影的场景中所显示的咖啡屋302。为了吸引观看者的注意力,视线吸引程序46可以被配置为控制显示设备210来显示引导元素。在该示例中,引导元素包括被添加至电影场景的可以是计算机生成的图像的鸟306。视线吸引程序46可以使用来自视线追踪系统54的视线追踪数据来监测在壁装式显示器210上的观看者Alex 202的视线位置。例如并且如在图3中所示出的,视线追踪系统54可以使用视线追踪数据50来确定观看者Alex 202目前正在注视视线位置308。
可以将鸟306显示为沿着通向咖啡屋302的经计算的动态路径310移动。此外并且为了吸引观看者Alex 202的注意力,经计算的动态路径310可以穿过临近观看者Alex 202的视线位置308的预先确定的区域314内部。额外地并且为了最小化对观看者Alex 202的观看体验的打断或注意力分散,可以以使得鸟306的移动显得自然和真实的方式来计算动态路径310。有利地,利用这样的动态路径可以使得观看者Alex 202继续观看并欣赏电影206,而不会感到他的注意力被操纵或者是故意被转移。
在一些示例中,计算机生成的鸟306可以被显示为根据计算机生成的图像移动规则而沿着经计算的动态路径310移动,所述计算机生成的图像移动规则管理在电影206中实时渲染的计算机生成的图像的移动。还应当理解的是,以鸟306为形式的引导元素的本示例是出于说明性的目的而提供的,并且引导元素的许多其他类型、形式、和示例可以被利用并且在本公开的范围内。例如并且关于电影206,可以利用的计算机生成的其他引导元素包括但不限于:漂浮的叶子、人、车、或任何其他合适的引导元素。
在图3中所示出的示例中,临近观看者Alex 202的视线位置308的预先确定的区域314是与视线位置共圆心的具有半径R的圆。可以以任何合适的方式并且可以基于以下标准中的一个或多个标准来确定该半径R,所述标准例如:从壁装式显示器210到观看者Alex202的距离、壁装式显示器210的尺寸、在壁装式显示器上所显示的一个或多个元素的尺寸、视线追踪系统54的精确度、或者任何其他合适的标准。在各种示例中,半径R可以具有大约为0.5mm、1.0mm、5.0mm、10.0mm、50.0mm、100.0mm的长度、或者任何其他合适的距离。应当理解的是,临近观看者的视线位置的预先确定的区域的任何其他合适的形状和/或配置也可以被使用并且在本公开的范围内。
继续参考图3,当鸟306沿着经计算的动态路径310行进时,视线吸引程序46可以确定观看者Alex 202的视线是否跟随着鸟的飞行。在一个示例中,在鸟306经过视线位置308之后,视线吸引程序46可以确定观看者Alex 202的经更新的视线位置308’是否在鸟306的预先确定的偏差阈值内。
在一个示例中并且如在图3中所示出的,当经更新的视线位置与鸟306的至少一部分重叠时,可以确定观看者Alex 202的经更新的视线位置308’在鸟306的预先确定的偏差阈值内。在另一个示例中,当视线位置与鸟在预先确定的距离内(而不一定与鸟重叠)时,可以确定观看者Alex 202的经更新的视线位置308’在鸟306的预先确定的偏差阈值内。
例如并且如在图3中所示出的,预先确定的偏差阈值318可以包括与经更新的视线位置308’共圆心的具有半径T的圆。如在上文中关于半径R所讨论的,可以以任何合适的方式并且可以基于以下标准中的一个或多个标准来确定该半径T,所述标准例如:从壁装式显示器210到观看者Alex 202的距离、壁装式显示器的尺寸、鸟306和/或在壁装式显示器上所显示的一个或多个其他元素的尺寸、视线追踪系统54的精确度、或者任何其他合适的标准。在各种示例中,半径T可以具有大约为0.5mm、1.0mm、5.0mm、10.0mm、50.0mm、100.0mm的长度、或者任何其他合适的长度。还应当理解的是,临近观看者的视线位置的预先确定的区域的任何其他合适的形状和/或配置也可以被使用并且在本公开的范围内。
在经更新的视线位置308’在鸟的预先确定的偏差阈值内的情况下,视线吸引程序46可以控制壁装式显示器210来继续显示鸟306沿着经计算的动态路径310向咖啡屋302移动。有利地并且以该方式,观看者Alex 202的视线可以被引向咖啡屋302,从而增加了Alex对咖啡屋的感知。额外地并且如在下文中更加详细地描述的,在一些示例中,视线吸引程序46还可以确定观看者Alex的视线位置与咖啡屋302重叠,并且作为响应,可以将广告消费收费分配给咖啡屋。
在另一个示例中,视线吸引程序46可以确定观看者Alex 202的视线位置偏离了鸟306至少预先确定的偏差阈值318。可替代地表达并且关于图3的示例,视线吸引程序46可以确定观看者Alex 202的视线位置在318处所指示的圆之外。例如,视线吸引程序46可以确定观看者Alex 202将他的视线返回至视线位置308。在该示例中,视线吸引程序46可以控制壁装式显示器210以不继续显示鸟306沿着经计算的动态路径310向咖啡屋302移动。
在另一个示例中,视线吸引程序46可以监测并追踪观看者Alex的视线位置的视线轨迹312。在该示例中,当视线轨迹312在经计算的动态路径310的路径偏差阈值316内时,可以确定观看者Alex 202的视线位置在鸟306的预先确定的偏差阈值内。例如,在鸟306经过临近Alex的视线位置308的预先确定的区域314之后,观看者Alex 202可以一开始利用他的视线来跟随鸟的飞行,以使得他的视线轨迹312在路径偏差阈值316内。
如在图3中所示出的,在该示例中,路径偏差阈值316是在给定的时刻处视线轨迹312与经计算的动态路径310之间的距离。在各种示例中,路径偏差阈值316可以具有大约为0.5mm、1.0mm、5.0mm、10.0mm、50.0mm、100.0mm的长度、或者任何其他合适的长度。还应当理解的是,可以使用视线轨迹312与经计算的动态路径310之间的任何其他合适的比较来确定观看者Alex的视线是否在跟随鸟306,并且所述任何其他合适的比较在本公开的范围内。
如在上文中所讨论的,如果视线吸引程序46确定视线轨迹312在路径偏差阈值316内,则该程序可以控制壁装式显示器210来继续显示鸟306沿着经计算的动态路径310向咖啡屋302移动。在另一个示例中,视线吸引程序46可以确定观看者Alex 202的视线轨迹312偏离了经计算的动态路径310至少路径偏差阈值316。例如,视线吸引程序46可以确定观看者Alex202将他的视线转移至由视线轨迹312所指示的视线位置308”。在该示例中,视线吸引程序46可以控制壁装式显示器210不继续显示鸟306沿着经计算的动态路径310向咖啡屋302移动。
在一个示例中,视线吸引程序46可以通过将鸟的移动偏移为沿着不通向咖啡屋302的可替代的路径322移动来不继续显示鸟306沿着经计算的动态路径310移动。通过该方式,视线吸引程序46可以避免显示全部引导元素都向目标对象行进,即使是当观看者没有注视引导元素时。在其他示例中,视线吸引程序46可以通过不再显示引导元素来不继续显示鸟306沿着经计算的动态路径移动。例如,视线吸引程序46可以使得引导元素从显示器上消失。
在另一个示例中,可以基于观看者Alex 202的视线位置的改变来以编程方式调整经计算的动态路径310。例如,在观看者Alex 202将他的视线改变至在旁观者320处的经更新的视线位置308”时,视线吸引程序46可以以编程方式来调整经计算的动态路径以穿过临近经更新的视线位置308”的预先确定的区域内部,并且接着继续至咖啡屋302。
在另一个示例中并且现在参考图1和图2,观看者Mary 230可以在她的平板计算机238上玩计算机游戏234。平板计算机238可以包括显示器242、视线追踪系统54、以及视线吸引程序46。现在参考图4,在一个示例中,计算机游戏234包括棒球游戏400,该棒球游戏400包括可以由观看者Mary 230来控制的以击球手404为形式的玩家角色、以及根据棒球游戏的非玩家角色移动规则而移动的以投手408为形式以及以外场手412和414为形式的非玩家角色。棒球游戏400还可以包括根据棒球游戏的对象移动规则而移动的至少一个对象。在该示例中,该对象可以包括棒球420。
在该示例中,引导元素可以包括投手408、外场手412、和/或棒球420。例如,视线吸引程序46可以控制平板计算机238的显示器242来显示外场手412根据非玩家角色移动规则而沿着经计算的动态路径430移动。经计算的动态路径430通向位于外场墙上并且鼓励观看者Mary 230“在咖啡馆A吃饭”的广告434。可以如在上文中所描述的那样确定并监测观看者Mary230在显示器上的视线位置450。还可以如在上文中所描述的那样来控制外场手412沿着经计算的动态路径430的移动。
在一些示例中,咖啡馆A可以支付促销费以使其广告434在棒球游戏400中显示。在一个示例中,如果视线吸引程序46确定观看者Mary 230的视线位置450与广告434重叠,则可以将广告消费收费分配给咖啡馆A。有利地,通过这样的方式,广告商支付基于印象的广告消费收费,该广告消费收费直接与观看者对广告商的广告的实际印象相关。
在另一个示例中,由咖啡馆A针对其广告434所支付的促销费可以至少部分地基于观看者在其期间注视该广告的时间段。例如,在观看者Mary230的视线位置450与广告434重叠了少于预先确定的时间段的情况下,可以将第一广告消费收费分配给咖啡馆A。在观看者Mary 230的视线位置450与广告434重叠了至少预先确定的时间段的情况下,可以将高于第一广告消费收费的第二广告消费收费分配给咖啡馆A。在一些示例中,预先确定的时间段可以是0.5秒、1.0秒、2.0秒、5.0秒、或者任何其他合适的时间段。同样,可以针对第一广告消费收费和第二广告消费收费而利用任何合适的量。
现在参考图5,在一些示例中,目标对象可以包括在网页上所显示的广告。例如,观看者Mary 230可以在她的包括触摸感应显示器242的平板计算机238上查看网页。以加条纹的彗星504为形式的引导元素可以被显示为沿着穿过临近观看者Mary 230的视线位置510的预先确定的区域508内部的经计算的动态路径506移动。经计算的动态路径可以通向以来自咖啡馆A的通知“披萨买一赠一”的可选择的广告512为形式的目标对象。
在一个示例中,观看者Mary 230可以通过触摸显示器242的屏幕来提供与可选择的广告512相关联的观看者输入。可以由触摸感应屏幕将她的触摸选择的位置解译为位于与广告512的一部分重叠的触摸位置点514。从而,选择广告512的该观看者输入可以触发可以分配给咖啡馆A的广告消费收费。
然而,在一些示例中,观看者Mary 230可以不想要选择广告512。例如,观看者Mary230可以具有大于平均的手指并且可以想要选择“点击这里”可选择按钮520。触摸感应显示器242的触摸检测系统可能已经将她所期望的触摸位置错误地解译为位于点514处。为了解决该可能性,当接收到观看者Mary 230的触摸输入并且其与广告512相关联时,视线吸引程序46可以确定观看者Mary 230的视线位置是否与该广告重叠。
在一个示例中,如果当接收到观看者输入时观看者Mary 230的视线位置524与广告512重叠,则将广告消费收费分配给咖啡店A。另一方面,如果当接收到观看者输入时观看者Mary 230的视线位置530不与广告512重叠,则取消广告消费收费。有利地,通过该方式,可以识别出对网页上的可选择的广告或其他组件的疏忽的或无意的选择,并且可以避免对应的错误的广告消费收费和/或其他无意的操作。
在另一个示例中并且再次参考图2,观看者Wally 250戴着以一副眼镜254为形式的HMD设备。观看者Wally 250经由HMD眼镜254来参与混合现实体验,该混合现实体验包括全息巫师260以及以漂浮的球264为形式的引导元素,它们都由眼镜显示。
在一个示例中,混合现实体验的开发者可以期望将观看者Wally的注意力吸引至在房间20中所显示的全息咖啡屋广告270。如在上文中所描述的,HMD眼镜254的视线吸引程序46可以被配置为显示引导元素。在该示例中,引导元素包括漂浮的球264。视线吸引程序46可以使用来自HMD眼镜254的视线追踪系统54的视线追踪数据来监测观看者Wally 250的视线位置。
漂浮的球264可以被显示为沿着通向咖啡屋广告270的经计算的动态路径274移动。如上所述,经计算的动态路径274可以穿过临近观看者Wally250的视线位置282的预先确定的区域278内部。在漂浮的球沿着经计算的动态路径274行进时,视线吸引程序46可以确定观看者Wally 250的视线位置是否在球的预先确定的偏差阈值内。在一个示例中,在漂浮的球264经过视线位置282之后,视线吸引程序46确定观看者Wally 250的经更新的视线位置282’在球处并且在预先确定的偏差阈值内。从而,视线吸引程序46可以控制HMD眼镜254来继续显示漂浮的球264沿着经计算的动态路径274向咖啡屋广告270移动。
在其他示例中并且如在上文中所描述的,视线吸引程序46还可以确定观看者Wally 250的另一个视线位置282”与咖啡屋广告270重叠,并且作为响应,可以将广告消费收费分配给咖啡屋。
在另一个示例中,视线吸引程序46可以确定观看者Wally 250的视线位置偏离了漂浮的球264至少预先确定的偏差阈值。在该示例中,视线吸引程序46可以控制HMD眼镜254不继续显示漂浮的球264沿着经计算的动态路径274向咖啡屋广告270移动。例如,HMD眼镜254可以将漂浮的球264偏移为沿着不与广告270重叠的可替代的路径286移动。在其他示例中,HMD眼镜254可以停止显示漂浮的球264。
现在参考图6,提供了以一副具有透明的显示器的可佩带的眼镜为形式的HMD设备600的一个示例。应当理解的是,在其他示例中,HMD设备600可以采取其他合适的形式,其中,透明的、半透明的、和/或非透明的显示器被支撑在用户的单眼或双眼前。应当理解的是,在图1和图2中所示出的HMD设备可以采取如在下文中所详细描述的HMD设备600、或者任何其他合适的HMD设备的形式。
HMD设备600包括显示系统602以及使得图像(例如,全息对象)能够被传递给HMD设备的佩戴者的眼睛的透视或透明显示器604。透明显示器604可以被配置为对通过该透明显示器观看物理环境的佩戴者而言可视地增强现实世界、物理环境的外表。例如,可以通过经由透明显示器604所呈现的用于创建增强现实环境的图形内容(例如,每个都具有相应的颜色和亮度的一个或多个像素)来增强物理环境的外表。
透明显示器604还可以被配置为使得HMD设备的佩戴者能够通过显示虚拟对象表示的一个或多个部分透明的像素来在物理环境中观看物理的、真实世界的对象。如在图6中所示出的,在一个示例中,透明显示器604可以包括位于镜片606内的图像生产元件(例如,透视的有机发光二极管(OLED)显示器)。作为另一个示例,透明显示器604可以包括镜片606的边缘上的光调制器。在该示例中,镜片606可以充当用于将光从光调制器传递至佩戴者的眼睛的光导。这样的光导可以使得佩戴者能够感觉到位于佩戴者正在观看的物理环境内的3D全息图像,同时还允许佩戴者观看物理环境中的物理对象,因此创建增强现实环境。
HMD设备600还可以包括各种传感器和有关的系统。例如,HMD设备600可以包括视线追踪系统608,该视线追踪系统608包括被配置为从佩戴者的眼睛获得以视线追踪数据为形式的图像数据的一个或多个图像传感器。假如佩戴者已经同意了对该数据的获得和使用,视线追踪系统608可以使用该信息来追踪佩戴者的眼睛的位置和移动。
在一个示例中,视线追踪系统608包括被配置为检测佩戴者的每个眼睛的方向的视线检测子系统。该视线检测子系统可以被配置为以任何方式来确定佩戴者的眼睛中的每个眼睛的视线方向。例如,视线检测子系统可以包括被配置为使得闪烁的光从佩戴者的每个眼睛的角膜反射的一个或多个光源(例如,红外光源)。接着,一个或多个图像传感器可以被配置为捕获佩戴者的眼睛的图像。
可以使用根据从图像传感器所收集的图像数据所确定的闪烁和瞳孔的图像来确定每个眼睛的光轴。接着,视线追踪系统608可以使用该信息来确定佩戴者注视的方向。视线追踪系统608可以额外地或者可替代地确定佩戴者在注视哪个物理的或虚拟的对象,并且确定佩戴者在注视物理的或虚拟的对象上的什么位置。可以接着将这样的视线追踪数据提供至HMD设备600。
还应当理解的是,视线追踪系统608可以具有任何合适的数量和布置的光源和图像传感器。例如并且参考图6,HMD设备600的视线追踪系统608可以利用至少一个面向内部的传感器610。
HMD设备600还可以包括从物理环境中接收物理环境数据的传感器系统。例如,HMD设备600还可以包括头部追踪系统612,该头部追踪系统612利用一个或多个姿势传感器(例如,HMD设备600上的姿势传感器614)的来捕获头部姿势数据,并且由此支持对佩戴者的头部的位置追踪、方向/位置和朝向感测、和/或运动检测。
在一个示例中,头部追踪系统612可以包括被配置为三轴或三个自由度的位置传感器系统的惯性测量单元(IMU)。例如,该示例位置传感器系统可以包括三个陀螺仪以指示或测量3D空间内的HMD设备600的朝向关于三正交轴(例如,x、y和z或者滚动、俯仰、和偏转)的改变。在一些示例中,可以使用从IMU的传感器信号得出的朝向来经由透明显示器604显示具有身体锁定的位置的一个或多个虚拟对象,其中,每个虚拟对象的位置看起来都相对于透视显示器的佩戴者是固定的,并且每个虚拟对象的位置看起来都相对于物理环境中的真实对象是可移动的。
在另一个示例中,头部追踪系统612可以包括被配置为六轴或六个自由度的位置传感器系统的IMU。例如,该示例位置传感器系统可以包括三个加速度计和三个陀螺仪,以指示或测量HMD设备600的位置沿着三正交轴的改变,以及设备的朝向关于三正交轴的改变。
头部追踪系统612还可以支持其他合适的定位技术,例如,GPS或其他全球定位系统。此外,尽管已经描述了位置传感器系统的具体的示例,但应当理解的是,可以使用任何其他合适的位置传感器系统。例如,可以基于来自安装在佩戴者上和/或在佩戴者外部的传感器的任何组合的传感器信息来确定头部姿势和/或运动数据,所述传感器包括但不限于任何数量的陀螺仪、加速度计、惯性测量单元、GPS设备、气压计、磁力计、相机(例如,可见光相机、红外光相机、飞行时间深度相机、结构化光深度相机等)、通信设备(例如,WiFi天线/接口)等。
在一些示例中,HMD设备600还可以包括光学传感器系统,该光学传感器系统利用一个或多个面向外部的传感器(例如,HMD设备600上的光学传感器616)来捕获图像数据。面向外部的传感器可以检测其视场内的运动,例如,基于手势的输入、或者由佩戴者或者由视场内的人或物理对象所执行的其他运动。面向外部的传感器还可以从物理环境和环境内的物理对象中捕获2D图像信息和深度信息。例如,面向外部的传感器可以包括深度相机、可见光相机、红外光相机、和/或位置追踪相机。
光学传感器系统可以包括经由一个或多个深度相机来生成深度追踪数据的深度追踪系统。在一个示例中,每个深度相机都可以包括立体视觉系统的左相机和右相机。来自这些深度相机中的一个或多个深度相机的时间分辨的图像可以被彼此配准(register)和/或与来自另一个光学传感器(例如,可见谱相机)的图像配准,并且可以进行组合以产生深度分辨的视频。
在其他示例中,结构化光深度相机可以被配置为投影出结构化的红外光照,并且对从场景中反射的光照进行成像,其中所述光照投影至该场景上。可以基于经成像的场景的各个区域中的相邻的特征之间的空间来构建场景的深度映射。在其他示例中,深度相机可以采取被配置为将脉冲红外光照投影到场景上并且检测从场景反射的光照的飞行时间深度相机的形式。例如,可以由红外光源618来提供光照。应当理解的是,在本公开的范围内可以使用任何其他合适的深度相机。
面向外部的传感器可以捕获HMD设备的佩戴者所处的物理环境的图像。关于HMD设备600,在一个示例中,增强现实显示程序可以包括对HMD设备的佩戴者周围的环境进行建模的3D建模系统,该3D建模系统使用这样的所捕获的图像来生成虚拟环境。在一些示例中,光学传感器616可以与IMU协作以在六个自由度上确定HMD设备600的位置和朝向。可以使用这样的位置和朝向信息来经由透明显示器604显示具有世界锁定的位置的一个或多个虚拟对象,其中,每个虚拟对象的位置看起来相对于可以通过透明显示器看到的真实世界的对象是固定的,并且每个虚拟对象的位置看起来相对于透视显示器的佩戴者是可移动的。
HMD设备600还包括麦克风系统,该麦克风系统包括捕获音频数据的一个或多个麦克风,例如,麦克风620。在其他示例中,可以将音频经由一个或多个扬声器(例如,HMD设备600上的扬声器622)呈现给佩戴者。
HMD设备600还可以包括控制器,例如,控制器624。控制器624可以包括如在下文中关于图8更加详细地讨论的逻辑子系统和存储子系统,它们与HMD设备600的各种传感器和系统进行通信。在一个示例中,存储子系统可以包括可以由逻辑子系统执行以从传感器中接收信号输入、确定HMD设备600的姿势、并且调整经由透明显示器604来显示的内容的显示属性的指令。
图7A和图7B示出了根据本公开的实现的用于吸引显示设备的观看者的视线的方法700的流程图。关于在上文中所描述的并且在图1-6中所示出的软件组件和硬件组件而提供了对方法700的以下的描述。应当理解的是,还可以在使用其他合适的硬件组件和软件组件的其他上下文中执行方法700。
参考图7A,在704处,方法700可以包括控制显示设备来显示目标对象。在708处,方法700可以包括使用来自视线追踪系统的视线追踪数据来监测观看者的视线位置。在712处,方法700可以包括控制显示设备来显示引导元素沿着经计算的动态路径移动,该动态路径穿过临近观看者的视线位置的预先确定的区域内部并且通向目标对象。
在716处,方法700可以包括使用视线追踪数据来确定观看者的视线位置是否在引导元素的预先确定的偏差阈值内。在720处,方法700可以包括,如果观看者的视线位置在引导元素的预先确定的偏差阈值内,则控制显示设备继续显示引导元素沿着经计算的动态引导路径向目标对象移动。在724处,方法700可以包括,如果观看者的视线位置偏离了引导元素至少预先确定的偏差阈值,则控制显示设备不继续显示引导元素沿着经计算的动态引导路径向目标对象移动。
在728处,不继续显示引导元素沿着经计算的动态引导路径向目标对象移动可以包括使引导元素偏离经计算的动态路径。在732处,不继续显示引导元素沿着经计算的动态引导路径向目标对象移动可以包括停止显示引导元素。在736处,预先确定的偏差阈值包括到引导元素的距离。在738处,预先确定的偏差阈值包括到经计算的动态路径的路径偏差阈值,并且方法700可以包括确定观看者的视线轨迹是否偏离了经计算的动态路径至少路径偏差阈值。如果观看者的视线轨迹偏离了经计算的动态路径至少路径偏差阈值,则可以控制显示器不继续显示引导元素沿着经计算的动态引导路径向目标对象移动,如在上文中所讨论的。
现在参考图7B,在740处并且在观看者玩计算机游戏(其中,该计算机游戏具有根据非玩家角色移动规则来移动的至少一个非玩家角色以及根据对象移动规则来移动的至少一个对象)时执行方法700的情况下,控制显示设备来显示引导元素还可以包括:使引导元素根据非玩家角色移动规则或者对象移动规则而沿着经计算的动态路径移动。在744处并且在用户观看电影时执行方法的情况下,控制显示设备来显示引导元素还可以包括:使引导元素根据针对在电影中实时渲染的计算机生成的图像的计算机生成的图像的移动规则而沿着经计算的动态路径移动。
在748处并且在目标对象包括在显示设备上所显示的来自广告商的广告的情况下,方法700还可以包括:如果观看者的视线位置与广告重叠,则将广告消费收费分配给广告商。在752处并且在广告消费收费是第一广告消费收费的情况下,方法700还可以包括:如果观看者的视线位置与广告商重叠了至少预先确定的时间段,则分配大于第一广告消费收费的第二广告消费收费。
在756处,在目标对象包括在网页上显示的来自广告商的广告的情况下,方法700可以包括:接收与广告相关联的观看者输入,所述观看者输入触发广告消费收费。在760处,如果当接收到观看者输入时观看者的视线位置与网页上的广告重叠,则方法700可以包括将广告消费收费分配给广告商。在764处,如果当接收到观看者输入时观看者的视线不与网页上的广告重叠,则方法700可以包括取消广告消费收费。在768处,显示设备可以包括可穿戴显示设备,该可穿戴显示设备包括视线追踪系统。
应当理解的是,方法700是作为示例提供的并且不意味着进行限制。因此,应当理解的是,方法700可以包括与在图7A和图7B中所示出的那些步骤相比额外的和/或可替代的步骤。此外,应当理解的是,可以以任何合适的顺序来执行方法700。此外,应当理解的是,可以从方法700中省略一个或多个步骤而不脱离该公开的范围。
图8示意性地示出了可以执行在上文中所描述的方法和过程中的一个或多个方法和过程的计算系统800的非限制性示例。计算设备10和计算设备12可以采取计算系统800的一个或多个方面的形式或者包括计算系统800的一个或多个方面。计算系统800是以简化的形式示出的。应当理解的是,可以虚拟地使用任何计算机架构而不脱离该公开的范围。在不同的示例中,计算系统800可以采取以下形式,包括:大型计算机、服务器计算机、台式计算机、平板计算机、家庭娱乐计算机、网络计算设备、平板式计算机、笔记本计算机、智能电话、或者其他移动计算设备、移动通信设备、游戏设备等。
如在图8中所示出的,计算系统800包括逻辑子系统804和存储子系统808。计算系统800可以可选地包括传感器子系统812、显示子系统816、通信子系统820、输入子系统822、和/或未在图8中示出的其他子系统和组件。计算系统800还可以包括计算机可读介质,其中所述计算机可读介质包括计算机可读存储介质和计算机可读通信介质。计算系统800还可以可选地包括其他用户输入设备,例如:键盘、鼠标、游戏控制器、和/或触摸屏。此外,在一些实施例中,在本文中所描述的方法和过程可以被实现为计算机应用、计算机服务、计算机API、计算机库、和/或包括一个或多个计算机的计算系统中的其他计算机程序产品。
逻辑子系统804可以包括被配置为执行一个或多个指令的一个或多个物理设备。例如,逻辑子系统804可以被配置为执行作为一个或多个应用、服务、程序、例程、库、对象、组件、数据结构、或其他逻辑结构的一部分的一个或多个指令。可以实现这样的指令来执行任务、实现数据类型、转换一个或多个设备的状态、或者以其他方式达到期望的结果。
逻辑子系统804可以包括被配置为执行软件指令的一个或多个处理器。额外地或可替代地,逻辑子系统可以包括被配置为执行硬件或固件指令的一个或多个硬件或固件逻辑机器。逻辑子系统的处理器可以是单核的或者多核的,并且在其上执行的程序可以针对并行处理或分布式处理而被配置。逻辑子系统可以可选地包括遍布两个或更多个设备而分布的个体的组件,所述个体的组件可以处于远程位置和/或被配置用于协调处理。可以由在云计算配置中配置的远程可访问的网络化计算设备来虚拟化和执行逻辑子系统的一个或多个方面。
存储子系统808可以包括一个或多个物理的、持久的设备,其被配置为保存数据和/或可以由逻辑子系统804执行以实现在本文中所描述的方法和过程的指令。当实现这样的方法和过程时,可以转换存储子系统808的状态(例如,以保存不同的数据)。
存储子系统808可以包括可移动介质和/或内置的设备。存储子系统808可以包括光存储器设备(例如,CD、DVD、HD-DVD、蓝光盘等)、半导体存储器设备(例如,RAM、EPROM、EEPROM等)、和/或磁存储器设备(例如,硬盘驱动器、软盘驱动器、磁带驱动器、MRAM等)等。存储子系统808可以包括具有以下特性中的一个或多个特性的设备:易失性、非易失性、动态、静态、读/写、只读、随机存取、顺序存取、位置可寻址、文件可寻址、以及内容可寻址。
在一些示例中,可以将逻辑子系统804和存储子系统808的方面集成到一个或多个公共的设备中,其中可以通过所述一个或多个公共的设备来至少部分地实施(enact)在本文中所描述的功能。这样的硬件逻辑组件可以包括例如:现场可编程门阵列(FPGA)、程序和应用专用集成电路(PASIC/ASIC)、程序和应用专用标准产品(PSSP/ASSP)、片上系统(SOC)、以及复杂可编程逻辑器件(CPLD)。
图8还示出了以可移动计算机可读存储介质824为形式的存储子系统808的方面,所述可移动计算机可读存储介质824可以用于存储数据和/或可执行以实现在本文中所描述的方法和过程的指令。可移动计算机可读存储介质824可以采取CD、DVD、HD-DVD、蓝光盘、EEPROM、和/或软盘等的形式。
应当理解的是,存储子系统808包括一个或多个物理的、持久的设备。相反,在一些实现中,可以通过没有由物理设备保存至少有限的持续时间的纯信号(例如,电磁信号、光学信号等)来以瞬时的方式传播在本文中所描述的指令的方面。此外,可以经由计算机可读通信介质通过纯信号来传播关于本公开的数据和/或其他形式的信息。
当被包括时,传感器子系统812可以包括被配置为感测如在上文中所描述的不同的物理现象(例如,可见光、红外光、声音、加速度、朝向、位置等)的一个或多个传感器。传感器子系统812可以被配置为例如将传感器数据提供至逻辑子系统。这样的数据可以包括视线追踪信息、图像信息、环境光信息、深度信息、音频信息、位置信息、运动信息、用户位置信息、和/或可以用于执行在上文中所描述的方法和过程的任何其他合适的传感器数据。
当被包括时,显示子系统816可以用于呈现对由存储子系统808所保存的数据的视觉表示。如在上文中所讨论的方法和过程改变由存储子系统808所保存的数据,并且因此转换存储子系统的状态,同样可以转换显示子系统816的状态从而可视地表示底层数据的改变。显示子系统816可以包括虚拟地利用任何类型的技术的一个或多个显示设备。可以在共享的外壳中将这样的显示设备与逻辑子系统804和/或存储子系统808进行组合,或者这样的显示设备可以是外围显示设备。
当被包括时,通信子系统820可以被配置为通信地将计算系统800与一个或多个网络和/或一个或多个其它计算设备进行耦合。通信子系统820可以包括与一个或多个不同的通信协议兼容的有线和/或无线通信设备。作为非限制性示例,通信子系统820可以被配置为经由无线电话网络、无线局域网络、有线局域网络、无线广域网络、有线广域网络等通信。在一些实施例中,通信子系统可以允许计算系统800经由诸如互联网之类的网络向其他设备发送消息和/或从其他设备接收消息。
当被包括时,输入子系统822可以包括一个或多个传感器或用户输入设备或者与一个或多个传感器或用户输入设备接合,所述传感器或用户输入设备例如:游戏控制器、手势输入检测设备、语音识别器、惯性测量单元、键盘、鼠标、或触摸屏。在一些实施例中,输入子系统822可以包括经选择的自然用户输入(NUI)部件或者与经选择的自然用户输入部件接合。这样的部件可以是集成或是外围的,而输入动作的转导和/或处理可以是板上处理的和/或离板处理的。示例NUI部件可以包括用于话音和/或语音识别的麦克风;用于机器视觉和/或手势识别的红外、彩色、立体和/或深度相机;用于运动检测和/或意图识别的头部追踪器、眼部追踪器、加速度计、和/或陀螺仪;以及用于评估脑部活动的电场传感部件。
术语“程序”可以用于描述计算设备10和计算设备12的方面,所述方面被实现为执行一个或多个特定的功能。在一些情况下,可以经由执行由存储子系统808所保存的指令的逻辑子系统804来将这样的程序实例化。应当理解的是,可以从相同的应用、服务、代码块、对象、库、例程、API、功能等中实例化出不同的程序。同样,相同的程序可以由不同的应用、服务、代码块、对象、例程、API、功能等来实例化。术语“程序”意味着包含可执行文件、数据文件、库、驱动程序、脚本、数据库记录等的个体和分组。
应当理解的是,在本文中所描述的配置和/或方法本质上是示例性的,并且这些具体实施例或示例不应该被理解为限制性意义,这是因为多种变型是可能的。在本文中所描述的具体的例程或方法可以表示任意数量的处理策略中的一个或多个。因此,所示出和/或描述的各种行为可以以所示出和/或描述的顺序来执行、以其他顺序来执行、并行地执行、或者在一些情况下被省略。同样,可以改变上述过程的顺序。
本公开的主题包括各种过程、系统、和配置的全部新颖的和非显而易见的组合和子组合、和在本文中所公开的其他特征、功能、行为、和/或属性、及其任何和全部等价物。
Claims (10)
1.一种用于吸引显示设备的观看者的视线的方法,所述方法包括:
控制所述显示设备来显示目标对象;
使用来自视线追踪系统的视线追踪数据来监测所述观看者的视线位置;
控制所述显示设备来显示引导元素沿着经计算的动态路径移动,所述经计算的动态路径穿过临近所述观看者的所述视线位置的预先确定的区域内部并且通向所述目标对象;
使用所述视线追踪数据来确定所述观看者的所述视线位置是否在所述引导元素的预先确定的偏差阈值内;
如果所述观看者的所述视线位置在所述引导元素的预先确定的偏差阈值内,则控制所述显示设备继续显示所述引导元素沿着所述经计算的动态引导路径向所述目标对象移动;并且
如果所述观看者的所述视线位置偏离了所述引导元素至少所述预先确定的偏差阈值,则控制所述显示设备不继续显示所述引导元素沿着所述经计算的动态引导路径向所述目标对象移动。
2.根据权利要求1所述的方法,其中,控制所述显示设备不继续显示所述引导元素沿着所述经计算的动态引导路径包括:使所述引导元素偏离所述经计算的动态路径或者停止显示所述引导元素。
3.根据权利要求1所述的方法,其中,所述预先确定的偏差阈值包括到所述引导元素的距离。
4.根据权利要求1所述的方法,其中,使用所述视线追踪数据来确定所述观看者的所述视线位置是否在所述引导元素的预先确定的偏差阈值内还包括:确定所述观看者的视线轨迹是否在所述经计算的动态路径的路径偏差阈值内。
5.根据权利要求1所述的方法,其中,当所述观看者玩计算机游戏时所述方法被执行,所述计算机游戏具有根据非玩家角色移动规则来移动的至少一个非玩家角色以及根据对象移动规则来移动的至少一个对象,并且控制所述显示设备来显示所述引导元素还包括使所述引导元素根据所述非玩家角色移动规则或者所述对象移动规则而沿着所述经计算的动态路径移动。
6.一种用于吸引显示设备的观看者的视线的计算设备,所述计算设备包括:
由所述计算设备的处理器所执行的视线吸引程序,所述视线吸引程序被配置为:
控制所述显示设备来显示目标对象;
使用来自视线追踪系统的视线追踪数据来监测所述观看者的视线位置;
控制所述显示设备来显示引导元素沿着经计算的动态路径移动,所述经计算的动态路径穿过临近所述观看者的所述视线位置的预先确定的区域内部并且通向所述目标对象;
使用所述视线追踪数据来确定所述观看者的视线轨迹是否在所述经计算的动态路径的路径偏差阈值内;
如果所述观看者的所述视线位置在所述经计算的动态路径的所述路径偏差阈值内,则控制所述显示设备继续显示所述引导元素沿着所述经计算的动态引导路径向所述目标对象移动;并且
如果所述观看者的所述视线位置偏离了所述经计算的动态路径至少所述路径偏差阈值,则控制所述显示设备不继续使得所述引导元素沿着所述经计算的动态路径移动。
7.根据权利要求6所述的计算设备,其中,所述目标对象包括在所述显示设备上所显示的来自广告商的广告,并且所述视线吸引程序还被配置为:如果所述观看者的所述视线位置与所述广告重叠,则将广告消费收费分配给所述广告商。
8.根据权利要求7所述的计算设备,其中,所述广告消费收费是第一广告消费收费,并且所述视线吸引程序还被配置为:如果所述观看者的所述视线位置与所述广告重叠了至少预先确定的时间段,则分配大于所述第一广告消费收费的第二广告消费收费。
9.根据权利要求6所述的计算设备,其中,所述目标对象包括在网页上所显示的来自广告商的广告,并且所述视线吸引程序还被配置为:
接收与在所述网页上所显示的所述广告相关联的观看者输入,所述观看者输入触发广告消费收费;
如果当接收到所述观看者输入时所述观看者的所述视线位置与所述网页上的所述广告重叠,则将所述广告消费收费分配给所述广告商;并且
如果当接收到所述观看者输入时所述观看者的所述视线位置不与所述网页上的所述广告重叠,则取消所述广告消费收费。
10.根据权利要求6所述的计算设备,其中,所述计算设备被集成到包括所述视线追踪系统的可穿戴显示设备中。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/265,103 US10424103B2 (en) | 2014-04-29 | 2014-04-29 | Display device viewer gaze attraction |
US14/265,103 | 2014-04-29 | ||
PCT/US2015/027186 WO2015167907A1 (en) | 2014-04-29 | 2015-04-23 | Display device viewer gaze attraction |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106462233A true CN106462233A (zh) | 2017-02-22 |
CN106462233B CN106462233B (zh) | 2019-07-19 |
Family
ID=53059472
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201580022931.4A Active CN106462233B (zh) | 2014-04-29 | 2015-04-23 | 用于显示设备观看者视线吸引的方法和设备 |
Country Status (19)
Country | Link |
---|---|
US (1) | US10424103B2 (zh) |
EP (1) | EP3137974B1 (zh) |
JP (1) | JP6611733B2 (zh) |
KR (1) | KR102365579B1 (zh) |
CN (1) | CN106462233B (zh) |
AU (1) | AU2015253555B2 (zh) |
BR (1) | BR112016024851A2 (zh) |
CA (1) | CA2945610C (zh) |
CL (1) | CL2016002725A1 (zh) |
IL (1) | IL248499B (zh) |
MX (1) | MX366216B (zh) |
MY (1) | MY182791A (zh) |
NZ (1) | NZ725804A (zh) |
PH (1) | PH12016502031B1 (zh) |
RU (1) | RU2677593C2 (zh) |
SG (1) | SG11201608290UA (zh) |
TW (1) | TW201541382A (zh) |
WO (1) | WO2015167907A1 (zh) |
ZA (1) | ZA201606678B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108628439A (zh) * | 2017-03-24 | 2018-10-09 | 索尼公司 | 信息处理设备、信息处理方法及程序 |
CN110245601A (zh) * | 2019-06-11 | 2019-09-17 | Oppo广东移动通信有限公司 | 眼球追踪方法及相关产品 |
CN110447053A (zh) * | 2017-03-27 | 2019-11-12 | 微软技术许可有限责任公司 | 基于元素显著性的稀疏外围显示器的选择性绘制 |
CN114604800B (zh) * | 2022-03-31 | 2023-12-15 | 江苏西顿科技有限公司 | 一种防爆agv车 |
Families Citing this family (43)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10424103B2 (en) * | 2014-04-29 | 2019-09-24 | Microsoft Technology Licensing, Llc | Display device viewer gaze attraction |
US9715781B2 (en) * | 2014-09-26 | 2017-07-25 | Bally Gaming, Inc. | System and method for automatic eye tracking calibration |
EP3062142B1 (en) | 2015-02-26 | 2018-10-03 | Nokia Technologies OY | Apparatus for a near-eye display |
US10113877B1 (en) | 2015-09-11 | 2018-10-30 | Philip Raymond Schaefer | System and method for providing directional information |
TWI660304B (zh) * | 2016-05-30 | 2019-05-21 | 李建樺 | 虛擬實境即時導覽方法及系統 |
US20180005437A1 (en) * | 2016-06-30 | 2018-01-04 | Glen J. Anderson | Virtual manipulator rendering |
US10139901B2 (en) * | 2016-07-05 | 2018-11-27 | Immersv, Inc. | Virtual reality distraction monitor |
US10979721B2 (en) | 2016-11-17 | 2021-04-13 | Dolby Laboratories Licensing Corporation | Predicting and verifying regions of interest selections |
CN107024982A (zh) * | 2016-12-09 | 2017-08-08 | 阿里巴巴集团控股有限公司 | 一种虚拟现实设备的安全监控方法、装置及虚拟现实设备 |
US10650552B2 (en) | 2016-12-29 | 2020-05-12 | Magic Leap, Inc. | Systems and methods for augmented reality |
EP4300160A3 (en) | 2016-12-30 | 2024-05-29 | Magic Leap, Inc. | Polychromatic light out-coupling apparatus, near-eye displays comprising the same, and method of out-coupling polychromatic light |
CN110392539B (zh) * | 2017-03-02 | 2021-06-15 | 昕诺飞控股有限公司 | 照明系统和方法 |
SE541650C2 (en) * | 2017-05-30 | 2019-11-19 | Crunchfish Ab | Improved activation of a virtual object |
US10573061B2 (en) | 2017-07-07 | 2020-02-25 | Nvidia Corporation | Saccadic redirection for virtual reality locomotion |
US10578870B2 (en) | 2017-07-26 | 2020-03-03 | Magic Leap, Inc. | Exit pupil expander |
US11351453B2 (en) * | 2017-09-12 | 2022-06-07 | Sony Interactive Entertainment LLC | Attention-based AI determination of player choices |
KR101923322B1 (ko) * | 2017-11-15 | 2018-11-28 | 한국과학기술원 | 이동형 디바이스를 이용한 사용자 시선 유도 시스템 및 그 방법 |
JP7282090B2 (ja) | 2017-12-10 | 2023-05-26 | マジック リープ, インコーポレイテッド | 光学導波管上の反射防止性コーティング |
KR20200100720A (ko) | 2017-12-20 | 2020-08-26 | 매직 립, 인코포레이티드 | 증강 현실 뷰잉 디바이스용 인서트 |
US10477186B2 (en) * | 2018-01-17 | 2019-11-12 | Nextvr Inc. | Methods and apparatus for calibrating and/or adjusting the arrangement of cameras in a camera pair |
US10755676B2 (en) * | 2018-03-15 | 2020-08-25 | Magic Leap, Inc. | Image correction due to deformation of components of a viewing device |
CN112262361A (zh) * | 2018-04-20 | 2021-01-22 | Pcms控股公司 | 用于对混合现实内容进行基于注视的控制的方法和系统 |
US11885871B2 (en) | 2018-05-31 | 2024-01-30 | Magic Leap, Inc. | Radar head pose localization |
WO2020010097A1 (en) | 2018-07-02 | 2020-01-09 | Magic Leap, Inc. | Pixel intensity modulation using modifying gain values |
US11856479B2 (en) | 2018-07-03 | 2023-12-26 | Magic Leap, Inc. | Systems and methods for virtual and augmented reality along a route with markers |
WO2020023543A1 (en) | 2018-07-24 | 2020-01-30 | Magic Leap, Inc. | Viewing device with dust seal integration |
US11112862B2 (en) | 2018-08-02 | 2021-09-07 | Magic Leap, Inc. | Viewing system with interpupillary distance compensation based on head motion |
US10795458B2 (en) | 2018-08-03 | 2020-10-06 | Magic Leap, Inc. | Unfused pose-based drift correction of a fused pose of a totem in a user interaction system |
JP7487176B2 (ja) | 2018-08-22 | 2024-05-20 | マジック リープ, インコーポレイテッド | 患者視認システム |
US10855978B2 (en) | 2018-09-14 | 2020-12-01 | The Toronto-Dominion Bank | System and method for receiving user input in virtual/augmented reality |
US20200092245A1 (en) * | 2018-09-18 | 2020-03-19 | International Business Machines Corporation | Provoking and maintaining user attention for urgent messages by actively monitoring user activity and biometrics |
CN109194869A (zh) * | 2018-10-09 | 2019-01-11 | Oppo广东移动通信有限公司 | 控制方法、控制装置、深度相机和电子装置 |
CN113454507B (zh) | 2018-12-21 | 2024-05-07 | 奇跃公司 | 用于促进波导内的全内反射的气穴结构 |
WO2020153946A1 (en) * | 2019-01-22 | 2020-07-30 | Hewlett-Packard Development Company, L.P. | Mixed reality presentation |
EP3939030A4 (en) | 2019-03-12 | 2022-11-30 | Magic Leap, Inc. | REGISTRATION OF LOCAL CONTENT BETWEEN FIRST AND SECOND VIEWERS OF AUGMENTED REALITY |
SE1950971A1 (en) * | 2019-08-23 | 2021-02-24 | Your Speech Factory Ab | Electronic device and method for conducting a users gaze direction |
JP7265202B2 (ja) * | 2019-08-29 | 2023-04-26 | 富士通株式会社 | 広告閲覧情報出力方法及び広告閲覧情報出力プログラム、並びに情報処理装置 |
US12033081B2 (en) | 2019-11-14 | 2024-07-09 | Magic Leap, Inc. | Systems and methods for virtual and augmented reality |
EP4058979A4 (en) | 2019-11-15 | 2023-01-11 | Magic Leap, Inc. | VIEWING SYSTEM FOR USE IN A SURGICAL ENVIRONMENT |
KR102359602B1 (ko) * | 2020-03-10 | 2022-02-08 | 한국과학기술원 | 디스플레이를 위한 시선 입력 방법 및 이를 수행하는 장치들 |
US11656681B2 (en) * | 2020-08-31 | 2023-05-23 | Hypear, Inc. | System and method for determining user interactions with visual content presented in a mixed reality environment |
CN116981978A (zh) * | 2020-09-21 | 2023-10-31 | 苹果公司 | 用于动态确定呈现和过渡区域的方法和设备 |
US12096112B2 (en) | 2021-07-29 | 2024-09-17 | Meta Platforms Technologies, Llc | User interface to select field of view of a camera in a smart glass |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010015962A1 (en) * | 2008-08-07 | 2010-02-11 | Koninklijke Philips Electronics N. V. | Method of and system for determining a head-motion/gaze relationship for a user, and an interactive display system |
CN102301316A (zh) * | 2009-12-14 | 2011-12-28 | 松下电器产业株式会社 | 用户界面装置以及输入方法 |
WO2013132886A1 (ja) * | 2012-03-07 | 2013-09-12 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP2013210909A (ja) * | 2012-03-30 | 2013-10-10 | Dainippon Printing Co Ltd | 視点誘導装置および電子書籍端末 |
WO2013179424A1 (ja) * | 2012-05-30 | 2013-12-05 | パイオニア株式会社 | 表示装置、ヘッドマウントディスプレイ、表示方法及び表示プログラム、並びに記録媒体 |
US20140092134A1 (en) * | 2012-09-28 | 2014-04-03 | Fuji Jukogyo Kabushiki Kaisha | Visual guidance system |
Family Cites Families (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002133312A (ja) | 2000-10-25 | 2002-05-10 | Fuji Xerox Co Ltd | 広告料金管理装置、広告料金管理システム、広告料金管理方法及びコンピュータ読み取り可能な記録媒体 |
US7963652B2 (en) | 2003-11-14 | 2011-06-21 | Queen's University At Kingston | Method and apparatus for calibration-free eye tracking |
AT505338B1 (de) | 2007-06-12 | 2009-03-15 | Ernst Dipl Ing Dr Pfleger | Verfahren zur wahrnehmungsmessung |
US20080309616A1 (en) | 2007-06-13 | 2008-12-18 | Massengill R Kemp | Alertness testing method and apparatus |
US7850306B2 (en) | 2008-08-28 | 2010-12-14 | Nokia Corporation | Visual cognition aware display and visual data transmission architecture |
EP2221762A1 (fr) * | 2009-02-20 | 2010-08-25 | France Telecom | Procédé et système de supervision de l'activité d'un utilisateur dans un monde virtuel |
JP5165628B2 (ja) | 2009-04-02 | 2013-03-21 | 株式会社Access | コンテンツ表示端末、コンテンツ表示方法およびプログラムならびに配信サーバ |
US8964298B2 (en) * | 2010-02-28 | 2015-02-24 | Microsoft Corporation | Video display modification based on sensor input for a see-through near-to-eye display |
JP2013521576A (ja) | 2010-02-28 | 2013-06-10 | オスターハウト グループ インコーポレイテッド | 対話式ヘッド取付け型アイピース上での地域広告コンテンツ |
US8493390B2 (en) | 2010-12-08 | 2013-07-23 | Sony Computer Entertainment America, Inc. | Adaptive displays using gaze tracking |
US8395656B1 (en) | 2011-01-24 | 2013-03-12 | Hewlett-Packard Development Company, L.P. | Methods and apparatus to direct attention in a video content display |
US8643680B2 (en) | 2011-04-08 | 2014-02-04 | Amazon Technologies, Inc. | Gaze-based content display |
US8510166B2 (en) * | 2011-05-11 | 2013-08-13 | Google Inc. | Gaze tracking system |
US9198619B2 (en) * | 2011-07-05 | 2015-12-01 | Universidade De Vigo | Method and system for activity/rest identification |
JP5724110B2 (ja) | 2011-07-07 | 2015-05-27 | 株式会社日立製作所 | 経路作成システム、経路作成方法及びプログラム |
US20130054377A1 (en) | 2011-08-30 | 2013-02-28 | Nils Oliver Krahnstoever | Person tracking and interactive advertising |
WO2013059940A1 (en) | 2011-10-27 | 2013-05-02 | Tandemlaunch Technologies Inc. | System and method for calibrating eye gaze data |
US8611015B2 (en) * | 2011-11-22 | 2013-12-17 | Google Inc. | User interface |
US8235529B1 (en) * | 2011-11-30 | 2012-08-07 | Google Inc. | Unlocking a screen using eye tracking information |
US10082863B2 (en) | 2012-05-11 | 2018-09-25 | Umoove Services Ltd. | Gaze-based automatic scrolling |
US20130340005A1 (en) | 2012-06-14 | 2013-12-19 | Mobitv, Inc. | Eye-tracking program guides |
JP6014398B2 (ja) * | 2012-07-20 | 2016-10-25 | キヤノン株式会社 | 画像読取装置 |
US9164580B2 (en) | 2012-08-24 | 2015-10-20 | Microsoft Technology Licensing, Llc | Calibration of eye tracking system |
KR101479471B1 (ko) | 2012-09-24 | 2015-01-13 | 네이버 주식회사 | 사용자의 시선에 기초하여 광고를 제공하는 방법 및 시스템 |
US10884577B2 (en) | 2013-01-15 | 2021-01-05 | Poow Innovation Ltd. | Identification of dynamic icons based on eye movement |
CN105247447B (zh) * | 2013-02-14 | 2017-11-10 | 脸谱公司 | 眼睛跟踪校准系统及方法 |
RU2013118993A (ru) | 2013-04-23 | 2013-09-10 | Александр Николаевич Лукоянов | Способ реализации адаптивного видео |
JP5516800B2 (ja) | 2013-06-13 | 2014-06-11 | 株式会社セガ | 画像処理プログラムおよびコンピュータ読み取り可能な記録媒体 |
US10424103B2 (en) | 2014-04-29 | 2019-09-24 | Microsoft Technology Licensing, Llc | Display device viewer gaze attraction |
WO2016018488A2 (en) * | 2014-05-09 | 2016-02-04 | Eyefluence, Inc. | Systems and methods for discerning eye signals and continuous biometric identification |
EP3329316B1 (en) * | 2016-03-11 | 2023-09-20 | Facebook Technologies, LLC | Corneal sphere tracking for generating an eye model |
-
2014
- 2014-04-29 US US14/265,103 patent/US10424103B2/en active Active
-
2015
- 2015-03-05 TW TW104107035A patent/TW201541382A/zh unknown
- 2015-04-23 SG SG11201608290UA patent/SG11201608290UA/en unknown
- 2015-04-23 BR BR112016024851A patent/BR112016024851A2/pt not_active IP Right Cessation
- 2015-04-23 MX MX2016014097A patent/MX366216B/es active IP Right Grant
- 2015-04-23 CA CA2945610A patent/CA2945610C/en active Active
- 2015-04-23 JP JP2016560400A patent/JP6611733B2/ja active Active
- 2015-04-23 KR KR1020167032688A patent/KR102365579B1/ko active IP Right Grant
- 2015-04-23 RU RU2016142480A patent/RU2677593C2/ru active
- 2015-04-23 EP EP15721448.7A patent/EP3137974B1/en active Active
- 2015-04-23 NZ NZ725804A patent/NZ725804A/en unknown
- 2015-04-23 AU AU2015253555A patent/AU2015253555B2/en active Active
- 2015-04-23 WO PCT/US2015/027186 patent/WO2015167907A1/en active Application Filing
- 2015-04-23 MY MYPI2016703919A patent/MY182791A/en unknown
- 2015-04-23 CN CN201580022931.4A patent/CN106462233B/zh active Active
-
2016
- 2016-09-27 ZA ZA2016/06678A patent/ZA201606678B/en unknown
- 2016-10-12 PH PH12016502031A patent/PH12016502031B1/en unknown
- 2016-10-26 CL CL2016002725A patent/CL2016002725A1/es unknown
- 2016-10-26 IL IL24849916A patent/IL248499B/en active IP Right Grant
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010015962A1 (en) * | 2008-08-07 | 2010-02-11 | Koninklijke Philips Electronics N. V. | Method of and system for determining a head-motion/gaze relationship for a user, and an interactive display system |
CN102301316A (zh) * | 2009-12-14 | 2011-12-28 | 松下电器产业株式会社 | 用户界面装置以及输入方法 |
WO2013132886A1 (ja) * | 2012-03-07 | 2013-09-12 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP2013210909A (ja) * | 2012-03-30 | 2013-10-10 | Dainippon Printing Co Ltd | 視点誘導装置および電子書籍端末 |
WO2013179424A1 (ja) * | 2012-05-30 | 2013-12-05 | パイオニア株式会社 | 表示装置、ヘッドマウントディスプレイ、表示方法及び表示プログラム、並びに記録媒体 |
US20140092134A1 (en) * | 2012-09-28 | 2014-04-03 | Fuji Jukogyo Kabushiki Kaisha | Visual guidance system |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108628439A (zh) * | 2017-03-24 | 2018-10-09 | 索尼公司 | 信息处理设备、信息处理方法及程序 |
CN110447053A (zh) * | 2017-03-27 | 2019-11-12 | 微软技术许可有限责任公司 | 基于元素显著性的稀疏外围显示器的选择性绘制 |
CN110447053B (zh) * | 2017-03-27 | 2023-08-11 | 微软技术许可有限责任公司 | 基于元素显著性的稀疏外围显示器的选择性绘制 |
CN110245601A (zh) * | 2019-06-11 | 2019-09-17 | Oppo广东移动通信有限公司 | 眼球追踪方法及相关产品 |
CN114604800B (zh) * | 2022-03-31 | 2023-12-15 | 江苏西顿科技有限公司 | 一种防爆agv车 |
Also Published As
Publication number | Publication date |
---|---|
KR20160148623A (ko) | 2016-12-26 |
RU2016142480A (ru) | 2018-04-28 |
MX2016014097A (es) | 2017-02-09 |
US10424103B2 (en) | 2019-09-24 |
TW201541382A (zh) | 2015-11-01 |
ZA201606678B (en) | 2018-05-30 |
CN106462233B (zh) | 2019-07-19 |
US20150310657A1 (en) | 2015-10-29 |
JP6611733B2 (ja) | 2019-11-27 |
AU2015253555B2 (en) | 2019-11-07 |
IL248499A0 (en) | 2016-12-29 |
EP3137974A1 (en) | 2017-03-08 |
CA2945610A1 (en) | 2015-11-05 |
WO2015167907A1 (en) | 2015-11-05 |
SG11201608290UA (en) | 2016-11-29 |
CA2945610C (en) | 2022-03-29 |
MX366216B (es) | 2019-07-02 |
NZ725804A (en) | 2019-08-30 |
JP2017518554A (ja) | 2017-07-06 |
BR112016024851A2 (pt) | 2017-08-15 |
AU2015253555A1 (en) | 2016-10-20 |
RU2677593C2 (ru) | 2019-01-17 |
IL248499B (en) | 2019-11-28 |
RU2016142480A3 (zh) | 2018-11-12 |
KR102365579B1 (ko) | 2022-02-18 |
CL2016002725A1 (es) | 2017-02-24 |
EP3137974B1 (en) | 2018-05-23 |
PH12016502031A1 (en) | 2017-02-06 |
PH12016502031B1 (en) | 2017-02-06 |
MY182791A (en) | 2021-02-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106462233B (zh) | 用于显示设备观看者视线吸引的方法和设备 | |
CN106462733B (zh) | 一种用于视线检测校准的方法和计算设备 | |
US11043031B2 (en) | Content display property management | |
CN106255943B (zh) | 身体锁定增强现实与世界锁定增强现实之间的转换 | |
CN106537261B (zh) | 全息键盘显示 | |
US11520399B2 (en) | Interactive augmented reality experiences using positional tracking | |
US9429912B2 (en) | Mixed reality holographic object development | |
EP2887322B1 (en) | Mixed reality holographic object development | |
AU2015274283B2 (en) | Methods and systems for creating virtual and augmented reality | |
CN103649874B (zh) | 使用眼睛跟踪隐形镜片的接口 | |
CN102591016B (zh) | 用于扩展现实显示的优化聚焦区 | |
CN109803734A (zh) | 虚拟对象移动 | |
CN106104423A (zh) | 姿势参数调节 | |
CN107771309A (zh) | 三维用户输入 | |
CN108475120A (zh) | 用混合现实系统的远程设备进行对象运动跟踪的方法及混合现实系统 | |
CN107209386A (zh) | 增强现实视野对象跟随器 | |
CN105900041A (zh) | 利用视线跟踪进行的目标定位 | |
CN106255939A (zh) | 世界锁定显示质量反馈 | |
CN106489171A (zh) | 立体图像显示器 | |
WO2014043119A1 (en) | Augmented reality information detail | |
US20240320353A1 (en) | Timelapse of generating a collaborative object | |
US20240095877A1 (en) | System and method for providing spatiotemporal visual guidance within 360-degree video | |
Bertomeu Castells | Towards embodied perspective: exploring first-person, stereoscopic, 4K, wall-sized rendering of embodied sculpting |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 1234171 Country of ref document: HK |
|
GR01 | Patent grant | ||
GR01 | Patent grant |