CN110908501A - 人工现实中防止视场遮挡的显示不透明度控制 - Google Patents
人工现实中防止视场遮挡的显示不透明度控制 Download PDFInfo
- Publication number
- CN110908501A CN110908501A CN201811611991.1A CN201811611991A CN110908501A CN 110908501 A CN110908501 A CN 110908501A CN 201811611991 A CN201811611991 A CN 201811611991A CN 110908501 A CN110908501 A CN 110908501A
- Authority
- CN
- China
- Prior art keywords
- user
- opacity
- virtual
- virtual content
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000004044 response Effects 0.000 claims abstract description 17
- 230000000007 visual effect Effects 0.000 claims description 62
- 238000000034 method Methods 0.000 claims description 57
- 230000008859 change Effects 0.000 claims description 14
- 230000002452 interceptive effect Effects 0.000 claims description 13
- 230000003993 interaction Effects 0.000 claims description 9
- 230000001815 facial effect Effects 0.000 claims description 5
- 239000006185 dispersion Substances 0.000 claims 1
- 230000000694 effects Effects 0.000 description 56
- 230000015654 memory Effects 0.000 description 44
- 238000004891 communication Methods 0.000 description 16
- 230000003190 augmentative effect Effects 0.000 description 14
- 230000006870 function Effects 0.000 description 10
- 238000010801 machine learning Methods 0.000 description 9
- 230000008569 process Effects 0.000 description 9
- 230000000903 blocking effect Effects 0.000 description 8
- 238000004422 calculation algorithm Methods 0.000 description 5
- 230000004424 eye movement Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 238000000926 separation method Methods 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 230000006399 behavior Effects 0.000 description 4
- 230000001413 cellular effect Effects 0.000 description 4
- 230000006855 networking Effects 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 210000003128 head Anatomy 0.000 description 3
- 238000013475 authorization Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 239000000872 buffer Substances 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 241000167926 Entoprocta Species 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001351 cycling effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010422 painting Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000003245 working effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1684—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
- G06F1/1686—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1684—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
- G06F1/1694—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04817—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
- H04R3/005—Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/012—Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04804—Transparency, e.g. transparent or translucent windows
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/60—Substation equipment, e.g. for use by subscribers including speech amplifiers
- H04M1/6033—Substation equipment, e.g. for use by subscribers including speech amplifiers for providing handsfree use or a loudspeaker mode in telephone sets
- H04M1/6041—Portable telephones adapted for handsfree use
- H04M1/6058—Portable telephones adapted for handsfree use involving the use of a headset accessory device connected to the portable telephone
- H04M1/6066—Portable telephones adapted for handsfree use involving the use of a headset accessory device connected to the portable telephone including a wireless connection
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R1/00—Details of transducers, loudspeakers or microphones
- H04R1/10—Earpieces; Attachments therefor ; Earphones; Monophonic headphones
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Computer Graphics (AREA)
- Acoustics & Sound (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Geometry (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Otolaryngology (AREA)
- Signal Processing (AREA)
- Ophthalmology & Optometry (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本公开涉及人工现实中防止视场遮挡的显示不透明度控制。在一个实施例中,人工现实系统向第一用户显示虚拟内容。所述虚拟内容具有第一不透明度。所述系统确定第一用户的第一聚散距离,并将第一用户的第一聚散距离与虚拟内容和第一用户之间的第一距离进行比较。响应于确定第一用户的第一聚散距离比第一距离大第一阈值距离,所述系统调整虚拟内容,以具有比第一不透明度低的第二不透明度。
Description
技术领域
本公开总体上涉及人工现实,例如,虚拟现实和增强现实。
背景技术
人工现实是在呈现给用户之前已经以某种方式调整过的现实形式,可以包括例如虚拟现实(VR)、增强现实(AR)、混合现实(MR)、混杂现实或其某种组合和/或衍生物。人工现实内容可以包括完全生成的内容或与捕捉的内容(例如,真实世界照片)相结合的生成的内容。人工现实内容可以包括视频、音频、触觉反馈或其某种组合,并且其中的任何一个都可以在单个频道或多个频道中呈现(例如,向观众产生三维效果的立体视频)。人工现实可以与应用程序、产品、附件、服务或其某种组合相关联,这些应用程序、产品、附件、服务或其某种组合例如用于在人工现实中创建内容和/或用于人工现实中(例如,在其中执行活动)。提供人工现实内容的人工现实系统可以在各种平台上实现,包括连接到主计算机系统的头戴式显示器(HMD)、独立HMD、移动装置或计算系统或者能够向一个或多个观看者提供人工现实内容的任何其他硬件平台。
发明内容
在本文中描述的特定实施例涉及一种改变虚拟显示面板的不透明度的方法,以允许用户在需要观看面板后面的物体时透过面板看到。特定实施例可以使用眼睛跟踪相机来确定用户的聚散(vergence)距离,并基于用户的聚散距离相应地控制面板的不透明度。例如,当用户的聚散距离超出面板时,面板背景可能会变为透明或半透明(表示用户试图观看面板后面的对象)。在一些实施例中,系统可以使用面部或/和语音识别,以确定用户正在与另一人交互(例如,在对话中),并相应地降低面板的不透明度,以允许用户透过面板来与另一人交互。面板可以是完全透明或半透明的,以保持显示一些最小的内容,例如,文本、线条或框架。
在特定实施例中,当虚拟面板变得透明时,虚拟面板可以具有一个或多个持久的视觉锚点(例如,角部拟合对象、标题栏、文本内容、线条或框架),这些锚点与该面板相关联,并且不管面板的不透明度如何,都持续显示。当用户想要看到已被处理成透明的面板时,用户可以观看与该面板相关联的视觉锚点,面板将自动重新出现。
在本文中公开的实施例仅仅是示例,并且本公开的范围不限于这些实施例。特定实施例可以包括上面公开的实施例的所有、一些或不包括组件、元件、特征、功能、操作或步骤。在所附权利要求中特别公开根据本发明的实施例,涉及一种方法、存储介质、系统和计算机程序产品,其中,一个权利要求类别(例如,方法)中提到的任何特征也可以在另一权利要求类别(例如,系统)中要求保护。仅出于形式原因而选择所附权利要求中的从属关系或引用。然而,也可以要求保护由对任何先前权利要求(特别是多个从属关系)的有意引用而产生的任何主题,从而公开权利要求及其特征的任何组合,并且可以要求保护,而与所附权利要求中选择的从属关系无关。可以要求保护的主题不仅包括所附权利要求中阐述的特征的组合,还包括权利要求中的特征的任何其他组合,其中,权利要求中提到的每个特征可以与权利要求中的任何其他特征或其他特征的组合结合。此外,在本文中描述或描绘的任何实施例和特征可以在单独的权利要求中和/或与在本文中描述或描绘的任何实施例或特征或与所附权利要求的任何特征的任何组合中要求保护。
附图说明
图1A和图1B示出了人工现实系统;
图2示出了3D眼睛跟踪系统;
图3A示出了第一用户与虚拟显示面板后面的第二用户交互的人工现实系统的示例使用;
图3B示出了在虚拟显示面板后面观看电视的用户对人工现实系统的示例使用;
图4示出了第一用户行走并与第二用户交互的人工现实系统的示例使用;
图5示出了在机器上操作的用户对人工现实系统的示例使用;
图6示出了一种基于用户聚散距离改变显示面板不透明度的示例方法;
图7示出了与社交网络系统相关联的示例网络环境;
图8示出了示例社交图;
图9示出了示例计算机系统。
具体实施方式
图1A示出了示例人工现实系统100A。在特定实施例中,人工现实系统100可以包括头戴式视图器(headset)104、控制器106和计算系统108。用户102可以佩戴头戴式视图器104,头戴式视图器104可以向用户102显示视觉人工现实内容。视图器104可以包括音频装置,该音频装置可以向用户102提供音频人工现实内容。视图器104可以包括一个或多个相机,所述相机可以捕捉环境的图像和视频。头戴式视图器104可以包括眼睛跟踪系统,以确定用户102的聚散距离。头戴式视图器104可以称为头戴式显示器(HDM)。控制器106可以包括触控板和一个或多个按钮。控制器106可以接收来自用户102的输入,并将输入中继到计算系统108。控制器206还可以向用户102提供触觉反馈。计算系统108可以通过电缆或无线连接而连接到头戴式视图器104和控制器106。计算系统108可以控制头戴式视图器104和控制器106向用户102提供人工现实内容并从用户102接收输入。计算系统108可以是独立的主计算机系统、与头戴式视图器104集成的机载计算机系统、移动装置或能够向用户102提供人工现实内容并从用户102接收输入的任何其他硬件平台。
图1B示出了示例增强现实系统100B。增强现实系统100B可以包括头戴式显示器(HMD)110(例如,眼镜),包括框架112、一个或多个显示器114和计算系统120。显示器114可以是透明或半透明的,允许佩戴HMD 110的用户透过显示器114观看现实世界,同时向用户显示可视的人工现实内容。HMD 110可以包括可以向用户提供音频人工现实内容的音频装置。HMD 110可以包括能够捕捉环境的图像和视频的一个或多个相机。HMD 110可以包括眼睛跟踪系统,以跟踪佩戴HMD 110的用户的聚散运动。增强现实系统100B还可以包括控制器,该控制器包括触控板和一个或多个按钮。控制器可以接收来自用户的输入并将输入中继到计算系统120。控制器还可以向用户提供触觉反馈。计算系统120可以通过电缆或无线连接来连接到HMD 110和控制器。计算系统120可以控制HMD 110和控制器向用户提供增强现实内容并从用户接收输入。计算系统120可以是独立的主计算机系统、与HMD 110集成的机载计算机系统、移动装置或能够向用户提供人工现实内容并从用户接收输入的任何其他硬件平台。
人工现实系统(例如,增强现实、虚拟现实、混合现实等)可以使用虚拟面板向用户显示信息。虚拟面板通常是不透明的,可以很好地为用户提供阅读或工作等活动。然而,在某些情况下,不透明的虚拟面板可能会阻碍用户透过面板观看,从而给佩戴视图器的用户带来问题。例如,呈现在增强现实视图器上的不透明面板可能会阻止佩戴视图器的用户看到这些面板之外的其他用户。在一些其他情况下,不透明面板可能会阻止用户看到面板后面的物体,从而对用户造成危害。例如,当佩戴增强现实头戴式视图器的用户在看了头戴式视图器呈现的不透明虚拟面板上的地图之后开始行走时,用户可能会走进一些现实世界对象(例如,障碍物、电线杆、车辆、其他行人等),因为不透明面板阻碍了用户在一个或多个方向上的视场。特定实施例通过自动使虚拟显示面板消失来解决这个问题,从而当用户指示或需要这样做时,用户可以透过面板观看。特定实施例可以自动确定用户对观看面板的指示(例如,聚散距离超出虚拟面板)或需求(例如,在观看头戴式视图器上呈现的地图之后开始移动),并调整面板的不透明度,以允许用户观看。
特定实施例可以基于用户正在观看的位置(例如,聚散距离)调整虚拟面板的不透明度,以使面板消失或再现。然而,一旦虚拟面板消失,用户很难将视线集中在虚拟面板上,因为该面板对用户来说是不可见的。特定实施例通过显示消失的虚拟面板的一个或多个视觉锚点来解决这个问题。当用户注视相关联的视觉锚点时,特定实施例可以使消失的虚拟面板重新出现。当用户移动他/她的眼睛离开虚拟面板或移动到虚拟面板上时,虚拟面板可以自动消失和重新出现。
在特定实施例中,人工现实系统可以包括用于实时跟踪用户眼睛的眼睛跟踪系统。眼睛跟踪系统可以是3D眼睛跟踪系统,跟踪用户的眼睛运动(例如,注视方向、注视角度、会聚度)并确定用户正在观看的位置(例如,聚散距离或注视点)。图2示出了示例性3D眼睛跟踪系统200。3D眼睛跟踪系统200可以跟踪三维眼睛运动,以确定用户的聚散距离或注视点。用户的聚散距离可以是从用户眼睛到用户眼睛会聚点的距离。用户的注视点可以是用户正在注视的点。眼睛跟踪系统200可以包括透镜210、多个红外光源(例如,212A-H)、热反射镜220和红外相机240。光源212A-H可以是安装在透镜210上的红外发光二极管(LED)。热反射镜220可以是二向色滤光器,其反射红外光,同时允许可见光通过。由一个或多个光源212A-H发射的红外光(例如,214)可以到达眼睛250并从眼睛250反射出去。反射光216可被热反射镜220进一步反射并到达红外相机240。相机240可以是红外相机,其使用反射的红外光捕捉眼睛250的图像。眼睛跟踪系统200可以使用计算机视觉技术捕捉用户的两只眼睛(例如,瞳孔)的图像并处理图像。眼睛跟踪系统200可以测量这两只眼睛的角度,并使用几何关系来确定用户的聚散距离和注视点。3D眼睛跟踪系统200可以以例如1o的精度测量用户的眼睛角度。来自显示屏230的可见光232可以通过热反射镜220和透镜210到达眼睛250,允许用户看到显示屏230所呈现的内容。在特定实施例中,3D眼睛跟踪系统200可以使用来自环境的环境光260来捕捉眼睛图像。环境光240可以到达眼睛250,并且可以从眼睛250反射。反射光可以穿过透镜210并到达热反射镜220和相机240。相机240可以基于从眼睛250反射的环境光来捕捉眼睛250的图像。在特定实施例中,3D眼睛跟踪系统可以使用混合方法,使用光源(例如,212A-212H)和环境光260来捕捉眼睛图像并跟踪眼睛运动。
在特定实施例中,人工现实视图器系统可以使用基于机器学习(ML)的方法进行眼睛跟踪。头戴式视图器系统可以拍摄佩戴头戴式视图器的用户眼睛的一系列图像(例如,使用3D眼睛跟踪系统的相机),并使用机器学习(ML)算法来处理图像并输出聚散信息。例如,机器学习(ML)算法可以包括推理模型,以确定用户的聚散距离和注视点。在特定实施例中,头戴式视图器系统可以包括组合3D眼睛跟踪和基于ML的眼睛跟踪的混合方法。
在特定实施例中,人工现实系统可以使用多种方法的组合来确定用户的聚散距离和注视点。这些方法可以包括(例如但不限于)基于眼睛跟踪的方法(例如,3D眼睛跟踪、基于ML的眼睛跟踪)、基于身体的方法(例如,头部位置/运动、手位置/运动、身体位置/运动)和基于内容的方法(例如,Z缓冲区、面部/对象识别、开发者提供的信息)。2018年9月14日提交的题为“Vergence Determination”的美国专利申请号16/132,153公开了使用不同的方法组合来确定聚散距离或注视点的示例,该申请仅作为示例而非通过限制的方式通过引用结合于此。
在特定实施例中,人工现实头戴式视图器可以向佩戴人工现实头戴式视图器的用户显示一个或多个虚拟面板。虚拟面板可以向用户显示计算机生成的屏幕,用于诸如阅读或工作等活动。虚拟面板可以显示一个或多个显示内容,包括但不限于三维对象、文本、图像、插图、图标、用户接口(UI)、多媒体内容、网站内容、游戏内容、社交网络内容、日历、时钟、文档内容等。虚拟面板可以是不透明的,或者可以具有使所显示的内容对用户清晰可见的不透明性。不透明或高度不透明的虚拟面板(例如,不透明度高于0.5、0.7、0.9等的面板)可能阻止用户看到面板后面的物体或人。例如,佩戴增强现实视图器的用户可以使用不透明虚拟面板来观看地图。显示地图信息的不透明虚拟面板可能会阻止用户看到用户正在走进的环境。作为另一示例,向第一用户显示信息的不透明虚拟面板会通过阻挡或干扰第一用户的视场来干扰第一用户与其他用户之间的交互。作为另一示例,用户可以在覆盖在用户正在操作的机器上的不透明虚拟面板上观看手册。用户可能看不到不透明虚拟面板后面的机器部分。
在特定实施例中,人工现实系统可以向用户显示具有第一不透明度的虚拟面板。可以在人工现实的虚拟空间中距用户固定距离(例如,1m)处显示虚拟面板。具有第一不透明度的虚拟面板可以阻止用户透过虚拟面板观看。系统可以自动检测用户希望或需要观看虚拟面板的指示。作为响应,系统可以调整虚拟面板的不透明度,以允许用户穿过其进行观看。作为示例且非限制性地,该系统可以使用眼睛跟踪系统来持续监控用户的眼睛移动,并基于眼睛跟踪数据确定用户的聚散距离。系统可以将用户的聚散距离与虚拟面板和用户之间的距离进行比较。响应于确定用户的聚散距离比虚拟面板和用户之间的距离大第一阈值距离,系统可以调整虚拟面板,以具有比第一不透明度更低的第二不透明度。具有第二不透明度的虚拟面板可以允许用户透过虚拟面板观看。例如,具有第二不透明度的虚拟面板可以对用户透明或半透明,并且允许用户看到虚拟面板后面的对象。
在特定实施例中,系统可以不同地调整虚拟面板的不透明度和面板上显示内容的不透明度。显示内容可以与作为显示内容背景的虚拟面板具有相同的不透明度或不同的不透明度。当系统将虚拟面板从第一不透明度(例如,不透明)调整到第二不透明度(例如,透明)时,系统可以将显示内容不透明度调整到第四不透明度。第四不透明度可以等于或大于第二不透明度。作为示例且非限制性地,虚拟面板和显示内容可以变得透明或半透明,具有相同的不透明度,并允许用户看透。作为另一示例,虚拟面板可以是透明的,但是显示内容可以是不透明的或半透明的。作为另一示例,包括显示内容的虚拟面板可以转换成其他视觉形式,例如,允许用户看透的线框。作为另一示例,包括显示元件的虚拟面板可以对用户部分可见。虚拟面板可以保持面板的一部分对用户可见,并且对用户隐藏面板的其他部分。作为另一示例,虚拟面板可以保持显示内容的一个或多个元素(例如,文本、图标、图像)对用户可见,并且隐藏显示内容的其余部分。
在特定实施例中,具有第二不透明度(例如,透明或半透明)的虚拟面板可以具有与虚拟面板相关联的一个或多个视觉锚点。视觉锚点可以具有比第二不透明度更不透明的第三不透明度。第三不透明度可以允许视觉锚点对用户可见。在特定实施例中,视觉锚点可以在使相关联的虚拟面板透明或半透明之前和之后持久地显示给用户。在特定实施例中,虚拟锚点可以仅在使虚拟面板透明或半透明之后才显示给用户。在特定实施例中,视觉锚点可以以对用户的视场不具干扰的方式显示。例如,视觉锚点可以位于相关联的虚拟面板的角落或虚拟面板的对第一用户的视场不敏感的其他部分(例如,接近边缘的区域)。在特定实施例中,视觉锚点可以包括(例如但不限于)角部拟合对象、虚拟面板的线框、虚拟面板的标题栏、与虚拟面板相关联的线、与虚拟面板相关联的点、虚拟面板的内容轮廓、虚拟面板的不透明显示元件、虚拟面板的半透明显示元件、虚拟面板的文本内容、图标、半透明虚拟面板、尺寸减小的虚拟面板等。
在特定实施例中,人工现实系统可以确定用户正在观看与已被处理为透明的虚拟面板相关联的一个或多个视觉锚点,并且调整虚拟面板不透明度,以使其重新出现给第一用户。作为示例且非限制性地,系统可以将用户的聚散距离与消失的虚拟面板和用户之间的距离进行比较。如果用户的聚散距离和消失的虚拟面板和用户之间的距离之间的差异在第二阈值距离内,则系统可以确定用户正在观看视觉锚点。作为另一示例,该系统可以使用眼睛跟踪系统测量用户的注视点。系统可以通过将用户的注视点与视觉锚点的位置进行比较来确定用户正在观看消失的虚拟面板的视觉锚点。当用户的注视点落在到视觉锚点的位置的第三阈值距离内时,系统可以确定用户正在观看该视觉锚点。
在特定实施例,响应于确定用户正在观看与透明或半透明虚拟面板相关联的视觉锚点,系统可以调整虚拟面板的不透明度,以具有第三不透明度。第三不透明度可以比第二不透明度更不透明,并且可以使虚拟面板对用户可见。例如,第三不透明度可以等于在面板变得透明之前虚拟面板的第一不透明度。作为另一示例,第三不透明度可以具有允许第一用户清楚地看到面板上的显示内容的任何其他不透明度值。在特定实施例中,在确定用户已经观看虚拟锚点一段时间(例如,0.5秒、1秒、2秒)之后,系统可以相应地调整虚拟面板的不透明度。
在特定实施例中,系统可以逐渐改变虚拟面板的不透明度,并且可以基于用户的聚散距离值或注视点位置来计算虚拟面板的不透明度值。作为示例且非限制性地,当用户的聚散距离或注视点从远处移回到虚拟面板时,离虚拟面板的聚散距离或注视点越近,虚拟面板变得越不透明。在特定实施例中,系统可以以对应于用户的聚散距离或注视点的变化速度的速度来改变虚拟面板的不透明度。作为示例且非限制性地,当聚散距离从远处改变回虚拟面板时,聚散距离改变得越快,虚拟面板更快地变得越不透明。
在特定实施例中,已经变为透明或半透明的虚拟面板可以不包括虚拟锚点。该系统可以纯粹依赖于用户的聚散距离,以带回虚拟面板。例如,系统可以将与虚拟面板之间的距离值存储在计算机存储器中。系统可以将用户的聚散距离与虚拟面板的存储距离值进行比较。如果用户的聚散距离和存储的距离值之间的差异在阈值距离内,则系统可以增加虚拟面板的不透明度,以使其可见。用户可以简单地浏览沿着一个或多个维度的空间区域,并且该系统可以基于虚拟面板的位置和用户的聚散距离,来自动向用户显示或隐藏一系列虚拟面板。
在特定实施例中,系统可以在检测到或确定了一个或多个触发条件时调整一个或多个虚拟面板的不透明度。触发条件可以包括用户正在观看虚拟面板的指示。作为示例且非限制性地,该系统可以使用3D眼睛跟踪系统来跟踪用户的眼睛运动(例如,注视方向、注视角度、聚散度),以确定用户正在虚拟空间或现实世界空间中观看的位置(例如,聚散距离、注视点)。当用户的聚散距离或注视点超出虚拟面板阈值距离并且虚拟面板干扰用户的视场时,该系统可以将此识别为用户想要透过虚拟面板观看的指示,并且需要关闭虚拟面板。在特定实施例中,当用户的聚散距离超出虚拟面板超过阈值时间段时(例如,0.5秒、1秒、2秒),系统可确定用户想要透过虚拟面板观看。在特定实施例中,可以使用与眼睛跟踪系统相关联的一个或多个相机来确定用户的聚散距离。在特定实施例中,用户的聚散距离可以使用与第三方系统相关联的一个或多个相机(例如,车辆中面向用户的相机、计算机上面向用户的相机或办公室环境中面向用户的相机)来确定。在特定实施例中,系统可以使用眼睛跟踪系统确定用户的注视方向,并且当虚拟面板相对于用户的注视方向至少部分地在阈值角度内时,确定虚拟面板干扰用户的视场。
在特定实施例中,系统可以基于用户注视点和位于虚拟面板之外的识别对象的比较来检测用户透过虚拟面板观看的指示。作为示例且非限制性地,该系统可以使用眼睛跟踪系统测量用户的聚散运动,并确定用户的注视点。该系统可以使用一个或多个相机和对象识别模型来识别位于虚拟面板之外/之后的对象。相机可以是与用户佩戴的视图器相关联的前向相机。该系统可以比较用户的注视点和所识别的对象的位置,并且如果用户的注视点在与所识别的对象的位置的阈值距离内,则确定用户正在观看该对象。在特定实施例中,当用户的注视点在对象上或附近超过阈值时间段(例如,0.5秒、1秒、2秒)的时间段时,系统可以确定用户正在观看该对象。系统还可以确定虚拟面板干扰了用户的视场。在特定实施例中,系统可以使用眼睛跟踪系统确定用户的注视方向或视场范围。当虚拟面板相对于用户的注视方向至少部分地在阈值角度内或者至少部分地在用户的视场范围内时,系统可以确定虚拟面板干扰用户的视场。基于这些确定,系统可以得出结论,用户想要透过面板或超出面板观看,并调整虚拟面板的不透明度,以允许用户透过面板观看。
在特定实施例中,系统可以基于用户的注视方向来确定用户希望透过虚拟面板观看。作为示例且非限制性地,系统可以使用一个或多个传感器(例如,加速度计、陀螺仪、水平传感器)来跟踪用户的头部(例如,位置、状态、移动)。该系统可以基于传感器数据确定用户的头部方向,并且进一步基于来自眼睛跟踪系统的数据,确定用户的注视方向。当用户的注视方向指向位于虚拟面板之外的一个或多个对象(例如,由对象/面部识别模型识别)并且虚拟面板干扰用户的视场时,系统可以将此识别为用户想要透过面板或越过面板观看的指示。在特定实施例中,系统可以确定虚拟面板至少部分地处于相对于用户注视方向的阈值角度内,并且确定虚拟面板干扰用户的视场。在特定实施例中,系统可以使用眼睛跟踪系统确定用户的注视角度,并基于用户的注视方向和注视角度确定用户的视场范围。如果虚拟面板至少部分地在基于注视方向和注视角度确定的用户的视场范围内,则系统可以确定虚拟面板干扰用户的视场。
在特定实施例中,系统可以基于用户的注视点或注视方向与用户视场中的对象之间的相关性来确定用户正在观看虚拟面板之外的对象。作为示例且非限制性地,系统可以确定用户的注视点或注视方向的运动对应于视场中对象的运动。该系统可以确定用户的眼睛正在观看和跟踪在用户视场内和虚拟面板之外的对象。该系统可以确定虚拟面板在用户的视场内并且干扰用户的视场。该系统可以推断出用户希望透过虚拟面板观看并关闭虚拟面板,以避免干扰用户的视场。
在特定实施例中,系统可以使用一个或多个传感器来测量和跟踪用户身体的运动,以检测用户透过虚拟面板观看的指示或意图。作为示例且非限制性地,用户可以观看由增强现实视图器呈现在不透明虚拟面板上的地图。该系统可以使用加速器和其他运动传感器检测用户在观看在不透明虚拟面板上显示的地图之后开始移动(例如,行走、跑步、骑自行车或驾驶车辆)。系统可以确定用户的移动,作为用户需要透过面板观看的指示。该系统可以确定用户的移动方向,并且确定虚拟面板沿着移动方向干扰用户的视场。系统可以消除干扰的虚拟面板或所有显示的虚拟面板,以允许用户看到环境并避免碰到危险物体。
在特定实施例中,系统可以使用一个或多个传感器(例如,加速度计、相机、麦克风)来跟踪佩戴头戴式视图器的第一用户的活动以及第一用户附近的一个或多个第二用户的活动。作为示例且非限制性地,系统可以使用具有面部识别模型的一个或多个相机来检测佩戴头戴式视图器的第一用户的视场中的第二用户的面部。用于面部检测的相机可以与头戴式视图器相关联(例如,头戴式视图器的面向前方或面向侧面的相机),或者可以与第三方系统(例如,车辆)相关联并与头戴式视图器系统通信。该系统可以基于第一和第二用户都是其成员的社交网络系统的社交图来识别附近的第二用户是第一用户的朋友。该系统可以推断出,第一用户可能与第二用户交互。基于对第二用户的识别以及虚拟面板对第一用户的视场造成的干扰,系统可以推断出,第一用户可能想要透过虚拟面板观看。在特定实施例中,系统可以基于社交网络系统的社交图来确定第二用户对第一用户的社交相关性分数(例如,亲和度、分离度、地理相关性)。当社交相关性分数高于预定或自适应确定的阈值时,系统可以改变虚拟面板的不透明度,以允许第一用户看到第二用户。
在特定实施例中,系统可以检测佩戴人工现实视图器的第一用户和第一用户视场中的第二用户之间的交互。该系统可以使用计算机视觉算法来检测第一或/和第二用户的活动(例如,移动、手势、行为),并确定其间的交互。作为示例且非限制性地,系统可以检测到第二用户正在向第一用户挥手,并且可以将此识别为第二用户和第一用户之间的交互。该系统还可以使用一个或多个麦克风来捕捉第一或/和第二用户的语音,并确定第一和第二用户之间正在进行对话。系统可以改变虚拟面板的不透明度,以允许第一用户在没有来自虚拟面板的干扰的情况下看到第二用户。
在特定实施例中,系统可以基于与用户正在观看的对象相关联的一个或多个次要因素来确定用户的聚散距离。这些因素可以包括(例如,但不限于)用户的手势、用户的语音命令、用户正在观看的对象和用户的行为之间的相关性、用户选择或用户输入。作为示例且非限制性地,系统可以检测用户的预定手势(例如,指向对象)或语音命令(例如,提及对象),并改变虚拟面板的不透明度,以避免阻挡或干扰用户的视场。用户也可以使用控制器手动选择和关闭虚拟面板。
在特定实施例中,系统可以将虚拟面板重新定位到新的位置,或者将虚拟面板调整到较小的尺寸,以避免阻挡或干扰用户的视场。在特定实施例中,虚拟面板和显示元件可被重定位于用户的视场中,或者可以移出用户的视场,以避免阻挡或干扰用户的视场。作为示例且非限制性地,系统可以确定用户正在观看位于虚拟面板之外的对象或人。该系统可以确定虚拟面板至少部分地处于相对于用户注视方向的阈值角度内,因此干扰了用户的视线。在确定干扰之后,系统可以将虚拟面板重新定位到新的位置,以避免阻挡或干扰用户的视场。可以在虚拟面板的原始位置的角落显示视觉锚点。当用户观看视觉锚点时,虚拟面板可以自动回复到其原始位置。作为另一示例,虚拟面板可以被调整到较小的尺寸,以避免阻挡或干扰用户的视场。具有减小尺寸的虚拟面板可以位于原始虚拟面板的角落,并且可以用作视觉锚点,以将面板恢复到其原始尺寸。当用户观看角落处尺寸减小的小虚拟面板时,虚拟面板可以自动从角落扩展回其原始尺寸。
在特定实施例中,人工现实头戴式视图器可以直接向佩戴人工现实头戴式视图器的用户显示一个或多个虚拟对象(例如,3D对象、2D对象),而不使用任何虚拟面板。在特定实施例中,头戴式视图器可以呈现3D对象(例如,3D机器齿轮),该3D对象对用户来说可能看起来直接漂浮在空中,并且可能不与任何虚拟面板相关联。3D对象可以具有第一不透明度(例如,不透明),这可以阻止用户透过3D对象观看。当头戴式视图器检测到用户指示或需要透过呈现的3D对象观看时,视图器可以将3D对象的不透明度调整到比第一不透明度低(例如,透明、半透明)的第二不透明度,并允许用户看透3D对象。在特定实施例中,头戴式视图器可以将3D对象调整到较小的尺寸,或者将3D对象重新定位到新的位置,以避免阻挡用户的视场。3D对象可以具有相关联的视觉锚点,例如,具有角部匹配尺寸的小3D对象或类似于本公开中描述的虚拟面板的视觉锚点。可以在例如3D对象的角落处显示视觉锚点。当3D对象变得透明或半透明时,视觉锚点可以持续显示给用户。当头戴式视图器检测到用户正在观看视觉锚点时,头戴式视图器可以将透明或半透明3D对象的不透明度调整为更不透明,以允许用户清楚地看到3D对象。在特定实施例中,头戴式视图器可以调整3D对象的大小或重新定位3D对象,以允许用户清楚地看到3D对象。
图3A示出了第一用户360与虚拟显示面板后面的第二用户370交互的人工现实系统300的示例使用。人工现实系统300可以包括由第一用户360佩戴的用于阅读或工作活动的可佩戴头戴式视图器362。头戴式视图器360可呈现多个虚拟面板(例如,310、320、330、340),以向第一用户360显示信息。例如,虚拟面板310、320、330和340可以分别显示网络内容(例如,标题310、文本内容314、按钮316等)、图片322、日历334和时钟340。头戴式视图器362还可以呈现虚拟键盘350,以供第一用户360与人工现实系统300交互。虚拟面板(例如,310、320、330、340)可以以距第一用户360预定距离(例如,1m)设置在第一用户360周围。例如,可以在第一用户360的前面显示虚拟面板310。虚拟面板320和330可以面向第一用户360,并分别显示在第一用户360的右前侧和左前侧。虚拟面板340可以显示在比虚拟面板330更低的位置,并且可以具有更小的尺寸。多个虚拟面板可以与第一用户360具有相同的距离或不同的距离。当第一用户与虚拟面板交互时(例如,读取虚拟面板310上的信息或观看虚拟面板320上的图片322),第二用户370可能出现在第一用户360的视场中,例如,向第一用户360走去或站在第一用户360的前面。系统300可以在检测到或确定了一个或多个触发条件时调整一个或多个虚拟面板的不透明度。
作为示例且非限制性地,当注意到第二用户370时,第一用户360可以在注视方向368上观看虚拟面板320。第一用户可以将他的眼睛从虚拟面板320移动到第二用户370。系统300可以使用眼睛跟踪系统来跟踪第一用户360的聚散运动,并确定第一用户360的聚散距离。系统300可以将第一用户360的聚散距离与从虚拟面板320到第一用户360的距离进行比较。当第一用户360的聚散距离超过虚拟面板320达阈值距离(例如,对应于眼睛跟踪系统的最小分辨率的阈值距离)时,系统300可以确定第一用户260正在观看虚拟面板320之外的点。系统300可以使用眼睛跟踪系统和一个或多个其他传感器来确定第一用户360的注视方向364。系统300可以确定虚拟面板320至少部分地处于相对于第一用户360的注视方向364的阈值角度(例如,15o、30o、60o、90o)内,并且干扰第一用户360的视场。系统300可以识别用户正在观看虚拟面板320之外的点并且虚拟面板320干扰第一用户的视场这一事实,作为第一用户360希望透过虚拟面板320观看的指示。系统300还可以使用眼睛跟踪系统和一个或多个传感器来确定第一用户的注视方向和注视角度。系统300可以基于注视方向和注视角度确定第一用户的视场,并将该视场与虚拟面板320覆盖的区域进行比较。系统300可以确定虚拟面板320干扰了正在观看第二用户370的第一用户360的视图,并将其识别为第一用户360希望透过虚拟面板320观看的指示。
作为另一示例,并非通过限制的方式,系统300可以检测第一用户360和第二用户370之间的交互(例如,对话)。系统300可以使用一个或多个相机和面部识别模型来识别第二用户370的面部。系统300可以检测第一用户360或/和第二用户370的手势或行为,例如,挥手或点头。系统300还可以检测第一用户或/和第二用户的语音(例如,提及人名)。系统300可以基于检测到的手势、行为或/和语音来确定第一用户360和第二用户370正在进行对话。系统300可以确定虚拟面板320会至少部分地干扰第一用户360的视场。系统300可以将对话和干扰识别为第一用户360想要透过虚拟面板320观看的指示。
在特定实施例中,当检测到第一用户360的指示时,系统300可以改变干扰第一用户360的视场的虚拟面板的不透明度。作为示例且非限制性地,当第一用户360正在观看第二用户370并与第二用户370进行对话时,虚拟面板320会阻止第一用户360看到第二用户身体的至少一部分(例如,身体部分372)。系统300可以将虚拟面板320的不透明度改变为透明,以允许第一用户在没有来自虚拟面板320的干扰的情况下看到第二用户。在特定实施例中,系统300还可以隐藏虚拟面板310,因为也部分干扰第一用户360观看第二用户370的视场。可以调整,也可以不调整不透明度虚拟面板330和340,因为这些不透明度虚拟面板不干扰第一用户与第二用户370交互的视场。
在特定实施例中,当虚拟面板(例如,320)变成透明或半透明时,可以显示一个或多个视觉锚点,以指示消失的虚拟面板。作为示例且非限制性地,当虚拟面板320变得透明时,视觉锚点324可以以不干扰第一用户360的观看的方式在透明虚拟面板320的角落处显示。视觉锚点324可以是与虚拟面板320相关联的角部拟合对象或图标。视觉锚点324可以具有不透明度,这使得第一用户360能够获得清晰的视觉效果。当第一用户360结束与第二用户370的交互并且想要带回虚拟面板320时,第一用户360可以将他/她的眼睛聚焦在视觉锚点324上。系统300可以检测到第一用户360正在观看视觉锚点324,并且调整虚拟面板320的不透明度,以使其可见。在特定实施例中,可以仅在已经使相关联的虚拟面板透明或半透明时,显示虚拟锚点。在特定实施例中,当相关联的虚拟面板可见时并且当相关联的虚拟面板变得透明时,可以均显示虚拟锚点。作为示例且非限制性地,当虚拟面板310对第一用户360可见时,可以显示与虚拟面板310相关联的视觉锚点318(例如,在虚拟面板310的角落处)。作为另一示例,当虚拟面板330对第一用户360可见时,与虚拟面板332相关联的视觉锚点332可以是透明或半透明的。
图3B示出了用户360观看虚拟显示面板后面的电视380的人工现实系统300的示例使用。用户360可以使用虚拟面板(例如,310、320、330、340),用于阅读或工作活动。用户360有时可以观看电视380,电视380部分在虚拟面板320后面,部分在虚拟面板310后面。系统300可以使用眼睛跟踪系统来确定用户360的聚散距离和注视点。一旦用户360将他的眼睛从虚拟面板移动到电视380,系统300就可以检测到这一点,作为用户360透过干扰用户360的视场的虚拟面板(例如,310、320)进行观看的指示。例如,系统300可以确定用户360的聚散距离超出虚拟面板(例如,310、320)阈值距离,并且虚拟面板310和320至少部分地在用户的观看电视380的视场内。系统300可以将虚拟面板310和320的不透明度改变为透明或半透明,以允许用户透过其看到。当虚拟面板310和320变得透明或半透明时,相关联的视觉锚点318和324可以分别在透明虚拟面板310和320的角落处显示。当用户360将他的眼睛从电视380移回虚拟面板310或320时,用户360只需要将他的眼睛聚焦在视觉锚点318或324上。系统300可以检测到用户正在观看视觉锚点318或324,并将相应的面板310或320变回可见。虚拟面板330和340可以改变,也可以不改变,因为这些虚拟面板不干扰用户的观看电视380的视场。
图4示出了第一用户402步行并与第二用户408交互的人工现实系统400的示例使用。人工现实系统400可以向佩戴头戴式视图器404的第一用户402显示多个虚拟面板(例如,412、414、416)。第一用户402可以在街道上行走,并使用头戴式视图器404进行导航。虚拟面板412、414和416可以向第一用户402显示地图信息。第一用户402可以停止行走,以观看在虚拟面板412、414和416上显示的地图信息。虚拟面板412、414和416可以是不透明的,以允许第一用户402清楚地看到所显示的信息。虚拟面板412、414和416可以阻止第一用户402透过其看到。当用户需要透过虚拟面板412、414和416观看时,系统300可以自动改变虚拟面板的不透明度。
作为示例且非限制性地,系统400可以检测到第一用户402在观看在虚拟面板412、414和416上显示的地图信息之后开始移动(例如,行走、跑步)。系统400可以确定第一用户402的移动方向(例如,422、424、426)。系统400可以确定一个或多个虚拟面板会阻挡或干扰第一用户402沿移动方向的视场。例如,虚拟面板412、414和416会分别阻挡或干扰第一用户在422、424和426的方向上移动的视场。在检测到第一用户的运动时,系统400可以自动降低虚拟面板在其移动方向上的不透明度,以允许用户看到环境。在特定实施例中,系统300可以降低所有虚拟面板的不透明度,以允许第一用户在用户开始移动时在任何方向上清楚看到。
作为另一示例,第一用户402可以站着看在虚拟面板上显示的地图信息。系统400可以在第一用户402的视场中检测第二用户408。系统400可以基于检测到的第一和第二用户的手势或/和语音来检测第一用户402和第二用户408之间的对话。系统300可以自动降低虚拟面板的不透明度,以允许第一用户402看到第二用户408,而不受虚拟面板的干扰。系统300可以显示具有降低的不透明度的每个虚拟面板的视觉锚点,并且第一用户可以通过观看相应的视觉锚点来带回虚拟面板。
作为另一示例,第一用户402可以在观看在虚拟面板上显示的地图信息时听到来自环境中某个地方的声音。第一用户402可以将他的眼睛从虚拟面板移开,以搜索环境中的声源。当搜索环境中的声源时,第一用户402的注视点可以在不聚焦于视场中的任何对象的情况下徘徊。系统300可以自动降低虚拟面板的不透明度,以允许第一用户402在不受虚拟面板的干扰的情况下观看环境。系统300可以显示具有降低的不透明度的每个虚拟面板的视觉锚点,并且第一用户可以通过观看相应的视觉锚点来带回虚拟面板。
图5示出了在机器530上操作的用户502对人工现实系统500的示例使用。用户502可以在机器530上工作时佩戴头戴式视图器504。头戴式视图器504可以使用一个或多个虚拟面板(例如,514、516)来向用户502显示操作手册或线路图。用户502可以前后移动他/她的眼睛,以分别在524、526和528的方向上观看虚拟面板514、虚拟面板516和机器530。当用户502沿着方向528观看机器530(例如,开关面板532)时,虚拟面板514可能干扰用户502的视场。例如,虚拟面板514会阻止用户502看到机器528的至少一部分(例如,显示屏536、操作面板534)。系统300可以跟踪用户的聚散距离和注视方向,以在用户观看机器530时自动降低虚拟面板514的不透明度。当用户观看机器530时,系统300可以通过将虚拟面板514变成透明来使虚拟面板514消失。在特定实施例中,系统300可以一起关闭所有虚拟面板(例如,514、516),或者可以关闭干扰用户502的视场的虚拟面板(例如,514)。可以为每个消失的虚拟面板显示视觉锚点,并且用户502可以观看视觉锚点,以带回与该视觉锚点相关联的相应虚拟面板。
图6示出了基于用户聚散距离改变显示面板不透明度的示例方法600。在步骤610,人工现实系统可以使用虚拟面板来向用户显示内容(例如,计算机屏幕、网站内容、文档内容、图片等)。虚拟面板可以具有第一不透明度(例如,不透明),这允许用户清楚地看到虚拟面板上显示的内容。具有第一不透明度的虚拟面板可以是不透明的或部分不透明的,并且可以防止用户透过虚拟面板看到。在步骤620,系统可以使用例如眼睛跟踪系统来确定用户的聚散距离(即,聚散深度)。聚散距离可以是从用户眼睛到用户眼睛会聚点的距离。在步骤630和640,系统可以将用户的聚散距离与虚拟面板和用户之间的距离进行比较,以确定用户是否正在观看虚拟面板之外的点。例如,可以在距用户1m的固定距离处显示虚拟面板。该系统可以将用户的聚散距离与1m的固定距离进行比较,以确定聚散距离是否超过虚拟面板和用户之间的距离第一阈值距离。第一阈值距离可以对应于眼睛跟踪系统的最小聚散距离分辨率。在步骤650,当第一用户的聚散距离比虚拟面板和用户之间的距离大第一阈值距离时,系统可以将虚拟面板的不透明度调整为比第一不透明度低的第二不透明度。具有第二不透明度的虚拟面板可以允许用户透过虚拟面板看到。例如,具有第二不透明度的虚拟面板可以是透明的,并且虚拟面板对于用户来说是不可见的。当系统将虚拟面板的不透明度变为第二不透明度时,虚拟面板可以从用户的视场中消失。作为另一示例,虚拟面板可以是半透明的,并且可以允许用户看透。
在步骤660,系统可以显示消失的虚拟面板的视觉锚点。视觉锚点可以与虚拟面板相关联,并且可以以非侵入的方式持久地显示给用户,例如,在虚拟面板的角落。虚拟锚点可以是角部拟合对象、标题栏、线框、显示内容元素等。在步骤670,系统可以确定用户是否正在观看视觉锚点。系统可以将用户的聚散距离与视觉锚点和用户之间的距离进行比较。当第一用户的聚散距离和视觉锚点和第一用户之间的第二距离之间的差异在第二阈值距离内时,该系统可以确定用户正在观看视觉锚点。在步骤680,系统可通过将虚拟面板的不透明度增加回第一不透明度或使虚拟面板对用户可见的另一不透明度来使虚拟面板重新出现。
在特定实施例中,方法600可以在步骤610开始,用于向用户显示不透明虚拟面板。当用户看到虚拟面板之外时,系统可以使虚拟面板消失,并且当用户看到与消失的虚拟面板相关联的视觉锚点时,可以使虚拟面板重新出现。在特定实施例中,方法600可以从步骤660开始,用于显示与消失的虚拟面板相关联的视觉锚点。当用户看到视觉锚点时,系统可以使虚拟面板出现,当用户看到虚拟面板之外时,系统可以使虚拟面板消失。在适当的情况下,特定实施例可以重复图6的方法的一个或多个步骤。尽管本公开将图6的方法的特定步骤描述和示出为以特定顺序发生,但是本公开设想了以任何适当顺序发生的图6的方法的任何适当步骤。此外,尽管本公开描述并示出了基于用户聚散距离改变显示面板不透明度的示例方法,包括图6的方法的特定步骤,但是本公开设想了基于用户聚散距离改变显示面板不透明度的任何合适的方法,包括任何合适的步骤,在合适的情况下,可以包括图6的方法的所有、一些或没有步骤。此外,尽管本公开描述并示出了执行图6的方法的特定步骤的特定组件、装置或系统,但是本公开设想了执行图6的方法的任何适当步骤的任何适当组件、装置或系统的任何适当组合。
图7示出了与社交网络系统相关联的一个示例网络环境700。网络环境700包括用户701、客户端系统730、社交网络系统760以及通过网络710彼此连接的第三方系统770。虽然7示出了用户701、客户端系统730、社交网络系统760、第三方系统770以及网络710的特定设置,但是本公开设想用户701、客户端系统730、社交网络系统760、第三方系统770以及网络710具有任何合适的设置。作为一个实例,并非通过限制的方式,客户端系统730、社交网络系统760以及第三方系统770中的两个或更多个可以彼此直接连接,绕过网络710。作为另一个实例,客户端系统730、社交网络系统760以及第三方系统770中的两个或更多个在物理上或逻辑上彼此完全或部分共同定位。而且,虽然图7示出了特定数量的用户701、客户端系统730、社交网络系统760、第三方系统770以及网络710,但是本公开设想用户701、客户端系统730、社交网络系统760、第三方系统770以及网络710具有任何合适的数量。作为一个实例,并非通过限制的方式,网络环境700可以包括多个用户701、客户端系统730、社交网络系统760、第三方系统770以及网络710。
在特定实施例中,用户701可以是与社交网络系统760交互或通信或者通过社交网络系统760交互或通信的个人(个人用户)、实体(例如,企业、商业或第三方应用程序)或群组(例如,个人或实体的群组)。在特定实施例中,社交网络系统760可以是托管在线社交网络的网络可寻址计算系统。社交网络系统760可以生成、存储、接收和发送社交网络数据,例如,用户资料数据、概念资料数据、社交图信息或与在线社交网络相关的其他合适数据。社交网络系统760可由网络环境700的其他组件直接或经由网络710访问。在特定实施例中,社交网络系统760可以包括授权服务器(或其他合适的组件),该授权服务器允许用户701选择加入或退出社交网络系统760记录的或与其他系统(例如,第三方系统770)共享的其动作,例如,通过设置合适的隐私设置。用户的隐私设置可以确定可以记录哪些与用户相关联的信息,可以如何记录与用户相关联的信息,可以记录与用户相关联的信息的时间,可以记录与用户相关联的信息的人,可以与谁共享与用户相关联的信息,以及可以出于什么目的来记录或共享与用户相关联的信息。授权服务器可用于通过阻塞、数据散列、匿名化或其他适当的技术来强化社交网络系统30的用户的一个或多个隐私设置。在特定实施例中,第三方系统770可以是网络可寻址计算系统。第三方系统770可由网络环境700的其他组件直接或经由网络710访问。在特定实施例中,一个或多个用户701可以使用一个或多个客户端系统730来访问社交网络系统760或第三方系统770,向其发送数据以及从社交网络系统760或第三方系统770接收数据。客户端系统730可以直接、经由网络710或经由第三方系统访问社交网络系统760或第三方系统770。作为示例且非限制性地,客户端系统730可以经由社交网络系统760访问第三方系统770。客户端系统730可以是任何合适的计算装置,例如,个人计算机、膝上型计算机、蜂窝电话、智能手机、平板计算机或增强/虚拟现实装置。
本公开设想任何合适的网络710。作为示例且非限制性地,网络710的一个或多个部分可以包括自组织网络、内联网、外联网、虚拟专用网络(VPN)、局域网(LAN)、无线LAN(WLAN)、广域网(WAN)、无线WAN(WWAN)、城域网(MAN)、一部分互联网、一部分公共交换电话网(PSTN)、蜂窝电话网络、或其中的两个或更多个的组合。网络710可以包括一个或多个网络710。
链路750可以使客户端系统730、社交网络系统760以及第三方系统770与通信网络710或者彼此连接。本公开设想任何合适的链路750。在特定实施例中,一个或多个链路750包括一个或多个有线(例如,数字用户线路(DSL)或电缆数据服务接口规范(DOCSIS))、无线(例如,Wi-Fi或全球微波接入互操作性(WiMAX))、或光学(例如,同步光纤网络(SONET)或同步数字系列(SDH))链路。在特定实施例中,一个或多个链路750均包括自组织网络、内联网、外联网、VPN、LAN、WLAN、WAN、WWAN、MAN、一部分互联网、一部分PSTN、基于蜂窝技术的网络、基于卫星通信技术的网络、另一个链路750或两个或更多个这种链路750的组合。在整个网络设备700中,链路750不必相同。一个或多个第一链路750可以在一个或多个方面与一个或多个第二链路750不同。
图8示出了示例社交图800。在特定实施例中,社交网络系统760可以在一个或多个数据存储器中存储一个或多个社交图800。在特定实施例中,社交图800可以包括多个节点-其可以包括多个用户节点802或多个概念节点804-以及连接所述节点的多个边缘806。每个节点可以与唯一的实体(即,用户或概念)相关联,每个实体可以具有唯一标识符(ID),例如,唯一号码或用户名。为了展示的目的,在二维视觉图表示中显示了在图8中示出的示例社交图800。在特定实施例中,社交网络系统760、客户端系统730或第三方系统770可以访问用于合适的应用程序的社交图800和相关的社交图信息。社交图800的节点和边缘可以作为数据对象(例如)存储在数据存储器(例如,社交图数据库)内。这种数据存储器可以包括社交图800的节点和边缘的一个或多个可搜索或可查询的索引。
在特定实施例中,用户节点802可以与社交网络系统760的用户对应。作为示例且非限制性地,用户可以是个人(个人用户)、实体(例如,企业、商业或第三方应用程序)、或与(或者通过)社交网络系统760互动或通信的群组(例如,个人或实体)。在特定实施例中,在第一用户通过社交网络系统760注册账号时,社交网络系统760可以创建与用户对应的第一用户节点802,并且在一个或多个数据存储器内存储用户节点802。在适当的情况下,在本文中描述的用户和用户节点802表示注册的用户以及与注册的用户相关联的用户节点802。此外或者作为替换物,在适当的情况下,在本文中描述的用户和用户节点802表示没有通过社交网络系统760注册的用户。在特定实施例中,用户节点802可以与由用户提供的信息或者由各种系统(包括社交网络系统760)聚集的信息相关联。作为示例且非限制性地,用户可以提供其姓名、资料图片、联系信息、生日、性别、婚姻状况、家庭状况、职业、教育背景、爱好、兴趣或其他人口统计信息。在特定实施例中,用户节点802可以与一个或多个数据对象相关联,所述数据对象与和用户相关联的信息对应。在特定实施例中,用户节点802可以与一个或多个网页对应。
在特定实施例中,概念节点804可以与概念对应。作为示例且非限制性地,概念可以对应于地点(例如,电影院、餐馆、地标或城市);网站(例如,与社交网络系统760相关联的网站或者与网络应用程序服务器相关联的第三方网站);实体(例如,个人、企业、群组、体育队或名流);资源(例如,音频文件、视频文件、数字照片、文本文件、结构化文档或应用程序),其可以位于社交网络系统760内或外部服务器上,例如,网络应用程序服务器;不动产或知识产权(例如,雕塑、绘画、电影、游戏、歌曲、理念、照片、或书面工作);游戏;活动;理念或理论;增强/虚拟现实环境中的对象;另一种合适的概念;或两个或更多个这种概念。概念节点804可以与由用户提供的概念的信息或者由各种系统聚集的信息相关联,包括社交网络系统760。作为示例且非限制性地,概念的信息可以包括名字或标题;一个或多个图像(例如,书的封面的图像);位置(例如,地址或地理位置);网站(其可以与URL相关联);联系方式(例如,电话号码或电子邮件地址);其他合适的概念信息;或这种信息的任何合适的组合。在特定实施例中,概念节点804可以与一个或多个数据对象相关联,所述数据对象与和概念节点804相关联的信息对应。在特定实施例中,概念节点804可以与一个或多个网页对应。
在特定实施例中,在社交图800内的节点可以表示网页(可以称为“资料页面”)或者由该网页表示。资料页面可以由社交网络系统760托管或者可存取。资料页面还可以在与第三方系统770相关联的第三方网站上托管。作为示例且非限制性地,与特定的外部网页对应的资料页面可以是特定的外部网页,并且资料页面可以与特定的概念节点804对应。资料页面可以由所有或者所选择的子集的其他用户可观看。作为示例且非限制性地,用户节点802可以具有对应的用户资料页面,在该资料页面中,相应的用户可以添加内容,发表声明,或者另外表达自己的意见。作为另一个示例,并非通过限制的方式,概念节点804可以具有相应概念的资料页面,在该资料页面中,一个或多个用户可以添加内容,发表声明,或者表达自己的意见,尤其关于与概念节点804对应的概念。
在特定实施例中,概念节点804可以表示由第三方系统770托管的第三方网页或资源。在其他部件之中,第三方网页或资源可以包括内容、可选择的或其他图标、或者表示活动或行动的其他可互动的对象(例如,可以在JavaScript、AJAX或PHP代码内实现)。作为示例且非限制性地,第三方网页可以包括可选择的图标,例如,“喜欢”、“登记”、“吃”、“推荐”、或另一个合适的活动或行动。通过选择一个图标(例如,“登记”),观看第三方网页的用户可以执行活动,促使客户端系统730给社交网络系统760传输表示用户的活动的消息。响应于该消息,社交网络系统760可以在与用户对应的用户节点802与和第三方网页或资源对应的概念节点804之间创建边缘(例如,“登记类型”边缘),并且在一个或多个数据存储器内存储边缘806。
在特定实施例中,在社交图800内的一对节点可以通过一个或多个边缘806彼此连接。连接一对节点的边缘806可以表示在这对节点之间的关系。在特定实施例中,边缘806可以包括或表示与在一对节点之间的关系对应的一个或多个数据对象或属性。作为示例且非限制性地,第一用户可以指示第二用户是第一用户的“朋友”。响应于这个指示,社交网络系统760可以给第二用户传输“朋友请求”。如果第二用户确认“朋友请求”,那么社交网络系统760可以在社交图800内创建连接第一用户的用户节点802和第二用户的用户节点802的边缘806,并且在一个或多个数据存储器764内存储边缘806,作为社交图信息。在图8的示例中,社交图800包括表示在用户“A”和用户“B”的用户节点802之间的朋友关系的边缘806以及表示在用户“C”和用户“B”的用户节点802之间的朋友关系的边缘。虽然本公开描述或显示了连接特定的用户节点802的具有特定属性的特定边缘806,但是本公开设想连接用户节点802的具有任何合适的属性的任何合适的边缘806。作为示例且非限制性地,边缘806可以表示友谊、家庭关系、业务或雇佣关系、粉丝关系(包括例如喜好等)、追随者关系、访客关系(包括例如访问、观看、登记、共享等)、订阅者关系、上级/下级关系、互惠关系、非互惠的关系、另一种合适类型的关系、或两个或更多这种关系。而且,虽然本公开总体上描述正在连接的节点,但是本公开还描述了正在连接的用户或概念。在本文中,在合适的地方,正在连接的用户或概念的引用可以表示与由一个或多个边缘806在社交图800内连接的那些用户或概念对应的节点。分别由两个节点表示的两个对象之间的分离度是连接社交图800中的两个节点的最短路径中的边数。作为示例且非限制性地,在社交图800中,用户“C”的用户节点802经由多条路径连接到用户“A”的用户节点802,例如,直接通过用户“B”的用户节点802的第一路径、通过公司“Acme”的概念节点804和用户“D”的用户节点802的第二路径以及通过代表学校“斯坦福”、用户“G”、公司“Acme”和用户“D”的用户节点802和概念节点804的第三路径。用户“C”和用户“A”具有两个分离度,因为连接其相应节点的最短路径(即,第一路径)包括两个边缘806。
在特定实施例中,在用户节点802与概念节点804之间的边缘806可以表示由与用户节点802相关联的用户朝着与概念节点804相关联的概念执行的特定活动或行动。作为示例且非限制性地,如图8中所示,用户可以“喜欢”、“参加”、“播放”、“收听”、“烹饪”、“工作”或“观看”概念,其中的每个均与边缘类型或子类型对应。与概念节点804对应的概念资料页面例如可以包括可选择的“登记”图标(例如,可点击的“登记”图标)或可选择的“添加到收藏夹”图标。同样,在用户点击这些图标之后,社交网络系统760可以响应于与相应的活动对应的用户活动创建“收藏夹”边缘或“登记”边缘。作为示例且非限制性地,用户(用户“C”)可以使用特定的应用程序(例如,SPOTIFY,这是在线音乐应用程序)收听特定的歌曲(“Imagine”)。在这种情况下,社交网络系统760可以在与用户对应的用户节点802与和歌曲和应用程序对应的概念节点804之间创建“收听”的边缘806和“使用”的边缘(如图8中所示),以表示用户收听歌曲和使用应用程序。而且,社交网络系统760可以在与歌曲和应用程序对应的概念节点804之间创建“收听”的边缘806(如图8中所示),以表示由特定的应用程序播放特定的歌曲。在这种情况下,“收听”的边缘806与由外部应用程序(SPOTIFY)在外部音频文件(歌曲“Imagine”)上执行的活动对应。虽然本公开描述了连接用户节点802和概念节点804的具有特定属性的特定边缘806,但是本公开设想连接用户节点802和概念节点804的具有任何合适的属性的任何合适的边缘806。而且,虽然本公开描述了表示单个关系的在用户节点802和概念节点804之间的边缘,但是本公开设想表示一个或多个关系的在用户节点802和概念节点804之间的边缘。作为示例且非限制性地,边缘806可以表示用户喜欢并且使用的特定概念。可选地,另一个边缘806可以表示在用户节点802和概念节点804之间(如图8中所示,在用户“E”的用户节点802和“SPOTIFY”的概念节点804之间)的每种类型的关系(或单个关系的倍数)。
在特定实施例中,社交网络系统760可以在社交图800中的用户节点802和概念节点804之间创建边缘806。作为示例且非限制性地,观看概念资料页面的用户(例如,通过使用由用户的客户端系统730托管的网络浏览器或专用应用程序)可以通过点击或选择“喜欢”图标来指示该用户喜欢由概念节点804表示的概念,这可以促使用户的客户端系统730给社交网络系统760发送表示用户喜欢与概念资料页面相关联的概念的消息。响应于该消息,社交网络系统760可以在与用户相关联的用户节点802和概念节点804之间创建边缘806,如“喜欢”在用户和概念节点804之间的边缘806所示。在特定实施例中,社交网络系统760可以在一个或多个数据存储器内存储边缘806。在特定实施例中,可以由社交网络系统760响应于特定的用户活动自动形成边缘806。作为示例且非限制性地,如果第一用户上传图片,看电影,或者收听歌曲,那么可以在与第一用户对应的用户节点802和与那些概念对应的概念节点804之间形成边缘806。虽然本公开描述了通过特定的方式形成特定的边缘806,但是本公开设想通过任何合适的方式形成任何合适的边缘806。
在特定实施例中,社交网络系统760可以确定彼此的各种社交图实体的社交图亲和度(在本文中可以称为“亲和度”)。亲和度可以表示在与在线社交网络相关联的特定对象(例如,用户、概念、内容、活动、广告、与在线社交网络相关联的其他对象或其任何合适的组合)之间的兴趣关系或水平的强度。还可以关于与第三方系统770或其他合适的系统相关联的对象确定亲和度。还可以确定每个用户、主题、或内容的类型的社交图的整体亲和度。整体亲和度可以基于继续监控与社交图实体相关联的活动或关系改变。虽然本公开描述了通过特定的方式确定特定的亲和度,但是本公开设想通过任何合适的方式确定任何合适的亲和度。
在特定实施例中,社交网络系统760可以使用亲和度系数(在本文中可以称为“系数”)测量或量化社交图亲和度。系数可以表示或量化在与在线社交网络相关联的特定用户之间的关系的强度。系数还可以表示概率或功能,其根据用户对活动的兴趣测量用户执行特定的活动的预测概率。通过这种方式,可以根据用户的先前活动,预测用户的未来活动,其中,至少部分根据用户的活动历史,计算系数。系数可以用于预测在在线社交网络内或外面的任意数量的活动。作为示例且非限制性地,这些活动可以包括各种类型的通信,例如,发送消息、张贴内容或者对内容评论;各种类型的观察活动;例如,访问或观看资料页面、介质或其他合适的内容;关于两个或更多个社交图实体的各种类型的重合信息,例如,在相同的群组内,标记在相同的照片内,在相同的位置登记,或者参加相同的活动;或其他合适的活动。虽然本公开描述了通过特定的方式测量亲和度,但是本公开设想通过任何合适的方式测量亲和度。
在特定实施例中,社交网络系统760可以使用各种因素来计算系数。这些因素例如可以包括用户活动、对象之间的关系的类型、位置信息、其他合适的因素或其任何组合。在特定实施例中,在计算系数时,不同的因素可以不同地加权。每个因素的权重可以是静态的,或者权重例如可以根据用户、关系的类型、活动的类型、用户的位置等改变。这些因素的评级可以根据其权重组合,以确定用户的整体系数。作为示例且非限制性地,可以给特定的用户活动分配评级和权重,同时给与特定的用户活动相关联的关系分配评级和相关联的权重(例如,因此,总权重是100%)。为了朝着特定对象计算用户的系数,给用户活动分配的评级例如可以包括整体系数的60%,而在用户与对象之间的关系可以包括整体系数的40%。在特定实施例中,在确定用于计算系数的各种因素的权重时,社交网络系统760可以考虑各种变量,例如,访问信息的时间、衰减因素、访问频率、与信息的关系、与信息被访问的对象的关系、与连接至对象的社交图实体的关系、用户活动的短期或长期平均数、用户反馈、其他合适的变量或其任何组合。作为示例且非限制性地,系数可以包括衰减因素,其促使由特定的活动提供的信号的强度随着时间衰减,以便在计算系数时,最近活动更相关。可以基于持续跟踪系数所基于的活动,来持续更新评级和权重。任何类型的处理或算法可以用于对每个因素的评级以及分配给因素的权重进行分配、合并、平均化等。在特定实施例中,社交网络系统760可以使用在历史活动和过去的用户响应、或者通过使其经历各种选项和测量响应而从用户形成的数据上培训的机器学习算法确定系数。虽然本公开描述了通过特定的方式计算系数,但是本公开设想通过任何合适的方式计算系数。
在特定实施例中,社交网络系统760可以基于用户的活动计算系数。社交网络系统760可以在在线社交网络上、在第三方系统770上、在其他合适的系统上或其任何组合上,监控这种活动。可以跟踪或监控任何合适类型的用户活动。典型的用户活动包括观看资料页面、创建或张贴内容、与内容互动、加上标记或者在图像内加上标记、加入群组、列出和确认出席活动,登记位置,喜欢特定的页面、创建页面,并且执行促进社会活动的其他任务。在特定实施例中,社交网络系统760可以基于具有特定类型的内容的用户活动计算系数。该内容可以与在线社交网络、第三方系统770或另一个合适的系统相关联。该内容可以包括用户、资料页面、帖子、新闻故事、头条、即时消息、聊天室谈话、电子邮件、广告、图片、视频、音乐、其他合适的对象或其任何组合。社交网络系统760可以分析用户的活动,以确定一个或多个活动是否表示主题、内容、其他用户等的亲和度。作为示例且非限制性地,如果用户可以频繁张贴与“咖啡”或其他变体相关的内容,那么社交网络系统760可以确定用户关于概念“咖啡”具有高系数。可以给特定的活动或特定类型的活动分配比其他活动更高的权重和/或评级,这可以影响整体计算系数。作为示例且非限制性地,如果第一用户给第二用户发送电子邮件,那么与如果第一用户仅仅观看第二用户的用户资料相比,该活动的加权或评级可以更高。
在特定实施例中,社交网络系统760可以基于在特定对象之间的关系的类型计算系数。参照社交图800,社交网络系统760可以在计算系数时分析连接特定的用户节点802和概念节点804的边缘806的数量和/或类型。作为示例且非限制性地,可以给由配偶型边缘(表示两个用户是夫妻)连接的用户节点802分配比由朋友型边缘连接的用户节点802更高的系数。换言之,根据分配给活动的权重以及特定用户的关系,可以确定关于用户的配偶的内容的整体亲和度比关于用户的朋友的内容更高。在特定实施例中,用户与另一个对象具有的关系可以影响用户关于计算该对象的系数的活动的权重和/或评级。作为示例且非限制性地,如果用户在第一张照片中标记,但是仅仅喜欢第二张照片,那么社交网络系统760可以确定用户关于第一张照片具有比第二张照片更高的系数,这是因为与具有与内容的喜欢型关系相比,具有与内容的标记型关系,可以分配更高的权重和/或评级。在特定实施例中,社交网络系统760可以基于一个或多个第二用户与特定对象具有的关系,给第一用户计算系数。换言之,其他用户与对象具有的连接和系数可以影响第一用户关于该对象的系数。作为示例且非限制性地,如果第一用户连接至一个或多个第二用户或者对一个或多个第二用户具有高系数,并且那些第二用户连接至特定的对象或者对特定的对象具有高系数,那么社交网络系统760可以确定第一用户也应对该特定的对象具有较高的系数。在特定实施例中,系数可以基于特定对象之间的分离程度。更低的系数可以表示第一用户在社交图800中对与第一用户间接连接的用户的内容对象进行分享的兴趣的可能性降低。作为示例且非限制性地,在社交图800中更接近的社交图实体(即,更小的分离程度)可以具有比在社交图800中相隔更远的实体更高的系数。
在特定实施例中,社交网络系统760可以基于位置信息计算系数。在地理上彼此更接近的对象可以被视为比更远的对象彼此更相关或更感兴趣。在特定实施例中,用户朝着特定对象的兴趣可以基于对象的位置与和用户相关联的当前位置(或用户的客户端系统730的位置)的接近度。第一用户可以对更接近第一用户的其他用户或概念更感兴趣。作为示例且非限制性地,如果用户与机场相距1英里并且与加油站相距2英里,那么社交网络系统760可以基于机场与用户的接近度确定用户对机场具有比加油站更高的系数。
在特定实施例中,社交网络系统760可以基于系数信息,关于用户执行特定的活动。系数可以用于根据用户对活动的兴趣来预测用户是否执行特定的活动。在生成或向用户显示任何类型的对象时,可以使用系数,例如,广告、搜索结果、新闻故事、媒体、消息、通知或其他合适的对象。系数还可以用于将这种对象酌情排名和排序。通过这种方式,社交网络系统760可以提供与用户的兴趣和当前环境相关的信息,提高了找出这种兴趣信息的可能性。在特定实施例中,社交网络系统760可以基于系数信息生成内容。可以基于用户特有的系数提供或选择内容对象。作为示例且非限制性地,系数可以用于给用户生成媒体,其中,可以给用户呈现用户相对于媒体对象具有高整体系数的媒体。作为另一示例且非限制性地,系数可以用于给用户生成广告,其中,可以给用户显示用户关于广告对象具有高整体系数的广告。在特定实施例中,社交网络系统760可以基于系数信息生成搜索结果。可以基于与关于查询用户的搜索结果相关联的系数,给特定用户的搜索结果评分或排名。作为示例且非限制性地,与和具有更低系数的对象对应的结果相比,与具有更高系数的对象对应的搜索结果可以在搜索结果页面上排名更高。
在特定实施例中,社交网络系统760可以响应于来自特定系统或处理的对系数的请求,计算系数。为了预测用户可以在规定的情况下采取(或者可以作为其主体)的可能措施,任何处理可以请求用户的计算系数。该请求还可以包括用于各种因素的一组权重,这些因素用于计算系数。这个请求可以来自在线社交网络上运行的处理、来自第三方系统770(例如,通过API或其他通信信道)或者来自另一个合适的系统。响应于该请求,社交网络系统760可以计算系数(或者如果预先计算和存储了,那么访问系数信息)。在特定实施例中,社交网络系统760可以测量关于特定处理的亲和度。不同的处理(位于在线社交网络的内部和外部)可以请求一个特定对象或一组特定对象的系数。社交网络系统760可以提供与请求亲和度的测度的特定处理相关的亲和度的测度。通过这种方式,每个处理接收专用于不同背景的亲和度的测度,在该背景下,该处理使用亲和度的该测度。
与社交图亲和度和亲和度系数相结合,特定实施例可以使用在于2006年8月11日提交的美国专利申请号11/502093、于2010年12月22日提交的美国专利申请号12/977027、于2010年12月23日提交的美国专利申请号12/978265以及于2012年10月1日提交的美国专利申请号13/622869中公开的一个或多个系统、元件、部件、功能、方法、操作或步骤,每个申请通过引证结合于此。
图9示出了一个示例计算机系统900。在特定实施例中,一个或多个计算机系统900执行在本文中描述或显示的一个或多个方法的一个或多个步骤。在特定实施例中,一个或多个计算机系统900提供在本文中描述或显示的功能。在特定实施例中,在一个或多个计算机系统900上运行的软件执行在本文中描述或显示的一个或多个方法的一个或多个步骤,或者提供在本文中描述或显示的功能。特定实施例包括一个或多个计算机系统900的一个或多个部分。在本文中,在适当的情况下,计算机系统的引用可以包括计算装置,反之亦然。而且,在适当的情况下,计算机系统的引用可以包括一个或多个计算机系统。
本公开设想具有任何适当数量的计算机系统900。本公开设想具有采用任何合适的物理形式的计算机系统900。作为示例但非限制性地,计算机系统900可为嵌入式计算机系统、片上系统(SOC)、单板计算机系统(SBC)(例如,计算机模块(COM)或系统模块(SOM))、台式电脑系统、膝上型或笔记本式电脑系统、交互式自助服务机、主机、计算机系统的网格、移动电话、个人数字助理(PDA)、服务器、平板电脑系统、增强/虚拟现实装置或其中的两个或更多个的组合。在适当的情况下,计算机系统900可包括一个或多个计算机系统900;可为单一式或分布式;跨过多个位置;跨过多台机器;跨过多个数据中心;或者位于云中,其在一个或多个网络中可包括一个或多个云组件。在适当的情况下,一个或多个计算机系统900可执行在本文中描述或显示的一个或多个方法的一个或多个步骤,无需大量空间或时间限制。作为示例但非限制性地,一个或多个计算机系统900可实时或以成批的方式执行在本文中描述或显示的一个或多个方法的一个或多个步骤。在适当的情况下,一个或多个计算机系统900可在不同的时间或者在不同的位置执行在本文中描述或显示的一个或多个方法的一个或多个步骤。
在特定实施例中,计算机系统900包括处理器902、内存904、存储器906、输入/输出(I/O)接口908、通信接口910以及总线912。虽然本公开描述和示出了在特定的设置中具有特定数量的特定元件的特定计算机系统,但是本公开设想在任何合适的设置中具有任何合适的数量的任何合适的元件的任何合适的计算机系统。
在特定实施例中,处理器902包括用于执行指令的硬件,例如,构成计算机程序的那些指令。作为示例但非限制性地,为了执行指令,处理器902可从内部寄存器、内部高速缓存、内存904或存储器906中检索(或提取)指令;将这些指令解码并且执行这些指令;然后将一个或多个结果写入内部寄存器、内部高速缓存、内存904或存储器906中。在特定实施例中,处理器902可以包括用于数据、指令或地址的一个或多个内部高速缓存。本公开设想处理器902在适当的情况下包括任何合适数量的任何合适的内部高速缓存。作为示例但非限制性地,处理器902可以包括一个或多个指令高速缓存、一个或多个数据高速缓存、以及一个或多个转译后备缓冲器(TLB)。在指令高速缓存内的指令可以是在内存904或存储器906内的指令的副本,并且指令高速缓存可以加速由处理器902检索那些指令。在数据高速缓存内的数据可以是在内存904或存储器906内的数据的副本,用于要起作用的在处理器902上执行的指令;在处理器902上执行的先前指令的结果由在处理器902上执行的后续指令访问或者写入内存904或存储器906内;或者其他合适的数据。数据高速缓存可以加速处理器902的读取或写入操作。TLB可以加速处理器902的虚拟地址转译。在特定实施例中,处理器902可以包括用于数据、指令或地址的一个或多个内部寄存器。在适当的情况下,本公开设想处理器902包括任何合适数量的任何合适的内部寄存器。在适当的情况下,处理器902可以包括一个或多个算术逻辑单元(ALU);是多核处理器;或者包括一个或多个处理器902。虽然本公开描述和示出了特定的处理器,但是本公开设想任何合适的处理器。
在特定实施例中,内存904包括主存储器,用于存储要执行的处理器902的指令或者要起作用的处理器902的数据。作为示例但非限制性地,计算机系统900可将指令从存储器906或另一个源(例如,另一个计算机系统900)中装载到内存904中。然后,处理器902可将指令从内存904中装载到内部寄存器或内部高速缓存中。为了执行这些指令,处理器902可从内部寄存器或内部高速缓存中检索指令,并且将这些指令解码。在执行指令期间或之后,处理器902可将一个或多个结果(这些结果可为中间或最终结果)写入内部寄存器或内部高速缓存中。然后,处理器902可将这些结果中的一个或多个写入内存904中。在特定实施例中,处理器902仅仅执行在一个或多个内部寄存器或内部高速缓存内或者在内存904内(与存储器906相反或者在别处)的指令,并且仅仅操作在一个或多个内部寄存器或内部高速缓存内或者在内存904内(与存储器906相反或者在别处)的数据。一个或多个内存总线(这些总线均可包括地址总线和数据总线)可使处理器902与内存904耦合。如下所述,总线912可包括一个或多个内存总线。在特定实施例中,一个或多个内存管理单元(MMU)位于处理器902与内存904之间,并且有助于访问由处理器902请求的内存904。在特定实施例中,内存904包括随机存取存储器(RAM)。在适当的情况下,该RAM可为易失性存储器。在适当的情况下,该RAM可为动态RAM(DRAM)或静态RAM(SRAM)。而且,在适当的情况下,该RAM可为单端口或多端口RAM。本公开设想任何合适的RAM。在适当的情况下,内存904可以包括一个或多个内存904。虽然本公开描述和示出了特定的存储器,但是本公开设想任何合适的存储器。
在特定实施例中,存储器906包括用于数据或指令的大容量存储器。作为示例但非限制性地,存储器906可包括HDD、软盘驱动器、闪速存储器、光盘、磁光盘、磁带或通用串行总线(USB)驱动器或其中的两个或更多个的组合。在适当的情况下,存储器906可包括可移动或固定的(或固定的)介质。在适当的情况下,存储器906可位于计算机系统900的内部或外部。在特定实施例中,存储器906是非易失性固态存储器。在特定实施例中,存储器906包括只读存储器(ROM)。在适当的情况下,该ROM可为掩膜编程的ROM、可编程的ROM(PROM)、可擦PROM(EPROM)、电可擦PROM(EEPROM)、电可改写ROM(EAROM)、或闪速存储器或其中的两个或更多个的组合。本公开设想采用任何合适的物理形式的大容量存储器906。在适当的情况下,存储器906可以包括促进在处理器902与存储器906之间通信的一个或多个存储控制单元。在适当的情况下,存储器906可以包括一个或多个存储器906。虽然本公开描述和示出了特定的存储器,但是本公开设想任何合适的存储器。
在特定实施例中,I/O接口908包括硬件和/或软件或这两者,其提供一个或多个接口,用于在计算机系统900与一个或多个I/O装置之间进行通信。在适当的情况下,计算机系统900可包括这些I/O装置中的一个或多个。这些I/O装置中的一个或多个能够在个人与计算机系统900之间进行通信。作为示例但非限制性地,I/O装置可包括键盘、按键、麦克风、显示器、鼠标、打印机、扫描仪、扬声器、静物相机、触控笔、平板电脑、触摸式屏幕、轨迹球、摄影机、另一个合适的I/O装置或其中的两个或更多个的组合。I/O装置可包括一个或多个传感器。本公开设想具有任何合适的I/O装置以及用于这些I/O装置的任何合适的I/O接口908。在适当的情况下,I/O接口908可包括一个或多个装置或软件驱动器,其能够允许处理器902驱动这些I/O装置中的一个或多个。在适当的情况下,I/O接口908可包括一个或多个I/O接口908。虽然本公开描述和示出了特定的I/O接口,但是本公开设想具有任何合适的I/O接口。
在特定实施例中,通信接口910包括硬件和/或软件或这两者,其提供一个或多个接口,用于在计算机系统900与一个或多个其他计算机系统900或一个或多个网络之间进行通信(例如,基于分组的通信)。作为示例但非限制性地,通信接口910可包括网络接口控制器(NIC)、或用于与以太网或其他有线网络或无线NIC(WNIC)进行通信的网络适配器、或用于与无线网络(例如,WI-FI网络)进行通信的网络适配器。本公开设想具有任何合适的网络以及用于该网络的任何合适的通信接口910。作为示例但非限制性地,计算机系统900可与自组织网络、个人区域网络(PAN)、局域网(LAN)、广域网(WAN)、城域网(MAN)、或互联网的一个或多个部分或其中的两个或更多个的组合进行通信。这些网络中的一个或多个的一个或多个部分可为有线或无线部分。作为一个示例,计算机系统900可与无线PAN(WPAN)(例如,BLUETOOTH WPAN)、WI-FI网络、WI-MAX网络、蜂窝电话网络(例如,全球移动通讯系统(GSM)网络)、或其他合适的无线网络或其中的两个或更多个的组合进行通信。在适当的情况下,计算机系统900可以包括用于这些网络中的任一个的任何合适的通信接口910。在适当的情况下,通信接口910可以包括一个或多个通信接口910。虽然本公开描述和示出了特定的通信接口,但是本公开设想具有任何合适的通信接口。
在特定实施例中,总线912包括硬件和/或软件或这两者,其使计算机系统900的元件彼此耦合。作为示例但非限制性地,总线912可包括加速图形端口(AGP)或其他图形总线、增强型工业标准架构(EISA)总线、前端总线(FSB)、超传输(HT)互连、工业标准结构(ISA)总线、无限带宽互连、低脚位(LPC)总线、内存总线、微通道结构(MCA)总线、外围组件互连(PCI)总线、PCI高速(PCIe)总线、串行高级技术附件(SATA)总线、视频电子标准协会本地(VLB)总线、或另一个合适的总线或其中的两个或更多个的组合。在适当的情况下,总线912可包括一个或多个总线912。虽然本公开描述和示出了特定的总线,但是本公开设想具有任何合适的总线或互连。
在本文中,在适当的情况下,一个或多个计算机可读非暂时性存储介质可包括一个或多个基于半导体的或者其他集成电路(IC)(例如,现场可编程门阵列(FPGA)或专用IC(ASIC))、硬盘驱动器HDD、混合硬盘驱动器(HHD)、光盘、光盘驱动器(ODD)、磁光盘、磁光驱动器、软盘、软盘驱动器(FDD)、磁带、固态驱动器(SSD)、RAM驱动器、安全数字卡或驱动器、另一个合适的计算机可读非暂时性存储介质、或者其中的两个或更多个的合适组合。在适当的情况下,计算机可读非暂时性存储介质可为易失性、非易失性或者易失性和非易失性的组合。
在本文中,除非另有明确规定或者在上下文中另有明确规定,否则“或”具有包括而非排除的意思。因此,在本文中,除非另有明确规定或者在上下文中另有明确规定,否则“A或B”表示“A和/或B”。而且,除非另有明确规定或者在上下文中另有明确规定,否则“和”具有共同和单独的意思。因此,在本文中,除非另有明确规定或者在上下文中另有明确规定,否则“A和B”表示“共同或单独的A和B”。
本公开的范围包括本领域的技术人员会理解的在本文中描述或示出的示例实施例的所有变化、替换、变动、变更以及修改。本公开的范围不限于在本文中描述或示出的示例实施例。而且,虽然本公开描述和示出了在本文中相应的实施例包括特定的元件、部件、特征、功能、操作或步骤,但是这些实施例中的任一个可以包括本领域的技术人员会理解的在本文中的任何地方描述或示出的任何元件、部件、特征、功能、操作或步骤的任何组合或排列。而且,适合于、被设置为、能够、配置为、启用、可用于或者有效地执行一个特定的功能的设备、系统、或设备或系统的元件在所附权利要求中被引用时都包括该设备、系统、元件,无论是否激活、打开或开启该设备、系统、元件或该特定的功能。此外,尽管本公开将特定实施例描述或示出为提供特定优点,但是特定实施例可以不提供这些优点、提供某些或全部这些优点。
Claims (20)
1.一种控制虚拟内容的方法,包括:通过计算系统
向第一用户显示所述虚拟内容,其中,所述虚拟内容具有第一不透明度;
确定所述第一用户的第一聚散距离;
比较所述第一用户的第一聚散距离与所述虚拟内容和第一用户之间的第一距离;并且
响应于确定所述第一用户的第一聚散距离比所述第一距离大第一阈值距离,调整所述虚拟内容以具有第二不透明度,所述第二不透明度具有比所述第一不透明度低的不透明度。
2.根据权利要求1所述的方法,进一步包括:
显示与所述虚拟内容相关联的视觉锚点;
确定所述第一用户的第二聚散距离;
比较所述第一用户的第二聚散距离与所述视觉锚点和所述第一用户之间的第二距离;并且
响应于确定所述第一用户的第二聚散距离与所述第二距离之间的差值在第二阈值距离内,将所述虚拟内容调整为比所述第二不透明度更不透明。
3.根据权利要求2所述的方法,其中,所述视觉锚点具有比所述第二不透明度更不透明的第三不透明度。
4.根据权利要求2所述的方法,其中,所述视觉锚点包括以下各项中的一个或多个:
角部拟合对象;
虚拟面板的线框;
虚拟面板的标题栏;
与虚拟面板相关联的线;
与虚拟面板相关联的点;
虚拟面板的内容大纲;
虚拟面板的不透明显示元素;
虚拟面板的半透明显示元素;
虚拟面板的文本内容;
图标;
半透明虚拟面板;或者
减小尺寸的虚拟面板。
5.根据权利要求1所述的方法,其中,所述虚拟内容包括虚拟面板上的一个或多个显示元素,其中,调整所述虚拟内容以具有所述第二不透明度包括:
调整所述虚拟面板以具有所述第二不透明度;并且
调整所述虚拟面板上的一个或多个显示元素以具有第四不透明度,并且其中,所述第四不透明度等于所述第二不透明度或比所述第二不透明度更不透明。
6.根据权利要求1所述的方法,其中,所述第一不透明度阻止所述第一用户透过虚拟内容观看,并且其中,所述第二不透明度允许第一用户透过虚拟内容观看。
7.根据权利要求1所述的方法,进一步包括:确定所述虚拟内容干扰所述第一用户的视场。
8.根据权利要求7所述的方法,其中,确定所述虚拟内容干扰所述第一用户的视场包括:
使用一个或多个传感器、以及眼睛跟踪系统确定所述第一用户的注视方向;并且
确定所述虚拟内容至少部分地在关于所述第一用户的注视方向的阈值角度内。
9.根据权利要求8所述的方法,进一步包括:
使用所述眼睛跟踪系统确定所述第一用户的注视角度;
基于所述第一用户的注视方向和注视角度,确定所述第一用户的视场;并且
确定所述虚拟内容干扰所述第一用户的视场。
10.根据权利要求1所述的方法,进一步包括:
使用一个或多个传感器确定所述第一用户的移动方向;并且
确定所述虚拟内容沿着所述第一用户的移动方向干扰所述第一用户的视场,其中,基于确定所述虚拟内容干扰所述第一用户的视场来调整所述虚拟内容以具有所述第二不透明度。
11.根据权利要求1所述的方法,进一步包括:
使用一个或多个相机、以及面部识别模型来识别所述第一用户的视场中的第二用户的面部;
使用一个或多个麦克风捕捉所述第一用户或所述第二用户的语音;并且
确定所述第一用户和所述第二用户之间的交互,其中,基于所确定的所述第一用户和所述第二用户之间的交互来调整所述虚拟内容以具有所述第二不透明度。
12.根据权利要求1所述的方法,进一步包括:
使用一个或多个相机、以及面部识别模型来识别所述第一用户的视场中的第二用户的面部;并且
基于社交网络系统的社交图,确定所述第二用户与所述第一用户的社交相关性分数,并且其中,基于确定所述社交相关性分数高于阈值来调整所述虚拟内容以具有所述第二不透明度。
13.根据权利要求1所述的方法,其中,基于与所述第一用户正在观看的对象相关联的一个或多个因素,来确定所述第一用户的第一聚散距离,并且其中,所述一个或多个因素包括以下各项中的一个或多个:
所述第一用户的手势;
所述第一用户的语音命令;
所述对象和所述第一用户的行为之间的相关性;
所述第一用户的选择;或者
所述第一用户的输入。
14.根据权利要求1所述的方法,进一步包括:将所述虚拟内容重新定位到新位置,以避免干扰所述第一用户的视场。
15.根据权利要求1所述的方法,还包括将所述虚拟内容的大小调整为更小的尺寸,以避免干扰所述第一用户的视场,其中,显示被调整了大小的虚拟内容,作为与所述虚拟内容相关联的视觉锚点。
16.根据权利要求1所述的方法,其中,调整所述虚拟内容以具有所述第二不透明度包括:基于所述第一用户的第一聚散距离的变化,将所述虚拟内容从所述第一不透明度逐渐调整为所述第二不透明度。
17.根据权利要求1所述的方法,其中,调整所述虚拟内容以具有所述第二不透明度包括:以对应于所述第一用户的第一聚散距离的变化速度的速度,将所述虚拟内容从所述第一不透明度逐渐调整到所述第二不透明度。
18.根据权利要求1所述的方法,其中,使用眼睛跟踪系统或使用与第三方系统相关联的一个或多个相机,来确定所述第一用户的第一聚散距离。
19.一种或多种存储有软件的非暂时性计算机可读存储介质,所述软件在被服务器计算装置执行时能够操作为:
向第一用户显示虚拟内容,其中,所述虚拟内容具有第一不透明度;
确定所述第一用户的第一聚散距离;
比较所述第一用户的第一聚散距离与所述虚拟内容和所述第一用户之间的第一距离;并且
响应于确定所述第一用户的第一聚散距离比所述第一距离大第一阈值距离,调整所述虚拟内容以具有第二不透明度,所述第二不透明度具有比所述第一不透明度低的不透明度。
20.一种控制虚拟内容的系统,包括:
一个或多个存储有指令的非暂时性计算机可读存储介质;
一个或多个处理器,耦接到所述存储介质并且能够操作为执行所述指令以:
向第一用户显示虚拟内容,其中,所述虚拟内容具有第一不透明度;
确定所述第一用户的第一聚散距离;
比较所述第一用户的第一聚散距离与所述虚拟内容和所述第一用户之间的第一距离;并且
响应于确定所述第一用户的第一聚散距离比所述第一距离大第一阈值距离,调整虚拟内容以具有第二不透明度,所述第二不透明度具有比所述第一不透明度低的不透明度。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/132,194 US10679410B2 (en) | 2018-09-14 | 2018-09-14 | Display opacity control for preventing view occlusion in artificial reality |
US16/132,194 | 2018-09-14 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110908501A true CN110908501A (zh) | 2020-03-24 |
CN110908501B CN110908501B (zh) | 2024-05-24 |
Family
ID=69772985
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811611991.1A Active CN110908501B (zh) | 2018-09-14 | 2018-12-27 | 人工现实中防止视场遮挡的显示不透明度控制 |
Country Status (2)
Country | Link |
---|---|
US (1) | US10679410B2 (zh) |
CN (1) | CN110908501B (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108701415B (zh) * | 2016-02-25 | 2021-08-03 | 富士胶片株式会社 | 驾驶辅助装置、驾驶辅助方法及驾驶辅助程序 |
CN107977586B (zh) * | 2017-12-22 | 2021-04-13 | 联想(北京)有限公司 | 显示内容处理方法、第一电子设备以及第二电子设备 |
US11120593B2 (en) * | 2019-05-24 | 2021-09-14 | Rovi Guides, Inc. | Systems and methods for dynamic visual adjustments for a map overlay |
US11674818B2 (en) | 2019-06-20 | 2023-06-13 | Rovi Guides, Inc. | Systems and methods for dynamic transparency adjustments for a map overlay |
WO2022006162A1 (en) * | 2020-06-29 | 2022-01-06 | Snap Inc. | Analyzing augmented reality content usage data |
EP4207084A4 (en) * | 2020-08-25 | 2024-05-01 | Maxell Ltd | 3D VIRTUAL REALITY DISPLAY DEVICE, HEAD-MOUNTED DISPLAY AND 3D VIRTUAL REALITY DISPLAY METHOD |
CN115509361A (zh) * | 2022-10-12 | 2022-12-23 | 北京字跳网络技术有限公司 | 虚拟空间交互方法、装置、设备和介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170131764A1 (en) * | 2015-10-26 | 2017-05-11 | Pillantas Inc. | Systems and methods for eye vergence control |
US20170186232A1 (en) * | 2015-12-28 | 2017-06-29 | Facebook, Inc. | Using Three-Dimensional Virtual Object Models to Guide Users in Virtual Environments |
US20170353415A1 (en) * | 2016-06-03 | 2017-12-07 | Facebook, Inc. | Tracking Post Viewership |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9153195B2 (en) * | 2011-08-17 | 2015-10-06 | Microsoft Technology Licensing, Llc | Providing contextual personal information by a mixed reality device |
US20130328925A1 (en) * | 2012-06-12 | 2013-12-12 | Stephen G. Latta | Object focus in a mixed reality environment |
KR102516124B1 (ko) * | 2013-03-11 | 2023-03-29 | 매직 립, 인코포레이티드 | 증강 및 가상 현실을 위한 시스템 및 방법 |
US9726896B2 (en) * | 2016-04-21 | 2017-08-08 | Maximilian Ralph Peter von und zu Liechtenstein | Virtual monitor display technique for augmented reality environments |
-
2018
- 2018-09-14 US US16/132,194 patent/US10679410B2/en active Active
- 2018-12-27 CN CN201811611991.1A patent/CN110908501B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170131764A1 (en) * | 2015-10-26 | 2017-05-11 | Pillantas Inc. | Systems and methods for eye vergence control |
US20170186232A1 (en) * | 2015-12-28 | 2017-06-29 | Facebook, Inc. | Using Three-Dimensional Virtual Object Models to Guide Users in Virtual Environments |
US20170353415A1 (en) * | 2016-06-03 | 2017-12-07 | Facebook, Inc. | Tracking Post Viewership |
Also Published As
Publication number | Publication date |
---|---|
US20200090401A1 (en) | 2020-03-19 |
CN110908501B (zh) | 2024-05-24 |
US10679410B2 (en) | 2020-06-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110908501B (zh) | 人工现实中防止视场遮挡的显示不透明度控制 | |
US10921878B2 (en) | Virtual spaces, mixed reality spaces, and combined mixed reality spaces for improved interaction and collaboration | |
US11024074B2 (en) | Virtual spaces, mixed reality spaces, and combined mixed reality spaces for improved interaction and collaboration | |
US10699488B1 (en) | System and method for generating realistic augmented reality content | |
US11257170B2 (en) | Using three-dimensional virtual object models to guide users in virtual environments | |
US10636175B2 (en) | Dynamic mask application | |
US20200210137A1 (en) | Virtual spaces, mixed reality spaces, and combined mixed reality spaces for improved interaction and collaboration | |
CN111712848A (zh) | 在相机馈送中提供相应产品的数字模型 | |
US10783197B2 (en) | Systems and methods for providing diverse content | |
US11450006B2 (en) | Image segmentation with touch interaction | |
US11308698B2 (en) | Using deep learning to determine gaze | |
US20180189471A1 (en) | Visual CAPTCHA Based On Image Segmentation | |
US10157307B2 (en) | Accessibility system | |
EP4246963A1 (en) | Providing shared augmented reality environments within video calls | |
US20230109386A1 (en) | Using social connections to define graphical representations of users in an artificial reality setting | |
CN116997881A (zh) | 虚拟现实环境中的混合现实对象 | |
US10649614B2 (en) | Image segmentation in virtual reality environments | |
US10831286B1 (en) | Object tracking based on detected tracking patterns in a non-visible spectrum range | |
US20240037944A1 (en) | Computer-generated reality recorder | |
KR20220062661A (ko) | 제 3 자 시스템들로부터의 증강 현실 데이터의 효과적인 스트리밍 | |
KR20210096695A (ko) | 개선된 상호작용 및 컬래버레이션을 위한 가상 공간, 혼합 현실 공간 및 결합된 혼합 현실 공간 | |
US11172189B1 (en) | User detection for projection-based augmented reality system | |
US11196985B1 (en) | Surface adaptation for projection-based augmented reality system | |
US11006097B1 (en) | Modeling for projection-based augmented reality system | |
US11070792B1 (en) | Surface selection for projection-based augmented reality system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information | ||
CB02 | Change of applicant information |
Address after: California, USA Applicant after: Yuan Platform Technology Co.,Ltd. Address before: California, USA Applicant before: Facebook Technologies, LLC |
|
GR01 | Patent grant |