CN115705092A - 基于个体的相应位置生成和显示内容 - Google Patents

基于个体的相应位置生成和显示内容 Download PDF

Info

Publication number
CN115705092A
CN115705092A CN202210866981.2A CN202210866981A CN115705092A CN 115705092 A CN115705092 A CN 115705092A CN 202210866981 A CN202210866981 A CN 202210866981A CN 115705092 A CN115705092 A CN 115705092A
Authority
CN
China
Prior art keywords
display
rendering
individual
content data
characteristic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210866981.2A
Other languages
English (en)
Inventor
金承煜
A·B·韦尔戈瓦格纳
K·E·恰拉兹基
Z·D·科里
F·巴西姆德阿罗约埃希尔瓦
P·V·杜德列诺夫
E·伊斯坎德尔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Inc filed Critical Apple Inc
Publication of CN115705092A publication Critical patent/CN115705092A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/61Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor using advertising information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/373Details of the operation on graphic patterns for modifying the size of the graphic pattern
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/38Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • H04N13/279Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6218Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
    • G06F21/6245Protecting personal data, e.g. for financial or medical purposes
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0261Improving the quality of display appearance in the context of movement of objects on the screen or movement of the observer relative to the screen
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/305Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using lenticular lenses, e.g. arrangements of cylindrical lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/368Image reproducers using viewer tracking for two or more viewers

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Computing Systems (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

本公开总体上涉及基于个体的相应位置生成和显示内容。在一些实施方式中,在包括一个或多个处理器、非暂态存储器、渲染系统和显示器的电子设备处执行一种方法。该方法包括基于第一个体相对于该显示器的第一观看角度来确定第一渲染特性。该方法包括基于第二个体相对于该显示器的第二观看角度来确定第二渲染特性。该第一渲染特性不同于该第二渲染特性。该方法包括经由该渲染系统根据该第一渲染特性生成第一显示内容数据,以及经由该渲染系统根据该第二渲染特性生成第二显示内容数据。该第一显示内容数据与该第一观看角度相关联。该第二显示内容数据与该第二观看角度相关联。

Description

基于个体的相应位置生成和显示内容
技术领域
本公开涉及内容生成和显示,并且具体地涉及基于个体的位置生成和显示内容。
背景技术
设备可生成内容,并在显示器上显示该内容。在给定的时间点,所显示的内容可由多个个体观看。内容的生成和显示独立于多个个体的相应位置。因此,该设备利用相对高的渲染资源水平和显示资源水平,以便生成和显示内容。
发明内容
根据一些具体实施,在包括一个或多个处理器、非暂态存储器、渲染系统和显示器的电子设备处执行一种方法。该方法包括基于第一个体相对于该显示器的第一观看角度来确定第一渲染特性。该方法包括基于第二个体相对于该显示器的第二观看角度来确定第二渲染特性。该第一渲染特性不同于该第二渲染特性。该方法包括经由该渲染系统根据该第一渲染特性生成第一显示内容数据,以及经由该渲染系统根据该第二渲染特性生成第二显示内容数据。该第一显示内容数据与该第一观看角度相关联。该第二显示内容数据与该第二观看角度相关联。
根据一些具体实施,在包括一个或多个处理器、非暂态存储器和显示器的电子设备处执行一种方法。该方法包括获得与第一个体相关联的第一显示内容数据,以及获得与第二个体相关联的第二显示内容数据。该方法包括基于第一个体相对于显示器的第一观看角度来确定第一显示操作参数。该方法包括基于第二个体相对于显示器的第二观看角度来确定第二显示操作参数。第一显示操作参数不同于第二显示操作参数。该方法包括根据第一显示操作参数在显示器上显示第一显示内容数据,以及根据第二显示操作参数在显示器上显示第二显示内容数据。
根据一些具体实施,一种电子设备包括一个或多个处理器、非暂态存储器和显示器。一个或多个程序被存储在非暂态存储器中并且被配置为由一个或多个处理器执行,并且一个或多个程序包括用于执行或导致执行本文所述的方法中的任一种方法的操作的指令。根据一些具体实施,一种非暂态计算机可读存储介质中存储有指令,当由电子设备的一个或多个处理器执行时,这些指令使得该设备执行或导致执行本文所述方法中的任一种方法的操作。根据一些具体实施,一种电子设备包括用于执行或导致执行本文所述的方法中的任一种方法的操作的装置。根据一些具体实施,一种用于在电子设备中使用的信息处理装置包括用于执行或导致执行本文所述方法中的任一种方法的操作的装置。
附图说明
为了更好地理解各种所述具体实施,应结合以下附图参考下面的具体实施方式,其中类似的附图标号在所有附图中指示对应的部分。
图1是根据一些具体实施的便携式多功能设备的示例的框图。
图2A-图2P是根据一些具体实施的基于个体的相应位置来显示各种显示内容数据的示例。
图3是根据一些具体实施的基于渲染特性生成显示内容数据的第一系统的示例。
图4是根据一些具体实施的基于显示操作参数来控制显示器的第二系统的示例。
图5是根据一些具体实施的基于个体相对于显示器的相应位置来生成显示内容数据的方法的流程图的示例。
图6是根据一些具体实施的基于个体相对于显示器的相应位置来控制显示器的方法的流程图的示例。
具体实施方式
在一些情况下,设备的显示器提供包括多个个体的可观看区域。因此,多个个体可同时观看显示器。例如,两个个体相对于显示器定位,使得两个个体可同时观看显示器上显示的内容。此外,包括双凸透镜的显示器可基于特定个体与显示器之间的对应观看角度来向不同个体显示不同的内容。然而,该设备不基于多个个体的相应位置来生成或显示内容。因此,该设备结合内容的生成和显示利用相对高的渲染和显示资源。
相比之下,本文所公开的各种具体实施包括基于个体相对于显示器的相应位置来生成显示内容数据和/或控制显示内容数据的显示的方法、系统和电子设备。例如,第一个体位于距显示器第一深度处,并且第二个体位于距显示器第二深度处,该第二深度大于第一深度。因此,电子设备可为第一个体生成比第二个体更高分辨率的显示内容数据,因为第一个体更靠近显示器,并且因此更适于欣赏更高分辨率的显示内容数据。通过改变所生成的显示内容数据的分辨率,电子设备减少资源利用率(例如,减少图形处理单元(GPU)处理利用率和存储器利用率)。
作为另一示例,第一个体相对于显示器位于第一观看角度处,并且第二个体相对于显示器位于第二观看角度处,该第二观看角度大于第一观看角度。例如,第一个体相对于显示器水平居中(例如,约零度观看角度),而第二个体位于显示器的左边缘附近(例如,40度观看角度)。因此,电子设备以比针对第二个体的第二显示内容数据更高的显示帧速率或更高的亮度水平来显示针对第一个体的第一显示内容数据。通过改变显示帧速率或亮度水平,电子设备减少显示资源利用率(例如,减少显示器的功率消耗)。
具体实施方式
现在将详细地参考具体实施,这些具体实施的实施例在附图中示出。下面的详细描述中示出许多具体细节,以便提供对各种所描述的具体实施的充分理解。但是,对本领域的普通技术人员将显而易见的是,各种所描述的具体实施可以在没有这些具体细节的情况下被实践。在其他情况下,没有详细地描述众所周知的方法、过程、部件、电路和网络,从而不会不必要地使具体实施的各个方面晦涩难懂。
还将理解的是,虽然在一些情况下,术语“第一”、“第二”等在本文中用于描述各种元件,但是这些元件不应受到这些术语限制。这些术语只是用于将一个元件与另一元件区分开。例如,第一接触可被命名为第二接触,并且类似地,第二接触可被命名为第一接触,而不脱离各种所描述的具体实施的范围。第一接触和第二接触均为接触,但它们不是同一个接触,除非上下文另外明确指示。
在本文中对各种所述具体实施的描述中所使用的术语只是为了描述特定具体实施的目的,而并非旨在进行限制。如在对各种所述具体实施的描述中和所附权利要求书中所使用的那样,单数形式“一”、“一个”和“该”旨在也包括复数形式,除非上下文另外明确地指示。还将理解的是,本文中所使用的术语“和/或”是指并且涵盖相关联的所列出的项目中的一个或多个项目的任何和全部可能的组合。还将理解的是,术语“包括”(“includes”、“including”、“comprises”和/或“comprising”)在本说明书中使用时是指定存在所陈述的特征、整数、步骤、操作、元件和/或部件,但是并不排除存在或添加一个或多个其他特征、整数、步骤、操作、元件、部件和/或其分组。
如本文中所使用,根据上下文,术语“如果”任选地被解释为意指“当……时”或“在……时”或“响应于确定”或“响应于检测到”。类似地,根据上下文,短语“如果确定……”或“如果检测到[所陈述的条件或事件]”任选地被解释为意指“在确定……时”或“响应于确定……”或“在检测到[所陈述的条件或事件]时”或“响应于检测到[所陈述的条件或事件]”。
物理环境是指人们在没有电子设备帮助的情况下能够对其感测和/或与其交互的物理世界。物理环境可包括物理特征,诸如物理表面或物理对象。例如,物理环境对应于包括物理树木、物理建筑物和物理人的物理公园。人们能够诸如通过视觉、触觉、听觉、味觉和嗅觉来直接感测物理环境和/或与物理环境交互。相反,扩展现实(XR)环境是指人们经由电子设备感测和/或交互的完全或部分模拟的环境。例如,XR环境可包括增强现实(AR)内容、混合现实(MR)内容、虚拟现实(VR)内容等。在XR系统的情况下,跟踪人的物理运动的一个子集或其表示,并且作为响应,以符合至少一个物理定律的方式调节在XR系统中模拟的一个或多个虚拟对象的一个或多个特征。例如,XR系统可以检测头部移动,并且作为响应,以与此类视图和声音在物理环境中变化的方式类似的方式调节呈现给人的图形内容和声场。作为另一示例,XR系统可以检测呈现XR环境的电子设备(例如,移动电话、平板电脑、膝上型电脑等)的移动,并且作为响应,以类似于此类视图和声音在物理环境中将如何改变的方式调节呈现给人的图形内容和声场。在一些情况下(例如,出于可达性原因),XR系统可响应于物理运动的表示(例如,声音命令)来调节XR环境中图形内容的特征。
有许多不同类型的电子系统使人能够感测和/或与各种XR环境交互。示例包括头戴式系统、基于投影的系统、平视显示器(HUD)、集成有显示能力的车辆挡风玻璃、集成有显示能力的窗户、被形成为设计用于放置在人的眼睛上的透镜的显示器(例如,类似于隐形眼镜)、耳机/听筒、扬声器阵列、输入系统(例如,具有或不具有触觉反馈的可穿戴或手持式控制器)、智能电话、平板电脑、以及台式/膝上型计算机。头戴式系统可具有集成不透明显示器和一个或多个扬声器。另选地,头戴式系统可被配置为接受外部不透明显示器(例如,智能电话)。头戴式系统可结合用于捕获物理环境的图像或视频的一个或多个成像传感器、和/或用于捕获物理环境的音频的一个或多个麦克风。头戴式系统可具有透明或半透明显示器,而不是不透明显示器。透明或半透明显示器可以具有媒介,代表图像的光通过该媒介被引导到人的眼睛。显示器可以利用数字光投影、OLED、LED、uLED、硅基液晶、激光扫描光源或这些技术的任意组合。媒介可以是光学波导、全息图媒介、光学组合器、光学反射器、或它们的任意组合。在一些具体实施中,透明或半透明显示器可被配置为选择性地变得不透明。基于投影的系统可以采用将图形图像投影到人的视网膜上的视网膜投影技术。投影系统也可以被配置为将虚拟对象投影到物理环境中,例如作为全息图或在物理表面上。
图1是根据一些具体实施的便携式多功能设备100(为了简洁起见,在本文中有时也称为“电子设备100”)的示例的框图。电子设备100包括存储器102(例如,一个或多个非暂态计算机可读存储介质)、存储器控制器122、一个或多个处理单元(CPU)120、外围设备接口118、输入/输出(I/O)子系统106、显示系统112、惯性测量单元(IMU)130、图像传感器143(例如,相机)、接触强度传感器165、音频传感器113(例如麦克风)、眼睛跟踪传感器164、肢体跟踪传感器150以及其他输入或控制设备116。在一些具体实施中,电子设备100对应于移动电话、平板电脑、膝上型电脑、可穿戴计算设备等中的一者。
在一些具体实施中,外围设备接口118、一个或多个处理单元120和存储器控制器122任选地在单个芯片诸如芯片103上实现。在一些其他具体实施中,它们任选地在独立的芯片上实现。
I/O子系统106将电子设备100上的输入/输出外围设备诸如显示系统112和其他输入或控制设备116与外围设备接口118耦接。I/O子系统106任选地包括显示控制器156、图像传感器控制器158、强度传感器控制器159、音频控制器157、眼睛跟踪控制器160、用于其他输入或控制设备的一个或多个输入控制器152、IMU控制器132、肢体跟踪控制器180和隐私子系统170。一个或多个输入控制器152从其他输入或控制设备116接收电信号/将电信号发送到该其他输入或控制设备。其他输入控制设备116任选地包括物理按钮(例如,下压按钮、摇臂按钮等)、拨号盘、滑动开关、操纵杆、点击轮等。在一些另选的具体实施中,一个或多个输入控制器152任选地与以下各项中的任一者耦接(或不与以下各项中的任一者耦接):键盘、红外线端口、通用串行总线(USB)端口、触笔、手指可穿戴设备和/或指针设备诸如鼠标。一个或多个按钮任选地包括下压按钮。在一些具体实施中,其他输入或控制设备116包括获得关于电子设备100相对于特定对象的位置和/或定向的信息的定位系统(例如,GPS)。在一些具体实施中,其他输入或控制设备116包括获得表征物理环境内的物理对象的深度信息的深度传感器和/或飞行时间传感器。在一些具体实施中,其他输入或控制设备116包括环境光传感器,其感测来自物理环境的环境光并输出对应的环境光数据。
显示系统112提供电子设备100与用户之间的输入接口和输出接口。显示控制器156从显示系统112接收电信号和/或将电信号发送至该显示系统。显示系统112向用户显示视觉输出。视觉输出任选地包括图形、文本、图标、视频以及其任何组合(在本文中有时称为“计算机生成的内容”)。在一些具体实施中,一些视觉输出或全部视觉输出对应于用户界面对象。如本文所用,术语“示能表示”是指用户交互式图形用户界面对象(例如,被配置为对被引向图形用户界面对象的输入进行响应的图形用户界面对象)。用户交互式图形用户界面对象的示例包括但不限于按钮、滑块、图标、可选择菜单项、开关、超链接或其他用户界面控件。
显示系统112可具有基于触觉和/或触感接触来接受来自用户的输入的触敏表面、传感器、或传感器组。显示器系统112和显示控制器156(与存储器102中的任何相关联的模块和/或指令集一起)检测显示器系统112上的接触(和该接触的任何移动或中断),并且将检测到的接触转换为与被显示在显示器系统112上的用户界面对象(例如,一个或多个软按键、图标、网页或图像)的交互。在示例性具体实施中,显示系统112和用户之间的接触点对应于用户的手指或手指可穿戴设备。
显示系统112任选地使用LCD(液晶显示器)技术、LPD(发光聚合物显示器)技术或LED(发光二极管)技术,但是在其他具体实施中使用其他显示技术。显示器系统112和显示控制器156任选地使用现在已知的或以后将开发出的多种触摸感测技术中的任何技术以及其他接近传感器阵列或用于确定与显示器系统112接触的一个或多个点的其他元件来检测接触及其任何移动或中断,该多种触摸感测技术包括但不限于电容性技术、电阻性技术、红外线技术和表面声波技术。
用户任选地使用任何合适的物体或附加物诸如触笔、手指可穿戴设备、手指等来与显示系统112接触。在一些具体实施中,将用户界面设计成与基于手指的接触和手势一起工作,由于手指在触摸屏上的接触区域较大,因此这可能不如基于触笔的输入精确。在一些具体实施中,电子设备100将基于手指的粗略输入转化为精确的指针/光标位置或命令以用于执行用户所期望的动作。
音频电路还接收由音频传感器113(例如,麦克风)从声波转换的电信号。音频电路将电信号转换为音频数据,并且将音频数据传输到外围设备接口118以用于处理。音频数据任选地由外围设备接口118检索自和/或传输到存储器102和/或RF电路。在一些具体实施中,音频电路还包括耳麦插孔。该耳麦插孔提供音频电路与可移除的音频输入/输出外围设备之间的接口,该可移除的音频输入/输出外围设备为诸如仅输出的耳机或者具有输出(例如,单耳耳机或双耳耳机)和输入(例如,麦克风)两者的耳麦。
惯性测量单元(IMU)130包括加速度计、陀螺仪和/或磁力仪,以便测量相对于电子设备100的各种力、角速率和/或磁场信息。因此,根据各种具体实施,IMU 130检测电子设备100的一个或多个位置改变输入,诸如电子设备100被摇动、旋转、沿特定方向移动等。
图像传感器143捕获静态图像和/或视频。在一些具体实施中,光学传感器143位于电子设备100的背面上,与电子设备100正面上的触摸屏相背对,使得触摸屏能够用作用于静态图像和/或视频图像采集的取景器。在一些具体实施中,另一图像传感器143位于电子设备100的正面上,使得获取该用户的图像(例如,用于自拍、用于当用户在触摸屏上观看其他视频会议参与者时进行视频会议等等)。例如,图像传感器143输出表示物理环境内的物理个体的图像数据。
接触强度传感器165检测电子设备100上的接触的强度(例如,电子设备100的触敏表面上的触摸输入)。接触强度传感器165与I/O子系统106中的强度传感器控制器159耦接。接触强度传感器165任选地包括一个或多个压阻应变仪、电容式力传感器、电气力传感器、压电力传感器、光学力传感器、电容式触敏表面或其他强度传感器(例如,用于测量触敏表面上的接触的力(或压力)的传感器)。接触强度传感器165从物理环境接收接触强度信息(例如,压力信息或压力信息的代用物)。在一些具体实施中,至少一个接触强度传感器165与电子设备100的触敏表面并置排列或邻近。在一些具体实施中,至少一个接触强度传感器165位于电子设备100的侧面上。
眼睛跟踪传感器164检测电子设备100的用户的眼睛注视,并且生成指示用户的注视位置的眼睛跟踪数据。在各种具体实施中,眼睛跟踪数据包括指示用户在显示面板上的固定点(例如,注视点)的数据。
肢体跟踪传感器150获取指示用户的肢体位置的肢体跟踪数据。例如,在一些具体实施中,肢体跟踪传感器150对应于获得指示特定对象内用户的手或手指的位置的手部跟踪数据的手部跟踪传感器。在一些具体实施中,肢体跟踪传感器150利用计算机视觉技术以基于相机图像来估计肢体的姿态。
在各种具体实施中,电子设备100包括隐私子系统170,该隐私子系统包括与用户信息相关联的一个或多个隐私设置滤波器,诸如包括在与用户相关联的肢体跟踪数据、眼睛注视数据和/或身体位置数据中的用户信息。在一些具体实施中,隐私子系统170选择性地防止和/或限制电子设备100或其部分获取和/或传输用户信息。为此,隐私子系统170响应于提示用户进行用户偏好和/或选择来从用户接收用户偏好和/或选择。在一些具体实施中,隐私子系统170防止电子设备100获取和/或传输用户信息,除非并且直到隐私子系统170从用户获取到知情同意。在一些具体实施中,隐私子系统170匿名化(例如,加扰或模糊)某些类型的用户信息。例如,隐私子系统170接收指定隐私子系统170匿名化哪些类型的用户信息的用户输入。作为另一示例,隐私子系统170独立于用户指定(例如,自动地)匿名化可能包括敏感和/或识别信息的某些类型的用户信息。
图2A-图2P是根据一些具体实施的基于个体的相应位置来显示各种显示内容数据的示例。如图2A所示,物理环境200包括墙壁202、第一个体220、第二个体230和握持电子设备210的用户50。在一些具体实施中,电子设备210对应于移动设备,诸如智能电话、智能手表、平板电脑、膝上型电脑等。
电子设备210包括与物理环境200的可观看区域214相关联的显示器212。可观看区域214包括墙壁202的一部分、第一个体220和第二个体230。因此,第一个体220和第二个体230可观看显示器212上显示的内容。在一些具体实施中,电子设备210包括多个显示器,诸如显示器212和另一显示器。例如,显示器212面向外部(例如,面向第一个体220和第二个体230),而另一显示器面向用户50,并且因此可由用户50观看。
在一些具体实施中,显示器212对应于透镜状显示器,诸如当双凸透镜布置在显示器212之上(例如接触其表面)时。双凸透镜可包括放大元件阵列。每个放大元件可基于个体相对于显示器212的对应观看角度来放大不同的显示内容数据。例如,第一放大元件放大在显示器212上显示的第一显示内容数据,其中放大的第一显示内容数据可由第一个体220观看,但不可由第二个体230观看。作为另一示例,第二放大元件放大在显示器212上显示的第二显示内容数据,其中放大的第二显示内容数据可由第二个体230观看,但不可由第一个体220观看。双凸透镜可被配置为使得能够立体观看显示器212,使得个体感知三维(3D)图像。在一些具体实施中,多个双凸透镜放置在显示器212之上。例如,多个双凸透镜中的每个双凸透镜覆盖显示器212的像素的相应部分。
在一些具体实施中,电子设备210包括一个或多个环境传感器。每个环境传感器输出与物理环境200相关联的环境数据。例如,环境传感器包括捕获物理环境200的一部分并输出表示物理环境200的该部分的图像数据的图像传感器。如下所述,电子设备210可基于环境数据确定第一个体220和第二个体230的相应位置。
电子设备210获得或确定相对于第一个体220和第二个体230的各种位置信息。该位置信息表征第一个体220和第二个体230相对于显示器212的相应位置。在一些具体实施中,电子设备210基于环境数据确定位置信息。例如,电子设备210相对于图像数据执行计算机视觉技术(例如,语义分割),以便确定第一个体220的第一位置并确定第二个体230的第二位置。
如图2B所示,电子设备210确定对应于第一个体220的眼睛的第一眼睛位置222,并且确定对应于第二个体230的眼睛的第二眼睛位置232。例如,电子设备210相对于图像数据执行语义分割,以便获得第一个体220的“眼睛”的语义标签,并且获得第二个体230的“眼睛”的语义标签。本领域普通技术人员将理解,电子设备210可跟踪个体的任何部分,以便确定如何显示对应的显示内容数据。此外,第一眼睛位置222与相对于显示器212的第一视线(LOS)224相关联,并且第二眼睛位置232与相对于显示器212的第二LOS 234相关联。
如图2B中进一步示出的,电子设备210基于第一眼睛位置222确定与第一个体220相关联的第一观看角度θ1,并且基于第二眼睛位置232确定与第二个体230相关联的第二观看角度θ2。第一观看角度θ1对应于第一眼睛位置222与第一参考线216之间的角度。第一参考线216相对于显示器212是垂直的,朝向壁202延伸穿过显示器212。第二观看角度θ2对应于第二眼睛位置232与第一参考线216之间的角度。例如,第一观看角度θ1和第二观看角度θ2中的每一者指示从可观看区域214的中心的相应水平偏移。因此,位于可观看区域214的中心处(例如,与第一参考线216相交)的个体与约零度的观看角度相关联。另一方面,位于可观看区域214的边缘附近的个体与较大的观看角度(例如,40度)相关联。在一些具体实施中,电子设备210通过相对于来自捕获物理环境200的图像传感器的图像数据执行计算机视觉技术(例如,语义分割)来确定第一观看角度θ1和第二观看角度θ2。例如,靠近图像中心表示的第一个体与比远离图像中心表示的第二个体更小的观看角度相关联。
在一些具体实施中,如图2B中进一步示出的,电子设备210确定与第一个体220相关联的相对于显示器212的第一深度226,并且确定与第二个体230相关联的相对于显示器212的第二深度236。第一深度226对应于第一眼睛位置222与第二参考线218之间的距离。第二参考线218平行于显示器212(例如,沿显示器212的表面延伸)。第二深度236对应于第二眼睛位置232与第二参考线218之间的距离。如图2B所示,第一深度226大于第二深度236,因为第一个体220距显示器212比第二个体230距显示器212远(并且更靠近壁202)。在一些具体实施中,电子设备210包括输出指示第一深度226和第二深度236的深度数据的深度传感器。在一些具体实施中,电子设备210基于深度数据的组合来确定第一深度226和第二深度236,并且相对于来自图像传感器的图像数据执行计算机视觉。
根据各种具体实施,基于各种位置信息(例如,相应的观看角度和相应的深度),电子设备210生成并控制不同显示内容数据在显示器212上的显示。
例如,在一些具体实施中,电子设备210经由渲染系统基于渲染特性生成不同的显示内容数据。特定的渲染特性可指示渲染系统的输出的图像质量水平。作为一个示例,渲染系统针对与较小深度或较小观看角度相关联的个体生成较高分辨率的显示内容数据。作为另一示例,渲染系统针对与较大深度或较大观看角度相关联的个体以较低渲染频率(例如,图形处理单元(GPU)每秒生成较少的图像帧)生成显示内容数据。参考图3描述了相对于确定和利用渲染特性的进一步细节。
作为另一示例,在一些具体实施中,电子设备210基于显示操作参数来控制显示内容数据的显示。特定显示操作参数可指示与显示器上显示内容数据的显示相关联的显示质量或性能。例如,在一些具体实施中,电子设备210包括显示控制器,其设置与显示器的像素相关联的像素照度(例如,亮度)水平,或者设置与显示器相关联的显示帧速率。作为一个示例,显示控制器将显示器212的像素子集设置为特定照明水平,其中像素子集与特定个体相关联(例如,可由特定个体观看)。继续该示例,特定照明水平可与和特定个体相关联的深度或观看角度成反比。作为另一示例,显示内容数据与特定个体相关联(例如,可由特定个体观看),并且显示内容数据包括多个图像。继续该示例,显示控制器指示显示器212以特定显示速率(例如,每秒帧数(FPS))显示多个图像,该特定显示速率可与和特定个体相关联的深度或观看角度成反比。参考图4描述了相对于确定和利用显示操作参数的进一步细节。
如图2C所示,电子设备210在显示器212上显示对应于足球的第一显示内容数据242和对应于篮球的第二显示内容数据240。第一显示内容数据242与第一观看角度θ1相关联,并且第二显示内容数据240与第二观看角度θ2相关联。因此,第一显示内容数据242可由第一个体220经由第一LOS 224观看,并且第二显示内容数据240可由第二个体230经由第二LOS 234观看。在一些具体实施中,诸如当显示器212包括双凸透镜时,第一显示内容数据242可由第一个体220观看但不可由第二个体230观看,而第二内容数据240可由第二个体230观看但不可由第一个体220观看。值得注意的是,如图2C所示,显示器212包括比所显示的篮球具有更低质量(例如,更低分辨率)的足球。即,第一显示内容数据242包括与足球的五边形的轮廓相对应的像素,但不包括五边形内的像素。另一方面,第二显示内容数据240包括与整个篮球(包括轮廓和内部部分)相对应的像素。通过显示较低分辨率的足球,电子设备210减少了处理(例如,渲染)和/或显示资源的利用率。
在一些具体实施中,电子设备210经由渲染系统分别基于第一渲染特性和第二渲染特性来生成第一显示内容数据242和第二显示内容数据240。例如,电子设备210基于第一观看角度θ1和第一深度226确定第一渲染特性,并且基于第二观看角度θ2和第二深度236确定第二渲染特性。因为第一深度226大于第二深度236,并且因为第一观看角度θ1类似于第二观看角度θ2,所以电子设备210确定第一渲染特性指示比第二渲染特性所指示的图像质量低的图像质量。例如,第二个体230比第一个体220更靠近显示器212,因此相对高的图像质量相对于第二显示内容数据240(与第二个体230相关联)比对于第一显示内容数据242(与第一个体220相关联)更有价值。较低分辨率的足球与电子设备210利用较少处理资源(例如,GPU资源)和/或显示资源相关联。
在一些具体实施中,除了或代替经由渲染系统改变图像质量,电子设备210经由显示控制器和显示操作参数来控制显示质量。例如,基于第一个体220和第二个体230的相应深度和观看角度,电子设备210确定第一显示操作参数(与第一个体220相关联),并确定第二显示操作参数(与第二个体230相关联)。例如,因为第一深度226大于第二深度236,所以电子设备210确定第一显示操作参数指示比第二显示操作参数所指示的显示质量低的显示质量。因此,基于第一显示操作参数和第二显示操作参数,显示控制器针对篮球的像素设置比针对足球的像素更高的照度水平(例如,亮度水平)。更亮的内容可被更靠近显示器212(相对于其更低的深度)的个体更好地欣赏。
如图2D所示,第一个体220移动得更靠近显示器212,如第一移动线244所指示的。因此,如图2E所示,在完成移动之后,第一个体220相对于显示器212处于第二观看角度θ2,并且相对于显示器212处于第二深度236。基于该移动,第一个体220的第一眼睛位置222与相对于显示器212的第三LOS 246相关联。因为第一个体220已移动得更靠近显示器212,所以第一个体220更适合于欣赏更高质量的显示内容数据。因此,电子设备210用较高分辨率的第三显示内容数据248替换第一显示内容数据242的显示,如图2F所示。即,除了包括与足球的五边形的轮廓相对应的像素之外,第三显示内容数据248还包括与五边形的内部部分相对应的像素(黑色阴影)。
如图2G所示,第二个体230开始向右移动到物理环境200的在可观看区域214之外的部分,如第二移动线250所指示的。因此,如图2H所示,在移动期间,电子设备210跟踪第二个体230的第二眼睛位置232,并且因此确定大于第二观看角度θ2的第三观看角度θ3。第三观看角度θ3与相对于显示器212的第四LOS 252相关联。因为第三观看角度θ3大于第二观看角度θ2,所以电子设备210降低了篮球的分辨率。即,如图2I所示,电子设备210在显示器212上显示与篮球的轮廓像素相对应但不包括篮球的内部像素的第四显示内容数据254。因此,与第二显示内容数据240相比,第四显示内容数据254对应于篮球的较低分辨率版本。较低分辨率的篮球与电子设备210减少处理(例如,生成篮球)和/或显示资源的利用率相关联。
如图2J所示,第二个体230在物理环境200内进一步向右移动。因此,电子设备210确定大于第三观看角度θ3的第四观看角度θ4。第四观看角度θ4与相对于显示器212的第五LOS 256相关联。因为第四观看角度θ4大于第三观看角度θ3,所以电子设备210进一步降低了篮球的分辨率。即,如图2K所示,电子设备210在显示器212上显示与篮球的轮廓像素的子集相对应的第五显示内容数据258。篮球的轮廓像素的子集由篮球的虚线轮廓指示,与第四显示内容数据254的实线轮廓形成对比。因此,与第四显示内容数据254相比,第五显示内容数据258对应于篮球的较低分辨率版本。较低分辨率的篮球与电子设备210减少处理(例如,生成篮球)和/或显示资源的利用率相关联。
如图2L所示,第二个体230完成向右移动并位于可观看区域214之外。在一些具体实施中,电子设备210可确定第二个体230的第二眼睛位置232不再位于可观看区域214内。例如,电子设备210相对于与大致可观看区域214相关联的图像数据执行语义分割,并且确定图像数据不再包括第二个体230的第二眼睛位置232的表示。因此,电子设备210可停止生成与篮球相对应的显示内容数据(例如,分别为第二显示内容数据240、第四显示内容数据254和第五显示内容数据258),如图2M所示。因此,电子设备210通过不生成和/或驱动与篮球相对应的显示内容数据的显示而进一步减少资源利用率。
如图2N所示,第二个体230移动到可观看区域214内的不同位置,如第三移动线260所指示的。因此,基于该移动,电子设备210确定第二个体230位于大于第二深度236的第三深度262,如图2O所示。此外,电子设备210确定第二个体230与第二观看角度θ2相关联,该第二观察角也与第一个体220相关联。换句话讲,第二个体230在物理环境200内直接在第一个体220后面。另外,基于该移动,第二个体230的第二眼睛位置232与相对于显示器212的第六LOS 264相关联。基于确定第一个体220和第二个体230与相同的第二观看角度θ2相关联,电子设备210保持第三显示内容数据248(足球)的显示,如图2P所示。第三显示内容数据248可由第一个体220经由第三LOS 246观看,并且可由第二个体230经由第六LOS 264观看。在这种情况下通过预先生成和显示篮球,电子设备210节省了处理和显示资源。
图3是根据一些具体实施的基于渲染特性生成显示内容数据的第一系统300的示例。根据各种具体实施,第一系统300或其部分被集成在电子设备中,诸如参考图2A-图2P描述的电子设备210。
在一些具体实施中,第一系统300包括感测物理环境302(例如,图2A-图2P的物理环境200)的各种特征的一个或多个环境传感器310。环境传感器310中的每个环境传感器输出环境数据318的对应部分。例如,环境数据318包括来自图像传感器312的图像数据、来自深度传感器314的深度数据和来自环境光传感器316的环境光数据的组合。
根据各种具体实施,第一系统300包括跟踪器320。跟踪器320基于环境数据318确定分别表征位于物理环境302内的多个个体的多个位置值322(本文有时称为“位置信息”)。例如,多个位置值322包括观看角度和/或深度的组合,诸如参考图2A-图2P所描述的。第一系统300可任选地借助于神经网络来执行计算机视觉技术,以便确定多个位置值322。在一些具体实施中,跟踪器320利用来自位置传感器330的位置传感器数据332,以便确定多个位置值322。位置传感器数据332可指示第一系统300的位置变化。例如,位置传感器330包括输出表征第一系统300的移动的各种位置数据和取向数据的IMU。
在一些具体实施中,第一系统300包括参与度得分生成器350。参与度得分生成器350基于多个位置值322确定分别与多个个体相关联的多个参与度得分358。多个参与度得分358中的一个特定参与度得分表征对应个体与显示器212之间的参与度水平。例如,在一些具体实施中,参与度得分生成器350包括确定对应个体的眼睛的特性的眼睛跟踪器352。眼睛的特性可指示眼睛是张开的还是闭合的(例如,对于张开的眼睛为较高参与度得分)、眼睛的凝视(例如,当眼睛的凝视朝向显示器212时为较高参与度得分)等。作为另一示例,在一些具体实施中,参与度得分生成器350包括确定与个体相关联的移动特性的移动跟踪器354。特定移动特性可指示移动的方向(例如,对于朝向显示器212的移动为较高参与度得分)、手势类型(例如,对于在显示器212处的挥动为较高参与度得分)等。作为又一示例,在一些具体实施中,参与度得分生成器350包括确定与个体相关联的姿势特性的姿势跟踪器356。特定姿势特性可指示个体的头部或身体是面向显示器212(较高参与度得分)还是远离显示器212(较低参与度得分)。
第一系统300包括渲染特性生成器340,其分别基于多个位置值322来确定多个渲染特性346。在一些具体实施中,多个渲染特性346指示分别与多个观看角度相关联的多个分辨率值。为此,在一些具体实施中,渲染特性生成器340包括确定多个分辨率值的分辨率选择器342。例如,当位置值322中的特定一个位置值指示相对高的深度或相对高的观看角度时,分辨率选择器342确定相对低的分辨率值。作为一个示例,参考图2A-图2C,分辨率选择器342基于第一观看角度θ1和第一深度226的组合来确定与第一个体220相关联的第一分辨率值,并且基于第二观看角度θ2和第二深度236的组合来确定与第二个体230相关联的第二分辨率值。第一分辨率值低于第二分辨率值,因为第一深度226大于第二深度236。因此,返回参考图3,渲染系统349(例如,GPU)生成显示内容数据360的第一部分(与第一观看角度θ1相关联),其具有比显示内容数据360的第二部分(与第二观看角度θ2相关联)更低的分辨率。例如,渲染系统349渲染第一对象和第二对象(例如,从对象数据存储348检索),以便分别生成显示内容数据360的第一部分和第二部分。在一些具体实施中,第一系统300向显示器212发送显示内容数据360的第一部分和第二部分,诸如图2C所示。
在一些具体实施中,多个渲染特性346指示分别与多个个体相关联的多个渲染频率。为此,第一系统300可包括确定多个渲染频率的频率选择器344。渲染系统349可以多个渲染频率中的对应一个渲染频率来生成显示内容数据360的对应部分。例如,参考图2J和图2K,频率选择器344确定与第一个体220相关联的第一渲染频率,并且确定与第二个体230相关联的第二渲染频率。因为与第一个体220相关联的第二观看角度θ2小于与第二个体230相关联的第四观看角度θ4,所以第一渲染频率高于第二渲染频率。因此,返回参考图3,渲染系统349以比与生成显示内容数据360的第二部分(与第四观看角度θ4相关联)相关联的速率更高的速率(例如,每秒生成更多的图像帧)生成显示内容数据360的第一部分(与第二观看角度θ2相关联)。
在一些具体实施中,渲染特性生成器340还基于多个参与度得分358来确定多个渲染特性346。例如,参考图2G-图2M,参与度得分生成器350基于所确定的移动特性来确定与第二个体230相关联的降低的参与度得分。即,当第二个体230向右移动时,参与度得分生成器350识别出第二个体230与显示器212之间的观看角度增大,并相应地降低参与度得分。基于降低的参与度得分,渲染特性生成器340减小与第二个体230相关联的渲染特性。因此,当第二个体230跨物理环境200移动时,渲染系统349基于减小的渲染特性来生成具有降低的分辨率和/或降低的渲染频率的对应内容显示数据(可由第二个体230观看)。
图4是根据一些具体实施的基于显示操作参数来控制显示器212的第二系统400的示例。根据各种具体实施,第二系统400或其部分被集成在电子设备中,诸如参考图2A-图2P描述的电子设备210。在一些具体实施中,第二系统400包括第一系统300的各种部件。
第二系统400包括显示操作参数生成器410,其至少部分地基于多个位置值322来确定多个显示操作参数416。多个显示操作参数416中的每个显示操作参数与对应的个体相关联。此外,多个显示操作参数416中的每个显示操作参数可指示与显示器212上显示的显示内容数据420的对应部分相关联的显示质量。在一些具体实施中,多个显示操作参数416中的特定一个显示操作参数相对于多个位置值322中的对应一个位置值具有相反关系。
基于多个显示操作参数416,显示控制器430控制(例如,驱动)显示内容数据420的对应部分在显示器212上的显示。在一些具体实施中,显示内容数据420是从基于多个渲染特性生成显示内容数据420的渲染系统(诸如参考图3描述的渲染系统349)接收的。在一些具体实施中,独立于渲染特性来生成显示内容数据420。
在一些具体实施中,多个显示操作参数416中的特定一个显示操作参数指示与显示内容数据420的对应部分相关联的像素照度水平。为此,在一些具体实施中,显示操作参数生成器410包括照度水平选择器412,其基于多个位置值322来确定各种像素照度水平。例如,参考图2B,照度水平选择器412确定与显示内容数据420的第一部分(可由第一个体220观看)相关联的第一像素照度水平,并且确定与显示内容数据420的第二部分(可由第二个体230观看)相关联的第二像素照度水平。继续该示例,因为第一深度226大于第二深度236,所以第一像素照度水平小于第二像素照度水平。因此,显示控制器430驱动显示器212的像素以比显示显示内容数据420的第二部分更暗地(例如,亮度更低)显示显示内容数据420的第一部分。第二个体230可更好地欣赏更亮的显示,因为第二个体230更靠近显示器212。因此,第二系统400通过以相对低的亮度水平显示显示内容数据420的第一部分来减少显示资源(例如,功率消耗)。在一些具体实施中,照度水平选择器412将显示器212的某些像素设置为标称照度水平,从而进一步节省显示资源。例如,在图2K中,显示控制器430关断显示器212的某些像素,使得篮球的轮廓是虚线,而不是图2I中所示的篮球轮廓的实线(具有附加像素)。
在一些具体实施中,多个显示操作参数416中的特定一个显示操作参数指示与显示内容数据420的对应部分相关联的显示帧速率(例如,每秒帧数(FPS))。为此,在一些具体实施中,显示操作参数生成器410包括显示帧速率选择器414,其基于多个位置值322来确定各种显示帧速率。例如,参考图2J,显示帧速率选择器414确定与显示内容数据420的第一部分(可由第一个体220观看)相关联的第一显示帧速率,并且确定与显示内容数据420的第二部分(可由第二个体230观看)相关联的第二显示帧速率。继续该示例,第一显示帧速率高于第二显示帧速率,因为第二观看角度θ2(在第一个体220与显示器212之间)小于第四观看角度θ4(在第二个体230与显示器212之间)。因此,显示控制器430驱动显示器212以比显示显示内容数据420的第二部分更高的显示帧速率(例如,更高的FPS)来显示显示内容数据420的第一部分。第一个体220可更好地欣赏更高的显示帧速率,因为第一个体220更靠近可观看区域214的中心。因此,第二系统400通过以相对低的显示帧速率显示显示内容数据420的第二部分来减少显示资源(例如,功率消耗)。
在一些具体实施中,显示操作参数生成器410还基于多个参与度得分358来确定多个显示操作参数416。为此,在一些具体实施中,第二系统400包括参考图3描述的参与度得分生成器350。例如,第一参与度得分基于第一个体走向显示器212,而第二参与度得分基于第二个体走离显示器212。第二个体正在走离显示器212,并且因此相对于显示器212较少参与。因此,第二参与度得分低于第一参与度得分。显示操作参数生成器410可确定与第一参与度得分成比例的第一显示操作参数,并且可确定与第二参与度得分成比例的第二显示操作参数。因此,第一显示操作参数指示比第二显示操作参数所指示更高的显示质量。基于第一显示操作参数和第二显示操作参数,显示控制器430驱动显示器212,使得与显示内容数据420的第一部分(可由第一个体观看)相关联的像素亮度和/或显示帧速率大于与显示内容数据420的第二部分(可由第二个体观看)相关联的像素亮度和/或显示帧速率。
图5是根据一些具体实施的基于个体相对于显示器的相应位置来生成显示内容数据的方法500的流程图的示例。在各种具体实施中,方法500或其部分由包括显示器的电子设备(例如,电子设备210)执行。在各种具体实施中,方法500或其部分由第一系统300执行。在各种具体实施中,方法500或其部分由移动设备(诸如智能手机、平板电脑或可穿戴设备)执行。在一些具体实施中,方法500由处理逻辑部件(包括硬件、固件、软件、或它们的组合)执行。在一些具体实施中,方法500由执行存储在非暂态计算机可读介质(例如,存储器)中的代码的处理器执行。
如框502所表示,在一些具体实施中,方法500包括从环境传感器获得环境数据。例如,参考图3,环境数据318包括来自图像传感器312的图像数据、来自深度传感器314的深度数据和来自环境光传感器316的环境光数据的组合。
如框504所表示,方法500包括基于第一个体相对于显示器的第一观看角度来确定第一渲染特性,以及基于第二个体相对于显示器的第二观看角度来确定第二渲染特性。为此,在一些具体实施中,方法500包括基于与第一个体相关联的环境数据的第一部分来确定第一观看角度,以及基于与第二个体相关联的环境数据的第二部分来确定第二观看角度。例如,参考图2B,电子设备210包括图像传感器,该图像传感器捕获第一个体220和第二个体230,并输出对应的图像数据。继续该示例,电子设备210相对于对应的图像数据执行计算机视觉技术,以便确定第一观看角度和第二观看角度(θ1和θ2)。
特定渲染特性可指示与生成对应显示内容数据的渲染系统相关联的图像质量(例如,分辨率值)和/或渲染频率。在一些具体实施中,第一渲染特性相对于第一观看角度具有相反关系,并且第二渲染特性相对于第二观看角度具有相反关系。例如,参考图2H,电子设备210确定大于所确定的第二渲染特性(与第二个体230相关联)的第一渲染特性(与第一个体220相关联),因为第一个体220与小于与第二个体230相关联的第三观看角度θ3的第二观看角度θ2相关联。
如框506所表示,在一些具体实施中,第一渲染特性指示第一分辨率值,并且第二渲染特性指示不同于第一分辨率值的第二分辨率值。如参考框514所述,方法500可包括生成分别与第一分辨率值和第二分辨率值相关联的第一显示内容数据和第二显示内容数据。例如,第一显示内容数据包括由第一分辨率值表征的第一多个图像,并且第二显示内容数据包括由第二分辨率值表征的第二多个图像。
如框508所表示,在一些具体实施中,第一渲染特性指示第一渲染频率,并且第二渲染特性指示不同于第一渲染频率的第二渲染频率。例如,参考图3,渲染系统349基于第一渲染频率每秒生成M个图像帧,以便生成显示内容数据360的第一部分(可由第一个体观看)。继续该示例,渲染系统349基于第二渲染频率每秒生成N个图像帧,以便生成显示内容数据360的第二部分(可由第二个体观看),其中M不同于N。
如框510所表示,在一些具体实施中,方法500包括还基于第一深度确定第一渲染特性,以及还基于第二深度确定第二渲染特性。第一深度对应于第一个体与显示器之间的距离,并且第二深度对应于第二个体与显示器之间的距离。为此,在一些具体实施中,方法500包括基于与第一个体相关联的环境数据的第一部分确定第一深度,以及基于与第二个体相关联的环境数据的第二部分确定第二深度。例如,参考图2B,电子设备210包括深度传感器,该深度传感器输出与第一个体220相关联的第一深度226,并且输出与第二个体230相关联的第二深度236。在一些具体实施中,第一渲染特性相对于第一深度具有相反关系,并且第二渲染特性相对于第二深度具有相反关系。继续先前的示例,电子设备210确定低于第二渲染特性(与第二个体230相关联)的第一渲染特性(与第一个体220相关联),因为第一深度226大于第二深度236。
如框512所表示,在一些具体实施中,方法500包括还基于第一参与度得分确定第一渲染特性,以及还基于第二参与度得分确定第二渲染特性。例如,第一参与度水平基于与第一个体相关联的移动特性,并且第二参与度水平基于与第二个体相关联的移动特性。作为另一示例,第一参与度水平基于与第一个体相关联的姿势特性,并且第二参与度水平基于与第二个体相关联的姿势特性。作为又一示例,第一参与度水平基于第一个体的眼睛的特性,并且其中第二参与度水平基于第二个体的眼睛的特性。参考图3中示出的参与度得分生成器350描述了利用参与度得分的各种示例。
如框514所表示,方法500包括经由渲染系统根据第一渲染特性生成第一显示内容数据,以及经由渲染系统根据第二渲染特性生成第二显示内容数据。该第一显示内容数据与该第一观看角度相关联。该第二显示内容数据与该第二观看角度相关联。在一些具体实施中,渲染系统包括GPU,该GPU基于对应的对象来生成第一显示内容数据和第二显示内容数据。作为一个示例,参考图2B和图2C,电子设备210的渲染系统基于第一渲染特性来生成第一显示内容数据242,并且基于大于第一渲染特性的第二渲染特性来生成第二显示内容数据240(例如,篮球具有比足球更高的分辨率)。作为另一示例,参考图3,渲染系统349基于该多个渲染特性346中的第一渲染特性来生成显示内容数据360的第一部分,并且基于该多个渲染特性346中的第二渲染特性来生成显示内容数据360的第二部分。在一些具体实施中,根据第一渲染特性生成第一显示内容数据与第一渲染资源利用率值相关联。此外,根据第二渲染特性生成第二显示内容数据与不同于第一渲染资源利用率值的第二渲染资源利用率值相关联。例如,参考图2C和图3,渲染系统349根据第一分辨率值生成第一显示内容数据242,并且根据第二分辨率值生成第二显示内容数据240。第一显示内容数据242的生成与较低的资源利用率值相关联,因为如图2C所示,第一显示内容数据242(足球)对应于比第二显示内容数据240(篮球)更低分辨率的图像数据。
如框516所表示,在一些具体实施中,方法500包括检测从第一观看角度到第三观看角度的变化。如框518所表示,检测变化可基于环境数据和位置传感器数据的组合。例如,参考图2H-图2J,电子设备210基于环境数据检测从第三观看角度θ3到第四观看角度θ4的变化,例如,电子设备210相对于环境数据执行计算机视觉技术以便跟踪第二个体230的向右移动。作为另一示例,基于来自位置传感器(例如,图3中的位置传感器330)的位置传感器数据,电子设备确定观看角度的变化。
如框520所表示,在一些具体实施中,响应于检测到变化,方法500包括基于第三观看角度确定第三渲染特性。例如,参考图2H至图2J,基于检测到从第三观看角度θ3到第四观看角度θ4的变化,电子设备210降低渲染特性,因为第二个体230的更新位置更靠近可观看区域214的边缘。因此,如框522所表示,方法500可包括停止根据第一渲染特性生成第一显示内容数据,并且可包括根据第三渲染特性生成第三显示内容数据。继续先前的示例,基于降低渲染特性,电子设备210生成第五显示内容数据258(在图2K中示出),与第四显示内容数据254(在图2I中示出)相比,该第五显示内容数据对应于篮球的较低分辨率版本。
在一些具体实施中,方法500包括确定第一个体不再位于与显示器相关联的可观看区域内。此外,响应于确定第一个体不再位于可观看区域内,方法500包括停止生成第一显示内容数据,以及继续根据第二渲染特性生成第二显示内容数据。参考图2L,电子设备210确定第二个体230不再在可观看区域214内。因此,电子设备210停止生成第五显示内容数据258(篮球),并且因此图2M中示出的显示器212不包括篮球。
图6是根据一些具体实施的基于个体相对于显示器的相应位置来控制显示器的方法600的流程图的示例。在各种具体实施中,方法600或其部分由包括显示器的电子设备(例如,电子设备210)执行。在各种具体实施中,方法600或其部分由第二系统400执行。在各种具体实施中,方法600或其部分由移动设备(诸如智能手机、平板电脑或可穿戴设备)执行。在一些具体实施中,方法600由处理逻辑部件(包括硬件、固件、软件、或它们的组合)执行。在一些具体实施中,方法600由执行存储在非暂态计算机可读介质(例如,存储器)中的代码的处理器执行。
如框602所表示,方法600包括获得与第一个体相关联的第一显示内容数据,以及获得与第二个体相关联的第二显示内容数据。例如,参考图4,显示控制器获得显示内容数据420的第一部分和第二部分,其中该第一部分与第一个体相关联,并且其中该第二部分与第二个体相关联。在一些具体实施中,第一显示内容数据和第二显示内容数据由渲染系统基于对应的渲染特性来生成,诸如参考图5的框514所描述的。在一些具体实施中,独立于任何渲染特性来生成第一显示内容数据和第二显示内容数据。
如框604所表示,在一些具体实施中,方法600包括从环境传感器(例如,图3的环境传感器310)获得环境数据。参考图5的框502提供关于环境数据的各种示例。
如框606所表示,方法600包括基于第一个体相对于显示器的第一观看角度来确定第一显示操作参数,以及基于第二个体相对于显示器的第二观看角度来确定第二显示操作参数。特定显示操作参数可指示与对应显示内容数据的显示相关联的显示质量。例如,特定显示操作参数与显示质量成比例。在一些具体实施中,特定显示操作参数相对于对应的观看角度具有相反关系。例如,将参考图2H和图2I描述的示例与参考图2J和图2K描述的示例进行比较,当与第二个体230相关联的观看角度增加时,电子设备210相应地减小与第二个体230相关联的显示操作参数。因此,在图2K中,显示器212包括比图2I中显示的篮球更低质量的篮球。例如,参考图2K,显示控制器关断显示器212的某些像素,从而节省显示资源。
如框608所表示,在一些具体实施中,第一显示操作参数指示第一显示帧速率,并且第二显示操作参数指示不同于第一显示帧速率的第二显示帧速率。例如,特定显示帧速率指示每秒帧数(FPS)值。在一些具体实施中,特定显示帧速率与对应观看角度成反比。例如,当个体移动得更靠近与电子设备的显示器相关联的可观看区域的中心时,电子设备增加可由个体观看的显示内容数据的对应显示帧速率。
如框610所表示,在一些具体实施中,第一显示操作参数对应于与显示器的像素的第一子集相关联的第一照度水平,并且第二显示操作参数对应于与显示器的像素的第二子集相关联的第二照度水平。例如,像素的第一子集可由第一个体观看,并且像素的第二子集可由第二个体观看。在一些具体实施中,特定照度水平与对应观看角度成反比。例如,当个体移动离开与电子设备的显示器相关联的可观看区域的中心时,电子设备减小可由个体观看的显示内容数据的对应照度水平。
如框612所表示,在一些具体实施中,第一显示操作参数还基于第一个体相对于显示器的第一深度,并且第二显示操作参数还基于第二个体相对于显示器的第二深度。为此,在一些具体实施中,方法600包括获得或确定第一深度和第二深度。例如,方法600包括从深度传感器获得指示第一深度和第二深度的深度数据。作为另一示例,方法600包括基于来自图像传感器的图像数据来(例如,经由计算机视觉技术)确定第一深度和第二深度。在一些具体实施中,第一显示操作参数相对于第一深度具有相反关系,并且第二显示操作参数相对于第二深度具有相反关系。例如,参考图2B,电子设备210获得与第一个体220相关联的第一深度226,并且获得与第二个体230相关联的第二深度236。电子设备210还确定第一深度226大于第二深度236,并且因此确定小于第二显示操作参数(与第二个体230相关联)的第一显示操作参数(与第一个体220相关联)。基于第一显示操作参数和第二显示操作参数之间的差异,电子设备210可以比显示第二显示内容数据240更低的显示帧速率和/或更低的照度水平来显示第一显示内容数据242。
如框614所表示,在一些具体实施中,第一显示操作参数还基于与第一个体相关联的第一参与度水平,并且第二显示操作参数还基于与第二个体相关联的第二参与度水平。例如,第一参与度水平基于与第一个体相关联的移动特性,并且第二参与度水平基于与第二个体相关联的移动特性。作为另一示例,第一参与度水平基于与第一个体相关联的姿势特性,并且第二参与度水平基于与第二个体相关联的姿势特性。作为又一示例,第一参与度水平基于第一个体的眼睛的特性,并且其中第二参与度水平基于第二个体的眼睛的特性。参考图3中示出的参与度得分生成器350描述了利用参与度得分的各种示例。
如框616所表示,方法600包括根据第一显示操作参数显示第一显示内容数据,以及根据第二显示操作参数显示第二显示内容数据。例如,方法600包括同时显示第一显示内容数据和第二显示内容数据。在一些具体实施中,根据第一显示操作参数显示第一显示内容数据与第一显示资源利用率值相关联,并且根据第二显示操作参数显示第二显示内容数据与不同于第一显示资源利用率值的第二显示资源利用率值相关联。在一些具体实施中,根据第一显示操作参数显示第一显示内容数据包括以第一显示速率显示第一多个图像,并且根据第二显示操作参数显示第二显示内容数据包括以第二显示速率显示第二多个图像。在一些具体实施中,方法600可包括根据FPS值来显示对应显示内容数据的图像帧。
在一些具体实施中,方法600在包括显示器(诸如透镜状显示器)的电子设备处执行。此外,方法600包括在显示器的像素的第一子集上显示第一显示内容数据,以及在像素的第二子集上显示第二显示内容数据。例如,参考框610,根据第一显示操作参数显示第一显示内容数据包括将像素的第一子集设置为第一照度水平,并且根据第二显示操作参数显示第二显示内容数据包括将像素的第二子集设置为第二照度水平。在一些具体实施中,响应于确定第一个体(的一部分或全部)不再位于与显示器相关联的可观看区域内,方法600包括降低对于像素的第一子集的一部分的第一照度水平。降低对于像素的第一子集的该部分的第一照度水平可包括关断像素的第一子集的该部分。在一些具体实施中,响应于确定第一个体不再位于可观看区域内持续至少阈值时间量,方法600包括关断像素的第一子集的全部。
如框618所表示,在一些具体实施中,方法600包括检测从第一观看角度到第三观看角度的变化。如框620所表示,检测变化可基于环境数据和位置传感器数据的组合。例如,参考图2H-图2J,电子设备210基于环境数据检测从第三观看角度θ3到第四观看角度θ4的变化,例如,电子设备210相对于环境数据执行计算机视觉技术以便跟踪第二个体230的向右移动。作为另一示例,基于来自位置传感器(例如,图3中的位置传感器330)的位置传感器数据,电子设备确定观看角度的变化。
如框622所表示,在一些具体实施中,响应于检测到变化,方法600包括基于第三观看角度确定第三显示操作参数。例如,参考图2H-图2J,基于检测到从第三观看角度θ3到第四观看角度θ4的变化,电子设备210降低显示操作参数,因为第二个体230的更新位置更靠近可观看区域214的边缘。因此,如框624所表示,方法600可包括停止根据第一显示操作参数显示第一显示内容数据,以及根据第三显示操作参数显示第一显示内容数据。
在一些具体实施中,方法600包括确定第一个体不再位于与显示器相关联的可观看区域内。此外,响应于确定第一个体不再位于可观看区域内,方法600包括停止显示第一显示内容数据,以及继续根据第二显示操作参数显示第二显示内容数据。例如,参考图2L,电子设备210确定第二个体230移动到可观看区域214之外。因此,电子设备210停止显示第五显示内容数据258(篮球),如图2M所示。
本公开描述了各种特征,其中没有一个特征能够单独实现本文所述的益处。应当理解,本文所述的各种特征可被组合、修改或省略,这对本领域的普通技术人员是显而易见的。本文具体描述的那些之外的其他组合和子组合对于普通技术人员而言将显而易见,并旨在形成本公开的一部分。本文结合各种流程图步骤和/或阶段描述了各种方法。应当理解,在很多情况下,某些步骤和/或阶段可被组合在一起,使得流程图中所示的多个步骤和/或阶段可作为单个步骤和/或阶段来被执行。另外,某些步骤和/或阶段可分成要独立执行的附加子部件。在一些情况下,可重新布置步骤和/或阶段的次序,并且可完全省略某些步骤和/或阶段。另外,本文所述的方法应被理解为可广泛解释的,使得也可执行除本文所示和所述那些之外的附加步骤和/或阶段。
本文所述的一些或所有方法和任务可由计算机系统执行和完全自动化。在一些情况下,计算机系统可包括通过网络进行通信和互操作以执行所述功能的多个不同的计算机或计算设备(例如,物理服务器、工作站、存储阵列等)。每个此类计算设备通常包括处理器(或多个处理器),该处理器执行存储在存储器或其他非暂态计算机可读存储介质或设备中的程序指令或模块。本文所公开的各种功能可在此类程序指令中实现,但另选地可在计算机系统的专用电路(例如,ASIC或FPGA或GP-GPU)中实现所公开的功能中的一些或全部。在计算机系统包括多个计算设备的情况下,这些设备可位于同一位置或不位于同一位置。可通过将物理存储设备诸如固态存储器芯片和/或磁盘转换成不同状态来持久地存储所公开的方法和任务的结果。
本文定义的各种过程考虑了获取和利用用户的个人信息的选项。例如,可利用此类个人信息以便在电子设备上提供改进的隐私屏幕。然而,在收集此类个人信息的程度上,此类信息应在用户知情同意的情况下获取。如本文所描述的,用户应了解和控制其个人信息的使用。
个人信息将由适当方仅用于合法和合理的目的。利用此类信息的各方将遵守至少符合适当法律法规的隐私政策和惯例。此外,此类政策应是完善的、用户可访问的,并且被认为符合或高于政府/行业标准。此外,除任何合理和合法的目的外,各方不得分发、出售或以其他方式分享此类信息。
然而,用户可限制各方能访问或以其他方式获取个人信息的程度。例如,可调整设置或其他偏好,使得用户可决定其个人信息是否可由各种实体访问。此外,虽然在使用个人信息的上下文中描述了本文所定义的一些特征,但可在不需要使用此类信息的情况下实现这些特征的各方面。例如,如果收集到用户偏好、账户名称和/或位置历史,则该信息可被模糊化或以其他方式一般化,使得该信息不会识别相应用户。
本公开并不旨在限于本文所示的具体实施。对于本领域的技术人员而言,对本公开中描述的具体实施的各种修改可为显而易见的,并且可将本文所定义的一般原理应用于其他具体实施,而不脱离本公开的实质或范围。本文所提供的本发明的教导内容可应用于其他方法和系统,并且不限于上述方法和系统,并且可组合上述各种具体实施的元素和动作以提供更多具体实施。因此,本文描述的新颖方法和系统可以以多种其他形式来实现;此外,在不脱离本公开的实质的情况下,可以对本文所述的方法和系统的形式进行各种省略、替换和改变。所附权利要求及其等同内容旨在涵盖落入本公开的范围和实质内的此类形式或修改形式。

Claims (20)

1.一种方法,所述方法包括:
在包括一个或多个处理器、非暂态存储器、渲染系统和显示器的电子设备处:
基于第一个体相对于所述显示器的第一观看角度来确定第一渲染特性;
基于第二个体相对于所述显示器的第二观看角度来确定第二渲染特性,其中所述第一渲染特性不同于所述第二渲染特性;以及
经由所述渲染系统根据所述第一渲染特性生成第一显示内容数据,以及经由所述渲染系统根据所述第二渲染特性生成第二显示内容数据,其中所述第一显示内容数据与所述第一观看角度相关联,并且其中所述第二显示内容数据与所述第二观看角度相关联。
2.根据权利要求1所述的方法,其中根据所述第一渲染特性生成所述第一显示内容数据与第一渲染资源利用率值相关联,并且其中根据所述第二渲染特性生成所述第二显示内容数据与不同于所述第一渲染资源利用率值的第二渲染资源利用率值相关联。
3.根据权利要求1所述的方法,其中所述第一渲染特性指示第一分辨率值,并且其中所述第二渲染特性指示不同于所述第一分辨率值的第二分辨率值。
4.根据权利要求3所述的方法,其中根据所述第一渲染特性生成所述第一显示内容数据包括生成与所述第一分辨率值相关联的第一图像,并且其中根据所述第二渲染特性生成所述第二显示内容数据包括生成与所述第二分辨率值相关联的第二图像。
5.根据权利要求1所述的方法,其中所述第一渲染特性指示第一渲染频率,并且其中所述第二渲染特性指示不同于所述第一渲染频率的第二渲染频率。
6.根据权利要求1所述的方法,其中所述第一渲染特性相对于所述第一观看角度具有相反关系,并且其中所述第二渲染特性相对于所述第二观看角度具有相反关系。
7.根据权利要求1所述的方法,还包括在所述显示器上显示所述第一显示内容数据和所述第二显示内容数据。
8.根据权利要求7所述的方法,其中所述显示器包括双凸透镜。
9.根据权利要求1所述的方法,还包括确定所述第一个体相对于所述显示器的第一深度,以及确定所述第二个体相对于所述显示器的第二深度,其中确定所述第一渲染特性还基于所述第一深度,并且其中确定所述第二渲染特性还基于所述第二深度。
10.根据权利要求9所述的方法,其中所述第一渲染特性相对于所述第一深度具有相反关系,并且其中所述第二渲染特性相对于所述第二深度具有相反关系。
11.根据权利要求1所述的方法,其中所述第一渲染特性还基于与所述第一个体相关联的第一参与度水平,并且其中所述第二渲染特性还基于与所述第二个体相关联的第二参与度水平。
12.根据权利要求11所述的方法,其中所述第一参与度水平基于与所述第一个体相关联的移动特性,并且其中所述第二参与度水平基于与所述第二个体相关联的移动特性。
13.根据权利要求11所述的方法,其中所述第一参与度水平基于与所述第一个体相关联的姿势特性,并且其中所述第二参与度水平基于与所述第二个体相关联的姿势特性。
14.根据权利要求1所述的方法,还包括:
确定所述第一个体的眼睛的特性;以及
确定所述第二个体的眼睛的特性;
其中所述第一参与度水平基于所述第一个体的所述眼睛的所述特性,并且其中所述第二参与度水平基于所述第二个体的所述眼睛的所述特性。
15.根据权利要求1所述的方法,其中所述电子设备包括环境传感器,所述方法还包括基于来自所述环境传感器的环境数据确定所述第一观看角度和所述第二观看角度。
16.根据权利要求1所述的方法,还包括:
检测所述第一个体相对于所述显示器从所述第一观看角度到第三观看角度的变化;以及
响应于检测到所述变化:
基于所述第三观看角度确定第三渲染特性;
停止根据所述第一渲染特性生成所述第一显示内容数据;以及
根据所述第三渲染特性生成第三显示内容数据。
17.根据权利要求1所述的方法,还包括,响应于确定所述第一个体不再位于与所述显示器相关联的可观看区域内:
停止生成所述第一显示内容数据;以及
继续根据所述第二渲染特性生成所述第二显示内容数据。
18.一种第一系统,包括:
显示器;
渲染特性生成器,所述渲染特性生成器用于:
基于第一个体相对于所述显示器的第一观看角度来确定第一渲染特性,以及
基于第二个体相对于所述显示器的第二观看角度来确定第二渲染特性,其中所述第一渲染特性不同于所述第二渲染特性;以及
渲染系统,所述渲染系统用于根据所述第一渲染特性生成第一显示内容数据,以及根据所述第二渲染特性生成第二显示内容数据,其中所述第一显示内容数据与所述第一观看角度相关联,并且其中所述第二显示内容数据与所述第二观看角度相关联。
19.根据权利要求18所述的第一系统,其中所述显示器包括双凸透镜,所述双凸透镜使得所述第一显示内容数据能够由所述第一个体在所述显示器上观看,并且使得所述第二显示内容数据能够由所述第二个体在所述显示器上观看。
20.一种非暂态计算机可读存储介质,所述非暂态计算机可读存储介质存储一个或多个程序,所述一个或多个程序包括指令,所述指令在由包括渲染系统和显示器的电子设备执行时,使得所述电子设备:
基于第一个体相对于所述显示器的第一观看角度来确定第一渲染特性;
基于第二个体相对于所述显示器的第二观看角度来确定第二渲染特性,其中所述第一渲染特性不同于所述第二渲染特性;以及
经由所述渲染系统根据所述第一渲染特性生成第一显示内容数据,以及经由所述渲染系统根据所述第二渲染特性生成第二显示内容数据,其中所述第一显示内容数据与所述第一观看角度相关联,并且其中所述第二显示内容数据与所述第二观看角度相关联。
CN202210866981.2A 2021-08-16 2022-07-22 基于个体的相应位置生成和显示内容 Pending CN115705092A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US202163233465P 2021-08-16 2021-08-16
US63/233,465 2021-08-16

Publications (1)

Publication Number Publication Date
CN115705092A true CN115705092A (zh) 2023-02-17

Family

ID=85039874

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210866981.2A Pending CN115705092A (zh) 2021-08-16 2022-07-22 基于个体的相应位置生成和显示内容

Country Status (3)

Country Link
US (1) US20230370578A1 (zh)
CN (1) CN115705092A (zh)
DE (1) DE102022206804A1 (zh)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9715827B2 (en) * 2015-04-01 2017-07-25 Misapplied Sciences, Inc. Multi-view traffic signage
US10338392B2 (en) * 2016-06-13 2019-07-02 Microsoft Technology Licensing, Llc Identification of augmented reality image display position
TWI724858B (zh) * 2020-04-08 2021-04-11 國軍花蓮總醫院 基於手勢動作的混合實境評量系統

Also Published As

Publication number Publication date
DE102022206804A1 (de) 2023-02-16
US20230370578A1 (en) 2023-11-16

Similar Documents

Publication Publication Date Title
US11360550B2 (en) IMU for touch detection
CN113741839A (zh) 基于修改的环境光亮度值生成显示数据
US12041288B2 (en) Changing resource utilization associated with a media object based on an engagement score
US20240211044A1 (en) Object Engagement Based on Finger Manipulation Data and Untethered Inputs
WO2021061310A1 (en) Displaying representations of environments
US11373271B1 (en) Adaptive image warping based on object and distance information
US20240045501A1 (en) Directing a Virtual Agent Based on Eye Behavior of a User
CN110968248B (zh) 生成用于视觉触摸检测的指尖的3d模型
JP7384951B2 (ja) 遮られた物理的オブジェクトの位置を示すこと
US20210216146A1 (en) Positioning a user-controlled spatial selector based on extremity tracking information and eye tracking information
US20230370578A1 (en) Generating and Displaying Content based on Respective Positions of Individuals
US20230065077A1 (en) Displaying a Rendered Volumetric Representation According to Different Display Modes
US11783444B1 (en) Warping an input image based on depth and offset information
CN112578983B (zh) 手指取向触摸检测
US11914646B1 (en) Generating textual content based on an expected viewing angle
US12008208B2 (en) Merging computer-generated objects
US20230333651A1 (en) Multi-Finger Gesture based on Finger Manipulation Data and Extremity Tracking Data
US12008160B2 (en) Eye tracking based selection of a user interface (UI) element based on targeting criteria
US11983810B1 (en) Projection based hair rendering
US20230297168A1 (en) Changing a Dimensional Representation of a Content Item
US20230376110A1 (en) Mapping a Computer-Generated Trackpad to a Content Manipulation Region
WO2023224969A1 (en) Changing display rendering modes based on multiple regions
CN117132739A (zh) 改变与计算机生成的内容的显示相关联的锁定模式

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination