CN116681870A - 增强现实显示器中的叠加对比度控制 - Google Patents
增强现实显示器中的叠加对比度控制 Download PDFInfo
- Publication number
- CN116681870A CN116681870A CN202310807102.3A CN202310807102A CN116681870A CN 116681870 A CN116681870 A CN 116681870A CN 202310807102 A CN202310807102 A CN 202310807102A CN 116681870 A CN116681870 A CN 116681870A
- Authority
- CN
- China
- Prior art keywords
- scene
- overlay
- information
- display device
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000003190 augmentative effect Effects 0.000 title abstract description 14
- 238000000034 method Methods 0.000 claims abstract description 53
- 230000008859 change Effects 0.000 claims description 75
- 230000033001 locomotion Effects 0.000 claims description 53
- 230000015654 memory Effects 0.000 claims description 21
- 230000000007 visual effect Effects 0.000 claims description 17
- 239000003607 modifier Substances 0.000 description 31
- 230000004044 response Effects 0.000 description 18
- 238000010586 diagram Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 238000001514 detection method Methods 0.000 description 7
- 239000012780 transparent material Substances 0.000 description 7
- 230000004048 modification Effects 0.000 description 6
- 238000012986 modification Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 239000011521 glass Substances 0.000 description 3
- 238000007792 addition Methods 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- -1 acryl Chemical group 0.000 description 1
- NIXOWILDQLNWCW-UHFFFAOYSA-N acrylic acid group Chemical group C(C=C)(=O)O NIXOWILDQLNWCW-UHFFFAOYSA-N 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000000593 degrading effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/53—Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
- A63F13/537—Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/80—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
- A63F2300/8082—Virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2012—Colour editing, changing, or manipulating; Use of colour codes
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Architecture (AREA)
- Optics & Photonics (AREA)
- Controls And Circuits For Display Device (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明涉及增强现实显示器中的叠加对比度控制。示例性实施方案提供了用于增强现实显示器中的叠加对比度控制的系统和方法。在示例性方法中,访问对比度增强数据,该对比度增强数据包括描述用于在显示装置上信息叠加之下呈现的背景图像的至少一部分的数据。信息叠加包括图形元素或文本元素中的至少一个以部分地模糊场景。生成识别信息叠加中要在其下呈现背景图像的至少一部分的数据。在显示装置上,在与信息叠加部分相对应的场景部分之上呈现背景图像,并且在显示装置上,在背景图像和场景之上呈现信息叠加。
Description
本申请是中国专利申请号为201880006028.2,发明名称为“增强现实显示器中的叠加对比度控制”,申请日为2018年01月16日的进入中国的PCT专利申请的分案申请。
与相关申请的交叉引用
本申请要求于2017年1月17日提交的美国专利申请序列号15/407,491的优先权权益,其全部内容通过引用并入本文。
技术领域
本发明总体而言涉及信息显示技术,在具体的示例性实施方案中,涉及增强现实显示器的信息叠加的对比度控制。
背景技术
增强现实(Augmented reality,AR)显示器已经在各种环境中广泛使用,其中所显示的实体或虚拟场景是利用在观众视角的显示器上的场景中所呈现的附加信息(例如,文本、图形等)来增强或加强的。AR显示器的一个示例是用于飞机、汽车等的平视显示器(heads-up display,HUD),其中信息叠加被投影到玻璃或其它介质上,用户可以通过玻璃或其它介质查看实体场景,例如道路。AR显示器的另一示例是配备有摄像机的智能电话或平板电脑的显示器,使得由摄像机拍摄的实体场景呈现在显示器上,并且信息叠加也呈现在显示器上并在场景之上。在AR显示器的另一示例中,诸如在第一人称射击(first-personshooter,FPS)游戏中所呈现的虚拟场景可以利用信息叠加来增强,并且信息叠加呈现在视频监视器、电视等上。
在某些情况下,正显示的场景可能使信息叠加的可读性或可见性降低,从而可能使该信息不太有用。例如,在通过文本、图形等方式识别感兴趣的位置(例如,街道、商店等)的信息叠加中,呈现信息叠加部分的场景部分可能与该叠加部分的颜色和/或纹理相似,从而可能使得信息叠加的特定部分对于用户而言观察性降低。
发明内容
根据本发明的实施方案,提供了一种计算机化的方法,其包括:利用一个或更多个硬件处理器,基于场景的改变识别一个或更多个场景的特征;基于一个或更多个识别出的场景的特征,利用一个或更多个硬件处理器,在显示装置上呈现与场景信息叠加的至少一部分;以及使得在显示装置上呈现与在时域调制的背景图像上显示的场景信息叠加的至少一部分。
根据本发明的实施方案,提供了一种装置,其包括:一个或更多个硬件处理器;和存储器,其中存储有指令,当由一个或更多个硬件处理器中的至少一个执行所述指令时,使得一个或更多个处理器执行包括以下各项的操作:基于场景的改变识别一个或更多个场景的特征;基于一个或更多个识别出的场景的特征,确定在显示装置上呈现与场景信息叠加的至少一部分;以及使得在显示装置上呈现与在时域调制的背景图像上显示的场景信息叠加的至少一部分。
根据本发明的实施方案,提供了一种系统,其包括:显示装置;存储器,其上存储有指令;以及一个或更多个硬件处理器,其由指令配置以执行包括以下各项的操作:基于场景的改变识别一个或更多个场景的特征;基于一个或更多个识别出的场景的特征,确定在显示装置上呈现与场景信息叠加的至少一部分;以及使得在显示装置上呈现与在时域调制的背景图像上显示的场景信息叠加的至少一部分。
附图说明
附图中的各个附图仅示出本发明的示例性实施方案,并不能被视为限制其范围。
图1A是包括显示装置的示例性用户设备的框图,该显示装置用于显示经由摄像机拍摄的场景,在该显示装置上可以呈现信息叠加。
图1B是包括投影仪的示例性用户设备的框图,该投影仪用于将信息叠加投影到透明表面上,通过该透明表面可以查看场景。
图1C是包括透明显示装置的示例性用户设备的框图,该透明显示装置可以呈现信息叠加并且可以通过该透明显示装置查看场景。
图2是可以在图1A、图1B和图1C的一个或多个用户设备中利用的示例性叠加模块的框图。
图3是修改增强现实显示器中的信息叠加的强调的示例性方法的流程图。
图4A和图4B是生成用于修改信息叠加的强调的场景改变数据的示例性方法的数据流程图。
图5A是具有信息叠加的场景的图形描绘。
图5B是与图5A中的场景相关的场景的图形描绘,其中修改了信息叠加的强调。
图6是为增强现实显示器中的信息叠加提供对比度控制的示例性方法的流程图。
图7是利用场景改变数据来修改用于为信息叠加提供对比度控制的对比度增强数据的示例性方法的流程图。
图8是提供了信息叠加的场景的图形表示,其示出了通过背景图像的方式信息叠加的部分的对比度增强。
图9A是场景的图形表示,在该场景中呈现没有对比度增强的虚拟视频显示器。
图9B是图9A的场景的图形表示,在该场景中呈现具有对比度增强的虚拟视频显示器。
图10是以计算系统的示例性形式的机器的简化框图,其中可以执行一组指令以使机器执行本文所讨论的任何一种或多种方法。
具体实施方式
在以下描述中,出于解释的目的,阐述了许多具体细节以便提供对本发明主题的各种示例性实施方案的理解。然而,对于本领域技术人员显而易见的是,可以在没有这些具体细节的情况下实践本发明主题的示例性实施方案。
图1A、图1B和图1C是示例性用户设备101A、101B、101C(统称为101)的框图,通过这些设备可以向用户呈现增强现实(AR)显示器,从而可以作为能够提供下面更详细讨论的示例性实施方案的平台。图1A是包括显示装置102的示例性用户设备101A的框图,显示装置102用于显示经由摄像机104拍摄的场景(例如,主场景110),并用于显示相应的信息叠加。用户设备101A包括叠加模块106,叠加模块106可以配置为提供信息叠加,该信息叠加(例如,文本、图形和/或其它视觉元素)将要在显示装置102上呈现为主场景110的“上面”(例如,出现在前面或顶部上,从而部分地遮挡或模糊)表示。场景110是实际或虚拟环境的表示(例如,诸如可以通过摄像机拍摄的实体区域的室外或室内视图;在游戏环境中玩家的视角的虚拟世界视图等等)。在示例性实施方案中,下面结合图2更全面地描述的叠加模块106可以提供叠加强调修改、叠加对比度控制以及下面描述的关于信息叠加的呈现的其它功能。在一些示例性实施方案中,可以利用摄像机104拍摄主场景110时生成的数据来辅助这些功能。在示例性实施方案中,叠加模块106可以配置为在经由显示装置102向用户呈现所得到的合成图像之前添加或替换由摄像机104拍摄的图像的一个或多个部分。在各种示例性实施方案中,显示装置102可以是平板显示器,例如触摸屏,但是在其它实施方案中,用户设备101A内可以包括其它类型的显示装置102。用户设备101A的示例性实施方案可以包括但不限于便携式设备,例如,智能电话、平板电脑、虚拟现实(VR)头戴设备等。然而,包括非便携式设备(例如,台式计算机以及摄像机104可以位于用户设备101A外部的设备)的其它示例性实施方案也可以利用下文描述的叠加模块106的各种示例性实施方案。
图1B是包括投影仪103的示例性用户设备101B的框图,投影仪103用于将信息叠加投影到透明投影表面112(例如,玻璃、亚克力(acrylic)等等)上,通过该透明投影表面112可以查看主场景110。在该示例中,叠加模块106可以生成信息叠加并且以投影仪103使用的格式提供该叠加。另外,用户设备101B可以包括摄像机104以拍摄主场景110并且利用所得到的数据作为叠加模块106的输入,如下面更全面地描述的。用户设备101B的示例性实施方案可以是平视显示器(HUD),其可以用于陆地交通工具、飞机、航天器等。然而,利用图1B所描绘的架构的其它类型的用户设备101B也是可能的。
图1C是包括透明显示装置105的示例性用户设备101C的框图,该透明显示装置105可以呈现由叠加模块106生成的信息叠加,并且可以通过该透明显示装置105查看主场景110。在示例性实施方案中,透明显示装置105可以包括发光二极管(LED),例如,附接到透明结构(诸如,玻璃或亚克力)或嵌入在该透明结构内的有机LED(OLED)。与图1B的示例性实施方案一样,用户设备101C还可以包括摄像机104以拍摄主场景110并生成由叠加模块106使用的数据以修改或以其它方式处理将要呈现给用户的信息叠加。在示例性实施方案中,用户设备101C可以是能够在车辆、飞机等中利用的另一种类型的平视显示器。另外,用户设备101C以及图1B的用户设备101B可以是游戏设备,使得每个玩家利用单独的用户设备101,玩家通过该用户设备101查看动作的公共屏幕,并且其中每个用户设备101提供仅供相应玩家使用的信息。在一些示例性实施方案中,透明显示装置105可以包括模板结构(例如,液晶显示器(LCD)结构)或其它遮光结构或系统,它们可以被控制为使得部分或全部地遮挡查看者视角的主场景110的全部或一个或多个部分,从而修改透明显示装置105的一个或多个部分的透明度。
在示例性实施方案中,除了显示装置102、投影仪103、摄像机104、叠加模块106等之外的其它组件也可以包含在用户设备101内,例如,人机界面(HMI)、数据存储器件(例如,闪存、磁盘驱动器、光盘驱动器等)、有线或无线通信接口(例如,用于广域网(WAN)(例如,因特网)、蜂窝网络(例如,第三代(3G)或第四代(4G)网络)、有线电视网络、卫星通信网络、或任何其它通信网络或连接或它们的组合的接口)等。
图2是如上所述的能够在图1A、图1B和图1C的用户设备101A、101B、101C中的一个或多个内利用的示例性叠加模块106的框图。在示例性实施方案中,叠加模块106可以包括如下中的一个或多个:叠加数据访问模块202、场景改变数据访问模块204、场景数据分析器206、场景对象识别器208、设备移动检测器210、叠加强调修改器212、叠加对比度增强数据访问模块214、叠加背景图像生成器216或叠加输出生成器218。在各种示例性实施方案中,叠加模块106的各种模块202至218可以实施为硬件(例如,逻辑电路和其它电子组件),可以实施为软件或固件(其以存储在存储器中并配置为在一个或多个硬件处理器(例如,微处理器、微控制器等)上执行的指令形式),或可以实施为硬件、软件或固件的某些组合。此外,根据实现叠加模块106的特定用户设备101,叠加模块106可以实现为少于全部的模块202至218,并且可以利用除了图2中明确描绘的那些模块之外的额外模块。
叠加数据访问模块202可以配置为从叠加模块106或用户设备101的内部或外部的数据源访问叠加数据。在示例性实施方案中,叠加数据包括描述文本和/或图形元素的数据,所述文本和/或图形元素呈现为在向用户显示的场景110之上的信息叠加。在示例性实施方案中,叠加数据可以采用压缩或未压缩的格式指定信息叠加的每个图像元素(像素)的颜色、强度和/或其它特性。
在一些示例性实施方案中,叠加数据访问模块202可以利用其它可访问数据(例如,与正向用户呈现或用户正查看的场景110相对应的地图数据)来生成叠加数据。此外,用户设备101可以包括位置检测器(例如,全球定位系统(GPS)接收器)和方向传感器(例如,一个或多个陀螺仪传感器)以确定用户设备101的位置和方向,并且将确定的用户设备101的位置和方向与地图数据关联以确定叠加数据。在其它示例性实施方案中,叠加数据访问模块202可以结合地图数据来利用图像数据(例如,来自摄像机104的数据),以生成叠加数据。
在其它示例性实施方案中,叠加数据访问模块202可以接收叠加数据或关于正向用户设备101的用户呈现的场景110中描绘的实体或虚拟环境的相关信息。例如,叠加数据访问模块202可以从用户设备101或外部设备上运行的游戏接收关于虚拟游戏世界内的位置和方向的信息和/或描述该位置和方向的叠加数据。叠加模块106可以(例如,经由显示装置102)将所得到的信息叠加在虚拟游戏世界的视图之上呈现给用户。
场景改变数据访问模块204可以配置为从叠加模块106内部或外部的模块或组件来访问或接收关于主场景110的场景改变数据。在示例性实施方案中,场景改变数据可以识别在一段时间内已经改变的主场景110的一个或多个区域或部分。这样的信息还可以指示主场景110的一个或多个部分以什么样的程度或什么样的速度改变。主场景110的改变可以包括场景110的一个或多个部分的强度、颜色和其它特性的改变。如下所述,可以利用场景改变数据来修改呈现给用户的信息叠加。在示例性实施方案中,场景改变数据存储在数据结构中,场景改变数据可以指示已经改变的场景110的一个或多个部分以及可能的改变幅度。在其它示例性实施方案中,场景改变数据可以不指示场景110中(例如,在物体移动、亮度、颜色和/或其它方面)低于某个阈值的改变。
场景数据分析器206可以配置为分析描述主场景110的数据(例如,由摄像机104或用户设备101外部的一些设备生成的数据),例如,在场景110中描绘的真实或虚拟环境的图像拍摄数据。然后,场景数据分析器206可以生成经由上述场景改变数据访问模块204访问的场景改变数据。在示例性实施方案中,场景数据分析器206可以比较当前版本的场景110(例如,场景110的当前图像)和先前版本的场景110以检测场景110中的改变。描述这些改变的数据可以生成为场景改变数据。在其它示例性实施方案中也可以利用分析场景110并生成场景改变数据的其它方式。
在另一示例性实施方案中,与生成场景改变数据相反,场景数据分析器206可以分析描述主场景110的数据并生成指示当前主场景110的一个或多个方面的数据。例如,场景数据分析器206可以生成将主场景110的特定区域与指示每个特定区域的颜色、亮度、复杂度和/或其它视觉方面的一个或多个值相关联的数据。在其它示例性实施方案中,场景数据分析器206可以生成将主场景110的特定区域与当前主场景110中表示的一个或多个对象相关联的数据。在其它示例性实施方案中,可以生成描述主场景110的其它类型的数据。
场景对象识别器208可以配置为检测场景110中的一个或多个对象。这些对象可以包括:人造对象(例如,车辆、标牌、街道、路缘石、建筑物等)、自然对象(例如,树木、山丘、池塘等)、人、动物等。在示例性实施方案中,场景对象识别器208可以通过形状、颜色、视觉纹理和其它特征(可能通过将对应于场景110的图像数据与描述各种对象的一个或多个视觉方面的存储信息进行比较)来识别这些对象。场景对象识别器208可以基于对象的检测生成指示在场景110中检测到的一个或多个对象存在的数据,该数据包括场景110内的对象的位置、从用户设备101的有利位置到对象的距离或范围以及描述对象的其它信息。
在示例性实施方案中,场景对象识别器208可以基于用户直接或间接提供的信息来识别一个或多个对象。例如,用户可以指示特定目的地(例如,通过在用户设备101上执行的地图绘制软件)。可以由地图绘制软件识别沿着路线的关键位置(例如,交叉路口处的转弯、目的地的入口位置等)并转发到场景对象识别器208。反过来,场景对象识别器208可以基于关键位置的实体外观、拍摄的场景数据、用户设备101的位置和/或方向以及可能的其它信息来识别关键位置出现的场景110的特定区域或部分。识别场景110中的一个或多个对象的其它方式也是可能的。在示例性实施方案中,场景对象识别器208可以将检测到的对象数据的指示转发到场景数据分析器206,场景数据分析器206可以处理该数据以确定场景110内的一个或多个对象随时间的移动。这样的信息可以包括在由场景数据分析器206生成的场景改变数据中。
在其它示例中,另一系统、设备或应用程序可以确定要由场景对象识别器208检测的对象。例如,游戏应用程序可以基于用户设备101的用户、其他用户等的动作来提供关于在场景110中正呈现的一个或多个对象(例如,角色、实体物品等)的信息,例如,他们的身份、位置、范围或距离以及其它特征。
除了指示场景110内对象的位置之外,场景对象识别器208还可以确定对象与特定有利位置的距离,例如,与用户设备101或拍摄场景110的摄像机104的距离。例如,摄像机104可以将场景110内的对象的外观尺寸与对象的已知尺寸进行比较来确定摄像机104与对象之间的距离。在其它示例性实施方案中,场景对象识别器208可以利用其它对象检测技术(例如,雷达、声纳、激光雷达等)来确定与场景110内识别出的对象的距离或范围。
设备移动检测器210可以配置为检测用户设备101的移动(例如,用户设备101的平移和/或旋转移动)并生成指示这种移动的数据。设备移动检测器210可以包括例如,GPS接收器、一个或多个陀螺仪传感器和/或其它组件。设备移动检测器210可以响应于检测到的移动来生成指示设备101移动的数据,可以将该数据提供给场景数据分析器206用于分析场景110。在其它示例性实施方案中,可以将生成的移动数据提供给叠加强调修改器212和/或叠加背景图像生成器216。
叠加强调修改器212可以配置为修改正呈现给用户(例如,经由显示装置102或投影仪103)的信息叠加的一个或多个视觉特性以强调或不强调信息叠加或信息叠加的部分随时间的改变。在示例性实施方案中,叠加强调修改器212可以修改信息叠加的一个或多个部分的亮度、锐度、颜色、大小、线宽、文本字体或其它特性。例如,可以通过提高叠加的一部分的亮度或锐度、增加叠加的一个或多个特征的尺寸或线宽、增大叠加中的文本的字体大小或对叠加中的文本使用粗体或下划线、改变叠加的颜色以与底层场景对比等,来强调信息叠加的部分。另外,信息叠加的部分的一个或多个特征可以随时间调整(例如,叠加的部分周期性的“闪光”或“闪烁”)以强调该叠加部分。相反,可以通过降低叠加的亮度或锐度(例如,通过模糊或散焦)、减小叠加的一个或多个特征的尺寸或线宽、减小叠加中的文本的字体大小、使用与底层场景的颜色接近的颜色等,来实现不强调信息叠加的至少一部分。
在一些示例性实施方案中,强调或不强调信息叠加的一个或多个部分或区域可以基于场景110的当前状态或者基于场景110的最近或当前的改变。例如,如果在叠加部分之下或之后呈现的场景110的部分在视觉上是复杂的或不是非常重要的,则可以强调信息叠加的部分。相反,信息叠加或信息叠加的部分可以响应于场景110的相应部分在某些方面是重要的或时间紧要的而不被强调,从而保证最大化场景110的该部分的可见性。
在示例性实施方案中,叠加强调修改器212可以从场景改变数据访问模块204接收场景改变数据,并且响应于场景110的改变而强调或不强调信息叠加的至少一部分的一个或多个视觉特性。更具体地,场景改变数据可以指示已经历某种改变的场景110的特定部分或区域。作为响应,叠加强调修改器212可以识别与场景110的特定部分相对应的信息叠加的部分(例如,特定的视觉对象,诸如文本串或图形对象)并强调或不强调该叠加的部分。例如,叠加强调修改器212可以确定叠加的一个或多个部分与经历改变的场景110的特定部分叠加,然后强调或不强调那些一个或多个部分。
在示例性实施方案中,场景改变数据可以指示场景110的与位于场景110的指示部分中的感兴趣的对象或位置(例如,感兴趣的点,诸如建筑物或停车场的入口、潜在的障碍物、游戏中的角色等)相对应的部分。在示例性实施方案中,这样的信息可以由场景数据分析器206和/或场景对象识别器208生成。在另一示例性实施方案中,场景改变数据可以通过访问数据库中的数据来确定感兴趣的对象或位置,该数据指示了通常繁忙的位置或者可能涉及来自用户的更多关注的位置(例如,停车场、十字路口、急转弯等)。
在示例性实施方案中,叠加强调修改器212的操作可以取决于感兴趣的对象与场景110相关联部分如何随时间改变,例如,场景110内感兴趣的对象的位置如何改变。例如,叠加强调修改器212可以通过修改整个叠加或者与检测到的对象相对应的叠加部分的一个或多个特征来响应检测到的感兴趣的对象。例如,如果感兴趣的对象进入或离开场景110的特定区域(例如,场景110的中心部分),则叠加强调修改器212可以降低与场景110的中心部分相对应的叠加部分的亮度或以其它方式不强调该叠加部分或者强调该叠加部分。
在另一示例性实施方案中,叠加强调修改器212可以响应于感兴趣的对象与查看者、设备101或另一有利位置的距离或范围的一些改变而修改信息叠加的全部或部分的强调(例如,强调或不强调)。例如,如果感兴趣的对象看起来侵入了查看者的有利位置的某个特定物理距离(例如,摄像机104或用户设备101的特定物理距离内的对象)或者查看者的有利位置的某个虚拟距离内(例如,在游戏背景中角色与查看者的虚拟距离),叠加强调修改器212可以强调或不强调信息叠加的全部或部分,例如,与场景110的对应于对象的部分相对应的部分(例如,由对象占据的场景110的部分)。在另一示例性实施方案中,响应于感兴趣的对象从查看者的有利位置与对象之间的特定物理或虚拟(例如,感知)距离离开,叠加强调修改器212可以强调或不强调信息叠加的全部或部分。
响应于如场景改变数据所指示的场景改变的特定幅度,叠加强调修改器212还可以修改信息叠加的全部或部分的一个或多个特征,从而强调或不强调该叠加部分。在示例性实施方案中,如果场景110中示出的对象的速度或加速度超过或低于某个特定水平,则叠加强调修改器212可相应地强调或不强调叠加的全部或部分。例如,场景110中快速移动或快速加速的对象可以使叠加强调修改器212不强调叠加,从而可以加强场景110中的对象的可见性,或者叠加强调修改器212可以强调叠加中的单个对象指示符以吸引用户对该对象的注意。
在其它示例中,(例如,如经由设备移动检测器210检测到的)设备101的快速或慢速平移或旋转移动可以使叠加强调修改器212强调或不强调信息叠加的全部或一个或多个部分。例如,叠加强调修改器212可以在设备101经历快速平移或旋转移动的时间期间不强调信息叠加。
在另一示例性实施方案中,代替依赖于场景改变数据,叠加强调修改器212可以基于对描述当前场景110的数据的分析来修改信息叠加的全部或部分的强调(例如,强调或不强调)。例如,叠加强调修改器212可以从场景数据分析器206或场景对象识别器208中的一个或多个接收指示当前场景110的一个或多个方面的数据,并且基于该数据来修改信息叠加的全部或部分相对于当前场景110的强调。在示例性实施方案中,叠加强调修改器212可以在生成场景改变数据之前基于初始场景数据来执行相对于默认或标准信息叠加的强调修改。
继续图2,诸如叠加对比度增强数据访问模块214和叠加背景图像生成器216的模块结合叠加模块106的其它模块可以协作以在场景110和信息叠加之间提供背景图像,从而使叠加或叠加的一个或多个部分对用户设备101的用户更可读或可见。在示例性实施方案中,叠加对比度增强数据访问模块214可以配置为访问或生成描述要使用的背景图像的对比度增强数据。例如,背景图像可以是某种颜色(例如,黑色、灰色、红色、黄色等)和/或亮度的半透明或半不透明的(例如,像素化的)背景图像,使得场景110中的至少一些透过背景图像被用户设备101的用户查看到。在另一示例性实施方案中,背景图像可以是不透明的,以防止场景110的与背景图像相对应的任何部分被查看到。此外,由对比度增强数据描述的背景图像可以与场景110的分辨率匹配或不匹配。在示例性实施方案中,叠加对比度增强数据可以提供如下的图案,该图案可以重复以覆盖场景110的某些部分,如由叠加背景图像生成器216确定的。
叠加背景图像生成器216可以配置为确定信息叠加的部分,在该信息叠加的部分之下要呈现背景或对比度图像。在示例性实施方案中,叠加背景图像生成器216可以基于来自叠加模块106的一个或多个模块的信息来确定信息叠加的部分。例如,叠加背景图像生成器216可以基于来自场景数据分析器206的数据(例如,指示场景110的一个或多个部分的视觉复杂度的数据)来确定要用背景图像作为背景的叠加部分。基于场景110的部分的视觉复杂度超过特定阈值,叠加背景图像生成器216可以识别信息叠加的与要应用背景图像的场景110的该部分相对应的部分。
在另一示例性实施方案中,叠加背景图像生成器216可以基于来自设备移动检测器210的信息来确定要由背景图像作为背景的信息叠加的部分。例如,当设备移动检测器210检测到超过特定阈值的用户设备101的平移或旋转移动时,叠加背景图像生成器216可以确定出信息叠加的任何部分都不由背景图像作为背景,从而当用户设备101继续超过阈值时,使得信息叠加的至少一部分不易辨别或不可读。
在又一示例性实施方案中,叠加背景图像生成器216可以将其信息叠加的部分的识别基于上面讨论的场景改变数据,例如,由场景改变数据访问模块204访问的场景改变数据或者由场景数据分析器206或场景对象识别器208生成的场景改变数据。例如,响应于识别由场景对象识别器208识别出的感兴趣的对象的位置的数据,叠加背景图像生成器216可以识别表示或识别(例如,通过文本或箭头或其它图形元素)在其下要应用背景图像的信息叠加的部分,以为该叠加部分提供附加的对比度。在示例性实施方案中,可以在涉及感兴趣的对象的特定环境下应用这种附加的对比度,特定环境例如如上所述,进入或离开场景110的特定部分或区域;侵入有利位置的特定距离内,诸如用户设备101的用户的有利位置;离开有利位置的特定距离等。
在示例性实施方案中,叠加背景图像生成器216可以基于如上所述由场景数据分析器206和/或设备移动检测器210所确定的场景的改变幅度超过或低于某个特定幅度或水平,来确定要由背景图像作为背景的叠加部分。例如,叠加背景图像生成器216可以确定出在场景110正快速改变或移动时不需要背景图像,而在较缓慢地改变场景110期间可能期望这样的背景图像。
在一些示例性实施方案中,叠加背景图像生成器216可以随着时间改变在场景110上应用的背景图像,例如,通过打开和关闭(例如,闪光或闪烁)背景图像,改变背景图像的性质(例如,通过利用的叠加对比度增强数据)等,以强调与背景图像相对应的叠加部分。在示例性实施方案中,叠加背景图像生成器216可以随着时间减小暗度或以其它方式改变背景图像的一个或多个方面(例如,图案、颜色、纹理等),这与场景110内叠加的相应部分的位置有关。例如,当叠加的相应部分远离场景110的中心移动时,或者当叠加的相应部分在场景110内更快地移动时,当用户设备101更快地移动时等等,背景图像的暗度可以减小。
叠加输出生成器218可以配置为使得由叠加强调修改器212和/或叠加背景图像生成器216生成或修改的信息叠加和/或背景图像(例如,经由用户设备101A的显示装置102、用户设备101B的投影仪103和用户设备101C的透明显示装置105)呈现。在一些示例性实施方案中,叠加模块106可以包括叠加强调修改器212但不包括叠加背景图像生成器216(反之亦然),利用叠加输出生成器218使得正被来自存在于叠加模块106中的模块(例如,叠加强调修改器212或叠加背景图像生成器216)的输出修改的信息叠加呈现。在其它示例性实施方案中,叠加模块106可以包括叠加强调修改器212和叠加背景图像生成器216两者,它们可以在相同的场景110上进行操作。因此,叠加输出生成器218可以接收叠加强调修改器212和叠加背景图像生成器216两者的输出,以同时应用于信息叠加和相关的场景110。
例如,叠加模块106(例如,经由场景数据分析器206、场景对象识别器208和/或设备移动检测器210)可以确定出场景110当前正经历超过某个阈值的改变,例如,通过在场景中检测到对象移动、用户设备101自身的旋转或平移移动等。响应于那些改变,叠加强调修改器212可以确定出信息叠加的至少一部分应该不强调(例如,较低的亮度、更小的文本字体等)。同时地,响应于相同场景110的改变,叠加背景图像生成器216可以确定出不应该利用背景图像,或者应该修改这样的背景图像以使更多的底层场景110可见。同时地,作为响应,叠加输出生成器218可以根据来自叠加强调修改器212和叠加背景图像生成器216二者的输出来修改背景图像和信息叠加。
在另一示例性实施方案中,叠加背景图像生成器216和/或叠加输出生成器218可以配置为将信息叠加的部分(例如,叠加的一个或多个对象或元素)重新定位到场景110中与背景图像的使用更加兼容的区域。例如,信息叠加的特定元素可以对应于对于用户查看比较重要的场景110的部分,例如场景110的中心部分。在该示例中,可以将要利用背景图像的信息叠加的部分在场景110内的位置移动到场景的更外围区域,从而使得背景图像的使用不会对场景110的中心部分的可见性产生负面影响。
在示例性实施方案中,叠加输出生成器218可以单独生成表示信息叠加和背景图像的数据或信号。例如,对于用户设备101C,叠加输出生成器218可以将表示信息叠加的数据提供给透明显示装置105以产生信息叠加(例如,经由LED),并且可以将表示背景图像的数据提供给透明显示装置105以部分地或完全地遮挡从主场景110的全部或一个或多个部分接收到的光(例如,经由与透明显示装置105联接的LCD结构或系统)。
图3是修改增强现实显示器中的信息叠加的强调的示例性方法300的流程图。虽然下面讨论的方法300和其它方法被描述为由叠加模块106和其中包括的各种模块执行,但是方法300也可以由未在本文中明确描述的其它结构来执行。而且,虽然以特定顺序呈现图3的方法300的操作和下面讨论的其它操作,但是包括两个或多个操作的同时、并行或重叠执行的其它执行顺序也是可能的。
在方法300中,叠加模块106可以使得在显示装置的场景110之上呈现信息叠加(例如,经由用户设备101A的显示装置102上的叠加输出生成器218,经由用户设备101B的投影仪103在透明投影表面112上,或者经由来自叠加数据访问模块202的数据在用户设备101C的透明显示装置105中)(步骤302)。可以访问指示场景110中的改变的场景改变数据(例如,经由场景改变数据访问模块204)(步骤304)。可以基于场景改变数据(例如,基于来自场景数据分析器206、场景对象识别器208和/或设备移动检测器210的数据,经由叠加强调修改器212)来修改信息叠加的至少一部分的视觉强调(例如,强调或不强调)(步骤306)。在其它示例性实施方案中,与场景改变数据不同,信息叠加的至少一部分的视觉强调可以基于指示当前场景110的一个或多个方面的数据。
图4A和图4B是生成用于修改信息叠加的强调的场景改变数据的示例性方法400A、400B的数据流程图。在方法400A中,可以将当前版本的场景110与先前版本的场景110进行比较(例如,通过场景数据分析器206或场景对象识别器208)(步骤402),并且场景改变数据可以基于该比较(步骤404)。在方法400B中,可以(例如,经由设备移动检测器210)访问指示显示装置(例如,用户设备101A的显示装置102、用户设备101B的投影仪103(或与其相关联的透明投影表面112)或用户设备101C的透明显示装置105)移动的移动数据(步骤412)。如上所述,可以基于移动数据生成场景改变数据(步骤414)。
图5A是具有示例性信息叠加的场景500A的图形描绘。场景500A是街道场景的视图,它包括用户感兴趣的商业的停车场的入口502A。相关信息叠加包括向用户提供引导的若干元素,使得用户可以导航到停车场和相关的商业。更具体地,信息叠加包括:指示停车场入口502A的位置的箭头508A、指示用户在停车场入口502A处转弯的文本提供指示504A(“此处转弯”)以及突出显示文本指示504A的图形元素506A(框)。信息叠加还包括:到感兴趣的建筑物入口的箭头528A、建筑物入口的文本标签524A(“入口”)以及突出显示文本标签524A的图形元素526A。建筑物入口(“23C”)的文本标签514A(例如,楼号)和相关的图形元素516A也包括在信息叠加中。
图5B是与图5A中的场景500A相关的场景500B的图形描绘,其中修改了信息叠加的强调。当用户接近停车场入口502A时,在场景500B中入口502A看起来比在先前的场景500A中更靠近用户。可以通过场景对象识别器208和/或场景数据分析器206来检测和指示这种外观差异,其可以确定出停车场入口502A的外观尺寸增加,和/或停车场入口502A的位置更加位于当前场景500B的中心。在另一示例中,用户设备101的GPS接收器可以指示出感兴趣的位置在距用户设备101的某个特定距离内。作为响应,叠加强调修改器212可以确定出与停车场入口502A相关的叠加元素(例如,箭头508A、文本指示504A和/或相关联的图形元素506A)应该不强调以增强场景中停车场入口502A的可见度。如图5B所示,这种不强调可以包括使箭头508B变得不富有色彩或更半透明,并且完全去除相应的图形元素506A,仅保留完整的文本指示504A。类似地,楼号的文本标签514A和建筑物入口的文本标签524A可以完整地保留,但是原始场景500A的箭头528A以及图形元素516A和526A在当前场景500B中已经被完全去除。在其它实施方案中可以采用其它方法强调或不强调信息叠加的各个部分。
图6是为增强现实显示器中的信息叠加提供对比度控制的示例性方法600的流程图。在方法600中,(例如,经由叠加对比度增强数据访问模块214)访问描述在信息叠加之下呈现的背景图像的至少一部分的对比度增强数据(步骤602)。(例如,利用场景数据分析器206、场景对象识别器208和/或设备移动检测器210)识别信息叠加中要在其下呈现背景图像的至少一部分(步骤604)。叠加背景图像生成器216可以使背景图像在与信息叠加的部分相对应的场景110部分之上呈现(步骤606)。此外,叠加输出生成器218可以使信息叠加在背景图像和场景110上呈现(步骤608)。
图7是采用场景改变数据来修改用于为信息叠加提供对比度控制的对比度增强数据的示例性方法700的流程图。在方法700中,可以访问指示场景110中的改变的场景改变数据(例如,经由场景改变数据访问模块204)(步骤702)。基于场景改变数据(例如,基于来自场景数据分析器206、场景对象识别器208和/或设备移动检测器210的数据,经由叠加背景图像生成器216)来生成识别叠加中要在其下呈现背景图像的部分的数据(步骤704)。在其它示例性实施方案中,与场景改变数据不同,基于描述当前场景110的一个或多个方面(例如,颜色、亮度、复杂度、对象位置、对象类型等)的数据来生成识别叠加中要在其下呈现背景图像的部分的数据。
图8是在其上提供信息叠加的场景800的图形表示,示出了通过背景图像的方式信息叠加部分的对比度增强。场景800的各方面类似于上述场景500A的那些方面,其中感兴趣的停车场入口802通过信息叠加的箭头808、指示文本804(“此处转弯”)和图形元素806(例如,框)表示。文本标签814(“树”)和相关的图形元素816表示场景800中的树,同时信息叠加中也包括两个标签824、834(“天空”和“更多天空”)和对应的图形元素826、836。
图8中还示出了背景图像840,它出现在场景800的上面并且在“更多天空”标签834和相关的图形元素836的后面,以演示利用背景图像840来增强标签834和图形元素836的对比度,从而增加了叠加的那些部分相对于叠加的其它部分(例如标签824和相关的图形元素826)的可读性或可见性,其中场景800的相应部分(例如,蓝天)会使得那些元素824、826的可读性较低。由于为叠加的那些特定元素背景的场景部分(例如,树)在视觉上的复杂度,也可以认为文本指示804、标签814和对应的图形元素806、816的可读性或可见性较低。如上所述,信息叠加中在其下呈现背景图像840的特定部分在其它实施方案中可以基于若干不同因素,例如,感兴趣的对象移入或移出场景800的一个或多个区域的移动、对象朝向和远离特定有利位置(例如,用户设备101)的移动、用户设备101的移动等。
图9A是场景900A的图形表示,在场景900A上呈现没有对比度增强的虚拟视频显示器902。更具体地,图9A的虚拟视频显示器902(例如,视频剪辑)直接显示在场景900A中的白色墙壁904的顶部。假设虚拟视频显示器902配置为允许场景900A的墙壁904的至少一部分透过虚拟视频显示器902,虚拟视频显示器902可能看起来过亮或“褪色”,从而降低了观众经由虚拟视频显示器902查看显示的图像的至少一些更精细或更详细的方面的性能。
图9B是图9A的场景900A的图形表示,在场景900A中呈现具有对比度增强的虚拟视频显示器902。更具体地,已经在所得到的场景900B的顶部渲染了背景图像906(在背景图像906中呈现了虚拟视频显示器902),从而使显示器具有更大的感知对比度。在该特定示例性实施方案中,背景图像906是灰度像素化图像,它部分地遮挡虚拟视频显示器902之下的场景900B的部分使其不会被看到。此外,在图9B的示例性实施方案中,尽管其它背景图像的分辨率可以等于或大于相应场景的分辨率,但是背景图像906的分辨率小于场景900B本身的分辨率。
鉴于至少一些上述示例性实施方案,可以通过改变信息叠加的一个或多个方面来强调或不强调信息叠加(例如在AR显示器中所采用的信息叠加)的全部或部分。此外,可以通过使用背景图像来修改叠加的全部或部分的视觉对比度。这样的修改可以基于底层场景的特定状态、场景中的改变以及其他因素。通过以这种方式改变叠加的视觉方面,可以增强叠加对用户的整体有用性。
图10是示出根据一些示例性实施方案的机器1000的组件的框图,机器1000能够从机器可读介质1022(例如,非易失性机器可读介质、机器可读存储介质或计算机可读存储介质)读取指令1024,并且全部或部分地执行本文所讨论的任何一种或多种方法。具体地,图10描绘了以计算机设备(例如,计算机)的示例性形式的机器1000,在机器1000中可以全部或部分地执行用于使机器1000执行本文所讨论的任何一种或多种方法的指令1024(例如,软件、固件、程序、应用程序、小应用程序、app或其它可执行代码)。
例如,指令1024可以使机器1000执行图3、图4A、图4B、图6和图7的流程图,以及与其相关联的示例性实施方案。指令1024可以将通用的、未编程的机器1000变换为特定的机器(例如,专门配置的机器),该机器被编程为以所描述的方式执行所描述和示出的功能。此外,在示例性实施方案中,机器1000可以作为图2叠加模块106的模块202-218中的一个或多个,以及图1A至图1C用户设备101A至101C中的一个或多个,或者本文所描述的任何其它的计算系统或设备进行操作。
在示例性实施方案中,机器1000作为独立设备进行操作或者可以连接(例如,联网)至其它机器。机器1000可以是服务器计算机、客户端计算机、个人计算机(PC)、平板计算机、膝上型计算机、上网本、机顶盒(STB)、个人数字助理(PDA)、蜂窝电话、智能手机、网络设备、网络路由器、网络交换机、网桥、电源适配器或能够按顺序或以其它方式执行指令1024(其指定该机器1000要采取的动作)的任何机器1000。此外,虽然仅示出了单个机器1000,但术语“机器”还应被视为包括单独地或联合地执行指令1024以执行本文所讨论的任何一种或多种方法的机器集合。
机器1000包括配置为经由总线1008相互通信的处理器1002(例如,中央处理单元(CPU)、图形处理单元(GPU)、数字信号处理器(DSP)、专用集成电路(ASIC)、射频集成电路(RFIC)或者它们的任何合适的组合)、主存储器1004和静态存储器1006。处理器1002可以包括可通过一些或全部指令1024临时或永久地配置的微电路,使得处理器1002可配置为全部或部分地执行本文所描述的任何一种或多种方法。例如,处理器1002的一个或多个微电路的集合可以是可配置为执行本文所描述的一个或多个模块(例如,软件模块)。
机器1000可以进一步包括:图形显示器1010(例如,等离子体显示面板(PDP)、发光二极管(LED)显示器、液晶显示器(LCD)、投影仪、阴极射线管(CRT)或任何其它能够显示图形或视频的显示器)。机器1000还可以包括:字母数字输入装置1012(例如,键盘或小键盘)、光标控制装置1014(例如,鼠标、触摸板、轨迹球、操纵杆、运动传感器、眼球跟踪装置或者其它指向仪器)、存储单元1016、信号生成装置1018(例如,声卡、放大器、扬声器、耳机插孔或者它们的任何合适的组合)以及网络接口装置1020。
存储单元1016包括机器可读介质1022(例如,有形的机器可读存储介质),其上存储有实现本文所描述的任何一种或多种方法或功能的指令1024。在通过机器1000执行指令1024之前或期间,指令1024还可以完全或至少部分地存在于主存储器1004内、处理器1002内(例如,处理器1002的高速缓冲存储器内)或者位于两者内。相应地,主存储器1004和处理器1002可以被认为是机器可读介质1022(例如,有形的且非易失性的机器可读介质)。
在一些示例性实施方案中,机器1000可以是便携式或移动式计算设备并且具有一个或多个附加的输入组件(例如,传感器或计量仪)。这样的输入组件的示例包括:图像输入组件(例如,一个或多个摄像机)、音频输入组件(例如,麦克风)、方向输入组件(例如,指南针)、位置输入组件(例如,全球定位系统(GPS)接收器)、定向组件(例如,陀螺仪)、运动检测组件(例如,一个或多个加速度计)、高度检测组件(例如,高度计)以及气体检测组件(例如,气体传感器)。由这些输入组件中的任何一个或多个收集的输入可以是可访问的并且可供本文所描述的任何模块使用。
如本文所利用的,术语“存储器”指的是能够临时或永久地存储数据的机器可读介质1022,并且可以被认为包括但不限于,随机存取存储器(RAM)、只读存储器(ROM)、缓冲存储器、闪存和高速缓冲存储器。虽然在示例性实施方案中将机器可读介质1022示为单个介质,但是术语“机器可读介质”应当被视为包括能够存储指令1024的单个介质或多个介质(例如,集中式或分布式数据库、或相关的高速缓存和服务器)。术语“机器可读介质”还应被认为包括能够存储指令1024以供机器(例如,机器1000)执行的任何介质或多个介质的组合,使得当通过机器1000的一个或多个处理器(例如,处理器1002)执行指令1024时,使机器1000执行本文所描述的任何一种或多种方法。相应地,术语“机器可读介质”应被认为包括但不限于以固态存储器、光学介质、磁介质或者它们的任何合适的组合形式的一个或多个数据存储库。
此外,机器可读介质1022是非易失性的,因为其不呈现传播信号或易失性信号。然而,将机器可读介质1022标记为“非易失性”不应被解释为表示介质不能移动;在一些示例性实施方案中,介质应被视为可以从一个物理位置移动到另一个物理位置。另外,由于机器可读介质1022是有形的,因而可以将介质视为机器可读设备。
可以进一步经由网络接口设备1020,利用传输介质并且利用若干已知的传输协议(例如,超文本传输协议HTTP)中的任何一种,通过通信网络1026来发送或接收指令1024。通信网络1026的示例包括:局域网(LAN)、广域网(WAN)、因特网、移动电话网、普通老式电话服务(POTS)网以及无线数据网(例如, 和WiMAXTM网络)。术语“传输介质”应被认为包括能够存储、编码或承载用于通过机器1000执行的指令1024并且包括数字或模拟通信信号的任何无形的介质,或者其它无形的介质以便于这种软件的通信。
载体介质可包括计算机可读存储介质或传输介质。载体介质包括用于承载可由机器的处理器执行的指令的任何介质。
在示例性实施方案中,一种计算机化的方法包括:利用一个或多个硬件处理器中的至少一个访问描述背景图像的至少一部分的对比度增强数据,所述背景图像用于在显示装置上信息叠加之下呈现,所述信息叠加包括图形元素或文本元素中的至少一个以部分地模糊场景;利用一个或多个硬件处理器中的至少一个识别信息叠加中要在其下呈现背景图像的至少一部分;在显示装置上,在与信息叠加的至少一部分相对应的场景部分之上呈现背景图像;以及在显示装置上,在背景图像和场景之上呈现信息叠加。
在包括所有先前示例性实施方案的另一示例性实施方案中,该方法还包括使得在显示装置上呈现场景。
在包括所有先前示例性实施方案的另一示例性实施方案中,对比度增强数据包括指示要用于背景图像的背景图案的数据,使得利用所指示的背景图案呈现背景图像。
在包括所有先前示例性实施方案的另一示例性实施方案中,对比度增强数据包括指示用于背景图像的颜色的数据,使得利用所指示的颜色呈现背景图像。
在包括所有先前示例性实施方案的另一示例性实施方案中,对比度增强数据包括指示用于背景图像的亮度的数据,使得利用所指示的亮度呈现背景图像。
在包括所有先前示例性实施方案的另一示例性实施方案中,数据基于与识别出的信息叠加部分相对应的场景部分的亮度来识别信息叠加的至少一部分。
在包括所有先前示例性实施方案的另一示例性实施方案中,数据基于与识别出的信息叠加部分相对应的场景部分的视觉复杂度来识别信息叠加的至少一部分。
在包括所有先前示例性实施方案的另一示例性实施方案中,在场景部分之上呈现背景图像包括背景图像的时域调制。
在包括所有先前示例性实施方案的另一示例性实施方案中,该方法还包括访问指示场景中的改变的场景改变数据,基于场景改变数据生成识别信息叠加的至少一部分的数据。
在包括所有先前示例性实施方案的另一示例性实施方案中,场景改变数据包括与由识别出的信息叠加部分所指示的场景中感兴趣的对象相对应的场景部分的指示。
在包括所有先前示例性实施方案的另一示例性实施方案中,生成识别信息叠加的至少一部分的数据是响应于感兴趣的对象进入场景的部分而发生的。
在包括所有先前示例性实施方案的另一示例性实施方案中,生成识别信息叠加的至少一部分的数据是响应于感兴趣的对象离开场景的部分而发生的。
在包括所有先前示例性实施方案的另一示例性实施方案中,生成识别信息叠加的至少一部分的数据是响应于感兴趣的对象侵入到场景的有利位置特定感知距离内而发生的。
在包括所有先前示例性实施方案的另一示例性实施方案中,生成识别信息叠加的至少一部分的数据,所述信息叠加是响应于感兴趣的对象从到场景的有利位置特定感知距离离开而发生的。
在包括所有先前示例性实施方案的另一示例性实施方案中,生成识别信息叠加的至少一部分的数据是响应于指示在一段时间期间场景中的改变幅度超过特定水平的场景改变数据而发生的。
在包括所有先前示例性实施方案的另一示例性实施方案中,生成识别信息叠加的至少一部分的数据,所述数据叠加是响应于指示在一段时间期间场景中的改变幅度低于特定水平的场景改变数据而发生的。
在包括所有先前示例性实施方案的另一示例性实施方案中,该方法还包括将当前版本的场景与先前版本的场景进行比较;并且基于当前版本的场景与先前版本的场景的比较来生成场景改变数据。
在包括所有先前示例性实施方案的另一示例性实施方案中,该方法还包括接收指示显示装置移动的移动数据;并且基于移动数据生成场景改变数据。
在包括所有先前示例性实施方案的另一示例性实施方案中,移动数据指示显示装置的平移移动。
在包括所有先前示例性实施方案的另一示例性实施方案中,移动数据指示显示装置的旋转移动。
在示例性实施方案中,一种显示系统包括:一个或多个硬件处理器;以及存储器,其中存储有指令,当由一个或多个硬件处理器中的至少一个执行所述指令时,使显示系统执行包括以下的操作:访问描述背景图像的至少一部分的对比度增强数据,所述背景图像用于在显示装置上信息叠加之下呈现,所述信息叠加包括图形元素或文本元素中的至少一个以部分地模糊场景;识别信息叠加中要在其下呈现背景图像的至少一部分;在显示装置上,在与信息叠加的至少一部分相对应的场景部分之上呈现背景图像;以及在显示装置上,在背景图像和场景之上呈现信息叠加。
在包括所有先前示例性实施方案的另一示例性实施方案中,显示系统还包括显示装置。
在包括所有先前示例性实施方案的另一示例性实施方案中,操作还包括访问指示场景中的改变的场景改变数据,基于场景改变数据生成识别信息叠加的至少一部分的数据。
在包括所有先前示例性实施方案的另一示例性实施方案中,显示系统还包括:移动检测装置,其联接到显示装置,移动检测装置配置为生成指示显示装置移动的移动数据,操作还包括基于移动数据生成场景改变数据。
在包括所有先前示例性实施方案的另一示例性实施方案中,操作还包括:将当前版本的场景与先前版本的场景进行比较;以及基于当前版本的场景与先前版本的场景的比较来生成场景改变数据。
在包括所有先前示例性实施方案的另一示例性实施方案中,操作还包括使得在显示装置上呈现场景。
在包括所有先前示例性实施方案的另一示例性实施方案中,场景包括实体环境的视图;显示装置包括通过其可以查看实体环境的透明材料;系统还包括投影设备;呈现背景图像和呈现信息叠加包括利用投影设备将背景图像和信息叠加投影到透明材料上。
在包括所有先前示例性实施方案的另一示例性实施方案中,场景包括实体环境的视图;显示装置包括通过其查看实体环境的透明材料,以及联接到透明材料的发光系统;呈现背景图像和呈现信息叠加包括利用发光系统呈现背景图像和信息叠加。
在包括所有先前示例性实施方案的另一示例性实施方案中,场景包括实体环境的视图;显示装置包括通过其查看实体环境的透明材料,联接到透明材料的发光系统以及联接到透明材料以至少部分地遮挡来自场景的一个或多个部分的光的遮光系统;利用遮光系统呈现背景图像;以及利用发光系统呈现信息叠加。
在包括所有先前示例性实施方案的另一示例性实施方案中,操作还包括:生成包括描述场景、背景图像和信息叠加的信息的一个或多个信号,并且显示装置配置为基于一个或多个信号发出表示场景、背景图像以及信息叠加的光。
在示例性实施方案中,非易失性计算机可读存储介质包括:指令,当由机器的一个或多个硬件处理器执行指令时,所述指令使机器执行包括以下的步骤:访问描述背景图像的至少一部分的对比度增强数据,所述背景图像用于在显示装置上信息叠加之下呈现,所述信息叠加包括图形元素或文本元素中的至少一个以部分地模糊场景;识别信息叠加中要在其下呈现背景图像的至少一部分;在显示装置上,在与信息叠加的至少一部分相对应的场景部分之上呈现背景图像;以及在显示装置上,在背景图像和场景之上呈现信息叠加。
在整个说明书中,多个示例可以实现被描述为单个示例的组件、操作或结构。尽管一种或多种方法的单个操作示为并描述为单独的操作,但是可以同时执行单个操作中的一个或多个,而不需要以所示的顺序执行操作。在示例性配置中作为单独组件呈现的结构和功能可以实现为组合结构或组件。类似地,作为单个组件呈现的结构和功能可以实现为单独的组件。这些和其它变体、修改、添加和改进都落入本文主题的范围内。
在本文中,将某些示例性实施方案描述为包括逻辑或若干组件、模块或机制。模块可以构成软件模块(例如,在机器可读介质1022上或在传输信号中体现的代码)或硬件模块。“硬件模块”是能够执行某些操作的有形单元,并且可以以某种物理方式配置或布置。在各种示例性实施方案中,一个或多个计算机系统(例如,独立计算机系统、客户端计算机系统或服务器计算机系统)或计算机系统的一个或多个硬件模块(例如,处理器1002或一组处理器1002)可以由软件(例如,应用程序或应用程序部分)配置为运行以执行如本文所述的某些操作的硬件模块。
在一些示例性实施方案中,硬件模块可以机械地、电子地或其任何合适的组合来实现。例如,硬件模块可以包括永久配置为执行某些操作的专用电路或逻辑。例如,硬件模块可以是专用处理器,例如,现场可编程门阵列(FPGA)或ASIC。硬件模块还可以包括由软件临时配置以执行某些操作的可编程逻辑或电路。例如,硬件模块可以包括包含在通用处理器或其它可编程处理器内的软件。应当理解,可以根据成本和时间考虑来做出将硬件模块机械地实现在专用和永久配置的电路中还是临时配置的电路(例如,由软件配置)中的决定。
相应地,短语“硬件模块”应被理解为包含有形实体,即为物理构造、永久配置(例如,硬接线)的实体,或为临时配置(例如,编程)以某种方式操作或者执行本文所描述的某些操作的实体。如本文所使用的,“硬件实现的模块”指的是硬件模块。考虑其中临时配置(例如,编程)硬件模块的示例性实施方案,不需要在任何一个时刻配置或实例化每个硬件模块。例如,在硬件模块包括由软件配置成为专用处理器的通用处理器的情况下,通用处理器可以在不同时间配置为各个不同的专用处理器(例如,包括不同的硬件模块)。相应地,软件可以配置处理器,例如,在一个时刻构成特定硬件模块,并在不同时刻构成不同的硬件模块。
本文所描述的示例性方法的各种操作可以至少部分地由临时配置(例如,通过软件)或永久配置为执行相关操作的一个或多个处理器来执行。无论是临时配置还是永久配置,这样的处理器可以构成由处理器实现的模块,其运行以执行本文所描述的一个或多个操作或功能。如本文所使用的,“处理器实现的模块”指的是使用一个或多个处理器实现的硬件模块。
类似地,本文所描述的方法可以至少部分地由处理器实现,处理器是硬件的示例。例如,方法的至少一些操作可以由一个或多个处理器或处理器实现的模块执行。
本文所讨论的主题的一些部分可以呈现在对机器存储器(例如,计算机存储器)内作为位或二进制数字信号存储的数据进行操作的算法或符号表示。这些算法或符号表示是数据处理领域的普通技术人员所采用的技术的示例,以将他们工作的实质传达给本领域其他技术人员。如本文所使用的,“算法”是得到期望结果的自洽(self-consistent)的操作序列或类似的处理。在这种语境下,算法和操作涉及物理量的物理操控。通常但非必要地,这样的量可以采取能够被机器存储、访问、传输、组合、比较或以其它方式操控的电信号、磁信号或光学信号的形式。有时,主要是出于通用的原因,利用诸如“数据”、“内容”、“位”、“值”、“元素”、“符号”、“字符”、“术语”、“编号”、“数字”等词语来指代这样的信号是方便的。然而,这些词语仅仅是方便的标签,并且与适当的物理量相关。
除非另外特别说明,否则本文利用诸如“处理”、“估算(computing)”、“计算(calculating)”、“确定”、“呈现”、“显示”等词语进行的讨论可以指代机器(例如,计算机)的动作或过程,该机器对在一个或多个存储器(例如,易失性存储器、非易失性存储器或其任何合适的组合)、寄存器或其它接收、存储、传输或显示信息的机器组件中,表示为物理(例如,电子、磁性或光学)量的数据进行操控或变换。此外,除非另外特别说明,否则如在专利文献中常见的那样,本文中的术语“一”或“一个”用于包括一个或多于一个的情况。最后,除非另外特别说明,否则本文所使用的连词“或”指的是非排它性的“或”。
尽管已经参照特定的示例性实施方案描述了本发明主题的概述,但是在不脱离本发明实施方案的更宽范围的情况下,可以对这些示例性实施方案进行各种修改和改变。例如,本领域普通技术人员可以混合和匹配各种实施方案或实施方案的特征或使各种实施方案或实施方案的特征成为可选的。在本文中可以通过术语“发明”单独地或共同地指代本发明主题的这些实施方案,这仅仅是为了方便,而如果实际上公开了不止一个发明构思,则不旨在自愿地将本申请的范围限制于任何单个发明构思。
足够详细地描述了本文所示的示例性实施方案,以使本领域技术人员能够实践所公开的教示。可以利用其它实施方案并从中导出其它实施方案,使得可以在不脱离本发明范围的情况下进行结构和逻辑的替换和改变。因此,具体实施方式不应被视为具有限制意义,并且各种实施方案的范围仅由所附权利要求以及这些权利要求所赋予的等价形式的全部范围来限定。
此外,可以为本文描述为单个示例的资源、操作或结构提供多个示例。另外,各种资源、操作、模块、引擎和数据存储装置之间的边界在某种程度上是任意的,并且在特定说明性配置的上下文中示出特定操作。其它的功能分配能够设想并且可以落入本发明的各种实施方案的范围内。通常,在示例性配置中作为单独资源呈现的结构和功能可以实现为组合结构或资源。类似地,作为单一资源呈现的结构和功能可以实现为单独的资源。这些和其它变型、修改、添加和改进落入由所附权利要求表示的本发明的实施方案的范围内。相应地,说明书和附图应被视为说明性的而非限制性的意义。
Claims (20)
1.一种计算机化的方法,其包括:
利用一个或更多个硬件处理器,基于场景的改变识别一个或更多个场景的特征;
基于一个或更多个识别出的场景的特征,利用一个或更多个硬件处理器,在显示装置上呈现与场景信息叠加的至少一部分;以及
使得在显示装置上呈现与在时域调制的背景图像上显示的场景信息叠加的至少一部分。
2.根据权利要求1所述的计算机化的方法,其中,所述场景是实际环境或虚拟环境的表示。
3.根据权利要求1所述的计算机化的方法,其中,确定显示装置呈现与场景信息叠加的至少一部分包括:
基于与信息叠加的至少一部分相对应的场景部分的亮度来识别信息叠加的至少一部分。
4.根据权利要求1所述的计算机化的方法,其中,确定显示装置呈现与场景信息叠加的至少一部分包括:
基于与信息叠加的至少一部分相对应的场景部分的视觉复杂度来识别信息叠加的至少一部分。
5.根据权利要求1所述的计算机化的方法,其中,基于场景的改变识别一个或更多个场景的特征包括:检测场景中的感兴趣的对象。
6.根据权利要求1所述的计算机化的方法,其中,基于场景的改变识别一个或更多个场景的特征包括:将当前版本的场景与先前版本的场景进行比较。
7.根据权利要求1所述的计算机化的方法,其中,基于场景的改变识别一个或更多个场景的特征包括:
接收指示显示装置移动的移动数据,其中,基于移动数据识别一个或更多个场景的特征。
8.根据权利要求7所述的计算机化的方法,其中,所述移动数据指示显示装置的平移移动。
9.根据权利要求7所述的计算机化的方法,其中,所述移动数据指示显示装置的旋转移动。
10.一种装置,其包括:
一个或更多个硬件处理器;和
存储器,其中存储有指令,当由一个或更多个硬件处理器中的至少一个执行所述指令时,使得一个或更多个处理器执行包括以下各项的操作:
基于场景的改变识别一个或更多个场景的特征;
基于一个或更多个识别出的场景的特征,确定在显示装置上呈现与场景信息叠加的至少一部分;以及
使得在显示装置上呈现与在时域调制的背景图像上显示的场景信息叠加的至少一部分。
11.根据权利要求10所述的装置,其中,所述场景是实际环境或虚拟环境的表示。
12.根据权利要求10所述的装置,其中,确定显示装置呈现与场景信息叠加的至少一部分包括:
基于与信息叠加的至少一部分相对应的场景部分的亮度来识别信息叠加的至少一部分。
13.根据权利要求10所述的装置,其中,确定显示装置呈现与场景信息叠加的至少一部分包括:
基于与信息叠加的至少一部分相对应的场景部分的视觉复杂度来识别信息叠加的至少一部分。
14.根据权利要求10所述的装置,其中:
基于场景的改变识别一个或更多个场景的特征包括:将当前版本的场景与先前版本的场景进行比较。
15.一种系统,其包括:
显示装置;
存储器,其上存储有指令;以及
一个或更多个硬件处理器,其由指令配置以执行包括以下各项的操作:
基于场景的改变识别一个或更多个场景的特征;
基于一个或更多个识别出的场景的特征,确定在显示装置上呈现与场景信息叠加的至少一部分;以及
使得在显示装置上呈现与在时域调制的背景图像上显示的场景信息叠加的至少一部分。
16.根据权利要求15所述的系统,进一步包括:
摄像机,其拍摄场景。
17.根据权利要求15所述的系统,其中,所述场景是实际环境或虚拟环境的表示。
18.根据权利要求15所述的系统,其中,确定显示装置呈现与场景信息叠加的至少一部分包括:
基于与信息叠加的至少一部分相对应的场景部分的亮度来识别信息叠加的至少一部分。
19.根据权利要求15所述的系统,其中,基于场景的改变识别一个或更多个场景的特征包括:检测场景中的感兴趣的对象。
20.根据权利要求15所述的系统,其中,基于场景的改变识别一个或更多个场景的特征包括:将当前版本的场景与先前版本的场景进行比较。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/407,491 | 2017-01-17 | ||
US15/407,491 US10235788B2 (en) | 2017-01-17 | 2017-01-17 | Overlay contrast control in augmented reality displays |
PCT/US2018/013893 WO2018136426A1 (en) | 2017-01-17 | 2018-01-16 | Overlay contrast control in augmented reality displays |
CN201880006028.2A CN110168616B (zh) | 2017-01-17 | 2018-01-16 | 增强现实显示器中的叠加对比度控制 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201880006028.2A Division CN110168616B (zh) | 2017-01-17 | 2018-01-16 | 增强现实显示器中的叠加对比度控制 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116681870A true CN116681870A (zh) | 2023-09-01 |
Family
ID=61750498
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201880006028.2A Active CN110168616B (zh) | 2017-01-17 | 2018-01-16 | 增强现实显示器中的叠加对比度控制 |
CN202310807102.3A Pending CN116681870A (zh) | 2017-01-17 | 2018-01-16 | 增强现实显示器中的叠加对比度控制 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201880006028.2A Active CN110168616B (zh) | 2017-01-17 | 2018-01-16 | 增强现实显示器中的叠加对比度控制 |
Country Status (5)
Country | Link |
---|---|
US (3) | US10235788B2 (zh) |
EP (1) | EP3571672A1 (zh) |
CN (2) | CN110168616B (zh) |
BR (1) | BR112019014333A2 (zh) |
WO (1) | WO2018136426A1 (zh) |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11381757B2 (en) | 2019-06-13 | 2022-07-05 | Motherson Innovations Company Limited | Imaging system and method |
EP3345184A1 (en) * | 2015-09-02 | 2018-07-11 | THOMSON Licensing | Method, apparatus and system for facilitating navigation in an extended scene |
US11351472B2 (en) | 2016-01-19 | 2022-06-07 | Disney Enterprises, Inc. | Systems and methods for using a gyroscope to change the resistance of moving a virtual weapon |
US11663783B2 (en) | 2016-02-10 | 2023-05-30 | Disney Enterprises, Inc. | Systems and methods for using augmented reality with the internet of things |
US10587834B2 (en) | 2016-03-07 | 2020-03-10 | Disney Enterprises, Inc. | Systems and methods for tracking objects for augmented reality |
US10235788B2 (en) | 2017-01-17 | 2019-03-19 | Opentv, Inc. | Overlay contrast control in augmented reality displays |
US10152815B2 (en) | 2017-01-17 | 2018-12-11 | Opentv, Inc. | Overlay emphasis modification in augmented reality displays |
JP2019062462A (ja) * | 2017-09-27 | 2019-04-18 | キヤノン株式会社 | 表示装置およびその制御装置、ならびにそれらの制御方法 |
US10699485B2 (en) * | 2018-01-04 | 2020-06-30 | Universal City Studios Llc | Systems and methods for textual overlay in an amusement park environment |
WO2019143117A1 (en) * | 2018-01-18 | 2019-07-25 | Samsung Electronics Co., Ltd. | Method and apparatus for adjusting augmented reality content |
US10481680B2 (en) | 2018-02-02 | 2019-11-19 | Disney Enterprises, Inc. | Systems and methods to provide a shared augmented reality experience |
JP2019152980A (ja) | 2018-03-01 | 2019-09-12 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
US10546431B2 (en) * | 2018-03-29 | 2020-01-28 | Disney Enterprises, Inc. | Systems and methods to augment an appearance of physical object for an augmented reality experience |
US11308922B2 (en) * | 2018-07-03 | 2022-04-19 | Telefonaktiebolaget Lm Ericsson (Publ) | Portable electronic device for mixed reality headset |
US10974132B2 (en) | 2018-10-02 | 2021-04-13 | Disney Enterprises, Inc. | Systems and methods to provide a shared interactive experience across multiple presentation devices based on detection of one or more extraterrestrial bodies |
US11014008B2 (en) | 2019-03-27 | 2021-05-25 | Disney Enterprises, Inc. | Systems and methods for game profile development based on virtual and/or real activities |
US10916061B2 (en) | 2019-04-24 | 2021-02-09 | Disney Enterprises, Inc. | Systems and methods to synchronize real-world motion of physical objects with presentation of virtual content |
TWI717824B (zh) * | 2019-09-04 | 2021-02-01 | 財團法人工業技術研究院 | 資訊顯示方法以及資訊顯示系統 |
EP3819699B1 (en) * | 2019-11-08 | 2024-02-21 | Leica Instruments (Singapore) Pte. Ltd. | Optical system and corresponding apparatus, method and computer program |
Family Cites Families (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2252224A (en) * | 1990-12-12 | 1992-07-29 | Apple Computer | Providing an overlay e.g. a cursor, for a computer display |
JP3271634B2 (ja) * | 1993-08-10 | 2002-04-02 | ソニー株式会社 | デジタル画像信号の伝送装置及び受信装置 |
US5913591A (en) | 1998-01-20 | 1999-06-22 | University Of Washington | Augmented imaging using a silhouette to improve contrast |
US7319755B2 (en) | 2001-08-03 | 2008-01-15 | Waterstrike Incorporated | Image altering apparatus and method for providing confidential viewing of a fundamental display image |
US10032192B2 (en) | 2003-12-23 | 2018-07-24 | Roku, Inc. | Automatic localization of advertisements |
US7271815B2 (en) | 2004-10-21 | 2007-09-18 | International Business Machines Corporation | System, method and program to generate a blinking image |
GB0805924D0 (en) | 2008-04-02 | 2008-05-07 | Hibbert Ralph Animation | Storyboard creation system |
US9480919B2 (en) | 2008-10-24 | 2016-11-01 | Excalibur Ip, Llc | Reconfiguring reality using a reality overlay device |
US8175617B2 (en) * | 2009-10-28 | 2012-05-08 | Digimarc Corporation | Sensor-based mobile search, related methods and systems |
US8964298B2 (en) | 2010-02-28 | 2015-02-24 | Microsoft Corporation | Video display modification based on sensor input for a see-through near-to-eye display |
US20120056896A1 (en) * | 2010-09-02 | 2012-03-08 | Border John N | Presenting information on a see-though display |
US8576276B2 (en) * | 2010-11-18 | 2013-11-05 | Microsoft Corporation | Head-mounted display device which provides surround video |
US8670000B2 (en) | 2011-09-12 | 2014-03-11 | Google Inc. | Optical display system and method with virtual image contrast control |
US9235318B2 (en) * | 2012-02-01 | 2016-01-12 | Facebook, Inc. | Transitions among hierarchical user-interface layers |
JP5912059B2 (ja) * | 2012-04-06 | 2016-04-27 | ソニー株式会社 | 情報処理装置、情報処理方法及び情報処理システム |
GB2501925B (en) | 2012-05-11 | 2015-04-29 | Sony Comp Entertainment Europe | Method and system for augmented reality |
US9092896B2 (en) * | 2012-08-07 | 2015-07-28 | Microsoft Technology Licensing, Llc | Augmented reality display of scene behind surface |
US11397462B2 (en) * | 2012-09-28 | 2022-07-26 | Sri International | Real-time human-machine collaboration using big data driven augmented reality technologies |
NL2009616C2 (en) * | 2012-10-11 | 2014-04-14 | Ultra D Co Peratief U A | Adjusting depth in a three-dimensional image signal. |
PT2909808T (pt) * | 2012-10-17 | 2020-05-06 | Cathx Res Ltd | Melhoramentos em e relacionados com o processamento de dados de vistoria de uma cena subaquática |
US9619911B2 (en) * | 2012-11-13 | 2017-04-11 | Qualcomm Incorporated | Modifying virtual object display properties |
JP6155643B2 (ja) * | 2013-01-07 | 2017-07-05 | セイコーエプソン株式会社 | 表示装置、および、表示装置の制御方法 |
RU2621488C2 (ru) * | 2013-02-14 | 2017-06-06 | Сейко Эпсон Корпорейшн | Укрепляемый на голове дисплей и способ управления для укрепляемого на голове дисплея |
KR101753200B1 (ko) | 2013-09-09 | 2017-07-04 | 엠파이어 테크놀로지 디벨롭먼트 엘엘씨 | 증강 현실 변경 감지기 |
US20150123966A1 (en) * | 2013-10-03 | 2015-05-07 | Compedia - Software And Hardware Development Limited | Interactive augmented virtual reality and perceptual computing platform |
KR20150059989A (ko) * | 2013-11-25 | 2015-06-03 | 삼성전자주식회사 | 문서 인식 방법 및 장치 |
EP2886039B1 (en) | 2013-12-17 | 2019-08-21 | Microsoft Technology Licensing, LLC | Method and see-thru display device for color vision deficit correction |
US9898844B2 (en) | 2013-12-31 | 2018-02-20 | Daqri, Llc | Augmented reality content adapted to changes in real world space geometry |
US20150262428A1 (en) * | 2014-03-17 | 2015-09-17 | Qualcomm Incorporated | Hierarchical clustering for view management augmented reality |
US9710711B2 (en) * | 2014-06-26 | 2017-07-18 | Adidas Ag | Athletic activity heads up display systems and methods |
US9557951B2 (en) | 2015-03-04 | 2017-01-31 | International Business Machines Corporation | Filtering information within augmented reality overlays |
US9791917B2 (en) | 2015-03-24 | 2017-10-17 | Intel Corporation | Augmentation modification based on user interaction with augmented reality scene |
KR20160137258A (ko) | 2015-05-22 | 2016-11-30 | 삼성전자주식회사 | 전자 장치 및 그의 화면 표시 방법 |
US10152815B2 (en) | 2017-01-17 | 2018-12-11 | Opentv, Inc. | Overlay emphasis modification in augmented reality displays |
US10235788B2 (en) | 2017-01-17 | 2019-03-19 | Opentv, Inc. | Overlay contrast control in augmented reality displays |
US11501658B2 (en) * | 2018-11-28 | 2022-11-15 | Purdue Research Foundation | Augmented reality platform for collaborative classrooms |
-
2017
- 2017-01-17 US US15/407,491 patent/US10235788B2/en active Active
-
2018
- 2018-01-16 BR BR112019014333-5A patent/BR112019014333A2/pt unknown
- 2018-01-16 CN CN201880006028.2A patent/CN110168616B/zh active Active
- 2018-01-16 WO PCT/US2018/013893 patent/WO2018136426A1/en unknown
- 2018-01-16 EP EP18712721.2A patent/EP3571672A1/en active Pending
- 2018-01-16 CN CN202310807102.3A patent/CN116681870A/zh active Pending
-
2019
- 2019-01-25 US US16/258,213 patent/US11200716B2/en active Active
-
2021
- 2021-11-09 US US17/454,124 patent/US20220139014A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
US10235788B2 (en) | 2019-03-19 |
CN110168616B (zh) | 2023-07-21 |
US20190259189A1 (en) | 2019-08-22 |
US20180204362A1 (en) | 2018-07-19 |
EP3571672A1 (en) | 2019-11-27 |
CN110168616A (zh) | 2019-08-23 |
WO2018136426A1 (en) | 2018-07-26 |
US11200716B2 (en) | 2021-12-14 |
US20220139014A1 (en) | 2022-05-05 |
BR112019014333A2 (pt) | 2020-02-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110168616B (zh) | 增强现实显示器中的叠加对比度控制 | |
CN110199319B (zh) | 增强现实显示器中的叠加强调修改 | |
CN108474666B (zh) | 用于在地图显示中定位用户的系统和方法 | |
US10360696B2 (en) | Image processing apparatus, image processing method, and program | |
US20140285523A1 (en) | Method for Integrating Virtual Object into Vehicle Displays | |
US20180365893A1 (en) | Augmented reality transportation notification system | |
CN109961522B (zh) | 图像投射方法、装置、设备和存储介质 | |
US20130101175A1 (en) | Reimaging Based on Depthmap Information | |
Orlosky et al. | Dynamic text management for see-through wearable and heads-up display systems | |
GB2507314A (en) | Augmented reality using an image mask | |
CN110084204B (zh) | 基于目标对象姿态的图像处理方法、装置和电子设备 | |
CN112041638A (zh) | 经由增强现实用于乘车共享和递送的接载和送达地点识别 | |
WO2018134897A1 (ja) | 位置姿勢検出装置、ar表示装置、位置姿勢検出方法およびar表示方法 | |
CN112714266A (zh) | 标注信息展示方法、装置、电子设备及存储介质 | |
CN107491289B (zh) | 一种窗口渲染方法及装置 | |
CN115769268A (zh) | 增强现实中基于深度的重照明 | |
US20190066366A1 (en) | Methods and Apparatus for Decorating User Interface Elements with Environmental Lighting | |
Ang et al. | A Study on the Effect of the Real-world Backgrounds using Colour Blending Technique on Optical See-through AR User Interface Design | |
US20230388109A1 (en) | Generating a secure random number by determining a change in parameters of digital content in subsequent frames via graphics processing circuitry | |
Lee et al. | Improving pedestrians’ navigation safety at night by enhancing legibility of foreground and background information on the display | |
JP7285904B2 (ja) | 表示制御装置、プログラム、及びシステム | |
CN117716410A (zh) | 用于视觉区分的叠加自适应 | |
Раиса et al. | The method of visualization of 3D objects using augmented reality technology based on the marker | |
JP2022038495A (ja) | 表示制御装置、プログラム、及びシステム | |
CN110914698A (zh) | 用于将信息定位在图像中位置的设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |