CN117036529A - 增强现实显示器中的叠加强调修改 - Google Patents

增强现实显示器中的叠加强调修改 Download PDF

Info

Publication number
CN117036529A
CN117036529A CN202311197852.XA CN202311197852A CN117036529A CN 117036529 A CN117036529 A CN 117036529A CN 202311197852 A CN202311197852 A CN 202311197852A CN 117036529 A CN117036529 A CN 117036529A
Authority
CN
China
Prior art keywords
overlay
scene
information
emphasis
augmented reality
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202311197852.XA
Other languages
English (en)
Inventor
J·廷斯曼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
OpenTV Inc
Original Assignee
OpenTV Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by OpenTV Inc filed Critical OpenTV Inc
Publication of CN117036529A publication Critical patent/CN117036529A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明涉及增强现实显示器中的叠加强调修改。示例性实施方案提供了用于增强现实显示器中的信息叠加的强调修改的系统和方法。在示例性方法中,在显示装置的场景之上呈现信息叠加。信息叠加包括部分地模糊场景的图形元素或文本元素中的至少一个。访问指示场景中的改变的场景改变数据。基于场景改变数据,修改显示装置上信息叠加中的至少一部分相对于场景的视觉强调。

Description

增强现实显示器中的叠加强调修改
本申请是中国专利申请号为201880006951.6,发明名称为“增强现实显示器中的叠加强调修改”,申请日为2018年01月16日的进入中国的PCT专利申请的分案申请。
与相关申请的交叉引用
本申请要求于2017年1月17日提交的美国专利申请序列号15/407,435的优先权权益,其全部内容通过引用并入本文。
技术领域
本发明总体而言涉及信息显示技术,在具体的示例性实施方案中,涉及增强现实显示器中的信息叠加的强调修改。
背景技术
增强现实(Augmented reality,AR)显示器已经在各种环境中广泛使用,其中所显示的实体或虚拟场景是利用在观众视角的显示器上的场景中所呈现的附加信息(例如,文本、图形等)来增强或加强的。AR显示器的一个示例是用于飞机、汽车等的平视显示器(heads-up display,HUD),其中信息叠加被投影到玻璃或其它介质上,用户可以通过玻璃或其它介质查看实体场景,例如道路。AR显示器的另一示例是配备有摄像机的智能电话或平板电脑的显示器,使得由摄像机拍摄的实体场景呈现在显示器上,并且信息叠加也呈现在显示器上并在场景之上。在AR显示器的另一示例中,诸如在第一人称射击(first-personshooter,FPS)游戏中所呈现的虚拟场景可以利用信息叠加来增强,虚拟场景和信息叠加呈现在视频监视器、电视等上。
在一些情况下,信息叠加会模糊场景内的感兴趣区域,可能使信息叠加更多地是障碍而不是有用的。例如,在识别感兴趣的位置(例如,街道、商店等)的信息叠加中,与该感兴趣的位置相关的信息叠加的部分会模糊场景的部分。
发明内容
根据本发明的一个实施方案,提供了一种增强现实显示器中的叠加强调修改的设备,其包括:摄像机;显示装置;以及叠加模块,其配置为执行如下操作,所述操作包括:利用一个或多个硬件处理器中的至少一个来访问场景改变数据,所述场景改变数据指示在通过透明投影表面观看的场景中的改变,所述场景改变数据包括在一段时间内已经改变的场景的部分的指示;基于场景的部分的指示来识别呈现在透明投影表面上的信息叠加的至少一部分;以及基于场景改变数据,利用一个或多个硬件处理器中的至少一个来修改在透明投影表面上的信息叠加的所述至少一部分的视觉强调。
根据本发明的一个实施方案,提供了一种增强现实显示器中的叠加强调修改的计算机化的方法,所述方法包括:利用一个或多个硬件处理器中的至少一个来访问场景改变数据,所述场景改变数据指示在通过透明投影表面观看的场景中的改变,所述场景改变数据包括在一段时间内已经改变的场景的部分的指示;基于场景的部分的指示来识别呈现在透明投影表面上的信息叠加的至少一部分;以及基于场景改变数据,利用一个或多个硬件处理器中的至少一个来修改在透明投影表面上的信息叠加的所述至少一部分的视觉强调。
附图说明
附图中的各个附图仅示出本发明的示例性实施方案,并不能被视为限制其范围。
图1A是包括显示装置的示例性用户设备的框图,该显示装置用于显示经由摄像机拍摄的场景,在该显示装置上可以呈现信息叠加。
图1B是包括投影仪的示例性用户设备的框图,该投影仪用于将信息叠加投影到透明表面上,通过该透明表面可以查看场景。
图1C是包括透明显示装置的示例性用户设备的框图,该透明显示装置可以呈现信息叠加并且可以通过该透明显示装置查看场景。
图2是可以在图1A、图1B和图1C的一个或多个用户设备中利用的示例性叠加模块的框图。
图3是修改增强现实显示器中的信息叠加的强调的示例性方法的流程图。
图4A和图4B是生成用于修改信息叠加的强调的场景改变数据的示例性方法的数据流程图。
图5A是具有信息叠加的场景的图形描绘。
图5B是与图5A中的场景相关的场景的图形描绘,其中修改了信息叠加的强调。
图6是为增强现实显示器中的信息叠加提供对比度控制的示例性方法的流程图。
图7是利用场景改变数据来修改用于为信息叠加提供对比度控制的对比度增强数据的示例性方法的流程图。
图8是提供了信息叠加的场景的图形表示,其示出了通过背景图像的方式的信息叠加部分的对比度增强。
图9A是场景的图形表示,在该场景中呈现没有对比度增强的虚拟视频显示器。
图9B是图9A的场景的图形表示,在该场景中呈现具有对比度增强的虚拟视频显示器。
图10是以计算系统的示例性形式的机器的简化框图,其中可以执行一组指令以使机器执行本文所讨论的任何一种或多种方法。
具体实施方式
在以下描述中,出于解释的目的,阐述了许多具体细节以便提供对本发明主题的各种示例性实施方案的理解。然而,对于本领域技术人员显而易见的是,可以在没有这些具体细节的情况下实践本发明主题的示例性实施方案。
图1A、图1B和图1C是示例性用户设备101A、101B、101C(统称为101)的框图,通过这些设备可以向用户呈现增强现实(AR)显示器,从而可以作为能够提供下面更详细讨论的示例性实施方案的平台。图1A是包括显示装置102的示例性用户设备101A的框图,显示装置102用于显示经由摄像机104拍摄的场景(例如,主场景110),并用于显示相应的信息叠加。用户设备101A包括叠加模块106,叠加模块106可以配置为提供信息叠加,该信息叠加(例如,文本、图形和/或其它视觉元素)将要在显示装置102上呈现为主场景110的“上面”(例如,出现在前面或顶部上,从而部分地遮挡或遮蔽)表示。场景110是实际或虚拟环境的表示(例如,诸如可以通过摄像机拍摄的实体区域的室外或室内视图;在游戏环境中玩家的视角的虚拟世界视图等等)。在示例性实施方案中,下面结合图2更全面地描述的叠加模块106可以提供叠加强调修改、叠加对比度控制以及下面描述的关于信息叠加的呈现的其它功能。在一些示例性实施方案中,可以利用摄像机104拍摄主场景110时生成的数据来辅助这些功能。在示例性实施方案中,叠加模块106可以配置为在经由显示装置102向用户呈现所得到的合成图像之前添加或替换由摄像机104拍摄的图像的一个或多个部分。在各种示例性实施方案中,显示装置102可以是平板显示器,例如触摸屏,但是在其它实施方案中,用户设备101A内可以包括其它类型的显示装置102。用户设备101A的示例性实施方案可以包括但不限于便携式设备,例如,智能电话、平板电脑、虚拟现实(VR)头戴设备等。然而,包括非便携式设备(例如,台式计算机以及摄像机104可以位于用户设备101A外部的设备)的其它示例性实施方案也可以利用下文描述的叠加模块106的各种示例性实施方案。
图1B是包括投影仪103的示例性用户设备101B的框图,投影仪103用于将信息叠加投影到透明投影表面112(例如,玻璃、亚克力(acrylic)等等)上,通过该透明投影表面112可以查看主场景110。在该示例中,叠加模块106可以生成信息叠加并且以投影仪103使用的格式提供该叠加。另外,用户设备101B可以包括摄像机104以拍摄主场景110并且利用所得到的数据作为叠加模块106的输入,如下面更全面地描述的。用户设备101B的示例性实施方案可以是平视显示器(HUD),其可以用于陆地交通工具、飞机、航天器等。然而,利用图1B所描绘的架构的其它类型的用户设备101B也是可能的。
图1C是包括透明显示装置105的示例性用户设备101C的框图,该透明显示装置105可以呈现由叠加模块106生成的信息叠加,并且可以通过该透明显示装置105查看主场景110。在示例性实施方案中,透明显示装置105可以包括发光二极管(LED),例如,附接到透明结构(诸如,玻璃或亚克力)或嵌入在该透明结构内的有机LED(OLED)。与图1B的示例性实施方案一样,用户设备101C还可以包括摄像机104以拍摄主场景110并生成由叠加模块106使用的数据以修改或以其它方式处理将要呈现给用户的信息叠加。在示例性实施方案中,用户设备101C可以是能够在车辆、飞机等中利用的另一种类型的平视显示器。另外,用户设备101C以及图1B的用户设备101B可以是游戏设备,使得每个玩家利用单独的用户设备101,玩家通过该用户设备101查看动作的公共屏幕,并且其中每个用户设备101提供仅供相应玩家使用的信息。在一些示例性实施方案中,透明显示装置105可以包括模板结构(shutteringstructure)(例如,液晶显示器(LCD)结构)或其它遮光结构或系统,它们可以被控制为使得部分或全部地遮挡查看者视角的主场景110的全部或一个或多个部分,从而修改透明显示装置105的一个或多个部分的透明度。
在示例性实施方案中,除了显示装置102、投影仪103、摄像机104、叠加模块106等之外的其它组件也可以包含在用户设备101内,例如,人机界面(HMI)、数据存储器件(例如,闪存、磁盘驱动器、光盘驱动器等)、有线或无线通信接口(例如,用于广域网(WAN)(例如,因特网)、蜂窝网络(例如,第三代(3G)或第四代(4G)网络)、有线电视网络、卫星通信网络、或任何其它通信网络或连接或它们的组合的接口)等。
图2是如上所述的能够在图1A、图1B和图1C的用户设备101A、101B、101C中的一个或多个内利用的示例性叠加模块106的框图。在示例性实施方案中,叠加模块106可以包括如下中的一个或多个:叠加数据访问模块202、场景改变数据访问模块204、场景数据分析器206、场景对象识别器208、设备移动检测器210、叠加强调修改器212、叠加对比度增强数据访问模块214、叠加背景图像生成器216或叠加输出生成器218。在各种示例性实施方案中,叠加模块106的各种模块202至218可以实施为硬件(例如,逻辑电路和其它电子组件),可以实施为软件或固件(其以存储在存储器中并配置为在一个或多个硬件处理器(例如,微处理器、微控制器等)上执行的指令形式),或可以实施为硬件、软件或固件的某些组合。此外,根据实现叠加模块106的特定用户设备101,可以实现为少于全部的模块202至218,并且可以利用除了图2中明确描绘的那些模块之外的额外模块。
叠加数据访问模块202可以配置为从叠加模块106或用户设备101的内部或外部的数据源访问叠加数据。在示例性实施方案中,叠加数据包括描述文本和/或图形元素的数据,所述文本和/或图形元素呈现为在向用户显示的场景110之上的信息叠加。在示例性实施方案中,叠加数据可以采用压缩或未压缩的格式指定信息叠加的每个图像元素(像素)的颜色、强度和/或其它特性。
在一些示例性实施方案中,叠加数据访问模块202可以利用其它可访问数据(例如,与正向用户呈现或用户正查看的场景110相对应的地图数据)来生成叠加数据。此外,用户设备101可以包括位置检测器(例如,全球定位系统(GPS)接收器)和方向传感器(例如,一个或多个陀螺仪传感器)以确定用户设备101的位置和方向,并且将确定的用户设备101的位置和方向与地图数据关联以确定叠加数据。在其它示例性实施方案中,叠加数据访问模块202可以结合地图数据来利用图像数据(例如,来自摄像机104的数据),以生成叠加数据。
在其它示例性实施方案中,叠加数据访问模块202可以接收叠加数据或关于正向用户设备101的用户呈现的场景110中描绘的实体或虚拟环境的相关信息。例如,叠加数据访问模块202可以从用户设备101或外部设备上运行的游戏接收关于虚拟游戏世界内的位置和方向的信息和/或描述该位置和方向的叠加数据。叠加模块106可以(例如,经由显示装置102)将所得到的信息叠加在虚拟游戏世界的视图之上呈现给用户。
场景改变数据访问模块204可以配置为从叠加模块106内部或外部的模块或组件来访问或接收关于主场景110的场景改变数据。在示例性实施方案中,场景改变数据可以识别在一段时间内已经改变的主场景110的一个或多个区域或部分。这样的信息还可以指示主场景110的一个或多个部分以什么样的程度或什么样的速度改变。主场景110的改变可以包括场景110的一个或多个部分的强度、颜色和其它特性的改变。如下所述,可以利用场景改变数据来修改呈现给用户的信息叠加。在示例性实施方案中,场景改变数据存储在数据结构中,场景改变数据可以指示已经改变的场景110的一个或多个部分以及可能的改变幅度。在其它示例性实施方案中,场景改变数据可以不指示场景110中(例如,在对象移动、亮度、颜色和/或其它方面)低于某个阈值的改变。
场景数据分析器206可以配置为分析描述主场景110的数据(例如,由摄像机104或用户设备101外部的一些设备生成的数据),例如,在场景110中描绘的真实或虚拟环境的图像拍摄数据。然后,场景数据分析器206可以生成经由上述场景改变数据访问模块204访问的场景改变数据。在示例性实施方案中,场景数据分析器206可以比较当前版本的场景110(例如,场景110的当前图像)和先前版本的场景110以检测场景110中的改变。描述这些改变的数据可以生成为场景改变数据。在其它示例性实施方案中也可以利用分析场景110并生成场景改变数据的其它方式。
在另一示例性实施方案中,与生成场景改变数据相反,场景数据分析器206可以分析描述主场景110的数据并生成指示当前主场景110的一个或多个方面的数据。例如,场景数据分析器206可以生成将主场景110的特定区域与指示每个特定区域的颜色、亮度、复杂度和/或其它视觉方面的一个或多个值相关联的数据。在其它示例性实施方案中,场景数据分析器206可以生成将主场景110的特定区域与当前主场景110中表示的一个或多个对象相关联的数据。在其它示例性实施方案中,可以生成描述主场景110的其它类型的数据。
场景对象识别器208可以配置为检测场景110中的一个或多个对象。这些对象可以包括:人造对象(例如,车辆、标牌、街道、路缘石、建筑物等)、自然对象(例如,树木、山丘、池塘等)、人、动物等。在示例性实施方案中,场景对象识别器208可以通过形状、颜色、视觉纹理和其它特征(可能通过将对应于场景110的图像数据与描述各种对象的一个或多个视觉方面的存储信息进行比较)来识别这些对象。场景对象识别器208可以基于对象的检测生成指示在场景110中检测到的一个或多个对象存在的数据,该数据包括场景110内的对象的位置、从用户设备101的有利位置到对象的距离或范围以及描述对象的其它信息。
在示例性实施方案中,场景对象识别器208可以基于用户直接或间接提供的信息来识别一个或多个对象。例如,用户可以指示特定目的地(例如,通过在用户设备101上执行的地图绘制软件)。可以由地图绘制软件识别沿着路线的关键位置(例如,交叉路口处的转弯、目的地的入口位置等)并转发到场景对象识别器208。反过来,场景对象识别器208可以基于关键位置的实体外观、拍摄的场景数据、用户设备101的位置和/或方向以及可能的其它信息来识别关键位置出现的场景110的特定区域或部分。识别场景110中的一个或多个对象的其它方式也是可能的。在示例性实施方案中,场景对象识别器208可以将检测到的对象数据的指示转发到场景数据分析器206,场景数据分析器206可以处理该数据以确定场景110内的一个或多个对象随时间的移动。这样的信息可以包括在由场景数据分析器206生成的场景改变数据中。
在其它示例中,另一系统、设备或应用程序可以确定要由场景对象识别器208检测的对象。例如,游戏应用程序可以基于用户设备101的用户、其他用户等的动作来提供关于在场景110中正呈现的一个或多个对象(例如,角色、实体物品等)的信息,例如,他们的身份、位置、范围或距离以及其它特征。
除了指示场景110内对象的位置之外,场景对象识别器208还可以确定对象与特定有利位置的距离,例如,与用户设备101或拍摄场景110的摄像机104的距离。例如,摄像机104可以将场景110内的对象的外观尺寸与对象的已知尺寸进行比较来确定摄像机104与对象之间的距离。在其它示例性实施方案中,场景对象识别器208可以利用其它对象检测技术(例如,雷达、声纳、激光雷达等)来确定与场景110内识别出的对象的距离或范围。
设备移动检测器210可以配置为检测用户设备101的移动(例如,用户设备101的平移和/或旋转移动)并生成指示这种移动的数据。设备移动检测器210可以包括例如,GPS接收器、一个或多个陀螺仪传感器和/或其它组件。设备移动检测器210可以响应于检测到的移动来生成指示设备101移动的数据,可以将该数据提供给用于分析场景110的场景数据分析器206。在其它示例性实施方案中,可以将生成的移动数据提供给叠加强调修改器212和/或叠加背景图像生成器216。
叠加强调修改器212可以配置为随着时间修改正呈现给用户(例如,经由显示装置102或投影仪103)的信息叠加的一个或多个视觉特性以强调或不强调信息叠加或信息叠加的部分。在示例性实施方案中,叠加强调修改器212可以修改信息叠加的一个或多个部分的亮度、锐度、颜色、尺寸、线宽、文本字体或其它特性。例如,可以通过提高叠加的一部分的亮度或锐度、增加叠加的一个或多个特征的尺寸或线宽、增大叠加中的文本的字体大小或对叠加中的文本使用粗体或下划线、改变叠加的颜色以与底层场景对比等,来强调信息叠加的部分。另外,信息叠加的部分的一个或多个特征可以随时间调整(例如,叠加的部分的周期性的“闪光”或“闪烁”)以强调该叠加部分。相反,可以通过降低叠加的亮度或锐度(例如,通过模糊或散焦)、减小叠加的一个或多个特征的尺寸或线宽、减小叠加中的文本的字体大小、使用与底层场景的颜色接近的颜色等,来实现不强调信息叠加的至少一部分。
在一些示例性实施方案中,强调或不强调信息叠加的一个或多个部分或区域可以基于场景110的当前状态或者基于场景110的最近或当前的改变。例如,如果在叠加部分之下或之后呈现的场景110的部分在视觉上是复杂的或不是非常重要的,则可以强调信息叠加的部分。相反,信息叠加或信息叠加的部分可以响应于场景110的相应部分在某些方面是重要的或时间紧要的而不被强调,从而保证最大化场景110的该部分的可见性。
在示例性实施方案中,叠加强调修改器212可以从场景改变数据访问模块204接收场景改变数据,并且响应于场景110的改变而强调或不强调信息叠加的至少一部分的一个或多个视觉特性。更具体地,场景改变数据可以指示已经历某种改变的场景110的特定部分或区域。作为响应,叠加强调修改器212可以识别与场景110的特定部分相对应的信息叠加的部分(例如,特定的视觉对象,诸如文本串或图形对象)并强调或不强调该叠加的部分。例如,叠加强调修改器212可以确定叠加的一个或多个部分与经历改变的场景110的特定部分叠加,然后强调或不强调该一个或多个部分。
在示例性实施方案中,场景改变数据可以指示场景110的与位于场景110的指示部分中的感兴趣的对象或位置(例如,感兴趣的点,诸如建筑物或停车场的入口;潜在的障碍物;游戏中的角色等)相对应的部分。在示例性实施方案中,这样的信息可以由场景数据分析器206和/或场景对象识别器208生成。在另一示例性实施方案中,场景改变数据可以通过访问数据库中的数据来确定感兴趣的对象或位置,该数据指示了通常繁忙的位置或者可能涉及来自用户的更多关注的位置(例如,停车场、十字路口、急转弯等)。
在示例性实施方案中,叠加强调修改器212的操作可以取决于感兴趣的对象与场景110相关联部分如何随时间改变,例如,场景110内感兴趣的对象的位置如何改变。例如,叠加强调修改器212可以通过修改整个叠加或者与检测到的对象相对应的叠加部分的一个或多个特征来响应检测到的感兴趣的对象。例如,如果感兴趣的对象进入或离开场景110的特定区域(例如,场景110的中心部分),则叠加强调修改器212可以降低与场景110的中心部分相对应的叠加部分的亮度或以其它方式不强调该叠加部分,或者强调该叠加部分。
在另一示例性实施方案中,叠加强调修改器212可以响应于感兴趣的对象与查看者、设备101或另一有利位置的距离或范围的一些改变而修改信息叠加的全部或部分的强调(例如,强调或不强调)。例如,如果感兴趣的对象看起来侵入了查看者的有利位置的某个特定物理距离(例如,摄像机104或用户设备101的特定物理距离内的对象)或者查看者的有利位置的某个虚拟距离内(例如,在游戏背景中角色与查看者的虚拟距离),叠加强调修改器212可以强调或不强调信息叠加的全部或部分,例如,与场景110的对应于对象的部分相对应的部分(例如,由对象占据的场景110的部分)。在另一示例性实施方案中,响应于感兴趣的对象从查看者的有利位置与对象之间的特定物理或虚拟(例如,感知)距离离开,叠加强调修改器212可以强调或不强调信息叠加的全部或部分。
响应于如场景改变数据所指示的场景改变的特定幅度,叠加强调修改器212还可以修改信息叠加的全部或部分的一个或多个特征,从而强调或不强调该叠加部分。在示例性实施方案中,如果场景110中示出的对象的速度或加速度超过或低于某个特定水平,则叠加强调修改器212可相应地强调或不强调叠加的全部或部分。例如,场景110中快速移动或快速加速的对象可以使叠加强调修改器212不强调叠加,从而可以加强场景110中的对象的可见性,或者叠加强调修改器212可以强调叠加中的单个对象指示符以吸引用户对该对象的注意。
在其它示例中,(例如,如经由设备移动检测器210检测到的)设备101的快速或慢速平移或旋转移动可以使叠加强调修改器212强调或不强调信息叠加的全部或一个或多个部分。例如,叠加强调修改器212可以在设备101经历快速平移或旋转移动的时间期间不强调信息叠加。
在另一示例性实施方案中,代替依赖于场景改变数据,叠加强调修改器212可以基于对描述当前场景110的数据的分析来修改信息叠加的全部或部分的强调(例如,强调或不强调)。例如,叠加强调修改器212可以从场景数据分析器206或场景对象识别器208中的一个或多个接收指示当前场景110的一个或多个方面的数据,并且基于该数据来修改信息叠加的全部或部分相对于当前场景110的强调。在示例性实施方案中,叠加强调修改器212可以在生成场景改变数据之前基于初始场景数据来执行相对于默认或标准信息叠加的强调修改。
继续图2,诸如叠加对比度增强数据访问模块214和叠加背景图像生成器216的模块结合叠加模块106的其它模块可以协作以在场景110和信息叠加之间提供背景图像,从而使叠加或叠加的一个或多个部分对用户设备101的用户更可读或可见。在示例性实施方案中,叠加对比度增强数据访问模块214可以配置为访问或生成描述要使用的背景图像的对比度增强数据。例如,背景图像可以是某种颜色(例如,黑色、灰色、红色、黄色等)和/或亮度的半透明或半不透明的(例如,像素化的)背景图像,使得场景110中的至少一些可以透过背景图像被用户设备101的用户查看到。在另一示例性实施方案中,背景图像可以是不透明的,以防止场景110的与背景图像相对应的任何部分被查看到。此外,由对比度增强数据描述的背景图像可以与场景110的分辨率匹配或不匹配。在示例性实施方案中,叠加对比度增强数据可以提供如下的图案,该图案可以重复以覆盖场景110的某些部分,如由叠加背景图像生成器216确定的。
叠加背景图像生成器216可以配置为确定信息叠加的部分,在该信息叠加的部分之下要呈现背景或对比度图像。在示例性实施方案中,叠加背景图像生成器216可以基于来自叠加模块106的一个或多个模块的信息来确定信息叠加的部分。例如,叠加背景图像生成器216可以基于来自场景数据分析器206的数据(例如,指示场景110的一个或多个部分的视觉复杂度的数据)来确定要用背景图像作为背景的叠加部分。基于场景110的部分的视觉复杂度超过特定阈值,叠加背景图像生成器216可以识别信息叠加的与要应用背景图像的场景110的该部分相对应的部分。
在另一示例性实施方案中,叠加背景图像生成器216可以基于来自设备移动检测器210的信息来确定要由背景图像作为背景的信息叠加的部分。例如,当设备移动检测器210检测到超过特定阈值的用户设备101的平移或旋转移动时,叠加背景图像生成器216可以确定出信息叠加的任何部分都不由背景图像作为背景,从而当用户设备101继续超过阈值时,使得信息叠加的至少一部分不易辨别或不可读。
在又一示例性实施方案中,叠加背景图像生成器216可以将其信息叠加的部分的识别基于上面讨论的场景改变数据,例如,由场景改变数据访问模块204访问的场景改变数据或者由场景数据分析器206或场景对象识别器208生成的场景改变数据。例如,响应于识别由场景对象识别器208识别出的感兴趣的对象的位置的数据,叠加背景图像生成器216可以识别表示或识别(例如,通过文本或箭头或其它图形元素)在其下要应用背景图像的信息叠加的部分,以为该叠加部分提供附加的对比度。在示例性实施方案中,可以在涉及感兴趣的对象的特定环境下应用这种附加的对比度,比如,进入或离开场景110的特定部分或区域;侵入有利位置的特定距离内,诸如用户设备101的用户的有利位置;离开有利位置的特定距离等,如上所述。
在示例性实施方案中,叠加背景图像生成器216可以基于如上所述由场景数据分析器206和/或设备移动检测器210所确定的场景的改变幅度超过或低于某个特定幅度或水平,来确定要由背景图像作为背景的叠加部分。例如,在场景110正快速改变或移动时,叠加背景图像生成器216可以确定出不需要背景图像,而在较缓慢地改变场景110期间可能期望这样的背景图像。
在一些示例性实施方案中,叠加背景图像生成器216可以随着时间改变在场景110上应用的背景图像,例如,通过打开和关闭(例如,闪光或闪烁)背景图像,改变背景图像的性质(例如,通过利用的叠加对比度增强数据)等,以强调与背景图像相对应的叠加部分。在示例性实施方案中,叠加背景图像生成器216可以随着时间减小暗度或以其它方式改变背景图像的一个或多个方面(例如,图案、颜色、纹理等),这与场景110内叠加的相应部分的位置有关。例如,当叠加的相应部分远离场景110的中心移动时,或者当叠加的相应部分在场景110内更快地移动时,当用户设备110更快地移动时等等,背景图像的暗度可以减小。
叠加输出生成器218可以配置为使得由叠加强调修改器212和/或叠加背景图像生成器216生成或修改的信息叠加和/或背景图像(例如,经由用户设备101A的显示装置102、用户设备101B的投影仪103和用户设备101C的透明显示装置105)呈现。在一些示例性实施方案中,叠加模块106可以包括叠加强调修改器212但不包括叠加背景图像生成器216(反之亦然),叠加输出生成器218使得正被来自存在于叠加模块106中的模块(例如,叠加强调修改器212或叠加背景图像生成器216)的输出修改的信息叠加可以呈现。在其它示例性实施方案中,叠加模块106可以包括叠加强调修改器212和叠加背景图像生成器216两者,它们可以在相同的场景110上进行操作。因此,叠加输出生成器218可以接收叠加强调修改器212和叠加背景图像生成器216两者的输出,以同时应用于信息叠加和相关的场景110。
例如,叠加模块106(例如,经由场景数据分析器206、场景对象识别器208和/或设备移动检测器210)可以确定出场景110当前正经历超过某个阈值的改变,例如,通过在场景中检测到的对象移动、用户设备101自身的旋转或平移移动等。响应于那些改变,叠加强调修改器212可以确定出信息叠加的至少一部分应该不强调(例如,较低的亮度、更小的文本字体等)。同时地,响应于相同场景110的改变,叠加背景图像生成器216可以确定出不应该利用背景图像,或者应该修改这样的背景图像以使更多的底层场景110可见。作为响应,叠加输出生成器218可以同时根据来自叠加强调修改器212和叠加背景图像生成器216二者的输出来修改背景图像和信息叠加。
在另一示例性实施方案中,叠加背景图像生成器216和/或叠加输出生成器218可以配置为将信息叠加的部分(例如,叠加的一个或多个对象或元素)重新定位到场景110中与背景图像的使用更加兼容的区域。例如,信息叠加的特定元素可以对应于对于用户查看比较重要的场景110的部分,例如场景110的中心部分。在该示例中,可以将要利用背景图像的信息叠加的部分在场景110内的位置移动到场景的更外围区域,从而使得背景图像的使用不会对场景110的中心部分的可见性产生负面影响。
在示例性实施方案中,叠加输出生成器218可以单独生成表示信息叠加和背景图像的数据或信号。例如,对于用户设备101C,叠加输出生成器218可以将表示信息叠加的数据提供给透明显示装置105以产生信息叠加(例如,经由LED),并且可以将表示背景图像的数据提供给透明显示装置105以部分地或完全地遮挡从主场景110的全部或一个或多个部分接收到的光(例如,经由与透明显示装置105联接的LCD结构或系统)。
图3是修改增强现实显示器中的信息叠加的强调的示例性方法300的流程图。虽然下面讨论的方法300和其它方法被描述为由叠加模块106和其中包括的各种模块执行,但是方法300也可以由未在本文中明确描述的其它结构来执行。而且,虽然以特定顺序呈现图3的方法300的操作和下面讨论的其它操作,但是包括两个或多个操作的同时、并行或重叠执行的其它执行顺序也是可能的。
在方法300中,叠加模块106可以使得在显示装置的场景110之上呈现信息叠加(例如,经由叠加输出生成器218,在用户设备101A的显示装置102上的,经由用户设备101B的投影仪103在透明投影表面112上,或者经由来自叠加数据访问模块202的数据在用户设备101C的透明显示装置105中)(步骤302)。可以访问指示场景110中的改变的场景改变数据(例如,经由场景改变数据访问模块204)(步骤304)。可以基于场景改变数据(例如,基于来自场景数据分析器206、场景对象识别器208和/或设备移动检测器210的数据,经由叠加强调修改器212)来修改信息叠加的至少一部分的视觉强调(例如,强调或不强调)(步骤306)。在其它示例性实施方案中,与场景改变数据不同,信息叠加的至少一部分的视觉强调可以基于指示当前场景110的一个或多个方面的数据。
图4A和图4B是生成用于修改信息叠加的强调的场景改变数据的示例性方法400A、400B的数据流程图。在方法400A中,可以将当前版本的场景110与先前版本的场景110进行比较(例如,通过场景数据分析器206或场景对象识别器208)(步骤402),并且场景改变数据可以基于该比较(步骤404)。在方法400B中,可以(例如,经由设备移动检测器210)访问指示显示装置(例如,用户设备101A的显示装置102、用户设备101B的投影仪103(或与其相关联的透明投影表面112)或用户设备101C的透明显示装置105)移动的移动数据(步骤412)。如上所述,可以基于移动数据生成场景改变数据(步骤414)。
图5A是具有示例性信息叠加的场景500A的图形描绘。场景500A是街道场景的视图,它包括用户感兴趣的商业的停车场的入口502A。相关信息叠加包括向用户提供引导的若干元素,使得用户可以导航到停车场和相关的商业。更具体地,信息叠加包括:指示停车场入口502A的位置的箭头508A、指示用户在停车场入口502A处转弯的文本提供指示504A(“此处转弯”)以及突出显示文本指示504A的图形元素506A(框)。信息叠加还包括:到感兴趣的建筑物入口的箭头528A、建筑物入口的文本标签524A(“入口”)以及突出显示文本标签524A的图形元素526A。建筑物入口的文本标签514A(“23C”)(例如,楼号)和相关的图形元素516A也包括在信息叠加中。
图5B是与图5A中的场景500A相关的场景500B的图形描绘,其中修改了信息叠加的强调。当用户接近停车场入口502A时,在场景500B中入口502A看起来比在先前的场景500A中更靠近用户。可以通过场景对象识别器208和/或场景数据分析器206来检测和指示这种外观差异,其可以确定出停车场入口502A的外观尺寸增加,和/或停车场入口502A的位置更加位于当前场景500B的中心。在另一示例中,用户设备101的GPS接收器可以指示出感兴趣的位置在距用户设备101的某个特定距离内。作为响应,叠加强调修改器212可以确定出与停车场入口502A相关的叠加元素(例如,箭头508A、文本指示504A和/或相关联的图形元素506A)应该不强调以增强场景中停车场入口502A的可见度。如图5B所示,这种不强调可以包括使得到的箭头508B变得不富有色彩或更半透明,并且完全去除相应的图形元素506A,仅保留完整的文本指示504A。类似地,楼号的文本标签514A和建筑物入口的文本标签524A可以完整地保留,但是原始场景500A的箭头528A以及图形元素516A和526A在当前场景500B中已经被完全去除。在其它实施方案中可以采用其它方法强调或不强调信息叠加的各个部分。
图6是为增强现实显示器中的信息叠加提供对比度控制的示例性方法600的流程图。在方法600中,(例如,经由叠加对比度增强数据访问模块214)访问描述在信息叠加之下呈现的背景图像的至少一部分的对比度增强数据(步骤602)。(例如,利用场景数据分析器206、场景对象识别器208和/或设备移动检测器210)识别信息叠加中要在其下呈现背景图像的至少一部分(步骤604)。叠加背景图像生成器216可以使背景图像在与信息叠加的部分相对应的场景110部分之上呈现(步骤606)。此外,叠加输出生成器218可以使信息叠加在背景图像和场景110上呈现(步骤608)。
图7是采用场景改变数据来修改用于为信息叠加提供对比度控制的对比度增强数据的示例性方法700的流程图。在方法700中,可以访问指示场景110中的改变的场景改变数据(例如,经由场景改变数据访问模块204)(步骤702)。基于场景改变数据(例如,基于来自场景数据分析器206、场景对象识别器208和/或设备移动检测器210的数据,经由叠加背景图像生成器216)来生成识别叠加中要在其下呈现背景图像的部分的数据(步骤704)。在其它示例性实施方案中,与场景改变数据不同,基于描述当前场景110的一个或多个方面(例如,颜色、亮度、复杂度、对象位置、对象类型等)的数据来生成识别叠加中要在其下呈现背景图像的部分的数据。
图8是在其上提供信息叠加的场景800的图形表示,示出了通过背景图像的方式的信息叠加部分的对比度增强。场景800的各方面类似于上述场景500A的那些方面,其中感兴趣的停车场入口802通过信息叠加的箭头808、指示文本804(“此处转弯”)和图形元素806(例如,框)表示。文本标签814(“树”)和相关的图形元素816表示场景800中的树,同时信息叠加中也包括两个标签824、834(“天空”和“更多天空”)和对应的图形元素826、836。
图8中还示出了背景图像840,它出现在场景800的上面并且在“更多天空”标签834和相关的图形元素836的后面,以演示利用背景图像840来增强标签834和图形元素836的对比度,从而增加了叠加的那些部分相对于叠加的其它部分(例如标签824和相关的图形元素826)的可读性或可见性,其中场景800的相应部分(例如,蓝天)会使得那些元素824、826的可读性较低。由于为叠加的那些特定元素的背景的场景的视觉复杂部分(例如,树),也可以认为文本指示804、标签814和对应的图形元素806、816的可读性或可见性较低。如上所述,信息叠加中在其下呈现背景图像840的特定部分在其它实施方案中可以基于若干不同因素,例如,感兴趣的对象移入或移出场景800的一个或多个区域的移动、对象朝向和远离特定有利位置(例如,用户设备101)的移动、用户设备101的移动等。
图9A是场景900A的图形表示,在场景900A上呈现没有对比度增强的虚拟视频显示器902。更具体地,图9A的虚拟视频显示器902(例如,视频剪辑)直接显示在场景900A中的白色墙壁904的顶部。假设虚拟视频显示器902配置为允许场景900A的墙壁904的至少一部分透过虚拟视频显示器902可见,虚拟视频显示器902可能看起来过亮或“褪色”,从而降低了观众经由虚拟视频显示器902查看显示的图像的至少一些更精细或更详细的方面的能力。
图9B是图9A的场景900A的图形表示,在场景900A中呈现具有对比度增强的虚拟视频显示器902。更具体地,已经在所得到的场景900B的顶部渲染了背景图像906(在背景图像906上呈现了虚拟视频显示器902),从而使显示器具有更大的感知对比度。在该特定示例性实施方案中,背景图像906是灰度像素化图像,它部分地遮挡虚拟视频显示器902之下的场景900B的部分使其不会被看到。此外,在图9B的示例性实施方案中,尽管其它背景图像的分辨率可以等于或大于相应场景的分辨率,但是背景图像906的分辨率小于场景900B本身的分辨率。
鉴于至少一些上述示例性实施方案,可以通过改变信息叠加的一个或多个方面来强调或不强调信息叠加(例如在AR显示器中所采用的信息叠加)的全部或部分。此外,可以通过使用背景图像来修改叠加的全部或部分的视觉对比度。这样的修改可以基于底层场景的特定状态、场景中的改变以及其他因素。通过以这种方式改变叠加的视觉方面,可以增强叠加对用户的整体有用性。
图10是示出根据一些示例性实施方案的机器1000的组件的框图,其中,机器1000能够读取来自机器可读介质1022(例如,非易失性机器可读介质、机器可读存储介质或计算机可读存储介质)的指令1024,并且全部或部分地执行本文所讨论的方法中的任意一种或多种。具体地,图10示出以计算机设备(例如,计算机)的示例形式的机器1000,在机器1000中可以部分或全部地执行用于使机器1000进行本文所讨论的方法中的任意一种或多种的指令1024(例如,软件、固件、程序、应用程序、小应用程序、app或其他可执行代码)。
例如,指令1024可以使机器1000执行图3、图4A、图4B、图6和图7以及与其相关联的所有示例性实施方案的流程图。指令1024可以将一般的、未编程的机器1000转换为特定的机器(例如,特殊配置的机器),特定的机器被编程为按照所述方式执行所述和示出的功能。此外,在示例性实施方案中,机器1000可以作为图2叠加模块106的模块202-218中的一个或多个,以及图1A至图1C的用户设备101A至101C中的一个或多个,或者本文所描述的任何其它的计算系统或设备进行操作。
在示例性实施方案中,机器1000作为独立设备运行,或者可以连接(例如,网络连接)到其他机器。机器1000可以是服务器计算机、客户端计算机、个人计算机(PC)、平板计算机、笔记本电脑、上网本、机顶盒(STB)、掌上电脑(PDA)、移动电话、智能手机、互联网设备、网络路由器、网络交换机、网桥、电源适配器,或者能够顺序地或以其他方式执行指令1024(表明要由机器1000进行的动作)的任意机器1000。此外,尽管仅示出了单个机器1000,但是术语“机器”也将包括单独地或联合地执行指令1024以进行本文所讨论的方法中的任意一种或多种的机器集合。
机器1000包括配置为通过总线1008而彼此通信的处理器1002(例如,中央处理单元(CPU))、图形处理单元(GPU)、数字信号处理器(DSP)、专用集成电路(ASIC)、射频集成电路(RFIC)或其任意合适的组合)、主存储器1004以及静态存储器1006。处理器1002可以包括能够由指令1024中的一些或全部暂时或永久地配置的微电路,使得处理器1002配置为全部或部分地执行本文所讨论的方法中的任意一种或多种。例如,处理器1002中的一个或多个微电路的组可以配置为执行本文所讨论的一个或多个模块(例如,软件模块)。
机器1000可以进一步包括:图形显示器1010(例如,等离子显示板(PDP)、发光二极管(LED)显示器、液晶显示器(LCD)、投影仪、阴极射线管(CRT)、或能够显示图形或视频的任意其他显示器)。机器1000也可以包括:字母数字输入设备1012(例如,键盘或小型键盘)、光标控制设备1014(例如,鼠标、触摸板、轨迹球、操纵杆、运动传感器、眼球追踪设备或其他指向仪)、存储器单元1016、信号生成设备1018(例如,声卡、放大器、扬声器、耳机接口、或其任意合适的组合)以及网络接口设备1020。
存储单元1016包括机器可读介质1022(例如,有形机器可读存储介质),在机器可读介质1022上存储有实现本文所讨论的方法或功能中的任意一个或多个的指令1024。在由机器1000执行之前或期间,指令1024也可以完全或至少部分地存在于主存储器1004中,处理器1002中(例如,处理器的高速缓冲存储器中),或者两者中。因此,主存储器1004和处理器1002可以被看作机器可读介质1022(例如,有形非易失性机器可读介质)。
在一些示例性实施方案中,机器1000可以是便携式或移动计算设备并且具有一个或多个另外的输入组件(例如,传感器或计量表)。这些输入组件的示例包括:图像输入组件(例如,一个或多个摄像机)、音频输入组件(例如,麦克风)、方向输入组件(例如,指南针)、位置输入组件(例如,全球定位系统(GPS)接收器)、定向组件(例如,陀螺仪)、运动检测组件(例如,一个或多个加速器)、高度检测组件(例如,测高仪)以及气体检测组件(例如,气体传感器)。通过这些输入组件中的任意一个或多个收到的输入可以是可存取的且可利用的,以被本文所讨论的任意模块使用。
如本文所使用的,术语“存储器”指的是能够暂时地或永久地存储数据的机器可读介质1022,并且可以被认为包括但不限于,随机存取存储器(RAM)、只读存储器(ROM)、缓冲存储器、快闪存储器以及高速缓冲存储器。尽管在示例性实施方案中机器可读介质1022示为单个介质,但是术语“机器可读介质”应该被认为包括能够存储指令1024的单个介质或多个介质(例如,集中式或分布式数据库、或相关联的高速缓存和服务器)。术语“机器可读介质”也应该被认为包括能够存储用于机器(例如,机器1000)执行的指令1024的任意介质或多个介质的组合,使得当由机器1000的一个或多个处理器(例如,处理器1002)执行时,指令1024使得机器1000执行本文所讨论的方法中的任意一种或多种。因此,术语“机器可读介质”应该被认为包括但不限于固态存储器、光学介质、磁介质或其任意合适的组合形式的一个或多个数据存储库。
此外,机器可读介质1022是非易失性的,因为它不呈现传播信号或易失性信号。然而,将机器可读介质1022标记为“非易失性”不应被解释为表示介质不能移动;在一些示例性实施方案中,介质应被视为可以从一个物理位置移动到另一个物理位置。另外,由于机器可读介质1022是有形的,因而可以将介质视为机器可读设备。
可以进一步使用传送介质并且利用许多众所周知的传输协议(例如,超文本传输协议(HTTP))中的任意一个,经由网络接口设备1020在通信网络1026上发送或者接收指令1024。通信网络1026的示例包括:局域网(LAN)、广域网(WAN)、因特网、移动手机网络、普通老式电话业务(POTS)网络和无线数据网络(例如,和WiMAXTM网络)。术语“传输介质”应该被认为是包括能够存储、编码或者运载用于机器1000执行的指令1024并且包括数字或模拟通信信号的任意非有形的介质,或者包括其他非有形的介质,以便于这种软件的通信。
在示例性实施方案中,一种计算机化的方法包括:使得在显示装置的场景之上呈现信息叠加,该信息叠加包括部分地模糊场景的图形元素或文本元素中的至少一个;利用一个或多个硬件处理器中的至少一个来访问指示场景中的改变的场景改变数据;基于场景改变数据,利用一个或多个硬件处理器中的至少一个来修改显示装置上的信息叠加的至少一部分相对于场景的视觉强调。
在包括所有先前示例性实施方案的另一示例性实施方案中,所述方法还包括使得在显示装置上呈现场景。
在包括所有先前示例性实施方案的另一示例性实施方案中,修改信息叠加的至少一部分的视觉强调包括改变信息叠加的至少一部分的亮度。
在包括所有先前示例性实施方案的另一示例性实施方案中,修改信息叠加的至少一部分的视觉强调包括改变信息叠加的至少一部分的锐度。
在包括所有先前示例性实施方案的另一示例性实施方案中,信息叠加的至少一部分包括文本,并且修改信息叠加的至少一部分的视觉强调包括改变文本的字体。
在包括所有先前示例性实施方案的另一示例性实施方案中,修改信息叠加的至少一部分的视觉强调包括修改信息叠加的至少一部分的颜色。
在包括所有先前示例性实施方案的另一示例性实施方案中,场景改变数据包括场景的一部分的指示,并且所述方法还包括基于所指示的场景的部分来识别信息叠加的至少一部分。
在包括所有先前示例性实施方案的另一示例性实施方案中,信息叠加的至少一部分至少部分地与所指示的场景的部分重叠。
在包括所有先前示例性实施方案的另一示例性实施方案中,场景的部分的指示包括场景中的感兴趣的对象的指示。
在包括所有先前示例性实施方案的另一示例性实施方案中,修改信息叠加的至少一部分的视觉强调响应于感兴趣的对象进入场景的特定区域而发生。
在包括所有先前示例性实施方案的另一示例性实施方案中,修改信息叠加的至少一部分的视觉强调响应于感兴趣的对象离开场景的特定区域而发生。
在包括所有先前示例性实施方案的另一示例性实施方案中,修改信息叠加的至少一部分的视觉强调响应于感兴趣的对象侵入到场景的有利位置的特定感知距离内而发生。
在包括所有先前示例性实施方案的另一示例性实施方案中,修改信息叠加的至少一部分的视觉强调响应于感兴趣的对象从到场景的有利位置的特定感知距离离开而发生。
在包括所有先前示例性实施方案的另一示例性实施方案中,修改信息叠加的至少一部分的视觉强调响应于指示在一段时间期间场景中的改变幅度超过特定水平的场景改变数据而发生。
在包括所有先前示例性实施方案的另一示例性实施方案中,修改信息叠加的至少一部分的视觉强调响应于指示在一段时间期间场景中的改变幅度低于特定水平的场景改变数据而发生。
在包括所有先前示例性实施方案的另一示例性实施方案中,信息叠加的至少一部分包括全部的信息叠加。
在包括所有先前示例性实施方案的另一示例性实施方案中,所述方法还包括将场景的当前版本与场景的先前版本进行比较;并且基于场景的当前版本与场景的先前版本的比较来生成场景改变数据。
在包括所有先前示例性实施方案的另一示例性实施方案中,所述方法还包括访问指示显示装置的移动的移动数据;并且基于移动数据生成场景改变数据。
在包括所有先前示例性实施方案的另一示例性实施方案中,移动数据指示显示装置的平移移动。
在包括所有先前示例性实施方案的另一示例性实施方案中,移动数据指示显示装置的旋转移动。
在示例性实施方案中,显示系统包括一个或多个硬件处理器;存储器,其中存储有指令,当由一个或多个硬件处理器中的至少一个执行所述指令时,使得显示系统执行包括如下的操作:使得在显示装置的场景之上呈现信息叠加,所述信息叠加包括部分地模糊场景的图形元素或文本元素的至少一个;访问指示场景中的改变的场景改变数据;基于场景改变数据,修改显示装置上信息叠加中的至少一部分相对于场景的视觉强调。
在包括所有先前示例性实施方案的另一示例性实施方案中,显示系统还包括显示装置。
在包括所有先前示例性实施方案的另一示例性实施方案中,显示系统还包括联接到显示装置的移动检测装置,移动检测装置配置为生成指示显示装置的移动的移动数据,并且操作还包括基于移动数据生成场景改变数据。
在包括所有先前示例性实施方案的另一示例性实施方案中,操作还包括将当前版本的场景与先前版本的场景进行比较;并且基于当前版本的场景与先前版本的场景的比较来生成场景改变数据。
在包括所有先前示例性实施方案的另一示例性实施方案中,操作还包括使得在显示装置上呈现场景。
在包括所有先前示例性实施方案的另一示例性实施方案中,场景包括实体环境的视图;显示装置包括通过其可以查看实体环境的透明材料;系统还包括投影设备;并且使得在显示装置的场景之上呈现信息叠加包括利用投影设备将信息叠加投影到透明材料上。
在包括所有先前示例性实施方案的另一示例性实施方案中,场景包括实体环境的视图;显示装置包括通过其查看实体环境的透明材料,以及联接到透明材料的发光系统;使得在显示装置的场景之上呈现信息叠加包括利用发光系统呈现信息叠加。
在包括所有先前示例性实施方案的另一示例性实施方案中,操作还包括:生成包括描述场景和信息叠加的信息的一个或多个信号,并且显示装置配置为基于一个或多个信号发出表示场景和信息叠加的光。
在示例性实施方案中,非易失性计算机可读存储介质包括指令,当由机器的一个或多个硬件处理器执行所述指令时,使得机器执行包括如下的操作:使得在显示装置的场景之上呈现信息叠加,所述信息叠加包括部分地模糊场景的图形元素或文本元素中的至少一个;访问指示场景中的改变的场景改变数据;以及基于场景改变数据,修改显示装置上信息叠加的至少一部分相对于场景的视觉强调。
整个说明书,多个实例可以实现描述为单个实例的组件、操作或结构。尽管一种或多种方法的单个操作示为并且描述为单独操作,单个操作中的一个或多个可以同时执行,并且不需要以示出的顺序执行操作。在示例性配置中呈现为单独组件的结构和功能可以实现为组合结构或组件。类似地,呈现为单个组件的结构和功能可以实现为单独组件。这些和其他变型、修改、添加和改进落在本文主题的范围内。
在本文中,某些示例性实施方案描述为包括逻辑或许多组件、模块或机制。模块可以组成软件模块(例如,体现在机器可读介质1022上或传送信号中的代码)或硬件模块。“硬件模块”是能够执行特定操作的有形单元,并且可以以特定物理方式进行配置或布置。在各种示例性实施方案中,一个或多个计算机系统(例如,独立计算机系统、客户端计算机系统或服务器计算机系统)或者计算机系统的一个或多个硬件模块(例如,处理器1002或一组处理器1002)可以通过软件(例如,应用程序或应用程序部分)配置为运行以执行本文所描述的某些操作的硬件模块。
在一些示例性实施方案中,硬件模块可以机械地、电子地、或者以其任意合适的组合来实现。例如,硬件模块可以包括永久配置为执行某些操作的专用电路或逻辑。例如,硬件模块可以是专用处理器,例如,现场可编程门阵列(FPGA)或ASIC。硬件模块也可以包括通过软件暂时配置为执行某些操作的可编程逻辑或电路。例如,硬件模块可以包括包含在通用处理器或其他可编程处理器中的软件。应该理解的是,可以根据对成本和时间的考虑来决定将硬件模块机械地实现在专用和永久配置电路中还是暂时配置电路(例如,通过软件配置)中。
因此,术语“硬件模块”应该理解为包含有形实体,是物理构造、永久配置(例如,硬接线)的实体,或是暂时配置(例如,编程)为以某种方式操作或执行本文所描述的某些操作。如本文所使用的,“硬件实现模块”指的是硬件模块。考虑到硬件模块被暂时配置(例如,编程)的示例性实施方案,硬件模块中的每个不需要实时地在任何一个实例中进行配置或实例化。例如,在硬件模块包括通过软件配置成为专用处理器的通用处理器的情况下,通用处理器可以配置为在不同时间各自不同的专用处理器(例如,包括不同的硬件模块)。因此,软件可以例如将处理器配置为组成一个实例下的特定硬件模块以及组成不同实例下的不同硬件模块。
本文所描述的示例性方法的各种操作可以至少部分地由暂时配置(例如,通过软件)或永久配置为执行相关操作的一个或多个处理器执行。不管暂时配置还是永久配置,这些处理器可以组成操作以执行本文所描述的一个或多个操作或功能的处理器实现的模块。如本文所使用的,“处理器实现的模块”指的是使用一个或多个处理器实现的硬件模块。
类似地,本文所描述的方法可以至少部分由处理器实现,处理器是硬件的示例。例如,方法的至少一些操作可以由一个或多个处理器或处理器实现的模块执行。
本文所讨论的主题的一些部分可以呈现在对存储为机器存储器(例如,计算机存储器)中的位或二进制数字信号的数据进行的操作的算法或符号表示方面。这些算法或符号表示是数据处理领域中的技术人员用于向本领域其他技术人员传递其工作实质的技术的示例。如本文所使用的,“算法”是产生期望结果的自相一致(self-consistent)顺序的操作或相似处理。在该上下文中,算法和操作涉及物理量的物理操作。通常,但不是必要地,这些量可以采用能够被存储、被访问、被传输、被组合、被比较或以其它方式被机器操作的电信号、磁信号或光学信号的形式。有时,使用如下词语(主要出于常用的原因)引用这些信号是方便的,例如,“数据”、“内容”、“位”、“值”、“元素”、“符号”、“字符”、“术语”、“数字”、“数词”等等。然而,这些词语仅仅是方便的标签,并且与合适的物理量相关联。
除非另有具体说明,否则本文使用词语(例如,“处理”、“估算(computing)”、“计算(calculating)”、“确定”、“呈现”、“显示”等等)进行的讨论可以指的是机器(例如,计算机)的动作或处理,其中,机器操作或变换呈现为一个或多个存储器(例如,易失性存储器、非易失性存储器或其任意合适组合)、寄存器或接收、存储、传输或显示信息的其他机器组件中的物理量(例如,电学、磁学或光学)的数据。此外,除非另有具体说明,否则如在专利文献中常用的,本文中的“一(a)”或“一(an)”用于包括一个或多于一个的情况。最后,如在本文中所使用的,连接词“或”指的是非排他“或”,除非另有具体说明。
尽管参照具体示例性实施方案对本主题的概况进行了描述,但是可以对这些示例性实施方案进行各种修改和改变,而不脱离本发明的实施方案的更宽的范围。例如,本领域的普通技术人员可以混合和匹配或任选其各种实施方案或特征。本发明主题的这些实施方案可以仅仅为了方便而在本文中单独地或共同地称为术语“发明”,并且如果事实上公开了多于一个的发明或发明构思,则无意自愿地将本申请的范围限制在任何单个发明构思。
对本文示出的示例性实施方案进行足够详细地描述以使得本领域技术人员可以实践公开的教示。可以使用其他实施方案并且可以从中得到其他实施方案,使得可以进行结构、逻辑替换和改变,而不脱离本公开的范围。因此,具体实施方式不应被视为限制意义,并且各种实施方案的范围仅由所附的权利要求连同所附权利要求所涉及的等效形式的全部范围进行限定。
此外,可以针对在本文中描述为单个实例的资源、操作或结构提供多个实例。另外,各资源、操作、模块、引擎和数据存储器之间的边界有点任意,并且在具体说明性配置的上下文中示出了具体操作。功能的其他分配是可以想象的,并且可以落在本发明的各种实施方案的范围内。通常,在示例配置中呈现为单独资源的结构和功能可以实现为组合结构或资源。类似地,呈现为单一资源的结构和功能可以实现为单独资源。这些和其他变型、修改、添加和改进落在由所附权利要求所呈现的本发明的实施方案的范围内。因此,说明书和附图被认为是说明性的而非限制性的。

Claims (18)

1.一种增强现实显示器中的叠加强调修改的设备,其包括:
摄像机;
显示装置;以及
叠加模块,其配置为执行如下操作,所述操作包括:
利用一个或多个硬件处理器中的至少一个来访问场景改变数据,所述场景改变数据指示在通过透明投影表面观看的场景中的改变,所述场景改变数据包括在一段时间内已经改变的场景的部分的指示;
基于场景的部分的指示来识别呈现在透明投影表面上的信息叠加的至少一部分;以及
基于场景改变数据,利用一个或多个硬件处理器中的至少一个来修改在透明投影表面上的信息叠加的所述至少一部分的视觉强调。
2.根据权利要求1所述的增强现实显示器中的叠加强调修改的设备,其中,修改信息叠加的所述至少一部分的视觉强调包括改变信息叠加的所述至少一部分的亮度。
3.根据权利要求1和2中任一项所述的增强现实显示器中的叠加强调修改的设备,其中:
信息叠加的所述至少一部分包括文本;以及
修改信息叠加的所述至少一部分的视觉强调包括改变文本的字体。
4.根据权利要求1和2中任一项所述的增强现实显示器中的叠加强调修改的设备,其中,修改信息叠加的所述至少一部分的视觉强调包括改变信息叠加的所述至少一部分的锐度。
5.根据权利要求1和2中任一项所述的增强现实显示器中的叠加强调修改的设备,其中,信息叠加的所述至少一部分至少部分地与所指示的场景的部分重叠。
6.根据权利要求1和2中任一项所述的增强现实显示器中的叠加强调修改的设备,其中,操作进一步包括:
通过添加或替换由摄像机拍摄的图像的一个或多个部分来生成合成图像;以及
在透明投影表面上呈现合成图像。
7.根据权利要求1和2中任一项所述的增强现实显示器中的叠加强调修改的设备,其中,信息叠加包括对应于场景的地图数据。
8.根据权利要求1和2中任一项所述的增强现实显示器中的叠加强调修改的设备,其中,信息叠加包括位置信息。
9.根据权利要求1和2中任一项所述的增强现实显示器中的叠加强调修改的设备,其中,信息叠加包括方向信息。
10.一种增强现实显示器中的叠加强调修改的计算机化的方法,所述方法包括:
利用一个或多个硬件处理器中的至少一个来访问场景改变数据,所述场景改变数据指示在通过透明投影表面观看的场景中的改变,所述场景改变数据包括在一段时间内已经改变的场景的部分的指示;
基于场景的部分的指示来识别呈现在透明投影表面上的信息叠加的至少一部分;以及
基于场景改变数据,利用一个或多个硬件处理器中的至少一个来修改在透明投影表面上的信息叠加的所述至少一部分的视觉强调。
11.根据权利要求10所述的增强现实显示器中的叠加强调修改的计算机化的方法,其中,修改信息叠加的所述至少一部分的视觉强调包括改变信息叠加的所述至少一部分的亮度。
12.根据权利要求10或11中任一项所述的增强现实显示器中的叠加强调修改的计算机化的方法,其中,
信息叠加的所述至少一部分包括文本;以及
修改信息叠加的所述至少一部分的视觉强调包括改变文本的字体。
13.根据权利要求10或11中任一项所述的增强现实显示器中的叠加强调修改的计算机化的方法,其中,修改信息叠加的所述至少一部分的视觉强调包括改变信息叠加的所述至少一部分的锐度。
14.根据权利要求10或11中任一项所述的增强现实显示器中的叠加强调修改的计算机化的方法,其中,信息叠加的所述至少一部分至少部分地与所指示的场景的部分重叠。
15.根据权利要求10和11中任一项所述的增强现实显示器中的叠加强调修改的计算机化的方法,进一步包括:
通过添加或替换由摄像机拍摄的图像的一个或多个部分来生成合成图像;以及
在透明投影表面上呈现合成图像。
16.根据权利要求10和11中任一项所述的增强现实显示器中的叠加强调修改的计算机化的方法,其中,信息叠加包括对应于场景的地图数据。
17.根据权利要求10和11中任一项所述的增强现实显示器中的叠加强调修改的计算机化的方法,其中,信息叠加包括位置信息。
18.根据权利要求10和11中任一项所述的增强现实显示器中的叠加强调修改的计算机化的方法,其中,信息叠加包括方向信息。
CN202311197852.XA 2017-01-17 2018-01-16 增强现实显示器中的叠加强调修改 Pending CN117036529A (zh)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US15/407,435 US10152815B2 (en) 2017-01-17 2017-01-17 Overlay emphasis modification in augmented reality displays
US15/407,435 2017-01-17
PCT/US2018/013875 WO2018136420A1 (en) 2017-01-17 2018-01-16 Overlay emphasis modification in augmented reality displays
CN201880006951.6A CN110199319B (zh) 2017-01-17 2018-01-16 增强现实显示器中的叠加强调修改

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
CN201880006951.6A Division CN110199319B (zh) 2017-01-17 2018-01-16 增强现实显示器中的叠加强调修改

Publications (1)

Publication Number Publication Date
CN117036529A true CN117036529A (zh) 2023-11-10

Family

ID=61837808

Family Applications (2)

Application Number Title Priority Date Filing Date
CN202311197852.XA Pending CN117036529A (zh) 2017-01-17 2018-01-16 增强现实显示器中的叠加强调修改
CN201880006951.6A Active CN110199319B (zh) 2017-01-17 2018-01-16 增强现实显示器中的叠加强调修改

Family Applications After (1)

Application Number Title Priority Date Filing Date
CN201880006951.6A Active CN110199319B (zh) 2017-01-17 2018-01-16 增强现实显示器中的叠加强调修改

Country Status (5)

Country Link
US (1) US10152815B2 (zh)
EP (1) EP3571668A1 (zh)
CN (2) CN117036529A (zh)
BR (1) BR112019014336A2 (zh)
WO (1) WO2018136420A1 (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102551239B1 (ko) * 2015-09-02 2023-07-05 인터디지털 씨이 페이튼트 홀딩스, 에스에이에스 확장된 장면에서의 내비게이션을 용이하게 하기 위한 방법, 장치 및 시스템
US10152815B2 (en) 2017-01-17 2018-12-11 Opentv, Inc. Overlay emphasis modification in augmented reality displays
US10235788B2 (en) 2017-01-17 2019-03-19 Opentv, Inc. Overlay contrast control in augmented reality displays
US10937127B2 (en) * 2018-08-13 2021-03-02 International Business Machines Corporation Methods and systems for managing text in rendered images
WO2020126008A1 (en) * 2018-12-20 2020-06-25 Livanova Deutschland Gmbh Heart lung machine having control assembly with space-saving display features
US11157762B2 (en) 2019-06-18 2021-10-26 At&T Intellectual Property I, L.P. Surrogate metadata aggregation for dynamic content assembly
EP3819699B1 (en) * 2019-11-08 2024-02-21 Leica Instruments (Singapore) Pte. Ltd. Optical system and corresponding apparatus, method and computer program

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5913591A (en) 1998-01-20 1999-06-22 University Of Washington Augmented imaging using a silhouette to improve contrast
US7319755B2 (en) * 2001-08-03 2008-01-15 Waterstrike Incorporated Image altering apparatus and method for providing confidential viewing of a fundamental display image
US10032192B2 (en) * 2003-12-23 2018-07-24 Roku, Inc. Automatic localization of advertisements
US7271815B2 (en) 2004-10-21 2007-09-18 International Business Machines Corporation System, method and program to generate a blinking image
GB0805924D0 (en) 2008-04-02 2008-05-07 Hibbert Ralph Animation Storyboard creation system
US9480919B2 (en) 2008-10-24 2016-11-01 Excalibur Ip, Llc Reconfiguring reality using a reality overlay device
US8964298B2 (en) 2010-02-28 2015-02-24 Microsoft Corporation Video display modification based on sensor input for a see-through near-to-eye display
US8576276B2 (en) 2010-11-18 2013-11-05 Microsoft Corporation Head-mounted display device which provides surround video
US8670000B2 (en) 2011-09-12 2014-03-11 Google Inc. Optical display system and method with virtual image contrast control
US9552147B2 (en) 2012-02-01 2017-01-24 Facebook, Inc. Hierarchical user interface
GB2501925B (en) 2012-05-11 2015-04-29 Sony Comp Entertainment Europe Method and system for augmented reality
US9339726B2 (en) * 2012-06-29 2016-05-17 Nokia Technologies Oy Method and apparatus for modifying the presentation of information based on the visual complexity of environment information
US9886795B2 (en) * 2012-09-05 2018-02-06 Here Global B.V. Method and apparatus for transitioning from a partial map view to an augmented reality view
NL2009616C2 (en) 2012-10-11 2014-04-14 Ultra D Co Peratief U A Adjusting depth in a three-dimensional image signal.
US9619911B2 (en) 2012-11-13 2017-04-11 Qualcomm Incorporated Modifying virtual object display properties
RU2621488C2 (ru) * 2013-02-14 2017-06-06 Сейко Эпсон Корпорейшн Укрепляемый на голове дисплей и способ управления для укрепляемого на голове дисплея
KR101753200B1 (ko) 2013-09-09 2017-07-04 엠파이어 테크놀로지 디벨롭먼트 엘엘씨 증강 현실 변경 감지기
KR20150059989A (ko) 2013-11-25 2015-06-03 삼성전자주식회사 문서 인식 방법 및 장치
EP2886039B1 (en) 2013-12-17 2019-08-21 Microsoft Technology Licensing, LLC Method and see-thru display device for color vision deficit correction
US9898844B2 (en) 2013-12-31 2018-02-20 Daqri, Llc Augmented reality content adapted to changes in real world space geometry
US9557951B2 (en) 2015-03-04 2017-01-31 International Business Machines Corporation Filtering information within augmented reality overlays
US9791917B2 (en) 2015-03-24 2017-10-17 Intel Corporation Augmentation modification based on user interaction with augmented reality scene
KR20160137258A (ko) * 2015-05-22 2016-11-30 삼성전자주식회사 전자 장치 및 그의 화면 표시 방법
US10235788B2 (en) 2017-01-17 2019-03-19 Opentv, Inc. Overlay contrast control in augmented reality displays
US10152815B2 (en) 2017-01-17 2018-12-11 Opentv, Inc. Overlay emphasis modification in augmented reality displays

Also Published As

Publication number Publication date
CN110199319A (zh) 2019-09-03
CN110199319B (zh) 2023-10-10
US10152815B2 (en) 2018-12-11
WO2018136420A1 (en) 2018-07-26
EP3571668A1 (en) 2019-11-27
BR112019014336A2 (pt) 2020-02-27
US20180204361A1 (en) 2018-07-19

Similar Documents

Publication Publication Date Title
CN110168616B (zh) 增强现实显示器中的叠加对比度控制
CN110199319B (zh) 增强现实显示器中的叠加强调修改
CN108474666B (zh) 用于在地图显示中定位用户的系统和方法
US20220092830A1 (en) Image processing apparatus, image processing method, and program
US10089794B2 (en) System and method for defining an augmented reality view in a specific location
US8811667B2 (en) Terminal device, object control method, and program
US9898857B2 (en) Blending between street view and earth view
US20140285523A1 (en) Method for Integrating Virtual Object into Vehicle Displays
CN109961522B (zh) 图像投射方法、装置、设备和存储介质
Orlosky et al. Dynamic text management for see-through wearable and heads-up display systems
CN110084204B (zh) 基于目标对象姿态的图像处理方法、装置和电子设备
WO2018134897A1 (ja) 位置姿勢検出装置、ar表示装置、位置姿勢検出方法およびar表示方法
CN112714266A (zh) 标注信息展示方法、装置、电子设备及存储介质
CN107491289B (zh) 一种窗口渲染方法及装置
US20190066366A1 (en) Methods and Apparatus for Decorating User Interface Elements with Environmental Lighting
CN113011298B (zh) 截断物体样本生成、目标检测方法、路侧设备和云控平台
US10366495B2 (en) Multi-spectrum segmentation for computer vision
CN112862976B (zh) 一种数据处理方法、装置及电子设备
Раиса et al. The method of visualization of 3D objects using augmented reality technology based on the marker
CN117716410A (zh) 用于视觉区分的叠加自适应
JP2022040118A (ja) 表示制御装置、プログラム、及びシステム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination