CN105723187A - 使用透明度来在场景中呈现标记 - Google Patents
使用透明度来在场景中呈现标记 Download PDFInfo
- Publication number
- CN105723187A CN105723187A CN201480062136.3A CN201480062136A CN105723187A CN 105723187 A CN105723187 A CN 105723187A CN 201480062136 A CN201480062136 A CN 201480062136A CN 105723187 A CN105723187 A CN 105723187A
- Authority
- CN
- China
- Prior art keywords
- labelling
- scene
- scenario objects
- pixel
- contribution amount
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3626—Details of the output of route guidance instructions
- G01C21/3635—Guidance using 3D or perspective road maps
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3626—Details of the output of route guidance instructions
- G01C21/3635—Guidance using 3D or perspective road maps
- G01C21/3638—Guidance using 3D or perspective road maps including 3D objects and buildings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/62—Semi-transparency
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/004—Annotating, labelling
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Geometry (AREA)
- Automation & Control Theory (AREA)
- Computer Graphics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- Multimedia (AREA)
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
Abstract
一种架构,其实现了在场景中绘制既不使场景模糊又不令人不快地被场景模糊的标记。当将诸如文本、线条和其它图形之类的标记绘制到场景中时,确定关于对于观看者的效用而言绘制具有比产生遮挡的场景对象要大的突显度的标记。标记的效用是基于场景对象和标记离照相机的距离的。因此,如果对象在场景中显得较小并且在标记的前面,则将更清楚地绘制该标记,然而,如果相同的对象在场景中显得较大并且在标记的前面,则如果真要绘制的话,将标记渲染地模糊。
Description
背景技术
用于在诸如地图的图像中提供更为丰富的用户体验的能力对于制造商来说可能是个竞争优势。这种能力可以包括在场景中对文本和其它形状(共同地被称为标记)的渲染。通常地,这是通过绘制该标记并且以某种方式让其使场景模糊,或者试着将该标记完全绘制到场景中来处理的,在该情况下,该标记可能被场景的部分所模糊。在诸如三维(3D)的多维渲染中,存在关于如何以标记既是可见的又是还不使场景或者其任何部分模糊的这样的方式将该标记绘制到3D场景中的问题。
发明内容
为了提供对本文描述的一些新颖的实施例的基本理解,下文提出了简化的概要。该概要不是广泛的综述,并且其不旨在标识关键的/决定性的要素,或者描绘其范围。其唯一目的是以简化的形式提出一些概念作为对稍后提出的更详细的描述的序言。
所公开的架构实现在场景(例如,三维(3D))中对标记(还被称为标记对象)的绘制(或者渲染),所述标记既不使场景模糊(被理解为场景对象或者包括场景对象,其可以是自然的和/或人造的,并且包括作为没有被应用的标记的原始场景的一部分而包括的文本、线条和/或图形),也不令人不快地被场景(场景对象)模糊。通常,该架构操作以在看到给定块的标记和/或场景时确定对于用户的效用。这是通过以下方式来确定的:计算场景中的标记对象和相关联的场景对象的当前贡献量,并且基于这些贡献来确定哪个贡献量对于用户体验提供更大的效用(或者重要性),以及然后将所期望的景深衰减应用于对象和/或标记以实现对于用户的最佳效用。
应当理解的是,可以在至少两种不同的技术中应用衰减的水平:仅仅对于标记、仅仅对于产生遮挡的场景对象、或者对于标记和产生遮挡的场景对象二者。虽然本文的描述可以集中于一种技术,但是应当意识到的是,描述不被如此限制。在操作中,完全不透明地将所有场景对象绘制到标准的缓冲器中。然后,当按需减弱像素时,将标记绘制在场景之上到同一缓冲器之内。在完全不透明的场景对象之上绘制完全不透明的标记像素在结果上等效于在具有零不透明度的该像素处绘制场景对象。类似地,在不透明的对象之上绘制的部分减弱的标记像素看起来与是否已经代替地减弱了对象是相类似的。
当场景被缩小使得场景对象更难于识别时,用户将很可能想要看到更突显的和明显样式的标记,而不是潜在地不可识别的场景对象(诸如建筑物),因为场景对象在整个场景中更小并且更大量。因此,对于用户的效用是要绘制可识别的并且可读的标记,并且向用户/观看者呈现识别用户正在哪儿观看什么(例如,对于地理地图)的更信息量大的方式。以该方式,将绘制具有接近于完全不透明的标记像素。这被称为所计算的标记贡献在对于用户的效用(或者重要性)方面比场景贡献要大。
与此相反,当场景被放大时,用户将很可能想要清楚地并且明显地看到场景对象,以及场景对象的产生遮挡的像素后面的很少或者没有的标记,因为用户更多地被定向到该位置,并且因此,将绘制具有较大景深衰减(较小的不透明度)的标记对象。换句话说,对于用户的效用是要看到具有接近于完全不透明的场景对象像素。这被称为场景对象贡献在对于用户的效用方面比标记贡献要大(更重要),并且因此,该架构通过在场景的呈现中绘制具有降低的或者零不透明度的被遮挡的标记像素来补偿。
以导致模糊的对象(在标记前面的场景对象)的像素和被模糊的对象(例如,标记)的像素中的每像素为基础来计算贡献。
如果真要使用任何衰减,通过绘制具有适合于给定对象(场景和/或标记)的景深衰减的水平的标记和/或场景对象,将这些贡献显现给用户。这在不使场景内容和/或被放置在场景中的标记模糊的情况下实现(例如,利用文本、线条、图形等等作为标记对象)对3D场景的注释,其中的任何一个是期望被感知的。
标记可以被描述为最初未在给定场景中的任何对象(还被称为“标记对象”),但是被放置在场景(例如,地图)中,并且这辅助用户理解场景的方面。例如,标记可以包括但不限于:被放置(放在)在公路上的用于标识公路名称的文本、受限的运动方向、以及公路的状态(例如,在建造、事故、交通阻塞或者减速等等之下)。标记可以是叠加在公路和道路上的出于特定目的用户将旅行或者被建议旅行的路线(例如,被插入到公路、街道、道路等等之上的宽的线条)。标记还可以是非文本的和非线条的对象,诸如建筑物和其它图形(自然的和/或人造的)。
该架构不仅应用于具有标记(被应用于诸如地图之类的陆地场景的标记)和陆地场景对象的陆地场景,而且还应用于相对于空中对象(诸如云、飞机、飞行实体(例如,鸟)、行星、星群和其它空中标记等等)使用标记(例如,诸如云标签、飞行对象标签等等之类的空中标记)的空中场景。不管标记的类型是什么,该架构以每像素为基础来执行对标记和场景对象的绘制。
当将诸如文本、线条和其它图形之类的标记对象绘制到场景中时,做出关于首先在场景的3D空间中的哪里建立标记位置的确定。所公开的架构可以接收具有已经应用了标记的场景,但是然后操作以基于针对用户和照相机视野的效用度量(例如,缩放比例的变化)来绘制具有景深衰减的标记。基于标记在场景中并且相对于场景对象的位置,该架构计算关于标记和产生遮挡的场景对象对于用户的效用的贡献。例如,该贡献效用度量可以是对距离比或者百分比的计算。
如果场景对象和标记关于在标记前面的对象显得远离照相机,则离照相机的整个距离可以是使得标记贡献被计算为比场景贡献更重要或者具有更大的对于用户的效用,并且通过将景深衰减(较小的不透明度或者近似完全透明)应用于产生遮挡的场景对象像素以使得标记能够显得突显来突显地并且在视觉上可读地绘制标记。与此相反,如果相同的对象(场景和标记)显得更靠近照相机(例如,被放大)并且场景对象还在标记的前面,则近似地或者完全不透明(不透明)地渲染场景对象像素,由此遮挡标记的全部或者部分。
依据每像素的基础,做出第一遍(pass),以确定用于遮挡对象(例如,建筑物、地形等等)的像素的距离,所述对象与和照相机的位置/地点有关的标记相关联。第二遍将潜在地被遮挡的对象——标记,绘制到场景中。如果标记像素未被对象像素遮挡,则(例如,不透明的)绘制标记像素。如果标记像素被场景对象的像素遮挡,则基于至照相机的像素距离(标记像素和/或产生遮挡的对象像素)或者根据诸如产生遮挡的像素至被遮挡的像素的距离之类的其它方式来计算贡献。
可能存在任意数量的不同的方式,以其计算标记对象和场景对象的贡献(诸如比率),其通常考虑至照相机的距离或者由从产生遮挡的对象到照相机的距离划分的、产生遮挡的对象和标记之间的距离定义的值。例如,对于在标记对象像素中的一些或者全部像素前面的场景对象像素,可以计算从产生遮挡的像素到标记像素(被遮挡的像素)的距离,并且然后,将该距离值与产生遮挡的像素(或者标记像素)至照相机(来自观测者的视野)的距离进行比较,作为比率。因此,所计算的贡献本质上确立了要向用户渲染的效用。
考虑从场景对象的产生遮挡的像素至标记像素的距离的示例,沿来自照相机的直接视线是五米(或者某个数量)——被遮挡的标记在产生遮挡的场景对象像素后面的五米。进一步假定从产生遮挡的像素至照相机的距离是五百米(或者相应的测量系统的某个值)。然后,该比率是5:500(大的比率差动),或者可以被计算为如与某个门限值或者增量设置(以编程方式受控的)相比的5/500=0.01的值(比较值),并且其指示阻碍用户的标记视野的场景物体的数量。因此,因为该比率较大,所以对于观看者来说,离照相机的距离是重要的,并且清楚地绘制标记(绘制具有接近于完全不透明的标记对象的被遮挡的像素),以提供当用户将很可能想要从该距离看到例如地图上的标记而不是对象时对于观看者的效用。
如果该比率基于较大的照相机距离而“较大”(比率差动较大,或者比较值较小),则标记贡献具有对于用户的较大的效用。因此,用户将很可能想要看到标记而不是场景对象,所以绘制具有接近于或者完全不透明的标记对象的被遮挡的像素(场景对象的产生遮挡的像素,当以完全不透明度保留的是利用标记的完全不透明的像素过度绘制的时)。
继续使用离产生遮挡的像素和标记(被遮挡的)像素的距离保持在五米的上文的示例,现在考虑将至照相机的距离降至一百米(或者相应的测量系统的某个值)。然后,该比率为5:50(较小的比率差动)或者可以被计算为5/50=0.1的比较值,比之前的大十倍的值。因此,现在场景显得被更放大了(场景对象和标记显得更靠近观看者/照相机)。如果该比率(数量或者比较值)较小,则标记和产生遮挡的对象更靠近照相机,并且场景贡献具有比标记贡献要大的对于用户的效用(重要性);因此,绘制具有很小的或者无不透明度的标记对象的被遮挡的像素,由此向用户呈现为几乎完全或者完全地使标记像素模糊。
因此,如果场景对象和标记在场景中显得远并且场景对象在标记的前面,则标记贡献相对于场景贡献可以具有较大的对于用户的效用(或者重要性),并且因此,将更清楚地绘制标记。如果相同的对象和标记在场景中显得近并且场景对象在标记的前面,则场景贡献具有比标记贡献要大的对于用户的效用(或者重要性),并且因此,如果真要绘制的话,则标记被渲染地模糊。
为了完成上述的和相关的目标,本文结合下文的描述和附图来描述某些说明性的方面。这些方面表明在其中可以实践本文公开的原理的各种方式,并且所有方面和其等价物旨在于在所要求保护的主题的范围之内。当结合附图来考虑时,其它的优点和新颖的特征根据下文的具体实施方式将变得显而易见。
附图说明
图1示出了根据所公开的架构的系统。
图2示出了计算标记与场景中的场景对象的距离用于景深衰减的图。
图3示出了场景的近距离视野和更广阔的场景的更远的视野的屏幕截图。
图4示出了根据所公开的架构的方法。
图5示出了根据所公开的架构的替代的方法。
图6示出了根据所公开的架构的另一种替代的方法。
图7示出了根据所公开的架构的另一种替代的方法。
图8示出了根据所公开的架构的另一种替代的方法。
图9示出了根据所公开的架构的针对场景标记执行景深衰减的计算系统的框图。
具体实施方式
存在关于确定如何以文本和形状既是可见的又是还不使场景模糊或者不被场景所模糊的这样的方式,将文本和其它形状(被称为“标记”)绘制到三维(3D)场景中的问题。通常地,这照惯例是通过完全绘制标记并且让该标记使场景模糊或者试着将该标记完全绘制到场景中来处理的,在该情况下,该标记可能被场景的部分所模糊。
为了绘制既不使场景模糊又不令人不快地被场景所模糊的标记,所公开的架构提供了用于确定(例如,每像素的)标记贡献的对于用户的效用相对场景贡献的对于用户的效用的方式。这提供了用于在不使所期望的内容模糊以使得对于观看者来说信息量丰富的情况下,绘制3D场景和标记的方式。
当将诸如文本、线条和其它图形之类的标记绘制到场景中时,做出关于首先要在场景的3D空间中的哪里建立标记的确定。然后,除非标记像素会被场景所模糊,否则每像素地绘制标记像素。如果标记像素被模糊,则计算从导致模糊(obscuring)的(场景对象的)像素到标记像素的距离,并且与从导致模糊的像素到照相机的距离(从观测者的视野)进行比较。
该作为结果的值(例如,比率)实现了对阻碍观测者看见标记像素的物体的数量的简单的且有效的计算。如果该数量较小,则该标记被最低限度地模糊(如果果真会发生的话),并且如果该数量较大,则该标记基本上(或者完全地)被模糊。因此,如果对象在场景中显得较远(例如,被缩小)并且在标记的前面,则将(通过产生遮挡的像素可见的)更清楚地绘制该标记,然而如果同一对象在场景中显得较接近(例如,被放大)并且在标记的前面,则如果既然被绘制的话,就将该标记渲染地模糊。
所公开的架构还发现对于计算机游戏系统的适用性,其中在提供增强型用户体验时使用景深衰减和标记发现。例如,可以通过绘制具有完全不透明性的隐藏的对象的被遮挡的像素中的一些像素或者全部像素,来绘制具有某种可见度(例如,轮廓)的“隐藏”在隐藏(或者产生遮挡的)对象后面的、但是离游戏者/用户“更远的”距离的作为目标的对象。随着从用户至隐藏对象的距离的减小,如果不具有零不透明性的话,被隐藏的对象的被遮挡的像素被绘制具有较低的不透明性,由此完全阻止游戏者看见被隐藏的作为目标的对象。
现在进行对附图的参考,其中,自始至终使用相同的附图标记来指代相同的要素。在下文的描述中,出于解释的目的,阐述了许多具体细节,以便提供对其的透彻理解。然而,可能明显的是,新颖的实施例可以在没有这些具体细节的情况下实施。在其它实例中,以框图形式示出了公知的结构和设备,以便有助于对其的描述。目的是要覆盖落在所要求的主题的精神和范围之内的所有修改、等同和替代。
图1示出了根据所公开的架构的系统100。系统100可以包括贡献部件102,其被配置为基于场景110的(照相机的)视野112和场景110中建立的标记106的位置,来计算标记106(例如,文本、线条、图形等等)的标记贡献量104和场景110的场景贡献量108。减弱部件114可以被配置为:随着(照相机的)视野112的改变(例如,放大、缩小、在任何方向上摇摄、移动照相机相对于场景110的位置等等),基于相应的标记106和场景110的贡献量(104和108)来将景深衰减的水平116应用于(标记106的)标记和场景对象。
这里,建筑物118是如从视野位置A处的视野112的视角感知到的遮挡标记106的某个部分的产生遮挡的(场景)对象。当视野112通过在视野位置B处更靠近场景110而改变(对于观看者的放大效果)时,被应用于建筑物118或/和标记106中的任一者或者二者的衰减的水平116(还被称为不透明性)也改变。如本文描述的,例如,如根据相对于标记像素和建筑物118的产生遮挡的像素的像素距离定义的,衰减的水平116的变化与视野112的变化相对应。
贡献部件102和减弱部件114连接到诸如在图形适配器和/或板载显卡子系统(例如,母板安装的芯片)中提供的并且由GPU(图形处理单元)和/或母板处理器内核供电的之类的渲染部件120。
应当理解的是,在所公开的架构中,可以重新安排、组合、省略某些部件,并且可以包括另外的部件。此外,在一些实施例中,部件中的所有或者一些部件存在于图形适配器和/或客户端上,而在其它实施例中,一些部件可以存在于服务器上或者是由本地的或者远程的服务来提供的。例如,在服务器实现方式中,地图视图可以是根据所公开的架构来预先渲染和处理的,以便在服务器(例如,“云”)上进行景深衰减,并且作为位图向下发送给客户端。
在另一实施例中,贡献部件102可以被配置为基于标记106的标记贡献量104和场景贡献量108,来计算场景110的标记106与场景110的场景对象(建筑物118)之间的主要贡献。计算标记贡献量104和场景贡献量108,以针对给定的场景110的视野112来确定标记106或者场景对象(建筑物118)对于观看者(例如,用户)的效用122。换句话说,对于观看者来说,与标记106前面的场景对象(建筑物118)相比,可能更有益的或者更重要的是看见标记106。然而,效用122可以基于至视野位置A和视野位置B处的照相机的距离而改变。
减弱部件114可以被配置为基于对于观看者的效用122来将景深衰减的水平应用于标记106,以感知相对于给定视野112的场景对象的位置的标记106。
以每像素为基础来计算标记贡献量和场景贡献量,并且以每像素为基础来应用景深衰减。贡献部件计算导致模糊的像素和标记像素到从其观看场景的虚拟照相机的距离的比率,并且贡献部件将阻碍观测者观看标记的场景物体的量计算为场景贡献量。
当与场景对象(建筑物118)相比,标记贡献量104指示标记106对于场景110的较大的效用122时,绘制具有比在标记106前面的场景对象(建筑物118)要大的突显度的标记106。图中描绘的突显度是基于应用的景深衰减的水平的。当与标记106相比,场景贡献量108指示场景对象对于场景110的较大的效用122时,绘制具有比在标记106前面的场景对象(建筑物118)要小的突显度的标记106。图中描绘的突显度是基于应用的景深衰减的水平的。
图2示出了计算场景202中的标记和场景对象的距离用于景深衰减的图200。图200示出了相对于场景202放置的照相机204。照相机204表示正在其处(例如,由用户)观看场景202的高度和角度。在图200中,场景202包括可能会、可能不会或者可能部分地遮挡与其它对象相关联的像素的场景对象。例如,其它对象可以是标记或者其它场景对象。
例如,考虑场景202,在场景202中,(例如,地图中的)第一线条206标明在小山对象208(所述小山对象208位于照相机204与第一线条206之间)后面一百米的人行道。如果照相机204远离场景202一千米,则可以在不降低不透明度(完全不透明的)或者最小的降低不透明度的情况下,(从照相机204的视角)“透过(through)”小山对象208来显示第一线条206,使得观看用户不会注意到。因此,对于用户的效用是要示出该距离处的标记。
如果照相机204更靠近场景202(例如,离场景202五百米),则第一线条206可能在某种程度上(例如,某个百分比的透明度或者“部分不透明度”)显得被减弱。如果照相机204在最靠近场景202的位置中(例如,离第一线条206一百米),则对于被遮挡的像素来说,第一线条206可能根本不显示。
该技术同样地应用于场景202中的其它标记和对象,诸如用于由建筑物对象212后面的第二线条210标明的第二路径或者道路以及由第三线条214标明的第三路径或者道路,而经由照相机204完全没被遮住。在该最后的情况下,只要不将照相机204移动到建筑物212的右边并且以某种被遮挡的方式回头看第三路径或者道路,第三线条214就被呈现为不透明的。
如果照相机204更靠近场景202(例如,离场景202五百米),则建筑物对象212后面的第二人行道(第二线条210)可能在某种程度上(例如,某个百分比的透明度或者“部分不透明度”)显得被减弱。如果照相机204离第三路径(第三线条214)一百米并且第三路径被某个对象(未示出)遮挡,则第三人行道(第三线条214)可能根本不显示(景深衰减的水平等于零不透明度)。
场景中所有潜在产生遮挡的对象(例如,小山对象208、建筑物对象212等等)具有被渲染以计算离照相机204的距离的通道(pass)。出于方便和兼容性的原因,例如,针对显示器(作为场景202的一部分)上的每个像素,可以计算该距离并且将其写入到“距离”缓冲器中。当渲染所有潜在的被遮挡的对象(例如,第一线条206)时,可以不利用传统的景深缓冲器——计算离照相机204的像素距离,并且将其存储在距离缓冲器中。基于场景202中被渲染的对象,这可以每顶点地执行,并且针对每个像素来插值,和/或每像素的直接地计算。
然后,产生遮挡的距离(产生遮挡的对象(例如小山对象208)的距离)是从距离缓冲器中取回的,并且与诸如标记之类的其它对象的其它取回的距离进行比较。如果潜在地被遮挡的像素216至照相机204的距离(被称为被遮挡的像素距离)小于(更接近于)产生遮挡的像素218至照相机204的距离,则以完全不透明度来绘制潜在地被遮挡的像素218。
或者,考虑被遮挡的像素距离(从潜在地被遮挡的像素216到照相机204的距离)以及潜在地被遮挡的像素216与产生遮挡的像素218之间的距离的比率。如果该比率较大(如可以根据门限或者值的某个梯度或者比例以编程方式来确定),这样与来自彼此的像素相比照相机204离得更远,则以完全不透明度来绘制潜在地被遮挡的像素216。随着比率的降低(照相机204更靠近场景202),不透明度降至零(即,零透明度)。该比率转化至降低的(或者变化的)不透明度的速率可以以编程方式来控制。
例如,确切的行为可以针对不同的数据类型而变化,使得表示导航路径的线条与相关联的公路、路径或者道路相比更长地保持不透明度。
图3示出了场景的近距离视野302和更广阔的场景的更远视野304的屏幕截图300。在近距离的视野302中注意到的是,标签(标记)“ViaSanMarco”稍微与该标记前面的建筑物306混合在一起(被减弱),并且注意到的是在其上呈现该标记的公路308也被混合(被减弱)而不是被完全地模糊。对于用户的效用是不在该特写视图中显示该标记,因为用户最可能被很好地定向到该距离处的地理位置和道路。
另外注意到的是,在更远的视图304(被缩小的图像)中,公路308是更明显的,并且因此被建筑物更少的遮住(被遮挡)。在该更大的距离处对用户的效用是要在视图中显示该标记,因为用户不太可能被定向到该距离处的地理位置和道路,并且因此可能对看到道路标记以达到所期望的目的地或者区域更感兴趣。随着用户改变视野,由所公开的架构实现的减弱实时发生(在实际事件正在发生的时间间隔中被处理)。
本文包括的是表示用于执行所公开的架构的新颖的方面的示例性方法的流程图集合。出于简化解释的目的,虽然例如以流程图或者流向图的形式示出了本文示出的一种或多种方法并且将其描述为一系列的动作,但是应当理解并且意识到的是,这些方法并不受限于动作的顺序,如一些动作可以根据其以与本文示出的和描述的顺序不同的顺序发生和/或与其它动作同时发生。例如,本领域的技术人员将理解并且意识到的是,方法可以替代地诸如用状态图表示为一系列的相关的状态或者事件。此外,对于新颖的实现方式来说,可能并不需要方法中示出的所有的动作。
图4示出了根据所公开的架构的方法。在400处,在场景中并且根据视野来建立标记的位置。该视野是由虚拟照相机的视角确定的,并且该场景可以被规定为视野中的所有对象或者仅仅被认为提供某种程度的对标记的遮挡的那些对象。在402处,基于标记的位置来计算标记的标记贡献量和场景的场景贡献量。在404处,随着视野的改变,基于标记和场景的各自的贡献量来将透明度的水平应用于标记和场景对象。
图5示出了根据所公开的架构的替代的方法。在500处,在场景(例如,3D)中并且根据(虚拟照相机的)视野来建立标记的位置,该视野具有带有一定程度上对标记遮挡(阻碍)的对象。在502处,计算场景中的标记的标记贡献量并且计算场景中的对象的对象贡献量。对于整个场景的贡献量可以指示标记占据场景的和产生遮挡的对象占据场景的百分比(度)。在504处,基于标记和对象的各自的贡献量来将景深衰减的水平应用于标记和对象。景深衰减是基于场景中的标记和对象的景深和/或相对于彼此的景深被应用于标记和对象中的一个或者二者的衰减。
该方法还可以包括:如果对象在标记的前面并且对象贡献量小于标记贡献量,则绘制具有比对象要大的突显度的标记。该突显度是由应用的或者未被应用的景深衰减的量来表征的。例如,如果景深衰减的量是最小的,则对象或者标记被清楚地渲染并且具有很小的透明度或者不具有透明度。如果景深衰减的量比较大或者是显著的,则应用了景深衰减的对象或者标记针对被遮挡的部分,被渲染有很小的清晰度,使得被遮挡的部分难于在视野中在视觉上感知。因此,该方法还可以包括:如果对象在标记的前面并且对象贡献量大于标记贡献量,则绘制具有比对象要小的突显度的标记。
该方法还可以包括:以每像素为基础来计算相对于整个场景的标记贡献量和相对于整个场景的对象贡献量。该方法还可以包括:计算用于指示遮挡标记的对象物体(或者对象的像素)的量的距离比。该方法还可以包括:基于视野的缩放比例来调整被应用于标记和对象的景深衰减的水平。换句话说,对象和标记在场景中显得越远,对象就可以具有越小的贡献量。如果真会发生的话,当认为视野的缩放没有变化时,如果标记前面的对象相对较小,则更清楚地或者更突显地绘制标记;然而,如果标记前面的对象相对较大,则不太清楚地或者不太突显地绘制标记。
该方法还可以包括:以每像素为基础来执行计算和应用的动作。该方法还可以包括:计算被场景模糊的标记的标记像素的距离比,并且基于该距离比来应用景深衰减的水平。
图6示出了根据所公开的架构的另一替代的方法。该方法可以作为计算机可执行指令被体现在计算机可读存储介质上,所述计算机可执行指令当被微处理器执行时,使微处理器执行下文的动作。在600处,在场景中相对于对象并且根据来自虚拟照相机的场景的视野来标识标记的位置。在602处,计算阻碍至标记的视野的对象物体的量。在604处,基于标记和对象物体对于场景的各自的贡献量来将景深衰减应用于标记和对象物体。
该方法还可以包括:基于视野的变化来改变应用于标记和场景物体中的每个的景深衰减的量。该方法还可以包括:当对象被视作在标记的前面并且对于场景的对象像素贡献小于场景门限值时,相对于被应用于对象的景深衰减,将较小的景深衰减(例如,较大的突显度)应用于标记。该门限值可以是用于指示标记和对象的像素计数何时作为用于确定贡献的度量的值。
该方法还可以包括:当对象被视作在标记的前面并且对于场景的对象像素贡献大于场景门限值时,相对于被应用于对象的景深衰减,将较大的景深衰减(例如,较小的突显度)应用于标记。该方法还可以包括:计算对象的像素与标记的像素相对于虚拟照相机的距离比,以确定标记的模糊度(degreeofobscurement)。然后,针对相对于对象和标记的所有像素来执行该计算。
图7示出了根据所公开的架构的另一种替代的方法。在700处,接收场景,所述场景具有位于所述场景中的并且根据虚拟照相机的视野的标记。该视野包括具有一定程度上对标记遮挡的场景对象。在702处,基于标记的标记贡献量和场景对象的场景对象贡献量来计算标记或者场景对象对于视野的效用。在704处,基于标记和场景对象的各自的贡献量来将景深衰减的水平应用于标记或者场景对象中的至少一个。
该方法还可以包括:如果场景对象在标记的前面并且标记在场景中具有比场景对象要大的效用,则绘制具有突显度和可读性的标记。该方法还可以包括:如果场景对象在标记的前面并且场景对象在场景中具有比标记要大的效用,则绘制具有比场景对象要小突显度的标记。
该方法还可以包括:以每像素为基础来计算对于场景的标记贡献量和对于场景的场景对象贡献量。该方法还可以包括:计算用于指示遮挡标记的许多对象物体的距离比。
该方法还可以包括:基于视角的缩放比例来调整被应用于标记、场景对象、或者标记和场景对象的景深衰减的水平。该方法还可以包括:以场景对象的产生遮挡的像素和标记的被遮挡的像素中的每像素为基础来执行计算和应用的动作。该方法还可以包括:计算如由标记的标记像素与场景对象的场景对象像素之间的距离和至从其观看场景的虚拟照相机的距离来定义的距离比,并且基于该距离比来应用景深衰减的水平。
图8示出了根据所公开的架构的另一种替代的方法。该方法可以作为计算机可执行指令被体现在计算机可读存储介质上,所述计算机可执行指令当被微处理器执行时,使微处理器执行下文的动作。
在800处,在3D场景中相对于产生遮挡的场景对象并且根据来自虚拟照相机的场景的视野来标识标记的位置。在802处,基于至虚拟照相机的距离来计算阻碍至标记的视野的对象物体的量。在804处,基于该距离来计算绘制具有比产生遮挡的场景对象要大的区别性的标记或者绘制具有比标记要大的区别性的场景对象的效用。在806处,基于所评估的效用来将景深衰减应用于标记、场景对象、或者标记和场景对象。
该方法还可以包括:基于视野和效用的变化来改变应用的景深衰减的量。该方法还可以包括:当标记的效用大于场景对象的效用时,将等效于完全不透明度的景深衰减应用于标记。
该方法还可以包括:当场景对象的效用大于标记的效用时,将等效于零不透明度的景深衰减应用于标记。该方法还可以包括:基于对象的像素和标记的像素相对于至虚拟照相机的距离的距离来评估效用,以确定应用于标记的景深衰减的水平。
如本申请中使用的,术语“部件”和“系统”旨在指代计算机相关的实体,或者硬件、软件和有形硬件的组合、软件或者执行中的软件。例如,部件可以是但不限于:诸如微处理器、芯片存储器、大容量存储设备(例如,光学驱动器、固态驱动器和/或磁存储介质驱动器)和计算机之类的有形部件,以及诸如运行在微处理器上的进程、对象、可执行文件、数据结构(被存储在易失性或者非易失性存储介质中)、模块、执行的线程和/或程序之类的软件部件。
通过说明的方式,运行在服务器上的应用和服务器二者可以是部件。一个或多个部件可以存在于进程和/或执行的线程内,并且部件可以被集中在一个计算机上和/或分布在两个或更多个计算机之间。本文可以使用词语“示例性的”来意指充当示例、实例或者说明。本文被描述为“示例性的”任何方面或者设计不必然地被解释为优选的或者比其它方面或者设计有优势。
现在参见图9,存在示出的用于根据所公开的架构来针对场景标记执行景深衰减的计算系统900的框图。然而,应当意识到的是,所公开的方法和/或系统的一些或者所有方面可以被实现为片上系统,其中在单一的芯片衬底上制造模拟的、数字的、混合信号的和其它的功能单元。
为了提供针对其各个方面的另外的背景,图9和下文的描述旨在提供对在其中可以实现各个方面的合适的计算系统900的简要的、一般的描述。虽然上文的描述是在可以在一个或多个计算机上运行的计算机可执行指令的一般背景下,但是本领域的技术人员将认识到的是,新颖的实施例还可以结合其它程序模块和/或作为硬件和软件的组合来实现。
用于实现各个方面的计算系统900包括计算机902,其具有微处理单元904(还被称为微处理器和处理器)、诸如系统存储器906(计算机可读存储介质/多介质还包括磁盘、光盘、固态驱动器、外部存储器系统和闪存设备)之类的计算机可读存储介质以及系统总线908。该微处理单元904可以是诸如单一处理器、多处理器、处理和/或存储电路的单核单元和多核单元之类的各种商业上可用的微处理器中的任何一种微处理器。此外,本领域的技术人员将意识到的是,新颖的系统和方法可以利用其它计算机系统配置来实施,包括小型计算机、大型计算机、以及个人计算机(例如,台式PC、膝上型PC、平板PC等等)、手持计算设备、基于微处理器的或者可编程的消费电子产品等等,上述中的每个能够操作地耦合至一个或多个相关联的设备。
计算机902可以是在数据中心和/或支持针对诸如无线通信设备、蜂窝电话和其它能够移动的设备之类的便携式和/或移动计算系统的云计算服务的计算资源(硬件和/或软件)中的使用的若干计算机中的一个计算机。云计算服务包括但不限于:例如,基础设施即服务、平台即服务、软件即服务、存储即服务、桌面即服务、数据即服务、安全即服务和API(应用程序接口)即服务。
系统存储器906可以包括计算机可读存储(物理存储)介质,诸如,易失性(VOL)存储器910(例如,随机存取存储器(RAM))和非易失性存储器(NON-VOL)912(例如,ROM、EPROM、EEPROM等等)。基本输入/输出系统(BIOS)可以被存储在非易失性存储器912中,并且包括诸如在启动期间有助于计算机902之内的部件之间的数据和信号的通信的基本例程。易失性存储器910还可以包括用于缓存数据的诸如静态RAM的高速RAM。
系统总线908提供用于系统部件的接口,包括但不限于系统存储器906至微处理单元904的接口。系统总线908可以是若干类型的总线架构中的任何一种总线架构,所述若干类型的总线架构可以使用各种各样的商业上可用的总线架构中的任何一种总线架构(利用或者不利用存储器控制器)进一步互连至存储器总线和外围总线(例如,PCI、PCIe、AGP、LPC等等)。
计算机902还包括机器可读存储子系统914和用于将存储子系统914连接至系统总线908和其它期望的计算机部件和电路的存储接口916。存储子系统914(物理存储介质)例如可以包括下列各项中的一项或多项:硬盘驱动器(HDD)、磁软盘驱动器(FDD)、固态驱动器(SSD)、闪盘驱动器和/或光盘存储驱动器(例如,CD-ROM驱动器、DVD驱动器)。存储接口916例如可以包括诸如EIDE、ATA、SATA和IEEE1394之类的接口技术。
一个或多个程序和数据可以被存储在存储器子系统906、机器可读和可移动存储器子系统918(例如,闪盘驱动器形状因子技术)和/或(例如,光学的、磁的、固态的)存储子系统914中,包括操作系统920、一个或多个应用程序922、其它程序模块924和程序数据926。
通常地,程序包括用于执行特定任务、功能或者实现特定抽象数据类型的例程、方法、数据结构、其它软件部件等等。例如,操作系统920、应用922、模块924和/或数据926中的所有或者部分还可以被缓存在诸如易失性存储器910和/或非易失性存储器之类的存储器中。应当意识到的是,所公开的架构可以利用各种商业上可用的操作系统或者操作系统的组合(例如,作为虚拟机)来实现。
存储子系统914和存储器子系统(906和918)充当用于数据、数据结构、计算机可执行指令等等的易失性和非易失性存储的计算机可读介质。这样的指令当被计算机或者其它机器执行时,可以使计算机或者其它机器执行方法的一个或多个动作。计算机可执行指令包括:例如,使通用计算机、专用计算机或者专用微处理器设备执行某个功能或者功能组的指令和数据。计算机可执行指令可以是:例如,诸如汇编语言或者甚至源代码之类的二进制的、中间格式的指令。用于执行动作的指令可以被存储在一种介质上,或者可以跨越多种介质来存储,以便指令共同地出现在一个或多个计算机可读存储介质/多介质上,而不管指令中的所有指令是否在同一介质上。
计算机可读存储介质(数个介质)不包括传播的信号本身,可以由计算机902存取,并且包括可移动的和/或不可移动的易失性和非易失性内部和/或外部介质。对于计算机902来说,各种类型的存储介质适应对任何适当的数字格式的数据的存储。本领域的技术人员应当意识到的是,可以使用其它类型的计算机可读介质(诸如,压缩驱动器、固态驱动器、磁带、闪存卡、闪盘驱动器、盒式磁盘等等)来存储用于执行所公开的架构的新颖的方法(动作)的计算机可执行指令。
用户可以使用诸如键盘和鼠标之类的外部用户输入设备928,以及通过由语音识别促进的话音命令来与计算机902、程序和数据交互。其它外部用户输入设备928可以包括麦克风、IR(红外线的)远程控制、控制杆、游戏板、照相机识别系统、手写笔、触摸屏、手势系统(例如,眼运动、诸如与手、手指、胳膊、头等等之类有关的身体姿势)等等。例如,在计算机902是便携式计算机的情况下,用户可以使用诸如触摸板、麦克风、键盘等等之类的板上用户输入设备930来与计算机902、程序和数据交互。
这些和其它输入设备经由系统总线908,通过输入/输出(I/O)设备接口932被连接至微处理单元904,但是可以通过诸如并行端口、IEEE1394串行端口、游戏端口、USB端口、IR接口、短距离无线(例如,蓝牙)和其它个域网(PAN)技术等等之类的其它接口来连接。I/O设备接口932还有助于对输出外围设备934(诸如,打印机、音频设备、照相机设备等等)的使用,诸如声卡和/或板上音频处理能力。
一个或多个图形接口936(通常还被称为图形处理单元(GPU))在计算机902和外部显示器938(例如,LCD、等离子体)和/或板上显示器940(例如,针对便携式计算机)之间提供图形和视频信号。图形接口936还可以被制造为计算机系统板的一部分。
例如,单独的或者在操作系统920中与一个或多个应用程序922、其它程序模块924和/或程序数据926的某种组合中的图形接口936可以包括图1的系统100的实体和部件、图2的图200的实体和部件、图3的屏幕截图300的实体、以及由图4-8的流程图表示的方法。
计算机902可以使用经由有线的/无线的通信子系统942至一个或多个网络和/或其它计算机的逻辑连接在(例如,基于IP的)网络化的环境中操作。其它计算机可以包括工作站、服务器、路由器、个人计算机、基于微处理器的娱乐装置、对等设备或者其它共同的网络节点,并且通常包括相对于计算机902描述的元件中的许多或者所有元件。逻辑连接可以包括与局域网(LAN)、广域网(WAN)、热点等等的有线的/无线的连接。LAN和WAN网络化环境在办公室和公司中是常见的,并且有助于诸如内联网的企业范围的计算机网络,企业范围的计算机网络中的所有网络可以连接至诸如互联网的全球通信网络。
当在网络化环境中使用时,计算机902经由有线的/无线的通信子系统942(例如,网络接口适配器、板上收发机子系统等等)连接至网络,以与有线的/无线的网络、有线的/无线的打印机、有线的/无线的输入设备944等等进行通信。计算机902可以包括调制解调器或者用于通过网络建立通信的其它单元。在网络化的环境中,关于计算机902的程序和数据可以被存储在如与分布式系统相关联的远程存储器/存储设备中。将意识到的是,示出的网络连接是示例性的,并且可以使用在计算机之间建立通信链路的其它单元。
计算机902可操作为与有线的/无线的设备或者使用诸如IEEE802.xx标准家族的无线技术的实体进行通信,诸如操作地被放置在具有例如打印机、扫描仪、台式和/或便携式计算机、个人数字助理(PDA)、通信卫星、与无线可检测的标签(例如,公用电话亭、报摊、洗手间)相关联的装置或者位置中的任何一件和电话的无线通信(例如,IEEE802.11空中调制技术)中的无线设备。这至少包括用于热点、WiMax和蓝牙TM无线技术的Wi-FiTM(被用于证明无线计算机网络化设备的互操作性)。因此,通信可以是正如传统网络的预先定义的结构,或者简化至少两个设备之间的自组织通信。Wi-Fi网络使用被称为IEEE802.11x(a、b、g等等)的无线技术来提供安全的、可靠的、快速的无线连接。Wi-Fi网络可以被用于将计算机连接至彼此,至互联网以及至有线网络(其使用与IEEE802.3有关的技术和功能)。
上文已经描述的内容包括所公开的架构的示例。当然,其不能描述部件和/或方法的每一种想得到的组合,但是本领域的普通技术人员可以认识到的是,许多另外的组合和置换也是可行的。因此,新颖的架构旨在包含落在所附权利要求的精神和范围之内的所有这样的变更、修改和变化。此外,当“包含”在使用时被解释为权利要求中的过渡词时,到术语“包括”被用在具体实施方式或者权利要求中的程度,这样的术语旨在以类似于术语“包含”的方式是包含性的。
Claims (10)
1.一种系统,包括:
贡献部件,其被配置为基于场景贡献量和标记的标记贡献量,来计算场景的标记和所述场景的场景对象之间的主要贡献,所述标记贡献量和所述场景贡献量被计算以确定针对所述场景的给定视野而言所述标记或者所述场景对象对于观看者的效用;
减弱部件,其被配置为基于对于所述观看者的所述效用来将景深衰减的水平应用于所述标记,以感知所述标记相对于所述给定视野的所述场景对象的位置;以及
至少一个微处理器,其被配置为执行存储器中的与所述贡献部件和所述减弱部件相关联的计算机可执行指令。
2.根据权利要求1所述的系统,其中,所述标记贡献量和所述场景贡献量是以每像素为基础来计算的,并且所述景深衰减是以每像素为基础来应用的。
3.根据权利要求1所述的系统,其中,所述贡献部件计算导致模糊的像素和标记像素至从其观看所述场景的虚拟照相机的距离比。
4.根据权利要求1所述的系统,其中,当与所述场景对象相比所述标记贡献量指示了所述标记对于所述场景的更大的效用时,所述标记被绘制有比在所述标记的前面的所述场景对象要大的突显度,所述突显度是基于被应用的景深衰减的水平的。
5.根据权利要求1所述的系统,其中,当与所述标记相比所述场景贡献量指示了所述场景对象对于所述场景的更大的效用时,所述标记被绘制有比在所述标记的前面的所述场景对象要小的突显度,所述突显度是基于被应用的景深衰减的水平的。
6.一种方法,包括下列各项中的动作:
接收具有标记的场景,所述标记位于所述场景中并且根据虚拟照相机的视野,所述视野具有带有一定程度上对所述标记遮挡的场景对象;
基于所述标记的标记贡献量和所述场景对象的场景对象贡献量来计算所述标记或者所述场景对象对于所述视野的效用;以及
基于所述标记和场景对象的各自的贡献量来将景深衰减的水平应用于所述标记或者场景对象中的至少一个。
7.根据权利要求6所述的方法,还包括:如果所述场景对象在所述标记的前面并且与所述场景对象相比所述标记在所述场景中具有更大的效用,则绘制所述标记具有突显度和可读性。
8.根据权利要求6所述的方法,还包括:以每像素为基础来计算对于所述场景的所述标记贡献量和对于所述场景的所述场景对象贡献量。
9.根据权利要求6所述的方法,还包括:基于所述视野的缩放比例来调整被应用于所述标记、所述场景对象、或者所述标记和所述场景对象的所述景深衰减的水平。
10.根据权利要求6所述的方法,还包括:计算如由所述标记的标记像素与所述场景对象的场景对象像素之间的距离和至正从其观看所述场景的虚拟照相机的距离来定义的距离比,以及基于所述距离比来应用所述景深衰减的水平。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910515045.5A CN110264576B (zh) | 2013-11-14 | 2014-11-12 | 使用透明度来在场景中呈现标记 |
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201361904438P | 2013-11-14 | 2013-11-14 | |
US61/904,438 | 2013-11-14 | ||
US14/223,614 US10074182B2 (en) | 2013-11-14 | 2014-03-24 | Presenting markup in a scene using depth fading |
US14/223,614 | 2014-03-24 | ||
PCT/US2014/065102 WO2015073464A1 (en) | 2013-11-14 | 2014-11-12 | Presenting markup in a scene using transparency |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910515045.5A Division CN110264576B (zh) | 2013-11-14 | 2014-11-12 | 使用透明度来在场景中呈现标记 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105723187A true CN105723187A (zh) | 2016-06-29 |
CN105723187B CN105723187B (zh) | 2019-06-28 |
Family
ID=53043414
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201480062136.3A Active CN105723187B (zh) | 2013-11-14 | 2014-11-12 | 使用透明度来在场景中呈现标记 |
CN201910515045.5A Active CN110264576B (zh) | 2013-11-14 | 2014-11-12 | 使用透明度来在场景中呈现标记 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910515045.5A Active CN110264576B (zh) | 2013-11-14 | 2014-11-12 | 使用透明度来在场景中呈现标记 |
Country Status (5)
Country | Link |
---|---|
US (2) | US10074182B2 (zh) |
EP (1) | EP3069104B1 (zh) |
KR (2) | KR102280284B1 (zh) |
CN (2) | CN105723187B (zh) |
WO (1) | WO2015073464A1 (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107463534A (zh) * | 2017-07-27 | 2017-12-12 | 维沃移动通信有限公司 | 一种对象标注方法、移动终端及计算机可读存储介质 |
CN108460725A (zh) * | 2018-03-22 | 2018-08-28 | 腾讯科技(深圳)有限公司 | 地图显示方法、装置、设备及存储介质 |
CN109345629A (zh) * | 2018-08-08 | 2019-02-15 | 安徽慧软科技有限公司 | 一种三维医学图像模糊凸显显示方法 |
CN110634381A (zh) * | 2018-06-25 | 2019-12-31 | 百度在线网络技术(北京)有限公司 | 用于确定标注样式的方法和装置 |
CN110837764A (zh) * | 2018-08-17 | 2020-02-25 | 广东虚拟现实科技有限公司 | 图像处理方法、装置、电子设备及视觉交互系统 |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6472486B2 (ja) | 2016-09-14 | 2019-02-20 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
CN111161374A (zh) * | 2019-12-17 | 2020-05-15 | 稿定(厦门)科技有限公司 | 圈点绘制的方法及装置 |
CN113901343A (zh) * | 2021-09-30 | 2022-01-07 | 北京百度网讯科技有限公司 | 目标物体的可视角确定方法、装置及电子设备 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101193298A (zh) * | 2006-11-27 | 2008-06-04 | 三星电子株式会社 | 播放运动图像的系统、方法和介质 |
CN101207717A (zh) * | 2006-12-18 | 2008-06-25 | 三星电子株式会社 | 组织产生运动图像的模板的系统、方法和介质 |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2003228329A1 (en) | 2002-03-15 | 2003-09-29 | Summus, Inc. | Methods and systems for downloading and viewing maps |
JP3889392B2 (ja) * | 2003-11-18 | 2007-03-07 | 株式会社スクウェア・エニックス | 画像描画装置及び方法、プログラム並びに記録媒体 |
JP3877077B2 (ja) * | 2004-08-31 | 2007-02-07 | 任天堂株式会社 | ゲーム装置および画像処理プログラム |
US7983473B2 (en) * | 2006-04-11 | 2011-07-19 | Noregin Assets, N.V., L.L.C. | Transparency adjustment of a presentation |
WO2007146967A2 (en) | 2006-06-12 | 2007-12-21 | Google Inc. | Markup language for interactive geographic information system |
US7929743B2 (en) | 2007-10-02 | 2011-04-19 | Hologic, Inc. | Displaying breast tomosynthesis computer-aided detection results |
US8237666B2 (en) * | 2008-10-10 | 2012-08-07 | At&T Intellectual Property I, L.P. | Augmented I/O for limited form factor user-interfaces |
US8493408B2 (en) | 2008-11-19 | 2013-07-23 | Apple Inc. | Techniques for manipulating panoramas |
GB2465791A (en) | 2008-11-28 | 2010-06-02 | Sony Corp | Rendering shadows in augmented reality scenes |
US8121618B2 (en) * | 2009-10-28 | 2012-02-21 | Digimarc Corporation | Intuitive computing methods and systems |
US20110109617A1 (en) * | 2009-11-12 | 2011-05-12 | Microsoft Corporation | Visualizing Depth |
US8436872B2 (en) * | 2010-02-03 | 2013-05-07 | Oculus Info Inc. | System and method for creating and displaying map projections related to real-time images |
US8319772B2 (en) | 2010-07-23 | 2012-11-27 | Microsoft Corporation | 3D layering of map metadata |
AU2011331972B2 (en) | 2010-11-24 | 2016-07-07 | Google Llc | Rendering and navigating photographic panoramas with depth information in a geographic information system |
US20130022274A1 (en) * | 2011-07-22 | 2013-01-24 | Qualcomm Incorporated | Specifying values by occluding a pattern on a target |
JP5821526B2 (ja) | 2011-10-27 | 2015-11-24 | ソニー株式会社 | 画像処理装置、画像処理方法及びプログラム |
US9414048B2 (en) | 2011-12-09 | 2016-08-09 | Microsoft Technology Licensing, Llc | Automatic 2D-to-stereoscopic video conversion |
US20130147787A1 (en) | 2011-12-12 | 2013-06-13 | Sergey Ignatchenko | Systems and Methods for Transmitting Visual Content |
CN102915669A (zh) * | 2012-10-17 | 2013-02-06 | 中兴通讯股份有限公司 | 一种实景地图的制作方法和装置 |
KR102003371B1 (ko) * | 2012-11-16 | 2019-10-01 | 삼성전자주식회사 | 화면 밝기를 조절하는 전자 장치 및 방법 |
-
2014
- 2014-03-24 US US14/223,614 patent/US10074182B2/en active Active
- 2014-11-12 KR KR1020167015658A patent/KR102280284B1/ko not_active Application Discontinuation
- 2014-11-12 CN CN201480062136.3A patent/CN105723187B/zh active Active
- 2014-11-12 CN CN201910515045.5A patent/CN110264576B/zh active Active
- 2014-11-12 WO PCT/US2014/065102 patent/WO2015073464A1/en active Application Filing
- 2014-11-12 EP EP14805442.2A patent/EP3069104B1/en active Active
- 2014-11-12 KR KR1020217022409A patent/KR102413532B1/ko active IP Right Grant
-
2018
- 2018-09-10 US US16/126,948 patent/US10497138B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101193298A (zh) * | 2006-11-27 | 2008-06-04 | 三星电子株式会社 | 播放运动图像的系统、方法和介质 |
CN101207717A (zh) * | 2006-12-18 | 2008-06-25 | 三星电子株式会社 | 组织产生运动图像的模板的系统、方法和介质 |
Non-Patent Citations (1)
Title |
---|
MIKAEL VAARANIEMI ET.AL: "《Enhancing the Visibility of Labels in 3D Navigation Maps》", 《PROGRESS AND NEW TRENDS IN 3D GEOINFORMATION SCIENCES》 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107463534A (zh) * | 2017-07-27 | 2017-12-12 | 维沃移动通信有限公司 | 一种对象标注方法、移动终端及计算机可读存储介质 |
CN107463534B (zh) * | 2017-07-27 | 2020-03-20 | 维沃移动通信有限公司 | 一种对象标注方法、移动终端及计算机可读存储介质 |
CN108460725A (zh) * | 2018-03-22 | 2018-08-28 | 腾讯科技(深圳)有限公司 | 地图显示方法、装置、设备及存储介质 |
CN110634381A (zh) * | 2018-06-25 | 2019-12-31 | 百度在线网络技术(北京)有限公司 | 用于确定标注样式的方法和装置 |
CN109345629A (zh) * | 2018-08-08 | 2019-02-15 | 安徽慧软科技有限公司 | 一种三维医学图像模糊凸显显示方法 |
CN110837764A (zh) * | 2018-08-17 | 2020-02-25 | 广东虚拟现实科技有限公司 | 图像处理方法、装置、电子设备及视觉交互系统 |
Also Published As
Publication number | Publication date |
---|---|
EP3069104A1 (en) | 2016-09-21 |
KR102280284B1 (ko) | 2021-07-22 |
KR20160086895A (ko) | 2016-07-20 |
US20150130791A1 (en) | 2015-05-14 |
US10074182B2 (en) | 2018-09-11 |
WO2015073464A1 (en) | 2015-05-21 |
CN110264576A (zh) | 2019-09-20 |
KR102413532B1 (ko) | 2022-06-24 |
US20190005665A1 (en) | 2019-01-03 |
EP3069104B1 (en) | 2020-02-26 |
US10497138B2 (en) | 2019-12-03 |
KR20210093367A (ko) | 2021-07-27 |
CN110264576B (zh) | 2023-07-07 |
CN105723187B (zh) | 2019-06-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105723187A (zh) | 使用透明度来在场景中呈现标记 | |
US11698268B2 (en) | Street-level guidance via route path | |
JP7258078B2 (ja) | 実景ナビゲーションアイコン表示方法、装置、機器及び媒体 | |
US9767615B2 (en) | Systems and methods for context based information delivery using augmented reality | |
KR102233052B1 (ko) | 혼합 현실의 등급을 매긴 정보 전달 | |
KR20150108842A (ko) | 혼합 현실 필터링 | |
US9482548B2 (en) | Route inspection portals | |
KR20150104167A (ko) | 개인 정보 통신기 | |
US20150130792A1 (en) | Integration of labels into a 3d geospatial model | |
CN113631886A (zh) | 增强现实引导界面 | |
JP6087185B2 (ja) | 3次元地図表示システム | |
CN109029488A (zh) | 导航电子地图生成方法、设备及存储介质 | |
US20160012754A1 (en) | Three-dimensional map display device | |
US11568579B2 (en) | Augmented reality content generation with update suspension | |
US20190026931A1 (en) | Conversion of 2d diagrams to 3d rich immersive content | |
CN115018967A (zh) | 一种图像生成方法、装置、设备和存储介质 | |
JP2024073312A (ja) | 制御装置、プログラム、制御方法、及び眼鏡型デバイス | |
CN116249074A (zh) | 智能穿戴设备的信息展示方法、智能穿戴设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |