CN105074623A - 在增强的现实图像中呈现对象模型 - Google Patents
在增强的现实图像中呈现对象模型 Download PDFInfo
- Publication number
- CN105074623A CN105074623A CN201480015326.XA CN201480015326A CN105074623A CN 105074623 A CN105074623 A CN 105074623A CN 201480015326 A CN201480015326 A CN 201480015326A CN 105074623 A CN105074623 A CN 105074623A
- Authority
- CN
- China
- Prior art keywords
- image
- scene
- selected item
- information
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000003190 augmentative effect Effects 0.000 title abstract description 5
- 238000000034 method Methods 0.000 claims abstract description 57
- 230000002708 enhancing effect Effects 0.000 claims description 31
- 230000008569 process Effects 0.000 claims description 15
- 230000004044 response Effects 0.000 claims description 2
- 230000000007 visual effect Effects 0.000 description 13
- 238000004891 communication Methods 0.000 description 7
- 241000283153 Cetacea Species 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000004590 computer program Methods 0.000 description 3
- 238000011960 computer-aided design Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000000644 propagated effect Effects 0.000 description 3
- 241000283084 Balaenoptera musculus Species 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 101000822695 Clostridium perfringens (strain 13 / Type A) Small, acid-soluble spore protein C1 Proteins 0.000 description 1
- 101000655262 Clostridium perfringens (strain 13 / Type A) Small, acid-soluble spore protein C2 Proteins 0.000 description 1
- 101000655256 Paraclostridium bifermentans Small, acid-soluble spore protein alpha Proteins 0.000 description 1
- 101000655264 Paraclostridium bifermentans Small, acid-soluble spore protein beta Proteins 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 210000003484 anatomy Anatomy 0.000 description 1
- 230000000712 assembly Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 230000007177 brain activity Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000005684 electric field Effects 0.000 description 1
- 238000005538 encapsulation Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 239000010931 gold Substances 0.000 description 1
- 229910052737 gold Inorganic materials 0.000 description 1
- 238000003703 image analysis method Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000000725 suspension Substances 0.000 description 1
- 230000026683 transduction Effects 0.000 description 1
- 238000010361 transduction Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本文公开了涉及显示来自搜索结果和其他信息组的信息作为增强的现实图像的实施例。例如,一个公开的实施例提供了一种经由包括相机和显示器的计算设备来呈现信息的方法。该方法包括显示一组电子可访问信息项中的一个或多个信息项中每一项的表示。该方法还包括接收请求显示该组电子可访问信息项中的所选项的用户输入,获得物理场景的图像,以及将物理场景和所选项的图像一起显示在显示器上作为增强的现实图像。
Description
背景技术
在计算机可读信息组中可以包含各种类型的信息。信息类型的示例包括但不限于文档(例如,word处理文档、PDF文档)、图像、绘图和电子表格。信息组内不同的信息类型在被选择用于观看时可以以不同方式被呈现。例如,在互联网搜索结果组的情况下,图像结果可以在浏览器应用中被呈现,而文档结果可以在文档观看和/或创作应用内被呈现。
发明内容
本文公开了涉及显示来自电子可访问信息组的信息作为增强的现实图像的实施例。例如,一个公开的实施例提供了一种经由包括相机和显示器的计算设备呈现信息的方法。该方法包括显示一组电子可访问信息项中的一个或多个信息项中每一个信息项的表示。该方法还包括:接收请求显示从该组中选择的项的用户输入,所选项包括三维模型;获得物理场景的图像;以及将物理场景的图像和所选项的图像一起显示在显示器上作为增强的现实图像。
本发明内容被提供来以简化的形式介绍概念的选择,这些概念还将在下面的具体实施方式中进一步描述。本发明内容既不旨在标识所要求保护的主题的关键特征或必要特征,也不旨在被用来限制所要求保护的主题的范围。此外,所要求保护的主题不限于解决了在本公开的任何部分中提到的任何或全部缺点的实现方式。
附图说明
图1示出了增强现实图像的示例实施例,所述增强现实图像包括与物理场景的图像合成的三维模型的再现。
图2示出了根据本公开的实施例的用于呈现增强的现实图像的系统的框图。
图3示出了描绘呈现增强的现实图像的方法的实施例的流程图。
图4A-E图示了根据本公开的实施例的增强的现实搜索结果的呈现的示例。
图5A-5B图示了根据本公开的实施例的增强的现实图像的呈现的另一个示例。
图6示出了计算设备的实施例的框图。
具体实施方式
如以上提到的,取决于被选择用于呈现的信息的类型,电子可访问信息组中不同类型的项可以以不同方式被呈现。例如,图像数据可以在诸如互联网浏览器之类的应用中被呈现,而文档、数据表格等可以经由与所选内容的类型相关联的特定应用来呈现。这些呈现方法中的每一种方法可以使用标准用户界面惯例,比如列表、文本段落、2D/3D可视化和图表,以帮助用户使所显示的信息可视化。
在图像数据的情况下,在其中显示图像数据的情境可能提供关于所显示的图像中对象的现实世界外观的很少视觉线索,因为从所显示的图像中对象的实际比例、表面轮廓和其他这样的特征可能并不十分明显。这可能是至少部分地由于在图形用户界面的情境中呈现所显示的对象而引起的,因为图形用户界面特征可能相对于具有熟悉的形状、尺寸和外观的现实世界对象具有很少的物理对应性,并且因此可能为图像提供很少的现实世界情境。
因此,本文公开了涉及将计算机可读信息与现实世界图像数据一起呈现为增强的现实图像以为所呈现的信息提供更丰富的视觉情境体验的实施例。作为一个示例情景,具有相机和显示器的移动计算设备的用户可以针对关于感兴趣对象的信息执行搜索(例如,互联网搜索)。在执行搜索后,搜索结果可以包括至该对象的三维模型的链接。在选择三维模型以用于显示之后,计算设备可以获取相机的视场内的物理场景的图像数据,并且还可以再现三维模型的图像。然后可以将现实世界图像数据与三维模型的再现视图组合成单个增强的现实图像并显示在计算设备的显示器上,比如相机取景器视图中,从而允许用户使对象关于周围物理环境可视化。
尽管本文在合成对象模型的图像与实时获取的物理场景的图像的情境下描述了各种示例,然而应当理解,对象模型和/或任何其他合适虚拟对象的图像也可以与在不同时间获取的物理场景的图像合成。在这样的实施例中,物理场景的图像可以是计算设备当前所在的物理场景或不同物理场景。如本文使用的术语“增强的现实图像”指的是包括(无论是实时获取的还是先前获取的)物理场景的图像数据的任何图像并且也是指虚拟对象的图像,所述虚拟对象的图像包括但不限于如本文描述的对象模型的再现。如本文使用的术语“虚拟对象”可以指的是在增强的现实图像中出现的任何对象,其不存在于物理场景的图像数据中并且与物理场景的图像数据相结合来形成增强的现实图像,包括但不限于对象的模型和实际物理对象的图像。
在维度比例信息可用于物理环境和模型的情况下,可以参考物理环境按照已知的维度比例来显示模型。这可以允许用户经由相机取景器视图直接参考已知的熟悉的现实世界对象来观看所呈现的模型,并因此可以提供附加的视觉情境来帮助用户理解由模型表示的对象的真实外观。
尽管本文在搜索结果的情境下描述了各种示例,然而应当理解,本文公开的构思可以与任何其他合适的电子可访问信息组一起使用。示例包括但不限于电子邮件消息的列表(例如,包括具有适合于在增强的现实图像中呈现的附件的消息的电子邮件收件箱或文件夹)以及在存储位置处的文件的列表(例如,在经由文件系统浏览器观看的文件夹或目录中)。同样,尽管是在呈现三维模型的情境中描述的,然而将理解,任何其他合适类型的数据都可以被呈现。示例包括但不限于二维模型、图像、文档、电子表格和呈现。
在一些实施例中,可以相对于物理环境中的参考对象在世界锁定视图中呈现增强的现实图像中的虚拟对象。如本文使用的术语“世界锁定”意指将虚拟对象被显示为相对于现实世界中的对象而地点固定。这可以允许用户在物理环境内移动以从不同视角观看所描绘的虚拟对象,好像用户在围绕现实对象走动一样。另外,可以应用遮挡技术,以使得所描绘的虚拟对象被更逼真地描绘。可以利用任何合适的一个或多个参考对象。示例包括但不限于经由图像数据在物理场景中描绘的几何平面和经由物理场景的点云数据而定位的对象,如以下更详细描述的。将理解的是,用户可以调整“世界锁定”虚拟对象的位置以在物理场景的图像内重新安放虚拟对象。
图1图示了示出增强的现实图像的示例情景,所述增强的现实图像包括从三维模型再现的并且在平板计算设备104的相机取景器102中显示的虚拟对象100。所描绘的虚拟对象100采取鲸鱼的图像的形式,并且与从平板计算设备104的面向外图像传感器的视角来看的用户起居室的图像合成,使得图像被一起显示。在所描绘的实施例中,物理场景的图像中的物理对象,比如沙发106,与对象的现实世界位置一起在空间配准中且以类似的的表观尺寸出现在相机取景器102中,但是将理解的是,也可以对物理场景的图像应用正或负放大。
鲸鱼的图像可以相对于房间中的参考对象(比如,墙壁108的表面)而地点固定,使得用户可以围绕虚拟对象100移动来从不同角度观看该它。另外,可以向用户显示与虚拟对象100有关的元数据110。在一些实例中,元数据110可以被显示为叠加在物理场景中的表面上,使得它看似打印在表面上或被表面支撑,而在其他实例中,元数据110可以被显示为与任何虚拟或物理对象不连接,或者可以以任何其他合适的方式来显示。用户还可以以其他方式与虚拟对象100交互,比如通过缩放它、旋转它、将它移动到物理场景中的不同位置等等。在一些实施例中,虚拟对象可以被显示,使得它在被放置或移动时“对齐到”物理场景的图像中的对象、边界、几何平面或其他特征。在其他实施例中,虚拟对象可以被放置或移动而没有任何这样的相对于物理场景中的物理特征的地点偏移,和/或可以以任何其他合适的方式被移动。将理解的是,用户可以经由任何合适的用户输入与虚拟对象交互,所述用户输入包括但不限于语音、手势、触摸和其他类型的计算设备输入。
在所描绘的实施例中,元数据图示了用于与所描绘的虚拟对象相对应的现实世界鲸鱼的示例维度比例和尺寸信息。在针对虚拟对象和物理场景已知维度比例信息的情况下,维度比例相对于物理场景的图像的比例具有1:1对应性,或者可以具有不同的已知对应性。在图1的具体事例中,虚拟对象100的比例不与物理场景的比例1:1对应,但是所描绘的元数据110提供了比例信息。在一些实施例中,可以通过在虚拟对象旁边显示熟悉的对象(例如,用户的剪影、图像、化身或其他类似物)的虚拟表示来提供视觉比例信息。在其他实施例中,可以以任何其他合适的方式来显示虚拟对象和物理场景的相对比例。
图2示出了针对用于呈现增强的现实图像的系统的示例使用环境200。使用环境200包括具有相机204和显示器206的计算设备202。计算设备202可以表示任何合适类型的计算设备,包括但不限于其中相机204和显示器206被合并到共享外壳中并且彼此成固定相关的计算设备。合适计算设备的示例包括但不限于:智能电话、便携式媒体播放器、平板计算机、膝上型计算机和包括但不限于头戴式显示器的可穿戴计算设备。同样,相机204可以包括任何合适的一种或多种类型的相机。示例包括但不限于:一个或多个二维相机,比如RGB相机;一个或多个立体相机布置;和/或一个或多个深度相机,比如飞行时间或结构光深度相机。计算设备可以包括背对观看显示器206的用户的一个或多个面向外相机。另外,在一些实施例中,计算设备可以包括一个或多个面向观看显示器的用户的面向内相机。
计算设备202可以在网络208上与其他设备通信。例如,计算设备202可以与运行在搜索引擎服务器212上的搜索引擎程序210通信,以定位在各种内容服务器处存储的内容,如内容服务器1214和内容服务器n216所图示的。内容服务器214、216可以被配置成提供来自内容存储库的内容,该内容存储库分别被示为用于内容服务器1214和内容服务器n216的内容存储库218和220。内容存储库可以存储任何合适类型的内容,包括但不限于可被计算设备202显示为增强的现实图像的模型222、224。模型222、224可以包括二维和三维对象模型以及任何其他合适类型的内容。如以上提到的,这些模型可以包括指定由模型表示的实际对象的示例物理维度的比例信息。
另外,计算设备202还可以与对等计算设备通信,所述对等计算设备被示为对等计算设备1230和对计算设备2232。每个对等计算设备230、232还可以包括存储于其上的可被计算设备202显示为增强的现实图像的模型234、236。存储在对等计算设备230、232上的模型234、236可以被计算设备202以任何合适的方式获得。示例包括但不限于对等联网系统、对等搜索引擎、电子邮件、文件传输协议(FTP)和/或任何其他合适的机制。另外,模型240可以被本地存储在计算设备202上。将理解,图2是出于说明的目的而被示出的,并且不意在限制,因为模型可以被存储在任何合适的位置并且可以从任何合适的位置被访问。
模型可以采取任何合适的形式。例如,一些模型可以采取现实对象的三维扫描的形式。随着深度感测技术的进步,三维扫描仪变得不那么昂贵了。另外,深度相机,比如被用作计算输入设备的深度相机,也可以被用作三维扫描仪。因此,现实对象的三维扫描可以随着这样的扫描技术的成本的降低以及可用性的提高而变得更常见。相比于从现实对象的扫描来创建,可以通过用于创建/创作并存储这样的模型的艺术家、开发者以及这样利用计算机程序来制作其他模型,该计算机程序包括但不限于计算机辅助设计(CAD)和计算机辅助制造(CAM)工具。将理解,模型以及其创建的这些示例意在说明,而不以任何方式来限制。
图3示出了描绘用于将搜索结果信息呈现为三维模型的方法300的实施例的流程图,并且图4A-4E示出了说明方法300的非限制性示例情景。方法300可以包括:在302处,接收请求显示一组电子可访问信息项的输入。用于显示电子可访问信息项组的请求可以采取任何合适的形式。例如,在一些实施例中,该请求可以采取计算机搜索请求的形式,并且信息组可以采取搜索结果304的形式。参考图4A,示出了用户在平板计算机402上输入搜索请求400来定位与蓝鲸的尺寸有关的信息。在另一示例中,该请求可以采取打开电子邮件收件箱和其他文件夹的请求的形式,并且信息组可以采取电子邮件消息列表的形式。作为又一示例,该请求可以采取观看具体位置(本地或远程的)(比如在具体文件夹或目录处)的文件列表的请求形式,并且信息组可以采取所显示的文件列表的形式。作为另外的示例,信息组可以包括购物项的电子清单,并且信息组可以包括到从清单中可用的家具的可显示的三维模型的一组链接。将理解,这些示例意在说明,而不以任何方式来限制。另外,在其他实施例中,除了用户输入以外的任何其他合适事件可以被用来触发对电子可访问信息组的显示。示例包括但不限于在环境传感器数据(例如,运动数据、图像数据、声音数据)中检测到的事件、编程地生成的事件(例如,日历和/或时间相关事件、计算机状态相关事件)等等。
方法300接下来包括:在306处,显示电子可访问信息组的表示,比如搜索结果308或其他合适的信息组。参考图4B的示例,响应于请求与蓝鲸的尺寸有关的搜索结果的用户输入,各种搜索结果按不同类别被图示,所述类别包括但不限于至图像404、文档406、视频408并且还有可显示为增强的现实图像的模型410的链接。在所描绘的实施例中,至模型410的链接包括相机形式的用户界面图标411,其指示模型可以在相机取景器中被打开,但是将理解,链接可以包括任何其他合适的外观。
继续图3,方法300包括:在310处,接收请求显示来自电子可访问信息项组中的所选项的用户输入,其中模型在增强的现实图像中是可显示的。如在312处指示的,模型可以是三维的,或者可以具有二维外观(使得对象可能不像三维模型那样丰富地反映表面轮廓和形状)。另外,如在314处指示的,模型可以包括比例信息,所述比例信息反映了由模型表示的物理对象的逼真比例。图4B也示出了这样的用户输入的示例,其中用户经由触摸输入选择至模型410的链接。
在接收到选择观看模型的用户输入后,方法300接下来包括:在316处,获得物理场景的图像。在一些情景下,可以通过利用相机捕获物理场景的图像来获取图像。这可以包括例如接收一系列视频图像帧,使得图像随着用户移动通过物理场景而被更新。在其他实施例中,图像可以先前从本地或远程存储装置中被获取或取回。在这样的实施例中,图像可以对应于计算设备所在的物理场景的图像,或者可以对应于不同的物理图像。
另外,获得物理场景的图像可以包括:在318处,获得物理场景中包括已知维度的对象的图像。对已知维度的对象成像可以允许确定物理场景中对象的比例信息。作为一个示例,用户的手或脚在保持某一姿势时具有已知的维度。因此,在显示模型之前,用户可以捕获包括用户放在物理场景中的对象附近或该对象上的手的图像帧。基于图片中用户手的尺寸,可以确定对象的比例,并且可以使用所确定的比例以相对比例来显示模型和现实世界背景。
作为另一示例,可以使用武力场景中已知的固定对象来确定物理场景的比例信息。例如,参照图4C,请求观看增强的现实图像中的模型的用户可以被要求将相机朝向参考对象定向,其被示为位于物理场景内的墙壁上的照片420以确定物理场景的维度信息。用户然后可以选择用户界面控制(例如,“去”按钮422)来发起增强的现实体验。
作为又一示例,可以经由相机或深度相机来预先映射物理场景以获取包括维度信息的场景的点云表示。使用场景中的固定对象或点云模型来确定物理环境的比例信息可以适合于被用户频繁造访的物理环境(例如,用户家中的房间),因为场景的预先映射在这样的环境中可以更方便。相比之下,针对比例信息对身体部分或携带的对象(例如智能电话或其他常携带的具有已知维度的项)的使用可以允许针对新环境更方便地确定比例。将理解,这些用于确定物理场景的比例信息的示例方法是出于示例的目的而被提出的,并且不意在以任何方式来限制。
再次参照图3,方法300包括:在320处,将物理场景的图像和所选的信息项的再现视图一起显示为增强的现实图像。该图像可以以任何合适的方式来显示。例如,在将会在其上显示增强的现实图像的计算设备包括智能电话、平板计算机或其他这样的手持移动设备的情况下,可以在相机取景器显示模式下显示增强的现实图像。同样,在计算设备包括诸如头戴式显示器之类的可穿戴计算设备的情况下,可以在放置于用户眼睛前面的透明或不透明近眼显示器上显示增强的现实图像。在使用透明显示器的实施例中,在一些实例中模型可以被显示在透视显示器上而不与来自相机的图像合成,因为现实世界背景是通过显示器可见的。将理解,这些用于呈现增强的现实图像的方法是出于示例的目的而被描述的,并且不意在以任何方式限制。
如以上提到的,模型可以包括比例信息。因此,在针对模型和针对物理场景已知比例信息的情况下,方法300可以包括:在322处,以所选择的已知相对比例来显示模型和物理场景的图像。例如,图4D示出了由于用户选择图4C的“去”按钮422而显示的鲸鱼430的三维模型的增强的现实图像,并且还示出了可选地维度缩放元数据432。在一些实例中,虚拟对象和物理场景的相对比例可以是1:1,使得用户可以按照与近似的物理对象相比的真实相对尺寸来观看模型。在其他实例中,可以使用任何其他合适的缩放。
可以以任何合适的方式将模型安放在物理环境中。例如,在一些实施例中,可以以世界锁定关系来显示模型,使得模型随着用户移动通过环境而保持静止。可以使用任何合适的方法来固定所显示的模型相对于物理场景的地点。例如,在一些实施例中,可以使用表面跟踪技术来定位物理环境中的表面,以用作用于定位物理场景中模型的显示图像的参考对象。作为一个特定的示例,可以使用矩形标识来确定环境中的表面(例如,通过定位图像数据中潜在矩形表面的角),并且可以相对于检测到的表面来固定模型的地点,如图3中在326处所示。然后可以随着用户移动通过环境来跟踪表面的位置,并且可以使用表面的位置和取向的变化来在所显示的图像内重新安放(例如,平移和/或旋转)模型。在其他实施例中,可以使用(例如,经由深度相机捕获的)使用环境的预定的点云来相对于在点云数据中识别的对象安放和跟踪在环境内模型的重新安放,如在328处指示的。
如以上描述并且如在330处指示的,在一些实例中,模型的元数据可以在增强的现实图像中与模型的图像一起被显示。图4D中将这样的元数据的示例示为维度和重量(weight)元数据。可以以任何合适的方式显示元数据,包括但不限于显示在表面上或与任何具体表面分开显示。另外,在一些实施例中,用户可以用合适的用户输入来显露或隐藏元数据。
在一些实施例中,可以在增强的现实图像中经由用户与所显示的模型或其选定部分的交互获得与所显示的模型有关的元数据或其他数据。例如,用户可能想要关于鲸鱼的呼吸孔的解剖结构的更多信息。这样,用户可以在所显示的鲸鱼模型的呼吸孔上将图像放大(例如通过更靠近模型的该部分移动)。这可以例如自动触发针对模型的该部分的元数据的显示,允许用户选择搜索关于呼吸孔的更多信息,或允许用户以其他方式获得关于呼吸孔的信息。可以基于与模型相关联的识别了模型的特定部分的元数据、基于图像分析方法、和/或以任何其他合适的方式来识别用户观看的模型的具体部分。
一旦显示了增强的现实图像,在一些实施例中用户就可以操纵增强的现实图像的视图。例如,在模型被世界锁定的实施例中,如在图3中在324处指示的,用户可以通过在观看环境内移动(例如,走动)来改变增强的现实图像的视图,从而从不同视角观看所描绘的模型。因此,方法300包括:在332处,检测场景中用户的移动,并在334处基于移动来改变增强的现实图像的视角。作为一个示例,图4E示出了由于用户移近物理场景内模型的位置而导致从比图4D更近的视角来看的模型的视图。
图5A和5B示出了用于将从一组电子可访问项中选择的项与物理场景的图像一起显示为增强的现实图像的另一个示例实施例使用情景。更具体地,这些图在计算设备500上示出了现实世界物理对象(被描绘成西雅图太空针塔)的高度与另一物理对象(被描绘成埃菲尔铁塔)的虚拟模型的图像的比较。为了执行比较,用户输入针对与埃菲尔铁塔的比较有关的信息的搜索请求,并且还输入与太空针塔有关的信息(例如,通过将所描绘的计算设备500的面向外相机朝向太空针塔定向以对太空针塔成像,通过输入关于太空针塔与埃菲尔铁塔搜索查询的信息,等等),如图5A所示。在其他实施例中,用户可以利用先前获取的太空针塔的图像。
搜索结果被描绘成包括至埃菲尔铁塔的模型的链接502。在选择该链接后,在计算设备上显示计算设备500的相机取景器,如图5B所示,并且在太空针塔的视图旁边按照1:1比例显示虚拟埃菲尔铁塔的表示,从而为用户给出两个地标的准确并排比较。计算设备500还可以显示元数据,比如每个对象的高度或其他合适的信息。
计算设备500可以以任何合适的方式获得关于物理对象的信息。例如,通过经由图像分析确定物理对象身份(例如,通过获取物理对象的图像并将图像提供给对象识别服务)或以任何其他合适的方式,用户可以在搜索请求中指定物理对象身份(例如,通过输入话音命令或制作文本条目,比如“哪个更高—埃菲尔铁塔还是太空针塔)。
另外,用户还可以并排比较两个或更多个虚拟对象。例如,用户可以执行询问“哪个更长—金门大桥还是塔科马海峡吊桥?”的计算机搜索,并且可以获得表示这两个桥的模型以用于按比例显示成增强的现实图像中的虚拟对象。
将理解,以上描述的使用情景意在说明而非限制,并且本文公开的实施例可以应用于任何其他合适的情景。作为另一非限制性示例情景,希望购买家具的人可以获得想要的家具件的三维模型,并且将模型显示为在要在其中使用家具的实际房间中的增强的现实图像。用户然后可以相对于房间中的参考表面(例如,桌子、墙壁、窗户)来放置虚拟家具对象模型,以将虚拟家具模型固定在感兴趣的物理环境中的世界锁定增强的现实视图中。这可以允许用户从各种角度观看虚拟家具模型,以相对实际物理家具在该环境中将看上去如何而获得更好的感受。
如以上提到的,在一些实施例中,虚拟家具的放置可能相对于物理场景的图像中一个或多个物理对象的位置而偏移或以别的方式受其影响。例如,虚拟沙发可以相对于物理场景的图像中的物理墙壁、拐角、窗户、物理家具件(例如,桌子或椅子)或其他物理特征而对齐到预先选择的地点。在其他实施例中,虚拟家具可以在没有相对于物理对象的位置的任何偏移的情况下被显示,或者可以以任何其他合适的方式被显示。
另外,可以对家具的图像的再现应用各种颜色和纹理,以允许用户观看不同的面料等等。增强的现实体验还允许用户将虚拟家具模型移动到房间中的不同位置(例如,通过参考相同或不同的参考表面/对象将它从一个位置脱离并将它固定在不同的位置),以观看家具的不同放置。按照这种方式,相较于用户仅具有家具的照片加上声明的维度的情况,可以为用户提供更丰富的关于感兴趣家具的信息。
尽管以上在用经由面向外相机而获得的图像来显示增强的现实图像的情境下进行描述,然而将理解根据本公开的增强的现实图像也可以用经由面向用户的相机获取的图像数据、由一个或多个静止相机获得的图像数据和/或相机和显示器的任何其他合适配置来呈现。
在一些实施例中,以上描述的方法和过程可以绑定到一个或多个计算设备的计算系统。具体地,这样的方法和过程可以被实现为计算机应用程序或服务、应用编程接口(API)、库和/或其他计算机程序产品。
图6示意性地示出了可以执行上述方法和过程中的一个或多个的计算系统600的非限制性实施例。计算系统600以简化形式被示出。要理解,在不脱离本公开的范围的情况下,可以使用任何合适的计算机架构。在不同实施例中,计算系统600可以采取大型计算机、服务器计算机、台式计算机、膝上型计算机、平板计算机、家庭娱乐计算机、网络计算设备、游戏设备、移动计算设备、移动通信设备(例如,智能电话)等形式。
计算系统600包括逻辑子系统602和存储子系统604。计算系统600还可以包括显示子系统606、输入子系统608、通信子系统610和/或图6中未示出的其他组件。
逻辑子系统602包括被配置成执行指令的一个或多个物理设备。例如,逻辑子系统602可以被配置成执行指令,所述指令是一个或多个应用、服务、程序、例程、库、对象、组件、数据结构或其他逻辑构造的一部分。这样的指令可以被实现为执行任务、实现数据类型、转变一个或多个组件的状态或者以别的方式达到所希望的结果。
逻辑子系统602可以包括被配置成执行软件指令的一个或多个处理器。此外或可替换地,逻辑子系统可以包括被配置成执行硬件或固件指令的一个或多个硬件或固件逻辑机。逻辑子系统的处理器可以是单核或多核的,并且在其上执行的程序可以被配置用于顺序处理、并行处理或分布式处理。逻辑子系统可以可选地包括分布在两个或更多个设备中的单独组件,所述单独组件可以位于远程和/或被配置成用于协同处理。逻辑子系统的方面可以被虚拟化,并且可以由被配置在云计算配置中的远程可访问联网计算设备来执行。
存储子系统604包括被配置成持有可由逻辑子系统602执行来实现本文所描述的方法和过程的数据和/或指令的一个或多个物理计算机可读存储设备。在实现这样的方法和过程时,可以转变存储子系统604的状态--例如以便持有不同的数据。
存储子系统604可以包括可移除计算机可读存储设备和/或内置计算机可读存储设备。存储子系统604尤其可以包括光学计算机可读存储设备(例如,CD、DVD、HD-DVD、蓝光盘等等)、半导体计算机可读存储设备(例如,RAM、EPROM、EEPROM等等)和/或磁性计算机可读存储设备(例如,硬盘驱动、软盘驱动、磁带驱动、MRAM等等)。存储子系统604可以包括易失性、非易失性、动态、静态、读/写、只读、随机存取、顺序存取、位置可寻址、文件可寻址和/或内容可寻址设备。术语“计算机可读存储设备”排除传播的信号本身。
在一些实施例中,本文描述的指令的方面可以由纯信号(例如,电磁信号、光信号等等)经由传输介质而不是计算机可读存储设备来传播。此外,属于本公开的数据和/或其他形式的信息可以由纯信号传播。
在一些实施例中,逻辑子系统602和存储子系统604的方面可以被一起集成到一个或多个硬件逻辑组件中,通过所述一个或多个硬件逻辑组件可以执行本文功能性描述的内容。这样的硬件逻辑组件可以包括例如现场可编程门阵列(FPGA)、程序和应用特定的集成电路(PASIC/ASIC)、程序和应用特定的标准产品(PSSP/ASSP)、芯片上系统(SOC)系统和复杂可编程逻辑器件(CPLD)。
术语“程序”和/或“引擎”可以用于描述被实现为执行具体功能的计算系统600的方面。在一些情况下,可以经由逻辑子系统602来实例化程序或引擎,所述逻辑子系统602执行由存储子系统604持有的指令。将理解,不同的程序和/或引擎可以从相同的应用、服务、代码块、对象、库、例程、API、功能等被实例化。同样,相同的模块、程序和/或引擎可以由不同的应用、服务、代码块、对象、例程、API、功能等来实例化。术语“程序”和“引擎”可以涵盖可执行文件、数据文件、库、驱动器、脚本、数据库记录等的个体或组。
将会领会的是,如本文使用的“服务”是可跨越多个用户会话而执行的应用程序。服务可以对于一个或多个系统组件、程序和/或其他服务是可用的。在一些实现方式中,服务可以运行在一个或多个服务器计算设备上。
当被包括在内时,显示子系统606可以被用来呈现由存储子系统604持有的数据的视觉表示。该视觉表示可以采取图形用户界面(GUI)的形式。在本文描述的方法和过程改变由存储子系统持有的数据并且因而转变存储子系统的状态时,显示子系统606的状态同样可以被转变成视觉地表示底层数据的变化。显示子系统606可以包括事实上利用任何类型的技术的一个或多个显示设备。可以将这样的显示设备与逻辑子系统602和/或存储子系统604组合在共享的封装中,或者这样的显示设备可以是外围显示设备。
当被包括在内时,输入子系统608可以包括一个或多个用户输入设备(比如键盘、鼠标、麦克风、触摸屏或游戏控制器)或者与其对接。在一些实施例中,输入子系统可以包括选定的自然用户输入(NUI)元件部分或是与其对接。这样的元件部分可以是集成的或外围的,并且输入动作的转导和/或处理可以在板上或离板地操纵。示例NUI元件部分可以包括:用于语音和/或话音辨识的麦克风;用于机器视觉和/或手势识别的红外、彩色、立体和/或深度相机;用于运动检测和/或意图辨识的头部跟踪器、眼睛跟踪器、加速度计和/或陀螺仪;以及用于评估脑部活动性的电场感测元件部分。
当被包括在内时,通信子系统610可以被配置成将计算系统600与一个或多个其他计算设备通信地耦合。通信子系统610可以包括与一个或多个不同通信协议兼容的有线和/或无线通信设备。作为非限制性示例,通信子系统可以被配置用于经由无线电话网络、有线或无线局域或广域网来通信。在一些实施例中,通信子系统可以允许计算系统600经由诸如互联网之类的网络向其他设备发送消息和/或从其他设备接收消息。
将理解,本文描述的配置和/或方法本质上是示范性的,并且这些特定的实施例或示例不被认为具有限制意义,因为许多变型是可能的。本文描述的特定例程或方法可以代表任何数量的处理策略中的一个或多个处理策略。这样,所图示的和/或所描述的各种动作可以按照图示和/或描述的顺序执行、按照其他顺序执行、并行地执行或被省略。同样,上述过程的次序可以被改变。
本公开的主题包括本文所公开的各种过程、系统和配置、以及其他特征、功能、动作和/或属性的所有新颖的且非显而易见的组合和子组合,及其任何和所有的等同物。
Claims (10)
1.一种在包括相机和显示器的计算设备上呈现信息的方法,所述方法包括:
显示一组电子可访问信息项中的一个或多个信息项中每一项的表示;
接收请求显示包括三维模型的所选项的用户输入;以及
响应于请求显示所选项的用户输入,获得物理场景的图像并将物理场景的图像和所选项的图像一起显示在显示器上作为增强的现实图像,其中所选项的图像的地点基于物理场景中的参考对象。
2.权利要求1的方法,其中,在显示器上显示物理场景的图像和所选项的图像包括:按照如经由用于物理场景的比例信息和用于所选项的比例信息而确定的已知的彼此间相对比例来显示物理场景的图像和所选项的图像。
3.权利要求2的方法,其中,物理场景的图像和所选项的图像按照1:1相对比例来显示。
4.权利要求2的方法,其中,物理场景的图像是从相机获得的,并且所述方法还包括通过对包括已知维度的对象成像来确定物理场景的比例。
5.权利要求1的方法,其中,显示物理场景的图像和所选项的图像作为增强的现实图像包括:按照与物理场景的世界锁定关系来显示所选项的图像。
6.权利要求5的方法,其中,按照与场景的世界锁定关系来显示所选项的图像包括:相对于参考对象以固定位置和取向显示所选项的图像。
7.权利要求6的方法,其中,场景中的参考对象包括在场景的图像中检测到的表面。
8.权利要求6的方法,其中,参考对象包括在场景的点云模型中的位置。
9.权利要求6的方法,还包括:接收请求移动所选项的图像的用户输入,并且作为响应,相对于物理场景的图像移动所选项的图像。
10.权利要求1的方法,其中,所述信息组包括计算机搜索结果组。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/830,029 US20140282220A1 (en) | 2013-03-14 | 2013-03-14 | Presenting object models in augmented reality images |
US13/830029 | 2013-03-14 | ||
PCT/US2014/023237 WO2014150430A1 (en) | 2013-03-14 | 2014-03-11 | Presenting object models in augmented reality images |
Publications (1)
Publication Number | Publication Date |
---|---|
CN105074623A true CN105074623A (zh) | 2015-11-18 |
Family
ID=50588811
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201480015326.XA Pending CN105074623A (zh) | 2013-03-14 | 2014-03-11 | 在增强的现实图像中呈现对象模型 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20140282220A1 (zh) |
EP (1) | EP2972675A1 (zh) |
CN (1) | CN105074623A (zh) |
WO (1) | WO2014150430A1 (zh) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108021658A (zh) * | 2017-12-01 | 2018-05-11 | 湖北工业大学 | 一种基于鲸鱼优化算法的大数据智能搜索方法及系统 |
CN108369640A (zh) * | 2015-12-17 | 2018-08-03 | 诺基亚技术有限公司 | 用于控制场景的捕获图像的图像处理以调适捕获图像的方法、装置或计算机程序 |
CN108805635A (zh) * | 2017-04-26 | 2018-11-13 | 联想新视界(北京)科技有限公司 | 一种对象的虚拟显示方法和虚拟设备 |
CN108886578A (zh) * | 2016-03-29 | 2018-11-23 | 微软技术许可有限责任公司 | 用于增强现实姿势对准的虚拟提示 |
CN109285212A (zh) * | 2017-07-21 | 2019-01-29 | 中兴通讯股份有限公司 | 一种增强现实建模方法、计算机可读存储介质和增强现实建模装置 |
CN109416580A (zh) * | 2016-06-29 | 2019-03-01 | 微软技术许可有限责任公司 | 对三维空间中的对象的选择 |
CN109478344A (zh) * | 2016-04-22 | 2019-03-15 | 交互数字Ce专利控股公司 | 用于合成图像的方法和设备 |
CN111771180A (zh) * | 2018-10-08 | 2020-10-13 | 谷歌有限责任公司 | 增强现实环境中对象的混合放置 |
CN112771472A (zh) * | 2018-10-15 | 2021-05-07 | 美的集团股份有限公司 | 提供实时产品交互协助的系统和方法 |
CN112955851A (zh) * | 2018-10-09 | 2021-06-11 | 谷歌有限责任公司 | 基于场境线索选择增强现实对象以供显示 |
CN114935994A (zh) * | 2022-05-10 | 2022-08-23 | 阿里巴巴(中国)有限公司 | 物品数据处理方法、设备及存储介质 |
CN116681870A (zh) * | 2017-01-17 | 2023-09-01 | 开放电视公司 | 增强现实显示器中的叠加对比度控制 |
CN117079651A (zh) * | 2023-10-08 | 2023-11-17 | 中国科学技术大学 | 一种基于大规模语言模型的语音交叉实时增强现实方法 |
Families Citing this family (76)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014191718A (ja) | 2013-03-28 | 2014-10-06 | Sony Corp | 表示制御装置、表示制御方法および記録媒体 |
US9383819B2 (en) * | 2013-06-03 | 2016-07-05 | Daqri, Llc | Manipulation of virtual object in augmented reality via intent |
US11488363B2 (en) * | 2019-03-15 | 2022-11-01 | Touchcast, Inc. | Augmented reality conferencing system and method |
KR102081934B1 (ko) * | 2013-08-28 | 2020-02-26 | 엘지전자 주식회사 | 헤드 마운트 디스플레이 디바이스 및 그 제어 방법 |
US10318100B2 (en) * | 2013-10-16 | 2019-06-11 | Atheer, Inc. | Method and apparatus for addressing obstruction in an interface |
US10586395B2 (en) * | 2013-12-30 | 2020-03-10 | Daqri, Llc | Remote object detection and local tracking using visual odometry |
KR102182161B1 (ko) * | 2014-02-20 | 2020-11-24 | 엘지전자 주식회사 | Hmd 및 그 제어 방법 |
US9652895B2 (en) * | 2014-03-06 | 2017-05-16 | Disney Enterprises, Inc. | Augmented reality image transformation |
US12008697B2 (en) | 2014-06-10 | 2024-06-11 | Ripple, Inc. Of Delaware | Dynamic location based digital element |
US10930038B2 (en) | 2014-06-10 | 2021-02-23 | Lab Of Misfits Ar, Inc. | Dynamic location based digital element |
US10026226B1 (en) | 2014-06-10 | 2018-07-17 | Ripple Inc | Rendering an augmented reality object |
US9646418B1 (en) * | 2014-06-10 | 2017-05-09 | Ripple Inc | Biasing a rendering location of an augmented reality object |
US9619940B1 (en) | 2014-06-10 | 2017-04-11 | Ripple Inc | Spatial filtering trace location |
KR20160022086A (ko) * | 2014-08-19 | 2016-02-29 | 한국과학기술연구원 | 3d 프린팅을 지원하는 단말기 및 방법, 그 방법을 수행하기 위한 컴퓨터 프로그램 |
US9733790B2 (en) * | 2014-10-30 | 2017-08-15 | Disney Enterprises, Inc. | Haptic interface for population of a three-dimensional virtual environment |
US9728010B2 (en) | 2014-12-30 | 2017-08-08 | Microsoft Technology Licensing, Llc | Virtual representations of real-world objects |
US10133947B2 (en) * | 2015-01-16 | 2018-11-20 | Qualcomm Incorporated | Object detection using location data and scale space representations of image data |
US10235807B2 (en) * | 2015-01-20 | 2019-03-19 | Microsoft Technology Licensing, Llc | Building holographic content using holographic tools |
US9690103B2 (en) * | 2015-02-16 | 2017-06-27 | Philip Lyren | Display an image during a communication |
US9652047B2 (en) * | 2015-02-25 | 2017-05-16 | Daqri, Llc | Visual gestures for a head mounted device |
JP2016173703A (ja) * | 2015-03-17 | 2016-09-29 | 株式会社ミツトヨ | タッチディスプレイを用いた入力操作を支援する方法 |
US11410390B2 (en) | 2015-06-23 | 2022-08-09 | Signify Holding B.V. | Augmented reality device for visualizing luminaire fixtures |
US10620778B2 (en) | 2015-08-31 | 2020-04-14 | Rockwell Automation Technologies, Inc. | Augmentable and spatially manipulable 3D modeling |
US20170228929A1 (en) * | 2015-09-01 | 2017-08-10 | Patrick Dengler | System and Method by which combining computer hardware device sensor readings and a camera, provides the best, unencumbered Augmented Reality experience that enables real world objects to be transferred into any digital space, with context, and with contextual relationships. |
US9928648B2 (en) | 2015-11-09 | 2018-03-27 | Microsoft Technology Licensing, Llc | Object path identification for navigating objects in scene-aware device environments |
US10089681B2 (en) | 2015-12-04 | 2018-10-02 | Nimbus Visulization, Inc. | Augmented reality commercial platform and method |
US10176641B2 (en) * | 2016-03-21 | 2019-01-08 | Microsoft Technology Licensing, Llc | Displaying three-dimensional virtual objects based on field of view |
US10719193B2 (en) * | 2016-04-20 | 2020-07-21 | Microsoft Technology Licensing, Llc | Augmenting search with three-dimensional representations |
US10387719B2 (en) * | 2016-05-20 | 2019-08-20 | Daqri, Llc | Biometric based false input detection for a wearable computing device |
US10192363B2 (en) * | 2016-08-28 | 2019-01-29 | Microsoft Technology Licensing, Llc | Math operations in mixed or virtual reality |
US10068379B2 (en) | 2016-09-30 | 2018-09-04 | Intel Corporation | Automatic placement of augmented reality models |
KR102626304B1 (ko) | 2016-12-06 | 2024-01-18 | 삼성전자주식회사 | 콘텐츠 출력 방법 및 이를 지원하는 전자 장치 |
US10317990B2 (en) | 2017-05-25 | 2019-06-11 | International Business Machines Corporation | Augmented reality to facilitate accessibility |
WO2019046597A1 (en) * | 2017-08-31 | 2019-03-07 | Apple Inc. | GRAPHIC USER SYSTEMS, METHODS AND INTERFACES FOR INTERACTING WITH ENHANCED AND VIRTUAL REALITY ENVIRONMENTS |
DK180470B1 (en) | 2017-08-31 | 2021-05-06 | Apple Inc | Systems, procedures, and graphical user interfaces for interacting with augmented and virtual reality environments |
CN107749083A (zh) * | 2017-09-28 | 2018-03-02 | 联想(北京)有限公司 | 图像展示的方法和装置 |
CN111448542B (zh) * | 2017-09-29 | 2023-07-11 | 苹果公司 | 显示应用程序 |
US10922878B2 (en) * | 2017-10-04 | 2021-02-16 | Google Llc | Lighting for inserted content |
US10891685B2 (en) | 2017-11-17 | 2021-01-12 | Ebay Inc. | Efficient rendering of 3D models using model placement metadata |
CN107844197A (zh) * | 2017-11-28 | 2018-03-27 | 歌尔科技有限公司 | 虚拟现实场景显示方法及设备 |
US10726463B2 (en) * | 2017-12-20 | 2020-07-28 | Signify Holding B.V. | Lighting and internet of things design using augmented reality |
US10937245B2 (en) | 2017-12-20 | 2021-03-02 | Signify Holding B.V. | Lighting and internet of things design using augmented reality |
KR102397481B1 (ko) * | 2018-01-24 | 2022-05-12 | 애플 인크. | 3d 모델들에 대한 시스템 전체 거동을 위한 디바이스들, 방법들, 및 그래픽 사용자 인터페이스들 |
DK201870347A1 (en) | 2018-01-24 | 2019-10-08 | Apple Inc. | Devices, Methods, and Graphical User Interfaces for System-Wide Behavior for 3D Models |
US10838600B2 (en) * | 2018-02-12 | 2020-11-17 | Wayfair Llc | Systems and methods for providing an extended reality interface |
US10922895B2 (en) | 2018-05-04 | 2021-02-16 | Microsoft Technology Licensing, Llc | Projection of content libraries in three-dimensional environment |
CN110531846B (zh) | 2018-05-24 | 2023-05-23 | 卡兰控股有限公司 | 在实时3d虚拟世界代表真实世界的范围内的实时3d虚拟对象的双向实时3d交互操作 |
US11307968B2 (en) | 2018-05-24 | 2022-04-19 | The Calany Holding S. À R.L. | System and method for developing, testing and deploying digital reality applications into the real world via a virtual world |
US10984600B2 (en) | 2018-05-25 | 2021-04-20 | Tiff's Treats Holdings, Inc. | Apparatus, method, and system for presentation of multimedia content including augmented reality content |
US10818093B2 (en) | 2018-05-25 | 2020-10-27 | Tiff's Treats Holdings, Inc. | Apparatus, method, and system for presentation of multimedia content including augmented reality content |
US11366514B2 (en) | 2018-09-28 | 2022-06-21 | Apple Inc. | Application placement based on head position |
US10831280B2 (en) | 2018-10-09 | 2020-11-10 | International Business Machines Corporation | Augmented reality system for efficient and intuitive document classification |
US11288733B2 (en) * | 2018-11-14 | 2022-03-29 | Mastercard International Incorporated | Interactive 3D image projection systems and methods |
KR20200098034A (ko) * | 2019-02-11 | 2020-08-20 | 삼성전자주식회사 | 가상 현실 유저 인터페이스를 제공하기 위한 전자 장치 및 그의 동작 방법 |
US11163997B2 (en) * | 2019-05-05 | 2021-11-02 | Google Llc | Methods and apparatus for venue based augmented reality |
US11115468B2 (en) | 2019-05-23 | 2021-09-07 | The Calany Holding S. À R.L. | Live management of real world via a persistent virtual world system |
CN112102497A (zh) | 2019-06-18 | 2020-12-18 | 明日基金知识产权控股有限公司 | 用于将应用和交互附接到静态对象的系统和方法 |
US11341727B2 (en) | 2019-06-18 | 2022-05-24 | The Calany Holding S. À R.L. | Location-based platform for multiple 3D engines for delivering location-based 3D content to a user |
CN112100798A (zh) | 2019-06-18 | 2020-12-18 | 明日基金知识产权控股有限公司 | 用于将现实世界元素的虚拟副本部署到持久性虚拟世界系统中的系统和方法 |
US11546721B2 (en) | 2019-06-18 | 2023-01-03 | The Calany Holding S.À.R.L. | Location-based application activation |
US11516296B2 (en) | 2019-06-18 | 2022-11-29 | THE CALANY Holding S.ÀR.L | Location-based application stream activation |
CN112102498A (zh) | 2019-06-18 | 2020-12-18 | 明日基金知识产权控股有限公司 | 用于将应用虚拟地附接到动态对象并实现与动态对象的交互的系统和方法 |
CN112102499A (zh) | 2019-06-18 | 2020-12-18 | 明日基金知识产权控股有限公司 | 融合现实系统和方法 |
US11462000B2 (en) * | 2019-08-26 | 2022-10-04 | Apple Inc. | Image-based detection of surfaces that provide specular reflections and reflection modification |
WO2021061351A1 (en) | 2019-09-26 | 2021-04-01 | Apple Inc. | Wearable electronic device presenting a computer-generated reality environment |
US11340756B2 (en) | 2019-09-27 | 2022-05-24 | Apple Inc. | Devices, methods, and graphical user interfaces for interacting with three-dimensional environments |
WO2021062278A1 (en) | 2019-09-27 | 2021-04-01 | Apple Inc. | Environment for remote communication |
US11488373B2 (en) * | 2019-12-27 | 2022-11-01 | Exemplis Llc | System and method of providing a customizable virtual environment |
CN111597466A (zh) * | 2020-04-30 | 2020-08-28 | 北京字节跳动网络技术有限公司 | 展示方法、装置和电子设备 |
CN111710017A (zh) * | 2020-06-05 | 2020-09-25 | 北京有竹居网络技术有限公司 | 展示方法、装置和电子设备 |
CN112035046B (zh) * | 2020-09-10 | 2024-03-08 | 脸萌有限公司 | 榜单信息显示方法、装置、电子设备及存储介质 |
US11567625B2 (en) * | 2020-09-24 | 2023-01-31 | Apple Inc. | Devices, methods, and graphical user interfaces for interacting with three-dimensional environments |
US11615596B2 (en) | 2020-09-24 | 2023-03-28 | Apple Inc. | Devices, methods, and graphical user interfaces for interacting with three-dimensional environments |
KR102358950B1 (ko) * | 2020-10-05 | 2022-02-07 | 홍준표 | 모바일 스캔 객체 모델 스케일링을 통한 증강현실 구현 장치 및 방법 |
EP4296930A4 (en) * | 2021-02-16 | 2024-07-10 | Panasonic Ip Man Co Ltd | DATA PROCESSING SYSTEM, DATA PROCESSING METHOD, PROGRAM AND DATA PROCESSING INTEGRATION SYSTEM |
WO2023092375A1 (en) * | 2021-11-25 | 2023-06-01 | Citrix Systems, Inc. | Computing device with live background and related method |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080071559A1 (en) * | 2006-09-19 | 2008-03-20 | Juha Arrasvuori | Augmented reality assisted shopping |
CN102142151A (zh) * | 2010-01-29 | 2011-08-03 | 株式会社泛泰 | 用于提供增强现实的终端和方法 |
CN102910130A (zh) * | 2012-10-24 | 2013-02-06 | 浙江工业大学 | 一种现实增强型的驾驶辅助预警系统 |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050285878A1 (en) * | 2004-05-28 | 2005-12-29 | Siddharth Singh | Mobile platform |
JP2006244329A (ja) * | 2005-03-07 | 2006-09-14 | Hitachi Ltd | 携帯端末および情報処理装置、システム |
WO2007011306A2 (en) * | 2005-07-20 | 2007-01-25 | Bracco Imaging S.P.A. | A method of and apparatus for mapping a virtual model of an object to the object |
JP5248806B2 (ja) * | 2007-04-25 | 2013-07-31 | キヤノン株式会社 | 情報処理装置、情報処理方法 |
US8231465B2 (en) * | 2008-02-21 | 2012-07-31 | Palo Alto Research Center Incorporated | Location-aware mixed-reality gaming platform |
US20090322671A1 (en) * | 2008-06-04 | 2009-12-31 | Cybernet Systems Corporation | Touch screen augmented reality system and method |
FR2933218B1 (fr) * | 2008-06-30 | 2011-02-11 | Total Immersion | Procede et dispositif permettant de detecter en temps reel des interactions entre un utilisateur et une scene de realite augmentee |
US20100018850A1 (en) * | 2008-07-28 | 2010-01-28 | Caterpillar Inc. | System for removing particulate matter from exhaust streams |
US8564657B2 (en) * | 2009-05-29 | 2013-10-22 | Honda Research Institute Europe Gmbh | Object motion detection system based on combining 3D warping techniques and a proper object motion detection |
US9130999B2 (en) * | 2009-07-30 | 2015-09-08 | Sk Planet Co., Ltd. | Method for providing augmented reality, server for same, and portable terminal |
US8952983B2 (en) * | 2010-11-04 | 2015-02-10 | Nokia Corporation | Method and apparatus for annotating point of interest information |
KR101793738B1 (ko) * | 2010-12-23 | 2017-11-07 | 한국전자통신연구원 | 미디어 id 정합 기반의 방송 ar 광고 서비스 시스템 및 그 방법 |
US8509483B2 (en) * | 2011-01-31 | 2013-08-13 | Qualcomm Incorporated | Context aware augmentation interactions |
US9298287B2 (en) * | 2011-03-31 | 2016-03-29 | Microsoft Technology Licensing, Llc | Combined activation for natural user interface systems |
US8810598B2 (en) * | 2011-04-08 | 2014-08-19 | Nant Holdings Ip, Llc | Interference based augmented reality hosting platforms |
KR20140041780A (ko) * | 2011-07-25 | 2014-04-04 | 톰슨 라이센싱 | 메타데이터 지원의 트릭 모드 간섭 방법 및 시스템 |
KR101343609B1 (ko) * | 2011-08-24 | 2014-02-07 | 주식회사 팬택 | 증강 현실 데이터를 이용할 수 있는 어플리케이션 자동 추천 장치 및 방법 |
US9274595B2 (en) * | 2011-08-26 | 2016-03-01 | Reincloud Corporation | Coherent presentation of multiple reality and interaction models |
US20130063487A1 (en) * | 2011-09-12 | 2013-03-14 | MyChic Systems Ltd. | Method and system of using augmented reality for applications |
US9443353B2 (en) * | 2011-12-01 | 2016-09-13 | Qualcomm Incorporated | Methods and systems for capturing and moving 3D models and true-scale metadata of real world objects |
US9230367B2 (en) * | 2011-12-13 | 2016-01-05 | Here Global B.V. | Augmented reality personalization |
-
2013
- 2013-03-14 US US13/830,029 patent/US20140282220A1/en not_active Abandoned
-
2014
- 2014-03-11 CN CN201480015326.XA patent/CN105074623A/zh active Pending
- 2014-03-11 EP EP14719902.0A patent/EP2972675A1/en not_active Ceased
- 2014-03-11 WO PCT/US2014/023237 patent/WO2014150430A1/en active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080071559A1 (en) * | 2006-09-19 | 2008-03-20 | Juha Arrasvuori | Augmented reality assisted shopping |
CN102142151A (zh) * | 2010-01-29 | 2011-08-03 | 株式会社泛泰 | 用于提供增强现实的终端和方法 |
CN102910130A (zh) * | 2012-10-24 | 2013-02-06 | 浙江工业大学 | 一种现实增强型的驾驶辅助预警系统 |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108369640A (zh) * | 2015-12-17 | 2018-08-03 | 诺基亚技术有限公司 | 用于控制场景的捕获图像的图像处理以调适捕获图像的方法、装置或计算机程序 |
US11587202B2 (en) | 2015-12-17 | 2023-02-21 | Nokia Technologies Oy | Method, apparatus or computer program for controlling image processing of a captured image of a scene to adapt the captured image |
CN108369640B (zh) * | 2015-12-17 | 2022-04-08 | 诺基亚技术有限公司 | 用于调适捕获图像的方法及装置 |
CN108886578B (zh) * | 2016-03-29 | 2020-10-27 | 微软技术许可有限责任公司 | 用于增强现实姿势对准的虚拟提示 |
CN108886578A (zh) * | 2016-03-29 | 2018-11-23 | 微软技术许可有限责任公司 | 用于增强现实姿势对准的虚拟提示 |
CN109478344B (zh) * | 2016-04-22 | 2023-05-30 | 交互数字Ce专利控股公司 | 用于合成图像的方法和设备 |
US11568606B2 (en) | 2016-04-22 | 2023-01-31 | Interdigital Ce Patent Holdings | Method and device for compositing an image |
CN109478344A (zh) * | 2016-04-22 | 2019-03-15 | 交互数字Ce专利控股公司 | 用于合成图像的方法和设备 |
CN109416580A (zh) * | 2016-06-29 | 2019-03-01 | 微软技术许可有限责任公司 | 对三维空间中的对象的选择 |
CN116681870A (zh) * | 2017-01-17 | 2023-09-01 | 开放电视公司 | 增强现实显示器中的叠加对比度控制 |
CN108805635A (zh) * | 2017-04-26 | 2018-11-13 | 联想新视界(北京)科技有限公司 | 一种对象的虚拟显示方法和虚拟设备 |
CN109285212A (zh) * | 2017-07-21 | 2019-01-29 | 中兴通讯股份有限公司 | 一种增强现实建模方法、计算机可读存储介质和增强现实建模装置 |
CN108021658A (zh) * | 2017-12-01 | 2018-05-11 | 湖北工业大学 | 一种基于鲸鱼优化算法的大数据智能搜索方法及系统 |
CN108021658B (zh) * | 2017-12-01 | 2023-05-26 | 湖北工业大学 | 一种基于鲸鱼优化算法的大数据智能搜索方法及系统 |
CN111771180A (zh) * | 2018-10-08 | 2020-10-13 | 谷歌有限责任公司 | 增强现实环境中对象的混合放置 |
CN111771180B (zh) * | 2018-10-08 | 2024-06-07 | 谷歌有限责任公司 | 增强现实环境中对象的混合放置 |
CN112955851A (zh) * | 2018-10-09 | 2021-06-11 | 谷歌有限责任公司 | 基于场境线索选择增强现实对象以供显示 |
CN112771472B (zh) * | 2018-10-15 | 2022-06-10 | 美的集团股份有限公司 | 提供实时产品交互协助的系统和方法 |
CN112771472A (zh) * | 2018-10-15 | 2021-05-07 | 美的集团股份有限公司 | 提供实时产品交互协助的系统和方法 |
CN114935994A (zh) * | 2022-05-10 | 2022-08-23 | 阿里巴巴(中国)有限公司 | 物品数据处理方法、设备及存储介质 |
CN117079651A (zh) * | 2023-10-08 | 2023-11-17 | 中国科学技术大学 | 一种基于大规模语言模型的语音交叉实时增强现实方法 |
CN117079651B (zh) * | 2023-10-08 | 2024-02-23 | 中国科学技术大学 | 一种基于大规模语言模型的语音交叉实时增强现实方法 |
Also Published As
Publication number | Publication date |
---|---|
US20140282220A1 (en) | 2014-09-18 |
WO2014150430A1 (en) | 2014-09-25 |
EP2972675A1 (en) | 2016-01-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105074623A (zh) | 在增强的现实图像中呈现对象模型 | |
US11010965B2 (en) | Virtual object placement for augmented reality | |
CN110603515B (zh) | 利用共享锚点显示的虚拟内容 | |
US10553031B2 (en) | Digital project file presentation | |
CN107850779B (zh) | 虚拟位置定位锚 | |
CN108780358B (zh) | 基于视场显示三维虚拟对象 | |
US10409444B2 (en) | Head-mounted display input translation | |
CN105981076B (zh) | 合成增强现实环境的构造 | |
US10409443B2 (en) | Contextual cursor display based on hand tracking | |
US9977492B2 (en) | Mixed reality presentation | |
CN105900041B (zh) | 利用视线跟踪进行的目标定位 | |
US20130342568A1 (en) | Low light scene augmentation | |
US9092896B2 (en) | Augmented reality display of scene behind surface | |
US20150317832A1 (en) | World-locked display quality feedback | |
EP2887322B1 (en) | Mixed reality holographic object development | |
US10825217B2 (en) | Image bounding shape using 3D environment representation | |
US20160371885A1 (en) | Sharing of markup to image data | |
CN112154405A (zh) | 三维推送通知 | |
EP2887183B1 (en) | Augmented reality display of scene behind surface |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20151118 |