CN111862340A - 增强现实数据呈现方法、装置、显示设备和存储介质 - Google Patents

增强现实数据呈现方法、装置、显示设备和存储介质 Download PDF

Info

Publication number
CN111862340A
CN111862340A CN202010659403.2A CN202010659403A CN111862340A CN 111862340 A CN111862340 A CN 111862340A CN 202010659403 A CN202010659403 A CN 202010659403A CN 111862340 A CN111862340 A CN 111862340A
Authority
CN
China
Prior art keywords
data
display
display object
dimensional model
scanning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010659403.2A
Other languages
English (en)
Inventor
栾青
侯欣如
王鼎禄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Sensetime Technology Development Co Ltd
Original Assignee
Beijing Sensetime Technology Development Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Sensetime Technology Development Co Ltd filed Critical Beijing Sensetime Technology Development Co Ltd
Priority to CN202010659403.2A priority Critical patent/CN111862340A/zh
Publication of CN111862340A publication Critical patent/CN111862340A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Geometry (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本公开提供了一种增强现实数据呈现方法、装置、显示设备和存储介质,应用于显示设备中,显示设备在预设的滑动轨道上移动,方法包括:通过显示设备上的图像采集单元采集显示设备在当前移动位置上的真实场景图像;对真实场景图像进行目标识别,确定真实场景图像中包括的展示对象;确定与展示对象匹配的虚拟对象数据,并利用虚拟对象数据,在真实场景图像中与展示对象关联的展示位置处渲染虚拟对象数据对应的虚拟对象;在显示设备上展示包括虚拟对象的增强现实数据。通过本公开,能够提高展示的直观性和丰富性。

Description

增强现实数据呈现方法、装置、显示设备和存储介质
技术领域
本公开涉及增强现实(Augmented Reality,AR)技术,涉及但不限于一种增强现实数据呈现方法、装置、显示设备和计算机存储介质。
背景技术
目前,对于一些大型展会,如文物展示等场景,参展者往往只能看到展品实物本身,对与展品相关的进一步详细信息的展示以及预期的完整展示效果多依赖于讲解员的讲解或是单独的宣传片展示,导致展示效果不够直观和丰富。
发明内容
本公开实施例期望提供增强现实数据呈现的技术方案。
本公开实施例提供了一种增强现实数据呈现方法,所述方法应用于显示设备中,所述显示设备在预设的滑动轨道上移动,所述方法包括:
通过所述显示设备上的图像采集单元采集所述显示设备在当前移动位置上的真实场景图像;
对所述真实场景图像进行目标识别,确定所述真实场景图像中包括的展示对象;
确定与所述展示对象匹配的虚拟对象数据,并利用所述虚拟对象数据,在所述真实场景图像中与所述展示对象关联的展示位置处渲染所述虚拟对象数据对应的虚拟对象;
在所述显示设备上展示包括所述虚拟对象的增强现实数据。
在本公开的一些实施例中,所述方法还包括:
获取所述展示对象的电子计算机断层扫描(Computed Tomography,CT)数据,将所述展示对象的CT数据确定为所述展示对象的三维模型数据;
所述确定与所述展示对象匹配的虚拟对象数据,包括:
根据预先确定的所述展示对象的三维模型数据,确定与所述展示对象匹配的虚拟对象数据。
在本公开的一些实施例中,所述根据预先确定的所述展示对象的三维模型数据,确定与所述展示对象匹配的虚拟对象数据,包括:
根据所述展示对象的三维模型数据,至少生成所述展示对象的扫描效果数据;所述扫描效果数据用于表示对所述展示对象进行扫描的效果;所述虚拟对象数据包括所述扫描效果数据。
在本公开的一些实施例中,所述根据所述展示对象的三维模型数据,至少生成所述展示对象的扫描效果数据,包括:
根据所述三维模型数据中所述展示对象的外观数据,生成包括至少两个扫描线的所述扫描效果数据;所述至少两个扫描线用于表征按照预设方向对所述展示对象进行扫描的效果。
在本公开的一些实施例中,根据所述三维模型数据中所述展示对象的外观数据,生成包括至少两个扫描线的所述扫描效果数据,包括:
根据所述三维模型数据中所述展示对象的外观数据,确定所述至少两个扫描线中每个扫描线的形状和大小;根据所述至少两个扫描线中每个扫描线的形状和大小,生成包括至少两个扫描线的所述扫描效果数据。
在本公开的一些实施例中,所述根据所述展示对象的三维模型数据,至少生成所述展示对象的扫描效果数据,包括:
根据所述三维模型数据中所述展示对象的外观数据,生成用于表示所述展示对象的轮廓的所述扫描效果数据。
在本公开的一些实施例中,所述根据所述三维模型数据中所述展示对象的外观数据,生成用于表示所述展示对象的轮廓的所述扫描效果数据,包括:
根据所述三维模型数据中所述展示对象的外观数据,生成所述展示对象的轮廓线和所述轮廓线的展示效果数据;
得到所述扫描效果数据,所述扫描效果数据包括所述展示对象的轮廓线和所述轮廓线的展示效果数据。
在本公开的一些实施例中,所述根据所述展示对象的三维模型数据,至少生成所述展示对象的扫描效果数据,包括:
根据所述三维模型数据中所述展示对象的内部扫描数据,生成用于表征所述展示对象的内部信息的所述扫描效果数据。
在本公开的一些实施例中,所述根据所述三维模型数据中所述展示对象的内部扫描数据,生成用于表征所述展示对象的内部信息的所述扫描效果数据,包括:
根据所述三维模型数据中所述展示对象的内部扫描数据,确定所述展示对象的内部结构信息和所述内部结构信息的展示效果数据;
得到所述扫描效果数据,所述扫描效果数据包括所述展示对象的内部结构信息和所述内部结构信息的展示效果数据。
在本公开的一些实施例中,所述根据所述展示对象的三维模型数据,至少生成所述展示对象的扫描效果数据,包括:
根据所述展示对象的三维模型数据,生成所述展示对象的扫描效果数据;
获取虚拟人体图像,所述虚拟人体图像表示对所述展示对象的扫描效果数据进行说明的虚拟人物的图像;
所述虚拟对象数据包括所述虚拟人体图像和所述扫描效果数据。
在本公开的一些实施例中,所述显示设备的显示屏为透明屏或非透明屏。
本公开实施例还提供了一种增强现实数据呈现装置,所述装置应用于显示设备中,所述显示设备在预设的滑动轨道上移动,所述装置包括:
采集模块,用于通过所述显示设备上的图像采集单元采集所述显示设备在当前移动位置上的真实场景图像;
识别模块,用于对所述真实场景图像进行目标识别,确定所述真实场景图像中包括的展示对象;
处理模块,用于确定与所述展示对象匹配的虚拟对象数据,并利用所述虚拟对象数据,在所述真实场景图像中与所述展示对象关联的展示位置处渲染所述虚拟对象数据对应的虚拟对象
展示模块,在所述显示设备上展示包括所述虚拟对象的增强现实数据。
在本公开的一些实施例中,所述处理模块,还用于获取所述展示对象的CT数据,将所述展示对象的CT数据确定为所述展示对象的三维模型数据;
所述处理模块,用于确定与所述展示对象匹配的虚拟对象数据,包括:根据预先确定的所述展示对象的三维模型数据,确定与所述展示对象匹配的虚拟对象数据。
在本公开的一些实施例中,所述处理模块,用于根据预先确定的所述展示对象的三维模型数据,确定与所述展示对象匹配的虚拟对象数据,包括:
根据所述展示对象的三维模型数据,至少生成所述展示对象的扫描效果数据;所述扫描效果数据用于表示对所述展示对象进行扫描的效果;所述虚拟对象数据包括所述扫描效果数据。
在本公开的一些实施例中,所述处理模块,用于根据所述展示对象的三维模型数据,至少生成所述展示对象的扫描效果数据,包括:
根据所述三维模型数据中所述展示对象的外观数据,生成包括至少两个扫描线的所述扫描效果数据;所述至少两个扫描线用于表征按照预设方向对所述展示对象进行扫描的效果。
在本公开的一些实施例中,所述处理模块,用于根据所述三维模型数据中所述展示对象的外观数据,生成包括至少两个扫描线的所述扫描效果数据,包括:
根据所述三维模型数据中所述展示对象的外观数据,确定所述至少两个扫描线中每个扫描线的形状和大小;根据所述至少两个扫描线中每个扫描线的形状和大小,生成包括至少两个扫描线的所述扫描效果数据。
在本公开的一些实施例中,所述处理模块,用于根据所述展示对象的三维模型数据,至少生成所述展示对象的扫描效果数据,包括:
根据所述三维模型数据中所述展示对象的外观数据,生成用于表示所述展示对象的轮廓的所述扫描效果数据。
在本公开的一些实施例中,所述处理模块,用于根据所述三维模型数据中所述展示对象的外观数据,生成用于表示所述展示对象的轮廓的所述扫描效果数据,包括:
根据所述三维模型数据中所述展示对象的外观数据,生成所述展示对象的轮廓线和所述轮廓线的展示效果数据;
得到所述扫描效果数据,所述扫描效果数据包括所述展示对象的轮廓线和所述轮廓线的展示效果数据。
在本公开的一些实施例中,所述处理模块,用于根据所述展示对象的三维模型数据,至少生成所述展示对象的扫描效果数据,包括:
根据所述三维模型数据中所述展示对象的内部扫描数据,生成用于表征所述展示对象的内部信息的所述扫描效果数据。
在本公开的一些实施例中,所述处理模块,用于根据所述三维模型数据中所述展示对象的内部扫描数据,生成用于表征所述展示对象的内部信息的所述扫描效果数据,包括:
根据所述三维模型数据中所述展示对象的内部扫描数据,确定所述展示对象的内部结构信息和所述内部结构信息的展示效果数据;
得到所述扫描效果数据,所述扫描效果数据包括所述展示对象的内部结构信息和所述内部结构信息的展示效果数据。
在本公开的一些实施例中,所述处理模块,用于根据所述展示对象的三维模型数据,至少生成所述展示对象的扫描效果数据,包括:
根据所述展示对象的三维模型数据,生成所述展示对象的扫描效果数据;
获取虚拟人体图像,所述虚拟人体图像表示对所述展示对象的扫描效果数据进行说明的虚拟人物的图像;
所述虚拟对象数据包括所述虚拟人体图像和所述扫描效果数据。
在本公开的一些实施例中,所述显示设备的显示屏为透明屏或非透明屏。
本公开实施例还提供了一种显示设备,所述显示设备在预设的滑动轨道上移动,所述显示设备包括:
显示屏,用于在所述显示设备上展示包括虚拟对象的增强现实数据
存储器,用于存储可执行指令;
处理器,用于执行所述存储器中存储的可执行指令时,结合所述显示屏,实现上述任意一种方法。
本公开实施例还提供了一种计算机存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现上述任意一种方法。
本公开实施例具有以下有益效果:
当显示设备采集到当前移动位置上的真实场景图像时,可以对真实场景图像进行识别,确定真实场景图像中的展示对象;进而,可以根据预先确定的展示对象的三维模型数据,确定虚拟对象,使得显示设备上可以展示包括虚拟对象的增强现实数据,因此,可以通过虚实结合的方式对展示物体进行多方位的展示,从而提高了展示的直观性和丰富性。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,而非限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,这些附图示出了符合本公开的实施例,并与说明书一起用于说明本公开的技术方案。
图1为本公开实施例的增强现实数据呈现方法的流程图;
图2为本公开实施例提供的显示设备的装置结构示意图;
图3A为本公开实施例提供的通过显示屏对展示对象进行展示的一个可选的效果示意图;
图3B为本公开实施例提供的通过显示屏对展示对象进行展示的一个可选的效果示意图;
图3C为本公开实施例提供的通过显示屏对展示对象进行展示的一个可选的效果示意图;
图3D为本公开实施例提供的通过显示屏对展示对象进行展示的一个可选的效果示意图;
图4为本公开实施例的增强现实数据呈现装置的组成结构示意图;
图5为本公开实施例的显示设备的结构示意图。
具体实施方式
以下结合附图及实施例,对本公开进行进一步详细说明。应当理解,此处所提供的实施例仅仅用以解释本公开,并不用于限定本公开。另外,以下所提供的实施例是用于实施本公开的部分实施例,而非提供实施本公开的全部实施例,在不冲突的情况下,本公开实施例记载的技术方案可以任意组合的方式实施。
需要说明的是,在本公开实施例中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的方法或者装置不仅包括所明确记载的要素,而且还包括没有明确列出的其他要素,或者是还包括为实施方法或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个......”限定的要素,并不排除在包括该要素的方法或者装置中还存在另外的相关要素(例如方法中的步骤或者装置中的单元,例如的单元可以是部分电路、部分处理器、部分程序或软件等等)。
例如,本公开实施例提供的增强现实数据呈现方法包含了一系列的步骤,但是本公开实施例提供的增强现实数据呈现方法不限于所记载的步骤,同样地,本公开实施例提供的增强现实数据呈现装置包括了一系列模块,但是本公开实施例提供的装置不限于包括所明确记载的模块,还可以包括为获取相关信息、或基于信息进行处理时所需要设置的模块。
本文中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中术语“至少一种”表示多种中的任意一种或多种中的至少两种的任意组合,例如,包括A、B、C中的至少一种,可以表示包括从A、B和C构成的集合中选择的任意一个或多个元素。
本公开实施例可适用于支持AR技术的显示设备(如手机、平板、AR眼镜等)或服务器,或者其组合,在本公开实施例应用于服务器的情况下,该服务器可以与其他具有通信功能且具有摄像头的电子设备连接,其连接方式可以是有线连接或无线连接,无线连接例如可以为蓝牙连接、无线宽带(Wireless Fidelity,WIFI)连接等。
显示设备中呈现增强现实场景,即为在显示设备中展示融入到现实场景的虚拟对象,可以是直接将虚拟对象的呈现画面渲染出来,使之与现实场景融合,比如呈现一套虚拟的茶具,使之显示效果是放置在现实场景中的真实桌面上,也可以是将虚拟对象的呈现特效与现实场景图像融合后,展示融合后的显示画面:具体选择何种呈现方式取决于显示设备的设备类型和采用的画面呈现技术,比如,由于从AR眼镜中可以直接看到现实场景(并非成像后的现实场景图像),因此AR眼镜可以采用直接将虚拟对象的呈现画面渲染出来的呈现方式:对于手机、平板电脑等移动终端设备,由于在移动终端设备中展示的是对现实场景成像后的画面,因此可以采用将现实场景图像与虚拟对象的呈现特效进行融合处理的方式,来展示增强现实效果。
本公开实施例可以应用于多个场景中,在一个应用场景中,显示设备的显示屏可以设置在展厅内,并可以沿预设轨道进行滑动。在其它实施例中,显示屏可以设置在其它用于展示物品的区域。显示屏背面可以设置图像采集单元,该图像采集单元用于采集展品的真实场景图像;显示设备可以将展品的真实场景图像与展品图像相关的虚拟效果叠加显示在显示屏上,从而呈现出虚实结合的AR显示效果。在一些实施例中,在显示屏滑动到展品D的位置的情况下,显示屏采集到展品D的真实场景图像,并可以根据展品D的真实场景图像确定展品D的展品模型为D’,显示屏可以根据D’对应的预设渲染数据,渲染得到展品D的虚拟效果图像,并将展品D的虚拟效果图像叠加展品D的真实场景图像上显示出虚实结合的AR效果。在显示屏滑动到展品E的情况下,显示屏可以得到展品E的真实场景图像,并确定展品E的模型为E’,进而将展品E的虚拟效果图像叠加展品E的真实场景图像上对屏幕显示内容进行更新,从而在显示屏的移动过程中实时显示出每个移动位置上对应的真实场景图像与虚拟效果图像虚实结合的AR效果。
在另一个应用场景中,本公开实施例的显示设备还可以为终端设备,用户可以手持或佩戴终端设备进入展厅内,并通过拍摄展品使在终端设备上显示展品图像与展品模型图像虚实叠加的AR效果。
结合上述记载的应用场景,下面示例性地说明本公开实施例提供的增强现实数据呈现方法
图1为本公开实施例的增强现实数据呈现方法的流程图,如图1所示,该流程可以包括:
步骤101:通过显示设备上的图像采集单元采集显示设备在当前移动位置上的真实场景图像。
本公开实施例中提供的增强现实数据呈现方法可以应用于显示设备中,其中,如图2所示,显示设备200可以固定在通过带有滑轮的支架230上,与展台220上预设的滑动轨道210活动连接,并可沿预设的滑动轨道210滑动。
本公开实施例中,显示设备可以通过图像采集单元实时采集真实场景图像。其中,真实场景可以是展台上的文物展品、汽车展品或其他展品。其中,图像采集单元的采集范围可以包含全部展示物体,可以只包含部分展示物体,具体的可根据实际情况进行选择,本公开实施例对图像采集单元的采集范围不做限定。
本公开实施例中,采集真实场景图像的图像采集单元可以是单目摄像头,也可以是双目摄像头,本公开实施例不做限定。
在一实施方式中,显示设备包括在预设轨道上滑动的显示屏,显示屏背面可以设置单目摄像头或双目摄像头,用于采集显示屏背对着的展示物体,并通过显示屏显示展示物体对应的真实场景图像与虚拟对象相叠加的增强现实AR效果。
步骤102:对真实场景图像进行目标识别,确定真实场景图像中包括的展示对象。
本公开实施例中,展示对象为真实场景图像中包含的属于展示物体的图像,由于图像采集单元的采集范围覆盖了展示物体的部分或全部,因此可以将采集到的真实场景图像中对应包含的该展示物体的部分或全部图像,作为展示对象。
本公开实施例中,真实场景图像为包含了展示对象与真实场景背景信息的图像,显示设备可以通过图像识别方法,从真实场景图像中识别出展示对象。
在本公开的一些实施例中,可以预先训练目标识别模型,目标识别模型表示对图像中的所述展示对象进行识别的模型;然后,在获取到真实场景图像后,可以基于训练完成的目标识别模型,对真实场景图像进行目标识别,确定真实场景图像中包括的展示对象。
步骤103:确定与所述展示对象匹配的虚拟对象数据,并利用所述虚拟对象数据,在所述真实场景图像中与所述展示对象关联的展示位置处渲染所述虚拟对象数据对应的虚拟对象;
在本公开的一些实施例中,虚拟对象数据是可以是用于通过渲染工具渲染出虚拟对象的渲染参数。虚拟对象可以理解为是在真实场景中展现的虚拟物体。
在本公开的一些实施例中,显示设备可以从本地存储空间中获取与该真实场景图像对应的虚拟对象数据,也可以将真实场景图像发送至第三方设备,如云端服务器,由第三方设备根据真实场景图像中的展示对象向显示设备提供对应的虚拟对象数据。本公开实施例对获取虚拟对象数据的方式不做限定。
本公开实施例中,虚拟对象数据中的渲染参数可以包括以下至少之一:虚拟对象的颜色;虚拟对象的样式;虚拟对象的附加信息;虚拟对象的透明度或材质。其中,虚拟对象的样式可以是虚拟对象的高度、形状等外观特征,虚拟对象的附加信息可以是文字或图片说明信息,虚拟对象的透明度或材质可以是虚拟对象叠加在展示对象上显示时对应的透明度和呈现出的纹理效果。使用哪几种虚拟对象数据来渲染虚拟对象可以根据实际需要进行选择,本公开实施例不作限制。
本公开实施例中,显示设备可以从真实场景图像中得到与展示对象关联的展示位置,这样在根据虚拟对象数据进行渲染,得到虚拟对象之后,将虚拟对象对应叠加真实场景图像中展示对象关联的展示位置之上,再配合虚拟对象数据中透明度的设置,来达到真实场景图像与虚拟对象相叠加的增强显示AR效果。示例性的,虚拟对象与真实场景图像中的展示对象是1:1大小,并且虚拟对象是覆盖在真实场景图像中展示对象的同一位置上的,因此如车身细节图等虚拟效果可以覆盖并重合在汽车部分车身图像上显示,从而呈现出了在真实的展示物体上进一步叠加了虚拟画面的增强显示AR效果。
步骤104:在所述显示设备上展示包括所述虚拟对象的增强现实数据。
本公开实施例中,渲染出虚拟对象之后,可以通过显示设备上的显示屏,展示真实场景图像与虚拟对象相叠加的增强现实AR效果。
在实际应用中,上述步骤101可以基于显示设备的图像采集单元实现,上述步骤102至步骤103可以基于云平台服务器或上述显示设备的处理器实现,上述步骤104可以基于云平台服务器和上述显示设备的显示屏实现,或者,基于上述显示设备的处理器和显示屏实现,上述处理器可以为特定用途集成电路(Application Specific IntegratedCircuit,ASIC)、数字信号处理器(Digital Signal Processor,DSP)、数字信号处理装置(Digital Signal Processing Device,DSPD)、可编程逻辑装置(Programmable LogicDevice,PLD)、现场可编程门阵列(Field Programmable Gate Array,FPGA)、中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器中的至少一种。
在一实施方式中,显示设备在获取图像采集单元采集的真实场景图像后,可以将采集的真实场景图像发送至云平台服务器,云平台服务器执行步骤102至步骤103,得出虚拟对象数据,然后,可以将虚拟对象数据发送至显示设备端,然后通过显示设备展示包括虚拟对象的增强现实数据。在另一种实施方式中,上述显示设备在获取现实场景图像后,可以执行步骤102至步骤103,从而渲染虚拟对象,进而可以直接通过显示屏展示包括虚拟对象的增强现实数据。
可以理解的是,当显示设备采集到当前移动位置上的真实场景图像时,可以对真实场景图像进行识别,确定真实场景图像中的展示对象;进而,可以根据预先确定的展示对象的三维模型数据,确定虚拟对象数据,使得显示设备上可以展示包括虚拟对象的增强现实数据,因此,可以通过虚实结合的方式对展示物体进行多方位的展示,从而提高了展示的直观性和丰富性。
进一步地,在上述展示对象包括文物等展品的情况下,本公开实施例可以提升文物等展品的展示效果。
在一种实施方式中,上述显示设备的显示屏可以是透明屏或非透明屏。
这里,非透明屏可以是液晶显示屏、发光二极管(Light Emitting Diode,LED)显示屏;透明屏与非透明屏相比,透明屏可以给用户带来前所未有的视觉感受和全新的体验。由于透明屏本身具有屏幕和透明的特性,因此可以应用到很多场合,即可以作为屏幕使用,同时可以替代透明平板玻璃;从而,在显示屏为透明屏的情况下,可以提高展示对象的展示效果。
在一种实施方式中,可以获取展示对象的CT数据,将展示对象的CT数据确定为展示对象的三维模型数据。
相应地,确定与展示对象匹配的虚拟对象数据的实现方式,可以是:根据预先确定的展示对象的三维模型数据,确定与展示对象匹配的虚拟对象数据。
这里,展示对象的三维模型数据可以表示展示对象的外观信息和/或内部扫描数据;本公开实施例中,可以预先对展示对象进行CT扫描,得到展示对象的CT数据;可以理解地,展示对象的CT数据可以包括展示对象的外观数据和/或展示对象的内部扫描数据。
可以看出,通过获取展示对象的CT数据,便于直接得到展示对象的三维模型数据。
在一种实施方式中,显示设备可以通过机器学习的方式,预先训练目标识别模型,目标识别模型表示对图像中的展示对象进行识别的模型;这里,可以根据拍摄数据,训练目标识别模型,得到训练完成的目标识别模型;拍摄数据表示从至少一个角度对所述展示对象进行拍摄得到的图像数据;在一个具体的示例中,可以将拍摄数据输入至目标识别模型中,得到目标识别结果,根据上述标注信息与目标识别结果的差异,训练目标识别模型。
这样,基于训练完成的目标识别模型,可以对从任意角度拍摄的图像进行目标识别。
本公开实施例中,上述对真实场景图像进行目标识别,确定真实场景图像中包括的展示对象的实现方式可以是,基于所述训练完成的所述目标识别模型,对真实场景图像进行目标识别,确定真实场景图像中包括的展示对象。
可以理解地,在真实场景图像包括展示对象的情况下,基于训练完成的目标识别模型,可以识别出真实场景图像中的展示对象。
对于根据预先确定的所述展示对象的三维模型数据,确定与所述展示对象匹配的虚拟对象数据的实现方式,示例性地,可以根据展示对象的三维模型数据,至少生成展示对象的扫描效果数据;扫描效果数据用于表示对展示对象进行扫描的效果。
相应地,虚拟对象数据包括扫描效果数据。
这里,扫描效果数据可以表示展示对象的外观扫描效果和/或内部扫描效果,如此,可以通过虚实结合的方式对展示对象的外观扫描效果和/或内部扫描效果进行展示,从而提高了展示的直观性和丰富性。
对于根据展示对象的三维模型数据,至少生成展示对象的扫描效果数据的实现方式,示例性地,可以根据上述三维模型数据中展示对象的外观数据,生成包括至少两个扫描线的所述扫描效果数据;至少两个扫描线用于表征按照预设方向对展示对象进行扫描的效果。
本公开实施例中,展示对象的外观数据表示展示对象的外观形状参数和/或外观尺寸参数。
本公开实施例中,预设方向可以根据展品的实际展示需求预先设置,例如,可以是从上倒下或从左到右。
本公开实施例中,每个扫描线可以是围绕展品的一个截面(例如横截面或纵截面)的二维线条,每个扫描线也可以是在上述二维线条的基础上沿预设方向扩展得到的三维图形,例如,对于一个圆柱形物体而言,每个扫描线可以是围绕圆柱的二维线条,也可以是在上述二维线条的基础上沿圆柱的高度方向扩展得到的三维图形,该三维图形可以表示有一定宽度的二维线条。
可以理解地,由于扫描效果数据中的至少两个扫描线用于表征按照预设方向对展示对象进行扫描的效果,且虚拟对象数据包括扫描效果数据,因而,本公开实施例可以通过虚实结合的方式呈现按照预设方向对展示对象进行扫描的效果,从而提高了展示的直观性和丰富性。
对于根据三维模型数据中展示对象的外观数据,生成包括至少两个扫描线的扫描效果数据的实现方式,示例性地,可以根据三维模型数据中展示对象的外观数据,确定至少两个扫描线中每个扫描线的形状和大小;根据至少两个扫描线中每个扫描线的形状和大小,生成包括至少两个扫描线的所述扫描效果数据。
本公开实施例中,在确定三维模型数据中展示对象的外观数据后,便可以根据展示对象的外观数据,确定至少两个扫描线中每个扫描线的形状和大小,也就是说,扫描线可以基于展示对象的轮廓大小适应调整。
在一种实施方式中,每个扫描线可以按照预设方向移动,从而模拟出展示对象被扫描的效果。
参照图3A,在通过滑动轨道210上的显示设备200对文物300进行展示时,虚拟对象可以是文物300上从上到下排列的扫描线310;这里的文物300为上述展示对象,图3A所示中显示设备200显示的图像为向多人展示的增强现实数据。
可以看出,本公开实施例中,由于可以根据三维模型数据中展示对象的外观数据,确定至少两个扫描线中每个扫描线的形状和大小,因而,每个扫描线的展示效果更好,从而提高了展示的直观性。
对于根据所述展示对象的三维模型数据,至少生成展示对象的扫描效果数据的实现方式,示例性地,可以根据三维模型数据中展示对象的外观数据,生成用于表示展示对象的轮廓的扫描效果数据。
本公开实施例中,用于表示展示对象的轮廓的扫描效果数据可以是展示对象的轮廓线,可以理解的是,在确定展示对象的外观数据后,展示对象的轮廓线便可以直接确定。
可以理解地,由于可以生成用于表示展示对象的轮廓的扫描效果数据,且虚拟对象数据包括扫描效果数据,因而,本公开实施例可以通过虚实结合的方式呈现展示对象的轮廓,从而提高了展示的直观性和丰富性。
对于根据三维模型数据中展示对象的外观数据,生成用于表示展示对象的轮廓的所述扫描效果数据,包括:根据三维模型数据中展示对象的外观数据,生成展示对象的轮廓线和轮廓线的展示效果数据;得到扫描效果数据,扫描效果数据包括展示对象的轮廓线和轮廓线的展示效果数据。
本公开实施例中,轮廓线的展示效果数据可以包括轮廓线的以下至少一种属性信息:轮廓线的颜色、轮廓线的线条宽度、轮廓线的样式;轮廓线的样式可以是实线或虚线。
在一些实施例中,轮廓线的颜色可以是黄色等便于人眼观察的颜色,轮廓线的颜色也可以是与展示对象的颜色形成明显区分的颜色,例如,展示对象的颜色为灰色,轮廓线的颜色为红色;轮廓线的线条可以加粗的线条,如此便于人眼观察。
参照图3B,在通过滑动轨道210上的显示设备200对文物300进行展示时,虚拟对象可以是文物300的轮廓线320,图3B示中显示设备200显示的图像为向多人展示的增强现实数据。
可以看出,本公开实施例中,可以基于展示对象的轮廓线和轮廓线的展示效果数据,将展示对象的轮廓线进行增强显示,因而,展示对象的轮廓线的展示效果更好,从而提高了展示的直观性。
对于根据展示对象的三维模型数据,至少生成展示对象的扫描效果数据的实现方式,示例性地,可以根据三维模型数据中展示对象的内部扫描数据,生成用于表征展示对象的内部信息的扫描效果数据。
这里,展示对象的内部扫描数据可以表示展示对象的内部结构和/或展示对象的内部物体信息。
可以理解地,由于扫描效果数据表征展示对象的内部信息,且虚拟对象数据包括扫描效果数据,因而,本公开实施例可以通过虚实结合的方式呈现展示对象的内部信息,从而提高了展示的直观性和丰富性。
对于根据三维模型数据中展示对象的内部扫描数据,生成用于表征展示对象的内部信息的所述扫描效果数据的实现方式,示例性地,可以根据三维模型数据中展示对象的内部扫描数据,确定展示对象的内部结构信息和内部结构信息的展示效果数据;得到扫描效果数据,扫描效果数据包括展示对象的内部结构信息和内部结构信息的展示效果数据。
本公开实施例中,内部结构信息的展示效果数据可以包括内部结构信息的以下至少一种显示属性:内部结构信息的展示颜色、内部结构信息的样式、内部结构信息与外观数据的配合展示方式;这里,内部结构信息的展示颜色可以是预设的特定颜色,以便于人眼观察;内部结构信息的样式可以是内部结构的高度、形状等特征;对于内部结构信息与外观数据的配合展示方式,示例性地,展示对象的外部结构被渲染为具有一定透明度的虚拟外观结构,在具有一定透明度的虚拟外观结构叠加展示内部结构信息的立体模型,以呈现展示对象的内部信息;内部结构信息的立体模型可以是对展示对象的内部扫描数据进行渲染得出的。
参照图3C,在通过滑动轨道210上的显示设备200对文物进行展示时,虚拟对象可以是文物的内部结构330,图3B中显示设备200显示的图像为向多人展示的增强现实数据。
可以看出,本公开实施例中,可以基于展示对象的内部结构信息和所述内部结构信息的展示效果数据,在不破坏展品对象的条件下将展示对象的内部结构信息进行增强显示,因而,通过展示对象的内部结构信息的展示,提高了展示的直观性。
对于根据展示对象的三维模型数据,至少生成展示对象的扫描效果数据的实现方式,示例性地,可以根据展示对象的三维模型数据,生成展示对象的扫描效果数据;获取虚拟人体图像,虚拟人体图像表示对展示对象的扫描效果数据进行说明的虚拟人物的图像;虚拟对象数据包括虚拟人体图像和扫描效果数据。
这里,虚拟人体图像为预先渲染的人体图像,虚拟人体图像可以存储于本地存储空间中,这样,在需要生成虚拟对象数据时,可以直接从本地存储空间中获取虚拟人体图像。
在一些实施例中,还可以根据不同的展示对象确定不同的虚拟人体图像,具体地说,可以针对不同的展示对象设置不同的虚拟人体图像,在从图像中识别出展示对象后,可以根据识别出的展示对象确定对应的虚拟人体图像。
在一些实施例中,虚拟人体图像可以位于展示对象的左侧或右侧。
参照图3D,在通过滑动轨道210上的显示设备200对文物进行展示时,虚拟对象可以包括文物300上从上到下排列的扫描线310、以及虚拟人体图像340,图3D中显示设备200显示的图像为向多人展示的增强现实数据。
当然,在一些其它的实施例中,参照图3D,虚拟对象数据还包括展示对象的附加信息350,例如,在展示对象为文物的情况下,展示对象的附加信息350可以是文物的挖掘过程的图像、文物的研究过程的图像、文物的修复过程的图像;需要说明的是,上述记载的内容仅仅是对展示对象的附加信息进行了示例性说明,本公开实施例并不局限于此。
可以看出,本公开实施例中,在虚拟对象数据包括虚拟人体图像和扫描效果数据,显示设备可以同时显示虚拟人体图像和扫描效果数据,提高了展示的直观性和丰富性。
在前述实施例提出的增强现实数据呈现方法的基础上,本公开实施例还提出了一种增强现实数据呈现装置。
图4为本公开实施例的增强现实数据呈现装置的组成结构示意图,如图4所示,该装置可以包括:
采集模块401,用于通过所述显示设备上的图像采集单元采集所述显示设备在当前移动位置上的真实场景图像。
识别模块402,用于对所述真实场景图像进行目标识别,确定所述真实场景图像中包括的展示对象。
处理模块403,用于确定与所述展示对象匹配的虚拟对象数据,并利用所述虚拟对象数据,在所述真实场景图像中与所述展示对象关联的展示位置处渲染所述虚拟对象数据对应的虚拟对象。
展示模块404,在所述显示设备上展示包括所述虚拟对象的增强现实数据。
在本公开的一些实施例中,所述处理模块403,还用于获取所述展示对象的CT数据,将所述展示对象的CT数据确定为所述展示对象的三维模型数据。
所述处理模块403,用于确定与所述展示对象匹配的虚拟对象数据,包括:根据预先确定的所述展示对象的三维模型数据,确定与所述展示对象匹配的虚拟对象数据。
在本公开的一些实施例中,所述处理模块403,用于根据预先确定的所述展示对象的三维模型数据,确定与所述展示对象匹配的虚拟对象数据,包括:
根据所述展示对象的三维模型数据,至少生成所述展示对象的扫描效果数据;所述扫描效果数据用于表示对所述展示对象进行扫描的效果;所述虚拟对象数据包括所述扫描效果数据。
在本公开的一些实施例中,所述处理模块403,用于根据所述展示对象的三维模型数据,至少生成所述展示对象的扫描效果数据,包括:
根据所述三维模型数据中所述展示对象的外观数据,生成包括至少两个扫描线的所述扫描效果数据;所述至少两个扫描线用于表征按照预设方向对所述展示对象进行扫描的效果。
在本公开的一些实施例中,所述处理模块403,用于根据所述三维模型数据中所述展示对象的外观数据,生成包括至少两个扫描线的所述扫描效果数据,包括:
根据所述三维模型数据中所述展示对象的外观数据,确定所述至少两个扫描线中每个扫描线的形状和大小;根据所述至少两个扫描线中每个扫描线的形状和大小,生成包括至少两个扫描线的所述扫描效果数据。
在本公开的一些实施例中,所述处理模块403,用于根据所述展示对象的三维模型数据,至少生成所述展示对象的扫描效果数据,包括:
根据所述三维模型数据中所述展示对象的外观数据,生成用于表示所述展示对象的轮廓的所述扫描效果数据。
在本公开的一些实施例中,所述处理模块403,用于根据所述三维模型数据中所述展示对象的外观数据,生成用于表示所述展示对象的轮廓的所述扫描效果数据,包括:
根据所述三维模型数据中所述展示对象的外观数据,生成所述展示对象的轮廓线和所述轮廓线的展示效果数据;
得到所述扫描效果数据,所述扫描效果数据包括所述展示对象的轮廓线和所述轮廓线的展示效果数据。
在本公开的一些实施例中,所述处理模块403,用于根据所述展示对象的三维模型数据,至少生成所述展示对象的扫描效果数据,包括:
根据所述三维模型数据中所述展示对象的内部扫描数据,生成用于表征所述展示对象的内部信息的所述扫描效果数据。
在本公开的一些实施例中,所述处理模块403,用于根据所述三维模型数据中所述展示对象的内部扫描数据,生成用于表征所述展示对象的内部信息的所述扫描效果数据,包括:
根据所述三维模型数据中所述展示对象的内部扫描数据,确定所述展示对象的内部结构信息和所述内部结构信息的展示效果数据;
得到所述扫描效果数据,所述扫描效果数据包括所述展示对象的内部结构信息和所述内部结构信息的展示效果数据。
在本公开的一些实施例中,所述处理模块403,用于根据所述展示对象的三维模型数据,至少生成所述展示对象的扫描效果数据,包括:
根据所述展示对象的三维模型数据,生成所述展示对象的扫描效果数据;
获取虚拟人体图像,所述虚拟人体图像表示对所述展示对象的扫描效果数据进行说明的虚拟人物的图像;
所述虚拟对象数据包括所述虚拟人体图像和所述扫描效果数据。
在一种实施方式中,上述显示设备的显示屏可以是透明屏或非透明屏。
上述采集模块401可以基于显示设备上的图像采集单元实现,识别模块402和处理模块403可以基于云平台服务器或显示设备的处理器实现,展示模块404可以基于云平台服务器或显示设备的处理器并结合显示设备的显示屏实现。
另外,在本实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。
所述集成的单元如果以软件功能模块的形式实现并非作为独立的产品进行销售或使用时,可以存储在一个计算机可读取存储介质中,基于这样的理解,本实施例的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或processor(处理器)执行本实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
相应地,本实施例中的一种增强现实数据呈现方法对应的计算机程序指令可以被存储在光盘,硬盘,U盘等存储介质上,当存储介质中的与一种增强现实数据呈现方法对应的计算机程序指令被一电子设备读取或被执行时,实现前述实施例的任意一种增强现实数据呈现方法。
相应地,本公开实施例再提供一种计算机程序产品,所述计算机程序产品包括计算机可执行指令,该计算机可执行指令用于实现本公开实施例提供的任意一种增强现实数据呈现方法。
基于前述实施例相同的技术构思,参见图5,其示出了本公开实施例提供的一种显示设备,如图5所示,所述显示设备200包括:显示屏501;
存储器502,用于存储计算机程序;
处理器503,用于执行所述存储器502中存储的计算机程序时,结合所述显示屏501,实现上述实施例提供的任意一种增强现实数据呈现方法。
显示设备200还包括:通信总线504。通信总线504配置为实现这些组件之间的连接通信。
在本公开实施例中,显示屏501包括但不限于液晶显示屏,有机发光二级管显示屏,触控显示屏等等,本公开这里不做限定。
存储器502配置为存储由处理器503计算机程序和应用,还可以缓存待处理器503以及显示设备中各模块待处理或已经处理的数据(例如,图像数据、音频数据、语音通信数据和视频通信数据),可以通过闪存(FLASH)或随机访问存储器(Random Access Memory,RAM)实现。
处理器503执行程序时实现上述任一项展示方法的步骤。处理器503通常控制显示设备200的总体操作。
上述处理器503可以为ASIC、DSP、DSPD、PLD、FPGA、CPU、控制器、微控制器、微处理器中的至少一种。可以理解地,实现上述处理器功能的电子器件还可以为其它,本公开实施例不作限制。
上述计算机可读存储介质/存储器可以是只读存储器(Read Only Memory,ROM)、可编程只读存储器(Programmable Read-Only Memory,PROM)、可擦除可编程只读存储器(Erasable Programmable Read-Only Memory,EPROM)、电可擦除可编程只读存储器(Electrically Erasable Programmable Read-Only Memory,EEPROM)、磁性随机存取存储器(Ferromagnetic Random Access Memory,FRAM)、快闪存储器(Flash Memory)、磁表面存储器、光盘、或只读光盘(Compact Disc Read-Only Memory,CD-ROM)等存储器;也可以是包括上述存储器之一或任意组合的各种终端,如移动电话、计算机、平板设备、个人数字助理等。
在一些实施例中,本公开实施例提供的装置具有的功能或包含的模块可以用于执行上文方法实施例描述的方法,其具体实现可以参照上文方法实施例的描述,为了简洁,这里不再赘述。
上文对各个实施例的描述倾向于强调各个实施例之间的不同之处,其相同或相似之处可以互相参考,为了简洁,本文不再赘述
本申请所提供的各方法实施例中所揭露的方法,在不冲突的情况下可以任意组合,得到新的方法实施例。
本申请所提供的各产品实施例中所揭露的特征,在不冲突的情况下可以任意组合,得到新的产品实施例。
本申请所提供的各方法或设备实施例中所揭露的特征,在不冲突的情况下可以任意组合,得到新的方法实施例或设备实施例。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本发明各个实施例所述的方法。
上面结合附图对本发明的实施例进行了描述,但是本发明并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本发明的启示下,在不脱离本发明宗旨和权利要求所保护的范围情况下,还可做出很多形式,这些均属于本发明的保护之内。

Claims (14)

1.一种增强现实数据呈现方法,其特征在于,所述方法应用于显示设备中,所述显示设备在预设的滑动轨道上移动,所述方法包括:
通过所述显示设备上的图像采集单元采集所述显示设备在当前移动位置上的真实场景图像;
对所述真实场景图像进行目标识别,确定所述真实场景图像中包括的展示对象;
确定与所述展示对象匹配的虚拟对象数据,并利用所述虚拟对象数据,在所述真实场景图像中与所述展示对象关联的展示位置处渲染所述虚拟对象数据对应的虚拟对象;
在所述显示设备上展示包括所述虚拟对象的增强现实数据。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
获取所述展示对象的电子计算机断层扫描CT数据,将所述展示对象的CT数据确定为所述展示对象的三维模型数据;
所述确定与所述展示对象匹配的虚拟对象数据,包括:
根据预先确定的所述展示对象的三维模型数据,确定与所述展示对象匹配的虚拟对象数据。
3.根据权利要求2所述的方法,其特征在于,所述根据预先确定的所述展示对象的三维模型数据,确定与所述展示对象匹配的虚拟对象数据,包括:
根据所述展示对象的三维模型数据,至少生成所述展示对象的扫描效果数据;所述扫描效果数据用于表示对所述展示对象进行扫描的效果;所述虚拟对象数据包括所述扫描效果数据。
4.根据权利要求3所述的方法,其特征在于,所述根据所述展示对象的三维模型数据,至少生成所述展示对象的扫描效果数据,包括:
根据所述三维模型数据中所述展示对象的外观数据,生成包括至少两个扫描线的所述扫描效果数据;所述至少两个扫描线用于表征按照预设方向对所述展示对象进行扫描的效果。
5.根据权利要求4所述的方法,其特征在于,所述根据所述三维模型数据中所述展示对象的外观数据,生成包括至少两个扫描线的所述扫描效果数据,包括:
根据所述三维模型数据中所述展示对象的外观数据,确定所述至少两个扫描线中每个扫描线的形状和大小;根据所述至少两个扫描线中每个扫描线的形状和大小,生成包括至少两个扫描线的所述扫描效果数据。
6.根据权利要求3所述的方法,其特征在于,所述根据所述展示对象的三维模型数据,至少生成所述展示对象的扫描效果数据,包括:
根据所述三维模型数据中所述展示对象的外观数据,生成用于表示所述展示对象的轮廓的所述扫描效果数据。
7.根据权利要求6所述的方法,其特征在于,所述根据所述三维模型数据中所述展示对象的外观数据,生成用于表示所述展示对象的轮廓的所述扫描效果数据,包括:
根据所述三维模型数据中所述展示对象的外观数据,生成所述展示对象的轮廓线和所述轮廓线的展示效果数据;
得到所述扫描效果数据,所述扫描效果数据包括所述展示对象的轮廓线和所述轮廓线的展示效果数据。
8.根据权利要求3所述的方法,其特征在于,所述根据所述展示对象的三维模型数据,至少生成所述展示对象的扫描效果数据,包括:
根据所述三维模型数据中所述展示对象的内部扫描数据,生成用于表征所述展示对象的内部信息的所述扫描效果数据。
9.根据权利要求8所述的方法,其特征在于,所述根据所述三维模型数据中所述展示对象的内部扫描数据,生成用于表征所述展示对象的内部信息的所述扫描效果数据,包括:
根据所述三维模型数据中所述展示对象的内部扫描数据,确定所述展示对象的内部结构信息和所述内部结构信息的展示效果数据;
得到所述扫描效果数据,所述扫描效果数据包括所述展示对象的内部结构信息和所述内部结构信息的展示效果数据。
10.根据权利要求3所述的方法,其特征在于,所述根据所述展示对象的三维模型数据,至少生成所述展示对象的扫描效果数据,包括:
根据所述展示对象的三维模型数据,生成所述展示对象的扫描效果数据;
获取虚拟人体图像,所述虚拟人体图像表示对所述展示对象的扫描效果数据进行说明的虚拟人物的图像;
所述虚拟对象数据包括所述虚拟人体图像和所述扫描效果数据。
11.根据权利要求1所述的方法,其特征在于,所述显示设备的显示屏为透明屏或非透明屏。
12.一种增强现实数据呈现装置,其特征在于,所述装置应用于显示设备中,所述显示设备在预设的滑动轨道上移动,所述装置包括:
采集模块,用于通过所述显示设备上的图像采集单元采集所述显示设备在当前移动位置上的真实场景图像;
识别模块,用于对所述真实场景图像进行目标识别,确定所述真实场景图像中包括的展示对象;
处理模块,用于确定与所述展示对象匹配的虚拟对象数据,并利用所述虚拟对象数据,在所述真实场景图像中与所述展示对象关联的展示位置处渲染所述虚拟对象数据对应的虚拟对象
展示模块,在所述显示设备上展示包括所述虚拟对象的增强现实数据。
13.一种显示设备,其特征在于,所述显示设备在预设的滑动轨道上移动,所述显示设备包括:
显示屏,用于在所述显示设备上展示包括虚拟对象的增强现实数据
存储器,用于存储可执行指令;
处理器,用于执行所述存储器中存储的可执行指令时,结合所述显示屏,实现权利要求1至11任一项所述的方法。
14.一种计算机存储介质,其特征在于,存储有可执行指令,用于被处理器执行时,实现权利要求1至11任一项所述的方法。
CN202010659403.2A 2020-07-09 2020-07-09 增强现实数据呈现方法、装置、显示设备和存储介质 Pending CN111862340A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010659403.2A CN111862340A (zh) 2020-07-09 2020-07-09 增强现实数据呈现方法、装置、显示设备和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010659403.2A CN111862340A (zh) 2020-07-09 2020-07-09 增强现实数据呈现方法、装置、显示设备和存储介质

Publications (1)

Publication Number Publication Date
CN111862340A true CN111862340A (zh) 2020-10-30

Family

ID=73152727

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010659403.2A Pending CN111862340A (zh) 2020-07-09 2020-07-09 增强现实数据呈现方法、装置、显示设备和存储介质

Country Status (1)

Country Link
CN (1) CN111862340A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112906467A (zh) * 2021-01-15 2021-06-04 深圳市慧鲤科技有限公司 合影图像生成方法及装置、电子设备和存储介质
CN113127126A (zh) * 2021-04-30 2021-07-16 上海哔哩哔哩科技有限公司 对象展示方法及装置
WO2022179344A1 (en) * 2021-02-26 2022-09-01 Huawei Technologies Co., Ltd. Methods and systems for rendering virtual objects in user-defined spatial boundary in extended reality environment

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104050692A (zh) * 2013-03-12 2014-09-17 腾讯科技(深圳)有限公司 一种照片美化过程中的画面显示方法及装置
WO2017018561A1 (ko) * 2015-07-30 2017-02-02 주식회사 씽크브릿지 전시공간 제어 시스템 및 전시공간 제어방법
CN108362716A (zh) * 2018-03-22 2018-08-03 四川大学 一种基于医用ct的文物材质检测判定方法及检测装置
CN108829250A (zh) * 2018-06-04 2018-11-16 苏州市职业大学 一种基于增强现实ar的对象互动展示方法
CN109213728A (zh) * 2017-06-29 2019-01-15 深圳市掌网科技股份有限公司 基于增强现实的文物展示方法及系统
CN109630824A (zh) * 2019-01-02 2019-04-16 上海粲高教育设备有限公司 一种模拟x光体验系统

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104050692A (zh) * 2013-03-12 2014-09-17 腾讯科技(深圳)有限公司 一种照片美化过程中的画面显示方法及装置
WO2017018561A1 (ko) * 2015-07-30 2017-02-02 주식회사 씽크브릿지 전시공간 제어 시스템 및 전시공간 제어방법
CN109213728A (zh) * 2017-06-29 2019-01-15 深圳市掌网科技股份有限公司 基于增强现实的文物展示方法及系统
CN108362716A (zh) * 2018-03-22 2018-08-03 四川大学 一种基于医用ct的文物材质检测判定方法及检测装置
CN108829250A (zh) * 2018-06-04 2018-11-16 苏州市职业大学 一种基于增强现实ar的对象互动展示方法
CN109630824A (zh) * 2019-01-02 2019-04-16 上海粲高教育设备有限公司 一种模拟x光体验系统

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112906467A (zh) * 2021-01-15 2021-06-04 深圳市慧鲤科技有限公司 合影图像生成方法及装置、电子设备和存储介质
WO2022151687A1 (zh) * 2021-01-15 2022-07-21 深圳市慧鲤科技有限公司 合影图像生成方法、装置、设备、存储介质、计算机程序及产品
WO2022179344A1 (en) * 2021-02-26 2022-09-01 Huawei Technologies Co., Ltd. Methods and systems for rendering virtual objects in user-defined spatial boundary in extended reality environment
US11640700B2 (en) 2021-02-26 2023-05-02 Huawei Technologies Co., Ltd. Methods and systems for rendering virtual objects in user-defined spatial boundary in extended reality environment
CN113127126A (zh) * 2021-04-30 2021-07-16 上海哔哩哔哩科技有限公司 对象展示方法及装置

Similar Documents

Publication Publication Date Title
JP6644833B2 (ja) アルベドモデルにより拡張現実コンテンツをレンダリングするシステムおよび方法
CN106355153B (zh) 一种基于增强现实的虚拟对象显示方法、装置以及系统
Oufqir et al. ARKit and ARCore in serve to augmented reality
US8866848B2 (en) Image processing device, control method for an image processing device, program, and information storage medium
CN111862340A (zh) 增强现实数据呈现方法、装置、显示设备和存储介质
CN105404392B (zh) 基于单目摄像头的虚拟穿戴方法及系统
CN106062862B (zh) 用于沉浸式和交互式多媒体生成的系统和方法
KR20210047278A (ko) Ar 장면 이미지 처리 방법, 장치, 전자 기기 및 저장 매체
CN102449680B (zh) 信息呈现装置
KR101652311B1 (ko) 비전 영상 정보 저장 시스템과 그 방법, 및 상기 방법을 구현하는 프로그램이 기록된 기록매체
CN110363867B (zh) 虚拟装扮系统、方法、设备及介质
KR20140082610A (ko) 휴대용 단말을 이용한 증강현실 전시 콘텐츠 재생 방법 및 장치
CN109615703A (zh) 增强现实的图像展示方法、装置及设备
JP2019510297A (ja) ユーザの真実の人体モデルへの仮想的な試着
KR101248736B1 (ko) 도서형 증강현실에서 페이지 전환에 따른 증강현실 방법 및 시스템, 이를 구현하기 위한 증강현실 처리장치
EP2423880A2 (en) Apparatus and method for providing augmented reality (AR) using a marker
US20130188862A1 (en) Method and arrangement for censoring content in images
US10825217B2 (en) Image bounding shape using 3D environment representation
CN113994396A (zh) 基于增强现实和/或姿势检测技术的用户引导系统
CN112037314A (zh) 图像显示方法、装置、显示设备及计算机可读存储介质
CN111815780A (zh) 展示方法、显示装置、设备及计算机可读存储介质
CN106204746B (zh) 一种可实现3d模型实时上色的增强现实系统
CN111833458A (zh) 图像显示方法及装置、设备、计算机可读存储介质
CN110715647A (zh) 使用多次三维扫描进行对象检测
CN111625100A (zh) 图画内容的呈现方法、装置、计算机设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20201030

RJ01 Rejection of invention patent application after publication