CN112634773A - 增强现实的呈现方法、装置、展示设备及存储介质 - Google Patents
增强现实的呈现方法、装置、展示设备及存储介质 Download PDFInfo
- Publication number
- CN112634773A CN112634773A CN202011560190.4A CN202011560190A CN112634773A CN 112634773 A CN112634773 A CN 112634773A CN 202011560190 A CN202011560190 A CN 202011560190A CN 112634773 A CN112634773 A CN 112634773A
- Authority
- CN
- China
- Prior art keywords
- display
- information
- target
- virtual
- target display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09F—DISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
- G09F9/00—Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements
- G09F9/30—Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements in which the desired character or characters are formed by combining individual elements
- G09F9/33—Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements in which the desired character or characters are formed by combining individual elements being semiconductor devices, e.g. diodes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
Abstract
本公开实施例公开了一种增强现实的呈现方法,所述方法包括:获取展示区域的监控视频,所述展示区域的周边设置有展示设备,所述展示设备具有透明显示屏幕;基于所述监控视频,识别所述展示区域内的目标展示对象的属性信息,所述属性信息包括目标展示对象的标识信息以及移动位置信息;获取与所述目标展示对象的属性信息匹配的虚拟效果数据;在所述透明显示屏幕中的目标展示位置展示所述虚拟效果数据,所述目标展示位置与所述目标展示对象的移动位置信息相匹配。本公开实施例同时公开了一种增强现实的呈现装置、展示设备以及计算机可读存储介质。
Description
技术领域
本公开涉及图像处理技术领域,尤其涉及一种增强现实的呈现方法、装置、展示设备及计算机可读存储介质。
背景技术
目前,在水族馆和动物园的展示场景中,对于动物的展示大多是在动物围挡旁边的展示板上辅以文字说明,其所能展示、提供的介绍信息严重不足,游客很难了解到动物的科普知识,存在展示方式不丰富的问题。
发明内容
本公开实施例提供了一种增强现实的呈现方法、装置、展示设备和存储介质。
本公开实施例的技术方案是这样实现的:
本公开实施例提供一种增强现实的呈现方法,所述方法包括:
获取展示区域的监控视频,所述展示区域的周边设置有展示设备,所述展示设备具有透明显示屏幕;
基于所述监控视频,识别所述展示区域内的目标展示对象的属性信息,所述属性信息包括目标展示对象的标识信息以及移动位置信息;
获取与所述目标展示对象的属性信息匹配的虚拟效果数据;
在所述透明显示屏幕中的目标展示位置展示所述虚拟效果数据,所述目标展示位置与所述目标展示对象的移动位置信息相匹配。
本公开实施例提供一种增强现实的呈现装置,所述装置包括:
第一获取单元,获取展示区域的监控视频,所述展示区域的周边设置有展示设备,所述展示设备具有透明显示屏幕;
处理单元,用于基于所述监控视频,识别所述展示区域内的目标展示对象的属性信息,所述属性信息包括目标展示对象的标识信息以及移动位置信息;
第二获取单元,用于获取与所述目标展示对象的属性信息匹配的虚拟效果数据;
展示单元,用于在所述透明显示屏幕中的目标展示位置展示所述虚拟效果数据,所述目标展示位置与所述目标展示对象的移动位置信息相匹配。
本公开实施例提供一种展示设备,所述展示设备包括摄像头、透明显示屏幕,处理器和用于存储能够在处理器上运行的计算机程序的存储器;
所述摄像头、所述透明显示屏幕、所述处理器和所述存储器通过通信总线连接;
其中,所述处理器结合所述摄像头和所述透明显示屏幕,运行所述存储器中存储的计算机程序时,实现本公开实施例提供的方法。
本公开实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行实现本公开实施例提供的方法。
本公开实施例具有以下有益效果:
本公开实施例提供的增强现实的呈现方法中,展示设备可以获取展示区域的监控视频,展示区域的周边设置有展示设备,展示设备具有透明显示屏幕;接着,基于监控视频,识别展示区域内的目标展示对象的属性信息,属性信息包括目标展示对象的标识信息以及移动位置信息;获取与目标展示对象的属性信息匹配的虚拟效果数据;在透明显示屏幕中的目标展示位置展示所述虚拟效果数据,目标展示位置与目标展示对象的移动位置信息相匹配;这样,在透明显示屏幕上显示目标展示对象对应的虚拟效果数据,同时虚拟效果数据在透明显示屏幕的目标展示位置可以随着目标展示对象的实时移动位置而改变,如此,增强了真实场景中对物体展示的丰富性,同时提高了展示的灵活性和趣味性。
附图说明
图1-1为本公开实施例提供的AR呈现系统的一个可选的结构示意图;
图1-2为本公开实施例提供的一种应用场景的示意图一;
图2为本公开实施例提供的一种增强现实的呈现方法流程图;
图3-1为本公开实施例提供的一种显示效果示意图一;
图3-2为本公开实施例提供的一种显示效果示意图二;
图3-3位本公开实施例提供的一种显示效果示意图三;
图4-1为本公开实施例提供的一种虚拟对象显示效果示意图一;
图4-2为本公开实施例提供的一种虚拟对象显示效果示意图二;
图5为本公开实施例提供的一种图像显示装置的组成结构示意图;
图6为本公开实施例提供的一种展示设备的组成结构示意图。
具体实施方式
为了使本公开的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本公开进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本公开,并不用于限定本公开。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。本文中所使用的术语只是为了描述本发明实施例的目的,不是旨在限制本发明。
增强现实(Augmented Reality,AR)技术是一种将虚拟信息与真实世界巧妙融合的技术,用户可以通过AR设备可以观看到叠加在真实场景中的虚拟效果,比如可以看到叠加在真实的校园操场上的虚拟大树,看到叠加在天空中的虚拟飞翔小鸟,如何使得这些虚拟大树和虚拟飞翔小鸟这些虚拟效果能够更好地与现实场景相融合,实现增强现实场景中对虚拟效果的呈现效果,为本公开实施例所要讨论的内容,下面将结合以下具体实施例进行阐述。
本公开实施例提供一种增强现实的呈现方法、装置、展示设备和计算机可读存储介质,能够提高信息呈现的丰富性,以及实现了与观看者的交互,本公开实施例提供的增强现实的呈现方法应用于展示设备中,下面说明本公开实施例提供的展示设备的示例性应用,本公开实施例提供的展示设备可以实施为具有透明显示屏幕的设备,例如,透明显示屏幕可以设置于展示场景中的透明玻璃的外侧,或者嵌入于展示场景中透明玻璃的内部,本申请实施例对此不做限定。
本公开实施例中,展示设备可以基于真实场景中的展示对象,从展示设备的内部存储空间中的预设三维虚拟场景获取该展示对象的虚拟效果数据,根据虚拟效果数据呈现与真实场景中展示对象叠加的虚实结合的AR图像效果;展示设备也可以与云端服务器进行交互,通过预存在云端服务器的预设三维虚拟场景获得虚拟效果数据。下面结合在对展示对象进行展示的场景中,展示设备通过与服务器交互的方式获取虚拟效果数据,以呈现AR图像效果为例进行AR呈现系统的说明。
参见图1-1,图1-1是本公开实施例提供的AR呈现系统100的一个可选的架构示意图,为实现支撑一个展示应用,展示设备400(示例性示出了展示设备400-1和展示设备400-2)通过网络300连接服务器200,网络300可以是广域网或者局域网,又或者是二者的组合。在真实的展示场景中,如动物园展示场景,或者水族馆展示场景等,展示设备400可以是设置于当前展示区域周边的展示设备。
展示设备400用于通过内置或外接的图像采集装置采集当前展示区域的监控视频;基于监控视频中包括的展示对象,确定与展示对象匹配的虚拟效果数据;并在展示设备400的图形界面410中与展示对象关联的展示位置处渲染的虚拟效果数据对应的虚拟效果;如此,实现虚拟效果与真实场景中展示对象相叠加的增强现实AR效果。
在一些实施例中,服务器200可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN、以及大数据和人工智能平台等基础云计算服务的云服务器。展示设备400可以是智能手机、平板电脑、笔记本电脑、台式计算机、智能音箱、智能手表等,但并不局限于此。展示设备以及服务器可以通过有线或无线通信方式进行直接或间接地连接,本公开实施例中不做限制。
示例性的,下面对本公开实施例可适用的应用场景进行示例性说明。
图1-2为本公开实施例提供的一种应用场景的示意图,如图1-2所示,展示设备可以包括透明显示屏幕101,该透明显示屏幕101可以设置在真实场景(例如,动物园展示场景或水族馆展示场景)中展示区域102的周围,该透明显示屏幕101上配置有图像采集装置103,可以用于采集展示区域102的监控视频,且透明显示屏幕101上可以显示与展示区域内展示对象相关的虚拟效果。这样,用户可以观看到透明显示屏幕101上显示的虚拟效果,同时用户可以透过透明显示屏幕101看到位于透明显示屏幕后方的展示对象,从而实现虚拟效果与真实场景中展示对象相叠加的增强现实效果。这里,真实对象的虚拟效果可以是介绍真实对象的虚拟标签、真实对象的细节展示信息、虚拟对象中的至少一种。
基于上述AR呈现系统以及应用场景,对本公开实施例提供的一种增强现实的呈现方法进行描述,参考图2所示的增强现实的呈现方法流程示意图,本公开实施例提供的增强现实的呈现方法包括S210至S240。其中,
S210、获取展示区域的监控视频;展示区域的周边设置有展示设备,展示设备具有透明显示屏幕。
本公开实施例中提供的增强现实的呈现方法应用于展示设备中,本公开实施例中,展示设备具有透明显示屏幕,该透明显示屏幕可以是有机发光二级管(OrganicLight-Emitting Diode,OLED)屏幕。
在本公开的一些实施例中,可以在透明显示屏的一侧设置一个或者多个图像采集装置,以采集展示区域的监控视频。展示设备通过识别监控视频中的展示对象,在透明显示屏幕上显示展示对象对应的虚拟效果。这样,用户透过透明显示屏幕可以观看到位于透明显示屏后面的展示对象,并从透明显示屏上观看到叠加在展示对象上的虚拟效果,如此,实现真实场景与虚拟效果相叠加的增强现实AR效果。
这里,展示对象可以是真实场景中需要进行展示和介绍的对象,例如动物园中的动物,或者水族馆中的水生生物。
示例性的,参考图3-1所示的显示界面示意图,在水族馆展示场景中,用户可以透过透明显示屏幕观看到位于透明显示屏幕后面的鱼类31,并从透明显示屏幕上观看到叠加在真实场景中的虚拟讲解员32。如此,实现真实场景与虚拟效果相叠加的增强现实AR效果。
在本公开的一些实施例中,透明显示屏幕可以是由多个OLED屏幕拼接构成。
对应的,在本公开的一些实施例中,多个OLED屏幕中的每个OLED屏幕设置有图像采集装置,图像采集装置用于采集OLED屏幕对应展示子区域的监控视频。
也就是说,本公开实施例中,展示设备可以控制每个OLED屏幕上设置的图像采集装置,采集该OLED屏幕对应的展示子区域的监控视频。
在一种可能的实现方式中,展示设备可以将每个图像采集装置采集的展示子区域的监控视频进行拼接,得到整个展示区域的监控视频。具体地,展示设备可以将每个监控视频采集时间相同的图像帧,按照图像采集装置之间的位置关系进行拼接,得到整个展示区域的监控视频。
在另一种可能的实现方式中,展示设备可以对每个展示子区域的监控视频进行相同的识别处理,并将得到的多个识别结果映射至整个展示区域所处的坐标系中,如此,得到每个展示子区域中的识别结果,在整个展示区域的相关信息。示例性的,展示设备可以将各个展示子区域中目标展示对象的位置信息,映射到整个展示区域的坐标系下,得到目标展示对象在整个展示区域下的移动位置信息。
需要说明的是,本公开实施例中设置于透明显示屏幕上的图像采集装置可以是固定摄像头,也可以是可移动摄像头。本公开实施例这里对图像采集装置的类型不做限定。
S220、基于监控视频,识别展示区域内的目标展示对象的属性信息。
这里,属性信息包括目标展示对象的标识信息以及移动位置信息。
本公开实施例中,展示设备可以对监控视频中出现的任意一个展示对象进行图像识别,得到该展示对象的标识信息和移动位置信息,这样,展示设备可以基于展示对象的标识信息,确定展示对象的类别,基于展示对象的移动位置信息,确定展示对象的移动路线以及移动方向等信息。
这里,需要说明的是,通过多个图像采集装置采集每个展示子区域的监控视频时,展示设备可以对每个展示子区域的监控视频中目标展示对象进行检测,将每个展示子区域的检测结果,依次映射至整个展示区域的坐标系中,如此,得到目标展示对象在整个展示区域的位置信息。
本公开的一些实施例中,展示设备可以基于交互信息,从监控视频内包含的多个展示对象中,确定目标展示对象。目标展示对象可以是监控视频中多个展示对象中的一个或者多个,本申请实施例对此不做限定。
这里,交互信息可以是交互对象发出的,用于指定监控视频中一个或者多个展示对象。交互对象是指能够与展示设备进行信息交互的对象,例如,交互对象可以是观看展示设备中显示内容的游客,本公开实施例这里对交互对象不做限定。
在本公开实施例中,展示设备在获取到交互信息后,响应该交互信息,对交互信息指定的目标展示对象进行识别,得到该目标展示对象的标识信息和移动位置信息。
S230、获取与目标展示对象的属性信息匹配的虚拟效果数据。
本公开实施例中,展示设备可以基于展示对象的属性信息,获取与该展示对象属性信息匹配的虚拟效果数据。虚拟效果数据能够构成目标展示对象的虚拟效果,叠加至目标展示对象上,以实现增强现实的效果。
这里,虚拟效果数据包括渲染数据和显示数据;其中,渲染数据可以是通过渲染工具渲染出虚拟效果的渲染参数;显示数据是指渲染数据渲染后得到虚拟效果在透明显示屏中的显示数参数。
本公开实施例中,展示设备可以基于目标展示对象属性信息中的标识信息,获取目标展示对象的渲染数据,同时,展示设备可以基于目标展示对象属性信息中的移动位置信息,获取渲染数据对应的显示数据。
在本公开的一些实施例中,渲染数据可以包括以下至少之一:
虚拟对象、虚拟内容介绍、虚拟标签、虚拟物体细节模型。
其中,虚拟对象,是指能够与位于展示设备前的交互对象进行交互的虚拟对象,例如虚拟讲解员,虚拟机器人等。参考图3-1所示的一种示例性的展示设备的显示界面示意图,虚拟对象可以是对展示区域中目标展示对象鱼类31进行讲解的虚拟讲解员32。
虚拟内容介绍,可以是音视频内容,具体是指虚拟对象对目标展示对象进行讲解时的播放的讲解内容。
虚拟标签,是针对展示区域中目标展示对象相关的附加信息的展示;例如,参考图3-2所示的一种示例性的展示设备的显示界面示意图,虚拟标签可以是展示区域中鱼类31对应的详细介绍信息33,其中,详细介绍信息33可以是“为适应水下环境,鲸类的前肢进化为鳍,后肢退化,并生出水平的尾鳍。鼻孔移生至头顶,须每隔一段时间将鼻孔露出水面置换氧气”。
虚拟物体细节模型,是指对真实场景图像中真实对象的虚拟化的细节展示;例如,参考图3-3所示的一种示例性的展示设备的显示界面示意图,虚拟物体细节模型可以是展示区域中目标展示对象鱼类31体内的脊柱的细节展示图34。
另外,在本公开的一些实施例中,显示数据可以包括渲染数据对应的显示角度、显示尺寸、和显示姿态中的至少一个,以及渲染数据对应的目标展示位置。
本公开实施例中,展示设备可以基于目标展示对象的移动位置信息,来确定显示数据。也就是说,显示数据可以与目标展示对象的移动位置信息相互匹配,渲染数据渲染后形成的虚拟效果的目标展示位置、显示角度、显示尺寸、以及显示形态可以随着目标展示对象的移动而不断变化。
示例性的,参考3-2所示的显示界面示意图,渲染数据为目标展示对象鱼类31的虚拟标签,虚拟标签的目标展示位置可以随着鱼类31的游动而改变。
S240、在透明显示屏幕中的目标展示位置展示虚拟效果数据,目标展示位置与目标展示对象的移动位置信息相匹配。
本公开实施例中,通过S230确定了渲染数据,以及渲染数据对应的显示数据后,显示设备可以基于显示数据对渲染数据进行渲染,得到目标展示对象的虚拟效果数据。进一步,展示设备在透明显示屏幕的目标展示位置,展示该虚拟效果数据。
这样,用户可以透过透明显示屏幕欣赏位于透明显示屏幕后侧的目标展示对象,同时用户还可以看到透明显示屏幕上渲染出的目标展示对象的虚拟效果,如此,可以实现虚拟效果与真实场景中展示对象相互叠加的增强现实的效果。
另外,本公开实施例中虚拟效果数据的目标展示位置是由目标展示对象的移动位置信息确定的,因此,虚拟效果数据的展示位置可以随着目标展示对象位置的变化而变化,这样,可以保证虚拟效果数据的展示位置与目标展示对象的实时移动位置相匹配,进一步提高虚拟效果数据呈现的灵活性。
由此可见,在本公开实施例提供的增强现实的呈现方法中,展示设备可以获取展示区域的监控视频,展示区域的周边设置有展示设备,展示设备具有透明显示屏幕;接着,基于监控视频,识别展示区域内的目标展示对象的属性信息,属性信息包括目标展示对象的标识信息以及移动位置信息;获取与目标展示对象的属性信息匹配的虚拟效果数据;在透明显示屏幕中的目标展示位置展示所述虚拟效果数据,目标展示位置与目标展示对象的移动位置信息相匹配;这样,在透明显示屏幕上显示目标展示对象对应的虚拟效果数据,同时虚拟效果数据在透明显示屏幕的目标展示位置可以随着目标展示对象的实时移动位置而改变,如此,增强了真实场景中对物体展示的丰富性,同时提高了展示的灵活性和趣味性。
在本公开的一些实施例中,目标展示对象的属性信息包括目标展示对象的标识信息、以及目标展示对象的移动位置信息。另外,虚拟效果数据可以包括渲染数据、以及渲染数据对应的显示数据。
对应的,上述步骤S230中获取与目标展示对象的属性信息匹配的虚拟效果数据,可以通过以下步骤实现:
S2301、基于目标展示对象的标识信息,获取与标识信息匹配的渲染数据。
在本公开的一些实施例中,展示设备可以基于目标展示对象的标识信息,从预设渲染数据库中获取与标识信息匹配的所述渲染数据;
其中,预设渲染数据库用于存储多个标识信息与渲染数据之间的映射关系。
可以理解的是,展示设备可以预先建立预设渲染数据库,并设置数据库中多个渲染数据与多个标识信息之间的映射对应关系。这样,展示设备在识别到目标展示对象的标识信息后,可以根据映射关系找到该标识信息对应的渲染数据的信息。进而,根据该渲染数据的信息,从预设渲染数据库中获取该渲染数据。
在本公开的另一些实施例中,展示设备也可以向云端服务器发送标识信息,并接收云端服务器返回的与标识信息匹配的渲染数据。
可以理解的是,展示设备在识别到目标展示对象的标识信息后,将该标识信息发送给云端服务器,云端服务器可以基于该标识信息返回渲染数据。
S2302、基于目标展示对象的移动位置信息,确定渲染数据对应的显示数据。
本公开实施例中,显示数据可以包括目标展示位置。
下面详细介绍确定目标展示位置的方式。
在本公开实施例中,基于目标展示对象的移动位置信息,确定渲染数据对应的目标展示位置,可以通过以下步骤实现:
S23021、获取第一映射关系;第一映射关系为监控视频中每帧图像所处的第一坐标系、与透明显示屏幕所处的第二坐标系之间的坐标对应关系。
实际应用中,监控视频是通过图像采集装置采集得到,而图像采集装置设置于透明显示屏幕的侧边,采集的是非垂直视角的真实场景图像(例如俯视图、侧视图等)。而用户透过透明显示屏幕观看到的是真实对象的正视图。因此,通过图像采集装置采集到的监控视频中每帧图像的视角,与用户观看透明显示屏的视角不同。
因此,并不能直接将监控视频中获取到的目标展示对象的移动位置信息,设置为渲染数据在透明显示屏中的目标展示位置。还需要对监控视频中目标展示对象的移动位置信息进行坐标转换,得到目标展示对象在透明显示屏幕中真实的移动位置,来确定目标真实对象的渲染数据的目标展示位置。
这里,第一映射关系可以是展示设备提前根据采集监控视频的图像采集装置、与透明显示屏幕之间的角度以及位置关系确定的,并保存在展示设备中的。
S23022、基于第一映射关系,将目标展示对象在第一坐标系中的移动位置信息,转换到第二坐标系中,得到转换后的移动位置信息。
可以理解的是,通过第一映射关系,可以将目标展示对象在监控视频每帧图像中的移动位置,转换到透明显示屏幕中,得到目标展示对象在透明显示屏幕的坐标系中的移动位置信息,即转换后的移动位置信息。
S23023、基于转换后的移动位置信息,确定渲染数据在第二坐标系中的目标展示位置。
这里,展示设备确定了目标展示对象在透明显示屏幕中的移动位置信息(即转换后的移动位置信息)后,可以基于该转换后的移动位置信息,确定渲染数据在透明显示屏幕中的目标展示位置。
示例性的,展示设备可以确定与转换后的移动位置信息相距预设距离的区域为目标展示位置。
可以理解的是,目标展示位置位于目标展示对象移动位置的预设范围内,目标展示位置可以随着目标展示对象的移动而移动。
由此可见,展示设备可以基于目标展示对象的移动位置信息,确定目标展示对象的虚拟效果数据在透明显示屏幕中的目标展示位置,使得虚拟效果数据的目标展示位置与目标展示对象的移动位置相匹配。
基于前述实施例,在本公开的一些实施例中,渲染数据为虚拟对象时,渲染数据对应的显示数据还可以包括虚拟对象肢体的显示角度和/或显示姿态。
具体地,显示角度可以是虚拟对象在透明显示屏幕中进行展示时肢体的旋转角度,例如,虚拟对象脸部的旋转角度、手臂的旋转角度等。显示姿态是指虚拟对象的讲解手势、运动步伐等。
对应的,S2302基于目标展示对象的移动位置信息,确定渲染数据的显示数据,还可以通过以下方式来实现:
S23024、基于目标展示对象的移动位置信息,确定虚拟对象肢体的显示角度和/或显示姿态。
也就是说,本公开实施例中,展示设备可以识别目标展示对象的移动位置信息,并基于目标展示对象的实时移动位置信息确定当前虚拟对象肢体的显示角度、和/或显示姿态。
示例性的,目标展示对象从透明显示屏幕的左侧移动至右侧时,参考图4-1所示,虚拟对象32的身体可以朝向透明显示屏幕的右侧,对目标展示对象进行讲解;或者,参考图4-2所示,虚拟对象32的手臂指向透明显示屏幕的右侧,对目标展示对象进行讲解。
由此可见,展示设备可以基于目标展示对象的实时移动位置信息,确定虚拟对象肢体的显示角度,以及显示姿态,提高显示的灵活性和趣味性。
基于前述实施例,本公开实施例中,目标展示对象的移动位置信息可以包括:移动方向信息;
对应的,S2302d中基于目标展示对象的移动位置信息,确定虚拟对象肢体的显示角度和/或显示姿态,还可以通过以下方式来实现:
基于目标展示对象的移动方向信息,确定虚拟对象肢体的显示角度为面向移动方向信息的角度;
和/或,
基于标展示对象的移动方向信息,确定虚拟对象肢体的显示姿态为朝向移动方向信息运动的姿态。
也就是说,展示设备可以基于目标展示对象的移动方向,确定虚拟对象在透明显示屏幕中显示时,虚拟对象肢体的朝向,和/或肢体的姿态。
在一示例中,当目标展示对象从透明显示屏的左侧向右侧移动时,参考图4-1所示,虚拟对象的脸部以及身体朝向透明显示屏幕的右侧,或者,参考图4-2所示,虚拟对象的右手臂抬起,手掌指向目标展示对象。
在另一示例中,当目标展示对象从透明显示屏的左侧向右侧移动时,参考图4-1所示,虚拟对象可以朝向透明显示屏右侧显示走路的姿态,并且虚拟对象的位置随着目标展示对象的位置向右移动。
基于前述实施例,本公开实施例中,目标展示对象的移动位置信息还可以包括:移动起始位置信息;
对应的,S23024中基于目标展示对象的移动位置信息,确定虚拟对象肢体的显示角度和/或显示姿态,还可以通过以下方式来实现:
在目标展示对象从移动起始位置信息处开始移动时,确定虚拟对象肢体的显示角度,从第一角度,逐渐旋转至面向移动方向信息的角度;第一角度为虚拟对象面向交互对象的角度;
和/或,
在目标展示对象从移动启示位置信息处开始移动时,确定虚拟对象肢体的显示姿态,从第一姿态,改变为面向移动方向信息运动的姿态;第一姿态为虚拟对象面向交互对象讲解时的姿态。
可以理解的是,目标展示对象不移动的时候,虚拟对象默认的显示角度为第一角度,即面向交互对象的角度;虚拟对象默认的显示姿态为第一姿态,即面向交互对象讲解时的姿态。
也就是说,当目标展示对象开始移动的时候,虚拟对象可以从当前面向交互对象的角度,逐渐旋转至面向移动方向的角度;例如,目标展示对象开始从透明显示屏幕的左侧移动至右侧时,虚拟对象的身体可以从面向交互对象的角度,旋转到面向透明显示屏幕右侧。
当目标展示对象开始移动的时候,虚拟对象可以从当前面向交互对象讲解的姿态,调整至面向移动方向运动的姿态;例如,目标展示对象开始从透明显示屏幕的左侧移动至右侧时,虚拟对象可以从面向交互对象讲解的姿态,改变为面向透明显示屏幕右侧行走的姿态。
基于前述实施例,本公开实施例中,目标展示对象的移动位置信息还可以包括:移动终止位置信息;
对应的,S23024中基于目标展示对象的移动位置信息,确定虚拟对象肢体的显示角度和/或显示姿态,还可以通过以下方式来实现:
在目标展示对象移动至移动终止位置信息处,确定虚拟对象肢体的显示角度,从面向移动方向信息的角度,逐渐旋转至第一角度;
和/或,
在目标展示对象移动至移动终止位置信息处,确定虚拟对象的显示姿态,从面向移动方向信息运动的姿态,改变为第一姿态。
可以理解的是,当目标展示对象停止移动的时候,虚拟对象可以从当前的面向目标展示对象移动方向的角度,逐渐旋转至面向交互对象的角度;例如,目标展示对象从透明显示屏幕的左侧移动至右侧终止位置时,虚拟对象的身体可以从面向透明显示屏幕右侧的方向,旋转至面向交互对象。
当目标展示对象开始移动的时候,虚拟对象可以从当前面向目标展示对象移动方向运动的姿态,调整至面交互对象讲解的姿态;例如,目标展示对象开始从透明显示屏幕的左侧移动至右侧终止位置时,虚拟对象可以从面向透明显示屏幕右侧行走的姿态,改变为面向交互对象讲解的姿态。
在本公开实施例中,S220、基于监控视频,识别展示区域内的目标展示对象的属性信息之前,还包括以下步骤:
S250、获取交互信息;交互信息用于指定展示区域内多个展示对象的任意一个展示对象;
S260、根据交互信息,将交互信息所指定的展示对象确定为目标展示对象。
在本公开实施例中,展示设备可以接收交互对象发出的交互信息,交互信息可以用于指示监控视频中多个展示对象中的一个或者多个目标展示对象。
在本公开的一些实施例中,交互信息可以包括:触摸操作;
对应的,S260根据交互信息,将交互信息所指定的展示对象确定为目标展示对象,可以通过以下步骤实现:
S2601a、获取作用于透明显示屏幕上的触摸操作,确定触摸操作在透明显示屏幕上对应的第一位置信息;
S2602a、基于第一映射关系,将第一位置信息映射至监控视频的每帧图像所处的第一坐标系中,得到第二位置信息;
S2603a、将监控视频中,第二位置信息处的对象,确定为目标展示对象。
这里,第一映射关系是指监控视频中每帧图像所处的第一坐标系、与透明显示屏幕所处的第二坐标系之间的坐标对应关系。
实际应用中,图像采集装置位于透明显示屏幕的一侧,图像采集装置通常采集的是非垂直视角的图像(例如俯视图、侧视图等)。然而,用户透过透明显示屏幕观看到的是展示对象的正视图。因此,并不能直接根据触摸操作在透明显示屏幕上的位置,来确定监控视频中的目标展示对象;而是需要对当前监控视频中每帧图像所处的第一坐标系,与当前透明显示屏幕的第二坐标系进行坐标转换,来确定触摸操作所指示的目标真实对象。
本公开实施例中,展示设备可以基于预设映射关系对作用在透明显示屏幕的触摸操作的位置进行坐标转换,得到触摸操作在监控视频图像帧的第二位置信息。展示设备将第二位置信息处的展示对象,确定为目标展示对象。
在本公开实施例中,触控操作可以包括点击操作、长按操作、滑动操作等等,本申请实施例对此不做限定。
示例性的,交互信息可以为滑动操作;对应的,S260根据交互信息,将交互信息所指定的展示对象确定为目标展示对象,可以通过以下步骤实现:
S2601b、获取作用于透明显示屏幕上的滑动操作,并确定滑动操作终止时的第三位置信息;
S2602b、基于第一映射关系,将第三位置信息映射至监控视频的每帧图像所处的第一坐标系中,得到第四位置信息;
S2603b、将监控视频中,第四位置信息处的展示对象,确定为目标展示对象。
在本公开实施例中,交互信息可以是作用于透明显示屏幕上是滑动操作。展示设备可以根据滑动操作终止的位置,确定监控视频中的目标展示对象。
具体地,展示设备可以基于第一映射关系,将透明显示屏幕的第三位置信息,转换到监控视频的每帧图像所处的第一坐标系中,得到第四位置信息,并将第四位置信息处的展示对象,作为目标展示对象。
由此可见,交互对象可以通过对显示屏幕实施触控操作来与展示设备进行交互,提高了显示的趣味性。
在本公开的又一些实施例中,交互信息可以包括:手势操作;
对应的,S260根据交互信息,将交互信息所指定的展示对象确定为目标展示对象,可以通过以下步骤实现:
S2601c、识别手势操作,并基于预设手势操作与展示对象之间的对应关系,将手势操作对应的展示对象,确定为目标展示对象。
本公开实施例中,展示设备还可以包括前置图像采集装置,通过前置图像采集装置采集交互对象的手势操作。
这里,展示设备可以对前置图像采集装置采集的图像内容进行识别处理,确定用户的手势操作,并基于手势操作确定监控视频中的目标展示对象。
示例性的,展示设备识别到交互对象的手势显示“1”,即认为交互对象期望了解当前监控视频图像帧中右侧第一个展示对象,这样,展示设备可以根据该“1”手势,确定右侧第一个展示对象对目标展示对象。
由此可见,展示设备可以识别交互对象的手势操作,基于该手势操作与交互对象进行交互,提高了显示的趣味性。
基于前述实施例,本公开实施例提供一种增强现实的呈现装置,该增强现实的呈现装置可以应用于上文所述的展示设备中,图5为本公开实施例提供的增强现实的呈现装置的组成结构示意图,如图5所示,所述装置500包括:
第一获取单元501,用于获取展示区域的监控视频,所述展示区域的周边设置有展示设备,所述展示设备具有透明显示屏幕;
处理单元502,用于基于所述监控视频,识别所述展示区域内的目标展示对象的属性信息,所述属性信息包括目标展示对象的标识信息以及移动位置信息;
第二获取单元503,用于获取与所述目标展示对象的属性信息匹配的虚拟效果数据;
展示单元504,用于在所述透明显示屏幕中的目标展示位置展示所述虚拟效果数据,所述目标展示位置与所述目标展示对象的移动位置信息相匹配。
在本公开的一些实施例中,所述虚拟效果数据包括渲染数据和显示数据;
所述渲染数据包括虚拟对象、虚拟标签、虚拟内容介绍、以及虚拟细节模型中的至少一个;
所述显示数据包括所述渲染数据对应的显示角度、显示尺寸、和显示姿态中的至少一个,以及所述渲染数据对应的目标展示位置。
在本公开的一些实施例中,第二获取单元503,具体用于基于所述目标展示对象的标识信息,获取与所述标识信息匹配的所述渲染数据;基于所述目标展示对象的所述移动位置信息,确定所述渲染数据对应的所述显示数据。
在本公开的一些实施例中,第二获取单元503,具体用于获取第一映射关系;所述第一映射关系为所述监控视频中每帧图像所处的第一坐标系、与所述透明显示屏幕所处的第二坐标系之间的坐标对应关系;基于所述第一映射关系,将所述目标展示对象在所述第一坐标系中的移动位置信息,转换到所述第二坐标系中,得到转换后的移动位置信息;基于所述转换后的移动位置信息,确定所述渲染数据在所述第二坐标系中的所述目标展示位置。
在本公开的一些实施例中,第二获取单元503,还用于确定与所述转换后的移动位置信息相距预设距离的区域为所述目标展示位置。。
在本公开的一些实施例中,所述渲染数据为虚拟对象;
第二获取单元503,还用于基于所述目标展示对象的移动位置信息,确定所述虚拟对象肢体的显示角度和/或显示姿态。
在本公开的一些实施例中,所述移动位置信息包括:移动方向信息;
第二获取单元503,还用于基于所述目标展示对象的移动方向信息,确定所述虚拟对象肢体的显示角度为面向所述移动方向信息的角度;和/或,基于所述标展示对象的移动方向信息,确定所述虚拟对象肢体的显示姿态为朝向所述移动方向信息运动的姿态。
在本公开的一些实施例中,所述移动位置信息还包括:移动起始位置信息;
第二获取单元503,还用于在所述目标展示对象从所述移动起始位置信息处开始移动时,确定所述虚拟对象肢体的显示角度,从第一角度,逐渐旋转至面向所述移动方向信息的角度;所述第一角度为所述虚拟对象面向交互对象的角度;和/或,在所述目标展示对象从所述移动启示位置信息处开始移动时,确定所述虚拟对象肢体的显示姿态,从第一姿态,改变为面向所述移动方向信息运动的姿态;所述第一姿态为所述虚拟对象面向交互对象讲解时的姿态。
在本公开的一些实施例中,所述移动位置信息还包括:移动终止位置信息;
第二获取单元503,还用于在所述目标展示对象移动至所述移动终止位置信息处,确定所述虚拟对象肢体的显示角度,从面向所述移动方向信息的角度,逐渐旋转至所述第一角度;和/或,在所述目标展示对象移动至所述移动终止位置信息处,确定所述虚拟对象的显示姿态,从面向所述移动方向信息运动的姿态,改变为所述第一姿态。
在本公开的一些实施例中,第二获取单元503,还用于基于所述目标展示对象的标识信息,从预设渲染数据库中获取与所述标识信息匹配的所述渲染数据;所述预设渲染数据库用于存储多个标识信息与渲染数据之间的映射关系;或者,向云端服务器发送所述标识信息,并接收所述云端服务器返回的与所述标识信息匹配的所述渲染数据。
在本公开的一些实施例中,所述装置还包括第三获取单元,用于获取交互信息;所述交互信息用于指定所述展示区域内多个展示对象的任意一个展示对象;
所述处理单元502,用于根据所述交互信息,将所述交互信息所指定的展示对象确定为所述目标展示对象。
在本公开的一些实施例中,所述交互信息包括:触摸操作;
处理单元502,具体用于获取作用于所述透明显示屏幕上的触摸操作,确定所述触摸操作在所述透明显示屏幕上对应的第一位置信息;基于第一映射关系,将所述第一位置信息映射至所述监控视频的每帧图像所处的第一坐标系中,得到第二位置信息;将所述监控视频中,所述第二位置信息处的展示对象,确定为所述目标展示对象。
在本公开的一些实施例中,所述交互信息包括:滑动操作;
处理单元502,具体用于获取作用于所述透明显示屏幕上的滑动操作,并确定所述滑动操作终止时的第三位置信息;基于第一映射关系,将所述第三位置信息映射至所述监控视频的每帧图像所处的第一坐标系中,得到第四位置信息;将所述监控视频中,所述第四位置信息处的展示对象,确定为所述目标展示对象。
在本公开的一些实施例中,处理单元502,具体用于识别所述手势操作,并基于预设手势操作与展示对象之间的对应关系,将所述手势操作对应的展示对象,确定为所述目标展示对象。
在本公开的一些实施例中,所述透明显示屏幕由多个有机发光二级管OLED屏幕拼接构成。
在本公开的一些实施例中,所述多个OLED屏幕的每个OLED屏幕上设置有图像采集装置,所述图像采集装置用于采集OLED屏幕对应展示子区域的监控视频。
需要说明的是,以上装置实施例的描述,与上述方法实施例的描述是类似的,具有同方法实施例相似的有益效果。对于本公开装置实施例中未披露的技术细节,请参照本公开方法实施例的描述而理解。
需要说明的是,本公开实施例中,如果以软件功能模块的形式实现上述的信息显示方法,并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。基于这样的理解,本公开实施例的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是终端、服务器等)执行本公开各个实施例所述方法的全部或部分。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read Only Memory,ROM)、磁碟或者光盘等各种可以存储程序代码的介质。这样,本公开实施例不限制于任何特定的硬件和软件结合。
相应的,本公开实施例再提供一种计算机存储介质,所述计算机存储介质上存储有计算机可执行指令,该计算机可执行指令用于实现上述实施例提供的增强现实的呈现方法的步骤。
相应的,本公开实施例提供一种展示设备,图6为本公开实施例展示设备的结构示意图,如图6所示,所述展示设备600包括:摄像头601、透明显示屏幕602;
存储器603,用于存储计算机程序;
处理器604,用于执行所述存储器603中存储的计算机程序时,结合所述摄像头601和所述透明显示屏幕602,实现上述实施例提供的增强现实的呈现方法的步骤。
展示设备600还包括:通信总线605。通信总线605配置为实现这些组件之间的连接通信。
以上计算机设备和存储介质实施例的描述,与上述方法实施例的描述是类似的,具有同方法实施例相似的有益效果。对于本公开计算机设备和存储介质实施例中未披露的技术细节,请参照本公开方法实施例的描述而理解。
应理解,说明书通篇中提到的“一个实施例”或“一实施例”意味着与实施例有关的特定特征、结构或特性包括在本公开的至少一个实施例中。因此,在整个说明书各处出现的“在一个实施例中”或“在一实施例中”未必一定指相同的实施例。此外,这些特定的特征、结构或特性可以任意适合的方式结合在一个或多个实施例中。应理解,在本公开的各种实施例中,上述各过程的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本公开实施例的实施过程构成任何限定。上述本公开实施例序号仅仅为了描述,不代表实施例的优劣。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
在本公开所提供的几个实施例中,应该理解到,所揭露的设备和方法,可以通过其它的方式实现。以上所描述的设备实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,如:多个单元或组件可以结合,或可以集成到另一个系统,或一些特征可以忽略,或不执行。另外,所显示或讨论的各组成部分相互之间的耦合、或直接耦合、或通信连接可以是通过一些接口,设备或单元的间接耦合或通信连接,可以是电性的、机械的或其它形式的。
上述作为分离部件说明的单元可以是、或也可以不是物理上分开的,作为单元显示的部件可以是、或也可以不是物理单元;既可以位于一个地方,也可以分布到多个网络单元上;可以根据实际的需要选择其中的部分或全部单元来实现本公开实施例方案的目的。
另外,在本公开各实施例中的各功能单元可以全部集成在一个处理单元中,也可以是各单元分别单独作为一个单元,也可以两个或两个以上单元集成在一个单元中;上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储于计算机可读取存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:移动存储设备、只读存储器(Read Only Memory,ROM)、磁碟或者光盘等各种可以存储程序代码的介质。或者,本公开上述集成的单元如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。基于这样的理解,本公开实施例的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机、服务器、或者网络设备等)执行本公开各个实施例所述方法的全部或部分。而前述的存储介质包括:移动存储设备、ROM、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本公开的具体实施方式,但本公开的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本公开揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本公开的保护范围之内。因此,本公开的保护范围应以所述权利要求的保护范围为准。
Claims (15)
1.一种增强现实的呈现方法,其特征在于,所述方法包括:
获取展示区域的监控视频,所述展示区域的周边设置有展示设备,所述展示设备具有透明显示屏幕;
基于所述监控视频,识别所述展示区域内的目标展示对象的属性信息,所述属性信息包括目标展示对象的标识信息以及移动位置信息;
获取与所述目标展示对象的属性信息匹配的虚拟效果数据;
在所述透明显示屏幕中的目标展示位置展示所述虚拟效果数据,所述目标展示位置与所述目标展示对象的移动位置信息相匹配。
2.根据权利要求1所述的方法,其特征在于,所述虚拟效果数据包括渲染数据和显示数据;
所述渲染数据包括虚拟对象、虚拟标签、虚拟内容介绍、以及虚拟细节模型中的至少一个;
所述显示数据包括所述渲染数据对应的显示角度、显示尺寸、和显示姿态中的至少一个,以及所述渲染数据对应的目标展示位置。
3.根据权利要求2所述的方法,其特征在于,所述获取与所述目标展示对象的属性信息匹配的虚拟效果数据,包括:
基于所述目标展示对象的标识信息,获取与所述标识信息匹配的所述渲染数据;
基于所述目标展示对象的所述移动位置信息,确定所述渲染数据对应的所述显示数据。
4.根据权利要求3所述的方法,其特征在于,基于所述目标展示对象的所述移动位置信息,确定所述渲染数据对应的目标展示位置,包括:
获取第一映射关系;所述第一映射关系为所述监控视频中每帧图像所处的第一坐标系、与所述透明显示屏幕所处的第二坐标系之间的坐标对应关系;
基于所述第一映射关系,将所述目标展示对象在所述第一坐标系中的移动位置信息,转换到所述第二坐标系中,得到转换后的移动位置信息;
基于所述转换后的移动位置信息,确定所述渲染数据在所述第二坐标系中的所述目标展示位置。
5.根据权利要求3或4所述的方法,其特征在于,所述渲染数据为虚拟对象;
所述基于所述目标展示对象的所述移动位置信息,确定所述渲染数据的所述显示数据,还包括:
基于所述目标展示对象的移动位置信息,确定所述虚拟对象肢体的显示角度和/或显示姿态。
6.根据权利要求5所述的方法,其特征在于,所述移动位置信息包括:移动方向信息;
所述基于所述目标展示对象的移动位置信息,确定所述虚拟对象肢体的显示角度和/或显示姿态,包括:
基于所述目标展示对象的移动方向信息,确定所述虚拟对象肢体的显示角度为面向所述移动方向信息的角度;
和/或,
基于所述标展示对象的移动方向信息,确定所述虚拟对象肢体的显示姿态为朝向所述移动方向信息运动的姿态。
7.根据权利要求6所述的方法,其特征在于,所述移动位置信息还包括:移动起始位置信息;
所述基于所述目标展示对象的移动位置信息,确定所述虚拟对象肢体的显示角度和/或显示姿态,包括:
在所述目标展示对象从所述移动起始位置信息处开始移动时,确定所述虚拟对象肢体的显示角度,从第一角度,逐渐旋转至面向所述移动方向信息的角度;所述第一角度为所述虚拟对象面向交互对象的角度;
和/或,
在所述目标展示对象从所述移动起始位置信息处开始移动时,确定所述虚拟对象肢体的显示姿态,从第一姿态,改变为面向所述移动方向信息运动的姿态;所述第一姿态为所述虚拟对象面向交互对象讲解时的姿态。
8.根据权利要求6所述的方法,其特征在于,所述移动位置信息还包括:移动终止位置信息;
所述基于所述目标展示对象的移动位置信息,确定所述虚拟对象肢体的显示角度和/或显示姿态,还包括:
在所述目标展示对象移动至所述移动终止位置信息处,确定所述虚拟对象肢体的显示角度,从面向所述移动方向信息的角度,逐渐旋转至所述第一角度;
和/或,
在所述目标展示对象移动至所述移动终止位置信息处,确定所述虚拟对象的显示姿态,从面向所述移动方向信息运动的姿态,改变为所述第一姿态。
9.根据权利要求1-8任一项所述的方法,其特征在于,所述基于所述监控视频,识别所述展示区域内的目标展示对象的属性信息之前,所述方法还包括:
获取交互信息;所述交互信息用于指定所述展示区域内多个展示对象的任意一个展示对象;
根据所述交互信息,将所述交互信息所指定的展示对象确定为所述目标展示对象。
10.根据权利要求9所述的方法,其特征在于,所述交互信息包括:作用于所述透明显示屏幕的触摸操作;
所述根据所述交互信息,将所述交互信息所指定的展示对象确定为所述目标展示对象,包括:
获取作用于所述透明显示屏幕上的触摸操作,确定所述触摸操作在所述透明显示屏幕上对应的第一位置信息;
基于第一映射关系,将所述第一位置信息映射至所述监控视频的每帧图像所处的第一坐标系中,得到第二位置信息;
将所述监控视频中,所述第二位置信息处的展示对象,确定为所述目标展示对象。
11.根据权利要求9所述的方法,其特征在于,所述交互信息包括:手势操作;
所述根据所述交互信息,将所述交互信息所指定的展示对象确定为所述目标展示对象,包括:
识别所述手势操作,并基于预设手势操作与展示对象之间的对应关系,将所述手势操作对应的展示对象,确定为所述目标展示对象。
12.根据权利要求1-11任一项所述的方法,其特征在于,所述透明显示屏幕由多个有机发光二级管OLED屏幕拼接构成;
所述多个OLED屏幕的每个OLED屏幕上设置有图像采集装置,所述图像采集装置用于采集OLED屏幕对应展示子区域的监控视频。
13.一种增强现实的呈现装置,其特征在于,所述图像显示装置包括:
第一获取单元,获取展示区域的监控视频,所述展示区域的周边设置有展示设备,所述展示设备具有透明显示屏幕;
处理单元,用于基于所述监控视频,识别所述展示区域内的目标展示对象的属性信息,所述属性信息包括目标展示对象的标识信息以及移动位置信息;
第二获取单元,用于获取与所述目标展示对象的属性信息匹配的虚拟效果数据;
展示单元,用于在所述透明显示屏幕中的目标展示位置展示所述虚拟效果数据,所述目标展示位置与所述目标展示对象的移动位置信息相匹配。
14.一种展示设备,其特征在于,所述展示设备包括摄像头、透明显示屏幕,处理器和用于存储能够在处理器上运行的计算机程序的存储器;
所述摄像头、所述透明显示屏幕、所述处理器和所述存储器通过通信总线连接;
其中,所述处理器结合所述摄像头和所述透明显示屏幕,运行所述计算机程序时,执行权利要求1至12任一项所述方法的步骤。
15.一种计算机可读存储介质,其特征在于,其上存储有计算机程序,所述计算机程序被处理器执行实现权利要求1至12任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011560190.4A CN112634773B (zh) | 2020-12-25 | 2020-12-25 | 增强现实的呈现方法、装置、展示设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011560190.4A CN112634773B (zh) | 2020-12-25 | 2020-12-25 | 增强现实的呈现方法、装置、展示设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112634773A true CN112634773A (zh) | 2021-04-09 |
CN112634773B CN112634773B (zh) | 2022-11-22 |
Family
ID=75324970
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011560190.4A Active CN112634773B (zh) | 2020-12-25 | 2020-12-25 | 增强现实的呈现方法、装置、展示设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112634773B (zh) |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103577788A (zh) * | 2012-07-19 | 2014-02-12 | 华为终端有限公司 | 增强现实的实现方法和装置 |
CN106250938A (zh) * | 2016-07-19 | 2016-12-21 | 易视腾科技股份有限公司 | 目标跟踪方法、增强现实方法及其装置 |
JP2016218974A (ja) * | 2015-05-26 | 2016-12-22 | イ,ウン−ミ | 拡張現実画像表示システムおよび拡張現実画像表示方法 |
CN107222529A (zh) * | 2017-05-22 | 2017-09-29 | 北京邮电大学 | 增强现实处理方法、web模块、终端和云端服务器 |
CN110119190A (zh) * | 2018-02-06 | 2019-08-13 | 广东虚拟现实科技有限公司 | 定位方法、装置、识别跟踪系统及计算机可读介质 |
JP2019179382A (ja) * | 2018-03-30 | 2019-10-17 | 株式会社スクウェア・エニックス | 情報処理プログラム、情報処理方法及び情報処理システム |
CN111198609A (zh) * | 2018-11-16 | 2020-05-26 | 广东虚拟现实科技有限公司 | 交互显示方法、装置、电子设备及存储介质 |
US20200260068A1 (en) * | 2017-10-26 | 2020-08-13 | Yeda Research And Development Co. Ltd. | Multi-layer viewing system and method |
CN111881861A (zh) * | 2020-07-31 | 2020-11-03 | 北京市商汤科技开发有限公司 | 一种展示方法、装置、设备及存储介质 |
CN111897431A (zh) * | 2020-07-31 | 2020-11-06 | 北京市商汤科技开发有限公司 | 展示方法及装置、显示设备、计算机可读存储介质 |
CN111918114A (zh) * | 2020-07-31 | 2020-11-10 | 北京市商汤科技开发有限公司 | 图像显示方法、装置、显示设备及计算机可读存储介质 |
CN112037314A (zh) * | 2020-08-31 | 2020-12-04 | 北京市商汤科技开发有限公司 | 图像显示方法、装置、显示设备及计算机可读存储介质 |
-
2020
- 2020-12-25 CN CN202011560190.4A patent/CN112634773B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103577788A (zh) * | 2012-07-19 | 2014-02-12 | 华为终端有限公司 | 增强现实的实现方法和装置 |
JP2016218974A (ja) * | 2015-05-26 | 2016-12-22 | イ,ウン−ミ | 拡張現実画像表示システムおよび拡張現実画像表示方法 |
CN106250938A (zh) * | 2016-07-19 | 2016-12-21 | 易视腾科技股份有限公司 | 目标跟踪方法、增强现实方法及其装置 |
CN107222529A (zh) * | 2017-05-22 | 2017-09-29 | 北京邮电大学 | 增强现实处理方法、web模块、终端和云端服务器 |
US20200260068A1 (en) * | 2017-10-26 | 2020-08-13 | Yeda Research And Development Co. Ltd. | Multi-layer viewing system and method |
CN110119190A (zh) * | 2018-02-06 | 2019-08-13 | 广东虚拟现实科技有限公司 | 定位方法、装置、识别跟踪系统及计算机可读介质 |
JP2019179382A (ja) * | 2018-03-30 | 2019-10-17 | 株式会社スクウェア・エニックス | 情報処理プログラム、情報処理方法及び情報処理システム |
CN111198609A (zh) * | 2018-11-16 | 2020-05-26 | 广东虚拟现实科技有限公司 | 交互显示方法、装置、电子设备及存储介质 |
CN111881861A (zh) * | 2020-07-31 | 2020-11-03 | 北京市商汤科技开发有限公司 | 一种展示方法、装置、设备及存储介质 |
CN111897431A (zh) * | 2020-07-31 | 2020-11-06 | 北京市商汤科技开发有限公司 | 展示方法及装置、显示设备、计算机可读存储介质 |
CN111918114A (zh) * | 2020-07-31 | 2020-11-10 | 北京市商汤科技开发有限公司 | 图像显示方法、装置、显示设备及计算机可读存储介质 |
CN112037314A (zh) * | 2020-08-31 | 2020-12-04 | 北京市商汤科技开发有限公司 | 图像显示方法、装置、显示设备及计算机可读存储介质 |
Non-Patent Citations (1)
Title |
---|
宋燕燕: "基于移动增强显示的产品互动展示系统设计", 《计算机与数字工程》 * |
Also Published As
Publication number | Publication date |
---|---|
CN112634773B (zh) | 2022-11-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110515452B (zh) | 图像处理方法、装置、存储介质和计算机设备 | |
US10460512B2 (en) | 3D skeletonization using truncated epipolar lines | |
CN111881861B (zh) | 一种展示方法、装置、设备及存储介质 | |
CN105981076B (zh) | 合成增强现实环境的构造 | |
CN108830894A (zh) | 基于增强现实的远程指导方法、装置、终端和存储介质 | |
Langlotz et al. | Online creation of panoramic augmented reality annotations on mobile phones | |
CN110457414A (zh) | 离线地图处理、虚拟对象显示方法、装置、介质和设备 | |
CN106875431B (zh) | 具有移动预测的图像追踪方法及扩增实境实现方法 | |
KR20140082610A (ko) | 휴대용 단말을 이용한 증강현실 전시 콘텐츠 재생 방법 및 장치 | |
JP6750046B2 (ja) | 情報処理装置及び情報処理方法 | |
CN112037314A (zh) | 图像显示方法、装置、显示设备及计算机可读存储介质 | |
KR20130016318A (ko) | 비디오 시퀀스에 기록되는 실제 엔티티에 대한 실시간 크로핑 방법 | |
CN111833458B (zh) | 图像显示方法及装置、设备、计算机可读存储介质 | |
CN108594999A (zh) | 用于全景图像展示系统的控制方法和装置 | |
CN109688343A (zh) | 增强现实演播室的实现方法和装置 | |
CN110473293A (zh) | 虚拟对象处理方法及装置、存储介质和电子设备 | |
CN110168615A (zh) | 信息处理设备、信息处理方法和程序 | |
CN112308977B (zh) | 视频处理方法、视频处理装置和存储介质 | |
JP6656382B2 (ja) | マルチメディア情報を処理する方法及び装置 | |
Schütt et al. | Semantic interaction in augmented reality environments for microsoft hololens | |
CN111833457A (zh) | 图像处理方法、设备及存储介质 | |
CN114332374A (zh) | 一种虚拟显示方法、设备以及存储介质 | |
CN110737414B (zh) | 交互显示方法、装置、终端设备及存储介质 | |
CN111340848A (zh) | 对目标区域的对象跟踪方法、系统、设备及介质 | |
JP7419003B2 (ja) | 情報表示装置、情報表示方法及び情報表示システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |