CN108037863A - 一种显示图像的方法和装置 - Google Patents
一种显示图像的方法和装置 Download PDFInfo
- Publication number
- CN108037863A CN108037863A CN201711315256.1A CN201711315256A CN108037863A CN 108037863 A CN108037863 A CN 108037863A CN 201711315256 A CN201711315256 A CN 201711315256A CN 108037863 A CN108037863 A CN 108037863A
- Authority
- CN
- China
- Prior art keywords
- image
- world object
- range information
- real
- scene
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
- H04N21/4728—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/24—Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- Human Computer Interaction (AREA)
- Databases & Information Systems (AREA)
- Signal Processing (AREA)
- User Interface Of Digital Computer (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Processing Or Creating Images (AREA)
- Information Transfer Between Computers (AREA)
Abstract
本公开是关于一种显示图像的方法和装置,属于电子技术领域。所述方法包括:在AR视频显示过程中,接收对目标真实物体的图像进行上层显示的设置指令;拍摄到场景图像帧时,确定目标真实物体的图像在场景图像帧中的图像范围信息;基于图像范围信息,在场景图像帧中获取目标真实物体的图像;将预设的目标虚拟物体的图像设置在场景图像帧的上层,并基于图像范围信息,将目标真实物体的图像,设置在目标虚拟物体的图像和场景图像帧的上层,得到AR图像帧,显示AR图像帧。采用本公开,目标虚拟物体的图像可以显示在场景图像的上层。增加了显示的多样性,使得显示方式可以灵活应用于多种应用环境中。
Description
技术领域
本公开是关于电子技术领域,尤其是关于一种显示图像的方法和装置。
背景技术
随着科技的发展,AR(Augmented Reality,增强现实)技术被越来越广泛地应用到人们的生活中。用户可以通过手机中安装的AR APP来体验AR视觉效果。当用户开启AR APP时,手机会调起摄像头的拍摄功能来获取环境中的场景图像,并将场景图像显示在AR APP的界面的中。用户可以在AR APP界面的边界处显示的多个虚拟物体的图像中点击选择一个目标虚拟物体的图像,然后该目标虚拟物体的图像就会显示在场景图像的上层。
在实现本公开的过程中,发明人发现至少存在以下问题:
目标虚拟物体的图像只能在场景图像的上层显示。这样的显示方式较为单一,不能灵活适用于多种应用环境中。
发明内容
为了克服相关技术中存在的问题,本公开提供了以下技术方案:
根据本公开实施例的第一方面,提供一种显示图像的方法,所述方法包括:
在AR视频显示过程中,接收对目标真实物体的图像进行上层显示的设置指令;
拍摄到场景图像帧时,确定所述目标真实物体的图像在所述场景图像帧中的图像范围信息;
基于所述图像范围信息,在所述场景图像帧中获取所述目标真实物体的图像;
将预设的目标虚拟物体的图像设置在所述场景图像帧的上层,并基于所述图像范围信息,将所述目标真实物体的图像,设置在所述目标虚拟物体的图像和所述场景图像帧的上层,得到AR图像帧,显示所述AR图像帧。
在上述过程中,目标虚拟物体的图像可以显示在场景图像的上层。增加了显示的多样性,使得显示方式可以灵活应用于多种应用环境中。
可选地,所述接收对目标真实物体的图像进行上层显示的设置指令之前,所述方法还包括:拍摄到场景图像帧时,向服务器上传拍摄到的场景图像帧,接收所述服务器发送的所述上传的场景图像帧中的至少一个真实物体的图像的图像范围信息和对应的物体标识;
所述接收对目标真实物体的图像进行上层显示的设置指令,包括:接收触碰信号触发的设置指令,所述触碰信号的位置在当前显示的场景图像帧中目标真实物体的的图像的图像范围信息所指示的区域内;
所述接收对目标真实物体的图像进行上层显示的设置指令之后,所述方法还包括:根据所述服务器发送的当前场景图像帧中的至少一个真实物体的图像的图像范围信息和对应的物体标识,以及所述目标真实物体的的图像的图像范围信息,确定所述目标真实物体的物体标识;向所述服务器发送所述目标真实物体的物体标识;
所述拍摄到场景图像帧时,确定所述目标真实物体的图像在所述场景图像帧中的图像范围信息,包括:拍摄到场景图像帧时,向所述服务器上传拍摄到的场景图像帧,接收所述服务器发送的所述上传的场景图像帧中的所述目标真实物体的的图像的图像范围信息。
图像范围信息可以包括真实物体的轮廓在场景图像帧中的坐标、真实物体在场景图像帧中所占的像素点的坐标。
可选地,所述方法还包括:
在显示所述上传的场景图像帧时,根据至少一个真实物体的图像的图像范围信息,显示所述至少一个真实物体中每个真实物体对应的选择框。
可选地,所述基于所述图像范围信息,在所述场景图像帧中获取所述目标真实物体的图像,包括:
获取所述目标虚拟物体的图像的图像范围信息;
如果根据所述目标虚拟物体的图像的图像范围信息和所述目标真是物体的图像的图像范围信息,确定所述目标虚拟物体和所述目标真实物体存在图像交叠,则基于所述图像范围信息,在所述场景图像帧中获取所述目标真实物体的图像。
在实施中,如果目标虚拟物体和目标真实物体存在图像交叠,终端在接收对目标真实物体的图像进行上层显示的设置指令时,可以将存在图像交叠的属于目标真实物体的图像部分进行显示,将存在图像交叠的属于目标虚拟物体的图像部分进行隐藏。然而,如果目标虚拟物体和目标真实物体不存在图像交叠,终端可以在接收对目标真实物体的图像进行上层显示的设置指令时,忽略设置指令不进行任何操作。
根据本公开实施例的第二方面,提供一种显示图像的方法,所述方法包括:
当接收到终端在AR视频显示过程中发送的场景图像帧时,识别所述场景图像帧中包含的至少一个真实物体的图像的图像范围信息,并为每个真实物体分配物体标识;
向所述终端发送所述至少一个真实物体的图像的图像范围信息和对应的物体标识;
当接收到所述终端发送的目标真实物体的物体标识时,在当前接收的场景图像帧中,根据所述目标真实物体的物体标识对应的图像范围信息,获取所述目标真实物体的图像;
当再次接收到所述终端发送的场景图像帧时,根据所述目标真实物体的图像,确定再次接收到的场景图像帧中的目标真实物体的图像的图像范围信息;
向所述终端发送所述目标真实物体的图像的图像范围信息。
在上述过程中,目标虚拟物体的图像可以显示在场景图像的上层。增加了显示的多样性,使得显示方式可以灵活应用于多种应用环境中。在实施中,为了对目标真实物体的图像进行进行追踪,首先服务器需要获取目标真实物体的图像,接着可以提取目标真实物体的图像的第一特征。提取再次接收到终端发送的场景图像帧的第二特征。在第二特征中查找与第一特征匹配度高于预设阈值的特征,以确定目标真实物体的图像在再次接收到的场景图像帧中的图像范围信息。服务器可以向终端发送目标真实物体的图像的图像范围信息。
根据本公开实施例的第三方面,提供一种显示图像的装置,所述装置包括:
第一接收模块,用于在AR视频显示过程中,接收对目标真实物体的图像进行上层显示的设置指令;
第一确定模块,用于拍摄到场景图像帧时,确定所述目标真实物体的图像在所述场景图像帧中的图像范围信息;
获取模块,用于基于所述图像范围信息,在所述场景图像帧中获取所述目标真实物体的图像;
第一显示模块,用于将预设的目标虚拟物体的图像设置在所述场景图像帧的上层,并基于所述图像范围信息,将所述目标真实物体的图像,设置在所述目标虚拟物体的图像和所述场景图像帧的上层,得到AR图像帧,显示所述AR图像帧。
可选地,所述装置还包括上传模块和第二接收模块:所述上传模块用于拍摄到场景图像帧时,向服务器上传拍摄到的场景图像帧,所述第二接收模块用于接收所述服务器发送的所述上传的场景图像帧中的至少一个真实物体的图像的图像范围信息和对应的物体标识;
所述第一接收模块用于接收触碰信号触发的设置指令,所述触碰信号的位置在当前显示的场景图像帧中目标真实物体的的图像的图像范围信息所指示的区域内;
所述装置还包括第二确定模块和发送模块:所述第二确定模块用于根据所述服务器发送的当前场景图像帧中的至少一个真实物体的图像的图像范围信息和对应的物体标识,以及所述目标真实物体的的图像的图像范围信息,确定所述目标真实物体的物体标识;所述发送模块用于向所述服务器发送所述目标真实物体的物体标识;
所述第一确定模块用于拍摄到场景图像帧时,向所述服务器上传拍摄到的场景图像帧,接收所述服务器发送的所述上传的场景图像帧中的所述目标真实物体的的图像的图像范围信息。
可选地,所述装置还包括:
第二显示模块,用于在显示所述上传的场景图像帧时,根据至少一个真实物体的图像的图像范围信息,显示所述至少一个真实物体中每个真实物体对应的选择框。
可选地,所述获取模块包括:
获取单元,用于获取所述目标虚拟物体的图像的图像范围信息;
确定单元,用于当根据所述目标虚拟物体的图像的图像范围信息和所述目标真是物体的图像的图像范围信息,确定所述目标虚拟物体和所述目标真实物体存在图像交叠时,基于所述图像范围信息,在所述场景图像帧中获取所述目标真实物体的图像。
根据本公开实施例的第四方面,提供一种显示图像的装置,所述装置包括:
识别模块,用于当接收到终端在AR视频显示过程中发送的场景图像帧时,识别所述场景图像帧中包含的至少一个真实物体的图像的图像范围信息,并为每个真实物体分配物体标识;
第一发送模块,用于向所述终端发送所述至少一个真实物体的图像的图像范围信息和对应的物体标识;
获取模块,用于当接收到所述终端发送的目标真实物体的物体标识时,在当前接收的场景图像帧中,根据所述目标真实物体的物体标识对应的图像范围信息,获取所述目标真实物体的图像;
确定模块,用于当再次接收到所述终端发送的场景图像帧时,根据所述目标真实物体的图像,确定再次接收到的场景图像帧中的目标真实物体的图像的图像范围信息;
第二发送模块,用于向所述终端发送所述目标真实物体的图像的图像范围信息。
根据本公开实施例的第五方面,提供一种显示图像的系统,所述系统包括终端和服务器;
所述终端,用于在AR视频显示过程中,接收对目标真实物体的图像进行上层显示的设置指令;拍摄到场景图像帧时,确定所述目标真实物体的图像在所述场景图像帧中的图像范围信息;基于所述图像范围信息,在所述场景图像帧中获取所述目标真实物体的图像;将预设的目标虚拟物体的图像设置在所述场景图像帧的上层,并基于所述图像范围信息,将所述目标真实物体的图像,设置在所述目标虚拟物体的图像和所述场景图像帧的上层,得到AR图像帧,显示所述AR图像帧;
所述服务器,用于当接收到终端在AR视频显示过程中发送的场景图像帧时,识别所述场景图像帧中包含的至少一个真实物体的图像的图像范围信息,并为每个真实物体分配物体标识;向所述终端发送所述至少一个真实物体的图像的图像范围信息和对应的物体标识;当接收到所述终端发送的目标真实物体的物体标识时,在当前接收的场景图像帧中,根据所述目标真实物体的物体标识对应的图像范围信息,获取所述目标真实物体的图像;当再次接收到所述终端发送的场景图像帧时,根据所述目标真实物体的图像,确定再次接收到的场景图像帧中的目标真实物体的图像的图像范围信息;向所述终端发送所述目标真实物体的图像的图像范围信息。
根据本公开实施例的第六方面,提供一种终端,所述终端包括处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现上述显示图像的方法。
根据本公开实施例的第七方面,提供一种计算机可读存储介质,所述存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由处理器加载并执行以实现上述显示图像的方法。
根据本公开实施例的第八方面,提供一种服务器,所述服务器包括处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现上述显示图像的方法。
根据本公开实施例的第九方面,提供一种计算机可读存储介质,所述存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由处理器加载并执行以实现上述显示图像的方法。
本公开的实施例提供的技术方案可以包括以下有益效果:
本公开实施例提供的方法,在AR视频显示过程中,接收对目标真实物体的图像进行上层显示的设置指令;拍摄到场景图像帧时,确定目标真实物体的图像在场景图像帧中的图像范围信息;基于图像范围信息,在场景图像帧中获取目标真实物体的图像;将预设的目标虚拟物体的图像设置在场景图像帧的上层,并基于图像范围信息,将目标真实物体的图像,设置在目标虚拟物体的图像和场景图像帧的上层,得到AR图像帧,显示AR图像帧。在上述过程中,目标虚拟物体的图像可以显示在场景图像的上层。增加了显示的多样性,使得显示方式可以灵活应用于多种应用环境中。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。在附图中:
图1是根据一示例性实施例示出的一种显示图像的方法的流程图示意图;
图2是根据一示例性实施例示出的一种AR应用程序界面示意图;
图3是根据一示例性实施例示出的一种AR应用程序界面示意图;
图4是根据一示例性实施例示出的一种AR应用程序界面示意图;
图5是根据一示例性实施例示出的一种显示图像的装置的结构示意图;
图6是根据一示例性实施例示出的一种显示图像的装置的结构示意图;
图7是根据一示例性实施例示出的一种显示图像的装置的结构示意图;
图8是根据一示例性实施例示出的一种终端的结构示意图;
图9是根据一示例性实施例示出的一种服务器的结构示意图。
通过上述附图,已示出本公开明确的实施例,后文中将有更详细的描述。这些附图和文字描述并不是为了通过任何方式限制本公开构思的范围,而是通过参考特定实施例为本领域技术人员说明本公开的概念。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。
本公开实施例提供了一种显示图像的方法,该方法可以由终端和服务器共同实现。
其中,终端可以是手机、平板电脑、台式计算机、笔记本计算机等。
终端可以包括处理器、存储器等部件。处理器,可以为CPU(Central ProcessingUnit,中央处理单元)等,可以用于接收对目标真实物体的图像进行上层显示的设置指令,等处理。存储器,可以为RAM(Random Access Memory,随机存取存储器),Flash(闪存)等,可以用于存储接收到的数据、处理过程所需的数据、处理过程中生成的数据等,如图像范围信息等。
终端还可以包括收发器、输入部件、显示部件、音频输出部件等。收发器,可以用于与服务器进行数据传输,例如,可以向服务器发送场景图像帧,收发器可以包括蓝牙部件、WiFi(Wireless-Fidelity,无线高保真技术)部件、天线、匹配电路、调制解调器等。输入部件可以是触摸屏、键盘、鼠标等。音频输出部件可以是音箱、耳机等。
终端中可以安装有系统程序和应用程序。用户在使用终端的过程中,基于自己的不同需求,会使用各种各样的应用程序。终端中可以安装有具备展示AR视频的应用程序。
其中,服务器可以包括处理器、存储器等部件。处理器,可以为CPU等,可以用于识别场景图像帧中包含的至少一个真实物体的图像的图像范围信息,并为每个真实物体分配物体标识,等处理。存储器,可以为RAM,Flash等,可以用于存储接收到的数据、处理过程所需的数据、处理过程中生成的数据等,如场景图像帧等。
服务器还可以包括收发器部件等。收发器,可以用于与终端进行数据传输,例如,可以向终端发送场景图像帧,收发器可以包括蓝牙部件、WiFi部件、天线、匹配电路、调制解调器等。
本公开一示例性实施例提供了一种显示图像的方法,如图1所示,该方法适用于终端中,处理流程可以包括如下的步骤:
步骤S110,终端在AR视频显示过程中,接收对目标真实物体的图像进行上层显示的设置指令。
在实施中,终端可以安装有用于展示AR视频的应用程序,当用户触摸点击该应用程序的图标时,启动该应用程序。当启动该应用程序时,终端开启摄像头,通过摄像头实时捕捉摄像头所对的场景的场景图像帧。终端将场景图像帧实时上传至服务器。
可选地,在步骤S110之前,本实施例提供的方法还包括:拍摄到场景图像帧时,终端向服务器上传拍摄到的场景图像帧,接收服务器发送的上传的场景图像帧中的至少一个真实物体的图像的图像范围信息和对应的物体标识。
相应地,当接收到终端在AR视频显示过程中发送的场景图像帧时,服务器识别场景图像帧中包含的至少一个真实物体的图像的图像范围信息,并为每个真实物体分配物体标识。
例如,服务器接收到第一帧的场景图像帧,可以对其中的真实物体的图像进行识别,为每个识别到的物体分配物体标识。还可以在接收到第二帧的场景图像帧时,对其中的真实物体的图像进行识别,由于第一帧和第二帧时间相隔很近,因此很有可能图像不会产生较大的变化,因此第一帧和第二帧中可能存在相同的真实物体。此时,可以分别单独为第一帧和第二帧的每个真实物体分配物体标识。当然,也可以将第二帧中识别出的真实物体的图像与第一帧识别出的真实物体的图像进行匹配,若匹配度大于预设阈值,则认为两个真实物体为同一个物体,可以为它们分配同一个物体标识。
在实施中,服务器接收到场景图像帧后,可以将场景图像帧输入到训练好的识别模型中,识别模型基于输入的场景图像帧,可以输出在场景图像帧中识别到的至少一个真实物体的图像的图像范围信息。其中,识别模型是基于大量的训练样本进行训练的。训练样本包括输入的图像与正确输出的结果。其中,图像范围信息可以包括真实物体的轮廓在场景图像帧中的坐标、真实物体在场景图像帧中所占的像素点的坐标。
可选地,服务器向终端发送至少一个真实物体的图像的图像范围信息和对应的物体标识。此时,终端中存在上传的场景图像帧中的至少一个真实物体的图像的图像范围信息和对应的物体标识。
步骤S120,终端拍摄到场景图像帧时,确定目标真实物体的图像在场景图像帧中的图像范围信息。
在实施中,目标真实物体的图像在场景图像帧中的图像范围信息,可以是从服务器获取的。
可选地,终端在显示上传的场景图像帧时,根据至少一个真实物体的图像的图像范围信息,显示至少一个真实物体中每个真实物体对应的选择框。
在实施中,如图2所示,场景图像帧是关于卧室的一个场景,其中,服务器识别出了床、床头灯、沙发。终端在接收到床、床头灯、沙发的图像的图像范围信息之后,将床、床头灯、沙发的图像用选择框圈出。
在实施中,用户在终端的屏幕上可以查看在场景图像帧中的至少一个真实物体中每个真实物体对应的选择框。当真实物体有选择框时,可以对其进行上层显示的设置。
在实施中,如图3所示,当用户选了侧边栏中提供的目标虚拟物体“小狗”,虚拟小狗的图像会显示在场景图像帧的上层。可选地,终端接收触碰信号触发的设置指令,触碰信号的位置在当前显示的场景图像帧中目标真实物体的的图像的图像范围信息所指示的区域内。当用户点击拖动虚拟小狗到目标真实物体“床”并覆盖床的一部分图像,用户可以点击床的图像轮廓之内的区域,此时触发生成对目标真实物体的图像进行上层显示的设置指令。
可选地,在接收对目标真实物体的图像进行上层显示的设置指令之后,本实施例提供的方法还包括:根据服务器发送的当前场景图像帧中的至少一个真实物体的图像的图像范围信息和对应的物体标识,以及目标真实物体的的图像的图像范围信息,确定目标真实物体的物体标识;向服务器发送目标真实物体的物体标识。
在实施中,例如,服务器识别出了床、床头灯、沙发,分别为床、床头灯、沙发分配物体标识为001、003、005。服务器将床、床头灯、沙发的图像的图像范围信息和对应的物体标识都发送至终端。当终端检测到用户点击了目标真实物体“床”的图像范围信息所指示的区域,触发生成对目标真实物体的图像进行上层显示的设置指令。此时,终端可以确定床的物体标识为001,向服务器发送物体标识001。
相应地,当接收到终端发送的目标真实物体的物体标识时,服务器在当前接收的场景图像帧中,根据目标真实物体的物体标识对应的图像范围信息,获取目标真实物体的图像。
在实施中,例如,服务器接收到终端发送的床的物体标识001时,服务器在当前接收的场景图像帧中,根据床的物体标识001对应的图像范围信息,获取床的图像。需要说明的是,当前接收的场景图像帧可以为获知终端接收对目标真实物体的图像进行上层显示的设置指令之前接收到的一帧图像。确定目标真实物体的图像的意图是,当用户在终端中对目标真实物体的图像进行设置之后,由于拍摄的是视频,因此目标真实物体的图像在不同的场景图像帧中位置可能会有偏差。而当用户在终端中对目标真实物体的图像进行设置之后,无需关心场景图像帧中其他真实物体的图像的情况,只需要对目标真实物体的图像进行追踪,以告知终端,目标真实物体的图像的图像范围信息即可。
可选地,当再次接收到终端发送的场景图像帧时,根据目标真实物体的图像,确定再次接收到的场景图像帧中的目标真实物体的图像的图像范围信息。
在实施中,为了对目标真实物体的图像进行进行追踪,首先服务器需要获取目标真实物体的图像,接着可以提取目标真实物体的图像的第一特征。提取再次接收到终端发送的场景图像帧的第二特征。在第二特征中查找与第一特征匹配度高于预设阈值的特征,以确定目标真实物体的图像在再次接收到的场景图像帧中的图像范围信息。服务器可以向终端发送目标真实物体的图像的图像范围信息。
可选地,步骤S120可以包括:拍摄到场景图像帧时,终端向服务器上传拍摄到的场景图像帧,接收服务器发送的上传的场景图像帧中的目标真实物体的的图像的图像范围信息。
在实施中,终端可以接收服务器发送的上传的场景图像帧中的目标真实物体的的图像的图像范围信息。
步骤S130,终端基于图像范围信息,在场景图像帧中获取目标真实物体的图像。
在实施中,终端可以基于图像范围信息,在场景图像帧中获取目标真实物体的图像。
步骤S140,终端将预设的目标虚拟物体的图像设置在场景图像帧的上层,并基于图像范围信息,将目标真实物体的图像,设置在目标虚拟物体的图像和场景图像帧的上层,得到AR图像帧,显示AR图像帧。
在实施中,终端可以将预设的目标虚拟物体的图像放置在第一图层,场景图像帧放置在第二图层,目标真实物体的图像放置在第三图层。终端可以设置第三图层在最上层,第一图层在中间,第二图层在最下层。在设置好后,将图层进行叠加,显示最终效果,最终效果可见图4。需要说明的是,例如在图4的这种场景中,如果小狗的图像显示在床的图像的上层,则不具有真实性。如果可以通过本实施例所述的方法将小狗的图像显示在床的图像的下层,则从视觉上可以给用户小狗藏到了床后的真实感。
可选地,上述步骤S130可以包括:终端获取目标虚拟物体的图像的图像范围信息;如果根据目标虚拟物体的图像的图像范围信息和目标真是物体的图像的图像范围信息,确定目标虚拟物体和目标真实物体存在图像交叠,则基于图像范围信息,在场景图像帧中获取目标真实物体的图像。
在实施中,如果目标虚拟物体和目标真实物体存在图像交叠,终端在接收对目标真实物体的图像进行上层显示的设置指令时,可以将存在图像交叠的属于目标真实物体的图像部分进行显示,将存在图像交叠的属于目标虚拟物体的图像部分进行隐藏。然而,如果目标虚拟物体和目标真实物体不存在图像交叠,终端可以在接收对目标真实物体的图像进行上层显示的设置指令时,忽略设置指令不进行任何操作。
本公开实施例提供的方法,在AR视频显示过程中,接收对目标真实物体的图像进行上层显示的设置指令;拍摄到场景图像帧时,确定目标真实物体的图像在场景图像帧中的图像范围信息;基于图像范围信息,在场景图像帧中获取目标真实物体的图像;将预设的目标虚拟物体的图像设置在场景图像帧的上层,并基于图像范围信息,将目标真实物体的图像,设置在目标虚拟物体的图像和场景图像帧的上层,得到AR图像帧,显示AR图像帧。在上述过程中,目标虚拟物体的图像可以显示在场景图像的上层。增加了显示的多样性,使得显示方式可以灵活应用于多种应用环境中。
本公开又一示例性实施例提供了一种显示图像的装置,如图5所示,该装置包括:
第一接收模块510,用于在AR视频显示过程中,接收对目标真实物体的图像进行上层显示的设置指令;
第一确定模块520,用于拍摄到场景图像帧时,确定所述目标真实物体的图像在所述场景图像帧中的图像范围信息;
获取模块530,用于基于所述图像范围信息,在所述场景图像帧中获取所述目标真实物体的图像;
第一显示模块540,用于将预设的目标虚拟物体的图像设置在所述场景图像帧的上层,并基于所述图像范围信息,将所述目标真实物体的图像,设置在所述目标虚拟物体的图像和所述场景图像帧的上层,得到AR图像帧,显示所述AR图像帧。
可选地,所述装置还包括上传模块和第二接收模块:所述上传模块用于拍摄到场景图像帧时,向服务器上传拍摄到的场景图像帧,所述第二接收模块用于接收所述服务器发送的所述上传的场景图像帧中的至少一个真实物体的图像的图像范围信息和对应的物体标识;
所述第一接收模块510用于接收触碰信号触发的设置指令,所述触碰信号的位置在当前显示的场景图像帧中目标真实物体的的图像的图像范围信息所指示的区域内;
所述装置还包括第二确定模块和发送模块:所述第二确定模块用于根据所述服务器发送的当前场景图像帧中的至少一个真实物体的图像的图像范围信息和对应的物体标识,以及所述目标真实物体的的图像的图像范围信息,确定所述目标真实物体的物体标识;所述发送模块用于向所述服务器发送所述目标真实物体的物体标识;
所述第一确定模块520用于拍摄到场景图像帧时,向所述服务器上传拍摄到的场景图像帧,接收所述服务器发送的所述上传的场景图像帧中的所述目标真实物体的的图像的图像范围信息。
可选地,所述装置还包括:
第二显示模块,用于在显示所述上传的场景图像帧时,根据至少一个真实物体的图像的图像范围信息,显示所述至少一个真实物体中每个真实物体对应的选择框。
可选地,如图6所示,所述获取模块530包括:
获取单元631,用于获取所述目标虚拟物体的图像的图像范围信息;
确定单元632,用于当根据所述目标虚拟物体的图像的图像范围信息和所述目标真是物体的图像的图像范围信息,确定所述目标虚拟物体和所述目标真实物体存在图像交叠时,基于所述图像范围信息,在所述场景图像帧中获取所述目标真实物体的图像。
本公开又一示例性实施例提供了一种显示图像的装置,如图7所示,该装置包括:
识别模块710,用于当接收到终端在AR视频显示过程中发送的场景图像帧时,识别所述场景图像帧中包含的至少一个真实物体的图像的图像范围信息,并为每个真实物体分配物体标识;
第一发送模块720,用于向所述终端发送所述至少一个真实物体的图像的图像范围信息和对应的物体标识;
获取模块730,用于当接收到所述终端发送的目标真实物体的物体标识时,在当前接收的场景图像帧中,根据所述目标真实物体的物体标识对应的图像范围信息,获取所述目标真实物体的图像;
确定模块740,用于当再次接收到所述终端发送的场景图像帧时,根据所述目标真实物体的图像,确定再次接收到的场景图像帧中的目标真实物体的图像的图像范围信息;
第二发送模块750,用于向所述终端发送所述目标真实物体的图像的图像范围信息。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
目标虚拟物体的图像可以显示在场景图像的上层。增加了显示的多样性,使得显示方式可以灵活应用于多种应用环境中。
需要说明的是:上述实施例提供的显示图像的装置在显示图像时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将终端或服务器的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的显示图像的装置与显示图像的方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
本公开再一示例性实施例提供了一种显示图像的系统,所述系统包括终端和服务器。
所述终端,用于在AR视频显示过程中,接收对目标真实物体的图像进行上层显示的设置指令;拍摄到场景图像帧时,确定所述目标真实物体的图像在所述场景图像帧中的图像范围信息;基于所述图像范围信息,在所述场景图像帧中获取所述目标真实物体的图像;将预设的目标虚拟物体的图像设置在所述场景图像帧的上层,并基于所述图像范围信息,将所述目标真实物体的图像,设置在所述目标虚拟物体的图像和所述场景图像帧的上层,得到AR图像帧,显示所述AR图像帧;
所述服务器,用于当接收到终端在AR视频显示过程中发送的场景图像帧时,识别所述场景图像帧中包含的至少一个真实物体的图像的图像范围信息,并为每个真实物体分配物体标识;向所述终端发送所述至少一个真实物体的图像的图像范围信息和对应的物体标识;当接收到所述终端发送的目标真实物体的物体标识时,在当前接收的场景图像帧中,根据所述目标真实物体的物体标识对应的图像范围信息,获取所述目标真实物体的图像;当再次接收到所述终端发送的场景图像帧时,根据所述目标真实物体的图像,确定再次接收到的场景图像帧中的目标真实物体的图像的图像范围信息;向所述终端发送所述目标真实物体的图像的图像范围信息。
关于上述实施例中的系统,其中终端和服务器执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
本公开再一示例性实施例示出了一种终端的结构示意图。
参照图8,终端800可以包括以下一个或多个组件:处理组件802,存储器804,电源组件806,多媒体组件808,音频组件810,输入/输出(I/O)的接口812,传感器组件814,以及通信组件816。
处理组件802通常控制终端800的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理元件802可以包括一个或多个处理器820来执行指令,以完成上述的方法的全部或部分步骤。此外,处理组件802可以包括一个或多个模块,便于处理组件802和其他组件之间的交互。例如,处理部件802可以包括多媒体模块,以方便多媒体组件808和处理组件802之间的交互。
存储器804被配置为存储各种类型的数据以支持在终端800的操作。这些数据的示例包括用于在终端800上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器804可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电力组件806为终端800的各种组件提供电力。电力组件806可以包括电源管理系统,一个或多个电源,及其他与为音频输出设备800生成、管理和分配电力相关联的组件。
多媒体组件808包括在所述终端800和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件808包括一个前置摄像头和/或后置摄像头。当终端800处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜系统或具有焦距和光学变焦能力。
音频组件810被配置为输出和/或输入音频信号。例如,音频组件810包括一个麦克风(MIC),当音频输出设备800处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器804或经由通信组件816发送。
I/O接口812为处理组件802和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件814包括一个或多个传感器,用于为终端800提供各个方面的状态评估。例如,传感器组件814可以检测到终端800的打开/关闭状态,组件的相对定位,例如所述组件为终端800的显示器和小键盘,传感器组件814还可以检测终端800或终端800一个组件的位置改变,用户与终端800接触的存在或不存在,终端800方位或加速/减速和终端800的温度变化。传感器组件814可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件814还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件814还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件816被配置为便于终端800和其他设备之间有线或无线方式的通信。终端800可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个示例性实施例中,通信部件816经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,所述通信部件816还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,终端800可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述方法。
在示例性实施例中,还提供了一种包括指令的计算机可读存储介质,例如包括指令的存储器804,上述指令可由终端800的处理器820执行以完成上述方法。例如,所述计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
本公开的又一实施例提供了一种计算机可读存储介质,当所述存储介质中的指令由终端的处理器执行时,使得终端能够执行:
在AR视频显示过程中,接收对目标真实物体的图像进行上层显示的设置指令;
拍摄到场景图像帧时,确定所述目标真实物体的图像在所述场景图像帧中的图像范围信息;
基于所述图像范围信息,在所述场景图像帧中获取所述目标真实物体的图像;
将预设的目标虚拟物体的图像设置在所述场景图像帧的上层,并基于所述图像范围信息,将所述目标真实物体的图像,设置在所述目标虚拟物体的图像和所述场景图像帧的上层,得到AR图像帧,显示所述AR图像帧。
可选地,所述接收对目标真实物体的图像进行上层显示的设置指令之前,所述方法还包括:拍摄到场景图像帧时,向服务器上传拍摄到的场景图像帧,接收所述服务器发送的所述上传的场景图像帧中的至少一个真实物体的图像的图像范围信息和对应的物体标识;
所述接收对目标真实物体的图像进行上层显示的设置指令,包括:接收触碰信号触发的设置指令,所述触碰信号的位置在当前显示的场景图像帧中目标真实物体的的图像的图像范围信息所指示的区域内;
所述接收对目标真实物体的图像进行上层显示的设置指令之后,所述方法还包括:根据所述服务器发送的当前场景图像帧中的至少一个真实物体的图像的图像范围信息和对应的物体标识,以及所述目标真实物体的的图像的图像范围信息,确定所述目标真实物体的物体标识;向所述服务器发送所述目标真实物体的物体标识;
所述拍摄到场景图像帧时,确定所述目标真实物体的图像在所述场景图像帧中的图像范围信息,包括:拍摄到场景图像帧时,向所述服务器上传拍摄到的场景图像帧,接收所述服务器发送的所述上传的场景图像帧中的所述目标真实物体的的图像的图像范围信息。
可选地,所述方法还包括:
在显示所述上传的场景图像帧时,根据至少一个真实物体的图像的图像范围信息,显示所述至少一个真实物体中每个真实物体对应的选择框。
可选地,所述基于所述图像范围信息,在所述场景图像帧中获取所述目标真实物体的图像,包括:
获取所述目标虚拟物体的图像的图像范围信息;
如果根据所述目标虚拟物体的图像的图像范围信息和所述目标真是物体的图像的图像范围信息,确定所述目标虚拟物体和所述目标真实物体存在图像交叠,则基于所述图像范围信息,在所述场景图像帧中获取所述目标真实物体的图像。
图9是根据一示例性实施例示出的服务器1900的框图。例如,服务器1900可以被提供为一服务器。参照图9,服务器1900包括处理组件1922,其进一步包括一个或多个处理器,以及由存储器1932所代表的存储器资源,用于存储可由处理部件1922的执行的指令,例如应用程序。存储器1932中存储的应用程序可以包括一个或一个以上的每一个对应于一组指令的模块。此外,处理组件1922被配置为执行指令,以执行上述显示图像的方法。
服务器1900还可以包括一个电源组件1926被配置为执行服务器1900的电源管理,一个有线或无线网络接口1950被配置为将服务器1900连接到网络,和一个输入输出(I/O)接口1958。服务器1900可以操作基于存储在存储器1932的操作系统,例如WindowsServerTM,Mac OS XTM,UnixTM,LinuxTM,FreeBSDTM或类似。
服务器1900可以包括有存储器,以及一个或者一个以上的程序,其中一个或者一个以上程序存储于存储器中,且经配置以由一个或者一个以上处理器执行所述一个或者一个以上程序包含用于进行以下操作的指令:
当接收到终端在AR视频显示过程中发送的场景图像帧时,识别所述场景图像帧中包含的至少一个真实物体的图像的图像范围信息,并为每个真实物体分配物体标识;
向所述终端发送所述至少一个真实物体的图像的图像范围信息和对应的物体标识;
当接收到所述终端发送的目标真实物体的物体标识时,在当前接收的场景图像帧中,根据所述目标真实物体的物体标识对应的图像范围信息,获取所述目标真实物体的图像;
当再次接收到所述终端发送的场景图像帧时,根据所述目标真实物体的图像,确定再次接收到的场景图像帧中的目标真实物体的图像的图像范围信息;
向所述终端发送所述目标真实物体的图像的图像范围信息。
本领域技术人员在考虑说明书及实践这里公开的公开后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。
Claims (15)
1.一种显示图像的方法,其特征在于,所述方法包括:
在增强现实AR视频显示过程中,接收对目标真实物体的图像进行上层显示的设置指令;
拍摄到场景图像帧时,确定所述目标真实物体的图像在所述场景图像帧中的图像范围信息;
基于所述图像范围信息,在所述场景图像帧中获取所述目标真实物体的图像;
将预设的目标虚拟物体的图像设置在所述场景图像帧的上层,并基于所述图像范围信息,将所述目标真实物体的图像,设置在所述目标虚拟物体的图像和所述场景图像帧的上层,得到AR图像帧,显示所述AR图像帧。
2.根据权利要求1所述的方法,其特征在于,所述接收对目标真实物体的图像进行上层显示的设置指令之前,所述方法还包括:
拍摄到场景图像帧时,向服务器上传拍摄到的场景图像帧,接收所述服务器发送的所述上传的场景图像帧中的至少一个真实物体的图像的图像范围信息和对应的物体标识;
所述接收对目标真实物体的图像进行上层显示的设置指令,包括:接收触碰信号触发的设置指令,所述触碰信号的位置在当前显示的场景图像帧中目标真实物体的的图像的图像范围信息所指示的区域内;
所述接收对目标真实物体的图像进行上层显示的设置指令之后,所述方法还包括:根据所述服务器发送的当前场景图像帧中的至少一个真实物体的图像的图像范围信息和对应的物体标识,以及所述目标真实物体的的图像的图像范围信息,确定所述目标真实物体的物体标识;向所述服务器发送所述目标真实物体的物体标识;
所述拍摄到场景图像帧时,确定所述目标真实物体的图像在所述场景图像帧中的图像范围信息,包括:拍摄到场景图像帧时,向所述服务器上传拍摄到的场景图像帧,接收所述服务器发送的所述上传的场景图像帧中的所述目标真实物体的的图像的图像范围信息。
3.根据权利要求1所述的方法,其特征在于,所述方法还包括:
在显示所述上传的场景图像帧时,根据至少一个真实物体的图像的图像范围信息,显示所述至少一个真实物体中每个真实物体对应的选择框。
4.根据权利要求1所述的方法,其特征在于,所述基于所述图像范围信息,在所述场景图像帧中获取所述目标真实物体的图像,包括:
获取所述目标虚拟物体的图像的图像范围信息;
如果根据所述目标虚拟物体的图像的图像范围信息和所述目标真是物体的图像的图像范围信息,确定所述目标虚拟物体和所述目标真实物体存在图像交叠,则基于所述图像范围信息,在所述场景图像帧中获取所述目标真实物体的图像。
5.一种显示图像的方法,其特征在于,所述方法包括:
当接收到终端在AR视频显示过程中发送的场景图像帧时,识别所述场景图像帧中包含的至少一个真实物体的图像的图像范围信息,并为每个真实物体分配物体标识;
向所述终端发送所述至少一个真实物体的图像的图像范围信息和对应的物体标识;
当接收到所述终端发送的目标真实物体的物体标识时,在当前接收的场景图像帧中,根据所述目标真实物体的物体标识对应的图像范围信息,获取所述目标真实物体的图像;
当再次接收到所述终端发送的场景图像帧时,根据所述目标真实物体的图像,确定再次接收到的场景图像帧中的目标真实物体的图像的图像范围信息;
向所述终端发送所述目标真实物体的图像的图像范围信息。
6.一种显示图像的装置,其特征在于,所述装置包括:
第一接收模块,用于在AR视频显示过程中,接收对目标真实物体的图像进行上层显示的设置指令;
第一确定模块,用于拍摄到场景图像帧时,确定所述目标真实物体的图像在所述场景图像帧中的图像范围信息;
获取模块,用于基于所述图像范围信息,在所述场景图像帧中获取所述目标真实物体的图像;
第一显示模块,用于将预设的目标虚拟物体的图像设置在所述场景图像帧的上层,并基于所述图像范围信息,将所述目标真实物体的图像,设置在所述目标虚拟物体的图像和所述场景图像帧的上层,得到AR图像帧,显示所述AR图像帧。
7.根据权利要求6所述的装置,其特征在于,所述装置还包括上传模块和第二接收模块:所述上传模块用于拍摄到场景图像帧时,向服务器上传拍摄到的场景图像帧,所述第二接收模块用于接收所述服务器发送的所述上传的场景图像帧中的至少一个真实物体的图像的图像范围信息和对应的物体标识;
所述第一接收模块用于接收触碰信号触发的设置指令,所述触碰信号的位置在当前显示的场景图像帧中目标真实物体的的图像的图像范围信息所指示的区域内;
所述装置还包括第二确定模块和发送模块:所述第二确定模块用于根据所述服务器发送的当前场景图像帧中的至少一个真实物体的图像的图像范围信息和对应的物体标识,以及所述目标真实物体的的图像的图像范围信息,确定所述目标真实物体的物体标识;所述发送模块用于向所述服务器发送所述目标真实物体的物体标识;
所述第一确定模块用于拍摄到场景图像帧时,向所述服务器上传拍摄到的场景图像帧,接收所述服务器发送的所述上传的场景图像帧中的所述目标真实物体的的图像的图像范围信息。
8.根据权利要求6所述的装置,其特征在于,所述装置还包括:
第二显示模块,用于在显示所述上传的场景图像帧时,根据至少一个真实物体的图像的图像范围信息,显示所述至少一个真实物体中每个真实物体对应的选择框。
9.根据权利要求6所述的装置,其特征在于,所述获取模块包括:
获取单元,用于获取所述目标虚拟物体的图像的图像范围信息;
确定单元,用于当根据所述目标虚拟物体的图像的图像范围信息和所述目标真是物体的图像的图像范围信息,确定所述目标虚拟物体和所述目标真实物体存在图像交叠时,基于所述图像范围信息,在所述场景图像帧中获取所述目标真实物体的图像。
10.一种显示图像的装置,其特征在于,所述装置包括:
识别模块,用于当接收到终端在AR视频显示过程中发送的场景图像帧时,识别所述场景图像帧中包含的至少一个真实物体的图像的图像范围信息,并为每个真实物体分配物体标识;
第一发送模块,用于向所述终端发送所述至少一个真实物体的图像的图像范围信息和对应的物体标识;
获取模块,用于当接收到所述终端发送的目标真实物体的物体标识时,在当前接收的场景图像帧中,根据所述目标真实物体的物体标识对应的图像范围信息,获取所述目标真实物体的图像;
确定模块,用于当再次接收到所述终端发送的场景图像帧时,根据所述目标真实物体的图像,确定再次接收到的场景图像帧中的目标真实物体的图像的图像范围信息;
第二发送模块,用于向所述终端发送所述目标真实物体的图像的图像范围信息。
11.一种显示图像的系统,其特征在于,所述系统包括终端和服务器;
所述终端,用于在AR视频显示过程中,接收对目标真实物体的图像进行上层显示的设置指令;拍摄到场景图像帧时,确定所述目标真实物体的图像在所述场景图像帧中的图像范围信息;基于所述图像范围信息,在所述场景图像帧中获取所述目标真实物体的图像;将预设的目标虚拟物体的图像设置在所述场景图像帧的上层,并基于所述图像范围信息,将所述目标真实物体的图像,设置在所述目标虚拟物体的图像和所述场景图像帧的上层,得到AR图像帧,显示所述AR图像帧;
所述服务器,用于当接收到终端在AR视频显示过程中发送的场景图像帧时,识别所述场景图像帧中包含的至少一个真实物体的图像的图像范围信息,并为每个真实物体分配物体标识;向所述终端发送所述至少一个真实物体的图像的图像范围信息和对应的物体标识;当接收到所述终端发送的目标真实物体的物体标识时,在当前接收的场景图像帧中,根据所述目标真实物体的物体标识对应的图像范围信息,获取所述目标真实物体的图像;当再次接收到所述终端发送的场景图像帧时,根据所述目标真实物体的图像,确定再次接收到的场景图像帧中的目标真实物体的图像的图像范围信息;向所述终端发送所述目标真实物体的图像的图像范围信息。
12.一种终端,其特征在于,所述终端包括处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现如权利要求1-4任一所述的显示图像的方法。
13.一种计算机可读存储介质,其特征在于,所述存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由处理器加载并执行以实现如权利要求1-4任一所述的显示图像的方法。
14.一种服务器,其特征在于,所述服务器包括处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现如权利要求5所述的显示图像的方法。
15.一种计算机可读存储介质,其特征在于,所述存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由处理器加载并执行以实现如权利要求5所述的显示图像的方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711315256.1A CN108037863B (zh) | 2017-12-12 | 2017-12-12 | 一种显示图像的方法和装置 |
US16/201,094 US10783684B2 (en) | 2017-12-12 | 2018-11-27 | Method and device for displaying image |
EP18211569.1A EP3499906A1 (en) | 2017-12-12 | 2018-12-11 | Method and device for displaying image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711315256.1A CN108037863B (zh) | 2017-12-12 | 2017-12-12 | 一种显示图像的方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108037863A true CN108037863A (zh) | 2018-05-15 |
CN108037863B CN108037863B (zh) | 2021-03-30 |
Family
ID=62101837
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711315256.1A Active CN108037863B (zh) | 2017-12-12 | 2017-12-12 | 一种显示图像的方法和装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10783684B2 (zh) |
EP (1) | EP3499906A1 (zh) |
CN (1) | CN108037863B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021104194A1 (zh) * | 2019-11-29 | 2021-06-03 | 维沃移动通信有限公司 | 图像控制方法及电子设备 |
WO2022089100A1 (zh) * | 2020-10-31 | 2022-05-05 | 华为技术有限公司 | 视频透视方法、装置、系统、电子设备及存储介质 |
CN115002440A (zh) * | 2022-05-09 | 2022-09-02 | 北京城市网邻信息技术有限公司 | 基于ar的图像采集方法、装置、电子设备及存储介质 |
CN116700478A (zh) * | 2023-05-23 | 2023-09-05 | 星徒(上海)科技发展有限公司 | 基于增强现实的文本内容增强交互系统 |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11218639B1 (en) * | 2018-10-12 | 2022-01-04 | Staples, Inc. | Mobile interface for marking and organizing images |
KR102583682B1 (ko) * | 2019-03-14 | 2023-10-04 | 삼성전자주식회사 | 전자 장치 및 증강 현실 기반의 공유 정보 표시 방법 |
CN112013844B (zh) * | 2019-05-31 | 2022-02-11 | 北京小米智能科技有限公司 | 建立室内环境地图的方法及装置 |
CN110765525B (zh) * | 2019-10-18 | 2023-11-10 | Oppo广东移动通信有限公司 | 生成场景图片的方法、装置、电子设备及介质 |
CN110784733B (zh) * | 2019-11-07 | 2021-06-25 | 广州虎牙科技有限公司 | 直播数据处理方法、装置、电子设备及可读存储介质 |
CN111583415B (zh) * | 2020-05-08 | 2023-11-24 | 维沃移动通信有限公司 | 信息处理方法、装置和电子设备 |
CN113596350B (zh) * | 2021-07-27 | 2023-11-17 | 深圳传音控股股份有限公司 | 图像处理方法、移动终端及可读存储介质 |
US20230059007A1 (en) * | 2021-08-20 | 2023-02-23 | Adobe Inc. | Generating object-based layers for digital image editing using object classification machine learning models |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6166744A (en) * | 1997-11-26 | 2000-12-26 | Pathfinder Systems, Inc. | System for combining virtual images with real-world scenes |
US20120314942A1 (en) * | 2011-06-10 | 2012-12-13 | Microsoft Corporation | Determining foreground regions and background regions in an image |
CN103942049A (zh) * | 2014-04-14 | 2014-07-23 | 百度在线网络技术(北京)有限公司 | 增强现实的实现方法、客户端装置和服务器 |
CN105164731A (zh) * | 2013-03-14 | 2015-12-16 | 微软技术许可有限责任公司 | 将增强现实体验映射到各种环境 |
CN105931289A (zh) * | 2016-04-14 | 2016-09-07 | 大连新锐天地传媒有限公司 | 实现真实模型遮盖虚拟物体的系统及方法 |
CN105979099A (zh) * | 2016-06-28 | 2016-09-28 | 广东欧珀移动通信有限公司 | 在预览界面增加景物的方法、装置及拍照设备 |
US20170011558A1 (en) * | 2007-09-25 | 2017-01-12 | Metaio Gmbh | Method and apparatus for representing a virtual object in a real environment |
CN106527857A (zh) * | 2016-10-10 | 2017-03-22 | 成都斯斐德科技有限公司 | 一种基于虚拟现实的全景视频交互方法 |
CN106683161A (zh) * | 2016-12-13 | 2017-05-17 | 中国传媒大学 | 基于图像分割与自定义图层法的增强现实遮挡方法 |
US20170153787A1 (en) * | 2015-10-14 | 2017-06-01 | Globalive Xmg Jv Inc. | Injection of 3-d virtual objects of museum artifact in ar space and interaction with the same |
CN107204031A (zh) * | 2017-04-27 | 2017-09-26 | 腾讯科技(深圳)有限公司 | 信息展示方法及装置 |
CN107222529A (zh) * | 2017-05-22 | 2017-09-29 | 北京邮电大学 | 增强现实处理方法、web模块、终端和云端服务器 |
CN107229706A (zh) * | 2017-05-25 | 2017-10-03 | 广州市动景计算机科技有限公司 | 一种基于增强现实的信息获取方法及其装置 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10175483B2 (en) * | 2013-06-18 | 2019-01-08 | Microsoft Technology Licensing, Llc | Hybrid world/body locked HUD on an HMD |
CN106104635B (zh) * | 2013-12-06 | 2019-01-04 | 惠普发展公司,有限责任合伙企业 | 遮挡增强现实对象 |
US10147237B2 (en) * | 2016-09-21 | 2018-12-04 | Verizon Patent And Licensing Inc. | Foreground identification for virtual objects in an augmented reality environment |
KR20180042589A (ko) * | 2016-10-18 | 2018-04-26 | 디에스글로벌 (주) | 사용자 편집 이미지를 이용한 증강현실 콘텐츠 제공 방법 및 시스템 |
-
2017
- 2017-12-12 CN CN201711315256.1A patent/CN108037863B/zh active Active
-
2018
- 2018-11-27 US US16/201,094 patent/US10783684B2/en active Active
- 2018-12-11 EP EP18211569.1A patent/EP3499906A1/en active Pending
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6166744A (en) * | 1997-11-26 | 2000-12-26 | Pathfinder Systems, Inc. | System for combining virtual images with real-world scenes |
US20170011558A1 (en) * | 2007-09-25 | 2017-01-12 | Metaio Gmbh | Method and apparatus for representing a virtual object in a real environment |
US20120314942A1 (en) * | 2011-06-10 | 2012-12-13 | Microsoft Corporation | Determining foreground regions and background regions in an image |
CN105164731A (zh) * | 2013-03-14 | 2015-12-16 | 微软技术许可有限责任公司 | 将增强现实体验映射到各种环境 |
CN103942049A (zh) * | 2014-04-14 | 2014-07-23 | 百度在线网络技术(北京)有限公司 | 增强现实的实现方法、客户端装置和服务器 |
US20170153787A1 (en) * | 2015-10-14 | 2017-06-01 | Globalive Xmg Jv Inc. | Injection of 3-d virtual objects of museum artifact in ar space and interaction with the same |
CN105931289A (zh) * | 2016-04-14 | 2016-09-07 | 大连新锐天地传媒有限公司 | 实现真实模型遮盖虚拟物体的系统及方法 |
CN105979099A (zh) * | 2016-06-28 | 2016-09-28 | 广东欧珀移动通信有限公司 | 在预览界面增加景物的方法、装置及拍照设备 |
CN106527857A (zh) * | 2016-10-10 | 2017-03-22 | 成都斯斐德科技有限公司 | 一种基于虚拟现实的全景视频交互方法 |
CN106683161A (zh) * | 2016-12-13 | 2017-05-17 | 中国传媒大学 | 基于图像分割与自定义图层法的增强现实遮挡方法 |
CN107204031A (zh) * | 2017-04-27 | 2017-09-26 | 腾讯科技(深圳)有限公司 | 信息展示方法及装置 |
CN107222529A (zh) * | 2017-05-22 | 2017-09-29 | 北京邮电大学 | 增强现实处理方法、web模块、终端和云端服务器 |
CN107229706A (zh) * | 2017-05-25 | 2017-10-03 | 广州市动景计算机科技有限公司 | 一种基于增强现实的信息获取方法及其装置 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021104194A1 (zh) * | 2019-11-29 | 2021-06-03 | 维沃移动通信有限公司 | 图像控制方法及电子设备 |
WO2022089100A1 (zh) * | 2020-10-31 | 2022-05-05 | 华为技术有限公司 | 视频透视方法、装置、系统、电子设备及存储介质 |
CN115002440A (zh) * | 2022-05-09 | 2022-09-02 | 北京城市网邻信息技术有限公司 | 基于ar的图像采集方法、装置、电子设备及存储介质 |
CN116700478A (zh) * | 2023-05-23 | 2023-09-05 | 星徒(上海)科技发展有限公司 | 基于增强现实的文本内容增强交互系统 |
Also Published As
Publication number | Publication date |
---|---|
CN108037863B (zh) | 2021-03-30 |
EP3499906A1 (en) | 2019-06-19 |
US20190180486A1 (en) | 2019-06-13 |
US10783684B2 (en) | 2020-09-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108037863A (zh) | 一种显示图像的方法和装置 | |
CN108089788B (zh) | 一种缩略图显示控制方法及移动终端 | |
CN108712603B (zh) | 一种图像处理方法及移动终端 | |
CN107832784B (zh) | 一种图像美化的方法和一种移动终端 | |
CN108848313B (zh) | 一种多人拍照方法、终端和存储介质 | |
CN108777766B (zh) | 一种多人拍照方法、终端及存储介质 | |
CN109743504B (zh) | 一种辅助拍照方法、移动终端和存储介质 | |
KR20160001228A (ko) | 이동단말기 및 그 제어방법 | |
CN107463903B (zh) | 人脸关键点定位方法及装置 | |
CN108459788B (zh) | 一种图片显示方法及终端 | |
CN106992953A (zh) | 系统信息获取方法及装置 | |
CN106209800A (zh) | 设备权限共享方法和装置 | |
CN111159449B (zh) | 一种图像显示方法及电子设备 | |
KR20160127606A (ko) | 이동 단말기 및 그 제어 방법 | |
KR20170089653A (ko) | 이동단말기 및 그 제어방법 | |
CN109618218B (zh) | 一种视频处理方法及移动终端 | |
KR20170046338A (ko) | 이동단말기 및 그 제어방법 | |
CN108108671A (zh) | 产品说明信息获取方法及装置 | |
CN112052897A (zh) | 多媒体数据拍摄方法、装置、终端、服务器及存储介质 | |
CN107330391A (zh) | 产品信息提示方法及装置 | |
CN107704190A (zh) | 手势识别方法、装置、终端及存储介质 | |
CN111083374B (zh) | 滤镜添加方法及电子设备 | |
CN110086998B (zh) | 一种拍摄方法及终端 | |
CN109669710B (zh) | 便签处理方法及终端 | |
CN109145878B (zh) | 图像提取方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |