CN112312111A - 虚拟图像的显示方法、装置、电子设备及存储介质 - Google Patents
虚拟图像的显示方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN112312111A CN112312111A CN202011198009.XA CN202011198009A CN112312111A CN 112312111 A CN112312111 A CN 112312111A CN 202011198009 A CN202011198009 A CN 202011198009A CN 112312111 A CN112312111 A CN 112312111A
- Authority
- CN
- China
- Prior art keywords
- virtual
- image
- target object
- camera
- live
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 86
- 238000012545 processing Methods 0.000 claims abstract description 57
- 238000009877 rendering Methods 0.000 claims abstract description 42
- 239000011159 matrix material Substances 0.000 claims description 28
- 230000009466 transformation Effects 0.000 claims description 21
- 238000001514 detection method Methods 0.000 claims description 13
- 230000001960 triggered effect Effects 0.000 claims description 6
- 238000007499 fusion processing Methods 0.000 claims description 5
- 230000002452 interceptive effect Effects 0.000 abstract description 4
- 238000010586 diagram Methods 0.000 description 32
- 238000005516 engineering process Methods 0.000 description 20
- 230000003190 augmentative effect Effects 0.000 description 16
- 230000008859 change Effects 0.000 description 16
- 230000008569 process Effects 0.000 description 15
- 230000003993 interaction Effects 0.000 description 12
- 230000006870 function Effects 0.000 description 8
- 238000004590 computer program Methods 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000011664 signaling Effects 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000001747 exhibiting effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000003997 social interaction Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/122—Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/213—Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/22—Setup operations, e.g. calibration, key configuration or button assignment
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/52—Controlling the output signals based on the game progress involving aspects of the displayed game scene
- A63F13/525—Changing parameters of virtual cameras
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/60—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
- A63F13/65—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/327—Calibration thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/398—Synchronisation thereof; Control thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Processing Or Creating Images (AREA)
Abstract
本公开实施例提供的虚拟图像的显示方法、装置、电子设备及存储介质,通过对获得终端相机拍摄的实景拍摄图像进行目标物检测,以根据目标物在实景拍摄图像中的位置,确定终端相机的真实拍摄方向;根据真实拍摄方向对虚拟相机的虚拟拍摄方向进行校准;根据校准后的虚拟拍摄方向对目标物相应的虚拟共享图像进行渲染处理,以将处理后的虚拟共享图像叠加显示在实景拍摄图像中,使得当需要对虚拟图像的显示方向进行调整时,不再需要对虚拟图像本身进行坐标旋转等处理,而是通过对虚拟相机的虚拟拍摄方向进行处理,以实现对虚拟图像显示时其显示方向的调整,这样的方式能够更加适用于复杂虚拟图像,使得虚拟图像应用于更多的交互式场景中。
Description
技术领域
本公开实施例涉及计算机领域,尤其涉及一种虚拟图像的显示方法、装置、电子设备及存储介质。
背景技术
增强现实(Augmented Reality,简称AR)技术是一种将虚拟信息与真实世界巧妙融合的技术。
在利用增强现实技术包括虚拟图像的虚拟信息显示在终端的实景拍摄图像时,需要结合虚拟相机技术。在现有技术中,虚拟相机对于虚拟图像的虚拟拍摄方向是相对固定的,当需要旋转虚拟图像在实景拍摄图像中的显示角度时,需要对虚拟图像的坐标进行相应处理,以使虚拟相机对处理后的虚拟图像进行显示,此时,虚拟图像按照需要的显示角度进行显示。
但是,随着越来越多基于增强现实技术的交互方式,虚拟图像被赋予了更多的信息,采用上述控制虚拟坐标旋转的显示方式将无法应对过于复杂虚拟图像的显示。
发明内容
针对上述问题,本公开实施例拱了一种虚拟图像的显示方法、装置、电子设备及存储介质。
第一方面,本公开提供了一种虚拟图像的显示方法,包括:
获得终端相机拍摄的实景拍摄图像;
检测所述实景拍摄图像中的目标物;
根据所述目标物在所述实景拍摄图像中的位置,确定终端相机的真实拍摄方向;
根据所述真实拍摄方向对虚拟相机的虚拟拍摄方向进行校准;
根据校准后的虚拟拍摄方向对所述目标物相应的虚拟共享图像进行渲染处理,以将处理后的虚拟共享图像叠加显示在所述实景拍摄图像中。
第二方面,本公开提供了一种虚拟图像的显示装置,包括:
图像拍摄模块,用于获得终端相机拍摄的实景拍摄图像;
图像检测模块,用于检测所述实景拍摄图像中的目标物;
图像处理模块,用于根据所述目标物在所述实景拍摄图像中的位置,确定终端相机的真实拍摄方向;根据所述真实拍摄方向对虚拟相机的虚拟拍摄方向进行校准;根据校准后的虚拟拍摄方向对所述目标物相应的虚拟共享图像进行渲染处理;
图像显示模块,用于将处理后的虚拟共享图像叠加显示在所述实景拍摄图像中。
第三方面,本公开实施例提供一种电子设备,包括:至少一个处理器和存储器;
所述存储器存储计算机执行指令;
所述至少一个处理器执行所述存储器存储的计算机执行指令,使得所述至少一个处理器执行如上第一方面以及第一方面各种可能的涉及所述的虚拟图像的显示方法。
第四方面,本公开实施例提供一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机执行指令,当处理器执行所述计算机执行指令时,实现如上第一方面以及第一方面各种可能的设计所述的虚拟图像的显示方法。
本公开实施例提供的虚拟图像的显示方法、装置、电子设备及存储介质,对获得到的终端相机拍摄的实景拍摄图像进行目标物检测,以根据所述目标物在所述实景拍摄图像中的位置,确定终端相机的真实拍摄方向;根据所述真实拍摄方向对虚拟相机的虚拟拍摄方向进行校准;根据校准后的虚拟拍摄方向对所述目标物相应的虚拟共享图像进行渲染处理,以将处理后的虚拟共享图像叠加显示在所述实景拍摄图像中。本实施例提供的虚拟图像的显示方法,使得当需要对虚拟图像的显示方向进行调整时,不再需要对虚拟图像本身进行坐标旋转等处理,而是通过对虚拟相机的虚拟拍摄方向进行处理,以实现对虚拟图像显示时其显示方向的调整,这样的方式能够更加适用于复杂虚拟图像,使得虚拟图像应用于更多的交互式场景中,提升用户的体验。
附图说明
为了更清楚地说明本公开实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本公开所基于的一种网络架构的示意图;
图2为本公开实施例提供的一种虚拟图像的显示方法的流程示意图;
图3a为本公开实施例提供的一种虚拟图像的显示方法的第一界面的变化示意图;
图3b为图3a对应场景下终端相机A和虚拟相机B的俯视视角示意图;
图3c为本公开实施例提供的一种虚拟图像的显示方法的第二界面的变化示意图;
图3d为图3c对应场景下终端相机A的俯视视角变化示意图;
图3e为图3c对应场景下虚拟相机B的俯视视角变化示意图;
图4为本公开实施例提供的一种虚拟图像的显示方法的信令交互图;
图5为本公开实施例提供的另一种虚拟图像的显示方法的信令交互图;
图6为本公开实施例提供的另一种场景示意图;
图7为本公开实施例提供的虚拟图像的显示装置的结构框图;
图8为本公开实施例提供的电子设备的硬件结构示意图。
具体实施方式
为使本公开实施例的目的、技术方案和优点更加清楚,下面将结合本公开实施例中的附图,对本公开实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本公开一部分实施例,而不是全部的实施例。基于本公开中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本公开保护的范围。
增强现实(Augmented Reality,简称AR)技术是一种将虚拟信息与真实世界巧妙融合的技术。
在进行增强现实的显示时,终端将会先对现实场景的实景进行拍摄,以获得当前的实景拍摄图像。然后,利用增强现实技术对实景拍摄图像进行处理,以将包括虚拟图像的信息叠加在实景拍摄图像上,并将叠加后画面呈现给用户。
一般来说,在利用增强现实技术包括虚拟图像的虚拟信息显示在终端的实景拍摄图像时,需要结合虚拟相机技术。
当终端获取到需要显示的虚拟图像时,会调用虚拟相机,以对该虚拟图像进行渲染处理。在一些情况下,为了使得增强现实技术中的虚拟图像显示效果更好,虚拟图像会随着真实相机的拍摄视角的变化而发生其显示视角的变化。
现有技术中,一般采用如下方式,首先,确定真实相机的拍摄视角的变化,然后基于该视角变化,对虚拟图像在虚拟坐标系中的虚拟坐标进行相应变化,以使的虚拟图像在虚拟坐标系中的位置发生位移和旋转。之后,用虚拟相机对虚拟图像进行渲染得到图像,即为按照真实相机的拍摄视角变化进行显示视角变化的图像。
但是,随着越来越多基于增强现实技术的交互方式,赋予了虚拟图像更多的信息。举例来说,随着多人交互在增强现实技术中的应用,在同一个虚拟图像中可能会显示来自不同用户的虚拟角色或虚拟头像,当这些虚拟角色或虚拟头像基于其用户的控制发生位置变化时,采用现有的对虚拟图像的坐标进行处理,以使得显示角度进行变化的方式,使得虚拟图像的处理变得复杂起来。而且,过于复杂的坐标变化,为虚拟图像的显示处理带来处理效率上的困难,使得虚拟图像的显示容易发生卡顿,显示效果不佳。
针对这样的问题,根据本公开的实施例,通过对虚拟相机的虚拟拍摄方向进行处理,以使在虚拟相机对对虚拟图像进行渲染时,可直接基于调整后的虚拟拍摄方向进行,从而使得渲染后的虚拟图像采用调整显示方向后的虚拟图像进行呈现,进而解决前述的问题,且这样的方式能够更加适用于复杂虚拟图像,使得虚拟图像应用与更多的交互式场景中,处理效率和显示效果均能得到有效提升。
参考图1,图1为本公开所基于的一种网络架构的示意图,该图1所示网络架构具体可包括至少一个终端1以及服务器2。
其中,终端1具体可为用户手机、智能家居设备、平板电脑、可穿戴设备等可用于拍摄实景并且展现拍摄的实景的硬件设备,其终端1内可集成或安装有虚拟图像的显示装置,该显示装置为用于执行本公开虚拟图像的显示方法硬件或软件,该虚拟图像的显示装置可为终端1提供增强现实显示的展示页面,并且,终端1利用其屏幕或显示组件向用户显示虚拟图像的显示装置所提供的增强现实显示的展示页面。
服务器2可具体为设置在云端的服务器或者服务器集群,其服务器或服务器集群中可存储有与本公开提供的虚拟图像的显示方法相关的虚拟共享图像的各类数据。
具体的,在执行本公开提供的虚拟图像的显示方法时,显示装置还可利用终端1的网络组件与服务器2进行交互,获取服务器2中存储的虚拟共享图像的各类数据,并进行相应的处理和展示。
图1所示架构可适用于信息呈现领域,换句话说,其可用于在各类场景下的信息呈现。
举例来说,本公开提供的视频播放方法可应用于基于增强现实显示的游戏交互场景中,例如,在一些基于增强现实显示技术的“对战”游戏中,可通过本公开提供的虚拟图像的显示方法,实现对于“对战”过程中玩家的虚拟角色在对战场景中战况推送和呈现。
又例如,在一些可结合增强现实显示技术的地标建筑、博物馆、演唱会等公共场合中,多人利用各自终端触发对虚拟共享图像的获取,并在各自终端利用本公开提供的虚拟图像的显示方法进行虚拟共享图像的显示,还可通过虚拟共享图像进行多终端之间的图像交互或文字交互,实现在旅游过程中、参观展览过程中、观看演唱会过程中的用户互动。
此外,在一些线下聚会的生活场景中,还可将本公开提供的虚拟图像的显示与桌游、扑克等常用娱乐方式进行结合,以为用户提供更多以及更丰富的互动体验,利于增进用户的体验。
下面将针对本公开提供的虚拟图像的显示方法进行进一步说明:
第一方面,图2为本公开实施例提供的一种虚拟图像的显示方法的流程示意图。参考图2,本公开实施例提供的虚拟图像的显示方法,包括:
步骤101、获得终端相机拍摄的实景拍摄图像,并检测所述实景拍摄图像中的目标物;
步骤102、根据所述目标物在所述实景拍摄图像中的位置,确定终端相机的真实拍摄方向;
步骤103、根据所述真实拍摄方向对虚拟相机的虚拟拍摄方向进行校准;
步骤104、根据校准后的虚拟拍摄方向对所述目标物相应的虚拟共享图像进行渲染处理,以将处理后的虚拟共享图像叠加显示在所述实景拍摄图像中。
需要说明的是,本实施例的提供的虚拟图像的显示方法的执行主体为前述的虚拟图像的显示装置,在本公开的一些实施例中,其具体指代的可安装或集成在终端上的客户端或展示端。用户可通过终端,对显示装置进行操作,以使显示装置对用户触发的操作进行响应。
图3a为本公开实施例提供的一种虚拟图像的显示方法的第一界面的变化示意图;图3b为图3a对应场景下终端相机A和虚拟相机B的俯视视角示意图。
首先,如图3a所示的,终端的虚拟图像的显示装置将获得一实景拍摄图像,该实景拍摄图像可为终端调用自身的拍摄组件,即终端相机,对当前环境进行拍摄得到的图像。
其中,虚拟图像的显示装置将在实景拍摄图像中进行图像识别,以确定该实景拍摄图像中是否存在有目标物301。
而可以理解的是,虚拟图像的显示装置对于实景拍摄图像中的目标物301的识别可通过图像识别技术实现。在一个实施例中,目标物可以为二维的平面图像,如,具有特定图案的图片,或,二维码图片。在一个实施例中,目标物也可以为三维物体的图像,如,地标性建筑或者各种三维物体。根据本公开实施例的图像识别技术可基于二维图像识别技术实现,即,通过利用图像识别技术可对于包括预设的平面图片、以及三维物体的投影表面,以及产生一定形变的平面图片或平面图片进行图像识别。此外,对于目标物包括三维物体的图像时,根据本公开的实施例可以采用基于物体识别技术实现。本公开不对具体的图像识别技术进行限定。
通过对实景拍摄图像进行图像识别,虚拟图像的显示装置可在实景拍摄图像中检测出的目标物以及目标物以及目标物在实景拍摄图像中的位置,如图3a左图中示出的位于墙体表面的目标物图片301。其中,当目标物为二维的平面图像时,其目标物在实景拍摄图像中的位置表示为该二维平面图形所在的位置;当目标物为三维物体的图像时,对应的显示位置可以为该三维物体在二维平面上进行投影的投影位置。
利用目标物在所述实景拍摄图像中的位置,可确定终端相机的真实拍摄方向,如图3b左图所示的,可通过对图3a中的实景拍摄图像进行分析,终端相机A的真实拍摄方向a,其中,真实拍摄方向a具体可为真实世界坐标系下的方向矢量。因此,该真实拍摄方向可用于表示目标物相对于终端相机A的相对距离和相对角度等相位信息。
再后,如图3a右图以及图3b右图所示的,显示装置可以根据所述真实拍摄方向对虚拟相机B的虚拟拍摄方向b进行校准,以使校准后的虚拟拍摄方向b与真实拍摄方向a一致。显示装置可以利用校准后的虚拟拍摄方向b对所述目标物301相应的虚拟共享图像进行渲染处理,并将处理后的虚拟共享图像叠加显示在所述实景拍摄图像中。在图3a右图以及图3b右图中,显示在实景拍摄图像中的虚拟共享图像可包括有目标物301对应的场景图像302以及角色图像303,该场景图像302和角色图像303的具体获取方法可参见后述实施方式。
在上述过程中,由于用户移动,终端相机A的位置可能发生改变,此时,终端相机A的真实拍摄方向a也将发生改变。具体来说,图3c为本公开实施例提供的一种虚拟图像的显示方法的第二界面的变化示意图;图3d为图3c对应场景下终端相机A的俯视视角变化示意图;图3e为图3c对应场景下虚拟相机B的俯视视角变化示意图。
结合图3c-图3e,起初,如图3c左图、图3d左图以及图3e左图所示的,根据真实拍摄图像中目标物301可确定得到终端相机A的真实拍摄方向a以及对虚拟相机B进行方向校准得到其虚拟拍摄方向b,并利用配置为虚拟拍摄方向b的虚拟相机B对虚拟共享图像(如场景图像302以及角色图像303)进行渲染,得到叠加图(如图3c左图)。
而当用户移动,终端相机A的位置可能发生改变,此时,根据真实拍摄图像中目标物301可确定得到终端相机A的真实拍摄方向变为a’,利用新的真实拍摄方向变为a’将再次对虚拟相机B进行方向校准得到其虚拟拍摄方向b’,并利用配置为虚拟拍摄方向b’的虚拟相机B对虚拟共享图像(如场景图像302以及角色图像303)再次进行渲染,得到叠加图(如图3c右图)。
进一步来说,在上述过程中,为了使得虚拟共享图像的显示视角能够随着终端相机的拍摄方向的变化而相应变化,如前所述的,与现有技术不同的是,本公开中将利用终端相机的真实拍摄方向对虚拟相机的虚拟拍摄方向进行校准。
下面将对该校准过程进行进一步描述。
在根据所述目标物在所述实景拍摄图像中的位置,确定终端相机的真实拍摄方向时,可根据所述目标物在所述实景拍摄图像中的位置,确定所述目标物相对于终端相机的当前相位角度。
具体来说,在可选示例中,显示装置可通过图像检测算法,以根据目标物在实景拍摄图中的位置,确定实景中的目标物相对于终端相机的距离和方向,从而得到当前相位角度。
进一步来说,在实现上,可确定目标物在实景拍摄图像中的景深,该景深可用于表示目标物相对于终端相机的距离,然后结合目标物在实景拍摄图像中的位置,可确定出目标物相对于终端相机的方向,从而获得用于表示目标物相对于终端相机的距离和方向的当前相位角度。
举例来说,显示装置在确定目标物在实景拍摄图像中的景深时,可采用多角度拍摄的方式实现,即通过拍摄获得目标物在实景中的多个角度的实景拍摄图像,以确定目标物在实景拍摄图像中的景深;或者,利用利用终端相机的深度测量功能或空间图像测距技术,以直接获确定目标物在实景拍摄图像中的景深。此外,还可以运行图像检测算法,来获得目标物相对于终端相机的距离和方向的当前相位角度。
相应的,虚拟相机的虚拟拍摄方向具体也可为虚拟相机的相位角度。
也就是说,显示装置将确定出终端相机的当前相位角度之后,将根据所述终端相机的当前相位角度,对所述虚拟相机进行相位角度校准,得到虚拟相机在校准后的相位角度;然后,根据虚拟相机在校准后的相位角度对所述虚拟共享图像进行渲染处理。
在一个实施例中,为了使得渲染后的虚拟共享图像的显示角度能够满足需求,虚拟相机的相位角度与所述终端相机的当前相位角度保持一致。
进一步来说,校准过程可利用矩阵实现,例如,可以通过如下步骤实现:
显示装置在对虚拟相机进行校准时,可首先根据终端相机的当前相位角度,确定偏移矩阵,其中,该偏移矩阵可记录有目标物相对于终端相机初始相位角度的相位变化。然后,显示装置对该偏移矩阵进行逆变换处理,得到逆变换矩阵,最后,利用逆变换矩阵对虚拟相机的初始相位角度进行矩阵变换处理,得到虚拟相机在校准后的相位角度。
其中,终端相机的初始相位角度与虚拟相机的初始相位角度分别是指在终端相机启动并检测到实景拍摄图像中的目标物时(即初始时刻)终端相机和虚拟相机的相位角度。
本实施方式可利用偏移矩阵记录目标物相对于终端相机初始相位角度的相位变化,然后通过该相位变化推导出虚拟相机的初始相位角度与校准后的相位角度之间的相位变化,从而实现虚拟相机相位角度校准,保证利用虚拟相机校准后的相位角度渲染虚拟共享图像,从而对虚拟共享图像采用与目标物相对于终端相机的相同的视觉角度距离变换方式一并进行变换和显示。
在上述实施方式的基础上,本实施例还将包括对于虚拟共享图像的获取过程。也就是说,在根据校准后的虚拟拍摄方向对所述目标物相应的虚拟共享图像进行渲染处理之前,还包括:获得与所述目标物相应的虚拟共享图像。
图4为本公开实施例提供的一种虚拟图像的显示方法的信令交互图;
具体来说,如图4所示的,首先,终端会启动摄像头以拍摄实景,获得实景拍摄图像。然后,终端会对该实景拍摄图像进行图像识别,以获得其中的目标物,以及目标物在所述实景拍摄图像中的位置。
随后,终端可同时执行两个处理:其一为如前所述的,根据目标物在所述实景拍摄图像中的位置,确定终端相机的真实拍摄方向,并利用真实拍摄方向对虚拟相机的虚拟拍摄方向进行校准;其二为获得与所述目标物相应的虚拟共享图像的过程,可以包括如下步骤:向服务器发送虚拟共享图像的获取请求,并接收服务器下发的虚拟共享图像。
其中,在获得与所述目标物相应的虚拟共享图像的过程中,可知的是,向服务器发送虚拟共享图像的获取请求中可包括检测获得的目标物。当然,对于获取请求中目标物来说,其具体可包括目标物的图像进行解码获得的目标物标识,或,对目标物进行图像编码处理获得的目标物编码等目标物数据,本公开对其类型和获取方式不进行限制。
当服务器获取到该目标物之后,将从服务器的数据库中调用与目标物对应的场景图像以及与目标物存在关联关系的至少一个终端用户所预设置的角色图像;然后,服务器将对该场景图像,以及与所述目标物存在关联关系的至少一个终端用户所预设置的角色图像进行图像融合处理,将这些图像融合至同一图像中得到融合后的图像,该融合后的图像则为虚拟共享图像。服务器会将融合后的虚拟共享图像发送至终端,以供其处理。
其中,终端用户所预设置的角色图像是指终端用户在第一次与服务器取得连接时所建立的角色图像,其具体可如图3a所示的“小狗”图像303,也可为其他类型的角色图像。当然,在另一实施例中,终端用户可随时与服务器建立连接,以对其预设置在服务器中的角色图像的相关属性信息进行重新配置,如可对于角色图像的外形属性,尺寸属性,甚至声优配音属性以及个性化动作属性,进行重新配置,以使得角色图像更能体现终端用户的用户个性。
再后,终端根据校准后的虚拟拍摄方向对所述目标物相应的虚拟共享图像进行渲染处理,以将处理后的虚拟共享图像叠加显示在所述实景拍摄图像中。
在上述过程中,可选的,与目标物存在关联关系的至少一个终端用户所预设置的角色图像,具体可为在同一时间段或同一地理位置范围内检测到同一目标物的终端用户。
例如,当目标物为某旅游景点的“塔A”时,若某一终端用户触发摄像头并检测到该目标物“塔A”,此时,该终端用户会将包括“塔A”的虚拟共享图像的获取请求发送至服务器,并接收服务器返回的虚拟共享图像,其中,该虚拟共享图像中可包括有(1)“塔A”的场景特效图像;(2)该终端用户预设置的角色图像,如,账户头像,和/或,预设的虚拟宠物图像等;(3)在同一时间段或同一地理位置范围内检测到“塔A”的其他终端用户的角色图像,如,账户头像,和/或,预设的虚拟宠物图像等。
当然,为了满足用户的社交需求,此时,该终端用户可与检测到“塔A”的其他终端用户进行社交互动,也可对该终端用户自身的角色图像进行角色修改、角色操作等互动,以满足用户需求。
其中,在利用显示方法进行互动的过程中,显示装置将接收用户对显示在所述实景拍摄图像中的对应角色图像触发的控制操作,并将控制操作上传至服务器,以供所述服务器根据所述控制操作对所述虚拟共享图像中所述对应角色图像进行更新,得到更新后的虚拟共享图像;然后,接收服务器下发的所述更新后的虚拟共享图像,并对更新后的虚拟共享图像进行渲染处理,以叠加显示在所述实景拍摄图像中。
换句话说,上述方式可保证控制操作与控制操作的结果可实时反馈至终端以进行显示。
在上述过程中,为了进一步提高显示处理效率,服务器在对虚拟共享图像进行融合时,会将目标物对应的场景图像以及与所述目标物存在关联关系的至少一个终端用户所预存的角色图像的坐标进行融合处理,以使其各图像的坐标系为相同的虚拟坐标系。
因此,在终端接收到该建立在相同的虚拟坐标系下的场景图像和各角色图像之后,可根据校准后的虚拟拍摄方向,直接对所述虚拟共享图像在虚拟坐标系下的空间坐标进行相应的空间渲染处理。
为了保证终端的显示装置对虚拟共享图像的处理效率,在其他可选示例中,还可控制与目标物关联的终端数量,以使在全部检测到目标物的关联终端中,仅有符合预设条件的终端的角色图像,被服务器融合至虚拟共享图像中,以进行显示。其中,预设条件可与地理位置相关。
可选的,终端向服务器发送虚拟共享图像的获取请求中还包括当前地理位置,即该终端所在的当前地理位置。
当服务器接收到该当前地理位置之后,可以调用目标物对应的地理位置共享范围,并确定当前地理位置是否属于所述地理位置共享范围。若是,则服务器向终端下发的融合得到的虚拟共享图像;否则,服务器向终端下发获取请求失败的消息。
其中,对于目标物对应的地理位置共享范围的确定,可基于第一个检测到目标物的终端的地理位置相关。
以基于增强现实显示的游戏交互场景为例,图5为本公开实施例提供的另一种虚拟图像的显示方法的信令交互图,图6为本公开实施例提供的另一种场景示意图。
结合图5和图6所示的,终端A在地理位置LA启动实景拍摄,并检测到实景拍摄图像中的目标物OA,在T1时刻,终端A会将目标物OA以及地理位置LA一并发送至服务器,服务器经判定可知该终端A为第一个检测目标物的终端,此时服务器将地理位置LA所在的地理区域(如以地理位置LA为原点预设距离为半径的圆形区域)作为该目标物对应的地理位置共享范围Range_OA。
服务器在对各图像(目标物的场景图像、终端A的角色图像)进行融合之后,得到虚拟共享图像PA,将该虚拟共享图像PA返回终端A进行显示。
随后,在T1+t1时刻,另一终端B在地理位置LB启动实景拍摄,并检测到实景拍摄图像中的目标物OA,此时,终端B会将目标物A以及地理位置LB一并发送至服务器,服务器经判定可知该终端B不为第一个检测目标物的终端,随后,服务器可知目标物A的地理位置共享范围Range_OA为地理位置A所在的地理区域,此时,服务器将对地理位置LB是否位于该地理区域内(即地理位置LB是否位于以地理位置LA为原点以预设距离为半径的圆形区域内)进行判定。由图6可知,地理位置LB位于该地理区域,即Range_OA内,此时服务器将对目标物的虚拟共享图像PA重新进行融合,以得到虚拟共享图像PB(目标物的场景图像、终端A的角色图像以及终端B的角色图像),并将该虚拟共享图像PB下发至终端A和终端B。
再后,在T1+t1+t2时刻,又一终端C在地理位置LC启动实景拍摄,并检测到实景拍摄图像中的目标物OA,此时,终端C会将目标物A以及地理位置LC一并发送至服务器,服务器经判定可知该终端LC不为第一个检测目标物的终端,随后,服务器可知目标物OA的地理位置共享范围为地理位置LA所在的地理区域,此时,服务器将对地理位置C是否位于该地理区域,即Range_OA内(即地理位置C是否位于以地理位置A为原点以预设距离为半径的圆形区域内)进行判定。由图6可知,地理位置C不位于该地理区域,即Range_OA内,此时服务器将不对虚拟共享图像B再进行处理,而是向终端C发送获取请求失败的消息。
通过上述方式,能够有效控制与同一目标物关联的终端数量,降低终端的显示装置对虚拟共享图像进行处理时的工作量,保证处理效率。
本公开实施例提供的虚拟图像的显示方法,对获得终端相机拍摄的实景拍摄图像进行目标物检测,以根据所述目标物在所述实景拍摄图像中的位置,确定终端相机的真实拍摄方向;根据所述真实拍摄方向对虚拟相机的虚拟拍摄方向进行校准;根据校准后的虚拟拍摄方向对所述目标物相应的虚拟共享图像进行渲染处理,以将处理后的虚拟共享图像叠加显示在所述实景拍摄图像中;本实施例提供的虚拟图像的显示方法,使得当需要对虚拟图像的显示方向进行调整时,不再需要对虚拟图像本身进行坐标旋转等处理,而是通过对虚拟相机的虚拟拍摄方向进行处理,以实现对虚拟图像显示时其显示方向的调整,这样的方式能够更加适用于复杂虚拟图像,使得虚拟图像应用与更多的交互式场景中。
对应于上文实施例的视频播放方法,图7为本公开实施例提供的虚拟图像的显示装置的结构框图。为了便于说明,仅示出了与本公开实施例相关的部分。参照图7,所述虚拟图像的显示装置包括:图像拍摄模块10、图像检测模块20、图像处理模块30以及图像显示模块40。
图像拍摄模块10,用于获得终端相机拍摄的实景拍摄图像;
图像检测模块20,用于检测所述实景拍摄图像中的目标物;
图像处理模块30,用于根据所述目标物在所述实景拍摄图像中的位置,确定终端相机的真实拍摄方向;根据所述真实拍摄方向对虚拟相机的虚拟拍摄方向进行校准;根据校准后的虚拟拍摄方向对所述目标物相应的虚拟共享图像进行渲染处理;
图像显示模块40,用于将处理后的虚拟共享图像叠加显示在所述实景拍摄图像中。
可选的,还包括图像获取模块;该图像获取模块在图像处理模块30根据校准后的虚拟拍摄方向对所述目标物相应的虚拟共享图像进行渲染处理之前,用于获得与所述目标物相应的虚拟共享图像。
可选的,所述图像处理模块30在根据所述目标物在所述实景拍摄图像中的位置,确定终端相机的真实拍摄方向时,具体用于根据所述目标物在所述实景拍摄图像中的位置,确定所述目标物相对于终端相机的当前相位角度。
可选的,所述图像处理模块30在根据所述真实拍摄方向对虚拟相机的虚拟拍摄方向进行校准时,具体用于根据所述终端相机的当前相位角度,对所述虚拟相机进行相位角度校准,得到虚拟相机在校准后的相位角度;其中,所述虚拟相机的相位角度与所述终端相机的当前相位角度保持一致;以及根据虚拟相机在校准后的相位角度对所述虚拟共享图像进行渲染处理。
可选的,所述图像处理模块30在根据所述终端相机的当前相位角度,对所述虚拟相机进行相位角度校准,得到虚拟相机在校准后的相位角度时,具体用于根据终端相机的当前相位角度,确定偏移矩阵;对所述偏移矩阵进行逆变换处理,得到逆变换矩阵;利用所述逆变换矩阵对所述虚拟相机的初始相位角度进行矩阵变换处理,得到所述虚拟相机在校准后的相位角度。
可选的,所述图像获取模块在获得与所述目标物相应的虚拟共享图像时,具体用于向服务器发送虚拟共享图像的获取请求,所述获取请求包括检测获得的目标物,以供所述服务器根据所述获取请求中的目标物调用对应的场景图像以及与所述目标物存在关联关系的至少一个终端用户所预设置的角色图像;接收服务器下发的虚拟共享图像,其中,所述虚拟共享图像是所述服务器对所述目标物对应的场景图像,以及与所述目标物存在关联关系的至少一个终端用户所预设置的角色图像,进行图像融合处理得到的。
可选的,在接收的服务器下发的所述虚拟共享图像中,所述目标物对应的场景图像以及与所述目标物存在关联关系的至少一个终端用户所预设置的角色图像均建立在相同的虚拟坐标系下。
可选的,所述图像处理模块30在根据校准后的虚拟拍摄方向对所述目标物相应的虚拟共享图像进行渲染处理时,具体用于根据校准后的虚拟拍摄方向,对所述虚拟共享图像在虚拟坐标系下的空间坐标进行空间渲染处理。
可选的,图像获取模块还用于接收对显示在所述实景拍摄图像中的对应角色图像触发的控制操作,并将所述控制操作上传至服务器,以供所述服务器根据所述控制操作对所述虚拟共享图像中所述对应角色图像进行更新,得到更新后的虚拟共享图像;接收服务器下发的所述更新后的虚拟共享图像,并对更新后的虚拟共享图像进行渲染处理,以叠加显示在所述实景拍摄图像中。
可选的,所述向服务器发送虚拟共享图像的获取请求中还包括当前地理位置,以供所述服务器根据所述目标物对应的地理位置共享范围,确定所述当前地理位置是否属于所述地理位置共享范围;若是,则接收服务器下发的虚拟共享图像,否则,接收服务器下发的获取请求失败的消息。
可选的,所述目标物的地理位置共享范围是根据第一个检测到所述目标物的终端的地理位置确定的。
本公开实施例提供的虚拟图像的显示装置,通过对获得终端相机拍摄的实景拍摄图像进行目标物检测,以根据所述目标物在所述实景拍摄图像中的位置,确定终端相机的真实拍摄方向;根据所述真实拍摄方向对虚拟相机的虚拟拍摄方向进行校准;根据校准后的虚拟拍摄方向对所述目标物相应的虚拟共享图像进行渲染处理,以将处理后的虚拟共享图像叠加显示在所述实景拍摄图像中;本实施例提供的虚拟图像的显示方法,使得当需要对虚拟图像的显示方向进行调整时,不再需要对虚拟图像本身进行坐标旋转等处理,而是通过对虚拟相机的虚拟拍摄方向进行处理,以实现对虚拟图像显示时其显示方向的调整,这样的方式能够更加适用于复杂虚拟图像,使得虚拟图像应用与更多的交互式场景中。
本实施例提供的电子设备,可用于执行上述方法实施例的技术方案,其实现原理和技术效果类似,本实施例此处不再赘述。
参考图8,其示出了适于用来实现本公开实施例的电子设备900的结构示意图,该电子设备900可以为终端设备或媒体库。其中,终端设备可以包括但不限于诸如移动电话、笔记本电脑、数字广播接收器、个人数字助理(Personal Digital Assistant,简称PDA)、平板电脑(Portable Android Device,简称PAD)、便携式多媒体播放器(Portable MediaPlayer,简称PMP)、车载终端(例如车载导航终端)、可穿戴电子设备等等的移动终端以及诸如数字TV、台式计算机、智能家居设备等等的固定终端。图8示出的电子设备仅仅是一个实施例,不应对本公开实施例的功能和使用范围带来任何限制。
如图8所示,电子设备900可以包括用于执行视频播放方法(例如中央处理器、图形处理器等)的处理器901,其可以根据存储在只读存储器(Read Only Memory,简称ROM)902中的程序或者从存储装置908加载到随机访问存储器(Random Access Memory,简称RAM)903中的程序而执行各种适当的动作和处理。在RAM 903中,还存储有电子设备900操作所需的各种程序和数据。视频播放方法901、ROM 902以及RAM 903通过总线904彼此相连。输入/输出(I/O)接口905也连接至总线904。
通常,以下装置可以连接至I/O接口905:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置906;包括例如液晶屏幕(Liquid CrystalDisplay,简称LCD)、扬声器、振动器等的输出装置907;包括例如磁带、硬盘等的存储装置908;以及通信装置909。通信装置909可以允许电子设备900与其他设备进行无线或有线通信以交换数据。虽然图8示出了具有各种装置的电子设备900,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行根据本公开实施例所述的各流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置909从网络上被下载和安装,或者从存储装置908被安装,或者从ROM 902被安装。在该计算机程序被视频播放方法901执行时,执行本公开实施例的方法中限定的上述功能。
需要说明的是,本公开上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备执行上述实施例所示的方法。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,上述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或媒体库上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LocalArea Network,简称LAN)或广域网(Wide Area Network,简称WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,单元的名称在某种情况下并不构成对该单元本身的限定,例如,第一获取单元还可以被描述为“获取至少两个网际协议地址的单元”。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上系统(SOC)、复杂可编程逻辑设备(CPLD)等等。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体实施例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
以下是本公开的一些实施例。
第一方面,根据本公开的一个或多个实施例,一种虚拟图像的显示方法,包括:
获得终端相机拍摄的实景拍摄图像;
检测所述实景拍摄图像中的目标物;
根据所述目标物在所述实景拍摄图像中的位置,确定终端相机的真实拍摄方向;
根据所述真实拍摄方向对虚拟相机的虚拟拍摄方向进行校准;
根据校准后的虚拟拍摄方向对所述目标物相应的虚拟共享图像进行渲染处理,以将处理后的虚拟共享图像叠加显示在所述实景拍摄图像中。
可选的,所述根据校准后的虚拟拍摄方向对所述目标物相应的虚拟共享图像进行渲染处理之前,还包括:
获得与所述目标物相应的虚拟共享图像。
可选的,所述根据所述目标物在所述实景拍摄图像中的位置,确定终端相机的真实拍摄方向,包括:
根据所述目标物在所述实景拍摄图像中的位置,确定所述目标物相对于终端相机的当前相位角度。
可选的,所述根据所述真实拍摄方向对虚拟相机的虚拟拍摄方向进行校准,包括:
根据所述终端相机的当前相位角度,对所述虚拟相机进行相位角度校准,得到虚拟相机在校准后的相位角度;其中,所述虚拟相机的相位角度与所述终端相机的当前相位角度保持一致;
根据校准后的虚拟拍摄方向对所述目标物相应的虚拟共享图像进行渲染处理,包括:
根据虚拟相机在校准后的相位角度对所述虚拟共享图像进行渲染处理。
可选的,所述根据所述终端相机的当前相位角度,对所述虚拟相机进行相位角度校准,得到虚拟相机在校准后的相位角度,包括:
根据终端相机的当前相位角度,确定偏移矩阵;
对所述偏移矩阵进行逆变换处理,得到逆变换矩阵;
利用所述逆变换矩阵对所述虚拟相机的初始相位角度进行矩阵变换处理,得到所述虚拟相机在校准后的相位角度。
可选的,所述获得与所述目标物相应的虚拟共享图像,包括:
向服务器发送虚拟共享图像的获取请求,所述获取请求包括检测获得的目标物,以供所述服务器根据所述获取请求中的目标物调用对应的场景图像以及与所述目标物存在关联关系的至少一个终端用户所预设置的角色图像;接收服务器下发的虚拟共享图像,其中,所述虚拟共享图像是所述服务器对所述目标物对应的场景图像,以及与所述目标物存在关联关系的至少一个终端用户所预设置的角色图像,进行图像融合处理得到的。
可选的,在接收的服务器下发的所述虚拟共享图像中,所述目标物对应的场景图像以及与所述目标物存在关联关系的至少一个终端用户所预设置的角色图像均建立在相同的虚拟坐标系下。
可选的,所述根据校准后的虚拟拍摄方向对所述目标物相应的虚拟共享图像进行渲染处理,包括:
根据校准后的虚拟拍摄方向,对所述虚拟共享图像在虚拟坐标系下的空间坐标进行空间渲染处理。
可选的,还包括:
接收对显示在所述实景拍摄图像中的对应角色图像触发的控制操作,并将所述控制操作上传至服务器,以供所述服务器根据所述控制操作对所述虚拟共享图像中所述对应角色图像进行更新,得到更新后的虚拟共享图像;
接收服务器下发的所述更新后的虚拟共享图像,并对更新后的虚拟共享图像进行渲染处理,以叠加显示在所述实景拍摄图像中。
可选的,所述向服务器发送虚拟共享图像的获取请求中还包括当前地理位置,以供所述服务器根据所述目标物对应的地理位置共享范围,确定所述当前地理位置是否属于所述地理位置共享范围;
若是,则接收服务器下发的虚拟共享图像,否则,接收服务器下发的获取请求失败的消息。
可选的,所述目标物的地理位置共享范围是根据第一个检测到所述目标物的终端的地理位置确定的。
第二方面,根据本公开的一个或多个实施例,一种虚拟图像的显示装置,包括:图像拍摄模块、图像检测模块、图像处理模块以及图像显示模块。
图像拍摄模块,用于获得终端相机拍摄的实景拍摄图像;
图像检测模块,用于检测所述实景拍摄图像中的目标物;
图像处理模块,用于根据所述目标物在所述实景拍摄图像中的位置,确定终端相机的真实拍摄方向;根据所述真实拍摄方向对虚拟相机的虚拟拍摄方向进行校准;根据校准后的虚拟拍摄方向对所述目标物相应的虚拟共享图像进行渲染处理;
图像显示模块,用于将处理后的虚拟共享图像叠加显示在所述实景拍摄图像中。
可选的,还包括图像获取模块;该图像获取模块在图像处理模块根据校准后的虚拟拍摄方向对所述目标物相应的虚拟共享图像进行渲染处理之前,用于获得与所述目标物相应的虚拟共享图像。
可选的,所述图像处理模块在根据所述目标物在所述实景拍摄图像中的位置,确定终端相机的真实拍摄方向时,具体用于根据所述目标物在所述实景拍摄图像中的位置,确定所述目标物相对于终端相机的当前相位角度。
可选的,所述图像处理模块在根据所述真实拍摄方向对虚拟相机的虚拟拍摄方向进行校准时,具体用于根据所述终端相机的当前相位角度,对所述虚拟相机进行相位角度校准,得到虚拟相机在校准后的相位角度;其中,所述虚拟相机的相位角度与所述终端相机的当前相位角度保持一致;以及根据虚拟相机在校准后的相位角度对所述虚拟共享图像进行渲染处理。
可选的,所述图像处理模块在根据所述终端相机的当前相位角度,对所述虚拟相机进行相位角度校准,得到虚拟相机在校准后的相位角度时,具体用于根据终端相机的当前相位角度,确定偏移矩阵;对所述偏移矩阵进行逆变换处理,得到逆变换矩阵;利用所述逆变换矩阵对所述虚拟相机的初始相位角度进行矩阵变换处理,得到所述虚拟相机在校准后的相位角度。
可选的,所述图像获取模块在获得与所述目标物相应的虚拟共享图像时,具体用于向服务器发送虚拟共享图像的获取请求,所述获取请求包括检测获得的目标物,以供所述服务器根据所述获取请求中的目标物调用对应的场景图像以及与所述目标物存在关联关系的至少一个终端用户所预设置的角色图像;接收服务器下发的虚拟共享图像,其中,所述虚拟共享图像是所述服务器对所述目标物对应的场景图像,以及与所述目标物存在关联关系的至少一个终端用户所预设置的角色图像,进行图像融合处理得到的。
可选的,在接收的服务器下发的所述虚拟共享图像中,所述目标物对应的场景图像以及与所述目标物存在关联关系的至少一个终端用户所预设置的角色图像均建立在相同的虚拟坐标系下。
可选的,所述图像处理模块在根据校准后的虚拟拍摄方向对所述目标物相应的虚拟共享图像进行渲染处理时,具体用于根据校准后的虚拟拍摄方向,对所述虚拟共享图像在虚拟坐标系下的空间坐标进行空间渲染处理。
可选的,图像获取模块还用于接收对显示在所述实景拍摄图像中的对应角色图像触发的控制操作,并将所述控制操作上传至服务器,以供所述服务器根据所述控制操作对所述虚拟共享图像中所述对应角色图像进行更新,得到更新后的虚拟共享图像;接收服务器下发的所述更新后的虚拟共享图像,并对更新后的虚拟共享图像进行渲染处理,以叠加显示在所述实景拍摄图像中。
可选的,所述向服务器发送虚拟共享图像的获取请求中还包括当前地理位置,以供所述服务器根据所述目标物对应的地理位置共享范围,确定所述当前地理位置是否属于所述地理位置共享范围;若是,则接收服务器下发的虚拟共享图像,否则,接收服务器下发的获取请求失败的消息。
可选的,所述目标物的地理位置共享范围是根据第一个检测到所述目标物的终端的地理位置确定的。
第三方面,根据本公开的一个或多个实施例,一种电子设备,包括:至少一个处理器和存储器;
所述存储器存储计算机执行指令;
所述至少一个处理器执行所述存储器存储的计算机执行指令,使得所述至少一个处理器执行如前任一项所述的虚拟图像的显示方法。
第四方面,根据本公开的一个或多个实施例,一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机执行指令,当处理器执行所述计算机执行指令时,实现如前任一项所述的虚拟图像的显示方法。
以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开中所涉及的公开范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述公开构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
此外,虽然采用特定次序描绘了各操作,但是这不应当理解为要求这些操作以所示出的特定次序或以顺序次序执行来执行。在一定环境下,多任务和并行处理可能是有利的。同样地,虽然在上面论述中包含了若干具体实现细节,但是这些不应当被解释为对本公开的范围的限制。在单独的实施例的上下文中描述的某些特征还可以组合地实现在单个实施例中。相反地,在单个实施例的上下文中描述的各种特征也可以单独地或以任何合适的子组合的方式实现在多个实施例中。
尽管已经采用特定于结构特征和/或方法逻辑动作的语言描述了本主题,但是应当理解所附权利要求书中所限定的主题未必局限于上面描述的特定特征或动作。相反,上面所描述的特定特征和动作仅仅是实现权利要求书的实施例形式。
Claims (14)
1.一种虚拟图像的显示方法,其特征在于,包括:
获得终端相机拍摄的实景拍摄图像;
检测所述实景拍摄图像中的目标物;
根据所述目标物在所述实景拍摄图像中的位置,确定终端相机的真实拍摄方向;
根据所述真实拍摄方向对虚拟相机的虚拟拍摄方向进行校准;
根据校准后的虚拟拍摄方向对所述目标物相应的虚拟共享图像进行渲染处理,以将处理后的虚拟共享图像叠加显示在所述实景拍摄图像中。
2.根据权利要求1所述的显示方法,其特征在于,所述根据校准后的虚拟拍摄方向对所述目标物相应的虚拟共享图像进行渲染处理之前,还包括:
获得与所述目标物相应的虚拟共享图像。
3.根据权利要求1所述的显示方法,其特征在于,所述根据所述目标物在所述实景拍摄图像中的位置,确定终端相机的真实拍摄方向,包括:
根据所述目标物在所述实景拍摄图像中的位置,确定所述目标物相对于终端相机的当前相位角度。
4.根据权利要求3所述的显示方法,其特征在于,所述根据所述真实拍摄方向对虚拟相机的虚拟拍摄方向进行校准,包括:
根据所述终端相机的当前相位角度,对所述虚拟相机进行相位角度校准,得到虚拟相机在校准后的相位角度;其中,所述虚拟相机的相位角度与所述终端相机的当前相位角度保持一致;
根据校准后的虚拟拍摄方向对所述目标物相应的虚拟共享图像进行渲染处理,包括:
根据虚拟相机在校准后的相位角度对所述虚拟共享图像进行渲染处理。
5.根据权利要求4所述的显示方法,其特征在于,所述根据所述终端相机的当前相位角度,对所述虚拟相机进行相位角度校准,得到虚拟相机在校准后的相位角度,包括:
根据终端相机的当前相位角度,确定偏移矩阵;
对所述偏移矩阵进行逆变换处理,得到逆变换矩阵;
利用所述逆变换矩阵对所述虚拟相机的初始相位角度进行矩阵变换处理,得到所述虚拟相机在校准后的相位角度。
6.根据权利要求2所述的显示方法,其特征在于,所述获得与所述目标物相应的虚拟共享图像,包括:
向服务器发送虚拟共享图像的获取请求,所述获取请求包括检测获得的目标物,以供所述服务器根据所述获取请求中的目标物调用对应的场景图像以及与所述目标物存在关联关系的至少一个终端用户所预设置的角色图像;
接收服务器下发的虚拟共享图像,
其中,所述虚拟共享图像是所述服务器对所述目标物对应的场景图像,以及与所述目标物存在关联关系的至少一个终端用户所预设置的角色图像,进行图像融合处理得到的。
7.根据权利要求6所述的显示方法,其特征在于,在接收的服务器下发的所述虚拟共享图像中,所述目标物对应的场景图像以及与所述目标物存在关联关系的至少一个终端用户所预设置的角色图像均建立在相同的虚拟坐标系下。
8.根据权利要求7所述的显示方法,其特征在于,所述根据校准后的虚拟拍摄方向对所述目标物相应的虚拟共享图像进行渲染处理,包括:
根据校准后的虚拟拍摄方向,对所述虚拟共享图像在虚拟坐标系下的空间坐标进行空间渲染处理。
9.根据权利要求6所述的显示方法,其特征在于,还包括:
接收对显示在所述实景拍摄图像中的对应角色图像触发的控制操作,并将所述控制操作上传至服务器,以供所述服务器根据所述控制操作对所述虚拟共享图像中所述对应角色图像进行更新,得到更新后的虚拟共享图像;
接收服务器下发的所述更新后的虚拟共享图像,并对更新后的虚拟共享图像进行渲染处理,以叠加显示在所述实景拍摄图像中。
10.根据权利要求6所述的显示方法,其特征在于,所述向服务器发送虚拟共享图像的获取请求中还包括当前地理位置,以供所述服务器根据所述目标物对应的地理位置共享范围,确定所述当前地理位置是否属于所述地理位置共享范围;
若是,则接收服务器下发的虚拟共享图像,否则,接收服务器下发的获取请求失败的消息。
11.根据权利要求10所述的显示方法,其特征在于,所述目标物的地理位置共享范围是根据第一个检测到所述目标物的终端的地理位置确定的。
12.一种虚拟图像的显示装置,其特征在于,包括:
图像拍摄模块,用于获得终端相机拍摄的实景拍摄图像;
图像检测模块,用于检测所述实景拍摄图像中的目标物;
图像处理模块,用于根据所述目标物在所述实景拍摄图像中的位置,确定终端相机的真实拍摄方向;根据所述真实拍摄方向对虚拟相机的虚拟拍摄方向进行校准;根据校准后的虚拟拍摄方向对所述目标物相应的虚拟共享图像进行渲染处理;
图像显示模块,用于将处理后的虚拟共享图像叠加显示在所述实景拍摄图像中。
13.一种电子设备,其中,包括:
至少一个处理器;以及
存储器;
所述存储器存储计算机执行指令;
所述至少一个处理器执行所述存储器存储的计算机执行指令,使得所述至少一个处理器执行如权利要求1-11任一项所述的虚拟图像的显示方法。
14.一种计算机可读存储介质,其中,所述计算机可读存储介质中存储有计算机执行指令,当处理器执行所述计算机执行指令时,实现如权利要求1-11任一项所述的虚拟图像的显示方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011198009.XA CN112312111A (zh) | 2020-10-30 | 2020-10-30 | 虚拟图像的显示方法、装置、电子设备及存储介质 |
US18/044,361 US20230360337A1 (en) | 2020-10-30 | 2021-08-30 | Virtual image displaying method and apparatus, electronic device and storage medium |
PCT/CN2021/115432 WO2022088918A1 (zh) | 2020-10-30 | 2021-08-30 | 虚拟图像的显示方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011198009.XA CN112312111A (zh) | 2020-10-30 | 2020-10-30 | 虚拟图像的显示方法、装置、电子设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112312111A true CN112312111A (zh) | 2021-02-02 |
Family
ID=74334075
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011198009.XA Pending CN112312111A (zh) | 2020-10-30 | 2020-10-30 | 虚拟图像的显示方法、装置、电子设备及存储介质 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20230360337A1 (zh) |
CN (1) | CN112312111A (zh) |
WO (1) | WO2022088918A1 (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112837375A (zh) * | 2021-03-17 | 2021-05-25 | 北京七维视觉传媒科技有限公司 | 用于真实空间内部的相机定位的方法和系统 |
CN113209632A (zh) * | 2021-06-08 | 2021-08-06 | 腾讯科技(深圳)有限公司 | 一种云游戏的处理方法、装置、设备及存储介质 |
CN114416259A (zh) * | 2022-01-20 | 2022-04-29 | 北京字跳网络技术有限公司 | 虚拟资源的获取方法、装置、设备及存储介质 |
WO2022088918A1 (zh) * | 2020-10-30 | 2022-05-05 | 北京字节跳动网络技术有限公司 | 虚拟图像的显示方法、装置、电子设备及存储介质 |
CN115174886A (zh) * | 2022-08-25 | 2022-10-11 | 吉林大学 | 支持立体虚拟现实与增强现实的手机镜头及显示方法 |
CN115393497A (zh) * | 2022-07-29 | 2022-11-25 | 中国第一汽车股份有限公司 | 虚拟成像方法、装置、非易失性存储介质和计算机设备 |
CN115967796A (zh) * | 2021-10-13 | 2023-04-14 | 北京字节跳动网络技术有限公司 | Ar对象共享方法、装置及设备 |
CN116320364A (zh) * | 2023-05-25 | 2023-06-23 | 四川中绳矩阵技术发展有限公司 | 一种基于多层显示的虚拟现实拍摄方法及显示方法 |
WO2023216822A1 (zh) * | 2022-05-13 | 2023-11-16 | 北京字节跳动网络技术有限公司 | 图像校正方法、装置、电子设备及存储介质 |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116962620A (zh) * | 2022-04-20 | 2023-10-27 | 华为技术有限公司 | 演示系统、方法、图形界面及相关装置 |
CN117308939A (zh) * | 2022-06-20 | 2023-12-29 | 中兴通讯股份有限公司 | Ar导航方法、终端、存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105183477A (zh) * | 2015-09-10 | 2015-12-23 | 上海踏风网络科技有限公司 | 应用程序虚拟道具信息获取系统及获取方法 |
US9600938B1 (en) * | 2015-11-24 | 2017-03-21 | Eon Reality, Inc. | 3D augmented reality with comfortable 3D viewing |
CN106648322A (zh) * | 2016-12-21 | 2017-05-10 | 广州市动景计算机科技有限公司 | 与虚拟对象进行互动操作的触发方法、装置和系统 |
CN108022301A (zh) * | 2017-11-23 | 2018-05-11 | 腾讯科技(上海)有限公司 | 一种图像处理方法、装置以及存储介质 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103116451B (zh) * | 2013-01-25 | 2018-10-26 | 腾讯科技(深圳)有限公司 | 一种智能终端的虚拟角色交互方法、装置和系统 |
US9503634B2 (en) * | 2013-03-14 | 2016-11-22 | Futurewei Technologies, Inc. | Camera augmented reality based activity history tracking |
EP3465331B1 (en) * | 2016-06-06 | 2024-08-07 | Warner Bros. Entertainment Inc. | Mixed reality system |
CN106710002A (zh) * | 2016-12-29 | 2017-05-24 | 深圳迪乐普数码科技有限公司 | 基于观察者视角定位的ar实现方法及其系统 |
US10987190B2 (en) * | 2017-05-09 | 2021-04-27 | Brainlab Ag | Generation of augmented reality image of a medical device |
CN109754471B (zh) * | 2019-01-10 | 2023-06-27 | 网易(杭州)网络有限公司 | 增强现实中的图像处理方法及装置、存储介质、电子设备 |
CN111818265B (zh) * | 2020-07-16 | 2022-03-04 | 北京字节跳动网络技术有限公司 | 基于增强现实模型的交互方法、装置、电子设备及介质 |
CN112312111A (zh) * | 2020-10-30 | 2021-02-02 | 北京字节跳动网络技术有限公司 | 虚拟图像的显示方法、装置、电子设备及存储介质 |
-
2020
- 2020-10-30 CN CN202011198009.XA patent/CN112312111A/zh active Pending
-
2021
- 2021-08-30 US US18/044,361 patent/US20230360337A1/en active Pending
- 2021-08-30 WO PCT/CN2021/115432 patent/WO2022088918A1/zh active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105183477A (zh) * | 2015-09-10 | 2015-12-23 | 上海踏风网络科技有限公司 | 应用程序虚拟道具信息获取系统及获取方法 |
US9600938B1 (en) * | 2015-11-24 | 2017-03-21 | Eon Reality, Inc. | 3D augmented reality with comfortable 3D viewing |
CN106648322A (zh) * | 2016-12-21 | 2017-05-10 | 广州市动景计算机科技有限公司 | 与虚拟对象进行互动操作的触发方法、装置和系统 |
CN108022301A (zh) * | 2017-11-23 | 2018-05-11 | 腾讯科技(上海)有限公司 | 一种图像处理方法、装置以及存储介质 |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022088918A1 (zh) * | 2020-10-30 | 2022-05-05 | 北京字节跳动网络技术有限公司 | 虚拟图像的显示方法、装置、电子设备及存储介质 |
CN112837375A (zh) * | 2021-03-17 | 2021-05-25 | 北京七维视觉传媒科技有限公司 | 用于真实空间内部的相机定位的方法和系统 |
CN112837375B (zh) * | 2021-03-17 | 2024-04-30 | 北京七维视觉传媒科技有限公司 | 用于真实空间内部的相机定位的方法和系统 |
CN113209632A (zh) * | 2021-06-08 | 2021-08-06 | 腾讯科技(深圳)有限公司 | 一种云游戏的处理方法、装置、设备及存储介质 |
CN113209632B (zh) * | 2021-06-08 | 2022-08-12 | 腾讯科技(深圳)有限公司 | 一种云游戏的处理方法、装置、设备及存储介质 |
CN115967796A (zh) * | 2021-10-13 | 2023-04-14 | 北京字节跳动网络技术有限公司 | Ar对象共享方法、装置及设备 |
CN114416259A (zh) * | 2022-01-20 | 2022-04-29 | 北京字跳网络技术有限公司 | 虚拟资源的获取方法、装置、设备及存储介质 |
WO2023216822A1 (zh) * | 2022-05-13 | 2023-11-16 | 北京字节跳动网络技术有限公司 | 图像校正方法、装置、电子设备及存储介质 |
CN115393497A (zh) * | 2022-07-29 | 2022-11-25 | 中国第一汽车股份有限公司 | 虚拟成像方法、装置、非易失性存储介质和计算机设备 |
CN115174886A (zh) * | 2022-08-25 | 2022-10-11 | 吉林大学 | 支持立体虚拟现实与增强现实的手机镜头及显示方法 |
CN116320364A (zh) * | 2023-05-25 | 2023-06-23 | 四川中绳矩阵技术发展有限公司 | 一种基于多层显示的虚拟现实拍摄方法及显示方法 |
Also Published As
Publication number | Publication date |
---|---|
WO2022088918A1 (zh) | 2022-05-05 |
US20230360337A1 (en) | 2023-11-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2022088918A1 (zh) | 虚拟图像的显示方法、装置、电子设备及存储介质 | |
KR102494795B1 (ko) | 상이한 비디오 데이터 스트림들 내의 상이한 유리한 지점들로부터 표현된 가상 오브젝트 및 실세계 오브젝트에 기초하여 병합된 현실 장면을 생성하기 위한 방법들 및 시스템들 | |
US10403044B2 (en) | Telelocation: location sharing for users in augmented and virtual reality environments | |
CN109582122B (zh) | 增强现实信息提供方法、装置及电子设备 | |
KR101600038B1 (ko) | 소셜 증강현실 서비스 시스템 및 방법 | |
US11880999B2 (en) | Personalized scene image processing method, apparatus and storage medium | |
US10614631B2 (en) | Seamless injection of augmented three-dimensional imagery using a positionally encoded video stream | |
CN112672185B (zh) | 基于增强现实的显示方法、装置、设备及存储介质 | |
CN114531553B (zh) | 生成特效视频的方法、装置、电子设备及存储介质 | |
KR102197615B1 (ko) | 증강 현실 서비스를 제공하는 방법 및 증강 현실 서비스를 제공하기 위한 서버 | |
US20240087157A1 (en) | Image processing method, recording medium, image processing apparatus, and image processing system | |
US11948257B2 (en) | Systems and methods for augmented reality video generation | |
CN112068703B (zh) | 目标物体的控制方法、装置、电子设备及存储介质 | |
US20240062479A1 (en) | Video playing method and apparatus, electronic device, and storage medium | |
CN111833459B (zh) | 一种图像处理方法、装置、电子设备及存储介质 | |
CN111818265B (zh) | 基于增强现实模型的交互方法、装置、电子设备及介质 | |
CN109636917B (zh) | 三维模型的生成方法、装置、硬件装置 | |
CN114691068A (zh) | 基于投屏技术的信息显示方法及装置 | |
US20230326147A1 (en) | Helper data for anchors in augmented reality | |
CN113566829A (zh) | 基于高精度定位技术的混合现实的导览方法、系统及mr设备 | |
CN112973116A (zh) | 虚拟场景画面展示方法、装置、计算机设备及存储介质 | |
CN114004953A (zh) | 现实增强画面的实现方法、系统及云端服务器 | |
CN110349270A (zh) | 基于现实空间定位的虚拟沙盘呈现方法 | |
JP2023134220A (ja) | 通信システム、通信管理サーバ、通信管理方法、及びプログラム | |
CN117201856A (zh) | 信息交互方法、装置、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |