WO2020007157A1 - 增强现实数据传播方法、系统、终端和存储介质 - Google Patents

增强现实数据传播方法、系统、终端和存储介质 Download PDF

Info

Publication number
WO2020007157A1
WO2020007157A1 PCT/CN2019/090071 CN2019090071W WO2020007157A1 WO 2020007157 A1 WO2020007157 A1 WO 2020007157A1 CN 2019090071 W CN2019090071 W CN 2019090071W WO 2020007157 A1 WO2020007157 A1 WO 2020007157A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
augmented reality
virtual world
real scene
identification data
Prior art date
Application number
PCT/CN2019/090071
Other languages
English (en)
French (fr)
Inventor
江会福
薛丰
刘楠
郭艺帆
Original Assignee
腾讯科技(深圳)有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 腾讯科技(深圳)有限公司 filed Critical 腾讯科技(深圳)有限公司
Priority to EP19830742.3A priority Critical patent/EP3745726A4/en
Publication of WO2020007157A1 publication Critical patent/WO2020007157A1/zh
Priority to US16/989,488 priority patent/US11917265B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8146Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/2187Live feed
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/23412Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs for generating or manipulating the scene composition of objects, e.g. MPEG-4 objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4122Peripherals receiving signals from specially adapted client devices additional display device, e.g. video projector
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4126The peripheral being portable, e.g. PDAs or mobile phones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41407Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/44012Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving rendering scenes according to scene graphs, e.g. MPEG-4 scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47205End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for manipulating displayed content, e.g. interacting with MPEG-4 objects, editing locally
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/658Transmission by the client directed to the server
    • H04N21/6582Data stored in the client, e.g. viewing habits, hardware capabilities, credit card number
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Databases & Information Systems (AREA)
  • Computer Graphics (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本申请涉及一种增强现实数据传播方法、系统、终端和存储介质,所述增强现实数据传播方法包括:接收增强现实数据,所述增强现实数据携带有AR识别数据;根据所述AR识别数据,展示所述增强现实数据;当接收到用户指令时,根据所述用户指令更新所述增强现实数据;分享更新的所述增强现实数据。本申请提供的方案可以实现用户可通过配置较低的终端实现用户与虚拟世界数据之间的AR互动。

Description

增强现实数据传播方法、系统、终端和存储介质
本申请要求于2018年7月5日提交的申请号为201810730829.5、发明名称为“增强现实数据传播方法、系统和存储介质”的中国专利申请的优先权,其全部内容通过引用结合在本申请中。
技术领域
本申请涉及计算机技术领域,特别涉及一种增强现实数据传播方法、系统、终端和存储介质。
背景技术
随着计算机技术的发展,增强现实(augmented reality,简称AR)技术得以产生和发展,AR技术不仅能够向用户展现真实世界的信息,而且可以同时向用户显示虚拟世界的虚拟世界数据,通过两种世界的信息相互补充、叠加,能够增加用户与在真实世界中呈现的虚拟世界数据之间的互动。
然而,当前的AR技术,对终端的配置有较高的要求,需要终端配置有摄像头以及具有识别能力,因而,一些配置较低的终端无法应用AR技术,用户无法通过这些配置较低的终端实现与虚拟世界数据之间的互动。
发明内容
基于此,本申请实施例提供了一种增强现实数据传播方法、系统、终端和存储介质,能够通过配置较低的终端实现用户与虚拟世界数据之间的互动。所述技术方案如下:
一方面,提供了一种增强现实数据传播方法,包括:
接收增强现实数据,所述增强现实数据携带有AR识别数据;
根据所述AR识别数据,展示所述增强现实数据;
当接收到用户指令时,根据所述用户指令更新所述增强现实数据;
分享更新的所述增强现实数据。
一方面,提供了一种增强现实数据传播系统,所述系统包括采集终端、第一目标终端、第二目标终端和第三目标终端,其中:
所述采集终端用于采集现实场景图像;根据所述现实场景图像识别出AR识别数据;获取与所述AR识别数据对应的虚拟世界数据;根据所述现实场景图 像、所述AR识别数据以及所述虚拟世界数据生成增强现实数据;
所述采集终端还用于传播所述增强现实数据至第一目标终端;
所述第一目标终端用于接收所述增强现实数据;还用于向第二目标终端发送所述增强现实数据;
所述第二目标终端用于在接收到所述第一目标终端发送的所述增强现实数据时,根据所述AR识别数据展示所述增强现实数据;
所述第二目标终端还用于接收用户指令,并根据所述用户指令更新所述增强现实数据;分享更新的所述增强现实数据至所述第三目标终端。
一方面,提供了一种终端,包括处理器和存储器,所述存储器中存储有至少一条指令,所述指令由所述处理器加载并执行以实现下述增强现实数据传播方法所执行的步骤:
接收增强现实数据,所述增强现实数据携带有AR识别数据;
根据所述AR识别数据,展示所述增强现实数据;
当接收到用户指令时,根据所述用户指令更新所述增强现实数据;
分享更新的所述增强现实数据。
一方面,提供了一种计算机可读存储介质,存储有计算机程序,所述计算机程序被处理器执行时,使得所述处理器执行上述增强现实数据传播方法的步骤。
附图说明
图1为一个实施例中增强现实数据传播方法的应用环境图;
图2为一个实施例中增强现实数据传播方法的流程示意图;
图3为一个实施例中生成增强现实数据的步骤的流程示意图;
图4为一个实施例中生成AR视频的流程示意图;
图5为一个实施例中生成AR图片的流程示意图;
图6为一个实施例中传播AR视频的示意图;
图7为一个实施例中传播AR图片的示意图;
图8为一个实施例中在目标终端根据AR识别数据展示增强现实数据的步骤的流程示意图;
图9为一个实施例中还原并改造增强现实场景的流程示意图;
图10为另一个实施例中还原并改造增强现实场景的流程示意图;
图11为一个具体的实施例中增强现实数据传播方法的流程示意图;
图12为一个实施例增强现实数据传播系统的架构示意图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
图1为一个实施例中增强现实数据传播方法的应用环境图。参照图1,该增强现实数据传播方法应用于增强现实数据传播系统。该增强现实数据传播系统包括采集终端110和目标终端120,该目标终端120可以包括一个或多个目标终端,比如第一目标终端122、第二目标终端124或者第三目标终端126等。采集终端110和目标终端120通过网络连接。采集终端110具体可以是移动终端,移动终端具体可以为手机、平板电脑或者笔记本电脑等中的至少一种,还可以是智能眼镜或者透视眼镜等。目标终端120具体可以是移动终端,移动终端具体可以为手机、平板电脑或者笔记本电脑等中的至少一种。
示意性的,在一种多用户交互增强现实数据传播系统中,如果目标终端120不具备图像采集装置和AR识别能力,在相关技术中,上述目标终端120将不能体验到AR场景,而在本申请实施例提供的增强现实数据传播方法中,可以先由具备图像采集装置和AR识别能力的采集终端110采集获得增强现实数据,由该采集终端110将采集得到的增强现实数据发送给任一目标终端120(例如第一目标终端122、第二目标终端124或者第三目标终端126等),使得目标终端120(不管是否具备图像采集装置和AR识别能力)均能够展示该增强现实数据,进一步地,如果该目标终端120性能较低,那么可以使得目标终端120展示该增强现实数据之后,以采集终端110的视角观察增强现实数据中的虚拟世界数据,而如果该目标终端120性能较高,那么目标终端120还支持对接收到的增强现实数据进行二次修改(也即是更新),将更新后的增强现实数据传播给其他的目标终端(或采集终端),下面将对本申请实施例进行详述。
如图2所示,在一个实施例中,提供了一种增强现实数据传播方法。本实施例主要以该方法应用于上述图1中的目标终端120来举例说明。参照图2,该增强现实数据传播方法具体包括如下步骤:
S202,目标终端接收增强现实数据,增强现实数据携带有AR识别数据。
具体地,目标终端可通过网络接收采集终端传播的增强现实数据。增强现 实数据是实现增强现实画面的过程中所产生的数据。增强现实数据包括采集的现实场景图像、识别出的AR识别数据以及与虚拟世界相关的虚拟世界数据。
AR识别数据是用于理解现实场景的信息。增强现实数据中的AR识别数据是由采集终端识别得到的,采集终端每采集一帧现实场景图像,就记录识别出的与当前现实场景图像对应的AR识别数据以及对应的虚拟世界数据,根据AR识别数据与虚拟世界数据生成这一帧现实场景图像对应的增强现实数据。
具体地,采集终端在采集现实场景图像的过程中,还通过传感器跟踪摄像头视线的移动,通过对采集的现实场景图像进行分析和重构,并结合传感器数据对现实场景进行识别,得到用于理解现实场景的AR识别数据。采集终端可根据识别出的AR识别数据,找到现实场景中需要“增强”的目标和目标所在的位置,就可以将相应的虚拟世界数据叠加至采集的现实场景图像中的目标,实现虚实结合,达到增强现实的目的。在一个实施例中,采集终端上配置的传感器可以包括陀螺仪、倾角传感器、位移传感器、速度传感器或者加速度传感器等中的至少一种。
在一个实施例中,如图3所示,增强现实数据的生成步骤具体包括以下步骤:需要说明的是,该增强现实数据的生成步骤可在具有图像采集装置以及AR识别能力的采集终端上实现,也可由具有图像采集装置以及AR识别能力的目标终端来实现。本实施例以该增强现实数据的生成方法在采集终端上实现来说明。
S302,采集终端采集现实场景图像。
其中,现实场景图像是用于表达当前采集终端所在现实场景的图像。具体地,采集终端可通过内置的摄像头采集现实场景图像,内置的摄像头包括前置摄像头或后置摄像头。采集终端也可以通过外接的图像采集装置采集现实场景图像,比如图像采集装置可以是摄像机等。
在一个具体地应用场景中,用户可通过采集终端上用于调用摄像头的应用程序打开内置的摄像头,这样,采集终端可通过采集摄像头的拍摄范围内的图像,采集作为现实场景图像。可以理解,若用户打开的是前置摄像头,那么采集的图像中可以包括前置摄像头拍摄范围内的背景;若用户打开的是后置摄像头,那么采集的图像中就可以包括后置摄像头拍摄范围内的背景。
在一个实施例中,增强现实数据传播方法可应用于AR应用程序中,比如AR游戏应用程序。采集终端在检测到AR应用程序启动后,可以自动开启摄像头,并将摄像头实时捕捉到的现实场景图像所表示的现实场景作为AR应用程序 的使用场景。
S304,采集终端根据现实场景图像识别出AR识别数据。
在一个实施例中,采集终端可将采集的现实场景图像和获取的传感器数据发送至服务器,由服务器对其进行分析和重构,分析虚拟世界数据和现实场景的相对位置,实现坐标系的对齐并进行虚拟场景的融合计算,得到AR识别数据。
在一个实施例中,采集终端每采集一帧现实场景图像,就记录从当前现实场景图像中识别出的AR识别数据,直至图像采集完毕。AR识别数据包括SLAM(simutanelously localization and mapping,即时定位与地图构建)信息、定位地图信息、平面信息、光感信息或者人脸信息中的至少一种。采集终端可在移动的过程中根据移动的轨迹、方向信息或者转动角度信息等得到定位地图信息,构建相应的地图,确定采集终端在构建的地图中的移动轨迹。
S306,采集终端获取与AR识别数据对应的虚拟世界数据。
其中,虚拟世界数据是预先设定的需要叠加在采集的现实场景图像中的内容。虚拟世界数据可以包括虚拟角色以及与该虚拟角色相关的属性信息,比如该虚拟角色可以是虚拟人物、虚拟动物等,比如相关的属性信息可以是该虚拟角色的身份描述信息、等级信息、道具信息等等。可选地,虚拟世界数据还可以包括虚拟物品,比如虚拟景物、虚拟道具、虚拟标牌等等。
具体地,采集终端可在识别出AR识别数据后,获取与AR识别数据对应的虚拟世界数据,将获取的虚拟世界数据叠加在现实场景图像中目标位置处,从而将虚拟世界数据叠加在实时捕捉到的现实场景中,以对现实场景进行增强。
在一个实施例中,采集终端可事先创建若干虚拟世界数据,将创建的虚拟世界数据存储在文件或者缓存中,以在需要的时候获取。采集终端也可以从服务器获取与识别出的AR识别数据对应的虚拟世界数据。服务器可实现对虚拟世界数据的建模、管理和绘制等,将创建的虚拟世界数据与现实场景中待增强目标的目标标识对应存储,这样,在终端根据采集的图像识别出AR识别数据中的待增强目标之后,就可以获取与待增强目标的目标标识所对应的虚拟世界数据。
在一个实施例中,当采集终端从实时捕捉到的现实场景图像中识别到AR识别数据中包括预设目标时,获取与该预设目标对应的虚拟世界数据,并将对应的虚拟世界数据显示在现实场景图像所表达的现实场景中。预设目标可以是人脸、预设的手势、预设的表情或者预设的动作等等。
比如,采集终端从采集的现实场景图像中识别到预设目标为一个桌子,并 获取相应的虚拟世界数据“虚拟水杯”,若需要将“虚拟水杯”放置于从现实场景图像中识别出的桌子上,就需要知道采集的现实场景图像中桌子在哪里,每当采集终端获取到新一帧现实场景图像,采集终端就需要基于采集的现实场景图像和传感器数据定位图像中的桌子,具体地,采集终端可在预先设定的坐标系中确定桌子的位置,根据该位置将“虚拟水杯”虚拟地放在桌子上,并将融合后的桌子和“虚拟水杯”展示给用户。
在一个实施例中,采集终端也可以根据识别出的AR识别数据,在现实场景图像中叠加了虚拟世界数据后,将得到的增强现实图像显示。进一步地,随着采集终端的移动,预设目标在现实场景图像中的位置也就随之移动,则采集终端可跟踪图像中预设目标的移动并将显示的虚拟世界数据随着一起移动。比如,上述例子中,由于采集终端的移动或晃动,捕捉到的桌子在屏幕上显示的位置可能会发生变化,相应的“虚拟水杯”也要一起移动。
在一个实施例中,采集终端还可获取多个与识别出的AR识别数据对应的虚拟世界数据,并将获取的多个虚拟世界数据显示在屏幕上,获取用户触发的针对显示的任意一个虚拟世界数据的选择指令,将选择指令对应的虚拟世界数据叠加至采集的现实场景图像中目标位置处,并将叠加后融合的增强现实图像显示在屏幕上,实现用户与虚拟世界的互动。采集终端还可在显示与预设目标对应的虚拟世界数据时,还可显示与该预设目标相关的属性信息。或者,采集终端还可检测用户针对显示的虚拟世界数据的触发操作,根据触发操作可以替换、修改或删除显示的虚拟世界数据。触发操作可以是触控操作、点击操作等。
S308,采集终端根据现实场景图像、AR识别数据以及虚拟世界数据生成增强现实数据。
在一个实施例中,当现实场景图像包括于视频帧序列中的视频帧时,增强现实数据为增强现实流数据;增强现实流数据包括视频帧序列,还包括与视频帧序列中的视频帧对应的AR识别数据以及与对应的AR识别数据对应的虚拟世界数据。
具体地,在采集终端录制AR视频的过程中,采集终端可根据采集的视频帧识别出与当前采集终端所在场景对应的AR识别数据,将采集的AR识别数据按照视频帧的采集时序逐帧记录,在增强现实视频录制完毕时,根据采集的视频帧序列,以及与视频帧序列中各视频帧对应的AR识别数据与对应的虚拟世界数据,生成增强现实流数据。
在一个实施例中,当现实场景图像包括于视频帧序列中的视频帧时,步骤S302,采集终端采集现实场景图像包括:采集终端从现实场景逐帧采集视频帧,并将视频帧按采集时序形成视频帧序列;步骤S304,采集终端根据现实场景图像识别出AR识别数据包括:采集终端根据视频帧序列中的视频帧识别出对应的AR识别数据;步骤S308,采集终端根据现实场景图像、AR识别数据以及虚拟世界数据生成增强现实数据包括:采集终端将视频帧序列、AR识别数据和虚拟世界数据进行压缩处理,获得增强现实流数据。增强现实流数据也可称之为增强现实视频(AR视频)。
如图4所示,为一个实施例中生成AR视频的流程示意图。参照图4,采集终端启动摄像头、传感器之后,就开始采集视频帧,每采集一帧视频帧,都获取基于当前时刻采集的视频帧以及当前时刻的传感器数据识别出的AR识别数据,并记录下来,还记录当前时刻获取的与所采集的视频帧对应的虚拟世界数据,直至视频帧采集完毕时,采集终端可根据采集的视频帧形成的视频帧序列、获取的AR识别数据及虚拟世界数据进行压缩处理生成增强现实流数据。
在一个实施例中,增强现实流数据可以是以压缩文件的格式进行传播或存储,具体的压缩格式可以是zip或rar等,对此不作限制。
在一个实施例中,当现实场景图像为现实场景图片时,增强现实数据为图片;步骤S302,采集终端采集现实场景图像包括:采集终端获取图像采集指令;采集终端根据图像采集指令,实时采集现实场景的图像;采集终端根据图像识别出AR识别数据;当识别出的AR识别数据符合预设条件时,采集终端采集现实场景图像。
其中,当现实场景图像为现实场景图片时,增强现实数据为图片,即得到到AR图片。识别出的AR识别数据符合预设条件,是指采集终端获取的AR识别数据足够多到可供目标终端根据增强现实数据中的AR识别数据确定采集的图像中待增强目标的位置。在一个实施例中,采集终端可在获取到图像采集指令后,启动图像采集的倒计时,设置的倒计时时长可保证获取到符合预设条件的AR识别数据,那么,在倒计时结束之后,就采集现实场景图像。
在一个具体的应用场景中,采集终端获取用户输入的图像采集指令,启动摄像头和传感器,通过摄像头实时采集现实场景的图像,根据采集的图像识别出AR识别数据,当获取的AR识别数据充足之后,就拍摄当前时刻的图像,作为采集的图片。
在一个实施例中,当现实场景图像为现实场景图片时,增强现实数据为图片;步骤S308,根据现实场景图像、AR识别数据以及虚拟世界数据生成增强现实数据包括:将AR识别数据和虚拟世界数据添加至现实场景图片的附加信息中,获得增强现实数据。
其中,附加信息是用于表达图片相关属性的信息。图片可以携带附加信息,附加信息可包括图片的图片大小信息、拍摄时间信息或者图片方向信息等等。在一个实施例中,附加信息可包含在图片的文件头中。
具体地,采集终端也可将拍摄的图片传播至目标终端。采集终端可在拍摄之前,根据摄像头捕捉到的图像识别出AR识别数据,并获取与识别出的AR识别数据对应的虚拟世界数据,将识别出的AR识别数据以及获取的虚拟世界数据添加至采集的图片的附加信息中,得到增强现实数据。在一个实施例中,采集终端也可以将获取的虚拟世界数据叠加至采集的现实场景图片中并显示。本实施例中根据图片生成的增强现实数据也可称之为增强现实图片(AR图片)。
在一个实施例中,采集终端还可以将识别出的AR识别数据、以及对应的虚拟世界数据和采集的图片进行压缩处理后形成增强现实数据包,并传播形成的增强现实数据包至目标终端。
如图5所示,为一个实施例中根据采集的现实场景图片生成AR图片的流程示意图。参照图5,采集终端启动摄像头、传感器之后,就根据捕捉到的现实场景图像识别出AR识别数据,直到获取的AR识别数据充足时,就获取相应的虚拟世界数据并拍摄图片,并将拍摄图片时获取的AR识别数据以及对应的虚拟世界数据添加至图片的附加信息中,得到增强现实图片。
在本实施例中,采集终端通过将识别出的AR识别数据以及获取的虚拟世界数据存入图片的附加信息中,实现了AR识别数据的传播或保存。
S204,目标终端向另一目标终端发送增强现实数据。
具体地,目标终端可通过网络接收采集终端发送的增强现实数据,同时,目标终端也可向其它目标终端发送接收的增强现实数据。这里的目标终端可以有多个,目标终端之间可以相互传播增强现实数据以及经过更新的增强现实数据。比如,如图1所示,A用户所持有的采集终端110可在生成增强现实数据之后,发送增强现实数据至B用户所持有的第一目标终端122、C用户所持有的第二目标终端124;第一目标终端122可在接收到增强现实数据之后,发送增强现实数据至第二目标终端124或采集终端110,或者,第一目标终端122还可将 经过B用户更新后的增强现实数据发送至第二目标终端124或采集终端110;第二目标终端124还可将经过C用户更新的增强现实数据分享至第三目标终端126。
在一个实施例中,接收了增强现实数据的第一目标终端可向其它目标终端发送增强现实流数据,比如第二目标终端,第二目标终端就可以在按照视频帧序列的顺序播放增强现实流数据中视频帧序列中的各个视频帧时,根据对应的现实场景信息AR识别数据,将对应的虚拟世界数据叠加到相应的视频帧中进行播放。
可选地,对于任一目标终端(包括上述第一目标终端),在接收到任一增强现实数据时,均可以执行上述在按照视频帧序列的顺序播放增强现实流数据中视频帧序列中的各个视频帧时,根据对应的现实场景信息AR识别数据,将对应的虚拟世界数据叠加到相应的视频帧中进行播放的步骤,这里不对上述步骤的执行主体进行具体限定。
如图6所示,为一个实施例中传播AR视频的示意图。参照图6,第一个用户所持有的采集终端具备识别能力,在采集到视频帧后获得相应的AR识别数据和虚拟世界数据,并据以生成增强现实流数据,第一个用户通过采集终端将增强现实流数据传播给其他用户的目标终端,其他用户的目标终端不需要具备识别能力,只需要根据接收的增强现实流数据逐帧还原第一个用户的增强现实场景图像并显示,由于还原了第一用户的增强现实场景图像,其他用户就可以第一个用户的视角体验增强现实场景。任一其他用户的目标终端还可以获取更新后的用于增强现实的虚拟世界相关的数据,从而达到改造增强现实视频的目的。
如图7所示,为一个实施例中传播AR图片的示意图。参照图7,第一个用户所持有的采集终端具备识别能力,在拍下图片之前,采集终端需要先通过移动摄像头捕捉现实场景图像,以识别到足够多的AR识别数据,在AR识别数据获取充足之后,采集终端就可利用摄像头进行图片拍摄,并将识别出的AR识别数据以及获取的虚拟世界数据存入拍摄的图片的附加信息中,得到增强现实图片,并将增强现实图片传播给其他用户的目标终端,其他用户的目标终端不需要具备识别能力,只需要根据接收的增强现实图片还原增强现实场景。由于还原了图片中的增强现实场景,其他用户就可以在图片的平面上放置其它虚拟世界数据,从而达到改造增强现实图片的目的。
S206,在目标终端根据AR识别数据展示增强现实数据。
在一个实施例中,采集终端可以是具备根据采集的现实场景图像识别出AR识别数据的能力的终端,AR识别数据是增强现实处理所需的信息,而目标终端可以是不具备根据采集的现实场景图像识别出AR识别数据的能力的终端,目标终端仅需从接收的增强现实数据提取出现实场景图像、AR识别数据以及虚拟世界数据,根据AR识别数据在现实场景图像上叠加虚拟世界数据,以还原并显示采集终端采集的增强现实场景,虽然目标终端不具备识别能力,但也能播放增强现实场景图像。
需要说明的是,上述目标终端可以是S204中的“目标终端”,也可以是S204中的“另一目标终端”,本申请实施例不对目标终端具体是发送方还是接收方进行限定。
在一个实施例中,如图8所示,步骤S206,在目标终端根据AR识别数据展示增强现实数据具体包括以下步骤:
S802,目标终端从增强现实数据中,提取现实场景图像、根据现实场景图像识别出的AR识别数据以及与AR识别数据对应的虚拟世界数据。
具体地,目标终端可在接收到传播至本地的增强现实数据后,从增强现实数据中提取现实场景图像、AR识别数据以及对应的虚拟世界数据。在一个实施例中,采集终端可按照预设的数据格式将采集的现实场景图像、识别出的AR识别数据以及获取的虚拟世界数据进行编码后保存,目标终端就可以按照约定的数据格式进行解码,从中提取现实场景图像、AR识别数据以及对应的虚拟世界数据。
在一个实施例中,当增强现实数据为增强现实流数据时,步骤S802,目标终端从增强现实数据中,提取现实场景图像、根据现实场景图像识别出的AR识别数据以及与AR识别数据对应的虚拟世界数据,包括:目标终端从增强现实流数据中的视频帧序列中,按视频帧时序提取包括现实场景图像的视频帧;目标终端从增强现实流数据中提取与视频帧对应的AR识别数据以及虚拟世界数据;AR识别数据和虚拟世界数据相对应。
其中,增强现实流数据是当现实场景图像为视频帧序列中的视频帧时,采集终端可根据视频帧序列中各个视频帧,以及各个视频帧对应的AR识别数据和虚拟世界数据生成的数据,具体地,采集终端从现实场景逐帧采集视频帧,并将视频帧按采集时序形成视频帧序列;根据视频帧序列中的视频帧识别出对应的AR识别数据;将视频帧序列、AR识别数据和虚拟世界数据进行压缩处理, 获得增强现实流数据。
相应地,目标终端可在接收到传播至本地的增强现实流数据后,对增强现实流数据进行解压处理,按照各视频帧在视频帧序列中的顺序,依次获取相应的视频帧,每获取一帧视频,就根据视频帧与AR识别数据以及虚拟世界数据之间的对应关系,从增强现实流数据中提取当前视频帧对应的AR识别数据以及对应的虚拟世界数据。
在一个实施例中,当增强现实数据为图片时,步骤S802,目标终端从增强现实数据中,提取现实场景图像、根据现实场景图像识别出的AR识别数据以及与AR识别数据对应的虚拟世界数据包括:目标终端从图片中获取图像数据,得到现实场景图像;目标终端从图片的附加信息中提取根据现实场景图像识别出的AR识别数据以及与AR识别数据对应的虚拟世界数据。
其中,图片的附加信息是用于表达图片相关属性的信息。图片可以携带附加信息,附加信息可包括图片的图片大小信息、拍摄时间信息、图片方向信息等等。在一个实施例中,附加信息可包含在图片的文件头中。采集终端可将根据采集的现实场景图像识别出的AR识别数据以及与AR识别数据对应的虚拟世界数据添加至图片的附加信息中,得到增强现实数据。
相应地,目标终端在接收到传播至本地的增强现实图片后,可从图片中获取图片数据,比如图片本身的像素数据,以得到采集终端采集的现实场景图像。目标终端还可从图片的附加信息中提取采集终端根据采集的图片识别的AR识别数据以及获取的虚拟世界数据,目标终端不需要具备识别能力,只需要根据接收的增强现实图片还原增强现实场景。
S804,目标终端根据AR识别数据,在现实场景图像上叠加虚拟世界数据。
其中,AR识别数据是增强现实处理所需的信息,目标终端可以是不具备根据采集的现实场景图像识别AR识别数据的能力的终端,目标终端仅需从接收的增强现实数据提取出现实场景图像、AR识别数据以及虚拟世界数据,根据AR识别数据在现实场景图像上叠加虚拟世界数据,以还原并显示采集终端采集的增强现实场景,虽然目标终端不具备识别能力,但也可以实现播放增强现实场景图像。
具体地,目标终端根据获取的AR识别数据,确定获取的现实场景图像中需要“增强”的预设目标和预设目标所在的位置,就可以将获取的相应的虚拟世界数据叠加至现实场景图像中的预设目标,实现虚实结合,达到增强现实的目 的。
可以理解的是,虽然目标终端不具备识别能力,甚至都不具备图像采集能力,比如不用开启摄像头,目标终端仍可以根据获取的AR识别数据构建增强现实场景,在现实场景图像上叠加虚拟世界数据,使得用户可以通过配置较低的终端体验到增强现实场景。预设目标可以是人脸、预设的手势、预设的表情、预设的动作等等。
S806,目标终端显示叠加有虚拟世界数据的现实场景图像。
具体地,目标终端在根据增强现实数据中的AR识别数据确定了预设目标在现实场景图像中所在的位置后,就可以将提取的虚拟世界数据叠加至确定的位置处,并将叠加了虚拟世界数据的现实场景图像渲染显示。
在一个实施例中,当增强现实数据为增强现实流数据时,步骤S804,根据AR识别数据,在现实场景图像上叠加虚拟世界数据包括:根据与提取的视频帧对应的AR识别数据,在提取的视频帧上叠加与提取的视频帧对应的虚拟世界数据;步骤S806,显示叠加有虚拟世界数据的现实场景图像包括:按照视频帧时序播放叠加有虚拟世界数据的视频帧。
具体地,当增强现实数据为增强现实流数据时,也就是AR视频时,目标终端可在接收到增现实流数据后,对增强现实流数据进行解压得到视频帧序列以及该视频帧序列中各视频帧对应的AR识别数据和虚拟世界数据,目标终端就可以按照各视频帧在视频帧序列中的顺序,依次播放各视频帧,在播放当前视频帧时,将相应的虚拟世界数据叠加在当前视频帧中,并将叠加了虚拟世界数据的视频帧按照视频帧在原视频帧序列中的时序进行播放。
在一个实施例中,当增强现实数据为图片时,步骤S804,根据AR识别数据,在现实场景图像上叠加虚拟世界数据包括:根据从图片的附加信息中提取的AR识别数据,在图片上叠加与提取的AR识别数据对应的虚拟世界数据,步骤S806,显示叠加有虚拟世界数据的现实场景图像包括:显示叠加有虚拟世界数据的图片。
在上述实施例中,目标终端在接收到增强现实数据后,就可提取出现实场景图像、AR识别数据以及对应的虚拟世界数据,并在现实场景图像上叠加虚拟世界数据,将叠加了虚拟世界数据的现实场景图像展示,即使目标终端配置较低,也能还原出配置较高的终端所采集的增强现实场景,从而用户可通过配置较低的目标终端实现与虚拟世界数据的互动。
S208,当目标终端接收到用户指令时,根据用户指令更新增强现实数据。
其中,用户指令是用于对显示的虚拟世界数据进行更新的指令。具体地,接收了增强现实数据的目标终端还可对还原的增强现实场景进行二次加工,目标终端可检测对显示的虚拟世界数据进行更新的用户指令,比如可对虚拟世界数据进行增加、修改、删除或替换的用户指令,在获取到更新之后的虚拟世界数据,显示更新后的虚拟世界数据。
比如,目标终端可获取与增强现实数据中的AR识别数据相匹配的虚拟世界数据,并通过屏幕显示给用户,目标终端在接收用户触发的针对显示的任意一个虚拟世界数据的用户指令时,就获取用户指令所对应的虚拟世界数据,并将该虚拟世界数据替换原有的虚拟世界数据,叠加至采集的现实场景图像的目标位置处,并将叠加后融合的增强现实图像显示在屏幕上,实现虚拟世界数据的更新。
在一个实施例中,步骤S208,接收用户指令,并根据用户指令更新增强现实数据包括:获取用户触发的对显示的虚拟世界数据进行更新的用户指令;获取用户指令所对应的更新的虚拟世界数据;根据经过更新的虚拟世界数据、现实场景图像和AR识别数据,生成经过更新的增强现实数据。
具体地,目标终端还可获取新的虚拟世界数据,以对从增强现实数据中提取的虚拟世界数据进行更新,得到经过更新的虚拟世界数据,根据经过更新的虚拟世界数据、提取的现实场景图像和AR识别数据生成经过更新的增强现实数据。
在一个实施例中,当增强现实数据为增强现实流数据时,目标终端在接收到增强现实流数据后,对增强现实流数据进行解压处理得到视频帧序列以及该视频帧序列中各视频帧对应的AR识别数据和虚拟世界数据,目标终端就可以按照各视频帧在视频帧序列中的顺序,依次播放各视频帧,在播放当前视频帧时,目标终端可获取用户触发的对显示的虚拟世界数据进行更新的指令,在更新后显示更新后的虚拟世界数据,用户不仅可以体验的增强现实场景,还可以以自己的意愿更新其中的虚拟世界数据,达到二次改造增强现实视频的目的。
目标终端还可进一步获取针对更新的虚拟世界数据录制增强现实流数据的录制指令,根据录制指令,以当前更新的虚拟世界数据,当前的播放的视频帧以及相应的AR识别数据生成当前播放的视频帧对应的经过更新增强现实数据,直至视频播放结束。
如图9所示,为一个实施例中还原并改造增强现实场景的流程示意图。参照图9,目标终端对接收的增强现实流数据进行解压处理,得到视频帧序列以及相应的AR识别数据和与AR识别数据对应的虚拟世界数据,在渲染每一视频帧时,目标终端可根据与当前渲染的视频帧对应的AR识别数据渲染相应的虚拟世界数据,目标终端还可根据用户的触发指令更新当前的虚拟世界数据并显示出来,若目标终端还接收到用户触发的录制指令,则目标终端就根据当前更新的虚拟世界数据、当前播放的视频帧以及相应的AR识别数据录制与当前播放视频帧对应的增强现实流数据,直至视频播放结束,目标终端判断播放的视频帧序列中是否存在任一视频帧对应的经过更新的增强现实流数据,若存在,则说明视频帧序列对应的增强现实流数据有发生改变,则目标终端需将各个视频帧对应的经过更新的增强现实流数据进行压缩处理,得到视频帧序列对应的更新的增强现实流数据。
在一个实施例中,当增强现实数据为图片时,目标终端在根据该图片的附加信息中的AR识别数据和虚拟世界数据还原并显示增强现实图片时,还可获取用户触发的对显示的虚拟世界数据进行更新的指令,根据更新的指令显示更新后的虚拟世界数据,用户不仅可以体验的增强现实场景,还可以以自己的意愿更新其中的虚拟世界数据,达到二次改造增强现实图片的目的。
进一步地,目标终端还可以将更新后的虚拟世界数据添加至图片的附加信息中,并根据更新后的虚拟世界数据、以及附加信息中的AR识别数据生成更新的增强现实图片。
如图10所示,为一个实施例中还原并改造增强现实场景的流程示意图。参照图10,目标终端在接收到增强现实图片后,从图片的附加信息中提取增强AR识别数据和相应的虚拟世界数据,根据图片的图像数据现实图片,并根据提取的增强AR识别数据将提取的虚拟世界数据叠加至当前显示的图片中,还原增强现实图片所表示的增强现实场景。若当前图片可编辑,在获取到用户的编辑指令时,目标终端还可根据用户的编辑指令更新叠加的虚拟世界数据,并在图片的附加信息中添加更新的虚拟世界数据和AR识别数据,据以生成更新的增强现实图片,达到改造增强现实场景的目的。
在本实施例中,目标终端不仅可以还原采集终端采集的增强现实场景,通过对所展示的增强现实场景中的虚拟世界数据进行修改,目标终端还可实现对增强现实场景的二次改造。
S210,目标终端分享更新的增强现实数据。
在一个实施例中,目标终端还可根据接收的增强现实数据中的AR识别数据、现实场景图像以及更新后的虚拟世界数据生成更新的增强现实数据,并分享更新的增强现实数据至采集终端或其它目标终端。
在一个实施例中,步骤S210,目标终端分享更新的增强现实数据具体包括:第一目标终端向采集终端发送更新的增强现实数据,采集终端可接收第一目标终端反馈的经过更新的增强现实数据;从经过更新的增强现实数据中,提取现实场景图像、根据该现实场景图像识别出的AR识别数据和经过更新的虚拟世界数据;根据提取的AR识别数据,在提取的现实场景图像上叠加显示经过更新的虚拟世界数据。
可选地,第一目标终端也可以向除了该第一目标终端之外的任一第二目标终端发送更新的增强现实数据,使得该第二目标终端能够执行上述采集终端所执行的显示操作,这里不做赘述。
具体地,第一目标终端将添加了虚拟世界数据和AR识别数据的图片发送至第二目标终端后,第二目标终端可还原并显示增强现实场景,第二目标终端还可获取用户对显示的虚拟世界数据进行更新的指令,依据该指令获取更新的虚拟世界数据并显示在屏幕上。
第二目标终端还可将更新的虚拟世界数据以及获取的AR识别数据添加至图片的附加信息中,生成更新的增强现实数据,并将更新的增强现实数据反馈至采集终端,采集终端就可以从接收的增强现实数据中提取出现实场景图像、AR识别数据和经过更新的虚拟世界数据,并在现实场景图像上叠加更新的虚拟世界数据后显示,实现了采集终端对应的用户与第二目标终端对应的用户之间的互动。
在一个实施例中,步骤S210,目标终端分享更新的增强现实数据包括:生成更新的增强现实数据的目标终端可分享经过更新的增强现实数据至其它目标终端;经过更新的增强现实数据,用于指示接收到经过更新的增强现实数据的目标终端从增强现实数据中,提取现实场景图像、AR识别数据和经过更新的虚拟世界数据,并根据提取的AR识别数据,在提取的现实场景图像上叠加显示经过更新的虚拟世界数据。
具体地,目标终端可传播经过更新的增强现实数据至其它目标终端。当然,目标终端也可以传播经过更新的增强现实数据至采集终端,目标终端还可将传 播至本地的、未经过更新的增强现实数据发送至其它目标终端。其它目标终端在接收到经过更新的增强现实数据之后,类似地,可从传播至本地的增强现实数据中提取现实场景图像、AR识别数据以及经过更新的虚拟世界数据,以还原增强现实场景。从而,可实现基于增强现实场景促进多个用户之间的交互。
在一个实施例中,上述增强现实数据的传播方法还包括以下步骤:目标终端获取与显示的经过更新的虚拟世界数据对应的评论信息;实时展示评论信息。
具体地,第一目标终端在分享了经过更新的增强现实数据,其它目标终端可展示经过更新的增强现实数据,并获取用户针对所展示的增强现实数据上传的评论信息,其它目标终端可实时地将获取的评论信息发送至目标终端,第一目标终端可在展示该增强现实数据所表达的AR场景时,将接收到的评论信息一并展示。
在一个实施例中,其它目标终端还可在展示经过更新的增强现实数据时,获取各个用户针对所展示的增强现实数据的评论信息,并展示,也就是,生成更新的增强现实数据的目标终端和接收了更新的增强现实数据的目标终端都可以获取到各个用户的评论信息并显示给当前用户,可以提升多人基于该增强现实数据的互动。
上述增强现实数据的传播方法,在接收到采集终端发送的增强现实数据之后,还可将接收的增强现实数据发送至配置较低的目标终端,这样,目标终端可根据接收到的增强现实数据中携带的AR识别数据展示增强现实数据,还原AR场景,并且目标终端还可接收用户指令,并响应用户指令更新增强现实数据,然后分享更新的增强现实数据,这样,用户就可以通过配置较低的目标终端体验采集终端对应的用户所拍摄的AR场景,实现了多个用户之间的AR互动。
如图11所示,在一个具体的实施例中,提供了一种增强现实数据传播方法,该方法具体包括以下步骤:
S1102,采集终端采集现实场景图像;
S1104,当现实场景图像包括于视频帧序列中的视频帧时,采集终端将采集的视频帧按照采集时序形成视频帧序列,并将视频帧序列、根据视频帧序列中的视频帧识别出的AR识别数据和获取的与AR识别数据对应的虚拟世界数据进行压缩处理,获得增强现实流数据;
S1106,当现实场景图像为现实场景图片时,采集终端将识别出的AR识别 数据和获取的与AR识别数据对应的虚拟世界数据添加至现实场景图片的附加信息中,获得增强现实数据。
S1108,采集终端传播增强现实数据至第一目标终端。
S1110,第一目标终端接收传播至本地的增强现实数据。
S1112,第一目标终端向第二目标终端发送增强现实数据。
S1114,当增强现实数据为增强现实流数据时,第二目标终端从增强现实流数据中的视频帧序列中,按视频帧时序提取包括现实场景图像的视频帧;从增强现实流数据中提取与视频帧对应的AR识别数据以及虚拟世界数据;根据与提取的视频帧对应的AR识别数据,在提取的视频帧上叠加与提取的视频帧对应的虚拟世界数据;按照视频帧时序播放叠加有虚拟世界数据的视频帧。
S1116,当增强现实数据为图片时,第二目标终端从图片中获取图像数据,得到现实场景图像;从图片的附加信息中提取根据现实场景图像识别出的AR识别数据以及与AR识别数据对应的虚拟世界数据。
S1118,第二目标终端获取对显示的虚拟世界数据进行更新得到的经过更新的虚拟世界数据。
S1120,第二目标终端根据经过更新的虚拟世界数据、现实场景图像和AR识别数据,生成经过更新的增强现实数据。
S1122,第二目标终端传播经过更新的增强现实数据至第三目标终端;经过更新的增强现实数据,用于指示第三目标终端从经过更新的增强现实数据中,提取现实场景图像、AR识别数据和经过更新的虚拟世界数据,并根据提取的AR识别数据,在提取的现实场景图像上叠加显示经过更新的虚拟世界数据。
上述增强现实数据传播方法,在接收到采集终端发送的增强现实数据之后,还可将接收的增强现实数据发送至配置较低的目标终端,这样,目标终端可根据接收到的增强现实数据中携带的AR识别数据展示增强现实数据,还原AR场景,并且目标终端还可接收用户指令,并响应用户指令更新增强现实数据,然后分享更新的增强现实数据,这样,用户就可以通过配置较低的目标终端体验采集终端对应的用户所拍摄的AR场景,实现了多个用户之间的AR互动。
图11为一个实施例中增强现实数据传播方法的流程示意图。应该理解的是,虽然图11的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图11中 的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
如图12所示,在一个实施例中,提供了一种增强现实数据传播系统1200,该增强现实数据传播系统1200具体包括采集终端1202、第一目标终端1204、第二目标终端1206和第三目标终端1208,其中:
第一目标终端1204用于接收增强现实数据,增强现实数据携带有AR识别数据;向第二目标终端1206发送增强现实数据。
第二目标终端1206用于根据AR识别数据展示增强现实数据;还用于接收用户指令,并根据用户指令更新增强现实数据;还用于分享更新的增强现实数据。
在一个实施例中,采集终端1202用于采集现实场景图像;根据现实场景图像识别出AR识别数据;获取与AR识别数据对应的虚拟世界数据;根据现实场景图像、AR识别数据以及虚拟世界数据生成增强现实数据;还用于传播增强现实数据至第一目标终端1204。
在一个实施例中,当现实场景图像包括于视频帧序列中的视频帧时,增强现实数据为增强现实流数据;增强现实流数据包括视频帧序列,还包括与视频帧序列中的视频帧对应的AR识别数据以及与对应的AR识别数据对应的虚拟世界数据。
在一个实施例中,采集终端1202、第一目标终端1204或第二目标终端1206还用于在按照视频帧序列的顺序播放视频帧序列中的视频帧时,根据对应的AR识别数据,将对应的虚拟世界数据叠加到相应的视频帧中进行播放。
在一个实施例中,采集终端1202还用于从现实场景逐帧采集视频帧,并将视频帧按采集时序形成视频帧序列;根据视频帧序列中的视频帧识别出对应的AR识别数据;将视频帧序列、AR识别数据和虚拟世界数据进行压缩处理,获得增强现实流数据。
在一个实施例中,当现实场景图像为现实场景图片时,增强现实数据为图片;采集终端1202还用于将AR识别数据和虚拟世界数据添加至现实场景图片的附加信息中,获得增强现实数据。
在一个实施例中,采集终端1202还用于获取图像采集指令;根据图像采集指令,实时采集现实场景的图像;根据图像识别出AR识别数据;当识别出的AR识别数据符合预设条件时,采集现实场景图像。
在一个实施例中,采集终端1202还用于接收目标终端反馈的经过更新的增强现实数据,该目标终端为第一目标终端1204、第二目标终端1206和第三目标终端1208中的至少一个;采集终端1202还用于从经过更新的增强现实数据中,提取现实场景图像、AR识别数据和经过更新的虚拟世界数据;根据提取的AR识别数据,在提取的现实场景图像上叠加显示经过更新的虚拟世界数据。
在一个实施例中,第二目标终端1206还用于从增强现实数据中,提取现实场景图像、根据现实场景图像识别出的AR识别数据以及与AR识别数据对应的虚拟世界数据;根据AR识别数据,在现实场景图像上叠加虚拟世界数据;显示叠加有虚拟世界数据的现实场景图像。
在一个实施例中,第二目标终端1206还用于从增强现实流数据中的视频帧序列中,按视频帧时序提取包括现实场景图像的视频帧;从增强现实流数据中提取与视频帧对应的AR识别数据以及虚拟世界数据;AR识别数据和虚拟世界数据相对应。
在一个实施例中,第二目标终端1206还用于根据与提取的视频帧对应的AR识别数据,在提取的视频帧上叠加与提取的视频帧对应的虚拟世界数据;按照视频帧时序播放叠加有虚拟世界数据的视频帧。
在一个实施例中,当增强现实数据为图片时,第二目标终端1206还用于从图片中获取图像数据,得到现实场景图像;从图片的附加信息中提取根据现实场景图像识别出的AR识别数据以及与AR识别数据对应的虚拟世界数据。
在一个实施例中,第二目标终端1206还用于获取用户触发的对显示的虚拟世界数据进行更新的用户指令;获取用户指令所对应的更新的虚拟世界数据;根据经过更新的虚拟世界数据、现实场景图像和AR识别数据,生成经过更新的增强现实数据。
在一个实施例中,第三目标终端1208还用于在接收到第二目标终端1206分享的经过更新的增强现实数据时,从经过更新的增强现实数据中,提取现实场景图像、AR识别数据和经过更新的虚拟世界数据,并根据提取的AR识别数据,在提取的现实场景图像上叠加显示经过更新的虚拟世界数据。
在一个实施例中,第二目标终端1206还用于获取与显示的经过更新的虚拟 世界数据对应的评论信息;实时展示评论信息。
上述增强现实数据传播系统1200,在接收到采集终端发送的增强现实数据之后,还可将接收的增强现实数据发送至配置较低的目标终端,这样,目标终端可根据接收到的增强现实数据中携带的AR识别数据展示增强现实数据,还原AR场景,并且目标终端还可接收用户指令,并响应用户指令更新增强现实数据,然后分享更新的增强现实数据,这样,用户就可以通过配置较低的目标终端体验采集终端对应的用户所拍摄的AR场景,实现了多个用户之间的AR互动。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时,使得处理器执行以下步骤:接收增强现实数据,增强现实数据携带有AR识别数据;根据AR识别数据,展示增强现实数据;当接收到用户指令时,根据用户指令更新增强现实数据;分享更新的增强现实数据。
在一个实施例中,计算机程序被处理器执行时,还使得处理器执行以下步骤:采集现实场景图像;根据现实场景图像识别出AR识别数据;获取与AR识别数据对应的虚拟世界数据;根据现实场景图像、AR识别数据以及虚拟世界数据生成增强现实数据。
在一个实施例中,当现实场景图像包括视频帧序列中的视频帧时,增强现实数据为增强现实流数据;增强现实流数据包括视频帧序列,还包括与视频帧序列中的视频帧对应的AR识别数据以及与对应的AR识别数据对应的虚拟世界数据。
在一个实施例中,增强现实流数据,用于指示目标终端在按照视频帧序列的顺序播放视频帧序列中的视频帧时,根据对应的AR识别数据,将对应的虚拟世界数据叠加到相应的视频帧中进行播放。
在一个实施例中,计算机程序被处理器执行采集现实场景图像的步骤时,使得处理器具体执行以下步骤:从现实场景逐帧采集视频帧,并将视频帧按采集时序形成视频帧序列;计算机程序被处理器执行获取与现实场景图像对应的AR识别数据的步骤时,使得处理器具体执行以下步骤:根据视频帧序列中的视频帧识别出对应的AR识别数据;计算机程序被处理器执行根据现实场景图像、AR识别数据以及虚拟世界数据生成增强现实数据的步骤时,使得处理器具体执行以下步骤:将视频帧序列、AR识别数据和虚拟世界数据进行压缩处理,获得 增强现实流数据。
在一个实施例中,当现实场景图像为现实场景图片时,增强现实数据为图片;计算机程序被处理器执行根据现实场景图像、AR识别数据以及虚拟世界数据生成增强现实数据的步骤时,使得处理器具体执行以下步骤:将AR识别数据和虚拟世界数据添加至现实场景图片的附加信息中,获得增强现实数据。
在一个实施例中,计算机程序被处理器执行采集现实场景图像的步骤时,使得处理器具体执行以下步骤:获取图像采集指令;根据图像采集指令,实时采集现实场景的图像;根据图像识别出AR识别数据;当识别出的AR识别数据符合预设条件时,采集现实场景图像。
在一个实施例中,计算机程序被处理器执行时,使得处理器还执行以下步骤:接收目标终端反馈的经过更新的增强现实数据;从经过更新的增强现实数据中,提取现实场景图像、根据现实场景图像识别出的AR识别数据和经过更新的虚拟世界数据;根据提取的AR识别数据,在提取的现实场景图像上叠加显示经过更新的虚拟世界数据。
在一个实施例中,计算机程序被处理器执行在目标终端根据AR识别数据展示增强现实数据的步骤时,使得处理器具体执行以下步骤:从增强现实数据中,提取现实场景图像、根据现实场景图像识别出的AR识别数据以及与AR识别数据对应的虚拟世界数据;根据AR识别数据,在现实场景图像上叠加虚拟世界数据;显示叠加有虚拟世界数据的现实场景图像。
在一个实施例中,当增强现实数据为增强现实流数据时,计算机程序被处理器执行从增强现实数据中,提取现实场景图像、根据现实场景图像识别出的AR识别数据以及与AR识别数据对应的虚拟世界数据的步骤时,使得处理器具体执行以下步骤:从增强现实流数据中的视频帧序列中,按视频帧时序提取包括现实场景图像的视频帧;从增强现实流数据中提取与视频帧对应的AR识别数据以及虚拟世界数据;AR识别数据和虚拟世界数据相对应。
在一个实施例中,当增强现实数据为增强现实流数据时,计算机程序被处理器执行根据AR识别数据,在现实场景图像上叠加虚拟世界数据的步骤时,使得处理器具体执行以下步骤:根据与提取的视频帧对应的AR识别数据,在提取的视频帧上叠加与提取的视频帧对应的虚拟世界数据;计算机程序被处理器执行显示叠加有虚拟世界数据的现实场景图像的步骤时,使得处理器具体执行以下步骤:按照视频帧时序播放叠加有虚拟世界数据的视频帧。
在一个实施例中,当增强现实数据为图片时,计算机程序被处理器执行从增强现实数据中,提取现实场景图像、根据现实场景图像识别出的AR识别数据以及与AR识别数据对应的虚拟世界数据的步骤时,使得处理器具体执行以下步骤:从图片中获取图像数据,得到现实场景图像;从图片的附加信息中提取根据现实场景图像识别出的AR识别数据以及与AR识别数据对应的虚拟世界数据。
在一个实施例中,计算机程序被处理器执行接收用户指令,并根据用户指令更新增强现实数据的步骤时,使得处理器具体执行以下步骤:获取用户触发的对显示的虚拟世界数据进行更新的用户指令;获取用户指令所对应的更新的虚拟世界数据;根据经过更新的虚拟世界数据、现实场景图像和AR识别数据,生成经过更新的增强现实数据。
在一个实施例中,经过更新的增强现实数据,用于指示接收到经过更新的增强现实数据的终端从经过更新的增强现实数据中,提取现实场景图像、AR识别数据和经过更新的虚拟世界数据,并根据提取的AR识别数据,在提取的现实场景图像上叠加显示经过更新的虚拟世界数据。
在一个实施例中,计算机程序被处理器执行使得处理器具体还执行以下步骤:获取与显示的经过更新的虚拟世界数据对应的评论信息;实时展示评论信息。
在一个实施例中,AR识别数据包括定位地图信息、平面信息、光感信息或者人脸信息中的至少一种。
上述计算机可读存储介质,在接收到采集终端发送的增强现实数据之后,还可将接收的增强现实数据发送至配置较低的目标终端,这样,目标终端可根据接收到的增强现实数据中携带的AR识别数据展示增强现实数据,还原AR场景,并且目标终端还可接收用户指令,并响应用户指令更新增强现实数据,然后分享更新的增强现实数据,这样,用户就可以通过配置较低的目标终端体验采集终端对应的用户所拍摄的AR场景,实现了多个用户之间的AR互动。
在一个实施例中,提供了一种终端,包括存储器和处理器,存储器中储存有计算机程序,计算机程序被处理器执行时,使得处理器执行以下步骤:接收增强现实数据,增强现实数据携带有AR识别数据;根据AR识别数据,展示增强现实数据;当接收到用户指令时,根据用户指令更新增强现实数据;分享更 新的增强现实数据。
在一个实施例中,计算机程序被处理器执行时,还使得处理器执行以下步骤:采集现实场景图像;根据现实场景图像识别出AR识别数据;获取与AR识别数据对应的虚拟世界数据;根据现实场景图像、AR识别数据以及虚拟世界数据生成增强现实数据。
在一个实施例中,当现实场景图像包括视频帧序列中的视频帧时,增强现实数据为增强现实流数据;增强现实流数据包括视频帧序列,还包括与视频帧序列中的视频帧对应的AR识别数据以及与对应的AR识别数据对应的虚拟世界数据。
在一个实施例中,增强现实流数据,用于指示目标终端在按照视频帧序列的顺序播放视频帧序列中的视频帧时,根据对应的AR识别数据,将对应的虚拟世界数据叠加到相应的视频帧中进行播放。
在一个实施例中,计算机程序被处理器执行采集现实场景图像的步骤时,使得处理器具体执行以下步骤:从现实场景逐帧采集视频帧,并将视频帧按采集时序形成视频帧序列;计算机程序被处理器执行获取与现实场景图像对应的AR识别数据的步骤时,使得处理器具体执行以下步骤:根据视频帧序列中的视频帧识别出对应的AR识别数据;计算机程序被处理器执行根据现实场景图像、AR识别数据以及虚拟世界数据生成增强现实数据的步骤时,使得处理器具体执行以下步骤:将视频帧序列、AR识别数据和虚拟世界数据进行压缩处理,获得增强现实流数据。
在一个实施例中,当现实场景图像为现实场景图片时,增强现实数据为图片;计算机程序被处理器执行根据现实场景图像、AR识别数据以及虚拟世界数据生成增强现实数据的步骤时,使得处理器具体执行以下步骤:将AR识别数据和虚拟世界数据添加至现实场景图片的附加信息中,获得增强现实数据。
在一个实施例中,计算机程序被处理器执行采集现实场景图像的步骤时,使得处理器具体执行以下步骤:获取图像采集指令;根据图像采集指令,实时采集现实场景的图像;根据图像识别出AR识别数据;当识别出的AR识别数据符合预设条件时,采集现实场景图像。
在一个实施例中,计算机程序被处理器执行时,使得处理器还执行以下步骤:接收目标终端反馈的经过更新的增强现实数据;从经过更新的增强现实数据中,提取现实场景图像、根据现实场景图像识别出的AR识别数据和经过更新 的虚拟世界数据;根据提取的AR识别数据,在提取的现实场景图像上叠加显示经过更新的虚拟世界数据。
在一个实施例中,计算机程序被处理器执行在目标终端根据AR识别数据展示增强现实数据的步骤时,使得处理器具体执行以下步骤:从增强现实数据中,提取现实场景图像、根据现实场景图像识别出的AR识别数据以及与AR识别数据对应的虚拟世界数据;根据AR识别数据,在现实场景图像上叠加虚拟世界数据;显示叠加有虚拟世界数据的现实场景图像。
在一个实施例中,当增强现实数据为增强现实流数据时,计算机程序被处理器执行从增强现实数据中,提取现实场景图像、根据现实场景图像识别出的AR识别数据以及与AR识别数据对应的虚拟世界数据的步骤时,使得处理器具体执行以下步骤:从增强现实流数据中的视频帧序列中,按视频帧时序提取包括现实场景图像的视频帧;从增强现实流数据中提取与视频帧对应的AR识别数据以及虚拟世界数据;AR识别数据和虚拟世界数据相对应。
在一个实施例中,当增强现实数据为增强现实流数据时,计算机程序被处理器执行根据AR识别数据,在现实场景图像上叠加虚拟世界数据的步骤时,使得处理器具体执行以下步骤:根据与提取的视频帧对应的AR识别数据,在提取的视频帧上叠加与提取的视频帧对应的虚拟世界数据;计算机程序被处理器执行显示叠加有虚拟世界数据的现实场景图像的步骤时,使得处理器具体执行以下步骤:按照视频帧时序播放叠加有虚拟世界数据的视频帧。
在一个实施例中,当增强现实数据为图片时,计算机程序被处理器执行从增强现实数据中,提取现实场景图像、根据现实场景图像识别出的AR识别数据以及与AR识别数据对应的虚拟世界数据的步骤时,使得处理器具体执行以下步骤:从图片中获取图像数据,得到现实场景图像;从图片的附加信息中提取根据现实场景图像识别出的AR识别数据以及与AR识别数据对应的虚拟世界数据。
在一个实施例中,计算机程序被处理器执行接收用户指令,并根据用户指令更新增强现实数据的步骤时,使得处理器具体执行以下步骤:获取用户触发的对显示的虚拟世界数据进行更新的用户指令;获取用户指令所对应的更新的虚拟世界数据;根据经过更新的虚拟世界数据、现实场景图像和AR识别数据,生成经过更新的增强现实数据。
在一个实施例中,经过更新的增强现实数据,用于指示接收到经过更新的 增强现实数据的终端从经过更新的增强现实数据中,提取现实场景图像、AR识别数据和经过更新的虚拟世界数据,并根据提取的AR识别数据,在提取的现实场景图像上叠加显示经过更新的虚拟世界数据。
在一个实施例中,计算机程序被处理器执行使得处理器具体还执行以下步骤:获取与显示的经过更新的虚拟世界数据对应的评论信息;实时展示评论信息。
在一个实施例中,AR识别数据包括定位地图信息、平面信息、光感信息或者人脸信息中的至少一种。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一非易失性计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本申请专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

Claims (20)

  1. 一种增强现实数据传播方法,包括:
    接收增强现实数据,所述增强现实数据携带有AR识别数据;
    根据所述AR识别数据,展示所述增强现实数据;
    当接收到用户指令时,根据所述用户指令更新所述增强现实数据;
    分享更新的所述增强现实数据。
  2. 根据权利要求1所述的方法,其特征在于,所述增强现实数据的生成步骤包括:
    采集现实场景图像;
    根据所述现实场景图像识别出AR识别数据;
    获取与所述AR识别数据对应的虚拟世界数据;
    根据所述现实场景图像、所述AR识别数据以及所述虚拟世界数据生成增强现实数据。
  3. 根据权利要求2所述的方法,其特征在于,当所述现实场景图像包括视频帧序列中的视频帧时,所述增强现实数据为增强现实流数据;所述增强现实流数据包括所述视频帧序列,还包括与所述视频帧序列中的视频帧对应的AR识别数据以及与对应的AR识别数据对应的虚拟世界数据。
  4. 根据权利要求3所述的方法,其特征在于,所述方法还包括:
    在按照所述视频帧序列的顺序播放所述视频帧序列中的视频帧时,根据对应的AR识别数据,将对应的虚拟世界数据叠加到相应的视频帧中进行播放。
  5. 根据权利要求3所述的方法,其特征在于,所述采集现实场景图像包括:
    从现实场景逐帧采集视频帧,并将所述视频帧按采集时序形成视频帧序列;
    所述根据所述现实场景图像识别出AR识别数据包括:
    根据所述视频帧序列中的视频帧识别出对应的AR识别数据;
    所述根据所述现实场景图像、所述AR识别数据以及所述虚拟世界数据生成增强现实数据包括:
    将所述视频帧序列、所述AR识别数据和所述虚拟世界数据进行压缩处理,获得所述增强现实流数据。
  6. 根据权利要求2所述的方法,其特征在于,当所述现实场景图像为现实场景图片时,所述增强现实数据为图片;
    所述根据所述现实场景图像、所述AR识别数据以及所述虚拟世界数据生成增强现实数据包括:
    将所述AR识别数据和所述虚拟世界数据添加至所述现实场景图片的附加信息中,获得所述增强现实数据。
  7. 根据权利要求6所述的方法,其特征在于,所述采集现实场景图像包括:
    获取图像采集指令;
    根据所述图像采集指令,实时采集现实场景的图像;
    根据所述图像识别出AR识别数据;
    当识别出的AR识别数据符合预设条件时,采集现实场景图像。
  8. 根据权利要求1所述的方法,其特征在于,所述方法还包括:
    向目标终端发送所述增强现实数据;
    接收所述目标终端反馈的经过更新的增强现实数据;
    从所述经过更新的增强现实数据中,提取现实场景图像、根据所述现实场景图像识别出的AR识别数据和经过更新的虚拟世界数据;
    根据提取的AR识别数据,在提取的现实场景图像上叠加显示经过更新的虚拟世界数据。
  9. 根据权利要求1所述的方法,其特征在于,所述根据所述AR识别数据,展示所述增强现实数据包括:
    从所述增强现实数据中,提取现实场景图像、根据所述现实场景图像识别出的AR识别数据以及与所述AR识别数据对应的虚拟世界数据;
    根据所述AR识别数据,在所述现实场景图像上叠加所述虚拟世界数据;
    显示叠加有所述虚拟世界数据的现实场景图像。
  10. 根据权利要求9所述的方法,其特征在于,当所述增强现实数据为增强现实流数据时,所述从所述增强现实数据中,提取现实场景图像、根据所述现实场景图像识别出的AR识别数据以及与所述AR识别数据对应的虚拟世界数据包括:
    从所述增强现实流数据中的视频帧序列中,按视频帧时序提取包括现实场景图像的视频帧;
    从所述增强现实流数据中提取与所述视频帧对应的AR识别数据以及虚拟世界数据;所述AR识别数据和所述虚拟世界数据相对应。
  11. 根据权利要求10所述的方法,其特征在于,所述根据所述AR识别数据,在所述现实场景图像上叠加所述虚拟世界数据包括:
    根据与提取的视频帧对应的AR识别数据,在提取的视频帧上叠加与提取的视频帧对应的虚拟世界数据;
    所述显示叠加有所述虚拟世界数据的现实场景图像包括:
    按照视频帧时序播放叠加有所述虚拟世界数据的视频帧。
  12. 根据权利要求9所述的方法,其特征在于,当所述增强现实数据为图片时,所述从所述增强现实数据中,提取现实场景图像、根据所述现实场景图像识别出的AR识别数据以及与所述AR识别数据对应的虚拟世界数据包括:
    从所述图片中获取图像数据,得到现实场景图像;
    从所述图片的附加信息中提取根据所述现实场景图像识别出的AR识别数据以及与所述AR识别数据对应的虚拟世界数据。
  13. 根据权利要求1所述的方法,其特征在于,所述当接收到用户指令时,根据所述用户指令更新所述增强现实数据包括:
    获取用户触发的对显示的虚拟世界数据进行更新的用户指令;
    获取所述用户指令所对应的更新的虚拟世界数据;
    根据经过更新的虚拟世界数据、现实场景图像和所述AR识别数据,生成经过更新的增强现实数据。
  14. 根据权利要求13所述的方法,其特征在于,所述经过更新的增强现实数据,用于指示接收到所述经过更新的增强现实数据的终端从所述经过更新的增强现实数据中,提取所述现实场景图像、所述AR识别数据和经过更新的虚拟世界数据,根据提取的AR识别数据,在提取的现实场景图像上叠加显示经过更新的虚拟世界数据。
  15. 根据权利要求13所述的方法,其特征在于,所述方法还包括:
    获取与显示的经过更新的虚拟世界数据对应的评论信息;
    实时展示所述评论信息。
  16. 根据权利要求1所述的方法,其特征在于,所述AR识别数据包括定位地图信息、平面信息、光感信息或者人脸信息中的至少一种。
  17. 一种增强现实数据传播系统,其特征在于,所述系统包括采集终端、第一目标终端、第二目标终端和第三目标终端,其中:
    所述采集终端用于采集现实场景图像;根据所述现实场景图像识别出AR识别数据;获取与所述AR识别数据对应的虚拟世界数据;根据所述现实场景图像、所述AR识别数据以及所述虚拟世界数据生成增强现实数据;
    所述采集终端还用于传播所述增强现实数据至第一目标终端;
    所述第一目标终端用于接收所述增强现实数据;还用于向第二目标终端发送所述增强现实数据;
    所述第二目标终端用于在接收到所述第一目标终端发送的所述增强现实数据时,根据所述AR识别数据展示所述增强现实数据;
    所述第二目标终端还用于接收用户指令,并根据所述用户指令更新所述增强现实数据;分享更新的所述增强现实数据至所述第三目标终端。
  18. 一种终端,其特征在于,所述终端包括处理器和存储器,所述存储器中存储有至少一条指令,所述指令由所述处理器加载并执行以实现下述增强现实数据传播方法所执行的步骤:
    接收增强现实数据,所述增强现实数据携带有AR识别数据;
    根据所述AR识别数据,展示所述增强现实数据;
    当接收到用户指令时,根据所述用户指令更新所述增强现实数据;
    分享更新的所述增强现实数据。
  19. 根据权利要求18所述的终端,其特征在于,所述处理器用于执行下述步骤:
    采集现实场景图像;
    根据所述现实场景图像识别出AR识别数据;
    获取与所述AR识别数据对应的虚拟世界数据;
    根据所述现实场景图像、所述AR识别数据以及所述虚拟世界数据生成增强现实数据。
  20. 一种计算机可读存储介质,其特征在于,所述存储介质中存储有计算机程序,所述计算机程序被处理器执行时,使得所述处理器加载并执行以实现下述增强现实数据传播方法所执行的步骤:
    接收增强现实数据,所述增强现实数据携带有AR识别数据;
    根据所述AR识别数据,展示所述增强现实数据;
    当接收到用户指令时,根据所述用户指令更新所述增强现实数据;
    分享更新的所述增强现实数据。
PCT/CN2019/090071 2018-07-05 2019-06-05 增强现实数据传播方法、系统、终端和存储介质 WO2020007157A1 (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP19830742.3A EP3745726A4 (en) 2018-07-05 2019-06-05 PROCEDURE FOR DISTRIBUTION OF DATA OF THE EXTENDED REALITY, SYSTEM AND TERMINAL DEVICE AND STORAGE MEDIUM
US16/989,488 US11917265B2 (en) 2018-07-05 2020-08-10 Augmented reality data dissemination method, system and terminal and storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201810730829.5A CN110166787B (zh) 2018-07-05 2018-07-05 增强现实数据传播方法、系统和存储介质
CN201810730829.5 2018-07-05

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/989,488 Continuation US11917265B2 (en) 2018-07-05 2020-08-10 Augmented reality data dissemination method, system and terminal and storage medium

Publications (1)

Publication Number Publication Date
WO2020007157A1 true WO2020007157A1 (zh) 2020-01-09

Family

ID=67645003

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2019/090071 WO2020007157A1 (zh) 2018-07-05 2019-06-05 增强现实数据传播方法、系统、终端和存储介质

Country Status (4)

Country Link
US (1) US11917265B2 (zh)
EP (1) EP3745726A4 (zh)
CN (1) CN110166787B (zh)
WO (1) WO2020007157A1 (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111638781B (zh) * 2020-05-15 2024-03-19 广东小天才科技有限公司 基于ar的发音引导方法、装置、电子设备及存储介质
CN113724398A (zh) * 2021-09-01 2021-11-30 北京百度网讯科技有限公司 增强现实方法、装置、设备以及存储介质
CN113973224A (zh) * 2021-09-18 2022-01-25 阿里巴巴(中国)有限公司 媒体信息的传输方法、计算设备及存储介质
CN114697633B (zh) * 2022-03-29 2023-09-19 联想(北京)有限公司 视频传输方法、装置、设备及存储介质
CN115359220B (zh) * 2022-08-16 2024-05-07 支付宝(杭州)信息技术有限公司 虚拟世界的虚拟形象更新方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102281348A (zh) * 2010-06-08 2011-12-14 Lg电子株式会社 使用增强现实引导路线的方法以及使用该方法的移动终端
EP2908919A1 (en) * 2012-10-22 2015-08-26 Longsand Limited Collaborative augmented reality
CN107395671A (zh) * 2017-06-12 2017-11-24 深圳增强现实技术有限公司 远程协助方法、系统及增强现实终端
CN107592575A (zh) * 2017-09-08 2018-01-16 广州华多网络科技有限公司 一种直播方法、装置、系统及电子设备

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101633620B1 (ko) * 2010-01-04 2016-06-27 삼성전자 주식회사 영상 기반의 위치 인식을 위한 특징점 등록 장치 및 그 방법
KR101299910B1 (ko) * 2010-08-18 2013-08-23 주식회사 팬택 증강 현실 서비스의 공유 방법 및 그를 위한 사용자 단말기와 원격자 단말기
US20150040074A1 (en) * 2011-08-18 2015-02-05 Layar B.V. Methods and systems for enabling creation of augmented reality content
US9066200B1 (en) * 2012-05-10 2015-06-23 Longsand Limited User-generated content in a virtual reality environment
CN103577788A (zh) * 2012-07-19 2014-02-12 华为终端有限公司 增强现实的实现方法和装置
CN103959220B (zh) * 2012-11-14 2017-05-24 华为技术有限公司 一种实现增强现实的方法及用户设备
CN103679204A (zh) * 2013-12-23 2014-03-26 上海安琪艾可网络科技有限公司 基于智能移动设备平台的图像识别与创作应用系统及方法
CN104596523B (zh) * 2014-06-05 2019-05-07 腾讯科技(深圳)有限公司 一种街景目的地引导方法和设备
US20160133230A1 (en) * 2014-11-11 2016-05-12 Bent Image Lab, Llc Real-time shared augmented reality experience
CN105975232A (zh) * 2016-05-06 2016-09-28 深圳市吾悦科技有限公司 增强现实实时交互系统及方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102281348A (zh) * 2010-06-08 2011-12-14 Lg电子株式会社 使用增强现实引导路线的方法以及使用该方法的移动终端
EP2908919A1 (en) * 2012-10-22 2015-08-26 Longsand Limited Collaborative augmented reality
CN107395671A (zh) * 2017-06-12 2017-11-24 深圳增强现实技术有限公司 远程协助方法、系统及增强现实终端
CN107592575A (zh) * 2017-09-08 2018-01-16 广州华多网络科技有限公司 一种直播方法、装置、系统及电子设备

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3745726A4 *

Also Published As

Publication number Publication date
CN110166787B (zh) 2022-11-29
CN110166787A (zh) 2019-08-23
US11917265B2 (en) 2024-02-27
US20200372687A1 (en) 2020-11-26
EP3745726A1 (en) 2020-12-02
EP3745726A4 (en) 2021-03-10

Similar Documents

Publication Publication Date Title
WO2020007157A1 (zh) 增强现实数据传播方法、系统、终端和存储介质
CN110176077B (zh) 增强现实拍照的方法、装置及计算机存储介质
CN108322832B (zh) 评论方法、装置、及电子设备
CN111080759B (zh) 一种分镜效果的实现方法、装置及相关产品
US20140232819A1 (en) Systems and methods for generating and sharing panoramic moments
KR102343325B1 (ko) 영상 압축 방법 및 영상 복원 방법
CN112019907A (zh) 直播画面分流方法、计算机设备及可读存储介质
US20170225077A1 (en) Special video generation system for game play situation
CN113965773A (zh) 直播展示方法和装置、存储介质及电子设备
JP5596844B2 (ja) 画像処理装置、画像処理システム及び画像処理方法
CN113727039B (zh) 视频生成方法、装置、电子设备及存储介质
CN110545363B (zh) 实现多终端联网同步的方法、系统和云端服务器
US20230341993A1 (en) Moving a digital representation of a video conference participant to a new location in a virtual environment
JP6609078B1 (ja) コンテンツ配信システム、コンテンツ配信方法、およびコンテンツ配信プログラム
CN112019906A (zh) 直播方法、计算机设备及可读存储介质
CN105407282A (zh) 一种照相和回放的实现方法
KR20200028830A (ko) 실시간 cg 영상 방송 서비스 시스템
US20230138434A1 (en) Extraction of user representation from video stream to a virtual environment
JP2020112895A (ja) 情報処理装置の制御プログラム、情報処理装置の制御方法、及び、情報処理装置
CN115562480A (zh) 用于增强现实的方法及装置
JP7065708B2 (ja) 録画再生装置及びプログラム
CN114915798A (zh) 实时视频生成方法、多摄像头直播方法及装置
CN111585865A (zh) 数据处理方法、装置、计算机可读存储介质和计算机设备
US11910132B2 (en) Head tracking for video communications in a virtual environment
CN114220051B (zh) 视频处理方法、应用程序的测试方法及电子设备

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19830742

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019830742

Country of ref document: EP

Effective date: 20200825

NENP Non-entry into the national phase

Ref country code: DE