CN113286162B - 一种基于混合现实的多机位画面直播方法及系统 - Google Patents
一种基于混合现实的多机位画面直播方法及系统 Download PDFInfo
- Publication number
- CN113286162B CN113286162B CN202110552580.5A CN202110552580A CN113286162B CN 113286162 B CN113286162 B CN 113286162B CN 202110552580 A CN202110552580 A CN 202110552580A CN 113286162 B CN113286162 B CN 113286162B
- Authority
- CN
- China
- Prior art keywords
- information
- interaction
- picture
- machine position
- matching
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/21—Server components or server architectures
- H04N21/218—Source of audio or video content, e.g. local disk arrays
- H04N21/2187—Live feed
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/275—Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/293—Generating mixed stereoscopic images; Generating mixed monoscopic and stereoscopic images, e.g. a stereoscopic image overlay window on a monoscopic image background
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/4223—Cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/441—Acquiring end-user identification, e.g. using personal code sent by the remote control or by inserting a card
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/478—Supplemental services, e.g. displaying phone caller identification, shopping application
- H04N21/4788—Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/816—Monomedia components thereof involving special video data, e.g 3D video
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明公开了一种基于混合现实的多机位画面直播方法及系统,获得多台摄像机的拍摄角度信息,根据多台摄像机的拍摄角度信息构建机位画面数据集合;获得第一虚拟对象信息,将第一虚拟对象信息、机位画面数据集合输入机位画面分析模型,获得第一多机位画面信息,获得第一互动对象的第一互动信息,根据第一声音信息,获得第一互动识别信息;当第一互动识别信息与互动信息之间的第一匹配度满足预设匹配阈值时,根据第一互动识别信息、第一多机位画面信息,获得第一匹配机位信息;根据第一切换指令用于按照第一匹配机位信息进行画面直播。解决了现有技术中混合现实的画面直播存在角度捕捉不够智能,进而影响混合现实的画面直播效果的技术问题。
Description
技术领域
本发明涉及基于混合现实的多机位画面直播相关领域,尤其涉及一种基于混合现实的多机位画面直播方法及系统。
背景技术
混合现实技术(MR)是虚拟现实技术的进一步发展,该技术通过在现实场景呈现虚拟场景信息,在现实世界、虚拟世界和用户之间搭起一个交互反馈的信息回路,以增强用户体验的真实感。混合现实的画面直播就是将虚拟场景和真实场景结合合成,可供第三方进行观赏的过程。
但本申请发明人在实现本申请实施例中发明技术方案的过程中,发现上述技术至少存在如下技术问题:
现有技术中混合现实的画面直播存在角度捕捉不够智能,进而影响混合现实的画面直播效果的技术问题。
发明内容
本申请实施例通过提供一种基于混合现实的多机位画面直播方法及系统,解决了现有技术中混合现实的画面直播存在角度捕捉不够智能,进而影响混合现实的画面直播效果的技术问题,达到智能根据用户实时信息,结合虚拟场景,进行机位角度切换,提高混合现实的直播观感的技术效果。
鉴于上述问题,提出了本申请实施例提供一种基于混合现实的多机位画面直播方法及系统。
第一方面,本申请提供了一种基于混合现实的多机位画面直播方法,其中,所述方法应用于一多机位画面直播系统,所述系统包括多台摄像机,且,所述多台摄像机拍摄角度不同,所述方法包括:获得所述多台摄像机的拍摄角度信息,所述拍摄角度信息包括拍摄中心点、拍摄覆盖面积;根据所述多台摄像机的拍摄角度信息构建机位画面数据集合;获得第一虚拟对象信息,所述第一虚拟对象信息包括所述第一虚拟对象的尺寸信息、互动信息,其中,所述互动信息包括互动操作信息、互动效果信息;将所述第一虚拟对象信息、所述机位画面数据集合输入机位画面分析模型,获得第一多机位画面信息,所述第一多机位画面信息包括所述第一虚拟对象完成所述互动信息的互动过程画面信息;获得第一互动对象的第一互动信息,所述第一互动信息包括第一声音信息、第一动作信息;根据所述第一声音信息,获得第一互动识别信息;当所述第一互动识别信息与所述互动信息之间的第一匹配度满足预设匹配阈值时,根据所述第一互动识别信息、所述第一多机位画面信息,获得第一匹配机位信息;根据所述第一匹配机位信息,获得第一切换指令,所述第一切换指令用于按照所述第一匹配机位信息进行画面直播。
另一方面,本申请还提供了一种基于混合现实的多机位画面直播系统,所述系统包括:第一获得单元,所述第一获得单元用于获得多台摄像机的拍摄角度信息,所述拍摄角度信息包括拍摄中心点、拍摄覆盖面积;第一构建单元,所述第一构建单元用于根据所述多台摄像机的拍摄角度信息构建机位画面数据集合;第二获得单元,所述第二获得单元用于获得第一虚拟对象信息,所述第一虚拟对象信息包括所述第一虚拟对象的尺寸信息、互动信息,其中,所述互动信息包括互动操作信息、互动效果信息;第一输入单元,所述第一输入单元用于将所述第一虚拟对象信息、所述机位画面数据集合输入机位画面分析模型,获得第一多机位画面信息,所述第一多机位画面信息包括所述第一虚拟对象完成所述互动信息的互动过程画面信息;第三获得单元,所述第三获得单元用于获得第一互动对象的第一互动信息,所述第一互动信息包括第一声音信息、第一动作信息;第四获得单元,所述第四获得单元用于根据所述第一声音信息,获得第一互动识别信息;第五获得单元,所述第五获得单元用于当所述第一互动识别信息与所述互动信息之间的第一匹配度满足预设匹配阈值时,根据所述第一互动识别信息、所述第一多机位画面信息,获得第一匹配机位信息;第六获得单元,所述第六获得单元用于根据所述第一匹配机位信息,获得第一切换指令,所述第一切换指令用于按照所述第一匹配机位信息进行画面直播。
第三方面,本发明提供了一种基于混合现实的多机位画面直播系统,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其中,所述处理器执行所述程序时实现第一方面所述方法的步骤。
本申请实施例中提供的一个或多个技术方案,至少具有如下技术效果或优点:
由于采用了获得多台摄像机的拍摄角度信息,根据所述拍摄角度信息构建机位画面的数据集合,获得第一虚拟对象信息,基于所述第一虚拟对象信息所述机位画面数据集输入机位画面分析模型,获得第一多机位画面信息,获得第一互动对象的第一互动信息,基于所述第一互动信息中的第一声音信息获得第一互动识别信息,当所述第一互动识别信息满足预设匹配阈值时,根据所述第一互动识别信息获得第一匹配机位信息,根据所述第一匹配机位信息获得第一切换指令,根据所述第一切换指令按照所述第一匹配机位信息进行画面直播,达到智能化根据用户的实时信息,对机位角度切换,进而达到提高混合现实的直播观感的技术效果。
上述说明仅是本申请技术方案的概述,为了能够更清楚了解本申请的技术手段,而可依照说明书的内容予以实施,并且为了让本申请的上述和其它目的、特征和优点能够更明显易懂,以下特举本申请的具体实施方式。
附图说明
图1为本申请实施例一种基于混合现实的多机位画面直播方法的流程示意图;
图2为本申请实施例一种基于混合现实的多机位画面直播系统的结构示意图;
图3为本申请实施例示例性电子设备的结构示意图。
附图标记说明:第一获得单元11,第一构建单元12,第二获得单元13,第一输入单元14,第三获得单元15,第四获得单元16,第五获得单元17,第六获得单元18,总线300,接收器301,处理器302,发送器303,存储器304,总线接口305。
具体实施方式
本申请实施例通过提供一种基于混合现实的多机位画面直播方法及系统,解决了现有技术中混合现实的画面直播存在角度捕捉不够智能,进而影响混合现实的画面直播效果的技术问题,达到智能根据用户实时信息,结合虚拟场景,进行机位角度切换,提高混合现实的直播观感的技术效果。下面,将参考附图详细的描述根据本申请的示例实施例。显然,所描述的实施例仅是本申请的一部分实施例,而不是本申请的全部实施例,应理解,本申请不受这里描述的示例实施例的限制。
申请概述
混合现实技术(MR)是虚拟现实技术的进一步发展,该技术通过在现实场景呈现虚拟场景信息,在现实世界、虚拟世界和用户之间搭起一个交互反馈的信息回路,以增强用户体验的真实感。混合现实的画面直播就是将虚拟场景和真实场景结合合成,可供第三方进行观赏的过程。现有技术中混合现实的画面直播存在角度捕捉不够智能,进而影响混合现实的画面直播效果的技术问题。
针对上述技术问题,本申请提供的技术方案总体思路如下:
本申请实施例提供了一种基于混合现实的多机位画面直播方法,其中,所述方法应用于一多机位画面直播系统,所述系统包括多台摄像机,且,所述多台摄像机拍摄角度不同,所述方法包括:获得所述多台摄像机的拍摄角度信息,所述拍摄角度信息包括拍摄中心点、拍摄覆盖面积;根据所述多台摄像机的拍摄角度信息构建机位画面数据集合;获得第一虚拟对象信息,所述第一虚拟对象信息包括所述第一虚拟对象的尺寸信息、互动信息,其中,所述互动信息包括互动操作信息、互动效果信息;将所述第一虚拟对象信息、所述机位画面数据集合输入机位画面分析模型,获得第一多机位画面信息,所述第一多机位画面信息包括所述第一虚拟对象完成所述互动信息的互动过程画面信息;获得第一互动对象的第一互动信息,所述第一互动信息包括第一声音信息、第一动作信息;根据所述第一声音信息,获得第一互动识别信息;当所述第一互动识别信息与所述互动信息之间的第一匹配度满足预设匹配阈值时,根据所述第一互动识别信息、所述第一多机位画面信息,获得第一匹配机位信息;根据所述第一匹配机位信息,获得第一切换指令,所述第一切换指令用于按照所述第一匹配机位信息进行画面直播。
在介绍了本申请基本原理后,下面将结合说明书附图来具体介绍本申请的各种非限制性的实施方式。
实施例一
如图1所示,本申请实施例提供了一种基于混合现实的多机位画面直播方法,其中,所述方法应用于一多机位画面直播系统,所述系统包括多台摄像机,且,所述多台摄像机拍摄角度不同,所述方法包括:
步骤S100:获得所述多台摄像机的拍摄角度信息,所述拍摄角度信息包括拍摄中心点、拍摄覆盖面积;
步骤S200:根据所述多台摄像机的拍摄角度信息构建机位画面数据集合;
具体而言,混合现实技术(MR)是虚拟现实技术的进一步发展,该技术通过在现实场景呈现虚拟场景信息,在现实世界、虚拟世界和用户之间搭起一个交互反馈的信息回路,以增强用户体验的真实感。混合现实的直播是指将现实世界和虚拟世界及互动反馈信息等进行混合后的直播。所述多台摄像机为对混合后的画面进行画面采集的设备,且根据摄像机的参数信息的不同,不同的摄像机具有自己的聚焦中心点、拍摄焦段。获得所述多台摄像机的每一台相机的信息,并根据所述信息,获得所述摄像机的拍摄角度信息,所述拍摄角度信息包括但不限于摄相机的拍摄中心点、拍摄覆盖面积的参数,基于所述多角度采集的参数信息,构建机位画面数据的集合,对不同位置的机位进行空间位置的编码标识。
步骤S300:获得第一虚拟对象信息,所述第一虚拟对象信息包括所述第一虚拟对象的尺寸信息、互动信息,其中,所述互动信息包括互动操作信息、互动效果信息;
步骤S400:将所述第一虚拟对象信息、所述机位画面数据集合输入机位画面分析模型,获得第一多机位画面信息,所述第一多机位画面信息包括所述第一虚拟对象完成所述互动信息的互动过程画面信息;
具体而言,所述第一虚拟对象为虚拟场景中的可互动的对象,举例而言,所述第一虚拟对象可以是虚拟卡通人物、虚拟物品等,所述第一虚拟对象信息包括但不限于所述第一虚拟人物的尺寸信息、可进行互动的动作信息,触发互动的动作信息、互动效果信息等,将所述第一虚拟对象信息和所述机位画面数据集合输入机位画面分析模型,所述机位画面分析模型为通过大量的训练数据训练获得的智能化的模型,所述模型可根据输入的信息,进行机位画面的融合和调整,对不同的互动阶段的画面进行互动状态的机位信息整合,获得第一多机位画面信息,所述第一多机位画面信息为包括多角度的机位下的所述第一虚拟人物互动过程中的机位画面信息。
步骤S500:获得第一互动对象的第一互动信息,所述第一互动信息包括第一声音信息、第一动作信息;
步骤S600:根据所述第一声音信息,获得第一互动识别信息;
具体而言,所述第一互动对象为现实中的互动对象,所述互动对象可以是进行直播的主播,通过声音传感器、视频传感器获得所述第一互动对象的信息。进一步来说,为了实现所述第一互动对象和所述第一虚拟任务的互动,可通过设定触发特征,对所述第一互动对象的相关特征进行采集,进而根据采集结果进行触发特征的匹配,当匹配成功后,通过预先设定的虚拟人物的反馈动作对所述第一互动对象的互动信息进行反馈。通过相应的传感器获得所述第一互动对象的第一互动信息,所述第一互动信息包括第一声音信息和第一动作信息。所述第一互动识别信息为声音触发特征。
步骤S700:当所述第一互动识别信息与所述互动信息之间的第一匹配度满足预设匹配阈值时,根据所述第一互动识别信息、所述第一多机位画面信息,获得第一匹配机位信息;
具体而言,根据所述设定的第一互动识别信息对所述第一互动对象的第一互动信息进行声音特征的匹配度识别,预先设定一匹配度阈值,以设定的匹配度阈值对所述第一互动识别信息与所述第一互动对象的声音匹配度进行评估,当所述声音信息满足所述预设匹配度阈值时,此时根据所述第一互动识别信息和所述第一多机位画面信息,获得第一匹配机位信息,进一步来说,所述获得第一匹配机位信息的过程为将所述第一互动识别信息和互动结果输入所述第一多机位画面中,根据所述多机位画面的表现效果进行机位匹配。
步骤S800:根据所述第一匹配机位信息,获得第一切换指令,所述第一切换指令用于按照所述第一匹配机位信息进行画面直播。
具体而言,所述第一切换指令用于切换机位信息,根据所述第一切换指令,将所述第一匹配机位信息切换为直播画面,基于所述第一匹配机位信息进行画面直播,达到智能根据用户实时信息,结合虚拟场景,进行机位角度切换,提高混合现实的直播观感的技术效果。
进一步而言,所述根据所述第一声音信息,获得第一互动识别信息,本申请实施例步骤S600还包括:
步骤S610:获得预设声音转换算法;
步骤S620:根据所述预设声音转换算法对所述第一声音信息进行转换,获得第一转换信息;
步骤S630:获得互动操作知识库;
步骤S640:根据所述第一转换信息、所述互动操作知识库,获得所述第一互动识别信息。
具体而言,所述预设声音转换算法为对声音信息进行指令转换的算法,它可将预设的声音信息转化为互动指令,即可预设设定声音特征,所述声音特征可以是音色特征、音量特征、音频特征、语义特征等等,通过采集的所述第一互动对象的声音信息,对所述声音信息进行预设声音算法的转化,获得所述第一声音信息的转化信息,即所述第一转换信息,基于所述声音特征构建互动操作知识库,基于所述互动操作知识库对所述转化的所述第一用户的信息进行互动操作的匹配,获得对应的匹配结果,即所述第一互动识别信息。通过对所述互动操作知识库的构建,为后续准确获得虚拟人物的互动动作夯实了基础,进而为获得更加准确的机位匹配结果,呈现更好的直播互动效果夯实了基础。
进一步而言,所述根据所述第一声音信息,获得第一互动识别信息之后,本申请实施例步骤S600还包括:
步骤S650:根据所述互动信息,获得所述互动操作信息;
步骤S660:根据所述互动操作信息,获得操作描述用语;
步骤S670:根据所述第一互动识别信息、所述操作描述用语,获得所述第一匹配度;
步骤S680:判断所述第一匹配度是否满足所述预设匹配阈值;
步骤S690:当所述第一匹配度满足所述预设匹配阈值时,获得所述第一匹配机位。
具体而言,所述第一匹配度为对所述第一互动对象的互动信息和互动识别信息的匹配情况的评估结果,他是判断所述第一互动对象是否需要进行所述第一虚拟人物的互动的重要依据。根据所述第一互动对象的互动操作信息,获得所述第一互动对象的操作用语。举例而言,所述操作用语的匹配度可进行不同程度的设定。举例而言,所述设定的用语可以为严格设定,当操作用语为“跳舞”时,根据所述第一互动对象发出的语音,进行语音识别,当所述识别结果为“跳个舞”时,则根据预设的匹配度阈值对“跳个舞”指令进行判断,当判断匹配度满足所述预设匹配阈值时,则获得所述第一匹配机位。
进一步的,所述判断所述第一匹配度是否满足所述预设匹配阈值之后,本申请实施例还包括:
步骤S681:当所述第一匹配度不满足所述预设匹配阈值时,根据所述第一动作信息,获得第一角度信息;
步骤S682:根据所述第一角度信息、所述第一虚拟对象信息,获得第一互动位置信息;
步骤S683:根据所述第一互动位置信息、所述互动信息,获得第二互动识别信息;
步骤S684:根据所述第二互动识别信息、所述第一多机位画面信息,获得第二匹配机位信息;
步骤S685:根据所述第二匹配机位信息,获得第二切换指令。
具体而言,当所述第一匹配度不满足所述预设阈值时,表明此时的所述第一互动对象的语音信息不准确或者不能与对应指令进行匹配,此时不能根据所述第一匹配机位进行捕捉。此时获得所述第一互动对象的第一动作信息,根据所述第一动作信息,获得所述第一互动对象在所述虚拟空间内相对于所述第一虚拟对象的角度信息,即所述第一角度信息,根据所述第一角度信息和所述第一虚拟对象信息,获得所述第一互动对象和所述第一许虚拟对象的相对位置信息,根据所述第一互动对象和所述第一虚拟对象的位置、互动动作信息,获得第二互动识别信息,根据所述互动识别的结果,对所述第一互动对象和所述第一虚拟对象的继续的互动动作进行识别,根据所述识别结果结算获得第二匹配机位,基于所述第二匹配机位进行画面直播。通过对所述第一互动对象和第一虚拟对象的相对位置、互动动作的识别,确定合适的匹配机位,进而可获得更好的直播效果。
进一步的,所述根据所述第一互动识别信息、所述第一多机位画面信息,获得第一匹配机位信息,本申请实施例步骤S700还包括:
步骤S710:根据所述第一互动识别信息、所述互动信息,获得匹配互动效果信息;
步骤S720:根据所述匹配互动效果信息、所述第一多机位画面信息,获得互动机位画面信息集合;
步骤S730:获得预设画面效果评估规则,所述预设画面效果评估规则包括所述拍摄中心点、拍摄覆盖面积的评估规则;
步骤S740:依次将所述互动机位画面信息集合中的互动机位画面信息、所述预设画面效果评估规则输入画面评估模型,获得画面评估结果;
步骤S750:从所有的画面评估结果中选择所述画面评估结果最佳的互动机位画面信息,确定所述第一匹配机位信息。
具体而言,所述预设画面效果评估规则为根据受众用户的喜好设定的评估规则。基于大数据对直播的受众用户的进行信息采集,所述采集的信息包括对于喜爱的机位角度、机位远近、拍摄的中心点、覆盖面积等信息,根据所述采集结果制定预设画面效果评估规则,基于所述预设画面效果评估规则,根据所述第一互动对象和所述第一虚拟对象的互动效果,获得不同机位下的互动机位画面信息的集合。基于所述预设画面效果评估规则构建所述画面评估模型,基于所述画面评估模型对所述互动机位画面信息的集合进行评估,获得所述互动机位画面信息集合中的最佳互动机位画面信息,根据所述最佳互动机位画面信息确定所述第一匹配机位信息。
进一步而言,本申请实施例还包括:
步骤S751:当所述匹配互动效果信息包括多阶段时,所述多阶段为最少存在两个阶段,分别为第一阶段、第二阶段、直到第N阶段,其中,N为大于2的自然数;
步骤S752:根据所述匹配互动效果信息、所述第一多机位画面信息,获得各阶段对应的机位画面信息集合;
步骤S753:分别将各阶段的所述机位画面信息输入所述画面评估模型中,获得各阶段的所述画面评估结果;
步骤S754:根据所述匹配互动效果信息,获得阶段划分信息;
步骤S755:当获得第一阶段结束信息后,获得第一阶段切换指令,所述第一阶段切换指令用于按照第二阶段匹配结尾信息进行机位画面切换;
步骤S756:以此类推,直到完成第N-1阶段切换指令为止。
具体而言,所述多阶段为根据相同机位下的所述第一虚拟对象所述第一互动对象的互动的动作幅度的表现效果来确定,当所述表现效果满足预设阈值时,则将其作为同一阶段,当判断所述互动效果信息存在多个阶段时,则所述机位则按照不同阶段下的表现效果进行重新的匹配。分别将各个阶段下的机位画面输入所述画面评估模型,获得不同阶段下的不同机位的画面评估结果,获得每个阶段下的最佳匹配机位,将所述最佳匹配机位列表按照所述阶段顺序进行切换,即当第一阶段结束后,获得第一阶段切换指令,根据所述第一阶段切换指令,在所述第一阶段结束后,切换至第二阶段匹配的最佳匹配机位。
进一步的,所述将所述第一虚拟对象信息、所述机位画面数据集合输入机位画面分析模型,获得第一多机位画面信息,本申请实施例步骤S400还包括:
步骤S410:根据所述第一虚拟对象信息,获得第一状态信息,所述第一状态信息为互动操作之前第一虚拟对象状态信息;
步骤S420:根据所述第一虚拟对象信息中的互动信息,获得互动状态信息,当互动状态包括多阶段时,所述互动状态包括多阶段互动状态;
步骤S430:将所述第一状态信息、所述机位画面数据集合输入所述机位画面分析模型,获得第一状态多机位画面信息;
步骤S440:将所述互动状态信息、所述机位画面数据集合输入所述机位画面分析模型,获得互动状态多机位画面信息;
步骤S450:根据所述第一状态多机位画面信息、所述互动状态多机位画面信息,获得所述第一多机位画面信息。
进一步的,本申请实施例还包括:
步骤S431:所述机位画面分析模型为多组训练数据经过训练收敛获得,其中,所述多组训练数据中每组数据均包括虚拟对象状态信息、机位画面数据集合和标识虚拟对象状态下多机位的画面信息的标识信息;
步骤S432:获得所述机位画面分析模型的输出信息,所述输出信息包括虚拟对象状态下多机位画面信息。
具体而言,所述第一状态为所述第一虚拟对象在进行互动操作前的状态信息,将所述第一状态输入所述机位画面分析模型,获得所述第一转态下的多个机位画面的信息,以此类推,将所述第一虚拟对象的不同状态下的转态信息输入所述机位画面分析模型,获得互动状态多机位画面信息,根据所述第一状态多机位画面信息、所述互动状态多机位画面信息,获得所述第一多机位画面信息。
进一步的,所述机位画面分析模型为机器学习中的神经网络模型,它可以不断地进行学习和调整,是一个高度复杂的非线性动力学习系统。简单来说它是一个数学模型,通过大量训练数据的训练,将所述机位画面分析模型训练至收敛状态后,基于输入数据,通过所述机位画面分析模型进行分析可获得虚拟对象状态下多机位画面信息。
更进一步而言,所述训练的过程还包括监督学习的过程,每一组监督数据都包括虚拟对象状态信息、机位画面数据集合和标识虚拟对象状态下多机位的画面信息的标识信息,将虚拟对象状态信息、机位画面数据集合输入到神经网络模型中,根据用来标识虚拟对象状态下多机位的画面信息的标识信息对机位画面分析模型进行监督学习,使得所述机位画面分析模型的输出数据与监督数据一致,通过所述神经网络模型进行不断的自我修正、调整,直至获得的输出结果与所述标识信息一致,则结束本组数据监督学习,进行下一组数据监督学习;当所述神经网络模型的为收敛状态时,则监督学习过程结束。通过对所述模型的监督学习,进而使得所述模型处理所述输入信息更加准确,进而获得更加准确、合理的虚拟对象状态下多机位画面信息。
综上所述,本申请实施例所提供的一种基于混合现实的多机位画面直播方法及系统具有如下技术效果:
1、由于采用了获得多台摄像机的拍摄角度信息,根据所述拍摄角度信息构建机位画面的数据集合,获得第一虚拟对象信息,基于所述第一虚拟对象信息所述机位画面数据集输入机位画面分析模型,获得第一多机位画面信息,获得第一互动对象的第一互动信息,基于所述第一互动信息中的第一声音信息获得第一互动识别信息,当所述第一互动识别信息满足预设匹配阈值时,根据所述第一互动识别信息获得第一匹配机位信息,根据所述第一匹配机位信息获得第一切换指令,根据所述第一切换指令按照所述第一匹配机位信息进行画面直播,达到智能化根据用户的实时信息,对机位角度切换,进而达到提高混合现实的直播观感的技术效果。
2、由于采用了通过对所述互动操作知识库的构建的方式,为后续准确获得虚拟人物的互动动作夯实了基础,进而为获得更加准确的机位匹配结果,呈现更好的直播互动效果夯实了基础。
3、由于采用了通过对所述第一互动对象和第一虚拟对象的相对位置、互动动作的识别的方式,确定合适的匹配机位,进而可获得更好的直播效果。
实施例二
基于与前述实施例中一种基于混合现实的多机位画面直播方法同样发明构思,本发明还提供了一种基于混合现实的多机位画面直播系统,如图2所示,所述系统包括:
第一获得单元11,所述第一获得单元11用于获得多台摄像机的拍摄角度信息,所述拍摄角度信息包括拍摄中心点、拍摄覆盖面积;
第一构建单元12,所述第一构建单元12用于根据所述多台摄像机的拍摄角度信息构建机位画面数据集合;
第二获得单元13,所述第二获得单元13用于获得第一虚拟对象信息,所述第一虚拟对象信息包括所述第一虚拟对象的尺寸信息、互动信息,其中,所述互动信息包括互动操作信息、互动效果信息;
第一输入单元14,所述第一输入单元14用于将所述第一虚拟对象信息、所述机位画面数据集合输入机位画面分析模型,获得第一多机位画面信息,所述第一多机位画面信息包括所述第一虚拟对象完成所述互动信息的互动过程画面信息;
第三获得单元15,所述第三获得单元15用于获得第一互动对象的第一互动信息,所述第一互动信息包括第一声音信息、第一动作信息;
第四获得单元16,所述第四获得单元16用于根据所述第一声音信息,获得第一互动识别信息;
第五获得单元17,所述第五获得单元17用于当所述第一互动识别信息与所述互动信息之间的第一匹配度满足预设匹配阈值时,根据所述第一互动识别信息、所述第一多机位画面信息,获得第一匹配机位信息;
第六获得单元18,所述第六获得单元18用于根据所述第一匹配机位信息,获得第一切换指令,所述第一切换指令用于按照所述第一匹配机位信息进行画面直播。
进一步的,所述系统还包括:
第七获得单元,所述第七获得单元用于获得预设声音转换算法;
第八获得单元,所述第八获得单元用于根据所述预设声音转换算法对所述第一声音信息进行转换,获得第一转换信息;
第九获得单元,所述第九获得单元用于获得互动操作知识库;
第十获得单元,所述第十获得单元用于根据所述第一转换信息、所述互动操作知识库,获得所述第一互动识别信息。
进一步的,所述系统还包括:
第十一获得单元,所述第十一获得单元用于根据所述互动信息,获得所述互动操作信息;
第十二获得单元,所述第十二获得单元用于根据所述互动操作信息,获得操作描述用语;
第十三获得单元,所述第十三获得单元用于根据所述第一互动识别信息、所述操作描述用语,获得所述第一匹配度;
第一判断单元,所述第一判断单元用于判断所述第一匹配度是否满足所述预设匹配阈值;
第十四获得单元,所述第十四获得单元用于当所述第一匹配度满足所述预设匹配阈值时,获得所述第一匹配机位。
进一步的,所述系统还包括:
第十五获得单元,所述第十五获得单元用于当所述第一匹配度不满足所述预设匹配阈值时,根据所述第一动作信息,获得第一角度信息;
第十六获得单元,所述第十六获得单元用于根据所述第一角度信息、所述第一虚拟对象信息,获得第一互动位置信息;
第十七获得单元,所述第十七获得单元用于根据所述第一互动位置信息、所述互动信息,获得第二互动识别信息;
第十八获得单元,所述第十八获得单元用于根据所述第二互动识别信息、所述第一多机位画面信息,获得第二匹配机位信息;
第十九获得单元,所述第十九获得单元用于根据所述第二匹配机位信息,获得第二切换指令。
进一步的,所述系统还包括:
第二十获得单元,所述第二十获得单元用于根据所述第一互动识别信息、所述互动信息,获得匹配互动效果信息;
第二十一获得单元,所述第二十一获得单元用于根据所述匹配互动效果信息、所述第一多机位画面信息,获得互动机位画面信息集合;
第二十二获得单元,所述第二十二获得单元用于获得预设画面效果评估规则,所述预设画面效果评估规则包括所述拍摄中心点、拍摄覆盖面积的评估规则;
第二十三获得单元,所述第二十三获得单元用于依次将所述互动机位画面信息集合中的互动机位画面信息、所述预设画面效果评估规则输入画面评估模型,获得画面评估结果;
第一确定单元,所述第一确定单元用于从所有的画面评估结果中选择所述画面评估结果最佳的互动机位画面信息,确定所述第一匹配机位信息。
进一步的,所述系统还包括:
第二十四获得单元,所述第二十四获得单元用于当所述匹配互动效果信息包括多阶段时,所述多阶段为最少存在两个阶段,分别为第一阶段、第二阶段、直到第N阶段,其中,N为大于2的自然数;
第二十五获得单元,所述第二十五获得单元用于根据所述匹配互动效果信息、所述第一多机位画面信息,获得各阶段对应的机位画面信息集合;
第二十六获得单元,所述第二十六获得单元用于分别将各阶段的所述机位画面信息输入所述画面评估模型中,获得各阶段的所述画面评估结果;
第二十六获得单元,所述第二十六获得单元用于根据所述匹配互动效果信息,获得阶段划分信息;
第一切换单元,所述第一切换单元用于当获得第一阶段结束信息后,获得第一阶段切换指令,所述第一阶段切换指令用于按照第二阶段匹配结尾信息进行机位画面切换;
第二切换单元,所述第二切换单元用于以此类推,直到完成第N-1阶段切换指令为止。
进一步的,所述系统还包括:
第二十七获得单元,所述第二十七获得单元用于根据所述第一虚拟对象信息,获得第一状态信息,所述第一状态信息为互动操作之前第一虚拟对象状态信息;
第二十八获得单元,所述第二十八获得单元用于根据所述第一虚拟对象信息中的互动信息,获得互动状态信息,当互动状态包括多阶段时,所述互动状态包括多阶段互动状态;
第二十九获得单元,所述第二十九获得单元用于将所述第一状态信息、所述机位画面数据集合输入所述机位画面分析模型,获得第一状态多机位画面信息;
第三十获得单元,所述第三十获得单元用于将所述互动状态信息、所述机位画面数据集合输入所述机位画面分析模型,获得互动状态多机位画面信息;
第三十一获得单元,所述第三十一获得单元用于根据所述第一状态多机位画面信息、所述互动状态多机位画面信息,获得所述第一多机位画面信息。
进一步的,所述系统还包括:
第三十二获得单元,所述第三十二获得单元用于所述机位画面分析模型为多组训练数据经过训练收敛获得,其中,所述多组训练数据中每组数据均包括虚拟对象状态信息、机位画面数据集合和标识虚拟对象状态下多机位的画面信息的标识信息;
第三十三获得单元,所述第三十三获得单元用于获得所述机位画面分析模型的输出信息,所述输出信息包括虚拟对象状态下多机位画面信息。
前述图1实施例一中的一种基于混合现实的多机位画面直播方法的各种变化方式和具体实例同样适用于本实施例的一种基于混合现实的多机位画面直播系统,通过前述对一种基于混合现实的多机位画面直播方法的详细描述,本领域技术人员可以清楚的知道本实施例中一种基于混合现实的多机位画面直播系统的实施方法,所以为了说明书的简洁,在此不再详述。
示例性电子设备
下面参考图3来描述本申请实施例的电子设备。
图3图示了根据本申请实施例的电子设备的结构示意图。
基于与前述实施例中一种基于混合现实的多机位画面直播方法的发明构思,本发明还提供一种基于混合现实的多机位画面直播系统,其上存储有计算机程序,该程序被处理器执行时实现前文所述一种基于混合现实的多机位画面直播方法的任一方法的步骤。
其中,在图3中,总线架构(用总线300来代表),总线300可以包括任意数量的互联的总线和桥,总线300将包括由处理器302代表的一个或多个处理器和存储器304代表的存储器的各种电路链接在一起。总线300还可以将诸如外围设备、稳压器和功率管理电路等之类的各种其他电路链接在一起,这些都是本领域所公知的,因此,本文不再对其进行进一步描述。总线接口305在总线300和接收器301和发送器303之间提供接口。接收器301和发送器303可以是同一个元件,即收发机,提供用于在传输介质上与各种其他系统通信的单元。
处理器302负责管理总线300和通常的处理,而存储器304可以被用于存储处理器302在执行操作时所使用的数据。
本发明实施例提供的一种基于混合现实的多机位画面直播方法,其中,所述方法应用于一多机位画面直播系统,所述系统包括多台摄像机,且,所述多台摄像机拍摄角度不同,所述方法包括:获得所述多台摄像机的拍摄角度信息,所述拍摄角度信息包括拍摄中心点、拍摄覆盖面积;根据所述多台摄像机的拍摄角度信息构建机位画面数据集合;获得第一虚拟对象信息,所述第一虚拟对象信息包括所述第一虚拟对象的尺寸信息、互动信息,其中,所述互动信息包括互动操作信息、互动效果信息;将所述第一虚拟对象信息、所述机位画面数据集合输入机位画面分析模型,获得第一多机位画面信息,所述第一多机位画面信息包括所述第一虚拟对象完成所述互动信息的互动过程画面信息;获得第一互动对象的第一互动信息,所述第一互动信息包括第一声音信息、第一动作信息;根据所述第一声音信息,获得第一互动识别信息;当所述第一互动识别信息与所述互动信息之间的第一匹配度满足预设匹配阈值时,根据所述第一互动识别信息、所述第一多机位画面信息,获得第一匹配机位信息;根据所述第一匹配机位信息,获得第一切换指令,所述第一切换指令用于按照所述第一匹配机位信息进行画面直播。解决了现有技术中混合现实的画面直播存在角度捕捉不够智能,进而影响混合现实的画面直播效果的技术问题,达到智能根据用户实时信息,结合虚拟场景,进行机位角度切换,提高混合现实的直播观感的技术效果。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的系统。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令系统的制造品,该指令系统实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。尽管已描述了本发明的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例做出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
Claims (9)
1.一种基于混合现实的多机位画面直播方法,其中,所述方法应用于一多机位画面直播系统,所述系统包括多台摄像机,且,所述多台摄像机拍摄角度不同,所述方法包括:
获得所述多台摄像机的拍摄角度信息,所述拍摄角度信息包括拍摄中心点、拍摄覆盖面积;
根据所述多台摄像机的拍摄角度信息构建机位画面数据集合;
获得第一虚拟对象信息,所述第一虚拟对象信息包括所述第一虚拟对象的尺寸信息、互动信息,其中,所述互动信息包括互动操作信息、互动效果信息;
将所述第一虚拟对象信息、所述机位画面数据集合输入机位画面分析模型,获得第一多机位画面信息,所述第一多机位画面信息包括所述第一虚拟对象完成所述互动信息的互动过程画面信息;
获得第一互动对象的第一互动信息,所述第一互动信息包括第一声音信息、第一动作信息;
根据所述第一声音信息,获得第一互动识别信息;
当所述第一互动识别信息与所述互动信息之间的第一匹配度满足预设匹配阈值时,根据所述第一互动识别信息、所述第一多机位画面信息,获得第一匹配机位信息;
根据所述第一匹配机位信息,获得第一切换指令,所述第一切换指令用于按照所述第一匹配机位信息进行画面直播;
其中,所述根据所述第一互动识别信息、所述第一多机位画面信息,获得第一匹配机位信息,包括:
根据所述第一互动识别信息、所述互动信息,获得匹配互动效果信息;
根据所述匹配互动效果信息、所述第一多机位画面信息,获得互动机位画面信息集合;
获得预设画面效果评估规则,所述预设画面效果评估规则包括所述拍摄中心点、拍摄覆盖面积的评估规则;
依次将所述互动机位画面信息集合中的互动机位画面信息、所述预设画面效果评估规则输入画面评估模型,获得画面评估结果;
从所有的画面评估结果中选择所述画面评估结果最佳的互动机位画面信息,确定所述第一匹配机位信息。
2.如权利要求1所述的方法,其中,所述根据所述第一声音信息,获得第一互动识别信息,包括:
获得预设声音转换算法;
根据所述预设声音转换算法对所述第一声音信息进行转换,获得第一转换信息;
获得互动操作知识库;
根据所述第一转换信息、所述互动操作知识库,获得所述第一互动识别信息。
3.如权利要求1所述的方法,其中,所述根据所述第一声音信息,获得第一互动识别信息之后,包括:
根据所述互动信息,获得所述互动操作信息;
根据所述互动操作信息,获得操作描述用语;
根据所述第一互动识别信息、所述操作描述用语,获得所述第一匹配度;
判断所述第一匹配度是否满足所述预设匹配阈值;
当所述第一匹配度满足所述预设匹配阈值时,获得所述第一匹配机位。
4.如权利要求3所述的方法,其中,所述判断所述第一匹配度是否满足所述预设匹配阈值之后,包括:
当所述第一匹配度不满足所述预设匹配阈值时,根据所述第一动作信息,获得第一角度信息;
根据所述第一角度信息、所述第一虚拟对象信息,获得第一互动位置信息;
根据所述第一互动位置信息、所述互动信息,获得第二互动识别信息;
根据所述第二互动识别信息、所述第一多机位画面信息,获得第二匹配机位信息;
根据所述第二匹配机位信息,获得第二切换指令。
5.如权利要求1所述的方法,其中,所述方法包括:
当所述匹配互动效果信息包括多阶段时,所述多阶段为最少存在两个阶段,分别为第一阶段、第二阶段、直到第N阶段,其中,N为大于2的自然数;
根据所述匹配互动效果信息、所述第一多机位画面信息,获得各阶段对应的机位画面信息集合;
分别将各阶段的所述机位画面信息输入所述画面评估模型中,获得各阶段的所述画面评估结果;
根据所述匹配互动效果信息,获得阶段划分信息;
当获得第一阶段结束信息后,获得第一阶段切换指令,所述第一阶段切换指令用于按照第二阶段匹配结尾信息进行机位画面切换;
以此类推,直到完成第N-1阶段切换指令为止。
6.如权利要求1所述的方法,其中,所述将所述第一虚拟对象信息、所述机位画面数据集合输入机位画面分析模型,获得第一多机位画面信息,包括:
根据所述第一虚拟对象信息,获得第一状态信息,所述第一状态信息为互动操作之前第一虚拟对象状态信息;
根据所述第一虚拟对象信息中的互动信息,获得互动状态信息,当互动状态包括多阶段时,所述互动状态包括多阶段互动状态;
将所述第一状态信息、所述机位画面数据集合输入所述机位画面分析模型,获得第一状态多机位画面信息;
将所述互动状态信息、所述机位画面数据集合输入所述机位画面分析模型,获得互动状态多机位画面信息;
根据所述第一状态多机位画面信息、所述互动状态多机位画面信息,获得所述第一多机位画面信息。
7.如权利要求6所述的方法,其中,所述方法包括:
所述机位画面分析模型为多组训练数据经过训练收敛获得,其中,所述多组训练数据中每组数据均包括虚拟对象状态信息、机位画面数据集合和标识虚拟对象状态下多机位的画面信息的标识信息;
获得所述机位画面分析模型的输出信息,所述输出信息包括虚拟对象状态下多机位画面信息。
8.一种基于混合现实的多机位画面直播系统,其中,所述系统包括:
第一获得单元,所述第一获得单元用于获得多台摄像机的拍摄角度信息,所述拍摄角度信息包括拍摄中心点、拍摄覆盖面积;
第一构建单元,所述第一构建单元用于根据所述多台摄像机的拍摄角度信息构建机位画面数据集合;
第二获得单元,所述第二获得单元用于获得第一虚拟对象信息,所述第一虚拟对象信息包括所述第一虚拟对象的尺寸信息、互动信息,其中,所述互动信息包括互动操作信息、互动效果信息;
第一输入单元,所述第一输入单元用于将所述第一虚拟对象信息、所述机位画面数据集合输入机位画面分析模型,获得第一多机位画面信息,所述第一多机位画面信息包括所述第一虚拟对象完成所述互动信息的互动过程画面信息;
第三获得单元,所述第三获得单元用于获得第一互动对象的第一互动信息,所述第一互动信息包括第一声音信息、第一动作信息;
第四获得单元,所述第四获得单元用于根据所述第一声音信息,获得第一互动识别信息;
第五获得单元,所述第五获得单元用于当所述第一互动识别信息与所述互动信息之间的第一匹配度满足预设匹配阈值时,根据所述第一互动识别信息、所述第一多机位画面信息,获得第一匹配机位信息;
第六获得单元,所述第六获得单元用于根据所述第一匹配机位信息,获得第一切换指令,所述第一切换指令用于按照所述第一匹配机位信息进行画面直播;
其中,所述第五获得单元根据所述第一互动识别信息、所述第一多机位画面信息,获得第一匹配机位信息,还包括:
第二十获得单元,所述第二十获得单元用于根据所述第一互动识别信息、所述互动信息,获得匹配互动效果信息;
第二十一获得单元,所述第二十一获得单元用于根据所述匹配互动效果信息、所述第一多机位画面信息,获得互动机位画面信息集合;
第二十二获得单元,所述第二十二获得单元用于获得预设画面效果评估规则,所述预设画面效果评估规则包括所述拍摄中心点、拍摄覆盖面积的评估规则;
第二十三获得单元,所述第二十三获得单元用于依次将所述互动机位画面信息集合中的互动机位画面信息、所述预设画面效果评估规则输入画面评估模型,获得画面评估结果;
第一确定单元,所述第一确定单元用于从所有的画面评估结果中选择所述画面评估结果最佳的互动机位画面信息,确定所述第一匹配机位信息。
9.一种基于混合现实的多机位画面直播系统,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其中,所述处理器执行所述程序时实现权利要求1-7任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110552580.5A CN113286162B (zh) | 2021-05-20 | 2021-05-20 | 一种基于混合现实的多机位画面直播方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110552580.5A CN113286162B (zh) | 2021-05-20 | 2021-05-20 | 一种基于混合现实的多机位画面直播方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113286162A CN113286162A (zh) | 2021-08-20 |
CN113286162B true CN113286162B (zh) | 2022-05-31 |
Family
ID=77280416
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110552580.5A Active CN113286162B (zh) | 2021-05-20 | 2021-05-20 | 一种基于混合现实的多机位画面直播方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113286162B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116896658B (zh) * | 2023-09-11 | 2023-12-12 | 厦门视诚科技有限公司 | 一种直播中摄像头画面切换方法 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120142415A1 (en) * | 2010-12-03 | 2012-06-07 | Lindsay L Jon | Video Show Combining Real Reality and Virtual Reality |
CN104157277A (zh) * | 2014-08-22 | 2014-11-19 | 苏州乐聚一堂电子科技有限公司 | 虚拟演唱会现场主持伴音系统 |
CN105939481A (zh) * | 2016-05-12 | 2016-09-14 | 深圳市望尘科技有限公司 | 一种交互式三维虚拟现实视频节目录播和直播方法 |
CN106878759A (zh) * | 2017-02-13 | 2017-06-20 | 广东小天才科技有限公司 | 一种教学直播中多机位镜头切换方法及系统 |
CN109104613A (zh) * | 2017-06-21 | 2018-12-28 | 苏宁云商集团股份有限公司 | 一种实现多机位切换的vr直播方法及系统 |
WO2019087014A1 (ru) * | 2017-10-30 | 2019-05-09 | ГИОРГАДЗЕ, Анико Тенгизовна | Взаимодействие пользователей посредством потокового вещания данных дополненной реальности |
US10535190B2 (en) * | 2017-12-28 | 2020-01-14 | Rovi Guides, Inc. | Systems and methods for changing a users perspective in virtual reality based on a user-selected position |
CA3087039A1 (en) * | 2017-12-28 | 2019-07-04 | Rovi Guides, Inc. | Systems and methods for generating customized shared viewing experiences in virtual reality environments |
KR20200024441A (ko) * | 2018-08-28 | 2020-03-09 | 김영대 | 가상 및 증강 현실 강의실에서 인공지능 기능의 자동 장면 전환 기술을 이용한 스마트-원격 강의 방법 및 그 장치 |
CN110602517B (zh) * | 2019-09-17 | 2021-05-11 | 腾讯科技(深圳)有限公司 | 基于虚拟环境的直播方法、装置和系统 |
CN111901616B (zh) * | 2020-07-15 | 2022-09-13 | 天翼视讯传媒有限公司 | 一种基于H5/WebGL的改进多视角直播渲染的方法 |
CN112616063B (zh) * | 2020-12-11 | 2022-10-28 | 北京字跳网络技术有限公司 | 一种直播互动方法、装置、设备及介质 |
-
2021
- 2021-05-20 CN CN202110552580.5A patent/CN113286162B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN113286162A (zh) | 2021-08-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110119700B (zh) | 虚拟形象控制方法、虚拟形象控制装置和电子设备 | |
CN100499778C (zh) | 用于使用迭代质心来估计摄像机模型参数的方法和装置 | |
CN110298220B (zh) | 动作视频直播方法、系统、电子设备、存储介质 | |
CN103533303A (zh) | 一种运动目标实时跟踪系统和方法 | |
CN109325456A (zh) | 目标识别方法、装置、目标识别设备及存储介质 | |
CN111667420B (zh) | 图像处理方法及装置 | |
CN113286162B (zh) | 一种基于混合现实的多机位画面直播方法及系统 | |
CN113192164A (zh) | 虚拟形象随动控制方法、装置、电子设备和可读存储介质 | |
CN112132208A (zh) | 图像转换模型的生成方法、装置、电子设备及存储介质 | |
CN113160231A (zh) | 一种样本生成方法、样本生成装置及电子设备 | |
CN112492297A (zh) | 一种对视频的处理方法以及相关设备 | |
CN112121419B (zh) | 虚拟对象控制方法、装置、电子设备以及存储介质 | |
CN108765346A (zh) | 一种辅助对焦方法、装置和可读介质 | |
Babaei et al. | A state-based game attention model for cloud gaming | |
CN111353347B (zh) | 动作识别纠错方法、电子设备、存储介质 | |
CN115393532B (zh) | 脸部绑定方法、装置、设备及存储介质 | |
CN110633641A (zh) | 一种智能安防行人检测方法、系统、装置及存储介质 | |
CN114693721B (zh) | 运动规划方法、装置及机器人 | |
WO2024027063A1 (zh) | 直播方法、装置、存储介质、电子设备及产品 | |
CN111860206B (zh) | 图像采集方法、装置、存储介质和智能设备 | |
CN111160201B (zh) | 一种人脸图像上传方法、装置、电子设备及存储介质 | |
CN109213322B (zh) | 一种虚拟现实中手势识别的方法及系统 | |
CN113515187A (zh) | 一种虚拟现实场景的生成方法和网络侧设备 | |
CN115223028B (zh) | 场景重建及模型训练方法、装置、设备、介质及程序产品 | |
CN117768679A (zh) | 一种棋类比赛直播方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |