CN113286163B - 一种用于虚拟拍摄直播的时间戳误差标定方法及系统 - Google Patents
一种用于虚拟拍摄直播的时间戳误差标定方法及系统 Download PDFInfo
- Publication number
- CN113286163B CN113286163B CN202110557031.7A CN202110557031A CN113286163B CN 113286163 B CN113286163 B CN 113286163B CN 202110557031 A CN202110557031 A CN 202110557031A CN 113286163 B CN113286163 B CN 113286163B
- Authority
- CN
- China
- Prior art keywords
- feature
- video
- timestamp
- frame
- video signal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/21—Server components or server architectures
- H04N21/218—Source of audio or video content, e.g. local disk arrays
- H04N21/2187—Live feed
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/234—Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
- H04N21/23418—Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
- H04N21/44008—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/85—Assembly of content; Generation of multimedia applications
- H04N21/854—Content authoring
- H04N21/8547—Content authoring involving timestamps for synchronizing content
Abstract
本发明公开了一种用于虚拟拍摄直播的时间戳误差标定方法及系统,对第一视频信号解析,获得第一帧视频和第二帧视频,获得第一主动变化特征;根据第二解析指令对第二视频信号进行解析,获得第三帧视频和第四帧视频,根据第二特征捕获指令获得第一随动变化特征;将第一主动变化特征和第一随动变化特征输入特征空间变化分析模型,获得第一输出结果,标定第一帧视频为第一时间戳;将第一时间戳和第一变化匹配度输入时间戳误差分析标定系统,获得第二时间戳;根据第二时间戳对第三帧视频进行时间戳误差标定,解决了现有技术中对于虚拟拍摄直播过程中存在信号输入标定不准确,导致场景与场景之间存在信号匹配不准确,导致场景配合偏差的技术问题。
Description
技术领域
本发明涉及人工智能相关领域,尤其涉及一种用于虚拟拍摄直播的时间戳误差标定方法及系统。
背景技术
虚拟拍摄直播就是在直播拍摄中,根据要求的拍摄动作,全部镜头都在电脑里的虚拟场景中进行。对不同的场景进行场景的实时融合,拍摄这个镜头所需的各种元素,包括场景、人物、灯光等,全部被整合进了电脑,然后,根据相关数据信号,合成不同场景下的实时直播信号。
但本申请发明人在实现本申请实施例中发明技术方案的过程中,发现上述技术至少存在如下技术问题:
现有技术中对于虚拟拍摄直播过程中存在信号输入标定不准确,导致场景与场景之间存在信号匹配不准确,导致场景配合偏差的技术问题。
发明内容
本申请实施例通过提供一种用于虚拟拍摄直播的时间戳误差标定方法及系统,解决了现有技术中对于虚拟拍摄直播过程中存在信号输入标定不准确,导致场景与场景之间存在信号匹配不准确,导致场景配合偏差的技术问题,达到对信号进行基于时间戳误差的标定和修正,进而构建更准确的场景之间的匹配逻辑,提高场景配合间的准确度的技术效果。
鉴于上述问题,提出了本申请实施例提供一种用于虚拟拍摄直播的时间戳误差标定方法及系统。
第一方面,本申请提供了一种用于虚拟拍摄直播的时间戳误差标定方法,所述方法应用于一时间戳误差分析标定系统,所述方法包括:获得第一视频信号;获得第一解析指令,根据所述第一解析指令对所述第一视频信号解析,获得第一帧视频和第二帧视频,其中,所述第二帧视频的时间节点在所述第一帧视频的时间节点之后;获得第一特征捕捉指令,根据第一特征捕捉指令对所述第一帧视频和所述第二帧视频进行特征变化捕获,获得第一主动变化特征;获得第二视频信号,其中,所述第二视频信号与所述第一视频信号具有第一关联度;获得第二解析指令,根据所述第二解析指令对所述第二视频信号进行解析,获得第三帧视频和第四帧视频,其中,所述第四帧视频的时间节点在所述第三帧视频的时间节点之后;获得第二特征捕获指令,根据所述第二特征捕获指令对所述第三帧视频和所述第四帧视频进行特征变化捕获,获得第一随动变化特征;将所述第一主动变化特征和所述第一随动变化特征输入特征空间变化分析模型,获得第一输出结果,其中,所述第一输出结果包括随动特征与主动特征的第一变化匹配度;获得第一标定指令,根据所述第一标定指令标定所述第一帧视频为第一时间戳;将所述第一时间戳和所述第一变化匹配度输入所述时间戳误差分析标定系统,获得第二时间戳;根据所述第二时间戳对所述第三帧视频进行时间戳误差标定。
另一方面,本申请还提供了一种用于虚拟拍摄直播的时间戳误差标定系统,所述系统包括:第一获得单元,所述第一获得单元用于获得第一视频信号;第二获得单元,所述第二获得单元用于获得第一解析指令,根据所述第一解析指令对所述第一视频信号解析,获得第一帧视频和第二帧视频,其中,所述第二帧视频的时间节点在所述第一帧视频的时间节点之后;第三获得单元,所述第三获得单元用于获得第一特征捕捉指令,根据第一特征捕捉指令对所述第一帧视频和所述第二帧视频进行特征变化捕获,获得第一主动变化特征;第四获得单元,所述第四获得单元用于获得第二视频信号,其中,所述第二视频信号与所述第一视频信号具有第一关联度;第五获得单元,所述第五获得单元用于获得第二解析指令,根据所述第二解析指令对所述第二视频信号进行解析,获得第三帧视频和第四帧视频,其中,所述第四帧视频的时间节点在所述第三帧视频的时间节点之后;第六获得单元,所述第六获得单元用于获得第二特征捕获指令,根据所述第二特征捕获指令对所述第三帧视频和所述第四帧视频进行特征变化捕获,获得第一随动变化特征;第七获得单元,所述第七获得单元用于将所述第一主动变化特征和所述第一随动变化特征输入特征空间变化分析模型,获得第一输出结果,其中,所述第一输出结果包括随动特征与主动特征的第一变化匹配度;第八获得单元,所述第八获得单元用于获得第一标定指令,根据所述第一标定指令标定所述第一帧视频为第一时间戳;第九获得单元,所述第九获得单元用于将所述第一时间戳和所述第一变化匹配度输入时间戳误差分析标定系统,获得第二时间戳;第一标定单元,所述第一标定单元用于根据所述第二时间戳对所述第三帧视频进行时间戳误差标定。
第三方面,本发明提供了一种用于虚拟拍摄直播的时间戳误差标定系统,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其中,所述处理器执行所述程序时实现第一方面所述方法的步骤。
本申请实施例中提供的一个或多个技术方案,至少具有如下技术效果或优点:
由于采用了根据第一视频信号进行信号解析,获得第一帧视频和第二帧视频,对所述第一帧视频和所述第二帧视频进行特征捕捉,获得第一主动变化特征,获得第二视频信号,对所述第二视频信号进行解析,获得第三帧视频喝第四帧视频,对所述第三帧视频喝所述第四帧视频进行随动特征捕捉,获得第一随动变化特征,将所述第一主动变化特征和所述第一随动变化特征输入特征空间变化分析模型,获得第一输出结果,基于所述第一输出结果和所述第一帧视频的第一时间戳,输入时间戳误差分析标定系统,获得第二日时间戳,根据所述第二时间戳对所述第三帧视频进行时间戳的误差标定,达到基于时间戳的误差标定进行视频帧率匹配,进而获得更加准确的配合视频场景,达到对信号进行基于时间戳误差的标定和修正,进而构建更准确的场景之间的匹配逻辑,提高场景配合间的准确度的技术效果。
上述说明仅是本申请技术方案的概述,为了能够更清楚了解本申请的技术手段,而可依照说明书的内容予以实施,并且为了让本申请的上述和其它目的、特征和优点能够更明显易懂,以下特举本申请的具体实施方式。
附图说明
图1为本申请实施例一种用于虚拟拍摄直播的时间戳误差标定方法的流程示意图;
图2为本申请实施例一种用于虚拟拍摄直播的时间戳误差标定方法的结构示意图;
图3为本申请实施例示例性电子设备的结构示意图。
附图标记说明:第一获得单元11,第二获得单元12,第三获得单元13,第四获得单元14,第五获得单元15,第六获得单元16,第七获得单元17,第八获得单元18,第九获得单元19,第一标定单元20,总线300,接收器301,处理器302,发送器303,存储器304,总线接口305。
具体实施方式
本申请实施例通过提供一种用于虚拟拍摄直播的时间戳误差标定方法及系统,解决了现有技术中对于虚拟拍摄直播过程中存在信号输入标定不准确,导致场景与场景之间存在信号匹配不准确,导致场景配合偏差的技术问题,达到对信号进行基于时间戳误差的标定和修正,进而构建更准确的场景之间的匹配逻辑,提高场景配合间的准确度的技术效果。下面,将参考附图详细的描述根据本申请的示例实施例。显然,所描述的实施例仅是本申请的一部分实施例,而不是本申请的全部实施例,应理解,本申请不受这里描述的示例实施例的限制。
申请概述
虚拟拍摄直播就是在直播拍摄中,根据要求的拍摄动作,全部镜头都在电脑里的虚拟场景中进行。拍摄这个镜头所需的各种元素,包括场景、人物、灯光等,全部被整合进了电脑,然后,根据相关数据信号,合成不同场景下的实时直播信号。现有技术中对于虚拟拍摄直播过程中存在信号输入标定不准确,导致场景与场景之间存在信号匹配不准确,导致场景配合偏差的技术问题。
针对上述技术问题,本申请提供的技术方案总体思路如下:
本申请实施例提供了一种用于虚拟拍摄直播的时间戳误差标定方法,所述方法应用于一时间戳误差分析标定系统,所述方法包括:获得第一视频信号;获得第一解析指令,根据所述第一解析指令对所述第一视频信号解析,获得第一帧视频和第二帧视频,其中,所述第二帧视频的时间节点在所述第一帧视频的时间节点之后;获得第一特征捕捉指令,根据第一特征捕捉指令对所述第一帧视频和所述第二帧视频进行特征变化捕获,获得第一主动变化特征;获得第二视频信号,其中,所述第二视频信号与所述第一视频信号具有第一关联度;获得第二解析指令,根据所述第二解析指令对所述第二视频信号进行解析,获得第三帧视频和第四帧视频,其中,所述第四帧视频的时间节点在所述第三帧视频的时间节点之后;获得第二特征捕获指令,根据所述第二特征捕获指令对所述第三帧视频和所述第四帧视频进行特征变化捕获,获得第一随动变化特征;将所述第一主动变化特征和所述第一随动变化特征输入特征空间变化分析模型,获得第一输出结果,其中,所述第一输出结果包括随动特征与主动特征的第一变化匹配度;获得第一标定指令,根据所述第一标定指令标定所述第一帧视频为第一时间戳;将所述第一时间戳和所述第一变化匹配度输入所述时间戳误差分析标定系统,获得第二时间戳;根据所述第二时间戳对所述第三帧视频进行时间戳误差标定。
在介绍了本申请基本原理后,下面将结合说明书附图来具体介绍本申请的各种非限制性的实施方式。
实施例一
如图1所示,本申请实施例提供了一种用于虚拟拍摄直播的时间戳误差标定方法,其中,所述方法应用于一时间戳误差分析标定系统,所述方法包括:
步骤S100:获得第一视频信号;
步骤S200:获得第一解析指令,根据所述第一解析指令对所述第一视频信号解析,获得第一帧视频和第二帧视频,其中,所述第二帧视频的时间节点在所述第一帧视频的时间节点之后;
具体而言,所述时间戳误差分析系统为根据视频间的特征变化关系,对两个视频的时间匹配度进行时间误差分析的系统,所述第一视频信号为模拟合成的视频信号,所述视频信号可以代表为第一视频信号,即主视频信号,以所述第一视频信号中的时间流向作为基准时间线,获得第一解析指令,根据所述第一解析指令对合成/拍摄得到的所述第一视频信号进行信号进行解析,获得第一帧视频和第二帧视频,其中,所述第一帧视频和所述第二帧视频为相邻帧视频,且所述第二帧视频对应的时间节点在所述第一帧视频的时间节点之后。
步骤S300:获得第一特征捕捉指令,根据第一特征捕捉指令对所述第一帧视频和所述第二帧视频进行特征变化捕获,获得第一主动变化特征;
举例而言,所述第一特征捕捉指令为对相邻视频帧进行分析,对相邻帧的特征变化进行特征捕捉的指令,根据所述第一特征捕捉指令对所述第一帧视频和所述第二帧视频进行特征捕捉,获得所述第一变化特征,所述特征为第一主动变化特征。
步骤S400:获得第二视频信号,其中,所述第二视频信号与所述第一视频信号具有第一关联度;
步骤S500:获得第二解析指令,根据所述第二解析指令对所述第二视频信号进行解析,获得第三帧视频和第四帧视频,其中,所述第四帧视频的时间节点在所述第三帧视频的时间节点之后;
具体而言,所述第二视频信号为与所述第一视频信号具有第一关联度的视频信号,进一步来说,所述第二视频信号可以为所述第一视频信号的随动场景,且基于所述第一视频信号,具有相同时间线的时间标记。根据所述第二解析指令对所述第二视频信号进行信号解析,获得第三帧视频和第四帧视频,其中,所述第三帧视频和所述第一帧视频的时间节点对应,所述第四帧视频与所述第二帧视频的时间节点对应。
步骤S600:获得第二特征捕获指令,根据所述第二特征捕获指令对所述第三帧视频和所述第四帧视频进行特征变化捕获,获得第一随动变化特征;
具体而言,所述第二特征捕获指令为对所述第三帧视频和所述第四帧视频进行特征捕获的指令,根据所述第二特征捕获指令对所述第三帧视频和所述第四帧视频进行特征的变化捕获,获得第一随动变的特征。
步骤S700:将所述第一主动变化特征和所述第一随动变化特征输入特征空间变化分析模型,获得第一输出结果,其中,所述第一输出结果包括随动特征与主动特征的第一变化匹配度;
具体而言,根据所述第一主动变化特征和所述第一随动变化特征,对所述随动变化特征和所述主动变化特征的变化点的衔接关系、配合度等进行评估,进一步说,获得所述第一主动变化特征的空间位置,获得所述第一随动变化特征的空间位置,根据所述空间位置随时间节点的变化关系对所述第一主动变化特征所述第一随动变化特征的变化匹配度进行评估,获得第一变化匹配度。
步骤S800:获得第一标定指令,根据所述第一标定指令标定所述第一帧视频为第一时间戳;
步骤S900:将所述第一时间戳和所述第一变化匹配度输入所述时间戳误差分析标定系统,获得第二时间戳;
步骤S1000:根据所述第二时间戳对所述第三帧视频进行时间戳误差标定。
具体而言,所述第一标定指令为对所述第一帧视频进行时间戳的标定指令,以所述第一视频信号的时间线作为基准时间,对于所述第一帧视频的时间戳标定为后续更加准确的匹配其他视频信号夯实了基础。将所述第一时间戳和所述第一变化特征匹配度输入所述时间戳误差分析系统,根据所述第一变化特征匹配度对所述第三帧视频与所述第一时间戳的相差时间进行预估,获得所述第三帧视频对应的第二时间戳。根据所述第二时间戳对所述第三帧视频进行标定,根据所述标定结果,则可通过对应时间戳之间的时间变化对视频场景的配合进行及时的修正,进而达到对信号进行基于时间戳误差的标定和修正,进而构建更准确的场景之间的匹配逻辑,提高场景配合间的准确度的技术效果。
进一步而言,本申请实施例还包括:
步骤S1110:构建第一空间坐标系,其中,所述第一空间坐标系为基于所述第一视频信号和所述第二视频信号共同构建的空间坐标系;
步骤S1120:根据所述空间坐标系获得所述第一主动变化特征的第一坐标变化值;
步骤S1130:根据所述空间坐标系获得所述第一随动变化特征的第二坐标变化值;
步骤S1140:根据所述第一坐标变化值和所述第二坐标变化值进行坐标拟合,根据拟合结果获得模拟视频信号;
步骤S1150:根据所述模拟视频信号对所述第一主动变化特征和所述第一随动变化特征的变化匹配度进行评估,获得第二变化匹配度;
步骤S1160:将所述第一时间戳和所述第二变化匹配度输入所述时间戳误差分析标定系统,获得第三时间戳;
步骤S1170:根据所述第三时间戳和所述第二时间戳对所述第三帧视频进行时间戳误差标定。
具体而言,所述第一空间坐标系为基于所述第一视频信号和所述第二视频信号构建的进行坐标分析的分析基准的空间坐标系。根据所述第一空间坐标系获得所述第一主动变化特征的特征变化坐标值,即在所述空间坐标系下获得第一主动变化特征的第一坐标,在所述第一空间坐标系下获得第一主动变化特征的第二坐标,根据所述第一坐标和所述第二坐标获得第一坐标变化值,同理,获得所述第一随动变化特征的第二坐标变化值,根据所述第一坐标变化值和所述第二坐标变化值进行基于坐标的坐标变化拟合,根据所述坐标的拟合结果,获得模拟的视频信号,根据所述拟合的视频信号对所述第一主动变化特征和所述第一随动变化特征的变化的匹配度进行评估,获得第二变化匹配度评估结果,根据所述第二变化匹配度和所述第一时间戳,获得第三时间戳,具体为将所述第一时间戳和所述第二变化匹配度输入所述时间戳误差分析标定系统,获得第三时间戳,根据所述第三时间戳和所述第二时间戳对所述第三帧视频进行时间戳误差标定。通过基于空间坐标对于特征变化匹配度进行进一步的评估,使得所述评估结果更加准确,基于两种结果对所述时间戳的偏差可进行更加准确的分析,进而达到获得更加准确的分析结果的技术效果。
进一步而言,所述根据所述第三时间戳和所述第二时间戳对所述第三帧视频进行时间戳误差标定,本申请实施例步骤S1170还包括:
步骤S1171:获得第一误差分析指令,根据所述第一误差分析指令对所述第三时间戳和所述第二时间戳进行误差分析,获得第一误差值分析结果;
步骤S1172:获得第一预设误差值阈值;
步骤S1173:判断所述第一误差值分析结果是否满足所述第一预设误差值阈值;
步骤S1174:当所述第一误差值分析结果不满足所述第一预设误差值阈值时,获得第一评估指令;
步骤S1175:根据所述第一评估指令对所述特征空间变化分析模型和所述模拟视频信号进行评估,获得第一评估结果;
步骤S1176:根据所述第一评估结果对所述第三时间戳和所述第二时间戳进行调整,获得第四时间戳;
步骤S1177:根据所述第四时间戳对所述第三帧视频进行时间戳误差标定
具体而言,所述第一误差分析指令为对所述第三时间戳和所述第二时间戳进行时间的误差分析的指令,获得所述第二时间戳和所述第三时间戳的误差值,即所述第一误差值分析结果,基于时间戳的误差值对视频合成结果的影响程度获得第一预设误差值阈值,判断所述第一误差值分析结果是否满足所述第一预设误差值阈值,当所述第一误差值分析结果不满足所述第一预设误差值阈值时,获得第一评估指令,根据所述第一评估指令对所述特征空间变化分析模型和所述模拟视频信号进行评估,即根据所述特征空间变化分析模型构建时的样本数量,收敛状态、更新数据的情况对所述模型进行评估,所述模拟视频信号的评估过程为对拟合结果的评估时的参考数据和参考样本,根据所述评估结果对所述特征空间变化分析模型和所述模拟视频信号的可信度进行分析,根据所述分析结果获得第四时间戳,基于所述第四时间戳对所述第三帧视频进行时间戳的误差标定。
进一步的,本申请实施例还包括:
步骤S1210:获得第二误差分析指令,根据所述第二误差分析指令对所述第一时间戳和所述第二时间戳进行误差分析,获得第二误差值分析结果;
步骤1220:根据所述第二误差值分析结果获得第一溯源指令;
步骤S1230:根据所述第一溯源指令对所述第一视频信号和所述第二视频信号进行信号溯源,获得第一视频信号集和所述第二视频信号集,其中,所述第一视频信号集与所述第一视频信号具有对应关系,所述第二视频信号集与所述第二视频信号具有对应关系;
步骤S1240:对所述第一视频信号集和所述第二视频信号集进行信号特征分析,获得第一特征分析标签;
步骤S1250:根据所述第一特征分析标签对所述第二时间戳进行标签标识
具体而言,所述第二误差分析指令为对所述第一时间戳和所述第二时间戳进行误差分析的指令,当所述第一时间戳与所述第二时间戳不一致时,表明原定的第一视频信号和所述第二视频信号的时间出现偏差,此时根据所述第一时间戳和所述第二时间戳的分析结果,对产生时间偏差的原因进行分析,即获得第一溯源指令,根据所述第一溯源指令获得合成所述第一视频信号和所述第二视频信号的第一视频信号集和所述第二视频信号集,基于所述第一视频信号集和所述第二视频信号集,对所述误差值产生的原因进行进一步的分析,采集出现误差的特征,如拍摄的延时特征、设备的老化特征、网络延时特征等,根据所述特征的采集结果对产生所述第二误差值的主要原因进行获得,根据所述获得的主要特征获得第一特征分析标签,根据所述第一特征分析标签对所述第二时间戳进行标签的标识,使得所述第二时间戳的误差原因可更加及时的被发现,便于对设备进行及时的修正的调整。
进一步的,本申请实施例还包括:
步骤S1251:根据所述第一视频信号集和所述第二视频信号集获得第一特征、第二特征和第三特征,其中,所述第一特征、所述第二特征和所述第三特征为不同特征;
步骤S1252:根据所述第一特征、所述第二特征和所述第三特征构建特征分析决策树;
步骤S1253:根据所述特征分析决策树对信号集特征分析,获得所述第一特征分析标签。
具体而言,所述第一特征、第二特征和第三特征为产生时间信号误差的特征,所述特征为根据所述第一视频信号集和所述第二视频信号集进行特征提取分析获得的特征集排序获得的,所述特征可以是具体设备的延时特征、设备的性能特征、设备的网络特征等,包括网络延时、网络故障等,基于所述第一特征、第二特征和所述第三特征构建特征分析决策树,所述特征分析决策树为对特征出现的风险进行评估的决策模型,基于所述特征分析决策树对所述第二时间戳与所述第一时间戳出现的时间的误差主要产生的原因进行分析,基于所述特征分析决策树获得第一特征分析标签。
进一步而言,本申请实施例还包括:
步骤S12531:对所述第一特征进行信息论编码运算,获得第一特征信息熵,对对所述第二特征进行信息编码论运算,获得第二信息熵,对所述第三特征进行信息编码论运算,获得第三信息熵;
步骤S12532:将所述第一特征信息熵、所述第二特征信息熵、所述第三特征信息熵输入数据大小比对模型进行训练,获得第一根节点特征信息;
步骤S12533:根据所述第一根节点特征信息获得所述第一特征分析标签。
具体而言,通过所述特征分析决策树获得所述第一特征分析标签的过程为基于信息熵的数值大小进行比较的过程。通过对所述第一特征、第二特征、第三特征的信息编码运算,即通过信息论编码中的香农公式对其进行信息熵数值的具体计算,进而获得对应的所述第一信息熵、所述第二信息熵以及所述第三信息熵,进一步,信息熵表示信息的不确定度,当不确定性越大时,它所包含的信息量也就越大,信息熵也就越高,纯度也就越低,当集合中的所有样本均匀混合时,信息熵最大,纯度最低。因此,基于所述数据大小比对模型对所述第一信息熵、第二信息熵、第三信息熵进行数值大小的比对,继而获得熵值最小的特征,即第一根节点特征信息,进而获得更加准确的特征分析比对的结果,根据所述第一根节点特征信息获得误差时间的产生的主要原因,进而获得更加准确的特征分析标签,进而达到便于对设备进行及时的修正的调整的技术效果。
进一步而言,所述将所述第一主动变化特征和所述第一随动变化特征输入特征空间变化分析模型,获得第一输出结果,其中,所述第一输出结果包括随动特征与主动特征的第一变化匹配度,本申请实施例步骤S800还包括:
步骤S810:获得特征空间变化分析模型,其中,所述特征空间变化分析模型为通过多组训练数据训练获得的模型,所述多组训练数据中的每组均包括所述第一主动变化特征和所述第一随动变化特征和标识特征变化匹配度的标识信息;
步骤S820:将所述第一主动变化特征和所述第一随动变化特征输入特征空间变化分析模型,获得所述第一输出结果。
具体而言,所述特征空间变化分析模型为机器学习中的神经网络模型,它可以不断地进行学习和调整,是一个高度复杂的非线性动力学习系统。简单来说它是一个数学模型,通过大量训练数据的训练,将所述特征空间变化分析模型训练至收敛状态后,根据所述输入数据,通过所述特征空间变化分析模型进行处理,获得第一输出结果。
更进一步而言,所述训练的过程还包括监督学习的过程,每一组监督数据都包括所述第一主动变化特征和所述第一随动变化特征和标识特征变化匹配度的标识信息,将所述第一主动变化特征和所述第一随动变化特征输入到神经网络模型中,根据用来标识特征变化匹配度的标识信息对所述特征空间变化分析模型进行监督学习,使得所述特征空间变化分析模型的输出数据与监督数据一致,通过所述神经网络模型进行不断的自我修正、调整,直至获得的输出结果与所述标识信息一致,则结束本组数据监督学习,进行下一组数据监督学习;当所述神经网络模型的为收敛状态时,则监督学习过程结束。通过对所述模型的监督学习,进而使得所述模型处理所述输入信息更加准确,进而获得更加准确的输出结果。
综上所述,本申请实施例所提供的一种用于虚拟拍摄直播的时间戳误差标定方法及系统具有如下技术效果:
1、由于采用了根据第一视频信号进行信号解析,获得第一帧视频和第二帧视频,对所述第一帧视频和所述第二帧视频进行特征捕捉,获得第一主动变化特征,获得第二视频信号,对所述第二视频信号进行解析,获得第三帧视频喝第四帧视频,对所述第三帧视频喝所述第四帧视频进行随动特征捕捉,获得第一随动变化特征,将所述第一主动变化特征和所述第一随动变化特征输入特征空间变化分析模型,获得第一输出结果,基于所述第一输出结果和所述第一帧视频的第一时间戳,输入时间戳误差分析标定系统,获得第二日时间戳,根据所述第二时间戳对所述第三帧视频进行时间戳的误差标定,达到基于时间戳的误差标定进行视频帧率匹配,进而获得更加准确的配合视频场景,达到对信号进行基于时间戳误差的标定和修正,进而构建更准确的场景之间的匹配逻辑,提高场景配合间的准确度的技术效果。
2、由于采用了通过基于空间坐标对于特征变化匹配度进行进一步的评估的方式,使得所述评估结果更加准确,基于两种结果对所述时间戳的偏差可进行更加准确的分析,进而达到获得更加准确的分析结果的技术效果。
实施例二
基于与前述实施例中一种用于虚拟拍摄直播的时间戳误差标定方法同样发明构思,本发明还提供了一种用于虚拟拍摄直播的时间戳误差标定系统,如图2所示,所述系统包括:
第一获得单元11,所述第一获得单元11用于获得第一视频信号;
第二获得单元12,所述第二获得单元12用于获得第一解析指令,根据所述第一解析指令对所述第一视频信号解析,获得第一帧视频和第二帧视频,其中,所述第二帧视频的时间节点在所述第一帧视频的时间节点之后;
第三获得单元13,所述第三获得单元13用于获得第一特征捕捉指令,根据第一特征捕捉指令对所述第一帧视频和所述第二帧视频进行特征变化捕获,获得第一主动变化特征;
第四获得单元14,所述第四获得单元14用于获得第二视频信号,其中,所述第二视频信号与所述第一视频信号具有第一关联度;
第五获得单元15,所述第五获得单元15用于获得第二解析指令,根据所述第二解析指令对所述第二视频信号进行解析,获得第三帧视频和第四帧视频,其中,所述第四帧视频的时间节点在所述第三帧视频的时间节点之后;
第六获得单元16,所述第六获得单元16用于获得第二特征捕获指令,根据所述第二特征捕获指令对所述第三帧视频和所述第四帧视频进行特征变化捕获,获得第一随动变化特征;
第七获得单元17,所述第七获得单元17用于将所述第一主动变化特征和所述第一随动变化特征输入特征空间变化分析模型,获得第一输出结果,其中,所述第一输出结果包括随动特征与主动特征的第一变化匹配度;
第八获得单元18,所述第八获得单元18用于获得第一标定指令,根据所述第一标定指令标定所述第一帧视频为第一时间戳;
第九获得单元19,所述第九获得单元19用于将所述第一时间戳和所述第一变化匹配度输入时间戳误差分析标定系统,获得第二时间戳;
第一标定单元20,所述第一标定单元20用于根据所述第二时间戳对所述第三帧视频进行时间戳误差标定。
进一步的,所述系统还包括:
第一构建单元,所述第一构建单元用于构建第一空间坐标系,其中,所述第一空间坐标系为基于所述第一视频信号和所述第二视频信号共同构建的空间坐标系;
第十获得单元,所述第十获得单元用于根据所述空间坐标系获得所述第一主动变化特征的第一坐标变化值;
第十一获得单元,所述第十一获得单元用于根据所述空间坐标系获得所述第一随动变化特征的第二坐标变化值;
第十二获得单元,所述第十二获得单元用于根据所述第一坐标变化值和所述第二坐标变化值进行坐标拟合,根据拟合结果获得模拟视频信号;
第十三获得单元,所述第十三获得单元用于根据所述模拟视频信号对所述第一主动变化特征和所述第一随动变化特征的变化匹配度进行评估,获得第二变化匹配度;
第十四获得单元,所述第十四获得单元用于将所述第一时间戳和所述第二变化匹配度输入所述时间戳误差分析标定系统,获得第三时间戳;
第二标定单元,所述第二标定单元用于根据所述第三时间戳和所述第二时间戳对所述第三帧视频进行时间戳误差标定。
进一步的,所述系统还包括:
第十五获得单元,所述第十五获得单元用于获得第一误差分析指令,根据所述第一误差分析指令对所述第三时间戳和所述第二时间戳进行误差分析,获得第一误差值分析结果;
第十六获得单元,所述第十六获得单元用于获得第一预设误差值阈值;
第一判断单元,所述第一判断单元用于判断所述第一误差值分析结果是否满足所述第一预设误差值阈值;
第十七获得单元,所述第十七获得单元用于当所述第一误差值分析结果不满足所述第一预设误差值阈值时,获得第一评估指令;
第十八获得单元,所述第十八获得单元用于根据所述第一评估指令对所述特征空间变化分析模型和所述模拟视频信号进行评估,获得第一评估结果;
第十九获得单元,所述第十九获得单元用于根据所述第一评估结果对所述第三时间戳和所述第二时间戳进行调整,获得第四时间戳;
第三标定单元,所述第三标定单元用于根据所述第四时间戳对所述第三帧视频进行时间戳误差标定。
进一步的,所述系统还包括:
第二十获得单元,所述第二十获得单元用于获得第二误差分析指令,根据所述第二误差分析指令对所述第一时间戳和所述第二时间戳进行误差分析,获得第二误差值分析结果;
第二十一获得单元,所述第二十一获得单元用于根据所述第二误差值分析结果获得第一溯源指令;
第二十二获得单元,所述第二十二获得单元用于根据所述第一溯源指令对所述第一视频信号和所述第二视频信号进行信号溯源,获得第一视频信号集和所述第二视频信号集,其中,所述第一视频信号集与所述第一视频信号具有对应关系,所述第二视频信号集与所述第二视频信号具有对应关系;
第二十三获得单元,所述第二十三获得单元用于对所述第一视频信号集和所述第二视频信号集进行信号特征分析,获得第一特征分析标签;
第一标识单元,所述第一标识单元用于根据所述第一特征分析标签对所述第二时间戳进行标签标识。
进一步的,所述系统还包括:
第二十四获得单元,所述第二十四获得单元用于根据所述第一视频信号集和所述第二视频信号集获得第一特征、第二特征和第三特征,其中,所述第一特征、所述第二特征和所述第三特征为不同特征;
第二构建单元,所述第二构建单元用于根据所述第一特征、所述第二特征和所述第三特征构建特征分析决策树;
第二十五获得单元,所述第二十五获得单元用于根据所述特征分析决策树对信号集特征分析,获得所述第一特征分析标签。
进一步的,所述系统还包括:
第二十六获得单元,所述第二十六获得单元用于对所述第一特征进行信息论编码运算,获得第一特征信息熵,对对所述第二特征进行信息编码论运算,获得第二信息熵,对所述第三特征进行信息编码论运算,获得第三信息熵;
第二十七获得单元,所述第二十七获得单元用于将所述第一特征信息熵、所述第二特征信息熵、所述第三特征信息熵输入数据大小比对模型进行训练,获得第一根节点特征信息;
第二十八获得单元,所述第二十八获得单元用于根据所述第一根节点特征信息获得所述第一特征分析标签。
进一步的,所述系统还包括:
第二十九获得单元,所述第二十九获得单元用于获得特征空间变化分析模型,其中,所述特征空间变化分析模型为通过多组训练数据训练获得的模型,所述多组训练数据中的每组均包括所述第一主动变化特征和所述第一随动变化特征和标识特征变化匹配度的标识信息;
第三十获得单元,所述第三十获得单元用于将所述第一主动变化特征和所述第一随动变化特征输入特征空间变化分析模型,获得所述第一输出结果。
前述图1实施例一中的一种用于虚拟拍摄直播的时间戳误差标定方法的各种变化方式和具体实例同样适用于本实施例的一种用于虚拟拍摄直播的时间戳误差标定系统,通过前述对一种用于虚拟拍摄直播的时间戳误差标定方法的详细描述,本领域技术人员可以清楚的知道本实施例中一种用于虚拟拍摄直播的时间戳误差标定系统的实施方法,所以为了说明书的简洁,在此不再详述。
示例性电子设备
下面参考图3来描述本申请实施例的电子设备。
图3图示了根据本申请实施例的电子设备的结构示意图。
基于与前述实施例中一种用于虚拟拍摄直播的时间戳误差标定方法的发明构思,本发明还提供一种用于虚拟拍摄直播的时间戳误差标定系统,其上存储有计算机程序,该程序被处理器执行时实现前文所述一种用于虚拟拍摄直播的时间戳误差标定方法的任一方法的步骤。
其中,在图3中,总线架构(用总线300来代表),总线300可以包括任意数量的互联的总线和桥,总线300将包括由处理器302代表的一个或多个处理器和存储器304代表的存储器的各种电路链接在一起。总线300还可以将诸如外围设备、稳压器和功率管理电路等之类的各种其他电路链接在一起,这些都是本领域所公知的,因此,本文不再对其进行进一步描述。总线接口305在总线300和接收器301和发送器303之间提供接口。接收器301和发送器303可以是同一个元件,即收发机,提供用于在传输介质上与各种其他系统通信的单元。
处理器302负责管理总线300和通常的处理,而存储器304可以被用于存储处理器302在执行操作时所使用的数据。
本发明实施例提供的一种用于虚拟拍摄直播的时间戳误差标定方法,所述方法应用于一时间戳误差分析标定系统,所述方法包括:获得第一视频信号;获得第一解析指令,根据所述第一解析指令对所述第一视频信号解析,获得第一帧视频和第二帧视频,其中,所述第二帧视频的时间节点在所述第一帧视频的时间节点之后;获得第一特征捕捉指令,根据第一特征捕捉指令对所述第一帧视频和所述第二帧视频进行特征变化捕获,获得第一主动变化特征;获得第二视频信号,其中,所述第二视频信号与所述第一视频信号具有第一关联度;获得第二解析指令,根据所述第二解析指令对所述第二视频信号进行解析,获得第三帧视频和第四帧视频,其中,所述第四帧视频的时间节点在所述第三帧视频的时间节点之后;获得第二特征捕获指令,根据所述第二特征捕获指令对所述第三帧视频和所述第四帧视频进行特征变化捕获,获得第一随动变化特征;将所述第一主动变化特征和所述第一随动变化特征输入特征空间变化分析模型,获得第一输出结果,其中,所述第一输出结果包括随动特征与主动特征的第一变化匹配度;获得第一标定指令,根据所述第一标定指令标定所述第一帧视频为第一时间戳;将所述第一时间戳和所述第一变化匹配度输入所述时间戳误差分析标定系统,获得第二时间戳;根据所述第二时间戳对所述第三帧视频进行时间戳误差标定。解决了现有技术中对于虚拟拍摄直播过程中存在信号输入标定不准确,导致场景与场景之间存在信号匹配不准确,导致场景配合偏差的技术问题,达到对信号进行基于时间戳误差的标定和修正,进而构建更准确的场景之间的匹配逻辑,提高场景配合间的准确度的技术效果。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的系统。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令系统的制造品,该指令系统实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。尽管已描述了本发明的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例做出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
Claims (9)
1.一种用于虚拟拍摄直播的时间戳误差标定方法,其中,所述方法应用于一时间戳误差分析标定系统,所述方法包括:
获得第一视频信号;
获得第一解析指令,根据所述第一解析指令对所述第一视频信号解析,获得第一帧视频和第二帧视频,其中,所述第一帧视频和所述第二帧视频为相邻帧视频,所述第二帧视频的时间节点在所述第一帧视频的时间节点之后;
获得第一特征捕捉指令,根据第一特征捕捉指令对所述第一帧视频和所述第二帧视频进行特征变化捕获,获得第一主动变化特征;
获得第二视频信号,其中,所述第二视频信号与所述第一视频信号具有第一关联度;所述第二视频信号为所述第一视频信号的随动场景,且基于所述第一视频信号,具有相同时间线的时间标记;
获得第二解析指令,根据所述第二解析指令对所述第二视频信号进行解析,获得第三帧视频和第四帧视频,其中,所述第四帧视频的时间节点在所述第三帧视频的时间节点之后;所述第三帧视频与所述第一帧视频的时间节点对应,所述第四帧视频与所述第二帧视频的时间节点对应;
获得第二特征捕获指令,根据所述第二特征捕获指令对所述第三帧视频和所述第四帧视频进行特征变化捕获,获得第一随动变化特征;
将所述第一主动变化特征和所述第一随动变化特征输入特征空间变化分析模型,获得第一输出结果,其中,所述第一输出结果包括随动特征与主动特征的第一变化匹配度;
获得第一标定指令,根据所述第一标定指令标定所述第一帧视频为第一时间戳;
将所述第一时间戳和所述第一变化匹配度输入所述时间戳误差分析标定系统,获得第二时间戳;
根据所述第二时间戳对所述第三帧视频进行时间戳误差标定。
2.如权利要求1所述的方法,其中,所述方法还包括:
构建第一空间坐标系,其中,所述第一空间坐标系为基于所述第一视频信号和所述第二视频信号共同构建的空间坐标系;
根据所述空间坐标系获得所述第一主动变化特征的第一坐标变化值;
根据所述空间坐标系获得所述第一随动变化特征的第二坐标变化值;
根据所述第一坐标变化值和所述第二坐标变化值进行坐标拟合,根据拟合结果获得模拟视频信号;
根据所述模拟视频信号对所述第一主动变化特征和所述第一随动变化特征的变化匹配度进行评估,获得第二变化匹配度;
将所述第一时间戳和所述第二变化匹配度输入所述时间戳误差分析标定系统,获得第三时间戳;
根据所述第三时间戳和所述第二时间戳对所述第三帧视频进行时间戳误差标定。
3.如权利要求2所述的方法,其中,所述根据所述第三时间戳和所述第二时间戳对所述第三帧视频进行时间戳误差标定,还包括:
获得第一误差分析指令,根据所述第一误差分析指令对所述第三时间戳和所述第二时间戳进行误差分析,获得第一误差值分析结果;
获得第一预设误差值阈值,
判断所述第一误差值分析结果是否满足所述第一预设误差值阈值;
当所述第一误差值分析结果不满足所述第一预设误差值阈值时,获得第一评估指令;
根据所述第一评估指令对所述特征空间变化分析模型和所述模拟视频信号进行评估,获得第一评估结果;
根据所述第一评估结果对所述第三时间戳和所述第二时间戳进行调整,获得第四时间戳;
根据所述第四时间戳对所述第三帧视频进行时间戳误差标定。
4.如权利要求1所述的方法,其中,所述方法还包括:
获得第二误差分析指令,根据所述第二误差分析指令对所述第一时间戳和所述第二时间戳进行误差分析,获得第二误差值分析结果;
根据所述第二误差值分析结果获得第一溯源指令;
根据所述第一溯源指令对所述第一视频信号和所述第二视频信号进行信号溯源,获得第一视频信号集和所述第二视频信号集,其中,所述第一视频信号集与所述第一视频信号具有对应关系,所述第二视频信号集与所述第二视频信号具有对应关系;
对所述第一视频信号集和所述第二视频信号集进行信号特征分析,获得第一特征分析标签;
根据所述第一特征分析标签对所述第二时间戳进行标签标识。
5.如权利要求4所述的方法,其中,所述方法还包括:
根据所述第一视频信号集和所述第二视频信号集获得第一特征、第二特征和第三特征,其中,所述第一特征、所述第二特征和所述第三特征为不同特征;
根据所述第一特征、所述第二特征和所述第三特征构建特征分析决策树;
根据所述特征分析决策树对信号集特征分析,获得所述第一特征分析标签。
6.如权利要求5所述的方法,其中,所述方法还包括:
对所述第一特征进行信息论编码运算,获得第一特征信息熵,对对所述第二特征进行信息编码论运算,获得第二信息熵,对所述第三特征进行信息编码论运算,获得第三信息熵;
将所述第一特征信息熵、所述第二特征信息熵、所述第三特征信息熵输入数据大小比对模型进行训练,获得第一根节点特征信息;
根据所述第一根节点特征信息获得所述第一特征分析标签。
7.如权利要求1所述的方法,其中,将所述第一主动变化特征和所述第一随动变化特征输入特征空间变化分析模型,获得第一输出结果,其中,所述第一输出结果包括随动特征与主动特征的第一变化匹配度,还包括:
获得特征空间变化分析模型,其中,所述特征空间变化分析模型为通过多组训练数据训练获得的模型,所述多组训练数据中的每组均包括所述第一主动变化特征和所述第一随动变化特征和标识特征变化匹配度的标识信息;
将所述第一主动变化特征和所述第一随动变化特征输入特征空间变化分析模型,获得所述第一输出结果。
8.一种用于虚拟拍摄直播的时间戳误差标定系统,其中,所述系统包括:
第一获得单元,所述第一获得单元用于获得第一视频信号;
第二获得单元,所述第二获得单元用于获得第一解析指令,根据所述第一解析指令对所述第一视频信号解析,获得第一帧视频和第二帧视频,其中,所述第一帧视频和所述第二帧视频为相邻帧视频,所述第二帧视频的时间节点在所述第一帧视频的时间节点之后;
第三获得单元,所述第三获得单元用于获得第一特征捕捉指令,根据第一特征捕捉指令对所述第一帧视频和所述第二帧视频进行特征变化捕获,获得第一主动变化特征;
第四获得单元,所述第四获得单元用于获得第二视频信号,其中,所述第二视频信号与所述第一视频信号具有第一关联度;所述第二视频信号为所述第一视频信号的随动场景,且基于所述第一视频信号,具有相同时间线的时间标记;
第五获得单元,所述第五获得单元用于获得第二解析指令,根据所述第二解析指令对所述第二视频信号进行解析,获得第三帧视频和第四帧视频,其中,所述第四帧视频的时间节点在所述第三帧视频的时间节点之后;所述第三帧视频与所述第一帧视频的时间节点对应,所述第四帧视频与所述第二帧视频的时间节点对应;
第六获得单元,所述第六获得单元用于获得第二特征捕获指令,根据所述第二特征捕获指令对所述第三帧视频和所述第四帧视频进行特征变化捕获,获得第一随动变化特征;
第七获得单元,所述第七获得单元用于将所述第一主动变化特征和所述第一随动变化特征输入特征空间变化分析模型,获得第一输出结果,其中,所述第一输出结果包括随动特征与主动特征的第一变化匹配度;
第八获得单元,所述第八获得单元用于获得第一标定指令,根据所述第一标定指令标定所述第一帧视频为第一时间戳;
第九获得单元,所述第九获得单元用于将所述第一时间戳和所述第一变化匹配度输入时间戳误差分析标定系统,获得第二时间戳;
第一标定单元,所述第一标定单元用于根据所述第二时间戳对所述第三帧视频进行时间戳误差标定。
9.一种用于虚拟拍摄直播的时间戳误差标定系统,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其中,所述处理器执行所述程序时实现权利要求1-7任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110557031.7A CN113286163B (zh) | 2021-05-21 | 2021-05-21 | 一种用于虚拟拍摄直播的时间戳误差标定方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110557031.7A CN113286163B (zh) | 2021-05-21 | 2021-05-21 | 一种用于虚拟拍摄直播的时间戳误差标定方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113286163A CN113286163A (zh) | 2021-08-20 |
CN113286163B true CN113286163B (zh) | 2022-07-08 |
Family
ID=77280753
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110557031.7A Active CN113286163B (zh) | 2021-05-21 | 2021-05-21 | 一种用于虚拟拍摄直播的时间戳误差标定方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113286163B (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2005125218A1 (en) * | 2004-06-16 | 2005-12-29 | Koninklijke Philips Electronics N.V. | Prediction error based segmentation refinement within a forward mapping motion compensation scheme |
WO2006065074A1 (en) * | 2004-12-14 | 2006-06-22 | Samsung Electronics Co., Ltd. | Apparatus and method for displaying broadcasting information in digital broadcasting receiver |
WO2011082719A1 (en) * | 2010-01-11 | 2011-07-14 | Telefonaktiebolaget L M Ericsson (Publ) | Technique for video quality estimation |
CN102740096A (zh) * | 2012-07-13 | 2012-10-17 | 浙江工商大学 | 一种基于时空结合的动态场景立体视频匹配方法 |
CN111464256A (zh) * | 2020-04-14 | 2020-07-28 | 北京百度网讯科技有限公司 | 时间戳的校正方法、装置、电子设备和存储介质 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7437006B2 (en) * | 2002-03-06 | 2008-10-14 | Siemens Corporate Research, Inc. | Error propogation and variable-bandwidth mean shift for feature space analysis |
US8599317B2 (en) * | 2009-03-13 | 2013-12-03 | Disney Enterprises, Inc. | Scene recognition methods for virtual insertions |
GB201208088D0 (en) * | 2012-05-09 | 2012-06-20 | Ncam Sollutions Ltd | Ncam |
CN102982548B (zh) * | 2012-12-11 | 2015-11-25 | 清华大学 | 多目立体视频采集系统及其相机参数标定方法 |
CN103761523A (zh) * | 2014-01-02 | 2014-04-30 | 北京理工大学 | 一种机载遥感视频特定人造区域自动识别跟踪方法 |
IL270002B2 (en) * | 2017-04-19 | 2023-11-01 | Magic Leap Inc | Multimodal task execution and text editing for a wearable system |
JP6918648B2 (ja) * | 2017-08-31 | 2021-08-11 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
-
2021
- 2021-05-21 CN CN202110557031.7A patent/CN113286163B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2005125218A1 (en) * | 2004-06-16 | 2005-12-29 | Koninklijke Philips Electronics N.V. | Prediction error based segmentation refinement within a forward mapping motion compensation scheme |
WO2006065074A1 (en) * | 2004-12-14 | 2006-06-22 | Samsung Electronics Co., Ltd. | Apparatus and method for displaying broadcasting information in digital broadcasting receiver |
WO2011082719A1 (en) * | 2010-01-11 | 2011-07-14 | Telefonaktiebolaget L M Ericsson (Publ) | Technique for video quality estimation |
CN102740096A (zh) * | 2012-07-13 | 2012-10-17 | 浙江工商大学 | 一种基于时空结合的动态场景立体视频匹配方法 |
CN111464256A (zh) * | 2020-04-14 | 2020-07-28 | 北京百度网讯科技有限公司 | 时间戳的校正方法、装置、电子设备和存储介质 |
Non-Patent Citations (1)
Title |
---|
"面向全景视频直播系统的研究与实现";林华琦;《中国优秀硕博毕业论文》;20200331;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN113286163A (zh) | 2021-08-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11196638B2 (en) | Network event prediction method and apparatus and method and apparatus for establishing network-event prediction model | |
CN104683802A (zh) | 一种基于h.264/avc压缩域的运动目标跟踪的方法 | |
CN113568900A (zh) | 基于人工智能的大数据清洗方法及云服务器 | |
CN114647525A (zh) | 诊断方法、装置、终端及存储介质 | |
CN110232130B (zh) | 元数据管理谱系生成方法、装置、计算机设备和存储介质 | |
CN113286163B (zh) | 一种用于虚拟拍摄直播的时间戳误差标定方法及系统 | |
CN116743637B (zh) | 一种异常流量的检测方法、装置、电子设备及存储介质 | |
CN113361582A (zh) | 一种对抗样本的生成方法和装置 | |
CN114881540B (zh) | 确定水源治理方案的方法和装置、电子设备和存储介质 | |
CN116152609B (zh) | 分布式模型训练方法、系统、装置以及计算机可读介质 | |
CN116597246A (zh) | 模型训练方法、目标检测方法、电子设备及存储介质 | |
CN111398523A (zh) | 基于分布的传感器数据校准方法及系统 | |
CN112381925B (zh) | 一种基于激光编码的全身跟踪定位方法及系统 | |
CN113066115B (zh) | 深度预测网络训练方法、装置、服务器和可读存储介质 | |
CN112597922B (zh) | 一种基于无碰撞lstm的多目标轨迹预测方法 | |
CN111552566B (zh) | 一种数据处理系统、方法、电子设备及存储介质 | |
CN107145474B (zh) | 一种基于自回归模型的卡尔曼滤波算法 | |
CN113554034A (zh) | 关键点检测模型构建方法、检测方法、装置、设备及介质 | |
CN112380985A (zh) | 变电站入侵异物实时检测方法 | |
CN114511169B (zh) | 一种飞行随动锁钉质量的评估方法及系统 | |
Risso et al. | A nonlinear algorithm for traffic estimation with state constraints | |
CN116630367B (zh) | 目标跟踪方法、装置、电子设备及存储介质 | |
CN117591283B (zh) | 基于跨平台数据融合的云切设备管理方法及系统 | |
CN116405879B (zh) | 一种室内定位轨迹纠偏方法、装置、设备和存储介质 | |
CN115834440A (zh) | 一种流量基线的生成方法、系统及计算机存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |