CN114666638B - 音视频数据同步方法、装置、设备及存储介质 - Google Patents
音视频数据同步方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN114666638B CN114666638B CN202210241869.XA CN202210241869A CN114666638B CN 114666638 B CN114666638 B CN 114666638B CN 202210241869 A CN202210241869 A CN 202210241869A CN 114666638 B CN114666638 B CN 114666638B
- Authority
- CN
- China
- Prior art keywords
- frame
- video
- audio
- data
- data packet
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 50
- 230000001360 synchronised effect Effects 0.000 claims abstract description 283
- 230000005540 biological transmission Effects 0.000 claims abstract description 138
- 238000012545 processing Methods 0.000 claims abstract description 53
- 238000003780 insertion Methods 0.000 claims abstract description 15
- 230000037431 insertion Effects 0.000 claims abstract description 15
- 238000013139 quantization Methods 0.000 claims description 37
- 230000009466 transformation Effects 0.000 claims description 23
- 238000005070 sampling Methods 0.000 claims description 19
- 238000004806 packaging method and process Methods 0.000 claims description 16
- 108091026890 Coding region Proteins 0.000 claims description 14
- 238000005538 encapsulation Methods 0.000 claims description 5
- 238000010586 diagram Methods 0.000 description 6
- 238000012856 packing Methods 0.000 description 4
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000008520 organization Effects 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 230000002441 reversible effect Effects 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/4302—Content synchronisation processes, e.g. decoder synchronisation
- H04N21/4307—Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
- H04N21/43072—Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/85—Assembly of content; Generation of multimedia applications
- H04N21/854—Content authoring
- H04N21/8547—Content authoring involving timestamps for synchronizing content
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Security & Cryptography (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
本发明涉及音视频传输领域,公开了一种音视频数据同步方法、装置、设备及存储介质,用于减小音视频同步失真。音视频数据同步方法包括:获取第一同步数据包,其中,所述第一同步数据包包括2帧视频数据和3帧音频数据;对所述2帧视频数据进行视频编码,并对所述3帧音频数据进行音频编码,得到第二同步数据包;对所述第二同步数据包进行实时传输数据处理,得到目标传输数据包;根据所述目标传输数据包的同步数据时间戳确定对应的目标同步数据包,并将所述目标传输数据包进行插入处理,得到第三同步数据包;对所述第三同步数据包进行解码,得到解码的同步数据包,其中,所述解码的同步数据包包括解码的2帧视频数据和解码的3帧音频数据。
Description
技术领域
本发明涉及音视频传输领域,尤其涉及一种音视频数据同步方法、装置、设备及存储介质。
背景技术
音视频同步指的是音频和视频同步,即视频播放的声音和视频显示的画面保持一致。在音视频同步过程中,可将视频同步到音频上,以音频的播放速度为基准来同步视频,或者将音频同步到视频上,以视频的播放速度为基准来同步音频,或者将视频和音频同步外部的时钟上,选择一个外部时钟为基准,视频和音频的播放速度都以该时钟为标准。
在音视频传输过程中,由于音视频数据量大小的差异以及网络状况的不同,导致在音视频采集、编码、传输和解码的过程中,音视频同步失真较大。
发明内容
本发明提供了一种音视频数据同步方法、装置、设备及存储介质,用于减小音视频同步失真。
本发明第一方面提供了一种音视频数据同步方法,包括:获取第一同步数据包,其中,所述第一同步数据包包括2帧视频数据和3帧音频数据;对所述2帧视频数据进行视频编码,并对所述3帧音频数据进行音频编码,得到第二同步数据包,其中,所述第二同步数据包包括2帧视频编码和3帧音频编码;对所述第二同步数据包进行实时传输数据处理,得到目标传输数据包;根据所述目标传输数据包的同步数据时间戳确定对应的目标同步数据包,并将所述目标传输数据包进行插入处理,得到第三同步数据包;对所述第三同步数据包进行解码,得到解码的同步数据包,其中,所述解码的同步数据包包括解码的2帧视频数据和解码的3帧音频数据。
可选的,在本发明第一方面的第一种实现方式中,所述对所述2帧视频数据进行视频编码,并对所述3帧音频数据进行音频编码,得到第二同步数据包,包括:获取2帧视频数据,并对所述2帧视频数据进行预测编码和变换,得到预测变换的2帧视频数据;对所述预测变换的2帧视频数据进行量化和熵编码,得到2帧视频编码;获取3帧音频数据,并对所述3帧音频数据进行采样和量化,得到采样量化的3帧音频数据;对所述采样量化的3帧音频数据进行编码,得到3帧音频编码;根据所述2帧视频编码和所述3帧音频编码,得到第二同步数据包。
可选的,在本发明第一方面的第二种实现方式中,所述对所述第二同步数据包进行实时传输数据处理,得到目标传输数据包,包括:获取所述第二同步数据包中所述2帧视频编码的每一帧视频编码字节数,得到第一帧视频编码字节数和第二帧视频编码字节数;分别判断所述第一帧视频编码字节数和所述第二帧视频编码字节数是否小于或等于预置的字节数;若所述第一帧视频编码字节数和所述第二帧视频编码字节数都小于或等于所述预置的字节数,则对所述第二同步数据包进行打包处理,得到目标传输数据包。
可选的,在本发明第一方面的第三种实现方式中,所述根据所述目标传输数据包的同步数据时间戳确定对应的目标同步数据包,并将所述目标传输数据包进行插入处理,得到第三同步数据包,包括:获取所述目标传输数据包的同步数据时间戳;根据所述同步数据时间戳确定对应的目标同步数据包;获取所述目标传输数据包中每一帧视频编码时间戳和每一帧音频编码时间戳;根据所述每一帧视频编码时间戳将所述2帧视频编码插入所述目标同步数据包中对应的视频数据列表,并根据所述每一帧音频编码时间戳将所述3帧音频编码插入所述目标同步数据包中对应的音频数据列表,得到第三同步数据包。
可选的,在本发明第一方面的第四种实现方式中,所述对所述第三同步数据包进行解码,得到解码的同步数据包,包括:对所述第三同步数据包中所述2帧视频编码进行熵解码和反量化,得到熵解码和反量化的2帧视频编码;对所述熵解码和反量化的2帧视频编码进行反变换和预测解码,得到解码的2帧视频数据;对所述第三同步数据包中所述3帧音频编码进行解协议和解封装,得到3帧音频码流数据;对所述3帧音频码流数据进行音频解码,得到解码的3帧音频数据;根据所述解码的2帧视频数据和所述解码的3帧音频数据,得到解码的同步数据包。
可选的,在本发明第一方面的第五种实现方式中,在所述对所述2帧视频数据进行视频编码,并对所述3帧音频数据进行音频编码,得到第二同步数据包之后,还包括:获取所述第二同步数据包中所述2帧视频编码的每一帧视频编码字节数,得到第一帧视频编码字节数和第二帧视频编码字节数;分别判断所述第一帧视频编码字节数和所述第二帧视频编码字节数是否小于或等于预置的字节数;若所述第一帧视频编码字节数和所述第二帧视频编码字节数同时大于所述预置的字节数,则将所述2帧视频编码中第一帧视频编码进行分包处理,得到多个第一帧子帧视频编码,并将所述2帧视频编码中第二帧视频编码进行分包处理,得到多个第二帧子帧视频编码;根据所述多个第一帧子帧视频编码、所述多个第二帧子帧视频编码和所述3帧音频编码,得到多个传输数据包。
可选的,在本发明第一方面的第六种实现方式中,在所述根据所述多个第一帧子帧视频编码、所述多个第二帧子帧视频编码和所述3帧音频编码,得到多个传输数据包之后,还包括:获取所述多个传输数据包中任意一个传输数据包的同步数据时间戳,其中,所述多个传输数据包具有相同的同步数据时间戳;根据所述同步数据时间戳确定对应的目标同步数据包;获取任意一个第一帧子帧视频编码的第一帧视频编码时间戳、每个第一帧子帧视频编码的第一帧子帧视频编码序列号、任意一个第二帧子帧视频编码的第二帧视频编码时间戳和每个第二帧子帧视频编码的第二帧子帧视频编码序列号,并获取所述3帧音频编码的每一帧音频编码时间戳;根据所述第一帧视频编码时间戳将所述多个第一帧子帧视频编码插入所述目标同步数据包中对应的视频数据第一列表,并根据所述第一帧子帧视频编码序列号将所述多个第一帧子帧视频编码插入所述视频数据第一列表中对应的列表位置;根据所述第二帧视频编码时间戳将所述多个第二帧子帧视频编码插入所述目标同步数据包中对应的视频数据第二列表,并根据所述第二帧子帧视频编码序列号将所述多个第二帧子帧视频编码插入所述视频数据第二列表中对应的列表位置;根据所述每一帧音频编码时间戳将所述3帧音频编码插入所述目标同步数据包中对应的音频数据列表,得到第三同步数据包。
本发明第二方面提供了一种音视频数据同步装置,包括:获取模块,用于获取第一同步数据包,其中,所述第一同步数据包包括2帧视频数据和3帧音频数据;编码模块,用于对所述2帧视频数据进行视频编码,并对所述3帧音频数据进行音频编码,得到第二同步数据包,其中,所述第二同步数据包包括2帧视频编码和3帧音频编码;传输模块,用于对所述第二同步数据包进行实时传输数据处理,得到目标传输数据包;插入模块,用于根据所述目标传输数据包的同步数据时间戳确定对应的目标同步数据包,并将所述目标传输数据包进行插入处理,得到第三同步数据包;解码模块,用于对所述第三同步数据包进行解码,得到解码的同步数据包,其中,所述解码的同步数据包包括解码的2帧视频数据和解码的3帧音频数据。
可选的,在本发明第二方面的第一种实现方式中,所述编码模块具体用于:获取2帧视频数据,并对所述2帧视频数据进行预测编码和变换,得到预测变换的2帧视频数据;对所述预测变换的2帧视频数据进行量化和熵编码,得到2帧视频编码;获取3帧音频数据,并对所述3帧音频数据进行采样和量化,得到采样量化的3帧音频数据;对所述采样量化的3帧音频数据进行编码,得到3帧音频编码;根据所述2帧视频编码和所述3帧音频编码,得到第二同步数据包。
可选的,在本发明第二方面的第二种实现方式中,所述传输模块包括:获取单元,用于获取所述第二同步数据包中所述2帧视频编码的每一帧视频编码字节数,得到第一帧视频编码字节数和第二帧视频编码字节数;判断单元,用于分别判断所述第一帧视频编码字节数和所述第二帧视频编码字节数是否小于或等于预置的字节数;打包单元,用于若所述第一帧视频编码字节数和所述第二帧视频编码字节数都小于或等于所述预置的字节数,则对所述第二同步数据包进行打包处理,得到目标传输数据包。
可选的,在本发明第二方面的第三种实现方式中,所述插入模块具体用于:获取所述目标传输数据包的同步数据时间戳;根据所述同步数据时间戳确定对应的目标同步数据包;获取所述目标传输数据包中每一帧视频编码时间戳和每一帧音频编码时间戳;根据所述每一帧视频编码时间戳将所述2帧视频编码插入所述目标同步数据包中对应的视频数据列表,并根据所述每一帧音频编码时间戳将所述3帧音频编码插入所述目标同步数据包中对应的音频数据列表,得到第三同步数据包。
可选的,在本发明第二方面的第四种实现方式中,所述解码模块具体用于:对所述第三同步数据包中所述2帧视频编码进行熵解码和反量化,得到熵解码和反量化的2帧视频编码;对所述熵解码和反量化的2帧视频编码进行反变换和预测解码,得到解码的2帧视频数据;对所述第三同步数据包中所述3帧音频编码进行解协议和解封装,得到3帧音频码流数据;对所述3帧音频码流数据进行音频解码,得到解码的3帧音频数据;根据所述解码的2帧视频数据和所述解码的3帧音频数据,得到解码的同步数据包。
可选的,在本发明第二方面的第五种实现方式中,所述音视频数据同步装置还包括:分包处理模块,用于获取所述第二同步数据包中所述2帧视频编码的每一帧视频编码字节数,得到第一帧视频编码字节数和第二帧视频编码字节数;分别判断所述第一帧视频编码字节数和所述第二帧视频编码字节数是否小于或等于预置的字节数;若所述第一帧视频编码字节数和所述第二帧视频编码字节数同时大于所述预置的字节数,则将所述2帧视频编码中第一帧视频编码进行分包处理,得到多个第一帧子帧视频编码,并将所述2帧视频编码中第二帧视频编码进行分包处理,得到多个第二帧子帧视频编码;根据所述多个第一帧子帧视频编码、所述多个第二帧子帧视频编码和所述3帧音频编码,得到多个传输数据包。
可选的,在本发明第二方面的第六种实现方式中,所述音视频数据同步装置还包括:分包插入模块,用于获取所述多个传输数据包中任意一个传输数据包的同步数据时间戳,其中,所述多个传输数据包具有相同的同步数据时间戳;根据所述同步数据时间戳确定对应的目标同步数据包;获取任意一个第一帧子帧视频编码的第一帧视频编码时间戳、每个第一帧子帧视频编码的第一帧子帧视频编码序列号、任意一个第二帧子帧视频编码的第二帧视频编码时间戳和每个第二帧子帧视频编码的第二帧子帧视频编码序列号,并获取所述3帧音频编码的每一帧音频编码时间戳;根据所述第一帧视频编码时间戳将所述多个第一帧子帧视频编码插入所述目标同步数据包中对应的视频数据第一列表,并根据所述第一帧子帧视频编码序列号将所述多个第一帧子帧视频编码插入所述视频数据第一列表中对应的列表位置;根据所述第二帧视频编码时间戳将所述多个第二帧子帧视频编码插入所述目标同步数据包中对应的视频数据第二列表,并根据所述第二帧子帧视频编码序列号将所述多个第二帧子帧视频编码插入所述视频数据第二列表中对应的列表位置;根据所述每一帧音频编码时间戳将所述3帧音频编码插入所述目标同步数据包中对应的音频数据列表,得到第三同步数据包。
本发明第三方面提供了一种音视频数据同步设备,包括:存储器和至少一个处理器,所述存储器中存储有指令;所述至少一个处理器调用所述存储器中的所述指令,以使得所述音视频数据同步设备执行上述的音视频数据同步方法。
本发明的第四方面提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有指令,当其在计算机上运行时,使得计算机执行上述的音视频数据同步方法。
本发明提供的技术方案中,获取第一同步数据包,其中,第一同步数据包包括2帧视频数据和3帧音频数据;对2帧视频数据进行视频编码,并对3帧音频数据进行音频编码,得到第二同步数据包,其中,第二同步数据包包括2帧视频编码和3帧音频编码;对第二同步数据包进行实时传输数据处理,得到目标传输数据包;根据目标传输数据包的同步数据时间戳确定对应的目标同步数据包,并将目标传输数据包进行插入处理,得到第三同步数据包;对第三同步数据包进行解码,得到解码的同步数据包,其中,解码的同步数据包包括解码的2帧视频数据和解码的3帧音频数据。本发明实施例中,利用时间戳将采集时间存在相关性的音频数据和视频数据存储到一个固定的同步数据结构中,并在采集、编码、传输、接收、解码和播放过程中始终加以同步控制,从而减小了音视频同步失真。
附图说明
图1为本发明实施例中音视频数据同步方法的一个实施例示意图;
图2为本发明实施例中音视频数据同步方法的另一个实施例示意图;
图3为本发明实施例中音视频数据同步装置的一个实施例示意图;
图4为本发明实施例中音视频数据同步装置的另一个实施例示意图;
图5为本发明实施例中音视频数据同步设备的一个实施例示意图。
具体实施方式
本发明提供了一种音视频数据同步方法、装置、设备及存储介质,用于减小音视频同步失真。
本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的实施例能够以除了在这里图示或描述的内容以外的顺序实施。此外,术语“包括”或“具有”及其任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
为便于理解,下面对本发明实施例的具体流程进行描述,请参阅图1,本发明实施例中音视频数据同步方法的一个实施例包括:
101、获取第一同步数据包,其中,第一同步数据包包括2帧视频数据和3帧音频数据;
可以理解的是,本发明的执行主体可以为音视频数据同步装置,还可以是终端或者服务器,具体此处不做限定。本发明实施例以音视频数据同步终端为执行主体为例进行说明。
其中,音视频数据同步终端根据人类生物学声音视像系统对同步的感知能力,将ΔT在[-125ms,45ms]区间内的可检测阈值作为门限,并将采集到的原始声音数据和原始视频数据作为同一时刻获取的音视频数据,在可检测阈值范围内有2帧视频数据和3帧音频数据的时间戳满足作为同一时刻获取音视频数据的要求,在音视频同步中音视频数据同步终端根据这5个数据单元的时间戳对音视频数据进行同步。
102、对2帧视频数据进行视频编码,并对3帧音频数据进行音频编码,得到第二同步数据包,其中,第二同步数据包包括2帧视频编码和3帧音频编码;
其中,视频编码的编码标准包括多种编码标准,例如,H.261、H.263、H.264等编码标准,编码标准可以是H.264,H.264是国际标准化组织(ISO)和国际电信联盟(ITU)共同提出的新一代数字视频压缩格式,采用H.264编码标准的编码过程包括预测编码、变换、量化和熵编码,预测编码包括帧内预测编码和帧间预测编码,帧内预测编码用于缩减图像的空间冗余,帧间预测编码通过利用连续帧中的时间冗余来进行运动估计和补偿,变换可以是离散余弦变换DCT。
音频编码是音视频数据同步终端将连续的模拟信号转换成离散的数字信号,音频编码的过程包括采样、量化和编码,其中,采样是指用每隔指定时间间隔的信号样本值序列来代替原来在时间上连续的信号,量化是用有限个幅度值近似表示原来在时间上连续变化的幅度值,把模拟信号的连续幅度变为有限数量、有指定时间间隔的离散值,编码是根据指定规则,把量化后的离散值用二进制数表示。音频编码包括多种编码方式,例如,波形编码、参数编码和混合编码,音频编码方式可以是波形编码,波形编码是根据语音信号波形导出相应的数字编码形式,波形编码的编码过程包括采样、量化和编码。
103、对第二同步数据包进行实时传输数据处理,得到目标传输数据包;
其中,传输数据使用的数据传输协议包括多种数据传输协议,例如,传输控制协议(Transmission Control Protocol,TCP)、用户数据报协议(User Datagram Protocol,UDP)、Internet协议(Internet Protocol,IP),Internet控制报文协议(Internet ControlMessage Protocol,ICMP)、地址解析协议(Address Resolution Protocol,ARP)、逆向地址解析协议(Reverse Address Resolution Protocol,RARP)和实时传输协议(Real-timeTransport Protocol,RTP)。传输数据使用的数据传输协议可以是实时传输协议RTP,RTP包括报头和有效载荷,其中,RTP报头包括RTP时间戳和序列号。在音视频数据同步终端对音视频数据进行数据打包时,由于最大传输单元MTU的限制,1帧视频数据可能会大于最大传输单元MTU,若1帧视频数据大于最大传输单元MTU,则对1帧视频数据进行分包处理,得到多个传输数据包。
具体的,(1)音视频数据同步终端获取第二同步数据包中2帧视频编码的每一帧视频编码字节数,得到第一帧视频编码字节数和第二帧视频编码字节数;例如,音视频数据同步终端获取第二同步数据包中2帧视频编码的每一帧视频编码字节数,得到第一帧视频编码字节数为128,第二帧视频编码字节数为256。(2)音视频数据同步终端分别判断第一帧视频编码字节数和第二帧视频编码字节数是否小于或等于预置的字节数;例如,预置的字节数为1024,判断第一帧视频编码字节数是否小于或等于1024,并判断第二帧视频编码字节数是否小于或等于1024。(3)若第一帧视频编码字节数和第二帧视频编码字节数都小于或等于预置的字节数,则对第二同步数据包进行打包处理,得到目标传输数据包。例如,第一帧视频编码字节数为128,第二帧视频编码字节数为256,若预置的字节数为1024,则第一帧视频编码字节数和第二帧视频编码字节数都小于1024,对第二同步数据包进行打包处理,得到目标传输数据包。
104、根据目标传输数据包的同步数据时间戳确定对应的目标同步数据包,并将目标传输数据包进行插入处理,得到第三同步数据包;
其中,音视频数据同步终端从目标传输数据包中提取出三个数据单元组<Tsyncblock,Ttsrtp,NSequnceNumber>,Tsyncblock用于表示传输数据包的同步数据时间戳,Ttsrtp用于表示传输数据包中音视频数据的帧时间戳,NSequnceNumber用于表示传输数据包中视频数据每一帧的子帧序列号。例如,若1帧视频数据大于最大传输单元MTU,则对1帧视频数据进行分包处理,得到多个传输数据包,其中,每个传输数据包都具有三个数据单元组<Tsyncblock,Ttsrtp,NSequnceNumber>。
具体的,音视频数据同步终端获取目标传输数据包的同步数据时间戳;例如,音视频数据同步终端将2帧视频数据的时间戳和3帧音频数据的时间戳中最小的时间戳作为目标传输数据包的同步数据时间戳,若2帧视频数据的时间戳和3帧音频数据的时间戳中最小的时间戳为“978321600000”,则确定“978321600000”为目标传输数据包的同步数据时间戳。
音视频数据同步终端根据同步数据时间戳确定对应的目标同步数据包;例如,同步数据包可以是A、B、C、D、E,每个同步数据包具有不同的同步数据时间戳,同步数据包A的同步数据时间戳为“978321600000”、同步数据包B的同步数据时间戳为“978321601000”、同步数据包C的同步数据时间戳为“978321602000”、同步数据包D的同步数据时间戳为“978321603000”、同步数据包E的同步数据时间戳为“978321604000”,若目标传输数据包的同步数据时间戳为“978321600000”,则与同步数据包A的同步数据时间戳相同,将同步数据包A确定为目标同步数据包。
音视频数据同步终端获取目标传输数据包中每一帧视频编码时间戳和每一帧音频编码时间戳;例如,目标传输数据包中2帧视频编码的第一帧视频编码时间戳为“978321600000”、第二帧视频编码时间戳为“978321601000”,目标传输数据包中3帧音频编码的第一帧音频编码时间戳为“978321601000”、第二帧音频编码时间戳为“978321602000”、第三帧音频编码时间戳为“978321603000”。
音视频数据同步终端根据每一帧视频编码时间戳将2帧视频编码插入目标同步数据包中对应的视频数据列表,并根据每一帧音频编码时间戳将3帧音频编码插入目标同步数据包中对应的音频数据列表,得到第三同步数据包。例如,若第一帧视频编码时间戳为“978321600000”、第二帧视频编码时间戳为“978321601000”,则根据视频编码时间戳从小到大的顺序,将2帧视频编码插入目标同步数据包中对应的视频数据列表;若第一帧音频编码时间戳为“978321601000”、第二帧音频编码时间戳为“978321602000”、第三帧音频编码时间戳为“978321603000”,则根据音频编码时间戳从小到大的顺序,将3帧音频编码插入目标同步数据包中对应的音频数据列表,得到第三同步数据包。
105、对第三同步数据包进行解码,得到解码的同步数据包,其中,解码的同步数据包包括解码的2帧视频数据和解码的3帧音频数据。
其中,视频解码的解码标准包括多种解码标准,例如,H.261、H.263、H.264等解码标准,解码标准可以是H.264,采用H.264解码标准的解码过程包括熵解码、反量化、反DCT变换和预测解码。音频解码是将数字信号还原成模拟信号,音频解码的过程包括解协议、解封装和音频解码。音视频数据同步终端通过对第三同步数据包进行解码,得到解码的同步数据包,解码的同步数据包可以直接用于播放,其中,解码的同步数据包中音视频数据在时间上具有强相关性,即音视频数据同步。
本发明实施例中,获取第一同步数据包,其中,第一同步数据包包括2帧视频数据和3帧音频数据;对2帧视频数据进行视频编码,并对3帧音频数据进行音频编码,得到第二同步数据包;对第二同步数据包进行实时传输数据处理,得到目标传输数据包;根据目标传输数据包的同步数据时间戳确定对应的目标同步数据包,并将目标传输数据包进行插入处理,得到第三同步数据包;对第三同步数据包进行解码,得到解码的同步数据包,其中,解码的同步数据包包括解码的2帧视频数据和解码的3帧音频数据,从而提高了音视频数据在时间上的强相关性,减小了音视频同步失真。
请参阅图2,本发明实施例中音视频数据同步方法的另一个实施例包括:
201、获取第一同步数据包,其中,第一同步数据包包括2帧视频数据和3帧音频数据;
其中,音视频数据同步终端根据人类生物学声音视像系统对同步的感知能力,将ΔT在[-125ms,45ms]区间内的可检测阈值作为门限,并将采集到的原始声音数据和原始视频数据作为同一时刻获取的音视频数据,在可检测阈值范围内有2帧视频数据和3帧音频数据的时间戳满足作为同一时刻获取音视频数据的要求,在音视频同步中音视频数据同步终端根据这5个数据单元的时间戳对音视频数据进行同步。
音视频数据同步终端将2帧视频数据和3帧音频数据封装到一个同步数据包中,并将本同步数据包中时间戳最小的数据单元的时间戳作为本同步数据包的同步数据时间戳。时间戳用于表示一份数据在某个特定时间之前已经存在的、完整的、可验证的数据,通常是一个字符序列,唯一地标识某一刻的时间。例如,在一个同步数据包中,2帧视频数据中第一帧视频数据的生成时间为“2001-01-01 12:00:00”,对应的时间戳为“978321600000”,第二帧视频数据的生成时间为“2001-01-01 12:00:01”,对应的时间戳为“978321601000”,3帧音频数据中第一帧音频数据的生成时间为“2001-01-0112:00:01”,对应的时间戳为“978321601000”,第二帧音频数据的生成时间为“2001-01-01 12:00:02”,对应的时间戳为“978321602000”,第三帧音频数据的生成时间为“2001-01-01 12:00:03”,对应的时间戳为“978321603000”,其中,时间戳的单位为ms,即第一帧视频数据的时间戳最小,将对应的时间戳“978321600000”作为本同步数据包的同步数据时间戳。
202、对2帧视频数据进行视频编码,并对3帧音频数据进行音频编码,得到第二同步数据包,其中,第二同步数据包包括2帧视频编码和3帧音频编码;
其中,视频编码的编码标准包括多种编码标准,例如,H.261、H.263、H.264等编码标准,编码标准可以是H.264,H.264是国际标准化组织(ISO)和国际电信联盟(ITU)共同提出的新一代数字视频压缩格式,采用H.264编码标准的编码过程包括预测编码、变换、量化和熵编码,预测编码包括帧内预测编码和帧间预测编码,帧内预测编码用于缩减图像的空间冗余,帧间预测编码通过利用连续帧中的时间冗余来进行运动估计和补偿,变换可以是离散余弦变换DCT。
音频编码是音视频数据同步终端将连续的模拟信号转换成离散的数字信号,音频编码的过程包括采样、量化和编码,其中,采样是指用每隔指定时间间隔的信号样本值序列来代替原来在时间上连续的信号,量化是用有限个幅度值近似表示原来在时间上连续变化的幅度值,把模拟信号的连续幅度变为有限数量、有指定时间间隔的离散值,编码是根据指定规则,把量化后的离散值用二进制数表示。音频编码包括多种编码方式,例如,波形编码、参数编码和混合编码,音频编码方式可以是波形编码,波形编码是根据语音信号波形导出相应的数字编码形式,波形编码的编码过程包括采样、量化和编码。
具体的,音视频数据同步终端获取2帧视频数据,并对2帧视频数据进行预测编码和变换,得到预测变换的2帧视频数据;例如,获取2帧视频数据,通过H.264编码标准将每个视频帧分离成由像素组成的宏块,得到多个宏块,将每个宏块划分成8*8个子宏块,在同一帧视频内,当对其中一个宏块进行帧内预测编码时,根据周围的宏块进行预测,得到预测值,对预测值和实际值的差值进行编码,对2帧视频数据进行宏块扫描,得到2帧视频相同的主体对象,计算主体对象的运动矢量,将2帧视频中主体对象以外的图像去除,得到帧间预测编码数据,对帧间预测编码数据进行离散余弦变换DCT,得到预测变换的2帧视频数据。
音视频数据同步终端对预测变换的2帧视频数据进行量化和熵编码,得到2帧视频编码;例如,获取预测变换的2帧视频数据的多个宏块,对多个宏块进行4*4整数矩阵变换,得到多个4*4的整数变换系数块,将每个整数变换系数块的系数绝对值和对应的4*4正整数量化矩阵相乘,得到量化的2帧视频数据,对量化的2帧视频数据中的多个4*4宏块进行熵编码,得到2帧视频编码。
音视频数据同步终端获取3帧音频数据,并对3帧音频数据进行采样和量化,得到采样量化的3帧音频数据;例如,对3帧音频数据中的1帧音频数据进行采样,根据指定的时间间隔将这1帧音频数据在时间上连续变化的模拟信号取出多个连续的采样值,多个连续的采样值用于表示这1帧音频数据,对多个连续的采样值进行量化,根据量化等级规则,将多个连续的采样值划分为多个量化等级集合,每个量化等级集合中的采样值都赋予相同的值,即量化值,其中,量化值为二进制数。采用相同的方式对3帧音频数据的其他2帧音频数据进行采样和量化,得到采样量化的2帧音频数据,即对3帧音频数据进行采样和量化,得到采样量化的3帧音频数据。
音视频数据同步终端对采样量化的3帧音频数据进行编码,得到3帧音频编码;例如,获取采样量化的1帧音频数据中每个量化等级集合的量化值,得到多个量化值,其中,量化值为二进制数,即采样量化的1帧音频数据包括多个二进制数,每个二进制数对应一个量化电平,得到多个量化电平,将多个量化电平进行排序,得到1帧音频编码,采用相同的方式对3帧音频数据的其他2帧音频数据进行编码,得到2帧音频编码,即对采样量化的3帧音频数据进行编码,得到3帧音频编码。
音视频数据同步终端根据2帧视频编码和3帧音频编码,得到第二同步数据包。
203、对第二同步数据包进行实时传输数据处理,得到多个传输数据包,其中,多个传输数据包包括2帧视频编码的多个第一帧子帧视频编码、2帧视频编码的多个第二帧子帧视频编码和3帧音频编码;
具体的,音视频数据同步终端获取第二同步数据包中2帧视频编码的每一帧视频编码字节数,得到第一帧视频编码字节数和第二帧视频编码字节数;例如,音视频数据同步终端获取第二同步数据包中2帧视频编码的每一帧视频编码字节数,得到第一帧视频编码字节数为1280,第二帧视频编码字节数为1600。
音视频数据同步终端分别判断第一帧视频编码字节数和第二帧视频编码字节数是否小于或等于预置的字节数;例如,预置的字节数为1024,音视频数据同步终端判断第一帧视频编码字节数是否小于或等于1024,并判断第二帧视频编码字节数是否小于或等于1024。
若第一帧视频编码字节数和第二帧视频编码字节数都大于预置的字节数,则音视频数据同步终端将2帧视频编码中第一帧视频编码进行分包处理,得到多个第一帧子帧视频编码,并将2帧视频编码中第二帧视频编码进行分包处理,得到多个第二帧子帧视频编码;例如,第一帧视频编码字节数为1280,第二帧视频编码字节数为1600,若预置的字节数为1024,则第一帧视频编码字节数和第二帧视频编码字节数都大于1024,音视频数据同步终端对2帧视频编码中第一帧视频编码进行分包处理,得到多个第一帧子帧视频编码,并将2帧视频编码中第二帧视频编码进行分包处理,得到多个第二帧子帧视频编码,其中,每个第一帧子帧视频编码和每个第二帧子帧视频编码的字节数都小于或等于1024。
音视频数据同步终端根据多个第一帧子帧视频编码、多个第二帧子帧视频编码和3帧音频编码,得到多个传输数据包。例如,多个传输数据包包括第一帧子帧视频编码1a、第一帧子帧视频编码1b、第二帧子帧视频编码2a、第二帧子帧视频编码2b和3帧音频编码。
204、对多个传输数据包进行插入处理,得到第三同步数据包;
具体的,音视频数据同步终端获取多个传输数据包中任意一个传输数据包的同步数据时间戳,其中,多个传输数据包具有相同的同步数据时间戳;例如,音视频数据同步终端获取多个传输数据包中传输数据包的同步数据时间戳,传输数据包的同步数据时间戳为“978321600000”。
音视频数据同步终端根据同步数据时间戳确定对应的目标同步数据包;例如,同步数据包可以是A、B、C、D、E,每个同步数据包具有不同的同步数据时间戳,同步数据包A的同步数据时间戳为“978321600000”、同步数据包B的同步数据时间戳为“978321601000”、同步数据包C的同步数据时间戳为“978321602000”、同步数据包D的同步数据时间戳为“978321603000”、同步数据包E的同步数据时间戳为“978321604000”,若多个传输数据包的同步数据时间戳为“978321600000”,则与同步数据包A的同步数据时间戳相同,将同步数据包A确定为目标同步数据包。
音视频数据同步终端获取任意一个第一帧子帧视频编码的第一帧视频编码时间戳和每个第一帧子帧视频编码的第一帧子帧视频编码序列号,并获取任意一个第二帧子帧视频编码的第二帧视频编码时间戳和每个第二帧子帧视频编码的第二帧子帧视频编码序列号,以及3帧音频编码的每一帧音频编码时间戳;例如,多个传输数据包包括第一帧子帧视频编码1a、第一帧子帧视频编码1b、第二帧子帧视频编码2a、第二帧子帧视频编码2b和3帧音频编码。第一帧视频编码时间戳为“978321600000”,第一帧子帧视频编码1a的第一帧子帧视频编码序列号“1a101”,第一帧子帧视频编码1b的第一帧子帧视频编码序列号“1b102”,第二帧视频编码时间戳为“978321601000”,第二帧子帧视频编码2a的第二帧子帧视频编码序列号“2a201”,第二帧子帧视频编码2b的第二帧子帧视频编码序列号“2b202”,3帧音频编码的第一帧音频编码时间戳为“978321601000”、第二帧音频编码时间戳为“978321602000”、第三帧音频编码时间戳为“978321603000”。
音视频数据同步终端根据第一帧视频编码时间戳将多个第一帧子帧视频编码插入目标同步数据包中对应的视频数据第一列表,并根据第一帧子帧视频编码序列号将多个第一帧子帧视频编码插入视频数据第一列表中对应的列表位置;例如,若第一帧视频编码时间戳为“978321600000”、第二帧视频编码时间戳为“978321601000”,则根据视频编码时间戳从小到大的顺序,将多个第一帧子帧视频编码插入目标同步数据包中对应的视频数据第一列表,若第一帧子帧视频编码1a的第一帧子帧视频编码序列号“1a101”,第一帧子帧视频编码1b的第一帧子帧视频编码序列号“1b102”,则根据序列号1a101、1b102的顺序,将这两个第一帧子帧视频编码插入视频数据第一列表中对应的列表位置。
音视频数据同步终端根据第二帧视频编码时间戳将多个第二帧子帧视频编码插入目标同步数据包中对应的视频数据第二列表,并根据第二帧子帧视频编码序列号将多个第二帧子帧视频编码插入视频数据第二列表中对应的列表位置;例如,若第二帧视频编码时间戳为“978321601000”、第一帧视频编码时间戳为“978321600000”,则根据视频编码时间戳从小到大的顺序,将多个第二帧子帧视频编码插入目标同步数据包中对应的视频数据第二列表,若第二帧子帧视频编码2a的第二帧子帧视频编码序列号“2a201”,第二帧子帧视频编码2b的第二帧子帧视频编码序列号“2b202”,则根据序列号2a201、2b202的顺序,将这两个第二帧子帧视频编码插入视频数据第二列表中对应的列表位置。
音视频数据同步终端根据每一帧音频编码时间戳将3帧音频编码插入目标同步数据包中对应的音频数据列表,得到第三同步数据包。例如,若第一帧音频编码时间戳为“978321601000”、第二帧音频编码时间戳为“978321602000”、第三帧音频编码时间戳为“978321603000”,则根据音频编码时间戳从小到大的顺序,将3帧音频编码插入目标同步数据包中对应的音频数据列表,得到第三同步数据包。
205、对第三同步数据包进行解码,得到解码的同步数据包,其中,解码的同步数据包包括解码的2帧视频数据和解码的3帧音频数据。
其中,视频解码的解码标准包括多种解码标准,例如,H.261、H.263、H.264等解码标准,解码标准可以是H.264,采用H.264解码标准的解码过程包括熵解码、反量化、反DCT变换和预测解码。音频解码是将数字信号还原成模拟信号,音频解码的过程包括解协议、解封装和音频解码。音视频数据同步终端通过对第三同步数据包进行解码,得到解码的同步数据包,解码的同步数据包可以直接用于播放,其中,解码的同步数据包中音视频数据在时间上具有强相关性,即音视频数据同步。
具体的,音视频数据同步终端获取第三同步数据包中2帧视频编码,并对2帧视频编码进行熵解码和反量化,得到熵解码和反量化的2帧视频编码;例如,音视频数据同步终端将2帧视频编码进行熵解码,得到熵解码的2帧视频数据,将熵解码的2帧视频数据中多个4*4整数变换系数块的系数绝对值和对应的4*4正整数量化矩阵进行反量化处理,得到2帧视频数据的多个宏块,即得到熵解码和反量化的2帧视频编码。
音视频数据同步终端对熵解码和反量化的2帧视频编码进行反变换和预测解码,得到解码的2帧视频数据;例如,音视频数据同步终端对熵解码和反量化的2帧视频编码进行反DCT变换,得到反DCT变换的2帧视频编码,对反DCT变换的2帧视频编码进行图像补偿,得到补偿的2帧视频图像,对补偿的2帧视频图像中多个宏块进行预测解码,得到解码的2帧视频数据。
音视频数据同步终端获取3帧音频编码,并对3帧音频编码进行解协议和解封装处理,得到3帧音频码流数据;例如,音视频数据同步终端将1帧音频编码进行解协议,得到多个量化电平,将多个量化电平转换成对应的二进制数,得到1帧音频二进制数据,对1帧音频二进制数据中多个量化等级集合进行解封装,得到多个连续的采样值,即得到1帧音频码流数据,采用相同的方式对3帧音频编码中其他2帧音频编码进行解协议和解封装处理,得到2帧音频码流数据,即对3帧音频编码进行解协议和解封装处理,得到3帧音频码流数据。
音视频数据同步终端对3帧音频码流数据进行音频解码,得到解码的3帧音频数据;例如,音视频数据同步终端将1帧音频码流数据在指定时间间隔存在空缺的连续模拟信号进行补偿,得到在时间上连续变化的模拟信号,即得到1帧音频数据,采用相同的方式对3帧音频编码中其他2帧音频编码进行音频解码,得到2帧音频数据,即对3帧音频码流数据进行音频解码,得到解码的3帧音频数据。
音视频数据同步终端根据解码的2帧视频数据和解码的3帧音频数据,得到解码的同步数据包。
本发明实施例中,获取第一同步数据包,其中,第一同步数据包包括2帧视频数据和3帧音频数据;对2帧视频数据进行视频编码,并对3帧音频数据进行音频编码,得到第二同步数据包;对第二同步数据包进行实时传输数据处理,得到多个传输数据包,其中,多个传输数据包包括2帧视频编码的多个第一帧子帧视频编码、2帧视频编码的多个第二帧子帧视频编码和3帧音频编码;对多个传输数据包进行插入处理,得到第三同步数据包;对第三同步数据包进行解码,得到解码的同步数据包,其中,解码的同步数据包包括解码的2帧视频数据和解码的3帧音频数据,从而提高了音视频数据在时间上的强相关性,减小了音视频同步失真。
上面对本发明实施例中音视频数据同步方法进行了描述,下面对本发明实施例中音视频数据同步装置进行描述,请参阅图3,本发明实施例中音视频数据同步装置一个实施例包括:
获取模块301,用于获取第一同步数据包,其中,第一同步数据包包括2帧视频数据和3帧音频数据;
编码模块302,用于对2帧视频数据进行视频编码,并对3帧音频数据进行音频编码,得到第二同步数据包,其中,第二同步数据包包括2帧视频编码和3帧音频编码;
传输模块303,用于对第二同步数据包进行实时传输数据处理,得到目标传输数据包;
插入模块304,用于根据目标传输数据包的同步数据时间戳确定对应的目标同步数据包,并将目标传输数据包进行插入处理,得到第三同步数据包;
解码模块305,用于对第三同步数据包进行解码,得到解码的同步数据包,其中,解码的同步数据包包括解码的2帧视频数据和解码的3帧音频数据。
本发明实施例中,获取第一同步数据包,其中,第一同步数据包包括2帧视频数据和3帧音频数据;对2帧视频数据进行视频编码,并对3帧音频数据进行音频编码,得到第二同步数据包;对第二同步数据包进行实时传输数据处理,得到目标传输数据包;根据目标传输数据包的同步数据时间戳确定对应的目标同步数据包,并将目标传输数据包进行插入处理,得到第三同步数据包;对第三同步数据包进行解码,得到解码的同步数据包,其中,解码的同步数据包包括解码的2帧视频数据和解码的3帧音频数据,从而提高了音视频数据在时间上的强相关性,减小了音视频同步失真。
请参阅图4,本发明实施例中音视频数据同步装置的另一个实施例包括:
获取模块301,用于获取第一同步数据包,其中,第一同步数据包包括2帧视频数据和3帧音频数据;
编码模块302,用于对2帧视频数据进行视频编码,并对3帧音频数据进行音频编码,得到第二同步数据包,其中,第二同步数据包包括2帧视频编码和3帧音频编码;
传输模块303,用于对第二同步数据包进行实时传输数据处理,得到目标传输数据包;
插入模块304,用于根据目标传输数据包的同步数据时间戳确定对应的目标同步数据包,并将目标传输数据包进行插入处理,得到第三同步数据包;
解码模块305,用于对第三同步数据包进行解码,得到解码的同步数据包,其中,解码的同步数据包包括解码的2帧视频数据和解码的3帧音频数据。
可选的,编码模块302还可以具体用于:
获取2帧视频数据,并对2帧视频数据进行预测编码和变换,得到预测变换的2帧视频数据;
对预测变换的2帧视频数据进行量化和熵编码,得到2帧视频编码;
获取3帧音频数据,并对3帧音频数据进行采样和量化,得到采样量化的3帧音频数据;
对采样量化的3帧音频数据进行编码,得到3帧音频编码;
根据2帧视频编码和3帧音频编码,得到第二同步数据包。
可选的,传输模块303包括:
获取单元3031,用于获取第二同步数据包中2帧视频编码的每一帧视频编码字节数,得到第一帧视频编码字节数和第二帧视频编码字节数;
判断单元3032,用于分别判断第一帧视频编码字节数和第二帧视频编码字节数是否小于或等于预置的字节数;
打包单元3033,用于若第一帧视频编码字节数和第二帧视频编码字节数都小于或等于预置的字节数,则对第二同步数据包进行打包处理,得到目标传输数据包。
可选的,插入模块304还可以具体用于:
获取目标传输数据包的同步数据时间戳;
根据同步数据时间戳确定对应的目标同步数据包;
获取目标传输数据包中每一帧视频编码时间戳和每一帧音频编码时间戳;
根据每一帧视频编码时间戳将2帧视频编码插入目标同步数据包中对应的视频数据列表,并根据每一帧音频编码时间戳将3帧音频编码插入目标同步数据包中对应的音频数据列表,得到第三同步数据包。
可选的,解码模块305还可以具体用于:
对第三同步数据包中2帧视频编码进行熵解码和反量化,得到熵解码和反量化的2帧视频编码;
对熵解码和反量化的2帧视频编码进行反变换和预测解码,得到解码的2帧视频数据;
对第三同步数据包中3帧音频编码进行解协议和解封装,得到3帧音频码流数据;
对3帧音频码流数据进行音频解码,得到解码的3帧音频数据;
根据解码的2帧视频数据和解码的3帧音频数据,得到解码的同步数据包。
可选的,音视频数据同步装置还包括:
分包处理模块306,用于获取第二同步数据包中2帧视频编码的每一帧视频编码字节数,得到第一帧视频编码字节数和第二帧视频编码字节数;
分别判断第一帧视频编码字节数和第二帧视频编码字节数是否小于或等于预置的字节数;
若第一帧视频编码字节数和第二帧视频编码字节数同时大于预置的字节数,则将2帧视频编码中第一帧视频编码进行分包处理,得到多个第一帧子帧视频编码,并将2帧视频编码中第二帧视频编码进行分包处理,得到多个第二帧子帧视频编码;
根据多个第一帧子帧视频编码、多个第二帧子帧视频编码和3帧音频编码,得到多个传输数据包。
可选的,音视频数据同步装置还包括:
分包插入模块307,用于获取多个传输数据包中任意一个传输数据包的同步数据时间戳,其中,多个传输数据包具有相同的同步数据时间戳;
根据同步数据时间戳确定对应的目标同步数据包;
获取任意一个第一帧子帧视频编码的第一帧视频编码时间戳、每个第一帧子帧视频编码的第一帧子帧视频编码序列号、任意一个第二帧子帧视频编码的第二帧视频编码时间戳和每个第二帧子帧视频编码的第二帧子帧视频编码序列号,并获取3帧音频编码的每一帧音频编码时间戳;
根据第一帧视频编码时间戳将多个第一帧子帧视频编码插入目标同步数据包中对应的视频数据第一列表,并根据第一帧子帧视频编码序列号将多个第一帧子帧视频编码插入视频数据第一列表中对应的列表位置;
根据第二帧视频编码时间戳将多个第二帧子帧视频编码插入目标同步数据包中对应的视频数据第二列表,并根据第二帧子帧视频编码序列号将多个第二帧子帧视频编码插入视频数据第二列表中对应的列表位置;
根据每一帧音频编码时间戳将3帧音频编码插入目标同步数据包中对应的音频数据列表,得到第三同步数据包。
本发明实施例中,本发明实施例中,获取第一同步数据包,其中,第一同步数据包包括2帧视频数据和3帧音频数据;对2帧视频数据进行视频编码,并对3帧音频数据进行音频编码,得到第二同步数据包;对第二同步数据包进行实时传输数据处理,得到目标传输数据包;根据目标传输数据包的同步数据时间戳确定对应的目标同步数据包,并将目标传输数据包进行插入处理,得到第三同步数据包;对第三同步数据包进行解码,得到解码的同步数据包,其中,解码的同步数据包包括解码的2帧视频数据和解码的3帧音频数据,从而提高了音视频数据在时间上的强相关性,减小了音视频同步失真。
上面图3和图4从模块化功能实体的角度对本发明实施例中的音视频数据同步装置进行详细描述,下面从硬件处理的角度对本发明实施例中音视频数据同步设备进行详细描述。
图5是本发明实施例提供的一种音视频数据同步设备的结构示意图,该音视频数据同步设备500可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上处理器(central processing units,CPU)510(例如,一个或一个以上处理器)和存储器520,一个或一个以上存储应用程序533或数据532的存储介质530(例如一个或一个以上海量存储设备)。其中,存储器520和存储介质530可以是短暂存储或持久存储。存储在存储介质530的程序可以包括一个或一个以上模块(图示没标出),每个模块可以包括对音视频数据同步设备500中的一系列指令操作。更进一步地,处理器510可以设置为与存储介质530通信,在音视频数据同步设备500上执行存储介质530中的一系列指令操作。
音视频数据同步设备500还可以包括一个或一个以上电源540,一个或一个以上有线或无线网络接口550,一个或一个以上输入输出接口560,和/或,一个或一个以上操作系统531,例如Windows Serve,Mac OS X,Unix,Linux,FreeBSD等等。本领域技术人员可以理解,图5示出的音视频数据同步设备结构并不构成对音视频数据同步设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
本发明还提供一种音视频数据同步设备,所述计算机设备包括存储器和处理器,存储器中存储有计算机可读指令,计算机可读指令被处理器执行时,使得处理器执行上述各实施例中的所述音视频数据同步方法的步骤。
本发明还提供一种计算机可读存储介质,该计算机可读存储介质可以为非易失性计算机可读存储介质,该计算机可读存储介质也可以为易失性计算机可读存储介质,所述计算机可读存储介质中存储有指令,当所述指令在计算机上运行时,使得计算机执行所述音视频数据同步方法的步骤。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(read-only memory,ROM)、随机存取存储器(random access memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (10)
1.一种音视频数据同步方法,其特征在于,所述音视频数据同步方法包括:
获取第一同步数据包,其中,所述第一同步数据包包括2帧视频数据和3帧音频数据;
对所述2帧视频数据进行视频编码,并对所述3帧音频数据进行音频编码,得到第二同步数据包,其中,所述第二同步数据包包括2帧视频编码和3帧音频编码;
对所述第二同步数据包进行实时传输数据处理,得到目标传输数据包;
根据所述目标传输数据包的同步数据时间戳确定对应的目标同步数据包,并将所述目标传输数据包进行插入处理,得到第三同步数据包;
对所述第三同步数据包进行解码,得到解码的同步数据包,其中,所述解码的同步数据包包括解码的2帧视频数据和解码的3帧音频数据。
2.根据权利要求1所述的音视频数据同步方法,其特征在于,所述对所述2帧视频数据进行视频编码,并对所述3帧音频数据进行音频编码,得到第二同步数据包,包括:
获取2帧视频数据,并对所述2帧视频数据进行预测编码和变换,得到预测变换的2帧视频数据;
对所述预测变换的2帧视频数据进行量化和熵编码,得到2帧视频编码;
获取3帧音频数据,并对所述3帧音频数据进行采样和量化,得到采样量化的3帧音频数据;
对所述采样量化的3帧音频数据进行编码,得到3帧音频编码;
根据所述2帧视频编码和所述3帧音频编码,得到第二同步数据包。
3.根据权利要求1所述的音视频数据同步方法,其特征在于,所述对所述第二同步数据包进行实时传输数据处理,得到目标传输数据包,包括:
获取所述第二同步数据包中所述2帧视频编码的每一帧视频编码字节数,得到第一帧视频编码字节数和第二帧视频编码字节数;
分别判断所述第一帧视频编码字节数和所述第二帧视频编码字节数是否小于或等于预置的字节数;
若所述第一帧视频编码字节数和所述第二帧视频编码字节数都小于或等于所述预置的字节数,则对所述第二同步数据包进行打包处理,得到目标传输数据包。
4.根据权利要求1所述的音视频数据同步方法,其特征在于,所述根据所述目标传输数据包的同步数据时间戳确定对应的目标同步数据包,并将所述目标传输数据包进行插入处理,得到第三同步数据包,包括:
获取所述目标传输数据包的同步数据时间戳;
根据所述同步数据时间戳确定对应的目标同步数据包;
获取所述目标传输数据包中每一帧视频编码时间戳和每一帧音频编码时间戳;
根据所述每一帧视频编码时间戳将所述2帧视频编码插入所述目标同步数据包中对应的视频数据列表,并根据所述每一帧音频编码时间戳将所述3帧音频编码插入所述目标同步数据包中对应的音频数据列表,得到第三同步数据包。
5.根据权利要求1所述的音视频数据同步方法,其特征在于,所述对所述第三同步数据包进行解码,得到解码的同步数据包,包括:
对所述第三同步数据包中所述2帧视频编码进行熵解码和反量化,得到熵解码和反量化的2帧视频编码;
对所述熵解码和反量化的2帧视频编码进行反变换和预测解码,得到解码的2帧视频数据;
对所述第三同步数据包中所述3帧音频编码进行解协议和解封装,得到3帧音频码流数据;
对所述3帧音频码流数据进行音频解码,得到解码的3帧音频数据;
根据所述解码的2帧视频数据和所述解码的3帧音频数据,得到解码的同步数据包。
6.根据权利要求1所述的音视频数据同步方法,其特征在于,在所述对所述2帧视频数据进行视频编码,并对所述3帧音频数据进行音频编码,得到第二同步数据包之后,还包括:
获取所述第二同步数据包中所述2帧视频编码的每一帧视频编码字节数,得到第一帧视频编码字节数和第二帧视频编码字节数;
分别判断所述第一帧视频编码字节数和所述第二帧视频编码字节数是否小于或等于预置的字节数;
若所述第一帧视频编码字节数和所述第二帧视频编码字节数同时大于所述预置的字节数,则将所述2帧视频编码中第一帧视频编码进行分包处理,得到多个第一帧子帧视频编码,并将所述2帧视频编码中第二帧视频编码进行分包处理,得到多个第二帧子帧视频编码;
根据所述多个第一帧子帧视频编码、所述多个第二帧子帧视频编码和所述3帧音频编码,得到多个传输数据包。
7.根据权利要求6所述的音视频数据同步方法,其特征在于,在所述根据所述多个第一帧子帧视频编码、所述多个第二帧子帧视频编码和所述3帧音频编码,得到多个传输数据包之后,还包括:
获取所述多个传输数据包中任意一个传输数据包的同步数据时间戳,其中,所述多个传输数据包具有相同的同步数据时间戳;
根据所述同步数据时间戳确定对应的目标同步数据包;
获取任意一个第一帧子帧视频编码的第一帧视频编码时间戳、每个第一帧子帧视频编码的第一帧子帧视频编码序列号、任意一个第二帧子帧视频编码的第二帧视频编码时间戳和每个第二帧子帧视频编码的第二帧子帧视频编码序列号,并获取所述3帧音频编码的每一帧音频编码时间戳;
根据所述第一帧视频编码时间戳将所述多个第一帧子帧视频编码插入所述目标同步数据包中对应的视频数据第一列表,并根据所述第一帧子帧视频编码序列号将所述多个第一帧子帧视频编码插入所述视频数据第一列表中对应的列表位置;
根据所述第二帧视频编码时间戳将所述多个第二帧子帧视频编码插入所述目标同步数据包中对应的视频数据第二列表,并根据所述第二帧子帧视频编码序列号将所述多个第二帧子帧视频编码插入所述视频数据第二列表中对应的列表位置;
根据所述每一帧音频编码时间戳将所述3帧音频编码插入所述目标同步数据包中对应的音频数据列表,得到第三同步数据包。
8.一种音视频数据同步装置,其特征在于,所述音视频数据同步装置包括:
获取模块,用于获取第一同步数据包,其中,所述第一同步数据包包括2帧视频数据和3帧音频数据;
编码模块,用于对所述2帧视频数据进行视频编码,并对所述3帧音频数据进行音频编码,得到第二同步数据包,其中,所述第二同步数据包包括2帧视频编码和3帧音频编码;
传输模块,用于对所述第二同步数据包进行实时传输数据处理,得到目标传输数据包;
插入模块,用于根据所述目标传输数据包的同步数据时间戳确定对应的目标同步数据包,并将所述目标传输数据包进行插入处理,得到第三同步数据包;
解码模块,用于对所述第三同步数据包进行解码,得到解码的同步数据包,其中,所述解码的同步数据包包括解码的2帧视频数据和解码的3帧音频数据。
9.一种音视频数据同步设备,其特征在于,所述音视频数据同步设备包括:存储器和至少一个处理器,所述存储器中存储有指令;
所述至少一个处理器调用所述存储器中的所述指令,以使得所述音视频数据同步设备执行如权利要求1-7中任意一项所述的音视频数据同步方法。
10.一种计算机可读存储介质,所述计算机可读存储介质上存储有指令,其特征在于,所述指令被处理器执行时实现如权利要求1-7中任一项所述音视频数据同步方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210241869.XA CN114666638B (zh) | 2022-03-11 | 2022-03-11 | 音视频数据同步方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210241869.XA CN114666638B (zh) | 2022-03-11 | 2022-03-11 | 音视频数据同步方法、装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114666638A CN114666638A (zh) | 2022-06-24 |
CN114666638B true CN114666638B (zh) | 2023-11-28 |
Family
ID=82028640
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210241869.XA Active CN114666638B (zh) | 2022-03-11 | 2022-03-11 | 音视频数据同步方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114666638B (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6249319B1 (en) * | 1998-03-30 | 2001-06-19 | International Business Machines Corporation | Method and apparatus for finding a correct synchronization point within a data stream |
CN1585481A (zh) * | 2003-08-20 | 2005-02-23 | 三星电子株式会社 | 可靠的解码器和解码方法 |
CN106034263A (zh) * | 2015-03-09 | 2016-10-19 | 腾讯科技(深圳)有限公司 | 媒体文件中音视频的校准方法及装置 |
CN108495164A (zh) * | 2018-04-09 | 2018-09-04 | 珠海全志科技股份有限公司 | 音视频同步处理方法及装置、计算机装置及存储介质 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007274019A (ja) * | 2006-03-30 | 2007-10-18 | Matsushita Electric Ind Co Ltd | デジタル方式情報配信システムおよびその方法 |
-
2022
- 2022-03-11 CN CN202210241869.XA patent/CN114666638B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6249319B1 (en) * | 1998-03-30 | 2001-06-19 | International Business Machines Corporation | Method and apparatus for finding a correct synchronization point within a data stream |
CN1585481A (zh) * | 2003-08-20 | 2005-02-23 | 三星电子株式会社 | 可靠的解码器和解码方法 |
CN106034263A (zh) * | 2015-03-09 | 2016-10-19 | 腾讯科技(深圳)有限公司 | 媒体文件中音视频的校准方法及装置 |
CN108495164A (zh) * | 2018-04-09 | 2018-09-04 | 珠海全志科技股份有限公司 | 音视频同步处理方法及装置、计算机装置及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN114666638A (zh) | 2022-06-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20070133674A1 (en) | Device for coding, method for coding, system for decoding, method for decoding video data | |
US7366204B2 (en) | Apparatus for generating and restoring RTP packet and method thereof | |
US6201834B1 (en) | Method and apparatus for packet loss recovery with standard-based packet video | |
US7131048B2 (en) | Apparatus for system decoder and method for error correction of packet data | |
US20060104369A1 (en) | Moving image coding apparatus and decoding apparatus | |
US20150237179A1 (en) | Backward looking robust header compression receiver | |
US20010048680A1 (en) | Method and apparatus for packet transmission with header compression | |
US6879634B1 (en) | Method and system for transmitting media streams over a variable bandwidth network | |
Stockhammer et al. | H. 26L/JVT coding network abstraction layer and IP-based transport | |
CN108471540B (zh) | 基于超低码流的高清视频流畅直播方法及装置 | |
CN114339454A (zh) | 音视频同步方法、装置、电子装置和存储介质 | |
WO2001039505A2 (en) | Method and apparatus of transmitting and receiving variable bit rate streams | |
CN114666638B (zh) | 音视频数据同步方法、装置、设备及存储介质 | |
KR20010108318A (ko) | 동화상 부호화 장치 및 동화상 복호화 장치 | |
Lorent et al. | TICO Lightweight Codec Used in IP Networked or in SDI Infrastructure | |
JP2001136503A (ja) | テレビ会議端末及びそれに用いる画像・音声再生方法 | |
EP1298936A1 (en) | Image data decoder and image data decoding method | |
JPH04239840A (ja) | 画像情報パケット化方法 | |
JP3907422B2 (ja) | データ多重化伝送方法及びその装置 | |
KR0180174B1 (ko) | Mpeg2 pat의 역패킷화기 | |
CN118433122A (zh) | 一种基于手机模拟xr眼镜终端的测试流化传输算法 | |
JP2004056234A (ja) | 画像符号化装置および画像符号化方法 | |
JP2002141944A (ja) | データ送信装置、およびデータ送信方法、並びにプログラム記憶媒体 | |
JPH0955765A (ja) | スタッフ情報量制御方式 | |
KR100216776B1 (ko) | 화상회의시스템에서 비디오 디코딩 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |