CN1745526A - 用于同步音频和视频流的设备和方法 - Google Patents

用于同步音频和视频流的设备和方法 Download PDF

Info

Publication number
CN1745526A
CN1745526A CNA038087499A CN03808749A CN1745526A CN 1745526 A CN1745526 A CN 1745526A CN A038087499 A CNA038087499 A CN A038087499A CN 03808749 A CN03808749 A CN 03808749A CN 1745526 A CN1745526 A CN 1745526A
Authority
CN
China
Prior art keywords
video
audio
delay
pdf
instantaneous
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CNA038087499A
Other languages
English (en)
Other versions
CN1745526B (zh
Inventor
C·C·王
A·M·奥斯特
S·S·莫蒂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
RCA Licensing Corp
Original Assignee
RCA Licensing Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by RCA Licensing Corp filed Critical RCA Licensing Corp
Publication of CN1745526A publication Critical patent/CN1745526A/zh
Application granted granted Critical
Publication of CN1745526B publication Critical patent/CN1745526B/zh
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/04Synchronising
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04JMULTIPLEX COMMUNICATION
    • H04J3/00Time-division multiplex systems
    • H04J3/02Details
    • H04J3/06Synchronising arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2368Multiplexing of audio and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4305Synchronising client clock from received content stream, e.g. locking decoder clock with encoder clock, extraction of the PCR packets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43072Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4341Demultiplexing of audio and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8547Content authoring involving timestamps for synchronizing content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/60Receiver circuitry for the reception of television signals according to analogue transmission standards for the sound signals

Abstract

公开了一种通过自适应瞬时误差(510)的统计学分布来建立一个新的瞬时误差(520)的统计学分布以用于在相应的音频和视频流中减少音频-视频同步问题(例如“唇同步”问题)的方法和设备。新的瞬时误差(520)的统计学分布完全在一个可接受的较少令观众/听众讨厌的同步容限窗内。

Description

用于同步音频和视频流的设备和方法
相关申请的交叉引用
本专利申请要求2002年4月19日提交的、序列号为60/374269的美国临时申请的权益,该申请的全部内容在此被引用参考。
发明背景
1.发明领域
本发明涉及多媒体通信系统领域,并且更具体地涉及使由可变延时传输网络导致的唇(lip)同步误差最小化。
背景技术
“唇同步”(或lip sync)问题是广为人知的。简要地,在通过呈现装置呈现音频和视频流中的瞬时误差可能导致一种音频信息在相应的视频信息呈现之前(超前)或之后(滞后)显示的情况,导致例如在说话者声音的音频表示和说话者嘴唇的视频表示之间的同步很差。
用于解决所谓的唇同步问题的现有技术都比较复杂,而且有时会引起音频和/或视频信息的降级。例如,大家知道,丢失视频帧以致引起视频图像的时间提前,因此要对超前音频信号作以校正。
很多原因可以引起唇同步误差。与之特别相关的是使用可变延时网络,例如因特网和其它的分组交换网络。在这样的网络中,音频和视频信息作为分离和独立流进行传输。在引入这些流到可变延时网络之前的传输处理期间,一个包含时间标记和其他元数据(例如编码器抽样率、数据包次序等)的传输层报头被加入到一些或全部传输数据包。音频和视频信息的时间标记典型地来自于公共的源,例如实时时钟。不幸的是,当音频和视频数据包通过可变延时网络时,由于网络状况,所以出现瞬时异常、丢失数据包、数据包的次序没有被保存以及数据包的延时时间有变化。最终的结果是在接收到的通过可变延时网络传输的音频和视频流中的唇同步误差。
发明内容
本发明包括一种用于通过把瞬时误差的统计分布调整到低于听众能够注意和厌恶的误差范围以下来减少相应的音频和视频流的唇同步问题的方法和设备。
特别地,根据本发明的一个实施例的方法包括:接收视频访问单元和相应的音频访问单元,该视频和相应的音频访问单元表示视-听信息,从而有助于显示由第一概率分布函数(pdf)描述的唇同步误差;以及通过一个定时因子来瞬时延迟接收到的音频和视频访问单元之一,未延时和相应的已延时访问单元表示视-听信息,从而显示由第二pdf描述的唇同步误差,第二pdf比第一pdf利用了更大份额的唇同步容限窗。
在另一个实施例中,一种用于产生适合于在可变延时网络使用的编码视频和音频流的方法包括:对相应的视频和音频信息进行瞬时编码来产生编码视频和音频流,每一个编码视频和音频流包括多个分别具有被时间标记的视频和音频数据包的视频和音频数据包;以及通过一个定时因子来自适应视频时间标记的数据包和音频时间标记的数据包中的至少一个,以便减小滞后视频唇同步误差的可能性。
在另一个实施例中,在一个接收器中实现唇同步误差pdf估计器以便动态地估计pdf。基于估计的pdf,根据目标函数计算一个最佳的音频延时时间。然后计算出的延时被引入到接收器端。
附图说明
通过考虑此后的详细描述和附图,本发明的教导可以被容易地理解,其中:
附图1描述了一个通信系统的高层框图;
附图2描述了一个控制器的高层框图;
附图3描述了一个有助于理解本发明的唇同步误差e的概率密度函数p(e)的图解表示;
附图4描述了一个有助于理解本发明的唇同步误差容限(LSET)窗的图解表示;
附图5描述了一个在容限窗中pdf偏移的图解表示;
附图6描述了根据本发明处理音频和/或视频数据包的方法;
附图7描述了根据本发明的一个备用实施例的通信系统的高层框图;以及
附图8描述了一个本发明实施例的高层框图,其中在一个接收机端执行了一个pdf估计器。
为了便于理解,只要有可能,相同的参考数字已经被使用来标明在附图中相同的元件。
发明的详细描述
本发明将在诸如因特网之类的可变延时网络的背景下讨论,其中可变延时网络往往会在视频和/或音频数据包通过时产生瞬时误差,以致可能产生唇同步误差。然而,本发明的方法可以容易地适合各种瞬时误差源。本发明是在视频和/或音频呈现单元(例如视频和音频帧)上运行的,所述呈现单元可以被打包以适合于通过例如可变延时网络的网络进行传输。
而且,尽管“唇同步”的标准通信定义使语音或歌唱的同步(或同步处理)与视频相关,以便视频中嘴唇的动作看起来和声音自然地一致;但对本发明来说,该定义的解释不能受到这样的限制。相反地,“唇同步”涉及到视频中表示的任何动作和相应的音频轨道或比特流的同步,以便由该动作特意地产生的声音与特意地产生该声音的视频适当地匹配。换句话说,对于本发明来说,“唇同步”涉及由音频信息信号表示的声音和相应的由视频信息信号表示的视频之间的同步;而不管相应的音频和视频的内容。因此,对“唇同步误差”的引用实质上是很全面的,并且可以被解释为各种“视-听时间同步误差”。
附图1描述了包括本发明的一个通信系统的高层框图。特别地,通信系统100包括一个视听源110,例如一个大容量存储装置、摄象机、话筒、网络输入或者其它的视听信息源。视听源110分别向一个视频编码器120V提供视频流V和向音频编码器120A提供相应的音频流A。所述的编码器120V和120A(举例说,它们构成MPEG或其它的压缩编码器)对视频流V和音频流A分别进行编码以便产生编码视频流VE和编码音频流AE。编码视频VE和音频AE流根据适合于可变延时网络140(举例地说,是以太网、ATM、或其它的传输流编码器,它根据适合于可变延时网络140的特定传输格式对视频VE和音频AE流进行编码)的特定传输格式通过传输处理器130进行处理。
传输流T通过可变延时网络140传播到目的地,可变延时网络140例如因特网、内联网,ATM、以太网、LAN、WAN、公共交换电话网络(PSTN)、卫星、或其它的网络,在该目的地它被接收为传输流T’。传输流T’包括具有一些由可变延时网络140传输引入的延时或其它误差的原始传输流T。
合成的传输流T’被传输处理器150(举例来说,是一个以太网、ATM、或其它的传输流解码器)接收,该处理器从接收到的传输流T’中提取出一个编码视频流VE’和相应的编码音频流AE’。编码视频VE’和音频AE’流包括原始的具有一些例如由传输处理器130、可变延时网络140和/或传输处理器150引起的瞬时误差的编码视频VE和音频AE流。接收到的编码视频VE’和音频AE’流通过解码器160被解码来产生合成的视频V’和音频A’流。产生的视频V’和音频A’流被一个呈现装置170(例如电视或其它显示装置)呈现,170V已经使一个音频呈现装置(例如扬声器170A)与它相关联。
附图2描述了适合于使用在根据本发明的原理的系统和设备中的控制器的高层框图。特别地,附图2中的控制器200可以用于执行一个或多个在上述参考附图1的描述中的功能元件,以及后面参考附图7和8的描述中的各种功能元件。
附图2中示例性的控制器200包括一个处理器230和用于存储各种程序245的存储器240。处理器230和常规的支持电路220例如电源、时钟电路、高速缓冲存储器等以及协助执行存储在存储器240中的软件程序的电路配合运行。同样地,可以预见在此讨论的处理步骤中的一些例如软件处理可以在硬件中执行,例如,像与处理器230协作的电路来执行各种步骤。控制器200还包括输入/输出(I/O)电路210,它形成在与具有控制器200的功能元件通信的各种功能元件的接口。
尽管附图2中的控制器200被描述为一个用于进行对根据本发明的音频和/或视频流的各种瞬时校正的通用计算机,但是本发明可以在硬件中执行,例如一个专用集成电路(ASIC)。同样地,在此描述的处理步骤可以被广泛地解释为被同等地通过软件、硬件、或其组合来实现。
唇同步误差(LSE)可以根据公式1定义如下:
e = ( t d a - t d v ) - ( t e a - t e v )  (公式1)
在公式1中,td a和td v是相关的音频和视频帧分别到达接收器端的再现装置170的时间;以及te a和te v是音频和视频帧分别到达音频和视频编码器的时间。
附图3描述了有助于理解本发明的唇同步误差e的概率密度函数p(e)的图解表示。由于例如由可变延时网络140引入的随机延时,所以在接收器端的音频数据包和它相应的视频数据包之间的延时是随机变量。所述的随机变量被它的概率密度函数(pdf),p(e)所限制,如附图3中的实线310。特别地,附图3的图解表示描述了一个定义视频数据和相应的音频数据的瞬时关系的水平轴。时间零被选择作为表示已经结合了其同步的音频数据的视频数据内容的时间。当这个分布被描述为高斯分布时,可以利用其它对称的或不对称的pdf曲线,这取决于特定的模拟的误差源以及模拟的误差源的数目(也就是可以使用一个用于复合视频和音频源的复合对称的或不对称的pdf曲线)。
随着时间从零向正方向的增加,音频数据更加落后于视频数据(也就是,音频数据包愈加延迟于相应的视频数据包)。随着时间从零向负方向的增加,音频数据更加超前于视频数据(也就是,视频数据包愈加延迟于相应的音频数据包)。
附图4描述了有助于理解本发明的唇同步误差容限(LSET)窗410的图解表示。特别地,该LSET窗由函数公式(2)定义如下,其中a和b是LSET窗容限的下限和上限。
 (公式2)
发明者注意到音频和视频数据包的不对称误差容限以及在音频数据包在相应的视频数据包之前被接收时的情况下产生的大量问题。典型的数值变化范围,例如[a,b]=[-20ms,40ms]。
附图5描述了在容限窗中pdf偏移的图解表示。特别地,附图5的图解表示描述了一个定义视频数据和相应的音频数据之间的瞬时关系的水平轴。时间零以上述参考附图3和4的描述的方式被选择。延时容限窗410表示结合了不被观众讨厌的唇同步的延时容限或瞬时误差。可以注意到,附图5中的延时容限窗410从-20毫秒(即音频数据包超前视频数据包达到20毫秒)延伸到+40毫秒(即音频数据包滞后视频数据包达到40毫秒)。可以注意到,音频信息超前视频信息的唇同步误差比音频信息滞后视频信息的唇误差往往更令人讨厌(例如更容易使观众留意到和/或分散注意),因此附图5中的延时容限窗410不对称。
参考附图5,pdf曲线510的左边的“尾部”部分落入到超出了较低的延时容限窗范围的区域540。可以注意到,pdf曲线510的右边的“尾部”部分在延时窗容限范围上限之前被充分地归零。误差窗容限范围被定义为在其中的瞬时误差例如唇同步误差被视为较少令人讨厌的的范围。因此,或者正的或者负的超过延时容限范围的延时包括这些被视为令一般观众讨厌或高度讨厌的延时。
偏移的pdf曲线520表示在时间上被偏移的原始的概率分布曲线510,以便一个在pdf曲线之下的更大的区域在误差容限窗410内。因此,原始的或第一pdf已经在时间上被偏移,使得在最终或第二pdf之下的增加的区域(优选地最大区域)被包括在误差容限窗410中。在pdf上的所述偏移由结合了视频和/或音频信息的自适应定时参量引起,例如视频和/或音频访问单元的显示时间标记。因此,如果音频和/或视频瞬时信息适合于引起在相应的pdf上这样的偏移,那么令人讨厌的唇同步误差的可能性会最小,或者至少减少了一个与由偏移引起的在曲线误差之下的pdf中的减少相应的量。因此,最大化在唇LSET中的唇LSE曲线之下的区域的最佳解决方法是使由公式3给出的目标函数最大化如下:
J = ∫ - ∞ + ∞ p ( e - t 0 ) W ( e ) de = ∫ a b p ( e - t 0 ) de = P ( b - t 0 ) - P ( a - t 0 )  (公式3)
在公式3中,p(e)是LSE的pdf,P(e)是累积分布函数以及W(e)是在[2]中定义的LSET窗函数。最优化处理是用来使被pdf曲线在[a,b]的界限内包围的区域最大化。这相当于超出窗的“尾部”区域的最小化处理。该最优化问题可以通过求J对t0的导数并解如下公式4得到t0来解决:
∂ J ∂ t 0 = 0  (公式4)
可以正明,如附图2所示的对称高斯LSE pdf的t0的最佳解是LSET窗的下限和上限的平均值:
t 0 = a + b 2  (公式5)
对于其它的LSE pdf,最佳的t0可能是一个正的或负的值,取决于pdf和误差容限窗之间的相对位置关系。一个正的t0意味着在音频帧中延时,以及一个负的t0意味着在视频帧中延时,以偏移LSE并使公式4最大化。
附图6描述了根据本发明的用于处理音频和/或视频数据包的方法。特别地,附图6描述了一种用于自适应相应的视频和/或音频帧或访问单元数据包使得唇同步误差和尤其是超前音频型唇同步误差被最小化的方法。在附图6的方法的背景下,唇同步误差由按照框605的包括可变延时网络、编码器、传输处理器或其它误差源中的一个或多个的误差源引起。
在步骤610,可能由误差源产生的瞬时误差被表示为概率密度函数(pdf)。例如,和上述参考附图5的描述一样,一个结合了可能由可变延时网络产生的瞬时误差的pdf被示出。该pdf包括例如一个具有高斯形状的随机数分布(可能是或不是以零点为中心),这里的零点表示没有唇同步误差(也就是,视频和音频数据的瞬时校正)。
在步骤620,定义了一个与pdf相关联的误差容限窗。如同在框615中所示的,误差容限窗可以相关于唇同步误差或其它误差来定义。如附图5中所示,一个关联着唇同步误差的延时容限窗被定义为例如在-20毫秒到+40毫秒之间的延时。也就是说,一个具有超前相应的视频访问单元达到20毫秒或滞后相应的视频数据包达到40毫秒的音频访问单元的不对称音频延时容限值(相对于零时间点)被认为是可以接受的。其它的容限窗可以根据与利用本发明的通信系统的相关的因素来定义。
在步骤630,该方法自适应与组成内容流的视频和音频帧的至少一个相关的定时参数,例如时间标记。可选地,未压缩的的音频和视频流中的一个或全部都在编码之前延时。这样的修改以一种力图引起与误差源相关的pdf从初始的位置(例如以零为中心)向最大利用延时容限窗的位置偏移的方式进行。可以注意到,在框625中上述自适应可以在编码处理、传输处理或其它的处理期间发生。返回头参考附图5,一个适当的pdf偏移被示出为增加了在由延时容限窗确定的范围内的概率分布曲线以下区域的数量。
附图7描述了根据本发明的一个备用实施例的通信系统的高层框图。特别地,附图7中的通信系统700和附图1中的通信系统100实质上相同。主要的区别是延时元件710A被用于在音频编码器120A对原始音频流编码之前延时该音频流A。依照前面讨论的唇同步误差容限(LSET)模型,该延时元件710A向音频流产生一个延时时间t0来偏移相应的pdf。可以注意到,附图7中的通信系统700可以被修改以便包括一个相应的视频延时元件710V(未示出),用于在视频源信号V被视频编码器120V编码之前延时该信号。音频710A和视频710V延时元件中的一个或全部都可以被利用。
在本发明的这个实施例中,利用了如附图5中示出的误差容限窗410,例如每一个音频帧或访问单元在编码之前相对于每个视频帧被延时大约t0毫秒。通过将每一个音频帧在时间上向回偏移t0毫秒,与可变延时网络产生的误差相关的pdf被以关于附图5的上面描述的方式偏移。也就是说,pdf向前或向后偏移取决于标记t0,在时间上从具有超前音频数据包的唇同步误差趋势到没有唇同步误差或滞后音频数据包唇同步误差的趋势(它比超前音频数据包唇同步误差更少令人讨厌)。因此,任何音频数据包延时将仍然保持在由误差容限窗410建立的误差容限中的概率增加了。
在本发明的一个实施例当中,其中假定了一个如附图2所示的对称高斯pdf,音频或视频帧的时间标记被修改以使定时失配最小化。对于一个恒定比特率的音频编码器,视频时间标记可选地以一种用于增加保持在解码器端的LSET中的定时失配概率的方式进行修改。在该实施例中,例如视频标记舍入到较低的数十毫秒,如公式6所指出的,如下(其中te v
Figure A0380874900121
是用于视频帧的以毫秒表示的原始和舍入的时间标记):
Figure A0380874900122
 (公式6)
上述技术介绍了音频数据包中在0到9毫秒的范围内的均匀分布式延时。其它的范围也可以被选择(例如模15、模20等等),并且音频数据包同样可以以这种方式进行处理。
在先前描述的实施例中,pdf的LSE都是已知的并且认为较为稳定。结果,预定的时间偏移在所有的音频(或视频)访问单元上进行。在更先进的一个实施例中的LSE pdf可能不是已知的或是不稳定,LSE pdf被监测和估计,并且时间偏移不是预定的。
附图8描述了实施例中的LSE,其中的pdf估计器在接收端执行。特别地,例如在上面附图1和7中描述的接收瑞设备被修改以包括有DSE pdf估计器810和音频延时元件820A。虽然没有示出,一个视频延时元件820V也可以被使用。LSE pdf估计器817接收解码的音频A’和视频V’信号以及响应于LSET模型信息而产生一个延时指示信号t0。在附图8的实施例中,延时指示信号t0被音频延时元件820A处理向已解码音频流A’传送相应的延时量,从而产生一个延时的音频流A”。估计器810不断地收集音频和视频访问单元的显示时间标记。每一个LSEe都使用公式1进行计算。所有的LSE被用于构成LSE的pdf。通过使用LSET模型,最佳的时间偏移t0可以通过解公式4求出时间偏移t0公式来得到。在音频帧(t0>0)或视频帧中(t0<0)的延时被加入以便偏移LSEpdf。
在一个实施例中,一个确定的光学时移被从接收器传输到编码器,使得要被编码和传输的音频和视频流中的至少一个在编码之前、传输处理之前和/或传输到接收器之前被延时。
尽管各种包括本发明的教导的实施例在此已被详细地描述和示出,但是本领域熟练的技术人员可以容易地设计许多其它还包含这些教导的各种各样的实施例。

Claims (20)

1.一种方法,包括:
接收(610)视频访问单元和相应的音频访问单元,用于表示视—听信息的所述视频和相应的音频访问单元有助于显示出由第一概率分布函数(pdf)(510)描述的视—听瞬时同步误差;以及
以一个延时量来瞬时延迟(630)接收到的音频和视频访问单元中之一,用于表示视听信息的未延时和相应的延时的访问单元有助于显示由第二pdf(520)描述的视—听瞬时同步误差,所述的第二pdf比所述第一pdf利用了同步容限窗(410)的更大份额。
2.权利要求1的方法,其中:
所述的第一pdf已使一个负的瞬时失配值和一个正的瞬时失配值与它相关联,所述的瞬时失配值具有不同的绝对值;以及
对所述的延时量进行选择以减小所述的负的和正的瞬时失配值(630)的绝对值之间的差。
3.权利要求2的方法,其中所述负瞬时失配值大约为20毫秒,所述正瞬时失配值大约40毫秒,并且所述音频访问单元被延时大约10毫秒。
4.权利要求1的方法,其中所述延时量在对产生所述音频和视频访问单元(710)的音频和视频流进行编码之前被传递。
5.权利要求1的方法,其中所述延时量在对产生所述音频和视频访问单元的音频和视频流进行编码期间被传递。
6.权利要求1的方法,进一步包括:
调整(810,820)所述延时量以便响应在所述pdf中的变化。
7.权利要求6的方法,其中所述变化通过在接收器中检查音频和视频访问单元的显示时间标记来确定。
8.权利要求1所述的方法,进一步包括:
调整所述延时量以便响应在音频—视频瞬时同步误差产生源中的变化。
9.权利要求8所述的方法,其中所述音频—视频瞬时同步误差产生源包括一个可变延时网络(140)。
10.一种用于产生编码视频和相应的音频流的方法,包括:
瞬时编码(120)相应的视频和音频信息以产生包含有相应的视频和音频访问单元的编码视频和音频流;以及
以与一个同步误差容限模型相应的延迟量来瞬时延迟(710)所述编码视频和音频流之一。
11.权利要求10所述的方法,其中瞬时延时的所述步骤包括在所述编码之前延时所述视频和音频流中之一。
12.权利要求10所述的方法,其中每一个所述编码视频和音频流包括多个各自的视频和音频单元;以及
所述瞬时延时的所述步骤包括通过所述延时量来自适应与所述的视频和音频访问单元中的至少一个相关的时间标记。
13.权利要求10所述的方法,其中与所述视频和音频流中的至少一个相关的时间标记通过一个预定的量被舍入。
14.权利要求13的方法,其中所述视频流时间标记通过以由如模运算处理的各自视频流时间标记来减少每个视频流时间标记而进行估计。
15.权利要求10的方法,其中瞬时延时量适应于响应在视—听瞬时同步误差产生源中的变化。
16.一种设备,包括:
一个延时元件(710),用于传递一个瞬时延时到音频信号和相应的视频信号中的至少一个,以响应一个误差容限模型;以及
一个编码器(120),用于编码音频和视频信号以产生编码音频和视频流。
17.权利要求16的设备,其中
所述误差容限模型定义了一个同步容限窗(410);以及
所述瞬时延时导致了一个描述在所述音频信号和相应的视频信号之间的同步误差的概率分布函数(pdf)(310),该函数被向着与相应的所述同步容限窗(410)更有益的方向偏移。
18.权利要求17的设备,其中所述同步容限窗(410)已使一个负瞬时失配值和一个正瞬时失配值与它相关联,所述瞬时失配值具有不同的绝对值,所述的pdf具有相应的负的和正的瞬时失配值,所述这些瞬时失配值被以向着与所述同步容限窗瞬时失配值对齐的方向偏移。
19.一种具有用于执行步骤的计算机可执行指令的计算机可读介质,包括:
接收(610)视频访问单元和相应的音频访问单元,所述用于表示视听信息的所述视频和相应的音频访问单元有助于显示出由第一概率分布函数(pdf)(510)描述的瞬时同步误差;以及
以一个延时量来瞬时延时(630)所述接收到的音频和视频访问单元中之一,用于表示视听信息的未延时和相应的延时单元有助于显示由第二pdf(520)描述的同步误差,所述第二pdf比所述第一pdf(510)利用了同步容限窗(410)的更大部分。
20.权利要求19的计算机可读介质,其中所述步骤进一步包括:
在对产生所述音频和视频访问单元的音频和视频流编码之前传递所述延时量。
CN038087499A 2002-04-19 2003-04-15 用于同步音频和视频流的设备和方法 Expired - Fee Related CN1745526B (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US37426902P 2002-04-19 2002-04-19
US60/374,269 2002-04-19
US10/340,477 US6956871B2 (en) 2002-04-19 2003-01-10 Apparatus and method for synchronization of audio and video streams
US10/340,477 2003-01-10
PCT/US2003/011630 WO2003090443A2 (en) 2002-04-19 2003-04-15 Apparatus and method for synchronization of audio and video streams

Publications (2)

Publication Number Publication Date
CN1745526A true CN1745526A (zh) 2006-03-08
CN1745526B CN1745526B (zh) 2010-09-29

Family

ID=29218754

Family Applications (1)

Application Number Title Priority Date Filing Date
CN038087499A Expired - Fee Related CN1745526B (zh) 2002-04-19 2003-04-15 用于同步音频和视频流的设备和方法

Country Status (10)

Country Link
US (1) US6956871B2 (zh)
EP (1) EP1497937B1 (zh)
JP (1) JP4472360B2 (zh)
KR (1) KR100968928B1 (zh)
CN (1) CN1745526B (zh)
AU (1) AU2003221949A1 (zh)
BR (2) BRPI0304532B1 (zh)
MX (1) MXPA04010330A (zh)
MY (1) MY136919A (zh)
WO (1) WO2003090443A2 (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101212690B (zh) * 2006-12-26 2011-04-20 中兴通讯股份有限公司 多媒体视音频流唇音同步的调测方法
CN1988734B (zh) * 2005-12-20 2012-07-04 奥迪康有限公司 具有变化时延的音频系统和处理音频信号的方法
CN103581604A (zh) * 2012-08-01 2014-02-12 希姆通信息技术(上海)有限公司 视频通话装置及方法
CN104137553A (zh) * 2011-09-15 2014-11-05 谷歌公司 视频管理系统
CN107104934A (zh) * 2011-02-11 2017-08-29 交互数字专利控股公司 用于在协同会话期间同步移动站媒体流的方法和装置
CN112770165A (zh) * 2020-12-28 2021-05-07 杭州电子科技大学 一种音视频流分布式同步方法

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7120168B2 (en) * 2001-11-20 2006-10-10 Sony Corporation System and method for effectively performing an audio/video synchronization procedure
US8133115B2 (en) 2003-10-22 2012-03-13 Sony Computer Entertainment America Llc System and method for recording and displaying a graphical path in a video game
JP3856792B2 (ja) * 2004-01-16 2006-12-13 松下電器産業株式会社 信号処理装置
DE102004017215A1 (de) * 2004-04-05 2005-10-20 Sennheiser Electronic Audiovisuelles System
US7333150B2 (en) * 2004-05-14 2008-02-19 Pixel Instruments Corporation Method, system, and program product for eliminating error contribution from production switchers with internal DVEs
US7471337B2 (en) * 2004-06-09 2008-12-30 Lsi Corporation Method of audio-video synchronization
US7400653B2 (en) * 2004-06-18 2008-07-15 Dolby Laboratories Licensing Corporation Maintaining synchronization of streaming audio and video using internet protocol
US20060071933A1 (en) 2004-10-06 2006-04-06 Sony Computer Entertainment Inc. Application binary interface for multi-pass shaders
US7636126B2 (en) * 2005-06-22 2009-12-22 Sony Computer Entertainment Inc. Delay matching in audio/video systems
US20070067472A1 (en) * 2005-09-20 2007-03-22 Lsi Logic Corporation Accurate and error resilient time stamping method and/or apparatus for the audio-video interleaved (AVI) format
CN100442858C (zh) * 2005-10-11 2008-12-10 华为技术有限公司 分组网络中多媒体实时传输的唇同步方法及其装置
US7822073B2 (en) * 2005-11-03 2010-10-26 George Mason Intellectual Properties, Inc. Packet flow side channel
US7880746B2 (en) 2006-05-04 2011-02-01 Sony Computer Entertainment Inc. Bandwidth management through lighting control of a user environment via a display device
US7965859B2 (en) 2006-05-04 2011-06-21 Sony Computer Entertainment Inc. Lighting control of a user environment via a display device
US20080043144A1 (en) * 2006-08-21 2008-02-21 International Business Machines Corporation Multimodal identification and tracking of speakers in video
US7953118B2 (en) * 2006-12-08 2011-05-31 Microsoft Corporation Synchronizing media streams across multiple devices
US20080147728A1 (en) * 2006-12-15 2008-06-19 Tal Reichert Exposure-based scheduling
JP4948147B2 (ja) * 2006-12-15 2012-06-06 富士通株式会社 複合コンテンツファイルの編集方法および装置
US20080148327A1 (en) * 2006-12-18 2008-06-19 General Instrument Corporation Method and Apparatus for Providing Adaptive Trick Play Control of Streaming Digital Video
KR20090015455A (ko) * 2007-08-08 2009-02-12 삼성전자주식회사 오디오 신호 및 비디오 신호를 상호 의존적으로 제어하는방법과 그 장치
EP2327213B1 (en) 2008-08-21 2014-10-08 Dolby Laboratories Licensing Corporation Feature based calculation of audio video synchronization errors
US8731370B2 (en) 2009-01-12 2014-05-20 At&T Intellectual Property I, L.P. Method and device for transmitting audio and video for playback
ATE540529T1 (de) * 2009-11-03 2012-01-15 Tektronix Int Sales Gmbh Verfahren und vorrichtung zum messen der verzögerung innerhalb eines komprimierten digitalen stroms
US9819840B2 (en) * 2010-01-11 2017-11-14 Bryan Nunes Audio device that extracts the audio of a multimedia stream and serves the audio on a network while the video is displayed
US10786736B2 (en) 2010-05-11 2020-09-29 Sony Interactive Entertainment LLC Placement of user information in a game space
US8988489B2 (en) 2010-09-15 2015-03-24 Hewlett-Packard Development Company, L. P. Determining a synchronization relationship
US8878894B2 (en) 2010-09-15 2014-11-04 Hewlett-Packard Development Company, L.P. Estimating video cross-talk
US9565426B2 (en) 2010-11-12 2017-02-07 At&T Intellectual Property I, L.P. Lip sync error detection and correction
US9342817B2 (en) 2011-07-07 2016-05-17 Sony Interactive Entertainment LLC Auto-creating groups for sharing photos
US9516262B2 (en) * 2012-05-07 2016-12-06 Comigo Ltd. System and methods for managing telephonic communications
CN103475906B (zh) * 2012-06-08 2016-08-10 华为技术有限公司 用于多媒体流的测量方法和测量装置
US10158927B1 (en) * 2012-09-05 2018-12-18 Google Llc Systems and methods for detecting audio-video synchronization using timestamps
CN105704506A (zh) * 2016-01-19 2016-06-22 北京流金岁月文化传播股份有限公司 一种解决视音频编码唇音同步的装置和方法
US11871068B1 (en) * 2019-12-12 2024-01-09 Amazon Technologies, Inc. Techniques for detecting non-synchronization between audio and video

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5467139A (en) * 1993-09-30 1995-11-14 Thomson Consumer Electronics, Inc. Muting apparatus for a compressed audio/video signal receiver
US5559999A (en) * 1994-09-09 1996-09-24 Lsi Logic Corporation MPEG decoding system including tag list for associating presentation time stamps with encoded data units
US5818514A (en) * 1994-12-01 1998-10-06 Lucent Technologies Inc. Video conferencing system and method for providing enhanced interactive communication
US5588029A (en) * 1995-01-20 1996-12-24 Lsi Logic Corporation MPEG audio synchronization system using subframe skip and repeat
US5543853A (en) * 1995-01-19 1996-08-06 At&T Corp. Encoder/decoder buffer control for variable bit-rate channel
US5623483A (en) * 1995-05-11 1997-04-22 Lucent Technologies Inc. Synchronization system for networked multimedia streams
US5570372A (en) * 1995-11-08 1996-10-29 Siemens Rolm Communications Inc. Multimedia communications with system-dependent adaptive delays
US5703877A (en) * 1995-11-22 1997-12-30 General Instrument Corporation Of Delaware Acquisition and error recovery of audio data carried in a packetized data stream
US6169843B1 (en) * 1995-12-01 2001-01-02 Harmonic, Inc. Recording and playback of audio-video transport streams
US5617502A (en) * 1996-03-22 1997-04-01 Cirrus Logic, Inc. System and method synchronizing audio and video digital data signals during playback
KR100244745B1 (ko) * 1996-06-29 2000-02-15 김영환 싱크 워드 검출회로
US5949410A (en) * 1996-10-18 1999-09-07 Samsung Electronics Company, Ltd. Apparatus and method for synchronizing audio and video frames in an MPEG presentation system
US6151443A (en) * 1997-05-16 2000-11-21 Indigita Corporation Digital video and data recorder
GB2326781B (en) * 1997-05-30 2001-10-10 British Broadcasting Corp Video and audio signal processing
US6115422A (en) * 1997-09-26 2000-09-05 International Business Machines Corporation Protocol and procedure for time base change in an MPEG-2 compliant datastream
DE19754296A1 (de) * 1997-12-08 1999-06-10 Thomson Brandt Gmbh Synchronisationseinrichtung
KR100294663B1 (ko) * 1997-12-29 2001-09-17 구자홍 엠펙디코더및디코딩제어방법
WO1999044363A1 (en) * 1998-02-27 1999-09-02 Ridgeway Systems And Software Ltd. Audio-video packet synchronisation at network gateway
US6285405B1 (en) * 1998-10-14 2001-09-04 Vtel Corporation System and method for synchronizing data signals
US6363429B1 (en) * 1999-04-20 2002-03-26 3Com Corporation Method and system for automatic determination of priority data streams on computer networks
US7346698B2 (en) * 2000-12-20 2008-03-18 G. W. Hannaway & Associates Webcasting method and system for time-based synchronization of multiple, independent media streams

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1988734B (zh) * 2005-12-20 2012-07-04 奥迪康有限公司 具有变化时延的音频系统和处理音频信号的方法
CN101212690B (zh) * 2006-12-26 2011-04-20 中兴通讯股份有限公司 多媒体视音频流唇音同步的调测方法
CN107104934A (zh) * 2011-02-11 2017-08-29 交互数字专利控股公司 用于在协同会话期间同步移动站媒体流的方法和装置
CN104137553A (zh) * 2011-09-15 2014-11-05 谷歌公司 视频管理系统
CN103581604A (zh) * 2012-08-01 2014-02-12 希姆通信息技术(上海)有限公司 视频通话装置及方法
CN112770165A (zh) * 2020-12-28 2021-05-07 杭州电子科技大学 一种音视频流分布式同步方法

Also Published As

Publication number Publication date
US6956871B2 (en) 2005-10-18
BR0304532A (pt) 2004-07-06
AU2003221949A8 (en) 2003-11-03
MY136919A (en) 2008-11-28
WO2003090443A2 (en) 2003-10-30
JP2005523650A (ja) 2005-08-04
EP1497937A2 (en) 2005-01-19
MXPA04010330A (es) 2005-02-03
WO2003090443A3 (en) 2004-04-22
KR20040105869A (ko) 2004-12-16
JP4472360B2 (ja) 2010-06-02
KR100968928B1 (ko) 2010-07-14
BRPI0304532B1 (pt) 2018-02-06
CN1745526B (zh) 2010-09-29
EP1497937B1 (en) 2015-04-01
US20030198256A1 (en) 2003-10-23
AU2003221949A1 (en) 2003-11-03
EP1497937A4 (en) 2010-01-20

Similar Documents

Publication Publication Date Title
CN1745526A (zh) 用于同步音频和视频流的设备和方法
CN100442858C (zh) 分组网络中多媒体实时传输的唇同步方法及其装置
US10034037B2 (en) Fingerprint-based inter-destination media synchronization
RU2408158C2 (ru) Синхронизация звука и видео
CN100426715C (zh) 一种丢帧隐藏方法和装置
US20070071037A1 (en) Synchronization watermarking in multimedia streams
CN102810313B (zh) 音频解码方法及装置
CN1468001A (zh) 基于因特网的媒体流自适应传输方法
CN101917613A (zh) 一种流媒体采集编码服务系统
US20100034256A1 (en) Video frame/encoder structure to increase robustness of video delivery
CN113115080A (zh) 移动媒体间实时视频音频高精度同步平台
CN1977517A (zh) 在传输系统中发送分组的方法
KR20050094036A (ko) 최소의 두드러진 아티팩트들을 갖는 드리프트된 데이터스트림들의 재동기화
KR101741747B1 (ko) 실시간 광고 삽입이 가능한 영상 광고 처리 장치 및 방법
US20090190670A1 (en) Method for compensating timing mismatch in a/v data stream
US20080104659A1 (en) Prioritized real-time data transmission
Tasaka et al. The effectiveness of a QoE-based video output scheme for audio-video IP transmission
CN101076120A (zh) 在无嵌入时间戳的多媒体流的回放期间维持音频/视频同步的健壮系统
KR100864009B1 (ko) 오디오/비디오 동기화 방법
DE112011101955B4 (de) Videoanzeigevorrichtung
Park et al. An adaptive media playout for intra-media synchronization of networked-video applications
Bertoglio et al. Intermedia synchronization for videoconference over IP
JP2002152181A (ja) マルチメディアデータ通信方法およびマルチメディアデータ通信装置
CN101080006A (zh) 视频播放中视频帧的分级处理方法
CN101192895A (zh) 音频信号错误还原方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20100929

Termination date: 20190415

CF01 Termination of patent right due to non-payment of annual fee