CN1901656B - 视频和音频重放设备及方法、输出时刻改变设备及方法 - Google Patents

视频和音频重放设备及方法、输出时刻改变设备及方法 Download PDF

Info

Publication number
CN1901656B
CN1901656B CN2006100932213A CN200610093221A CN1901656B CN 1901656 B CN1901656 B CN 1901656B CN 2006100932213 A CN2006100932213 A CN 2006100932213A CN 200610093221 A CN200610093221 A CN 200610093221A CN 1901656 B CN1901656 B CN 1901656B
Authority
CN
China
Prior art keywords
video
audio
time
audio frequency
output information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN2006100932213A
Other languages
English (en)
Other versions
CN1901656A (zh
Inventor
小柳和幸
三原知浩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp NEC Display Solutions Ltd
Original Assignee
NEC Display Solutions Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Display Solutions Ltd filed Critical NEC Display Solutions Ltd
Publication of CN1901656A publication Critical patent/CN1901656A/zh
Application granted granted Critical
Publication of CN1901656B publication Critical patent/CN1901656B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2368Multiplexing of audio and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43079Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of additional data with content streams on multiple devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4341Demultiplexing of audio and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44004Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving video buffer management, e.g. video decoder buffer or video display buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440263Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by altering the spatial resolution, e.g. for displaying on a connected PDA
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8106Monomedia components thereof involving special audio data, e.g. different tracks for different languages

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Television Receiver Circuits (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

一种视频和音频重放设备及方法、输出时刻改变设备及方法。当接收到MPEG流时,时间信息转换器对流中的音频数据的PTS进行修正,以便在保持流中的视频数据的PTS不变的情况下,使输出音频声音的时刻延迟如下时间量,即由视频信号处理器执行视频信号处理所需要的时间量。因此,即使在执行诸如分辨率转换等视频信号处理时,也能够在不使用用于音频信号的任何延迟电路的情况下,在视频图像和音频声音之间进行同步。

Description

视频和音频重放设备及方法、输出时刻改变设备及方法
技术领域
本发明涉及视频和音频重放设备及方法、输出时刻改变设备及方法,特别涉及对基于诸如MPEG(运动图像专家组)流等视频和音频流的视频图像和声音(音频)进行重放的视频和音频重放设备及方法、输出时刻改变设备及方法。
背景技术
现有情况下,已经知道对基于视频和音频流的视频图像和声音进行重放的视频和音频重放设备。例如,已经知道对基于MPEG流的视频图像和声音进行重放的视频和音频重放设备。
如下所述执行MPEG流的传输和重放。
首先,来讲述用于传输MPEG流的发送器。
发送器对视频信号进行编码,以生成由多个视频帧形成的MPEG视频流。发送器还对与视频信号同步的音频信号进行编码,以生成由多个音频帧形成的MPEG音频流。
接着,发送器对MPEG视频流进行分割以生成视频数据。发送器将视频数据组合成PES(打包的基本流)包。发送器还对MPEG音频流进行分割以生成音频数据。发送器将音频数据组合成不包含视频数据的PES包。PES包包含用于在视频图像和声音(音频)之间进行同步的时间信息。
图1为示出了PES包的解释性示图。
如图1所示,PES包100包括PTS(显示时间戳)100a和DTS(解码马时间戳)100b。
DTS 100b表示PES包100中的数据应该被解码的时间(解码时刻)。PTS 100a表示PES包100中的数据应该被重放的时间(输出时刻)。
发送器将相同的值分配给包含一定视频帧的数据的PES包中的PTS以及包含与视频帧同步的音频帧的数据的PES包中的PTS。因此,可以使视频和音频同步。
之后,发送器发送MPEG流(视频和音频流),其中MPEG流包括包含视频数据的PES包和包含音频数据的PES包。因此,MPEG流包含具有表示相同输出时刻的PTS的多对视频和音频数据。
接下来,讲述对基于MPEG流的视频图像和声音音频进行重放的重放单元。
图2为示出了重放单元的框图。
在图2中,重放单元包括MPEG解码器1、显示单元2和音频输出单元3。
MPEG解码器1对从发送器发送的MPEG流(视频和音频流)进行解码,以生成视频和音频信号。MPEG解码器1将视频信号提供给显示单元2。MPEG解码器1将音频信号提供给音频输出单元3。
当接收到来自MPEG解码器1的视频信号时,显示单元2根据视频信号来显示视频图像。
当接收到来自MPEG解码器1的音频信号时,音频输出单元3根据音频信号来提供声音。
MPEG解码器1包括分离电路1a、缓冲器1b和1c、系统解码器1d、视频解码器1e和音频解码器1f。
当接收到来自发送器的MPEG流时,分离电路1a从MPEG流分离出视频数据、音频数据、PTS和DTS。分离电路1a将视频数据存储到缓冲器1b中。分离电路1a将音频数据存储到缓冲器1c中。分离电路1a将PTS和DTS供给到系统解码器1d。
缓冲器1b存储从分离电路1a供给的视频数据。
缓冲器1c存储从分离电路1a供给的音频数据。
系统解码器1d在由与缓冲器1b中的视频数据有关的DTS表示的时间将解码命令提供给视频解码器1e。系统解码器1d在由与视频数据有关的PTS表示的时间还将输出命令提供给视频解码器1e。
此外,系统解码器1d在由与缓冲器1c中的音频数据有关的DTS表示的同一时间将解码命令提供给音频解码器1f。系统解码器1d在由与音频数据有关的PTS表示的同一时间将输出命令提供给音频解码器1f。
当接收到解码命令时,视频解码器1e从缓冲器1b读取视频数据,并且然后解码视频数据以生成视频信号。然后,当接收到输出命令时,视频解码器1e将视频信号供给到显示单元2。
当接收到解码命令时,音频解码器1f从缓冲器1c读取音频数据,并且然后解码音频数据以生成音频信号。然后,当接收到输出命令时,音频解码器1f将音频信号提供给音频输出单元3。
日本专利申请未决公开2002-354419公开了一种对基于MPEG流的视频图像和声音进行重放的记录和重放设备。
该记录和重放设备被构造为根据特殊回放的回放速度来重写DTS和PTS值,以便在选择诸如快进等特殊回放模式时,能够提供声音和图像同步的流畅视频图像。该记录和重放设备以相同的值重写某一视频帧的PTS值和与该视频帧同步的音频帧的PTS值。
另一方面,诸如液晶显示器或等离子显示器等显示设备使用固定数目的像素。具有固定数目的像素的显示设备执行称作分辨率转换的视频信号处理,以便能够根据输入的视频信号来显示图像,即使输入信号的分辨率不同于其自身的分辨率。
图3为框图,示出了包括执行分辨率转换的显示单元2的重放设备。在图3中,与图2中相同的组件被标以相同的标号。
在图3中,显示单元2包括视频信号处理器2a、驱动电路2b和具有固定数目的像素的显示设备2c。视频信号处理器2a包括存储器2a1和分辨率转换电路2a2。音频输出单元3包括音频输出电路3a和扬声器3b。
视频信号处理器2a在接收到来自MPEG解码器1的视频信号时,根据显示设备2c的分辨率来转换视频信号的分辨率。
具体地说,分辨率转换电路2a2在接收到来自MPEG解码器1的视频信号时,将视频信号在存储器2a1中存储一段时间,然后从存储器2a1读取视频信号,并且然后转换视频信号的分辨率。
驱动电路2b根据其分辨率已经通过分辨率转换电路2a2进行了转换的视频信号来驱动显示设备2c,并且根据视频信号在显示设备2c上显示视频图像。
音频输出电路3a根据从MPEG解码器1接收的音频信号来驱动扬声器3b,并且根据音频信号来从扬声器3b提供声音。
视频信号处理器2a将视频信号在存储器2a1中存储一段时间,然后执行分辨率转换。因此,显示设备2c的显示时刻延迟了分辨率转换所需的时间量。
除了分辨率转换以外,视频信号处理器2a还执行视频信号处理。因此,在实际中,显示设备2c的显示时刻延迟了这些视频信号处理所需的时间量。
另一方面,音频输出单元3不像在视频信号处理中那样具有任何延迟。
因此,例如,即使MPEG解码器1根据DTS值和PTS值来同步视频图像和声音,但由于显示单元2执行的视频信号处理,使得视频图像的发生延迟到声音生成之后。
图4为时序图,用于解释视频的延迟。图4(a)示出了视频信号被写入存储器2a1的时序。图4(b)示出了从存储器2a1读出视频信号的时序。图4(c)示出了提供音频信号的时序。
如图4(a)和图4(c)所示,在执行视频信号处理之前,具有相同PTS值的视频帧(视频信号)和音频帧(音频信号)彼此同步。
不过,如图4(b)和图4(c)所示,在执行视频信号处理之后,对于具有相同PTS值的视频帧和音频帧,视频帧是在音频帧之后提供的(参见图4(c)中的延迟A)。
在日本专利申请未决公开2002-354419中讲述的记录和重放设备以相同的值对某一视频帧的PTS值和与该视频帧同步的音频帧的PTS值进行重写。因此,如果使用该记录和重放设备作为MPEG解码器1,则会发生由于视频信号处理而导致的视频图像延迟。
由于这个原因,在视频图像和声音之间具有延迟(timing lag),或者如果视频图像和声音必需同步,则需要为音频信号提供诸如延迟电路这样的额外硬件等。
发明内容
本发明的目的是提供一种视频和音频重放设备以及视频和音频重放方法,其能够在不使用用于音频信号的任何延迟电路的情况下,在视频图像和音频声音之间进行同步,即使在执行诸如分辨率转换等视频信号处理时。
为了实现上述目的,根据本发明的视频和音频重放设备对基于视频和音频流的视频图像和音频声音进行重放,其中视频和音频流包括具有表示输出视频图像的时刻的视频输出信息的视频数据,以及具有表示输出音频声音的时刻的音频输出信息的音频数据。视频和音频重放设备包括修正单元、解码器、显示单元和音频输出单元。
修正单元在接收到视频和音频流时,对音频输出信息进行修正,以便在保持视频输出信息不变的情况下,延迟输出音频声音的时刻。
解码器解码音频数据以生成音频信号,并且在由通过修正单元修正的音频输出信息表示的输出时刻提供音频信号,并且还解码视频数据以生成视频信号,并且在由视频输出信息表示的输出时刻提供视频信号。
显示单元显示与从解码器提供的视频信号相对应的视频图像。音频输出单元提供与从解码器提供的音频信号相对应的音频声音。
根据上述发明,音频输出信息被修正,以便在保持输出视频图像的时刻不变的情况下,延迟输出音频声音的时刻。
因此,音频输出信息的修正可以将音频声音延迟如下时间量,即因视频信号处理而使视频图像延迟的时间量。结果,可以在不使用用于音频信号的任何延迟电路的情况下,来同步视频图像和音频声音。
优选情况下,检测处理视频信号所需的时间,并且修正音频输出信息,从而将输出音频数据的时刻延迟检测到的处理时间。
例如,当处理诸如NTSC(国家电视标准委员会)信号和PAL(逐行倒相)信号等不同制式的视频信号时,NTSC信号的处理时间可能与PAL信号的处理时间不同。
根据上述发明,音频输出信息根据检测到的处理时间进行自动修正。因此,可以根据视频信号制式,通过自动修正音频输出信息来同步音频声音和视频图像。
优选情况下,处理是指视频信号的分辨率的转换。
根据上述发明,如果发生因分辨率转换而引起的视频图像延迟,则可以将输出音频声音的时刻延迟视频图像的延迟量。
优选情况下,视频和音频流是MPEG流,视频数据包括在MPEG视频流中,音频数据包括在MPEG音频流中,并且输出信息包括PTS。
根据上述发明,当基于MPEG流来重放视频图像和音频声音时,PTS被修正。因此,可以将输出音频声音的时刻延迟如下时间量,即视频图像因视频信号处理而延迟的时间量。因此,可以在不使用用于音频信号的任何延迟电路的情况下,来对视频图像和音频声音进行同步。
优选情况下,除了修正PTS以外,还对表示解码时刻的DTS进行修正。
根据上述发明,当基于MPEG流对视频图像和音频声音进行重放时,PTS和DTS被修正。因此,可以将输出音频声音的时刻延迟如下时间量,即视频图像因视频信号处理而延迟的时间量。因此,可以在不使用用于音频信号的任何延迟电路的情况下,来同步视频图像和音频声音。
此外,根据本发明的视频和音频重放设备对基于视频和音频流的视频图像和音频声音进行重放,其中视频和音频流包括具有表示输出视频图像的时刻的视频输出信息的视频数据,以及具有表示输出音频声音的时刻的音频输出信息的音频数据,并且视频和音频重放设备包括修正单元、解码器、显示单元和音频输出单元。
修正单元在接收到视频和音频流时,对音频输出信息和视频输出信息进行修正,以使音频声音延迟的时间量长于视频图像延迟的时间量。
解码器解码音频数据以生成音频信号,并且在由通过修正单元修正的音频输出信息表示的输出时刻提供音频信号,并且还解码视频数据以生成视频信号,并且在由通过修正单元修正的视频输出信息表示的输出时刻提供视频信号。
显示单元显示与从解码器提供的视频信号相对应的视频图像。
音频输出单元提供与从解码器提供的音频信号相对应的音频声音。
根据上述发明,音频输出信息和视频输出信息被修正,以使音频声音延迟的时间量长于视频图像延迟的时间量。
因此,可以将输出与视频图像有关的音频声音的时刻延迟如下时间量,即视频图像因视频信号处理而延迟的时间量。因此,可以在不使用用于音频信号的任何延迟电路的情况下,来对视频图像和音频声音进行同步。
由于音频输出信息和视频输出信息被修正,因此可以调节音频声音的输出时刻和视频图像的输出时刻。
为了实现前述目的,提供一种改变视频和音频流的输出时刻的设备,视频和音频流包括具有表示视频输出时刻的视频输出信息的视频数据,以及具有表示音频输出时刻的音频输出信息的音频数据,所述设备包括:修正单元,在接收到视频和音频流时,对音频输出信息进行修正,以便在保持视频输出信息不变的情况下,延迟音频输出时刻。
其中,在视频和音频流中的音频输出时刻被修正之后,对视频和音频流中包含的视频信号进行处理,并且,所述修正单元对音频输出信息进行修正,以使音频输出时刻延迟由处理视频信号所需的时间量。
其中,所述对视频信号进行处理包括执行视频信号的分辨率的转换。
其中,视频和音频流是MPEG流;视频数据包括在MPEG视频流中;音频数据包括在MPEG音频流中;并且音频输出信息和视频输出信息包括PTS。
其中,所述修正单元在接收到MPEG流时,还对音频数据中的表示解码时刻的DTS进行修正。
为了实现上述目的,提供一种改变视频和音频流的输出时刻的方法,其中视频和音频流包括具有表示视频输出时刻的视频输出信息的视频数据,以及具有表示音频输出时刻的音频输出信息的音频数据,所述方法包括:a)接收视频和音频流;以及b)当接收到视频和音频流时,对音频输出信息进行修正,以便在保持视频输出信息不变的情况下,延迟音频输出时刻。
其中,上述方法还包括:在视频和音频流中的音频输出时刻被修正之后,对视频和音频流中包含的视频信号进行处理,其中所述步骤b)包括:对音频输出信息进行修正,以使音频输出时刻延迟对视频信号进行处理所需的时间量。
其中,所述对视频信号进行处理包括执行视频信号的分辨率的转换。
其中,视频和音频流是MPEG流;视频数据包括在MPEG视频流中;音频数据包括在MPEG音频流中;并且音频输出信息和视频输出信息包括PTS。
其中,所述步骤b)还包括:当接收到MPEG流时,对表示音频数据的解码时刻的DTS进行修正。
下面参考示出了本发明的实例的附图来进行讲述,将使本发明的上述和其他目的、特征和优点更加清楚。
附图说明
图1为示出了PES包的解释性视图。
图2为示出了重放单元的框图。
图3为示出了重放设备的框图。
图4为解释视频延迟的时序图。
图5为框图,示出了根据本发明的一个实施例的视频和音频重放设备。
图6为框图,示出了时间信息转换器4的一个实例。
图7为框图,示出了根据本发明的另一个实施例的视频和音频重放设备。
图8为框图,示出了时间信息转换器40的一个实例。
具体实施方式
图5为框图,示出了根据本发明的一个实施例的视频和音频重放设备。在图5中,与图3中所示相同的组件被标以相同的标号。
在该视频和音频重放设备中,为图3所示的重放设备添加了时间信息转换器4。
在图5中,视频和音频重放设备包括MPEG解码器1、显示单元2、音频输出单元3和时间信息转换器4。
时间信息转换器4是修正单元的一个实例。时间信息转换器4接收MPEG流(视频和音频流)。
MPEG流包括包含视频数据和表示预定值的PTS(视频输出信息)的PES包,以及包含音频数据和表示预定值的PTS(音频输出信息)的PES包。
因此,MPEG流包含有具有表示相同输出时刻的PTS的多对视频和音频数据。
时间信息转换器4在接收到MPEG流时,改变流中的音频数据的PTS,以使输出与流中的音频数据相对应的音频声音的时刻被延迟。
例如,时间信息转换器4改变MPEG流中的音频数据的PTS,以使输出音频声音的时刻延迟如下时间量,即由视频信号处理器2a执行视频信号处理所花费的处理时间量。具体地说,时间信息转换器4将该处理时间与音频数据的PTS值相加。
时间信息转换器4保持流中的视频数据的PTS不变。
图6为框图,示出了时间信息转换器4的一个实例。时间信息转换器4不应该局限于图6所示的结构,而是可以根据需要进行改变。
在图6中,时间信息转换器4包括输入单元4a、存储器4b和加法器4c。
输入单元4a接收到要与音频数据的PTS值相加的值。例如,输入单元4a从用户接收该值。
在本实施例中,输入单元4a接收表示由视频信号处理器2a执行视频信号处理所花费的处理时间量的处理时间信息。由输入单元4a接收的值可以根据需要而改变。
存储器4b存储通过输入单元4a接收到的值。
加法器4c将存储器4b中的值与音频数据的PTS值相加。从而,延迟了输出音频声音的时刻。
在本实施例中,加法器4c还将存储器4b中的值与音频数据的DTS值相加。因此,解码音频数据的时刻也被延迟。
时间信息转换器4为MPEG解码器1提供MPEG流,该MPEG流具有音频数据中的修正的PTS和DTS。
MPEG解码器1在接收到MPEG流时,在由视频数据中的DTS指示的时刻解码流中的视频数据,以生成视频信号。
然后,MPEG解码器1在由视频数据中的PTS表示的时刻为显示单元2提供视频信号。
当MPEG解码器1接收到MPEG流时,MPEG解码器1在由通过时间信息转换器4修正的音频数据中的DTS指示的时刻,对流中的音频数据进行解码,以生成音频信号。
然后,MPEG解码器1在由通过时间信息转换器4修正的音频数据中的PTS指示的时刻,为音频输出单元3提供音频信号。
由于时间信息转换器4对音频数据的PTS值进行修正以延迟输出音频信号的时刻,因此从MPEG解码器1供给的音频信号是在提供了与音频信号同步的视频信号之后提供的。
分辨率转换电路2a2将在比音频信号的时刻更早的时刻提供的视频信号存储到存储器2a1中。然后,分辨率转换电路2a2根据显示设备2c的分辨率来对存储在存储器2a1中的视频信号的分辨率进行转换。
分辨率转换电路2a2为驱动电路2b提供具有转换的分辨率的视频信号。
该时刻,具体地说,即分辨率转换电路2a2提供视频信号的时刻,对应于由音频数据的PTS值表示的输出时刻。因此,MPEG解码器1在该时刻提供音频信号。
因此,驱动电路2b接收视频信号的时刻与音频输出电路3a接收音频信号的时刻同步。
驱动电路2b根据具有由分辨率转换电路2a2转换的分辨率的视频信号来驱动显示设备2c,并且在显示设备2c上显示对应于视频信号的视频图像。
音频输出电路3a根据从MPEG解码器1接收到的音频信号来驱动扬声器3b,并且从扬声器3b提供对应于该音频信号的音频声音。
结果,视频图像和音频声音彼此同步。
接下来,将讲述操作。
例如,用户将表示由视频信号处理器2a进行视频信号处理所花费的处理时间量的处理时间信息输入到输入单元4a。
输入单元4a在接收到处理时间信息时,将处理时间信息存储到存储器4b中。
加法器4c在接收到MPEG流时,将由处理时间信息表示的处理时间与MPEG流中的音频数据的PTS和DTS相加。
加法器4c为MPEG解码器1(具体地说,是分离电路1a)提供在音频数据中具有修正的PTS和DTS的MPEG流。
分离电路1a将视频数据、音频数据、PTS和DTS从自加法器4c发送的MPEG流中分离出来。
分离电路1a将视频数据存储到缓冲器1b中。分离电路1a将音频数据存储到缓冲器1c中。此外,分离电路1a为系统解码器1d提供PTS和DTS。
系统解码器1d在由与存储在缓冲器1b中的视频数据有关的DTS表示的时刻,为视频解码器1e提供解码命令。系统解码器1d在由与视频数据有关的PTS表示的时刻,为视频解码器1e提供输出命令。
此外,系统解码器1d在由与存储在缓冲器1c中的音频数据有关的DTS表示的时刻,为音频解码器1f提供解码命令。系统解码器1d在由与音频数据有关的PTS表示的时刻,为音频解码器1f提供输出命令。
视频解码器1e在接收到来自系统解码器1d的解码命令时,从缓冲器1b读取视频数据,并且然后解码视频数据以生成视频信号。此后,当视频解码器1e接收到来自系统解码器1d的输出命令时,视频解码器1e为显示单元2提供视频信号。
另一方面,音频解码器1f在接收到来自系统解码器1d的解码命令时,从缓冲器1c读取音频数据,并且然后解码音频数据以生成音频信号。此后,当音频解码器1f接收到来自系统解码器1d的输出命令时,音频解码器为音频输出单元3提供音频信号。
由于时间信息转换器4为了延迟输出音频信号的时刻而改变了音频数据中的PTS值,因此由MPEG解码器1提供的音频信号是在提供了与音频信号同步的视频信号之后提供的。
显示单元2中的分辨率转换电路2a2将在比音频信号的时刻更早的时刻提供的视频信号存储在存储器2a1中,然后根据显示设备2c的分辨率来转换视频信号的分辨率。
分辨率转换电路2a2为驱动电路2b提供具有转换的分辨率的视频信号。
在该时刻,具体地说,在分辨率转换电路2a2提供视频信号的时刻,MPEG解码器1提供音频信号。
因此,驱动电路2b接收到视频信号的时刻与音频输出电路3a接收音频信号的时刻同步。
驱动电路2b根据具有由分辨率转换电路2a2转换的分辨率的视频信号来驱动显示设备2c,并且在显示设备2c上显示对应于视频信号的视频图像。
音频输出电路3a根据从MPEG解码器1接收到的音频信号来驱动扬声器3b,并且由扬声器3b提供对应于音频信号的音频声音。
结果,视频图像和音频声音彼此同步。
根据本实施例,时间信息转换器4修正音频数据中的PTS(音频输出信息),以便延迟输出音频声音的时刻。时间信息转换器4保持视频数据中的PTS不变。
因此,音频数据中的PTS的修正可以将输出音频声音的时刻延迟如下时间量,即视频图像由于视频信号处理而延迟的时间量。结果,可以在不使用用于音频信号的任何延迟电路的情况下,来同步视频图像和音频声音。
由于音频数据中的PTS为数字值,因此可以容易地设置音频声音的时间延迟。
此外,根据本实施例,使用MPEG流来作为视频和音频流,并且在使用PTS作为音频输出信息和视频输出信息时,视频数据包含在MPEG视频流中,音频数据包含在MPEG音频流中。
在这种情况下,当基于MPEG流对视频图像和音频声音进行重放时,对PTS进行修正。因此,可以将输出音频声音的时刻延迟如下时间量,即视频图像由于视频信号处理而延迟的时间量。
因此,当基于MPEG流对视频图像和音频声音进行重放时,可以在不使用用于音频信号的任何延迟电路的情况下,来同步视频图像和音频声音。
此外,在本实施例中,时间信息转换器4除了修正音频数据中的PTS之外,还修正音频数据中的DTS。
在这种情况下,当基于MPEG流对视频图像和音频声音进行重放时,对PTS和DTS二者都进行修正。因此,可以将输出音频声音的时刻延迟如下时间量,即视频图像由于视频信号处理而延迟的时间量。此外,还可以根据音频信号的输出时刻来调节音频数据的解码时刻。
因此,当基于MPEG流对视频图像和音频声音进行重放时,可以在不使用用于音频信号的任何延迟电路的情况下,来同步视频图像和音频声音。
接下来,讲述根据本发明的另一实施例。
图7为框图,示出了根据本发明的另一个实施例的视频和音频重放设备。在图7中,如图5所示的组件被标以相同的标号。
在图7所示的视频和音频重放设备中,向如图5所示的视频和音频重放设备添加了检测器2a3。
检测器2a3检测由视频信号处理器2a执行视频信号处理所需要的时间量。在本实施例中,检测器2a3检测由分辨率转换电路2a2执行分辨率转换所需要的时间量。检测器2a3不仅可以检测分辨率转换所需要的时间量,而且可以检测由视频信号处理器2a执行所有视频信号处理所需要的时间量。
当视频信号处理器2a处理诸如NTSC信号和PAL信号等不同制式的视频信号时,例如,由视频信号处理器2a执行的处理时间可以根据要处理的信号的制式的不同而不同。检测器2a3检测该处理时间。
检测器2a3为时间信息转换器4(具体地说,是输入单元4a)提供由检测到的时间表示的延迟信息。
输入单元4a在接收到延迟信息时,将延迟信息存储到存储器4b中。
加法器4c在接收到MPEG流时,将由存储器4b中的延迟信息表示的时间与流中的音频数据中的PTS和DTS相加。加法器4c为MPEG解码器1(具体地说,是分离电路1a)提供具有修正的PTS和DTS的MPEG流。
根据本实施例,时间信息转换器4对音频数据中的PTS进行修正,以使输出音频声音的时刻延迟如下时间量,即由视频信号处理器2a检测到的处理时间量。
在这种情况下,可以根据随视频信号的制式而变化的处理时间量来自动修正音频输出信息。因此,可以同步音频声音和视频图像,即使视频信号的制式发生了改变。
此外,要存储到存储器4b中的值可以被自动修正为合适的值。
此外,在本实施例中,视频信号处理器2a检测进行视频信号的分辨率转换所需要的时间量。
在这种情况下,如果由于进行分辨率转换而使视频图像延迟,则可以将输出音频声音的时刻延迟与视频图像的延迟相同的时间量。
可以对时间信息转换器4进行如下修正。
时间信息转换器4在接收到MPEG流时,修正音频数据中的PTS和视频数据中的PTS,以使音频声音延迟的时间量长于视频图像延迟的时间量。
时间信息转换器4为MPEG解码器1提供MPEG流,该MPEG流具有音频数据中的修正的PTS和视频数据中的修正的PTS。
图8为框图,示出了时间信息转换器40,作为时间信息转换器4的修正实例。在图8中,与图6中所述相同的组件被标以相同的标号。时间信息转换器4的修正实例可以根据需要进行修改,并不限于如图8所示的构造。
在图8中,时间信息转换器40包括输入单元4a、存储器4b、存储器40a和加法器40b。
存储器40a存储表示视频图像的时间延迟的信息。
在接收到MPEG流时,加法器40b将由存储器40a中的信息表示的时间延迟与流中的视频数据的PTS和DTS相加。加法器40b将该时间延迟和由存储器4b中的延迟信息表示的处理时间与流中的音频数据中的PTS和DTS相加。
加法器40b为MPEG解码器1(具体地说,是分离电路1a)提供具有修正的PTS和DTS的MPEG流。
在这种情况下,MPEG解码器1的操作如下。
MPEG解码器1在接收到来自时间信息转换器40的MPEG流时,在由通过加法器40b修正的视频数据中的DTS表示的时刻,对流中的视频数据进行解码,以生成视频信号。
然后,MPEG解码器1在由通过加法器40b修正的视频数据中的PTS表示的时刻,为显示单元2提供视频信号,并且将与该视频信号相对应的视频图像显示在显示单元2上。
此外,MPEG解码器1在接收到MPEG流时,在由通过加法器40b修正的音频数据中的DTS表示的时刻,对流中的音频数据进行解码,以生成音频信号。
然后,MPEG解码器1在由通过加法器40b修正的音频数据中的PTS表示的时刻,为音频输出单元3提供音频信号,并且从音频输出单元3供给与该音频信号相对应的音频声音。
根据该修正例子,时间信息转换器40对音频数据中的PTS和视频数据中的PTS进行修正,以使音频声音延迟的时间量长于视频图像延迟的时间量。
在这种情况下,对视频数据中的PTS和音频数据中的PTS二者都进行修正。因此,可以将输出与视频图像有关的音频声音的时刻延迟如下时间量,即视频图像由于视频信号处理而延迟的时间量。因此,可以在不使用用于音频信号的任何延迟电路的情况下,来同步视频图像和音频声音。
由于音频数据中的PTS和视频数据中的PTS被修正,因此可以调节音频和视频输出时刻。
尽管使用特定术语讲述了本发明的优选实施例,但是这种讲述只是用于解释目的,并且可以理解,在不偏离权利要求的精神和范围的情况下,可以对本发明的实施例进行更改和变化。

Claims (22)

1.一种视频和音频重放设备,用于对基于视频和音频流的视频图像和音频声音进行重放,其中视频和音频流包括视频数据和音频数据,所述视频数据包括表示视频输出时刻的视频输出信息,所述音频数据包括表示音频输出时刻的音频输出信息,所述设备包括:
修正单元,在接收到视频和音频流时,对音频输出信息和视频输出信息进行修正,以便音频声音被延迟的时间量长于视频图像被延迟的时间量;
解码器,解码音频数据以生成音频信号,并在由通过所述修正单元修正的音频输出信息表示的音频输出时刻提供音频信号,并且解码视频数据以生成视频信号,并在由所述修正单元修正的视频输出信息表示的视频输出时刻提供视频信号;
显示单元,显示与从所述解码器提供的视频信号相对应的视频图像;
音频输出单元,提供与从所述解码器提供的音频信号相对应的声音;以及
视频信号处理器,用于处理视频信号;
其中所述修正单元通过将第一时间加到表示视频输出时刻的视频显示时间戳(VPTS)来修正视频输出信息,使得视频输出时刻延迟第一时间,并且通过将第二时间加到表示音频输出时刻的音频显示时间戳(APTS)来修正音频输出信息,使得音频输出时刻延迟第二时间,其中所述第二时间是通过将第一时间加上用于处理视频信号所需的时间量而得到的。
2.如权利要求1所述的视频和音频重放设备,其中所述显示单元包括视频信号处理器,用于处理视频信号并且还用于检测视频信号的处理所需的时间量;并且
所述修正单元将由所述视频信号处理器检测到的时间量添加到音频输出信息,以使音频输出时刻和视频输出时刻同步。
3.如权利要求2所述的视频和音频重放设备,其中所述视频信号处理器执行视频信号的分辨率的转换。
4.如权利要求1所述的视频和音频重放设备,其中视频和音频流是MPEG流;
视频数据包括在MPEG视频流中;
音频数据包括在MPEG音频流中;并且
音频输出信息和视频输出信息包括PTS。
5.如权利要求4所述的视频和音频重放设备,其中所述修正单元在接收到MPEG流时,还对音频数据中的表示解码时刻的DTS进行修正。
6.一种视频和音频重放设备,用于对基于视频和音频流的视频图像和音频声音进行重放,其中视频和音频流包括具有表示视频输出时刻的视频输出信息的视频数据,以及具有表示音频输出时刻的音频输出信息的音频数据,所述设备包括:
修正装置,在接收到视频和音频流时,对音频输出信息和视频输出信息进行修正,以使音频输出时刻与视频输出时刻相同;
解码装置,解码音频数据以生成音频信号,并在由通过所述修正装置修正的音频输出信息表示的音频输出时刻提供音频信号,并且解码视频数据以生成视频信号,并在由通过所述修正装置修正的视频输出信息表示的视频输出时刻提供视频信号;
显示装置,显示与从所述解码装置提供的视频信号相对应的视频图像;
音频输出装置,供给与从所述解码装置提供的音频信号相对应的声音;以及
视频信号处理器,用于处理视频信号;
其中所述修正单元通过将第一时间加到表示视频输出时刻的视频显示时间戳(VPTS)来修正视频输出信息,使得视频输出时刻延迟第一时间,并且通过将第二时间加到表示音频输出时刻的音频显示时间戳(APTS)来修正音频输出信息,使得音频输出时刻延迟第二时间,其中所述第二时间是通过将第一时间加上用于处理视频信号所需的时间量而得到的。
7.一种由视频和音频重放设备实施的视频和音频重放方法,用于对基于视频和音频流的视频图像和声音进行重放,其中视频和音频流包括具有表示视频输出时刻的视频输出信息的视频数据,以及具有表示音频输出时刻的音频输出信息的音频数据,所述方法包括:
a)接收视频和音频流;
b)当接收到视频和音频流时,对音频输出信息和视频输出信息进行修正,以便音频声音被延迟的时间量长于视频图像被延迟的时间量;
c)解码视频数据以生成视频信号,并且在由修正的视频输出信息表示的视频输出时刻提供视频信号;
d)解码音频数据以生成音频信号,并且在由修正的音频输出信息表示的音频输出时刻提供音频信号;
e)显示与提供的视频信号相对应的视频图像;
f)供给与提供的音频信号相对应的声音;以及
对视频信号进行处理;
其中通过将第一时间加到表示视频输出时刻的视频显示时间戳(VPTS)来修正视频输出信息,使得视频输出时刻延迟第一时间,并且通过将第二时间加到表示音频输出时刻的音频显示时间戳(APTS)来修正音频输出信息,使得音频输出时刻延迟第二时间,其中所述第二时间是通过将第一时间加上用于处理视频信号所需的时间量而得到的。
8.如权利要求7所述的视频和音频重放方法,其中步骤e)包括:
g)处理提供的视频信号;
h)检测对提供的视频信号进行处理所需的时间量;
i)显示与处理的视频信号相对应的视频图像,并且
步骤b)包括:
j)将时间量添加到音频输出信息,以使音频输出时刻和视频输出时刻同步。
9.如权利要求8所述的视频和音频重放方法,其中步骤g)包括:
k)执行对视频信号的分辨率进行转换的处理。
10.如权利要求7所述的视频和音频重放方法,其中视频和音频流是MPEG流;
视频数据包括在MPEG视频流中;
音频数据包括在MPEG音频流中;并且
音频输出信息和视频输出信息包括PTS。
11.如权利要求10所述的视频和音频重放方法,其中步骤b)包括:
i)当接收到MPEG流时,还对表示音频数据的解码时刻的DTS进行修正。
12.一种由视频和音频重放设备实施的视频和音频重放方法,用于对基于视频和音频流的视频图像和音频声音进行重放,其中视频和音频流包括具有表示视频输出时刻的视频输出信息的视频数据,以及具有表示音频输出时刻的音频输出信息的音频数据,所述方法包括:
接收视频和音频流;
在接收到视频和音频流时,对音频输出信息和视频输出信息进行修正,以使音频输出时刻与视频输出时刻相同;
解码视频数据以生成视频信号,并且在由修正的视频输出信息表示的视频输出时刻提供视频信号;
解码音频数据以生成音频信号,并且在由修正的音频输出信息表示的音频输出时刻提供音频信号;
显示与提供的视频信号相对应的视频图像;
供给与提供的音频信号相对应的声音;以及
对视频信号进行处理;
其中通过将第一时间加到表示视频输出时刻的视频显示时间戳(VPTS)来修正视频输出信息,使得视频输出时刻延迟第一时间,并且通过将第二时间加到表示音频输出时刻的音频显示时间戳(APTS)来修正音频输出信息,使得音频输出时刻延迟第二时间,其中所述第二时间是通过将第一时间加上用于处理视频信号所需的时间量而得到的。
13.一种改变视频和音频流的输出时刻的设备,视频和音频流包括具有表示视频输出时刻的视频输出信息的视频数据,以及具有表示音频输出时刻的音频输出信息的音频数据,所述设备包括:
修正单元,在接收到视频和音频流时,对音频输出信息和视频输出信息进行修正,以便音频声音被延迟的时间量长于视频图像被延迟的时间量;
其中所述修正单元通过将第一时间加到表示视频输出时刻的视频显示时间戳(VPTS)来修正视频输出信息,使得视频输出时刻延迟第一时间,并且通过将第二时间加到表示音频输出时刻的音频显示时间戳(APTS)来修正音频输出信息,使得音频输出时刻延迟第二时间,其中所述第二时间是通过将第一时间加上用于处理视频信号所需的时间量而得到的。
14.如权利要求13所述的设备,其中,在视频和音频流中的音频输出时刻被修正之后,对视频和音频流中包含的视频信号进行处理,并且,
所述修正单元将对视频信号进行处理所需的时间量添加到音频输出信息,以使音频输出时刻和视频输出时刻同步。
15.如权利要求14所述的设备,其中所述对视频信号进行处理包括执行视频信号的分辨率的转换。
16.如权利要求13所述的设备,其中视频和音频流是MPEG流;
视频数据包括在MPEG视频流中;
音频数据包括在MPEG音频流中;并且
音频输出信息和视频输出信息包括PTS。
17.如权利要求16所述的设备,其中所述修正单元在接收到MPEG流时,还对音频数据中的表示解码时刻的DTS进行修正。
18.一种改变视频和音频流的输出时刻的方法,其中视频和音频流包括具有表示视频输出时刻的视频输出信息的视频数据,以及具有表示音频输出时刻的音频输出信息的音频数据,所述方法包括:
a)接收视频和音频流;以及
b)当接收到视频和音频流时,对音频输出信息和视频输出信息进行修正,以便音频声音被延迟的时间量长于视频图像被延迟的时间量;
其中通过将第一时间加到表示视频输出时刻的视频显示时间戳(VPTS)来修正视频输出信息,使得视频输出时刻延迟第一时间,并且通过将第二时间加到表示音频输出时刻的音频显示时间戳(APTS)来修正音频输出信息,使得音频输出时刻延迟第二时间,其中所述第二时间是通过将第一时间加上用于处理视频信号所需的时间量而得到的。
19.如权利要求18所述的方法,还包括:
在视频和音频流中的音频输出时刻被修正之后,对视频和音频流中包含的视频信号进行处理,
其中,所述步骤b)包括:将对视频信号进行处理所需的时间量添加到音频输出信息,以使音频输出时刻和视频输出时刻同步。
20.如权利要求19所述的方法,其中,所述对视频信号进行处理包括执行视频信号的分辨率的转换。
21.如权利要求18所述的方法,其中视频和音频流是MPEG流;
视频数据包括在MPEG视频流中;
音频数据包括在MPEG音频流中;并且
音频输出信息和视频输出信息包括PTS。
22.如权利要求21所述的方法,其中所述步骤b)还包括:当接收到MPEG流时,对表示音频数据的解码时刻的DTS进行修正。
CN2006100932213A 2005-07-19 2006-06-23 视频和音频重放设备及方法、输出时刻改变设备及方法 Expired - Fee Related CN1901656B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2005208247 2005-07-19
JP2005-208247 2005-07-19
JP2005208247A JP4991129B2 (ja) 2005-07-19 2005-07-19 映像音声再生装置および映像音声再生方法

Publications (2)

Publication Number Publication Date
CN1901656A CN1901656A (zh) 2007-01-24
CN1901656B true CN1901656B (zh) 2012-10-03

Family

ID=37657369

Family Applications (2)

Application Number Title Priority Date Filing Date
CN2006100932213A Expired - Fee Related CN1901656B (zh) 2005-07-19 2006-06-23 视频和音频重放设备及方法、输出时刻改变设备及方法
CNU2006201213326U Expired - Lifetime CN2927556Y (zh) 2005-07-19 2006-06-26 视频和音频重放设备、输出时刻改变设备

Family Applications After (1)

Application Number Title Priority Date Filing Date
CNU2006201213326U Expired - Lifetime CN2927556Y (zh) 2005-07-19 2006-06-26 视频和音频重放设备、输出时刻改变设备

Country Status (3)

Country Link
US (1) US8620134B2 (zh)
JP (1) JP4991129B2 (zh)
CN (2) CN1901656B (zh)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4544190B2 (ja) * 2006-03-31 2010-09-15 ソニー株式会社 映像音声処理システム、映像処理装置、音声処理装置、映像音声の出力装置および映像と音声の同期処理方法
US8027560B2 (en) * 2007-02-05 2011-09-27 Thales Avionics, Inc. System and method for synchronizing playback of audio and video
US20120219069A1 (en) * 2011-02-28 2012-08-30 Chong Soon Lim Methods and apparatuses for encoding and decoding images of a plurality of views using multiview video coding standard and mpeg-2 video standard
US9269399B2 (en) * 2011-06-13 2016-02-23 Voxx International Corporation Capture, syncing and playback of audio data and image data
CN103517044B (zh) * 2012-06-25 2016-12-07 鸿富锦精密工业(深圳)有限公司 视频会议装置及其唇形同步的方法
CN103581604A (zh) * 2012-08-01 2014-02-12 希姆通信息技术(上海)有限公司 视频通话装置及方法
EP2880867B1 (en) * 2012-08-01 2018-06-13 Thomson Licensing Method and apparatus for adapting audio delays to picture frame rates
JP5933744B2 (ja) * 2012-10-30 2016-06-15 三菱電機株式会社 映像音声再生システム、映像表示装置、及び音声出力装置
CN104125493A (zh) * 2013-04-24 2014-10-29 鸿富锦精密工业(深圳)有限公司 影音同步系统及方法
CN103731716B (zh) * 2014-01-08 2017-01-18 珠海全志科技股份有限公司 一种ts流播放中的音视频同步方法
CN106302375B (zh) * 2015-06-29 2019-07-16 成都鼎桥通信技术有限公司 去除流媒体播放器时延累积的方法及装置
CN106470291A (zh) * 2015-08-19 2017-03-01 飞思卡尔半导体公司 从音频/视频解码器中的时间同步中的中断中恢复
CN106101694A (zh) * 2016-06-12 2016-11-09 深圳创维-Rgb电子有限公司 一种自动校准唇音同步的方法、装置和系统
US10798270B2 (en) 2017-03-10 2020-10-06 Sling Media Pvt. Ltd. Synchronizing media in multiple devices
US11887631B2 (en) * 2019-11-12 2024-01-30 Sony Group Corporation Information processing device and information processing method
CN111479154B (zh) * 2020-04-03 2022-03-22 海信视像科技股份有限公司 音画同步的实现设备、方法及计算机可读存储介质
CN111757158A (zh) * 2020-06-29 2020-10-09 北京百度网讯科技有限公司 音视频同步播放方法、装置、设备和存储介质
CN117241080A (zh) * 2022-06-06 2023-12-15 中兴通讯股份有限公司 音视频处理方法及其装置、存储介质
WO2024025076A1 (ko) * 2022-07-26 2024-02-01 삼성전자 주식회사 외부 객체로부터 출력된 소리 신호를 이용하여 볼륨을 조절하기 위한 전자 장치 및 그 방법

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5652627A (en) * 1994-09-27 1997-07-29 Lucent Technologies Inc. System and method for reducing jitter in a packet-based transmission network
TR200003260T2 (tr) * 1998-05-08 2001-01-22 Koninklijke Philips Electronics N.V. Sıkıştırılmış dijital audio ve videoyu hafızaya alma yöntemi
JP2001251616A (ja) * 2000-03-02 2001-09-14 Media Glue Corp 多重化音響・動画圧縮符号化信号変換方法、装置および変換プログラムを記録した媒体
JP2001291342A (ja) * 2000-04-06 2001-10-19 Matsushita Electric Ind Co Ltd ディジタル情報記録再生装置
US6738427B2 (en) * 2000-09-15 2004-05-18 International Business Machines Corporation System and method of processing MPEG streams for timecode packet insertion
JP2002101395A (ja) * 2000-09-21 2002-04-05 Sony Corp 多重化装置及び方法、並びに、復号装置及び方法
US6724825B1 (en) * 2000-09-22 2004-04-20 General Instrument Corporation Regeneration of program clock reference data for MPEG transport streams
JP4208398B2 (ja) * 2000-10-05 2009-01-14 株式会社東芝 動画像復号再生装置、動画像復号再生方法及びマルチメディア情報受信装置
JP2002176643A (ja) 2000-12-06 2002-06-21 Hitachi Kokusai Electric Inc 映像・音声復号処理における映像・音声の同期再生方式
JP2002344898A (ja) 2001-05-17 2002-11-29 Pioneer Electronic Corp 映像表示装置、音声調整装置及び映像音声出力装置、並びに映像音声同期方法
JP2002354419A (ja) 2001-05-25 2002-12-06 Sony Corp 記録再生装置および方法、記録媒体、並びにプログラム
US7068719B2 (en) * 2001-06-01 2006-06-27 General Instrument Corporation Splicing of digital video transport streams
US20030066094A1 (en) * 2001-09-29 2003-04-03 Koninklijke Philips Electronics N.V. Robust method for recovering a program time base in MPEG-2 transport streams and achieving audio/video sychronization
JP3764878B2 (ja) 2001-10-18 2006-04-12 松下電器産業株式会社 映像音声再生装置,映像音声再生方法,プログラム,および媒体
JP2003169292A (ja) * 2001-11-30 2003-06-13 Victor Co Of Japan Ltd アフレコ装置、コンピュータプログラム、記録媒体、伝送方法及び再生装置
JP2003199045A (ja) * 2001-12-26 2003-07-11 Victor Co Of Japan Ltd 情報記録信号の生成方法、情報信号の再生方法、情報信号の伝送方法、情報記録信号生成装置、情報信号再生装置、情報信号伝送装置、情報信号記録媒体、及び情報信号伝送用プログラム
US7315622B2 (en) * 2002-06-27 2008-01-01 Nxp B.V. Robust method for achieving audio/video synchronization in MPEG decoders in personal video recording applications
US8290353B2 (en) 2003-02-27 2012-10-16 Panasonic Corporation Data processing device and method
JP2004289295A (ja) * 2003-03-19 2004-10-14 Fujitsu Ltd データ処理システム、データ処理装置及びデータ処理方法
KR101263522B1 (ko) * 2004-09-02 2013-05-13 소니 주식회사 콘텐츠 수신 장치, 비디오 오디오 출력 타이밍 제어 방법및 콘텐츠 제공 시스템
JP4375313B2 (ja) * 2005-09-16 2009-12-02 セイコーエプソン株式会社 画像音声出力システム、画像音声データ出力装置、音声処理プログラム、及び記録媒体

Also Published As

Publication number Publication date
JP4991129B2 (ja) 2012-08-01
US20070019739A1 (en) 2007-01-25
CN1901656A (zh) 2007-01-24
US8620134B2 (en) 2013-12-31
JP2007028261A (ja) 2007-02-01
CN2927556Y (zh) 2007-07-25

Similar Documents

Publication Publication Date Title
CN1901656B (zh) 视频和音频重放设备及方法、输出时刻改变设备及方法
US5815634A (en) Stream synchronization method and apparatus for MPEG playback system
US8004609B2 (en) Amplifier, correcting method of correcting difference in processing time between video signal and audio signal, and correcting system
JP4066058B2 (ja) マルチメディア・システムのためのプログラマブルなオーディオ−ビデオ同期方法および装置
JPH10511513A (ja) Mpeg再生システムにおいてオーディオとビデオを同期するための方法及び装置
JP3344379B2 (ja) オーディオ・ビデオ同期制御装置及びその同期制御方法
JP2004236338A (ja) ビデオデータと補助データの読み出し同期装置及び処理及び関連製品
US20100254455A1 (en) Image processing apparatus, image processing method, and program
JP2013125141A (ja) 表示装置、表示方法、送信装置および送信方法
US8238446B2 (en) Method and apparatus for reproducing digital broadcasting
JP2006190213A (ja) メディア再生装置
EP1231791A2 (en) Method and apparatus for synchronously reproducing audio and video data
US6122020A (en) Frame combining apparatus
KR20060052424A (ko) 음성 신호 지연 장치
JP4690965B2 (ja) データ記録再生装置
JP2008054159A (ja) 映像音声多重化装置
JP2001231035A (ja) 復号同期制御装置、復号装置、及び復号同期制御方法
US20180220182A1 (en) Recording apparatus, recording method, and program
JP2007201797A (ja) 伝送システム及び映像出力方法
JP4374957B2 (ja) オーディオ/ビデオデジタルデコーダの制御方法
JP2006332967A (ja) データ伝送装置
JP2006339857A (ja) 復号化装置
JP2003339023A (ja) 動画再生装置
JP3951430B2 (ja) 映像信号符号化システム
JPH07193787A (ja) 映像信号処理装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
ASS Succession or assignment of patent right

Owner name: NEC DISPLAY SOLUTIONS CO., LTD.

Free format text: FORMER OWNER: NEC VIDEO TECH. K.K.

Effective date: 20070720

C41 Transfer of patent application or patent right or utility model
TA01 Transfer of patent application right

Effective date of registration: 20070720

Address after: Tokyo, Japan, Japan

Applicant after: NEC Display Solutions Ltd.

Address before: Tokyo, Japan

Applicant before: Japan Electrical Vision Technology Co., Ltd.

C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20121003

Termination date: 20160623