CN102291523B - 用于对数字服务的不同部分进行同步的设备和方法 - Google Patents
用于对数字服务的不同部分进行同步的设备和方法 Download PDFInfo
- Publication number
- CN102291523B CN102291523B CN201110240840.1A CN201110240840A CN102291523B CN 102291523 B CN102291523 B CN 102291523B CN 201110240840 A CN201110240840 A CN 201110240840A CN 102291523 B CN102291523 B CN 102291523B
- Authority
- CN
- China
- Prior art keywords
- delay
- video data
- data
- relevant
- digital service
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/04—Synchronising
- H04N5/06—Generation of synchronising signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/235—Processing of additional data, e.g. scrambling of additional data or processing content descriptors
- H04N21/2353—Processing of additional data, e.g. scrambling of additional data or processing content descriptors specifically adapted to content descriptors, e.g. coding, compressing or processing of metadata
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/4104—Peripherals receiving signals from specially adapted client devices
- H04N21/4122—Peripherals receiving signals from specially adapted client devices additional display device, e.g. video projector
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/4104—Peripherals receiving signals from specially adapted client devices
- H04N21/4135—Peripherals receiving signals from specially adapted client devices external recorder
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/4302—Content synchronisation processes, e.g. decoder synchronisation
- H04N21/4307—Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
- H04N21/43072—Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/434—Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
- H04N21/4341—Demultiplexing of audio and video streams
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/435—Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/439—Processing of audio elementary streams
- H04N21/4392—Processing of audio elementary streams involving audio buffer management
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/60—Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client
- H04N21/63—Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
- H04N21/633—Control signals issued by server directed to the network components or client
- H04N21/6332—Control signals issued by server directed to the network components or client directed to client
- H04N21/6336—Control signals issued by server directed to the network components or client directed to client directed to decoder
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/84—Generation or processing of descriptive data, e.g. content descriptors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/04—Synchronising
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/91—Television signal processing therefor
- H04N5/93—Regeneration of the television signal or of selected parts thereof
- H04N5/935—Regeneration of digital synchronisation signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/79—Processing of colour television signals in connection with recording
- H04N9/80—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
- H04N9/804—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
- H04N9/806—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Library & Information Science (AREA)
- Television Receiver Circuits (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Television Systems (AREA)
Abstract
本发明涉及一种再现设备(21),以及作为数字服务源的设备(20)。本发明还涉及一种用于对系统中的数字服务的两部分进行同步的方法,所述系统包括根据本发明的源设备和至少一个根据本发明的再现设备。根据本发明,所述再现设备(21)包括:用于接收源自数字服务源设备(20)的、形成数字服务的至少一部分的数据的装置;用于对接收到的数据的至少一部分进行处理的装置(210);用于再现所述数字服务的至少一部分的输出的装置(211),对数据进行处理和再现的时间在被再现数据输出中引起了延迟。这个设备还包括:通信装置(213),用于把所引起的延迟告知所述源设备。
Description
本申请是申请日为2005年11月8日、国际申请号PCT/EP2005/055829、国家申请号200580039058.6、题为“用于对数字服务的不同部分进行同步的设备和方法”的申请的分案申请。
技术领域
本发明涉及一种用于对数字服务的不同部分进行同步的设备和方法。例如,本发明涉及视听数字服务的音频/视频同步。
背景技术
多年来,与屏幕有关的技术是基于阴极射线管屏幕的。这些技术完全是模拟的。自从上世纪九十年代开始,数字技术在图像系统中变得越来越流行,从摄像机采集视频信号到把信号显示在屏幕上(例如,使用运动补偿的100Hz屏幕)。最初,这些新技术没有对视频造成任何有意义的延迟。音频/视频(下文由A/V来表示)同步基于如下假定由解码器来执行:解码器所提供的音频和视频流由视听再现设备即时地再现。在解码器中,A/V同步原理包括:使用MPEG编码器嵌入到音频和视频分组中的时标(“程序时钟参考”和“呈现时间戳”),使解码器能够相对于公共时间基准而呈现视频和音频。ISO/IEC 13818-1标准的附录D详细描述了怎样执行这种A/V同步(被称作“LIPSYNC”)。当今,用于对解码器的A/V同步模块进行调谐的过程包括:对从测试MPEG流导出的音频和视频分组进行解码,并把它们呈现在再现设备上(例如CRT电视),其中再现设备的响应时间被看作是即时的。类似地,在DVD播放机中,A/V同步由播放机自身来处理,这确保了音频和视频流在播放机的输出处同步。
经过屏幕技术近来的发展,新的屏幕和稍微复杂的视听再现设备已经投放市场,包括:
-视听再现设备(例如“家庭影院”),其中能够以解码后的形式(PCM格式,脉冲编码调制格式)或编码后的形式(例如Dolby Digital)来提供音频信号。
-高清晰度(下文由HD来表示)电视,正在一些国家中变得越来越流行。例如,可以使用MPEG-4技术减小成本使其成为消费市场。多个HD格式应当与标准清晰度(下文由SD来表示)格式共存。HD格式要求在显示视频之前在屏幕中进行大量的视频处理,这会引起延迟。
-针对HD和SD格式,市场上存在多种可用的屏幕技术(例如LCD、LCOS、DLP、等离子体,等)。这些屏幕要求其自有的视频处理器进行最佳再现,因而会引起延迟。
过去对视听系统的研究表明,人们对于A/V相移是敏感的。贝尔实验室在1940年的研究表明,大于100ms的音频延迟或大于35ms的音频提前会引起难题。实际中,人们自然地更能够忍受音频延迟而不是音频提前,这是因为在看到屏幕上的显示之前听到声音是不自然的。因此,一般的规则是,ITU对A/V系统中可接受和不可接受的A/V同步误差进行了标准化。在1993年,ITU[DOC11/59]标准定义了可检测性范围,即大于100ms的音频延迟或大于20ms的音频提前。不能接受的范围被定义为:大于160ms的音频延迟或大于40ms的音频提前。在1998年,没有特殊的原因,ITU把可检测性范围放宽到大于125ms的音频延迟或大于45ms的音频提前。不能接受的范围被定义为:大于185ms的音频延迟或大于90ms的音频提前。这些范围由ITU-R BT 1359-1标准定义。
现今,ATSC(“高级电视系统委员会”,一个开发数字电视标准的国际组织)指出这个标准不合适、且不符合BELL所做的研究。因此,它提出对范围[-90ms,+30ms]内的同步误差进行标准化,以便按照如下方式分布在A/V系统中:[-45ms,+15ms]对应于采集,[-45ms,+15ms]对应于编码器/解码器/TV。
现今,视频再现设备(例如LCD屏幕)在视频处理系统中引起了几十毫秒(通常接近一百毫秒)的延迟。所引起的延迟在不同设备之间的变化显著,而且还会根据可以隔行扫描(例如,针对SD为576i25,针对HD为1080i25)或逐行扫描(例如,针对SD为576p25,针对HD为720p50)的图像格式而变化,特别是当屏幕具有去隔行(deinterlacing)功能时。这些处理要求使用图像存储器(例如FIFO、SDRAM等),因而增大了视频信号相比于音频信号的延迟。这意味着音频信号通常会出现在与之相关的视频信号之前。实际中,音频再现设备通常不会在正常使用中引起显著的延迟。如果添加了音效,则音频再现设备会引起延迟。然而,这些延迟保持在用户可忍受的范围内。
与阴极射线管屏幕不同,当前使用的新的平板屏幕不会即时地做出响应。实际中,新的平板屏幕的各个组件模块引起了延迟。图1以方框10、11和12的形式示出了根据现有技术的视听再现设备1(例如平板屏幕电视)的特定模块。这个设备包括视频再现设备12(例如屏幕)和音频再现设备13(例如外部或内置扬声器)。不再描述视频再现设备中的常规模块(例如调谐器、PAL解码器和A/D转换器)。模块10、11和12引起了视频延迟,这个延迟对于不同的帧可以是固定的或可变的。这些延迟根据所应用的处理和屏幕类型而变化。如果没有对这些延迟进行补偿,那么它们将会引起可以由用户检测到的A/V同步误差,因为这些误差处于上文定义的容忍范围之外。
第一去隔行和格式控制模块10把隔行扫描的视频转换为逐行扫描的视频,并把输入信号的分辨率调整至屏幕的分辨率(例如,从1920×1080i切换至1280×720p)。这个方框使用帧存储器(SDRAM、DDRAM),而帧存储器引起了根据视频格式(隔行扫描的/逐行扫描的,50Hz/60Hz)的可变延迟(Dd)。
第二屏幕控制器模块11把逐行扫描的视频转换为与屏幕兼容的格式。该控制器对屏幕进行寻址,而且还执行图像品质增强处理。这通常会引起取决于屏幕类型的延迟Dc。
因此,在LCD-LCOS屏幕中(LCD代表“液晶显示”,LCOS代表“硅上液晶”),也许会应用引起延迟的下列处理:
●过驱动,用于当需要从一个灰度级切换至另一个灰度级时提高液晶的响应时间。这个使用帧存储器的操作引起了固定的延迟Rc_lcd_overdriving。
●三阀(three-valve)LCOS系统中的帧复制常规上用于减小大面积的闪烁效应。这个使用帧存储器的操作引起了固定的延迟Rc_lcos_double。
在DLPTM-LCOS(DLP代表“数字光处理”)顺序彩色屏幕中,下列处理和操作引起了延迟:
●使用帧存储器执行向顺序彩色的转换,引起了固定的延迟Rc_dlp-lcos_sequential。
●连续的比特平面所执行的DLP屏幕寻址。这个操作引起了固定的延迟Rc-dlp_bitplane。
对于等离子屏幕,由于下列处理和操作而引起延迟:
●连续的子扫描操作对屏幕进行寻址。这引起了延迟Rc_plasma_bitplane。
●用于减小假轮廓效应和模糊效应的运动补偿。这个使用帧存储器的操作引起了固定的延迟Rc_plasma_artefact。
类似地,OLED(有机发光二极管)屏幕会引起延迟。
第三模块12包括屏幕自身。通过对施加到液晶的电压进行调制而获得由LCD/LCOS屏幕发出的光。在DMDTM(数字微镜设备)的情况下,发出的光是使用绕轴旋转微镜进行二进制调制后的光。在等离子体面板(PLASMA)的情况下,发出的光是通过气体激发(gas excitation)进行二进制调制后的光。因此,发出的光相对于调制具有延迟。这个延迟主要取决于屏幕组件的物理性质(液晶、气体,等)此外,某些屏幕还包含引起附加延迟的内部存储器(DLP-LCOS顺序)。因此,屏幕引起了与其类型直接相关的延迟De。
因此,LCD-LCOS屏幕特别地引起了下列延迟:
●由于屏幕按照逐行的方式寻址,最后一行在第一行被刷新后一个帧周期时刷新。这个寻址操作引起了固定的延迟Re_lcd_addressing。
●在施加调制电压后,液晶需要特定的时间来建立。这个时间被分为延迟和建立时间。这2个时间取决于前一帧与当前帧之间的灰度转变级别。这2个时间求和给出了可变延迟Re_lcd_liquid-crystal。
其它屏幕类型(例如等离子面板、DLP、OLED)会引起其它延迟类型。
因此,等离子屏幕特别地引起了下列延迟:
●封入屏幕中的气体具有根据视频内容而变化的响应时间,这个响应时间与可变延迟Re_plasma_gas相对应。
DLPTM屏幕特别地引起了下列延迟:
●显示设备包含内部存储器,并以子扫描的形式进行寻址。这引起了固定的延迟Re_dlp_addressing。
●DMDTM具有非常快的响应时间。它没有引起特别的延迟。下表概括了不同屏幕的各种延迟类型的示例。在表中,T表示帧周期(20ms/50Hz,16.7ms/60Hz)。
取决于所使用的屏幕技术,能够对视频造成或多或少显著、固定和或可变的延迟,这些延迟根据图像内容(例如灰度级)对于不同的帧是不同的。这些延迟还可以根据视频格式而变化。在电视或DVD的情况下,存在4种可能的格式:
●50Hz隔行扫描输入;
●50Hz逐行扫描输入;
●60Hz隔行扫描输入;
●60Hz逐行扫描输入。
音频和视频之间的这些延迟还取决于所使用的音频格式(例如MPEG1、MPEG2层1和2、DOLBY AC-3)。它们会引起超出容忍范围的A/V同步误差(换句话说,超出容忍范围的误差),这会使用户产生极大的不快。
上述分析表明,需要对A/V流进行同步,以提高用户的感知舒适度并将视频流再现相对于音频流的延迟(或提前)保持在标准所定义的容忍范围内。更一般地,需要对数字服务中的各个部分进行同步,以将一个部分的再现相对于另一个部分的延迟(或提前)保持在这个延迟(或这个提前)不会使用户产生不快的容忍范围内。
发明内容
本发明的目的是克服现有技术领域中的这些缺点。为此,本发明提出了一种设备和一种方法,考虑了施加到数字服务中至少一部分的多种处理所引起的延迟、以及再现设备自身所引起的延迟,而对数字服务中的多个部分进行同步。其目标是避免由于背离容忍范围而对用户造成不快。
为此,本发明提出了一种用于再现与至少一个数字服务相对应的数据的设备,所述设备包括:用于接收源自数字服务源设备的、形成数字服务的至少一部分的数据的装置;用于处理接收到的数据的至少一部分的装置;用于再现所述数字服务的至少一部分的输出的装置,对数据进行处理和再现的时间在被再现数据输出中引起了延迟。根据本发明,所述再现设备还包括:通信装置,用于把所引起的延迟告知所述源设备。
根据优选实施例,所述再现设备是电视,所述数字服务是视听服务,所述被处理的数据是以帧形式组织的视频数据。此外,一种用于再现所述数字服务的至少一部分的输出的装置是屏幕,优选地是例如液晶显示(LCD)屏幕、等离子体屏幕、OLED屏幕或DLP屏幕的平板屏幕。
根据具体特性,一种用于对接收到的数据的至少一部分进行处理的装置是去隔行器。
有利地,把延迟的值存储在所述再现设备的非易失性存储器中。根据具体特性,所述非易失性存储器是EPROM存储器。
根据优选实施例,延迟的值以EDID描述符的形式而表示。
优选地,用于把所引起的延迟告知所述源设备的所述通信装置包括使用DDC协议或CEC协议的链接。所述解码器通过DDC链接恢复以EDID描述符的形式而存储的延迟值。
本发明还涉及一种用作数字服务源的设备,所述设备包括:用于输出形成数字服务的第一部分的数据的装置;用于输出形成所述数字服务的第二部分的数据的第二装置;以及用于和再现设备进行通信的装置,所述再现设备用于再现形成所述数字服务的第一部分的数据。所述源设备还包括:用于把可编程延迟施加到形成所述数字服务的第二部分的输出数据的装置;用于从用于再现形成所述数字服务的第一部分的数据的再现设备接收延迟指示的装置;以及用于根据接收到的延迟指示对用于施加可编程延迟的装置进行编程的装置。
根据具体实施例,所述用作数字服务源的设备是数字解码器。根据另一个实施例,所述用作数字服务源的设备是DVD播放机。
根据优选实施例,形成所述数字服务的第一部分的数据是视频数据,而形成所述数字服务的第二部分的数据是音频数据。
根据另一个实施例,形成所述数字服务的第一部分和第二部分的数据是视频数据。
优选地,用于施加可编程延迟的装置对由于所述再现装置中的下列一个或多个元件引起的延迟进行补偿:
-用于对视频数据进行去隔行的模块(10);
-格式控制器(10);
-屏幕控制器(11);
-屏幕(12)。
根据具体特性,用于施加可编程延迟的装置包含存储器,在根据接收到的延迟指示进行数据恢复之前,所述存储器暂时存储形成所述数字服务的第二部分的数据。
最后,本发明涉及一种用于对系统中数字服务的两个部分进行同步的方法,所述系统包括源设备和至少一个再现设备,其中所述源设备包括:第一装置,用于输出形成所述数字服务的第一部分的数据;第二装置,用于输出形成所述数字服务的第二部分的数据;用于和再现设备进行通信的装置,所述再现设备用于再现形成所述数字服务的第一部分的数据;用于向形成所述数字服务的第二部分的输出数据施加可编程延迟的装置。而所述再现设备包括:用于从所述数字服务源设备接收形成所述数字服务的至少第一部分的数据的装置;用于处理接收到的数据中的至少一部分,以再现所述数字服务的至少一部分的装置,所述方法包括下列步骤:
-在所述再现设备端,当对形成所述数字服务的至少第一部分的已接收数据进行处理和再现时,把所述再现设备引起的总延迟发送到所述源设备;以及
-在所述源设备端,使用已接收到的延迟指示,对所述可编程延迟进行编程,从而延迟形成所述数字服务的第二部分的数据的输出。
根据具体实施例,所述延迟中的一部分由屏幕特性引起,而且可以根据下列步骤对液晶屏幕中的每一帧进行估计:
-针对每一个像素,计算两个连续帧之间的灰度级差;
-针对每一个像素,根据针对所述像素而计算的所述灰度级差而估计所述两个连续帧之间的响应时间;
-创建关于所有像素的延迟的直方图;
-根据所述直方图计算平均延迟。
根据具体特性,形成所述数字服务的第一部分的数据是视频数据,而形成所述数字服务的第二部分的数据是音频数据。
根据另一个特性,形成所述数字服务的第一部分和所述数字服务的第二部分的数据是视频数据。
附图说明
参考附图并借助于有利的非限制性的典型实施例,本发明将会得到更好的理解和说明,其中:
-图1如上文所述示出了根据现有技术的平板屏幕电视的示意图;
-图2示出了根据本发明用于接收和再现音频/视频数字服务的设备,该设备使用内部音频再现设备;
-图3示出了根据本发明用于接收和再现音频/视频数字服务的设备,该设备使用外部音频再现设备;
-图4示出了根据本发明用于接收和再现音频/视频数字服务的设备,其中再现设备对信源中所补偿的延迟进行估计;
-图5示出了根据本发明用于接收和再现音频/视频数字服务的设备,其中接收设备对延迟进行估计和补偿;
-图6示出了根据本发明用于接收和再现音频/视频数字服务的设备,其中再现设备对延迟进行估计和补偿;
-图7示出了根据本发明用于对液晶屏幕的延迟进行估计的方法;
-图8示出了表示不同灰度转变级别的液晶的响应时间的图表;
-图9示出了根据本发明的手动延迟选择方法;
-图10示出了用于针对不同的视频格式而选择延迟的方法;
-图11示出了根据本发明的手动延迟估计设备;
-图12示出了根据本发明的半自动延迟估计设备;
-图13示出了根据本发明的半自动延迟估计方法;
-图14示出了根据本发明用于接收和再现音频/视频数字服务的设备,该设备使用外部音频再现设备,接收设备包括2个延迟模块;以及
-图15示出了根据本发明用于接收和再现音频/视频数字服务的设备,接收设备与两个视频再现设备相连。
具体实施方式
具体参考视听数字服务而描述实施例。A/V信源被比作解码器,但可以是任意其它类型的A/V信源(例如DVD播放机)。视听再现设备被比作包括屏幕和音频输出(例如内置扬声器)的电视,但还可以是任意其它类型的视听再现设备(例如计算机)。音频再现设备可以在电视的外部,并被比作包括与一个或多个扬声器相连的放大器(例如家庭影院设备的放大器)的设备,但还可以是任意其它类型的音频再现设备。
某些去隔行电路具有补偿音频输入,将与视频相同的延迟施加到这个输入以保持同相。然而,在用户选择使用来自外部音频再现设备(例如具有家庭影院类型)的声音的情况下,不会施加延迟补偿。因此,很自然地把A/V同步模块放置在数字解码器中,其中数字解码器是A/V信号的信源,而且必需与市场上现有的A/V设备兼容。本发明的一个原理是:为电视提供自动装置,从而电视可以使解码器知晓电视输入处的视频与屏幕上显示的视频之间的延迟值。
图2和3示出了根据本发明用于接收和显示视听数字服务的设备的两个变体。仅示出了设备中的主要元件。图2示出了视听服务设备,它包括与电视21相连的数字解码器20,具体通过链接220、221和222与电视21相连。解码器20在其输入处接收已编码的视听流22(例如按照MPEG编码)。解复用器204把这个A/V流22解复用为至少一个音频信号和一个视频信号。然后,视频信号由视频解码器200进行解码。音频信号由音频解码器201来解码。使用与两个解码器200和201进行通信的A/V同步模块202,将两个流同步。此外,A/V同步模块202与处理单元203相连。视频解码器200通过DVI/HDMI链接220(DVI/HDMI代表数字视频接口/高清晰度多媒体接口)与电视21相连。更详细地,视频解码器200与电视21的视频处理模块210相连。这个处理模块又与屏幕211相连。音频解码器通过链接222与电视21的音频字线设备212相连。同步模块202经过单元203、并通过使用例如DDC通信协议(用于恢复屏幕相关数据的显示数据信道协议)的I2C总线221与非易失性存储器213(例如EDID存储器,其中EDID代表扩展显示标识数据)相连。
图3示出了类似的设备,其中音频流由外部音频再现设备31(例如家庭影院设备的放大器)再现。这个设备31包括与扬声器33相连的音频放大器310。解码器30包括与解码器20类似的元件(具体为音频解码器、视频解码器、解复用器、A/V同步模块),这些元件被赋予相同的附图标记。解码器30还包括可编程的音频延迟模块300、HDMI接口302和视频格式管理模块301。解码器30与包括视频处理模块320的电视32相连,视频处理模块320与屏幕321相连。解码器通过链路340与外部音频再现设备31相连,例如通过SPDIF(Sony/Philips数字接口)接口与设备31相连,并且通过DVI/HDMI链接与电视32相连。所提出的两个解决方案(图2和3)的目的是对视频处理(例如去隔行、格式转换、图像品质增强等)320、210所引起的延迟Ddc(其中Ddc=Dd+Dc)和/或由于屏幕(例如液晶的响应时间)211所引起的延迟De进行补偿。延迟De自身可以是例如上表所定义的多个延迟之和。在余下的文档中,D表示总延迟,即D=Ddc+De。Ddc和De在时间上是固定的或可变的,当De是液晶屏幕的延迟时,液晶屏幕的响应时间根据每一帧而变化。在屏幕没有引入延迟的情况下,D=Ddc。类似地,Ddc可以是零。
根据本发明,通过以压缩的形式或以解码的形式进行存储,至少把可编程的延迟D施加到音频信号。在模块300中,把延迟D施加到音频信号。根据本发明的变体,在解码器中存在的A/V同步模块202中直接把延迟施加到音频信号。解码器负责在音频延迟模块300中或解码器的A/V同步模块202中施加适当的延迟值D,从而对视频处理引起的延迟和/或屏幕210、320类型引起的延迟进行补偿。
根据本发明,电视21或32所引起的延迟D可以根据输入视频的格式而变化,输入视频的格式管理由模块301来处理。因此,每当视频格式发生改变、且延迟取决于视频格式时,就会在音频延迟模块300中或解码器的A/V同步模块202中对新的延迟值D进行编程。这个延迟由Dx来表示,其中x是与延迟相关联的视频格式。已编程的延迟值还可以是与输入视频格式无关的总值D。
因此,所提出的解决方案包括:利用表示例如针对不同视频格式的延迟Dx、或甚至是表示与输入视频格式无关的总值D的参数,来增强HDMI/DVI控制协议。这些协议使屏幕能够与解码器共享关于其特性和能力的信息。根据这些协议,视频源使用DDC信道221来读取位于电视21或32中的非易失性存储器213,以探知例如分辨率、同步信号的极性和色度数据。这个数据由文档EIA/CEA-861B中定义的EDID描述符来表示。它们可以由屏幕制造商提供,而且可以编程在EPROM EDID存储器213中。
因此,已标准化的信息之外,本发明包括除了增加EDID信息描述符,以便把由电视中的数字视频处理所引起的延迟(Ddc)、由屏幕的响应时间所引起的延迟(De)或两者引起的延迟(D或Dx)的特征信息存储在电视中。根据本发明而装配的每一个电视21或32的延迟信息被存储在电视的非易失性存储器213中。这个信息可以包括与上文描述的4个视频格式(50Hz隔行扫描输入、50Hz逐行扫描输入、60Hz隔行扫描输入、60Hz逐行扫描输入)相对应的4个延迟Dx。还可以想象存储与其它视频格式有关的延迟。
根据本发明,解码器恢复这些值,以便A/V同步模块202或延迟模块300将音频和视频流同步。关于延迟Ddc和De的信息可以由电视21或32的制造商来提供,并能够由电视21、32以电的形式发送到解码器20。然后,必须在解码器切换时传送总延迟信息D或Dx。可选地,在需要时或解码器请求时,还可以在信道改变时传送该信息。
使用DDC信道的备选解决方案使用HDMI中规定的CEC(消费电子控制)交互式交换协议。
图4示出了本发明的具体实施例。解码器20与图2中所示的解码器相同,不会对其进行进一步描述。电视41包括与电视21类似的元件,这些元件被赋予相同的附图标记,因而不会对其进行详细的进一步描述。电视还包括用于估计延迟De的模块410。实际中,对于引起了根据屏幕类型而在时间上可变的延迟的电视,必须对这个延迟进行估计。然后,把所估计的延迟De与各种视频处理(例如去隔行)所引起的延迟Ddc相加。总延迟D的值被存储在EPROM EDID存储器411中,以供位于解码器20中的A/V同步模块202或延迟模块300使用。因此,解码器通过DDC链接221恢复出这个延迟,以便对音频和视频流进行同步。还可以想象把不同的延迟(Ddc和De)分别存储在EPROM EDID存储器中,这些不同的延迟由解码器通过DDC链接221来恢复。为了对屏幕类型引起的可变延迟De进行估计,下文描述的估计方法可以用于液晶显示屏幕。
在图5所示的另一个实施例中,在位于解码器50的处理单元中的估计模块500中,对与屏幕有关的延迟De进行估计。这些元件与之前的附图类似并被赋予相同的附图标记,而且下文不会进行描述。根据本发明,提出定义描述符以便把估计延迟所需的数据(例如液晶提供商提供的图表以及图8所示的图)存储在EPROM EDID屏幕存储器中。然后,解码器通过链接211恢复这个数据,解码器自身在模块500中对平均延迟做出了估计。为此,可以使用下文描述的估计方法。
所述解决方案的一个优点是:当使用电视和外部音频输出设备31(例如HiFi系统、家庭影院设备)时,能够对音频和视频流进行同步。
在图6所示的另一个实施例中,如之前那样,在电视61的方框410内对和屏幕有关的延迟De进行估计。然而,在电视中直接执行同步。在这种情况下,电视中的存储器610可以用于对音频数据进行缓冲,并根据平均延迟而向用户恢复音频数据。下文描述了用于对平均延迟进行估计的方法。
图7示出了根据本发明用于对液晶屏幕的延迟De进行估计的设备7。这个设备包括帧存储器71和延迟计算模块70。帧存储器71用于把输入视频(视频tN)延迟一帧(视频tN-1)。设备7可以使用增强设备的帧存储器71。延迟计算模块70针对每一个像素而计算两个连续帧之间的灰度级的差。然后,这个模块使用液晶制造商提供的图表(图8)。这些图表给出了不同灰度级转变的响应时间。因此,它们可以用于针对每一个像素而估计两个帧之间的响应时间。通过构建关于所有像素的直方图,可以估计出由A/V同步设备所使用的平均延迟De(例如考虑具有给定响应时间的像素数而计算加权平均)。在解码器中执行对延迟De的估计的情况下(图5),这些图表可以存储在EPROM EDID存储器中,并且可以由解码器通过DDC链接221而恢复。在这种情况下,延迟估计设备7通过链接72恢复EDID数据。
下面的解决方案提出了其它实施例,用于手动地或半自动地使视频源知晓由视频处理和屏幕所引起的延迟参数D。这些解决方案具体在A/V信源与视频再现设备之间不存在HDMI链接时使用。
图9示出了一种手动调谐方法,该方法使用户能够使用菜单、凭借经验来选择延迟参数。图11示出了选择设备。这个方法在制造商没有提供延迟信息时是有用的。在这种情况下,解码器110产生了使用户能够手动且精确地对延迟D进行同步的A/V序列。根据本发明,在步骤91,解码器110切换至适当的视频格式(由X表示,例如50Hz的隔行扫描)。在步骤92,用户115从针对这个格式的菜单中选择延迟值Dx。在解码器300的音频延迟模块中或在A/V同步模块202中对这个值编程。在步骤93,解码器发送使用所选择的延迟值同步的A/V序列111。然后在屏幕112上显示视频。同步后的视频信号由音频放大器113放大,并使用扬声器114再现声音。用户可以通过观看屏幕112和听扬声器114产生的声音来判断同步品质。在步骤94,用户使用菜单来告知解码器该同步对于他是否足够精确。如果是否定的,那么使用新的延迟值Dx而重复所述方法。如果该同步令人满意,则所述选择结束且Dx的值被存储在可编程的延迟模块300中或A/V同步模块202中。这个操作可以针对任意的视频格式而重复,以便为每一种视频格式确定应当施加到音频流的延迟。图10中示出了这个方法。根据图9所示的方法,选择分别在步骤101、102、103和104确定的延迟D25i(与50Hz的隔行扫描视频格式有关)、D50p(与50Hz的逐行扫描视频格式有关)、D30i(与60Hz的隔行扫描视频格式有关)和D60p(与60Hz的逐行扫描视频格式有关)。
根据另一个实施例,由于延迟是已知的,例如由制造商提供,所以用户可以使用菜单来手动地输入延迟Dx,例如针对不同的视频格式把这些延迟值Dx施加到解码器的延迟模块300或A/V同步模块202中。例如,可以在安装数字服务设备时输入这些值。
根据图12所示的另一个设备,使用固定到屏幕的探针来检测屏幕上所显示的内容的特性,并将这个信息返回解码器。图13示出了这种用于对延迟D进行估计的半自动方法。
根据这个方法,解码器120产生一系列的黑色图像130(即具有低灰度级的图像),然后产生单一的白色图像131(即具有高灰度级的图像),并再次产生一系列黑色图像132,并且把这些图像发送到电视121。然后,屏幕上显示第一系列的黑色图像133,然后是白色图像134,最后是第二系列的黑色图像135。探针122能够检测屏幕上的白色图像,并且能够把即时消息发送到解码器120以告知解码器120显示这个白色图像134。解码器120计算时刻138与时刻139之间经过的时间,其中在时刻138处解码器发送白色图像,而在时刻139处该白色图像被显示在电视121的屏幕上。典型地,探针122是对于光强敏感的设备,并且能够靠着屏幕而放置,例如在屏幕的左上角或甚至在屏幕的中间。此外,探针122能够即时地估计有限屏幕区域上的光强。探针122具有两个逻辑状态。当所检测到的光强等级小于特定的阈值时(即显示第一系列的黑色图像),探针122处于第一状态136;当所检测到的光强等级大于阈值时(即显示第一系列的白色图像),探针122处于第二状态137。确定所述阈值,从而当显示黑色图像时,探针处于第一状态,而当显示白色图像时,探针处于第二状态。可以使用具有低光强的图像来代替黑色图像,并且可以使用具有高强度的图像来代替白色图像。所需的是探针能够检测从一个图像到另一个图像的转变。探针的逻辑状态可以被转变为具有2个值的电信号。这个信号可以由解码器恢复。解码器存储有开始向屏幕发送白色图像的时刻138、以及探针检测到从第一状态转变为第二状态的时刻139。这两个时标之间的差D 140表示视频处理和屏幕所引起的延迟。这个操作可以针对各种视频格式而重复,以便获得针对所有视频格式的延迟Dx的集合。这个方法是半自动的,因为即使没有使用菜单,用户也必须把探针与解码器相连,并且把它施加到屏幕并手动地开始所述方法。
还可以想到的是,在屏幕上的某处显示有黑色方块的蓝色屏幕。利用位于黑色方块上的探针122,白色被发送到黑色方块,以便探针检测光强的改变。知晓探针在屏幕上的位置意味着:可以针对没有同时再现所有像素的屏幕(例如对屏幕进行扫描),对延迟进行更加精确的测量。
图14公开了本发明的另一个应用。与图2和3共有的元件被赋予相同的附图标记,并且不会在下文进行讨论。解码器140包括附加的可编程音频延迟模块141。这个第二模块用于对同一个再现设备142(例如电视)所要再现的音频和视频流进行同步。这个电视142包括对视频引起延迟Ddc的视频处理模块320。它还包括对音频流引起延迟Dta的音频处理模块144。这个模块又与内置于电视的扬声器151相连。为了对内置扬声器151和屏幕321所要再现的音频和视频流进行同步,第二可编程音频延迟模块141把延迟(Ddc-Dta)施加到解码器输出的音频流。在这个示例中提出:把与再现设备引起的视频延迟Ddc有关的参数增加到EDID表4,其中所述参数取决于视频格式:
●50Hz隔行扫描输入
●50Hz逐行扫描输入
●60Hz隔行扫描输入
●60Hz逐行扫描输入
还增加了与针对上面的4个视频格式的音频处理系统所引起的延迟Dta有关的4个参数。可以把延迟值编码为1个字节,以表示在从0至255毫秒范围内变化的延迟值。因此,在音频流由外部设备31(例如SPDIF)再现的情况下,信源把延迟Ddc(模块300)施加到解码器201输出处的音频流。在音频流由HDMI再现设备(例如电视)142再现的情况下,信源140通过模块141把延迟(Ddc-Dta)施加到HDMI设备142,这考虑到了所述HDMI设备142的不同处理系统所引起的视频和音频延迟。
图15示出了不同的应用。与图2和3共有的元件被赋予相同的附图标记,并且不会在下文进行讨论。解码器150与位于两个不同房间中的两个电视152和155相连。电视152与用于音频输出的家庭影院类型的设备31相连(例如通过SPDIF接口)。电视155主要包括屏幕157并位于另一个房间中,它通过链接162(例如scart或模拟RF)接收音频和视频流。电视152包括引起延迟Ddc的视频处理模块153和屏幕154。电视155维持一起发送给它的音频和视频流的同步。根据本发明,提出了具有单一音频输出的设备,所述单一音频输出与任意一个视频输出同步。根据本发明的解决方案包括:按照参考图3所述的那样(即向音频施加补偿延迟),在解码器中对音频流与第一视频输出158进行同步。增加了第二可编程延迟模块161,它把关于音频输出相同的延迟D=Ddc施加到第二视频输出159,以便使第二视频输出159与音频输出160同步。具体地,这个解决方案使得能够利用另一个房间中的第二电视155的音频输出而使用这个电视,并且使同一个音频输出160与视频输出158和159两者进行操作。
在DVI和HDMI通信协议的背景下所描述的本发明可以扩展到未来发展的任意控制协议,只要该协议允许对这种延迟数据、或用于在解码器中计算延迟的数据(例如图表)进行交换。
本发明在数字服务的音频和视频流同步的背景下公开,其中屏幕引起延迟而数字服务的音频部分与即时处理相关。通常,本发明可以应用于任意类型的、用于再现任意数字服务的设备,其中所述服务被分为由不同再现设备处理的不同部分,每一个再现设备都向由其处理的服务的一部分施加特殊的延迟。在这种情况下,把再现设备的特殊延迟传送到源设备的能力使源设备能够对它们自身之间的数字服务中的所有部分进行同步,从而对整个服务做出良好的再现。
Claims (4)
1.用于对与源自数字服务源设备的至少一个数字服务相对应的数据的至少一部分进行再现的设备(21、32、41、51、61、142、152),所述进行再现的设备包括:接收装置,用于接收形成数字服务的一部分的视频数据;处理装置(210、320、153),用于对已接收视频数据进行处理;再现装置(211、321、154),用于再现已处理视频数据的输出,对已接收视频数据进行处理和/或再现的时间在已再现视频数据的输出中引起了与所述视频数据有关的延迟,
其中,所述进行再现的设备还包括:接收装置,用于接收形成所述数字服务的一部分的音频数据;处理装置(144),用于对已接收音频数据进行处理;再现装置(151),用于再现已处理音频数据的输出,用于对已接收音频数据进行处理和/或再现的时间在已再现音频数据的输出中引起了与所述音频数据有关的延迟(Dta),
所述进行再现的设备的特征在于还包括通信装置(213、221、341),用于把与所述视频数据有关的所述延迟和与所述音频数据有关的所述延迟(Dta)告知所述源设备,与所述视频数据有关的所述延迟和与所述音频数据有关的所述延迟根据所述视频数据的格式而变化,其中所述通信装置包括存储器,所述存储器被配置为存储针对不同视频格式的与所述视频数据有关的延迟的值,并被配置为存储针对不同视频格式的与所述音频数据有关的延迟的值。
2.一种用作数字服务源的设备(20、30、50、140、150),所述设备包括:第一装置(200),用于输出形成数字服务的第一部分的视频数据;第二装置(201),用于输出形成所述数字服务的第二部分的音频数据;用于从适于再现至少所述视频数据的再现设备恢复与所述视频数据有关的延迟指示和与所述音频数据有关的延迟指示的装置(302),与所述视频数据有关的延迟指示和与所述音频数据有关的延迟指示根据所述视频数据的格式而变化;延迟装置(202、300、150、141),用于根据恢复的所述延迟指示而向输出音频数据施加可编程延迟;以及根据恢复的所述延迟指示而对延迟装置(202、300、150、141)进行编程的装置,
其中,所述延迟装置(202、300、150、141)还适于向输出音频数据施加同与所述视频数据有关的所述延迟指示和与所述音频数据有关的所述延迟指示之间的差相等的可编程延迟,与所述视频数据有关的所述延迟指示是由对所述视频数据的处理和/或再现而对视频数据引起的延迟,与所述音频数据有关的所述延迟指示是由对所述音频数据的处理和/或再现而对音频数据引起的延迟。
3.一种用于再现与源自数字服务源设备的至少一个数字服务相对应的数据的至少一部分的方法,所述方法包括:
-接收形成数字服务的一部分的视频数据;
-对已接收视频数据进行处理;
-再现已处理视频数据的输出,对已接收视频数据进行处理和/或再现的时间在已再现视频数据的输出中引起了与所述视频数据有关的延迟;
-接收形成所述数字服务的一部分的音频数据;
-处理已接收音频数据;
-再现已处理音频数据的输出,对所述音频数据进行处理和/或再现的时间在已再现音频数据的输出中引起了与所述音频数据有关的延迟(Dta);
-把与所述视频数据有关的所述延迟和与所述音频数据有关的所述延迟(Dta)告知所述数字服务源设备,与所述视频数据有关的所述延迟和与所述音频数据有关的所述延迟根据所述视频数据的格式而变化。
4.一种用于发送与源自数字服务源设备的至少一个数字服务相对应的数据的方法,所述方法包括步骤:
-输出形成所述数字服务的第一部分的视频数据;
-输出形成所述数字服务的第二部分的音频数据;
-从适于再现至少所述视频数据的再现设备恢复与所述视频数据有关的延迟指示,与所述视频数据有关的所述延迟指示根据所述视频数据的格式而变化;
-从所述再现设备恢复与所述音频数据有关的延迟指示,与所述音频数据有关的所述延迟指示根据所述视频数据的格式而变化;
-根据恢复的延迟指示,对可编程延迟进行编程;
-向输出音频数据施加同与所述视频数据有关的所述延迟指示和与所述音频数据有关的所述延迟指示之间的差相等的可编程延迟,与所述视频数据有关的所述延迟指示是由对所述视频数据的处理和/或再现而对视频数据引起的延迟,与所述音频数据有关的所述延迟指示是由对所述音频数据的处理和/或再现而对音频数据引起的延迟。
Applications Claiming Priority (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP04292712.9 | 2004-11-16 | ||
FR0412169 | 2004-11-16 | ||
EP04292712 | 2004-11-16 | ||
FR0412169 | 2004-11-16 | ||
EP05100072A EP1657929A1 (fr) | 2004-11-16 | 2005-01-07 | Dispositif et méthode de synchronisation de différentes parties d'un service numérique |
EP05100072.7 | 2005-01-07 | ||
CN2005800390586A CN101088292B (zh) | 2004-11-16 | 2005-11-08 | 用于对数字服务的不同部分进行同步的设备和方法 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2005800390586A Division CN101088292B (zh) | 2004-11-16 | 2005-11-08 | 用于对数字服务的不同部分进行同步的设备和方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102291523A CN102291523A (zh) | 2011-12-21 |
CN102291523B true CN102291523B (zh) | 2015-08-19 |
Family
ID=35708683
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201110240840.1A Active CN102291523B (zh) | 2004-11-16 | 2005-11-08 | 用于对数字服务的不同部分进行同步的设备和方法 |
CN2005800390586A Active CN101088292B (zh) | 2004-11-16 | 2005-11-08 | 用于对数字服务的不同部分进行同步的设备和方法 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2005800390586A Active CN101088292B (zh) | 2004-11-16 | 2005-11-08 | 用于对数字服务的不同部分进行同步的设备和方法 |
Country Status (7)
Country | Link |
---|---|
US (4) | US8606070B2 (zh) |
EP (2) | EP1657929A1 (zh) |
JP (4) | JP5384006B2 (zh) |
KR (2) | KR101291933B1 (zh) |
CN (2) | CN102291523B (zh) |
ES (1) | ES2719735T3 (zh) |
WO (1) | WO2006053847A1 (zh) |
Families Citing this family (66)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10158337B2 (en) | 2004-08-10 | 2018-12-18 | Bongiovi Acoustics Llc | System and method for digital signal processing |
US9413321B2 (en) | 2004-08-10 | 2016-08-09 | Bongiovi Acoustics Llc | System and method for digital signal processing |
US11431312B2 (en) | 2004-08-10 | 2022-08-30 | Bongiovi Acoustics Llc | System and method for digital signal processing |
US10848118B2 (en) | 2004-08-10 | 2020-11-24 | Bongiovi Acoustics Llc | System and method for digital signal processing |
US8284955B2 (en) | 2006-02-07 | 2012-10-09 | Bongiovi Acoustics Llc | System and method for digital signal processing |
US9281794B1 (en) | 2004-08-10 | 2016-03-08 | Bongiovi Acoustics Llc. | System and method for digital signal processing |
EP1657929A1 (fr) * | 2004-11-16 | 2006-05-17 | Thomson Licensing | Dispositif et méthode de synchronisation de différentes parties d'un service numérique |
WO2006118106A1 (ja) * | 2005-04-28 | 2006-11-09 | Matsushita Electric Industrial Co., Ltd. | リップシンク補正装置及びリップシンク補正方法 |
US9615189B2 (en) | 2014-08-08 | 2017-04-04 | Bongiovi Acoustics Llc | Artificial ear apparatus and associated methods for generating a head related audio transfer function |
US10069471B2 (en) | 2006-02-07 | 2018-09-04 | Bongiovi Acoustics Llc | System and method for digital signal processing |
US10848867B2 (en) | 2006-02-07 | 2020-11-24 | Bongiovi Acoustics Llc | System and method for digital signal processing |
US11202161B2 (en) | 2006-02-07 | 2021-12-14 | Bongiovi Acoustics Llc | System, method, and apparatus for generating and digitally processing a head related audio transfer function |
US9348904B2 (en) | 2006-02-07 | 2016-05-24 | Bongiovi Acoustics Llc. | System and method for digital signal processing |
US9195433B2 (en) | 2006-02-07 | 2015-11-24 | Bongiovi Acoustics Llc | In-line signal processor |
US10701505B2 (en) | 2006-02-07 | 2020-06-30 | Bongiovi Acoustics Llc. | System, method, and apparatus for generating and digitally processing a head related audio transfer function |
JP4575324B2 (ja) * | 2006-03-29 | 2010-11-04 | 株式会社東芝 | Av装置及びその制御方法 |
WO2008056709A1 (en) * | 2006-11-07 | 2008-05-15 | Sony Corporation | Receiver, delayed information transmitting method for receivers, audio output device, and delay control method for audio output devices |
KR101306706B1 (ko) * | 2006-11-09 | 2013-09-11 | 엘지전자 주식회사 | 디지털 티브이와 연결된 외부기기 자동 설정 장치 및 방법 |
JP4360400B2 (ja) * | 2006-12-05 | 2009-11-11 | セイコーエプソン株式会社 | コンテンツ再生システムおよびこれに用いられる再生装置、並びにコンテンツ再生方法 |
JP4814803B2 (ja) * | 2007-01-12 | 2011-11-16 | 富士通株式会社 | コンピュータと家電によるリモコン信号を用いた双方向制御装置 |
KR101416249B1 (ko) * | 2007-08-01 | 2014-07-07 | 삼성전자 주식회사 | 신호처리장치 및 그 제어방법 |
EP2191653A1 (en) * | 2007-09-21 | 2010-06-02 | Thomson Licensing | Apparatus and method for synchronizing user observable signals |
JP5242111B2 (ja) * | 2007-10-02 | 2013-07-24 | 株式会社ソニー・コンピュータエンタテインメント | 送信装置、画像データ送信方法、受信装置および受信装置における画像表示方法 |
JP2009124223A (ja) * | 2007-11-12 | 2009-06-04 | Sharp Corp | Avシステム |
KR101450100B1 (ko) | 2007-11-22 | 2014-10-15 | 삼성전자주식회사 | 멀티미디어기기 및 그의 동기설정방법 |
KR20080011457A (ko) | 2008-01-15 | 2008-02-04 | 주식회사 엔터기술 | 음성 또는 영상신호의 딜레이 컨트롤 기능을 가지는노래반주기 및 그의 컨트롤 방법 |
US8947870B2 (en) | 2008-03-17 | 2015-02-03 | Cby Holdings, Llc | Sliding and rotating apparatus and device having same |
US8692937B2 (en) * | 2010-02-25 | 2014-04-08 | Silicon Image, Inc. | Video frame synchronization |
CN102413335A (zh) * | 2010-09-20 | 2012-04-11 | 深圳Tcl新技术有限公司 | 一种手动调节节目音画同步的装置及方法 |
WO2012047304A1 (en) * | 2010-10-04 | 2012-04-12 | Vidyo, Inc. | Delay aware rate control in the context of hierarchical p picture coding |
JP2012119924A (ja) * | 2010-11-30 | 2012-06-21 | Toshiba Corp | 映像表示装置及び映像表示方法、音声再生装置及び音声再生方法、映像音声同期制御システム |
JP5768383B2 (ja) * | 2011-01-24 | 2015-08-26 | セイコーエプソン株式会社 | 画像表示装置および画像表示方法 |
US8913104B2 (en) * | 2011-05-24 | 2014-12-16 | Bose Corporation | Audio synchronization for two dimensional and three dimensional video signals |
US9595299B2 (en) * | 2012-08-01 | 2017-03-14 | Thomson Licensing | Method and apparatus for adapting audio delays to picture frame rates |
EP2891315B1 (en) * | 2012-08-28 | 2018-05-30 | Koninklijke Philips N.V. | Audio forwarding device and corresponding method. |
US9344828B2 (en) | 2012-12-21 | 2016-05-17 | Bongiovi Acoustics Llc. | System and method for digital signal processing |
DE102013200171A1 (de) * | 2013-01-09 | 2014-07-10 | Lufthansa Technik Ag | Datennetzwerk, Verfahren sowie Abspielgerät zur Wiedergabe von Audio- und Videodaten in einem In-flight Entertainment System |
US9264004B2 (en) | 2013-06-12 | 2016-02-16 | Bongiovi Acoustics Llc | System and method for narrow bandwidth digital signal processing |
US9398394B2 (en) | 2013-06-12 | 2016-07-19 | Bongiovi Acoustics Llc | System and method for stereo field enhancement in two-channel audio systems |
US9883318B2 (en) | 2013-06-12 | 2018-01-30 | Bongiovi Acoustics Llc | System and method for stereo field enhancement in two-channel audio systems |
US9906858B2 (en) | 2013-10-22 | 2018-02-27 | Bongiovi Acoustics Llc | System and method for digital signal processing |
US9397629B2 (en) | 2013-10-22 | 2016-07-19 | Bongiovi Acoustics Llc | System and method for digital signal processing |
US20150146099A1 (en) * | 2013-11-25 | 2015-05-28 | Anthony Bongiovi | In-line signal processor |
US10820883B2 (en) | 2014-04-16 | 2020-11-03 | Bongiovi Acoustics Llc | Noise reduction assembly for auscultation of a body |
US10639000B2 (en) | 2014-04-16 | 2020-05-05 | Bongiovi Acoustics Llc | Device for wide-band auscultation |
US9615813B2 (en) | 2014-04-16 | 2017-04-11 | Bongiovi Acoustics Llc. | Device for wide-band auscultation |
JP6836906B2 (ja) | 2014-06-02 | 2021-03-03 | アナヴォ・テクノロジーズ,リミテッド・ライアビリティ・カンパニー | 改変バイオポリマーならびにその生成および使用の方法 |
US9811459B1 (en) * | 2014-06-16 | 2017-11-07 | Amazon Technologies, Inc. | Data storage optimization for non-volatile memory |
US9564146B2 (en) | 2014-08-01 | 2017-02-07 | Bongiovi Acoustics Llc | System and method for digital signal processing in deep diving environment |
US9638672B2 (en) | 2015-03-06 | 2017-05-02 | Bongiovi Acoustics Llc | System and method for acquiring acoustic information from a resonating body |
CN104902317A (zh) * | 2015-05-27 | 2015-09-09 | 青岛海信电器股份有限公司 | 音视频同步方法及装置 |
JP2017063392A (ja) * | 2015-09-25 | 2017-03-30 | ブラザー工業株式会社 | 映像処理装置及び映像処理システム |
JP6632864B2 (ja) * | 2015-10-27 | 2020-01-22 | シナプティクス・ジャパン合同会社 | 表示ドライバ及び表示装置 |
JP2018537910A (ja) | 2015-11-16 | 2018-12-20 | ボンジョビ アコースティックス リミテッド ライアビリティー カンパニー | 表面音響変換器 |
US9621994B1 (en) | 2015-11-16 | 2017-04-11 | Bongiovi Acoustics Llc | Surface acoustic transducer |
EP3380577A4 (en) | 2015-11-23 | 2019-04-17 | Tethis, Inc. | COATED PARTICLES AND METHODS OF PRODUCTION AND USE |
DE102016201680A1 (de) | 2016-02-04 | 2017-08-10 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren und System zum synchronen Wiedergeben von Audiosignalen und Videosignalen |
JP2019004401A (ja) * | 2017-06-19 | 2019-01-10 | セイコーエプソン株式会社 | プロジェクションシステム、プロジェクター及びプロジェクションシステムの制御方法 |
KR20200143707A (ko) | 2018-04-11 | 2020-12-24 | 본지오비 어커스틱스 엘엘씨 | 오디오 향상 청력 보호 시스템 |
US10959035B2 (en) | 2018-08-02 | 2021-03-23 | Bongiovi Acoustics Llc | System, method, and apparatus for generating and digitally processing a head related audio transfer function |
US10834296B2 (en) * | 2018-09-12 | 2020-11-10 | Roku, Inc. | Dynamically adjusting video to improve synchronization with audio |
CN109587546B (zh) * | 2018-11-27 | 2020-09-22 | Oppo广东移动通信有限公司 | 视频处理方法、装置、电子设备和计算机可读介质 |
CN113439445B (zh) * | 2019-02-20 | 2023-03-28 | 华为技术有限公司 | 用于启用超高清联盟指定参考模式(uhda-srm)的技术 |
US11032447B2 (en) | 2019-07-08 | 2021-06-08 | Sling Media Pvt. Ltd. | Method and system for automatically synchronizing audio-video inputs in a multi camera environment |
US11323766B2 (en) * | 2019-10-03 | 2022-05-03 | Dolby International Ab | Method and device for providing audio/video content to a rendering device |
KR102618617B1 (ko) * | 2021-03-09 | 2023-12-27 | 주식회사 케이티 | 콘텐츠 출력 장치 및 콘텐츠 출력 장치의 지연 보상 방법 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1390032A (zh) * | 2001-05-17 | 2003-01-08 | 日本先锋公司 | 视频显示、音频混频、视频音频输出设备及同步方法 |
CN1520181A (zh) * | 2003-01-31 | 2004-08-11 | 汤姆森许可贸易公司 | 视频数据和辅助数据的同步读取的设备和方法及相关产品 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1997003508A1 (fr) * | 1995-07-13 | 1997-01-30 | Sony Corporation | Procede, appareil et systeme de transmission de donnees |
JPH09128330A (ja) * | 1995-11-06 | 1997-05-16 | Sony Corp | 映像表示装置 |
US5570372A (en) * | 1995-11-08 | 1996-10-29 | Siemens Rolm Communications Inc. | Multimedia communications with system-dependent adaptive delays |
JPH113565A (ja) * | 1997-06-11 | 1999-01-06 | Hitachi Ltd | データ記録再生方法及びその装置 |
DE19930824C2 (de) * | 1999-07-03 | 2001-05-31 | Grundig Ag | Bild- und Tonwiedergabegerät und Verfahren für dessen Betrieb |
JP2001136138A (ja) | 1999-11-05 | 2001-05-18 | Toshiba Corp | デジタル映像・デジタル音声伝送方法 |
GB0000874D0 (en) * | 2000-01-14 | 2000-03-08 | Koninkl Philips Electronics Nv | Latency handling for interconnected devices |
US6778493B1 (en) * | 2000-02-07 | 2004-08-17 | Sharp Laboratories Of America, Inc. | Real-time media content synchronization and transmission in packet network apparatus and method |
JP2002290932A (ja) * | 2001-03-27 | 2002-10-04 | Toshiba Corp | デジタル放送受信装置とその制御方法 |
CN1723703B (zh) * | 2003-02-27 | 2012-05-30 | 松下电器产业株式会社 | 数据处理装置及方法 |
JP2004282667A (ja) * | 2003-03-19 | 2004-10-07 | Matsushita Electric Ind Co Ltd | 再生同期ずれ補正機能を備えた送信機及び受信機、並びにそれらを有する伝送装置 |
EP1736000A1 (en) * | 2004-04-07 | 2006-12-27 | Koninklijke Philips Electronics N.V. | Video-audio synchronization |
JP4427733B2 (ja) * | 2004-07-16 | 2010-03-10 | ソニー株式会社 | 映像音声処理システム、アンプ装置および音声遅延処置方法 |
EP1657929A1 (fr) * | 2004-11-16 | 2006-05-17 | Thomson Licensing | Dispositif et méthode de synchronisation de différentes parties d'un service numérique |
-
2005
- 2005-01-07 EP EP05100072A patent/EP1657929A1/fr not_active Withdrawn
- 2005-11-08 ES ES05816179T patent/ES2719735T3/es active Active
- 2005-11-08 CN CN201110240840.1A patent/CN102291523B/zh active Active
- 2005-11-08 JP JP2007541917A patent/JP5384006B2/ja not_active Expired - Fee Related
- 2005-11-08 CN CN2005800390586A patent/CN101088292B/zh active Active
- 2005-11-08 WO PCT/EP2005/055829 patent/WO2006053847A1/en active Application Filing
- 2005-11-08 US US11/667,499 patent/US8606070B2/en active Active
- 2005-11-08 KR KR1020077011016A patent/KR101291933B1/ko active IP Right Grant
- 2005-11-08 KR KR1020127018644A patent/KR101287728B1/ko active IP Right Grant
- 2005-11-08 EP EP05816179.5A patent/EP1813116B1/en active Active
-
2011
- 2011-10-24 JP JP2011232795A patent/JP5789797B2/ja not_active Expired - Fee Related
-
2012
- 2012-06-14 US US13/488,078 patent/US8903217B2/en active Active
-
2014
- 2014-08-01 US US14/449,835 patent/US9509887B2/en active Active
- 2014-09-02 JP JP2014177628A patent/JP5806770B2/ja not_active Expired - Fee Related
-
2015
- 2015-03-31 JP JP2015070902A patent/JP5806785B2/ja not_active Expired - Fee Related
-
2016
- 2016-11-16 US US15/353,711 patent/US9826126B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1390032A (zh) * | 2001-05-17 | 2003-01-08 | 日本先锋公司 | 视频显示、音频混频、视频音频输出设备及同步方法 |
CN1520181A (zh) * | 2003-01-31 | 2004-08-11 | 汤姆森许可贸易公司 | 视频数据和辅助数据的同步读取的设备和方法及相关产品 |
Also Published As
Publication number | Publication date |
---|---|
US20080138032A1 (en) | 2008-06-12 |
JP5806770B2 (ja) | 2015-11-10 |
JP5384006B2 (ja) | 2014-01-08 |
JP2012090271A (ja) | 2012-05-10 |
EP1657929A1 (fr) | 2006-05-17 |
JP2008521302A (ja) | 2008-06-19 |
US20130242191A1 (en) | 2013-09-19 |
JP5806785B2 (ja) | 2015-11-10 |
CN102291523A (zh) | 2011-12-21 |
EP1813116A1 (en) | 2007-08-01 |
JP2015015745A (ja) | 2015-01-22 |
CN101088292A (zh) | 2007-12-12 |
US20170064155A1 (en) | 2017-03-02 |
ES2719735T3 (es) | 2019-07-12 |
KR20120097537A (ko) | 2012-09-04 |
WO2006053847A1 (en) | 2006-05-26 |
US8606070B2 (en) | 2013-12-10 |
CN101088292B (zh) | 2012-02-08 |
US8903217B2 (en) | 2014-12-02 |
KR101287728B1 (ko) | 2013-07-19 |
KR20070084235A (ko) | 2007-08-24 |
EP1813116B1 (en) | 2019-02-06 |
JP2015149752A (ja) | 2015-08-20 |
US9826126B2 (en) | 2017-11-21 |
JP5789797B2 (ja) | 2015-10-07 |
KR101291933B1 (ko) | 2013-07-31 |
US9509887B2 (en) | 2016-11-29 |
US20140341525A1 (en) | 2014-11-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102291523B (zh) | 用于对数字服务的不同部分进行同步的设备和方法 | |
JP5494697B2 (ja) | 受信装置 | |
US20040136686A1 (en) | Conversion of frame rate according to image data | |
US20100188566A1 (en) | Video/audio signal input/output device, video/audio reproduction device, video/audio device network and signal reproducing method | |
JP4036059B2 (ja) | Dvdプレーヤを内蔵した表示装置 | |
JP4762343B2 (ja) | 画質調整装置および画質調整方法 | |
US7173669B2 (en) | Digital television system and method for supporting a film mode | |
JP3573724B2 (ja) | 伝送システム、送信装置、受信装置、および伝送方法、送信方法、受信方法 | |
JP4940537B2 (ja) | 送信装置 | |
AU2811301A (en) | Apparatus for converting video format and method therefor | |
JP2004516756A (ja) | インタレースからプログレッシブへの走査変換用の復号化情報 | |
KR20050107695A (ko) | 영상 재생 시스템의 화면 모드 절환 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |