CN101171838B - 口形同步修正装置及口形同步修正方法 - Google Patents

口形同步修正装置及口形同步修正方法 Download PDF

Info

Publication number
CN101171838B
CN101171838B CN2006800147828A CN200680014782A CN101171838B CN 101171838 B CN101171838 B CN 101171838B CN 2006800147828 A CN2006800147828 A CN 2006800147828A CN 200680014782 A CN200680014782 A CN 200680014782A CN 101171838 B CN101171838 B CN 101171838B
Authority
CN
China
Prior art keywords
voice signal
image signal
time
signal
transmission line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN2006800147828A
Other languages
English (en)
Other versions
CN101171838A (zh
Inventor
江岛直树
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Publication of CN101171838A publication Critical patent/CN101171838A/zh
Application granted granted Critical
Publication of CN101171838B publication Critical patent/CN101171838B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/04Synchronising
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2368Multiplexing of audio and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43072Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4341Demultiplexing of audio and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/4363Adapting the video stream to a specific local network, e.g. a Bluetooth® network
    • H04N21/43632Adapting the video stream to a specific local network, e.g. a Bluetooth® network involving a wired protocol, e.g. IEEE 1394
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44227Monitoring of local network, e.g. connection or bandwidth variations; Detecting new devices in the local network

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Databases & Information Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Television Receiver Circuits (AREA)

Abstract

一种口形同步修正系统,在视频信号及音频信号各自的传输线路中,依照各自规定的接口,由源装置(400)向同步装置(410)发送映像信号和声音信号。所述规定的接口包含HDMI,IEEE1394等双向接口。控制器(420)取得表示依照所述双向接口的传输线路上连接的机器的总延迟时间的延迟信息(TLv),使用所述取得的延迟信息(TLv),修正再生时间的偏移。

Description

口形同步修正装置及口形同步修正方法
技术领域
本发明涉及修正映像信号和声音信号的时间差即口形同步的偏移的装置及方法。
背景技术
所谓“口形同步”,是再生时的映像信号和声音信号的同步,在现有技术中,人们想出了为了实现口形同步的各种技术。图24表示现有技术的映像声音同步系统的一个结构例。在源装置210中,映像信号和声音信号分别多重相同的印时戳(时间代码)。多重印时戳的映像信号和声音信号,虽然经过中继器214、216等各种路径,但是两者最终输入同步装置(syncdevice)220。在同步装置220中,取出映像信号的印时戳和声音信号的印时戳,用时间代码比较器检出其差。根据该差,控制在各自的最终线路上设置的映像延迟器224和声音延迟器226。例如映像信号比声音信号延迟时,给声音信号添加追加的延迟,使两者的总延迟时间相同地进行修正。
在专利文献1中,公布了比较映像信号的印时戳和声音信号的印时戳,使映像信号及声音信号中的某一个延迟,以便使两者一致地自动修正声音的时间偏移的技术。
专利文献1:JP特开2003-259314号公报
现有技术的系统,能够同时比较检出一对映像信号和声音信号的印时戳时,即将两者的印时戳同时输入相同的装置时,可以进行偏移的检出和口形同步修正。可是,在映像信号和声音信号的传输线路分离的布局(topology)中,由于只能认识一个印时戳,所以存在着不能检出映像信号和声音信号的时间差,不能进行口形同步修正的问题。
发明内容
本发明就是针对上述情况研制的,其目的在于提供即使在映像信号和声音信号的传输线路分离的结构中,也能够切实实现口形同步修正的口形同步修正装置。
在本发明的第1样态中,提供修正映像信号和声音信号的再生时间的偏移的口形同步修正系统。口形同步修正系统,在各自的传输线路中,依照各自规定的接口,由源装置向同步装置发送映像信号和声音信号。在规定的接口中,包含双向接口。口形同步修正系统,具备控制器,该控制器取得表示依照双向接口的传输线路上的机器的总延迟时间的延迟信息,使用该取得的延迟信息,修正再生时间的偏移。
采用上述结构后,控制器通过双向接口的传输线路,取得机器的延迟信息,使用该取得的信息,调整映像信号和声音信号的再生时间的偏移。采用该方法后,由于控制器能够根据从一个传输线路获得的延迟时间信息,调整其它的传输线路上的映像信号和声音信号的再生时间差,所以即使映像信号和声音信号的传输线路不同时,也能切实进行口形同步修正。
在口形同步修正系统中,可以用双向接口传输映像信号,用单向接口传输声音信号。用双向接口传输映像信号后,能够从映像信号的传输线路的下游,取得映像信号的传输线路上的机器的延迟时间信息,能够从声音信号的传输线路的上游发送取得的延迟时间信息。这样,可以在声音信号的传输线路上的机器中进行口形同步修正。
为了修正再生时间的偏移,控制器还可以赋予声音信号的传输线路上的机器追加延迟。一般来说,对于声音信号而言,映像信号延迟,所以赋予声音信号的传输线路上的机器追加延迟后,能够切实实现口形同步修正。
控制器还可以赋予声音信号的传输线路上的最下游的机器追加延迟。用最下游的机器调节追加延迟时间后,能够更切实地高精度地实现口形同步修正。
还可以将延迟信息作为声音信号的附加信息传输。这样,即使声音信号的传输线路是单向接口,也能够通过声音信号的传输线路,取得映像信号的延迟信息。
在本发明的第2样态中,提供生成、输出映像信号和声音信号的映像再生装置。映像再生装置,具备:映像接口部,该映像接口部与映像信号的传输线路连接,依照双向接口,发送映像信号;声音接口部,该声音接口部与声音信号的传输线路连接,发送声音信号;控制器,该控制器取得表示与所述映像信号的传输线路连接的机器的总延迟时间的延迟信息,将所述取得的延迟信息,发送给与所述声音信号的传输线路连接的机器。
在本发明的第3样态中,提供接收声音信号、根据接收的声音信号输出声音的声音输出装置。声音输出装置,具备:接口部,该接口部和声音信号一起,分别接收有关映像信号的延迟信息和有关声音信号的延迟信息;控制器,该控制器根据所述接收的延迟信息,调整声音信号的输出时间。
在本发明的第4样态中,提供接收映像信号、根据接收的映像信号显示映像的映像显示装置。映像显示装置,具备:接口部,该接口部接收要求发送延迟时间的指令;控制器,该控制器在接收所述指令时,通过所述接口部做媒介,发送有关该映像显示装置的映像信号的延迟时间的信息。
在本发明的第5样态中,提供修正映像信号和声音信号的再生时间的偏移的口形同步修正方法。口形同步修正方法,在各自的传输线路中,依照各自规定的接口,由源装置向同步装置发送映像信号和声音信号。规定的接口,包含双向接口。口形同步修正方法,取得表示依照双向接口的传输线路上连接的机器的总延迟时间的延迟信息;使用取得的延迟信息,修正映像信号和声音信号的偏移。
采用本发明后,控制器通过双向接口的传输线路,取得机器的延迟信息,使用该取得的信息,调整映像信号和声音信号的再生时间的偏移。这样,由于控制器能够根据从一个传输线路获得的延迟时间信息,在其它的传输线路上调整映像信号和声音信号的再生时间差,所以即使映像信号和声音信号的传输线路不同时,也能切实进行口形同步修正。
附图说明
图1是讲述本发明的基本概念的图形。
图2是表示本发明的第1实施方式中的系统结构的系统方块图。
图3是源装置(DVD播放器)的硬件结构图。
图4是同步装置(映像显示装置)的硬件结构图。
图5是同步装置(声音输出装置)的硬件结构图。
图6是中继器的硬件结构图。
图7是HDMI结构图。
图8是表示第1实施方式的系统的整体动作的流程图。
图9是表示第1实施方式中的由源装置取得映像信号的总潜伏时间TLv的取得处理的流程图。
图10是表示接收了TLv发送指令时的中继器的处理的流程图。
图11是表示接收了TLv发送指令时的同步装置的处理的流程图。
图12是表示来自源装置的映像信号的总潜伏时间TLv和声音信号的累计延迟时间sDa的发送处理的流程图。
图13是表示映像信号的总潜伏时间TLv和声音信号的累计延迟时间sDa的发送处理的流程图。
图14是表示同步装置中的声音输出时间的调整动作处理的流程图。
图15是表示本发明的第2实施方式中的系统结构的系统方块图。
图16是表示本发明的第3实施方式中的系统结构的系统方块图。
图17是表示本发明的第4实施方式中的系统结构的系统方块图。
图18是表示本发明的第5实施方式中的系统结构的系统方块图。
图19是表示本发明的第6实施方式中的系统结构的系统方块图。
图20是表示本发明的第7实施方式中的系统结构的系统方块图。
图21是表示本发明的第8实施方式中的系统结构的系统方块图。
图22是讲述给声音信号附加的附加信息的传输方式的示意图。
图23是表示依照General user data format追加规定的潜伏时间信息等附加信息的格式的图形。
图24表示现有技术的口形同步修正装置的连接结构的系统方块图。
图中
100-源装置;101-DVD媒体;102-声音可变延迟部;110-中继器;112-再编码部;120-中继器;122-映像信号处理部;130-中继器;132-信号处理部;140-同步装置;142-映像信号处理部;143-LCD液晶显示装置;150-同步装置;151-声音可变延迟部;152-译码器;153-扬声器。
具体实施方式
下面,参照附图,讲述本发明的实施方式。在各图中,对于相同的构成要素或相同功能的构成要素,赋予相同的符号。
(基本概念)
首先,参照图1,讲述本发明的有关口形同步修正的基本概念。
本发明是在发生声音信号及映像信号的源装置400和再生、输出该声音信号及映像信号的同步装置410直接或者通过中继器做媒介连接的声音映像再生系统中,修正口形同步的偏移的装置。另外,本发明作为赋予追加延迟、修正口形同步的偏移的功能,具备控制器420。
在本发明中,在使用IEEE1394或HDMI之类双向数据接口的映像传输线路中,进行映像传输。源装置400,在IEEE1394中用指令程序,在HDMI(High-Definition Multimedia Interface)中用EDID(Extended DisplayIdentification Data)程序,通过映像传输线路做媒介,询问映像信号的总潜伏时间(映像传输线路上的机器的潜伏时间(latency)的总和)。源装置400通过上传线路取得总潜伏时间的信息后,就将总潜伏时间的信息发送给声音传输线路上的其它机器。声音传输线路上的其它机器,则将各机器累计的声音的潜伏时间信息,和映像的总潜伏时间一起发送。声音传输线路上的最后的机器,通过声音传输线路,将声音的潜伏时间的合计值作为sDa,和映像的总潜伏时间(TLv)一起输出。
控制器420只从最终的最后的机器检出sDa和TLv。如果TLv>sDa,控制器420就对声音传输线路上的最后的机器附加追加延迟(extra delay)(TLv-sDa)。
这样,本发明预先取得映像的总潜伏时间信息(延迟信息),通过声音传输线路,将该信息传输给声音传输线路上的机器。然后,根据最终获得的映像信号和声音信号的潜伏时间信息,调整最后的机器中的声音信号的输出时间,修正映像信号和声音信号的偏移即口形同步的偏移。
此外,控制器420的功能,例如虽然代表性地被同步装置包含,但是如果能够实现根据最终获得的总潜伏时间信息,对最后的机器附加追加延迟,也可以被声音传输线路上的同步装置以外的装置(例如源装置及中继器)具备。另外,追加延迟也未必非要附加给声音传输线路上的最后的机器,可以使声音传输线路上的某一个机器具有。另外,还可以将追加延迟分散地附加给多个机器。
下面,讲述根据本发明的上述概念的若干具体实施方式。
(第1实施方式)
1、系统结构
图2是表示应用本发明的口形同步修正的概念的再生系统的结构的图形。
映像声音再生系统,包含生成映像·声音信号的源装置100,放大声音信号的中继器(repeater)110、130,放大映像信号的中继器120,根据映像信号显示映像的同步装置140,根据声音信号显示声音的同步装置150。
1、1源装置
源装置位于映像·声音信号的传输线路的最上游,是成为映像信号及声音信号的输出源的机器。在本实施方式中,源装置100是DVD媒体101的再生装置——DVD播放器,生成、输出映像信号200及声音信号300。
图3表示其硬件结构。源装置100具备:拾波器11,该拾波器11从DVD媒体101中读出信息,将读出的信息变换成电信号;前端处理器13,该前端处理器13接收来自拾波器11的输出信号,生成映像信号及声音信号;系统控制器15,该系统控制器15控制源装置100的整体的动作;RAM17,该RAM17作为工作区动作;ROM19,该ROM19存放规定的信息。进而,源装置100还具备HDMI接口部21和IEC接口部22,前者旨在和外部机器之间进行映像信号等的收发,后旨在和外部机器之间进行声音信号等的收发。在源装置100中,系统控制器15执行规定的程序,从而实现以下讲述的功能及处理部。如图2所示,源装置100具有声音可变延迟部102,利用它只使声音信号300延迟规定的时间(在本例中为20ms)后输出。
此外,源装置并不局限于DVD播放器,例如还可以是硬盘播放器等其它种类的媒体再生装置。
1、2同步装置
同步装置位于映像·声音信号的传输线路的最下游,是输出映像或声音的机器。
在本实施方式中,同步装置140是映像显示装置,具有图4所示的硬件结构。同步装置140具备:HDMI接口部31,该HDMI接口部31依照HDMI接口,接收数字映像信号;视屏译码器33,该视屏译码器33对接收的数字映像信号进行译码;液晶显示装置(以下称作“LCD”)143,该LCD143显示映像;驱动器37,该驱动器37根据被译码的映像信号,生成映像信号;控制器39,该控制器39控制同步装置140的整体的动作;RAM41,该RAM41作为控制器39的工作区发挥作用;ROM43,该ROM43存放规定的信息。在发器装置140中,控制器39执行规定的程序,从而实现以下讲述的功能及处理部。此外,图4中的视屏译码器33及驱动器37,构成图2所示的映像信号处理部142。映像信号处理部142的映像信号的潜伏时间(videolatency)Lv为80ms。所谓“潜伏时间”,是在机器中从将信号输入后到输出为止的延迟时间。潜伏时间Lv的信息,存放在同步装置140的ROM43中。
同步装置150,是声音输出装置,具有图5所示的硬件结构。如图5所示,同步装置150具备:IEC接口部51,该IEC接口部51依照IEEE60958,接收数字声音信号;音频译码器152,该音频译码器152对接收的数字声音信号进行译码;D/A变换器55,该D/A变换器55将译码的信号变换成模拟信号;放大器57,该放大器57放大模拟信号;扬声器153,该扬声器153按照放大器57的输出,输出声音;控制器61,该控制器39控制同步装置150的整体的动作;RAM63,该RAM63作为控制器61的工作区发挥作用;ROM65,该ROM65存放规定的信息。参照图2,同步装置150具有只使声音信号延迟规定的时间(在本例中为10ms)的声音可变延迟部151。使译码器152的声音信号的潜伏时间(audio latency)La为10ms。潜伏时间La的信息,存放在同步装置150的ROM65中。
此外,同步装置的数量及种类,并不局限于以上所述。
1、3中继器
中继器是在映像·声音信号的传输线路的中途介有的机器,例如放大器。图6示出其硬件结构。中继器110具备:HDMI接口部71,该HDMI接口部71依照HDMI接口,接收映像·声音的数字信号;IEC接口部72,该IEC接口部72依照IEEE1394,接收映像·声音的数字信号;控制器73,该控制器73处理接收的数字信号;RAM75,该RAM75作为控制器73的工作区发挥作用;ROM79,该ROM79存放程序等规定的信息。
在图2中,中继器110输入来自源装置100的映像信号200及声音信号300,放大后作为映像信号201及声音信号301输出。中继器110具有再编码器112,利用再编码器112,将声音信号300先译码后,读出信息,将读出的信息再编码。使该再编码器112的潜伏时间La为10ms。潜伏时间La的信息,存放在中继器110的ROM79中。
中继器120具有放大映像信号的映像信号处理部122,输入映像信号201,放大后作为映像信号202输出。使映像信号处理部122的潜伏时间Lv为20ms。中继器130包含对于声音信号310进行规定的信号处理的信号处理部132,将处理后的信号作为声音信号302输出。使信号处理部132的潜伏时间La为50ms。120、130具有和图6所示的结构相同的结构,将各自的潜伏时间存放在各自的ROM中。
此外,中继器的数量及种类,并不局限于以上所述。
1、4接口
在本实施方式中,作为映像信号的传输接口,使用HDMI(High-Definition Multimedia Interface)。所谓HDMI,是2002年12月制定的、主要面向家电及AV机器的数字映像·声音输出入接口标准。可以用一根电缆,一并收发映像·声音·控制信号,另外还可以用任选件,双向传输控制信号。
在本发明中,利用用HDMI,可以由源装置100向同步装置140传输高速的数字映像信号同时,还将同步装置140的分布信息依次传输给中继器120、中继器110、源装置100,实现上传线路的功能。以下,将该上传线路的功能,称作“EDID(Extended Display Identification Data)线路”。
图7表示出HDMI的结构图。如该图所示,HDMI具有3个数据频道和1个时钟脉冲频道,利用这些频道传输映像数据、声音数据及其它数据。另外,HDMI还具有交换机器间的结构及状态的显示器数据频道(以下称作“DDC”)。进而,HDMI还具有任选件的CEC线路,能够利用它在各种AV机器之间双向传输控制信息。在本实施方式中,使用DDC传输机器的映像及声音的潜伏时间有关信息。此外,也可以取代DDC,用CEC线路传输潜伏时间有关信息。另外,取代HDMI,使用IEEE1394,也能实现同样的功能。
此外,HDMI及EDID,例如在以下的文献中有详细的讲述。《高清晰度多媒体接口技术条件1.1版》(High-Definition Multimedia InterfaceSpecification Version 1.1)日立制作所株式会社、其它6公司,2004年5月20日网络<http://www.hdmi.org/download/HDNI-Specification-1.1.pdf>
在本实施方式中,为了传输声音信号,使用单向接口——IEEE60958接口。此外,在以后的实施方式中,对于声音信号的传输,有时使用双向接口——HDMI。
2、动作
在以上那种系统结构中,映像信号200被依照HDMI接口,从源装置100,经由中继器110、中继器120,向同步装置140传输。声音信号300被依照IEC60958接口,从源装置100,经由中继器110、中继器130,向同步装置150传输。
在映像信号的传输线路中,从源装置100到同步装置140为止的映像信号的总潜伏时间TLv,是中继器120的映像信号处理部122的潜伏时间Lv(20ms)和同步装置140的映像信号处理部142的潜伏时间Lv(80ms)的总和,是100ms。
另一方面,在声音信号的传输线路中,从源装置100到同步装置140为止的声音信号的潜伏时间La的总计,是中继器110的再编码器112、中继器130及同步装置150各自的潜伏时间La(10ms、50ms及10ms)的总和,成为70ms。
就是说,对于映像信号的总潜伏时间TLv是100ms而言,声音信号的潜伏时间La的总计是70ms(此外,这不包含能够进行时间调整的声音可变延迟部151的延迟时间)。这样,声音信号就被提前30ms再生。在本系统中,为知道决这种映像信号和声音信号再生时的时间差,而进行以下讲述的处理。
2、1整体流程
图8是表示本系统的整体动作的流程图。首先,位于最上游的源装置,取得映像传输线路上的各机器的映像信号的潜伏时间的合计(总潜伏时间)TLv(S11)。该处理的详细内容将在后文讲述。
接着,在声音传输线路中,源装置100向同步装置150发送映像信号的总潜伏时间TLv和各机器的声音信号中的延迟时间及潜伏时间的总计(以下称作“累计延迟时间”)sDa(S12)。这时,声音信号的累计延迟时间sDa,被依次发送给声音传输线路上的各机器,各机器的潜伏时间的值被一边相加,一边依次向下游发送。
最后,在位于最下游的同步装置中,根据声音信号的累计延迟时间sDa的值,使声音延迟后输出(S13)。这样,调整声音的输出时间,能够消除映像和声音的输出时间差。
2、2取得映像信号的总潜伏时间TLv
下面,讲述取得映像信号的总潜伏时间TLv的动作(图8的步骤S11)的详细内容。
2、2、1由源装置100取得TLv
首先,参照图9,讲述由源装置100取得映像信号的总潜伏时间TLv。源装置100向位于映像传输线路上的下游的机器(中继器、同步装置)发送TLv发送指令(S41)。TLv发送指令被源装置发送后,该指令就被依次传送给下游的机器,从下游侧向源装置100传输各机器的潜伏时间Lv被依次相加的信息sLv。最终向源装置100发送各机器(中继器、同步装置)的潜伏时间Lv的累计值(以下称作“累计潜伏时间”)sLv。该处理的详细内容将在后文讲述。
源装置100从下游的机器接收累计潜伏时间sLv后(S42),从ROM19读出自己的潜伏时间Lv(S43),将读出的潜伏时间Lv与从下游的机器接收的累计潜伏时间sLv相加(S44)。这样,能够取得映像信号的总潜伏时间TLv。
2、2、2发送来自中继器的sLv
接着,参照图10,讲述接收了TLv发送指令时的中继器120的动作。中继器110、120接收TLv发送指令后(S31),向下游的机器(中继器、同步装置)传输TLv发送指令(S32),等待来自下游的机器的累计潜伏时间sLv的发送(S33)。从下游的机器接收累计潜伏时间sLv后,中继器110、120从ROM79中读出自己的潜伏时间Lv(S34),将读出的潜伏时间Lv与来自下游的机器的累计潜伏时间sLv相加(S35),将新获得的累计潜伏时间sLv,发送给上游的机器(中继器、同步装置)(S36)。
2、2、3发送来自同步装置的sLv
再接着,参照图11,讲述接收了TLv发送指令时的同步装置140的动作。同步装置140接收TLv发送指令后(S21),就从ROM43中读出自己的潜伏时间Lv(S22),将读出的潜伏时间Lv作为累计潜伏时间sLv,发送给上游的机器(中继器、源装置)(S23)。
2、3发送映像信号的总潜伏时间TLv和声音信号的累计延迟时间sDa
接着,讲述映像信号的总潜伏时间TLv和声音信号的累计延迟时间sDa的发送动作(图8的步骤S12)的详细内容。
在声音传输线路中,映像信号的总潜伏时间TLv和声音信号的累计延迟时间sDa,被源装置100向同步装置150依次发送。这时,对于声音信号的累计延迟时间sDa,依次相加声音传输线路上的各机器的潜伏时间,最终将除了最下游的机器(同步装置150)以外,声音传输线路上的所有的机器的潜伏时间La的合计值,传输给最下游的机器(同步装置150)。
2、3、1由源装置发送TLv和sDa
首先,参照图12,讲述来自源装置的映像信号的总潜伏时间TLv和声音信号的累计延迟时间sDa的发送动作。
源装置100接收映像信号的总潜伏时间TLv后(S51),就从ROM19读出自己的潜伏时间La(S52),将读出的潜伏时间La,作为声音信号的累计延迟时间sDa,发送给声音传输线路中的下游的机器(S53)。
2、3、2由中继器发送TLv和sDa
接着,参照图13,讲述映像信号的总潜伏时间TLv和声音信号的累计延迟时间sDa的发送。
中继器110、130从上游的机器接收映像信号的总潜伏时间TLv后(S61),就从ROM79读出自己的潜伏时间La(S62)。中继器110、130将读出的潜伏时间La,与接收的累计延迟时间sDa相加,发送给下游的机器(中继器、同步装置)(S63)。
2、4调整声音输出时间
下面,参照图14,讲述同步装置150中的声音输出时间的调整动作(图8的步骤S13)的详细内容。
同步装置150从上游的机器接收映像信号的总潜伏时间TLv和声音信号的累计延迟时间sDa后(S71),就求出调整输出时间所需的延迟时间(AD)(S72)。延迟时间(AD),可以从映像信号的总潜伏时间TLv减去声音信号的累计延迟时间sDa后获得。然后,只延迟该延迟时间(AD)后输出声音(S73)。
2、5取得总潜伏时间TLv的具体例
以上,讲述了各处理。下面,讲述作为图2的结构的系统的整体的流程。
为了取得从源装置100到同步装置140为止的映像信号的总潜伏时间TLv,源装置100使用EDID线路,发出TLv发送指令。根据TLv发送指令,同步装置140将表示自己的潜伏时间Lv(80ms)的参数“sLv=80ms”,经由EDID线路,传输给中继器120。中继器120将表示接收的sLv=80ms所示的值和自己的潜伏时间Lv(20ms)之和的值“sLv=100ms”,发送给上游的中继器110。中继器110因为没有映像信号的潜伏时间,所以就原封不动地将“sLv=100ms”传输给源装置100。
源装置100将接收的sLv的值(=100ms),作为映像信号的总潜伏时间TLv(100ms)。源装置100将该映像信号的总潜伏时间TLv(100ms)作为固定的参数“TLv=100ms”,与声音信号300多重化后传输。同时,源装置100作为声音信号300的附属信息,向同步装置150传输声音信号的累计延迟时间sDa。在这里,在图2的例中,在源装置100中,对于声音可变延迟部102,设定延迟时间20ms。因此,源装置100将表示声音可变延迟部102的延迟时间20ms的参数“sDa=20ms”,与声音信号300多重化后传输。
中继器110从源装置100中接收参数“sDa=20ms”,将自己的潜伏时间La(10ms)与表示该参数的值相加,与声音信号301多重化后传输“sDa=30ms”。同样,中继器130将自己的潜伏时间La(50ms)与累计延迟时间sDa(30ms)相加,与声音信号302多重化后传输“sDa=80ms”。
同步装置150读出累计延迟时间sDa(80ms),将该值与自己的潜伏时间La(10ms)相加,作为修正前的声音信号的总延迟时间,获得90ms。同步装置150还同时读出表示映像信号的总潜伏时间TLv是100ms的固定参数“TLv=100ms”。这样,同步装置150能够知道映像信号的总潜伏时间(100ms)和修正前的声音信号的总延迟时间(90ms),将其差的10ms,作为修正值(AD),控制声音可变延迟部151。其结果,声音信号的总延迟时间被修正成100ms。
如果在源装置100中能够取得DVD媒体101的声音和映像的同步后,由于用同步装置140再生的映像信号和用同步装置150再生的声音信号都分别成为100ms延迟,所以最终可以进行取得声音和映像的同步即口形同步的再生。
3、小结
综上所述,在本实施方式中,按照来自源装置的要求,映像传输线路上的各机器,依次累加自己的映像信号的延迟时间(潜伏时间),源装置取得从源装置到同步装置的传输线路中的映像信号的总延迟时间,将映像信号的总延迟时间的参数,和声音信号及声音信号延迟时间一起传输给声音信号线路。这样,在声音传输线路上的最终级的机器中,能够知道映像信号的总延迟时间和声音信号的总延迟时间,进行声音信号的追加延迟,以便缩小其时间差,从而能够进行口形同步的偏移修正。这些映像和声音的线路最终可以不同,能够不受布局(topology)的限制。另外,由于能够取代印时戳,使用各自的线路中的各装置的潜伏时间及延迟时间的常数参数信息,所以能够减少数据的发送频度。
以上所述的功能,将所需的功能附加给各个机器和连接它们的每一个接口后,能够作为构成网络的整个系统发挥作用。这样,如果各机器具备所需的功能,在网络中就可以置换机器,另外即使网络的连接形态(topology)变化,也能获得同样的作用效果。在以下的实施方式中,讲述各种网络的连接形态中的应用例。
(第2实施方式)
在本实施方式中,讲述源装置和同步装置直接连接的系统结构中的本发明的应用例。源装置是DVD播放器,同步装置是数字电视接收机(以下称作“数字TV”)。
图15(a)、(b)、(c)表示本实施方式中的系统结构。从源装置——DVD播放器100向同步装置——数字TV140传输映像信号和声音信号,用数字TV140再生映像信号和声音信号等两者。
源装置100,是DVD媒体101的再生单元,依照HDMI,输出映像信号200和声音信号300等两者。同步装置140,内置视频信号处理部142和声音的译码器152,用LCD143及扬声器153输出映像和声音。扬声器153包含声音信号的放大器。在这里,使视频信号处理部142的映像信号的潜伏时间Lv为80ms,使译码器152的声音信号的潜伏时间La为10ms。
图15(a)表示源装置100是现有技术的装置时的例子。这样,源装置100既不能从同步装置140取得映像信号的总潜伏时间TLv,也不能向声音信号附加该信息。当然也不能向声音信号附加声音信号的累计延迟时间sDa的信息。另一方面,同步装置140知道源装置100的声音信号没有附加这些信息的情况。由于没有附加信息,所以用同步装置140本身进行口形同步修正。具体地说,根据同步装置140中的映像信号的潜伏时间Lv(80ms)和译码器152的潜伏时间La(10ms),在音频延迟部151中,为了修正它们的时间差,而使其产生70ms(=80-10)的追加延迟。利用该追加延迟,能够使映像信号和声音信号的延迟的合计值都成为80ms,能够进行口形同步修正。
图15(b)、(c)表示源装置100是应用本发明的思想的装置时的例子。源装置100通过EDID线路,在取得映像信号的总潜伏时间TLv的基础上,还能取得声音信号的累计延迟时间。进而,能够向声音信号附加这些信息。图15(b)表示出源装置100具有图1中的控制器420的功能、向源装置100附加了追加延迟的例子。图15(c)表示出将图1中的控制器420的功能分散给源装置100及同步装置140,而且将追加延迟也分散给源装置100及同步装置140的例子。
在图15(b)中,源装置100通过EDID线路,能够在取得映像信号的总潜伏时间TLv(80)的基础上,还能取得声音信号的潜伏时间La(10ms)。这样,源装置100能够根据取得的这些信息,计算追加延迟(70ms),使声音信号只延迟追加延迟(70ms)后输出。因为有该追加延迟,所以作为声音信号300的附属信息,源装置100能够将声音信号的累计延迟时间sDa作为70ms传输。同步装置140能够认识映像信号的总潜伏时间是80ms、声音信号的累计延迟时间是70ms。进而,同步装置140因为能够认识译码器152的潜伏时间是10ms,所以能够认识声音信号的总延迟时间是80ms,能够认识不需要80ms以上的延迟处理。这样,作为系统,能够进行口形同步修正。
另外,图15(c)也和图15(b)同样。但是,源装置100中的追加延迟,被限制到40ms为止。源装置100使声音信号只延迟40ms的追加延迟后输出。因为有该追加延迟,所以源装置100将声音信号的累计延迟时间sDa作为40ms附加该声音信号300后传输。由于同步装置140能够认识映像信号的总潜伏时间TLv(80ms)、声音信号的累计延迟时间sDa(70ms)、译码器152的潜伏时间10ms,所以能够认识映像信号和声音信号的延迟时间之差是30ms。因此,同步装置140用音频延迟部15130ms的追加延迟处理。其结果,在映像信号和声音信号的两者中,能够将合计的延迟时间修正成为80ms。这样,作为系统,能够进行口形同步修正。
(第3实施方式)
在本实施方式中,在声音传输线路上插入中继器的这一点上,和第2实施方式不同。图16(a)、(b)、(c)表示本实施方式中的系统结构。通过多通道放大器——中继器110做媒介,将数字TV——同步装置140与DVD播放器——源装置100连接。
源装置100,依照HDMI,输出从DVD媒体101中再生的200和声音信号300。
中继器110,具有声音信号的处理功能,为了输出比同步装置140内置的放大器及扬声器高音质的声音,或者为了多通道化而使用。中继器110,具有再编码器112,将其输出传输给同步装置140。在中继器110中,对于映像信号不延迟地直达,但是对于声音信号却用再编码器112产生10ms的潜伏时间。
同步装置140是数字TV,内置视频信号处理部142和声音的译码器152,用LCD143及扬声器153提示映像和声音。在同步装置140中,视频信号处理部142的潜伏时间Lv为80ms,译码器152的潜伏时间La为10ms。
图16(a)表示源装置100是现有技术的装置时的例子。这样,源装置100既不能知道映像信号的总潜伏时间TLv,也不能向声音信号附加该信息。另外,也不能向声音信号附加声音信号的累计延迟时间sDa的信息。
中继器110,因为不通过EDID线路做媒介,接受声音信号300附加的声音信号的累计延迟时间sDa的信息,所以知道没有附加信息。因此,中继器110发挥和本发明的源装置相同功能地动作。就是说,中继器110经由EDID线路,接收来自同步装置140的映像信号的潜伏时间Lv(80ms),将映像信号的总潜伏时间TLv,作为80ms认识。中继器110将该总潜伏时间TLv(80ms)的信息,作为声音信号的附加信息,向同步装置140传输。进而,中继器110对于声音信号的潜伏时间,也作为累计延迟时间sDa(10ms),与声音信号多重后传输给同步装置140。
另外,中继器110内的再编码器112的输出,通过中继器110内部的声音可变延迟部111及多通道放大器(未图示)等做媒介,供给扬声器113。这时,中继器110根据映像信号的总潜伏时间TLv(80ms)和声音信号的累计延迟时间sDa(10ms)之差,控制声音可变延迟部111的延迟时间。其结果,扬声器113输出的声音和用LCD143再生的映像的口形同步的偏移得到修正。这样,能够对于将高音质作为目的追加的、来自中继器110的声音信号,进行口形同步的修正。
进而,对于来自能够辅助性地使用的同步装置140的扬声器的音响,也能通过下述步骤,进行口形同步的修正。同步装置140根据来自中继器110的信息,作为映像和声音的时间差,由总潜伏时间(TLv)80ms、声音的累计延迟时间(sDa)10ms、自己本身的译码器152的潜伏时间10ms,计算出60ms。同步装置140根据该60ms的信息,控制音频延迟部151,根据各自的总延迟时间,修正成为80ms。这样,对于同步装置140的音响,也能够进行口形同步修正。
图16(b)及(c)表示源装置100是应用本发明的思想的装置时的例子。源装置100通过EDID线路,在取得映像信号的总潜伏时间TLv的基础上,还能取得声音信号的累计延迟时间,向声音信号附加这些信息。
在图16(b)中,源装置100通过EDID线路,从中继器110及同步装置140取得映像信号及声音信号各自的总潜伏时间。映像信号的总潜伏时间TLv,如第1实施方式所述的那样,能够通过向下游的机器发出TLv发送指令后取得。源装置100取得映像信号的总潜伏时间80ms。
另外,源装置100向下游的机器发出TLv发出旨在取得声音信号的总潜伏时间的指令。下游的机器接收该指令后,和接收TLv发送指令时同样,一边将自己的潜伏时间La与下游发送来的累计潜伏时间相加,一边发送给上游的机器。这样,源装置100能够知道声音信号的总潜伏时间是20ms(=10ms+10ms)。
由于映像信号的总潜伏时间是80ms、声音信号的总潜伏时间是20ms,所以作为追加延迟,源装置100设定60ms(=80ms-20ms),将追加延迟附加给声音信号。源装置100将映像信号的总潜伏时间TLv(80ms)的信息和声音信号的累计延迟时间sDa(60ms)的信息,作为声音信号的附加信息传输。
接着,中继器110接收这些信息后,控制声音可变延迟部111,以便修正映像信号的总潜伏时间TLv(80ms)的信息和声音信号的累计延迟时间sDa(60ms)之差。其结果,扬声器113输出的声音和用LCD143再生的映像的口形同步的偏移得到修正。这样,能够主要对于将高音质作为目的追加的、来自中继器110的声音信号,进行口形同步的修正。
进而,还可以通过下述步骤,对于来自能够辅助性地使用的同步装置140的扬声器的声音,进行口形同步的修正。同步装置140根据来自中继器110的信息,知道映像信号的总潜伏时间是80ms、声音信号的累计延迟时间sDa是70ms,作为映像信号和声音信号的延迟时间差,计算出10ms。由于该时间差10ms和同步装置140的潜伏时间(10ms)相等,所以同步装置140不附加追加延迟地输出声音信号。这样,对于同步装置140的声音,也能够进行口形同步的修正。
图16(c)也和图16(b)同样。但是,源装置100中的追加延迟时间,被限制到40ms为止。因此,源装置100只附加追加延迟40ms后输出声音信号。因为有该追加延迟,所以作为声音信号300的附属信息,源装置100在映像信号的潜伏时间TLv(80ms)的基础上,传输声音信号的累计延迟时间sDa(40ms)的信息。中继器110及同步装置140接受该附属信息后,中继器110控制声音可变延迟部111,使其的追加延迟成为30ms,同步装置140控制音频延迟部151,使其的追加延迟成为20ms。这样,能够将主副双方的声音输出的累计延迟时间都修正成80ms,能够进行作为系统整体的口形同步修正。
(第4实施方式)
在本实施方式中,讲述在源装置和同步装置连接的结构中,声音信号的线路分岔,放大器与该分岔的线路连接的系统结构中的本发明的应用例。源装置(DVD播放器)100、同步装置(多通道放大器)150及同步装置(数字TV)140分别用HDMI连接。
图17(a)、(b)、(c)表示本实施方式中的系统结构。同步装置140是多通道放大器,包含译码器152、音频延迟部151及多个放大器、扬声器。源装置100能够取得映像信号的总潜伏时间TLv及声音信号的累计延迟时间sDa,附加给声音信号。
图17(a)是表示在源装置100中不进行声音信号的追加延迟的例子。源装置100经由EDID线路,将映像信号的总潜伏时间TLv(80ms)的信息,作为声音信号300的附加信息,向同步装置140传输。同时,源装置100将声音信号的累计延迟时间sDa(0ms),附加给声音信号300后,传输给同步装置140及同步装置150。
同步装置140根据接收的映像信号的总潜伏时间TLv(80ms)和声音信号的累计延迟时间sDa(0ms)、同步装置140的声音信号的潜伏时间La(10ms),计算出延迟时间差70ms,控制音频延迟部251,附加70ms的追加延迟。
同样,同步装置150根据同步装置150的声音信号的潜伏时间La(20ms),计算出延迟时间差60ms,控制音频延迟部251,附加70ms的追加延迟。这样,能够进行LCD143、扬声器153及扬声器253的口形同步的修正。
图17(b)、(c)是表示在源装置100中附加声音信号的追加延迟的例子。
在图17(b)中,源装置100经由EDID线路,能够预先知道同步装置140及同步装置150的声音信号的潜伏时间La。据此,源装置100将给予最大的潜伏时间La的、去往同步装置150的线路作为基准,对声音可变延迟部102进行追加延迟60ms的设定。将总潜伏时间TLv(80ms)和声音信号的累计延迟时间sDa(60ms)的信息与声音信号300多重化后,向同步装置140及同步装置150传输。这时,同步装置150不需要追加延迟。同步装置140根据接收的映像信号的总潜伏时间TLv(80ms)和声音信号的累计延迟时间sDa(60ms)、同步装置140的声音信号的潜伏时间La(10ms),计算出声音和映像的输出时间差10ms,控制声音可变延迟部251,执行10ms的追加延迟。这样,能够进行LCD143、扬声器153及扬声器253的口形同步的修正。
接着,在图17(c)中,源装置100经由EDID线路,能够预先知道同步装置140及同步装置150的声音信号的潜伏时间La。据此,源装置100将给予最大的潜伏时间La的声音传输线路作为基准,对声音可变延迟部102进行追加延迟30ms的设定。源装置100将映像的总潜伏时间TLv(80ms)和声音信号的累计延迟时间sDa(30ms)与声音信号300多重化后,向同步装置140及同步装置150传输。这时,同步装置140不需要追加延迟。同步装置150根据接收的映像信号的总潜伏时间TLv(80ms)和声音信号的累计延迟时间sDa(30ms),使用同步装置150本身的声音信号潜伏时间La(20ms),计算出时间差30ms,控制声音可变延迟部151,执行30ms的追加延迟。这样,能够进行LCD143、扬声器153及扬声器253的口形同步的修正。
(第5实施方式)
在本实施方式中,讲述在源装置和同步装置连接的结构中,声音信号的线路分岔,放大器与该分岔的线路连接的系统结构中的本发明的应用例。
图18(a)、(b)、(c)表示本实施方式中的系统结构。在本实施方式中,将源装置(DVD播放器)100及同步装置(数字TV)140用HDMI连接。在源装置(DVD播放器)100和同步装置(多通道放大器)150之间,用S/PDIF接口连接。所谓“S/PDIF接口”,是利用IEC60958规定的同轴或光缆,传输数字音频等的接口,因为是由源装置向同步装置单向传输,所以没有具备由同步装置向源装置的上传线路。
图18(a)是表示在源装置100中不进行声音信号的追加延迟的例子。源装置100经由EDID线路,将映像信号的总潜伏时间TLv(80ms)的信息,作为声音信号300的附加信息,向同步装置140传输的同时,还将声音信号的累计延迟时间sDa(0ms),与声音信号300多重化后,传输给同步装置140及同步装置150。
同步装置140根据接收的映像信号的总潜伏时间TLv(80ms)、声音信号的累计延迟时间sDa(0ms)、同步装置140的声音信号的潜伏时间La(10ms),计算出延迟时间差70ms,控制声音延迟部251,执行70ms的追加延迟。
同样,同步装置150根据接收的映像信号的总潜伏时间TLv(80ms)、声音信号的累计延迟时间sDa(0ms)、同步装置150的声音信号的潜伏时间La(20ms),计算出延迟时间差60ms,控制声音可变延迟部151,执行60ms的追加延迟。这样,能够进行LCD143、扬声器153及扬声器253的口形同步的修正。
图18(b)及(c)是表示在源装置100中进行声音信号的追加延迟的例子。
在图18(b)中,因为同步装置150是单向传输的S/PDIF的接口,与源装置100连接,所以源装置100不能够预先知道同步装置150的声音信号的潜伏时间(La)。可是,在源装置100中,事先对声音可变延迟部102进行追加延迟70ms的设定。源装置100将总潜伏时间TLv(80ms)和声音信号的累计延迟时间sDa(60ms)的信息与声音信号300多重化后,向同步装置140及同步装置150传输。
这时,同步装置140不需要追加延迟。同步装置150根据接收的映像信号的总潜伏时间TLv(80ms)、声音信号的累计延迟时间sDa(70ms)、同步装置150本身的声音信号的潜伏时间La(20ms),计算出延迟时间差-10ms。可是,为了修正延迟时间差-10ms,需要使映像信号延迟。但在本实施例中,因为不可能,所以忽视该负的延迟时间差。其结果,对于映像信号而言,声音信号只迟10ms。因为被解释成这是在自然界中由光速和音速之差经常引起的现象,只要是100ms以内的时间差,人就不会感到不舒服,所以即使忽视该负的延迟时间差,也没多大问题。
在图18(c)中,源装置100经由EDID线路,能够预先知道同步装置140及同步装置150的声音信号的潜伏时间La。据此,源装置100对声音可变延迟部102进行追加延迟30ms的设定。将映像的总潜伏时间TLv(80ms)和声音信号的累计延迟时间sDa(30ms)与声音信号300多重化后,向同步装置140及同步装置150传输。这时,同步装置140不需要追加延迟。在同步装置150中,根据接收的映像信号的总潜伏时间TLv(80ms)和声音信号的累计延迟时间sDa(30ms)、同步装置150的声音信号潜伏时间La(20ms),计算出时间差30ms,控制声音可变延迟部151,执行30ms的追加延迟。这样,能够进行LCD143、扬声器153及扬声器253的口形同步的修正。
(第6实施方式)
在本实施方式中,讲述在源装置和同步装置连接、进而与同步装置向别的同步装置的声音传输线路连接的系统结构中的本发明的应用例。
图19(a)、(b)表示本实施方式中的系统结构。源装置(DVD播放器)100与同步装置(数字TV)140连接,进而,声音信号用HDMI,由同步装置(数字TV)140向同步装置(多通道放大器)150连接。
在图19(a)中,源装置100是现有技术的装置。这样,源装置100既不能知道映像信号的总潜伏时间TLv,也不能向声音信号附加,不能附加声音信号的累计延迟时间。
另一方面,同步装置140知道源装置100的声音信号没有附加这些信息的情况。由于没有附加信息,所以用同步装置140本身进行口形同步修正。具体地说,同步装置140使用EDID线路,预先取得同步装置150的声音信号的潜伏时间La(20ms),将该值与自己的潜伏时间La(10ms)相加,作为潜伏时间,计算出La(30ms)。同步装置140根据映像的潜伏时间(Lv)80ms和计算出的潜伏时间La(30ms),为了修正该时间差而使声音可变延迟部251产生50ms的追加延迟。这样,同步装置140能够使映像信号和声音信号的总延迟时间都成为80ms,能够实现口形同步修正。
图18(b)是表示源装置100是应用本发明的思想的装置时的例子。由于源装置100能够知道各同步装置140、150的潜伏时间,所以可以进行更柔软的延迟修正。在源装置100中,进行50ms的追加延迟,从而最终在同步装置150中能够使映像信号和声音信号的总延迟时间都成为80ms,能够实现口形同步修正。
(第7实施方式)
在本实施方式中,讲述在图17的系统结构中进而追加了插入源装置100和同步装置140之间的中继器(视频处理器)120的系统结构中的本发明的应用例。所有的机器都用HDMI接口连接。在本例中,中继器120是对于映像信号实施规定的旨在提高画质的处理的视频处理器。
图20(a)、(b)及(c)表示本实施方式中的系统结构。中继器120具有50ms的映像信号的潜伏时间Lv。源装置100经由中继器120,能够知道映像信号的总潜伏时间TLv(130ms),能够给声音信号附加该信息,进而还能够给声音信号附加声音信号的累计延迟时间。
图20(a)是表示在源装置100中不进行声音信号的追加延迟的例子。源装置100在向声音信号300传输总潜伏时间TLv(130ms)的信息的同时,对于声音信号的潜伏时间,也将累计延迟时间sDa(0ms)与声音信号多重后传输。中继器120根据接收的信息,给声音信号附加追加的延迟40ms。
同步装置140根据接收的映像信号的总潜伏时间TLv(130ms)和声音信号的累计延迟时间sDa(40ms)、同步装置140本身的声音信号的潜伏时间La(10ms),计算出延迟时间差80ms,控制声音可变延迟部251,执行80ms的追加延迟。
同样,同步装置150根据接收的映像信号的总潜伏时间TLv(130ms)和声音信号的累计延迟时间sDa(40ms)、同步装置150本身的声音信号的潜伏时间La(20ms),计算出延迟时间差110ms,控制声音可变延迟部151,执行110ms的追加延迟。这样,能够进行LCD143、扬声器153及扬声器253的口形同步修正。
图20(b)及(c)是表示在源装置100中进行声音信号的追加延迟的例子。在图20(b)中,源装置100对声音可变延迟部102进行追加延迟110ms的设定。这时,同步装置150不需要追加延迟。
在同步装置140中,根据接收的映像的总潜伏时间TLv(130ms)、声音的累计延迟时间sDa(110ms)、同步装置140本身的声音信号潜伏时间La(10ms),计算出延迟时间差10ms,控制声音可变延迟部251,执行10ms的追加延迟。这样,能够进行LCD143、扬声器153及扬声器253的口形同步的修正。
在图20(c)中,源装置100对声音可变延迟部102进行追加延迟80ms的设定。源装置100将总潜伏时间TLv(130ms)和声音信号的累计延迟时间sDa(80ms)与声音信号300多重化后传输。这时,同步装置150不需要追加延迟。
另一方面,在同步装置150中,根据接收的映像信号的总潜伏时间TLv(130ms)、声音信号的累计延迟时间sDa(80ms)、同步装置150本身的声音信号潜伏时间La(20ms),计算出延迟时间差30ms,控制声音可变延迟部151,执行30ms的追加延迟。这样,能够进行LCD143、扬声器153及扬声器253的口形同步的修正。
(第8实施方式)
在本实施方式中,讲述在中继器(视频处理器)110插入源装置(DVD播放器)100和同步装置(数字TV)140之间、进而通过中继器110做媒介连接同步装置(多通道放大器)150的系统结构中的本发明的应用例。中继器110和同步装置150用S/PDIF接口连接。其他用HDMI连接。
图21(a)、(b)及(c)表示本实施方式中的系统结构。在图21(a)中,源装置100是现有技术的装置,不能知道映像信号的总潜伏时间(TLv)。
中继器110,经由EDID线路,能够知道映像信号的总潜伏时间TLv(80ms)。中继器110将映像信号的总潜伏时间TLv(80ms)和声音信号的累计延迟时间sDa(80ms),向下游的机器输出。
同步装置140根据从中继器110接收的映像信号的总潜伏时间TLv(80ms)及声音信号的累计延迟时间sDa(20ms)和自己的潜伏时间La(10ms)之差,计算出延迟时间差50ms。根据该计算出的延迟时间差50ms,控制声音可变延迟部251。
同步装置150,经由S/PDIF线路,接收映像信号的总潜伏时间TLv(80ms)和声音信号的累计延迟时间sDa(20ms),根据这些值和自己的潜伏时间La(40ms),计算出延迟时间差40ms。根据该计算出的值,控制声音可变延迟部151。这样,能够进行所有的口形同步的修正。
图21(b)及(c)是表示在源装置100中进行声音信号的追加延迟的例子。在图21(b)中,因为中继器110和同步装置150用S/PDIF接口连接,所以源装置100不能够预先知道同步装置150的声音信号的潜伏时间(La)。但是源装置100预先对声音可变延迟部102进行追加延迟50ms的设定。
源装置100将映像信号的总潜伏时间TLv(80ms)和声音信号的累计延迟时间sDa(50ms)与声音信号300多重化后传输。这时,同步装置140不需要追加延迟。
在同步装置150中,根据接收的映像信号的总潜伏时间TLv(80ms)、声音信号的累计延迟时间sDa(50ms)、同步装置150本身的声音信号潜伏时间La(20ms),计算出延迟时间差-10ms,为了修正延迟时间差-10ms,需要不使声音信号而使映像信号延迟。但在本实施例中,因为不可能,所以予以忽视。前已叙及,忽视这种负的延迟时间差,也没问题。
在图21(c)中,源装置100经由EDID线路,能够预先知道同步装置140及同步装置150的声音信号的潜伏时间La(50ms)。根据该值,源装置100对声音可变延迟部102进行追加延迟10ms的设定。这样,同步装置140不需要追加延迟。
另一方面,同步装置150根据接收的映像信号的总潜伏时间TLv(80ms)和声音信号的累计延迟时间sDa(30ms)、同步装置150本身的声音信号的潜伏时间La(20ms),计算出延迟时间差30ms,控制声音可变延迟部151,执行110ms的追加延迟。
这样,能够对所有的LCD及扬声器进行口形同步修正。
(第9实施方式)
下面,参照图22,讲述在声音信号上重叠附加信息的方法。图22是使用IEC 60958规定的用户比特(以下称作“Ubit”)传输附加信息的例子的图形。
Ubit,被声音信号的取样数据包含,每个R的PCM数据,附加1bit。该Ubit是比特串,用从启动比特开始的8比特的群定义。Ubit决定使用General user data format的情况。这样,依照General user data format,追加规定潜伏时间信息等附加信息。关于General user data format,在IEC 60958-36.2.4.1节中,有详细的叙述。
图23是表示依照General user data format追加规定的潜伏时间信息等附加信息的格式的图形。用最初的IU1表示是潜伏时间信息,用IU2规定信息语长。IU3是分类代码的复制。使用从IU4到IU11为止的8个IU,构成包含以下信息的6字节的信息。
Audio Latency Valid:是声音信号的累计延迟时间sDa的信息的有效性比特。
Audio Unit type:表示声音信号的累计延迟时间sDa的信单位。
Audio Latency:是表示声音信号的累计延迟时间sDa的信息,具有16比特的语长。
Video Latency Valid:是映像信号的总潜伏时间(TLv)的信息的有效性比特。
Video Unit type:是表示映像信号的总潜伏时间(TLv)的信息的单位。
Video Latency:是映像信号的总潜伏时间(TLv)的信息,具有16比特的语长。
之所以如此使用Ubit进行传输,是因为要与分类无关地广泛地保持通用性的缘故。进而,还可以传输SMPTE标准的印时戳。
这样,利用依照IEC标准的数字音频接口后,能够传输本发明所需的潜伏时间信息。就是说,能够在上述实施方式中的S/PDIF接口中,应用依照IEC标准的数字音频接口。
另外,关于HDMI,音频传输格式规定依照IEC 60958的格式。换言之,在HDMI格式中包含IEC 60958的格式后传输。就是说,和IEC 60958完全同样地使用Ubit后,在HDMI中,也能IEC 60958的用形式,传输本发明使用的所有的潜伏时间信息。进而,用IEC 61883(1394)的AMP协议书规定的被称作“IEC公共格式(conformant)”的格式,用1394接口也能够完全同样地使传输本发明的潜伏时间信息。
以上,用特定的实施方式讲述了本发明。但是对业内人事来说,显然有其它许多变形例、修正和其它的利用方法。因此,本发明并不局限于本文的特定的叙述,而只能由添附的《权利要求书》限制。此外,本申请与日本国专利申请特愿2005-131963号(2005年4月28日递交)关联,通过参照,将它们的内容引入本文中。
本发明在使用处理映像信号和声音信号的AV机器及连接它们的接口构成的网络等广大范围的装置、AV机器等接口等中,大有用处。

Claims (10)

1.一种口形同步修正系统,修正映像信号与声音信号的再生时间的偏移,
将映像信号与声音信号,在各自的传输线路中,依照各自规定的接口,由源装置向同步装置发送,并用依照双向接口的传输线路发送映像信号;
所述口形同步修正系统具备控制器,该控制器取得经声音信号的传输线路发送来的、表示依照所述双向接口的传输线路上连接的机器的映像信号的总延迟时间的第1延迟信息和表示声音信号的传输线路上连接的机器的声音信号的总延迟时间的第2延迟信息,使用所述取得的第1及第2延迟信息,修正所述再生时间的偏移,
所述源装置,经依照所述双向接口的传输线路取得所述映像信号的总延迟时间,经声音信号的传输线路将所述取得的映像信号的总延迟时间发送到同步装置,并且将所述声音信号的总延迟时间依次发送给所述声音信号的传输路线上的各机器,在所述声音信号的传输路线上的各机器中该机器的声音信号的延迟时间依次被加入所述声音信号的总延迟时间。
2.如权利要求1所述的口形同步修正系统,其特征在于:用单向接口传输所述声音信号。
3.如权利要求1所述的口形同步修正系统,其特征在于:为了修正所述再生时间的偏移,所述控制器赋予所述声音信号的传输线路上的机器追加延迟。
4.如权利要求3所述的口形同步修正系统,其特征在于:所述控制器,赋予所述声音信号的传输线路上的最下游的机器所述追加延迟。
5.如权利要求1所述的口形同步修正系统,其特征在于:将所述第1及第2延迟信息作为所述声音信号的附加信息传输。
6.如权利要求1所述的口形同步修正系统,其特征在于:所述双向接口,是HDMI或IEEE1394。
7.一种声音输出装置,经声音信号的传输线路接收声音信号、根据接收的声音信号输出声音,具备:
接口部,该接口部经所述声音信号的传输线路接收声音信号,并分别接收有关映像信号的延迟信息和有关声音信号的延迟信息;和
控制器,该控制器根据所述接收的延迟信息,调整声音信号的输出时间,
经所述接口部接收的有关映像信号的延迟信息,是将与映像信号的传输线路相连接的机器的有关映像信号的延迟信息累计相加后得到的信息,
经所述接口部接收的所述有关声音信号的延迟信息,是将与所述声音信号的传输线路相连接的机器的有关声音信号的延迟信息累计相加后得到的信息。
8.一种映像再生装置,生成并输出映像信号和声音信号,具备:
映像接口部,该映像接口部与映像信号的传输线路连接,依照双向接口,发送映像信号;
声音接口部,该声音接口部能与声音信号的传输线路连接,发送声音信号,所述声音信号的传输线路与权利要求7所述的声音输出装置连接;以及
控制器,该控制器经所述映像信号的传输路线取得表示与所述映像信号的传输线路连接的机器的映像信号的总延迟时间的延迟信息,并经所述声音信号的传输路线将所述取得的延迟信息,发送给与所述声音信号的传输线路连接的机器。
9.一种映像显示装置,接收映像信号、根据接收的映像信号显示映像,并接收声音信号、根据接收的声音信号输出声音,所述映像显示装置具备:
映像接口部,该映像接口部与依照双向接口的映像信号的传输线路连接,接收要求发送所述映像显示装置的映像信号的延迟时间的指令;
声音接口部,该声音接口部与声音信号的传输线路连接,接收声音信号;和
控制器,该控制器在接收所述指令时,通过所述映像接口部,发送有关该映像显示装置的映像信号的延迟时间的信息,并经声音信号的传输线路接收表示映像信号的总延迟时间的第1延迟信息和表示声音信号的总延迟时间的第2延迟信息,使用所述接收的第1及第2延迟信息,修正映像信号与声音信号间的偏移。
10.一种口形同步修正方法,修正映像信号与声音信号的再生时间的偏移,具备:
a)将映像信号和声音信号,在各自的传输线路中,依照各自规定的接口,由源装置向同步装置发送,
用依照双向接口的传输线路发送所述映像信号;
b)经依照所述双向接口的传输线路,取得表示依照所述双向接口的传输线路上的机器的映像信号的总延迟时间的第1延迟信息;
c)经声音信号的传输线路向控制器发送所取得的第1延迟信息;
d)经所述声音信号的传输线路,将表示声音信号的总延迟时间的第2延迟信息依次发送到所述声音信号的传输路线上的各机器,在所述各机器中将该机器的声音信号的延迟时间加入所述声音信号的总延迟时间中,并最终得到的第2延迟信息发送到所述控制器;
e)在所述控制器中,取得经所述声音信号的传输路线接收的所述第1及第2延迟信息,使用所述取得的第1及第2延迟信息,修正所述同步装置中的映像信号与声音信号的偏移。
CN2006800147828A 2005-04-28 2006-04-25 口形同步修正装置及口形同步修正方法 Active CN101171838B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP131963/2005 2005-04-28
JP2005131963 2005-04-28
PCT/JP2006/308643 WO2006118106A1 (ja) 2005-04-28 2006-04-25 リップシンク補正装置及びリップシンク補正方法

Publications (2)

Publication Number Publication Date
CN101171838A CN101171838A (zh) 2008-04-30
CN101171838B true CN101171838B (zh) 2011-06-01

Family

ID=37307906

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2006800147828A Active CN101171838B (zh) 2005-04-28 2006-04-25 口形同步修正装置及口形同步修正方法

Country Status (4)

Country Link
US (3) US8451375B2 (zh)
JP (2) JP4912296B2 (zh)
CN (1) CN101171838B (zh)
WO (1) WO2006118106A1 (zh)

Families Citing this family (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101536518B (zh) * 2006-11-07 2012-06-20 索尼株式会社 电子装置、控制信息传输方法和控制信息接收方法
US8441576B2 (en) * 2006-11-07 2013-05-14 Sony Corporation Receiving device, delay-information transmitting method in receiving device, audio output device, and delay-control method in audio output device
KR101306706B1 (ko) * 2006-11-09 2013-09-11 엘지전자 주식회사 디지털 티브이와 연결된 외부기기 자동 설정 장치 및 방법
JP4962024B2 (ja) * 2007-01-31 2012-06-27 パナソニック株式会社 データ送信・受信システム
US8724619B2 (en) * 2007-12-31 2014-05-13 Apple Inc. Transparently routing a telephone call between mobile and VOIP services
JP2009272791A (ja) * 2008-05-02 2009-11-19 Sony Corp 送信装置、情報送信方法、受信装置および情報処理方法
JP5316189B2 (ja) * 2008-05-23 2013-10-16 ヤマハ株式会社 Avシステム
US7822879B2 (en) * 2008-05-27 2010-10-26 Valens Semiconductor Ltd. Methods for address assignment
WO2009144807A1 (ja) * 2008-05-30 2009-12-03 パイオニア株式会社 コンテンツ送受信システム、コンテンツ送信装置、及びコンテンツ受信装置
JP2010081332A (ja) * 2008-09-26 2010-04-08 Sony Corp 情報処理装置および方法、プログラム、並びに情報処理システム
JP5310007B2 (ja) * 2008-10-16 2013-10-09 ソニー株式会社 情報処理システム、表示装置、出力装置および情報処理装置
US8938675B2 (en) * 2009-06-16 2015-01-20 Harman International Industries, Incorporated System for automated generation of audio/video control interfaces
US8692937B2 (en) * 2010-02-25 2014-04-08 Silicon Image, Inc. Video frame synchronization
US10448083B2 (en) 2010-04-06 2019-10-15 Comcast Cable Communications, Llc Streaming and rendering of 3-dimensional video
US11711592B2 (en) * 2010-04-06 2023-07-25 Comcast Cable Communications, Llc Distribution of multiple signals of video content independently over a network
US9565426B2 (en) 2010-11-12 2017-02-07 At&T Intellectual Property I, L.P. Lip sync error detection and correction
JP2012119924A (ja) * 2010-11-30 2012-06-21 Toshiba Corp 映像表示装置及び映像表示方法、音声再生装置及び音声再生方法、映像音声同期制御システム
JP5284451B2 (ja) * 2011-11-30 2013-09-11 株式会社東芝 電子機器及び音声出力方法
EP2611051B1 (en) * 2011-12-29 2014-06-04 Thomson Licensing Method for synchronizing media services
JP2015039092A (ja) * 2012-01-13 2015-02-26 株式会社東芝 電子機器、及び電子機器の制御方法
KR20130101629A (ko) * 2012-02-16 2013-09-16 삼성전자주식회사 보안 실행 환경 지원 휴대단말에서 컨텐츠 출력 방법 및 장치
RU2015111194A (ru) * 2012-08-28 2016-10-20 Конинклейке Филипс Н.В. Устройство пересылки звука и соответствующий способ
JP2014127213A (ja) * 2012-12-25 2014-07-07 Pioneer Electronic Corp 同期再生制御装置及び同期再生制御方法
DE102013200171A1 (de) 2013-01-09 2014-07-10 Lufthansa Technik Ag Datennetzwerk, Verfahren sowie Abspielgerät zur Wiedergabe von Audio- und Videodaten in einem In-flight Entertainment System
US20140250482A1 (en) * 2013-03-01 2014-09-04 Prime Image Delaware, Inc. System and method for removing a pause in a delayed remote broadcast interview
KR102140612B1 (ko) * 2013-09-13 2020-08-11 삼성전자주식회사 오디오 신호의 출력을 지연시키는 a/v 수신 장치 및 그 방법, 그리고, a/v 신호 처리 시스템
KR102201617B1 (ko) * 2014-01-07 2021-01-12 삼성전자 주식회사 Av기기 및 그 제어방법
US9723180B2 (en) 2014-01-08 2017-08-01 Vizio Inc Device and method for correcting lip sync problems on display devices
US9646653B2 (en) * 2014-03-24 2017-05-09 Autodesk, Inc. Techniques for processing and viewing video events using event metadata
US9886980B2 (en) * 2014-05-05 2018-02-06 Lattice Semiconductor Corporation Method for synchronizing A/V streams
WO2016001967A1 (ja) * 2014-06-30 2016-01-07 Necディスプレイソリューションズ株式会社 表示装置、表示方法、及び表示プログラム
US9215491B1 (en) * 2014-07-10 2015-12-15 Google Inc. Methods, systems, and media for controlling a bi-directional HDMI port
EP3209016A4 (en) * 2014-10-14 2018-02-28 LG Electronics Inc. Method and apparatus for transmitting and receiving data using hdmi
US11044386B1 (en) 2014-12-18 2021-06-22 The Directv Group, Inc. Method and system for synchronizing playback of independent audio and video streams through a network
CN104980820B (zh) * 2015-06-17 2018-09-18 小米科技有限责任公司 多媒体文件播放方法及装置
JP6720566B2 (ja) * 2016-02-17 2020-07-08 ヤマハ株式会社 オーディオ機器
CN106067989B (zh) * 2016-04-28 2022-05-17 江苏大学 一种人像语音视频同步校准装置及方法
CN109314631B (zh) * 2016-06-24 2021-08-27 雅马哈株式会社 同步设定装置、传送系统、同步设定方法及记录介质
JP2019004401A (ja) * 2017-06-19 2019-01-10 セイコーエプソン株式会社 プロジェクションシステム、プロジェクター及びプロジェクションシステムの制御方法
JP2019028208A (ja) * 2017-07-28 2019-02-21 セイコーエプソン株式会社 プロジェクター、プロジェクターの制御方法および表示システム
TWI672956B (zh) * 2017-12-22 2019-09-21 宏正自動科技股份有限公司 影音同步裝置及影音資料同步方法
JP6956354B2 (ja) * 2018-08-30 2021-11-02 パナソニックIpマネジメント株式会社 映像信号出力装置、制御方法、及び、プログラム
EP3871422A1 (en) * 2018-10-24 2021-09-01 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Source device, sink devices, methods and computer programs
CN109587546B (zh) * 2018-11-27 2020-09-22 Oppo广东移动通信有限公司 视频处理方法、装置、电子设备和计算机可读介质
JP7276677B2 (ja) * 2019-02-18 2023-05-18 カシオ計算機株式会社 データ取得装置、その制御方法及び制御プログラム、並びに制御機器、データ取得機器
CN113439445B (zh) * 2019-02-20 2023-03-28 华为技术有限公司 用于启用超高清联盟指定参考模式(uhda-srm)的技术
US11228799B2 (en) 2019-04-17 2022-01-18 Comcast Cable Communications, Llc Methods and systems for content synchronization
WO2021060578A1 (ko) * 2019-09-25 2021-04-01 엘지전자 주식회사 영상표시장치, 이의 립싱크 보정방법 및 영상표시시스템
US11323766B2 (en) * 2019-10-03 2022-05-03 Dolby International Ab Method and device for providing audio/video content to a rendering device
CN110971783B (zh) * 2019-11-29 2022-08-02 深圳创维-Rgb电子有限公司 电视音画同步自整定方法、装置和存储介质
CN110958484B (zh) * 2019-12-13 2021-12-07 深圳市爱图仕影像器材有限公司 音频数据发送、接收方法及装置及传输系统及存储介质
FR3105686A1 (fr) * 2019-12-18 2021-06-25 Sagemcom Broadband Sas Equipement décodeur à double liaison audio
JP7537908B2 (ja) 2020-05-01 2024-08-21 株式会社アイ・オー・データ機器 配信音声遅延調整装置、配信音声遅延調整システム、および配信音声遅延調整プログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1377185A (zh) * 2001-03-27 2002-10-30 株式会社东芝 数字广播接收设备及其控制方法
CN1797534A (zh) * 2004-12-27 2006-07-05 株式会社东芝 用于中继流数据的信息处理装置

Family Cites Families (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4313135B1 (en) * 1980-07-28 1996-01-02 J Carl Cooper Method and apparatus for preserving or restoring audio to video
JPH0282887A (ja) 1988-09-20 1990-03-23 Fujitsu Ltd 画像・音声伝送システム
JP2648095B2 (ja) 1994-07-14 1997-08-27 日本電気エンジニアリング株式会社 画像符号化および復号化装置
DE19754297A1 (de) * 1997-12-08 1999-06-10 Thomson Multimedia Sa Audiodatendekoder
US6269122B1 (en) * 1998-01-02 2001-07-31 Intel Corporation Synchronization of related audio and video streams
US6785230B1 (en) * 1999-05-25 2004-08-31 Matsushita Electric Industrial Co., Ltd. Audio transmission apparatus
JP4312934B2 (ja) * 1999-06-29 2009-08-12 エルジー エレクトロニクス インコーポレイティド デジタルインタフェースを通して連結された機器間の特性情報による動作方法及びその制御装置
JP2001128167A (ja) 1999-10-29 2001-05-11 Sharp Corp デジタルavシステム
GB0000874D0 (en) * 2000-01-14 2000-03-08 Koninkl Philips Electronics Nv Latency handling for interconnected devices
US6778493B1 (en) * 2000-02-07 2004-08-17 Sharp Laboratories Of America, Inc. Real-time media content synchronization and transmission in packet network apparatus and method
JP3550349B2 (ja) * 2000-03-29 2004-08-04 日本電信電話株式会社 統計的情報をフィードバックする一斉同報通信システム及び方法
DE10031355A1 (de) * 2000-06-28 2002-01-17 Grundig Ag Verfahren und Vorrichtung zur zeitsynchronen Weiterleitung von Signalen
US6630963B1 (en) * 2001-01-23 2003-10-07 Digeo, Inc. Synchronizing a video program from a television broadcast with a secondary audio program
US7030930B2 (en) * 2001-03-06 2006-04-18 Ati Technologies, Inc. System for digitized audio stream synchronization and method thereof
US7047308B2 (en) * 2001-08-31 2006-05-16 Sharp Laboratories Of America, Inc. System and method for simultaneous media playout
US7558326B1 (en) * 2001-09-12 2009-07-07 Silicon Image, Inc. Method and apparatus for sending auxiliary data on a TMDS-like link
JP3544963B2 (ja) * 2001-09-20 2004-07-21 株式会社東芝 同期再生のための方法および装置
WO2003039142A1 (fr) * 2001-10-29 2003-05-08 Matsushita Electric Industrial Co., Ltd. Appareil de synchronisation audio/video
US20030122964A1 (en) * 2002-01-02 2003-07-03 Sony Electronics Inc. Synchronization network, system and method for synchronizing audio
US6906755B2 (en) * 2002-01-04 2005-06-14 Microsoft Corporation Method and apparatus for synchronizing audio and video data
CN1873769B (zh) * 2002-02-19 2010-06-09 株式会社东芝 数据显示系统、数据中继设备、数据中继方法及数据系统
JP2003259314A (ja) 2002-02-26 2003-09-12 Nippon Hoso Kyokai <Nhk> 映像音声同期方法及びそのシステム
JP4536653B2 (ja) * 2003-02-27 2010-09-01 パナソニック株式会社 データ処理装置および方法
JP2004282667A (ja) * 2003-03-19 2004-10-07 Matsushita Electric Ind Co Ltd 再生同期ずれ補正機能を備えた送信機及び受信機、並びにそれらを有する伝送装置
US7283586B2 (en) * 2003-05-06 2007-10-16 Northrop Grumman Corporation Adaptive equalizer matched filter error metric concept and apparatus
JP2005057714A (ja) * 2003-07-31 2005-03-03 Toshiba Corp 送信機器及び送信方法
JP2005109703A (ja) * 2003-09-29 2005-04-21 Pioneer Electronic Corp 画像出力装置、画像出力方法、画像表示システムおよび画像出力プログラム並びに情報記録媒体
JP3797360B2 (ja) * 2003-12-25 2006-07-19 オンキヨー株式会社 Avシステム、増幅装置、コンテンツ再生装置、増幅装置及びコンテンツ再生装置の動作プログラム
CN100505064C (zh) * 2004-04-06 2009-06-24 松下电器产业株式会社 声音再生装置
JP4357356B2 (ja) * 2004-05-10 2009-11-04 株式会社東芝 映像信号受信装置及び映像信号受信方法
US7400653B2 (en) * 2004-06-18 2008-07-15 Dolby Laboratories Licensing Corporation Maintaining synchronization of streaming audio and video using internet protocol
US7631119B2 (en) * 2004-06-25 2009-12-08 Apple Inc. Techniques for providing audio for synchronized playback by multiple devices
JP4427733B2 (ja) * 2004-07-16 2010-03-10 ソニー株式会社 映像音声処理システム、アンプ装置および音声遅延処置方法
JP4468142B2 (ja) * 2004-10-29 2010-05-26 株式会社東芝 データ中継装置、データ中継方法、データ伝送システム
EP1657929A1 (fr) * 2004-11-16 2006-05-17 Thomson Licensing Dispositif et méthode de synchronisation de différentes parties d'un service numérique
US20060123063A1 (en) * 2004-12-08 2006-06-08 Ryan William J Audio and video data processing in portable multimedia devices
US7499462B2 (en) * 2005-03-15 2009-03-03 Radiospire Networks, Inc. System, method and apparatus for wireless delivery of content from a generalized content source to a generalized content sink
US20060209210A1 (en) * 2005-03-18 2006-09-21 Ati Technologies Inc. Automatic audio and video synchronization
JP2006311288A (ja) * 2005-04-28 2006-11-09 Sony Corp オーディオ中継装置及びオーディオ中継方法
US7423693B2 (en) * 2005-07-28 2008-09-09 Cole James R Video delay stabilization system and method
CN101248667B (zh) * 2005-08-26 2012-09-12 松下电器产业株式会社 信号源装置以及信号源装置的控制方法
JP2007124090A (ja) * 2005-10-26 2007-05-17 Renesas Technology Corp 情報機器
JP4184397B2 (ja) * 2005-11-11 2008-11-19 シャープ株式会社 映像音声処理システムおよびその制御方法、音声処理システム、映像音声処理システム制御プログラム、ならびに該プログラムを記録した記録媒体
JP2007194845A (ja) * 2006-01-18 2007-08-02 Sony Corp コンテンツ再生システム及びコンテンツ再生方法
JP4544190B2 (ja) * 2006-03-31 2010-09-15 ソニー株式会社 映像音声処理システム、映像処理装置、音声処理装置、映像音声の出力装置および映像と音声の同期処理方法
US8441576B2 (en) * 2006-11-07 2013-05-14 Sony Corporation Receiving device, delay-information transmitting method in receiving device, audio output device, and delay-control method in audio output device
TWI395476B (zh) * 2006-12-20 2013-05-01 Princeton Technology Corp 用於高解析多媒體介面之影音資料時序判斷方法及其相關裝置
JP5086632B2 (ja) * 2006-12-22 2012-11-28 株式会社東芝 映像表示装置、映像表示システムおよび映像表示方法
US8320410B2 (en) * 2007-05-23 2012-11-27 Broadcom Corporation Synchronization of media data streams with separate sinks using a relay
JP5091578B2 (ja) * 2007-07-26 2012-12-05 株式会社東芝 映像処理装置及び映像処理方法
US7861017B2 (en) * 2007-10-19 2010-12-28 Sony Corporation Consumer electronics control (CEC) line enhancement method for HDMI network that selects a transfer rate from a plurality of transfer rates
JP5050807B2 (ja) * 2007-11-22 2012-10-17 ソニー株式会社 再生装置、表示装置、再生方法および表示方法
AU2008291065A1 (en) * 2007-12-19 2009-07-09 Interactivetv Pty Limited Device and method for synchronisation of digital video and audio streams to media presentation devices
JP4516156B2 (ja) * 2008-02-06 2010-08-04 パナソニック株式会社 映像音声データ同期方法、映像出力機器、音声出力機器及び映像音声出力システム
JP5316189B2 (ja) * 2008-05-23 2013-10-16 ヤマハ株式会社 Avシステム
US8345681B2 (en) * 2009-09-23 2013-01-01 Samsung Electronics Co., Ltd. Method and system for wireless communication of audio in wireless networks
WO2011118135A1 (ja) * 2010-03-25 2011-09-29 パナソニック株式会社 送信装置、受信装置、送信方法および受信方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1377185A (zh) * 2001-03-27 2002-10-30 株式会社东芝 数字广播接收设备及其控制方法
CN1797534A (zh) * 2004-12-27 2006-07-05 株式会社东芝 用于中继流数据的信息处理装置

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
JP平2-82887A 1990.03.23
JP特开2003-101958A 2003.04.04
JP特开2003-348489A 2003.12.05

Also Published As

Publication number Publication date
JP2011223639A (ja) 2011-11-04
WO2006118106A1 (ja) 2006-11-09
US8451375B2 (en) 2013-05-28
US8891013B2 (en) 2014-11-18
CN101171838A (zh) 2008-04-30
JPWO2006118106A1 (ja) 2008-12-18
JP4912296B2 (ja) 2012-04-11
US20140160351A1 (en) 2014-06-12
US20130250174A1 (en) 2013-09-26
US20090073316A1 (en) 2009-03-19
US8687118B2 (en) 2014-04-01
JP5186028B2 (ja) 2013-04-17

Similar Documents

Publication Publication Date Title
CN101171838B (zh) 口形同步修正装置及口形同步修正方法
US7356051B2 (en) Digital visual interface with audio and auxiliary data cross reference to related applications
CN101207733A (zh) 数字广播接收装置和同步方法
JP2015130662A (ja) Av機器及びその制御方法
CN101763875B (zh) 一种通过蓝牙控制字幕切换的系统及方法
EP0952689A2 (en) Transmitter, receiver and distribution medium for an infrared communication system
CN101330586B (zh) 音频输出装置、输入装置、控制装置、控制系统以及控制方法
US11962833B2 (en) Source devices, sink devices, methods and computer programs
CN101202870A (zh) 音频数据发送装置和音频数据接收装置
US7702005B2 (en) Method for transmitting and/or receiving audio data of a plurality of audio sources through a single SPDIF link, and related apparatus
JP2008061010A (ja) 映像音声送信装置
US20060282872A1 (en) Component-type video and digital audio extender
JP4986229B2 (ja) 同期した異なる種類のストリーミングデータを受信し且つ同時に再生する受信システム、受信装置及びプログラム
US8619950B1 (en) Video and digital audio transport
US12014709B2 (en) Transmission device, transmission method, reception device and reception method
CN112136176B (zh) 发送设备、发送方法、接收设备和接收方法
CN102656616A (zh) 用于控制电子系统的方法和装置
CN113454712A (zh) 发送装置、发送方法、接收装置和接收方法
KR100249970B1 (ko) 종합 정보 통신망(isdn)에서의 지연 보상 장치
JP3178505B2 (ja) 伝送再生装置
JP3214971B2 (ja) リモートミキシング装置
KR20240013502A (ko) 비디오 데이터 및 오디오 데이터를 처리하는 멀티미디어 디바이스 및 그 제어 방법
JP2010074227A (ja) 情報処理システム、通信制御装置及びプログラム
Walker AES50—Applications in Live Sound
JP2001016554A (ja) 映像伝送方法およびその装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant