JP2005102193A - Content receiving apparatus, video/audio output timing control method, and content providing system - Google Patents

Content receiving apparatus, video/audio output timing control method, and content providing system Download PDF

Info

Publication number
JP2005102193A
JP2005102193A JP2004256204A JP2004256204A JP2005102193A JP 2005102193 A JP2005102193 A JP 2005102193A JP 2004256204 A JP2004256204 A JP 2004256204A JP 2004256204 A JP2004256204 A JP 2004256204A JP 2005102193 A JP2005102193 A JP 2005102193A
Authority
JP
Japan
Prior art keywords
video
audio
frame
picture
clock
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004256204A
Other languages
Japanese (ja)
Other versions
JP4735932B2 (en
Inventor
Ikuo Tsukagoshi
郁夫 塚越
Shinji Takada
信司 高田
Koichi Goto
晃一 後藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2004256204A priority Critical patent/JP4735932B2/en
Publication of JP2005102193A publication Critical patent/JP2005102193A/en
Application granted granted Critical
Publication of JP4735932B2 publication Critical patent/JP4735932B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4341Demultiplexing of audio and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43072Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2368Multiplexing of audio and video streams

Abstract

<P>PROBLEM TO BE SOLVED: To enable surely adjusting lip sync between video and audio at a decoder side without making a viewer to have a sense of incongruity due to deterioration in image quality. <P>SOLUTION: If determining that a video frame VF1 is delayed compared to an audio frame AF1 on the basis of the time difference generated by deviation between clock frequency of a reference clock at an encoder side and clock frequency of a system time clock (stc) at the decoder side. If a B picture exists, this apparatus outputs pictures while skipping the B picture, and shortens a picture refreshing timing in a video frame corresponding to a display rate of a monitor 10 if the B picture does not exist. Thus, the lip sync can be adjusted between the video and audio in a state that the deterioration in image quality does not occur in any case. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、コンテンツ受信装置、ビデオオーディオ出力タイミング制御方法及びコンテンツ提供システムに関し、例えばコンテンツを受信するデコーダ側で映像と音声のリップシンクがずれることを解消する場合に適用して好適なものである。   The present invention relates to a content receiving apparatus, a video / audio output timing control method, and a content providing system, and is suitable for application to, for example, eliminating the lip sync between video and audio on the decoder side receiving content. .

従来、コンテンツ受信装置においては、エンコーダ側のサーバからコンテンツを受信してデコードする場合、当該コンテンツを構成する映像パケット及び音声パケットに分離し、それぞれデコードした後に映像パケットに付されたビデオタイムスタンプと音声パケットに付されたオーディオタイムスタンプを基にビデオフレームとオーディオフレームを出力することにより、映像と音声との出力タイミングを一致させる(すなわちリップシンクさせる)ようになされている(例えば、特許文献1、特許文献2参照)。
特開平8-280008号公報 特開2004-15553公報
2. Description of the Related Art Conventionally, in a content receiving apparatus, when content is received from an encoder server and decoded, it is separated into a video packet and an audio packet constituting the content, and a video time stamp attached to the video packet after decoding, respectively, By outputting a video frame and an audio frame based on the audio time stamp attached to the audio packet, the output timing of the video and the audio is matched (that is, lip synced) (for example, Patent Document 1). , See Patent Document 2).
Japanese Patent Laid-Open No. 8-280008 Japanese Patent Laid-Open No. 2004-15553

ところでかかる構成のコンテンツ受信装置においては、当該デコーダ側のシステムタイムクロックと、エンコーダ側の基準クロックとが互いに同期しているとは限らず、また当該デコーダ側のシステムタイムクロックにおけるクロックジッタ等によってエンコーダ側の基準クロックとの間でクロック周波数の微妙なずれが生じていることもある。   By the way, in the content receiving apparatus having such a configuration, the system time clock on the decoder side and the reference clock on the encoder side are not always synchronized with each other, and the encoder is based on the clock jitter in the system time clock on the decoder side. There may be a slight shift in the clock frequency with the reference clock on the side.

またコンテンツ受信装置は、ビデオフレームとオーディオフレームとではそのデータ長が異なるため、当該デコーダ側のシステムタイムクロックとエンコーダ側の基準クロックとが完全に同期していないときには、ビデオタイムスタンプ及びオーディオタイムスタンプを基にビデオフレーム及びオーディオフレームを出力したとしても、映像と音声との出力タイミングが一致せず、リップシンクがずれてしまうという問題があった。   In addition, since the data length of the content receiving device is different between the video frame and the audio frame, when the system time clock on the decoder side and the reference clock on the encoder side are not completely synchronized, the video time stamp and the audio time stamp Even if the video frame and the audio frame are output based on the above, there is a problem that the output timing of the video and the audio does not match and the lip sync is shifted.

本発明は以上の点を考慮してなされたもので、視聴者であるユーザに違和感を感じさせることなく映像及び音声間のリップシンクを当該デコーダ側で確実に調整し得るコンテンツ受信装置、ビデオオーディオ出力タイミング制御方法及びコンテンツ提供システムを提案しようとするものである。   The present invention has been made in consideration of the above points, and a content receiving apparatus, video audio and the like that can reliably adjust the lip sync between video and audio on the decoder side without causing the viewer user to feel uncomfortable. An output timing control method and a content providing system are proposed.

かかる課題を解決するため本発明のコンテンツ受信装置においては、エンコーダ側の基準クロックに基づくビデオタイムスタンプが順次付された複数の符号化ビデオフレームと、基準クロックに基づくオーディオタイムスタンプが順次付された複数の符号化オーディオフレームとをエンコーダ側のコンテンツ提供装置から受信して復号する復号手段と、復号手段によって符号化ビデオフレーム及び符号化オーディオフレームを復号した結果得られる複数のビデオフレーム及び複数のオーディオフレームを蓄積する記憶手段と、エンコーダ側の基準クロックのクロック周波数とデコーダ側のシステムタイムクロックのクロック周波数とのずれによって生じる時間差を算出する算出手段と、時間差が所定の時間よりも長く、かつビデオフレームがオーディオフレームよりも遅れているか否かを判定するビデオ遅れ判定手段と、記憶手段から出力すべきビデオフレームとして次のピクチャを生成する際の参照フレームとならない非参照フレームが存在するか否かを判定するピクチャ判定手段と、ビデオ遅れ判定手段によりビデオフレームがオーディオフレームよりも遅れている場合で、かつ当該ピクチャ判定手段により非参照フレームが存在すると判定されたとき、当該非参照フレームをスキップして出力し、非参照フレームが存在しないと判定されたとき、表示手段の表示レートに合わせてビデオフレームにおけるピクチャ更新レートを速めることにより映像及び音声間のリップシンクを調整するタイミング調整手段とを設けるようにする。   In order to solve such a problem, in the content receiving apparatus of the present invention, a plurality of encoded video frames sequentially attached with video time stamps based on the reference clock on the encoder side and audio time stamps based on the reference clock are sequentially attached. Decoding means for receiving and decoding a plurality of encoded audio frames from the content providing apparatus on the encoder side, and a plurality of video frames and a plurality of audios obtained as a result of decoding the encoded video frame and the encoded audio frame by the decoding means Storage means for accumulating frames; calculation means for calculating a time difference caused by a difference between the clock frequency of the reference clock on the encoder side and the clock frequency of the system time clock on the decoder side; and the time difference being longer than a predetermined time and video Frame Video delay determining means for determining whether or not the audio frame is delayed, and whether or not there is a non-reference frame that is not a reference frame when generating the next picture as a video frame to be output from the storage means. When the video determining unit and the video delay determining unit determine that the video frame is behind the audio frame and the picture determining unit determines that a non-reference frame exists, the non-reference frame is skipped. And a timing adjustment unit that adjusts the lip sync between video and audio by increasing the picture update rate in the video frame according to the display rate of the display unit when it is determined that no non-reference frame exists. To.

従ってコンテンツ受信装置では、エンコーダ側の基準クロックのクロック周波数とデコーダ側のシステムタイムクロックのクロック周波数とのずれによって生じる時間差に基づいてビデオフレームがオーディオフレームよりも遅れていると判断した場合で、かつ非参照フレームが存在するときには当該非参照フレームをスキップして出力し、非参照フレームが存在しないときには表示手段の表示レートに合わせてビデオフレームにおけるピクチャ更新レートを速めることにより、非参照フレームが存在するときには、次のピクチャをデコードする際の参照対象となるPピクチャやIピクチャをスキップすることがないため画質劣化を生じさせることなく映像及び音声間のリップシンクを調整することができると共に、非参照フレームが存在しないときにはスキップするのではなくピクチャ更新レートを速めることにより映像及び音声間のリップシンクを調整することができるので、非参照フレームの有無に拘らず画質劣化のない状態でリップシンクさせることができる。   Therefore, in the content receiving device, when it is determined that the video frame is delayed from the audio frame based on the time difference caused by the difference between the clock frequency of the reference clock on the encoder side and the clock frequency of the system time clock on the decoder side, and When there is a non-reference frame, the non-reference frame is skipped and output, and when there is no non-reference frame, the non-reference frame exists by accelerating the picture update rate in the video frame according to the display rate of the display means. Sometimes, it is possible to adjust the lip sync between video and audio without degrading the image quality because there is no skipping of the P picture or I picture to be referenced when decoding the next picture, and non-reference There is a frame It is possible to adjust the lip-sync between the video and audio by expediting the picture update rate instead of skipping the Itoki can be lip-sync with no regardless image degradation to the presence or absence of non-reference frames.

また本発明のビデオオーディオ出力タイミング制御方法においては、復号手段に対して、エンコーダ側の基準クロックに基づくビデオタイムスタンプが順次付された複数の符号化ビデオフレームと、基準クロックに基づくオーディオタイムスタンプが順次付された複数の符号化オーディオフレームとをエンコーダ側のコンテンツ提供装置から受信して復号させる復号ステップと、記憶手段に対して、復号ステップで符号化ビデオフレーム及び符号化オーディオフレームを復号した結果得られる複数のビデオフレーム及び複数のオーディオフレームを蓄積させる記憶ステップと、算出手段に対して、エンコーダ側の基準クロックのクロック周波数とデコーダ側のシステムタイムクロックのクロック周波数とのずれによって生じる時間差を算出させる算出ステップと、ビデオ遅れ判定手段に対して、時間差が所定の時間よりも長く、かつビデオフレームがオーディオフレームよりも遅れているか否かを判定するビデオ遅れ判定ステップと、ピクチャ判定手段に対して、記憶手段から出力すべきビデオフレームとして次のピクチャを生成する際の参照フレームとならない非参照フレームが存在するか否かを判定するピクチャ判定ステップと、タイミング調整手段に対して、ビデオ遅れ判定ステップでビデオフレームがオーディオフレームよりも遅れている場合で、かつピクチャ判定ステップで非参照フレームが存在すると判定されたとき、当該非参照フレームをスキップして出力し、非参照フレームが存在しないと判定されたとき、表示手段の表示レートに合わせてビデオフレームにおけるピクチャ更新レートを速めることにより映像及び音声間のリップシンクを調整するタイミング調整ステップとを設けるようにする。   In the video / audio output timing control method of the present invention, a plurality of encoded video frames sequentially attached with video time stamps based on the reference clock on the encoder side and audio time stamps based on the reference clock are provided to the decoding means. A decoding step for receiving and decoding a plurality of sequentially encoded audio frames from the content providing apparatus on the encoder side, and a result of decoding the encoded video frame and the encoded audio frame in the decoding step with respect to the storage means Storage step for accumulating a plurality of obtained video frames and a plurality of audio frames, and calculating means for calculating a time difference caused by a difference between a clock frequency of a reference clock on the encoder side and a clock frequency of a system time clock on the decoder side The A video delay determining step for determining whether the time difference is longer than a predetermined time and the video frame is delayed with respect to the audio frame; A picture determination step for determining whether or not there is a non-reference frame that is not a reference frame when generating the next picture as a video frame to be output from the storage means; and a video delay determination step for the timing adjustment means If the video frame is later than the audio frame and if it is determined in the picture determination step that a non-reference frame exists, the non-reference frame is skipped and output, and it is determined that there is no non-reference frame. The video frame according to the display rate of the display means. To be provided and a timing adjustment step of adjusting the lip-sync between the video and audio by expediting the picture update rate.

従ってビデオオーディオ出力タイミング制御方法では、エンコーダ側の基準クロックのクロック周波数とデコーダ側のシステムタイムクロックのクロック周波数とのずれによって生じる時間差に基づいてビデオフレームがオーディオフレームよりも遅れていると判断した場合で、かつ非参照フレームが存在するときには当該非参照フレームをスキップして出力し、非参照フレームが存在しないときには表示手段の表示レートに合わせてビデオフレームにおけるピクチャ更新レートを速めることにより、非参照フレームが存在するときには、次のピクチャをデコードする際の参照対象となるPピクチャやIピクチャをスキップすることがないため画質劣化を生じさせることなく映像及び音声間のリップシンクを調整することができると共に、非参照フレームが存在しないときにはスキップするのではなくピクチャ更新レートを速めることにより映像及び音声間のリップシンクを調整することができるので、非参照フレームの有無に拘らず画質劣化のない状態でリップシンクさせることができる。   Therefore, in the video audio output timing control method, when it is determined that the video frame is behind the audio frame based on the time difference caused by the difference between the clock frequency of the reference clock on the encoder side and the clock frequency of the system time clock on the decoder side. When there is a non-reference frame, the non-reference frame is skipped and output, and when there is no non-reference frame, the picture update rate in the video frame is increased in accordance with the display rate of the display means. Is present, it is possible to adjust the lip sync between video and audio without causing image quality degradation because the P picture or I picture that is the reference object when decoding the next picture is not skipped. , Non Since the lip sync between video and audio can be adjusted by accelerating the picture update rate instead of skipping when there is no reference frame, the lip sync is performed without any deterioration in image quality regardless of the presence or absence of non-reference frames. be able to.

さらに本発明においては、コンテンツ提供装置とコンテンツ受信装置を有するコンテンツ提供システムであって、コンテンツ提供装置は、エンコーダ側の基準クロックに基づくビデオタイムスタンプを付した複数の符号化ビデオフレームと、基準クロックに基づくオーディオタイムスタンプを付した複数の符号化オーディオフレームとを生成する符号化手段と、複数の符号化ビデオフレーム及び複数の符号化オーディオフレームをコンテンツ受信装置へ順次送信する送信手段とを具え、コンテンツ受信装置は、ビデオタイムスタンプが順次付された複数の符号化ビデオフレームと、オーディオタイムスタンプが順次付された複数の符号化オーディオフレームとをエンコーダ側のコンテンツ提供装置から受信して復号する復号手段と、当該復号手段によって符号化ビデオフレーム及び符号化オーディオフレームを復号した結果得られる複数のビデオフレーム及び複数のオーディオフレームを蓄積する記憶手段と、エンコーダ側の基準クロックのクロック周波数とデコーダ側のシステムタイムクロックのクロック周波数とのずれによって生じる時間差を算出する算出手段と、時間差が所定の時間よりも長く、かつビデオフレームがオーディオフレームよりも遅れているか否かを判定するビデオ遅れ判定手段と、記憶手段から出力すべきビデオフレームとして非参照フレームが存在するか否かを判定するピクチャ判定手段と、ビデオ遅れ判定手段によりビデオフレームがオーディオフレームよりも遅れている場合で、かつピクチャ判定手段により次のピクチャを生成する際の参照フレームとならない非参照フレームが存在すると判定されたとき、当該非参照フレームをスキップして出力し、非参照フレームが存在しないと判定されたとき、表示手段の表示レートに合わせてビデオフレームにおけるピクチャ更新レートを速めることにより映像及び音声間のリップシンクを調整するタイミング調整手段とを設けるようにする。   The present invention further provides a content providing system having a content providing apparatus and a content receiving apparatus, wherein the content providing apparatus includes a plurality of encoded video frames with video time stamps based on a reference clock on the encoder side, and a reference clock. Encoding means for generating a plurality of encoded audio frames with audio time stamps based on, and a transmission means for sequentially transmitting a plurality of encoded video frames and a plurality of encoded audio frames to a content receiving device, The content receiving device receives a plurality of encoded video frames sequentially attached with video time stamps and a plurality of encoded audio frames sequentially attached with audio time stamps from a content providing device on the encoder side and decodes them Means and decryption A storage means for storing a plurality of video frames and a plurality of audio frames obtained as a result of decoding the encoded video frame and the encoded audio frame by a stage; a clock frequency of a reference clock on an encoder side; and a clock of a system time clock on a decoder side A calculation means for calculating a time difference caused by a deviation from the frequency, a video delay determination means for determining whether the time difference is longer than a predetermined time and the video frame is behind the audio frame, and a storage means for output. A picture determination unit that determines whether or not a non-reference frame exists as a video frame to be generated, and a video delay by the video delay determination unit, and a next picture is generated by the picture determination unit Reference frame When it is determined that there is an unreferenced non-reference frame, the non-reference frame is skipped and output, and when it is determined that there is no non-reference frame, the picture update rate in the video frame is set in accordance with the display rate of the display means. Timing adjustment means for adjusting lip sync between video and audio by speeding up is provided.

従ってコンテンツ提供システムでは、エンコーダ側の基準クロックのクロック周波数とデコーダ側のシステムタイムクロックのクロック周波数とのずれによって生じる時間差に基づいてビデオフレームがオーディオフレームよりも遅れていると判断した場合で、かつ非参照フレームが存在するときには当該非参照フレームをスキップして出力し、非参照フレームが存在しないときには表示手段の表示レートに合わせてビデオフレームにおけるピクチャ更新レートを速めることにより、非参照フレームが存在するときには、次のピクチャをデコードする際の参照対象となるPピクチャやIピクチャをスキップすることがないため画質劣化を生じさせることなく映像及び音声間のリップシンクを調整することができると共に、非参照フレームが存在しないときにはスキップするのではなくピクチャ更新レートを速めることにより映像及び音声間のリップシンクを調整することができるので、非参照フレームの有無に拘らず画質劣化のない状態でリップシンクさせることができる。   Therefore, in the content providing system, when it is determined that the video frame is later than the audio frame based on the time difference caused by the difference between the clock frequency of the reference clock on the encoder side and the clock frequency of the system time clock on the decoder side, and When there is a non-reference frame, the non-reference frame is skipped and output, and when there is no non-reference frame, the non-reference frame exists by accelerating the picture update rate in the video frame according to the display rate of the display means. Sometimes, it is possible to adjust the lip sync between video and audio without degrading the image quality because there is no skipping of the P picture or I picture to be referenced when decoding the next picture, and non-reference Frame exists Because when no can adjust the lip-sync between the video and audio by expediting the picture update rate instead of skipping can be lip-sync with no regardless image degradation to the presence or absence of non-reference frames.

上述のように本発明によれば、エンコーダ側の基準クロックのクロック周波数とデコーダ側のシステムタイムクロックのクロック周波数とのずれによって生じる時間差に基づいてビデオフレームがオーディオフレームよりも遅れていると判断した場合で、かつ非参照フレームが存在するときには当該非参照フレームをスキップして出力し、非参照フレームが存在しないときには表示手段の表示レートに合わせてビデオフレームにおけるピクチャ更新レートを速めることにより、非参照フレームが存在するときには、次のピクチャをデコードする際の参照対象となるPピクチャやIピクチャをスキップすることがないため画質劣化を生じさせることなく映像及び音声間のリップシンクを調整することができると共に、非参照フレームが存在しないときにはスキップするのではなくピクチャ更新レートを速めることにより映像及び音声間のリップシンクを調整することができるので、非参照フレームの有無に拘らず画質劣化のない状態でリップシンクさせることができ、かくして視聴者であるユーザに画質劣化による違和感を感じさせることなく映像及び音声間のリップシンクを当該デコーダ側で確実に調整し得るコンテンツ受信装置、ビデオオーディオ出力タイミング制御方法及びコンテンツ提供システムを実現することができる。   As described above, according to the present invention, the video frame is determined to be behind the audio frame based on the time difference caused by the difference between the clock frequency of the reference clock on the encoder side and the clock frequency of the system time clock on the decoder side. If there is a non-reference frame, the non-reference frame is skipped and output, and when there is no non-reference frame, the non-reference frame is increased by increasing the picture update rate in the video frame in accordance with the display rate of the display means. When there is a frame, it is possible to adjust the lip sync between video and audio without causing deterioration in image quality because the P picture or I picture that is a reference target when decoding the next picture is not skipped. And there is no non-reference frame Sometimes you can adjust the lip sync between video and audio by accelerating the picture update rate instead of skipping, so you can rip sync with no image degradation regardless of the presence or absence of non-reference frames, thus To realize a content receiving apparatus, a video / audio output timing control method, and a content providing system capable of reliably adjusting a lip sync between video and audio on the decoder side without causing a viewer user to feel uncomfortable due to image quality degradation. Can do.

以下、図面について、本発明の一実施の形態を詳述する。   Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.

(1)コンテンツ提供システムの全体構成
図1において、1は全体として本発明のコンテンツ提供システムを示し、大きく分けてコンテンツ配信側となるコンテンツ提供装置2と、コンテンツ受信側となる第1のコンテンツ受信装置3及び第2のコンテンツ受信装置4とによって構成されている。
(1) Overall Configuration of Content Providing System In FIG. 1, reference numeral 1 denotes the content providing system of the present invention as a whole, which is roughly divided into a content providing apparatus 2 on the content distribution side and a first content reception on the content receiving side The apparatus 3 and the second content receiving apparatus 4 are configured.

コンテンツ提供システム1では、コンテンツ提供装置2及びWebサーバ14と第1のコンテンツ受信装置3とがインターネット5を介して相互に接続されており、当該Webサーバ14からインターネット5経由で取得したコンテンツ配信先であるURL(Uniform Resource Locator)や当該コンテンツに関するメタデータを第1のコンテンツ受信装置3におけるWebブラウザ15で解析し、そのメタデータやURLをストリーミングデコーダ9へ供給する。   In the content providing system 1, the content providing device 2, the Web server 14, and the first content receiving device 3 are connected to each other via the Internet 5, and a content distribution destination acquired from the Web server 14 via the Internet 5. The URL (Uniform Resource Locator) and metadata related to the content are analyzed by the Web browser 15 in the first content receiving device 3, and the metadata and URL are supplied to the streaming decoder 9.

ストリーミングデコーダ9では、Webブラウザ15により解析したURLに基づいて当該コンテンツ提供装置2のストリーミングサーバ8へアクセスし、ユーザ所望のコンテンツに対する配信要求を行う。   The streaming decoder 9 accesses the streaming server 8 of the content providing apparatus 2 based on the URL analyzed by the Web browser 15 and makes a distribution request for the content desired by the user.

コンテンツ提供装置2は、エンコーダ7でユーザ所望のコンテンツに対応したコンテンツデータを予めエンコードし、その結果得られるエレメンタリストリームをストリーミングサーバ8でパケット化し、これをインターネット5を介して第1のコンテンツ受信装置3へ配信するようになされている。   In the content providing apparatus 2, content data corresponding to user-desired content is encoded in advance by the encoder 7, the resulting elementary stream is packetized by the streaming server 8, and the first content is received via the Internet 5. Distribution to the device 3 is performed.

これによりコンテンツ提供システム1では、第1のコンテンツ受信装置3からの要求に応じたユーザ所望のコンテンツをコンテンツ提供装置2から配信するビデオオンデマンド(VOD)のようなプリエンコーデッドストリーミングを実現し得るようになされている。   As a result, the content providing system 1 can realize pre-encoded streaming such as video on demand (VOD) in which content desired by the user in response to a request from the first content receiving device 3 is distributed from the content providing device 2. It is made like that.

第1のコンテンツ受信装置3は、エレメンタリストリームをストリーミングデコーダ9でデコードすることにより元の映像及び音声を復元し、当該元の映像及び音声をモニタ10から出力するようになされている。   The first content receiving device 3 restores the original video and audio by decoding the elementary stream by the streaming decoder 9 and outputs the original video and audio from the monitor 10.

またコンテンツ提供システム1では、第1のコンテンツ受信装置3と第2のコンテンツ受信装置4とが例えばIEEE(Institute of Electrical and Electronics Engineers)802.11a/b/g等の規格に準拠した無線LAN6で接続されており、当該第1のコンテンツ受信装置3が外部から供給された地上波ディジタル、BS(Broadcast Satellite)/CS(Communication Satellite)ディジタル又は地上波アナログ放送等のコンテンツあるいはDVD(Digital Versatile Disc)、VideoCDほか一般的なビデオカメラからのコンテンツをリアルタイムストリーミングエンコーダ11でリアルタイムにエンコードした後に中継する形で第2のコンテンツ受信装置4へ無線送信し得るようになされている。   In the content providing system 1, the first content receiving device 3 and the second content receiving device 4 are connected by a wireless LAN 6 compliant with a standard such as IEEE (Institute of Electrical and Electronics Engineers) 802.11a / b / g. The first content receiving device 3 is supplied from the outside, such as terrestrial digital, BS (Broadcast Satellite) / CS (Communication Satellite) digital or terrestrial analog broadcast content or DVD (Digital Versatile Disc), Content from a general video camera such as VideoCD can be wirelessly transmitted to the second content receiving device 4 in a form of being relayed after being encoded in real time by the real-time streaming encoder 11.

因みに、第1のコンテンツ受信装置3と第2のコンテンツ受信装置4とは必ずしも無線LAN6で接続されていなければならない訳ではなく、有線LANで接続されていても良い。   Incidentally, the 1st content receiver 3 and the 2nd content receiver 4 do not necessarily need to be connected by wireless LAN 6, and may be connected by wired LAN.

第2のコンテンツ受信装置4は、第1のコンテンツ受信装置3から受信したコンテンツをリアルタイムストリーミングデコーダ12でデコードすることによりストーミング再生を行い、その再生結果をモニタ13へ出力するようになされている。   The second content receiving device 4 performs storm playback by decoding the content received from the first content receiving device 3 by the real-time streaming decoder 12 and outputs the playback result to the monitor 13.

かくして第1のコンテンツ受信装置3及び第2のコンテンツ受信装置4の間では、外部から供給を受けたコンテンツを第1のコンテンツ受信装置3におけるリアルタイムストリーミングエンコーダ11でリアルタイムにエンコードして第2のコンテンツ受信装置4へ送信し、当該第2のコンテンツ受信装置4でストリーミング再生することにより、ライブストリーミングを実現し得るようになされている。   Thus, between the first content receiving device 3 and the second content receiving device 4, the content supplied from the outside is encoded in real time by the real-time streaming encoder 11 in the first content receiving device 3, and the second content. Live streaming can be realized by transmitting to the receiving device 4 and performing streaming playback on the second content receiving device 4.

(2)コンテンツ提供装置の構成
図2に示すようにコンテンツ提供装置2は、エンコーダ7及びストリーミングサーバ8によって構成されており、外部から取り込んだビデオ信号VS1をビデオ入力部21を介してディジタル変換した後にビデオデータVD1としてビデオエンコーダ22へ送出する。
(2) Configuration of Content Providing Device As shown in FIG. 2, the content providing device 2 is composed of an encoder 7 and a streaming server 8, and digitally converts a video signal VS1 taken from outside via a video input unit 21. Later, it is sent to the video encoder 22 as video data VD1.

ビデオエンコーダ22は、ビデオデータVD1を例えばMPEG1/2/4(Moving Picture Experts Group)の規格に準拠した所定の圧縮符号化方法あるいは種々の圧縮符号化方式で圧縮符号化し、その結果得られるビデオエレメンタリストリームVES1をリングバッファでなるビデオES蓄積部23へ送出する。   The video encoder 22 compresses and encodes the video data VD1 by a predetermined compression encoding method or various compression encoding methods compliant with, for example, the MPEG1 / 2/4 (Moving Picture Experts Group) standard, and the resulting video device 22 The mental stream VES1 is sent to the video ES storage unit 23 formed of a ring buffer.

ビデオES蓄積部23は、ビデオエレメンタリストリームVES1を一旦蓄積した後に、当該ビデオエレメンタリストリームVES1をストリーミングサーバ8のパケット生成部27及びビデオフレームカウンタ28へ送出する。   The video ES accumulation unit 23 temporarily accumulates the video elementary stream VES1, and then sends the video elementary stream VES1 to the packet generation unit 27 and the video frame counter 28 of the streaming server 8.

ビデオフレームカウンタ28では、ビデオエレメンタリストリームVES1をフレーム周波数単位(29.97[Hz]あるいは30[Hz]あるいは59.94[Hz]あるいは60[Hz])でカウントし、そのカウントアップ値を基準クロックに基づく90[KHz]単位の値に変換し、32ビット表現で各ビデオフレームに対するビデオタイムスタンプVTS(VTS1、VTS2、VTS3、……)としてパケット生成部27へ送出する。   The video frame counter 28 counts the video elementary stream VES1 in frame frequency units (29.97 [Hz], 30 [Hz], 59.94 [Hz] or 60 [Hz]), and uses the counted up value as a reference. The value is converted into a value in units of 90 [KHz] based on the clock, and is sent to the packet generation unit 27 as a video time stamp VTS (VTS1, VTS2, VTS3,...) For each video frame in 32-bit representation.

また、コンテンツ提供装置2は外部から取り込んだオーディオ信号AS1をエンコーダ7のオーディオ入力部24を介してディジタル変換した後にオーディオデータAD1としてオーディオエンコーダ25へ送出する。   Further, the content providing apparatus 2 digitally converts the audio signal AS1 captured from the outside via the audio input unit 24 of the encoder 7, and then sends the audio signal AS1 to the audio encoder 25 as audio data AD1.

オーディオエンコーダ25は、オーディオデータAD1をMPEG1/2/4オーディオの規格に準拠した所定の圧縮符号化方法あるいは種々の圧縮符号化方式で圧縮符号化し、その結果得られるオーディオエレメンタリストリームAES1をリングバッファでなるオーディオES蓄積部26へ送出する。   The audio encoder 25 compresses and encodes the audio data AD1 by a predetermined compression encoding method or various compression encoding methods compliant with the MPEG1 / 2/4 audio standard, and the resulting audio elementary stream AES1 is a ring buffer. To the audio ES storage unit 26.

オーディオES蓄積部26は、オーディオエレメンタリストリームAES1を一旦蓄積した後に、当該オーディオエレメンタリストリームAES1をストリーミングサーバ8のパケット生成部27及びオーディオフレームカウンタ29へ送出する。   The audio ES accumulation unit 26 once accumulates the audio elementary stream AES1, and then sends the audio elementary stream AES1 to the packet generation unit 27 and the audio frame counter 29 of the streaming server 8.

オーディオフレームカウンタ29はビデオフレームカウンタ28と同様、オーディオフレームのカウントアップ値をビデオと共通の基準クロックに基づく90[KHz]単位の値に変換し、各オーディオフレームに対するオーディオタイムスタンプATS(ATS1、ATS2、ATS3、……)として32ビット表現し、パケット生成部27へ送出する。   Similarly to the video frame counter 28, the audio frame counter 29 converts the count-up value of the audio frame into a value in units of 90 [KHz] based on the reference clock common to the video, and the audio time stamp ATS (ATS1, ATS2) for each audio frame. , ATS3,...) Is expressed as 32 bits and sent to the packet generator 27.

パケット生成部27では、ビデオエレメンタリストリームVES1を所定データサイズのパケットに分割し、それぞれのパケットにビデオヘッダ情報を付加することによりビデオパケットを生成すると共に、オーディオエレメンタリストリームAES1を所定データサイズのパケットに分割し、それぞれのパケットにオーディオヘッダ情報を付加することによりオーディオパケットを生成する。   The packet generation unit 27 divides the video elementary stream VES1 into packets of a predetermined data size, generates video packets by adding video header information to each packet, and also converts the audio elementary stream AES1 to a predetermined data size. An audio packet is generated by dividing the packet and adding audio header information to each packet.

ここで図3に示すようにオーディオパケット及びビデオパケットは、インターネット層におけるホスト間通信用のIP(Internet Protocol)ヘッダ、トランスポート層における伝送制御用のTCP(Transmission Control Protocol)ヘッダ、リアルタイム・データ転送制御用のRTP(RealTime Transport Protocol)ヘッダ及びRTPペイロードからなり、RTPヘッダ内における4バイトのタイムスタンプ領域に上述のオーディオタイムスタンプATSやビデオタイムスタンプVTSが書き込まれるようになされている。   Here, as shown in FIG. 3, an audio packet and a video packet include an IP (Internet Protocol) header for communication between hosts in the Internet layer, a TCP (Transmission Control Protocol) header for transmission control in the transport layer, and real-time data transfer. The audio time stamp ATS and video time stamp VTS described above are written in a 4-byte time stamp area in the RTP header, which consists of a control RTP (Real Time Transport Protocol) header and an RTP payload.

そしてパケット生成部27(図2)では、ビデオパケット及びビデオタイムスタンプVTSを基に所定バイト数からなる映像パケットデータを生成すると共に、オーディオパケット及びオーディオタイムスタンプATSを基に所定バイト数からなる音声パケットデータを生成し、これらを多重化することにより多重化データMXD1を生成した後パケットデータ蓄積部30へ送出する。   The packet generation unit 27 (FIG. 2) generates video packet data having a predetermined number of bytes based on the video packet and the video time stamp VTS, and audio having a predetermined number of bytes based on the audio packet and the audio time stamp ATS. Packet data is generated and multiplexed data MXD1 is generated by multiplexing the packet data, and then transmitted to the packet data storage unit 30.

パケットデータ蓄積部30は、多重化データMXD1を所定量蓄積すると、当該多重化データMXD1をインターネット5を介してRTP/TCP(RealTime Transport Protocol/Transmission Control Protocol)で第1のコンテンツ受信装置3へ送信するようになされている。   When the packet data storage unit 30 stores a predetermined amount of the multiplexed data MXD1, the packet data storage unit 30 transmits the multiplexed data MXD1 to the first content receiving device 3 via the Internet 5 by RTP / TCP (Real Time Transport Protocol / Transmission Control Protocol). It is made to do.

(3)第1のコンテンツ受信装置におけるストリーミングデコーダのモジュール構成
図4に示すように第1のコンテンツ受信装置3のストリーミングデコーダ9は、コンテンツ提供装置2からRTP/TCPで送信された多重化データMXD1を入力パケット蓄積部31に一旦蓄積した後、パケット分割部32へ送出する。
(3) Module Configuration of Streaming Decoder in First Content Receiving Device As shown in FIG. 4, the streaming decoder 9 of the first content receiving device 3 is multiplexed data MXD1 transmitted from the content providing device 2 by RTP / TCP. Is temporarily stored in the input packet storage unit 31 and then transmitted to the packet division unit 32.

ここで入力パケット蓄積部31は、インターネット5経由で送信されてくる多重化データMXD1が所定量のパケット分蓄積された時点で当該多重化データMXD1をパケット分割部32へ送出するようになされており、これにより後段のパケット分割部32で多重化データMXD1の処理が途切れることなく連続的に実行し得るようになされている。   Here, the input packet storage unit 31 is configured to send the multiplexed data MXD1 to the packet dividing unit 32 when the multiplexed data MXD1 transmitted via the Internet 5 is stored for a predetermined amount of packets. Thus, the processing of the multiplexed data MXD1 can be executed continuously without interruption in the packet division unit 32 at the subsequent stage.

パケット分割部32は、多重化データMXD1を映像パケットデータVP1と音声パケットデータAP1に分割し、当該音声パケットデータAP1をリングバッファでなる入力オーディオバッファ33を介してオーディオフレーム単位でオーディオデコーダ35へ送出すると共に、映像パケットデータVP1をリングバッファでなる入力ビデオバッファ34を介してフレーム単位でビデオデコーダ36へ送出するようになされている。   The packet division unit 32 divides the multiplexed data MXD1 into video packet data VP1 and audio packet data AP1, and sends the audio packet data AP1 to the audio decoder 35 in units of audio frames via the input audio buffer 33 that is a ring buffer. At the same time, the video packet data VP1 is sent to the video decoder 36 in units of frames via the input video buffer 34 which is a ring buffer.

ここで入力オーディオバッファ33及び入力ビデオバッファ34においては、後段のオーディオデコーダ35及びビデオデコーダ36で1オーディオフレーム分の音声パケットデータAP1及び1ビデオフレーム分の映像パケットデータVP1を連続してデコードできるようになるまで蓄積するようになされており、そのため、いつの時点でも少なくとも1オーディオフレーム及び1ビデオフレーム分のデータをオーディオデコーダ35及びビデオデコーダ36へ瞬時に供給できるための容量を有する。   Here, in the input audio buffer 33 and the input video buffer 34, the audio packet data AP1 for one audio frame and the video packet data VP1 for one video frame can be successively decoded by the audio decoder 35 and the video decoder 36 in the subsequent stage. Therefore, it has a capacity for instantaneously supplying data for at least one audio frame and one video frame to the audio decoder 35 and the video decoder 36 at any time.

なおパケット分割部32は、映像パケットデータVP1のビデオヘッダ情報及び音声パケットデータAP1のオーディオヘッダ情報を解析することによりビデオタイムスタンプVTS及びオーディオタイムスタンプATSを認識し得るようになされており、当該ビデオタイムスタンプVTS及び当該オーディオタイムスタンプATSをレンダラー37のタイミングコントロール回路37Aへ送出する。   The packet division unit 32 can recognize the video time stamp VTS and the audio time stamp ATS by analyzing the video header information of the video packet data VP1 and the audio header information of the audio packet data AP1. The time stamp VTS and the audio time stamp ATS are sent to the timing control circuit 37 A of the renderer 37.

オーディオデコーダ35は、音声パケットデータAP1をオーディオフレーム単位でデコードすることにより圧縮符号化前のオーディオフレームAF1を復元し、順次レンダラー37へ送出する。   The audio decoder 35 restores the audio frame AF1 before compression encoding by decoding the audio packet data AP1 in units of audio frames, and sequentially sends them to the renderer 37.

ビデオデコーダ36は、映像パケットデータVP1をビデオフレーム単位でデコードすることにより圧縮符号化前のビデオフレームVF1を復元し、順次レンダラー37へ送出する。   The video decoder 36 restores the video frame VF1 before compression encoding by decoding the video packet data VP1 in units of video frames, and sequentially sends them to the renderer 37.

ところでストリーミングデコーダ9においては、Webブラウザ15からシステムコントローラ50に対してコンテンツのメタデータMDが供給されており、コンテンツ判別手段としての当該システムコントローラ50では当該メタデータMDに基づいて当該コンテンツの種類がオーディオ及びビデオからなるものであるか、ビデオだけからなるものであるか、或いはオーディオだけからなるものであるかを判別し、そのコンテンツ種類判別結果CHをレンダラー37へ送出する。   By the way, in the streaming decoder 9, content metadata MD is supplied from the Web browser 15 to the system controller 50, and the content type of the content is determined based on the metadata MD in the system controller 50 as the content discriminating means. It is determined whether it is composed of audio and video, only video, or only audio, and the content type determination result CH is sent to the renderer 37.

レンダラー37は、オーディオフレームAF1をリングバッファでなる出力オーディオバッファ38へ一時的に格納し、また同様にビデオフレームVF1をリングバッファでなる出力ビデオバッファ39に一時的に格納する。   The renderer 37 temporarily stores the audio frame AF1 in the output audio buffer 38 that is a ring buffer, and similarly temporarily stores the video frame VF1 in the output video buffer 39 that is a ring buffer.

そしてレンダラー37は、タイミングコントロール回路37Aによってモニタ10へ出力すべきビデオフレームVF1の映像とオーディオフレームAF1の音声とをリップシンクさせるべく、システムコントローラ50からのコンテンツ種類判別結果CHと、オーディオタイムスタンプATSやビデオタイムスタンプVTSとに基づいて最終的な出力タイミングを調整した後、その出力タイミングで出力ビデオバッファ39、出力オーディオバッファ38からビデオフレームVF1、オーディオフレームAF1を順次出力するようになされている。   The renderer 37 then causes the content type determination result CH from the system controller 50 and the audio time stamp ATS to lip-sync the video of the video frame VF1 to be output to the monitor 10 by the timing control circuit 37A and the audio of the audio frame AF1. The final output timing is adjusted based on the video time stamp VTS and the video frame VF1 and the audio frame AF1 are sequentially output from the output video buffer 39 and the output audio buffer 38 at the output timing.

(4)プリエンコーデッドストリーミングにおけるデコーダ側でのリップシンク調整処理
(4−1)プリエンコーデッドストリーミングにおけるビデオフレーム及びオーディオフレームの出力タイミング調整方法
図5に示すようにレンダラー37のタイミングコントロール回路37Aでは、パケット分割部32から送られたビデオタイムスタンプVTS(VTS1、VTS2、VTS3、……、VTSn)及びオーディオタイムスタンプATS(ATS1、ATS2、ATS3、……、ATSn)をバッファ42及び43にそれぞれ一時的に格納した後、コンパレータ回路46へ送出する。
(4) Lip sync adjustment processing at decoder side in pre-encoded streaming (4-1) Video frame and audio frame output timing adjustment method in pre-encoded streaming As shown in FIG. The video time stamp VTS (VTS1, VTS2, VTS3,..., VTSn) and audio time stamp ATS (ATS1, ATS2, ATS3,..., ATSn) sent from the packet division unit 32 are temporarily stored in the buffers 42 and 43, respectively. After being stored, the data is sent to the comparator circuit 46.

またタイミングコントロール回路37Aは、そのコンテンツにおける最初のビデオタイムスタンプVTS1及びオーディオタイムスタンプATS1だけをサブトラクタ回路44及び45にもそれぞれ送出する。   The timing control circuit 37A also sends only the first video time stamp VTS1 and audio time stamp ATS1 in the content to the subtractor circuits 44 and 45, respectively.

サブトラクタ回路44及び45は、当該最初のビデオタイムスタンプVTS1及びオーディオタイムスタンプATS1の値を所定時間分だけ引き戻し、これらをプリセット用ビデオタイムスタンプVTSp及びプリセット用オーディオタイムスタンプATSpとしてSTC回路41へ送出する。   The subtractor circuits 44 and 45 pull back the values of the first video time stamp VTS1 and the audio time stamp ATS1 by a predetermined time, and send them to the STC circuit 41 as the preset video time stamp VTSp and the preset audio time stamp ATSp. To do.

STC回路41では、システムタイムクロックstcの値をプリセット用ビデオタイムスタンプVTSp、プリセット用オーディオタイムスタンプATSpの順番で決められたプリセットシーケンスに従ってプリセットする、すなわち当該システムタイムクロックstcの値をプリセット用ビデオタイムスタンプVTSp、プリセット用オーディオタイムスタンプATSpの順番でアジャストする(置き換える)ようになされている。   The STC circuit 41 presets the value of the system time clock stc in accordance with a preset sequence determined in the order of the preset video time stamp VTSp and the preset audio time stamp ATSp, that is, the value of the system time clock stc is set to the preset video time. Adjustment (replacement) is made in the order of the stamp VTSp and the preset audio time stamp ATSp.

ここでSTC回路41では、当該最初のビデオタイムスタンプVTS1及びオーディオタイムスタンプATS1の値を所定時間分だけ引き戻したプリセット用ビデオタイムスタンプVTSp及びプリセット用オーディオタイムスタンプATSpを用いてシステムタイムクロックstcの値をプリセットするため、バッファ42及び43を介して当該最初のビデオタイムスタンプVTS1及びオーディオタイムスタンプATS1がコンパレータ回路46に到達したとき、STC回路41からコンパレータ回路46へ供給されるプリセット後のシステムタイムクロックstcの値が当該ビデオタイムスタンプVTS1及びオーディオタイムスタンプATS1よりも前の時刻を示すようになされている。   Here, the STC circuit 41 uses the preset video time stamp VTSp and the preset audio time stamp ATSp obtained by pulling back the values of the first video time stamp VTS1 and the audio time stamp ATS1 by a predetermined time, and the value of the system time clock stc. When the first video time stamp VTS1 and audio time stamp ATS1 reach the comparator circuit 46 via the buffers 42 and 43, the preset system time clock supplied from the STC circuit 41 to the comparator circuit 46 is set. The value of stc indicates a time before the video time stamp VTS1 and the audio time stamp ATS1.

これによりタイミングコントロール回路37Aのコンパレータ回路46では、プリセット後のシステムタイムクロックstcの値が最初のビデオタイムスタンプVTS1及びオーディオタイムスタンプATS1に対して既に経過しているといったことが無くなるため、当該最初のビデオタイムスタンプVTS1及びオーディオタイムスタンプATS1に対応したビデオフレームVf1及びオーディオフレームAf1についても確実に出力し得るようになされている。   As a result, in the comparator circuit 46 of the timing control circuit 37A, the value of the system time clock stc after the preset is not already passed with respect to the first video time stamp VTS1 and the audio time stamp ATS1, so that the first time The video frame Vf1 and the audio frame Af1 corresponding to the video time stamp VTS1 and the audio time stamp ATS1 can also be reliably output.

実際上、図6(A)及び(B)に示すように、コンテンツの種類がオーディオ及びビデオからなるものである場合、システムタイムクロックstcの値をプリセット用ビデオタイムスタンプVTSp、プリセット用オーディオタイムスタンプATSpの順番で決められたプリセットシーケンスに従ってプリセットすると、プリセット用ビデオタイムスタンプVTSpでシステムタイムクロックstcの値をプリセットした後に必ずプリセット用オーディオタイムスタンプATSpで先程のプリセット値が更新されることを意味する。   In practice, as shown in FIGS. 6A and 6B, when the content type is composed of audio and video, the value of the system time clock stc is set to the preset video time stamp VTSp, and the preset audio time stamp. If presetting is performed according to a preset sequence determined in the order of ATSp, it means that the preset value is always updated with the audio time stamp ATSp for presetting after the value of the system time clock stc is preset with the video time stamp VTSp for presetting. .

このときコンパレータ回路46は、プリセット用オーディオタイムスタンプATSpでプリセット値が更新された後のシステムタイムクロックstcを基準にしてビデオタイムスタンプVTSと比較することにより、プリセット後のシステムタイムクロックstcの値とエンコーダ側のコンテンツ提供装置2で付けられたビデオタイムスタンプVTSとの時間差を算出するようになされている。   At this time, the comparator circuit 46 compares the video time stamp VTS with the system time clock stc after the preset value is updated with the preset audio time stamp ATSp, thereby comparing the value of the system time clock stc after the preset. The time difference from the video time stamp VTS attached by the content providing apparatus 2 on the encoder side is calculated.

一方、コンテンツの種類がオーディオだけからなるものである場合にはプリセット用ビデオタイムスタンプVTSpがタイミングコントロール回路37Aに送られてくることはないので、システムタイムクロックstcの値をプリセット用ビデオタイムスタンプVTSp、プリセット用オーディオタイムスタンプATSpの順番で決められたプリセットシーケンスに従えば、当然プリセット用オーディオタイムスタンプATSpでシステムタイムクロックstcの値がプリセットされることを意味する。   On the other hand, if the content type is composed only of audio, the preset video time stamp VTSp is not sent to the timing control circuit 37A, so the value of the system time clock stc is set as the preset video time stamp VTSp. According to the preset sequence determined in the order of the preset audio time stamp ATSp, it naturally means that the value of the system time clock stc is preset with the preset audio time stamp ATSp.

同様に、コンテンツの種類がビデオだけからなるものである場合にはプリセット用オーディオタイムスタンプATSpがタイミングコントロール回路37Aに送られてくることはないので、システムタイムクロックstcの値をプリセット用ビデオタイムスタンプVTSp、プリセット用オーディオタイムスタンプATSpの順番で決められたプリセットシーケンスに従えば、当然プリセット用ビデオタイムスタンプVTSpでシステムタイムクロックstcの値がプリセットされることを意味する。   Similarly, when the content type is composed only of video, the preset audio time stamp ATSp is not sent to the timing control circuit 37A, so the value of the system time clock stc is set as the preset video time stamp. This means that if the preset sequence determined in the order of VTSp and preset audio time stamp ATSp is followed, the value of the system time clock stc is preset with the preset video time stamp VTSp.

これは、コンテンツの種類がオーディオだけでなる場合、若しくはビデオだけでなる場合だけであり、映像及び音声のリップシンクを調整する必要は特にないため、プリセット用オーディオタイムスタンプATSpでプリセットされた後のシステムタイムクロックstcの値とオーディオタイムスタンプATSとが一致したときにオーディオフレームAF1を出力すればよく、またプリセット用ビデオタイムスタンプVTSpでプリセットされた後のシステムタイムクロックstcの値とビデオタイムスタンプVTSとが一致したときにビデオフレームVF1を出力すればよい。   This is only when the content type is only audio, or only video, and there is no need to adjust the lip sync of video and audio. Therefore, after the preset with the preset audio time stamp ATSp The audio frame AF1 may be output when the value of the system time clock stc matches the audio time stamp ATS, and the value of the system time clock stc after being preset by the preset video time stamp VTSp and the video time stamp VTS. The video frame VF1 may be output when the two match.

実際上、レンダラー37のタイミングコントロール回路37Aでは、例えばコンテンツの種類がオーディオ及びビデオからなるものである場合、図7に示すように例えばオーディオデコーダ35でデコードした後のオーディオフレームAF1(Af1、Af2、Af3、……)をモニタ10へ順次出力する時点Ta1、Ta2、Ta3、……、のタイミングでは、クリスタルオシレータ回路40(図4)及びSTC回路41を介して供給されるシステムタイムクロックstcの値をプリセット用ビデオタイムスタンプVTSp、プリセット用オーディオタイムスタンプATSpの順番でプリセットすることにより、最終的にシステムタイムクロックstcの値をプリセット用オーディオタイムスタンプATSp1、ATSp2、ATSp3、……と一致させる。   Actually, in the timing control circuit 37A of the renderer 37, for example, when the content type is composed of audio and video, as shown in FIG. 7, the audio frame AF1 (Af1, Af2,. At the time points Ta1, Ta2, Ta3,... That sequentially output Af3,...) To the monitor 10, the value of the system time clock stc supplied through the crystal oscillator circuit 40 (FIG. 4) and the STC circuit 41. Are preset in the order of the preset video time stamp VTSp and the preset audio time stamp ATSp, so that the value of the system time clock stc is finally set to the preset audio time stamp ATSp1, ATSp2, ATSp3, ... and to match.

このことは、再生中に音声が途切たり音飛びがあるとユーザにとって非常に目立つので、レンダラー37のタイミングコントロール回路37AではオーディオフレームAF1(Af1、Af2、Af3、……)をリップシンク調整処理の基準として用い、当該オーディオフレームAF1(Af1、Af2、Af3、……)の出力に合わせてビデオフレームVF1(Vf1、Vf2、Vf3、……)の出力タイミングを調整する必要があるからである。   This is very noticeable to the user when the sound is interrupted or skipped during reproduction. Therefore, the timing control circuit 37A of the renderer 37 processes the audio frame AF1 (Af1, Af2, Af3,...) With the lip sync adjustment process. This is because it is necessary to adjust the output timing of the video frame VF1 (Vf1, Vf2, Vf3,...) In accordance with the output of the audio frame AF1 (Af1, Af2, Af3,...).

またレンダラー37のタイミングコントロール回路37Aは、オーディオフレームAF1(Af1、Af2、Af3、……)の出力タイミング(時点Ta1、Ta2、Ta3、……)が決まると、ビデオフレームVF1(Vf1、Vf2、Vf3、……)をシステムタイムクロックstcに基づく30[Hz]のフレーム周波数で出力する任意の時点Tv1、Tv2、Tv3、……において、プリセット後のシステムタイムクロックstcのカウント値と、ビデオフレームVF1(Vf1、Vf2、Vf3、……)に付されているビデオタイムスタンプVTS(VTS1、VTS2、VTS3、……)とをコンパレータ回路46でそれぞれ比較する。   When the output timing (time points Ta1, Ta2, Ta3,...) Of the audio frame AF1 (Af1, Af2, Af3,...) Is determined, the timing control circuit 37A of the renderer 37 determines the video frame VF1 (Vf1, Vf2, Vf3). ,... Are output at a frame frequency of 30 [Hz] based on the system time clock stc, at any time point Tv1, Tv2, Tv3,..., The count value of the system time clock stc after the preset and the video frame VF1 ( The video time stamps VTS (VTS1, VTS2, VTS3,...) Attached to Vf1, Vf2, Vf3,.

コンパレータ回路46では、プリセット後のシステムタイムクロックstcのカウント値と、ビデオタイムスタンプVTS(VTS1、VTS2、VTS3、……)とが一致したときに出力ビデオバッファ39からビデオフレームVF1(Vf1、Vf2、Vf3、……)をモニタ10へ出力させるようになされている。   In the comparator circuit 46, the video frame VF1 (Vf1, Vf2,...) Is output from the output video buffer 39 when the count value of the system time clock stc after the preset and the video time stamp VTS (VTS1, VTS2, VTS3,...) Match. Vf3,...) Is output to the monitor 10.

ところでコンパレータ回路46は、プリセット後のシステムタイムクロックstcのカウント値と、バッファ42から送られるビデオタイムスタンプVTS(VTS1、VTS2、VTS3、……)とを比較した結果、プリセット後のシステムタイムクロックstcのカウント値とビデオタイムスタンプVTS(VTS1、VTS2、VTS3、……)との差分値D1(時間差)が所定の時間を表す閾値TH以下であれば、ユーザにとっては映像と音声とが一致していないとは認識し得ないレベルなので、タイミングコントロール回路37Aはプリセット後のシステムタイムクロックstcのカウント値とビデオタイムスタンプVTS(VTS1、VTS2、VTS3、……)とが一致したときにビデオフレームVF1(Vf1、Vf2、Vf3、……)をそのままモニタ10に出力すればよい。   By the way, the comparator circuit 46 compares the count value of the system time clock stc after presetting with the video time stamp VTS (VTS1, VTS2, VTS3,...) Sent from the buffer 42, and as a result, the system time clock stc after presetting. If the difference value D1 (time difference) between the count value of the video and the video time stamp VTS (VTS1, VTS2, VTS3,...) Is equal to or less than a threshold value TH representing a predetermined time, the video and audio match for the user. Since the timing control circuit 37A matches the count value of the preset system time clock stc and the video time stamp VTS (VTS1, VTS2, VTS3,...), The video frame VF1 ( Vf1, Vf2, V 3, ...) may be directly output to the monitor 10.

それ以外の場合、例えば時点Tv2のタイミングにおいて、プリセット後のシステムタイムクロックstcのカウント値とビデオタイムスタンプVTS2との差分値D1が所定の閾値THよりも大きく、かつ映像が音声よりも遅れている場合には、エンコーダ側のクロック周波数とデコーダ側のクロック周波数とのずれが原因で音声に映像が追いついていない状態であるため、レンダラー37のタイミングコントロール回路37AではGOP(Group Of Picture)を構成している例えばBピクチャに相当するビデオフレームVf3(図示せず)をデコードすることなくスキップし、次のビデオフレームVf4を出力するようになされている。   In other cases, for example, at the timing of time Tv2, the difference value D1 between the count value of the system time clock stc after the preset and the video time stamp VTS2 is larger than the predetermined threshold value TH, and the video is delayed from the sound. In this case, since the video does not catch up with the audio due to the difference between the clock frequency on the encoder side and the clock frequency on the decoder side, the timing control circuit 37A of the renderer 37 constitutes a GOP (Group Of Picture). For example, a video frame Vf3 (not shown) corresponding to a B picture is skipped without being decoded and the next video frame Vf4 is output.

この場合、レンダラー37は出力ビデオバッファ39に格納されている「P」ピクチャについては、ビデオデコーダ36で次のピクチャをデコードする際の参照フレームとなるためスキップせず、次のピクチャを生成する際の参照フレームとならない非参照フレームである「B」ピクチャをスキップすることにより、画質劣化を未然に防ぎながらリップシンクさせるようになされている。   In this case, the renderer 37 does not skip the “P” picture stored in the output video buffer 39 because it is a reference frame when the video decoder 36 decodes the next picture. By skipping the “B” picture, which is a non-reference frame that does not become the reference frame, lip sync is performed while preventing image quality deterioration.

ところでレンダラー37では、仮にスキップするべき「B」ピクチャが出力ビデオバッファ39に存在せず、「I」ピクチャや「P」ピクチャばかりであった場合には、当該「B」ピクチャをスキップすることはできないため、音声に映像を追い付かせることができなくなってしまう。   By the way, in the renderer 37, if the “B” picture to be skipped does not exist in the output video buffer 39 and there are only “I” picture and “P” picture, the “B” picture cannot be skipped. Because it is not possible, it will not be able to catch up with the video.

そこでレンダラー37では、スキップすべき「B」ピクチャが出力ビデオバッファ39に存在しないときには、図8に示すようにモニタ10のモニタ出力タイミングが例えば60[Hz]であり、出力ビデオバッファ39から出力すべきビデオフレームVF1のピクチャリフレッシュタイミングが30[Hz]であることを利用し、当該ピクチャリフレッシュタイミングを短縮するようになされている。   Therefore, in the renderer 37, when the “B” picture to be skipped does not exist in the output video buffer 39, the monitor output timing of the monitor 10 is, for example, 60 [Hz] as shown in FIG. By utilizing the fact that the picture refresh timing of the power video frame VF1 is 30 [Hz], the picture refresh timing is shortened.

具体的にはレンダラー37は、プリセット用オーディオタイムスタンプATSpでプリセットした後のシステムタイムクロックstcのカウント値とビデオタイムスタンプVTSの差分値D1が16.666……[msec]を超えるとき、すなわち音声の出力タイミングに対してモニタ出力タイミングが1フレーム分以上遅れているときは、1フレーム分のビデオフレームVF1をスキップする代わりにピクチャリフレッシュタイミングを30[Hz]から60[Hz]に変更して次のN+1番目のピクチャを出力するようになされている。   Specifically, the renderer 37 determines that when the difference value D1 between the count value of the system time clock stc and the video time stamp VTS after presetting with the preset audio time stamp ATSp exceeds 16.666. When the monitor output timing is delayed by one frame or more with respect to the output timing, the picture refresh timing is changed from 30 [Hz] to 60 [Hz] instead of skipping the video frame VF1 for one frame. The (N + 1) th picture is output.

つまりレンダラー37は、当該スキップによる画質劣化の影響を受ける「I」ピクチャや「P」ピクチャについてはピクチャリフレッシュ間隔を1/30秒から1/60秒に短縮することにより、「I」ピクチャや「P」ピクチャをスキップすることによる画質劣化を生じさせることなく音声に映像を追い付かせることができるようになされている。   In other words, the renderer 37 shortens the picture refresh interval from 1/30 seconds to 1/60 seconds for the “I” picture and “P” picture that are affected by the image quality degradation due to the skip, so that the “I” picture and “ The video can be caught up with the sound without causing the image quality deterioration due to the skipping of the “P” picture.

これに対してレンダラー37のタイミングコントロール回路37Aは、時点Tv2のタイミングにおいて、プリセット後のシステムタイムクロックstcのカウント値と例えばビデオタイムスタンプVTS2との差分値D1が所定の閾値THよりも大きく、かつ音声が映像よりも遅れている場合には、エンコーダ側のクロック周波数とデコーダ側のクロック周波数とのずれが原因で映像に音声が追いついていない状態であるため、現在出力中のビデオフレームVf2を繰り返しリピートして出力するようになされている。   On the other hand, the timing control circuit 37A of the renderer 37 has a difference value D1 between the preset value of the system time clock stc and, for example, the video time stamp VTS2 at the timing of the time point Tv2 larger than a predetermined threshold value TH. If the audio is behind the video, the audio is not catching up with the video due to the difference between the clock frequency on the encoder side and the clock frequency on the decoder side, so the video frame Vf2 currently being output is repeated. The output is repeated.

一方、レンダラー37のタイミングコントロール回路37Aでは、例えばコンテンツの種類がビデオだけからなるものである場合、ビデオデコーダ36でデコードした後のビデオフレームVF1(Vf1、Vf2、Vf3、……)をモニタ10へ順次出力する時点Tv1、Tv2、Tv3、……、のタイミングでは、プリセット用ビデオタイムスタンプVTSpでプリセットされたシステムタイムクロックstcのカウント値とビデオタイムスタンプVTSが一致したタイミングでビデオフレームVF1(Vf1、Vf2、Vf3、……)をモニタ10に出力すればよい。   On the other hand, in the timing control circuit 37A of the renderer 37, for example, when the content type is composed only of video, the video frame VF1 (Vf1, Vf2, Vf3,...) Decoded by the video decoder 36 is sent to the monitor 10. At the timing of the time points Tv1, Tv2, Tv3,..., Which are sequentially output, the video frame VF1 (Vf1, Vf1,. Vf2, Vf3, ...) may be output to the monitor 10.

同様に、レンダラー37のタイミングコントロール回路37Aでは、例えばコンテンツの種類がオーディオだけからなるものである場合、オーディオデコーダ35でデコードした後のオーディオフレームAF1(Af1、Af2、Af3、……)をモニタ10へ順次出力する時点Ta1、Ta2、Ta3、……、のタイミングでは、プリセット用オーディオタイムスタンプATSpでプリセットされたシステムタイムクロックstcのカウント値とオーディオタイムスタンプATSが一致したタイミングでオーディオフレームAF1(Af1、Af2、Af3、……)をモニタ10のスピーカから出力すればよい。   Similarly, the timing control circuit 37A of the renderer 37 monitors the audio frame AF1 (Af1, Af2, Af3,...) That has been decoded by the audio decoder 35, for example, when the content type is only audio. At the time points Ta1, Ta2, Ta3,... That are sequentially output to the audio frame AF1 (Af1) at the timing when the count value of the system time clock stc preset by the preset audio time stamp ATSp matches the audio time stamp ATS. , Af2, Af3,...) May be output from the speaker of the monitor 10.

(4−2)プリエンコーデッドストリーミングにおけるリップシンク調整処理手順
上述のようにストリーミングデコーダ9におけるレンダラー37のタイミングコントロール回路37AがオーディオフレームAF1(Af1、Af2、Af3、……)を基準にしてビデオフレームVF1(Vf1、Vf2、Vf3、……)の出力タイミングを調整することにより、映像と音声とをリップシンクさせる出力タイミング調整方法についてまとめると、次の図9のフローチャートに示すように、レンダラー37のタイミングコントロール回路37Aは、ルーチンRT1の開始ステップから入って、次のステップSP1へ移る。
(4-2) Lip sync adjustment processing procedure in pre-encoded streaming As described above, the timing control circuit 37A of the renderer 37 in the streaming decoder 9 uses the audio frame AF1 (Af1, Af2, Af3,...) As a reference to the video frame. The output timing adjustment method for lip-syncing video and audio by adjusting the output timing of VF1 (Vf1, Vf2, Vf3,...) Is summarized as shown in the flowchart of FIG. The timing control circuit 37A enters from the start step of the routine RT1 and proceeds to the next step SP1.

ステップSP1においてレンダラー37は、システムタイムクロックstcの値をプリセット用ビデオタイムスタンプVTSp、プリセット用オーディオタイムスタンプATSpの順番で決められたプリセットシーケンスに従ってプリセットし、次のステップSP2へ移る。   In step SP1, the renderer 37 presets the value of the system time clock stc in accordance with a preset sequence determined in the order of the preset video time stamp VTSp and the preset audio time stamp ATSp, and proceeds to the next step SP2.

ここでレンダラー37は、コンテンツの種類がオーディオ及びビデオでなるものであるときにはプリセット用ビデオタイムスタンプVTSpでシステムタイムクロックstcの値をプリセットした後に必ずプリセット用オーディオタイムスタンプATSpで先程のプリセット値を更新し、次のステップSP2へ移る。   Here, the renderer 37 always updates the preset value with the preset audio time stamp ATSp after presetting the value of the system time clock stc with the preset video time stamp VTSp when the content type is audio and video. Then, the process proceeds to the next step SP2.

この場合、オーディオフレームAF1(Af1、Af2、Af3、……)をモニタ10へ出力する時点Ta1、Ta2、Ta3、……のタイミングで(図7)、システムタイムクロックstcの値とプリセット用オーディオタイムスタンプATSp(ATSp1、ATSp2、ATSp3、……)とが一致することになる。   In this case, at the time points Ta1, Ta2, Ta3,... When the audio frame AF1 (Af1, Af2, Af3,...) Is output to the monitor 10 (FIG. 7), the value of the system time clock stc and the preset audio time. The stamp ATSp (ATSp1, ATSp2, ATSp3,...) Matches.

またレンダラー37は、コンテンツの種類がビデオだけからなるものである場合には、プリセット用オーディオタイムスタンプATSpは存在しないので、プリセット用ビデオタイムスタンプVTSpでシステムタイムクロックstcの値をプリセットして所定時間経過したときに次のステップSP2へ移る。   The renderer 37 does not have a preset audio time stamp ATSp when the content type is composed only of video. Therefore, the renderer 37 presets the value of the system time clock stc with the preset video time stamp VTSp for a predetermined time. When it has elapsed, the process proceeds to the next step SP2.

さらにレンダラー37は、コンテンツの種類がオーディオだけからなるものである場合には、プリセット用ビデオタイムスタンプVTSpは存在しないので、プリセット用ビデオタイムスタンプVTSpを待つことなくプリセット用オーディオタイムスタンプATSpが到達した時点でシステムタイムクロックstcの値をプリセットした後に次のステップSP2へ移る。   Furthermore, when the content type is composed only of audio, the renderer 37 does not have the preset video time stamp VTSp, so that the preset audio time stamp ATSp arrives without waiting for the preset video time stamp VTSp. After presetting the value of the system time clock stc at the time, the process proceeds to the next step SP2.

ステップSP2においてレンダラー37は、システムコントローラ50から供給されるコンテンツ種類判別結果CHに基づいて当該コンテンツがビデオのみでなるものか否かを判定し、肯定結果が得られると次のステップSP3へ移る。   In step SP2, the renderer 37 determines whether or not the content is only a video based on the content type determination result CH supplied from the system controller 50. If a positive result is obtained, the renderer 37 proceeds to the next step SP3.

ステップSP3においてレンダラー37は、当該コンテンツがビデオのみでなるため、プリセット用ビデオタイムスタンプVTSpでプリセットしたシステムタイムクロックstcのカウント値とビデオタイムスタンプVTSとが一致したときにビデオフレームVF1(Vf1、Vf2、Vf3、……)をモニタ10へ出力し、次のステップSP12へ移って処理を終了する。   In step SP3, the renderer 37 makes the video frame VF1 (Vf1, Vf2) when the count value of the system time clock stc preset by the preset video time stamp VTSp matches the video time stamp VTS because the content is only video. , Vf3,...) Are output to the monitor 10, and the process proceeds to the next step SP12 to end the process.

これに対してステップSP2で否定結果が得られると、このことはコンテンツの種類がビデオのみでなるものではなく、オーディオ及びビデオでなるものか、オーディオのみでなるものかの何れかであることを表しており、このときレンダラー37は次のステップSP4へ移る。   On the other hand, if a negative result is obtained in step SP2, this means that the type of content is not only video, but is either audio and video or only audio. At this time, the renderer 37 proceeds to the next step SP4.

ステップSP4においてレンダラー37は、コンテンツ種類判別結果CHに基づいて当該コンテンツがオーディオのみでなるものか否かを判定し、肯定結果が得られると次のステップSP3へ移る。   In step SP4, the renderer 37 determines whether or not the content is only audio based on the content type determination result CH. If a positive result is obtained, the renderer 37 proceeds to the next step SP3.

ステップSP3においてレンダラー37は、当該コンテンツがオーディオのみでなるため、プリセット用オーディオタイムスタンプATSpでプリセットしたシステムタイムクロックstcのカウント値とオーディオタイムスタンプATSとが一致したときにオーディオフレームAF1(Af1、Af2、Af3、……)をモニタ10のスピーカから出力し、次のステップSP12へ移って処理を終了する。   In step SP3, the renderer 37 makes the audio frame AF1 (Af1, Af2) when the count value of the system time clock stc preset by the preset audio time stamp ATSp matches the audio time stamp ATS because the content is only audio. , Af3,.

これに対してステップSP4で否定結果が得られると、このことはコンテンツの種類がオーディオ及びビデオからなるものであることを表しており、このときレンダラー37は次のステップSP5へ移る。   On the other hand, if a negative result is obtained in step SP4, this indicates that the content type is composed of audio and video. At this time, the renderer 37 proceeds to the next step SP5.

ステップSP5においてレンダラー37は、コンテンツの種類がオーディオ及びビデオからなるものであるため、最終的にプリセット用オーディオタイムスタンプATSpでプリセットされたシステムタイムクロックstcのカウント値と、時点Tv1、Tv2、Tv3、……のタイミングで出力すべきビデオフレームVF1(Vf1、Vf2、Vf3、……)のタイムスタンプVTS(VTS1、VTS2、VTS3、……)との差分値D1(=stc−VTS)を算出し、次のステップSP6へ移る。   In step SP5, the renderer 37 has a content type consisting of audio and video, so that the count value of the system time clock stc preset by the preset audio time stamp ATSp and the time points Tv1, Tv2, Tv3, A difference value D1 (= stc−VTS) from the time stamp VTS (VTS1, VTS2, VTS3,...) Of the video frame VF1 (Vf1, Vf2, Vf3,...) To be output at the timing of. The process moves to the next step SP6.

ステップSP6においてレンダラー37は、ステップSP7で算出した差分値D1(絶対値)が所定の閾値THよりも大きいか否かを判定する。ここで否定結果が得られると、このことは、差分値D1が、映像及び音声を見て聞いたユーザにとって当該映像と当該音声との間にずれが生じているとは判断し得ない程度の時間(例えば100[msec])以下であることを表しており、このときレンダラー37は次のステップSP3へ移る。   In step SP6, the renderer 37 determines whether or not the difference value D1 (absolute value) calculated in step SP7 is larger than a predetermined threshold value TH. If a negative result is obtained here, this means that the difference value D1 cannot be determined by the user who has seen and heard the video and the audio as being shifted between the video and the audio. This represents that the time is 100 (msec) or less. At this time, the renderer 37 moves to the next step SP3.

ステップSP3においてレンダラー37は、映像と音声がずれていると判断し得ない程度の時間差しかないので、この場合は当該ビデオフレームVF1をそのままモニタ10へ出力し、またオーディオフレームAF1についても原則的にそのままモニタ10へ出力し、次のステップSP12へ移って処理を終了する。   In step SP3, the renderer 37 does not have enough time to determine that the video and the audio are deviated from each other. In this case, the video frame VF1 is output to the monitor 10 as it is, and the audio frame AF1 is also in principle. The data is output to the monitor 10 as it is, and the process proceeds to the next step SP12 to end the process.

これに対してステップSP6で肯定結果が得られると、このことは差分値D1が所定の閾値THよりも大きい、すなわち映像及び音声を見て聞いたユーザにとって当該映像と当該音声との間にずれが生じていると判断し得る程度であることを表しており、このときレンダラー37は次のステップSP7へ移る。   On the other hand, if an affirmative result is obtained in step SP6, this means that the difference value D1 is larger than the predetermined threshold value TH, that is, the difference between the video and the audio for the user who has seen and listened to the video and the audio. In this case, the renderer 37 proceeds to the next step SP7.

ステップSP7においてレンダラー37は、映像が音声よりも遅れているか否かをオーディオタイムスタンプATS及びビデオタイムスタンプVTSに基づいて判定し、否定結果が得られると次のステップSP8へ移る。   In step SP7, the renderer 37 determines whether the video is behind the audio based on the audio time stamp ATS and the video time stamp VTS. If a negative result is obtained, the renderer 37 proceeds to the next step SP8.

ステップSP8においてレンダラー37は、映像の方が音声よりも進んでいるので、当該映像に音声が追いつくように現在出力中のピクチャを構成しているビデオフレームVF1を繰り返しリピート出力した後、次のステップSP12へ移って処理を終了する。   In step SP8, the renderer 37 repeats and repeatedly outputs the video frame VF1 constituting the picture currently being output so that the audio catches up with the video because the video is ahead of the audio, and then the next step. The process proceeds to SP12 and the process is terminated.

これに対してステップSP7で肯定結果が得られると、このことは映像が音声よりも遅れていることを表しており、このときレンダラー37は次のステップSP9へ移り、出力ビデオバッファ39にスキップ対象の「B」ピクチャが存在するか否かを判定し、肯定結果が得られると次のステップSP10へ移る。   On the other hand, if an affirmative result is obtained in step SP7, this indicates that the video is delayed from the audio. At this time, the renderer 37 moves to the next step SP9 and skips to the output video buffer 39. It is determined whether or not a “B” picture exists, and if a positive result is obtained, the process proceeds to the next step SP10.

ステップSP10においてレンダラー37は、音声に対する映像の遅れを取り戻すべくBピクチャ(この場合、ビデオフレームVf3)をデコードせずにスキップして出力することにより、音声に対する映像の遅れを取り戻してリップシンクさせることができ、次のステップSP12へ移って処理を終了する。   In step SP10, the renderer 37 skips the B picture (in this case, the video frame Vf3) without decoding and outputs it in order to recover the delay of the video with respect to the audio, thereby recovering the delay of the video with respect to the audio and lip-sync. Then, the process proceeds to the next step SP12 to end the process.

一方、ステップSP9で否定結果が得られると、このことは出力ビデオバッファ39にスキップ対象の「B」ピクチャが存在せず、「B」ピクチャをスキップすることができないことを表しており、このときレンダラー37は次のステップSP11へ移る。   On the other hand, if a negative result is obtained in step SP9, this indicates that the “B” picture to be skipped does not exist in the output video buffer 39, and the “B” picture cannot be skipped. The renderer 37 proceeds to the next step SP11.

ステップSP11においてレンダラー37は、図8に示したように、モニタ10のモニタ出力タイミングが60[Hz]であるのに対し、ビデオフレームVF1のピクチャリフレッシュタイミングが30[Hz]であることを利用し、当該ピクチャリフレッシュタイミングをモニタ10のモニタ出力タイミングに合わせて短縮することにより、ピクチャをスキップすることによる画質劣化を生じさせずに映像を音声に追い付かせ、次のステップSP12へ移って処理を終了する。   In step SP11, the renderer 37 uses the fact that the monitor output timing of the monitor 10 is 60 [Hz] while the picture refresh timing of the video frame VF1 is 30 [Hz] as shown in FIG. By shortening the picture refresh timing in accordance with the monitor output timing of the monitor 10, the video is caught up with the sound without causing picture quality deterioration due to skipping the picture, and the process is moved to the next step SP12 and the process is terminated. To do.

(5)第1のコンテンツ受信装置におけるリアルタイムストリーミングエンコーダの回路構成
第1のコンテンツ受信装置3(図1)は、外部から供給された地上波ディジタル、BS/CSディジタル又は地上波アナログ放送等のコンテンツあるいはDVD、VideoCDほか一般的なビデオカメラからのコンテンツをリアルタイムストリーミングエンコーダ11によってリアルタイムにエンコードした後に第2のコンテンツ受信装置4へ中継する形で無線送信することによりコンテンツ提供側にもなり得るようになされている。
(5) Circuit Configuration of Real-Time Streaming Encoder in First Content Receiving Device First content receiving device 3 (FIG. 1) is an externally supplied content such as terrestrial digital, BS / CS digital or terrestrial analog broadcast Alternatively, content from a general video camera such as a DVD, VideoCD, or the like is encoded in real time by the real-time streaming encoder 11 and then wirelessly transmitted to the second content receiving device 4 so that it can also be a content providing side. Has been made.

その第1のコンテンツ受信装置3におけるリアルタイムストリーミングエンコーダ11の回路構成について図10を用いて説明する。リアルタイムストリーミングエンコーダ11は、外部から供給されたコンテンツを構成するビデオ信号VS2及びオーディオ信号AS2をビデオ入力部51及びオーディオ入力部53を介してディジタル変換し、これをビデオデータVD2及びオーディオデータAD2としてビデオエンコーダ52及びオーディオエンコーダ54へ送出する。   The circuit configuration of the real-time streaming encoder 11 in the first content receiving device 3 will be described with reference to FIG. The real-time streaming encoder 11 digitally converts the video signal VS2 and the audio signal AS2 constituting the content supplied from the outside through the video input unit 51 and the audio input unit 53, and converts this into video data VD2 and audio data AD2. The data is sent to the encoder 52 and the audio encoder 54.

ビデオエンコーダ52は、ビデオデータVD2を例えばMPEG1/2/4の規格に準拠した所定の圧縮符号化方法あるいは種々の圧縮符号化方式で圧縮符号化し、その結果得られるビデオエレメンタリストリームVES2をパケット生成部56及びビデオフレームカウンタ57へ送出する。   The video encoder 52 compresses and encodes the video data VD2 using a predetermined compression encoding method or various compression encoding methods compliant with, for example, the MPEG1 / 2/4 standard, and generates the resulting video elementary stream VES2 as a packet. The data is sent to the unit 56 and the video frame counter 57.

ビデオフレームカウンタ57では、ビデオエレメンタリストリームVES2をフレーム周波数単位(29.97[Hz]あるいは30[Hz]あるいは59.94[Hz]あるいは60[Hz])でカウントし、そのカウントアップ値を基準クロックに基づく90[KHz]単位の値に変換し、32ビット表現で各ビデオフレームに対するビデオタイムスタンプVTS(VTS1、VTS2、VTS3、……)としてパケット生成部56へ送出する。   In the video frame counter 57, the video elementary stream VES2 is counted in frame frequency units (29.97 [Hz], 30 [Hz], 59.94 [Hz] or 60 [Hz]), and the counted up value is used as a reference. The value is converted into a value in units of 90 [KHz] based on the clock, and is sent to the packet generator 56 as a video time stamp VTS (VTS1, VTS2, VTS3,...) For each video frame in 32-bit representation.

オーディオエンコーダ54は、オーディオデータAD2をMPEG1/2/4オーディオの規格に準拠した所定の圧縮符号化方法あるいは種々の圧縮符号化方式で圧縮符号化し、その結果得られるオーディオエレメンタリストリームAES2をパケット生成部56及びオーディオフレームカウンタ58へ送出する。   The audio encoder 54 compresses and encodes the audio data AD2 by a predetermined compression encoding method or various compression encoding methods compliant with the MPEG1 / 2/4 audio standard, and generates a packet of the resulting audio elementary stream AES2 The data is sent to the unit 56 and the audio frame counter 58.

オーディオフレームカウンタ58はビデオフレームカウンタ57と同様、オーディオフレームのカウントアップ値と共通の基準クロックに基づく90[KHz]単位の値に変換し、オーディオタイムスタンプATS(ATS1、ATS2、ATS3、……)として32ビット表現し、パケット生成部56へ送出する。   As with the video frame counter 57, the audio frame counter 58 converts the audio frame count value into a value in units of 90 [KHz] based on the common reference clock and the audio time stamp ATS (ATS1, ATS2, ATS3,...). As 32 bits and sent to the packet generator 56.

パケット生成部56では、ビデオエレメンタリストリームVES2を所定データサイズのパケットに分割し、それぞれのパケットにビデオヘッダ情報を付加することによりビデオパケットを生成すると共に、オーディオエレメンタリストリームAES2を所定データサイズのパケットに分割し、それぞれのパケットにオーディオヘッダ情報を付加することによりオーディオパケットを生成する。   The packet generation unit 56 divides the video elementary stream VES2 into packets of a predetermined data size, generates video packets by adding video header information to each packet, and generates the audio elementary stream AES2 of a predetermined data size. An audio packet is generated by dividing the packet and adding audio header information to each packet.

ここで図11に示すようにRTCP(Real Time Control Protocol)packetの前段に付加されているコントロールパケットは、インターネット層におけるホスト間通信用のIP(Internet Protocol)ヘッダ、ユーザ・データグラム・データ転送用のUDP(User Datagram Protocol)ヘッダ、リアルタイム・データ転送制御用のRTCP(Real Time Control Protocol)パケットセンダリポート及びRTCPパケットからなり、RTCPパケットセンダリポート内のセンダ情報内にある4バイトのRTPタイムスタンプ領域にPCR(Program Clock Reference)値としてエンコーダ側におけるシステムタイムクロック値のスナップショット情報が書き込まれるようになされていて、デコーダ側のクロックリカバリ用にPCR回路61から送出される。   Here, as shown in FIG. 11, the control packet added to the front of the RTCP (Real Time Control Protocol) packet is an IP (Internet Protocol) header for host-to-host communication in the Internet layer, for user datagram data transfer. 4 bytes RTP timestamp area in the sender information in the RTCP packet sender port, which consists of the UDP (User Datagram Protocol) header, the RTCP packet sender report for the real time data transfer control, and the RTCP packet. The snapshot information of the system time clock value on the encoder side is written as a PCR (Program Clock Reference) value, and is sent from the PCR circuit 61 for clock recovery on the decoder side.

そしてパケット生成部56では、ビデオパケット及びビデオタイムスタンプVTSに基づいて所定バイト数からなる映像パケットデータを生成すると共に、オーディオパケット及びオーディオタイムスタンプATSに基づいて所定バイト数からなる音声パケットデータを生成し、これらを多重化することにより多重化データMXD2を生成した後パケットデータ蓄積部59へ送出する。   The packet generator 56 generates video packet data having a predetermined number of bytes based on the video packet and the video time stamp VTS, and generates audio packet data having a predetermined number of bytes based on the audio packet and the audio time stamp ATS. Then, multiplexed data MXD2 is generated by multiplexing these, and then transmitted to the packet data storage unit 59.

パケットデータ蓄積部59は、多重化データMXD2を所定量蓄積すると、当該多重化データMXD2を無線LAN6を介してRTP/TCPで第2のコンテンツ受信装置4へ送信するようになされている。   When the packet data storage unit 59 stores a predetermined amount of the multiplexed data MXD2, the packet data storage unit 59 transmits the multiplexed data MXD2 to the second content receiving device 4 via the wireless LAN 6 by RTP / TCP.

ところでリアルタイムストリーミングエンコーダ11は、ビデオ入力部51でディジタル変換したビデオデータVD2をPLL(Phase-Locked Loop)回路55にも供給する。PLL回路55は、ビデオデータVD2に基づいて当該ビデオデータVD2のクロック周波数にSTC回路60を同期させると共に、ビデオエンコーダ52、オーディオ入力部53及びオーディオエンコーダ54についてもビデオデータVD2のクロック周波数と同期させるようになされている。   Incidentally, the real-time streaming encoder 11 also supplies the video data VD2 digitally converted by the video input unit 51 to a PLL (Phase-Locked Loop) circuit 55. The PLL circuit 55 synchronizes the STC circuit 60 with the clock frequency of the video data VD2 based on the video data VD2, and also synchronizes the video encoder 52, the audio input unit 53, and the audio encoder 54 with the clock frequency of the video data VD2. It is made like that.

これによりリアルタイムストリーミングエンコーダ11は、PLL回路55を介してビデオデータVD2に対する圧縮符号化処理とオーディオデータAD2に対する圧縮符号化処理とをビデオデータVD2のクロック周波数と同期したタイミングで実行し得ると共に、PCR(Program Clock Reference)回路61を介してビデオデータVD2のクロック周波数に同期したクロックリファレンスpcrを第2のコンテンツ受信装置4におけるリアルタイムストリーミングデコーダ12へ送信し得るようになされている。   As a result, the real-time streaming encoder 11 can execute the compression encoding process for the video data VD2 and the compression encoding process for the audio data AD2 via the PLL circuit 55 at timing synchronized with the clock frequency of the video data VD2. A clock reference pcr synchronized with the clock frequency of the video data VD2 can be transmitted to the real-time streaming decoder 12 in the second content receiver 4 via the (Program Clock Reference) circuit 61.

このときPCR回路61は、クロックリファレンスpcrをRTPプロトコルの下位層に位置しリアルタイム性が要求されるUDP(User Datagram Protocol)で第2のコンテンツ受信装置4のリアルタイムストリーミングデコーダ12へ送信するようになされており、これにより高速性を確保してリアルタイム性の必要とされるライブストリーミングにも対応し得るようになされている。   At this time, the PCR circuit 61 is configured to transmit the clock reference pcr to the real-time streaming decoder 12 of the second content receiving device 4 by using UDP (User Datagram Protocol) which is located in the lower layer of the RTP protocol and requires real-time property. As a result, high-speed performance can be ensured, and live streaming that requires real-time performance can be supported.

(6)第2のコンテンツ受信装置におけるリアルタイムストリーミングデコーダの回路構成
図12に示すように第2のコンテンツ受信装置4におけるリアルタイムストリーミングデコーダ12は、第1のコンテンツ受信装置3のリアルタイムストリーミングエンコーダ11から送信された多重化データMXD2を入力パケット蓄積部71に一旦蓄積した後、パケット分割部72へ送出する。
(6) Circuit Configuration of Real-Time Streaming Decoder in Second Content Receiving Device As shown in FIG. 12, the real-time streaming decoder 12 in the second content receiving device 4 transmits from the real-time streaming encoder 11 of the first content receiving device 3. The multiplexed data MXD2 is temporarily stored in the input packet storage unit 71 and then sent to the packet division unit 72.

パケット分割部72は、多重化データMXD2を映像パケットデータVP2と音声パケットデータAP2に分割し、当該音声パケットデータAP2をリングバッファでなる入力オーディオバッファ73を介してオーディオフレーム単位でオーディオデコーダ74へ送出すると共に、映像パケットデータVP2をリングバッファでなる入力ビデオバッファ75を介してフレーム単位でビデオデコーダ76へ送出するようになされている。   The packet division unit 72 divides the multiplexed data MXD2 into video packet data VP2 and audio packet data AP2, and sends the audio packet data AP2 to the audio decoder 74 in units of audio frames via the input audio buffer 73 formed of a ring buffer. At the same time, the video packet data VP2 is sent to the video decoder 76 in units of frames via the input video buffer 75 which is a ring buffer.

ここで入力オーディオバッファ73及び入力ビデオバッファ75においても、後段のオーディオデコーダ74及びビデオデコーダ76で1オーディオフレーム及び1ビデオフレーム分の音声パケットデータAP2及び映像パケットデータVP2を連続してデコードできるようになるまで蓄積するようになされており、そのため少なくとも1オーディオフレーム及び1ビデオフレーム分のデータ容量があればよい。   Here, also in the input audio buffer 73 and the input video buffer 75, the audio packet data AP2 and the video packet data VP2 for one audio frame and one video frame can be successively decoded by the audio decoder 74 and the video decoder 76 in the subsequent stage. Therefore, it is sufficient to have a data capacity for at least one audio frame and one video frame.

なおパケット分割部72は、映像パケットデータVP2のビデオヘッダ情報及び音声パケットデータAP2のオーディオヘッダ情報を解析することによりオーディオタイムスタンプATS及びビデオタイムスタンプVTSを認識し得るようになされており、当該オーディオタイムスタンプATS及び当該ビデオタイムスタンプVTSをレンダラー77へ送出する。   The packet division unit 72 can recognize the audio time stamp ATS and the video time stamp VTS by analyzing the video header information of the video packet data VP2 and the audio header information of the audio packet data AP2. The time stamp ATS and the video time stamp VTS are sent to the renderer 77.

オーディオデコーダ74は、音声パケットデータAP2をオーディオフレーム単位でデコードすることにより圧縮符号化前のオーディオフレームAF2を復元し、順次レンダラー77へ送出する。   The audio decoder 74 restores the audio frame AF2 before compression encoding by decoding the audio packet data AP2 in units of audio frames, and sequentially sends them to the renderer 77.

ビデオデコーダ76は、映像パケットデータVP2をビデオフレーム単位でデコードすることにより圧縮符号化前のビデオフレームVF2を復元し、順次レンダラー77へ送出する。   The video decoder 76 restores the video frame VF2 before compression encoding by decoding the video packet data VP2 in units of video frames, and sequentially sends them to the renderer 77.

レンダラー77は、オーディオフレームAF2をリングバッファでなる出力オーディオバッファ78へ一時的に格納し、また同様にビデオフレームVF2をリングバッファでなる出力ビデオバッファ79に一時的に格納する。   The renderer 77 temporarily stores the audio frame AF2 in the output audio buffer 78 that is a ring buffer, and similarly temporarily stores the video frame VF2 in the output video buffer 79 that is a ring buffer.

そしてレンダラー77は、モニタ13へ出力するビデオフレームVF2の映像とオーディオフレームAF2の音声とをリップシンクさせるべくオーディオタイムスタンプATS及びビデオタイムスタンプVTSに基づいて最終的な出力タイミングを調整した後、その出力タイミングで出力オーディオバッファ78及び出力ビデオバッファ79からオーディオフレームAF2及びビデオフレームVF2をモニタ13へ順次出力するようになされている。   Then, the renderer 77 adjusts the final output timing based on the audio time stamp ATS and the video time stamp VTS so as to lip-sync the video of the video frame VF2 output to the monitor 13 and the audio of the audio frame AF2. The audio frame AF2 and the video frame VF2 are sequentially output from the output audio buffer 78 and the output video buffer 79 to the monitor 13 at the output timing.

ところでリアルタイムストリーミングデコーダ12は、第1のコンテンツ受信装置3におけるリアルタイムストリーミングエンコーダ11のPCR回路61からUDPで送信されるクロックリファレンスpcrを受信して減算回路81に入力する。   Incidentally, the real-time streaming decoder 12 receives the clock reference pcr transmitted by the UDP from the PCR circuit 61 of the real-time streaming encoder 11 in the first content receiving device 3 and inputs it to the subtraction circuit 81.

減算回路81は、クロックリファレンスpcrとSTC回路84から供給されるシステムタイムクロックstcとの差を算出し、これをフィルタ82、電圧制御型クリスタルオシレータ回路83及びSTC回路84を順次介して減算回路81にフィードバックすることによりPLL(Phase Locked Loop)を形成し、リアルタイムストリーミングエンコーダ11のクロックリファレンスpcrに次第に収束させ、最終的には当該クロックリファレンスpcrによりリアルタイムストリーミングエンコーダ11と同期したシステムタイムクロックstcをレンダラー77へ供給するようになされている。   The subtraction circuit 81 calculates a difference between the clock reference pcr and the system time clock stc supplied from the STC circuit 84, and sequentially subtracts this through the filter 82, the voltage controlled crystal oscillator circuit 83, and the STC circuit 84. To form a PLL (Phase Locked Loop) and gradually converge to the clock reference pcr of the real-time streaming encoder 11, and finally render the system time clock stc synchronized with the real-time streaming encoder 11 by the clock reference pcr. 77.

これによりレンダラー77は、第1のコンテンツ受信装置3におけるリアルタイムストリーミングエンコーダ11でビデオデータVD2及びオーディオデータAD2を圧縮符号化したり、ビデオタイムスタンプVTS及びオーディオタイムスタンプATSをカウントするときのクロック周波数と同期したシステムタイムクロックstcを基準にして、ビデオフレームVF2及びオーディオフレームAF2の出力タイミングを調整し得るようになされている。   As a result, the renderer 77 compresses and encodes the video data VD2 and the audio data AD2 by the real-time streaming encoder 11 in the first content receiving apparatus 3, and synchronizes with the clock frequency when the video time stamp VTS and the audio time stamp ATS are counted. The output timing of the video frame VF2 and the audio frame AF2 can be adjusted on the basis of the system time clock stc.

実際上レンダラー77は、オーディオフレームAF2に関してはリングバッファでなる出力オーディオバッファ78へ一時的に格納すると共に、ビデオフレームVF2に関してはリングバッファでなる出力ビデオバッファ79に一時的に格納し、映像と音声とをリップシンクさせた状態で出力するべく、リアルタイムストリーミングエンコーダ11のPCR回路61から供給されるクロックリファレンスpcrによりエンコーダ側と同期したシステムタイムクロックstc及びオーディオタイムスタンプATS、ビデオタイムスタンプVTSに基づいて出力タイミングを調整するようになされている。   In practice, the renderer 77 temporarily stores the audio frame AF2 in the output audio buffer 78 that is a ring buffer, and temporarily stores the video frame VF2 in the output video buffer 79 that is a ring buffer. Are output in a lip sync state based on the system time clock stc, audio time stamp ATS, and video time stamp VTS synchronized with the encoder side by the clock reference pcr supplied from the PCR circuit 61 of the real-time streaming encoder 11. The output timing is adjusted.

(7)ライブストリーミングにおけるデコーダ側でのリップシンク調整処理
(7−1)ライブストリーミングにおけるビデオフレーム及びオーディオフレームの出力タイミング調整方法
図13に示すように、この場合レンダラー77は、リアルタイムストリーミングエンコーダ11のPCR回路61から所定周期で供給されてくるクロックリファレンスpcrの値に、システムタイムクロックstcのクロック周波数をPLLでロックさせたうえで、当該システムタイムクロックstcの基で同期されたモニタ13を通してオーディオタイムスタンプATS及びビデオタイムスタンプVTSに従いオーディオフレームAF2及びビデオフレームVF2の出力をコントロールする。
(7) Lip sync adjustment processing on the decoder side in live streaming (7-1) Output timing adjustment method of video frame and audio frame in live streaming As shown in FIG. The clock time of the system time clock stc is locked by the PLL to the value of the clock reference pcr supplied from the PCR circuit 61 at a predetermined cycle, and then the audio time is passed through the monitor 13 synchronized based on the system time clock stc. The output of the audio frame AF2 and the video frame VF2 is controlled according to the stamp ATS and the video time stamp VTS.

すなわちレンダラー77は、クロックリファレンスpcrの値にシステムタイムクロックstcのクロック周波数を同期した状態で、システムタイムクロックstc及びオーディオタイムスタンプATS(ATS1、ATS2、ATS3、……)に従ってオーディオフレームAF2(Af1、Af2、Af3、……)をモニタ13へ順次出力する。   That is, the renderer 77 synchronizes the clock frequency of the system time clock stc with the value of the clock reference pcr, and in accordance with the system time clock stc and the audio time stamp ATS (ATS1, ATS2, ATS3,...), The audio frame AF2 (Af1,. Af2, Af3,...) Are sequentially output to the monitor 13.

ここで、クロックリファレンスpcrの値とシステムタイムクロックstcのクロック周波数とは前述のように同期関係を維持しているので、システムタイムクロックstcのカウント値とビデオタイムスタンプVTS(VTS1、VTS2、VTS3、……)との間で、例えば時点Tv1においてシステムタイムクロックstcのカウント値とビデオタイムスタンプVTS1との差分値D2Vが発生することはない。   Here, since the value of the clock reference pcr and the clock frequency of the system time clock stc maintain the synchronous relationship as described above, the count value of the system time clock stc and the video time stamp VTS (VTS1, VTS2, VTS3, )), For example, the difference value D2V between the count value of the system time clock stc and the video time stamp VTS1 does not occur at the time point Tv1.

しかしながら、リアルタイムストリーミングエンコーダ11のPCR回路61から供給されるクロックリファレンスpcrはリアルタイム性が要求されるUDPで送信されてくるものであり、高速性を重視するあまり再送制御されないので当該クロックリファレンスpcrが第2のコンテンツ受信装置4のリアルタイムストリーミングデコーダ12へ到達しないか、あるいはエラーデータを含んで到達することもある。   However, since the clock reference pcr supplied from the PCR circuit 61 of the real-time streaming encoder 11 is transmitted by UDP that requires real-time performance, the clock reference pcr is not subjected to retransmission control so that high-speed performance is important. 2 may not reach the real-time streaming decoder 12 of the content receiver 4 or may include error data.

このような場合には、リアルタイムストリーミングエンコーダ11のPCR回路61から所定周期で供給されてくるクロックリファレンスpcrの値と、システムタイムクロックstcのクロック周波数との同期がPLLを介してずれることがあるが、このときも本発明におけるレンダラー77ではリップシンクを保障し得るようになされている。   In such a case, the synchronization between the value of the clock reference pcr supplied from the PCR circuit 61 of the real-time streaming encoder 11 at a predetermined cycle and the clock frequency of the system time clock stc may be shifted via the PLL. At this time, the renderer 77 according to the present invention can guarantee the lip sync.

本発明では、システムタイムクロックstcとオーディオタイムスタンプATSそしてビデオタイムスタンプVTSとの間にずれが生じた場合、やはりリップシンクを取る方法として、オーディオ出力の連続性を優先させるようになされている。   In the present invention, when a deviation occurs between the system time clock stc, the audio time stamp ATS, and the video time stamp VTS, the continuity of the audio output is given priority as a method of taking a lip sync.

レンダラー77は、オーディオフレームAF2の出力タイミングTa2でのシステムタイムクロックstcのカウント値とオーディオタイムスタンプATS2とを比較し、その差分値D2Aを記憶する。一方、レンダラー77はビデオフレームVF2の出力タイミングTv2でのシステムタイムクロックstcのカウント値とビデオタイムスタンプVTS2とを比較し、その差分値D2Vを記憶する。   The renderer 77 compares the count value of the system time clock stc at the output timing Ta2 of the audio frame AF2 with the audio time stamp ATS2, and stores the difference value D2A. On the other hand, the renderer 77 compares the count value of the system time clock stc at the output timing Tv2 of the video frame VF2 with the video time stamp VTS2, and stores the difference value D2V.

このとき、クロックリファレンスpcrが第2のコンテンツ受信装置4のリアルタイムストリーミングデコーダ12へ確実に到達し、クロックリファレンスpcrの値と当該リアルタイムストリーミングデコーダ12のシステムタイムクロックstcのクロック周波数とがPLLを介して完全に一致し、モニタ13を含んでデコーダ側がシステムタイムクロックstcに同期していれば差分値D2V、D2Aは「0」となる。   At this time, the clock reference pcr surely reaches the real-time streaming decoder 12 of the second content receiving device 4, and the value of the clock reference pcr and the clock frequency of the system time clock stc of the real-time streaming decoder 12 are transmitted via the PLL. If the values coincide completely and the decoder side including the monitor 13 is synchronized with the system time clock stc, the difference values D2V and D2A are “0”.

この差分D2Aが正値であればオーディオフレームAF2は早いと判断され、負値であればオーディオフレームAF2は遅れていると判断される。同様に、差分D2Vが正値であればビデオフレームVF2は早いと判断され、負値であればビデオフレームVF2は遅れていると判断される。   If the difference D2A is a positive value, the audio frame AF2 is determined to be early, and if the difference D2A is a negative value, the audio frame AF2 is determined to be delayed. Similarly, if the difference D2V is a positive value, it is determined that the video frame VF2 is early, and if the difference D2V is a negative value, it is determined that the video frame VF2 is delayed.

ここでレンダラー77は、オーディオフレームAF2が早くても遅れていても、オーディオ出力の連続性を維持させることを優先させ、オーディオフレームAF2に対するビデオフレームVF2の出力を相対的に次のように制御する。   Here, the renderer 77 gives priority to maintaining the continuity of the audio output regardless of whether the audio frame AF2 is early or late, and controls the output of the video frame VF2 relative to the audio frame AF2 as follows. .

例えば、時点Tv2のタイミングにおいて、D2V−D2Aが閾値THよりも大きい場合、差分値D2Vが差分値D2Aよりも大きければ音声に映像が追いついていない状態であるため、レンダラー77はGOPを構成している例えばBピクチャに相当するビデオフレームVf3(図示せず)をデコードすることなくスキップして次のビデオフレームVf4を出力するようになされている。   For example, when D2V-D2A is greater than the threshold value TH at the time Tv2, the renderer 77 forms a GOP because the video does not catch up with the audio if the difference value D2V is greater than the difference value D2A. For example, a video frame Vf3 (not shown) corresponding to a B picture is skipped without being decoded and the next video frame Vf4 is output.

この場合、レンダラー77は出力ビデオバッファ79に格納されている「P」ピクチャについては、ビデオデコーダ76で次のピクチャをデコードする際の参照フレームとなるためスキップせず、次のピクチャを生成する際の参照フレームとならない非参照フレームである「B」ピクチャをスキップすることにより、画質劣化を未然に防ぎながらリップシンクさせるようになされている。   In this case, the renderer 77 does not skip the “P” picture stored in the output video buffer 79 and generates the next picture without skipping since it becomes a reference frame when the video decoder 76 decodes the next picture. By skipping the “B” picture, which is a non-reference frame that does not become the reference frame, lip sync is performed while preventing image quality deterioration.

これに対してD2V−D2Aが閾値THよりも大きく、差分値D2Aの方が差分値D2Vよりも大きければ映像に音声が追いついていない状態であるため、レンダラー77は現在出力中のビデオフレームVf2を繰り返しリピート出力するようになされている。   On the other hand, if D2V-D2A is larger than the threshold value TH and the difference value D2A is larger than the difference value D2V, the audio has not caught up with the video, so the renderer 77 determines the video frame Vf2 currently being output. Repeated output is made.

また、D2V−D2Aが閾値THよりも小さい場合は、音声に対する映像のギャップは許容範囲内であると判断され、レンダラー77は当該ビデオフレームVF2をそのままモニタ13へ出力する。   When D2V-D2A is smaller than the threshold value TH, it is determined that the video gap with respect to the sound is within the allowable range, and the renderer 77 outputs the video frame VF2 to the monitor 13 as it is.

ところでレンダラー77では、仮にスキップするべき「B」ピクチャが出力ビデオバッファ79に存在せず、「I」ピクチャや「P」ピクチャばかりであった場合には、当該「B」ピクチャをスキップすることはできないため、音声に映像を追い付かせることができなくなってしまう。   By the way, in the renderer 77, if the “B” picture to be skipped does not exist in the output video buffer 79 and there are only “I” picture and “P” picture, the “B” picture cannot be skipped. Because it is not possible, it will not be able to catch up with the video.

そこでレンダラー77では、第1のコンテンツ受信装置3におけるストリーミングデコーダ9のレンダラー37と同様に、スキップすべき「B」ピクチャが存在しないときには、モニタ13のモニタ出力タイミングが例えば60[Hz]であり、出力ビデオバッファ79から出力すべきビデオフレームVF2のピクチャリフレッシュタイミングが30[Hz]であることを利用し、当該ピクチャリフレッシュタイミングを短縮するようになされている。   Therefore, in the renderer 77, similarly to the renderer 37 of the streaming decoder 9 in the first content receiving device 3, when there is no “B” picture to be skipped, the monitor output timing of the monitor 13 is 60 [Hz], for example. Using the fact that the picture refresh timing of the video frame VF2 to be output from the output video buffer 79 is 30 [Hz], the picture refresh timing is shortened.

具体的にはレンダラー77は、クロックリファレンスpcrと同期したシステムタイムクロックstcとビデオタイムスタンプVTSの差分値が16.666……[msec]を超えるとき、すなわち音声の出力タイミングに対してモニタ出力タイミングが1フレーム分以上遅れているときは、1フレーム分のビデオフレームをスキップする代わりにピクチャリフレッシュタイミングを30[Hz]から60[Hz]に変更して表示間隔を短縮するようになされている。   Specifically, the renderer 77 monitors the monitor output timing when the difference value between the system time clock stc synchronized with the clock reference pcr and the video time stamp VTS exceeds 16.666... [Msec], that is, with respect to the audio output timing. Is delayed by one frame or more, the picture refresh timing is changed from 30 [Hz] to 60 [Hz] instead of skipping one video frame to shorten the display interval.

つまりレンダラー77は、当該スキップによる画質劣化の影響を受ける「I」ピクチャや「P」ピクチャについてはピクチャリフレッシュ間隔を1/30秒から1/60秒に短縮することにより、「I」ピクチャや「P」ピクチャをスキップすることによる画質劣化を生じさせることなく映像を音声に追い付かせることができるようになされている。   In other words, the renderer 77 shortens the picture refresh interval from 1/30 seconds to 1/60 seconds for the “I” picture and “P” picture that are affected by the image quality degradation due to the skip, so that the “I” picture and “ It is possible to make the video catch up with the audio without causing image quality degradation due to skipping the “P” picture.

(7−2)ライブストリーミングにおけるリップシンク調整処理手順
上述のようにリアルタイムストリーミングデコーダ12のレンダラー77がライブストリーミング再生を行う際に、オーディオフレームAF2を基準にしてビデオフレームVF2の出力タイミングを調整することにより映像と音声とをリップシンクさせる出力タイミング調整方法についてまとめると、次の図14のフローチャートに示すように、リアルタイムストリーミングデコーダ12のレンダラー77は、ルーチンRT2の開始ステップから入って、次のステップSP21へ移る。
(7-2) Lip Sync Adjustment Processing Procedure in Live Streaming As described above, when the renderer 77 of the real-time streaming decoder 12 performs live streaming playback, the output timing of the video frame VF2 is adjusted based on the audio frame AF2. When the output timing adjustment method for lip-syncing video and audio is summarized by the above, as shown in the flowchart of FIG. 14, the renderer 77 of the real-time streaming decoder 12 enters from the start step of the routine RT2, and then the next step SP21. Move on.

ステップSP21において、第2のコンテンツ受信装置4におけるリアルタイムストリーミングデコーダ12のレンダラー77は、第1のコンテンツ受信装置3におけるリアルタイムストリーミングエンコーダ11のPCR回路61からクロックリファレンスpcrを受信し、次のステップSP22へ移る。   In step SP21, the renderer 77 of the real-time streaming decoder 12 in the second content receiving device 4 receives the clock reference pcr from the PCR circuit 61 of the real-time streaming encoder 11 in the first content receiving device 3, and proceeds to the next step SP22. Move.

ステップSP22においてレンダラー77は、減算回路81、フィルタ82、電圧制御型クリスタルオシレータ回路83及びSTC回路84を介して構成されるPLLによってクロックリファレンスpcrとシステムタイムクロックstcとを同期させることにより、これ以降、出力タイミングを調整する際の基準として当該クロックリファンレンスpcrに同期したシステムタイムクロックstcを用い、次のステップSP23へ移る。   In step SP22, the renderer 77 synchronizes the clock reference pcr and the system time clock stc with the PLL configured via the subtracting circuit 81, the filter 82, the voltage controlled crystal oscillator circuit 83, and the STC circuit 84, and thereafter. Then, the system time clock stc synchronized with the clock reference pcr is used as a reference for adjusting the output timing, and the process proceeds to the next step SP23.

ステップSP23においてレンダラー77は、時点Tv1、Tv2、Tv3、……のタイミイグにおけるシステムタイムクロックstcのカウント値とビデオタイムスタンプVTSとの差分値D2Vを算出し、また時点Ta1、Ta2、Ta3、……のタイミングにおけるシステムタイムクロックstcのカウント値とオーディオタイムスタンプATSとの差分値D2Aを算出し、次のステップSP24へ移る。   In step SP23, the renderer 77 calculates a difference value D2V between the count value of the system time clock stc and the video time stamp VTS at the timings Tv1, Tv2, Tv3,..., And the time points Ta1, Ta2, Ta3,. The difference value D2A between the count value of the system time clock stc and the audio time stamp ATS at the timing is calculated, and the process proceeds to the next step SP24.

ステップSP24においてレンダラー77は、ステップSP23で算出した差分値D2V、D2Aに基づいて算出したD2V−D2Aが閾値TH(例えば100[msec])よりも小さい場合、否定結果を得て次のステップSP25へ移る。   In step SP24, the renderer 77 obtains a negative result when D2V-D2A calculated based on the difference values D2V and D2A calculated in step SP23 is smaller than a threshold value TH (for example, 100 [msec]), and proceeds to the next step SP25. Move.

ステップSP25においてレンダラー77は、D2A−D2Vが閾値TH(例えば100[msec])よりも大きい場合、肯定結果を得て映像が音声に対して進んでいると判断し、次のステップSP26へ移る。   In step SP25, when D2A-D2V is larger than the threshold value TH (for example, 100 [msec]), the renderer 77 obtains a positive result and determines that the video is proceeding with respect to the sound, and proceeds to the next step SP26.

ステップSP26においてレンダラー77は、映像の方が音声よりも進んでいるので、音声が映像に追いつくように現在出力中のピクチャを構成するビデオフレームVF2をリピートして出力した後、次のステップSP31へ移って処理を終了する。   In step SP26, the renderer 77 repeats and outputs the video frame VF2 constituting the picture currently being output so that the audio catches up with the video because the video is ahead of the audio, and then proceeds to the next step SP31. The process is terminated.

これに対してステップSP25でD2A−D2Vが閾値THを越えていないのであれば、否定結果を得て、音声と映像との間にずれが生じているとは感じない程度であると判断し、次のステップSP27へ移る。   On the other hand, if D2A-D2V does not exceed the threshold value TH in step SP25, a negative result is obtained, and it is determined that there is no feeling that there is a deviation between the audio and the video, Control goes to the next step SP27.

ステップSP27においてレンダラー77は、映像と音声との間でずれが生じているとは感じない程度の時間差しかないので、この場合はクロックリファレンスpcrと同期したシステムタイムクロックstcを基に、ビデオフレームVF2をビデオタイムスタンプVTSに従ってそのままモニタ13へ出力し、次のステップSP31へ移って処理を終了する。   In step SP27, the renderer 77 does not have a time that does not feel that there is a difference between video and audio. In this case, the video frame VF2 is based on the system time clock stc synchronized with the clock reference pcr. Is output as it is to the monitor 13 in accordance with the video time stamp VTS, and the process proceeds to the next step SP31.

なおレンダラー77は、音声に関しては音の連続性を維持させるため、上記のいずれの場合においても、クロックリファレンスpcrと同期したシステムタイムクロックstcを基に、オーディオタイムスタンプATSに従ってそのままモニタ13へ出力するようになされている。   The renderer 77 outputs the sound to the monitor 13 as it is according to the audio time stamp ATS based on the system time clock stc synchronized with the clock reference pcr in any of the above cases in order to maintain the continuity of the sound. It is made like that.

これに対してステップSP24で肯定結果が得られると、このことはD2V−D2Aが閾値TH(例えば100[msec])よりも大きいこと、すなわち音声に対して映像が遅れていることを表しており、このときレンダラー77は次のステップSP28へ移る。   On the other hand, if a positive result is obtained in step SP24, this indicates that D2V-D2A is larger than a threshold value TH (for example, 100 [msec]), that is, the video is delayed with respect to the sound. At this time, the renderer 77 proceeds to the next step SP28.

ステップSP28においてレンダラー77は、出力ビデオバッファ79に「B」ピクチャが存在するか否かを判定し、肯定結果が得られると次のステップSP29へ移り、否定結果が得られると次のステップSP30へ移る。   In step SP28, the renderer 77 determines whether or not a “B” picture exists in the output video buffer 79. If a positive result is obtained, the process proceeds to the next step SP29, and if a negative result is obtained, the process proceeds to the next step SP30. Move.

ステップSP29においてレンダラー77は、ビオデがオーディオに対して遅れていると判断し、かつ「B」ピクチャが出力ビデオバッファ79に存在することを確認したので、Bピクチャ(ビデオフレームVf3)をデコードせずにスキップして出力することにより、音声に対する映像の遅れを取り戻してリップシンクさせることができ、次のステップSP31へ移って処理を終了する。   In step SP29, the renderer 77 determines that the video is behind the audio and confirms that the “B” picture is present in the output video buffer 79, so the B picture (video frame Vf3) is not decoded. By skipping to the output, the delay of the video with respect to the audio can be recovered and the lip sync can be performed, and the process proceeds to the next step SP31 to end the process.

一方、ステップSP30においてレンダラー77は、モニタ13のモニタ出力タイミングが60[Hz]であるのに対し、ビデオフレームVF2のピクチャリフレッシュタイミングが30[Hz]であることを利用し、当該ピクチャリフレッシュタイミングをモニタ13のモニタ出力タイミングに合わせて短縮することにより、ピクチャをスキップすることによる画質劣化を生じさせることなく音声に映像を追い付かせ、次のステップSP31へ移って処理を終了する。   On the other hand, in step SP30, the renderer 77 uses the fact that the monitor refresh timing of the monitor 13 is 60 [Hz] while the picture refresh timing of the video frame VF2 is 30 [Hz]. By shortening according to the monitor output timing of the monitor 13, the video is caught up with the sound without causing picture quality deterioration due to skipping the picture, and the process proceeds to the next step SP 31 to end the process.

このように第2のコンテンツ受信装置4におけるリアルタイムストリーミングデコーダ12のレンダラー77は、第1のコンテンツ受信装置3におけるリアルタイムストリーミングエンコーダ11のクロックリファレンスpcrと当該リアルタイムストリーミングデコーダ12のシステムタイムクロックstcとを同期させることによりライブストリーミング再生を実現すると共に、そのためのクロックリファレンスpcrがUDPでリアルタイム性を重要視するために再送制御されずに到達しないことがあった場合でも、システムタイムクロックstcに対するオーディオタイムスタンプATS、ビデオタイムスタンプVTSのずれに応じてリップシンク調整処理を実行することにより、ライブストリーミング再生を行いながらも確実にリップシンクし得るようになされている。   As described above, the renderer 77 of the real-time streaming decoder 12 in the second content receiving device 4 synchronizes the clock reference pcr of the real-time streaming encoder 11 and the system time clock stc of the real-time streaming decoder 12 in the first content receiving device 3. Therefore, even if the clock reference pcr for that purpose does not arrive without being retransmitted because the real time property is important in UDP, the audio time stamp ATS with respect to the system time clock stc is realized. By executing the lip sync adjustment process according to the deviation of the video time stamp VTS, it is possible to ensure the playback while performing live streaming playback. It is configured so as to be able to Pushinku.

(8)動作及び効果
以上の構成において、第1のコンテンツ受信装置3のストリーミングデコーダ9は、コンテンツの種類がオーディオ及びビデオからなるものである場合、プリセット用ビデオタイムスタンプVTSpでシステムタイムクロックstcの値をプリセットした後に必ずプリセット用オーディオタイムスタンプATSpでプリセットし直すことにより、最終的には必ずシステムタイムクロックstcの値とプリセット用オーディオタイムスタンプATSp(ATSp1、ATSp2、ATSp3、……)とを一致させる。
(8) Operation and Effect In the above configuration, the streaming decoder 9 of the first content receiving device 3 uses the preset video time stamp VTSp and the system time clock stc when the content type is composed of audio and video. After presetting the values, be sure to re-set with the preset audio time stamp ATSp, so that the system time clock stc will eventually match the preset audio time stamp ATSp (ATSp1, ATSp2, ATSp3, ...) Let

ストリーミングデコーダ9のレンダラー37は、プリセット用オーディオタイムスタンプATSpでプリセットしたシステムタイムクロックstcのカウント値と、ビデオフレームVF1(Vf1、Vf2、Vf3、……)に付されたビデオタイムスタンプVTS(VTS1、VTS2、VTS3、……)との差分値D1を算出することにより、当該ビデオタイムスタンプVTSを付したエンコーダ側のクロック周波数とデコーダ側システムタイムクロックstcのクロック周波数とのずれによって生じる時間差を認識することができる。   The renderer 37 of the streaming decoder 9 includes the count value of the system time clock stc preset by the preset audio time stamp ATSp and the video time stamp VTS (VTS1, VTS1,...) Attached to the video frame VF1 (Vf1, Vf2, Vf3,...). By calculating a difference value D1 from VTS2, VTS3,..., A time difference caused by a difference between the clock frequency of the encoder side with the video time stamp VTS and the clock frequency of the decoder system time clock stc is recognized. be able to.

ストリーミングデコーダ9のレンダラー37は、その差分値D1に応じてビデオフレームVF1の現ピクチャをリピートして出力したり、又は非参照フレームのBピクチャをデコードせずにスキップして出力したり、或いはピクチャリフレッシュタイミングを短縮して出力することにより、モニタ10へ出力する音声を途切れさせることなく当該音声の連続性を保ったまま、その音声に対する映像の出力タイミングを調整することができる。   The renderer 37 of the streaming decoder 9 repeats and outputs the current picture of the video frame VF1 according to the difference value D1, or skips and outputs the B picture of the non-reference frame without decoding, or By shortening and outputting the refresh timing, it is possible to adjust the output timing of the video for the sound while maintaining the continuity of the sound without interrupting the sound output to the monitor 10.

もちろんレンダラー37は、差分値D1が閾値TH以下であって、ユーザがリップシンクのずれを認識し得ない程度である場合には、リピート出力やスキップ再生処理或いはピクチャリフレッシュ間隔を短縮することをせずにビデオタイムスタンプVTS(VTS1、VTS2、VTS3、……)の通りにモニタ10へ出力することもできるので、この場合にも当然映像の連続性を保つことができる。   Of course, if the difference value D1 is equal to or less than the threshold value TH and the user cannot recognize the lip sync deviation, the renderer 37 can shorten the repeat output, skip reproduction process, or picture refresh interval. Since it can also be output to the monitor 10 according to the video time stamp VTS (VTS1, VTS2, VTS3,...), The continuity of the video can naturally be maintained in this case as well.

さらに第2のコンテンツ受信装置4におけるリアルタイムストリーミングデコーダ12のレンダラー77は、第1のコンテンツ受信装置3におけるリアルタイムストリーミングエンコーダ11のPCR回路61から供給されるクロックリファレンスpcrとデコーダ側のシステムタイムクロックstcとを同期させた上で、オーディオタイムスタンプATS及びビデオタイムスタンプVTSに従ってオーディオフレームAF2及びビデオフレームVF2をモニタ13へ出力することができるので、リアルタイム性を保持したままライブストリーミング再生を実現することができる。   Furthermore, the renderer 77 of the real-time streaming decoder 12 in the second content receiver 4 includes a clock reference pcr supplied from the PCR circuit 61 of the real-time streaming encoder 11 in the first content receiver 3 and a system time clock stc on the decoder side. Since the audio frame AF2 and the video frame VF2 can be output to the monitor 13 in accordance with the audio time stamp ATS and the video time stamp VTS, live streaming reproduction can be realized while maintaining real-time characteristics. .

その上、第2のコンテンツ受信装置4におけるリアルタイムストリーミングデコーダ12のレンダラー77は、第1のコンテンツ受信装置3におけるリアルタイムストリーミングエンコーダ11のPCR回路61から供給されるクロックリファレンスpcrがUDPで再送制御されずに到達しないために、当該クロックリファレンスpcrとシステムタイムクロックstcとの同期が外れたとしても、システムタイムクロックstcとビデオタイムスタンプVTSとの差分値D2V、システムタイムクロックstcとオーディオタイムスタンプATSとの差分値D2Aを算出し、当該差分値D2VとD2Aとのギャップに応じてビデオフレームVF2の出力タイミングを調整することにより、モニタ13へ出力する音声を途切れさせることなく連続性を保ったまま、その音声に対する映像の出力タイミングを調整することができる。   In addition, the renderer 77 of the real-time streaming decoder 12 in the second content receiver 4 does not retransmit the clock reference pcr supplied from the PCR circuit 61 of the real-time streaming encoder 11 in the first content receiver 3 using UDP. Therefore, even if the clock reference pcr and the system time clock stc are out of synchronization, the difference value D2V between the system time clock stc and the video time stamp VTS, the system time clock stc and the audio time stamp ATS By calculating the difference value D2A and adjusting the output timing of the video frame VF2 according to the gap between the difference values D2V and D2A, the sound output to the monitor 13 is not interrupted. While maintaining the continuity, it is possible to adjust the output timing of the video for the audio.

また第1のコンテンツ受信装置3におけるストリーミングデコーダ9のレンダラー37は、プリセット用ビデオタイムスタンプVTSp、プリセット用オーディオタイムスタンプATSpの順番で決められたプリセットシーケンスに従い、当該プリセット用ビデオタイムスタンプVTSp、プリセット用オーディオタイムスタンプATSpを用いてシステムタイムクロックstcをプリセットするようにしたことにより、コンテンツの種類がオーディオだけからなるものであるときにはプリセット用オーディオタイムスタンプATSpでシステムタイムクロックstcをプリセットすることができ、またコンテンツの種類がビデオのみでなるものであるときには、プリセット用ビデオタイムスタンプVTSpでシステムタイムクロックstcをプリセットすることができるので、コンテンツの種類がオーディオ及びビデオからなるもの、オーディオのみからなるもの又はビデオのみからなるものである場合にも対応することができる。   Also, the renderer 37 of the streaming decoder 9 in the first content receiving device 3 follows the preset sequence determined in the order of the preset video time stamp VTSp and the preset audio time stamp ATSp, and the preset video time stamp VTSp and the preset use time stamp. Since the system time clock stc is preset using the audio time stamp ATSp, the system time clock stc can be preset with the audio time stamp ATSp for presetting when the type of content is only audio. If the content type is only video, the preset video time stamp VTSp is used as the system time clock stc. It is possible to preset which types of content consists of audio and video, may also be corresponding if made of only the or a video composed of only audio.

すなわちストリーミングデコーダ9のレンダラー37は、コンテンツが必ずしもオーディオ及びビデオからなるものでなく、当該コンテンツがビデオのみからなるものであってプリセット用オーディオタイムスタンプATSpが存在しないときや、コンテンツがオーディオのみからなるものであってプリセット用ビデオタイムスタンプVTSpが存在しないときでも、ビデオフレームVF1やオーディオフレームAF1の出力に対応することができるので、コンテンツの種類に応じた最適なタイミングでモニタ10へ出力することができる。   That is, the renderer 37 of the streaming decoder 9 does not necessarily include audio and video, but the content includes only video and the preset audio time stamp ATSp does not exist, or the content includes only audio. Even when the preset video time stamp VTSp does not exist, the video frame VF1 and the audio frame AF1 can be output. Therefore, the video time stamp VTSp can be output to the monitor 10 at an optimum timing according to the content type. it can.

さらにストリーミングデコーダ9のレンダラー37では、プリセット後のシステムタイムクロックstcのカウント値とビデオタイムスタンプVTS2との差分値D1が所定の閾値THよりも大きく、かつ映像が音声よりも遅れている場合で、出力ビデオバッファ39にBピクチャが存在するときには画質劣化の影響のない当該Bピクチャをデコードすることなくスキップし、出力ビデオバッファ39にBピクチャが存在しないときにはモニタ10のモニタ出力タイミングに合わせてビデオフレームVF1のピクチャリフレッシュタイミングを短縮することによりピクチャスキップによる画質劣化を生じさせずに映像を音声に追い付かせることができる。   Further, in the renderer 37 of the streaming decoder 9, when the difference value D1 between the count value of the system time clock stc after the preset and the video time stamp VTS2 is larger than a predetermined threshold value TH and the video is delayed from the audio, When there is a B picture in the output video buffer 39, the B picture that is not affected by image quality degradation is skipped without decoding, and when there is no B picture in the output video buffer 39, a video frame is synchronized with the monitor output timing of the monitor 10. By shortening the picture refresh timing of VF1, it is possible to catch up video with audio without causing image quality degradation due to picture skip.

以上の構成によれば、第1のコンテンツ受信装置3におけるストリーミングデコーダ9のレンダラー37及び第2のコンテンツ受信装置4におけるリアルタイムストリーミングデコーダ12のレンダラー77は、オーディオフレームAF1、AF2の出力タイミングを基準としてビデオフレームVF1、VF2の出力タイミングを調整することができるので、音声の連続性を保ったまま視聴者であるユーザに違和感を感じさせることなくリップシンクさせることができる。   According to the above configuration, the renderer 37 of the streaming decoder 9 in the first content receiver 3 and the renderer 77 of the real-time streaming decoder 12 in the second content receiver 4 are based on the output timings of the audio frames AF1 and AF2. Since the output timing of the video frames VF1 and VF2 can be adjusted, it is possible to lip-sync without making the viewer user feel uncomfortable while maintaining the continuity of the audio.

(9)他の実施の形態
なお上述の実施の形態においては、オーディオフレームAF1、AF2を基準とした差分値D1又はD2V、D2Aに応じてリップシンクを調整することによりエンコーダ側のクロック周波数とデコーダ側のクロック周波数とのずれを吸収するようにした場合について述べたが、本発明はこれに限らず、クロックジッタ、ネットワークジッタ等によって生じるエンコーダ側のクロック周波数とデコーダ側のクロック周波数との微妙なずれを吸収するようにしても良い。
(9) Other Embodiments In the above-described embodiment, the clock frequency on the encoder side and the decoder are adjusted by adjusting the lip sync according to the difference values D1 or D2V, D2A based on the audio frames AF1, AF2. However, the present invention is not limited to this, and the present invention is not limited to this, and the subtle difference between the clock frequency on the encoder side and the clock frequency on the decoder side caused by clock jitter, network jitter, etc. The shift may be absorbed.

また上述の実施の形態においては、コンテンツ提供装置2と第1のコンテンツ受信装置3との間でインターネット5を介して接続し、プリエンコーデッドストリーミングを実現するようにした場合について述べたが、本発明はこれに限らず、コンテンツ提供装置2と第2のコンテンツ受信装置4との間でインターネット5を介して接続し、プリエンコーデッドストリーミングを実現するようにしたり、コンテンツ提供装置2から第1のコンテンツ受信装置3を介して第2のコンテンツ受信装置4へコンテンツを提供することによりプリエンコーデッドストリーミングを実現するようにしても良い。   In the above-described embodiment, the case where the content providing apparatus 2 and the first content receiving apparatus 3 are connected via the Internet 5 to realize pre-encoded streaming has been described. The invention is not limited to this, and the content providing apparatus 2 and the second content receiving apparatus 4 are connected via the Internet 5 so as to realize pre-encoded streaming, Pre-encoded streaming may be realized by providing content to the second content receiving device 4 via the content receiving device 3.

さらに上述の実施の形態においては、第1のコンテンツ受信装置3と第2のコンテンツ受信装置4との間でライブストリーミングを行うようにした場合について述べたが、本発明はこれに限らず、コンテンツ提供装置2と第1のコンテンツ受信装置3との間や、コンテンツ提供装置2と第2のコンテンツ受信装置4との間でライブストリーミングを行うようにしても良い。   Furthermore, in the above-described embodiment, the case where live streaming is performed between the first content receiving device 3 and the second content receiving device 4 has been described. However, the present invention is not limited to this, and content Live streaming may be performed between the providing device 2 and the first content receiving device 3 or between the content providing device 2 and the second content receiving device 4.

この場合、コンテンツ提供装置2のストリーミングサーバ8からクロックリファレンスpcrを第1のコンテンツ受信装置3のストリーミングデコーダ9へ送信し、当該ストリーミングデコーダ9でクロックリファレンスpcrとシステムタイムクロックstcとを同期させることにより、ライブストリーミングを実現することができる。   In this case, the clock reference pcr is transmitted from the streaming server 8 of the content providing device 2 to the streaming decoder 9 of the first content receiving device 3, and the clock decoder pcr and the system time clock stc are synchronized by the streaming decoder 9. Live streaming can be realized.

さらに上述の実施の形態においては、サブトラクタ回路44及び45によって最初のビデオタイムスタンプVTS1及びオーディオタイムスタンプATS1の値を所定時間分だけ引き戻すようにした場合について述べたが、本発明はこれに限らず、バッファ42及び43を介して最初のビデオタイムスタンプVTS1及びオーディオタイムスタンプATS1がコンパレータ回路46に到達した時点で、バッファ42及び43による遅延等によりSTC回路41からコンパレータ回路46に供給されるプリセット後のシステムタイムクロックstcの値が当該ビデオタイムスタンプVTS1及びオーディオタイムスタンプATS1を経過していることがなければ、必ずしもサブトラクタ回路44及び45によって最初のビデオタイムスタンプVTS1及びオーディオタイムスタンプATS1の値を所定時間分だけ引き戻さなくても良い。   Further, in the above-described embodiment, the case where the values of the first video time stamp VTS1 and the audio time stamp ATS1 are pulled back by a predetermined time by the subtractor circuits 44 and 45 has been described, but the present invention is not limited to this. First, when the first video time stamp VTS1 and audio time stamp ATS1 arrive at the comparator circuit 46 via the buffers 42 and 43, the presets are supplied from the STC circuit 41 to the comparator circuit 46 due to delays by the buffers 42 and 43, etc. If the value of the later system time clock stc has not passed the video time stamp VTS1 and the audio time stamp ATS1, the subtractor circuits 44 and 45 do not necessarily provide the first video time stamp VTS. The value of S1 and audio time-stamp ATS1 may not pulled back by a predetermined time period a.

さらに上述の実施の形態においては、コンテンツの種類を判別する前に当該コンテンツの種類に拘らずプリセット用ビデオタイムスタンプVTSp、プリセット用オーディオタイムスタンプATSpの順番で決められたプリセットシーケンスに従ってシステムタイムクロックstcをプリセットするようにした場合について述べたが、本発明はこれに限らず、最初にコンテンツの種類を判別し、当該コンテンツがオーディオ及びビデオからなるものであるときには、プリセット用ビデオタイムスタンプVTSp、プリセット用オーディオタイムスタンプATSpでシステムタイムクロックstcをプリセットし、当該コンテンツがビデオだけからなるものであるときには、プリセット用ビデオタイムスタンプVTSpでシステムタイムクロックstcをプリセットし、当該コンテンツがオーディオだけからなるものであるときには、プリセット用オーディオタイムスタンプATSpでシステムタイムクロックstcをプリセットするようにしても良い。   Furthermore, in the above-described embodiment, the system time clock stc is determined according to a preset sequence determined in the order of the preset video time stamp VTSp and the preset audio time stamp ATSp regardless of the content type before determining the content type. However, the present invention is not limited to this, and the type of content is first determined. When the content is composed of audio and video, the preset video time stamp VTSp, If the system time clock stc is preset with the audio time stamp ATSp and the content is composed only of video, the system time clock is set with the preset video time stamp VTSp. Presetting the stc, when the content is made of only the audio is preset audio time-stamp ATSp may be preset system time clock stc.

さらに上述の実施の形態においては、出力ビデオバッファ39、79にBピクチャが存在しない場合には、モニタ10及び13のモニタ出力レートに合わせてビデオフレームVF1及びVF2のピクチャリフレッシュレートを30[Hz]から60[Hz]に短縮するようにした場合について述べたが、本発明はこれに限らず、Bピクチャの有無に拘らずビデオフレームVF1及びVF2のピクチャリフレッシュレートを30[Hz]から60[Hz]に短縮するようにしても良い。この場合でも、レンダラー37及び77は、音声に対して映像の遅れを取り戻してリップシンクさせることができる。   Further, in the above-described embodiment, when no B picture exists in the output video buffers 39 and 79, the picture refresh rate of the video frames VF1 and VF2 is set to 30 [Hz] in accordance with the monitor output rate of the monitors 10 and 13. However, the present invention is not limited to this, and the picture refresh rate of the video frames VF1 and VF2 is changed from 30 [Hz] to 60 [Hz] regardless of the presence or absence of the B picture. You may make it shorten to. Even in this case, the renderers 37 and 77 can recover the delay of the video with respect to the audio and perform lip sync.

さらに上述の実施の形態においては、Bピクチャをスキップして出力するようにした場合について述べたが、本発明はこれに限らず、Iピクチャの直前に位置するPピクチャをスキップして出力するようにしても良い。   Furthermore, in the above-described embodiment, the case where the B picture is skipped and output has been described. However, the present invention is not limited to this, and the P picture located immediately before the I picture is skipped and output. Anyway.

これは、Iピクチャの直前に位置するPピクチャであれば、次のIピクチャを生成する際に当該Pピクチャが参照されることはなく、スキップしたとしても次のIピクチャを生成する際に支障を来たすことがなく、画質劣化が生じることもないからである。   This is because if the P picture is located immediately before the I picture, the P picture is not referred to when the next I picture is generated, and even if it is skipped, there is a problem in generating the next I picture. This is because the image quality is not deteriorated.

さらに上述の実施の形態においては、ビデオフレームVf3をデコードせずにスキップしてモニタ10へ出力するようにした場合について述べたが、本発明はこれに限らず、ビデオフレームVf3をデコードした後に出力ビデオバッファ39から出力する段階でデコード後のビデオフレームVf3をスキップして出力するようにしても良い。   Further, in the above-described embodiment, the case where the video frame Vf3 is skipped without being decoded and output to the monitor 10 has been described. However, the present invention is not limited to this, and the video frame Vf3 is output after being decoded. At the stage of outputting from the video buffer 39, the decoded video frame Vf3 may be skipped and output.

さらに上述の実施の形態においては、オーディオフレームAF1、AF2についてはリップシンクの調整を行う際の基準として用いているために、全てのオーディオフレームについて欠けることなくモニタ10、13へ出力するようにした場合について述べたが、本発明はこれに限らず、例えば無音部分に相当するオーディオフレームがあった場合には、そのオーディオフレームをスキップして出力するようにしても良い。   Further, in the above-described embodiment, since the audio frames AF1 and AF2 are used as a reference when adjusting the lip sync, all the audio frames are output to the monitors 10 and 13 without any loss. However, the present invention is not limited to this. For example, when there is an audio frame corresponding to a silent portion, the audio frame may be skipped and output.

さらに上述の実施の形態においては、本発明のコンテンツ受信装置を、復号手段としてのオーディオデコーダ35、74、ビデオデコーダ36、76と、記憶手段としての入力オーディオバッファ33、73、出力オーディオバッファ38、78、入力ビデオバッファ34、75、出力ビデオバッファ39、79と、算出手段及びタイミング調整手段としてのレンダラー37、77とによって構成するようにした場合について述べたが、本発明はこれに限らず、その他種々の回路構成でコンテンツ受信装置を形成するようにしても良い。   Furthermore, in the above-described embodiment, the content receiving apparatus of the present invention includes audio decoders 35 and 74, video decoders 36 and 76 as decoding means, input audio buffers 33 and 73 as output storage means, output audio buffer 38, 78, the input video buffers 34 and 75, the output video buffers 39 and 79, and the renderers 37 and 77 serving as calculation means and timing adjustment means have been described. However, the present invention is not limited to this. The content receiving device may be formed with various other circuit configurations.

本発明のコンテンツ受信装置、ビデオオーディオ出力タイミング制御方法及びコンテンツ提供システムは、例えばサーバから音声付の動画コンテンツをダウンロードして表示する用途に適用することができる。   The content receiving apparatus, the video / audio output timing control method, and the content providing system according to the present invention can be applied, for example, to downloading and displaying moving image content with sound from a server.

ストリーミングシステムの全容を表すコンテンツ提供システムの全体構成を示す略線的ブロック図である。1 is a schematic block diagram illustrating an overall configuration of a content providing system that represents the entire contents of a streaming system. コンテンツ提供装置の回路構成を示す略線的ブロック図である。It is a rough block diagram which shows the circuit structure of a content provision apparatus. オーディオパケット及びビデオパケット内のタイムスタンプ(TCPプロトコル)の構造を示す略線図である。It is a basic diagram which shows the structure of the time stamp (TCP protocol) in an audio packet and a video packet. 第1のコンテンツ受信装置におけるストリーミングデコーダのモジュール構成を示す略線的ブロック図である。It is a basic block diagram which shows the module structure of the streaming decoder in a 1st content receiver. タイミングコントロール回路の構成を示す略線的ブロック図である。2 is a schematic block diagram illustrating a configuration of a timing control circuit. FIG. プリセット後のSTCと比較されるタイムスタンプを示す略線図である。It is a basic diagram which shows the time stamp compared with STC after a preset. プリエンコーデッドストリーミングにおけるビデオフレーム及びオーディオフレームの出力タイミングを説明する際に供する略線図である。It is a basic diagram provided when demonstrating the output timing of the video frame and audio frame in pre-encoded streaming. Iピクチャ、Pピクチャの場合のビデオフレーム出力制御処理の説明に供する略線図である。It is an approximate line figure used for explanation of video frame output control processing in the case of I picture and P picture. プリエンコーデッドストリーミングにおけるリップシンク調整処理手順を示すフローチャートである。It is a flowchart which shows the lip-sync adjustment process sequence in pre-encoded streaming. 第1のコンテンツ受信装置におけるリアルタイムストリーミングエンコーダの回路構成を示す略線的ブロック図である。It is a basic-line block diagram which shows the circuit structure of the real-time streaming encoder in a 1st content receiver. コントロールパケット内のPCR(UDPプロトコル)の構造を示す略線図である。It is a basic diagram which shows the structure of PCR (UDP protocol) in a control packet. 第2のコンテンツ受信装置におけるリアルタイムストリーミングデコーダの回路構成を示す略線的ブロック図である。It is a basic-line block diagram which shows the circuit structure of the real-time streaming decoder in a 2nd content receiver. ライブストリーミングにおけるビデオフレーム及びオーディオフレームの出力タイミングを説明する際に供する略線図である。It is an approximate line figure used when explaining the output timing of the video frame and audio frame in live streaming. ライブストリーミングにおけるリップシンク調整処理手順を示す略線的フローチャートである。It is a basic flowchart which shows the lip-sync adjustment process sequence in live streaming.

符号の説明Explanation of symbols

1……コンテンツ提供システム、2……コンテンツ提供装置、3……第1のコンテンツ受信装置、4……第2のコンテンツ受信装置、5……インターネット、7……エンコーダ、8……ストリーミングサーバ、9……ストリーミングデコーダ、10、13……モニタ、11……リアルタイムストリーミングエンコーダ、12……リアルタイムストリーミングデコーダ、14……Webサーバ、15……Webブラウザ、21、51……ビデオ入力部、22、52……ビデオエンコーダ、23……ビデオES蓄積部、24、53……オーディオ入力部、25、54……オーディオエンコーダ、26……オーディオES蓄積部、28、57……ビデオフレームカウンタ、29、58……オーディオフレームカウンタ、27、56……パケット生成部、30、59……パケットデータ蓄積部、31、71……入力パケット蓄積部、32、72……パケット分割部、33、73……入力オーディオバッファ、34、75……入力ビデオバッファ、35、74……オーディオデコーダ、36、76……ビデオデコーダ、37、77……レンダラー、38、78……出力オーディオバッファ、39、79……出力ビデオバッファ、40……クリスタルオシレータ回路、81……減算回路、82……フィルタ、83……電圧制御型クリスタルオシレータ、41、60、84……STC回路、61……PCR回路。
DESCRIPTION OF SYMBOLS 1 ... Content provision system, 2 ... Content provision apparatus, 3 ... 1st content receiver, 4 ... 2nd content receiver, 5 ... Internet, 7 ... Encoder, 8 ... Streaming server, 9: Streaming decoder, 10, 13: Monitor, 11: Real-time streaming encoder, 12: Real-time streaming decoder, 14: Web server, 15: Web browser, 21, 51 ... Video input unit, 22, 52... Video encoder, 23... Video ES storage section, 24 and 53... Audio input section, 25 and 54. Audio encoder, 26... Audio ES storage section, 28 and 57. 58 …… Audio frame counter, 27, 56 …… Packet generation , 30, 59... Packet data storage unit, 31, 71... Input packet storage unit, 32, 72... Packet division unit, 33, 73... Input audio buffer, 34, 75. 74 ... Audio decoder, 36, 76 ... Video decoder, 37, 77 ... Renderer, 38, 78 ... Output audio buffer, 39,79 ... Output video buffer, 40 ... Crystal oscillator circuit, 81 ... Subtraction Circuit, 82... Filter, 83... Voltage controlled crystal oscillator, 41, 60, 84... STC circuit, 61.

Claims (6)

エンコーダ側の基準クロックに基づくビデオタイムスタンプが順次付された複数の符号化ビデオフレームと、上記基準クロックに基づくオーディオタイムスタンプが順次付された複数の符号化オーディオフレームとを上記エンコーダ側のコンテンツ提供装置から受信して復号する復号手段と、
上記復号手段によって上記符号化ビデオフレーム及び上記符号化オーディオフレームを復号した結果得られる複数のビデオフレーム及び複数のオーディオフレームを蓄積する記憶手段と、
上記エンコーダ側の基準クロックのクロック周波数とデコーダ側のシステムタイムクロックのクロック周波数とのずれによって生じる時間差を算出する算出手段と、
上記時間差が所定の時間よりも長く、かつ上記ビデオフレームが上記オーディオフレームよりも遅れているか否かを判定するビデオ遅れ判定手段と、
上記記憶手段から出力すべき上記ビデオフレームとして次のピクチャを生成する際の参照フレームとならない非参照フレームが存在するか否かを判定するピクチャ判定手段と、
上記ビデオ遅れ判定手段により上記ビデオフレームが上記オーディオフレームよりも遅れていると判断した場合で、かつ上記ピクチャ判定手段により上記非参照フレームが存在すると判定されたとき、当該非参照フレームをスキップして出力し、上記非参照フレームが存在しないと判定されたとき、表示手段の表示レートに合わせて上記ビデオフレームにおけるピクチャ更新レートを速めることにより映像及び音声間のリップシンクを調整するタイミング調整手段と
を具えることを特徴とするコンテンツ受信装置。
Providing content on the encoder side with a plurality of encoded video frames sequentially attached with video time stamps based on a reference clock on the encoder side and a plurality of encoded audio frames sequentially attached with audio time stamps based on the reference clock Decoding means for receiving and decoding from the device;
Storage means for storing a plurality of video frames and a plurality of audio frames obtained as a result of decoding the encoded video frame and the encoded audio frame by the decoding means;
Calculating means for calculating a time difference caused by a deviation between the clock frequency of the reference clock on the encoder side and the clock frequency of the system time clock on the decoder side;
Video delay determining means for determining whether the time difference is longer than a predetermined time and the video frame is delayed with respect to the audio frame;
Picture determination means for determining whether or not there is a non-reference frame that does not become a reference frame when the next picture is generated as the video frame to be output from the storage means;
When the video delay determining means determines that the video frame is behind the audio frame, and the picture determining means determines that the non-reference frame exists, the non-reference frame is skipped. Output timing adjustment means for adjusting the lip sync between video and audio by increasing the picture update rate in the video frame in accordance with the display rate of the display means when it is determined that the non-reference frame does not exist. A content receiving device comprising:
上記タイミング調整手段は、上記ビデオ遅れ判定手段により上記ビデオフレームが上記オーディオフレームよりも遅れていると判定された場合で、かつ上記スキップ判定手段によって上記非参照フレームが存在しないと判定された場合、Iピクチャ直前に位置するPピクチャの上記ビデオフレームをスキップして出力する
ことを特徴とする請求項1に記載のコンテンツ受信装置。
The timing adjusting means is when the video delay determining means determines that the video frame is delayed from the audio frame, and when the skip determining means determines that the non-reference frame does not exist, The content receiving apparatus according to claim 1, wherein the video frame of the P picture located immediately before the I picture is skipped and output.
上記タイミング調整手段は、上記ビデオ遅れ判定手段により上記ビデオフレームが上記オーディオフレームよりも進んでいると判定された場合、現ピクチャの上記ビデオフレームを繰り返し出力する
ことを特徴とする請求項1に記載のコンテンツ受信装置。
2. The timing adjustment unit according to claim 1, wherein when the video delay determination unit determines that the video frame is ahead of the audio frame, the timing adjustment unit repeatedly outputs the video frame of the current picture. Content receiving device.
上記コンテンツ提供装置からリアルタイム性が要求されるUDP(User Datagram Protocol)で送信される上記エンコーダ側の基準クロックを受信する受信手段
を具え、
上記算出手段は、上記エンコーダ側の基準クロックと上記デコーダ側のシステムタイムクロックとを同期させた上で、上記エンコーダ側の基準クロックのクロック周波数とデコーダ側のシステムタイムクロックのクロック周波数とのずれによって生じる時間差を算出する
ことを特徴とする請求項1に記載のコンテンツ受信装置。
Receiving means for receiving a reference clock on the encoder side transmitted by UDP (User Datagram Protocol), which requires real-time performance from the content providing device;
The calculation means synchronizes the reference clock on the encoder side with the system time clock on the decoder side, and then calculates the difference between the clock frequency of the reference clock on the encoder side and the clock frequency of the system time clock on the decoder side. The content receiving apparatus according to claim 1, wherein a time difference that occurs is calculated.
復号手段に対して、エンコーダ側の基準クロックに基づくビデオタイムスタンプが順次付された複数の符号化ビデオフレームと、上記基準クロックに基づくオーディオタイムスタンプが順次付された複数の符号化オーディオフレームとを上記エンコーダ側のコンテンツ提供装置から受信して復号させる復号ステップと、
記憶手段に対して、上記復号ステップで上記符号化ビデオフレーム及び上記符号化オーディオフレームを復号した結果得られる複数のビデオフレーム及び複数のオーディオフレームを蓄積させる記憶ステップと、
算出手段に対して、上記エンコーダ側の基準クロックのクロック周波数とデコーダ側のシステムタイムクロックのクロック周波数とのずれによって生じる時間差を算出させる算出ステップと、
ビデオ遅れ判定手段に対して、上記時間差が所定の時間よりも長く、かつ上記ビデオフレームが上記オーディオフレームよりも遅れているか否かを判定するビデオ遅れ判定ステップと、
ピクチャ判定手段に対して、上記記憶手段から出力すべき上記ビデオフレームとして次のピクチャを構成する参照フレームとならない非参照フレームが存在するか否かを判定するピクチャ判定ステップと、
タイミング調整手段に対して、上記ビデオ遅れ判定ステップで上記ビデオフレームが上記オーディオフレームよりも遅れている場合で、かつ上記ピクチャ判定ステップで上記非参照フレームが存在すると判定されたとき、当該非参照フレームをスキップして出力し、上記非参照フレームが存在しないと判定されたとき、表示手段の表示レートに合わせて上記ビデオフレームにおけるピクチャ更新レートを速めることにより映像及び音声間のリップシンクを調整するタイミング調整ステップと
を具えることを特徴とするビデオオーディオ出力タイミング制御方法。
A plurality of encoded video frames sequentially attached with video time stamps based on a reference clock on the encoder side and a plurality of encoded audio frames sequentially attached with audio time stamps based on the reference clock to the decoding means. A decoding step for receiving and decoding from the content providing apparatus on the encoder side;
A storage step of storing a plurality of video frames and a plurality of audio frames obtained as a result of decoding the encoded video frame and the encoded audio frame in the decoding step;
A calculation step for causing the calculation means to calculate a time difference caused by a deviation between the clock frequency of the reference clock on the encoder side and the clock frequency of the system time clock on the decoder side;
A video delay determination step for determining whether the time difference is longer than a predetermined time and whether the video frame is delayed with respect to the audio frame with respect to the video delay determination means;
A picture determination step for determining whether or not there is a non-reference frame that does not become a reference frame constituting the next picture as the video frame to be output from the storage means to the picture determination means;
If the video frame is delayed from the audio frame in the video delay determination step and the non-reference frame is determined in the picture determination step to the timing adjustment means, the non-reference frame Timing to adjust the lip sync between video and audio by increasing the picture update rate in the video frame according to the display rate of the display means when it is determined that the non-reference frame does not exist A video / audio output timing control method comprising: an adjustment step.
コンテンツ提供装置とコンテンツ受信装置を有するコンテンツ提供システムであって、
上記コンテンツ提供装置は、
エンコーダ側の基準クロックに基づくビデオタイムスタンプを付した複数の符号化ビデオフレームと、上記基準クロックに基づくオーディオタイムスタンプを付した複数の符号化オーディオフレームとを生成する符号化手段と、
上記複数の符号化ビデオフレーム及び上記複数の符号化オーディオフレームを上記コンテンツ受信装置へ順次送信する送信手段と
を具え、
上記コンテンツ受信装置は、
上記ビデオタイムスタンプが順次付された複数の符号化ビデオフレームと、上記オーディオタイムスタンプが順次付された複数の符号化オーディオフレームとを上記エンコーダ側のコンテンツ提供装置から受信して復号する復号手段と、
上記復号手段によって上記符号化ビデオフレーム及び上記符号化オーディオフレームを復号した結果得られる複数のビデオフレーム及び複数のオーディオフレームを蓄積する記憶手段と、
上記エンコーダ側の基準クロックのクロック周波数とデコーダ側のシステムタイムクロックのクロック周波数とのずれによって生じる時間差を算出する算出手段と、
上記時間差が所定の時間よりも長く、かつ上記ビデオフレームが上記オーディオフレームよりも遅れているか否かを判定するビデオ遅れ判定手段と、
上記記憶手段から出力すべき上記ビデオフレームとして次のピクチャを生成する際の参照フレームとならない非参照フレームが存在するか否かを判定するピクチャ判定手段と、
上記ビデオ遅れ判定手段により上記ビデオフレームが上記オーディオフレームよりも遅れている場合で、かつ上記ピクチャ判定手段により上記非参照フレームが存在すると判定されたとき、当該非参照フレームをスキップして出力し、上記非参照フレームが存在しないと判定されたとき、表示手段の表示レートに合わせて上記ビデオフレームにおけるピクチャ更新レートを速めることにより映像及び音声間のリップシンクを調整するタイミング調整手段と
を具えることを特徴とするコンテンツ提供システム。
A content providing system having a content providing device and a content receiving device,
The content providing apparatus includes:
Encoding means for generating a plurality of encoded video frames with video time stamps based on a reference clock on the encoder side, and a plurality of encoded audio frames with audio time stamps based on the reference clock;
Transmitting means for sequentially transmitting the plurality of encoded video frames and the plurality of encoded audio frames to the content receiving device;
The content receiving device is:
Decoding means for receiving and decoding a plurality of encoded video frames sequentially attached with the video time stamp and a plurality of encoded audio frames sequentially attached with the audio time stamp from the content providing apparatus on the encoder side; ,
Storage means for storing a plurality of video frames and a plurality of audio frames obtained as a result of decoding the encoded video frame and the encoded audio frame by the decoding means;
Calculating means for calculating a time difference caused by a deviation between the clock frequency of the reference clock on the encoder side and the clock frequency of the system time clock on the decoder side;
Video delay determining means for determining whether the time difference is longer than a predetermined time and the video frame is delayed with respect to the audio frame;
Picture determination means for determining whether or not there is a non-reference frame that does not become a reference frame when the next picture is generated as the video frame to be output from the storage means;
When the video delay determining means determines that the non-reference frame exists when the video frame is delayed from the audio frame and the picture determining means is present, the non-reference frame is skipped and output. Timing adjustment means for adjusting a lip sync between video and audio by accelerating a picture update rate in the video frame in accordance with a display rate of the display means when it is determined that the non-reference frame does not exist. Content providing system characterized by
JP2004256204A 2003-09-02 2004-09-02 Content receiving apparatus, video / audio output timing control method, and content providing system Expired - Fee Related JP4735932B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004256204A JP4735932B2 (en) 2003-09-02 2004-09-02 Content receiving apparatus, video / audio output timing control method, and content providing system

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2003310639 2003-09-02
JP2003310639 2003-09-02
JP2004256204A JP4735932B2 (en) 2003-09-02 2004-09-02 Content receiving apparatus, video / audio output timing control method, and content providing system

Publications (2)

Publication Number Publication Date
JP2005102193A true JP2005102193A (en) 2005-04-14
JP4735932B2 JP4735932B2 (en) 2011-07-27

Family

ID=34467535

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004256204A Expired - Fee Related JP4735932B2 (en) 2003-09-02 2004-09-02 Content receiving apparatus, video / audio output timing control method, and content providing system

Country Status (1)

Country Link
JP (1) JP4735932B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012204876A (en) * 2011-03-23 2012-10-22 Fujitsu Ltd Reproduction device, reproduction method and program
JP5642319B2 (en) * 2012-04-04 2014-12-17 三菱電機株式会社 DIGITAL DATA DISTRIBUTION DEVICE AND METHOD, DIGITAL DATA REPRODUCTION DEVICE AND METHOD, SYNCHRONOUS REPRODUCTION SYSTEM, PROGRAM, AND RECORDING MEDIUM
CN114584811A (en) * 2022-05-09 2022-06-03 江西师范大学 Method and system for synchronizing streaming media video based on RTP (real-time transport protocol)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07177479A (en) * 1993-09-30 1995-07-14 Thomson Consumer Electron Inc Synchronizer of audio signal and video signal
JPH08214296A (en) * 1994-11-30 1996-08-20 Sanyo Electric Co Ltd Decoder and mpeg system decoder
JP2001128171A (en) * 1999-10-29 2001-05-11 Matsushita Electric Ind Co Ltd Video-audio synchronous reproducing device
JP2001160968A (en) * 1999-09-20 2001-06-12 Matsushita Electric Ind Co Ltd Coding recorder
JP2003510912A (en) * 1999-09-21 2003-03-18 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Clock recovery
JP2003101962A (en) * 2001-09-26 2003-04-04 Sony Corp Synchronous reproducing device and method
JP2003199053A (en) * 2001-10-18 2003-07-11 Matsushita Electric Ind Co Ltd Video/audio playback device, its method, program, and medium
JP2004242041A (en) * 2003-02-05 2004-08-26 Sony Corp Device and method for processing information

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07177479A (en) * 1993-09-30 1995-07-14 Thomson Consumer Electron Inc Synchronizer of audio signal and video signal
JPH08214296A (en) * 1994-11-30 1996-08-20 Sanyo Electric Co Ltd Decoder and mpeg system decoder
JP2001160968A (en) * 1999-09-20 2001-06-12 Matsushita Electric Ind Co Ltd Coding recorder
JP2003510912A (en) * 1999-09-21 2003-03-18 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Clock recovery
JP2001128171A (en) * 1999-10-29 2001-05-11 Matsushita Electric Ind Co Ltd Video-audio synchronous reproducing device
JP2003101962A (en) * 2001-09-26 2003-04-04 Sony Corp Synchronous reproducing device and method
JP2003199053A (en) * 2001-10-18 2003-07-11 Matsushita Electric Ind Co Ltd Video/audio playback device, its method, program, and medium
JP2004242041A (en) * 2003-02-05 2004-08-26 Sony Corp Device and method for processing information

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012204876A (en) * 2011-03-23 2012-10-22 Fujitsu Ltd Reproduction device, reproduction method and program
JP5642319B2 (en) * 2012-04-04 2014-12-17 三菱電機株式会社 DIGITAL DATA DISTRIBUTION DEVICE AND METHOD, DIGITAL DATA REPRODUCTION DEVICE AND METHOD, SYNCHRONOUS REPRODUCTION SYSTEM, PROGRAM, AND RECORDING MEDIUM
CN114584811A (en) * 2022-05-09 2022-06-03 江西师范大学 Method and system for synchronizing streaming media video based on RTP (real-time transport protocol)
CN114584811B (en) * 2022-05-09 2022-07-22 江西师范大学 Method and system for synchronizing streaming media video based on RTP (real-time transport protocol)

Also Published As

Publication number Publication date
JP4735932B2 (en) 2011-07-27

Similar Documents

Publication Publication Date Title
KR101263522B1 (en) Content receiver, video-audio output timing control method, and content providing system
WO2005025224A1 (en) Content reception device, video/audio output timing control method, and content providing system
JP6317872B2 (en) Decoder for synchronizing the rendering of content received over different networks and method therefor
JP7279767B2 (en) Transmission method and transmission device
JP4182437B2 (en) Audio video synchronization system and monitor device
JP4983923B2 (en) Decoder device and decoding method
JP2011114681A (en) Method and system for reproducing video information, and video information content
WO2013190789A1 (en) Reception device, and synchronous processing method therefor
US7567546B2 (en) Transmitter device, bridge device, and receiver device, and network system including the devices
US20150109411A1 (en) Image playback apparatus for 3dtv and method performed by the apparatus
JP2009272945A (en) Synchronous reproduction apparatus
WO2013190787A1 (en) Reception device, and synchronous processing method therefor
JP2003249922A (en) Data receiver, method for processing received data and computer program
US20060161676A1 (en) Apparatus for IP streaming capable of smoothing multimedia stream
JP6051847B2 (en) Video information reproduction method and system
JP3906712B2 (en) Data stream processing device
JP2010171919A (en) Video display apparatus
JP4735932B2 (en) Content receiving apparatus, video / audio output timing control method, and content providing system
JP4882213B2 (en) Content receiving apparatus, video / audio output timing control method, and content providing system
JP4192766B2 (en) Receiving apparatus and method, recording medium, and program
JP2004015553A (en) Synchronization control method and apparatus thereof, synchronization reproduction apparatus and tv receiving apparatus using the control method and apparatus
WO2011155099A1 (en) Image display device
WO2021006137A1 (en) Reception device, reception method, and transmission/reception system
JP4188402B2 (en) Video receiver
JP2012016066A (en) Video signal processor, and video signal processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070807

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100408

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100531

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20101021

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110121

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20110131

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110331

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110413

R151 Written notification of patent or utility model registration

Ref document number: 4735932

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140513

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees