JP2013514034A - オーディオ信号及びビデオ信号の同期化誤差の補正方法及び装置 - Google Patents

オーディオ信号及びビデオ信号の同期化誤差の補正方法及び装置 Download PDF

Info

Publication number
JP2013514034A
JP2013514034A JP2012544405A JP2012544405A JP2013514034A JP 2013514034 A JP2013514034 A JP 2013514034A JP 2012544405 A JP2012544405 A JP 2012544405A JP 2012544405 A JP2012544405 A JP 2012544405A JP 2013514034 A JP2013514034 A JP 2013514034A
Authority
JP
Japan
Prior art keywords
video
moving image
synchronization error
content
fps
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012544405A
Other languages
English (en)
Other versions
JP5707642B2 (ja
Inventor
ソック カン、シン
Original Assignee
ダブル ユー コーポレーション カンパニー リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ダブル ユー コーポレーション カンパニー リミテッド filed Critical ダブル ユー コーポレーション カンパニー リミテッド
Priority claimed from PCT/KR2010/009363 external-priority patent/WO2011081380A2/ko
Publication of JP2013514034A publication Critical patent/JP2013514034A/ja
Application granted granted Critical
Publication of JP5707642B2 publication Critical patent/JP5707642B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/04Synchronising

Abstract

本発明は、複数の動画を結合する時に発生するビデオ信号とオーディオ信号間の同期化誤差を補正する同期化誤差の補正装置及び方法を開示する。本発明は、互いに異なる動画コンテンツを結合するにあたって、結合される動画の最初のビデオ信号とオーディオ信号間の同期化誤差を格納し、複数の動画コンテンツを結合する時、既存にビデオ信号とオーディオ信号とが互いに同期化するように設定された最初の同期化誤差が維持されるように結合することで、従来技術が画一的にビデオ信号とオーディオ信号とを結合して誤差を変更することで、ビデオ信号とオーディオ信号とが非同期化されて不自然な動画が表現されるという問題点を解消した。
【選択図】図2

Description

本発明は、動画同期化誤差の補正装置に関し、さらに具体的には、オーディオ信号とビデオ信号間の同期化誤差を補正する方法及び装置に関する。
連続する映像(ライブ放送映像)をWindow Media Encoderのようなエンコードソフトウェアを通じてリアルタイムでエンコードして放送する場合は、次のような多様な場合が存在する。
第一、キャプチャデバイスから直接的なエンコード方式が存在し、第二、キャプチャデバイスから間接的なエンコード方式が存在する。
第一の方式の場合、デバイスからA/Vの誤差が補正された数値が既にストリーミングデータに含まれているため問題にならないが、第二の方式の場合、A/VのPTS(Presentation Time Stamp)値をFPS(Frame Per Second)によって数値的な計算で処理する過程における誤差が存在する。
例えば、30FPSは、秒当たり30回のFrameが画面に出力されるという意味を有するが、これを数値で表現すると、(100000000.0nanosec/30.0)=3333333.333333…となり、これをAvgTimePerFrameという。
AvgTimePerFrameは、PTSを決定することに重要な役割をし、映像がどれぐらい画面に表示されなければならないかを決める数値となる。
計算されたAvgTimePerFra meで秒当たり30Frameを計算する場合、(3333333*30)=99999990で処理されて、10nanosecの誤差が存在する。
また、映像専用のキャプチャデバイスの場合は、30FPSに合わせて30Frameの画面がキャプチャされるが、ウェブカメラのようなパーソナルキャプチャデバイスの場合は、秒当たり30FPSに設定されているとしても、秒当たり30Frameがキャプチャされず、30FPS未満にキャプチャされて、前記の誤差がさらに大きくなる短所がある。即ち、設定されたFPSとキャプチャされるFPSとの数が一致しない場合が存在する。
このような過程でこのような数値誤差は、長時間エンコードされてストリーミングされる過程で、映像と音声の誤差で表れてサービスに困難が発生し得る。
このような誤差の問題点は、動画を生成するキャプチャリングデバイスと、これを符号化して転送するエンコード装置間に、互いに異なるFPSで動画コンテンツ(ビデオ信号とオーディオ信号とを含む、以下同一)を処理する場合に特に深刻な問題点として台頭される。
それだけでなく、一つの動画コンテンツに他の動画コンテンツを挿入する場合は、各動画ごとにビデオ信号とオーディオ信号間の同期化誤差が互いに異なり、一つの動画の途中に他の動画を挿入する場合に、画面は出るが無音で処理されるか、音は聞こえるが画面が出ない状況が発生する。
このような場合は、地上波放送で途中に広告動画を挿入する場合に特に問題となるが、スポーツ中継の途中に広告動画を挿入する場合に、映像のみが表示されて音声が聞こえない場合や、音声は聞こえるが映像が表示されずにブラックスクリーンなどで表示される場合は、視聴者が拒否感を感じるという問題点が発生する。
本発明が解決しようとする課題は、動画コンテンツを途中に挿入するか、複数の動画コンテンツを結合する場合に、互いに異なる動画間のオーディオ信号とビデオ信号間の同期化誤差を補正して、自然な動画の再生が可能な同期化誤差の補正方法及び装置を提供することである。
また、本発明が解決しようとする他の課題は、ビデオ信号とオーディオ信号間の同期化誤差を補正しながら、動画のFPSを再設定することができる同期化誤差の補正方法及び装置を提供することである。
前述した課題を解決するための本発明の一実施例による同期化誤差の補正装置は、ビデオ信号とオーディオ信号で構成される動画コンテンツを複数の動画ソースから入力を受けて出力するソース選択部と、複数の動画コンテンツのそれぞれに対してビデオ信号とオーディオ信号間に事前に設定された最初の同期化誤差を抽出する誤差補正部と、複数の動画コンテンツのビデオ信号及びオーディオ信号のPTS(Presentation Time Stamp)を複数の動画が結合された後に生成される結合動画コンテンツのPTSに対応するように再設定して前記複数の動画コンテンツを結合し、結合された各動画コンテンツ領域の前記オーディオ信号とビデオ信号間の前記最初の同期化誤差が維持されるようにPTSを再設定するPTS調節部とを含む。
また、第1動画コンテンツの途中に第2動画コンテンツが挿入される場合に、前記PTS調節部は、前記第1動画コンテンツの途中に前記第2動画コンテンツが結合され、前記第2動画コンテンツの末端に前記第1動画コンテンツの残余部分が結合されるようにPTSを調節し、前記第1動画コンテンツの残余部分が結合される時、前記第1動画コンテンツのビデオ信号とオーディオ信号間の最初の同期化誤差が維持されるようにビデオ信号とオーディオ信号のPTSを設定する。
また、前述した本発明の一実施例による同期化誤差の補正装置は、エンコーダから入力された設定情報に含まれたFPS(Frame Per Second)設定情報に従って、結合された動画コンテンツのビデオ信号のFPSを調節するFPS調節部をさらに含む。
また、前記FPS調節部は、前記FPS設定情報に従ってFPSが調節された後の各映像フレームの時間上の位置を設定し、FPS調節前の前記結合動画コンテンツのビデオ信号を構成する各映像フレームのうち、前記FPS設定情報に従って設定された各映像フレームの時間上の位置の直前の映像フレームを利用して、結合動画コンテンツのビデオ信号のFPSを調節する。
また、前述した本発明の一実施例による同期化誤差の補正装置は、エンコーダから入力された設定情報に含まれた画面の割合設定情報に従って、前記FPSが調節された結合動画コンテンツのビデオ信号の画面の割合を調節する割合調節部をさらに含む。
また、前述した本発明の一実施例による同期化誤差の補正装置は、エンコーダから入力された設定情報に含まれたリサンプリング設定情報に従って、PTSが調節されたオーディオ信号をリサンプリングするリサンプリング部をさらに含む。
一方、前述した課題を解決するための本発明の一実施例による同期化誤差の補正方法は、複数の動画ソースから入力された複数の動画コンテンツのビデオ信号とオーディオ信号間の同期化誤差を補正して複数の動画コンテンツを結合して出力する同期化誤差の補正装置で行われる同期化誤差の補正方法であって、(a)動画ソースから第1動画コンテンツを受信するステップと、(b)動画ソースから前記第1動画コンテンツに結合される第2動画コンテンツを受信して前記第2動画コンテンツのビデオ信号とオーディオ信号間の最初の同期化誤差を抽出して最初の同期化誤差情報を生成するステップと、(c)前記第2動画コンテンツのビデオ信号とオーディオ信号間の最初の同期化誤差が維持されるように前記最初の同期化誤差情報に従って前記第2動画コンテンツを前記第1動画コンテンツに結合するステップとを含む。
また、前記第1動画コンテンツの途中に前記第2動画コンテンツが挿入される場合に、前記(a)ステップにおいて、前記同期化誤差の補正装置は、前記第1動画コンテンツの最初の同期化誤差を抽出し、前記(c)ステップにおいて、前記同期化誤差の補正装置は、前記第1動画コンテンツの途中に、前記第2動画コンテンツの最初の同期化誤差が維持されるように前記第2動画コンテンツを結合し、(d)前記第2動画コンテンツの結合が完了した後、前記第1動画コンテンツの最初の同期化誤差が維持されるように前記第2動画コンテンツの末端に前記第1動画コンテンツを結合するステップをさらに含む。
また、前記同期化誤差の補正装置は、前記第1動画コンテンツ及び前記第2動画コンテンツのPTSを、前記第1動画コンテンツ及び前記第2動画コンテンツが結合されて生成される結合動画のPTSに対応するように再設定することで、前記第1動画コンテンツ及び前記第2動画コンテンツを結合する。
また、前記同期化誤差の補正装置は、エンコーダから受信したFPS設定情報及びリサンプリング設定情報に従って、結合動画コンテンツのビデオ信号のFPSを変換して、オーディオ信号をリサンプリングして出力する。
また、前記同期化誤差の補正装置は、前記FPS設定情報に従ってFPSが調節された後の結合動画コンテンツの各映像フレームの時間上の位置を設定し、FPS調節前の前記結合動画コンテンツのビデオ信号を構成する各映像フレームのうち、前記FPS設定情報に従って設定された各映像フレームの時間上の位置の直前の映像フレームを利用して、結合動画コンテンツのビデオ信号のFPSを調節する。
また、前記同期化誤差の補正装置は、FPSが変換された結合動画コンテンツのビデオ信号を前記エンコーダから受信した画面の割合設定情報に従って映像フレームの割合を調節して出力する。
また、前述した本発明の一実施例による同期化誤差の補正方法は、請求項7または8の同期化誤差の補正方法をコンピューターで読み取ることができ、実行可能なプログラムコードで記録した記録媒体で提供される。
本発明は、互いに異なる動画コンテンツを結合するにあたって、結合される動画に対してビデオ信号とオーディオ信号が互いに最適に同期化されるように設定された最初の同期化誤差を格納し、複数の動画コンテンツを結合する時、既存の最初の同期化誤差が維持されるように結合することで、従来技術が画一的にビデオ信号とオーディオ信号を結合して同期化誤差が変更されることで、ビデオ信号とオーディオ信号が非同期化され、不自然な動画が表現される問題点を解消した。
また、本発明は、エンコーダから入力されたFPS設定情報に従ってFPSが調節された後の結合動画コンテンツの各映像フレームの時間上の位置を設定し、FPS調節前の前記結合動画コンテンツのビデオ信号を構成する各映像フレームのうち、前記FPS設定情報に従って設定された各映像フレームの時間上の位置の直前の映像フレームを利用して、結合動画コンテンツのビデオ信号のFPSを簡便に調節することができる。
本発明の好ましい実施例によるオーディオ信号及びビデオ信号の同期化誤差の補正装置が動画ソース及びエンコーダと連結された全体構成を示す図面である。 本発明の好ましい実施例による同期化誤差の補正装置の細部構成を示す図面である。 本発明の好ましい実施例によって、PTS調節部がビデオ信号とオーディオ信号間の同期化誤差情報を考慮してPTSを調節する過程を説明する図面である。 ビデオ映像フレームのFPSを調節する一例を示す図面である。 好ましい実施例によるオーディオ信号及びビデオ信号の同期化誤差の補正方法を説明するフローチャートである。
以下、添付した図面を参照して本発明の好ましい実施例を説明する。
図1は、本発明の好ましい実施例によるオーディオ信号及びビデオ信号の同期化誤差の補正装置200が動画ソース100−1〜100−n及びエンコーダ300と連結された全体構成を示す図面である。
図1を参照すると、本発明のオーディオ信号及びビデオ信号の同期化誤差の補正装置200(以下、「同期化誤差の補正装置」と略称する)は、多数の動画ソース100−1〜100−nから動画コンテンツ(最初の同期化誤差によって互いに同期化されたビデオ信号及びオーディオ信号を含む、以下同一)の入力を受ける。
図1で動画ソース100−1〜100−nは、ウェブカメラのように実際に直接動画コンテンツを生成するデバイスであってもよく、事前にコンピューターに格納された動画ファイルをデコーディングしたプログラムであってもよく、デジタル放送を受信してデコーディングして出力するデコーダなどであってもよい。即ち、本発明の動画ソース100−1〜100−nは、動画コンテンツを同期化誤差の補正装置200に出力することができれば、そのハードウェア的な構成またはソフトウェア的な構成に制限がない。
また、同期化誤差の補正装置200は、結合されたオーディオ信号及びビデオ信号間の同期化誤差を補正し、エンコーダ300が要請したFPSに合うように動画コンテンツのビデオ信号のFPSを再設定し、ビデオ信号のFPSに対応するようにオーディオ信号をリサンプリングしてエンコーダ300に出力する。
特に、同期化誤差の補正装置200は、複数の動画ソース100−1〜100−nから入力される動画コンテンツを一つに結合してエンコーダ300に出力する。この時、互いに異なる動画ソース100−1〜100−nから入力される動画コンテンツは、互いに異なるビデオ信号とオーディオ信号間の同期化誤差を有し、互いに異なるFPSを有するので、同期化誤差の補正装置200は、互いに異なる動画ソース100−1〜100−nから入力された動画コンテンツを互いに結合しながら、オーディオ信号とビデオ信号間の同期化誤差を補正した後、ビデオ信号のFPSを変換し、ビデオ信号のFPSに対応するようにオーディオ信号をリサンプリングする。以下では、スポーツ中継のようなリアルタイム動画に中間広告動画を挿入する場合のように、一つの動画の途中に他の動画を挿入する場合を例示的に説明する。
一方、エンコーダ300は、同期化誤差の補正装置200に自分が所望のFPS設定情報、リサンプリング設定情報及び画面の割合設定情報などを含む設定情報を転送し、同期化誤差の補正装置200から受信される動画コンテンツをエンコードして外部ネットワークに転送するか、圧縮して格納する。
図2は、本発明の好ましい実施例による同期化誤差の補正装置200の細部構成を示す図面である。
図2を参照すると、好ましい実施例による同期化誤差の補正装置200は、動画選択部210、PTS調節部220、誤差補正部230、FPS調節部240、割合調節部250、及びリサンプリング部260を含んで構成される。
先ず、動画選択部210は、複数の動画ソース100−1〜100−nのうち使用者または管理者が選択した動画ソースから動画の入力を受けてPTS調節部220及び誤差補正部230に出力する。例えば、動画選択部210は、スポーツ中継放送信号である動画ソース1(100−1)を選択して動画コンテンツを出力する途中に、野球のイニングが変わるか、プロバスケットボールのクオーターが変わる場合に、事前に用意された広告動画ソース(100−2〜100−nのいずれか一つ)を選択して広告データを出力し、広告データが終了するか、または再びスポーツ中継が再開されると、再び動画ソース1(100−1)を選択してスポーツ中継動画を出力する。
ソース選択部210から出力された動画コンテンツは、PTS調節部220に入力され、誤差補正部230は、PTS調節部220に入力される動画コンテンツのビデオ信号とオーディオ信号間の同期化誤差情報を抽出してPTS調節部220に出力する。この時、誤差補正部230は、各動画コンテンツ別にビデオ信号とオーディオ信号間の最初の同期化誤差情報を抽出してPTS調節部220に出力する。
PTS調節部220は、各動画別に事前に定義されたPTSを複数の動画が結合されて生成された動画のPTSで調節する。この時、PTS調節部220は、誤差補正部230から入力された最初の同期化誤差情報を共に考慮して、ビデオ信号のPTSとオーディオ信号のPTSとの別個で調節することで、結合された動画のPTSを調節する。
図3は、本発明の好ましい実施例によって、PTS調節部220がビデオ信号とオーディオ信号間の最初の同期化誤差情報を考慮してPTSを調節する過程を説明する図面である。図3に示した例では、ビデオ信号を基準として動画コンテンツを結合すると説明したが、オーディオ信号を基準とする場合も同一の方式が適用されることを注意しなければならない。即ち、図3において、図面符号301及び401はビデオ信号であり、図面符号302及び図面符号402はオーディオ信号であるとそれぞれ表示されるが、図面符号301及び401がオーディオ信号で、図面符号302及び図面符号402がビデオ信号の場合も、同一の方式で動画コンテンツが結合されることができることを注意しなければならない。
図3を参照して、誤差補正部230とPTS調節部220との動作を説明する。
PTS(Presentation Time Stamp)は、各動画コンテンツでビデオ信号を構成する各映像フレームがどれだけの時間の間に画面に表示されるかを表し、オーディオ信号の一単位データがどれだけの時間の間に出力されなければならないかを表すもので、時間の流れに対応するように累積的な値で表示される。ビデオ信号の各映像フレームは、開始PTSと終了PTS値を有し、該当ビデオ映像フレームは、開始PTSに対応する時間から終了PTSに対応する時間まで使用者に表示される。
例えて概念的に説明すると、動画ソース1(100−1)から同期化誤差の補正装置200に入力されるスポーツ中継動画(Content(A))を構成するビデオ信号の第一のフレームの開始PTSが0から始まり、1単位で増加し、最後の映像フレームの終了PTSが1000であり、他の動画ソース(100−2〜100−nのいずれか一つ)から同期化誤差の補正装置200に入力される広告動画(Content(B))を構成するビデオ信号の第一のフレームの開始PTSが0から始まり、増加単位が1であり、最後の映像フレームの終了PTSが100と仮定する。
そして、動画ソース1(100−1)から入力されたスポーツ中継動画がPTS基準として500になる時点(S時点)で前半戦が終了し、広告動画が同期化誤差の補正装置200に入力されれば、同期化誤差の補正装置200は、S時点で広告動画をスポーツ中継動画と結合してエンコーダ300に出力し、広告動画が終了すれば(E時点)、同期化誤差の補正装置200が再びスポーツ中継動画の入力を受けて広告動画直後に結合してエンコーダ300に出力すると仮定する。
この場合、スポーツ中継動画と広告動画とは、それぞれ自分の時間基準に従って設定されたPTSを有し、これに対して、同期化誤差の補正装置200から出力されるスポーツ中継動画と広告動画とが結合された動画は、一つの時間を基準としてPTSが設定されなければならない。
即ち、スポーツ中継動画と広告動画とが結合されてエンコーダ300に出力される動画(以下、「結合動画」と称する)は、基準時間0から始まりカウントされなければならない。ところが、スポーツ中継動画の前半戦が終了した後、結合動画のPTSは500からカウントされるが、新規に挿入される広告動画のPTSは、自分が最初に有していたPTS値である0から始まるので、これを500と初期値を変更しなければならない。
また、広告動画が結合された後、結合動画のPTSは600まで設定されたが、中断してから再開されるスポーツ中継動画(Content(A))は、500から始まることができる(スポーツ中継動画が事前に録画され、広告動画の結合時点で中断され、それ以上進行されない場合)。この場合は、500に設定されたスポーツ中継動画のPTSを600と再設定しなければならない。
また、広告動画が結合される時間の間、スポーツ中継動画がリアルタイムで転送し続けられたが、単に、同期化誤差の補正装置200に入力されない場合は、スポーツ中継動画のE時点におけるPTSは500以上になり、スポーツ中継動画のPTSと結合動画のPTSとの時間設定が相互合わないので、スポーツ中継動画の各映像フレームのPTSが結合動画のPTSに対応するように変換する作業が必要である。このため、PTS調節部220は、各動画のPTSを結合動画のPTSと再定義する。
但し、PTS調節部220は、各動画コンテンツのビデオ信号及びオーディオ信号間の最初の同期化誤差が維持されるようにPTSを再設定しなければならない。図3を再び参照すると、最初にContent(A)であるスポーツ中継動画のビデオ信号とオーディオ信号間にはAほどの誤差が存在する。これは、ビデオ信号が先に表示され、PTS基準としてAほどの時間が流れた後にオーディオ信号が出力されればこそ、ビデオ映像とオーディオ信号とが一致して自然な動画が出力されるという意味であり、この誤差が途中で変更されると、画面に表示される様子と実際の音とは互いに同期化されず、視聴者に不便を引き起こす。先ず、ビデオ信号を結合する過程を説明し、同期化誤差を考慮してオーディオ信号を結合する過程は後述する。
図3に示した例において、PTS調節部220は、広告動画が結合される時点であるS時点でContent(A)のビデオ信号が終了する瞬間(即ち、PTS値が500に対応する時点)を基準として、広告動画であるContent(B)の最初PTS0を500と再設定して、Content(A)とContent(B)とを結合させる。従って、Content(B)の最後のフレームの終了PTSは、600と再設定される。
また、広告動画が終了し、スポーツ中継動画が再び始まる時点であるE時点で、同期化誤差の補正装置200に再び入力されるContent(A)のビデオ信号の第一の映像フレームの開始PTSは600と再設定され、Content(S)の最後のフレームの終了PTSは1100と再設定される。
前述した方式によって、ビデオ信号は簡便にPTSを再設定して結合されることに対し、オーディオ信号に対するPTSは、各動画コンテンツのビデオ信号との誤差を考慮して再設定される。
図3を参照すると、Content(A)は、最初にビデオ信号とオーディオ信号間にAほどの誤差が存在し、Content(B)は、最初にビデオ信号とオーディオ信号間にBほどの誤差が存在した。これは、Content(A)は、ビデオ信号が出力され、PTS時間基準としてAほどが経過した時点でオーディオ信号が出力されればこそビデオとオーディオとが一致した自然な動画が出力されるということを意味する。同様に、Content(B)は、ビデオ信号が出力され、BほどPTSを基準とした時間が経過した時点でオーディオ信号が出力されればこそ自然な動画が再生されるということを意味する。
ところが、PTS調節部220がオーディオ信号に対しても、ビデオ信号と同様にS時点で、Content(A)のオーディオ信号が終了する時点でContent(B)のオーディオ信号を結合すれば、結果的に、Content(B)に対しては、本来維持しなければならない同期化誤差Bを維持することができず、Cほどの時間が早まるという結果をもたらし、オーディオ信号が共に出力されなければならないビデオ信号より先に出力されるという問題点が発生する。
このような問題点を解決するために、誤差補正部230は、各動画コンテンツのビデオ信号とオーディオ信号間の最初の同期化誤差情報(A及びB)を格納し、最初の同期化誤差情報をPTS調節部220に出力する。
誤差情報の入力を受けたPTS調節部220は、ビデオ信号のPTS再設定とは別個として、オーディオ信号のPTSを再設定する場合は、原本ビデオ信号との最初の同期化誤差が維持されるようにPTSを再設定する。図3の例において、PTS調節部220は、Content(B)のオーディオ信号のPTSをContent(B)のビデオ信号の再設定されたPTSである600から最初の同期化誤差であるBほどが加わった600+BでPTSを再設定する。
一方、広告動画であるContent(B)が終了した時点でも、PTS調節部220は、Content(B)のオーディオ信号と復帰したContent(A)のオーディオ信号とが直ちに結合されるように、Content(B)のオーディオ信号のPTSを再設定せず、ビデオ信号とオーディオ信号間の最初の同期化誤差を考慮してPTSを再設定する。
図3に示すように、Content(A)の復帰時点であるE時点で、Content(A)のビデオ信号とオーディオ信号間には、A"の同期化誤差が発生する。しかし、この同期化誤差は、動画が生成されて圧縮され、再びデコーディングされる複雑な過程で累積した誤差が反映されたものであり得るので、PTS調節部220は、E時点で、オーディオ信号のPTSを現在のContent(B)のビデオ信号とオーディオ信号間の同期化誤差であるA"を反映せず、Content(A)の最初の同期化誤差であるAを反映して再設定する。従って、図3の示した例において、復帰されたContent(A)のオーディオ信号の第一のフレームのPTSは、『600+A』と再設定される。
一方、PTS調節部220は、ビデオ信号及びオーディオ信号のPTS再設定が完了すれば、PTS再設定が完了したビデオ信号をリアルタイムでFPS調節部240に出力し、オーディオ信号は、リサンプリング部260に出力する。
FPS調節部240は、既存の互いに異なるFPSに設定された動画コンテンツをエンコーダ300で要請したFPSに変換する機能を行う。例えば、既存のスポーツ中継動画であるContent(A)及び広告動画であるContent(B)がそれぞれ30FPSに設定されており、エンコーダ300は、15FPSである動画コンテンツを要請した場合に、FPS調節部240は、PTS調節部220から入力される動画コンテンツのFPSを調節して割合調節部250に出力する。
FPSを変換する方式は多様に適用されることができるが、FPS調節部240は、事前にエンコーダ300が要請したFPSに適合するように映像フレームの開始PTS及び終了PTSを設け、PTS調節部220から入力される一連の映像フレームの中から一つずつ選択して割り当てることで、フレームレートを変換する。
例えば、ビデオ映像フレームのFPSを調節する一例を示す図4において、出力されるビデオ信号の開始PTS及び終了PTS(次のフレームの開始PTSと同一であると仮定)は既に設定されており、PTS調節部220から入力される動画のFPSがエンコーダ300が要請したFPSより高ければ、出力映像フレームの事前に設定された開始PTSの直前に位置した、入力映像フレームを出力映像フレームの該当開始PTSに割り当てて出力する。従って、図4において、(a)映像フレームは捨てられ、(b)映像フレームが出力映像フレームに割り当てられて出力される。
もし、PTS調節部220から出力されるビデオ信号のFPSよりエンコーダ300が要請したFPSがさらに大きければ、一つの入力映像フレームが重複して複数の出力映像フレームに割り当てられて出力され、この場も、事前に設定された出力映像フレームの直前に位置した映像フレームが出力映像フレームに割り当てられる。
FPS調節部240から出力された映像フレームは、割合調節部250に入力され、割合調節部250は、エンコーダ300で要請した画面の割合に従って、画面を4:3,16:10,16:9ほどの多様な割合に変換する。
一方、PTS調節部220からオーディオ信号の入力を受けたリサンプリング部260は、エンコーダ300の要請に従って、オーディオ信号をリサンプリングしてエンコーダ300に出力する。この時、リサンプリング間隔は、FPS調節部240でフレームレートを変化させる割合と一致することが好ましい。
今まで本発明の好ましい実施例による同期化誤差の補正装置200に対して説明した。以下では、本発明の好ましい実施例によるオーディオ信号及びビデオ信号の同期化誤差の補正方法を説明するフローチャートである図5を参照して、本発明のオーディオ信号及びビデオ信号の同期化誤差の補正方法を説明する。
但し、本発明の同期化誤差の補正方法は、前述した同期化誤差の補正装置200の機能を説明した内容と大部分重畳するので、その流れのみを簡単に説明する。
先ず、同期化誤差の補正装置200は、エンコーダ300から設定情報を受信し、複数の動画ソース100−1〜100−nのうち、原本ソース動画(他の動画コンテンツが結合される動画)を出力する動画ソースを選択する(S500)。設定情報は、複数の動画コンテンツが結合されて生成される結合動画のFPS情報、リサンプリング周期情報(リサンプリング情報)及び画面の割合情報などを含む。
動画ソース100−1〜100−nのうちいずれか一つが選択されれば、選択された動画ソースから動画コンテンツが同期化誤差の補正装置200に入力され、同期化誤差の補正装置200の誤差補正部230は、入力される動画コンテンツのビデオ信号とオーディオ信号との最初の同期化誤差情報を抽出する(S502)。
その後、同期化誤差の補正装置200は、原本動画のビデオ信号及びオーディオ信号のPTSを、複数の動画コンテンツが結合された後に生成される動画コンテンツのPTSに対応するように再設定し、エンコーダ300から受信された設定情報に従ってビデオ信号のFPSを変換して割合を変更し、オーディオ信号をリサンプリングする(S510)。
一方、同期化誤差の補正装置200は、上述した第S502ステップ〜第510ステップが行われる間に原本動画に結合される新規動画コンテンツの動画ソースが選択されたかを調査し、新規動画ソースが選択されなければ、原本動画に対して上述した第S510ステップを繰り返して行う(S512)。
第S512ステップにおいて、原本動画コンテンツに結合される新規動画コンテンツソースが選択されて動画コンテンツが入力されれば、同期化誤差の補正装置200は、新規動画コンテンツのビデオ信号とオーディオ信号間の最初の同期化誤差情報を抽出し(S520)、最初の同期化誤差情報に従ってPTSを再設定して、新規動画コンテンツを原本動画コンテンツに結合する(S522)。第S522ステップにおいては、上述したように、結合される新規動画コンテンツのビデオ信号とオーディオ信号間の誤差を維持しながら、新規動画のビデオ信号及びオーディオ信号のPTSを再設定することで、新規動画を原本動画に結合する。
その後、第S500ステップでエンコーダ300から入力された設定情報に従って、結合される動画のビデオ信号のFPSを変換して画面の割合を調整し、オーディオ信号のリサンプリングを行う(S524)。
一方、同期化誤差の補正装置200は、また他の新規動画が結合されるか否かを調査して、また他の新規動画が結合される場合は第S520ステップに進行し、新規動画が結合されなければ第S540ステップに進行する(S530)。
新規動画が結合されない場合、同期化誤差の補正装置200は、以前に入力された動画が復帰されるか否かを調査する(S540)。例えば、上述した例において、途中に結合された動画(広告動画)が終了し、第S500ステップで入力された原本動画(スポーツ中継動画)が再び入力されるか否かを調査する。
また、第1動画が原本動画として入力され、第2動画が第1動画に結合された後、再び第3動画が第2動画に結合された後、第2動画が復帰される場合もこれにあたる。
以前の動画が復帰されると、同期化誤差の補正装置200は、復帰される動画コンテンツから抽出された最初の同期化誤差情報に従って、ビデオ信号とオーディオ信号との最初の同期化誤差が維持されるように、ビデオ信号及びオーディオ信号のPTSを再設定する(S542)。
その後、同期化誤差の補正装置200は、復帰された動画のビデオ信号のFPSを変換して割合を調整し、オーディオ信号をリサンプリングしてエンコーダ300に出力した後、第S530ステップに進行する(S544)。
第S530ステップに進行したが、新規に結合される動画がなく、復帰される動画がない場合は、ビデオ信号とオーディオ信号との同期化誤差の補正過程は終了する。
本発明は、またコンピューターで読み取ることができる記録媒体にコンピューターが読み取ることができるコードとして具現することが可能である。コンピューターが読み取ることができる記録媒体は、コンピューターシステムによって読み取られることができるデータが格納される全種類の記録装置を含む。コンピューターが読み取ることができる記録媒体の例としては、ROM、RAM、CD−ROM、磁気テープ、フロッピディスク、光データ格納装置などがあり、また、キャリアウエーブ(例えば、インターネットを通じた転送)の形態で具現されることも含む。また、コンピューターが読み取ることができる記録媒体は、ネットワークで連結されたコンピューターシステムに分散され、分散方式でコンピューターが読み取ることができるコードが格納されて実行されることができる。
今まで本発明に対してその好ましい実施例を中心として検討した。本発明が属する技術分野で通常の知識を持った者は、本発明が本発明の本質的な特性から逸脱しない範囲で変形された形態で具現されることができることが理解できるであろう。従って、開示された実施例は、限定的な観点ではなく、説明的な観点で考慮されなければならない。本発明の範囲は、前述した説明ではなく特許請求の範囲に表れており、それと同等な範囲内にある全ての相違点は、本発明に含まれたものと解釈されなければならない。
100−1〜100−n:動画ソース
200:同期化誤差の補正装置
210:ソース選択部
220:PTS調節部
230:誤差補正部
240:FPS調節部
250:割合調節部
260:リサンプリング部
300:エンコーダ

Claims (14)

  1. ビデオ信号とオーディオ信号とで構成される動画コンテンツを複数の動画ソースから入力を受けて出力するソース選択部と、
    複数の動画コンテンツのそれぞれに対してビデオ信号とオーディオ信号間に事前に設定された最初の同期化誤差を抽出する誤差補正部と、
    複数の動画コンテンツのビデオ信号及びオーディオ信号のPTS(Presentation Time Stamp)を複数の動画が結合された後に生成される結合動画コンテンツのPTSに対応するように再設定して前記複数の動画コンテンツを結合し、結合された各動画コンテンツ領域の前記オーディオ信号とビデオ信号間の前記最初の同期化誤差が維持されるようにPTSを再設定するPTS調節部とを含むことを特徴とする同期化誤差の補正装置。
  2. 第1動画コンテンツの途中に第2動画コンテンツが挿入される場合に、
    前記PTS調節部は、前記第1動画コンテンツの途中に前記第2動画コンテンツが結合され、前記第2動画コンテンツの末端に前記第1動画コンテンツの残余部分が結合されるようにPTSを調節し、前記第1動画コンテンツの残余部分が結合される時、前記第1動画コンテンツのビデオ信号とオーディオ信号間の最初の同期化誤差が維持されるようにビデオ信号とオーディオ信号とのPTSを設定することを特徴とする請求項1に記載の同期化誤差の補正装置。
  3. エンコーダから入力された設定情報に含まれたFPS(Frame Per Second)設定情報に従って、結合された動画コンテンツのビデオ信号のFPSを調節するFPS調節部をさらに含むことを特徴とする請求項1に記載の同期化誤差の補正装置。
  4. 前記FPS調節部は、
    前記FPS設定情報に従ってFPSが調節された後の各映像フレームの時間上の位置を設定し、FPS調節前の前記結合動画コンテンツのビデオ信号を構成する各映像フレームのうち、前記FPS設定情報に従って設定された各映像フレームの時間上の位置の直前の映像フレームを利用して、結合動画コンテンツのビデオ信号のFPSを調節することを特徴とする請求項3に記載の同期化誤差の補正装置。
  5. エンコーダから入力された設定情報に含まれた画面の割合の設定情報に従って、前記FPSが調節された結合動画コンテンツのビデオ信号の画面の割合を調節する割合調節部をさらに含むことを特徴とする請求項3に記載の同期化誤差の補正装置。
  6. エンコーダから入力された設定情報に含まれたリサンプリング設定情報に従って、PTSが調節されたオーディオ信号をリサンプリングするリサンプリング部をさらに含むことを特徴とする請求項1に記載の同期化誤差の補正装置。
  7. 複数の動画ソースから入力された複数の動画コンテンツのビデオ信号とオーディオ信号間の同期化誤差を補正して複数の動画コンテンツを結合して出力する同期化誤差の補正装置で行われる同期化誤差の補正方法であって、
    (a)動画ソースから第1動画コンテンツを受信するステップと、
    (b)動画ソースから前記第1動画コンテンツに結合される第2動画コンテンツを受信して前記第2動画コンテンツのビデオ信号とオーディオ信号間の最初の同期化誤差を抽出して最初の同期化誤差情報を生成するステップと、
    (c)前記第2動画コンテンツのビデオ信号とオーディオ信号間の最初の同期化誤差が維持されるように前記最初の同期化誤差情報に従って前記第2動画コンテンツを前記第1動画コンテンツに結合するステップとを含むことを特徴とする同期化誤差の補正方法。
  8. 前記第1動画コンテンツの途中に前記第2動画コンテンツが挿入される場合に、
    前記(a)ステップにおいて、前記同期化誤差の補正装置は、前記第1動画コンテンツの最初の同期化誤差を抽出し、
    前記(c)ステップにおいて、前記同期化誤差の補正装置は、前記第1動画コンテンツの途中に、前記第2動画コンテンツの最初の同期化誤差が維持されるように前記第2動画コンテンツを結合し、
    (d)前記第2動画コンテンツの結合が完了した後、前記第1動画コンテンツの最初の同期化誤差が維持されるように前記第2動画コンテンツの末端に前記第1動画コンテンツを結合するステップをさらに含むことを特徴とする請求項7に記載の同期化誤差の補正方法。
  9. 前記同期化誤差の補正装置は、前記第1動画コンテンツ及び前記第2動画コンテンツのPTSを、前記第1動画コンテンツ及び前記第2動画コンテンツが結合されて生成される結合動画のPTSに対応するように再設定することで、前記第1動画コンテンツ及び前記第2動画コンテンツを結合することを特徴とする請求項7または8に記載の同期化誤差の補正方法。
  10. 前記同期化誤差の補正装置は、エンコーダから受信したFPS設定情報及びリサンプリング設定情報に従って、結合動画コンテンツのビデオ信号のFPSを変換し、オーディオ信号をリサンプリングして出力することを特徴とする請求項9に記載の同期化誤差の補正方法。
  11. 前記同期化誤差の補正装置は、前記FPS設定情報に従ってFPSが調節された後の結合動画コンテンツの各映像フレームの時間上の位置を設定し、FPS調節前の前記結合動画コンテンツのビデオ信号を構成する各映像フレームのうち、前記FPS設定情報に従って設定された各映像フレームの時間上の位置の直前の映像フレームを利用して、結合動画コンテンツのビデオ信号のFPSを調節することを特徴とする請求項10に記載の同期化誤差の補正方法。
  12. 前記同期化誤差の補正装置は、FPSが変換された結合動画コンテンツのビデオ信号を前記エンコーダから受信した画面の割合設定情報に従って映像フレームの割合を調節して出力することを特徴とする請求項9に記載の同期化誤差の補正方法。
  13. 請求項7または8の同期化誤差の補正方法をコンピューターで読み取ることができ、実行可能なプログラムコードで記録した記録媒体。
  14. 請求項9の同期化誤差の補正方法をコンピューターで読み取ることができ、実行可能なプログラムコードで記録した記録媒体。
JP2012544405A 2009-12-28 2010-12-27 オーディオ信号及びビデオ信号の同期化誤差の補正方法及び装置 Expired - Fee Related JP5707642B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
KR20090131683 2009-12-28
KR10-2009-0131683 2009-12-28
KR10-2010-0092381 2010-09-20
KR20100092381A KR101090356B1 (ko) 2009-12-28 2010-09-20 오디오 신호 및 비디오 신호의 동기화 오차 보정 방법 및 장치
PCT/KR2010/009363 WO2011081380A2 (ko) 2009-12-28 2010-12-27 오디오 신호 및 비디오 신호의 동기화 오차 보정 방법 및 장치

Publications (2)

Publication Number Publication Date
JP2013514034A true JP2013514034A (ja) 2013-04-22
JP5707642B2 JP5707642B2 (ja) 2015-04-30

Family

ID=44916606

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012544405A Expired - Fee Related JP5707642B2 (ja) 2009-12-28 2010-12-27 オーディオ信号及びビデオ信号の同期化誤差の補正方法及び装置

Country Status (4)

Country Link
US (1) US9071864B2 (ja)
JP (1) JP5707642B2 (ja)
KR (1) KR101090356B1 (ja)
CN (1) CN102884804B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017521922A (ja) * 2014-06-10 2017-08-03 テンセント テクノロジー (シェンジェン) カンパニー リミテッド ビデオリモートコメンタリー同期方法及びシステム並びにターミナルデバイス

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013048506A1 (en) * 2011-09-30 2013-04-04 Intel Corporation System, methods and computer program products for multi-stream audio/visual synchronization
RU2675051C2 (ru) 2013-09-12 2018-12-14 Сони Корпорейшн Устройство кодирования, устройство передачи и устройство приема
JP6624068B2 (ja) * 2014-11-28 2019-12-25 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
US10810471B1 (en) * 2018-03-22 2020-10-20 Amazon Technologies, Inc. Intelligent coalescing of media streams
KR102194282B1 (ko) * 2019-05-17 2020-12-23 네이버 주식회사 포즈 유사도 판별 모델 생성방법 및 포즈 유사도 판별 모델 생성장치

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000165862A (ja) * 1998-11-30 2000-06-16 Matsushita Electric Ind Co Ltd 符号化av信号の同期方法
JP2007195208A (ja) * 2001-09-27 2007-08-02 Sony Corp 情報処理装置および方法、記録媒体、並びにプログラム
JP2008061010A (ja) * 2006-08-31 2008-03-13 Toshiba Corp 映像音声送信装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5430485A (en) 1993-09-30 1995-07-04 Thomson Consumer Electronics, Inc. Audio/video synchronization in a digital transmission system
US5844600A (en) * 1995-09-15 1998-12-01 General Datacomm, Inc. Methods, apparatus, and systems for transporting multimedia conference data streams through a transport network
JP3881441B2 (ja) 1998-02-05 2007-02-14 沖電気工業株式会社 時刻情報評価装置およびその評価方法
JP2002281498A (ja) 2001-03-19 2002-09-27 Sanyo Electric Co Ltd 受信再生装置
US6912010B2 (en) * 2002-04-15 2005-06-28 Tektronix, Inc. Automated lip sync error correction
JP2006319552A (ja) * 2005-05-11 2006-11-24 Matsushita Electric Ind Co Ltd マルチメディア再生装置
JP5036410B2 (ja) * 2007-05-31 2012-09-26 キヤノン株式会社 撮像装置及びその制御方法
JP5216303B2 (ja) * 2007-11-01 2013-06-19 株式会社東芝 合成映像配信装置ならびにその方法およびプログラム
US8045836B2 (en) * 2008-01-11 2011-10-25 Texas Instruments Incorporated System and method for recording high frame rate video, replaying slow-motion and replaying normal speed with audio-video synchronization

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000165862A (ja) * 1998-11-30 2000-06-16 Matsushita Electric Ind Co Ltd 符号化av信号の同期方法
JP2007195208A (ja) * 2001-09-27 2007-08-02 Sony Corp 情報処理装置および方法、記録媒体、並びにプログラム
JP2008061010A (ja) * 2006-08-31 2008-03-13 Toshiba Corp 映像音声送信装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017521922A (ja) * 2014-06-10 2017-08-03 テンセント テクノロジー (シェンジェン) カンパニー リミテッド ビデオリモートコメンタリー同期方法及びシステム並びにターミナルデバイス
US9924205B2 (en) 2014-06-10 2018-03-20 Tencent Technology (Shenzhen) Company Limited Video remote-commentary synchronization method and system, and terminal device

Also Published As

Publication number Publication date
CN102884804B (zh) 2016-03-30
KR20110076746A (ko) 2011-07-06
CN102884804A (zh) 2013-01-16
US20120328062A1 (en) 2012-12-27
US9071864B2 (en) 2015-06-30
KR101090356B1 (ko) 2011-12-13
JP5707642B2 (ja) 2015-04-30

Similar Documents

Publication Publication Date Title
JP5707642B2 (ja) オーディオ信号及びビデオ信号の同期化誤差の補正方法及び装置
KR102469142B1 (ko) 미디어 스트림 재생들 사이를 트랜지션하는 동안 트랜지션 프레임들의 동적 재생
US20080288990A1 (en) Interactive Broadcasting System
KR102156467B1 (ko) 2 개의 전자 디바이스들에서의 재생들을 동기화하기 위한 방법 및 장치
JP6239472B2 (ja) エンコード装置、デコード装置、ストリーミングシステム、および、ストリーミング方法
WO2012038506A1 (en) Methods for processing multimedia flows and corresponding devices
WO2018142946A1 (ja) 情報処理装置および方法
WO2020241309A1 (ja) 同期制御装置、同期制御方法及び同期制御プログラム
JP4280443B2 (ja) デジタル媒体広告を統計多重ストリームに挿入する方法および装置
US20200053394A1 (en) Content processing apparatus, content processing method, and program
JP6987567B2 (ja) 配信装置、受信装置及びプログラム
JP5642319B2 (ja) デジタルデータ配信装置及び方法、及びデジタルデータ再生装置及び方法、同期再生システム、プログラム、並びに記録媒体
JP7058039B2 (ja) 放送サービス通信ネットワーク配信装置および方法
JP6368335B2 (ja) トランスコード装置、映像配信システム、トランスコード方法、映像配信方法及びトランスコードプログラム
JP2010081141A (ja) 字幕放送システム及び字幕放送方法
JP2007195208A (ja) 情報処理装置および方法、記録媒体、並びにプログラム
JP2006148679A (ja) データ処理装置
JP2004015553A (ja) 同期制御方法と装置およびそれを用いた同期再生装置およびテレビジョン受信装置
JP7477116B2 (ja) 放送サービス通信ネットワーク配信装置および方法
JP4953707B2 (ja) デジタル放送受信機
JP3672019B2 (ja) 動画表示システム
JP4403667B2 (ja) ネットワーク利用時の番組出力方法及びネットワーク接続機能を有した受信装置
EP4050897A1 (en) Systems, methods and devices for compressing audiovisual content
JP4186458B2 (ja) 放送方法及び受信装置
JP2007189554A (ja) コンテンツ再生装置、コンテンツ提供サーバ、放送コンテンツ供給装置、コンテンツ配信システム、コンテンツ再生方法、コンテンツ提供方法、補正情報生成方法、制御プログラム、および、記録媒体

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130821

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130917

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131202

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140415

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150203

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150212

R150 Certificate of patent or registration of utility model

Ref document number: 5707642

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees