JP3556381B2 - Information multiplexing device - Google Patents

Information multiplexing device Download PDF

Info

Publication number
JP3556381B2
JP3556381B2 JP5640596A JP5640596A JP3556381B2 JP 3556381 B2 JP3556381 B2 JP 3556381B2 JP 5640596 A JP5640596 A JP 5640596A JP 5640596 A JP5640596 A JP 5640596A JP 3556381 B2 JP3556381 B2 JP 3556381B2
Authority
JP
Japan
Prior art keywords
picture
multiplexing
encoded data
input
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP5640596A
Other languages
Japanese (ja)
Other versions
JPH09247670A (en
Inventor
晋一郎 古藤
敏則 尾高
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP5640596A priority Critical patent/JP3556381B2/en
Publication of JPH09247670A publication Critical patent/JPH09247670A/en
Application granted granted Critical
Publication of JP3556381B2 publication Critical patent/JP3556381B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Time-Division Multiplex Systems (AREA)
  • Television Systems (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、符号化された動画像ビット列と符号化された音声ビット列と、さらに他の符号化ビット列をパケット多重して送信する情報多重化装置に関する。
【0002】
【従来の技術】
動画像の圧縮符号化方式の国際規格として、比較的低ビットレートの蓄積メディアをターゲットとしたMPEG−1(ISO/IEC11172)や、次世代のデジタル放送、VOD(Video On Demand) あるいは DVD(Digital Video Disk)などへの応用が期待されているMPEG−2(ISO/IEC13818) などが知られている。
【0003】
MPEG符号化方式では、映像、音声、およびその他のデータストリーム(データ列)を独立に符号化し、それらの符号化データをそれぞれパケット化して、パケット多重化を行なう方式が採用されている。また、送信側と受信側との間では、パケットの受信側到達時刻、デコード時刻、及び表示時刻の各タイムスタンプを一定以上の頻度で伝送することにより、同期の確立を行なう。
【0004】
デコード時刻及び表示時刻の各タイムスタンプは、通常、各画像、音声それぞれの符号化パラメータにより異なるものとなる。入力順に一定間隔の符号化フレームに分割して符号化がされる場合では、これらのタイムスタンプは、常に一定の差分値を加算することにより更新することが可能である。しかし、MPEGビデオ符号化では、表示順と符号化順とが異なり、またその関係が動的に変化する場合がある。そのような場合、一定値の加算ではタイムスタンプの更新が不可能となり、入力される符号化データのヘッダ情報等から、タイムスタンプの適切な更新を行なうことが必要となる。
【0005】
さらに、送信側では、受信側での入力バッファのオーバーフローやアンターフロー等の破綻を起こさずに、同期が正しく確立するように、パケット多重化順の選択、及びタイムスタンプの多重を行なわなければならない。
【0006】
通常、ハードウェアで構成される多重化装置では、これらのタイムスタンプは、多重化処理部のタイムベースに基づいて計算される。多重化処理部のタイムベースは、伝送路や入力ソースのクロックに同期している場合、あるいは、それらと非同期に動作する場合もあり得る。通常、多重化システムの構成は、これらのクロックの同期/非同期によって大きく異なるものとなる。
【0007】
【発明が解決しようとする課題】
MPEG符号化方式等では、入力される符号化データのヘッダ情報のみから、デコード時刻及び表示時刻の各タイムスタンプの算出を行なうためには、表示順と符号化順とのずれの最大値の遅延をもって、符号化データのヘッダ情報の解析を順次行なわなければならない。実時間で、符号化、伝送、及び復号を行なう伝送システムにおいては、この遅延量は無視できないものとなる。
【0008】
動画像、音声等の各情報源からの情報を個別に符号化して符号化データストリームを求め、それらを多重し1本化した多重化ビットストリームを得るまでの全ての処理において、単一のタイムベースへの同期を仮定した情報多重化装置では、時刻と符号化ビット数および符号化レートとは、完全に1対1の関係付けをすることが可能となる。従って、多重化装置におけるパケット多重化順の選択やタイムスタンプ等の計算は、符号化データストリームから得られる仮想的なタイムベースに基づいて、論理的に計算することが可能となる。
【0009】
このような情報多重化装置においては、多重化処理はソフトウェア処理のみで実現可能となり、実時間管理のための専用ハードウェアに対して、低コストで且つ汎用性のあるシステム構築が可能となる。
【0010】
一方、実時間管理を伴わないソフトウェア処理による多重化処理では、多重化処理のスループットは、少なくとも実符号化レートよりも十分速いことが要求される。従って、多重化処理はバースト的に行なわれ、ソフトウェア上の仮想的なタイムベースと実タイムベースとの間には、大きなジッタを伴うことになる。
【0011】
このジッタは、通常、送信バッファで吸収する必要があるが、実時間伝送を用いて符号化および復号化を行なう場合は、バッファ遅延量を極力小さくすることが求められる。また、受信側においても、ジッタ吸収のための入力バッファ遅延を、必要以上に大きくとることは好ましくない。そのため、受信側において入力バッファ遅延を最小化し、符号化データストリームの入力時刻から、通常の復号動作を開始することを仮定すると、多重化部の仮想タイムベースと実時刻とのずれのために、多重化ビットストリームの伝送開始時刻の前倒しが起こった場合、伝送路あるいは受信側でのアンダーフローを起こす可能性が生じる。
【0012】
そこで、本発明は、以上の問題点に鑑みてなされたものであり、動画像符号化データと音声符号化データの多重化遅延を減少できる情報多重化装置を提供することを目的とする。
【0014】
【課題を解決するための手段】
本発明の情報多重化装置は、少なくとも動画像の符号化データと音声の符号化データをパケット化して多重化する多重化手段と、この多重化手段で多重化されて得られた多重化データを出力する出力手段と、動画像データを符号化する際に得られる符号化パラメータを入力する入力手段とを具備し、前記多重化手段は、前記入力手段で入力された符号化パラメータをもとに、前記動画像の符号化データの復号・再生の時刻管理情報を算出して、それを前記動画像の符号化データのパケットに付加して多重することにより、タイムスタンプ等の復号・再生の時刻管理情報を算出するためにヘッダ情報の解析により生じる多重化遅延を減少できる。
【0015】
また、本発明の情報多重化装置は、入力された少なくとも動画像の符号化データと音声の符号化データをそれぞれ一時蓄積する複数のバッファと、この複数のバッファのそれぞれに蓄積された符号化データをパケット化して多重化する多重化手段と、この多重化手段で多重化されて得られた多重化データを出力する出力手段とを具備し、前記多重化手段は、前記バッファに一時蓄積される符号化データのうち、前記バッファの占有量の推移が時間基準となり得る符号化データの前記バッファの占有量を基に、多重化処理を開始するタイミングを決定することにより、ソフトウエアによる実時間管理が容易に行え、復号側の受信バッファにおけるアンダーフローを防ぐとともに、複雑なハードウェアを必要としない。
【0016】
また、本発明の情報多重化装置は、入力された少なくとも動画像の符号化データと音声の符号化データをそれぞれ一時蓄積する複数のバッファと、この複数のバッファのそれぞれに蓄積された符号化データをパケット化して多重化する多重化手段と、この多重化手段で多重化されて得られた多重化データを出力する出力手段とを具備し、前記多重化手段は、前記符号化データを解析することにより符号化フレーム数を計数し、この計数値を基に多重化処理を開始するタイミングを決定することにより、ソフトウエアによる実時間管理が容易に行え、復号側の受信バッファにおけるアンダーフローを防ぐとともに、複雑なハードウェアを必要としない。
従って、情報の符号化、伝送、復号化の実時間管理と、個別に符号化された情報の同期多重が容易に行える情報多重化装置を提供できる。
【0017】
【発明の実施の形態】
本発明の一実施形態について図面を参照して説明する。
(第1の実施形態)
図1は、本発明の第1の実施形態に係る情報多重化装置の構成を概略的に示したブロック図である。
【0018】
図1では、1チャンネルの動画像信号10とnチャンネルの音声信号と1チャンネルのデータ信号を多重化する場合について示している。
動画像(ビデオ)信号10、複数本の音声信号11−1〜11−nは、それぞれ動画像符号化装置15、音声符号化装置16−1〜16−nに入力されて符号化され、個別の符号化データとして入力バッファ23、24−1〜24−nへそれぞれ入力される。
【0019】
符号化を必要としない、あるいは、既に符号化されたデータストリーム14も、同様に入力バッファ25へ入力される。
入力バッファ23、24−1〜24−nに一時蓄積された各符号化データおよび入力バッファ25に一時蓄積されたデータは、それぞれ、パケット化処理部33、34−1〜34−n、35で個別にパケット化され、さらに、これらパケットが多重化処理部43で多重化されて多重化ビットストリームが得られる。この多重化ビットストリーム44は、出力バッファ45に一時蓄積されてから、所定のタイミングに従って、例えば、ネットワークを介して伝送されるようになっている。
【0020】
動画像(ビデオ)および音声信号のパケット化処理部33、34−1〜34−nには、それぞれの符号化装置15、16−1〜16−nで動画像、音声を符号化する際に得られる符号化パラメータがサイド情報50〜53として入力するようになっている。
【0021】
サイド情報には、符号化ビットレート、フレーム符号化データ長、表示フレームレート、各フレームの表示期間、ビデオ符号化の予測構造に関わるパラメータ等を含むことが可能である。
【0022】
パケット化処理部33、34−1〜34−nでは、これらのサイド情報を用いてパケット化、タイムスタンプの算出、多重化順の決定等を行なうようになっている。
【0023】
また、これらのサイド情報の一部は、入力される符号化データを文法解析することにより抽出することも可能である。
図2は、MPEGビデオ符号化におけるフレームの処理順序とその並びについて説明するためのものである。
【0024】
MPEGビデオ符号化では、フレーム内符号化画像(Iピクチャ)、前方予測符号化画像(Pピクチャ)および両方向予測符号化画像(Bピクチャ)を組み合わせた符号化が可能である。ただし、Bピクチャを含む場合は、符号化順序と表示順序は異なるものとなる。
【0025】
図2では、IピクチャおよびPピクチャの間に、常にBピクチャが2フレーム入る予測構造を用いた場合の例である。
この場合、復号化側では、IピクチャおよびPピクチャは復号化された時刻から3フレーム期間経過した後に表示され、その間は復号化装置のフレームメモリに記憶され、予測画像の参照画像として復号化処理に用いられる。
【0026】
MPEGのシステム多重化規格では、ビデオ及び音声を多重化して伝送する際に、復号すべき時刻(DTS:Decoding Time Stamp)と表示すべき時刻(PTS: Presentation Time Stamp)を、MPEGシステム規格で規定されるヘッダ情報に多重化して伝送される。
【0027】
図2のでは、IピクチャおよびPピクチャのPTSは、該ピクチャのDTSに対して3フレーム期間の時間だけ加算して算出する。また、得られたPTSは、次に符号化されたIピクチャまたはPピクチャのDTSとして用いることができる。
【0028】
しかし、図3に示すように、IピクチャまたはPピクチャに挟まれたBピクチャの数は、任意に変更可能であり、一般には前述のようにDTSからPTSを算出することは不可能である。通常、あるIピクチャまたはPピクチャに対して、その次に符号化されたIピクチャまたはPピクチャが入力された時点で、その間に含まれるBピクチャの数が確定する。従って、図1の動画像のパケット化処理部33では、IまたはPピクチャは入力と同時にタイムスタンプの計算をすることができず、その次に符号化されたIピクチャまたはPピクチャの符号化データが得られるまでの多重化遅延を生じることになる。
【0029】
第1の実施形態における情報多重化装置では、IピクチャまたはPピクチャのフレーム間隔を符号化装置15からサイド情報としてパケット化処理部33に入力することにより、各IピクチャまたはPピクチャの符号化データが得られると同時に、パケット化に必要なタイムスタンプの算出が容易に行え、前述の多重化遅延を生じることなくパケット化および多重化処理が可能となる。
【0030】
また、IピクチャまたはPピクチャの間隔を常に一定として符号化を行なう場合は、その一定値を例えば符号化開始前にパケット化処理部33に入力することも可能である。
【0031】
さらに、MPEG2ビデオ符号化においては、図4に示すように符号化された1フレームを表示する期間は、2フィールドあるいは3フィールドと任意に設定することが可能となっている。これは、フレーム周期24Hzの映画のソースを、フレーム周期30Hzの受像器でフレームレート変換して表示させる場合等に用いられる。この場合、IピクチャまたはPピクチャの間隔を常に一定として符号化した場合においても、各IピクチャまたはPピクチャのDTSとPTSの間隔は一定値とはならず、前述した理由により一般に多重化遅延を生じる。
【0032】
第1の実施形態における情報多重化装置では、IピクチャまたはPピクチャのフレーム間隔を符号化フレームの表示する期間を考慮したフィールド数として、動画像符号化装置15からパケット化処理部33にサイド情報として入力することにより、前述の多重化遅延を生じることなくパケット化および多重化処理が可能となる。
【0033】
図7は、MPEGビデオ符号化データのデータ構造の一例を示したもので、ビデオシーケンス全体に関わるシーケンスヘッダ、Iピクチャで始まる15ピクチャ程度の単位でグループ化したピクチャ集合(GOP:Group Of Pictures)に関わるGOPヘッダ、および、各ピクチャのヘッダと符号化データとから構成される。
【0034】
図7に示した構成の符号化データは、動画像符号化装置15から出力され、入力バッファ23を介してパケット化処理部33に入力される。
パケット化処理部33には、図7に示したような構成のデータが入力バッファ23から入力されるとともに、動画像符号化装置15からは、IピクチャまたはPピクチャのフレーム間隔、あるいは、そのフレーム間隔を符号化フレームの表示する期間を考慮したフィールド数で表した値がサイド情報として入力され、このサイド情報をもとに、パケット化に必要なタイムスタンプ(DTS、PTS)の算出を行い、図7に示した構成のデータ列がパケット化されると、算出されたタイムスタンプが付加されて多重化処理部43に出力される。
(第2の実施形態)
図5は、本発明の第2の実施形態に係る情報多重化装置の構成を概略的に示したブロック図である。
【0035】
図5において、図1と同一部分には同一符号を付し、異なる部分について説明する。すなわち、図5に示した情報多重化装置は、動画像及び音声の符号化装置15、16−1〜16−nとパケット化処理部33、34−1〜34−nを制御する制御部60を具備している。また、図1で示した動画像および音声符号化装置15、16−1〜16−nでの符号化の際に得られるサイド情報は、制御部60を介してパケット化処理部33、34−1〜34−nへ入力するようになっている。
(第3の実施形態)
図6は、本発明の第3の実施形態に係る情報多重化装置の構成を概略的に示したブロック図である。
【0036】
図6において、図1と同一部分には同一符号を付し、異なる部分について説明する。すなわち、図6に示した情報多重化装置は、第1の実施形態で示したサイド情報のうち、特にタイムスタンプの算出に必要なデータ等を各符号化データ中に多重化して、符号化装置15、16−1〜16−nから出力するようになっている。
【0037】
図7に示したMPEGビデオ符号化データのデータ構造では、例えば、各ヘッダに続けてユーザデータを多重化することも可能である。その場合のユーザデータの多重化例を図8〜図10を参照して説明する。
【0038】
図8では、シーケンスヘッダに続いてユーザーデータを多重化している。このユーザデータには、前述のIピクチャまたはPピクチャの間隔に関わるパラメータが含まれていて、パケット化処理部では、このパラメータに応じてタイムスタンプの算出を行なう。IピクチャまたはPピクチャの間隔が1単位のシーケンスを通して一定で、前述のフレームレート変換を用いない場合は、この手法を用いて多重化遅延を低減することが可能である。
【0039】
図9では、GOPヘッダに続いてユーザーデータを多重化している。このユーザデータには、前述のIピクチャまたはPピクチャの間隔に関わるパラメータが含まれていて、パケット化処理部では、このパラメータに応じてタイムスタンプの算出を行なう。IピクチャまたはPピクチャの間隔がGOP単位に可変となり、前述のフレームレート変換を用いない場合は、この手法を用いて多重化遅延を低減することが可能である。
【0040】
図10では、ピクチャヘッダに続いてユーザーデータを多重している。このユーザデータには、前述のIピクチャまたはPピクチャの間隔に関わるパラメータが含まれていて、パケット化処理部43では、このパラメータに応じてタイムスタンプの算出を行なう。この場合は、任意の予測構造について、常に多重化遅延なくタイムスタンプの算出が可能となる。
【0041】
以上、説明したように、上記第1から第3の実施形態によれば、MPEGシステム等のタイムスタンプの多重化が必要な多重化方式において、動画像、音声等の情報を符号化装置15、16−1〜16−nで符号化する際に得られる、入力順と符号化順との関係を示すパラメータや、フレームの表示継続時間を表すパラメータ等をサイド情報として、パケット化処理部33、34−1〜34−nへ入力し、パケット化処理部33、34−1〜34−nでは、入力されたパラメータに従って順次タイムスタンプの算出をおこうことで、符号化データのヘッダ部を解析して得られた情報をもとにタイムスタンプを算出する従来の方式と比較すると、低遅延での多重化処理を実現することが可能となる。通常、符号化データを解析してタイムスタンプの算出を行なう場合、数フレームの遅延が原理的に生じるが、本発明ではタイムスタンプの算出のための原理的な遅延は生じないものとなる。
【0042】
符号化パラメータを含むサイド情報は、符号化データと独立の経路から入力してもよいが、符号化データに予め多重化して入力することにより、ハードウェアを簡略化することも可能である。
【0043】
符号化パラメータは、フレーム単位に動的に変化するものであれは、順次パケット化処理部へ入力し、またシーケンス単位に一定のものであれは、1つのシーケンスに対して1度だけパケット化処理部へ入力することで実現可能である。
【0044】
(第4の実施形態)
図11は、本発明の第4の実施形態に係る情報多重化装置の構成を概略的に示したブロック図である。なお、図11において、図1と同一部分には同一符号を付し、異なる部分について説明する。
【0045】
図11において、パケット化処理部33、34−1〜34−n、35及び多重化処理部43では、仮想的なタイムベースに従って、タイムスタンプの多重化、および多重化順の制御を順次行なう。
【0046】
制御部48は、入力バッファ23、24−1〜24−n、25に入力された符号化データのバッファ占有量を監視して、多重化処理部43に符号化データの多重化処理および送出の開始時を通知する多重化ビットストリームの送信開始のタイミング制御を行うものである。例えば、各入力バッファの占有量が、固定レートで入力される音声の符号化データの入力バッファ占有量から論理的に導き出されるデータ転送開始タイミングの時刻に相当するバッファ占有量となったタイミングを多重化処理部43に通知するようになっている。
【0047】
図12は、図11の情報多重化装置の要部(図11の点線で囲まれた部分で、以下、多重化部47と呼ぶ)の構成をより具体的に示したものである。
符号化装置15、16−1〜16−nで符号化されて出力された動画像、音声の符号化データ19、20−1〜20−n及びその他のデータ14は、それぞれ符号化データ入力装置100、101−1〜101−n、102に入力され、さらに、DMAコントローラ110、111−1〜111−n、112により、それぞれ、データバス120を介して、メインメモリ125上に構成される入力バッファ130、131−1〜131−n、132へと転送される。
【0048】
転送された各データは、図11のパケット化処理部33、34−1〜34−n、35と多重化処理部43の機能に相当する処理動作を司るCPU140およびソフトウェア141により、多重化ビットストリームに変換され、メインメモリ125内の出力バッファ150に書き込まれる。
【0049】
出力バッファ150に書き込まれた多重化ビットストリームは、DMAコントローラ161により、データバス120を介して出力装置162から伝送路へと出力される。
【0050】
ここで、CPU140および多重化ソフトウェア141は、多重化ビットストリームの出力ビット数をカウントすることにより仮想タイムベースの更新を行ない、また、後述する第5の実施形態においては、各入力符号化データの符号化フレーム数をカウントして、タイムスタンプの更新等を行なう処理を司るようになっている。CPU140および多重化ソフトウェア141は、図11の制御部48、後述の図18の制御部349を構成する。
【0051】
図13および図14は、バッファを用いた同期方法について説明するための図である。図13において、170および174は符号化データ、171は送信(出力)バッファ、172は伝送路、173は受信(入力)バッファを示している。この送信バッファ及び受信バッファは、平滑化バッファとも呼ばれる。
【0052】
符号化データ170は、送信バッファ171に入力されて一時蓄積されて遅延させられた後、伝送路172を介して受信バッファ173に入力される。伝送された符号化データは、受信バッファ173においても同様に遅延が加えられた後に出力される。
【0053】
ここで、送信バッファ171での遅延量と受信バッファ173での遅延量の和が常に一定となるように制御することにより、符号化データ170が送信バッファ171へ入力してから受信バッファ173から出力されるまでの総遅延量が常に一定となり、送受信で同期したデータ転送が可能となる。
【0054】
図14は、図13の平滑化バッファを用いた場合の送受信のタイミングチャート示したものである。
図14において、例えば、動画像の1フレームの画像データが所定間隔で符号化されて、1フレーム毎に符号量が異なる符号化データが生成され、送信バッファ171に順次送られる。
【0055】
190は送信バッファ171での滞留時間を示しており、192は受信バッファ173での滞留時間を示している。平滑化バッファの原理より、送信バッファ171での滞留時間と受信バッファ173での滞留時間は、それぞれ時間的に変動する場合もあるが、その和である送受信間の総遅延量は常に一定となるように制御せされている。
【0056】
MPEGビデオ符号化のようにフレーム単位の符号量が変動する符号化方式では、送受信バッファ171を用いた伝送符号量の平滑化が行なわれる。
前述のように、送信側では符号化データが入力されてから、送信バッファ171による遅延の後に出力される。送信バッファ171及び受信バッファ173のサイズは、いずれも規定された有限値であるため、各バッファでの遅延量は、それぞれのバッファでアンダーフローおよびオーバーフローを起こさないように厳密に制御されなければならない。
【0057】
図15は、起動時における送信側の各符号化データの多重化処理部43における入力バッファ占有量を示している。画像および音声の各符号化データは、符号化方式および符号化パラメータに固有な符号化遅延をもって、入力バッファ130、131−1〜131−nに入力され、さらに前述の送信バッファ遅延に相当する時間をへてから、多重化されて送出される。
【0058】
図15において、201は画像の符号化データ、202および203はそれぞれ音声の符号化データであり、この3つのデータを多重化する場合の例を示したものである。図15では、全ての符号化データは一定レートで多重化部47に入力される場合の入力バッファ占有量の初期状態からの推移を示したものである。ここで、画像の符号化データは、送信側の遅延を持つため時刻204のタイミングで伝送を開始し、音声の符号化データ202および203は、それぞれ時刻206及び207のタイミングから多重化および送信を開始する必要があるものとする。
【0059】
動画像の符号化データのように、フレーム単位の符号量が変動する場合、符号化対象であるフレームの入力間隔と、それを符号化して得られる符号量と符号化レート等が完全に1対1に関係付けされないので、多重化部47の機能をソフトウェアで実現した場合、前述のバッファによる平滑化を行うだけでは、実時間(実時刻)の管理は通常困難となる。
【0060】
すなわち、送信側で(本発明の多重化ビットストリームの送信開始のタイミング制御を行なわずに)送出を前倒しで開始すると、多重化部47の仮想タイムベースと実時刻とのずれのために、受信側でのアンダーフローを起こす可能性が生じる。
【0061】
このように、実時間の管理とは、動画像の符号化データの場合、1符号化単位である1フレーム(画面)の符号量をも考慮することにより、受信側の復号器で実際の画面間隔を保持して符号化データを復号できるような送信側における符号化データの送信タイミングの管理制御とも言える。
【0062】
そこで、ある特定の動画像あるいは音声の符号化データ、例えば、常に固定ビットレートで入力されるような音声の符号化データ202)の入力バッファ占有量を監視し、この固定ビットレートから論理的に導き出されるデータ転送開始タイミングの時刻(例えば、図15では時刻204)に相当するバッファ占有量(例えば、図15では入力バッファ占有量205)となった時点から、多重化処理及び送出を開始する多重化ビットストリームの送信開始のタイミング制御を行う。これにより、前述したような受信バッファにおけるアンダーフローは防ぐことが可能となる。
【0063】
図16では動画像の符号化データ210が多重化部47にバースト的に入力される場合の入力バッファ占有量の初期状態からの推移を示し、図17は、動画像の符号化データ220が多重化部47に入力レートが時間変動しながら入力される場合の入力バッファ占有量の初期状態からの推移を示したものである。
【0064】
入力が固定レートでない場合、バッファ占有量から実時刻を推定することは困難であるが、固定レートで入力される付随の音声符号化データ(図16の212、図17の222)がある場合、図15の説明と同様にして、その符号化データに関する多重化部47の入力バッファ占有量から、論理的に導き出されるデータ転送開始タイミングの時刻(例えば、図16では時刻214、図17では時刻224)に相当するバッファ占有量(例えば、図16では入力バッファ占有量215、図17では、入力バッファ占有量225)となった時点から、多重化処理及び送出を開始する多重化ビットストリームの送信開始のタイミング制御を行う。
【0065】
(第5の実施形態)
図12に示した多重化部47の構成では、各符号化データの入力バッファ130、131−1〜131−n、132がメインメモリ125上に構成されるため、そのデータはソフトウェアから透過的なものとなる。したがって、入力バッファ内の符号化データの占有量を計測する代わりに、その符号化フレーム数をカウントし、それから多重化開始タイミングを制御するための現在時刻を導きだす構成としてもよい。
【0066】
図18は、第5の実施形態に係る情報多重化装置の構成を概略的に示したブロック図である。
図18は、動画像及び音声の組である複数のプログラムを、同時に符号化および多重化する場合を示している。ここでは、実時間で符号化される動画像および音声で構成されるプログラムCh1とCh2、および事前に符号化され、蓄積メディアに記録されているプログラムCh3の計3Chのプログラムを同時に多重するものである。図18の情報多重化装置の要部(図18の点線で囲まれた部分で、以下、多重化部347と呼ぶ)の詳細な構成は、図12と同様である。
【0067】
動画像(ビデオ)信号300と音声信号301、動画像信号302と音声画像303は、それぞれ動画像符号化装置315、音声符号化装置316、動画像符号化装置317、音声符号化装置318に入力されて符号化され、個別の符号化データとして入力バッファ323、324、325、326へそれぞれ入力される。
【0068】
蓄積メディアから読み出されたプログラムデータ304も同様に入力バッファ327へ入力される。
また、符号化を必要としない、あるいは、既に符号化されたデータストリーム305も、同様に入力バッファ351へ入力するようにしてもよい。
【0069】
各入力バッファに一時蓄積された各符号化データ等は、それぞれ、パケット化処理部333〜337、353で個別にパケット化され、さらに、これらパケットが多重化処理部343で多重化されて多重化ビットストリームが得られる。この多重化ビットストリーム344は、出力バッファ345に一時蓄積されてから、所定のタイミングに従って、例えば、ネットワークを介して伝送されるようになっている。
【0070】
パケット化処理部333〜337、353のそれぞれには、各入力バッファから入力される符号化データ等のヘッダ部を抽出、解析するデータ解析部333a、334a、335a、336a、337a、353aを具備している。
【0071】
制御部349は、これらデータ解析部での解析結果を基に、動画像の符号化フレーム数をカウントして、多重化開始タイミング制御、すなわち、実時刻を算出し、多重化・送信するタイミングを多重化処理部343に通知するようになっている。なお、Ch1〜Ch3の各プログラムについて、そのタイムベースが独立である場合は、多重化ソフトウェアにおける仮想クロックをそれぞれ独立に計算し、各プログラム毎に多重化開始のタイミング制御を行なう。また、タイムベースが共通なプログラムでは、多重化ソフトウェアにおける仮想クロックも共通化して、多重化開始のタイミング制御を行なうものとする。
【0072】
以上、説明したように、上記第4の実施形態によれば、個別に符号化された動画像、音声等の符号化データとその他のデータを同期多重する際に、制御部48は、各入力バッファのデータの占有量を監視し、固定ビットレートで入力される特定の画像または音声の符号化データについて、その固定ビットレートから論理的に導き出されるデータ転送開始タイミングの時刻(例えば、図15では時刻204)に相当するバッファ占有量(例えば、図15では入力バッファ占有量205)となった時点を多重化処理部43に通知し、多重化処理部43は、制御部48から通知されたタイミングに従って多重化処理及び送出を開始することにより、実時間伝送にも耐えうる多重化処理を、ソフトウェアのみで実現することが可能なる。多重化部47をソフトウェアのみで実現することにより、複雑なハードウェアによるタイミング制御を行なう必要がなくなり、システム構成を簡略化することができる。また、ソフトウェアによるカスタマイズが容易となり、様々なアプリケーションに対して柔軟に対応可能となる。
【0073】
また、本発明の第5の実施形態によれば、個別に符号化された動画像、音声等の符号化データとその他のデータを同期多重する際に、制御部349は、各パケット化処理部のデータ解析部の解析結果をもとに、動画像の符号化フレーム数をカウントして実時刻を算出し、それを多重化処理部343に通知し、多重化処理部343は、制御部349から通知されたタイミングに従って多重化処理及び送出を開始することにより、実時間伝送にも耐えうる多重化処理を、ソフトウェアのみで実現することが可能なる。多重化部347をソフトウェアのみで実現することにより、複雑なハードウェアによるタイミング制御を行なう必要がなくなり、システム構成を簡略化することができる。また、ソフトウェアによるカスタマイズが容易となり、様々なアプリケーションに対して柔軟に対応可能となる。
さらに、上記第1から第5の実施形態を適宜組み合わせて用いても有効である。
【0074】
【発明の効果】
以上説明したように、本発明によれば、動画像、音声、その他の符号化データの復号化時刻、表示時刻に関する符号化パラメータを、そのヘッダ情報とは独立に多重化部へ入力することにより、ヘッダ情報を解析してタイムスタンプを算出するために生じる多重化遅延を減少できる情報多重化装置を提供できる。
【0075】
また、本発明によれば、固定ビットレートで入力される特定の画像または音声の符号化データの入力バッファ占有量、あるいは入力バッファ内の符号化フレーム数から、それらを実時刻への変換した値を用いて多重化ビットストリーム送出開始の制御を行なうことにより、実時間管理が容易に行え、伝送路あるいは復号側の受信バッファのアンダーフローを防ぐとともに、複雑なハードウェアを必要としない情報多重化装置を提供できる。
このように、本発明の情報多重化装置によれば、情報の符号化、伝送、復号化の実時間管理と、個別に符号化された情報の同期多重が容易に行える。
【図面の簡単な説明】
【図1】本発明の第1の実施形態に係る情報多重化装置の構成を示したブロック図。
【図2】MPEGビデオ符号化におけるフレームの処理順序とその並びについて説明するための図で、Bピクチャの枚数が固定の場合を示している。
【図3】MPEGビデオ符号化における関わるフレームの処理順序とその並びについて説明するための図で、Bピクチャの枚数が可変する場合について示している。
【図4】MPRGビデオ符号化における各符号化フレームの表示期間について説明するための図。
【図5】本発明の第2の実施形態に係る情報多重化装置の構成を示したブロック図。
【図6】本発明の第3の実施形態に係る情報多重化装置の構成を示したブロック図。
【図7】第1の実施形態および第2の実施形態に係る情報多重化装置におけるMPEGビデオ符号化データのデータ構造の一例を示した図。
【図8】第3の実施形態に係る情報多重化装置におけるMPEGビデオ符号化データのデータ構造の一例を示した図。
【図9】第3の実施形態に係る情報多重化装置におけるMPEGビデオ符号化データのデータ構造の他の例を示した図。
【図10】第3の実施形態に係る情報多重化装置におけるMPEGビデオ符号化データのデータ構造のさらに他の例を示した図。
【図11】本発明の第4の実施形態に係る情報多重化装置の構成を示したブロック図。
【図12】情報多重化装置の要部の構成をより詳細に示したブロック図。
【図13】送受信バッファ(平滑化バッファ)を用いた同期方法について説明するための図。
【図14】平滑化バッファの動作を説明するための図。
【図15】本発明に係る多重化処理および送信開始のタイミング制御について説明するための図で、全ての符号化データは一定レートで多重化部に入力される場合の入力バッファ占有量の初期状態からの推移を示している。
【図16】本発明に係る多重化処理および送信開始のタイミング制御について説明するための図で、動画像の符号化データが多重化部にバースト的に入力される場合の入力バッファ占有量の初期状態からの推移を示している。
【図17】本発明に係る多重化処理および送信開始のタイミング制御について説明するための図で、動画像の符号化データが多重化部に入力レートが時間変動しながら入力される場合の入力バッファ占有量の初期状態からの推移を示している。
【図18】本発明の第5の実施形態に係る情報多重化装置の構成を示したブロック図。
【符号の説明】
15…動画像符号化装置、16−1〜16−n…音声符号化装置、23、24−1〜24−n、25…入力バッファ、33、34−1〜34−n、35…パケット化処理部、43…多重化処理部、44…多重化ビットストリーム、45…出力バッファ、47…多重化部、48、60…制御部、347…多重化部。
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an information multiplexing apparatus that packet-multiplexes an encoded video bit sequence, an encoded audio bit sequence, and another encoded bit sequence and transmits the packet.
[0002]
[Prior art]
MPEG-1 (ISO / IEC11172), which targets storage media with a relatively low bit rate, next-generation digital broadcasting, VOD (Video On Demand) or DVD (Digital) as international standards for compression encoding of moving images. MPEG-2 (ISO / IEC13818) and the like, which are expected to be applied to Video Disks, are known.
[0003]
In the MPEG encoding method, a method of independently encoding video, audio, and other data streams (data strings), packetizing the encoded data, and performing packet multiplexing is adopted. Further, between the transmitting side and the receiving side, synchronization is established by transmitting each time stamp of the packet arrival time, decoding time, and display time of the packet at a certain frequency or more.
[0004]
The time stamps of the decoding time and the display time usually differ depending on the encoding parameters of each image and audio. In the case where encoding is performed by being divided into encoded frames at regular intervals in the input order, these time stamps can be updated by always adding a constant difference value. However, in the MPEG video encoding, the display order and the encoding order are different, and the relationship may change dynamically. In such a case, it is impossible to update the time stamp by adding a certain value, and it is necessary to appropriately update the time stamp based on the header information of the input encoded data.
[0005]
Further, the transmitting side must select a packet multiplexing order and multiplex a timestamp so that synchronization is correctly established without causing a failure such as an input buffer overflow or an interflow on the receiving side. .
[0006]
Usually, in a multiplexing device constituted by hardware, these time stamps are calculated based on the time base of the multiplexing processing unit. The time base of the multiplexing processing unit may be synchronized with the clock of the transmission path or the input source, or may operate asynchronously with them. Usually, the configuration of a multiplexing system differs greatly depending on the synchronization / asynchronization of these clocks.
[0007]
[Problems to be solved by the invention]
In the MPEG coding method or the like, in order to calculate each time stamp of the decode time and the display time from only the header information of the input coded data, the delay of the maximum value of the shift between the display order and the coding order is required. , The analysis of the header information of the encoded data must be sequentially performed. In a transmission system that performs encoding, transmission, and decoding in real time, this delay amount cannot be ignored.
[0008]
A single time is used in all processes from encoding of information from each information source such as video and audio to obtain an encoded data stream, multiplexing them and obtaining a multiplexed bit stream. In the information multiplexing apparatus assuming synchronization with the base, the time, the number of coded bits, and the coding rate can be completely one-to-one. Therefore, the selection of the packet multiplexing order and the calculation of the time stamp and the like in the multiplexing device can be logically performed based on the virtual time base obtained from the encoded data stream.
[0009]
In such an information multiplexing apparatus, multiplexing processing can be realized only by software processing, and a low-cost and versatile system can be constructed with respect to dedicated hardware for real-time management.
[0010]
On the other hand, in multiplexing processing by software processing without real-time management, the throughput of the multiplexing processing is required to be at least sufficiently higher than the actual coding rate. Accordingly, the multiplexing process is performed in a burst manner, and a large jitter accompanies between the virtual time base and the real time base on software.
[0011]
Normally, this jitter needs to be absorbed by the transmission buffer. However, when encoding and decoding are performed using real-time transmission, it is required to minimize the buffer delay amount. Also, it is not preferable on the receiving side to make the input buffer delay for absorbing jitter unnecessarily large. Therefore, assuming that the input buffer delay is minimized on the receiving side and a normal decoding operation is started from the input time of the encoded data stream, because of a shift between the virtual time base of the multiplexing unit and the real time, If the transmission start time of the multiplexed bit stream is advanced, there is a possibility that an underflow occurs on the transmission path or the receiving side.
[0012]
Therefore, the present invention has been made in view of the above problems, Can reduce the multiplexing delay between video encoded data and audio encoded data An object of the present invention is to provide an information multiplexing device.
[0014]
[Means for Solving the Problems]
An information multiplexing apparatus according to the present invention includes a multiplexing unit that packetizes and multiplexes at least encoded data of a moving image and encoded data of audio, and multiplexed data obtained by the multiplexing unit. Output means for outputting, and input means for inputting an encoding parameter obtained when encoding moving image data, the multiplexing means, based on the encoding parameter input by the input means Calculating the time management information for decoding / reproducing the encoded data of the moving image, adding it to the packet of the encoded data of the moving image, and multiplexing the packet, thereby obtaining the time for decoding / reproducing the time stamp or the like. The multiplexing delay caused by analyzing the header information for calculating the management information can be reduced.
[0015]
Further, the information multiplexing apparatus of the present invention includes a plurality of buffers for temporarily storing at least the input coded data of the moving image and the coded data of the audio, and the coded data stored in each of the plurality of buffers. Multiplexing means for packetizing and multiplexing the data, and output means for outputting multiplexed data obtained by multiplexing by the multiplexing means, wherein the multiplexing means is temporarily stored in the buffer. Real-time management by software by determining the timing to start multiplexing processing based on the occupancy of the buffer of the coded data in which the transition of the occupancy of the buffer among the coded data can be a time reference. Can be easily performed, preventing underflow in the receiving buffer on the decoding side, and not requiring complicated hardware.
[0016]
Further, the information multiplexing apparatus of the present invention includes a plurality of buffers for temporarily storing at least the input coded data of the moving image and the coded data of the audio, and the coded data stored in each of the plurality of buffers. Multiplexing means for packetizing and multiplexing the data, and output means for outputting multiplexed data obtained by multiplexing by the multiplexing means, wherein the multiplexing means analyzes the encoded data. By counting the number of coded frames and determining the timing of starting the multiplexing process based on the counted value, real-time management by software can be easily performed and underflow in the receiving buffer on the decoding side is prevented. In addition, no complicated hardware is required.
Therefore, it is possible to provide an information multiplexing apparatus capable of easily real-time management of information encoding, transmission, and decoding and synchronous multiplexing of individually encoded information.
[0017]
BEST MODE FOR CARRYING OUT THE INVENTION
An embodiment of the present invention will be described with reference to the drawings.
(1st Embodiment)
FIG. 1 is a block diagram schematically showing a configuration of an information multiplexing device according to the first embodiment of the present invention.
[0018]
FIG. 1 shows a case where a moving image signal 10 of one channel, an audio signal of n channels, and a data signal of one channel are multiplexed.
The moving image (video) signal 10 and the plurality of audio signals 11-1 to 11-n are input to the moving image encoding device 15 and the audio encoding devices 16-1 to 16-n, respectively, and are encoded. Are input to the input buffers 23, 24-1 to 24-n, respectively.
[0019]
A data stream 14 that does not require encoding or has already been encoded is also input to the input buffer 25.
The encoded data temporarily stored in the input buffers 23, 24-1 to 24-n and the data temporarily stored in the input buffer 25 are respectively processed by the packetization processing units 33, 34-1 to 34-n, 35. The packets are individually packetized, and these packets are multiplexed by the multiplexing processing unit 43 to obtain a multiplexed bit stream. The multiplexed bit stream 44 is temporarily stored in an output buffer 45 and then transmitted at a predetermined timing, for example, via a network.
[0020]
The moving image (video) and audio signal packetization processing units 33, 34-1 to 34-n have respective encoding devices 15, 16-1 to 16-n when encoding moving images and audio. The obtained encoding parameters are input as side information 50 to 53.
[0021]
The side information can include an encoding bit rate, a frame encoding data length, a display frame rate, a display period of each frame, parameters related to a prediction structure of video encoding, and the like.
[0022]
The packetization processing units 33, 34-1 to 34-n perform packetization, calculation of a time stamp, determination of a multiplexing order, and the like using these side information.
[0023]
Further, a part of the side information can be extracted by performing grammatical analysis on the input encoded data.
FIG. 2 is for explaining the processing order of frames in MPEG video coding and their arrangement.
[0024]
In MPEG video coding, coding in which an intra-frame coded image (I picture), a forward prediction coded image (P picture), and a bidirectional prediction coded image (B picture) are combined is possible. However, when a B picture is included, the encoding order and the display order are different.
[0025]
FIG. 2 shows an example in which a prediction structure in which two B-pictures always enter between an I-picture and a P-picture is used.
In this case, on the decoding side, the I-picture and the P-picture are displayed after a lapse of three frame periods from the decoding time, during which the I-picture and the P-picture are stored in the frame memory of the decoding device and decoded as reference images of the predicted image Used for
[0026]
In the MPEG system multiplexing standard, when video and audio are multiplexed and transmitted, a time to be decoded (DTS: Decoding Time Stamp) and a time to be displayed (PTS: Presentation Time Stamp) are defined by the MPEG system standard. Multiplexed with the header information to be transmitted.
[0027]
In FIG. 2, the PTS of the I picture and the P picture are calculated by adding the DTS of the picture for a period of three frame periods. Further, the obtained PTS can be used as the DTS of the next encoded I picture or P picture.
[0028]
However, as shown in FIG. 3, the number of B-pictures sandwiched between I-pictures or P-pictures can be arbitrarily changed, and it is generally impossible to calculate PTS from DTS as described above. Normally, for a given I picture or P picture, when the next coded I picture or P picture is input, the number of B pictures included therebetween is determined. Therefore, in the moving picture packetization processor 33 shown in FIG. 1, the time stamp cannot be calculated at the same time as the input of the I or P picture, and the encoded data of the next encoded I or P picture Multiplexing delay until is obtained.
[0029]
In the information multiplexing device according to the first embodiment, the frame interval of an I picture or a P picture is input from the coding device 15 to the packetization processing unit 33 as side information, so that the coded data of each I picture or a P picture is input. Is obtained, the time stamp required for packetization can be easily calculated, and the packetization and multiplexing processing can be performed without causing the multiplexing delay described above.
[0030]
Further, when encoding is performed with the interval between I-pictures or P-pictures always constant, it is also possible to input the constant value to the packetization processing unit 33 before the start of encoding, for example.
[0031]
Further, in the MPEG2 video encoding, the period for displaying one encoded frame as shown in FIG. 4 can be arbitrarily set to two fields or three fields. This is used when a movie source having a frame cycle of 24 Hz is converted into a frame rate by a receiver having a frame cycle of 30 Hz and displayed. In this case, even when coding is performed with the interval between I pictures or P pictures always constant, the interval between DTS and PTS of each I picture or P picture does not become a fixed value. Occurs.
[0032]
In the information multiplexing apparatus according to the first embodiment, the frame interval of the I picture or the P picture is set as the number of fields in consideration of the display period of the encoded frame, and the side information is transmitted from the video encoding apparatus 15 to the packetization processing unit 33. As a result, packetization and multiplexing can be performed without causing the above-described multiplexing delay.
[0033]
FIG. 7 shows an example of the data structure of MPEG video encoded data. A sequence header relating to the entire video sequence, a picture group (GOP: Group Of Pictures) grouped into units of about 15 pictures starting with an I picture. , And a header of each picture and encoded data.
[0034]
The encoded data having the configuration shown in FIG. 7 is output from the moving image encoding device 15 and input to the packetization processing unit 33 via the input buffer 23.
7 is input from the input buffer 23 to the packetization processing unit 33, and the video encoding device 15 outputs the I-picture or P-picture frame interval or the frame A value in which the interval is represented by the number of fields in consideration of the display period of the encoded frame is input as side information, and a time stamp (DTS, PTS) required for packetization is calculated based on the side information. When the data sequence having the configuration shown in FIG. 7 is packetized, the calculated time stamp is added to the data sequence and output to the multiplex processing unit 43.
(Second embodiment)
FIG. 5 is a block diagram schematically showing a configuration of an information multiplexing device according to the second embodiment of the present invention.
[0035]
5, the same parts as those in FIG. 1 are denoted by the same reference numerals, and different parts will be described. That is, the information multiplexing device shown in FIG. 5 includes a control unit 60 for controlling the moving image and audio coding devices 15, 16-1 to 16-n and the packetization processing units 33, 34-1 to 34-n. Is provided. The side information obtained at the time of encoding in the moving picture and audio encoding devices 15 and 16-1 to 16-n shown in FIG. 1 to 34-n.
(Third embodiment)
FIG. 6 is a block diagram schematically showing a configuration of an information multiplexing device according to the third embodiment of the present invention.
[0036]
6, the same parts as those in FIG. 1 are denoted by the same reference numerals, and different parts will be described. That is, the information multiplexing apparatus shown in FIG. 6 multiplexes, among the side information shown in the first embodiment, data and the like particularly necessary for calculating the time stamp into each coded data. 15, 16-1 to 16-n.
[0037]
In the data structure of the MPEG video coded data shown in FIG. 7, for example, user data can be multiplexed following each header. An example of multiplexing of user data in that case will be described with reference to FIGS.
[0038]
In FIG. 8, user data is multiplexed following the sequence header. The user data includes a parameter related to the interval between the I-picture or the P-picture, and the packetization processing unit calculates a time stamp according to the parameter. If the interval between I-pictures or P-pictures is constant throughout the sequence of one unit and the above-described frame rate conversion is not used, it is possible to reduce the multiplexing delay using this method.
[0039]
In FIG. 9, user data is multiplexed following the GOP header. The user data includes a parameter related to the interval between the I-picture or the P-picture, and the packetization processing unit calculates a time stamp according to the parameter. When the interval between I-pictures or P-pictures is variable in GOP units and the above-described frame rate conversion is not used, multiplexing delay can be reduced using this method.
[0040]
In FIG. 10, user data is multiplexed following the picture header. The user data includes a parameter relating to the above-mentioned interval between the I picture and the P picture, and the packetization processing unit 43 calculates a time stamp according to the parameter. In this case, it is possible to always calculate a time stamp for any prediction structure without multiplexing delay.
[0041]
As described above, according to the first to third embodiments, in a multiplexing method such as an MPEG system that requires multiplexing of time stamps, information such as a moving image and audio is encoded by the encoding device 15. 16-1 to 16-n, a parameter indicating the relationship between the input order and the encoding order, a parameter indicating the display duration of the frame, and the like, obtained as side information, are used as the side information. 34-1 to 34-n, and the packetization processing sections 33 and 34-1 to 34-n analyze the header of the encoded data by sequentially calculating time stamps according to the input parameters. As compared with the conventional method of calculating a time stamp based on the information obtained as a result, multiplexing processing with low delay can be realized. Normally, when calculating the time stamp by analyzing the encoded data, a delay of several frames occurs in principle, but in the present invention, the principle delay for calculating the time stamp does not occur.
[0042]
The side information including the encoding parameter may be input from a path independent of the encoded data, but the hardware may be simplified by multiplexing the encoded information in advance and inputting it.
[0043]
If the coding parameters are dynamically changed in frame units, they are sequentially input to the packetization processing unit. If the coding parameters are constant in sequence units, the packetization processing is performed only once for one sequence. This can be realized by inputting the information to the section.
[0044]
(Fourth embodiment)
FIG. 11 is a block diagram schematically showing a configuration of an information multiplexing device according to the fourth embodiment of the present invention. 11, the same parts as those in FIG. 1 are denoted by the same reference numerals, and different parts will be described.
[0045]
In FIG. 11, the packetization processing units 33, 34-1 to 34-n, 35 and the multiplexing processing unit 43 sequentially perform multiplexing of time stamps and control of the multiplexing order according to a virtual time base.
[0046]
The control unit 48 monitors the buffer occupancy of the coded data input to the input buffers 23, 24-1 to 24-n, 25, and sends the multiplexed data to the multiplexing processing unit 43. It controls the timing of the start of transmission of the multiplexed bit stream for notifying the start time. For example, multiplex the timing at which the occupancy of each input buffer becomes the buffer occupancy corresponding to the data transfer start timing logically derived from the input buffer occupancy of the encoded audio data input at a fixed rate. The conversion processing unit 43 is notified.
[0047]
FIG. 12 more specifically shows the configuration of a main part of the information multiplexing apparatus of FIG. 11 (a part surrounded by a dotted line in FIG. 11 and hereinafter referred to as a multiplexing unit 47).
The moving image and audio coded data 19, 20-1 to 20-n and other data 14 coded and output by the coding devices 15, 16-1 to 16-n are coded data input devices, respectively. 100, 101-1 to 101-n, and 102, and further input to the main memory 125 via the data bus 120 by the DMA controllers 110, 111-1 to 111-n, and 112, respectively. The data is transferred to the buffers 130, 131-1 to 131-n, 132.
[0048]
The transferred data is multiplexed into a multiplexed bit stream by the CPU 140 and software 141 which control the processing operations corresponding to the functions of the packetization processing units 33, 34-1 to 34-n and 35 and the multiplexing processing unit 43 in FIG. And written to the output buffer 150 in the main memory 125.
[0049]
The multiplexed bit stream written in the output buffer 150 is output from the output device 162 to the transmission path via the data bus 120 by the DMA controller 161.
[0050]
Here, the CPU 140 and the multiplexing software 141 update the virtual time base by counting the number of output bits of the multiplexed bit stream, and in a fifth embodiment described later, The processing of counting the number of encoded frames and updating the time stamp is performed. The CPU 140 and the multiplexing software 141 constitute a control unit 48 in FIG. 11 and a control unit 349 in FIG. 18 described later.
[0051]
13 and 14 are diagrams for explaining a synchronization method using a buffer. 13, 170 and 174 are encoded data, 171 is a transmission (output) buffer, 172 is a transmission path, and 173 is a reception (input) buffer. The transmission buffer and the reception buffer are also called a smoothing buffer.
[0052]
The encoded data 170 is input to the transmission buffer 171, temporarily stored, delayed, and then input to the reception buffer 173 via the transmission path 172. The transmitted encoded data is also output after being similarly delayed in the reception buffer 173.
[0053]
Here, by controlling the sum of the delay amount in the transmission buffer 171 and the delay amount in the reception buffer 173 to be always constant, the encoded data 170 is input to the transmission buffer 171 and then output from the reception buffer 173. The total amount of delay until the data is transmitted is always constant, and synchronous data transfer between transmission and reception is possible.
[0054]
FIG. 14 is a timing chart of transmission / reception when the smoothing buffer of FIG. 13 is used.
In FIG. 14, for example, image data of one frame of a moving image is encoded at a predetermined interval, encoded data having a different code amount is generated for each frame, and sequentially transmitted to the transmission buffer 171.
[0055]
Reference numeral 190 denotes a stay time in the transmission buffer 171, and 192 denotes a stay time in the reception buffer 173. According to the principle of the smoothing buffer, the residence time in the transmission buffer 171 and the residence time in the reception buffer 173 may vary with time, respectively, but the total delay between transmission and reception, which is the sum thereof, is always constant. Is controlled as follows.
[0056]
In an encoding method in which the code amount changes in frame units such as MPEG video coding, the transmission code amount is smoothed using the transmission / reception buffer 171.
As described above, on the transmission side, after the encoded data is input, it is output after being delayed by the transmission buffer 171. Since the sizes of the transmission buffer 171 and the reception buffer 173 are both defined finite values, the amount of delay in each buffer must be strictly controlled so as not to cause underflow and overflow in each buffer. .
[0057]
FIG. 15 shows the input buffer occupancy in the multiplexing processing unit 43 of each encoded data on the transmission side at the time of startup. Each of the encoded data of the image and the audio is input to the input buffers 130, 131-1 to 131-n with an encoding delay specific to the encoding method and the encoding parameter, and further, a time corresponding to the transmission buffer delay described above. And then multiplexed and transmitted.
[0058]
In FIG. 15, reference numeral 201 denotes encoded image data, and reference numerals 202 and 203 denote encoded audio data, respectively, showing an example in which these three data are multiplexed. FIG. 15 shows a transition from the initial state of the input buffer occupancy when all the encoded data are input to the multiplexing unit 47 at a constant rate. Here, the encoded image data has a transmission-side delay, so transmission starts at the time 204, and the audio encoded data 202 and 203 are multiplexed and transmitted from the timings 206 and 207, respectively. You have to start.
[0059]
When the code amount per frame fluctuates like coded data of a moving image, the input interval of a frame to be coded, the code amount obtained by coding the frame, the coding rate, and the like are completely one-to-one. When the function of the multiplexing unit 47 is realized by software, it is usually difficult to manage the real time (real time) only by performing the smoothing using the buffer described above.
[0060]
In other words, if the transmission side starts transmission ahead of time (without performing the timing control of the transmission start of the multiplexed bit stream of the present invention), the reception of the multiplexed bit stream is delayed due to the difference between the virtual time base of the multiplexing unit 47 and the real time. The possibility of underflow on the side.
[0061]
As described above, real-time management means that in the case of encoded data of a moving image, the actual decoding of the actual picture by the decoder on the receiving side is also performed by considering the code amount of one frame (screen) which is one encoding unit. It can also be said to be a management control of the transmission timing of the encoded data on the transmitting side such that the encoded data can be decoded while maintaining the interval.
[0062]
Therefore, the input buffer occupancy of encoded data of a specific moving image or audio, for example, audio encoded data 202 which is always input at a fixed bit rate is monitored, and logically calculated from the fixed bit rate. Multiplexing that starts multiplexing processing and transmission from the time when the buffer occupancy (for example, input buffer occupancy 205 in FIG. 15) corresponding to the time of the derived data transfer start timing (for example, time 204 in FIG. 15). Of the transmission start of the coded bit stream. This makes it possible to prevent the underflow in the reception buffer as described above.
[0063]
FIG. 16 shows the transition from the initial state of the input buffer occupancy when the coded data 210 of the moving image is input to the multiplexing unit 47 in a burst manner, and FIG. 17 shows the case where the coded data 220 of the moving image is multiplexed. 9 shows a transition from the initial state of the input buffer occupancy when the input rate is input to the conversion unit 47 while changing over time.
[0064]
If the input is not at a fixed rate, it is difficult to estimate the actual time from the buffer occupancy, but if there is accompanying audio encoded data (212 in FIG. 16 and 222 in FIG. 17) input at a fixed rate, Similarly to the description of FIG. 15, the data transfer start timing logically derived from the input buffer occupancy of the multiplexing unit 47 for the encoded data (for example, time 214 in FIG. 16 and time 224 in FIG. 17). ) (For example, the input buffer occupancy 215 in FIG. 16 and the input buffer occupancy 225 in FIG. 17), the transmission of the multiplexed bit stream for starting the multiplexing process and transmission starts. Is performed.
[0065]
(Fifth embodiment)
In the configuration of the multiplexing unit 47 shown in FIG. 12, since the input buffers 130, 131-1 to 131-n, and 132 of the respective encoded data are configured on the main memory 125, the data is transparent from software. It will be. Therefore, instead of measuring the occupation amount of the encoded data in the input buffer, the number of encoded frames may be counted, and the current time for controlling the multiplexing start timing may be derived.
[0066]
FIG. 18 is a block diagram schematically showing the configuration of the information multiplexing device according to the fifth embodiment.
FIG. 18 shows a case where a plurality of programs as a set of a moving image and a sound are simultaneously encoded and multiplexed. Here, the programs Ch1 and Ch2, which are composed of moving images and sounds encoded in real time, and the program Ch3, which is encoded in advance and recorded on the storage medium, are simultaneously multiplexed with a total of 3 Ch programs. is there. The detailed configuration of the main part of the information multiplexing device of FIG. 18 (a portion surrounded by a dotted line in FIG. 18 and hereinafter referred to as a multiplexing unit 347) is the same as that of FIG.
[0067]
The moving image (video) signal 300 and the audio signal 301 and the moving image signal 302 and the audio image 303 are input to the moving image encoding device 315, the audio encoding device 316, the moving image encoding device 317, and the audio encoding device 318, respectively. The encoded data is input to the input buffers 323, 324, 325, and 326 as individual encoded data.
[0068]
The program data 304 read from the storage medium is similarly input to the input buffer 327.
Further, a data stream 305 that does not require encoding or has already been encoded may be similarly input to the input buffer 351.
[0069]
Each of the encoded data temporarily stored in each input buffer is individually packetized by the packetizing processing units 333 to 337 and 353, and these packets are multiplexed by the multiplexing processing unit 343 to be multiplexed. A bit stream is obtained. The multiplexed bit stream 344 is temporarily stored in the output buffer 345 and then transmitted at a predetermined timing, for example, via a network.
[0070]
Each of the packetization processing units 333 to 337 and 353 includes a data analysis unit 333a, 334a, 335a, 336a, 337a, and 353a that extracts and analyzes a header portion such as encoded data input from each input buffer. ing.
[0071]
The control unit 349 counts the number of encoded frames of the moving image based on the analysis result of the data analysis unit, and controls the multiplexing start timing, that is, calculates the real time, and determines the multiplexing / transmission timing. The multiplex processing unit 343 is notified. If the time bases of the programs Ch1 to Ch3 are independent, the virtual clock in the multiplexing software is calculated independently, and the multiplexing start timing is controlled for each program. Further, in a program having a common time base, the virtual clock in the multiplexing software is also made common, and the multiplexing start timing is controlled.
[0072]
As described above, according to the fourth embodiment, when synchronously multiplexing individually encoded encoded data such as moving image and audio and other data, the control unit 48 controls each input signal. The occupancy of the data in the buffer is monitored, and the time of the data transfer start timing logically derived from the fixed bit rate for the specific image or audio encoded data input at the fixed bit rate (for example, in FIG. 15, The multiplex processing unit 43 notifies the multiplex processing unit 43 of the point in time when the buffer occupancy amount (for example, the input buffer occupation amount 205 in FIG. 15) corresponding to the time 204) is reached. By starting the multiplexing processing and transmission according to the above, it is possible to realize multiplexing processing that can withstand real-time transmission using only software. By realizing the multiplexing unit 47 only by software, it is not necessary to perform timing control by complicated hardware, and the system configuration can be simplified. Also, customization by software becomes easy, and it is possible to flexibly cope with various applications.
[0073]
Further, according to the fifth embodiment of the present invention, when synchronously multiplexing individually encoded encoded data such as moving image and audio and other data, the control unit 349 controls each packetization processing unit. , The actual time is calculated by counting the number of encoded frames of the moving image based on the analysis result of the data analysis unit, and the actual time is notified to the multiplex processing unit 343. By starting the multiplexing process and the transmission in accordance with the timing notified from, the multiplexing process that can withstand real-time transmission can be realized only by software. By realizing the multiplexing unit 347 only by software, there is no need to perform timing control using complicated hardware, and the system configuration can be simplified. Also, customization by software becomes easy, and it is possible to flexibly cope with various applications.
Furthermore, it is also effective to use the first to fifth embodiments in appropriate combination.
[0074]
【The invention's effect】
As described above, according to the present invention, by inputting the encoding parameters related to the decoding time and display time of the moving image, audio, and other encoded data to the multiplexing unit independently of the header information. In addition, it is possible to provide an information multiplexing apparatus capable of reducing a multiplexing delay generated for calculating a time stamp by analyzing header information.
[0075]
Further, according to the present invention, a value obtained by converting the coded data of a specific image or audio input at a fixed bit rate from the input buffer occupation amount or the number of coded frames in the input buffer into real time Control of the start of multiplexed bit stream transmission by using multiplexing, real-time management can be easily performed, underflow of the transmission path or the receiving buffer on the decoding side can be prevented, and information multiplexing that does not require complicated hardware is performed. Equipment can be provided.
As described above, according to the information multiplexing apparatus of the present invention, real-time management of information encoding, transmission, and decoding, and synchronous multiplexing of individually encoded information can be easily performed.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of an information multiplexing device according to a first embodiment of the present invention.
FIG. 2 is a diagram for explaining a frame processing order and its arrangement in MPEG video encoding, in which the number of B pictures is fixed.
FIG. 3 is a diagram for explaining the processing order of frames involved in MPEG video encoding and their arrangement, showing a case where the number of B pictures is variable.
FIG. 4 is a diagram for explaining a display period of each encoded frame in MPRG video encoding.
FIG. 5 is a block diagram showing a configuration of an information multiplexing device according to a second embodiment of the present invention.
FIG. 6 is a block diagram showing a configuration of an information multiplexing device according to a third embodiment of the present invention.
FIG. 7 is a diagram showing an example of a data structure of MPEG video encoded data in the information multiplexing device according to the first embodiment and the second embodiment.
FIG. 8 is a diagram showing an example of a data structure of MPEG video encoded data in the information multiplexing device according to the third embodiment.
FIG. 9 is a view showing another example of the data structure of MPEG video encoded data in the information multiplexing device according to the third embodiment.
FIG. 10 is a view showing still another example of the data structure of MPEG video encoded data in the information multiplexing device according to the third embodiment.
FIG. 11 is a block diagram showing a configuration of an information multiplexing device according to a fourth embodiment of the present invention.
FIG. 12 is a block diagram showing a configuration of a main part of the information multiplexing device in more detail.
FIG. 13 is a view for explaining a synchronization method using a transmission / reception buffer (smoothing buffer).
FIG. 14 is a diagram for explaining the operation of the smoothing buffer.
FIG. 15 is a diagram for explaining multiplexing processing and transmission start timing control according to the present invention, and shows an initial state of an input buffer occupancy when all encoded data are input to a multiplexing unit at a constant rate. Shows the transition from.
FIG. 16 is a diagram for describing multiplexing processing and transmission start timing control according to the present invention, and illustrates an initial state of an input buffer occupancy when coded data of a moving image is input to a multiplexing unit in a burst manner. The transition from the state is shown.
FIG. 17 is a diagram for describing multiplexing processing and transmission start timing control according to the present invention; FIG. 17 is an input buffer in the case where encoded data of a moving image is input to the multiplexing unit while the input rate varies with time; The transition of the occupancy from the initial state is shown.
FIG. 18 is a block diagram showing a configuration of an information multiplexing device according to a fifth embodiment of the present invention.
[Explanation of symbols]
15: Moving picture coding device, 16-1 to 16-n: Voice coding device, 23, 241-1 to 24-n, 25: Input buffer, 33, 34-1 to 34-n, 35: Packetization Processing unit, 43: multiplex processing unit, 44: multiplexed bit stream, 45: output buffer, 47: multiplex unit, 48, 60: control unit, 347: multiplex unit.

Claims (6)

動画像のMPEG符号化データである第1の符号化データと、音声の符号化データである第2の符号化データを入力する第1の入力手段と、
前記第1の符号化データ中の各Iピクチャ/Pピクチャに対応し、当該Iピクチャ/Pピクチャと次のIピクチャ/Pピクチャとの間に存在するBピクチャの表示期間を表すフィールド数を入力する第2の入力手段と、
前記第1の入力手段で入力された前記第1の符号化データ中の各Iピクチャ/Pピクチャに対応する前記第2の入力手段で入力された前記フィールド数を基に当該Iピクチャ/Pピクチャのタイムスタンプを算出するとともに、前記第1の入力手段で入力された前記第1の符号化データ及び前記第2の符号化データをそれぞれパケット化し、前記第1の符号化データのパケットに前記タイムスタンプを付加するパケット化手段と、
前記第2の符号化データのパケットと前記タイムスタンプの付加された前記第1の符号化データのパケットを多重化する多重化手段と、
前記多重化手段で多重化されて得られた多重化データを出力する出力手段と、
を具備したことを特徴とする情報多重化装置。
First input means for inputting first encoded data which is MPEG encoded data of a moving image and second encoded data which is encoded data of audio;
For each I picture / P picture in the first encoded data, input the number of fields representing the display period of the B picture existing between the I picture / P picture and the next I picture / P picture. Second input means for performing
The I picture / P picture based on the number of fields input by the second input means corresponding to each I picture / P picture in the first encoded data input by the first input means Is calculated, and the first encoded data and the second encoded data input by the first input unit are packetized, respectively, and the time stamp is added to the packet of the first encoded data. Packetizing means for adding a stamp;
Multiplexing means for multiplexing the packet of the second encoded data and the packet of the first encoded data to which the time stamp is added;
Output means for outputting multiplexed data obtained by multiplexing in the multiplexing means,
An information multiplexing device comprising:
動画像のMPEG符号化データと、当該MPEG符号化データ中の各Iピクチャ/Pピクチャに対応し、当該Iピクチャ/Pピクチャと次のIピクチャ/Pピクチャとの間に存在するBピクチャの表示期間を表すフィールド数を含む第1の符号化データと、音声の符号化データである第2の符号化データをそれぞれ入力する第1の入力手段と、
前記第1の入力手段で入力された前記第1の符号化データ中の各Iピクチャ/Pピクチャに対応する前記フィールド数を基に当該Iピクチャ/Pピクチャのタイムスタンプを算出するとともに、前記第1の入力手段で入力された前記第1の符号化データ及び前記第2の符号化データをそれぞれパケット化し、前記第1の符号化データのパケットに前記タイムスタンプを付加するパケット化手段と、
前記第2の符号化データのパケットと前記タイムスタンプの付加された前記第1の符号化データのパケットを多重化する多重化手段と、
前記多重化手段で多重化されて得られた多重化データを出力する出力手段と、
を具備したことを特徴とする情報多重化装置。
Display of MPEG encoded data of a moving image and a B picture corresponding to each I picture / P picture in the MPEG encoded data and existing between the I picture / P picture and the next I picture / P picture First input means for inputting first encoded data including the number of fields indicating a period, and second encoded data which is audio encoded data, respectively;
Calculating a time stamp of the I picture / P picture based on the number of fields corresponding to each I picture / P picture in the first coded data input by the first input means; Packetizing means for packetizing the first coded data and the second coded data input by the first input means, and adding the time stamp to a packet of the first coded data;
Multiplexing means for multiplexing the packet of the second encoded data and the packet of the first encoded data to which the time stamp is added;
Output means for outputting multiplexed data obtained by multiplexing in the multiplexing means,
An information multiplexing device comprising:
動画像のMPEG符号化データと、当該MPEG符号化データ中のGOP(group of pictures)毎に、当該GOPに含まれる1つのIピクチャ/Pピクチャと次のIピクチャ/Pピクチャとの間に存在するBピクチャの表示期間を表し、当該GOP内の各Iピクチャ/Pピクチャに共通するフィールド数を含む第1の符号化データと、音声の符号化データである第2の符号化データをそれぞれ入力する第1の入力手段と、
前記第1の入力手段で入力された前記第1の符号化データ中の各GOPに対応する前記フィールド数を基に当該GOP中の各Iピクチャ/Pピクチャのタイムスタンプを算出するとともに、前記第1の入力手段で入力された前記第1の符号化データ及び前記第2の符号化データをそれぞれパケット化し、前記第1の符号化データのパケットに前記タイムスタンプを付加するパケット化手段と、
前記第2の符号化データのパケットと前記タイムスタンプの付加された前記第1の符号化データのパケットを多重化する多重化手段と、
前記多重化手段で多重化されて得られた多重化データを出力する出力手段と、
を具備したことを特徴とする情報多重化装置。
For each GOP (group of pictures) in the MPEG encoded data of the moving picture and the MPEG encoded data, there exists between one I picture / P picture and the next I picture / P picture included in the GOP. The first coded data including the number of fields common to each I picture / P picture in the GOP and the second coded data that is audio coded data are input. First input means for performing
The time stamp of each I picture / P picture in the GOP is calculated based on the number of fields corresponding to each GOP in the first coded data input by the first input means, and Packetizing means for packetizing the first coded data and the second coded data input by the first input means, and adding the time stamp to a packet of the first coded data;
Multiplexing means for multiplexing the packet of the second encoded data and the packet of the first encoded data to which the time stamp is added;
Output means for outputting multiplexed data obtained by multiplexing in the multiplexing means,
An information multiplexing device comprising:
動画像のMPEG符号化データと、当該MPEG符号化データ中の複数のGOP(group of pictures)からなる1単位のシーケンス毎に、当該シーケンスに含まれる1つのIピクチャ/Pピクチャと次のIピクチャ/Pピクチャとの間に存在するBピクチャの表示期間を表し、当該シーケンス内の各Iピクチャ/Pピクチャに共通するフィールド数を含む第1の符号化データと、音声の符号化データである第2の符号化データをそれぞれ入力する第1の入力手段と、
前記第1の入力手段で入力された前記第1の符号化データ中の各シーケンスに対応する 前記フィールド数を基に当該シーケンス中の各Iピクチャ/Pピクチャのタイムスタンプを算出するとともに、前記第1の入力手段で入力された前記第1の符号化データ及び前記第2の符号化データをそれぞれパケット化し、前記第1の符号化データのパケットに前記タイムスタンプを付加する手段と、
前記第2の符号化データのパケットと前記タイムスタンプの付加された前記第1の符号化データのパケットとを多重化する多重化手段と、
前記多重化手段で多重化されて得られた多重化データを出力する出力手段と、
を具備したことを特徴とする情報多重化装置。
One I picture / P picture and the next I picture included in the MPEG encoded data of a moving image and one unit sequence including a plurality of GOPs (groups of pictures) in the MPEG encoded data are included in the sequence. / P picture, the first encoded data including the number of fields common to each I picture / P picture in the sequence, and the first encoded data that is audio encoded data. First input means for respectively inputting the two encoded data;
Calculating a time stamp of each I picture / P picture in the sequence based on the number of fields corresponding to each sequence in the first coded data input by the first input means; Means for packetizing each of the first encoded data and the second encoded data input by the first input means, and adding the time stamp to a packet of the first encoded data;
Multiplexing means for multiplexing the packet of the second encoded data and the packet of the first encoded data to which the time stamp is added;
Output means for outputting multiplexed data obtained by multiplexing in the multiplexing means,
An information multiplexing device comprising:
一定のビットレートで前記第1の入力手段から入力される前記第2の符号化データを一時蓄積するバッファをさらに具備し、
前記バッファに蓄積された前記第2の符号化データのデータ量と前記ビットレートとから定まる経過時間が予め定められた時間となる度に、前記多重化手段は多重化処理の開始をすることを特徴とする請求項1記載の情報多重化装置。
A buffer that temporarily stores the second encoded data input from the first input unit at a constant bit rate;
The multiplexing means starts the multiplexing process every time the elapsed time determined from the data amount of the second encoded data stored in the buffer and the bit rate reaches a predetermined time. The information multiplexing device according to claim 1, wherein
前記第1の入力手段から入力される前記第1の符号化データに含まれる符号化フレーム数を計数する手段をさらに具備し、
前記符号化フレーム数が予め定められた経過時間に対応する数になる度に、前記多重化手段は多重化処理の開始をすることを特徴とする請求項1記載の情報多重化装置。
The apparatus further comprises means for counting the number of encoded frames included in the first encoded data input from the first input means,
2. The information multiplexing apparatus according to claim 1, wherein the multiplexing unit starts multiplexing processing every time the number of encoded frames reaches a number corresponding to a predetermined elapsed time.
JP5640596A 1996-03-13 1996-03-13 Information multiplexing device Expired - Fee Related JP3556381B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5640596A JP3556381B2 (en) 1996-03-13 1996-03-13 Information multiplexing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5640596A JP3556381B2 (en) 1996-03-13 1996-03-13 Information multiplexing device

Publications (2)

Publication Number Publication Date
JPH09247670A JPH09247670A (en) 1997-09-19
JP3556381B2 true JP3556381B2 (en) 2004-08-18

Family

ID=13026270

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5640596A Expired - Fee Related JP3556381B2 (en) 1996-03-13 1996-03-13 Information multiplexing device

Country Status (1)

Country Link
JP (1) JP3556381B2 (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3175926B2 (en) * 1998-05-06 2001-06-11 日本電信電話株式会社 Stream packetizing apparatus and method
US7551672B1 (en) 1999-02-05 2009-06-23 Sony Corporation Encoding system and method, decoding system and method, multiplexing apparatus and method, and display system and method
JP4806888B2 (en) * 2002-07-19 2011-11-02 ソニー株式会社 Decoding device and decoding method
JP5007759B2 (en) * 2002-07-19 2012-08-22 ソニー株式会社 Encoding apparatus, encoding method, decoding apparatus, and decoding method
US20090168866A1 (en) * 2004-12-02 2009-07-02 Sony Corporation Encoding device, method, and program
JP2007058541A (en) * 2005-08-24 2007-03-08 Matsushita Electric Ind Co Ltd Processor, processing method and processing program
JP5335294B2 (en) * 2008-06-16 2013-11-06 キヤノン株式会社 Moving image processing system, moving image processing method, program, and storage medium
US8467444B2 (en) 2008-06-16 2013-06-18 Canon Kabushiki Kaisha Information processing system, information processing apparatus, information processing method, and program
EP2346261A1 (en) * 2009-11-18 2011-07-20 Tektronix International Sales GmbH Method and apparatus for multiplexing H.264 elementary streams without timing information coded
WO2013100986A1 (en) * 2011-12-28 2013-07-04 Intel Corporation Systems and methods for integrated metadata insertion in a video encoding system

Also Published As

Publication number Publication date
JPH09247670A (en) 1997-09-19

Similar Documents

Publication Publication Date Title
JP4157617B2 (en) Method and apparatus for information stream frame synchronization
US11968411B2 (en) Statistical multiplexing system for variable bit rate encoding with constant bit rate encoder
JP4837744B2 (en) Multiplexer, integrated circuit, multiplexing method, multiplexed program, computer-readable recording medium recording the multiplexed program, and computer-readable recording medium recording the multiplexed stream
US6516005B1 (en) Apparatus and method for data decoding
JP3666625B2 (en) Data recording method and data recording apparatus
US6449352B1 (en) Packet generating method, data multiplexing method using the same, and apparatus for coding and decoding of the transmission data
KR20010095264A (en) Data multiplexer, data multiplexing method, and recording medium
CA2924539C (en) Improved algorithms for determining bitrate for a statistical multiplexing system to account for signal complexity including film mode and gop structural changes
KR100981378B1 (en) Device and process for the read-synchronization of video data and of ancillary data and associated products
JP3556381B2 (en) Information multiplexing device
JPH1118083A (en) Digital signal coding method and system, signal recording medium and signal transmission method
JPH11252552A (en) Compression coding method and compression coder for video signal, and multiplexing method and multiplexer for compression coded data
US20140112384A1 (en) Algorithms for determining bitrate for a statistical multiplexing system using scene change
US8194707B2 (en) Method and system for dynamically allocating video multiplexing buffer based on queuing theory
EP1145559B1 (en) Method and apparatus for delivering reference signal information within a specified time interval
Yang et al. Time Stamp Synchronization in Video Systems
JP2001204032A (en) Mpeg decoder
JP3750760B2 (en) Repeated use data insertion device and digital broadcast transmission system
JP2006319956A (en) Mpeg coded stream decoding device
JP2872104B2 (en) Time stamp adding apparatus and method, and moving image compression / expansion transmission system and method using the same
JP2005151463A (en) Device and method for receiving stream data
KR19980027646A (en) Video and Audio Synchronization Method Using Timestamp Compensation and MPEG-2 Encoder Device Using It
JPH09247666A (en) Moving image decoding timing estimate method, moving image coder and moving image decoder
KR100207687B1 (en) Decoder for use in mpeg system and audio/video synchronization method
JP2823806B2 (en) Image decoding device

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040210

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040407

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040427

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040512

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090521

Year of fee payment: 5

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090521

Year of fee payment: 5

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100521

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees