JP2005198348A - 伝送方法 - Google Patents

伝送方法 Download PDF

Info

Publication number
JP2005198348A
JP2005198348A JP2005074642A JP2005074642A JP2005198348A JP 2005198348 A JP2005198348 A JP 2005198348A JP 2005074642 A JP2005074642 A JP 2005074642A JP 2005074642 A JP2005074642 A JP 2005074642A JP 2005198348 A JP2005198348 A JP 2005198348A
Authority
JP
Japan
Prior art keywords
data
recording
audio
recorded
time stamp
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005074642A
Other languages
English (en)
Inventor
Takayuki Sugawara
隆幸 菅原
Norihiko Fuchigami
徳彦 渕上
Harukuni Kohari
晴邦 小張
Toshio Kuroiwa
俊夫 黒岩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Victor Company of Japan Ltd
Original Assignee
Victor Company of Japan Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Victor Company of Japan Ltd filed Critical Victor Company of Japan Ltd
Priority to JP2005074642A priority Critical patent/JP2005198348A/ja
Publication of JP2005198348A publication Critical patent/JP2005198348A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】 アフレコデータを元のデータに戻すことができ、また、ユーザが複数のアフレコデータを記録して再生時に選択的にメインデータと置き換えて再生する。
【解決手段】 アフレコ・オーディオデータはオーディオ符号化器101bによりMPEG符号化され、符号化されたアフレコ・オーディオデータはPESパケット化器102bでは、アフレコ・オーディオの要素データに識別情報を付加してパケット化され、アフレコ・オーディオのPESパケットはタイムスタンプ記録器103bによりタイムスタンプデータが記録される。識別情報及びタイムスタンプが記録されたアフレコ・オーディオのPESパケットは多重化器104を経由することなくストリーム化されて記録メディア108に記録される。
【選択図】 図1

Description

本発明は、少なくともオーディオ信号とビデオ信号により構成されるメインデータに対してオーディオ信号などを後で記録(アフターレコード、以下、アフレコ)・差し替えを行うアフレコシステムに好適な伝送方法に関する。
従来例として、特開平11−144378号公報には、アフレコ用の新たな音声ビットストリームをデジタル記録媒体のうち、オリジナルデータの記録領域と略等しい時刻に対応する領域に書き込む方法が提案されている。また、特開平11−259992号公報には、あらかじめ用意した空きパックにアフレコデータを記録する方法が提案されている。また、特開2000−197005号公報には、無音と判定された音声パックにアフレコ音声を上書き記録する方法が開示されている。
ところで、最近のデジタル機器として、D−VHSやSTBではTS(トランスポート・ストリーム)、DVDではPS(プログラム・ストリーム)という多重化方式を用いて多重化されたデータを扱うようになっている。一方、いったん多重化すると、そのデータの一部を取り替えることが困難な形態となってしまうのも多重化の問題である。すなわち、音声のアフレコを行うために、多重化ストリームの音声部分のみを入れ替えるのは、簡単ではない。そこで記録メディア内での符号化データとしてアフレコなどへ簡単に対応できるフォーマットの必要性が高まっている。
しかしながら、上記の従来の方式では、アフレコを行う要素データに対して書き込みを行い、多重化されているメインストリームを書き換えてしまうことを前提としているため、書き換えた後は再度元に戻すことができない。また、複数のアフレコ音声を記録した後に、ユーザが選択的にアフレコデータを楽しむシステムは構築できなかった。
本発明は上記従来例の問題点に鑑み、アフレコデータを元のデータに戻すことができ、また、ユーザが複数のアフレコデータを記録して再生時に選択的にメインデータと置き換えて再生することを可能とする伝送方法を提供することを目的とする。
本発明は上記目的を達成するために、
メインデータを構成するオーディオ信号とビデオ信号との2つの信号のMPEG方式に基づく圧縮符号化データが、前記オーディオ信号と前記ビデオ信号との同期再生用のタイムスタンプを含めてMPEG方式に基づくパケットにより多重化されてなるメインデータのストリームと、
前記メインデータを構成するオーディオ信号に対する複数のアフレコ用のMPEG方式に基づく圧縮符号化オーディオデータが、前記メインデータと同期再生するためのタイムスタンプ及び個々の前記アフレコ用圧縮符号化オーディオデータを識別するための識別情報を含めてMPEG方式に基づくパケットにより、前記メインデータと多重化されることなくストリーム化されてなるアフレコ用データのストリームと、
を別々のストリームとして伝送路に伝送させることを特徴とする伝送方法、
を提供する。
以上説明したように本発明によれば、複数のアフレコ用の圧縮データは、メインデータと同期再生するためのタイムスタンプ及び個々のデータを識別するための識別情報を付加され、メインデータの多重化データと多重化することなくストリーム化されているので、アフレコデータを元のデータに戻すことが可能となる。また、ユーザが複数のアフレコデータを記録して再生時に選択的にメインデータと置き換えて再生することを可能とする。
以下、図面を参照して本発明の実施の形態について説明する。
<MPEG>
まず、本実施例で使用されているMPEGビデオ(ビデオ符号化方式)及びMPEGシステム(オーディオビデオ多重化方式)について説明する。MPEGは1988年、ISO/IEC JTC1/SC2(国際標準化機構/国際電気標準化会合同技術委員会1/専門部会2,現在のSC29)に設立された動画像符号化標準を検討する組織の名称(Moving Picture Experts Group)の略称である。MPEG1(MPEGフェーズ1)は1.5Mbps程度の蓄積メディアを対象とした標準であり、静止画符号化を目的としたJPEGと、ISDNのテレビ会議やテレビ電話の低転送レート用の動画像圧縮を目的としたH.261(CCIT SGXV:現在のITU−T SG15で標準化)の基本的な技術を受け継ぎ、蓄積メディア用に新しい技術を導入したものである。これらは1993年8月、ISU/IEC 11172として成立している。また、MPEG2(MPEGフェーズ2)は通信や放送などの多様なアプリケーションに対応できるように汎用標準を目的として、1994年11月ISU/IEC 13818 H.262として成立している。
MPEGは幾つかの技術を組み合わせて作成されている。図12はMPEG圧縮装置を示す。まず、入力画像Vinは加算器1により、動き補償予測器11で復号化したリファレンスの画像との差分を取ることで時間冗長部分を削減する。予測の方向は、過去、未来、両方からの3モードが存在する。また、これらは16画素×16画素のMB(マクロブロック)ごとに切り替えて使用できる。予測方向は入力画像に与えられたピクチャタイプによって決定される。過去からの予測と、予測をしないでそのMBを独立で符号化する2モードが存在するのがPピクチャである。また未来からの予測、過去からの予測、両方からの予測、独立で符号化する4モードが存在するのがBピクチャである。そして、全てのMBが独立で符号化するのがIピクチャである。
動き補償では、動き領域をMBごとにパターンマッチングを行ってハーフぺル精度で動きベクトルを検出し、動き分だけシフトしてから予測する。動きベクトルは水平方向と垂直方向が存在し、何れからの予測かを示すMC(Motion Compensation)モードと共にMBの付加情報として伝送される。Iピクチャから次のIピクチャの前のピクチャまでをGOP(Group Of Pictures)といい、蓄積メディアなどで使用される場合には、一般に約15ピクチャ程度が使用される。
差分画像はDCT(Discrete Cosine Transform)器2において直交変換が行われる。DCTとは、余弦関数を積分核とした積分変換を有限空間への離散変換する直交変換である。MPEGでは、MBを4分割して8×8のDCTブロックに対して、2次元DCTを行う。一般に、ビデオ信号は低域成分が多く高域成分が少ないため、DCTを行うと係数が低域に集中する。
DCTされた画像データ(DCT係数)は量子化器3で量子化が行われる。量子化は量子化マトリックスという8×8の2次元周波数を視覚特性で重み付けした値と、その全体をスカラー倍する量子化スケールという値で乗算した値を量子化値として、DCT係数をその量子化値で除算する。デコーダで逆量子化するときは、量子化値で乗算することにより、元のDCT係数に近似している値を得ることになる。
量子化されたデータはVLC器4で可変長符号化される。量子化された値のうち直流(DC)成分は、予測符号化のひとつであるDPCM(Differential Pulse Code Modulation)を使用して符号化する。また、交流(AC)成分は 低域から高域の方向にジグザグ・スキャンを行い、ゼロのラン長及び有効係数値を1つの事象とし、出現確率の高いものから符号長の短い符号を割り当てていくハフマン符号化が行われる。可変長符号化されたデータは一時、バッファ5に蓄えられ、所定の転送レートで符号化データとして出力される。
また、その出力されるデータのマクロブロック毎の発生符号量は、符号量制御器6に送信され、目標符号量に対する発生符号量との誤差符号量を量子化器3にフィードバックして量子化スケールを調整することで符号量が制御される。また、量子化された画像データは逆量子化器7にて逆量子化され、次いで逆DCT器8にて逆DCTされて元のDCT係数が復元される。このDCT係数は加算器9により、動き補償予測器11で復号化したリファレンスの画像と加算され、この加算された画像データが一時、画像メモリ10に蓄えられた後、動き補償予測器11において、差分画像を計算するためのリファレンスの復号化画像として使用される。
図13はMPEG復号装置を示す。符号化されたストリームはバッファリングされ、バッファ12からのデータはVLD(可変長復号)器13に入力される。VLD器13では可変長復号化され、直流(DC)成分及び交流(AC)成分を得る。交流(AC)成分データは低域から高域の方向にジグザグ・スキャンされて8×8のマトリックスに配置する。このデータは逆量子化器14に入力され、量子化マトリクスにて逆量子化される。逆量子化されたデータは逆DCT器15に入力されて逆DCTされ、このDCT係数は加算器16により、動き補償予測器18で復号化したリファレンスの画像と加算され、この加算された画像データが復号化データとして出力される。また、復号化データは一時、画像メモリ17に蓄えられた後、動き補償予測器18において差分画像を計算するためのリファレンスの復号化画像として使用される。
MPEGシステムはMPEGビデオ及びオーディオなどで符号化されたビットストリームを1個のビットストリームに多重化し、同期を確保しながら再生する方式を規定したものである。システムで規定されている内容は大きく分けて次の5点である。
1)複数の符号化されたビットストリームの同期再生
2)複数の符号化されたビットストリームの単一ビットストリームへの多重化
3)再生開始時のバッファの初期化
4)連続的なバッファの管理
5)復号や再生などの時刻の確定
MPEGシステムで多重化を行うには情報をパケット化する必要がある。パケットによる多重化とは、例えばビデオ、オーディオを多重化する場合、各々をパケットと呼ばれる適当な長さのストリームに分割し、ヘッダなどの付加情報を付けて、適宜、ビデオ、オーディオのパケットを切り替えて時分割伝送する方式である。ヘッダにはビデオ、オーディオなどを識別する情報や、同期のための時間情報が存在する。パケット長は伝送媒体やアプリケーションに依存し、ATMのように53バイトから、光ディスクのように4Kバイトと長いものまで存在している。MPEGでは、パケット長は可変で任意に指定できるようになっている。
データはパック、パケット化され、1パックは数パケットで構成されている。各パックの先頭部分には、pack-start-codeやSCR(System Clock Reference)が記述されており、パケットの先頭部分にはStream IDやタイムスタンプが記述されている。タイムスタンプにはオーディオ、ビデオなどの同期をとる時間情報が記述されており、DTS(Decoding Time Stamp)とPTS(Presentation Time Stamp)の2種類が存在する。PCR(Program Clock Reference)は27MHzの時間精度で記述されており、デコーダの基準時計をロックする情報である。DTSはそのパケットデータ内の最初のアクセスユニット(ビデオなら1ピクチャ、オーディオなら例えば1152サンプル)のデコード開始時刻を示し、PTSは表示(再生)開始時刻を示している。
図14に示すように、オーディオ、ビデオ、その他のデコーダは、PCRでロックした共通の基準時計を常に監視し、DTSやPTSの時間と一致したときに、デコードや表示を行う仕組みになっている。多重化されたデータが各デコーダでバッファリングされ、同期した表示を行うための仮想的なデコーダをSTD(System Target Decoder)と呼び、このSTDがオーバーフローやアンダーフローを起こさないように多重化されていなければならない。
また、MPEGシステムには、大きく分けてTS(Transport Stream)とPS(Program Stream)が存在する。これらはPES(Packetized Elementary Stream)、及びその他の必要な情報を含むパケットから構成されている。PESは両ストリーム間の変換を可能とするための中間ストリームとして規定されていて、MPEGで符号化されたビデオ、オーディオデータの他、プライベートストリームなどをパケット化したものである。
PSは共通の基準時間を有するプログラムのビデオ、オーディオを多重化することが可能である。パケットレイヤはPESと呼ばれ、この構造は図15に示すように、後述するTSと共用して用いられ、これらの相互互換性を可能とする。PSのSTDモデルでは、ストリームはPESパケット内のStream IDによってスイッチされる。
TSもPSと同じように共通の基準時間を有するプログラムのビデオ、オーディオの多重化をすることが可能であるが、TSはさらに異なる基準時間を有する通信や放送などのマルチプログラムの多重化を可能としている。TSはATMセル長や誤り訂正符号化する場合を考慮し、188バイトの固定長パケットで構成されており、エラーが存在する系でも使用できるように考慮されている。TSパケット自体の構造はそれほど複雑ではないがマルチプログラムのストリームであるため、その運用は複雑である。PSと比べて特徴的なことは、TSパケットが上位構造であるにも関わらず、PESパケットより(通常は)短く、PESパケットを分割してTSパケットに乗せて伝送する点である。
TSのSTDモデルでは、ストリームはTSパケット内のPID(パケットID)によってスイッチされる。TSパケットの構造を図15に示す。始めのヘッダには8ビットのSYNCバイトがあり、その後にエラー指示、ユニット先頭指示、破棄する場合の優先指示のビットが1ビットずつ記述される。その後にPIDと言って、このパケットのペイロードの種類を示すIDが記述される。その後にスクランブル情報(2ビット)、ペイロードにアダプテーションフィールドを伝送するかどうかを示す情報(2ビット)、パケットの連続性を示す情報(4ビット)がそれぞれ記述され、最後に要素符号化データもしくはアダプテーション情報の後に要素データを記述する。また無効データを伝送することもできるようになっている。
MPEGシステムのTSには、その多重化されている番組の情報に関するパケットがどのPIDであるのかを指示する仕組みがある。それを図16を参照して説明する。まずTSパケット群の中からPID=0のものを探す。それはPAT(Program Association Table)と呼ばれる情報パケットであり、そのパケットの中にはプログラムナンバーPRに対応する情報PlDがリンクされた形で記述されている。次に目的のPRに対応するPIDのパケットを読みに行くと、PMT(Program Map Table)と呼ばれる情報パケットがあり、そのパケットの中にはそのプログラムナンバーPRに対応する番組のビデオパケットのPIDと、オーディオパケットのPIDの情報が記述されている。PATとPMTのことをPSI(Program Specific Infomation)と呼び、目的の番組のチャンネルにアクセス(エントリ)することが可能な情報体系になっている。
<アフレコ装置>
次に本発明の好適な実施の形態について説明する。まず、図1を用いて本発明の伝送方法の一実施例を適用したアフレコ装置について説明する。ユーザインターフェース(User I/F)109はメインデータを記録するのか、アフレコ・オーディオデータを記録するのかが選択可能であり、その指示信号がCPU110から信号切り替え器105に伝送される。まず、メインのデータを生成して記録メディア108に記録する場合について説明する。ビデオデータとオーディオデータはそれぞれ、ビデオ符号化器101a、オーディオ符号化器101bに入力され、既に説明したMPEG符号化が行われる。符号化されたデータはそれぞれ、MPEGのシステム多重化を行うために、各要素ごとにそれぞれPESパケット化器102a、102bに伝送される。PESパケット化器で102a、102bはそれぞれ、ビデオ、オーディオの各要素データをパケット化する。
各PESパケットにはそれぞれ、タイムスタンプ記録器103a、103bにおいて前述したPCRや、PTS、DTSなどのタイムスタンプデータが記録される。タイムスタンプは27MHzのクロック情報を用いて作成する。次いで各PESパケットの要素データは多重化器104においてPS多重もしくは図5に示すようにTS多重などのフォーマットで多重化される。多重化されたデータは、信号切り替え器105に入力される。
ここではメインデータを記録するために、信号切り替え器105では多重化器104からのデータが選択されて、いったんバッファ106aに記録される。バッファされたデータは記録制御器107によって記録メディア108に記録される。メインデータは後述する情報フォーマットに従って、図2に示すPR0.dat というファイル名で記録される。
次に、アフレコ・オーディオデータを生成して記録メディア108に記録する場合について説明する。この場合には、ユーザインターフェース109においてアフレコ・オーディオデータの記録が選択されており、CPU110からその指示信号が信号切り替え器105に、また、アフレコデータ識別情報がPESパケット化器102bに伝送される。アフレコ・オーディオデータはオーディオ符号化器101bに入力され、同様にMPEG符号化が行われる。符号化されたアフレコ・オーディオデータは、MPEGのシステムのタイムスタンプ付加を行うために、PESパケット化器102bに伝送される。
PESパケット化器102bでは、アフレコ・オーディオの要素データに識別情報を付加してパケット化する。アフレコ・オーディオのPESパケットにはタイムスタンプ記録器103bにおいて前述したPCRや、PTS、DTSなどのタイムスタンプデータが記録される。タイムスタンプは27MHzのクロック情報を用いて作成する。次いで識別情報及びタイムスタンプが記録されたアフレコ・オーディオのPESパケットは多重化器104を経由することなく信号切り替え器105に伝送される。信号切り替え器105では、アフレコオーディオデータが記録されるので、タイムスタンプ記録器103bからのデータが選択されてバッファ106bに記録される。バッファされたデータは記録制御器107によって記録メディア108に記録される。
<フォーマット及び記録媒体>
アフレコ・オーディオデータは後述する情報フォーマットに従ってプレイリストという情報として記録される。ファイル名は第1番目のアフレコデータであれば、図2に示したPLOのフォルダ内のAF-1.datというファイル名として記録される。第M番目のアフレコオーディオデータであれば、AF-m.datというファイル名となる。図8に示したように、アフレコ用のデータとして記述できるAF_numberは8ビットあるので(0は使用しない)、254個までの独立したアフレコ・オーディオデータを記録することができる。
次に、記録メディア108に記録する情報のフォーマットについて図2〜図9を用いて説明する。記録する情報はオーディオやビデオのサイド情報データである。情報データは図2のように、ROOTの下にLIBという名前のフォルダを作成し、その下に複数のプログラムに関するSIDE.ifoというファイルネームでサイド情報を記録する。SIDE.ifoのフォーマットは図3に示すように階層構造をもっている。一番上位にTOTAL_MANAGER_IFOが定義され、そのなかにはGENERAL_IFOとCNTNT_IFOがある。GENERAL_IFOは、この情報群全体に関するパラメータが記述される。GENERAL_IFOの詳細は図6に示すようなSYNTAX構造になっている。
次のCNTNT_IFOの中身は、複数のプログラムごとの情報としてPR_IFO_0からPL_IFO_nまでが記述されている。詳細は図7に示すようになっている。また、アフレコ編集した場合にはPLAYL_IFOというプレイリスト情報を記述する。これは基となる図2に示すPRというフォルダの中のオーディオビデオの多重化ストリームPRn.datとアフレコした場合の図2に示すPLnの中のアフレコオーディオデータAF-1.dat〜AF-m.datのストリームファイルをリンクさせるためのリスト情報である。
ユーザは基となる図2に示すPRというフォルダの中のオーディオビデオの多重化ストリームPRn.datに対して、1からmまでのm種類のアフレコ・オーディオデータを登録できる。mが0のときにはアフレコオーディオを使わないで、元の音声を使用する。1からmまでの番号を指示したときには、アフレコ・オーディオ音声を用いて、再生もしくは伝送を行う。PLAYL_IFOの構造の詳細は図8に示すようになっている。またこの下の階層に、プログラムの一部をインデックスとして登録できる構造INDEX_IFOがある。この構造のフォーマットは図4に示すようになっている。INDEX_のシンタックスは図9に示すようになっている。
<再生装置>
次に、図10を用いて本発明の伝送方法により伝送されたアフレコ用データの好適な再生装置の一例について説明する。ここで、CPU121はユーザインターフェース(User I/F)120から、通常のメインデータを再生するか又はアフレコ・オーディオデータを再生するかの指示が入力され、また識別情報が入力されると、入力に応じた指示信号を信号切り替え器114に出力し、また、その識別情報を識別情報検出器123に出力する。まず、通常のメインデータを再生する場合について説明する。記録メディア108に記録されたメインデータの多重化ストリームデータは、読み取り制御器111によって読み取られてバッファ112aに記録される。バッファ112aに入力されたデータは分離器113によって、多重化されていたデータを要素ごとに分離して、ビデオ信号はタイムスタンプ検出器115aへ、オーディオ信号は信号切り替え器114に伝送する。
信号切り替え器114ではメインデータを再生するので、分離器113からのオーディオ信号が選択され、タイムスタンプ検出器115bへ伝送される。タイムスタンプ検出器115a、115bではそれぞれ、前述したPCRや、PTS、DTSなどのタイムスタンプデータを検出し、検出したタイムスタンプ関連の情報はタイムスタンプ比較器124に伝送される。
次にビデオ、オーディオの各PESパケットは、それぞれPESパケット解除器116a、116bによってパケットが解除され、それぞれビデオデータはビデオ復号化器117aへ、オーディオデータはオーディオ復号化器117bへ伝送される。ビデオ復号化器117aでは復号されたビデオデータをメモリ118aに一時記憶し、オーディオ復号器117bではオーディオデータをメモリ118bに一時記憶する。
このとき、タイムスタンプ比較器124では、検出したPCR情報からシステムのクロックを同期させて、マスターとなるクロック情報を生成する一方、DTSの復号タイミング情報をシステムクロックと比較し、一致したときにビデオ復号器117aへ復号開始信号を伝送することにより、タイムスタンプデータが記述されていたパケットに対応するビデオをそのタイミングで復号する。またPTSについては、オーディオとビデオ共に表示タイミング情報をシステムクロックと比較し、一致したときにビデオデータは表示モニタ119aへ、オーディオデータはスピーカ119bへそのタイミングで出力する。タイムスタンプ比較器124においては、基準クロックをPCR信号にてPLLをロックするが、基準信号は27MHzのクロックを用いて行う。
次にアフレコ・オーディオ信号を再生する場合について説明する。アフレコ・オーディオ信号は、メインデータのビデオ信号を再生しつつ、メインデータのオーディオ信号の部分をアフレコ・オーディオ信号と取り替えて再生する。まず、ユーザインターフェース120からはアフレコ・オーディオの何番をメインデータの何番に取り替えて再生するかが入力される。図8に示す情報フォーマットのPLAYL_INFO()内のPR_numberがメインデータの番号、AF_numberがアフレコ・オーディオデータの番号に相当する。識別情報検出器123は、CPU121からの指示信号により、情報フォーマットの図8に示すデータ構造から、前記PR_numberとAF_numberを読み取り、読み取り制御器111に対して相当するファイル名のデータを読み取る指示信号を出す。CPU121はまた、信号切り替え器114に対してアフレコ選択信号を出す。
これにより、記録メディア108に記録されているビデオとオーディオが多重化されたメインデータファイルと、アフレコ・オーディオデータファイルの2つのファイルを読み取り制御器111にてバースト的に読み取りを行い、それぞれの要素データをバッファ112a,バッファ112bに一時蓄える。バッファ112bに蓄えられたアフレコ・オーディオデータは信号切り替え器114に伝送される。一方、バッファ112aに入力されたデータは分離器113によって多重化されていたデータを要素ごとに分離して、ビデオ信号はタイムスタンプ検出器115aへ、オーディオ信号は信号切り替え器114に伝送する。信号切り替え器114ではアフレコデータを再生するので、バッファ112bからの信号が選択されてタイムスタンプ検出器115bへ伝送される。タイムスタンプ検出器115a、115b以下の動作は、メインデータ再生の場合と同じであるので説明を省略する。
<伝送装置>
次に、図11を用いてメインデータとアフレコオーディオデータとを伝送する他の伝送装置について説明する。まず、普通のメインデータを伝送する場合について説明する。記録メディア108に記録されたメインデータの多重化ストリームデータは、読み取り制御器111によってバッファ112aに記録される。バッファ112aに入力されたデータは、要素切り替え器125に伝送される。このとき、ユーザインターフェース120からメインデータを伝送することが入力され、CPU121から要素切り替え器125メインデータを伝送することを示す指示信号が伝送されている場合、要素切り替え器125では、バッファ112aからの信号をそのままバッファ126を介して伝送路に伝送する。
次に、アフレコ・オーディオ信号を伝送する場合について説明する。アフレコ・オーデイオ信号は、メインデータのビデオ信号を基に、メインデータのオーディオ信号の部分をアフレコ・オーディオ信号と取り替えて伝送する。まず、ユーザインターフェース120からはアフレコ・オーディオの何番をメインデータの何番に取り替えて、伝送するかが入力される。図8に示す情報フォーマットのPLAYL_INFO()内のPR_numberがメインデータの番号、AF_numberがアフレコオーディオデータの番号に相当する。識別情報検出器123はCPU121からの指示信号により、情報フォーマットの図8に示すデータ構造から、前記PR_numberとAF_number を読み取り、読み取り制御器11に対して相当するファイル名のデータを読み取る指示信号を出す。
これにより、記録メディア108に記録されているビデオとオーディオが多重化されたメインデータファイルと、アフレコ・オーディオデータファイルの2つのファイルを読み取り制御器111にてバースト的に読み取りを行い、それぞれの要素データをバッファ112a、バッファ112bに一時蓄える。バッファ112bに蓄えられたアフレコ・オーディオデータは信号切り替え器114へ伝送され、一方、バッファ112aに入力されたデータは要素切り替え器125に伝送される。
このとき、ユーザインターフェース120からアフレコ・オーディオデータを伝送することが入力されて、CPUから信号切り替え器114、要素切り替え器125にアフレコオーディオデータを伝送することを示す指示信号が伝送されており、要素切り替え器125ではアフレコオーディオデータを伝送するので、メインデータの多重化データのオーディオ部分を信号切り替え器114から入力されたアフレコ・オーディオデータのオーディオ部分と入れ替えてバッファ126を介して伝送路に伝送する。PCRやDTS、PTSなどのタイムスタンプはまったく変更しなくてよい。ただし、MPEG多重化規格で採用されているCRCコードはアフレコオーディオデータを入れ替えたパケット部分に応じて、再計算されて新しい値に変更する。
なお、本実施例はメインデータを作成するときに、アフレコデータの種類のデータをあらかじめ要素データの中に作成すること、及びアフレコデータの転送レートはメインデータに含まれるアフレコデータの種類と同じ要素データと同じであることを想定してるが、メインデータを作成するときに、あらかじめダミーデータで、予想するアフレコデータと同じ転送レートの要素データを多重化しておいてもよい。
また、あらかじめダミーデータで、予想するアフレコデータと同じ転送レートの要素データを多重化しておくか、ダミーでない要素データをメインデータ作成時に記録しておくときには、図11における要素切り替え器125においては、PCRやDTS、PTSなどのタイムスタンプはまったく変更しなくてよいが、ダミーデータを記録しておかない場合や、アフレコデータの転送レートが違う場合には、要素切り替え器125が実質的に再多重化をして、新たなPCRやDTS、PTSなどのタイムスタンプを付け直すことが必要である。しかしながらその場合でも、本発明の効果は、十分に発揮される。
以上のように、少なくともオーディオとビデオ信号を圧縮符号化し、それぞれの符号化データの所定の単位に同期再生用のタイムスタンプを記録して、それぞれを多重化して記録するメインデータと、多重化された要素データの少なくとも1つの種類について、1つもしくは複数のアフレコ用の圧縮データを多重化しないで記録するので、簡単にアフレコデータを記録するフォーマットが実現でき、アフレコデータも多くの種類を記録することができる。
また、少なくともオーディオとビデオ信号が圧縮符号化され、それぞれの符号化データの所定の単位に同期再生用のタイムスタンプが記録されているデータが、多重化されて記録されているメインデータと、多重化された要素データの少なくとも1つもしくは複数種類について、アフレコ用の圧縮データが多重化されない状態で記録されているアフレコデータを、時分割的に読み出し、再生するので、記録した複数のアフレコデータを簡単に識別することができ、しかも、再多重化することなく、アフレコデータを再生できる。
また、少なくともオーディオとビデオ信号が圧縮符号化され、それぞれの符号化データの所定の単位に同期再生用のタイムスタンプが記録されているデータが、多重化されて記録されているメインデータと、多重化された要素データの少なくとも1つもしくは複数種類について、アフレコ用の圧縮データが多重化されないで記録されているアフレコデータを時分割的に読み出し、多重化されて記録されているメインデータの要素データのデータと、アフレコ用のデータを入れ替えて伝送するので、伝送されるデータにおいては完全にMPEG多重化規格に準拠したデータを伝送可能となり、外部の伝送先に存在するMPEG対応の再生器で、本発明のアフレコデータを反映した伝送データを再生することができる。
また、すべてにおいて、この構成によって、アフレコを選択して記録、再生伝送した後でも、再度元に戻すことができ、かつ複数のアフレコ音声を記録した後に、ユーザが選択的にアフレコデータを楽しむシステムを提供できる。
さらにまた、上記したアフレコ装置の機能をプログラムによりコンピュータに実現させてもよいし、上記した再生装置の機能をプログラムによりコンピュータに実現させてもよい。これらのプログラムは、記録媒体から読み取られてコンピュータに取り込まれてもよいし、通信ネットワークを介して伝送されてコンピュータに取り込まれてもよい。
本発明に係る伝送方法の一実施例を適用したアフレコ装置を示すブロック図である。 ライブラリ情報のファイル構成のフォーマット例を示す説明図である。 ライブラリ情報におけるPROGRAMのフォーマット例を示す説明図である。 ライブラリ情報におけるINDEXのフォーマット例を示す説明図である。 ハードディスク上のTSストリームのフォーマットを示す説明図である。 本発明の一実施例に用いられるサイド情報のGENERAL_IFOテーブルを示す説明図である。 本発明の一実施例に用いられるサイド情報のPROGRAM_IFOテーブルを示す説明図である。 本発明の一実施例に用いられるサイド情報のPLAYL_IFOテーブルを示す説明図である。 本発明の一実施例に用いられるサイド情報のINDEX_IFOテーブルを示す説明図である。 本発明の一実施例により伝送されたアフレコ用データの好適な再生装置の一例を示すブロック図である。 メインデータとアフレコオーディオデータとを伝送する他の伝送装置の一例を示すブロック図である。 MPEG符号化器を示すブロック図である。 MPEG復号化器を示すブロック図である。 MPEG多重化システムを示すブロック図である。 MPEGのTSとPS及びPESの関連を示す説明図である。 MPEGのTSのPSIの使用例を示す説明図である。
符号の説明
101a ビデオ符号化器
101b オーディオ符号化器
102a,102b PESパケット化器
103a,103b タイムスタンプ記録器
104 多重化器
105,114 信号切り替え器
108 記録メディア
109,120 ユーザインターフェース
123 識別情報検出器
124 タイムスタンプ比較器

Claims (1)

  1. メインデータを構成するオーディオ信号とビデオ信号との2つの信号のMPEG方式に基づく圧縮符号化データが、前記オーディオ信号と前記ビデオ信号との同期再生用のタイムスタンプを含めてMPEG方式に基づくパケットにより多重化されてなるメインデータのストリームと、
    前記メインデータを構成するオーディオ信号に対する複数のアフレコ用のMPEG方式に基づく圧縮符号化オーディオデータが、前記メインデータと同期再生するためのタイムスタンプ及び個々の前記アフレコ用圧縮符号化オーディオデータを識別するための識別情報を含めてMPEG方式に基づくパケットにより、前記メインデータと多重化されることなくストリーム化されてなるアフレコ用データのストリームと、
    を別々のストリームとして伝送路に伝送させることを特徴とする伝送方法。
JP2005074642A 2005-03-16 2005-03-16 伝送方法 Pending JP2005198348A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005074642A JP2005198348A (ja) 2005-03-16 2005-03-16 伝送方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005074642A JP2005198348A (ja) 2005-03-16 2005-03-16 伝送方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2001367614A Division JP2003169292A (ja) 2001-11-30 2001-11-30 アフレコ装置、コンピュータプログラム、記録媒体、伝送方法及び再生装置

Publications (1)

Publication Number Publication Date
JP2005198348A true JP2005198348A (ja) 2005-07-21

Family

ID=34824865

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005074642A Pending JP2005198348A (ja) 2005-03-16 2005-03-16 伝送方法

Country Status (1)

Country Link
JP (1) JP2005198348A (ja)

Similar Documents

Publication Publication Date Title
US8238383B2 (en) Method and apparatus for generating information signal to be recorded
US8244108B2 (en) After-recording apparatus
JP4092681B2 (ja) Mpeg記録装置、再生装置及び伝送装置
JP2005198350A (ja) アフレコ信号再生方法
JP2005198349A (ja) 記録媒体
JP2005198348A (ja) 伝送方法
JP2005198347A (ja) アフレコ信号生成方法
JP2005198351A (ja) アフレコ信号再生装置
JP2005260978A (ja) アフレコ信号生成用プログラム
JP2005260979A (ja) アフレコ信号伝送方法
JP2005237021A (ja) アフレコ信号再生用プログラム
JP2005253093A (ja) アフレコ信号伝送装置
JP2005245006A (ja) アフレコ信号再生装置
JP2006054529A (ja) Mpeg画像データ記録装置及びmpeg画像データ記録方法

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070313

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070703