JP2004007648A - 映像音声データ記録装置、映像音声データ記録方法、映像音声データ再生装置、並びに、映像音声データ再生方法 - Google Patents

映像音声データ記録装置、映像音声データ記録方法、映像音声データ再生装置、並びに、映像音声データ再生方法 Download PDF

Info

Publication number
JP2004007648A
JP2004007648A JP2003128412A JP2003128412A JP2004007648A JP 2004007648 A JP2004007648 A JP 2004007648A JP 2003128412 A JP2003128412 A JP 2003128412A JP 2003128412 A JP2003128412 A JP 2003128412A JP 2004007648 A JP2004007648 A JP 2004007648A
Authority
JP
Japan
Prior art keywords
video
audio data
audio
data
packed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2003128412A
Other languages
English (en)
Inventor
Daizo Nagahara
長原 大三
Thomas Luther
トーマス ルーサ
Hiroaki Eto
江藤 博昭
Kanchan Ranade
カンチャン ラナデ
David Wang
デビッド ワン
Tetsuya Yamamoto
山本 哲也
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Electronics Inc
Original Assignee
Sony Corp
Sony Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Electronics Inc filed Critical Sony Corp
Publication of JP2004007648A publication Critical patent/JP2004007648A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/30Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording
    • G11B27/3027Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording used signal is digitally coded
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/32Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier
    • G11B27/327Table of contents
    • G11B27/329Table of contents on a disc [VTOC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/7921Processing of colour television signals in connection with recording for more than one processing mode
    • H04N9/7925Processing of colour television signals in connection with recording for more than one processing mode for more than one standard
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/806Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal
    • H04N9/8063Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal using time division multiplex of the PCM audio and PCM video signals
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/84Television signal recording using optical recording
    • H04N5/85Television signal recording using optical recording on discs or drums

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)

Abstract

【課題】様々な映像フォーマット、様々な音声フォーマット、様々な多重化フォーマットのデータを一元的に管理する。
【解決手段】多重化されたデータの映像データと音声データを分離し、分離した映像データから抽象化映像データを生成し、分離した音声データから抽象化音声データを生成する。そして、抽象化映像データと抽象化音声データをパック化し、パック化映像音声データD2と映像音声データ同期情報D3から、パック化映像音声データ管理テーブルを生成する。このパック化映像音声データ管理テーブルは、パック化映像音声データを包括的に管理する。
【選択図】 図1

Description

【0001】
【発明の属する技術分野】
本発明は、ディジタル映像音声データを記録再生する装置および方法にあって、特に映像データフォーマット、音声データフォーマット、およびそれら多重化するフォーマットを限定しないマルチフォーマットに対応できる仕組みを持った映像音声データ記録装置、映像音声データ記録方法、映像音声データ再生装置、並びに、映像音声データ再生方法に関する。
【0002】
【従来の技術】
ディジタル形式での伝送あるいはパッケージとして配布される映像音声コンテンツが増えるにつれ、それらディジタル映像音声コンテンツを記録再生するAV機器が広まりつつある。記録媒体としては磁気ディスク、光ディスク、あるいは磁気テープなどがある。特にランダムアクセス性を持つ記録媒体に対しては、単に映像音声コンテンツをそのまま記録再生するだけでなく、そのランダムアクセス性を活用した特殊再生が実装される場合が多い。DVDプレーヤ、DVDレコーダ、ハードディスクレコーダはそのシステムの代表例である。
【0003】
ランダムアクセス性を利用した特殊再生を実現するにあたり、単なる映像音声コンテンツをパーソナルコンピュータで扱われるファイルのように記録するだけでなく、そのディジタル映像音声データを解析し、特殊再生の実現に必要とされる単位でそれを管理する仕組みが必要である。実際、上記システムは、そのような仕組みを有している。
【0004】
【発明が解決しようとする課題】
しかしながら、記録される映像音声コンテンツそのもののフォーマットや圧縮方法は通常限定されており、その限定された枠組みの中で、上述の特殊再生などの実現に必要となる仕組みを構築している。その結果、映像音声コンテンツの限定、映像音声コンテンツの記録/再生処理方法の限定、および記録媒体の限定が必要となり、これらをまとめて1つのシステムを構築しなくてはならない。
【0005】
これらシステムの中には、複数の映像フォーマットや複数の音声フォーマットの入力を受け付けるものもあるが、そのシステムが対応できる専用のフォーマットに再エンコードして記録するか、複数フォーマットに対応していたとしても、限定された特定の複数フォーマットのみにしか対応できない構造となっている。再エンコードする場合、画質音質の劣化につながり、入力された映像音声コンテンツをその品質を保ったまま記録することはできない。
【0006】
このように従来のシステムでは、特定の映像フォーマット、特定の音声フォーマット、特定の映像音声多重化フォーマットに対応しているのみであって、これら以外のフォーマットに柔軟に対応できるのみでは、それらフォーマットに応じたAV機器を個別に用意しなければならず非常に不便であった。
【0007】
また、複数フォーマットに対応させる方法をとっても、再エンコード方式を採用した場合、元の画像品質を劣化させるという問題を生じることになる。
【0008】
そこで本発明は、このような従来の実情に鑑みてなされたものであり、複数の映像フォーマット、複数の音声フォーマット、複数の多重化フォーマットに柔軟に対応でき、映像品質・音声品質を劣化させることのないマルチフォーマット記録再生に対応する映像音声データ記録装置及び映像音声データ記録方法、並びに映像音声データ再生装置及び映像音声データ再生方法を提供することを目的とする。
【0009】
【課題を解決するための手段】
上述した目的を達成するために、本発明にかかる映像音声データ記録装置は、映像音声ソースの記録を開始する記録開始手段と、記録される映像音声ソースの属性を指定する属性指定手段と、入力されたディジタル映像音声ソースの多重化フォーマットに従う多重化データを解析し、それに含まれる映像データ、音声データ及び映像音声データ同期信号を分離する同期信号分離手段と、映像データからその映像フォーマットを抽象化したデータを生成する映像抽象化データ生成手段と、音声データからその音声フォーマットを抽象化したデータを生成する音声抽象化データ生成手段と、抽象化された映像及び音声データを記録データとしてパック化するパック化手段と、パック化映像音声データと映像音声データ同期情報から、これらを包括的に管理するパック化映像音声データ管理テーブルを生成するパック化映像音声データ管理テーブル生成手段と、記録媒体に記録されている各映像音声ソースを識別するための記録媒体管理テーブルを生成する記録媒体管理テーブル生成手段と、パック化映像音声データ及び管理テーブル群を記録するテーブル記録手段とを具備することを特徴とする。
【0010】
上述した目的を達成するために、本発明にかかる映像データ記録方法は、映像音声ソースの記録を開始する記録ステップと、記録される映像音声ソースの属性を指定するステップと、入力されたディジタル映像音声ソースの多重化フォーマットに従う多重化データを解析し、それに含まれる映像データ、音声データ及び映像音声データ同期情報を分離するステップと、映像データからその映像フォーマットを抽象化したデータを生成するステップと、音声データからその音声フォーマットを抽象化したデータを生成するステップと、パック化映像音声データと映像音声データ同期情報から、これらを包括的に管理するパック化映像音声データ管理テーブルを生成するステップと、記録媒体に記録されている各映像音声ソースを識別するための記録媒体管理テーブルを生成するステップと、パック化映像音声データ及び管理テーブル群を記録する手段を具備することを特徴とする。
【0011】
上述した目的を達成するために、本発明を適用した映像音声データ再生装置は、選択された映像音声コンテンツを入力する選択手段と、選択された映像音声コンテンツの再生方法を指定する再生方法指定手段と、選択された映像音声コンテンツの多重化方法を指定する多重化方法指定手段と、映像音声データを提示する時刻と、そのパック化映像音声データを格納した記録媒体上での位置及びそのサイズを格納してパック化映像音声データ管理テーブルの記録位置を格納した記録媒体管理テーブルを読み出す記録媒体管理テーブル取得手段と、記録媒体管理テーブルに格納されたパック化映像音声データ管理テーブルの記録位置情報に従い、映像音声コンテンツに対するパック化映像音声データ管理テーブルを読み出すパック化映像音声データ管理テーブル取得手段と、パック化映像音声データ管理テーブルから映像音声コンテンツ再生方法に従ってパック化映像音声データを順次読み出すパック化データ取得手段と、読み出されたパック化映像音声データをパック化映像音声データ管理テーブルに記述された映像音声データ属性情報を用いてアンパックするアンパック手段と、指定された映像音声コンテンツ再生方法および多重化フォーマットに従う映像音声多重化データを生成する多重化データ生成手段を具備することを特徴とする。
【0012】
上述した目的を達成するために、本発明を適用した映像音声データ再生方法は、選択された映像音声コンテンツを入力するステップと、選択された映像音声コンテンツの再生方法を指定するステップと、選択された映像音声コンテンツの多重化方法を指定するステップと、映像音声データを提示する時刻と、そのパック化映像音声データを格納した記録媒体上での位置及びそのサイズを格納してパック化映像音声データ管理テーブルの記録位置を格納した記録媒体管理テーブルを読み出すステップと、記録媒体管理テーブルに格納されたパック化映像音声データ管理テーブルの記録位置情報に従い、パック化映像音声データを順次読み出すステップと、読み出されたパック化映像音声データをパック化映像音声データ管理テーブルに記述された映像音声データ属性情報を用いてアンパックするステップと、指定された映像音声コンテンツ再生方法および多重化フォーマットに従う映像音声多重化データを生成するステップを具備することを特徴とする。
【0013】
【発明の実施の形態】
以下、本発明を適用した映像音声データ記録装置及び映像音声データ再生装置について説明する。本発明を適用した映像音声データ記録装置10は、符号化データをCODEC(符号化復号化方法)に依存しない形式に変換し、記録媒体に記録する装置である。本実施の形態では、CODECに依存した処理を排除することを抽象化と表す。映像音声データ記録装置10は、映像データを抽象化して映像抽象化データを生成し、音声データを抽象化して音声抽象化データを生成し、これら生成した抽象化データを所定のデータ単位に纏める。このとき、あるフォーマットのデータを別のデータ単位に纏める処理をパック化と表す。
【0014】
図1は、本発明の具体例として示す映像音声データ記録装置の全体構成を示すブロック図である。本発明の対象となる映像音声データ記録装置は、点線で囲った部分に対応する。
【0015】
映像音声データ記録装置10は、映像音声データ記録装置を構成するブロックを制御するシステム制御ブロック10a、パック化映像音声データを生成する多重化映像音声データ抽象化ブロック10b、パック化映像音声データ管理テーブル及び記録媒体管理テーブルを生成するパック化映像音声データ管理制御ブロック10c、記録領域の確保を行う記録媒体制御ブロック10dとを有している。
【0016】
この映像音声データ記録装置10は、記録する映像音声コンテンツのソース(供給源)となるディジタルチューナ、エンコーダ、あるいはネットワークと、記録媒体の間に位置するインターフェースの役目を果たしており、コンテンツのソースから映像音声コンテンツを入力して、記録媒体13に蓄積する際に、コンテンツ毎のフォーマットによらない抽象化したファイルとして一元管理することができる記録装置である。
【0017】
映像音声データ記録装置10に対する入力には、映像音声データ記録装置10を制御するための外部コマンドC1と記録される映像音声ソースD1からの入力とがある。外部コマンドC1には、記録を起動するためのコマンド、記録される映像音声ソースの属性P1を伝送するためのコマンド等がある。また、映像音声ソースD1は、上述したように、ディジタルチューナ、エンコーダ、あるいはネットワークがこれに相当し、映像音声ソースD1からの入力信号には、例えば、MPEG−2トランスポートストリームやDVストリームがある。映像音声ソースD1としては、多重化された映像音声データだけでなく、映像のみのデータや音声のみのデータであっても構わない。
【0018】
外部コマンドC1は、映像音声データ記録装置のシステム制御ブロック10aに入力される。システム制御ブロック10aとは本記録装置全体10を制御するためのブロックであり、例えば、MPUである。記録開始コマンドの受信と同時に多重化された映像音声ソースD1が映像音声データ記録装置10に入力される。このように、映像音声ソースD1入力側と記録を制御する装置側を完全に分離したのは、映像音声ソースD1を記録する機能を必要とするあらゆるシステムにおいて本映像音声データ記録装置を適用可能とするためである。外部コマンドC1や映像音声ソースの属性P1、また映像音声ソースD1を伝送する物理的形体およびプロトコルは特に規定しない。
【0019】
システム制御ブロック10aは、外部から入力された記録開始コマンドT1を受信すると、入力された映像音声ソースD1の記録を開始するよう多重化映像音声データ抽象化ブロック10b、パック化映像音声データ管理制御ブロック10c、および記録媒体制御ブロック10dに対して記録開始のシグナルを出力する。上記各ブロックは、これを受信すると記録を開始するための準備(初期化)を行う。
【0020】
続いて、入力された映像音声ソースD1が記録される手続きを順に説明する。
【0021】
図2は、多重化映像音声データ抽象化ブロック10bの内部構造を示したより詳細なブロック図である。
【0022】
多重化音声データ抽象化ブロック10bは、映像データと音声データとを分離する多重化データDMUXブロック20と、抽象化映像データを生成する映像データ抽象化ブロック21と、抽象化音声データを生成する音声データ抽象化ブロック22と、パック化映像音声データD2を生成するパック化映像音声データD2生成ブロック23とを備えている。
【0023】
多重化データDMUXブロック20には、多重化フォーマットを識別するための情報と多重化分離するための制御コードが記憶されている。多重化データDMUXブロック20は、この制御コードに従い、入力された映像音声ソースD1の符号化フォーマットの特定と、入力された映像音声ソースD1の映像データおよび音声データの分離とを行う。
【0024】
多重化データDMUXブロック20は、外部コマンドC1により、どのような多重化フォーマットが入力されるかを既に認識している。多重化データDMUXブロック20は、入力された映像音声ソースD1の多重化フォーマットと、外部コマンドC1によって通知された多重化フォーマットと等しいか否かを特定する。
【0025】
多重化データDMUXブロック20は、映像音声ソースD1が多重化フォーマットの固有の値を持つことをチェックし、多重化フォーマットを特定する。多重化データDMUXブロック20の制御コードには、どの値を指標とするかという情報が記憶されている。この情報には、チェックを開始するバイト位置(ストリーム先頭からの相対位置)、チェックに使用するバイト数、フィールド値等がある。また、多重化DMUXブロック20の制御コードには、値検出に失敗した場合の対処をさせるコードが記憶されている。このコードは、多重化DMUXブロック20に対して、検出するまでスキャンして探索する、エラーとして返す等の処理を実行させる。
【0026】
データDMUXブロック20の多重化フォーマット特定方法を具体的に説明する。映像音声ソースD1がMPEG方式で符号化されている場合、映像音声ソースD1を構成するパケットのヘッダには、固有のフィールド値が存在する。例えば、MPEG方式のプログラムストリームのパックヘッダにはpack_start_codeという固有のフィールド値があり、MPEGのトランスポートストリームのパックヘッダにはsync_byteという固有のフィールド値が存在する。多重化データDMUXブロック20は、このフィールド値を参照することにより、映像音声ソースD1がプログラムストリームやトランスポートストリームであることを特定する。プログラムストリームとトランスポートストリームとは、MPEGシステムストリームである。そのため、映像音声ソースD1がプログラムストリームかトランスポートストリームである場合、多重化データDMUXブロック20は、この映像音声ソースD1の多重化フォーマットがMPEGビデオ符号化フォーマットであると特定できる。なお、固有のフィールド値は、上述したもの以外にも存在し、これらのフィールド値を組み合わせて符号化フォーマットをチェックすることにより、フィールド値の偶然の一致によるチェックミスを回避する。
【0027】
多重化データDMUXブロック20は、DV−AVI等のMPEG方式以外の多重化フォーマットも特定する。MPEG方式以外の多重化フォーマットを特定する場合にも、多重化データDMUXブロック20は、映像音声ソースD1の固有のフィールド値や直接的な識別情報を参照して特定する。
【0028】
多重化データDMUXブロック20は、あらゆる多重化フォーマットを特定及びフォーマットを抽象化するために必要なマイクロコードを格納している。外部コマンドC1は、多重化データDMUXブロック20への多重化フォーマットを特定するマイクロコードのロードを行う。多重化データDMUXブロック20は、マイクロコードを差し替えることによって別の多重化フォーマットに対応させることができる。また、同時に複数の多重化フォーマットをサポートする場合であっても、そのような制御を可能とするマイクロコードにすることによって対応することができる。このように、マイクロコードをダウンロードする仕組みを外部コマンドC1に持たせることによって、ハードウェアを修正することなく様々な多重化フォーマットに柔軟に対応させることができる。
【0029】
さらに、多重化データDMUXブロック20は、充分な容量を持つHDD(HardDisk Drive)やフラッシュROM(Read Only Memory)等に、多重化フォーマットの特定ないしそのフォーマットを抽象化するために必要なマイクロコードを格納している。これは、特定すべき多重化フォーマットの増加に対する多重化データDMUXブロック20のリソース(マイクロサイズなど)の不足を回避し、拡張を容易にするためである。
【0030】
多重化フォーマットでは通常、映像データおよび音声データの同期をとるための時刻情報を有するか、あるいは少なくともある約束事のもとに同期がとれる仕組みを有している。例えば、MPEG−2トランスポートストリームの場合、基準時計としてPCR(Program Clock Reference)を含んでおり、この基準時計に基づいて映像データや音声データが再生開始されるべき時刻として(ある単位で)PTS(Presentation Time Stamp)を含んでいる。また、時刻情報を持たない映像のみのデータや音声のみのデータであってもフレーム周期やサンプリング周波数などからどのようなタイミングで映像あるいは音声データを再生すべきか算出することができる。いずれにしても、映像データおよび音声データが再生されるべき時刻を得ることができる。
【0031】
このように多重化データDMUXブロック20では、ある多重化フォーマットに従い多重化された映像と音声を分離すると同時に、その映像と音声が再生されるべき時刻情報を伴って、ある単位毎(時刻が刻印された単位毎)に後段の映像データ抽象化ブロック21および音声データ抽象化ブロック22に伝達する役目を持つ。例えば、MPEG−2システムストリームの場合、予め時刻情報を伴うデータ構造が用意されており、PES(Packtized Elementary Stream)パケットがこれに相当する。このPESパケットと呼ばれる単位で後段に上記データが伝達されることになる。
【0032】
多重化データDMUXブロック20で生成された分離映像データとそれに関わる再生開始時刻情報、多重化フォーマット情報は映像データ抽象化ブロック21へ、多重化データDMUXブロック20で生成された分離音声データとそれに関わる再生開始時刻情報は音声データ抽象化ブロック22へ出力される。なお、これら映像および音声データや再生開始時刻情報以外のデータは、多重化データDMUXブロック20から出力されない。
【0033】
複数の多重化フォーマットをサポートする場合、外部コマンドC1により入力される映像音声ソースD1の多重化フォーマットを予め指定することによりそのフォーマットを識別させることができる。あるいは、多重化データDMUXブロック20に自ら識別させる仕組みを持たせても良い。複数の多重化フォーマットをサポートする場合の例としては、MPEG−2トランスポートストリームとMPEG−2プログラムストリームのサポートをあげることができる。
【0034】
ここで、多重化データDMUXブロック20による多重化フォーマットを特定し分離する処理を図3のフローチャートに従って説明する。
【0035】
このとき、映像音声データ記録装置10には、映像音声ソースD1の映像データ及び音声データと外部コマンドC1が入力される。多重化データDMUXブロック20は、映像音声データ記録装置10に入力された映像音声ソースD1を読み出す。外部コマンドC1は、システム制御ブロック10aに入力される。システム制御ブロック10aは、入力された映像音声ソースD1の多重化フォーマットを多重化データDMUXブロック20に通知する。この例では、映像音声データ記録装置10に入力された映像音声ソースD1の多重化フォーマットは、MPEGトランスポートストリームである(ステップS11)。
【0036】
多重化データDMUXブロック20は、MPEGトランスストリームを特定するためのマイクロコードを読み出す。多重化データDMUXブロック20は、読み出したマイクロコードに従い、まず、映像音声ソースD1の先頭1バイトが0×47か否かをチェックする(ステップS12)。そして、先頭1バイトが0×47である場合(ステップS12;YES)、多重化データDMUXブロック20は、映像音声ソースD1がMPEGトランスポートストリームであると特定し、映像と音声の多重化分離処理を開始し、ステップS14に処理を移行する。
【0037】
また、映像音声ソースD1の先頭1バイトが0×47でない場合(ステップS12;NO)、多重化データDMUXブロック20は、不正フォーマットが検出されたことを特定する(ステップ13)。
【0038】
多重化データDMUXブロック20は、映像音声ソースD1がMPEGトランスストリームであると特定すると、PESパケットを抽出する(ステップS14)。そして、PESヘッダのフィールド値stream_idをチェックする(ステップS15)。stream_idは、トランスポートストリームが映像ストリームであるか音声ストリームであるかを示すフィールド値である。多重化データDMUXブロック20は、stream_idの値が映像ストリームであれば(ステップS16;YES)、映像PESパケットを映像データ抽象化ブロック21へ転送し(ステップS17)、次に入力された映像音声ソースD1を読み出す(ステップS21)。一方、多重化データDMUXブロック20は、stream_idの値が映像ストリームでない場合は(ステップS16;NO)、stream_idの値が音声ストリームであるか否かをチェックし(ステップS18)、音声ストリームである場合には(ステップS18;YES)、音声PESパケットを音声データ抽象化ブロック22へ転送し(ステップS19)、次に入力された映像音声ソースD1を読み出す(ステップS21)。
【0039】
一方、多重化DMUXブロック20は、stream_idが音声ストリームでない場合には(ステップS19;NO)、このストリームを破棄し(ステップS20)、次に入力された映像音声ソースD1を読み出す(ステップS21)。
【0040】
以上のように、多重化DMUXブロック20は、外部コマンドC1の制御のもとに、多重化フォーマットを特定し、多重化フォーマットが特定されると、この多重化フォーマットに対応した手順で、映像データと音声データの分離を行う。
【0041】
続いて、図2における映像データ抽象化ブロック21および音声データ抽象化ブロック22について具体的に説明する。
【0042】
映像データ抽象化ブロック21は、映像符号化フォーマットを識別するための情報と、映像復号単位に分離するための制御コードとを記憶している。映像データ抽象化ブロック21は、この情報に従い映像符号化フォーマットを識別し、識別した映像符号化フォーマットの復号単位に映像データを分離する。
【0043】
映像データ抽象化ブロック21は、ある単位で多重化分離された映像データと、その映像データの再生に関わる時刻情報を、前段の多重化データDMUXブロック20から受け取る。映像データ抽象化ブロック21が受信するデータおよび情報は、すでに多重化フォーマットを解いた形式に還元されているため、多重化フォーマットに依存しない方法で処理される。
【0044】
一方、音声データ抽象化ブロック22は、ある単位で多重化分離された音声データと、その音声データの再生に関わる時刻情報を、前段の多重化データDMUXブロック20から受け取る。音声データ抽象化ブロック22が受信するデータおよび情報は、すでに多重化フォーマットを解いた形式に還元されているため、多重化フォーマットに依存しない方法で処理することができる。
【0045】
例えば、MPEG−2トランスポートストリーム、MPEG−2プログラムストリームのいずれであっても、PESパケットの形式に還元されているため、システムストリームに関わる情報は既に排除されている。つまり、すでに多重化フォーマットに依存する処理はもはや必要でない。
【0046】
映像データ抽象化ブロック21は、映像データの符号化フォーマットを特定する。映像データ抽象化ブロック21は、外部コマンドC1により、どのような符号化フォーマットが入力されるかを既に認識している。映像データ抽象化ブロック21は、入力された映像データの符号化フォーマットと、外部コマンドC1によって通知された符号化フォーマットとが等しいか否かを特定する。
【0047】
映像データ抽象化ブロック21は、符号化フォーマットを特定するために、映像データが符号化フォーマットの固有の値を持つことを確認する。映像データ抽象化ブロック21の制御コードには、どの値を確認のための指標とするかという情報が記憶されている。この値には、チェックを開始するバイト位置(ストリーム先頭からの相対位置)、チェックに使用するバイト数、フィールド値等がある。
【0048】
映像データ抽象化ブロック21が符号化フォーマットを特定する具体例を説明する。映像データ抽象化ブロック21は、多重化データDMUXブロック20において、多重化フォーマットがMPEGであると特定された場合、この映像データの符号化フォーマットはMPEGビデオフォーマットであると特定する。また、映像データ抽象化ブロック21は、多重化フォーマットがMPEG方式以外である場合、フィールド値などを参照して映像データの符号化フォーマットを特定する。
【0049】
音声データ抽象化ブロック22は、音声データの符号化フォーマットを特定する。音声データ抽象化ブロック21は、外部コマンドC1により、どのような符号化フォーマットが入力されるかを既に認識している。音声データ抽象化ブロック21は、入力された音声データの符号化フォーマットと、外部コマンドC1によって通知された符号化フォーマットとが等しいか否かを特定する。
【0050】
映像データ抽象化ブロック21が符号化フォーマットを特定する具体例を説明する。音声データ抽象化ブロック22は、符号化フォーマットを特定するために、音声データが符号化フォーマットの固有の値を持つことを確認する。音声データ抽象化ブロック22の制御コードには、どの値を確認のための指標とするかという情報が記憶されている。この値には、チェックを開始するバイト位置(ストリーム先頭からの相対位置)、チェックに使用するバイト数、フィールド値等がある。
【0051】
音声データ抽象化ブロック22は、多重化データDMUXブロック20において、多重化フォーマットがMPEG方式であると特定された場合、PESパケット中のstream_idというフィールド値を参照する。音声データ抽象化ブロック22は、このフィールド値を参照することにより、Dolby Digital、MPEG Audio、DTS、LPCMのような符号化フォーマットのうち、どの符号化フォーマットで符号化されているかを特定する。また、音声データ抽象化ブロック22は、多重化フォーマットがMPEG方式以外である場合、フィールド値などを参照して音声データの符号化フォーマットを特定する。
【0052】
映像データ抽象化ブロック21及び音声データ抽象化ブロック22は、あらゆる符号化フォーマットを特定ないしその符号化フォーマットを抽象化するために必要なマイクロコードを格納している。外部コマンドC1は、映像データ抽象化ブロック21及び音声データ抽象化ブロック22へ符号化フォーマットを特定するマイクロコードをロードする。
【0053】
このように、映像データ抽象化ブロック21および音声データ抽象化ブロック22内部の制御をマイクロコードで実現すれば、このマイクロコードを差し替えることによって別の映像および音声データフォーマットに対応させることができる。また、同時に複数の映像および音声データフォーマットをサポートする場合であっても、そのような制御を可能とするマイクロコードに差し替えることによって対応することができる。このように、マイクロコードをダウンロードする仕組みを外部コマンドC1に持たせることによって、ハードウェアを修正することなく様々な映像および音声データフォーマットに柔軟に対応させることができる。
【0054】
複数の映像および音声データフォーマットをサポートする場合、外部コマンドC1により入力される映像音声ソースD1の複数の映像および音声データフォーマットを予め指定することによりそのフォーマットを識別させることができる。あるいは、映像データ抽象化ブロック21ないし音声データ抽象化ブロック22に自ら識別させる仕組みを持たせても良い。複数の映像および音声データフォーマットをサポートする場合の例としては、映像データとしてMPEG映像およびDV映像、音声データとしてMPEG音声およびPCM音声のサポートをあげることができる。
【0055】
さらに、映像データ抽象化ブロック21及び音声データ抽象化ブロック22は、充分な容量を持つHDDやフラッシュROM等に、符号化フォーマットの特定ないしそのフォーマットを抽象化するために必要なマイクロコードを格納している。これは、特定すべき多重化フォーマットの増加に対するリソース(マイクロサイズなど)の不足を回避し、拡張を容易にするためである。
【0056】
なお、多重化データDMUXブロック20が特定するフォーマットレベルと、映像データ抽象化ブロック21及び音声データ抽象化ブロック22が特定するフォーマットレベルとは完全に分離している。そのため、マイクロコードを記憶する仕組みは、DMUXブロック20、映像データ抽象化ブロック21、音声データ抽象化ブロック22に格納されたマイクロコードを全面的に書き換えるのではなく、必要な箇所のみ一部差し替えるように構成することができる。
【0057】
また、多重化DMUXブロック20、映像データ抽象化ブロック21、音声データ抽象化ブロック22は、マイクロコードによってサポートされていない符号化フォーマットのストリームが入力された場合、2つの方法で対処する。
【0058】
1つめの方法は、サポートしていない符号化フォーマットのストリームの記録を却下する方法である。この方法では、ネットワーク経由で、この符号化フォーマットに対するマイクロコードをダウンロードし、逐次サポートできる符号化フォーマットを更新することもできる。2つめの方法は、サポートされていないストリームをユニット化せずに1つのパックとして記録する方法である。この方法では、最終的に特殊再生や編集用のデータ構造を生成することはできないが、記録できないという最悪の状態を回避することができる。
【0059】
映像データおよび音声データはそれらを復号する単位が存在する。符号化されたデータは、復号単位のデータが全て揃って初めて、その単位に含まれるビデオフレームやオーディオのサンプルが復号できる。復号単位は、符号化フォーマットによって異なる。例えば、MPEGビデオの復号化単位は、1GOP(Group of Picture)であり、15枚のビデオフレームから構成される。このGOPから特定のフレーム(あるいはフィールド)に関するデータのみを抽出しても、そのデータからのみではビデオフレーム(あるいはフィールド)を再現することができない。
【0060】
また、映像データには必ずキーフレームなるものが存在し、そのキーフレームから次のキーフレームの1つ前のフレームまでを復号単位として考えることができ、その単位でそれに含まれる全フレームデータを復号することができる。例えば、MPEG映像の場合、Iフレームと呼ばれるフレームがキーフレームに相当する。また、音声データにはオーディオフレームなるものが存在し、その単位でそこに含まれる全サンプルデータを復号することができる。いずれにしても、映像データおよび音声データはそれぞれ復号単位に分離することができる。
【0061】
上述したように、MPEG方式では、GOPやオーディオフレームが復号化単位になるが、DVやMotion−JPEGといった別のフォーマットでは、1枚のビデオフレームが復号化単位となる。つまり、このような符号化フォーマットでは、1枚のビデオフレーム(およびフィールド)毎に復号が可能である。このような符号化フォーマットでは、1枚のビデオフレームごとにストリームを管理するデータ構造が付加される。そのため、このような符号化フォーマットでは、GOPごとにストリームを管理するデータ構造が付加されるMPEG方式よりもデータ構造のサイズが大きくなり、記憶領域を消費する。後述するように、同じ符号化フォーマットで符号化されたデータをいくつかまとめ、このデータを1つのデータ構造で管理すると、データ構造のサイズが小さくなり、消費する記憶領域を減少することができる。
【0062】
多重化分離された映像データおよび映像データの再生に関わる時刻情報は、映像データ抽象化ブロック21において、上記復号単位を1単位にまとめ抽象化される。また、その抽象化映像データに、その再生開始時刻(抽象化映像データ時刻情報)を添付し、パック化映像音声データ生成ブロック23に出力する。例えばMPEG−2映像データの場合、GOPが復号単位であるので、映像PESパケットデータからGOPデータを抽出し、そのデータとそのGOP先頭のIフレームの再生を開始する時刻を抽象化映像データ時刻情報として、併せて後段のパック化映像音声データ生成ブロック23に出力する。
【0063】
一方、多重化分離された音声データおよびその音声データの再生に関わる時刻情報は、音声データの抽象化ブロック22において、上記復号単位を1単位にまとめ抽象化する。また、その抽象化音声データに、その再生開始時刻(抽象化音声データ時刻情報)を添付し、パック化映像音声データ生成ブロック23に出力する。例えば、MPEG−2音声データの場合、1オーディオフレームが復号単位であるので、音声PESパケットデータからオーディオフレーム・データを抽出し、そのデータとそのオーディオフレームの再生を開始する時刻を抽象化音声データ時刻情報として、併せて後段のパック化映像音声データ生成ブロック23に出力する。この再生開始時刻は、MPEGヘッダのPTSを基に算出される。
【0064】
上記のように、多重化分離された映像および音声データを復号単位で管理することにより映像フォーマットおよび音声フォーマットが抽象化され、後段の処理において映像および音声フォーマットに依存しない統一した形態で記録制御できるようになる。
【0065】
上記のようにして生成された抽象化映像音声データおよび抽象化映像音声データ時刻情報は、パック化映像音声データ生成ブロック23へと出力される。このパック化映像音声データ生成ブロック23は、入力された映像音声データを本発明において規定した記録フォーマットへ変換する役目を持つ。どのような多重化フォーマット、映像フォーマット、および音声フォーマットであっても、これらを抽象化した記録フォーマットを採用することによって、一元管理することができる。
【0066】
続いて、上述した映像データ抽象化ブロック21及び音声データ抽象化ブロック22における映像データ及び音声データの抽象化処理を図4,5のフローチャートに従って詳しく説明する。
【0067】
この動作説明は、1GOPの画像データをパック化の基準とした例である。この例において、映像データ、音声データは、MPEG符号化フォーマットで符号化されているものとする。なお、パック化するGOPの個数は、以下の例に限定されず、任意の個数パック化してもよい。また、画像ではなく、音声データを基準としてもよい。
【0068】
まず、映像データ抽象化ブロック21における処理について説明する。映像データ抽象化ブロック21は、多重化DMUXブロック20から出力される映像データを読み出す(ステップS31)。
【0069】
次いで、映像データ抽象化ブロック21は、1GOP分の映像データが蓄積されるまでPESパケットを読み出す。映像データ抽象化ブロック22は、1GOPの映像データを読み出すと、その映像データのバイト数及び先頭IピクチャのPTSを読み出す。また、映像データ抽象化ブロック21は、再生期間を算出する。再生期間は、1GOPを再生するためにかかる時間のことである。NTSCの1フレームは、3003チックに相当する。また、PALの1フレームは、3600チックに相当する。映像データ抽象化ブロック21は、蓄積したフレームごとのチック数をカウントし、再生期間を算出する。(ステップS32)。
【0070】
次いで、映像データ抽象化ブロック22は、映像データ、映像データのバイト数、PTS、再生期間をパケット化し、抽象化映像データパケットを生成する。映像データ抽象化ブロック21は、生成した抽象化映像データパケットをパック化映像音声データ生成ブロックへ転送する。
【0071】
映像データ抽象化ブロック21は、このようにして1GOPの映像データを含む抽象化映像データパケットを生成する。この生成手順は、MPEGビデオ符号化フォーマットで符号化された映像データに対するものである。映像データ抽象化ブロック21は、各符号化フォーマットに合った手順で抽象化映像データパケットを生成する。
【0072】
次に、音声データ抽象化ブロック22の動作について説明する。音声データ抽象化ブロック22は、多重化DMUXブロック20から出力される音声データを読み出す(ステップS41)。
【0073】
音声データ抽象化ブロック22は、オーディオフレームを読み出す。音声データ抽象化ブロック22は、1オーディオフレーム分の音声データが蓄積されるまで、音声PESを読み出す。音声データ抽象化ブロック22は、1オーディオフレームのバイト数及びPTSを読み出す。音声データ抽象化ブロック22は、オーディオデータのサンプル数及びサンプリング周波数などをもとに再生期間を算出する。再生期間は、1オーディオフレームの音声データを再生するためにかかる時間のことである。例えば、MPEG Audio Layer−IIの場合、1オーディオフレームは1152サンプルであり、48[kHz]でサンプリングされたものであると仮定すると、1オーディオフレームは2160チックとなる(ステップS42)。
【0074】
音声データ抽象化ブロック22は、蓄積した音声データ、音声データのバイト数、PTS、再生期間をパケット化し、抽象化音声データパケットを生成する。音声データ抽象化ブロック22は、抽象化音声データパケットをパック化映像音声データ生成ブロックへ転送する(ステップS43)。
【0075】
音声データ抽象化ブロック22は、このようにして1パック分の映像データを含む抽象化音声データパケットを生成する。この生成手順は、MPEGオーディオ符号化フォーマットで符号化された音声データに対するものである。音声データ抽象化ブロック22は、各符号化フォーマットに合った手順で抽象化映像データパケットを生成する。
【0076】
パック化映像音声データ生成ブロック23は、抽象化映像データ、抽象化音声データ、およびそれらの再生時刻情報を、記録されるデータ構造へパック化する。パック化に際しては、入力された抽象化映像データないし抽象化音声データのいずれかを基準とし、そのパック化された映像音声データを再生する時刻情報を付加する方法で実現される。
【0077】
抽象化映像データを基準とする場合(その抽象化映像データは1映像復号単位の映像データを含んでいる)、その映像データの再生に要する時間に含まれる音声データを含むように、1パックを構成する。抽象化映像データを基準とする場合(その抽象化音声データは1オーディオフレームの音声データを含んでいる)、その音声データの再生に要する時間に含まれる映像データを含むように、1パックを構成する。一般に映像データ量は音声データ量に比べて極めて多いので、抽象化映像データを基準としてパック化するのが現実的である。
【0078】
また、映像音声データ記録装置10において1記録単位を1復号単位ではなく、その整数倍の単位とすることも可能である。上記の説明は、1映像復号単位ないし1オーディオフレーム単位のいずれかでパックを構成するものであったが、複数映像復号単位ないし1オーディオフレーム単位でパックを構成するようにしてもよい。例えば、MPEG−2映像データの1復号単位は上述のようにGOPである。このGOPを複数個束ねたものを基準とし、パックを構成することも可能である。
【0079】
1復号単位を複数個束ねて1つのパックを構成する場合、1つのパックに束ねる復号単位の個数は、コマンドにより指定できるようになっている。復号単位の個数は、特殊再生や編集の精度を決めることになる。そのため、復号単位の個数を指定することにより、符号化フォーマットに応じて復号単位を適応させる、あるいは、特殊再生や編集のためのデータ構造のサイズを圧縮させること等が可能となる。
【0080】
いずれにしても、パック化映像音声データ生成ブロック23は、映像あるいは音声の復号単位を複数個束ねたものを基準とし、その基準となった映像あるいは音声の単位を再生するのに要する時間に含まれる音声ないし映像をそれぞれ含むようにパック化(再多重化)する。加えて、そのパック化された映像音声データの再生を開始する時刻を付加する。このようにパック化しておくと、復号単位の整数倍で映像音声を管理でき、したがって再生時のランダムアクセス制御が可能となる。また、ランダムアクセス時の映像と音声の同期も簡単に実現できる。
【0081】
ここで、パック化映像音声データD2の構成例を図6に示す。パック化映像音声データD2は、パックヘッダ30、抽象化映像データ31、および抽象化音声データ32から構成される。パックヘッダ30には、パックの構成を示す情報が記述される。抽象化映像データ31を基準にパックが構成されている場合、その抽象化音声データの再生に要する時間に含まれる映像データが、パック中の抽象化映像データ31のフィールドに格納されることになる。なお、抽象化映像データ31と抽象化音声データ32の配置順については規定しない。
【0082】
抽象化映像データを基準にパックが形成される場合、パックヘッダ30は、抽象化音声データ開始位置30aと抽象化音声データ再生開始スキュー30bと抽象化映像音声データ再生開始時刻30cとから構成される。
【0083】
抽象化音声データ開始位置30aは、パック中の抽象化音声データ32の開始位置を識別する目的で設けられている。これにより、可変長のパックおよび抽象化映像データへの対応が可能となる。
【0084】
抽象化音声データ再生開始スキュー30bは、パック中の抽象化映像データと抽象化音声データの再生開始タイミングを調整するための設けられている。一般に、映像復号単位(あるいはその整数倍)と音声復号単位(あるいはその整数倍)は、時間境界が一致しない。そのため、これらパックを選択的に抽出し再生する場合、この時間境界の整合性をとった映像と音声の同期が必要となる。その目的で、抽象化音声データ再生開始スキュー30bが設けられている。このフィールド値により、映像再生開始に先だって音声再生開始する。あるいは映像再生開始後しばらくしてから音声再生を開始するなどといった制御が可能となる。例えば、このタイミング調整を90[kHz]のクロックでカウントするものとし、そのフィールド値がマイナスカウントを持つ場合、映像再生開始に先立ち(カウント値の絶対値)/90[kHz]に相当する時間前から音声の再生を開始する。また同様に、このフィールド値がプラスカウント値を持つ場合、映像再生開始から(カウント値の絶対値)/90[kHz]に相当する時間後から音声の再生を開始する。
【0085】
抽象化映像音声データ再生開始時刻30cには、映像データ再生開始時刻と、音声データ再生開始時刻とが含まれる。映像データ再生開始時刻は、映像データ再生開始時刻と音声データ再生開始時刻とは、例えば、MPEG方式で用いられている90[kHz]のクロックを基本として、ビデオ、オーディオでの再生時刻をチック数で表現される。
【0086】
映像データ抽象化ブロック21は、映像データ再生開始時刻を算出する。映像データ抽象化ブロック21は、記録を開始した時点で、映像データ再生開始時刻を0にリセットする。映像データ抽象化ブロック21は、パック化したフレーム数に応じて映像データ再生開始時刻を加算する。
【0087】
例えば、NTSCの場合、1フレームは29.97[Hz]であるから、3003チックに対応する。PALの場合、1フレームは25[Hz]であるから、3600チックに対応する。映像データ抽象化ブロック21では、フレーム数をカウントしつつ、そのフレームのタイプに応じて3003(NTSC)チックまたは3600(PAL)チックを加算し、映像データ再生開始時刻を算出する。
【0088】
音声データ抽象化ブロック22は、音声データ再生開始時刻を算出する。MPEG Audio Layer−IIの場合、1オーディオフレームは1152サンプルであり、48[kHz]でサンプリングされたオーディオフレームは2160チックである。音声データ抽象化ブロック22は、記録を開始した時点で、音声データ再生開始時刻を0にリセットし、1オーディオフレームごとのチック数を加算し、音声データ再生開始時刻を算出する。
【0089】
なお、ビデオでは、27[MHz]というクロックが用いられているが、記録再生機では27[MHz]程の高い精度は必要ない。そこで、90[kHz]を基本のクロックとしている。90[kHz]というクロック数は、現状のCODECを満足することができるが、今後の拡張性を考え、コマンドによりチック基準クロック周波数を指定できるようにしてもよい。
【0090】
上述したように、パック化映像音声データ生成ブロック23は、パック化映像音声データD2を生成する。
【0091】
このパック化映像音声データ生成ブロック23のデータパック処理について、図7のフローチャートに従い詳しく説明する。
【0092】
この動作説明は、1GOPの画像データをパック化の基準とした例である。この例において、映像データ、音声データは、MPEG符号化フォーマットで符号化されているものとする。なお、パック化するGOPの個数は、以下の例に限定されず、任意の個数パック化してもよい。また、画像ではなく、音声データを基準としてもよい。
【0093】
パック化映像音声データ生成ブロック23は、音声データ抽象化ブロック22から出力される抽象化音声データパケットを読み出す(ステップS51)。パック化映像音声データ生成ブロック23は、映像データ抽象化ブロック21から出力される抽象化映像データを読み出す(ステップS52)。
【0094】
パック化映像音声データ生成ブロック23は、抽象化映像データのPTSと再生時間及び抽象化音声データのPTSと再生時間を抽出する(ステップS53)。パック化映像音声データ生成ブロック23は、映像データの再生時間と音声データの再生時間とを比較する(ステップS54)。そして、音声データの再生時間が映像データの再生時間に含まれる場合(ステップS54;YES)、パック化映像音声データ生成ブロック23は、次の抽象化音声パケットデータを読み出す(ステップS55)。パック化映像音声データ生成ブロック23は、ステップS54及びステップS55の処理を繰り返す。そして、パック化映像音声データ生成ブロック23は、1GOPの映像データを再生するのに要する時間に含まれる音声データを読み出し(ステップS54;NO)、ステップS56に処理を移行する。
【0095】
次いで、パック化映像音声データ生成ブロック23は、抽象化映像音声データ再生開始時刻を算出する。抽象化映像音声データ再生開始時刻の算出方法は、前出の通りである(ステップS56)。
【0096】
パック化映像音声データ生成ブロック23は、映像データ再生開始時刻と音声データ再生開始時刻との差から抽象化音声データ再生開始スキューを算出する。パック化映像音声データ生成ブロック23は、抽象化音声データ再生開始スキュー、抽象化映像データと抽象化音声データの総データ長、抽象化映像音声データ再生開始時刻、抽象化映像データ、抽象化音声データを多重化し、パック化映像音声データD2を生成する(ステップS57)。パック化映像音声データ生成ブロック23は、パック化映像音声データD2をパック化映像音声データ管理制御ブロックへ転送する(ステップS58)。
【0097】
このように多重化映像音声データ抽象化ブロック10bは、多重化フォーマット、映像フォーマット、および音声フォーマットを抽象化し、これらフォーマットに依存しないフォーマットでパック化(再多重化)し、記録データD5を構成する。
【0098】
多重化映像音声データ抽象化ブロック10bにおいて生成されたパック化映像音声データD2は、パック化映像音声データ管理制御ブロック10cに入力される。パック化映像音声データ管理制御ブロック10cは、入力されるパック化映像音声データD2を管理するためのパック化映像音声データ管理テーブルD4を生成する。また、記録媒体に記録されているコンテンツを識別するための記録媒体管理テーブルD5を生成する。これらパック化映像音声データD2そのものおよび上記管理テーブルを記録媒体制御ブロックへ出力する。
【0099】
次に、図8に、パック化映像音声データ管理制御ブロック10cの内部構造を示す。
【0100】
パック化映像音声データ管理制御ブロック10cは、パック化映像音声データD2を受信するパック化映像音声データ受信ブロック40と、受信したパック化映像音声データD2を一時的に格納するパック化映像音声データバッファ41、パック化映像音声データバッファに格納されたデータを必要に応じて読み出すパック化映像音声データバッファ制御ブロック42、パック化映像音声データ管理テーブルを生成するパック化映像音声データ管理テーブル制御ブロックと、記録媒体管理テーブルテーブルを生成する記録媒体管理テーブル制御ブロックとを有している。
【0101】
多重化映像音声データ抽象化ブロック10bにおいて抽象化されたパック化映像音声データD2は、まず、パック化映像音声データ受信ブロック40に入力される。パック化映像音声データ受信ブロック40は、入力されたパック化映像音声データD2を、記録領域への記録単位調整のため、いったんパック化映像音声データバッファ41に格納する。
【0102】
パック化映像音声データバッファ制御ブロック42は、パック化映像音声データバッファ41を監視しつつ、バッファ中にパック化映像音声データD2が存在する場合、記録媒体制御ブロック10dに対し、記録媒体上の記録領域割り当て要求C2を出力する。パック化映像音声データバッファ制御ブロック42は、バッファアリングされたパック化映像音声データD2に対し、割り当てられた記録領域へのアラインメント調整などを実行し、割り当てられた記録領域へパック化映像音声データD2を随時書き出す。新たな記録領域への割り当てが必要となった場合、さらに、記録媒体制御ブロック10dにパック化映像音声データ記録領域割り当て要求C2を出力する。
【0103】
パック化映像音声データ管理テーブル制御ブロック43は、パック化映像音声データバッファ制御ブロック42から出力される各パック化映像音声データ開始時刻(再生経過時刻)、記録位置、サイズなどを記述したシーケンステーブルを生成する。このシーケンステーブルをパック化映像音声データ管理テーブルと表す。パック化映像音声データ管理テーブルの例を図9に示す。
【0104】
さらに、パック化映像音声データ管理テーブル制御ブロック43は、パック化映像音声データ管理ブロック記録領域割り当て要求C3を出力する。入力される映像音声ソースD1の時間長によっては、パック化映像音声データ管理テーブルのサイズが一回の記録領域割り当て要求に対して割り当てられたサイズを超えることが考えられる。その場合は、生成済みのパック化映像音声データ管理テーブルD4を割り当て領域に出力すると同時に、次の記録領域割り当て要求C3を出力する。
【0105】
記録媒体管理テーブル制御ブロック44は、記録媒体管理テーブルD5を生成する。記録媒体管理テーブルD5は、パック化映像音声データ管理テーブルの上位に位置する管理テーブルであり、記録媒体中に記録されている全映像音声コンテンツを管理するためのテーブルである。最も簡単な例を図10に示す。記録した各コンテンツに対し、そのコンテンツの映像音声データの属性P1、そのコンテンツの名称、パック化映像音声データ管理テーブルの記録位置などを記述する。コンテンツである映像音声データの属性P1やコンテンツ名称といった本体映像音声ソースD1に含まれない情報は、外部コマンドC1によりシステム制御ブロック10a経由で取得する。また、記録媒体管理テーブル制御ブロック44は、記録媒体管理テーブル記録領域割り当て要求C4を、記録媒体制御ブロック10dに出力する。
【0106】
コンテンツ総数やパック化映像音声データ管理テーブルのサイズは一般に異なるため記録媒体管理テーブルD5は可変長となるが、この可変長にどのように対応するかといった記録媒体管理テーブルD5の詳細については特に規定しない。重要なのは、記録媒体に記録されている各コンテンツを識別するための情報を記録し、その情報の1つのパック化映像音声データ管理テーブルが存在するということである。
【0107】
以下、図11〜図14のフローチャートを参照して、このパック化映像音声データ管理制御ブロック10cの動作を説明する。
【0108】
この説明では、パック化映像音声データ管理制御ブロック10cの動作を受信処理、バッファ制御処理、パック化映像音声データ管理テーブル制御処理、記録媒体管理テーブル制御処理の4つの処理に分割して説明する。図11は受信処理、図12はバッファ制御処理、図13はパック化映像音声データ管理テーブル制御処理、図14は記録媒体管理テーブル制御処理を示している。
【0109】
まず、図11を参照して受信処理について説明する。受信処理は、パック化映像音声データ受信ブロック40の処理である。パック化映像音声データ受信ブロック40は、多重化映像音声抽象化ブロック10bから出力されたパック化映像音声データD2を取得する(ステップS61)。パック化映像音声データ受信ブロック40は、取得したパック化映像音声データD2を、記録領域への記録単位調整のため、いったんパック化映像音声データバッファ41に格納する(ステップS62)。
【0110】
次に、図12を参照して、バッファ制御処理について説明する。バッファ制御処理は、パック化映像音声データバッファ制御ブロック42が実行する処理である。パック化映像音声データバッファ制御ブロック42は、パック化映像音声データバッファ41を監視し、パック化映像音声データバッファ41に有効なパック化映像音声データD2が存在するとき(ステップS71;YES)、記録媒体制御ブロック10dから既に割り当てられた記録領域に空きがあるか否かをチェックする(ステップS72)。一方、ステップS71において、パック化映像音声データバッファ41に有効なパック化映像音声データD2が存在しないときは(ステップS71;NO)、パック化映像音声データバッファ制御ブロック42は、有効なパック化映像音声データD2の入力を待機する(ステップS71)。
【0111】
パック化映像音声データバッファ制御ブロック42は、既に取得した記録領域に空きがあると判断すると(ステップS72;YES)、この記録領域にパック化映像音声データD2を書き出す(ステップS74)。一方、パック化映像音声バッファ制御ブロック42は、既に取得した記録領域に空きがないと判断すると(ステップS72;NO)、記録媒体制御ブロック10dに対し、パック化映像音声データ記録領域割り当て要求C2を出力し(ステップS73)、ステップS74に処理を移行する。
【0112】
パック化映像音声データバッファ制御ブロック42は、パック化映像音声データを記録する記録領域を確保すると、パック化映像音声データD2をこの記録領域に記録させる(ステップS74)。次いで、パック化映像音声データバッファ制御ブロック42は、パック化映像音声データD2の記録媒体上の記録位置、データ長、抽象化映像音声データ再生開始時刻などの情報をパック化映像音声データ管理テーブル制御ブロック43に転送する(ステップS75)。パック化映像音声データの記録位置、データ長、抽象化映像音声データ再生開始時刻などの情報は、シーケンステーブルに記録するための情報であり、以後、これらのデータを管理データと記す。
【0113】
続いて、図13を参照して、パック化映像音声データ管理テーブル制御処理について説明する。パック化映像音声データ管理テーブル制御処理は、パック化映像音声データのパック化映像音声データ管理テーブルを作成する処理である。パック化映像音声データ管理テーブル制御ブロック43は、記録媒体制御ブロック10dから既に割り当てられた記録領域に空きがあるか否かをチェックする(ステップS81)。パック化映像音声データ管理テーブル制御ブロック43は、既に取得した記録領域に空きがないと判断すると(ステップS81;NO)、既存のパック化映像音声データ管理テーブルを既に割り当てられた記録領域に記録する(ステップS82)。次いで、パック化映像音声データ管理テーブル制御ブロック43は、記録媒体制御ブロック10dに新規パック化映像音声データ管理テーブルを記録するための記録領域を要求する(ステップS83)。
【0114】
パック化映像音声データ管理テーブル制御ブロック43は、記録媒体制御ブロック10dから新規のパック化映像音声データ管理テーブルを記録する記録位置が出力されると、この記録位置と、パック化映像音声データD2とを記録媒体管理テーブル制御ブロック44に転送する(ステップS84)。
【0115】
パック化映像音声データ管理テーブル制御ブロック43は、パック化映像音声管理テーブルを記録する記録領域を確保すると、新規に記録するパック化映像音声データが存在するか否かを判定する(ステップS85)。ここで、パック化映像音声データ管理テーブル制御ブロック43は、新規に記録するパック化映像音声データが存在しない場合(ステップS85;NO)、新規に記録するパック化映像音声データの入力を待機する(ステップS85)。
【0116】
一方、パック化映像音声データ管理テーブル制御ブロック43は、新規に記録するパック化映像音声データD2が存在する場合(ステップS85;YES)、このパック化映像音声データD2及び管理データを取得する(ステップS86)。パック化映像音声データ管理テーブル制御ブロック43は、取得したパック化映像音声データD2、管理データをパック化映像音声データ管理テーブルに追加する(ステップS87)。
【0117】
次に、図14を参照して、記録媒体管理テーブル制御処理について説明する。記録媒体管理テーブル制御処理は、記録媒体管理テーブル制御ブロック44が実行する処理である。記録媒体管理テーブル制御ブロック44は、記録媒体制御ブロック10dから既に割り当てられた記録領域に記録媒体管理テーブルD5を追加する空き領域があるか否かをチェックする(ステップS91)。記録媒体管理テーブル制御ブロック44は、既に取得した記録領域に空きがないと判断すると(ステップS91;NO)、既存の記録媒体管理テーブルD5を既に割り当てられた記録領域に記録する(ステップS92)。記録媒体管理テーブル制御ブロック44は、新規パック化映像音声データ管理テーブルを記録するための記録領域を要求する(ステップS93)。
【0118】
記録媒体制御ブロック10dは、記録媒体管理テーブルD5を記録する記録領域を確保するとこの記録領域の位置情報を記録媒体管理テーブル制御ブロック44に出力する。記録媒体管理テーブル制御ブロック44は、記録媒体制御ブロック10dからの記録位置情報を受けると、新規に記録するパック化映像音声データD2が存在するか否かを判定する(ステップS94)。ここで、パック化映像音声データ管理テーブル制御ブロック43は、新規に記録するパック化映像音声データD2が存在しない場合(ステップS94;NO)、新規に記録するパック化映像音声データD2の入力を待機する(ステップS95)。
【0119】
一方、記録媒体管理テーブル制御ブロック44は、新規に記録するパック化映像音声データD2が存在する場合(ステップS95;YES)、このパック化映像音声データD2及び記録媒体管理テーブルD5の記録位置情報を取得する(ステップS96)。パック化映像音声データ管理テーブル制御ブロック43は、取得したパック化映像音声データD2、記録媒体管理テーブルD5の記録位置情報をコンテンツ情報に追加する(ステップS86)。
【0120】
記録媒体制御ブロック10dは、パック化映像音声データ管理制御ブロック10cからの要求に従って記録媒体上の記録領域の割り当てを実行し、また割り当てた記録領域への記録映像音声データの書き込みを実行するブロックである。本発明に関わる記録装置および記録方法では、記録媒体を限定しないため、記録媒体を抽象化する仕組みを有している。
【0121】
図15に、記録媒体制御ブロック10dの内部構造を示す。記録媒体制御ブロック10dは、記録領域割り当て要求を受信する記録領域割り当てブロック70、記録領域を抽象化された単位で割り当てる記録媒体抽象化ブロック71と、記録媒体専用のインターフェースである記録媒体インターフェースブロック72と、記録データD5を記録媒体に適した記録領域指定方法に変換するデータ記録制御ブロック73とを有する。
【0122】
パック化映像音声データ管理制御ブロック10cからのパック化映像音声データD2あるいは関連する管理テーブルの記録に先だって、パック化映像音声データ管理制御ブロック10cは、記録領域の割り当て要求を記録媒体制御ブロック10dに発行する。この要求を受信するのが記録領域割り当てブロック70である。記録領域割り当てブロック70は、記録領域割り当て要求を受信すると、記録媒体抽象化ブロック71にアクセスすることにより記録領域を“抽象化された単位”で割り当てる。
【0123】
記録領域抽象化ブロック71は、記録媒体に依存しない形式で記録領域の割り当てを実行する。例えば、ハードディスクや光ディスクが記録媒体である場合、記録の最小単位はセクタである。また半導体メモリが記録媒体である場合は、記録の最小単位はバイトである。記録の最小単位がセクタであっても、ハードディスクと光ディスクではセクタサイズ(バイト数)が異なる。このような記録媒体に依存する記録領域の指定方法の差異を吸収する仕組みが、記録媒体抽象化ブロック71に組み込まれている。
【0124】
記録領域抽象化ブロック71は、実際の記録媒体と上記抽象化された記録領域との関係を記述したマップ情報を保持している。パック化映像音声データ管理制御ブロック10cからの記録領域割り当て要求に対して、記録領域割り当てブロック70は記録領域抽象化ブロック71中のマップ情報を参照して記録領域を割り当てる。一般に一度に割り当てることのできる記録領域のサイズは一定とは限らないので、記録領域の割り当て応答にはそのサイズを伴う。図16にマップの例を示す。図16のSDA(Storage Data Area)が抽象化された記録領域に相当する。パック化映像音声データ管理制御ブロック10cからの記録領域割り当て要求に対し、記録領域割り当てブロック70は未使用のSDA領域およびそのサイズを通知する。
【0125】
パック化映像音声データ管理制御ブロック10cは、割り当てられたSDA番号とそのサイズに従って管理テーブルやパック化映像音声データD2の記録領域配置を遂行する。割り当てられた記録領域を満たすデータが準備できた時点で、記録媒体制御ブロック10dに対しての記録データD5を出力する。この記録データD5にはどの記録領域に記録するか(すなわちSDA番号)という情報も付随する。記録領域は、記録媒体制御ブロック10dが割り当てたものであることはいうまでもない。
【0126】
パック化映像音声データ管理制御ブロック10cから出力された記録データD5および記録はデータ記録制御ブロック73に入力される。データ記録制御ブロック73は、記録すべきデータを必要に応じてバッファリングすると同時に記録媒体抽象化ブロック71中のマップ情報を用いてSDA形式で指定された記録領域を実際の記録媒体に適した記録領域指定方法に変換し、最終的に記録データD5を記録媒体インターフェースブロック72に出力する。
【0127】
記録媒体インターフェースブロック72は、本発明を適用する記録媒体専用のインターフェースであり、実際にその記録媒体に対して記録データD5を書き込む。
【0128】
また記録媒体抽象化ブロック71中のマップ情報として静的に用意するだけでなく、記録媒体抽象化ブロック71と記録媒体インターフェースブロック72を相互に結びつけることによって、接続される記録媒体に応じてマップ情報をダイナミックに生成する仕組みを持たせることもできる。
【0129】
このように、記録媒体制御ブロック10dは実際の記録媒体へのデータ記録を受け持つブロックであり、その記録媒体固有の記録領域指定方法を抽象化することによって、パック化映像音声データ管理制御ブロック10cにおいて生成される映像音声データに関する管理テーブルを一元的に取り扱うことができる。
【0130】
次に、本発明に関する映像音声データ再生装置について図面を参照しながら説明する。
【0131】
図17は、映像音声データ再生装置90のブロック構成図である。映像音声データ再生装置90は、映像音声データ再生装置90を構成するブロック全体を制御するシステム制御ブロック90a、パック化映像音声データD2を再構成する多重化映像音声データ構成ブロック90b、映像音声データの読み出しを管理するパック化映像音声データ管理制御ブロック90cと、記録媒体93とのインターフェースとなる記録媒体制御ブロック90dとを有している。
【0132】
映像音声データ再生装置90は、外部コマンドC1によって再生が軌道され、また再生すべき映像音声データが指定される、ここでいう外部コマンドC1とは、再生すべき映像音声データの指定を伴う再生開始コマンドや、その再生方法(通常再生や早送りなど)、また多重化の方法とする。また、映像音声データとは、本発明の映像音声再生装置によって再生された映像音声コンテンツを指す。
【0133】
外部コマンドC1は、映像音声データ再生装置90のシステム制御ブロック90aに入力される。システム制御ブロック90aとは、例えば映像音声データ再生装置全体を制御するMPUである。システム制御ブロック90aは、外部からの再生開始コマンドを受信すると、指定された映像音声コンテンツを再生するようパック化映像音声データ管理制御ブロック90cに指令する。
【0134】
パック化映像音声データ管理制御ブロック90cの内部構成の詳細を図18に示す。パック化映像音声データ管理制御ブロック90cからの映像音声コンテンツの指定は、記録媒体管理テーブル制御ブロック104に入力される。記録媒体管理テーブル制御ブロック104は、映像音声コンテンツの指定S1を入力し、指定された映像音声コンテンツの記録領域を演繹するために、まず記録媒体管理テーブルD5の読み出しを実行する。記録媒体管理テーブルD5の例は図6に示した通りである。このテーブルは、映像音声ソースD1を記録する際に生成したものである。記録媒体管理テーブルD5の読み出し要求C8は、記録媒体制御ブロック90dに対してその記録領域を指定することにより実現される。なお、記録媒体管理テーブルD5の記録領域の指定は、その指標がないことから、規定した(固定した)SDA番号領域が割り当てられることになる。
【0135】
また、記録媒体管理テーブルD5は、記録再生時に必ず更新あるいは参照されるものであるから、本記録再生装置が起動された時点で(初期化時点で)、予め読み出しておくと効率的に処理できる。
【0136】
いずれにしても、記録媒体管理テーブルD5を参照し、目的の(指定された)映像音声コンテンツに対するパック化映像音声データ管理テーブルの記録位置を導き出す。
【0137】
上記のようにして演繹されたパック化映像音声データ管理テーブルの記録位置情報は、パック化映像音声テーブル制御ブロック103に伝えられる。パック化映像音声テーブル制御ブロック103は、与えられた記録位置情報から、パック化映像音声管理テーブルを読み出す。パック映像音声データ管理テーブルD4の読み出し要求C9は、記録媒体制御ブロック90dに対してその記録領域を指定することにより実現される。パック化映像音声データ管理テーブルの例は図10に示した通りである。
【0138】
パック化映像音声データD2の転送要求C10は、多重化映像音声データ構成ブロック90bから発行される。この要求C10にはパック化映像音声データ番号あるいは再生経過時刻など、どのパック化映像音声データD2を読み出すべきかを示す情報が付随する。
【0139】
このパック化映像音声データD2の転送要求C10は、パック化映像音声データ送信ブロック100に入力され、パック化映像音声データD2送信ブロック100はこれを受信すると、パック化映像音声データバッファ制御ブロック102に対して、読み出すべきパック化映像音声データD2を指定して読み出し要求する。パック化映像音声データバッファ制御ブロック102は、指定されたパック化映像音声データD2を、予め読み出しておいたパック化映像音声データ管理テーブルに記述された情報に基づいて読み出し、パック化映像音声データバッファ101に入力する。パック化映像音声データD2の読み出しは、記録媒体制御ブロック90dに対してその記録領域を指定することにより実現される。
【0140】
パック化映像音声データバッファ101に格納された指定パック化映像音声データD2は、パック化映像音声送信ブロック100を経由して、要求元である多重化映像音声データ構成ブロック90dに出力される。なお、多重化映像音声データ構成ブロック90bは、多重化する映像および音声のタイミング情報などを再構成する際に、記録媒体管理テーブルD5に記述された映像音声データ属性P1を参照する。
【0141】
このように、パック化映像音声データD2の管理制御ブロック90cは、映像フォーマット、音声フォーマットに依存しない形態で、映像音声データの読み出しを一元管理制御することができる。
【0142】
上記において、管理テーブルの読み出しおよびパック化映像音声の読み出しについて言及したが、実際に記録媒体とのインターフェースとなる記録媒体制御ブロック90dについてここで説明しておく。
【0143】
記録媒体制御ブロック90dは、パック化映像音声データ管理制御ブロック90cからの要求に従って記録媒体上の指定された記録領域から記録映像音声データ読み出しを実行するブロックである。記録装置として説明した記録媒体制御ブロック10d(図15)と同様、本発明に関わる再生装置および再生方法では、記録媒体を限定しないため、記録媒体を抽象化する仕組みを有している。
【0144】
図19に、記録媒体制御ブロック90dの内部構造を示す。パック化映像音声データ管理制御ブロック90cは、記録データ読み出し要求C11を記録媒体制御ブロック90dに発行する。この要求を受信するのがデータ再生制御ブロック110である。データ再生制御ブロック110は記録データ読み出し要求C11を受信すると、記録媒体抽象化ブロック111にアクセスし、指定された読み出し領域(抽象化された読み出し位置情報)が実際使用している記録媒体の単位に変換される。
【0145】
記録領域抽象化ブロック111は、実際の記録媒体と上記抽象化された記録領域との関係を記述したマップ情報を保持している。パック化映像音声データ管理制御ブロック90cからの記録データ読み出し要求C11に対して、データ再生制御ブロック110は記録領域抽象化ブロック111中のマップ情報を参照して、指定された読み出し領域情報を実際の記録媒体の単位に変換する。図16がマップの例である。図16のSDA(Storage Data Area)が抽象化された記録領域に相当する。パック化映像音声データ管理制御ブロック90cからの記録データ読み出し要求C11(SDA番号により読み出し領域が指定される)に対し、データ再生制御ブロック110は実際の記録媒体の単位に換算し記録媒体インターフェースブロック112を介して所望の記録データD5を読み出す。
【0146】
記録媒体インターフェースブロック112は、本発明を適用する記録媒体専用のインターフェースであり、実際のその記録媒体から記録データD5を読み出す。読み出された記録データD5は、データ再生制御ブロック110を介して、要求元のパック化映像音声データ管理制御ブロック90cへ出力される。
【0147】
このように、記録媒体制御ブロック90dは実際の記録媒体からの記録データD5の読み出しを受け持つブロックであり、その記録媒体固有の記録領域指定方法を抽象化する仕組みを有することを特徴とする。
【0148】
最後に多重化映像音声データ構成ブロック90bについて説明する。図20に、記録媒体制御ブロック90bの内部構造を示す。外部コマンドC1により指定した映像音声コンテンツの再生方法C12が指定される。この再生方法C12は、システム制御ブロック90aを経由して、多重化映像音声データ構成ブロック90b中のパック化映像音声データD2読み出し制御ブロック120に伝えられる。
【0149】
パック化映像音声データD2読み出し制御ブロック120は、指定された再生方法に基づいて、パック化映像音声データ管理制御ブロック90cに対して、所望のパック化映像音声データD2を読み出す役目を持つ。
【0150】
まず通常再生の場合について説明する。通常再生の場合、指定された映像音声コンテンツ先頭から順にパック化映像音声データD2を読み出せば良い。よって最初に、先頭のパック化映像音声番号(パック化映像音声番号 1;図9参照)の転送をパック化映像音声データ管理制御ブロック90cに対して要求する。パック化映像音声管理制御ブロック90cは、要求されたパック化映像音声データD2をパック化映像音声データ管理テーブルに従って記録媒体から読み出し、そのデータを多重化映像音声データ構成ブロック90bに出力する。
【0151】
指定したパック化映像音声データD2は、多重化映像音声データ構成ブロック90b内のパック化映像音声データアンパックブロック121に入力される。パック化映像音声データアンパックブロック121は、図6に示すパック化映像音声データD2を映像パートと音声パートに分離し、加えて、それぞれの再生時刻情報を再構成する。タイムスタンプの再構成には、パック化映像音声データ管理制御ブロック90cにおいて管理されている記録媒体管理テーブルD5内の映像音声データの属性P1を利用する。このようにして得られた映像データ、音声データ、およびそれらの再生時刻情報は、多重化データ生成ブロック120に出力される。
【0152】
多重化データ生成ブロック120は受けとった映像データ、音声データおよびそれらの時刻情報から、外部コマンドC1によって指定された多重化フォーマッドに従う方式で多重化された映像音声データを再構成する。このように、多重化フォーマットを再構成する仕組みを持つため、可能な範囲で記録時に入力された多重化フォーマットとは異なる多重化フォーマットで最終的な出力ストリームを出力することもできる。
【0153】
1つのパック化映像音声データD2の出力が完成すると、次のパック化映像音声データD2の処理を開始するために、次パック化映像音声データD2の転送要求C2をパック化映像音声データ管理制御ブロック90cに発行する。以下同様の手続きで後続のパック化映像音声データを逐一処理する。
【0154】
次に特殊再生の場合について説明する。特殊再生は、最初に指定された映像音声コンテンツが通常再生モードで既に再生開始されている状態から起動される。特殊再生は、外部コマンドによりシステム制御ブロック90aを経由し再生方法の1つとして指定される。その指定は、多重化データ生成ブロック121に通知され、多重化データ生成ブロック121は、現在再生中の位置を把握しているので、指定された特殊再生の種類と速度に基づいて、指定された特殊再生を実現するためにはどのパック化映像音声データD2を読み出せばよいか判断できる。その判断により、パック化映像音声データ管理制御ブロック90cに対し、必要となるパック化映像音声データD2を要求する。例えば、多重化を完了した直近の時刻からの時刻差分値を指定することにより、パック化映像音声データD2を指定する。あるいは所望の時刻そのもの、パック化映像音声データ番号そのもの、パック化映像音声データ番号差分値を指定することも出来る。いずれにしても、パック化映像音声データ管理制御ブロック90c中のパック化映像音声データ送信ブロック100が、対象となるパック化映像音声データ管理テーブルを参照し、その最終的に適切なパック化映像音声データD2を選別する。なお、時刻あるいは時刻差分値指定の場合、その時刻に正確に相当するパック化映像音声データD2が存在しない場合がある。この場合は、最も近い時刻のパック化映像音声データD2を選択するなどの工夫が必要である。
【0155】
以上のようにしてパック化映像音声データD2を逐一読み出すことにより、パック化映像音声データ単位の特殊再生用映像音声データを取得することができる。
【0156】
このようにして得られたパック化映像音声データを、通常再生の場合と同様に多重化データ生成ブロック121において多重化し最終的な多重化映像音声データとして出力してもよいが、多重化データ生成ブロック121内部処理を工夫することにより、より高度な特殊再生を実現することもできる。例としてMPEG−2トランスポートストリームを考える。MPEG−2映像データの復号単位は前述のようにGOPである。このGOPを単位にパック化映像音声データD2を構成した場合、その映像データに含まれるフレームとしてI,P,Bフレームが存在する。1パック化映像音声データD2中に含まれるフレーム未満の速度で特殊再生を実現する場合、例えば15フレーム含むパック化映像音声データD2において、IフレームおよびPフレームのみ再生する場合、そのIフレームおよびPフレームのみを抽出し時刻方法を調整した上で多重化を行えば、本再生装置内で特殊再生用の出力を構成することができる。このように、本再生装置内で特殊再生用出力を生成することにより、その出力を受ける媒体、例えばデコーダは特殊再生実現に関して何もしなくて済む。
【0157】
【発明の効果】
本発明によれば、入力される映像音声データに対しその映像音声フォーマットを抽象化する仕組みを有しているため、様々な映像フォーマット、様々な音声フォーマット、様々な多重化フォーマットの映像音声データに柔軟に対応でき、またこれら映像音声データを一元的に管理および記録することができる。
【0158】
また、この発明は、抽象化した映像音声データを管理するテーブルはランダムアクセス性を考慮したものであるため、これを利用することにより、映像フォーマット、音声フォーマットによらない統一した特殊再生が実現できる。また、特殊再生に関わる処理を本再生装置内部で行うため、これを利用するシステムは容易に特殊再生を実現できる。
【0159】
また、本発明によれば、記録媒体を抽象化した形式で、映像音声データを管理するテーブルを生成するため、様々な記録媒体を仕様することができる。
【図面の簡単な説明】
【図1】映像音声データ記録装置の全体構成を示すブロック図である。
【図2】多重化映像音声データ抽象化ブロックの内部構成を示すブロック図である。
【図3】多重化DMUX処理の処理手順を示すフローチャートである。
【図4】映像データ抽象化処理の処理手順を示すフローチャートである。
【図5】音声データ抽象化処理の処理手順を示すフローチャートである。
【図6】パック化映像音声データの構造を示すブロック図である。
【図7】パック化映像音声データ生成処理の処理手順を示すフローチャートである。
【図8】記録時のパック化映像音声データ管理/制御ブロックの内部構造を示すブロック図である。
【図9】パック化映像音声データ管理テーブルの例を示す図である。
【図10】記録時の記録媒体管理テーブルの例を示す図である。
【図11】受信処理の処理手順を示すフローチャートである。
【図12】バッファ制御処理の処理手順を示すフローチャートである。
【図13】パック化映像音声データ管理テーブル制御処理の処理手順を示すフローチャートである。
【図14】記録媒体管理テーブル制御処理の処理手順を示すフローチャートである。
【図15】記録時の記録媒体制御ブロックの内部構造を示すブロック図である。
【図16】記録領域抽象化のためのマップ情報の例を示す図である。
【図17】映像音声データ再生装置の全体構成を示すブロック図である。
【図18】再生時のパック化映像音声データ管理制御ブロックの内部構成を示すブロック図である。
【図19】再生時の記録媒体制御ブロックの内部構造を示すブロック図である。
【図20】再生時の多重化映像音声データ構成ブロックの内部構造を示すブロック図である。
【符号の説明】
10 映像音声データ記録装置、10a システム制御ブロック、10b 多重化映像音声データ抽象化ブロック、10c パック化映像音声データ管理制御ブロック、10d 記録媒体制御ブロック、20 多重化データDMUXブロック、21 映像データ抽象化ブロック、22 音声データ抽象化ブロック、23 パック化映像音声データ生成ブロック、30 パックヘッダ、30a 抽象化音声データ開始位置、30b 抽象化音声データ再生開始スキュー、30c 抽象化映像音声データ再生開始時刻、40 パック化映像音声データ受信ブロック、41 パック化映像音声データバッファ、42 パック化映像音声データD2バッファ制御ブロック、43 パック化映像音声データ管理テーブル制御ブロック、44 記録媒体管理テーブル制御ブロック、70 記録領域割り当てブロック、71 記録媒体抽象化ブロック、72 記録媒体インターフェースブロック、73 データ記録制御ブロック、90 映像音声データ再生装置、90a システム制御ブロック、90b 多重化映像音声データ構成ブロック、90c パック化映像音声データ管理制御ブロック、90d 記録媒体制御ブロック、93 記録媒体、100 パック化映像音声データ送信ブロック、101 パック化映像音声データバッファ、102 パック化映像音声データバッファ制御ブロック、103 パック化映像音声データ管理テーブル制御ブロック、104 記録媒体管理テーブル制御ブロック、110 データ再生制御ブロック、111 記録媒体抽象化ブロック、112 記録媒体インターフェースブロック、120 多重化データ生成ブロック、121 パック化映像音声データアンパックブロック

Claims (23)

  1. 映像音声ソースの記録を開始する記録開始手段と、
    記録される映像音声ソースの属性を指定する属性指定手段と、
    入力されたディジタル映像音声ソースの多重化フォーマットに従う多重化データを解析し、それに含まれる映像データ、音声データ及び映像音声データ同期信号を分離する同期信号分離手段と、
    上記映像データからその映像フォーマットを抽象化したデータを生成する映像抽象化データ生成手段と、
    上記音声データからその音声フォーマットを抽象化したデータを生成する音声抽象化データ生成手段と、
    上記抽象化された映像及び音声データを記録データとしてパック化するパック化手段と、
    上記パック化映像音声データと上記映像音声データ同期情報から、これらを包括的に管理するパック化映像音声データ管理テーブルを生成するパック化映像音声データ管理テーブル生成手段と、
    記録媒体に記録されている各映像音声ソースを識別するための記録媒体管理テーブルを生成する記録媒体管理テーブル生成手段と、
    上記パック化映像音声データ及び上記管理テーブル群を記録するテーブル記録手段を具備した映像音声データ記録装置。
  2. 入力される映像音声データの多重化フォーマット、映像フォーマット、及び音声フォーマットを限定せず、必要に応じて差し替えることができ、またそれらフォーマットとして同時に複数のフォーマットに対応することができることを特徴とする請求項1記載の映像音声データ記録装置。
  3. 上記映像音声ソースは、映像音声データを共に含むデータ、映像データのみ、或いは音声データであることを特徴とする請求項1記載の映像音声データ記録装置。
  4. 上記パック化手段は、映像データの復号単位の整数倍或いは音声データの復号単位の整数倍の何れか一方を基準に映像及び音声データをパック化することを特徴とする請求項1記載の映像音声データ記録装置。
  5. 上記映像音声データのパック化に関して、
    このパック化により映像及び音声データのフォーマットが抽象化されるため、その後段の処理において一元的な記録制御が可能となることを特徴とする請求項1記載の映像音声データ記録装置。
  6. 上記パック化映像音声データ管理テーブルは、
    各パック化映像音声データを提示する時刻と、そのパック化映像音声データを格納した記録媒体上での位置及びそのサイズを格納したテーブルを作成することを特徴とする請求項1記載の映像音声データ記録装置。
  7. 上記記録媒体管理テーブルは、
    記録した映像音声コンテンツ毎にそのパケット化映像音声データ管理テーブルの記録位置、映像音声コンテンツの属性を格納していることを特徴とする請求項1記載の映像音声データ記録装置。
  8. 記録媒体を抽象化した記録位置指定方法に従って、上記管理テーブルを生成するため、ランダムアクセス性を有する全ての記録媒体に適用できることを特徴とする請求項1記載の映像音声データ記録装置。
  9. 映像音声ソースの記録を開始する記録ステップと、
    記録される映像音声ソースの属性を指定するステップと、
    入力されたディジタル映像音声ソースの多重化フォーマットに従う多重化データを解析し、それに含まれる映像データ、音声データ及び映像音声データ同期情報を分離するステップと、
    上記映像データからその映像フォーマットを抽象化したデータを生成するステップと、
    上記音声データからその音声フォーマットを抽象化したデータを生成するステップと、
    上記パック化映像音声データと上記映像音声データ同期情報から、これらを包括的に管理するパック化映像音声データ管理テーブルを生成するステップと、
    記録媒体に記録されている各映像音声ソースを識別するための記録媒体管理テーブルを生成するステップと、
    上記パック化映像音声データ及び上記管理テーブル群を記録する手段を具備した映像音声データ記録方法。
  10. 入力される映像音声データの多重化フォーマット、映像フォーマット、及び音声フォーマットを限定せず、必要に応じて差し替えることができ、またそれらフォーマットとして同時に複数のフォーマットに対応することができることを特徴とする請求項9記載の映像音声データ記録方法。
  11. 上記映像音声ソースは、
    映像音声データを共に含むデータ、映像データのみ或いは音声データのみの対応が可能であることを特徴とする請求項9記載の映像音声データ記録方法。
  12. 抽象化された映像及び音声データを記録データとしてパック化するステップでは、
    映像データの復号単位の整数倍或いは音声データの復号単位の整数倍の何れかを基準に映像及び音声をパック化することを特徴とする請求項9記載の映像音声データ記録方法。
  13. 上記パック化映像音声データ管理テーブルは、
    各パック化映像音声データを提示する時刻と、そのパック化映像音声データを格納した記録媒体上での位置及びそのサイズを格納したテーブルを作成することを特徴とする請求項9記載の映像音声データ記録方法。
  14. 上記記録媒体管理テーブルは、
    記録した映像音声コンテンツ毎にそのパケット化映像音声データ管理テーブルの記録位置、映像音声コンテンツの属性を格納していることを特徴とする請求項9記載の映像音声データ記録方法。
  15. 記録媒体を抽象化した記録位置指定方法に従って上記管理テーブルを生成するため、ランダムアクセス性を有する全ての記録媒体に適用可能であることを特徴とする請求項9記載の映像音声データ記録方法。
  16. 選択された映像音声コンテンツを入力する選択手段と、
    上記選択された映像音声コンテンツの再生方法を指定する再生方法指定手段と、
    上記選択された映像音声コンテンツの多重化方法を指定する多重化方法指定手段と、
    上記映像音声データを提示する時刻と、そのパック化映像音声データを格納した記録媒体上での位置及びそのサイズを格納してパック化映像音声データ管理テーブルの記録位置を格納した記録媒体管理テーブルを読み出す記録媒体管理テーブル取得手段と、
    上記記録媒体管理テーブルに格納されたパック化映像音声データ管理テーブルの記録位置情報に従い、上記映像音声コンテンツに対するパック化映像音声データ管理テーブルを読み出すパック化映像音声データ管理テーブル取得手段と、
    上記パック化映像音声データ管理テーブルから上記映像音声コンテンツ再生方法に従ってパック化映像音声データを順次読み出すパック化データ取得手段と、
    上記読み出されたパック化映像音声データをパック化映像音声データ管理テーブルに記述された映像音声データ属性情報を用いてアンパックするアンパック手段と、
    上記指定された映像音声コンテンツ再生方法および多重化フォーマットに従う映像音声多重化データを生成する多重化データ生成手段を具備する映像音声データ再生装置。
  17. 上記パック化データ取得手段は、
    上記パック化映像音声データ管理テーブルから指定された映像音声コンテンツ再生方法に従い、記録前の映像音声ソースのフォーマットおよび記録媒体に依存せず一元的にパック化映像音声を読み出すことを特徴とする請求項16記載の映像音声データ再生装置。
  18. 上記パック化データ取得手段は、
    上記パック化映像音声データ管理テーブルから指定された映像音声コンテンツの再生方法に従い、特殊再生などの変速制御を行うことを特徴とする請求項16記載の映像音声データ再生装置。
  19. 多重化データ生成手段は、
    記録前の映像音声ソースの多重化フォーマットへの再構築及び/又は別の多重化フォーマットへの変換を行うこと特徴とする請求項16記載の映像音声データ再生装置。
  20. 選択された映像音声コンテンツを入力するステップと、
    上記選択された映像音声コンテンツの再生方法を指定するステップと、
    上記選択された映像音声コンテンツの多重化方法を指定するステップと、
    上記映像音声データを提示する時刻と、そのパック化映像音声データを格納した記録媒体上での位置及びそのサイズを格納してパック化映像音声データ管理テーブルの記録位置を格納した記録媒体管理テーブルを読み出すステップと、
    上記記録媒体管理テーブルに格納されたパック化映像音声データ管理テーブルの記録位置情報に従い、上記パック化映像音声データを順次読み出すステップと、
    上記読み出されたパック化映像音声データをパック化映像音声データ管理テーブルに記述された映像音声データ属性情報を用いてアンパックするステップと、
    上記指定された映像音声コンテンツ再生方法および多重化フォーマットに従う映像音声多重化データを生成するステップを具備する映像音声データ再生方法。
  21. 上記パック化映像音声データ管理テーブル、
    記録前の映像音声ソースのフォーマットおよび記録媒体に依存せず一元的であることを特徴とする請求項20記載の映像音声データ再生方法。
  22. 上記記録媒体管理テーブルに格納されたパック化映像音声データ管理テーブルの記録位置情報に従い、上記パック化映像音声データを順次読み出すステップでは、
    上記パック化映像音声データ管理テーブルから指定された映像音声コンテンツの再生方法に従い、特殊再生などの変速制御を行うことを特徴とする請求項20記載の映像音声データ再生方法。
  23. 上記指定された映像音声コンテンツ再生方法および多重化フォーマットに従う映像音声多重化データを生成するステップでは、
    記録前の映像音声ソースの多重化フォーマットへの再構築及び/又は別の多重化フォーマットへの変換を行うこと特徴とする請求項20記載の映像音声データ再生方法。
JP2003128412A 2002-05-06 2003-05-06 映像音声データ記録装置、映像音声データ記録方法、映像音声データ再生装置、並びに、映像音声データ再生方法 Withdrawn JP2004007648A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US38008902P 2002-05-06 2002-05-06
US10/408,709 US7574113B2 (en) 2002-05-06 2003-04-07 Video and audio data recording apparatus, video and audio data recording method, video and audio data reproducing apparatus, and video and audio data reproducing method

Publications (1)

Publication Number Publication Date
JP2004007648A true JP2004007648A (ja) 2004-01-08

Family

ID=29739784

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003128412A Withdrawn JP2004007648A (ja) 2002-05-06 2003-05-06 映像音声データ記録装置、映像音声データ記録方法、映像音声データ再生装置、並びに、映像音声データ再生方法

Country Status (2)

Country Link
US (1) US7574113B2 (ja)
JP (1) JP2004007648A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006085894A (ja) * 2004-09-14 2006-03-30 Marvell World Trade Ltd 統合型dvd/hddシステムのための統一された制御および記憶
US8676038B2 (en) 2007-07-05 2014-03-18 Sony Corporation Recording/reproducing apparatus, recording apparatus, reproducing apparatus, recording method, reproducing method and computer program
JP2021529478A (ja) * 2018-06-28 2021-10-28 ドルビー ラボラトリーズ ライセンシング コーポレイション 適応的なストリーミング整列のためのフレーム変換

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6760772B2 (en) 2000-12-15 2004-07-06 Qualcomm, Inc. Generating and implementing a communication protocol and interface for high data rate signal transfer
US8812706B1 (en) 2001-09-06 2014-08-19 Qualcomm Incorporated Method and apparatus for compensating for mismatched delays in signals of a mobile display interface (MDDI) system
JP2003199045A (ja) * 2001-12-26 2003-07-11 Victor Co Of Japan Ltd 情報記録信号の生成方法、情報信号の再生方法、情報信号の伝送方法、情報記録信号生成装置、情報信号再生装置、情報信号伝送装置、情報信号記録媒体、及び情報信号伝送用プログラム
CN105406947A (zh) 2003-06-02 2016-03-16 高通股份有限公司 生成并实施一用于更高数据率的讯号协议和接口
JP4102264B2 (ja) * 2003-07-18 2008-06-18 株式会社東芝 デジタルav情報記録媒体とこの媒体を用いる記録/再生方法および記録/再生装置
RU2006107561A (ru) 2003-08-13 2007-09-20 Квэлкомм Инкорпорейтед (US) Сигнальный интерфейс для высоких скоростей передачи данных
DE602004019797D1 (de) 2003-09-10 2009-04-16 Qualcomm Inc Schnittstelle für hohe datenrate
WO2005039148A1 (en) 2003-10-15 2005-04-28 Qualcomm Incorporated High data rate interface
US8756294B2 (en) 2003-10-29 2014-06-17 Qualcomm Incorporated High data rate interface
RU2341906C2 (ru) 2003-11-12 2008-12-20 Квэлкомм Инкорпорейтед Интерфейс высокоскоростной передачи данных с улучшенным управлением соединением
JP2007512785A (ja) 2003-11-25 2007-05-17 クゥアルコム・インコーポレイテッド 改良されたリンク同期を備えた高速データレートインタフェース
EP2247069B1 (en) 2003-12-08 2013-09-11 Qualcomm Incorporated High data rate interface with improved link synchronization
CN101827103B (zh) 2004-03-10 2012-07-04 高通股份有限公司 具有改进链路同步的高数据速率接口
WO2005091593A1 (en) 2004-03-17 2005-09-29 Qualcomm Incorporated High data rate interface apparatus and method
WO2005096594A1 (en) 2004-03-24 2005-10-13 Qualcomm Incorporated High data rate interface apparatus and method
US20050232609A1 (en) * 2004-04-16 2005-10-20 Andreas Eckleder System and method for converting DVD based video recording formats among each other
US8650304B2 (en) 2004-06-04 2014-02-11 Qualcomm Incorporated Determining a pre skew and post skew calibration data rate in a mobile display digital interface (MDDI) communication system
EP1978692B1 (en) 2004-06-04 2011-07-27 QUALCOMM Incorporated High data rate interface apparatus and method
CN100370545C (zh) * 2004-06-10 2008-02-20 圆创科技股份有限公司 影音信息的编码与解码方法
US8539119B2 (en) 2004-11-24 2013-09-17 Qualcomm Incorporated Methods and apparatus for exchanging messages having a digital data interface device message format
US8723705B2 (en) 2004-11-24 2014-05-13 Qualcomm Incorporated Low output skew double data rate serial encoder
US8873584B2 (en) 2004-11-24 2014-10-28 Qualcomm Incorporated Digital data interface device
US8699330B2 (en) * 2004-11-24 2014-04-15 Qualcomm Incorporated Systems and methods for digital data transmission rate control
US8692838B2 (en) 2004-11-24 2014-04-08 Qualcomm Incorporated Methods and systems for updating a buffer
US8667363B2 (en) 2004-11-24 2014-03-04 Qualcomm Incorporated Systems and methods for implementing cyclic redundancy checks
US7634727B2 (en) 2005-04-26 2009-12-15 Microsoft Corporation System for abstracting audio-video codecs
US8692839B2 (en) 2005-11-23 2014-04-08 Qualcomm Incorporated Methods and systems for updating a buffer
US8730069B2 (en) 2005-11-23 2014-05-20 Qualcomm Incorporated Double data rate serial encoder
US7752647B2 (en) * 2006-07-18 2010-07-06 Via Technologies, Inc. Video data packing
US8655143B2 (en) * 2009-04-01 2014-02-18 Cisco Technology, Inc. Supplementary buffer construction in real-time applications without increasing channel change delay
US8731000B2 (en) * 2009-09-30 2014-05-20 Cisco Technology, Inc. Decoding earlier frames with DTS/PTS backward extrapolation
TWI519147B (zh) 2011-12-28 2016-01-21 財團法人工業技術研究院 提供與傳送複合濃縮串流之方法以及系統
RU2701060C2 (ru) 2014-09-30 2019-09-24 Сони Корпорейшн Передающее устройство, способ передачи, приемное устройство и способ приема
CN108540761B (zh) * 2017-03-01 2021-02-05 中国电信股份有限公司 用于视频监控的数据合并处理方法、装置和系统

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2785220B2 (ja) * 1992-09-22 1998-08-13 ソニー株式会社 データ符号化装置および方法、並びにデータ復号化装置および方法
JP3597690B2 (ja) * 1998-01-21 2004-12-08 株式会社東芝 デジタル情報記録再生システム
CN1169150C (zh) * 1998-10-12 2004-09-29 松下电器产业株式会社 用于记录或再现信息记录介质中的数据的装置和方法
US6784941B1 (en) * 2000-08-09 2004-08-31 Sunplus Technology Co., Ltd. Digital camera with video input

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006085894A (ja) * 2004-09-14 2006-03-30 Marvell World Trade Ltd 統合型dvd/hddシステムのための統一された制御および記憶
US8676038B2 (en) 2007-07-05 2014-03-18 Sony Corporation Recording/reproducing apparatus, recording apparatus, reproducing apparatus, recording method, reproducing method and computer program
JP2021529478A (ja) * 2018-06-28 2021-10-28 ドルビー ラボラトリーズ ライセンシング コーポレイション 適応的なストリーミング整列のためのフレーム変換
US11368747B2 (en) 2018-06-28 2022-06-21 Dolby Laboratories Licensing Corporation Frame conversion for adaptive streaming alignment
JP7171772B2 (ja) 2018-06-28 2022-11-15 ドルビー ラボラトリーズ ライセンシング コーポレイション 適応的なストリーミング整列のためのフレーム変換
US11770582B2 (en) 2018-06-28 2023-09-26 Dolby Laboratories Licensing Corporation Frame conversion for adaptive streaming alignment

Also Published As

Publication number Publication date
US7574113B2 (en) 2009-08-11
US20030231870A1 (en) 2003-12-18

Similar Documents

Publication Publication Date Title
JP2004007648A (ja) 映像音声データ記録装置、映像音声データ記録方法、映像音声データ再生装置、並びに、映像音声データ再生方法
TW439054B (en) Optical disc, optical disc recording method and apparatus, and optical disc reproducing method and apparatus
JP4299836B2 (ja) データ処理装置
JP5052763B2 (ja) 映像データの記録された情報貯蔵媒体、その記録方法、記録装置、再生方法及び再生装置
JP3900050B2 (ja) データ処理装置、ビデオカメラ及びデータ処理方法
JP2008178112A (ja) Avデータ記録再生装置及び方法、当該avデータ記録再生装置又は方法で記録されたディスク
JP2008305545A (ja) 記録媒体、記録装置、再生装置、記録方法、再生方法、及びプログラム
JP2003169292A (ja) アフレコ装置、コンピュータプログラム、記録媒体、伝送方法及び再生装置
JP2002094930A (ja) 記録装置、記録方法、再生装置、再生方法、及び記憶媒体
JPWO2005015907A1 (ja) データ処理装置
JP2005117660A (ja) 多重化されていないストリームを含むavデータを記録した情報保存媒体、その再生方法及び装置
JP4251149B2 (ja) 情報管理システム、情報管理装置及び情報管理方法
CN106233389B (zh) 再现方法、再现装置以及记录介质
JPWO2004080071A1 (ja) データ処理装置
JP2004128938A (ja) Avデータ記録再生装置および方法
JP2001043616A (ja) 記録方法、記録媒体及び記録装置
JP4284073B2 (ja) Avデータ記録再生装置及び方法、並びに当該avデータ記録再生装置又は方法で記録された記録媒体
JP4566745B2 (ja) データ処理装置
JP2004005934A (ja) 記録媒体、記録装置、再生装置、記録方法、再生方法、及びプログラム
JP4616144B2 (ja) データ処理装置
JP2005198350A (ja) アフレコ信号再生方法
JP2006352458A (ja) 情報処理装置および方法、記録媒体、並びにプログラム
JP2006014256A (ja) 映像音声データ記録再生装置
JP4431076B2 (ja) 再生装置及び再生方法及び再生処理用プログラム並びに再生処理用プログラムを記録したプログラム記録媒体
JP3781288B2 (ja) データ記録装置、データ記録再生装置及びデータ記録方法

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20060801