JP4013800B2 - Data creation method and data recording apparatus - Google Patents

Data creation method and data recording apparatus Download PDF

Info

Publication number
JP4013800B2
JP4013800B2 JP2003073840A JP2003073840A JP4013800B2 JP 4013800 B2 JP4013800 B2 JP 4013800B2 JP 2003073840 A JP2003073840 A JP 2003073840A JP 2003073840 A JP2003073840 A JP 2003073840A JP 4013800 B2 JP4013800 B2 JP 4013800B2
Authority
JP
Japan
Prior art keywords
data
information
encoded
encoding
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003073840A
Other languages
Japanese (ja)
Other versions
JP2004280994A (en
Inventor
和生 藤本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2003073840A priority Critical patent/JP4013800B2/en
Publication of JP2004280994A publication Critical patent/JP2004280994A/en
Application granted granted Critical
Publication of JP4013800B2 publication Critical patent/JP4013800B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To realize quick recording onto an external recording medium by encoding a digital signal in an encoding system other than the encoding system of the digital signal to record it simultaneously with inputting of the digital signal. <P>SOLUTION: Input data are decoded to extract encoding information and synchronizing information when a digitally encoded AV signal is inputted, and audio decoded data are encoded again simultaneously with decoding in accordance with extracted encoding information, and extracted synchronizing information is given, and thus reencoded data are generated. <P>COPYRIGHT: (C)2005,JPO&amp;NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、デジタル符号化されたオーディオ・ビデオデータを一旦デコードしたあとで、本機器以外の外部機器で扱うことができるデジタル符号化方式に変換し、再エンコード記録を実行するためのデータ作成方法及び作成されたデータを記録するデータ記録装置に関する。
【0002】
【従来の技術】
近年、CDや、DVD、ハードディスク等の各種記録媒体にデジタル圧縮されて記録されたAV信号を読み取り、伸張した信号を、装置に接続された映像モニタや音響スピーカ等を通じて再生するAV再生装置が広く普及してきている。
【0003】
デジタル圧縮符号化されたAV信号のデータをそれぞれ伸張してオーディオ成分信号とビデオ成分信号とを再生するAV再生装置において、デジタル圧縮に際しての既知な規格としては、MPEG(Motion Picture Experts Group)が知られている。MPEGでは多重化されて圧縮符号化されたAV信号のデータをデコードしたあとで、同期して再生を実行するため、符号時にAV信号におけるオーディオ成分信号とビデオ成分信号とのそれぞれに再生及び表示を実行する時刻情報が付加されて圧縮される。これにより、伸張時には装置が有するシステム時刻基準参照値に対し、これらの時刻情報を参照してオーディオ成分信号とビデオ成分信号との同期を合わせながら再生を実行している。
【0004】
さらに、再生装置だけでなく、入力されたAV信号のデジタル符号化を実施し、エンコード機能を有する記録装置も普及してきた。以下、従来のエンコードデータを作成するデータ作成方法について説明する。なお、出願人は、特許文献1に開示されているデータ作成方法を認識しており、本発明の課題を明確にするために、先行技術の内容を従来例として、簡単に説明する。
【0005】
従来例では、すでにエンコードされたデジタルビットストリームを他のセクションまたはエンコードされたビデオに置き換える方法及びシステムについて説明している。除去されるビデオの代わりに挿入されるエンコードのために、変更区間の各ピクチャーで消費されたビット数、各ピクチャーのシーケンスヘッダーのビット数、各ピクチャーグループ(GOP)ヘッダーのビット数、及び全スタッフビットを加算し計算される。そしてエンコードされたデータで置き換える工程が実施される。
【0006】
【特許文献1】
特表平11−500592号公報
【0007】
【発明が解決しようとする課題】
しかしながら、上述した特許文献1に開示されている方法では、指定された部分のビデオデータを同じ符号化方式によって交換する方法が記述されているが、オーディオデータを交換する方法が説明されていない。特にオーディオデータにおいては、符号化方式がデジタル放送ではAAC方式とDVDプレーヤ等ではドルビー方式等で異なるので、デジタル放送を受信記録したオーディオデータを、DVDプレーヤ等で再生可能なオーディオ方式で再生するためには、オーディオの符号化方式を変換して記録しておくことが必要であった。しかしながら従来の方法をそのままオーディオ側に採用したとしても、符号化処理の相違により、そのまま適用できないという課題があった。
【0008】
本発明は、以上のような問題点を解消するためになされたもので、外部から入力されたデジタル符号化オーディオデータを一旦デコードしたあとで、本機器以外の外部機器で扱うことができるデジタル符号化方式に変換し、再エンコード記録を実行するためのデータ作成方法またはデータ記録装置を提供することができるものである。
【0009】
【課題を解決するための手段】
第1の本発明(請求項1に対応)によるデータ作成方法は、デジタル符号化されたAV信号入力時に、入力データのデコードを行って同期情報を抜き出し、デコードと同時にオーディオデコードデータの再エンコードを行い、前記抜き出した同期情報を付与することにより、再エンコードデータを作成することを特徴とするもので、元々の入力データによるAVの同期再生と同様に、後でビデオデータと再エンコードしたオーディオデータという組でも同期再生が可能であるという作用を有する。
【0010】
第2の本発明(請求項2に対応)によるデータ作成方法は、デジタル符号化されたAV信号入力時に、入力データのデコードを行って符号化情報及び同期情報を抜き出し、デコードと同時に前記抜き出した符号化情報と同じまたは少ないビット量でオーディオデコードデータの再エンコードを行い、前記抜き出した同期情報を付与することにより、再エンコードデータを作成することを特徴とするもので、後でビデオデータと再エンコードしたオーディオデータという組で同期再生を行うための再エンコードオーディオデータ量が、元のオーディオデータ量以下であるため、再エンコードオーディオデータ記録容量を抑制できるという作用を有する。
【0011】
第3の本発明(請求項3に対応)によるデータ作成方法は、デジタル符号化されたAV信号入力時に、入力データのデコードを行って符号化情報及び同期情報を抜き出すと同時に、デコードのバッファモデル情報を取得し、前記抜き出したバッファモデル内で前記抜き出した符号化情報と同じまたは少ないビット量でオーディオデコードデータの再エンコードを行い、前記抜き出した同期情報を付与することにより、再エンコードデータを作成することを特徴とするもので、後でビデオデータと再エンコードしたオーディオデータという組で同期再生を行うときに、元のバッファモデル情報を参照してエンコードするので、バッファモデルが破綻しないエンコードできるという作用を有する。
【0012】
第4の本発明(請求項4に対応)によるデータ作成方法は、入力データのデコードを行って符号化情報及び同期情報を抜き出し、オーディオデコードと同時に前記抜き出した符号化情報より同じもしくは低いビットレートで符号化した再エンコードを行うことを特徴とするもので、元オーディオデータに対して同等または低いビットレートで符号化し再エンコードするため、記録媒体の記録容量を押さえた記録、もしくは低速な伝送帯域での出力への対応を可能とする。
【0013】
第5の本発明(請求項5に対応)によるデータ作成方法は、入力データのデコードを行って符号化情報及び同期情報を抜き出し、オーディオデコードと同時に前記抜き出した符号化情報と同じもしくは少ないオーディオチャンネル数で符号化した再エンコードを行うことを特徴とするもので、再エンコード符号化方法や、再生機器の制限等でオーディオチャンネル数を制限して再エンコードするため、例えば総チャンネル数を減らしても、1チャンネルあたりのビットレートを上げて記録できるという作用を有する。
【0014】
第6の本発明(請求項6に対応)によるデータ作成方法は、入力データのデコードを行って符号化情報及び同期情報を抜き出し、オーディオデコードと同時に前記抜き出した符号化情報と同じもしくは少ないオーディオチャンネル数でかつ各オーディオチェンネル信号を合成することにより新たな音響効果を加えて再エンコードを行うことを特徴とするもので、再エンコード時に特殊な音響効果をいれられるため、低域をアップするような処理や、サラウンド効果を増加させて記録できるという作用を有する。
【0015】
第7の本発明(請求項7に対応)によるデータ作成方法は、デジタル符号化されたAV信号入力時に、入力信号をそのまま記録した元データと、請求項1、請求項2、または請求項3によるデータ記録を行った再エンコードデータの両方を参照し、前記元データの一部と、前記再エンコードデータ及び各々の同期情報を用いてシステムエンコードを実施することにより、デジタル符号化データを生成することを特徴とするもので、元のオーディオデータと再エンコードしたオーディオデータを入れ替えても、ビデオデータと再エンコードしたオーディオデータを用いた同期再生が可能であるという作用を有する。
【0016】
第8の本発明(請求項8に対応)によるデータ作成方法は、デジタル符号化されたAV信号入力時に、入力信号をそのまま記録した元データと、請求項2または、請求項3によるデータ記録を行った再エンコードデータの両方を参照し、前記元データの一部と、前記再エンコードデータ及び各々の同期情報、及び符号化情報を用いてシステムエンコードを実施することにより、デジタル符号化データを生成することを特徴とするもので、再エンコードしたオーディオデータ量が、元のオーディオデータ量と同等またはそれ以下であるため、元オーディオデータと入れ替えた後でも記録媒体への記録容量が増加しないという作用を有する。
【0017】
第9の本発明(請求項9に対応)によるデータ作成方法は、デジタル符号化されたAV信号入力時に、入力信号をそのまま記録した元データと、請求項3によるデータ記録を行った再エンコードデータの両方を参照し、前記元データの一部と、前記再エンコードデータ及び各々の同期情報、符号化情報、及びバッファモデル情報を用いてシステムエンコードを実施することにより、デジタル符号化データを生成することを特徴とするもので、再エンコードしたオーディオデータとビデオデータをあわせてデコードしたときにおいても、オーバーフローやアンダーフローが発生しないようにシステムエンコードを実施したものを生成
できるという作用を有する。
【0018】
第10の本発明(請求項10に対応)によるデータ作成方法は、デジタル符号化されたAV入力信号をデコードすることなく記録した一次記録Aのファイルと、請求項1、請求項2、または請求項3により生成されたデジタル符号化データを記録した一次記録Bのファイルを単一のファイルとして保存することを特徴とするもので、同期情報を一にするAVストリームデータを一括管理できるという作用を有する。
【0019】
第11の本発明(請求項11に対応)によるデータ作成方法は、デジタル符号化されたAV入力信号をデコードすることなく記録した一次記録Aのファイルと、請求項1、請求項2、または請求項3により生成されたデジタル符号化データを記録した一次記録Bのファイルと、各々のファイルを関連づける関連情報により別々のファイルとして保存することを特徴とするもので、一次記録Aのオリジナル情報ファイルと入力後に作成したファイルを、別々の記録媒体に保存しても関連づけて再生できるという作用を有する。
【0020】
第12の本発明(請求項12に対応)によるデータ記録方法は、利用者からの入力等による出力情報設定により、請求項7、請求項8、または請求項9により生成されたデジタル符号化データを、直接二次記録媒体に記録する形式に変換して記録することを特徴とするもので、二次記録媒体への高速記録が可能であれば、再生に比べ短時間での記録を可能とするという作用を有する。
【0021】
第13の本発明(請求項13に対応)によるデータ出力方法は、利用者からの入力等による出力情報設定により、請求項7、請求項8、または請求項9により生成されたデジタル符号化データを、接続された外部機器インタフェースの仕様に変換して出力することを特徴とするもので、伝送帯域と品質に応じた出力を可能とし、相手機器側での再生もしくは記録を保証できるという作用を有する。
【0022】
第14の本発明(請求項14に対応)によるデータ記録装置は、デジタル符号化されたAV信号を入力する入力部と、入力データをデコードすることなく記録する一次記録A部と、入力データのデコードを実行するデコード部と、前記デコード部により符号化情報及び同期情報を抜き出して格納するデコード情報格納部と、前記デコード部によりデコードされたデコードデータの再エンコードを行うエンコード部と、前記エンコード部で作成したエンコードデータを記録する一次記録B部と、前記エンコード部でエンコード時に作成した符号化情報及び同期情報を格納するエンコード情報格納部と、前記一次記録A部と少なくとも一つの一次記録B部、及び前記エンコード情報格納部の情報によりシステムエンコードを実施するシステムエンコード部と、前記システムエンコード部により作成されたデジタル符号化AV信号を記録する二次記録部とから構成し、前記システムエンコード部が、前記エンコード情報格納部に格納された符号化情報及び同期情報をもちいて一次記録A部の内容の一部を一次記録B部の内容と入れ替えてシステムエンコードを行うことを特徴とするもので、ビデオデータは再エンコードすることなく元データのままで、オーディオデータのみを再エンコードデータを入れ替えることによりシステムエンコードを、各同期情報を用いて高速変換でき、二次記録部へ高速記録を実行できるという作用を有する。
【0023】
第15の本発明(請求項15に対応)によるデータ出力装置は、デジタル符号化されたAV信号を入力する入力部と、入力データをデコードすることなく記録する一次記録A部と、入力データのデコードを実行するデコード部と、前記デコード部により符号化情報及び同期情報を抜き出して格納するデコード情報格納部と、前記デコード部によりデコードされたデコードデータの再エンコードを行うエンコード部と、前記エンコード部で作成したエンコードデータを記録する一次記録B部と、前記エンコード部でエンコード時に作成した符号化情報及び同期情報を格納するエンコード情報格納部と、前記一次記録A部と少なくとも一つの一次記録B部、及び前記エンコード情報格納部の情報によりシステムエンコードを実施するシステムエンコード部と、前記システムエンコード部により作成されたデジタル符号化AV信号を外部接続機器に出力する別機器出力部とから構成し、前記システムエンコード部が、前記エンコード情報格納部に格納された符号化情報及び同期情報をもちいて一次記録A部の内容の一部を一次記録B部の内容と入れ替えてシステムエンコードを行うことを特徴とするもので、ビデオデータは再エンコードすることなく元データのままで、オーディオデータのみを再エンコードデータを入れ替えることによりシステムエンコードを、各同期情報を用いて高速変換でき、外部出力機器へ高速転送を実行できるという作用を有する。
【0024】
【発明の実施の形態】
以下に、本発明にかかる実施の形態について、図面を参照しつつ説明を行う。
【0025】
(実施の形態1)
はじめに、本発明の実施の形態1によるデータ記録装置の構成を示すブロック図である図1と図2を主として参照しながら、本実施の形態のデータ作成方法について説明する。
【0026】
まず、図1、図3、図5のブロック図及び、図4、図6の流れ図を用いて、入力データから一次記録データを作成するところまでを説明する。
【0027】
デジタル圧縮符号化されたオーディオ・ビデオデータを格納するDVHSレコーダや光ディスク等のデータ記録装置や、BSデジタル放送等の受信機からデータを読み出す入力部1と、入力部1から入力されたデータを記録する一次記録A部7と、多重化されて記録されているオーディオ・ビデオデータを分離し、ビデオ再生時刻情報とオーディオ再生時刻情報等を抽出し、再生時刻情報に従って伸張処理を行うデコード部2と、デコード部2によって抽出された再生時刻情報等のデコード情報を格納するデコード情報格納部3と、デコード部2でデコードされたオーディオデータと、デコード情報格納部3に格納された同期情報をもとにオーディオエンコードを実行するエンコード部4と、エンコード部4により作成された符号化オーディオデータを格納する一次記録B部5と、エンコード部4により作成された符号化オーディオデータの同期情報等を格納するエンコード情報格納部6から構成される。
【0028】
図3は、デコード部2の詳細を示したブロック図であり、多重化されて記録されているオーディオ・ビデオデータを分離し、ビデオ再生時刻情報とオーディオ再生時刻情報を抽出するシステムデコード部21と、システムデコード部21によって分離された圧縮ビデオデータをビデオ再生時刻情報に従って伸張処理を行うビデオデコード部22と、システムデコード部21によって分離された圧縮オーディオデータをオーディオ再生時刻情報に従って伸張処理を行うオーディオデコード部23から構成される。
【0029】
ビデオ処理は、システムデコーダ部21内のパーサ部211によって分離されたビデオデータを格納する圧縮ビデオバッファ部212と、圧縮ビデオバッファ部212に格納されたビデオ信号とビデオ再生時刻情報を関連づけるテーブルを有するビデオ再生時刻情報管理部213と、圧縮ビデオデータの属性情報(ビデオヘッダ情報)の解析、及び伸張を実行するビデオデコーダ部22と、伸張したビデオデータを格納するフレームバッファ部221と、フレームバッファ部221から外部にビデオ信号を出力するビデオ出力部222から構成される。
【0030】
オーディオ処理は、システムデコード部21内のパーサ部211によって分離されたオーディオデータを格納する圧縮オーディオバッファ部214と、圧縮オーディオバッファ部214に格納されたオーディオ信号とオーディオ再生時刻情報を関連づけるテーブルを有するオーディオ再生時刻情報管理部215と、圧縮オーディオデータの属性情報(オーディオヘッダ情報)の解析、及び伸張を実行するオーディオデコーダ部23と、伸張したオーディオデータを格納するPCMバッファ部231と、PCMバッファ部231内のオーディオデータを外部に出力するオーディオ出力部232から構成される。
【0031】
オーディオ再生時刻情報管理部215には、オーディオデコード部23により、該当するオーディオデータが再生されるまでの時刻情報が保管される。該当時刻に対応するオーディオデータが再生されれば、そのテーブル値は不要となり、パーサ部211から次の入力データ登録される形で、テーブルが更新される。
【0032】
MPEGでの同期を実現するために、ビデオとオーディオの各アクセスユニットと呼ばれる復号再生の単位ごと(ビデオは1フレーム、オーディオは1オーディオフレーム)に、いつ復号再生すべきかというタイムスタンプ情報が付加されている。このタイムスタンプ値は、PTS(Presentation Time Stamp)と呼ばれ、ビデオ用は、Video PTS (VPTSと略)、オーディオ用は、 AudioPTS (APTSと略)の再生出力の時刻管理情報を表している。
【0033】
再生装置内の標準のシステム基準参照部24では、MPEGシステムの基準復号器内部のSTC(System Time Clock) を発生する。装置側でSTCを作成するためには、DVDディスク等で使用されるプログラムストリーム(PS)で用いるSCR(System Clock Reference:システム時刻基準参照値)、またはBSデジタル放送で使用されるトランスポートストリーム(TS)で用いるPCR(Program Clock Reference:プログラム時刻基準参照値)の値を用いる。その最終バイトの到着時(読み込み時)に、SCRまたはPCRの示す値をSTCに設定することによって、基準時刻を設定することができる。さらに、このSTCの値の設定と、PLL(位相ロックループ)回路を組み合わせることにより、デコーダ側の基準時刻用システムクロックと完全に周波数が一致したSTCをもつことができる。このSTCのシステムクロックは27メガヘルツで構成される。このSTCからカウンタ等により分周することにより、各PTS(90キロヘルツ周期)が参照される。各デコーダは、STCが、ビデオはVPTS、オーディオはAPTSが一致したときに、そのアクセスユニットを再生出力する。PTSの精度は、90キロヘルツである。従って、この90キロヘルツの精度の範囲内で、STCとVPTS、APTSの同期をとれるように、各々のデコードを実施すれば、AV同期のとれた出力がなされるものである。
【0034】
図4は、本発明によるAV同期処理の流れ図である。ステップA301及びA302において、システムデコード部21は、データ記録装置等から入力された符号化データを、圧縮ビデオデータと圧縮オーディオデータに分離する。圧縮ビデオデータは、圧縮ビデオバッファ部212に、圧縮オーディオデータは、圧縮オーディオバッファ部214に格納される。またビデオフレームについているビデオ再生時刻情報VPTSを抜き出し、圧縮ビデオバッファ部212への参照アドレスと共に、ビデオ再生時刻管理部213に格納される。
【0035】
一方、圧縮オーディオデータは、オーディオフレームについているオーディオ再生時刻情報APTSを抜き出し、図5に示すように、例えばAPTSごとにスロットという単位で分割し、圧縮オーディオバッファ部214への参照アドレスと共に、オーディオ再生時刻管理部215に格納される。また、APTSエントリ数は、このテーブルで管理している時刻情報の管理数を示す。
【0036】
ステップA303で、VPTSがシステム時刻基準(STC)に達するまえに、ビデオデコードを実施しフレームバッファ部221に格納する。同じようにステップA304で、APTSがSTCに達するまえに、オーディオデコードを実施し、PCMバッファ部231に格納する。各々デコードは実施するが、デコード後直ちに出力するわけではない。ステップA305で、STCを参照し、VPTSが一致もしくは超過した時点で、該VPTSに関連するビデオデコードデータを、フレームバッファ部221から、ビデオ出力部222を介して出力する。
【0037】
次にステップA306で、STCを参照し、APTSが一致もしくは超過した時点で、該APTSに関連するオーディオデコードデータを、PCMバッファ部231から、オーディオ出力部232を介して出力する。
【0038】
なお、装置によっては、光出力端子からドルビーデジタル等のストリームのままで出力する場合もある。このような場合、ストリームバッファ(図示せず)に一旦蓄えて、STCを参照し、APTSが一致もしくは超過した時点で、オーディオ出力部232から出力する。
【0039】
入力されるデータの終了もしくは、ユーザによる再生の停止が指示されれば、ステップA307でデコードを終了する。
【0040】
STCに対して、VPTS及びAPTSを同期させるよう、ビデオデコード及びオーディオデコードを実施する。特に、APTSにVPTSが、50ミリ秒先行から、30ミリ秒遅延までの間にあわせれば、リップシンクのずれは気にならない程度となる。
【0041】
入力されたデータをデコードする動作について説明してきたが、デコードされたデータを入力として、そのデータをエンコードし直す(以下再エンコードと称す)処理について、図1のブロック図と、図6の流れ図を参照しながら説明する。
【0042】
デジタル符号化されたAV信号の記録用の入力が開始される(ステップA101)。ここで、入力されたAV信号の符号化方式を変更する必要がなければ、再エンコードの系を起動する必要はない。着脱可能な記録媒体もしくは外部出力の再生に適した符号化方式への変換が必要であれば、符号化方式を変換(以下codec変換と略す)する。ステップA102で、codec変換が必要かどうかを判断し、不要であれば、一次記録A部7に入力データをデコードすることなく記録する。codec変換が必要であれば、先に説明したデコード動作を開始する。
【0043】
デコード実施時において、デコード部により符号化情報及び同期情報を抜き出して(ステップA104、ステップA105)、デコード情報格納部3に記録する。codec変換時においても、入力データは一次記録A部7へ記録される。記録終了時には、デコード情報格納部3へ記録された各情報の一部もしくは全部が、入力データとともに一次記録A部7へ記録するように構成しておくと、記録終了後に再エンコードや編集を加えるときに、同期情報や時刻情報があるので都合がよい。デコード情報格納部3は、例えば図8のように構成される。31は符号化情報を格納するcodec情報部である。32は同期時刻情報部である。また33は後で説明するバッファモデル情報格納部である。
【0044】
ステップA106で、codec変換をするために、デコード部2によりデコードされた、例えばオーディオデコードデータの再エンコードを行うエンコード部5により、オーディオエンコードが実施される。エンコードを実施するためには、デコード情報格納部3に格納された符号化情報を参照する。
【0045】
デコード情報格納部3のcodec情報部31には、例えば、符号化情報(オーディオ)には、MPEG−2 AAC(Advanced Audio Coding)方式(以下AAC方式と略す)や、ドルビーデジタル方式など符号化変換方式情報、チャンネル数、ビットレート、サンプリング周波数情報、量子化ビット数、などが該当する。
【0046】
オーディオの再エンコードは、入力されたオーディオの符号化情報を参照しながら、符号化する符号化情報を決定する。AAC方式からドルビーデジタル方式への変換や、チャンネル数が5.1チャンネルからステレオ2チャンネル形式への変換、384キロビット/秒から、256キロビット/秒への変換などである。入力された信号のサンプリング周波数から記録再生機器に適したサンプリング周波数の変更を行う場合もある。また符号化方式がリニアPCMになる場合などでは、量子化ビット数が変更になる場合もある。デコーダ部2からエンコーダ部4へ入力されるときに、例えば入力音声が32キロヘルツのサンプリング周波数から、記録用音声が48キロヘルツへのサンプリング周波数に変換するときには、サンプリングレートコンバータなどの半導体素子や、デジタルフィルタによる演算処理、デジタルアナログ変換素子とアナログデジタル変換素子の組み合わせなどで、これらの変換を実現することができる。
【0047】
図9にエンコード情報格納部6の構成を示す。codec情報部61に再エンコードされた符号化情報を格納する。
【0048】
次にステップA105で抜き出した同期情報を用い、再エンコードしたオーディオデータに同期情報を追加する。ステップA107で、もとの映像データと同期したオーディオデータに対する同期情報を用い、デコードから再エンコードへの遅延時間を考慮して、同じ映像に対する再エンコードデータが一致するように同期情報を追加する。エンコード情報格納部6の同期時刻情報部62に同期情報が格納される。一旦デコードしたデータを例えば一旦メモリ上に待避し、待避データを再エンコードのために取り込むための半導体メモリなどが必要になる。しかしながら、この変換のための時間が33ミリ秒(NTSC方式の画像更新周期)であるならば、デコードしたPCMデータは、サンプリング周波数が48キロヘルツ、量子化16ビット、2チャンネルで換算すれば、約6400バイトとなる。
【0049】
ステップA108で、再エンコードしたオーディオ符号化データは、一次記録B部5に記録され、エンコード部4でエンコード時に作成した符号化情報及び同期情報は、エンコード情報格納部6に格納される。さらにエンコード情報格納部6の内容も一次記録B部5へ記録するように構成してもよい。あとで、符号化されたビデオデータと再エンコードされたオーディオデータとの同期再生のときに、同期情報が同じ一次記録B部5にあれば、データの保守管理がしやすい。
【0050】
再エンコード時に、デジタル符号化されたAV信号入力時に、入力データのデコードを行って符号化情報及び同期情報を抜き出し、オーディオデコードと同時に抜き出した符号化情報と同じまたは少ないビット量でオーディオデコードデータの再エンコードを行えば、抜き出した同期情報を付与することにより、再エンコードデータを作成すれば、再エンコードオーディオデータ量が、元のオーディオデータ量以下であるため、再エンコードオーディオデータ記録容量を抑制できる。例えば、ある記録媒体に記録された入力データから別の記録媒体への変換を施す場合に、記録容量の増減の見込みが立てられやすくなる。記録容量のより少ない記録媒体への記録が想定される場合には特に有効である。
【0051】
また、外部記録媒体で、再生可能なビットレートとするために、入力データから抜き出した符号化情報と同じまたは少ないビット量とすることもある。例えば携帯型オーディオプレーヤでは、その再生機や記録媒体の形状やバッテリ容量などから記録容量と記録時間が制約される場合が多い。そのためにより圧縮符号化度を高める再エンコードを行って、ビットレートを下げて記録することもある。
【0052】
また、再生機器の制限等でオーディオチャンネル数を低減して再エンコードする場合もある。オーディオデコードと同時に抜き出した符号化情報と同じもしくは少ないオーディオチャンネル数で符号化した再エンコードを行う。これは再生機側の再生仕様や機能により、5.1チャンネルサラウンド再生機能がない場合や、2ヶ国語放送を再生するためのデュアルモノラルといわれる方式で片方のチャンネル(例えば日本語/英語が記録され、日本語のみ再生など)のみの選択再生ができない場合は、デコード後、オーディオ信号処理を施し、チャンネル数を減らした上で予め再エンコード時を実施し、記録媒体B部6へ記録する。チャンネル数を減らすための信号処理としては、5.1チャンネルの各チャンネルからステレオ2チャンネルへの変更に対しAAC方式などでは、各々加算係数が規定されているので、各位相がずれないように加算すればよい。
【0053】
地上波の現行のアナログ2カ国語放送では、左右の2チャンネルに別々の言語音声(英語と日本語など)がはいっているので、2カ国語放送から一方の言語音声のモノラル記録を行うときなどへのチャンネル数変換が発生することがある。また入力側のソースがデュアルモノラル音声であるときも、一方の音声のみのモノラルへの変換が発生する。例えば左音声(以下Lと略)と右音声(以下Rと略)から片方を選択し、選択された側のみのモノラル記録とすればよい。あるいは、片方のLの選択音声を位相がずれないようにR側へデータ複写することでも実現できる。
【0054】
この場合再エンコード時において、再生機器の制限等でオーディオチャンネル数を制限して再エンコードするが、記録側の記録容量が入力データと同一であれば、例えば総チャンネル数を減らしても、1チャンネルあたりのビットレートを上げて記録することもできる。例えば入力が5.1チャンネル(合計で256キロビット/秒で、再エンコード側が2チャンネル(合計256キロビット/秒)の場合には、1チャンネルあたりのビットレートを上げて記録できる。
【0055】
さらに再エンコード時において、各オーディオチェンネル信号を合成することにより新たな音響効果を加えて再エンコードを行えば、低域の音量をアップするような処理や、サラウンド効果を増加させて記録できる。再生機器側が貧弱な音響装置しかない場合、映画の主役のセリフを強調すれば、背景音楽に消されそうなセリフ音声が聞きやすくなる。また逆にライブ音楽番組の記録等で反響された音楽を強調したい場合など、サラウンド効果用信号処理を施した後で再エンコードを実施すれば、擬似ステージ感覚を楽しめる。例えば、エコーのようなある一定の遅延素子と、遅延信号に特定のゲイン係数を掛けて加算する信号処理を施せば、反響音を作り出すことができる。
【0056】
このように符号化方式を変更するときだけではなく、音響効果を加えた別のオーディオストリームを作り出すときにも本発明は有効である。さらに、元のビデオデータとの同期再生が可能であるため、元の入力オーディオストリームと再エンコードしたオーディオストリームによる再生オーディオストリームの途中切り替えも可能である。各々同じビデオストリームに対して同期が可能であるので、ビデオ出力を止めることなく、途中でオーディオ出力のみを入れ替えることができる。このように元のストリームに対し、再エンコードを実施したストリームを組にして記録媒体にすれば、再生機器の環境に応じて再生可能なオーディオストリームでの再生を可能とすることもできる。
【0057】
なお、元データに対し、再エンコードしたオーディオデータ量が少ない場合には、必要に応じてMPEGの方式で定められているスタッフィングビットが追加される。
【0058】
また、エンコード部4は、1つのみではなく、再エンコードしたい符号化方式の数等に応じられるよう、複数保有する形でもよい。再エンコード毎に、一次記録B部5の個数を増やすもしくは、別のファイルに記録し、またエンコード情報格納部6における各情報も別々にもてばよい。ハードウェア資源、もしくはソフトウェアによる演算量と及びデータ転送、記録速度と記録容量等が許す範囲内であれば個数に制限はない。
【0059】
もちろん一次記録A部7も複数あってよい。例えば、マルチアングルストリームなど、入力部1から同じ番組に対するマルチストリームが入った場合に、同一の一次記録B部5に対して、複数の一次記録A部7が対応する場合が存在する。ただし、複数のマルチストリームにおいて、各々のビデオストリームに対して同一の識別番号を有するオーディオストリームが用いられている、もしくは異なる識別番号でありながら、同期情報は同じでかつ中身は全く同一のオーディオストリームである場合などの限定が必要になる。一次記録A部7と一次記録B部5は、同期情報という共通情報で結びつけることができる。
【0060】
さらに一次記録A部7と一次記録B部5が複数ずつ存在するという場合もある。しかし共通の時刻情報を同期情報としてある限りは、どのような組み合わせでも同期再生が可能となる。また、1つのビデオストリームに対し、2種類以上のオーディオストリームがある場合がある。これに対しては、元のオーディオストリーム間で共通の時刻情報による管理がされていれば、複数のオーディオストリームをデコードし、各々の再エンコードしたオーディオストリームを作成しても同期再生が可能となる。
【0061】
次に、図2のブロック図及び、図7の流れ図を用いて、一次記録データから二次記録データもしくは外部出力データを作成するところを説明する。
【0062】
図2において、一次記録A部7と一次記録B部5、及びエンコード情報格納部6は図1と同様のものである。加えて、エンコード情報格納部6の情報によりシステムエンコードを実施するシステムエンコード部11と、システムエンコード部11により作成されたデジタル符号化AV信号を記録する二次記録部13、システムエンコード部11により作成されたデジタル符号化AV信号を外部接続機器に出力する別機器出力部14、及びシステムエンコードを二次記録部13、あるいは別機器出力部14の選択もしくは両方等を設定する出力先情報設定部12とから構成する。
【0063】
ステップA201で二次記録開始(もしくは外部接続機器出力開始)が選択される。ステップA202では一次記録A部7から入力され記録された元データを読み出す。ステップA203で、二次記録部13に記録する符号化方式が一次記録A部7と同一でよいかを判断する。同一でよい場合は、読み出したデータをそのまま記録する。あとで説明する再エンコードされた一次記録B部5の情報を用いる必要はない。
【0064】
一方、符号化方式の変更が必要な場合は、ステップA204で、システムエンコードに必要な情報をエンコード情報格納部6から読み出す。このエンコード情報格納部6には、codec情報部61から符号化情報(オーディオ)である符号化方式(AAC方式、ドルビーデジタル方式など)、チャンネル数、ビットレート、サンプリング周波数情報、量子化ビット数が、同期時刻情報部62には同期情報、時刻情報などが、オーディオエンコード時に保存されている。一次記録A部7の元映像ストリームのどのVPTSと、一次記録B部5の再エンコードオーディオストリームのAPTSとを読み出すことによって、ステップA205で、両一時記録部内のAV同期づけられたシステムエンコードを実現することができる。
【0065】
ビデオデータとの参照は、VPTSとAPTSの関連づけを再優先とする。もともとAV同期再生用にビデオストリームにはVPTSが、オーディオストリームにはAPTSが付与されている。そこで、オーディオ側のみを入れ替えるときには、VPTS側には何の操作も行わず、再エンコードしたオーディオデータに適したAPTSを付与することにより、AV同期再生を実現する。
【0066】
つまり、システムエンコード部11が、エンコード情報格納部6に格納された符号化情報及び同期情報をもちいて一次記録A部7の元オーディオストリームを一次記録B部5の再エンコードオーディオストリームと入れ替えてシステムエンコードを行うものである。本発明では、再エンコード時において、ビデオストリームを再エンコードする必要がないため、ビデオエンコード用のバッファメモリや演算プロセッサ資源等は必要がない。またオーディオストリームも基本的に入れ替えを前提とすれば、元データより多くの記録容量を必要とせず、外部機器への伝送において多くの伝送帯域や速度を必要とすることはない。
【0067】
出力先情報設定部12の入力により、ステップA206で二次記録部13へ出力するか否かを選択する。二次記録部13への記録が選択されれば、ステップA207で、二次記録部13への記録が、ステップA208で記録終了判定がなされるまで実行される。記録終了判定としては、記録するデータがなくなった場合、記録媒体への残り記録容量がなくなった場合、利用者指示による記録停止が指示された場合、記録媒体がなんらかの障害(例えば傷など)による記録の続行が不可能になった場合などである。一方、外部接続機器側への出力が選択された場合は、ステップA209により、別機器出力部14から出力が、出力終了判定がなされるまで実行される。出力終了判定としては、出力するデータがなくなった場合、相手側機器側からによる出力停止指示の受信の場合、利用者指示による出力停止が指示された場合、出力インタフェースのなんらかの障害(例えば伝送経路の切断など)による出力の続行が不可能になった場合などである。
【0068】
なお、出力先情報設定部12の構成例として、例えば二次記録部13が挿入され、記録可能容量があるときや、別機器出力部14が相手先機器との接続を確認したときに自動判別する方式、利用者による選択ボタン設定や、GUIによるメニュー選択方式などがある。
【0069】
よって、デジタル符号化されたAV入力信号をそのまま記録した元データと、再エンコードデータの両方を参照し、元データの一部と、再エンコードデータ及び各々の同期情報、及び符号化情報を用いてシステムエンコードを実施することにより、出力用のデジタル符号化データを生成することを特徴とする。
【0070】
デコード時においてビデオストリームとオーディオストリームを通常再生する場合のバッファモデル情報を、デコード情報格納部3のバッファモデル情報部33に格納しておくような構成をとれば、下記のような効果が得られる。再エンコード時に、デコード時に作成したバッファモデル情報33を参照したエンコードを行い、その結果としてエンコード情報格納部6内にバッファモデル情報部63を作成する。すると、システムエンコード時において、オーディオデータとビデオデータをあわせてデコードしたときにおいても、オーバーフローやアンダーフローが発生しないように、ビデオストリームとオーディオストリームの分割を考慮したシステムエンコードが実施できる。もともと入力されたデータをデコードしたときにおいて、通常デコードが可能であるならば、デコード時のバッファモデル情報に従って、再エンコード用のバッファモデル情報を作成して残しておけば、システムエンコード時のバッファモデル管理が行いやすい。
【0071】
特に、ビデオ符号化が、変化が激しい時に多くのビット量を割り当てる可変レート制御方式であれば、ビデオストリームとオーディオストリームの単位時間あたりのビット割付量は絶えず変化する。一方システムエンコードされたデータをデコード時において、ビデオとオーディオの一方のアンダーフローやオーバーフローを起こすことなく再生できるように、バッファモデル管理は重要である。そこで、再エンコード時に作成しておいたバッファモデル情報部63を用いてシステムエンコード時に使用することにより、どの部分でビデオストリームのビット割当量が増加するか前もってわかるため、オーディオストリームを前もって記録しておくなどシステムエンコードの制御を可能とする。
【0072】
一方ビデオ符号化が、毎回同じビット割付量である固定ビットレートであった場合は、単位時間あたりのビット割当量が変化しないため、バッファモデル管理はたやすいものとなる。最初にオーバーフローやアンダーフローが行い割り当てを行えば、記録が終了するまでシステムエンコーダによる割り当て変更の制御は必要がない。
【0073】
そこで、デジタル符号化されたAV入力信号をそのまま記録した元データと、再エンコードデータの両方を参照し、元データの一部と、再エンコードデータ及び各々の同期情報、符号化情報、及びバッファモデル情報を用いてシステムエンコードを実施することにより、出力用のデジタル符号化データを生成することを特徴とする。
【0074】
元データの一部とは、これまで説明してきた再エンコードデータに取り変えられる部分のデータを指す。例えば、オーディオデータとそれに付随するオーディオ再生同期情報、符号化情報などである。
【0075】
しかし、本発明は、オーディオの再エンコードについて説明してきたが、取り替えられるデータが、以下に説明するように、オーディオデータばかりとは限らない。記録媒体を再生する再生機側の都合により、出力設定に合わせたビデオ再エンコードについても、本発明と同様に実現できる。例えば、ビデオ出力のアスペクト比が16:9から4:3への変換にともなう画像切り出し、24コマ/秒の映画ソースから、30コマ/秒のTV放送の再生に即したビデオ信号への変換などは、同じようにビデオを再エンコードすることにより実現できる。つまり符号化方式は変わらなくとも、もとの映像再生情報を変更して記録したいときなどにも有効である。さらにオーディオストリームやビデオストリーム以外にも適用可能である。字幕情報などがはいったサブピクチャストリームのみの変更といった用途にも適用可能である。
【0076】
また同じオーディオ入力ストリームに対し、2つ以上のビデオ入力ストリームがある場合がある。マルチアングルで撮影した映像をデジタル衛星放送やケーブル放送で放送している。このような場合、片方のストリームのデコード映像に対し、もう片方のストリームを再エンコードしたビデオデータに同期情報を付加し、同じ同期情報を有するものを重ね合わせてさらに1つの画面に合成して、同期情報を付加して記録すれば、同時に2画面の再生と1つのオーディオを同期して再生できる。またNTSC方式だけでなく、PAL方式への再エンコードなど、異なった再生方式への再エンコードも有効である。
【0077】
一部の入れ替えについて説明してきたが、全部入れ替える場合においては、真映像も音声も全く再エンコードとなるため、デコード再生したAV信号を再エンコードすることとなる。一次記録A部7の元AV信号データに対し、一次記録B部5には、再エンコードされた独立なAV信号データが作成されることとなり、二次記録部13への記録は、再エンコードされた一次記録B部5のみが記録されるため、本発明の対象ではない。
【0078】
これまでは、一次記録A部7のファイルと、一次記録B部5のファイルを、各々のファイルを関連づける関連情報により別々のファイルとして保存する方法について説明してきた。
【0079】
単に容量の増加に対応するといった目的の他に、一次記録A部7を大容量のリムーバルディスクに、一次記録B部5はハードディスクにといった別の記録媒体に記録することによって、例えば入力部1から記録したデータをそのまま記録した一次記録A部7については、単独で別の機器に装着して再生することができるが、一次記録B部5は、一次記録A部7との組み合わせでのみ再生出力が有効とするような運用を図ることができる。関連情報さえあれば、複数の一次記録B部5を有する構成となる場合にファイルが、別れていてもよい。
【0080】
一方、一次記録A部7のファイルと、一次記録B部5のファイルを単一のファイルとして保存する構成も想定される。一方が着脱可能な形で外されてしまったときには、両者を参照したシステムエンコードはできない。両者のファイルを唯一的に管理したい要望が強い場合には、同一のファイルのなかに両者の符号化データ及び同期情報などの情報を格納しておけば、管理は行いやすいという利点がある。目的や用途に応じて、一時記録の構成はどちらもとりうるが、本発明のデータ作成方法によれはどちらの要望にも応えることができる。
【0081】
さらに、利用者からの入力等による出力情報設定により、再エンコードされたデジタル符号化データを、直接二次記録媒体に記録する形式に変換して記録すること、または接続された外部機器インタフェースの仕様に変換して出力することが必要な場合がある。
【0082】
二次記録部13へ記録するためには、記録容量を鑑みながら、記録媒体のフォーマットやファイルシステムの作成、記録番組名や記録ファイルの識別子、番組の付属情報等をつけることがある。必要に応じて記録した内容のベリファイや、また残り記録容量をみながら記録の終了判定が必要である。なお残り記録容量がなくなれば、システムエンコードを続けることは不要である。
【0083】
二次記録部13に記録する場合は、ストリームの最初から順序よく記録することは大きな問題ではない。再エンコードができあがった部分から記録すればよい。二次記録部13を再生するときに最初から再生できるようにさえ記録されていればよい。また記録速度も二次記録部13の記録媒体に応じればよい。つまりシステムエンコードが高速であり、記録速度も通常再生に必要な再生速度の数倍以上が可能であれば、再生に比べて短時間で記録が終了する。
【0084】
さらに利用者への便宜をはかるため、各種ナビゲーション情報も追加することが好ましい。番組の先頭へのポインタ情報、ある一定間隔でスキップするときなどの飛び先アドレス情報などがこれに該当する。二次記録部13を例えばDVDプレーヤと想定すると、ナビゲーション情報を追加して記録しておけば、通常市販のDVDディスク再生と同様に、各番組別や、ある一定時間単位でのスキップ(順方向、逆方向など)が可能である。従って、システムエンコード時に、デコード情報格納部3やエンコード情報格納部6の、同期時刻情報などの情報を用いてこれらのナビゲーション情報を生成する。
【0085】
一方、別機器への出力の場合は、インタフェース接続のコネクション処理や、プロトコル処理、相手機器側からの応答処理などが必要である。別機器出力部14の相手機期側で入力と同時にデコード再生している場合は、ストリームの最初から順序よく途中でとぎれることなく一定の転送速度で出力することが必要である。つまり、伝送帯域と品質に応じた出力を可能とするため、相手機器側での再生もしくは記録を保証できるという作用を有する。もちろん別機器出力部14の相手側に記録機器が接続されている場合、記録時に再生が必要でなければ、高速転送による短時間記録が可能となる。
【0086】
一次記録A部7や一次記録B部5については、ハードディスク等を想定して説明してきたが、半導体メモリや、CDやDVD、Blu−Rayなどの光ディスク、デジタル信号記録テープ等の媒体をもちいてもよい。二次記録部13は、着脱可能なテープやディスク、半導体メモリなどのメモリ単体及びメモリ機器などが該当する。
【0087】
本発明では、入力時に、再エンコードデータを作成する方法について説明してきたが、再エンコードは入力時のみに限ることはない。予めデジタル符号化されたAV信号が入力され、一次記録A部7とデコード情報格納部3へ記録しておき、夜間など利用者が視聴しない時間などに、一旦デコード再生をして、デコード情報格納部3を参照しながら、再エンコードして一次記録B部5へ記録するデータを作成する構成でもよい。また、予めデジタル符号化されたAV信号が入力され、一次記録A部7へ記録しておき、夜間など利用者が視聴しない時間などに、一旦デコード再生をして、デコード情報格納部3を作成しながら、再エンコードして一次記録B部5へ記録するデータを作成する構成でもよい。入力から二次記録部13への記録、もしくは別機器出力部14からの出力までの期間に、再エンコードしたデータを作成し、元データとの一部の入れ替えによるシステムエンコードを容易に実現することをポイントとする。
【0088】
なお、外部接続機器の機器ID等、相手側機器を特定する情報を認識することによって、再エンコードする情報を読みこんで、エンコード条件設定値を設定するような構成でもよい。例えば、相手側出力機器側の機器種別を知るID番号等を受け取り、本体内もしくは、エンコード条件設定用のメモリカード内のIDとエンコードパラメータの関係を納めたテーブルを参照し、設定を行うような構成をとれば、再生装置による設定を利用者の操作をともなわずとも実現することが可能である。これらの外部接続機器には、TVなどのモニタ出力機器や、オーディオ出力アンプ、AVセレクタ機能を有するAVアンプなどのインタフェース機器、携帯型出力機器、車載用AV再生機器などが想定される。
【0089】
なお、入力データは、外部から入力されるデータとして説明してきたが、予め機器内に存在するデータであってもよい。また入力はシステムデコード部21がAV分離したあとについて説明してきた。しかし、あらかじめAV分離されているファイルデータであってもよい。圧縮ビデオデータと関連する再生時刻情報、圧縮オーディオデータと再生時刻情報を入力として、オーディオデータの再エンコードを実施する形式でもよい。これは、ビデオカメラ等で撮影した信号をパーソナルコンピュータ上で編集した結果として、AV混合ファイルもしくは、AV独立のファイルどちらの場合でも、圧縮ビデオデータと関連する再生時刻情報、圧縮オーディオデータと再生時刻情報を互いに関連づけた同期をとって再生する場合すべてに適応されるものである。
【0090】
また、デジタル圧縮符号化ストリームとして、オーディオが非圧縮であるリニアPCMの場合もある。リニアPCMの場合、非圧縮オーディオフレームであるから、伸張動作は不要であるが、ストリームに含まれる同期情報に従ってAV同期再生は同じ方式を持って対応することができる。
【0091】
この本発明のデータ作成方法及び、記録装置の適用例としては、DVDレコーダ、ハードディスクレコーダ、内部に記録装置を有するセットトップボックス、同じく記録装置を有するデジタル衛星放送受像機、パーソナルコンピュータなどがある。本発明のデータ作成方法によるAVデータ作成プログラムを作成しておくことにより、パーソナルコンピュータ等へ、外部からの動作プログラムをロードして実行動作させることができる。
【0092】
【発明の効果】
以上説明したように、本発明では、デジタル符号化されたAV信号入力時に、入力データのデコードを行って同期情報を抜き出し、オーディオデコードと同時にオーディオデコードデータの再エンコードを行い、前記抜き出した同期情報を付与することにより、再エンコードデータを作成することを特徴とするもので、後でビデオデータと再エンコードしたオーディオデータを用いた同期再生が可能であるとともに、同期情報を元に高速にシステムエンコードができるため、二次きろくへの高速な短時間記録を可能とするという効果がある。
【図面の簡単な説明】
【図1】本発明の実施例の一時記録を作成するまでの構成を示すブロック図
【図2】本発明の実施例の二次記録を作成するところの構成を示すブロック図
【図3】本発明の実施例のデコード部の構成を示す図
【図4】本発明の実施例のデコード方法を説明する流れ図
【図5】本発明の実施例のオーディオ再生時刻情報管理部の構成を示す図
【図6】本発明の実施例の一時記録を作成するまで方法を説明する流れ図
【図7】本発明の実施例の二次記録を作成するまでの方法を説明する流れ図
【図8】本発明の実施例のデコード情報格納部の構成を示す図
【図9】本発明の実施例のエンコード情報格納部の構成を示す図
【符号の説明】
1 入力部
2 デコード部
3 デコード情報格納部
4 エンコード部
5 一次記録B部
6 エンコード情報格納部
7 一次記録A部
11 システムエンコード部
12 出力先情報設定部
13 二次記録部
14 別機器出力部
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a data creation method for executing re-encoding recording by once decoding digitally encoded audio / video data and then converting the digitally encoded audio / video data into a digital encoding method that can be handled by an external device other than the present device. The present invention also relates to a data recording apparatus for recording the created data.
[0002]
[Prior art]
In recent years, AV playback apparatuses that read AV signals that have been digitally compressed and recorded on various recording media such as CDs, DVDs, and hard disks, and play the expanded signals through video monitors, audio speakers, and the like connected to the apparatus are widely used. It has become widespread.
[0003]
MPEG (Motion Picture Experts Group) is known as a known standard for digital compression in an AV reproduction apparatus that reproduces an audio component signal and a video component signal by respectively decompressing digital compression encoded AV signal data. It has been. In MPEG, after decoding multiplexed and compression-encoded AV signal data, playback is performed synchronously, so that playback and display are performed on each of the audio component signal and video component signal in the AV signal at the time of encoding. Time information to be executed is added and compressed. Thus, at the time of decompression, reproduction is executed while synchronizing the audio component signal and the video component signal with reference to the time information with respect to the system time base reference value possessed by the apparatus.
[0004]
Furthermore, not only a reproducing apparatus but also a recording apparatus that performs an digital encoding of an input AV signal and has an encoding function has become widespread. A conventional data creation method for creating encoded data will be described below. The applicant is aware of the data creation method disclosed in Patent Document 1, and in order to clarify the problem of the present invention, the contents of the prior art will be briefly described as a conventional example.
[0005]
The prior art describes a method and system for replacing an already encoded digital bitstream with another section or encoded video. The number of bits consumed in each picture in the modified interval, the number of bits in the sequence header of each picture, the number of bits in each picture group (GOP) header, and the total stuff for the inserted encoding instead of the video to be removed Calculated by adding bits. Then, the process of replacing with the encoded data is performed.
[0006]
[Patent Document 1]
Japanese National Patent Publication No. 11-500592
[0007]
[Problems to be solved by the invention]
However, although the method disclosed in Patent Document 1 described above describes a method for exchanging video data of a specified portion by the same encoding method, a method for exchanging audio data is not described. In particular, in audio data, the encoding method differs between the AAC method in digital broadcasting and the Dolby method in DVD players, etc., so that the audio data received and recorded in the digital broadcasting is reproduced in an audio method that can be reproduced by a DVD player or the like. It was necessary to convert and record the audio encoding method. However, even if the conventional method is adopted as it is on the audio side, there is a problem that it cannot be applied as it is due to a difference in encoding processing.
[0008]
The present invention has been made in order to solve the above-described problems. A digital code that can be handled by an external device other than the present device after once decoding externally input digitally encoded audio data. It is possible to provide a data creation method or a data recording apparatus for performing re-encoding recording by converting to a conversion method.
[0009]
[Means for Solving the Problems]
According to the first aspect of the present invention (corresponding to claim 1), when a digitally encoded AV signal is input, the input data is decoded to extract synchronization information, and at the same time as the decoding, the audio decoded data is re-encoded. And re-encoding data is created by adding the extracted synchronization information, and the video data and re-encoded audio data are later re-encoded in the same manner as the AV synchronous playback based on the original input data. Even in such a group, synchronized playback is possible.
[0010]
According to a second aspect of the present invention (corresponding to claim 2), when digitally encoded AV signals are input, the input data is decoded to extract encoded information and synchronization information, and the extracted information is extracted simultaneously with decoding. The audio decoding data is re-encoded with the same or less bit amount as the encoded information, and the re-encoded data is created by adding the extracted synchronization information. Since the amount of re-encoded audio data for performing synchronous reproduction with the set of encoded audio data is less than or equal to the original audio data amount, the re-encoded audio data recording capacity can be suppressed.
[0011]
According to a third aspect of the present invention (corresponding to claim 3), when a digitally encoded AV signal is input, the input data is decoded to extract encoded information and synchronization information, and at the same time, a decoding buffer model Obtains information, re-encodes audio decode data with the same or less bit amount as the extracted encoded information in the extracted buffer model, and creates re-encoded data by adding the extracted synchronization information When performing synchronous playback with a pair of video data and re-encoded audio data later, encoding is performed with reference to the original buffer model information, so that the buffer model can be encoded without failing. Has an effect.
[0012]
According to a fourth aspect of the present invention (corresponding to claim 4), input data is decoded to extract encoded information and synchronization information, and at the same or lower bit rate than the extracted encoded information simultaneously with audio decoding. In order to encode and re-encode the original audio data at the same or lower bit rate, the recording capacity of the recording medium can be reduced, or the transmission bandwidth can be reduced. It is possible to correspond to the output at.
[0013]
According to a fifth aspect of the present invention (corresponding to claim 5), the input data is decoded to extract the encoded information and the synchronization information, and the audio channel is the same as or less than the extracted encoded information simultaneously with the audio decoding. The number of audio channels is limited due to the re-encoding method and the limitation of the playback equipment, so that re-encoding is performed. For example, even if the total number of channels is reduced This has the effect that recording can be performed by increasing the bit rate per channel.
[0014]
According to a sixth aspect of the present invention (corresponding to claim 6), the input data is decoded to extract the encoded information and the synchronization information, and the audio channel is the same as or less than the extracted encoded information simultaneously with the audio decoding. It is characterized by re-encoding by adding a new sound effect by synthesizing each audio channel signal with a number, and a special sound effect can be put at the time of re-encoding, so that the low range is increased. It has the function of recording with increased processing and surround effect.
[0015]
According to a seventh aspect of the present invention (corresponding to claim 7), when a digitally encoded AV signal is inputted, original data in which the input signal is recorded as it is, and claim 1, claim 2 or claim 3 The digital encoding data is generated by referring to both the re-encoded data on which the data recording is performed and performing system encoding using a part of the original data, the re-encoded data and the respective synchronization information. Thus, even if the original audio data and the re-encoded audio data are exchanged, the video data and the re-encoded audio data can be used for synchronized reproduction.
[0016]
According to an eighth aspect of the present invention (corresponding to claim 8), when a digitally encoded AV signal is inputted, the original data in which the input signal is recorded as it is and the data recording according to claim 2 or claim 3 are recorded. Digitally encoded data is generated by referring to both of the re-encoded data and performing system encoding using a part of the original data, the re-encoded data, each synchronization information, and encoded information. Since the amount of re-encoded audio data is equal to or less than the original audio data amount, the recording capacity to the recording medium does not increase even after replacing the original audio data. Have
[0017]
According to a ninth aspect of the present invention (corresponding to claim 9), when digitally encoded AV signals are inputted, original data in which the input signals are recorded as they are, and re-encoded data in which the data recording according to claim 3 is performed The digital encoded data is generated by performing system encoding using a part of the original data and the re-encoded data and the respective synchronization information, encoding information, and buffer model information. Generates the system encoded data so that overflow and underflow do not occur even when re-encoded audio data and video data are decoded together.
Has the effect of being able to.
[0018]
A data creation method according to a tenth aspect of the present invention (corresponding to claim 10) is a primary record A file in which a digitally encoded AV input signal is recorded without decoding, and claim 1, claim 2, or claim The primary recording B file in which the digitally encoded data generated according to the item 3 is recorded is stored as a single file, and the AV stream data having the same synchronization information can be collectively managed. Have.
[0019]
A data creation method according to an eleventh aspect of the present invention (corresponding to claim 11) is a primary record A file in which a digitally encoded AV input signal is recorded without decoding, and claim 1, claim 2, or claim A file of the primary record B in which the digitally encoded data generated in the item 3 is recorded, and a separate file according to related information that associates each file, and the original information file of the primary record A A file created after input can be played back in association with it even if it is stored in a separate recording medium.
[0020]
A data recording method according to a twelfth aspect of the present invention (corresponding to claim 12) is the digitally encoded data generated by claim 7, 8, or 9 by setting output information by input from a user or the like. Is converted to a format for recording directly on a secondary recording medium, and recording can be performed in a shorter time than reproduction if high-speed recording on the secondary recording medium is possible. Has the effect of
[0021]
The data output method according to the thirteenth aspect of the present invention (corresponding to claim 13) is the digitally encoded data generated according to claim 7, 8, or 9 by setting output information by input from a user or the like. Is converted to the specifications of the connected external device interface, and output according to the transmission band and quality is possible, and playback or recording on the partner device side can be guaranteed. Have.
[0022]
A data recording apparatus according to a fourteenth aspect of the present invention (corresponding to claim 14) is an input unit for inputting a digitally encoded AV signal, a primary recording A unit for recording the input data without decoding, and an input data A decoding unit that performs decoding; a decoding information storage unit that extracts and stores encoded information and synchronization information by the decoding unit; an encoding unit that re-encodes decoded data decoded by the decoding unit; and the encoding unit A primary recording B section that records the encoded data created in step 1, an encoding information storage section that stores encoded information and synchronization information created during encoding by the encoding section, and the primary recording A section and at least one primary recording B section And a system encoder that performs system encoding based on the information in the encoding information storage unit. And a secondary recording unit that records the digitally encoded AV signal generated by the system encoding unit, and the system encoding unit stores the encoded information and synchronization stored in the encoding information storage unit. It is characterized in that a part of the content of the primary recording A part is replaced with the content of the primary recording B part by using information and system encoding is performed. The video data remains as the original data without being re-encoded, and the audio is recorded. By replacing the re-encoded data with only the data, the system encoding can be converted at high speed using each synchronization information, and high-speed recording can be performed on the secondary recording unit.
[0023]
According to a fifteenth aspect of the present invention (corresponding to claim 15), an input unit for inputting a digitally encoded AV signal, a primary recording A unit for recording the input data without decoding, and an input data A decoding unit that performs decoding; a decoding information storage unit that extracts and stores encoded information and synchronization information by the decoding unit; an encoding unit that re-encodes decoded data decoded by the decoding unit; and the encoding unit A primary recording B section that records the encoded data created in step 1, an encoding information storage section that stores encoded information and synchronization information created during encoding by the encoding section, and the primary recording A section and at least one primary recording B section And a system encoder that performs system encoding based on the information in the encoding information storage unit. And a separate device output unit that outputs the digitally encoded AV signal created by the system encode unit to an external device, and the system encode unit stores the code stored in the encode information storage unit. The system encoding is performed by replacing part of the contents of the primary recording A section with the contents of the primary recording B section using the conversion information and the synchronization information. The system encoding can be converted at high speed using each synchronization information by replacing the re-encoded data with only the audio data, and the high-speed transfer to the external output device can be performed.
[0024]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments according to the present invention will be described below with reference to the drawings.
[0025]
(Embodiment 1)
First, a data creation method according to the present embodiment will be described with reference mainly to FIGS. 1 and 2 which are block diagrams showing the configuration of the data recording apparatus according to the first embodiment of the present invention.
[0026]
First, the process of creating primary recording data from input data will be described with reference to the block diagrams of FIGS. 1, 3, and 5 and the flowcharts of FIGS.
[0027]
Data recording device such as DVHS recorder and optical disc for storing digital compression encoded audio / video data, input unit 1 for reading data from a receiver such as BS digital broadcast, and data input from input unit 1 are recorded A primary recording A section 7 for decoding, and a decoding section 2 for separating audio / video data recorded in a multiplexed manner, extracting video playback time information, audio playback time information, and the like, and performing expansion processing according to the playback time information A decoding information storage unit 3 for storing decoding information such as reproduction time information extracted by the decoding unit 2, audio data decoded by the decoding unit 2, and synchronization information stored in the decoding information storage unit 3 An encoding unit 4 for performing audio encoding, and an encoding audio created by the encoding unit 4 A primary recording portion B 5 for storing data, and a encoding information storage unit 6 for storing the synchronization information of the coded audio data created by the encoding unit 4.
[0028]
FIG. 3 is a block diagram showing details of the decoding unit 2, which separates the audio / video data recorded by multiplexing and extracts the video reproduction time information and the audio reproduction time information, The video decoding unit 22 performs decompression processing on the compressed video data separated by the system decoding unit 21 according to the video playback time information, and the audio performs decompression processing on the compressed audio data separated by the system decoding unit 21 according to the audio playback time information. The decoding unit 23 is configured.
[0029]
The video processing includes a compressed video buffer unit 212 that stores video data separated by the parser unit 211 in the system decoder unit 21, and a table that associates video signals stored in the compressed video buffer unit 212 with video playback time information. A video playback time information management unit 213, a video decoder unit 22 that performs analysis and decompression of attribute information (video header information) of compressed video data, a frame buffer unit 221 that stores decompressed video data, and a frame buffer unit The video output unit 222 is configured to output a video signal from 221 to the outside.
[0030]
The audio processing includes a compressed audio buffer unit 214 that stores audio data separated by the parser unit 211 in the system decoding unit 21, and a table that associates audio signals stored in the compressed audio buffer unit 214 with audio reproduction time information. Audio playback time information management unit 215, audio decoder unit 23 that performs analysis and decompression of attribute information (audio header information) of compressed audio data, PCM buffer unit 231 that stores the decompressed audio data, and PCM buffer unit The audio output unit 232 outputs the audio data in the H.231 to the outside.
[0031]
The audio reproduction time information management unit 215 stores time information until the corresponding audio data is reproduced by the audio decoding unit 23. If the audio data corresponding to the corresponding time is reproduced, the table value becomes unnecessary, and the table is updated in such a manner that the next input data is registered from the parser unit 211.
[0032]
In order to realize the synchronization in MPEG, time stamp information indicating when to decode and reproduce is added to each unit of decoding and reproduction called video and audio access units (one frame for video and one audio frame for audio). ing. This time stamp value is called PTS (Presentation Time Stamp), and represents the time management information of the reproduction output of Video PTS (abbreviated as VPTS) for video and AudioPTS (abbreviated as APTS) for audio.
[0033]
A standard system standard reference unit 24 in the playback apparatus generates an STC (System Time Clock) inside the MPEG system standard decoder. In order to create an STC on the device side, an SCR (System Clock Reference) used in a program stream (PS) used in a DVD disc or the like, or a transport stream (used in BS digital broadcasting) The value of PCR (Program Clock Reference) used in TS) is used. The reference time can be set by setting the value indicated by the SCR or PCR in the STC when the last byte arrives (when reading). Furthermore, by combining this STC value setting with a PLL (phase lock loop) circuit, it is possible to have an STC whose frequency completely matches the reference time system clock on the decoder side. The STC system clock is composed of 27 MHz. Each PTS (90 kHz cycle) is referred to by dividing the STC by a counter or the like. Each decoder reproduces and outputs the access unit when the STC matches the VPTS for video and the APTS for audio. The accuracy of PTS is 90 kilohertz. Therefore, if each decoding is performed so that STC, VPTS, and APTS can be synchronized within the accuracy range of 90 kilohertz, an AV-synchronized output can be obtained.
[0034]
FIG. 4 is a flowchart of AV synchronization processing according to the present invention. In steps A301 and A302, the system decoding unit 21 separates the encoded data input from the data recording device or the like into compressed video data and compressed audio data. The compressed video data is stored in the compressed video buffer unit 212, and the compressed audio data is stored in the compressed audio buffer unit 214. Also, the video playback time information VPTS attached to the video frame is extracted and stored in the video playback time management unit 213 together with the reference address to the compressed video buffer unit 212.
[0035]
On the other hand, the audio playback time information APTS attached to the audio frame is extracted from the compressed audio data, and divided into slots, for example, for each APTS, as shown in FIG. 5, and the audio playback together with the reference address to the compressed audio buffer unit 214 is performed. Stored in the time management unit 215. The number of APTS entries indicates the number of times of time information managed in this table.
[0036]
In step A303, video decoding is performed and stored in the frame buffer unit 221 before the VPTS reaches the system time reference (STC). Similarly, in step A304, audio decoding is performed and stored in the PCM buffer unit 231 before the APTS reaches STC. Each decoding is performed, but it is not output immediately after decoding. In step A305, the STC is referenced, and when the VPTS matches or exceeds, the video decode data related to the VPTS is output from the frame buffer unit 221 via the video output unit 222.
[0037]
Next, in step A306, the STC is referred to, and when the APTS matches or exceeds, audio decode data related to the APTS is output from the PCM buffer unit 231 via the audio output unit 232.
[0038]
Depending on the device, there may be a case where the optical output terminal is output as a Dolby Digital stream. In such a case, the data is temporarily stored in a stream buffer (not shown), is referred to the STC, and is output from the audio output unit 232 when the APTS matches or exceeds.
[0039]
If the input data is finished or the user instructs to stop the reproduction, the decoding is finished in step A307.
[0040]
Video decoding and audio decoding are performed so that VPTS and APTS are synchronized with the STC. In particular, if the VPTS is set to the APTS between the time of 50 milliseconds preceding and the time of 30 milliseconds delay, the lip sync will not be noticed.
[0041]
The operation for decoding the input data has been described. The block diagram of FIG. 1 and the flowchart of FIG. 6 are shown for the process of re-encoding the data with the decoded data as input (hereinafter referred to as re-encoding). The description will be given with reference.
[0042]
Input for recording the digitally encoded AV signal is started (step A101). Here, if it is not necessary to change the encoding method of the input AV signal, it is not necessary to activate the re-encoding system. If conversion to a detachable recording medium or an encoding method suitable for reproduction of an external output is necessary, the encoding method is converted (hereinafter abbreviated as codec conversion). In step A102, it is determined whether codec conversion is necessary. If not, input data is recorded in the primary recording A section 7 without being decoded. If codec conversion is necessary, the decoding operation described above is started.
[0043]
At the time of decoding, encoded information and synchronization information are extracted by the decoding unit (step A104, step A105) and recorded in the decoding information storage unit 3. Even at the time of codec conversion, the input data is recorded in the primary recording A section 7. At the end of recording, if part or all of each information recorded in the decode information storage unit 3 is recorded in the primary recording A unit 7 together with the input data, re-encoding and editing are added after the recording is completed. Sometimes it is convenient because there is synchronization information and time information. The decode information storage unit 3 is configured as shown in FIG. 8, for example. Reference numeral 31 denotes a codec information unit that stores encoded information. Reference numeral 32 denotes a synchronization time information section. Reference numeral 33 denotes a buffer model information storage unit which will be described later.
[0044]
In step A106, in order to perform codec conversion, audio encoding is performed by the encoding unit 5 that re-encodes, for example, audio decoded data decoded by the decoding unit 2. In order to perform the encoding, the encoding information stored in the decoding information storage unit 3 is referred to.
[0045]
The codec information unit 31 of the decode information storage unit 3 includes, for example, MPEG-2 AAC (Advanced Audio Coding) method (hereinafter abbreviated as AAC method) and encoding conversion such as Dolby Digital method. The scheme information, the number of channels, the bit rate, the sampling frequency information, the number of quantization bits, etc. are applicable.
[0046]
In the re-encoding of audio, the encoding information to be encoded is determined while referring to the encoding information of the input audio. Conversion from AAC system to Dolby Digital system, conversion from 5.1 channel to stereo 2-channel format, conversion from 384 kilobits / second to 256 kilobits / second, and the like. In some cases, the sampling frequency suitable for the recording / reproducing apparatus is changed from the sampling frequency of the input signal. In addition, when the encoding method is linear PCM, the number of quantization bits may be changed. When input from the decoder unit 2 to the encoder unit 4, for example, when converting the input sound from a sampling frequency of 32 kilohertz to a sampling frequency of recording sound to 48 kilohertz, a semiconductor element such as a sampling rate converter, digital These conversions can be realized by arithmetic processing using a filter, a combination of a digital / analog conversion element and an analog / digital conversion element, or the like.
[0047]
FIG. 9 shows the configuration of the encode information storage unit 6. The recoded information is stored in the codec information unit 61.
[0048]
Next, using the synchronization information extracted in step A105, the synchronization information is added to the re-encoded audio data. In step A107, the synchronization information for the audio data synchronized with the original video data is used, and the synchronization information is added so that the re-encoding data for the same video matches in consideration of the delay time from decoding to re-encoding. Synchronization information is stored in the synchronization time information section 62 of the encode information storage section 6. For example, a semiconductor memory for temporarily storing the decoded data once in the memory and taking in the saved data for re-encoding is required. However, if the time for this conversion is 33 milliseconds (NTSC system image update cycle), the decoded PCM data will have a sampling frequency of 48 kilohertz, quantized 16 bits, and converted to about 2 channels. 6400 bytes.
[0049]
In step A108, the re-encoded audio encoded data is recorded in the primary recording B unit 5, and the encoded information and synchronization information created by the encoding unit 4 during encoding are stored in the encoded information storage unit 6. Further, the content of the encoding information storage unit 6 may be recorded in the primary recording B unit 5. Later, when synchronized playback of encoded video data and re-encoded audio data is performed, if the synchronization information is in the same primary recording B section 5, data maintenance management is easy.
[0050]
At the time of re-encoding, when digitally encoded AV signals are input, the input data is decoded to extract the encoded information and synchronization information, and the audio decoding data is decoded with the same or less bit amount as the encoded information extracted simultaneously with the audio decoding. If re-encoding is performed, the re-encoded audio data amount is less than or equal to the original audio data amount if the re-encoded data is created by adding the extracted synchronization information, so that the re-encoded audio data recording capacity can be suppressed. . For example, when conversion is performed from input data recorded on a certain recording medium to another recording medium, an increase or decrease in recording capacity is likely to be made. This is particularly effective when recording on a recording medium having a smaller recording capacity is assumed.
[0051]
Also, in order to obtain a bit rate that can be reproduced by an external recording medium, the bit amount may be the same as or less than the encoded information extracted from the input data. For example, in a portable audio player, the recording capacity and the recording time are often restricted due to the shape of the player or recording medium, the battery capacity, and the like. For this reason, re-encoding may be performed to increase the degree of compression encoding, and recording may be performed at a reduced bit rate.
[0052]
In some cases, the number of audio channels is reduced and re-encoding is performed due to restrictions on playback equipment. Re-encoding is performed with the same or fewer number of audio channels as the encoded information extracted at the same time as audio decoding. This is based on the playback specifications and functions of the player, and when there is no 5.1 channel surround playback function, or one channel (for example, Japanese / English is recorded) in a so-called dual monaural system for playing bilingual broadcasts. If only selective playback is not possible, audio signal processing is performed after decoding, the number of channels is reduced, re-encoding is performed in advance, and recording is performed on the recording medium B unit 6. As signal processing to reduce the number of channels, the AAC method, etc., for each change of 5.1 channels to 2 stereo channels, adds each coefficient so that each phase does not shift. do it.
[0053]
In the current analog bilingual broadcast of terrestrial, separate language sounds (English and Japanese etc.) are inserted in the left and right channels, so when recording monophonic sound of one language sound from the bilingual broadcast etc. Conversion of the number of channels to may occur. Also, when the source on the input side is dual monaural sound, conversion of only one sound to monaural occurs. For example, one may be selected from left audio (hereinafter abbreviated as L) and right audio (hereinafter abbreviated as R), and monaural recording is performed only on the selected side. Alternatively, it can also be realized by copying data to the R side so that one of the L selected voices is not out of phase.
[0054]
In this case, at the time of re-encoding, re-encoding is performed by limiting the number of audio channels due to the limitation of the playback device. However, if the recording capacity on the recording side is the same as the input data, even if the total number of channels is reduced, for example The per bit rate can be increased and recorded. For example, when the input is 5.1 channels (total 256 kilobits / second and the re-encoding side is two channels (total 256 kilobits / second), recording can be performed by increasing the bit rate per channel.
[0055]
Further, when re-encoding is performed by synthesizing each audio channel signal and re-encoding is performed by adding a new acoustic effect, the recording can be performed by increasing the processing of the volume in the low frequency range and the surround effect. If there is only a poor sound device on the playback device side, emphasizing the dialogue that plays the leading role in the movie makes it easier to hear speech that is likely to be erased in the background music. On the other hand, if the re-encoding is performed after the surround effect signal processing is performed, for example, when it is desired to emphasize the music reflected in the recording of the live music program, a pseudo stage feeling can be enjoyed. For example, if a certain delay element such as an echo and signal processing for multiplying the delayed signal by a specific gain coefficient are added, a reverberant sound can be created.
[0056]
Thus, the present invention is effective not only when changing the encoding method, but also when creating another audio stream to which an acoustic effect is added. Furthermore, since synchronized playback with the original video data is possible, it is also possible to switch between playback audio streams using the original input audio stream and the re-encoded audio stream. Since it is possible to synchronize the same video stream, only the audio output can be switched in the middle without stopping the video output. In this way, when a stream that has been re-encoded with respect to the original stream is used as a recording medium, it is possible to perform playback with an audio stream that can be played back according to the environment of the playback device.
[0057]
When the amount of audio data re-encoded with respect to the original data is small, stuffing bits defined by the MPEG method are added as necessary.
[0058]
The number of encoding units 4 is not limited to one, and a plurality of encoding units 4 may be provided so as to correspond to the number of encoding methods to be re-encoded. For each re-encoding, the number of primary recording B sections 5 may be increased or recorded in another file, and each information in the encoded information storage section 6 may be stored separately. The number is not limited as long as the amount of calculation by hardware resources or software and the data transfer, recording speed and recording capacity are within the allowable range.
[0059]
Of course, there may be a plurality of primary recording A sections 7. For example, when a multi-stream for the same program is input from the input unit 1 such as a multi-angle stream, a plurality of primary recording A units 7 may correspond to the same primary recording B unit 5. However, in a plurality of multi-streams, an audio stream having the same identification number is used for each video stream, or an audio stream having the same synchronization information and the same contents although having different identification numbers It is necessary to limit such cases. The primary recording A section 7 and the primary recording B section 5 can be linked by common information called synchronization information.
[0060]
Furthermore, there may be a plurality of primary recording A sections 7 and a plurality of primary recording B sections 5 each. However, as long as the common time information is used as the synchronization information, any combination can be used for synchronized reproduction. There may be two or more types of audio streams for one video stream. On the other hand, if the management is performed based on time information common to the original audio streams, synchronized playback is possible even if a plurality of audio streams are decoded and each re-encoded audio stream is created. .
[0061]
Next, the creation of secondary recording data or external output data from primary recording data will be described using the block diagram of FIG. 2 and the flowchart of FIG.
[0062]
In FIG. 2, the primary recording A section 7, the primary recording B section 5, and the encoding information storage section 6 are the same as those in FIG. In addition, a system encoding unit 11 that performs system encoding based on information in the encoding information storage unit 6, a secondary recording unit 13 that records a digitally encoded AV signal generated by the system encoding unit 11, and a system encoding unit 11 The separate device output unit 14 that outputs the digitally encoded AV signal to the external connection device, and the output destination information setting unit 12 that sets the system encoding as the secondary recording unit 13 or the selection or both of the separate device output unit 14 And consists of
[0063]
In step A201, secondary recording start (or external device output start) is selected. In step A202, the original data input and recorded from the primary recording A section 7 is read. In step A203, it is determined whether the encoding method to be recorded in the secondary recording unit 13 may be the same as that in the primary recording A unit 7. If they are the same, the read data is recorded as it is. It is not necessary to use the information of the re-encoded primary recording B section 5 described later.
[0064]
On the other hand, if the encoding method needs to be changed, information necessary for system encoding is read from the encoded information storage unit 6 in step A204. The encoding information storage unit 6 stores the encoding method (AAC method, Dolby digital method, etc.), the number of channels, the bit rate, the sampling frequency information, and the number of quantization bits that are the encoded information (audio) from the codec information unit 61. The synchronization time information unit 62 stores synchronization information, time information, and the like during audio encoding. By reading which VPTS of the original video stream of the primary recording A section 7 and the APTS of the re-encoded audio stream of the primary recording B section 5, the system encoding synchronized with AV in both temporary recording sections is realized in step A205 can do.
[0065]
For the reference to video data, the association between VPTS and APTS is given priority. Originally, VPTS is assigned to a video stream and APTS is assigned to an audio stream for AV synchronized playback. Therefore, when only the audio side is replaced, no operation is performed on the VPTS side, and APTS suitable for the re-encoded audio data is assigned to realize AV synchronized reproduction.
[0066]
That is, the system encoding unit 11 replaces the original audio stream of the primary recording A unit 7 with the re-encoded audio stream of the primary recording B unit 5 using the encoded information and the synchronization information stored in the encoding information storage unit 6. Encoding is performed. In the present invention, since it is not necessary to re-encode the video stream at the time of re-encoding, a buffer memory for video encoding, arithmetic processor resources, and the like are not necessary. If the audio stream is basically assumed to be replaced, a recording capacity larger than that of the original data is not required, and a large transmission band and speed are not required for transmission to an external device.
[0067]
Depending on the input of the output destination information setting unit 12, it is selected whether or not to output to the secondary recording unit 13 in step A206. If recording to the secondary recording unit 13 is selected, in step A207, recording to the secondary recording unit 13 is executed until a recording end determination is made in step A208. As the recording end determination, when there is no data to be recorded, when there is no remaining recording capacity on the recording medium, when recording stop is instructed by a user instruction, recording due to some trouble (for example, scratches, etc.) Such as when it becomes impossible to continue. On the other hand, when the output to the external device side is selected, the output from the separate device output unit 14 is executed until the output end determination is made in step A209. As for the output end determination, when there is no data to be output, when an output stop instruction is received from the counterpart device side, when output stop is instructed by a user instruction, some failure of the output interface (for example, transmission path For example, it is impossible to continue output due to disconnection.
[0068]
As an example of the configuration of the output destination information setting unit 12, for example, when the secondary recording unit 13 is inserted and there is a recordable capacity, or when the separate device output unit 14 confirms the connection with the counterpart device, it is automatically determined. A selection button setting by a user, a menu selection method by GUI, and the like.
[0069]
Therefore, referring to both the original data in which the digitally encoded AV input signal is recorded as it is and the re-encoded data, a part of the original data, the re-encoded data, the respective synchronization information, and the encoded information are used. By performing system encoding, digitally encoded data for output is generated.
[0070]
If the buffer model information for normal playback of the video stream and the audio stream at the time of decoding is stored in the buffer model information section 33 of the decode information storage section 3, the following effects can be obtained. . At the time of re-encoding, encoding is performed with reference to the buffer model information 33 created at the time of decoding, and as a result, a buffer model information unit 63 is created in the encoding information storage unit 6. Then, in system encoding, even when audio data and video data are decoded together, system encoding can be performed in consideration of division of the video stream and audio stream so that overflow and underflow do not occur. If normal decoding is possible when the originally input data is decoded, create buffer model information for re-encoding according to the buffer model information at the time of decoding and leave it as a buffer model at the time of system encoding. Easy to manage.
[0071]
In particular, if the video encoding is a variable rate control method in which a large amount of bits is allocated when the change is severe, the bit allocation amount per unit time of the video stream and the audio stream constantly changes. On the other hand, it is important to manage the buffer model so that system-encoded data can be reproduced without causing underflow or overflow of one of video and audio. Therefore, since the buffer model information unit 63 created at the time of re-encoding is used at the time of system encoding, it can be known in advance where the bit allocation amount of the video stream increases. System encoding can be controlled such as
[0072]
On the other hand, when the video encoding is a fixed bit rate that is the same bit allocation amount every time, the bit allocation amount per unit time does not change, so that the buffer model management becomes easy. If an allocation is performed by overflow or underflow at the beginning, it is not necessary to control the allocation change by the system encoder until the recording is completed.
[0073]
Therefore, referring to both the original data in which the digitally encoded AV input signal is recorded as it is and the re-encoded data, a part of the original data, the re-encoded data, the respective synchronization information, the encoded information, and the buffer model By performing system encoding using information, digital encoded data for output is generated.
[0074]
The part of the original data refers to the part of the data that can be replaced with the re-encoded data described so far. For example, audio data and accompanying audio reproduction synchronization information, encoding information, and the like.
[0075]
However, although the present invention has been described with respect to audio re-encoding, the data to be replaced is not limited to audio data, as will be described below. For the convenience of the playback device that plays back the recording medium, video re-encoding according to the output setting can also be realized in the same manner as the present invention. For example, image cutout when the video output aspect ratio is converted from 16: 9 to 4: 3, conversion from a 24 frame / second movie source to a video signal suitable for playback of a 30-frame / second TV broadcast, etc. Can be achieved by re-encoding the video in the same way. In other words, even if the encoding method is not changed, it is effective when the original video reproduction information is changed and recorded. Furthermore, the present invention can be applied to other than audio streams and video streams. It can also be applied to uses such as changing only a sub-picture stream including subtitle information.
[0076]
There may also be more than one video input stream for the same audio input stream. Multi-angle video is broadcast on digital satellite and cable broadcasts. In such a case, synchronization information is added to the video data obtained by re-encoding the other stream with respect to the decoded video of one stream, and those having the same synchronization information are superimposed and combined into one screen, If synchronization information is added and recorded, playback of two screens and one audio can be played back synchronously at the same time. In addition to the NTSC system, re-encoding to a different playback system such as re-encoding to the PAL system is also effective.
[0077]
Although partial replacement has been described, in the case of complete replacement, since the true video and audio are completely re-encoded, the decoded and reproduced AV signal is re-encoded. For the original AV signal data of the primary recording A section 7, re-encoded independent AV signal data is created in the primary recording B section 5, and the recording to the secondary recording section 13 is re-encoded. Since only the primary recording B section 5 is recorded, it is not the subject of the present invention.
[0078]
So far, a method has been described in which the file of the primary recording A section 7 and the file of the primary recording B section 5 are stored as separate files according to related information relating the respective files.
[0079]
In addition to the purpose of simply responding to the increase in capacity, the primary recording A section 7 is recorded on a large capacity removable disk, and the primary recording B section 5 is recorded on another recording medium such as a hard disk. The primary recording A section 7 in which the recorded data is recorded as it is can be reproduced by being mounted on another device alone, but the primary recording B section 5 is reproduced and output only in combination with the primary recording A section 7. Can be operated effectively. As long as there is related information, the file may be separated when the configuration includes a plurality of primary recording B sections 5.
[0080]
On the other hand, the structure which preserve | saves the file of the primary recording A part 7 and the file of the primary recording B part 5 as a single file is also assumed. If one of them is removed in a removable manner, system encoding with reference to both cannot be performed. When there is a strong demand for managing both files uniquely, storing information such as both encoded data and synchronization information in the same file has the advantage of easy management. Depending on the purpose and application, either of the temporary recording configurations can be taken, but the data creation method of the present invention can meet both requirements.
[0081]
Furthermore, by setting the output information by user input, etc., the re-encoded digital encoded data can be directly converted into a format for recording on the secondary recording medium and recorded, or the specifications of the connected external device interface It may be necessary to convert to output.
[0082]
In order to record in the secondary recording unit 13, the format of the recording medium, creation of a file system, the name of the recorded program, the identifier of the recorded file, information attached to the program, etc. may be attached in consideration of the recording capacity. If necessary, it is necessary to verify the recorded content and determine the end of recording while checking the remaining recording capacity. If there is no remaining recording capacity, it is not necessary to continue system encoding.
[0083]
When recording in the secondary recording unit 13, recording in order from the beginning of the stream is not a big problem. It is only necessary to record from the re-encoded part. It is only necessary that the secondary recording unit 13 is recorded so that it can be reproduced from the beginning. Further, the recording speed may be in accordance with the recording medium of the secondary recording unit 13. That is, if the system encoding is fast and the recording speed can be several times higher than the playback speed required for normal playback, recording can be completed in a shorter time than playback.
[0084]
Furthermore, it is preferable to add various kinds of navigation information for convenience to the user. This includes pointer information to the beginning of a program, jump destination address information when skipping at certain intervals, and the like. Assuming that the secondary recording unit 13 is, for example, a DVD player, if navigation information is added and recorded, skipping is performed for each program or in a certain time unit (forward direction), as in the case of normal DVD playback. , Reverse direction, etc.) are possible. Therefore, at the time of system encoding, the navigation information is generated using information such as the synchronization time information in the decode information storage unit 3 and the encode information storage unit 6.
[0085]
On the other hand, in the case of output to another device, interface connection processing, protocol processing, response processing from the counterpart device, and the like are required. When the other device output unit 14 is decoding and reproducing at the same time as the input, it is necessary to output at a constant transfer rate without being interrupted in order from the beginning of the stream. In other words, since output according to the transmission band and quality is possible, there is an effect that reproduction or recording on the counterpart device side can be guaranteed. Of course, when a recording device is connected to the other device output unit 14, the recording can be performed for a short time by high-speed transfer if reproduction is not required during recording.
[0086]
The primary recording A section 7 and the primary recording B section 5 have been described assuming a hard disk or the like. However, a medium such as a semiconductor memory, an optical disk such as a CD, a DVD, or a Blu-Ray, or a digital signal recording tape is used. Also good. The secondary recording unit 13 corresponds to a detachable tape or disk, a memory unit such as a semiconductor memory, a memory device, or the like.
[0087]
In the present invention, the method of creating re-encoded data at the time of input has been described, but re-encoding is not limited to only at the time of input. AV signal that has been digitally encoded in advance is input and recorded in the primary recording A section 7 and the decoding information storage section 3, and is decoded and stored once at a time when the user does not view such as at night. A configuration for re-encoding data to be recorded in the primary recording B unit 5 while referring to the unit 3 may be used. In addition, an AV signal that has been digitally encoded in advance is input and recorded in the primary recording A section 7, and once decoded and reproduced at a time when the user does not view such as at night, a decoded information storage section 3 is created. However, it may be configured to create data to be re-encoded and recorded in the primary recording B section 5. Re-encoded data is created during the period from input to recording to the secondary recording unit 13 or output from the separate device output unit 14, and system encoding can be easily realized by replacing part of the original data. Is the point.
[0088]
Note that a configuration may be adopted in which the information to be re-encoded is read and the encoding condition setting value is set by recognizing information identifying the counterpart device such as the device ID of the externally connected device. For example, an ID number or the like for knowing the device type on the partner output device side is received, and setting is performed by referring to a table in which the relationship between the ID and the encoding parameter in the main body or the memory card for setting the encoding condition is stored. If the configuration is adopted, it is possible to realize the setting by the playback apparatus without the user's operation. As these externally connected devices, monitor output devices such as a TV, interface devices such as audio output amplifiers and AV amplifiers having an AV selector function, portable output devices, in-vehicle AV playback devices, and the like are assumed.
[0089]
Although the input data has been described as data input from the outside, it may be data existing in the device in advance. The input has been described after the system decoding unit 21 performs AV separation. However, it may be file data that has been previously AV-separated. The audio data may be re-encoded with the reproduction time information related to the compressed video data and the compressed audio data and the reproduction time information as inputs. This is because, as a result of editing a signal photographed by a video camera or the like on a personal computer, playback time information related to compressed video data, compressed audio data and playback time, both in the case of an AV mixed file or an AV independent file This is applicable to all cases where information is reproduced in synchronization with each other.
[0090]
In addition, there is a case of linear PCM in which audio is not compressed as a digital compression encoded stream. In the case of linear PCM, since it is an uncompressed audio frame, no decompression operation is necessary, but AV synchronous reproduction can be handled with the same method according to the synchronous information included in the stream.
[0091]
As an application example of the data creation method and the recording apparatus of the present invention, there are a DVD recorder, a hard disk recorder, a set-top box having an internal recording apparatus, a digital satellite broadcast receiver having the same recording apparatus, a personal computer, and the like. By creating an AV data creation program according to the data creation method of the present invention, an external operation program can be loaded and executed on a personal computer or the like.
[0092]
【The invention's effect】
As described above, according to the present invention, when digitally encoded AV signals are input, input data is decoded to extract synchronization information, and audio decoding data is re-encoded simultaneously with audio decoding. This is characterized in that re-encoded data is created by adding, and synchronized playback using video data and re-encoded audio data is possible later, and system encoding is performed at high speed based on the synchronization information. Therefore, there is an effect that high-speed and short-time recording can be performed on the secondary frame.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration until a temporary record is created according to an embodiment of the present invention.
FIG. 2 is a block diagram showing a configuration for creating a secondary record according to an embodiment of the present invention.
FIG. 3 is a diagram showing a configuration of a decoding unit according to an embodiment of the present invention.
FIG. 4 is a flowchart illustrating a decoding method according to an embodiment of the present invention.
FIG. 5 is a diagram showing a configuration of an audio playback time information management unit according to an embodiment of the present invention.
FIG. 6 is a flowchart illustrating a method until a temporary record is created according to an embodiment of the present invention.
FIG. 7 is a flowchart illustrating a method for creating a secondary record according to an embodiment of the present invention.
FIG. 8 is a diagram showing a configuration of a decode information storage unit according to the embodiment of the present invention.
FIG. 9 is a diagram illustrating a configuration of an encoding information storage unit according to the embodiment of this invention.
[Explanation of symbols]
1 Input section
2 Decoding part
3 Decoding information storage
4 Encoding section
5 Primary recording part B
6 Encoding information storage
7 Primary recording section A
11 System encoding part
12 Output destination information setting section
13 Secondary recording section
14 Separate equipment output section

Claims (15)

デジタル符号化されたAV信号入力時に、入力データのデコードを行って同期情報を抜き出し、デコードと同時にオーディオデコードデータの再エンコードを行い、前記抜き出した同期情報を付与することにより、再エンコードデータを作成することを特徴とするデータ作成方法。When digitally encoded AV signals are input, input data is decoded to extract synchronization information, audio decoding data is re-encoded simultaneously with decoding, and the extracted synchronization information is added to create re-encoded data. A data creation method characterized by: デジタル符号化されたAV信号入力時に、入力データのデコードを行って符号化情報及び同期情報を抜き出し、デコードと同時に前記抜き出した符号化情報と同じまたは少ないビット量でオーディオデコードデータの再エンコードを行い、前記抜き出した同期情報を付与することにより、再エンコードデータを作成することを特徴とするデータ作成方法。When digitally encoded AV signals are input, input data is decoded to extract encoded information and synchronization information, and at the same time as decoding, audio decode data is re-encoded with the same or less bit amount as the extracted encoded information. A data creation method, wherein re-encoded data is created by adding the extracted synchronization information. デジタル符号化されたAV信号入力時に、入力データのデコードを行って符号化情報及び同期情報を抜き出すと同時に、デコードのバッファモデル情報を取得し、前記抜き出したバッファモデル内で前記抜き出した符号化情報と同じまたは少ないビット量でオーディオデコードデータの再エンコードを行い、前記抜き出した同期情報を付与することにより、再エンコードデータを作成することを特徴とするデータ作成方法。When digitally encoded AV signal is input, input data is decoded to extract encoded information and synchronization information, and at the same time, buffer model information for decoding is acquired, and the extracted encoded information in the extracted buffer model is extracted. A method of creating data, comprising: re-encoding audio decode data with the same or a smaller bit amount and adding the extracted synchronization information. 入力データのデコードを行って符号化情報及び同期情報を抜き出し、オーディオデコードと同時に前記抜き出した符号化情報より同じもしくは低いビットレートで符号化した再エンコードを行うことを特徴とする請求項2または請求項3記載のデータ作成方法。3. The encoded data and synchronization information are extracted by decoding input data, and re-encoding is performed at the same or lower bit rate than the extracted encoded information simultaneously with audio decoding. Item 4. The data creation method according to Item 3. 入力データのデコードを行って符号化情報及び同期情報を抜き出し、オーディオデコードと同時に前記抜き出した符号化情報と同じもしくは少ないオーディオチャンネル数で符号化した再エンコードを行うことを特徴とする請求項2または請求項3記載のデータ作成方法。The encoded data and the synchronization information are extracted by decoding the input data, and re-encoding is performed at the same time as the extracted encoded information with the same or less number of audio channels as the audio decoding. The data creation method according to claim 3. 入力データのデコードを行って符号化情報及び同期情報を抜き出し、オーディオデコードと同時に前記抜き出した符号化情報と同じもしくは少ないオーディオチャンネル数でかつ各オーディオチェンネル信号を合成することにより新たな音響効果を加えて再エンコードを行うことを特徴とする請求項2または請求項3記載のデータ作成方法。Decode input data to extract encoded information and synchronization information, and add new acoustic effects by synthesizing each audio channel signal with the same or less number of audio channels as the extracted encoded information at the same time as audio decoding. 4. The data creation method according to claim 2, wherein re-encoding is performed. デジタル符号化されたAV信号入力時に、入力信号をそのまま記録した元データと、請求項1、請求項2、または請求項3によるデータ記録を行った再エンコードデータの両方を参照し、前記元データの一部と、前記再エンコードデータ及び各々の同期情報を用いてシステムエンコードを実施することにより、デジタル符号化データを生成することを特徴とするデータ作成方法。When the digitally encoded AV signal is input, both the original data in which the input signal is recorded as it is and the re-encoded data in which the data recording according to claim 1, 2 or 3 is performed are referred to, and the original data A data creation method characterized in that digitally encoded data is generated by performing system encoding using a part of the data, the re-encoded data and the respective synchronization information. デジタル符号化されたAV信号入力時に、入力信号をそのまま記録した元データと、請求項2または、請求項3によるデータ記録を行った再エンコードデータの両方を参照し、前記元データの一部と、前記再エンコードデータ及び各々の同期情報、及び符号化情報を用いてシステムエンコードを実施することにより、デジタル符号化データを生成することを特徴とするデータ作成方法。With reference to both the original data in which the input signal is recorded as it is when the digitally encoded AV signal is input and the re-encoded data in which the data recording according to claim 2 or 3 is performed, a part of the original data A data creation method characterized in that digitally encoded data is generated by performing system encoding using the re-encoded data and the respective synchronization information and encoded information. デジタル符号化されたAV信号入力時に、入力信号をそのまま記録した元データと、請求項3によるデータ記録を行った再エンコードデータの両方を参照し、前記元データの一部と、前記再エンコードデータ及び各々の同期情報、符号化情報、及びバッファモデル情報を用いてシステムエンコードを実施することにより、デジタル符号化データを生成することを特徴とするデータ作成方法。A part of the original data and the re-encoded data are referred to by referring to both the original data in which the input signal is recorded as it is when the digitally encoded AV signal is input and the re-encoded data in which data recording according to claim 3 is performed And digitally encoded data by generating system encoding using the respective synchronization information, encoding information, and buffer model information. デジタル符号化されたAV入力信号をデコードすることなく記録した一次記録Aのファイルと、請求項1、請求項2、または請求項3により生成されたデジタル符号化データを記録した一次記録Bのファイルを単一のファイルとして保存することを特徴としたデータ作成方法。A primary record A file recorded without decoding a digitally encoded AV input signal, and a primary record B file recorded with digitally encoded data generated according to claim 1, claim 2 or claim 3. A data creation method characterized by saving a single file. デジタル符号化されたAV入力信号をデコードすることなく記録した一次記録Aのファイルと、請求項1、請求項2、または請求項3により生成されたデジタル符号化データを記録した一次記録Bのファイルと、各々のファイルを関連づける関連情報により別々のファイルとして保存することを特徴としたデータ作成方法。A primary record A file recorded without decoding a digitally encoded AV input signal, and a primary record B file recorded with digitally encoded data generated according to claim 1, claim 2 or claim 3. And a method of creating data characterized in that each file is stored as a separate file according to related information for associating each file. 利用者からの入力等による出力情報設定により、請求項7、請求項8、または請求項9により生成されたデジタル符号化データを、直接二次記録媒体に記録する形式に変換して記録することを特徴とするデータ記録方法。The digitally encoded data generated according to claim 7, claim 8, or claim 9 is converted into a format to be recorded directly on the secondary recording medium and recorded by setting output information by user input or the like. A data recording method characterized by the above. 利用者からの入力等による出力情報設定により、請求項7、請求項8、または請求項9により生成されたデジタル符号化データを、接続された外部機器インタフェースの仕様に変換して出力することを特徴とするデータ出力方法。According to output information setting by an input from a user or the like, the digitally encoded data generated according to claim 7, claim 8, or claim 9 is converted into a specification of a connected external device interface and output. Characteristic data output method. デジタル符号化されたAV信号を入力する入力部と、入力データをデコードすることなく記録する一次記録A部と、入力データのデコードを実行するデコード部と、前記デコード部により符号化情報及び同期情報を抜き出して格納するデコード情報格納部と、前記デコード部によりデコードされたデコードデータの再エンコードを行うエンコード部と、前記エンコード部で作成したエンコードデータを記録する一次記録B部と、前記エンコード部でエンコード時に作成した符号化情報及び同期情報を格納するエンコード情報格納部と、前記一次記録A部と少なくとも一つの一次記録B部、及び前記エンコード情報格納部の情報によりシステムエンコードを実施するシステムエンコード部と、前記システムエンコード部により作成されたデジタル符号化AV信号を記録する二次記録部とから構成し、前記システムエンコード部が、前記エンコード情報格納部に格納された符号化情報及び同期情報をもちいて一次記録A部の内容の一部を一次記録B部の内容と入れ替えてシステムエンコードを行うことを特徴とするデータ記録装置。An input unit for inputting a digitally encoded AV signal, a primary recording A unit for recording input data without decoding, a decoding unit for executing decoding of input data, and encoding information and synchronization information by the decoding unit A decoding information storage unit for extracting and storing the data, an encoding unit for re-encoding the decoded data decoded by the decoding unit, a primary recording B unit for recording the encoded data created by the encoding unit, and the encoding unit An encoding information storage unit that stores encoded information and synchronization information created at the time of encoding, a system encoding unit that performs system encoding using information in the primary recording A unit, at least one primary recording B unit, and the encoding information storage unit And the digital encoder created by the system encoding unit A secondary recording unit that records the encoded AV signal, and the system encoding unit uses the encoded information and the synchronization information stored in the encoded information storage unit to partially copy the contents of the primary recording A unit. A data recording apparatus characterized in that system encoding is performed by replacing the contents of the primary recording section B. デジタル符号化されたAV信号を入力する入力部と、入力データをデコードすることなく記録する一次記録A部と、入力データのデコードを実行するデコード部と、前記デコード部により符号化情報及び同期情報を抜き出して格納するデコード情報格納部と、前記デコード部によりデコードされたデコードデータの再エンコードを行うエンコード部と、前記エンコード部で作成したエンコードデータを記録する一次記録B部と、前記エンコード部でエンコード時に作成した符号化情報及び同期情報を格納するエンコード情報格納部と、前記一次記録A部と少なくとも一つの一次記録B部、及び前記エンコード情報格納部の情報によりシステムエンコードを実施するシステムエンコード部と、前記システムエンコード部により作成されたデジタル符号化AV信号を外部接続機器に出力する別機器出力部とから構成し、前記システムエンコード部が、前記エンコード情報格納部に格納された符号化情報及び同期情報をもちいて一次記録A部の内容の一部を一次記録B部の内容と入れ替えてシステムエンコードを行うことを特徴とするデータ出力装置。An input unit for inputting a digitally encoded AV signal, a primary recording A unit for recording input data without decoding, a decoding unit for executing decoding of input data, and encoding information and synchronization information by the decoding unit A decoding information storage unit for extracting and storing the data, an encoding unit for re-encoding the decoded data decoded by the decoding unit, a primary recording B unit for recording the encoded data created by the encoding unit, and the encoding unit An encoding information storage unit that stores encoded information and synchronization information created at the time of encoding, a system encoding unit that performs system encoding using information in the primary recording A unit, at least one primary recording B unit, and the encoding information storage unit And the digital encoder created by the system encoding unit The content of the primary recording A section using the encoded information and the synchronization information stored in the encoding information storage section, comprising a separate device output section for outputting the encoded AV signal to the external connection device. A data output apparatus that performs system encoding by replacing a part of the data with the contents of the primary recording B section.
JP2003073840A 2003-03-18 2003-03-18 Data creation method and data recording apparatus Expired - Fee Related JP4013800B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003073840A JP4013800B2 (en) 2003-03-18 2003-03-18 Data creation method and data recording apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003073840A JP4013800B2 (en) 2003-03-18 2003-03-18 Data creation method and data recording apparatus

Publications (2)

Publication Number Publication Date
JP2004280994A JP2004280994A (en) 2004-10-07
JP4013800B2 true JP4013800B2 (en) 2007-11-28

Family

ID=33289638

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003073840A Expired - Fee Related JP4013800B2 (en) 2003-03-18 2003-03-18 Data creation method and data recording apparatus

Country Status (1)

Country Link
JP (1) JP4013800B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7366462B2 (en) * 2003-10-24 2008-04-29 Qualcomm Incorporated Method and apparatus for seamlessly switching reception between multimedia streams in a wireless communication system
JP2006295344A (en) * 2005-04-06 2006-10-26 Toshiba Corp Content processor
JP2007013735A (en) * 2005-06-30 2007-01-18 Toshiba Corp Content server device
JP4846502B2 (en) * 2006-09-29 2011-12-28 株式会社東芝 Audio output device and audio output method
JP2008244574A (en) * 2007-03-26 2008-10-09 Pioneer Electronic Corp Digital broadcast recorder and method
JP4506879B2 (en) * 2008-06-09 2010-07-21 ソニー株式会社 Recording apparatus, recording method, program, and recording system
JP2010072364A (en) * 2008-09-18 2010-04-02 Toshiba Corp Audio data interpolating device and audio data interpolating method
JP5700853B2 (en) * 2010-06-16 2015-04-15 パナソニック株式会社 Digital data recording / reproducing device

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000278643A (en) * 1999-03-26 2000-10-06 Sharp Corp Data conversion device
JP2002175098A (en) * 2000-09-21 2002-06-21 Matsushita Electric Ind Co Ltd Device and method for encoding, and program, and program recording medium
JP2003008447A (en) * 2001-06-27 2003-01-10 Matsushita Electric Ind Co Ltd System encoder

Also Published As

Publication number Publication date
JP2004280994A (en) 2004-10-07

Similar Documents

Publication Publication Date Title
CN100505064C (en) Audio reproducing apparatus
JP4211947B2 (en) Multiplexer and playback device
JP4288613B2 (en) REPRODUCTION DEVICE AND REPRODUCTION METHOD, PROGRAM, RECORDING MEDIUM, AND DATA STRUCTURE
US8676038B2 (en) Recording/reproducing apparatus, recording apparatus, reproducing apparatus, recording method, reproducing method and computer program
US20060203287A1 (en) Reproducing apparatus and method, and recording medium
JP4613674B2 (en) Audio playback device
JP4013800B2 (en) Data creation method and data recording apparatus
MXPA02006516A (en) Method and apparatus for recording and reproducing video data, and information storage medium in which video data is recorded by the same.
JP2003111023A (en) Data recorder, data recording method, program and medium
JP5161549B2 (en) VIDEO RECORDING DEVICE, VIDEO REPRODUCTION DEVICE, AND ITS CONTROL METHOD
JP2007533054A (en) Stream recording / reproducing device
JPWO2004080071A1 (en) Data processing device
MXPA05000116A (en) Reproducing apparatus and method, and recording medium.
JP2005012499A (en) Method and device for reproducing data
JP3769330B2 (en) Playback apparatus and playback method
JPH1166754A (en) Multiple channel data recording medium and transmission record and recording device
JP3647387B2 (en) Optical recording / reproducing device
KR100300984B1 (en) Apparatus for writing/playback of optical disk written with multi-language audio signals and method thereof
JP4169002B2 (en) Audio format conversion apparatus and encoding apparatus
JP2006139827A (en) Device for recording three-dimensional sound field information, and program
JP2004362747A (en) Signal processor
JPH08256309A (en) Audio video data supplying device and audio video data reproducing device
JP2000067513A (en) Digital signal processor as well as recorder and reproducer
JPH08329605A (en) Method and device for processing digital audio signal and recording/reproducing device
JP2003132628A (en) Information recording and reproducing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060208

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20060314

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070809

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070821

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070903

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100921

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100921

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110921

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120921

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130921

Year of fee payment: 6

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees