JP4510337B2 - Signal processing method and signal processing apparatus - Google Patents

Signal processing method and signal processing apparatus Download PDF

Info

Publication number
JP4510337B2
JP4510337B2 JP2001226421A JP2001226421A JP4510337B2 JP 4510337 B2 JP4510337 B2 JP 4510337B2 JP 2001226421 A JP2001226421 A JP 2001226421A JP 2001226421 A JP2001226421 A JP 2001226421A JP 4510337 B2 JP4510337 B2 JP 4510337B2
Authority
JP
Japan
Prior art keywords
data
video
encoded data
encoding
audio
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001226421A
Other languages
Japanese (ja)
Other versions
JP2002135717A (en
Inventor
正博 本城
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2001226421A priority Critical patent/JP4510337B2/en
Publication of JP2002135717A publication Critical patent/JP2002135717A/en
Application granted granted Critical
Publication of JP4510337B2 publication Critical patent/JP4510337B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、信号処理方法及び信号処理装置に関し、特に、デジタル映像データあるいはデジタル音声データをダビングする処理に関するものである。
【0002】
【従来の技術】
従来、動画映像や音声などのデジタルデータが多重されているMPEG(Moving Picture Experts Group)ストリーム(多重符号化データ)のダビングは、MPEGストリームの形式を保持したまま行われている。
【0003】
これは、例えば、映像データがMPEG2方式により符号化され、音声データがMPEG1方式により符号化されている場合、映像符号化データと音声符号化データとは、両者の同期をとるため、MPEGストリームとして多重化されるためである。つまり、MPEGストリームに含まれる映像符号化データ及び音声符号化データは、MPEGストリームとして一括してダビングするのが最も効率がよい。また、従来、MPEGストリームのダビングをそのストリーム形式を保持したまま行っている、その他の理由としては、このようなダビング方法以外のダビング方法が考えられなかったことが挙げられる。
【0004】
図6は、上記MPEGストリームを説明するための図である。
MPEG2方式により符号化された映像データ(映像符号化データ)Dvcと、AC3方式により符号化された音声データ(音声符号化データ)Dacは、それぞれMPEGストリームDsとして多重されている。ここでAC3方式は、DVD(Digital Versatile Disk)ビデオ規格にて推奨されている音声符号化方式である。このMPEGストリームDsは、具体的には、上記映像符号化データDvcをこれが音声符号化データDacと多重化されるよう時間軸圧縮して得られる圧縮映像データDvtcと、上記音声符号化データDacを、これが映像符号化データDvcと多重化されるよう時間軸圧縮して得られる圧縮音声データDatcとを含むものである。
【0005】
つまり、上記映像符号化データDvcは、規定のデータ単位(GOP)毎に区分されたデータ構造を有しており、例えば、図6に示すように、第1のGOP(Group of Pictures)を構成する第1番目〜第16番目の映像フレームF1〜F16に対応する映像符号化データDvc1、及び第2のGOPを構成する第17番目〜第32番目の映像フレームF17〜F32に対応する映像符号化データDvc2を含んでいる。また、圧縮映像データDvtcは、図6に示すように、第1のGOPに対応する時間軸圧縮データV1〜V3、及び第2のGOPに対応する時間軸圧縮データV4〜V6を含んでいる。
【0006】
ここで、時間軸圧縮データV1は、上記第1のGOPに対応する映像符号化データDvc1の前方部をまとめて時間軸圧縮して得られたもの、時間軸圧縮データV2は、上記映像符号化データDvc1の中間部をまとめて時間軸圧縮して得られたもの、時間軸圧縮データV3は、上記映像符号化データDvc1の後方部をまとめて時間軸圧縮して得られたものである。また、時間軸圧縮データV4は、上記第2のGOPに対応する映像符号化データDvc2の前方部をまとめて時間軸圧縮して得られたもの、時間軸圧縮データV5は、上記映像符号化データDvc2の中間部をまとめて時間軸圧縮して得られたもの、時間軸圧縮データV6は、上記映像符号化データDvc2の後方部をまとめて時間軸圧縮して得られたものである。
【0007】
なお、上記第1のGOPに対応する映像符号化データDvc1におけるIデータ(画面内符号化データ)は、フレームF1に対応するものであり、フレームF2〜F16に対応するP,Bデータ(画面間符号化データ)は、上記フレームF1に対応するIデータに続いて配列されている。また、上記第2のGOPに対応する映像符号化データDvc2におけるIデータ(画面内符号化データ)は、フレームF17に対応するものであり、フレームF18〜F32に対応するP,Bデータ(画面間符号化データ)は、上記フレームF17に対応するIデータに続いて配列されている。
【0008】
また、圧縮音声データDatcは、図6に示すように、第1のGOPに対応する時間軸圧縮データA1〜A3、及び第2のGOPに対応する時間軸圧縮データA4〜A6を含んでいる。
ここで、時間軸圧縮データA1,A2,A3はそれぞれ、上記音声符号化データDacの、上記圧縮映像データDvtcにおける時間軸圧縮データV1,V2,V3に概ね対応する部分を時間軸圧縮して得られたものである。また、時間軸圧縮データA4,A5,A6はそれぞれ、上記音声符号化データDacの、上記圧縮映像データDvtcにおける時間軸圧縮データV4,V5,V6に概ね対応する部分を時間軸圧縮して得られたものである。
【0009】
図7は、従来の信号処理装置を用いたダビング処理を説明するためのブロック図であり、従来の信号処理装置としてDVDプレーヤ及びDVDレコーダを示している。
まず、従来の信号処理装置であるDVDプレーヤ201について説明する。
このDVDプレーヤ201は、第1の記録媒体である光ディスク1を制御信号Cd1に基づいて駆動する駆動手段10と、該光ディスク1からデータDsを読み出す処理を、制御信号Croに基づいて行う読出手段2とを有している。ここで、上記光ディスク1には、多重された映像符号化データと音声符号化データがMPEGストリームDsとして記録されている。MPEGストリームには、トランスポートストリーム(TS)とプログラムストリーム(PS)があり、いずれのストリームにおいても、映像符号化データと音声符号化データとは、該両データを同期させて再生できるように時間軸圧縮されて多重化されている。
【0010】
上記DVDプレーヤ201は、光ディスク1から読み出されたMPEGストリームDsを受け、該MPEGストリームDsに含まれる、MPEG2方式により符号化された映像符号化データを復号して、ベースバンド(非圧縮)の映像信号Dvdを出力する映像復号手段3と、光ディスク1から読み出されたMPEGストリームDsを受け、該MPEGストリームDsに含まれる、AC3方式により符号化された音声符号化データを復号して、ベースバンド(非圧縮)のPCM(pulse-code modualtion)音声信号Dadを出力する音声復号手段5とを有している。
【0011】
上記DVDプレーヤ201は、上記映像復号手段3の出力であるベースバンド映像信号DvdをDA変換してアナログ映像信号Svを出力するDAコンバータ11と、該アナログ映像信号Svに基づいて画像表示を行うTVモニタ12と、上記音声復号手段5の出力であるベースバンド音声信号DadをDA変換してアナログ音声信号Saを出力するコンバータ13と、該アナログ音声信号Saに基づいて音声出力を行うスピーカ14とを有している。
【0012】
上記DVDプレーヤ201は、ユーザの操作部15と、該操作部15にて発生された操作信号Sop1に基づいて、上記駆動手段10及び読出手段2への制御信号Cd1及びCro、並びにその他の手段3,5及びD/Aコンバータ11,13への制御信号(図示せず)を出力する制御手段9と、上記アナログ映像信号Sv及びアナログ音声信号Saを、上記プレーヤ外部に出力するための出力端子201a及び201bと有している。
【0013】
次に、従来の信号処理装置であるDVDレコーダ202について説明する。
このDVDレコーダ202は、アナログ映像信号Sv及びアナログ音声信号Saを入力するための入力端子202a及び202bと、アナログ映像信号Svをベースバンドのデジタル映像信号Dvに変換するA/Dコンバータ21と、アナログ音声信号Saをベースバンドのデジタル音声信号Daに変換するA/Dコンバータ22と有している。
【0014】
上記DVDレコーダ202は、上記ベースバンド映像信号Dvを符号化して映像符号化データDvcを出力する映像符号化手段23と、上記ベースバンドの音声信号Daを符号化して音声符号化データDacを出力する音声符号化手段24とを有している。
【0015】
上記DVDレコーダ202は、第2の記録媒体である光ディスク26を制御信号Cd2に基づいて駆動する駆動手段27と、上記映像符号化データDvcと音声符号化データDacとを、制御信号Creに基づいて多重化してMPEGストリームDwとして光ディスク26に記録する記録手段25とを有している。
【0016】
上記DVDレコーダ202は、ユーザの操作部29と、該操作部29にて発生された操作信号Sop2に基づいて、上記駆動手段27及び記録手段25への制御信号Cre及びCd2、並びにその他の手段23,24及びA/Dコンバータ21,22への制御信号(図示せず)を出力する制御手段28とを有している。
【0017】
次に動作について説明する。
まず、DVDプレーヤ201の動作について説明する。
このDVDプレーヤ201では、ユーザの操作により、第1の記録媒体である光ディスク1に記録されているデータを再生する処理が選択されると、DVDプレーヤ201の各手段では、制御手段9からの制御信号に基づいてデータ再生処理が行われる。
【0018】
つまり、まず、光ディスク1が、制御信号Cd1により制御される駆動手段10により駆動され、読出手段2により該光ディクス1からデータDsが読み出される。読み出されたデータDsは、読出手段2から映像復号手段3及び音声復号手段5に供給される。
【0019】
具体的には、上記映像復号手段3及び音声復号手段5には、上記データDsとして、MPEG2方式の映像符号化データとAC3方式の音声符号化データとを含むMPEGストリームが供給される。
すると、映像復号手段3では、MPEGストリームDsに含まれるMPEG2方式の映像符号化データを抽出して復号する映像復号処理が行われ、該映像復号処理によりベースバンドの映像信号Dvdが生成される。この映像信号DvdはD/Aコンバータ11に出力される。
このD/Aコンバータ11では、映像信号Dvdをアナログ映像信号Svに変換するD/A変換処理が行われ、アナログ映像信号SvがTVモニタ12に出力される。TVモニタ12では、アナログ映像信号Svに基づいて画像表示が行われる。
【0020】
また、上記のように映像符号化データの再生と同時に、音声復号手段5では、MPEGストリームDsに含まれるAC3方式の音声符号化データを抽出して復号する音声復号処理が行われ、該音声復号処理によりベースバンドPCMの音声信号Dadが生成される。この音声信号DadはD/Aコンバータ13に出力される。
このD/Aコンバータ13では、音声信号Dadをアナログ音声信号Saに変換するD/A変換処理が行われ、アナログ音声信号Saがスピーカ14に出力される。スピーカ14では、アナログ音声信号Saに基づいて音声再生が行われる。また、上記のように映像符号化データ及び音声符号化データの再生中には、DVDプレーヤ201の出力端子201a及び201bには、それぞれアナログ映像信号Sv及びアナログ音声信号Saが出力される。
【0021】
次に上記DVDプレーヤ201及びDVDレコーダ202を用いて、第1の記録媒体である光ディスク1に記録されているデータを第2の記録媒体である光ディスク26に記録するダビング処理について説明する。
上記ダビング処理を行う前に予め、DVDプレーヤ201の出力端子201a及び201bを、それぞれDVDレコーダ202の対応する入力端子202a及び202bに接続しておく。
【0022】
DVDプレーヤ201では、ユーザ操作部15から操作信号Sop1が制御手段9に供給されると、各部を制御するための制御信号が出力される。また、DVDレコーダ202では、ユーザ操作部29から操作信号Sop2が制御手段28に供給されると、各部を制御するための制御信号が出力される。
そして、DVDプレーヤ201では、上記のように、光ディスク1に記録されているMPEGストリームの再生処理が行われ、MPEGストリームの再生処理により得られたアナログ映像信号Sv及びアナログ音声信号Saが出力される。一方、DVDレコーダ202では、DVDプレーヤ201から出力されたアナログ映像信号Sv及びアナログ音声信号SaのAD変換、符号化及び多重化を行って、該多重化により生成されたデータを記録する記録処理が行われる。
【0023】
つまり、上記DVDプレーヤ201では、光ディスク1に記録されているMPEGストリームの再生処理が行われ、MPEGストリームの再生処理により得られたアナログ映像信号Sv及びアナログ音声信号Saが、DVDプレーヤ201の出力端子201a及び201bから、DVDレコーダ202の入力端子202a及び202bに出力される。
上記DVDレコーダ202では、入力端子202aに入力されたアナログ映像信号SvはA/Dコンバータ21によりデジタル映像信号Dvに変換され、映像符号化手段23に供給される。また、入力端子202bに入力されたアナログ音声信号SaはA/Dコンバータ22によりデジタル音声信号Daに変換され、音声符号化手段24に供給される。
【0024】
映像符号化手段23では、デジタル映像信号Dvの符号化処理により映像符号化データDvcが生成され、音声符号化手段24では、デジタル音声信号Daの符号化処理により音声符号化データDacが生成され、映像符号化データDvc及び音声符号化データDacが記録手段25に供給される。
そして、上記映像符号化データDvc及び音声符号化データDacは、記録手段25により多重化されて光ディスク25に記録される。
このようにして、第1の記録媒体である光ディスク1に記録されているMPEGストリームを第2の記録媒体である光ディスク26に記録するダビング処理が行われる。
【0025】
【発明が解決しようとする課題】
ところで近年、半導体メモリ等の携帯用記録媒体が普及しつつあり、このような携帯用記録媒体に動画映像や音声などのデジタルデータをダビングする場合も考えられる。
【0026】
このような半導体メモリ等の携帯用記録媒体に対するダビング処理では、MPEGストリームとして多重化されている映像データ及び音声データの全体を記録するのではなく、該映像データ及び音声データの一部、あるいは映像データ及び音声データのいずれか一方のみを選択的に記録することが要求される場合がある。
【0027】
ところが、この場合、MPEGストリームをそのストリーム形式を保持しつつダビングするという従来の手法では、MPEGストリームとして多重化されている映像データ及び音声データの一部、あるいは該映像データ及び音声データの一方のみを適切に記録することは困難であるという問題があった。
【0028】
本発明は、上記のような問題点を解決するためになされたものであり、MPEGストリームとして多重化されて記録されている音声データ及び映像データの所要部分を、ユーザの指定に応じて選択してダビングすることができる信号処理方法及び信号処理装置を得ることを目的とする。
【0029】
【課題を解決するための手段】
この発明(請求項1)に係る信号処理方法は、音声符号化データと映像符号化データとを多重化して得られた多重データが記録されている第1の記録媒体から、データを読み出して第2の記録媒体に記録する信号処理方法であって、上記第1の記録媒体から上記多重データを読み出す読出ステップと、該読み出した多重データに含まれる音声符号化データ及び映像符号化データの少なくとも一方を復号して復号データを生成する復号ステップと、上記復号データを、上記音声符号化データの符号化処理に用いた第1の符号化方式及び上記映像符号化データの符号化処理に用いた第2の符号化方式とは異なる符号化方式により、再符号化して再符号化データを生成する再符号化ステップと、該再符号化データを上記第2の記録媒体に記録する記録ステップとを含み、上記映像符号化データは、映像信号を上記第2の符号化方式としてMPEG方式を用いて符号化して得られたものであり、上記復号ステップは、上記読み出した多重データに含まれる映像符号化データの、少なくとも1フィールドあるいは1フレームに対応する特定部分を復号して、映像復号データを生成するとともに、上記読み出した多重データに含まれる音声符号化データを、その上記特定部分に関連する部分から連続して一定のデータ量だけ復号して、音声復号データを生成するステップであり、上記再符号化ステップは、上記映像復号データの少なくとも一部をJPEG方式により再符号化して映像再符号化データを生成するとともに、上記復号音声データを、上記第1の符号化方式とは異なる第3の符号化方式により再符号化して、音声再符号化データを生成するステップであることを特徴とするものである。
【0030】
この発明(請求項2)は、請求項1記載の信号処理方法において、前記記録ステップは、上記映像再符号化データと上記音声再符号化データを多重化したAV多重データを上記第2の記録媒体に記録することを特徴とするものである。
【0037】
この発明(請求項)に係る信号処理方法は、音声符号化データと映像符号化データとを多重化して得られた多重データが記録されている第1の記録媒体から、データを読み出して第2の記録媒体に記録する信号処理方法であって、上記第1の記録媒体から上記多重データを読み出す読出ステップと、上記読み出した多重データに含まれる映像符号化データの、少なくとも1フィールドまたは1フレームに対応する特定部分を復号して、映像復号データを生成するとともに、上記読み出した多重データに含まれる音声符号化データを、その上記特定部分に関連する部分から連続して一定のデータ量だけ復号して、音声復号データを生成する復号ステップと、上記映像復号データの少なくとも一部を、上記映像符号化データの符号化処理に用いたMPEG方式とは異なるJPEG方式により再符号化して映像再符号化データを生成するとともに、上記復号音声データを、上記音声符号化データの符号化処理に用いた第1の符号化方式とは異なる第3の符号化方式により再符号化して、音声再符号化データを生成する再符号化ステップと、上記映像再符号化データ及び上記音声再符号化データを上記第2の記録媒体に記録する記録ステップとを含むことを特徴とするものである。
この発明(請求項4)は、請求項3記載の信号処理方法において、前記記録ステップは、上記映像再符号化データと上記音声再符号化データを多重化したAV多重データを上記第2の記録媒体に記録することを特徴とするものである。
【0040】
この発明(請求項)に係る信号処理装置は、音声符号化データと映像符号化データとを多重化して得られた多重データが記録されている第1の記録媒体から、データを読み出して第2の記録媒体に記録する信号処理装置であって、上記第1の記録媒体から上記多重データを読み出す読出手段と、上記読み出した多重データに含まれる映像符号化データの、少なくとも1フィールドまたは1フレームに対応する特定部分を復号して、映像復号データを出力する映像復号手段と、上記読み出した多重データに含まれる音声符号化データを、その上記特定部分に関連する部分から連続して一定のデータ量だけ復号して、音声復号データを出力する音声復号手段と、上記映像復号データの少なくとも一部を、上記映像符号化データの符号化処理に用いたMPEG方式とは異なるJPEG方式により再符号化して映像再符号化データを出力する映像符号化手段と、上記復号音声データを、上記音声符号化データの符号化処理に用いた第1の符号化方式とは異なる第3の符号化方式により再符号化して、音声再符号化データを生成する音声符号化手段と、上記映像再符号化データ及び上記音声再符号化データを上記第2の記録媒体に記録する記録手段とを備えたことを特徴とするものである。
この発明(請求項6)は、請求項5記載の信号処理方法において、前記記録手段は、上記映像再符号化データと上記音声再符号化データを多重化したAV多重データを上記第2の記録媒体に記録することを特徴とするものである。
【0042】
【発明の実施の形態】
以下、本発明の実施の形態について説明する。
(実施の形態1)
図1は、本発明の実施の形態1による信号処理装置を説明するためのブロック図である。
この実施の形態1の信号処理装置101は、AV(オーディオビデオ)データを処理するものである。
【0043】
すなわち、この信号処理装置101は、第1の記録媒体である光ディスク1を駆動する駆動手段10と、該光ディスク1からデータDsを読み出す読出手段2とを有している。ここで、上記光ディスク1には、上記データDsとしてMPEGストリームが記録されている。MPEGストリームには、トランスポートストリーム(TS)とプログラムストリーム(PS)があり、いずれのストリームにおいても、映像符号化データと音声符号化データとが、該両データの同期再生が可能となるよう時間軸圧縮されて多重化されている。
【0044】
上記信号処理装置101は、読出手段2により光ディスク1から読み出されたデータ(MPEGストリーム)Dsを受け、該MPEGストリームDsに含まれる、MPEG2方式により符号化された映像符号化データを復号して、ベースバンドの映像信号Dvdを出力する映像復号手段3と、光ディスク1から読み出されたMPEGストリームDsを受け、該MPEGストリームDsに含まれる、AC3方式により符号化された音声符号化データを復号して、ベースバンドのPCM音声信号Dadを出力する音声復号手段5とを有している。
【0045】
上記信号処理装置101は、上記ベースバンドの映像信号Dvdを受け、上記ベースバンドの映像信号Dvdの、制御信号Cvcにより指定された部分を符号化して、映像再符号化データDvrcを出力する映像符号化手段4と、上記ベースバンドの音声信号Dadを受け、上記ベースバンドの音声信号Dadの、制御信号Cacにより指定された部分を符号化して、音声再符号化データDarcを出力する音声符号化手段6とを有している。
【0046】
上記信号処理装置101は、上記映像符号化手段4から出力された映像再符号化データDvrc及び上記音声符号化手段6から出力された音声再符号化データDarcを、制御信号Creに基づいて、第2の記録媒体であるメモリカード8に記録する記録手段7と、ユーザの操作により発生された操作信号Sopに基づいて、上記各手段を制御する、制御信号Cvc,Cac,Creなどを発生する制御手段9aとを有している。
【0047】
ここで、上記記録手段7は、上記映像符号化手段4からの映像再符号化データDvrc及び上記音声符号化手段6からの音声再符号化データDarcを時間軸圧縮して多重化する多重化部(図示せず)を有し、該多重化された映像再符号化データ及び音声再符号化データをAV多重データDwとしてメモリカード8に記録するものである。なお、この記録手段7は、映像再符号化データ及び音声再符号化データを多重化するものである必要はなく、映像再符号化データ及び音声再符号化データを、それぞれメモリカード8の対応する領域に記録するものであってもよい。
【0048】
また、上記映像符号化手段4に供給される制御信号Cvcは、ベースバンドの映像信号Dvdの、再符号化すべき部分を指定するものであり、また上記音声符号化手段6に供給される制御信号Cacは、ベースバンドの音声信号Dadの、再符号化すべき部分を指定するものである。図1では、上記制御手段9aからの駆動手段10、読出手段2、及び記録手段7へ出力される制御信号は図示していない。
【0049】
さらに、上記映像符号化手段4は、上記ベースバンドの映像信号Dvdの、指定された1フレームに対応する部分を、MPEG2方式とは異なる符号化方式であるJPEG(Joint Photographic Coding Experts Group)方式により符号化するものである。また、上記音声符号化手段6は、上記ベースバンドの音声信号Dadを、上記指定された1フレームの映像に関連する数フレームに渡って、メモリカード8に適した音声符号化方式であるAAC(Advanced Audio Coding)方式により符号化するものである。
【0050】
そして、上記信号処理装置101は、上記映像復号手段3の出力であるベースバンド映像信号DvdをDA変換してアナログ映像信号Svを出力するD/Aコンバータ11と、該アナログ映像信号Svに基づいて画像表示を行うTVモニタ12と、上記音声復号手段5の出力であるベースバンド音声信号DadをDA変換してアナログ音声信号Saを出力するD/Aコンバータ13と、該アナログ音声信号Saに基づいて音声出力を行うスピーカ14とを有している。
【0051】
なお、この実施の形態1の信号処理装置101を構成する読出手段2,映像復号手段3,音声復号手段5,映像符号化手段4,音声符号化手段6,記録手段7,制御手段9a,D/Aコンバータ11及び13は、ハードウエアにより実現しても、あるいはソフトウエアにより実現してもよいが、ここでは、これらは、ソフトウエアにより実現されている。
【0052】
次に動作について説明する。
図2は、光ディスク1に記録されているMPEGストリーム、及びメモリカード8に記録される、多重化された再符号化データDwを説明するための図であり、図2に示す、映像符号化データDvc,圧縮映像データDvtc,音声符号化データDac,圧縮音声データDatc,及びMPEGストリームDsは、図6に示すものと同一のものである。
【0053】
この実施の形態1の信号処理装置101では、ユーザの操作により、第1の記録媒体である光ディスク1に記録されているデータを第2の記録媒体であるメモリカード8にダビングする処理の実行を示す操作信号Sopが、ユーザ操作部15から制御手段9aに出力されると、信号処理装置101の各手段では、制御手段9aからの制御信号に基づいてダビング処理が行われる。なお、この実施の形態1の信号処理装置101では、光ディスク1に記録されているデータを再生する処理として、図7に示す従来のDVDプレーヤ201におけるデータ再生処理と全く同一の処理が行われる。
【0054】
つまり、まず、光ディスク1が駆動手段10により駆動され、読出手段2により該光ディクス1からデータDsが読み出され、該読み出されたデータDsが映像復号手段3及び音声復号手段5に供給される。
具体的には、上記映像復号手段3及び音声復号手段5には、上記データDsとして、MPEG2方式の映像符号化データとAC3方式の音声符号化データとを含むMPEGストリームが供給される。
【0055】
すると、映像復号手段3では、MPEGストリームDsからMPEG2方式の映像符号化データDevcを抽出して復号する映像復号処理が行われ、該映像復号処理によりベースバンドのデジタル映像信号Dvdが生成される。このデジタル映像信号DvdはD/Aコンバータ11及び映像符号化手段4に出力される。
該D/Aコンバータ11では、デジタル映像信号DvdはD/A変換処理によりアナログ映像信号Svに変換され、TVモニタ12に出力される。TVモニタ12では、アナログ映像信号Svに基づいて画像表示が行われる。
【0056】
また、映像符号化手段4では、制御手段9aからの制御信号Cvcに基づいて、ベースバンドのデジタル映像信号Dvdにおける、該制御信号Cvcにより指定された部分を符号化する再符号化処理が行われる。例えば、映像符号化手段4では、上記再符号化処理として、ユーザが選択した1フレームの画像に相当するデジタル映像信号DvdをJPEG方式により符号化して映像再符号化データDvrcを生成する処理が行われる。
【0057】
また、音声復号手段5では、MPEGストリームDsからAC3方式の音声符号化データDeacを抽出して復号する音声復号処理が行われ、該音声復号処理によりベースバンドのPCMデジタル音声信号Dadが生成される。このデジタル音声信号DadはD/Aコンバータ13及び音声符号化手段6に出力される。
該D/Aコンバータ13では、デジタル音声信号DadはD/A変換処理によりアナログ音声信号Saに変換され、スピーカ14に出力される。スピーカ14では、アナログ音声信号Saに基づいて音声再生が行われる。
【0058】
また、音声符号化手段6では、制御手段9aからの制御信号Cacに基づいて、ベースバンドのデジタル音声信号Dadにおける、制御信号Cacにより指定された部分を符号化する再符号化処理が行われる。例えば、音声符号化手段6では、ユーザが選択した1映像フレームの画像に関連する、該映像フレームから数フレームにわたって連続した音声信号Dadを、AAC方式により符号化して音声再符号化データDarcを生成する処理が行われる。なお、上記音声符号化手段6では、音声信号Dadを、上記AAC方式ではなく、MP3(MPEG-1 audio layer3)方式により符号化してもよい。
【0059】
上記映像符号化手段4にて生成された映像再符号化データDvrc及び上記音声符号化手段6にて生成された音声再符号化データDarcは記録手段7に供給され、映像再符号化データDvrc及び音声再符号化データDarcは該記録手段7にて多重化されて第2の記録媒体であるメモリカード8に記録される。
【0060】
以下、上記ダビング処理におけるユーザのデータ指定方法、及びユーザの指定に基づいてメモリカード8に記録されるデータについて具体的に説明する。
ユーザは、TVモニタ12に、ユーザが記録したい画像(例えば第1のフレームF1の画像)が表示されたとき、一定の記録操作を行うと、制御手段9aでは、その操作により発生した操作信号に基づいて、上記映像符号化手段4及び音声符号化手段6に対する制御信号Cvc及びCacが生成され、該両手段に供給される。
すると、映像符号化手段4では、ベースバンド映像信号Dvdとして入力された、上記第1のフレームF1に対応する映像信号S1のみ符号化する処理が行われ、1フレームの映像信号に対応する映像再符号化データJ1が記録手段7に出力される。
【0061】
また、このとき、音声符号化手段6では、上記符号化処理が施されたフレームから数フレームにわたる、例えばフレームF1〜F8にわたる映像信号に対応する音声信号Ba1を符号化する再符号化処理が行われ、該再符号化処理により得られた音声再符号化データP1が上記記録手段7に出力される。
そして、上記記録手段7により、上記1フレームの画像に対応する映像再符号化データJ1と、これに対応する音声再符号化データP1とが、同期再生されるよう対応付けられて、メモリカード8に記録される。
【0062】
また、第9のフレームF9の画像が表示されたとき、ユーザが一定の記録操作を行った場合は、ベースバンド映像信号Dvdにおける、第9フレームに対応する映像信号S9が符号化され、また、該第9フレームに関連するベースバンド音声信号Dadとして、例えば、図2に示すように第9〜第18フレームに対応する音声信号Ba2が符号化される。そして、第9フレームに対応する映像再符号化データJ9及び第9〜第18フレームに対応する音声再符号化データP2が記録手段7に出力される。
また、この実施の形態1では、上記のような記録操作を行った場合でも、TVモニタ12及びスピーカ14では、各フレームに対応する画像及び音声の再生が順次行われる。
【0063】
このように本実施の形態1の信号処理装置101では、第1の記録媒体である光ディスク1に記録されているMPEGストリームDsを読み出す読出手段2と、読み出されたMPEGストリームDsに含まれる、MPEG2方式の映像符号化データを復号する映像復号手段3と、読み出されたMPEGストリームに含まれる、AAC方式の音声符号化データを復号する音声復号手段5とを備え、ユーザ操作により指定されたフレームの画像に対応する映像復号データ及びこれに対応する音声復号データをそれぞれ、JPEG方式及びAAC方式(あるいはMP3方式)により再符号化して、第2の記録媒体であるメモリカード8に記録するので、光ディスク1に記録されているMPEGストリームDsの特定の部分の映像符号化データ及び音声符号化データを、符号化方式を変換してダビングすることができる。この結果、ユーザは、メモリカード8に記録されている映像符号化データ及び音声符号化データを再生することにより、指定した1フレームの静止画を見ながら、それに関連する音声を数フレームにわたって視聴することが可能となる。
【0064】
なお、上記実施の形態1では、ユーザが指定した1フレームの映像符号化データ(例えば、映像復号データをJPEG方式により再符号化して得られたもの)と、これに関連する数フレームにわたる音声符号化データとを記録する場合について説明したが、上記1フレームの映像符号化データとともに記録される音声符号化データは、該1フレームの映像符号化データに関連する数フレームにわたる音声符号化データに限るものではない。
例えば、ユーザが指定した1フレームの映像符号化データに関連する音声符号化データとして、数分にわたる音声符号化データを記録してもよく、さらに、上記1フレームに関連する音声符号化データとして、3分から5分程度の長さの楽曲に対応する音声符号化データを1曲分すべて記録するようにしてもよい。
【0065】
また、上記実施の形態1では、ユーザが指定した1フレームの映像符号化データと、これに関連する数フレームにわたる音声符号化データとを記録する場合について説明したが、ベースバンドの映像信号がインターレース信号である場合には、ユーザが指定した1フィールドの映像符号化データと、これに関連する数フィールドにわたる音声符号化データとを記録するようにしてもよい。
【0066】
また、上記実施の形態1では、信号処理装置として、ユーザが指定した1フレームの画像(つまり静止画)に対応する映像符号化データと、これに関連する数フレームにわたる音声符号化データとを記録するものを示したが、信号処理装置は、ユーザが指定した数フレームの画像(つまり動画像)と、これに関連する数フレームにわたる音声符号化データとを記録するものであってもよい。
【0067】
例えば、信号処理装置は、図2に示すように、ユーザが第20〜第25のフレームF20〜F25を指定した場合、これらのフレームに対応する映像信号S20〜S25をMPEG1方式により符号化して得られる映像符号化データM1と、上記フレームF20〜F25に対応する音声信号Ba3をAAC方式により符号化して得られる音声符号化データC1とを、記録手段7により多重化してメモリカード8に記録するものであってもよい。また、このような信号処理装置では、ユーザが第26〜第31のフレームF26〜F31を指定した場合、これらのフレームに対応する映像信号S26〜S31をMPEG1方式により符号化して得られる映像符号化データM2と、上記フレームF26〜F31に対応する音声信号Ba4をAAC方式により符号化して得られる音声符号化データC2とが、記録手段7により多重化されてメモリカード8に記録されることとなる。
【0068】
また、上記実施の形態1では、ベースバンドの映像信号をD/A変換してアナログ映像信号を出力するDAコンバータ11、及びアナログ映像信号を入力信号とするTVモニタ12、ベースバンドの音声信号をD/A変換してアナログ音声信号を出力するDAコンバータ13、及びアナログ音声信号を入力信号とするスピーカ14を備え、復号された映像信号及び音声信号をモニタするようにしているが、必ずしも復号された映像信号と音声信号の両方をモニタする必要はない。例えば、信号処理装置は、上記DAコンバータ11,13、TVモニタ12及びスピーカ14のうちDAコンバータ11及びTVモニタ12のみ備え、復号された映像信号のみモニタするものであってもよい。
【0069】
さらに、上記実施の形態1では、信号処理装置として、第1の記録媒体に記録されているMPEGストリームをダビングする際、該MPEGストリームに含まれる映像符号化データ及び音声符号化データを、両方とも再符号化して記録するものを示したが、上記信号処理装置は、MPEGストリームのダビング処理として、上記映像符号化データ及び音声符号化データの一方を再符号化して、それらの他方を再符号化せずにそのまま記録する処理を行うものであってもよい。
【0070】
また、上記実施の形態1では、信号処理装置として、フレームF1に対応する映像符号化データJ1、及びフレームF1〜F8に対応する音声符号化データP1を記録する際、TVモニタ12では、上記フレームF1以降の各フレームの画像を順次表示するようにしているが、信号処理装置は、TVモニタ12では、制御手段9aからの制御信号に基づいて、ユーザが指定したフレームF1に対応する画像の表示を一定時間(例えば5秒間)保持し、その後、フレームF2以降の各フレームの画像を順次表示するものであってもよい。
【0071】
また、上記実施の形態1では、フレームF1に対応する映像符号化データJ1、及びフレームF1〜F8に対応する音声符号化データBa1を記録する処理を、ユーザがTVモニタ12での画像表示を見ながらリアルタイムで行う場合を示したが、ユーザ指定のフレームの映像信号及び対応する数フレームの音声信号の記録処理は、1つの画像シーケンスに対応する動画像をすべて見終わった後に、ユーザが所望する個所を、再生時刻などにより指定することにより、行うようにしてもよい。
【0072】
(実施の形態2)
図3は、本発明の実施の形態2による信号処理装置を説明するためのブロック図である。
この実施の形態2の信号処理装置102は、上記実施の形態1の信号処理装置101における音声復号手段5及び音声符号化手段6に代えて、光ディスク1から読み出されたMPEGストリームDsから音声符号化データDacを抽出して、記録手段7に出力する音声データ抽出手段16と、上記MPEGストリームDsを受け、該ストリームに含まれる音声符号化データDacを抽出し、該音声符号化データDacを復号して音声復号データDadを上記D/Aコンバータ13に出力する音声復号手段5aとを備えたものである。また、この実施の形態2の信号処理装置102における制御手段9bは、実施の形態1における音声符号化手段6に対する制御信号Cacに代えて、上記音声データ抽出手段16に対する制御信号Caeを出力する点のみ、実施の形態1の制御手段9aと異なっている。
そして、この実施の形態2の信号処理装置102におけるその他の部分は、実施の形態1の信号処理装置101におけるものと同一である。
【0073】
次に動作について説明する。
このような構成の信号処理装置102では、ユーザの操作により、第1の記録媒体である光ディスク1に記録されているデータを第2の記録媒体であるメモリカード8にダビングする処理が指令されると、信号処理装置102では、ユーザの操作により指定された映像符号化データ及び音声符号化データが、第2の記録媒体であるメモリカード8に記録される。
なお、この実施の形態2の信号処理装置102では、光ディスク1に記録されているデータを再生する処理は、実施の形態1の信号処理装置101におけるものと全く同一である。
【0074】
以下、この実施の形態2のダビング処理について説明する。
上記信号処理装置102では、制御手段9bからの制御信号に基づいて、光ディスク1からMPEGストリームDsが読み出され、該MPEGストリームDsに含まれる映像符号化データ及び音声符号化データはそれぞれ、映像復号手段3及び音声復号手段5aにて復号される。そして、映像復号データDvd及び音声復号データDadはそれぞれD/Aコンバータ11及び13にてDA変換されて、アナログ映像信号Sv及びアナログ音声信号SaはそれぞれTVモニタ12及びスピーカ14に出力される。
【0075】
このとき、映像符号化手段4では、制御手段9bからの制御信号Cvcに基づいて、ベースバンドの映像信号Dvdにおける、該制御信号Cvcにより指定された部分を符号化する再符号化処理が行われ、該再符号化処理により得られた映像符号化データDvrcが記録手段7に出力される。また、音声データ抽出手段16では、制御手段9bからの制御信号Caeに基づいて、MPEGストリームDsにおける、制御信号Caeにより指定された部分を抽出する処理が行われ、抽出された音声符号化データDacが記録手段7に出力される。
【0076】
そして、上記映像符号化手段4にて生成された映像再符号化データDvrc及び上記音声データ抽出手段16により抽出された音声符号化データDacは、記録手段7にて第2の記録媒体であるメモリカード8に記録される。
【0077】
つまり、この実施の形態2の信号処理装置102では、第1の記録媒体(光ディスク)1に記録されている映像符号化データは、その符号化方式をMPEG方式からJPEG方式に変換して第2の記録媒体(メモリカード)8に記録され、第1の記録媒体(光ディスク)1に記録されている音声符号化データは、符号化方式の変換を行わずに、AC3方式により符号化された状態のままメモリカード8に記録されることとなる。
【0078】
このように本実施の形態2の信号処理装置102では、第1の記録媒体である光ディスク1に記録されているMPEGストリームDsを読み出す読出手段2と、読み出されたMPEGストリームに含まれる、MPEG2方式の映像符号化データを復号する映像復号手段3と、読み出されたMPEGストリームから、AC3方式の音声符号化データを抽出する音声データ抽出手段16とを備え、ユーザ操作により指定されたフレームの画像に対応する映像復号データを、JPEG方式により再符号化して、第2の記録媒体であるメモリカード8に記録するとともに、MPEGストリームに含まれる、指定されたフレームの画像に対応する音声符号化データをそのままメモリカード8に記録するので、MPEGストリームのダビングの際には、映像符号化データを符号化方式を変更して記録し、音声符号化データを、その再符号化処理を行うことなく記録することができる。この結果、ダビング処理における音声符号化データに対する再符号化に要するデータ処理を削減することができる。
【0079】
なお、上記実施の形態2の信号処理装置102では、光ディスク1に記録されているデータをメモリカード8にダビングする際、メモリカード8には、映像符号化データ及び音声符号化データの両方を記録するようにいるが、メモリカード8には、映像符号化データのみ記録するようにしてもよい。
【0080】
(実施の形態3)
図4は本発明の実施の形態3による信号処理装置を説明するための図である。
この実施の形態3の信号処理装置103は、上記実施の形態1の信号処理装置101における映像復号手段3及び映像符号化手段4に代えて、光ディスク1から読み出されたMPEGストリームDsから映像符号化データDvcを抽出して、記録手段7に出力する映像データ抽出手段17と、上記MPEGストリームDsを受け、該ストリームに含まれる映像符号化データDvcを抽出し、映像符号化データDvcを復号して映像復号データDvdを上記D/Aコンバータ11に出力する映像復号手段3aとを備えたものである。また、この実施の形態3の信号処理装置103における制御手段9cは、実施の形態1における映像符号化手段4に対する制御信号Cvcに代えて、上記映像データ抽出手段17に対する制御信号Cveを出力する点のみ、実施の形態1の制御手段9aと異なっている。
そして、この実施の形態3の信号処理装置103におけるその他の部分は、実施の形態1の信号処理装置101におけるものと同一である。
【0081】
次に動作について説明する。
このような構成の信号処理装置103では、ユーザの操作により、第1の記録媒体である光ディスク1に記録されているデータを第2の記録媒体であるメモリカード8にダビングする処理が指令されると、信号処理装置103では、ユーザの操作により指定された映像符号化データ及び音声符号化データが、第2の記録媒体であるメモリカード8に記録される。
なお、この実施の形態3の信号処理装置103では、光ディスク1に記録されているデータを再生する処理は、実施の形態1の信号処理装置101におけるものと全く同一である。
【0082】
以下、この実施の形態3のダビング処理について説明する。
上記信号処理装置103では、制御手段9cからの制御信号に基づいて、光ディスク1からMPEGストリームDsが読み出され、該MPEGストリームDsに含まれる映像符号化データ及び音声符号化データはそれぞれ、映像復号手段3aび音声復号手段5にて復号される。そして、映像復号データDvd及び音声復号データDadはそれぞれD/Aコンバータ11及び13にてDA変換されて、アナログ映像信号Sv及びアナログ音声信号SaはそれぞれTVモニタ12及びスピーカ14に出力される。
【0083】
このとき、音声符号化手段6では、制御手段9cからの制御信号Cacに基づいて、ベースバンドの音声信号Dadにおける、該制御信号Cacにより指定された部分を符号化する再符号化処理が行われ、該再符号化処理により得られた音声符号化データDarcが記録手段7に出力される。また、映像データ抽出手段17では、制御手段9cからの制御信号Cveに基づいて、MPEGストリームDsにおける、制御信号Cveにより指定された部分を抽出する処理が行われ、抽出された映像符号化データDvcが記録手段7に出力される。
そして、上記音声符号化手段6にて生成された音声再符号化データDarc及び上記映像データ抽出手段17により抽出された映像符号化データDvcは、記録手段7にて第2の記録媒体であるメモリカード8に記録される。
【0084】
つまり、この実施の形態3の信号処理装置103では、第1の記録媒体(光ディスク)1に記録されている音声符号化データは、その符号化方式をAC3方式からAAC方式に変換して第2の記録媒体(メモリカード)8に記録され、第1の記録媒体(光ディスク)1に記録されている映像符号化データは、符号化方式の変換を行わずに、MPEG2方式により符号化された状態のままメモリカード8に記録されることとなる。例えば、メモリカード8には、MPEGストリームにおける指定された部分に対応する動画(複数のフレーム)のデータまたは静止画(1フレーム)のデータを記録することが可能となる。ここで、メモリカード8に1フレームのデータを記録する場合は、記録するフレームは、フレーム内符号化されたフレームであることが望ましい。
【0085】
このように本実施の形態3の信号処理装置103では、第1の記録媒体である光ディスク1に記録されているMPEGストリームDsを読み出す読出手段2と、読み出されたMPEGストリームからAC3方式の音声符号化データを抽出して復号する音声復号手段5と、上記読み出されたMPEGストリームから、MPEG−2方式の映像符号化データを抽出する映像データ抽出手段17とを備え、ユーザ操作により指定されたフレームの画像に対応する音声復号データを、AAC方式により再符号化して、第2の記録媒体であるメモリカード8に記録するとともに、MPEGストリームに含まれる、指定されたフレームの画像に対応する映像符号化データをそのままメモリカード8に記録するので、MPEGストリームのダビングの際には、音声符号化データを符号化方式を変更して記録し、映像符号化データを、その再符号化処理を行うことなく記録することができる。この結果、ダビング処理における音声符号化データに対する再符号化に要する信号処理を削減することができる。
【0086】
なお、上記実施の形態3の信号処理装置103では、光ディスク1に記録されているデータをメモリカード8にダビングする際、メモリカード8には、映像符号化データ及び音声符号化データの両方を記録するようにいるが、メモリカード8には、音声符号化データのみ記録するようにしてもよい。
【0087】
(実施の形態4)
図5は本発明の実施の形態4による信号処理装置を説明するための図である。
この実施の形態4の信号処理装置104は、上記実施の形態1の信号処理装置101の映像復号手段3と映像符号化手段4との間に設けられ、制御信号Creに基づいて、映像復号手段3から出力される映像復号データDvdに対して解像度変換処理を施し、解像度変換処理により得られた映像データDrcを上記映像符号化手段4に出力する解像度変換手段18を備えたものである。この実施の形態4の制御手段9dは、解像度変換手段18に対する制御信号Creを生成する点のみ実施の形態1の制御手段9aと異なっている。
【0088】
上記解像度変換手段18は、具体的には、映像復号手段3から出力された映像復号データDvdに対して、1フレームを構成する画素を間引く処理を施すことにより、該映像復号データDvdの解像度もしくは信号フォーマットを変換するものである。例えば、該解像度変換手段18は、1フレームの映像データを構成する画素値を、1フレームにおける水平方向の画素数が2分の1,3分の1、または3分の2となるよう、あるいは1フレームにおける垂直方向の画素数が2分の1等の割合で減少するようまびく処理を行うものである。なお、この解像度変換手段18は、1フレームにおける水平方向の画素数及び垂直方向の画素数が一定の比率で減少するよう、1フレームの画像データを構成する画素値を間引く処理を行って、例えば、ハイビジョン等のHD(High Definition)信号を、SD(Standard Definition)等の標準信号に変換するものであってもよい。
【0089】
さらにこの実施の形態4の信号処理装置104は、実施の形態1における第2の記録媒体であるメモリカード8に代えて、光ディスク1a及びこれを駆動する駆動手段10aとを備えたものである。なお、第2の記録媒体としての光ディスク1aは、第1の記録媒体としての光ディスク1と、別の光ディスクであっても、同一の光ディスクであってもよい。
そして、この実施の形態4の信号処理装置104におけるその他の部分は、実施の形態1の信号処理装置101におけるものと同一である。
【0090】
次に動作について説明する。
この実施の形態4の信号処理装置104の動作は、映像復号手段3から出力された映像復号データDvdを解像度変換して映像符号化手段4に出力する点のみ実施の形態1の信号処理装置101の動作と異なっている。
つまり、光ディスク1から読み出されたMPEGストリームDsが映像復号手段3に入力されると、該映像復号手段3では、MPEGストリームからMPEG2方式により符号化された映像信号符号化データを抽出して、該映像信号符号化データを復号する復号処理が行われ、該復号処理により得られたベースバンドの映像信号Dvdは、D/Aコンバータ11及び解像度変換手段18に供給される。該D/Aコンバータ11に供給された映像信号Dvdはアナログ信号に変換され、TVモニタ12に出力される。
【0091】
一方、解像度変換手段18では、制御手段9dからの制御信号Creに基づいて、入力された映像信号Dvdに対して、1フレームに対応する画像データの画素値を、1フレームの画像の水平方向あるいは垂直方向における画素数が減少するよう間引く処理が施され、解像度もしくは信号フォーマットが変換された解像度変換映像データDrcが映像符号化手段4に出力される。
【0092】
すると、映像符号化手段4では、実施の形態1と同様、制御手段9dからの制御信号Cvcに基づいて、MPEGストリームに対応する解像度変換映像データDrcにおける、該制御信号により指定されたフレームに対応する部分を、決められた符号化方式により符号化する再符号化処理が行われる。ここで、再符号化処理における符号化方式は、光ディスク1に記録されているMPEGストリームに含まれる映像符号化データの符号化方式と同じMPEG方式であっても、該MPEGストリームに含まれる映像符号化データの符号化方式とは異なるJPEG方式であってもよい。
【0093】
また、光ディスク1から読み出されたMPEGストリームDsに含まれる音声符号化データは、実施の形態1と同様、音声復号手段5にて復号処理が施され、該復号処理により得られたベースバンドの音声信号DadはD/Aコンバータ13及び音声符号化手段6に供給される。該D/Aコンバータ13に供給された音声信号Dadはアナログ信号に変換され、スピーカ14に出力される。音声符号化手段6では、制御手段9dからの制御信号Cacに基づいて、MPEGストリームに対応する音声復号データ(つまりベースバンド音声信号)Dadにおける、該制御信号により指定されたフレームに対応する部分を、決められた符号化方式により符号化する再符号化処理が行われる。
【0094】
なお、音声復号データの再符号化の際には、実施の形態1で述べたように、符号化方式として、第1の記録媒体に記録されている音声符号化データの符号化方式と異なる方式を用いても、または実施の形態2で述べたように、第1の記録媒体に記録されている音声符号化データの符号化方式と同じ方式を用いてもよい。そして、再符号化処理により得られた映像符号化データDvc及び音声符号化データDacは記録手段7に入力され、該記録手段7により第2の記録媒体である光ディスク1aに記録される。
【0095】
このように本実施の形態4では、第1の記録媒体である光ディスク1に記録されているMPEGストリームDsを読み出す読出手段2と、読み出されたMPEGストリームに含まれる、MPEG2方式の映像符号化データを復号する映像復号手段3と、読み出されたMPEGストリームに含まれる、AAC方式の音声符号化データを復号する音声復号手段5と、映像復号手段3から出力される映像復号データDvdに対して解像度変換処理を施す解像度変換手段18とを備え、解像度変換処理により得られた映像データDrcを再符号化して記録媒体に記録するので、映像符号化データをダビングする際、第1の記録媒体に記録されている映像符号化データを、これが持つ解像度または信号フォーマットを変換して第2の記録媒体に記録することが可能となる。
【0096】
なお、上記実施の形態4では、映像データに対する解像度変換処理として、単に1フレーム(画面)の水平方向あるいは垂直方向における画素数が一定の割合で減少するよう、1フレームの画像データを構成する画素値を間引く処理を示したが、映像データに対する解像度変換処理は、1画面における有効でない画素に対応する画素値を間引いて、1画面(フレーム)の一部の領域に対応する画素値のみを選択するものであってもよい。この場合、1画面における指定された領域に対応する画像データのみを再符号化することが可能となる。
また、上記各実施の形態では、MPEGストリームとして、トランスポートストリーム(TS)、プログラムストリーム(PS)等を示したが、MPEGストリームはこれらに限るものではない。
【0097】
また、上記各実施の形態では、第1の記録媒体にMPEGストリームとして記録されている映像符号化データのMPEG符号化方式としてMPEG2方式を示したが、このMPEG符号化方式は、MPEG1方式、MPEG4方式、MPEG7方式等であってもよい。
また、上記各実施の形態では、第1の記録媒体にMPEGストリームとして記録されている音声符号化データに対する符号化方式として、AC3方式を挙げたが、この音声符号化データに対する符号化方式はこれに限るものではなく、例えば、MPEG1あるいはMPEG2対応の音声符号化方式、またはAAC方式、PCM方式等であってもよい。
【0098】
また、上記各実施の形態では、音声データの再符号化処理に用いる符号化方式としてAAC方式を挙げたが、音声データの再符号化処理に用いる符号化方式はこれに限るものではなく、例えば、MPEG1あるいはMPEG2に対応した音声符号化方式、またはPCM方式等、第1の記録媒体に記録されている音声符号化データの符号化方式(例えばAC3)と異なる方式であればよい。
【0099】
また、上記各実施の形態では、映像データの再符号化処理に用いる符号化方式として、JPEG方式を挙げたが、映像データの再符号化処理に用いる符号化方式はこれに限るものではなく、例えば、H.261方式、H.263方式、ウェーブレット方式等、第1の記録媒体に記録されている映像符号化データの符号化方式(例えばMPEG2方式)と異なる方式であればよい。
【0100】
また、上記各実施の形態では、第1の記録媒体として、光ディスクを例にあげたが、第1の記録媒体は光ディスクに限るものではなく、ハードディスク、光磁気ディスク、磁気ディスク、半導体メモリ、あるいは磁気テープであってもよい。
【0101】
また、上記各実施の形態1〜3では、第2の記録媒体として、半導体メモリであるメモリカード8を例に挙げたが、第2の記録媒体はこれらのものに限るものではなく、例えば、ハードディスク、光ディスク、光磁気ディスク、または磁気ディスクまたは磁気テープであってもよい。
また、上記各実施の形態では、第1の記録媒体と第2の記録媒体が別々の記録媒体である場合について説明したが、これらの記録媒体は同一のものであってもよい。
また、上記実施の形態1及び4では、第1の記録媒体に記録されている映像符号化データ及び音声符号化データの両方を第2の記録媒体に記録するようにしているが、映像符号化データ及び音声符号化データの一方のみ第2の記録媒体に記録するようにしてもよい。
【0102】
【発明の効果】
以上のように本発明に係る信号処理装置によれば、音声符号化データと映像符号化データとを多重化して得られた多重データが記録されている第1の記録媒体から、データを読み出して第2の記録媒体に記録する信号処理方法であって、上記第1の記録媒体から上記多重データを読み出す読出ステップと、該読み出した多重データに含まれる音声符号化データ及び映像符号化データの少なくとも一方を復号して復号データを生成する復号ステップと、上記復号データを、上記音声符号化データの符号化処理に用いた第1の符号化方式及び上記映像符号化データの符号化処理に用いた第2の符号化方式とは異なる符号化方式により、再符号化して再符号化データを生成する再符号化ステップと、該再符号化データを上記第2の記録媒体に記録する記録ステップとを含むことを特徴とするので、MPEGストリームとして多重化されて記録されている音声データ及び映像データの所要部分を、ユーザの指定に応じて選択してダビングすることができる効果がある。
【0103】
本発明によれば、上記信号処理方法において、上記復号ステップは、上記読み出した多重データに含まれる音声符号化データの少なくとも一部を復号して音声復号データを生成するステップであり、上記再符号化ステップは、上記音声復号データを、上記第1の符号化方式と異なる第3の符号化方式により再符号化して、音声再符号化データを、上記再符号化データとして生成するステップであることを特徴とするので、第1の記録媒体に記録されているMPEGストリームなどに含まれる音声符号化データを、その符号化方式を第2の記録媒体に最適な符号化方式に変換して、デジタルダビングすることができる効果がある。
【0104】
本発明によれば、上記信号処理方法において、上記復号ステップは、上記読み出した多重データに含まれる映像符号化データの少なくとも一部を復号して映像復号データを生成するステップであり、上記再符号化ステップは、上記映像復号データを、上記第2の符号化方式と異なる第4の符号化方式により再符号化して、映像再符号化データを、上記再符号化データとして生成するステップであることを特徴とするので、第1の記録媒体に記録されているMPEGストリームなどに含まれる映像符号化データを、その符号化方式を第2の記録媒体に最適な符号化方式に変換して、デジタルダビングすることができる効果がある。
【0105】
本発明によれば、上記信号処理方法において、上記復号ステップは、上記読み出した多重データに含まれる映像符号化データの少なくとも一部を復号して映像復号データを生成するものであり、上記再符号化ステップは、上記映像復号データを、上記第2の符号化方式とは異なる第4の符号化方式により再符号化して映像再符号化データを生成するステップであり、上記記録ステップは、上記読み出した多重データに含まれる音声符号化データの少なくとも一部と、上記映像再符号化データとを、上記第2の記録媒体に記録するステップであることを特徴とするので、第1の記録媒体に記録されているMPEGストリームなどに含まれる映像符号化データ及び音声符号化データを、該映像符号化データの符号化方式のみを第2の記録媒体に最適な符号化方式に変換して、デジタルダビングすることができる効果がある。
【0106】
本発明によれば、上記信号処理方法において、上記復号ステップは、上記読み出した多重データに含まれる音声符号化データの少なくとも一部を復号して音声復号データを生成するステップであり、上記再符号化ステップは、上記音声復号データを、上記第1の符号化方式とは異なる第3の符号化方式により再符号化して、音声再符号化データを生成するステップであり、上記記録ステップは、上記読み出した多重データに含まれる映像符号化データの少なくとも一部と、上記音声再符号化データとを、上記第2の記録媒体に記録するステップであることを特徴とするので、第1の記録媒体に記録されているMPEGストリームなどに含まれる映像符号化データ及び音声符号化データを、該音声符号化データの符号化方式のみを第2の記録媒体に最適な符号化方式に変換して、デジタルダビングすることができる効果がある。
【0107】
本発明によれば、上記信号処理方法において、上記復号ステップは、上記読み出した多重データに含まれる音声符号化データの少なくとも一部及び映像符号化データの少なくとも一部をそれぞれ復号して、音声復号データ及び映像復号データを生成するものであり、上記再符号化ステップは、上記音声復号データを、上記第1の符号化方式とは異なる第3の符号化方式により再符号化して、音声再符号化データを生成するとともに、上記映像復号データを、上記第2の符号化方式とは異なる第4の符号化方式により再符号化して、映像再符号化データを生成するステップであり、上記記録ステップは、上記音声再符号化データ及び上記映像再符号化データを、上記第2のデータ記録媒体に記録するステップであることを特徴とするので、第1の記録媒体に記録されているMPEGストリームなどに含まれる映像符号化データ及び音声符号化データを、該各符号化データの符号化方式をそれぞれ、第2の記録媒体に最適な符号化方式に変換して、デジタルダビングすることができる効果がある。
【0108】
本発明によれば、上記信号処理方法において、上記第2の符号化方式はMPEG方式であり、上記第4の符号化方式はJPEG方式であることを特徴とするので、第1の記録媒体に記録されているMPEGストリームなどに含まれる映像符号化データを、その符号化方式であるMPEG方式を第2の記録媒体に最適な符号化方式であるJPEG方式に変換して、デジタルダビングすることができる効果がある。
【0109】
本発明によれば、上記信号処理方法において、上記映像符号化データは、映像信号を上記第2の符号化方式としてMPEG方式を用いて符号化して得られたものであり、上記復号ステップは、上記読み出した多重データに含まれる映像符号化データの、少なくとも1フィールドあるいは1フレームに対応する特定部分を復号して、映像復号データを生成するとともに、上記読み出した多重データに含まれる音声符号化データを、その上記特定部分に関連する部分から連続して一定のデータ量だけ復号して、音声復号データを生成するステップであり、上記再符号化ステップは、上記映像復号データの少なくとも一部をJPEG方式により再符号化して映像再符号化データを生成するとともに、上記復号音声データを、上記第1の符号化方式とは異なる第3の符号化方式により再符号化して、音声再符号化データを生成するステップであることを特徴とするので、第1の記録媒体に記録されているMPEGストリームなどに含まれる映像符号化データの、指定された1画面に相当する部分を、その符号化方式であるMPEG方式を第2の記録媒体に最適な符号化方式であるJPEG方式に変換して、しかも、上記指定された画面に関連する複数の画面に対応する音声符号化データとともに、デジタルダビングすることができる効果がある。
【0110】
本発明に係る信号処理方法によれば、音声符号化データと映像符号化データとを多重化して得られた多重データが記録されている第1の記録媒体から、データを読み出して第2の記録媒体に記録する信号処理方法であって、上記第1の記録媒体から上記多重データを読み出す読出ステップと、上記読み出した多重データに含まれる映像符号化データの、少なくとも1フィールドまたは1フレームに対応する特定部分を復号して、映像復号データを生成するとともに、上記読み出した多重データに含まれる音声符号化データを、その上記特定部分に関連する部分から連続して一定のデータ量だけ復号して、音声復号データを生成する復号ステップと、上記映像復号データの少なくとも一部を、上記映像符号化データの符号化処理に用いたMPEG方式とは異なるJPEG方式により再符号化して映像再符号化データを生成するとともに、上記復号音声データを、上記音声符号化データの符号化処理に用いた第1の符号化方式とは異なる第3の符号化方式により再符号化して、音声再符号化データを生成する再符号化ステップと、上記映像再符号化データ及び上記音声再符号化データを上記第2の記録媒体に記録する記録ステップとを含むことを特徴とするので、第1の記録媒体に記録されているMPEGストリームなどに含まれる映像符号化データの、指定された1画面に相当する部分を、その符号化方式であるMPEG方式を第2の記録媒体に最適な符号化方式であるJPEG方式に変換して、しかも、上記指定された画面に関連する複数の画面に対応する音声符号化データとともに、デジタルダビングすることができる効果がある。
【0111】
本発明に係る信号処理方法によれば、音声符号化データと映像符号化データとを多重化して得られた多重データが記録されている第1の記録媒体から、データを読み出して第2の記録媒体に記録する信号処理方法であって、上記第1の記録媒体から上記多重データを読み出す読出ステップと、該読み出された多重データに含まれる映像符号化データの少なくとも一部を復号して映像復号データを生成する復号ステップと、上記映像復号データに対して、画素値を間引く解像度変換処理、あるいはデータフォーマットを変換する変換処理を施して、変換済映像データを生成する変換ステップと、上記変換済映像データを再符号化して映像再符号化データを生成する再符号化ステップと、上記映像再符号化データを上記第2の記録媒体に記録する記録ステップとを含むことを特徴とするので、映像符号化データをダビングする際、第1の記録媒体に記録されている映像符号化データを、これが持つ解像度または信号フォーマットを変換して第2の記録媒体に記録することが可能となる。
【0112】
本発明に係る信号処理装置によれば、音声符号化データと映像符号化データとを多重化して得られた多重データが記録されている第1の記録媒体から、データを読み出して第2の記録媒体に記録する信号処理装置であって、上記第1の記録媒体から上記多重データを読み出す読出手段と、該読み出した多重データに含まれる音声符号化データ及び映像符号化データの少なくとも一方を復号して復号データを出力する復号手段と、上記復号データを、上記音声符号化データの符号化処理に用いた第1の符号化方式及び上記映像符号化データの符号化処理に用いた第2の符号化方式とは異なる符号化方式により、再符号化して再符号化データを出力する再符号化手段と、該再符号化データを上記第2の記録媒体に記録する記録手段とを備えたことを特徴とするので、MPEGストリームとして多重化されて記録されている音声データ及び映像データの所要部分を、ユーザの指定に応じて選択してダビングすることができる効果がある。
【0113】
本発明に係る信号処理装置によれば、音声符号化データと映像符号化データとを多重化して得られた多重データが記録されている第1の記録媒体から、データを読み出して第2の記録媒体に記録する信号処理装置であって、上記第1の記録媒体から上記多重データを読み出す読出手段と、上記読み出した多重データに含まれる映像符号化データの、少なくとも1フィールドまたは1フレームに対応する特定部分を復号して、映像復号データを出力する映像復号手段と、上記読み出した多重データに含まれる音声符号化データを、その上記特定部分に関連する部分から連続して一定のデータ量だけ復号して、音声復号データを出力する音声復号手段と、上記映像復号データの少なくとも一部を、上記映像符号化データの符号化処理に用いたMPEG方式とは異なるJPEG方式により再符号化して映像再符号化データを出力する映像符号化手段と、上記復号音声データを、上記音声符号化データの符号化処理に用いた第1の符号化方式とは異なる第3の符号化方式により再符号化して、音声再符号化データを生成する音声符号化手段と、上記映像再符号化データ及び上記音声再符号化データを上記第2の記録媒体に記録する記録手段とを備えたことを特徴とするので、第1の記録媒体に記録されているMPEGストリームなどに含まれる映像符号化データの、指定された1画面に相当する部分を、その符号化方式であるMPEG方式を第2の記録媒体に最適な符号化方式であるJPEG方式に変換して、しかも、上記指定された画面に関連する複数の画面に対応する音声符号化データとともに、デジタルダビングすることができる効果がある。
【0114】
本発明に係る信号処理装置によれば、音声符号化データと映像符号化データとを多重化して得られた多重データが記録されている第1の記録媒体から、データを読み出して第2の記録媒体に記録する信号処理装置であって、上記第1の記録媒体から上記多重データを読み出す読出手段と、該読み出された多重データに含まれる映像符号化データの少なくとも一部を復号して映像復号データを生成する映像復号手段と、上記映像復号データに対して、画素値を間引く解像度変換処理、あるいはデータフォーマットを変換する変換処理を施して、変換済映像データを生成するデータ変換手段と、上記変換済映像データを再符号化して映像再符号化データを生成する符号化手段と、上記映像再符号化データを上記第2の記録媒体に記録する記録手段とを備えたことを特徴とするので、映像符号化データをダビングする際、第1の記録媒体に記録されている映像符号化データを、これが持つ解像度または信号フォーマットを変換して第2の記録媒体に記録することが可能となる。
【図面の簡単な説明】
【図1】本発明の実施の形態1による信号処理装置を説明するブロック図である。
【図2】上記実施の形態1の信号処理装置における信号処理を説明するための図である。
【図3】本発明の実施の形態2による信号処理装置を説明するブロック図である。
【図4】本発明の実施の形態3による信号処理装置を説明するブロック図である。
【図5】本発明の実施の形態4よる信号処理装置を説明するブロック図である。
【図6】従来の信号処理装置によりダビングするMPEGストリームのデータ構造を説明するための模式図である。
【図7】従来の信号処理装置を説明するためのブロック図である。
【符号の説明】
1,26 光ディスク(第1の記録媒体)
2 読出手段
3,3a 映像復号手段
4 映像符号化手段
5,5a 音声復号手段
6 音声符号化手段
7 記録手段
8 メモリカード(第2の記録媒体)
9a,9b,9c,9d,28 制御手段
10,27 駆動手段
11,13 D/Aコンバータ
12 TVモニタ
14 スピーカ
15,29 ユーザ操作部
16 音声データ抽出手段
17 映像データ抽出手段
18 解像度変換手段
101,102,103,104 信号処理装置
Cac,Cre,Cvc,Cd1,Cd2 制御信号
Darc 音声再符号化データ
Datc 圧縮音声データ
Dad 音声復号データ
Ds MPEGストリーム
Dvrc 映像再符号化データ
Dvtc 圧縮映像データ
Dvd 映像復号データ
Dw 書込データ
Sa アナログ音声信号
Sop,Sop1,Sop2 操作信号
Sv アナログ映像信号
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a signal processing method and a signal processing apparatus, and more particularly to a process for dubbing digital video data or digital audio data.
[0002]
[Prior art]
Conventionally, dubbing of an MPEG (Moving Picture Experts Group) stream (multi-encoded data) in which digital data such as moving image and audio is multiplexed is performed while maintaining the MPEG stream format.
[0003]
For example, when the video data is encoded by the MPEG2 system and the audio data is encoded by the MPEG1 system, the video encoded data and the audio encoded data are synchronized with each other. This is because they are multiplexed. That is, it is most efficient to dub the video encoded data and audio encoded data included in the MPEG stream together as an MPEG stream. Another reason for the conventional dubbing of an MPEG stream while maintaining the stream format is that a dubbing method other than such a dubbing method could not be considered.
[0004]
FIG. 6 is a diagram for explaining the MPEG stream.
Video data (video encoded data) Dvc encoded by the MPEG2 system and audio data (audio encoded data) Dac encoded by the AC3 system are multiplexed as MPEG streams Ds, respectively. Here, the AC3 system is an audio encoding system recommended in the DVD (Digital Versatile Disk) video standard. Specifically, the MPEG stream Ds includes the compressed video data Dvtc obtained by time-axis compressing the video encoded data Dvc so that it is multiplexed with the audio encoded data Dac, and the audio encoded data Dac. This includes compressed audio data Datc obtained by time-axis compression so as to be multiplexed with video encoded data Dvc.
[0005]
That is, the video encoded data Dvc has a data structure divided for each prescribed data unit (GOP), and forms, for example, a first GOP (Group of Pictures) as shown in FIG. Encoded video data Dvc1 corresponding to the first to sixteenth video frames F1 to F16 and video encoding corresponding to the seventeenth to thirty-second video frames F17 to F32 constituting the second GOP. Data Dvc2 is included. Further, as shown in FIG. 6, the compressed video data Dvtc includes time axis compressed data V1 to V3 corresponding to the first GOP and time axis compressed data V4 to V6 corresponding to the second GOP.
[0006]
Here, the time-axis compressed data V1 is obtained by time-compressing the front part of the video encoded data Dvc1 corresponding to the first GOP, and the time-axis compressed data V2 is the video encoded data. The time axis compressed data V3 is obtained by collectively compressing the intermediate portion of the data Dvc1 and the time axis compression of the video encoded data Dvc1. The time-axis compressed data V4 is obtained by time-axis compressing the front part of the video encoded data Dvc2 corresponding to the second GOP, and the time-axis compressed data V5 is the video encoded data. The time-axis compressed data V6 is obtained by collectively compressing the middle part of Dvc2 and time-axis compressed, and the time-axis compressed data V6 is obtained by collectively compressing the rear part of the video encoded data Dvc2.
[0007]
The I data (intra-screen encoded data) in the video encoded data Dvc1 corresponding to the first GOP corresponds to the frame F1, and P and B data (between the screens) corresponding to the frames F2 to F16. (Encoded data) is arranged following the I data corresponding to the frame F1. The I data (intra-screen encoded data) in the video encoded data Dvc2 corresponding to the second GOP corresponds to the frame F17, and P and B data (inter-screen) corresponding to the frames F18 to F32 (Encoded data) is arranged following the I data corresponding to the frame F17.
[0008]
Further, as shown in FIG. 6, the compressed audio data Datc includes time axis compressed data A1 to A3 corresponding to the first GOP and time axis compressed data A4 to A6 corresponding to the second GOP.
Here, the time-axis compressed data A1, A2, and A3 are obtained by time-axis compressing portions of the audio encoded data Dac that substantially correspond to the time-axis compressed data V1, V2, and V3 in the compressed video data Dvtc, respectively. It is what was done. The time-axis compressed data A4, A5, and A6 are obtained by time-axis compressing portions of the audio encoded data Dac that substantially correspond to the time-axis compressed data V4, V5, and V6 in the compressed video data Dvtc, respectively. It is a thing.
[0009]
FIG. 7 is a block diagram for explaining a dubbing process using a conventional signal processing apparatus, and shows a DVD player and a DVD recorder as the conventional signal processing apparatus.
First, a DVD player 201 which is a conventional signal processing device will be described.
The DVD player 201 includes a driving unit 10 that drives the optical disk 1 as a first recording medium based on a control signal Cd1, and a reading unit 2 that performs a process of reading data Ds from the optical disk 1 based on a control signal Cro. And have. Here, on the optical disc 1, multiplexed video encoded data and audio encoded data are recorded as an MPEG stream Ds. The MPEG stream includes a transport stream (TS) and a program stream (PS). In both streams, the video encoded data and the audio encoded data are timed so that both data can be reproduced in synchronization with each other. It is axially compressed and multiplexed.
[0010]
The DVD player 201 receives the MPEG stream Ds read from the optical disc 1, decodes the encoded video data encoded by the MPEG2 method included in the MPEG stream Ds, and performs baseband (uncompressed) The video decoding means 3 for outputting the video signal Dvd and the MPEG stream Ds read out from the optical disc 1 are received, and the audio encoded data encoded by the AC3 system included in the MPEG stream Ds is decoded and the base Audio decoding means 5 for outputting a band (uncompressed) PCM (pulse-code modualtion) audio signal Dad.
[0011]
The DVD player 201 includes a DA converter 11 that DA-converts the baseband video signal Dvd that is the output of the video decoding means 3 and outputs an analog video signal Sv, and a TV that displays an image based on the analog video signal Sv. A monitor 12, a converter 13 that DA-converts the baseband audio signal Dad that is the output of the audio decoding means 5, and outputs an analog audio signal Sa, and a speaker 14 that outputs audio based on the analog audio signal Sa. Have.
[0012]
The DVD player 201 includes a user operation unit 15, control signals Cd 1 and Cro to the driving unit 10 and the reading unit 2, and other units 3 based on an operation signal Sop 1 generated by the operation unit 15. , 5 and control means 9 for outputting control signals (not shown) to the D / A converters 11 and 13, and an output terminal 201a for outputting the analog video signal Sv and analog audio signal Sa to the outside of the player. And 201b.
[0013]
Next, a DVD recorder 202 which is a conventional signal processing device will be described.
The DVD recorder 202 includes input terminals 202a and 202b for inputting an analog video signal Sv and an analog audio signal Sa, an A / D converter 21 for converting the analog video signal Sv into a baseband digital video signal Dv, an analog The A / D converter 22 converts the audio signal Sa into a baseband digital audio signal Da.
[0014]
The DVD recorder 202 encodes the baseband video signal Dv and outputs video encoded data Dvc, and encodes the baseband audio signal Da and outputs audio encoded data Dac. And voice encoding means 24.
[0015]
The DVD recorder 202 uses the drive means 27 for driving the optical disk 26 as the second recording medium based on the control signal Cd2, the video encoded data Dvc and the audio encoded data Dac based on the control signal Cre. And a recording means 25 for multiplexing and recording as an MPEG stream Dw on the optical disk 26.
[0016]
The DVD recorder 202 includes control signals Cre and Cd2 to the drive means 27 and the recording means 25, and other means 23 based on the user's operation section 29 and the operation signal Sop2 generated by the operation section 29. , 24 and control means 28 for outputting a control signal (not shown) to the A / D converters 21 and 22.
[0017]
Next, the operation will be described.
First, the operation of the DVD player 201 will be described.
In this DVD player 201, when a process for reproducing data recorded on the optical disc 1 as the first recording medium is selected by the user's operation, each means of the DVD player 201 is controlled by the control means 9. Data reproduction processing is performed based on the signal.
[0018]
That is, first, the optical disc 1 is driven by the driving means 10 controlled by the control signal Cd1, and the reading means 2 reads the data Ds from the optical disk 1. The read data Ds is supplied from the reading unit 2 to the video decoding unit 3 and the audio decoding unit 5.
[0019]
Specifically, the video decoding means 3 and the audio decoding means 5 are supplied with an MPEG stream including MPEG2 video encoded data and AC3 audio encoded data as the data Ds.
Then, the video decoding means 3 performs a video decoding process for extracting and decoding the MPEG2 video encoded data included in the MPEG stream Ds, and a baseband video signal Dvd is generated by the video decoding process. This video signal Dvd is output to the D / A converter 11.
In the D / A converter 11, D / A conversion processing for converting the video signal Dvd into the analog video signal Sv is performed, and the analog video signal Sv is output to the TV monitor 12. The TV monitor 12 displays an image based on the analog video signal Sv.
[0020]
Also, as described above, simultaneously with the reproduction of the video encoded data, the audio decoding means 5 performs audio decoding processing for extracting and decoding the AC3 audio encoded data included in the MPEG stream Ds. The processing generates a baseband PCM audio signal Dad. This audio signal Dad is output to the D / A converter 13.
The D / A converter 13 performs D / A conversion processing for converting the audio signal Dad into an analog audio signal Sa, and the analog audio signal Sa is output to the speaker 14. The speaker 14 performs audio reproduction based on the analog audio signal Sa. As described above, during the reproduction of the video encoded data and the audio encoded data, the analog video signal Sv and the analog audio signal Sa are output to the output terminals 201a and 201b of the DVD player 201, respectively.
[0021]
Next, a dubbing process for recording data recorded on the optical disc 1 as the first recording medium onto the optical disc 26 as the second recording medium using the DVD player 201 and the DVD recorder 202 will be described.
Before performing the dubbing process, the output terminals 201a and 201b of the DVD player 201 are connected in advance to the corresponding input terminals 202a and 202b of the DVD recorder 202, respectively.
[0022]
In the DVD player 201, when the operation signal Sop1 is supplied from the user operation unit 15 to the control unit 9, a control signal for controlling each unit is output. In the DVD recorder 202, when the operation signal Sop2 is supplied from the user operation unit 29 to the control means 28, a control signal for controlling each unit is output.
Then, in the DVD player 201, the MPEG stream recorded on the optical disc 1 is reproduced as described above, and the analog video signal Sv and the analog audio signal Sa obtained by the MPEG stream reproduction process are output. . On the other hand, the DVD recorder 202 performs a recording process for recording the data generated by the A / D conversion, encoding and multiplexing of the analog video signal Sv and the analog audio signal Sa output from the DVD player 201 and recording the multiplexed data. Done.
[0023]
In other words, in the DVD player 201, the reproduction process of the MPEG stream recorded on the optical disc 1 is performed, and the analog video signal Sv and the analog audio signal Sa obtained by the reproduction process of the MPEG stream are output to the output terminal of the DVD player 201. From 201a and 201b, it outputs to the input terminals 202a and 202b of the DVD recorder 202.
In the DVD recorder 202, the analog video signal Sv input to the input terminal 202 a is converted into a digital video signal Dv by the A / D converter 21 and supplied to the video encoding means 23. The analog audio signal Sa input to the input terminal 202 b is converted into a digital audio signal Da by the A / D converter 22 and supplied to the audio encoding means 24.
[0024]
The video encoding unit 23 generates video encoded data Dvc by encoding the digital video signal Dv, and the audio encoding unit 24 generates audio encoded data Dac by encoding the digital audio signal Da. Video encoded data Dvc and audio encoded data Dac are supplied to the recording means 25.
The video encoded data Dvc and the audio encoded data Dac are multiplexed by the recording means 25 and recorded on the optical disc 25.
In this manner, the dubbing process for recording the MPEG stream recorded on the optical disc 1 as the first recording medium onto the optical disc 26 as the second recording medium is performed.
[0025]
[Problems to be solved by the invention]
In recent years, portable recording media such as semiconductor memories are becoming widespread, and it may be considered that digital data such as moving image video and audio is dubbed onto such portable recording media.
[0026]
In such a dubbing process on a portable recording medium such as a semiconductor memory, the entire video data and audio data multiplexed as an MPEG stream is not recorded, but a part of the video data and audio data, or video There are cases where it is required to selectively record only one of data and audio data.
[0027]
However, in this case, in the conventional method of dubbing an MPEG stream while maintaining the stream format, only a part of video data and audio data multiplexed as an MPEG stream or only one of the video data and audio data is stored. It was difficult to record properly.
[0028]
The present invention has been made to solve the above-described problems, and selects required portions of audio data and video data multiplexed and recorded as an MPEG stream according to a user's specification. It is an object of the present invention to obtain a signal processing method and a signal processing apparatus that can be dubbed.
[0029]
[Means for Solving the Problems]
  According to the signal processing method of the present invention (claim 1), data is read from a first recording medium on which multiplexed data obtained by multiplexing audio encoded data and video encoded data is recorded. A signal processing method for recording on a second recording medium, the reading step for reading the multiplexed data from the first recording medium, and at least one of audio encoded data and video encoded data included in the read multiplexed data A decoding step of decoding decoded data to generate decoded data, and a first encoding method used for encoding the encoded audio data and a first encoding method used for encoding the encoded video data. A re-encoding step for re-encoding to generate re-encoded data by an encoding method different from the encoding method of No. 2, and a recording method for recording the re-encoded data on the second recording medium. And a step includingThe video encoded data is obtained by encoding a video signal using the MPEG system as the second encoding system, and the decoding step includes the video code included in the read multiplexed data. A portion of the encoded data corresponding to at least one field or one frame is decoded to generate video decoded data, and the audio encoded data included in the read multiplexed data is converted into a portion related to the specific portion. Is a step of decoding a predetermined amount of data continuously to generate audio decoded data, and the re-encoding step re-encodes video by re-encoding at least a part of the video decoded data by the JPEG method. Generating the data and re-encoding the decoded speech data by a third encoding method different from the first encoding method; Te is the step of generating an audio recoding dataIt is characterized by this.
[0030]
  The present invention (Claim 2) is the signal processing method according to Claim 1,In the recording step, AV multiplexed data obtained by multiplexing the video re-encoded data and the audio re-encoded data is recorded on the second recording medium.It is characterized by this.
[0037]
  This invention (claim)3Is read out from the first recording medium on which the multiplexed data obtained by multiplexing the audio encoded data and the video encoded data is recorded and recorded on the second recording medium. And a reading step of reading the multiplexed data from the first recording medium, and a specific portion corresponding to at least one field or one frame of the video encoded data included in the read multiplexed data. Decoding and generating video decoded data, and decoding the audio encoded data included in the read multiplexed data by a certain amount of data continuously from the portion related to the specific portion, And the MPEG method using at least a part of the video decoded data for the encoding process of the video encoded data. And re-encoding by the JPEG method to generate video re-encoded data, and the decoded audio data is encoded by a third encoding different from the first encoding method used for encoding the audio encoded data. A re-encoding step of re-encoding according to a method to generate audio re-encoded data; and a recording step of recording the video re-encoded data and the audio re-encoded data on the second recording medium. It is characterized by.
  According to the present invention (invention 4), in the signal processing method according to claim 3, in the recording step, the AV recording data obtained by multiplexing the video re-encoded data and the audio re-encoded data is the second recording. It is recorded on a medium.
[0040]
  This invention (claim)5) Reads out data from the first recording medium on which the multiplexed data obtained by multiplexing the audio encoded data and the video encoded data is recorded, and records the data on the second recording medium A signal processing device for reading out the multiplexed data from the first recording medium, and a specific portion corresponding to at least one field or one frame of the encoded video data included in the read multiplexed data. Video decoding means for decoding and outputting video decoded data, and audio encoded data included in the read multiplexed data are continuously decoded from a portion related to the specific portion by a certain amount of data, An audio decoding means for outputting audio decoded data, and an MPEG system in which at least a part of the video decoded data is used for encoding the video encoded data; Video encoding means for re-encoding by different JPEG scheme and outputting video re-encoded data, and a first encoding scheme different from the first encoding scheme used for encoding the decoded audio data in the encoding processing of the audio encoded data Audio encoding means for re-encoding by the encoding method 3 to generate audio re-encoded data, and recording means for recording the video re-encoded data and the audio re-encoded data on the second recording medium It is characterized by comprising.
  According to a sixth aspect of the present invention, in the signal processing method according to the fifth aspect, the recording means includes the AV recording data obtained by multiplexing the video re-encoded data and the audio re-encoded data in the second recording. It is recorded on a medium.
[0042]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described below.
(Embodiment 1)
FIG. 1 is a block diagram for explaining a signal processing apparatus according to Embodiment 1 of the present invention.
The signal processing apparatus 101 according to the first embodiment processes AV (audio video) data.
[0043]
That is, the signal processing apparatus 101 includes a driving unit 10 that drives the optical disc 1 that is a first recording medium, and a reading unit 2 that reads data Ds from the optical disc 1. Here, an MPEG stream is recorded on the optical disc 1 as the data Ds. The MPEG stream includes a transport stream (TS) and a program stream (PS). In each stream, video encoded data and audio encoded data are timed so that both data can be reproduced synchronously. It is axially compressed and multiplexed.
[0044]
The signal processing apparatus 101 receives the data (MPEG stream) Ds read from the optical disc 1 by the reading means 2 and decodes the video encoded data encoded by the MPEG2 system included in the MPEG stream Ds. The video decoding means 3 for outputting the baseband video signal Dvd and the MPEG stream Ds read from the optical disc 1 are received, and the audio encoded data encoded by the AC3 system included in the MPEG stream Ds is decoded. The audio decoding unit 5 outputs a baseband PCM audio signal Dad.
[0045]
The signal processing device 101 receives the baseband video signal Dvd, encodes a portion specified by the control signal Cvc of the baseband video signal Dvd, and outputs video re-encoded data Dvrc. Encoding means 4 and speech encoding means for receiving the baseband audio signal Dad, encoding a portion specified by the control signal Cac of the baseband audio signal Dad, and outputting audio re-encoded data Darc 6.
[0046]
The signal processing device 101 uses the video re-encoded data Dvrc output from the video encoding unit 4 and the audio re-encoded data Darc output from the audio encoding unit 6 based on the control signal Cre. Control for generating the control signals Cvc, Cac, Cre, etc. for controlling the above-mentioned means based on the recording means 7 for recording on the memory card 8 which is the second recording medium and the operation signal Sop generated by the user's operation And means 9a.
[0047]
Here, the recording means 7 is a multiplexing section that multiplexes the video re-encoded data Dvrc from the video encoding means 4 and the audio re-encoded data Darc from the audio encoding means 6 by time axis compression. (Not shown), and the multiplexed video re-encoded data and audio re-encoded data are recorded on the memory card 8 as AV multiplexed data Dw. The recording means 7 does not need to multiplex the video re-encoded data and the audio re-encoded data, and the video re-encoded data and the audio re-encoded data respectively correspond to the memory card 8. It may be recorded in the area.
[0048]
The control signal Cvc supplied to the video encoding means 4 designates a portion to be re-encoded of the baseband video signal Dvd, and the control signal supplied to the audio encoding means 6 Cac designates a portion of the baseband audio signal Dad to be re-encoded. In FIG. 1, the control signals output from the control means 9a to the driving means 10, the reading means 2, and the recording means 7 are not shown.
[0049]
Further, the video encoding means 4 uses the JPEG (Joint Photographic Coding Experts Group) method, which is a coding method different from the MPEG2 method, for the portion corresponding to one designated frame of the baseband video signal Dvd. It is to be encoded. The audio encoding means 6 also converts the baseband audio signal Dad into an AAC (audio encoding method suitable for the memory card 8 over several frames related to the designated one frame video. Advanced Audio Coding) is used for encoding.
[0050]
The signal processing apparatus 101 performs D / A conversion on the baseband video signal Dvd, which is the output of the video decoding means 3, and outputs an analog video signal Sv, and the analog video signal Sv. Based on the TV monitor 12 that performs image display, the D / A converter 13 that DA-converts the baseband audio signal Dad that is the output of the audio decoding means 5 and outputs the analog audio signal Sa, and the analog audio signal Sa. And a speaker 14 for outputting sound.
[0051]
Note that the reading means 2, video decoding means 3, audio decoding means 5, video encoding means 4, audio encoding means 6, recording means 7 and control means 9a, D constituting the signal processing apparatus 101 of the first embodiment. The / A converters 11 and 13 may be realized by hardware or software, but here, these are realized by software.
[0052]
Next, the operation will be described.
FIG. 2 is a diagram for explaining the MPEG stream recorded on the optical disc 1 and the multiplexed re-encoded data Dw recorded on the memory card 8, and the video encoded data shown in FIG. Dvc, compressed video data Dvtc, encoded audio data Dac, compressed audio data Datc, and MPEG stream Ds are the same as those shown in FIG.
[0053]
In the signal processing apparatus 101 according to the first embodiment, a process of dubbing data recorded on the optical disk 1 serving as the first recording medium to the memory card 8 serving as the second recording medium is executed by a user operation. When the operation signal Sop shown is output from the user operation unit 15 to the control means 9a, each means of the signal processing device 101 performs dubbing processing based on the control signal from the control means 9a. In the signal processing apparatus 101 of the first embodiment, the same process as the data reproduction process in the conventional DVD player 201 shown in FIG. 7 is performed as the process of reproducing the data recorded on the optical disc 1.
[0054]
That is, first, the optical disk 1 is driven by the driving unit 10, the data Ds is read from the optical disk 1 by the reading unit 2, and the read data Ds is supplied to the video decoding unit 3 and the audio decoding unit 5. The
Specifically, the video decoding means 3 and the audio decoding means 5 are supplied with an MPEG stream including MPEG2 video encoded data and AC3 audio encoded data as the data Ds.
[0055]
Then, the video decoding means 3 performs a video decoding process for extracting and decoding the MPEG2 video encoded data Devc from the MPEG stream Ds, and a baseband digital video signal Dvd is generated by the video decoding process. This digital video signal Dvd is output to the D / A converter 11 and the video encoding means 4.
In the D / A converter 11, the digital video signal Dvd is converted into an analog video signal Sv by D / A conversion processing and output to the TV monitor 12. The TV monitor 12 displays an image based on the analog video signal Sv.
[0056]
Further, the video encoding unit 4 performs a re-encoding process for encoding a portion specified by the control signal Cvc in the baseband digital video signal Dvd based on the control signal Cvc from the control unit 9a. . For example, in the video encoding unit 4, as the re-encoding process, a process of generating a video re-encoded data Dvrc by encoding a digital video signal Dvd corresponding to an image of one frame selected by the user by the JPEG method is performed. Is called.
[0057]
The audio decoding means 5 performs audio decoding processing for extracting and decoding AC3 audio encoded data Deac from the MPEG stream Ds, and a baseband PCM digital audio signal Dad is generated by the audio decoding processing. . This digital audio signal Dad is output to the D / A converter 13 and the audio encoding means 6.
In the D / A converter 13, the digital audio signal Dad is converted into an analog audio signal Sa by D / A conversion processing and output to the speaker 14. The speaker 14 performs audio reproduction based on the analog audio signal Sa.
[0058]
Further, the speech encoding means 6 performs a re-encoding process for encoding the portion specified by the control signal Cac in the baseband digital speech signal Dad based on the control signal Cac from the control means 9a. For example, the audio encoding means 6 generates audio re-encoded data Darc by encoding the audio signal Dad related to the image of one video frame selected by the user for several frames from the video frame by the AAC method. Processing is performed. The audio encoding means 6 may encode the audio signal Dad by the MP3 (MPEG-1 audio layer 3) method instead of the AAC method.
[0059]
The video re-encoded data Dvrc generated by the video encoding unit 4 and the audio re-encoded data Darc generated by the audio encoding unit 6 are supplied to the recording unit 7, and the video re-encoded data Dvrc and The voice re-encoded data Darc is multiplexed by the recording means 7 and recorded on the memory card 8 as the second recording medium.
[0060]
Hereinafter, a user data designation method in the dubbing process and data recorded on the memory card 8 based on the user designation will be specifically described.
When a user performs a certain recording operation when an image that the user wants to record (for example, an image of the first frame F1) is displayed on the TV monitor 12, the control means 9a displays an operation signal generated by the operation. Based on this, control signals Cvc and Cac for the video encoding means 4 and the audio encoding means 6 are generated and supplied to both means.
Then, the video encoding unit 4 performs a process of encoding only the video signal S1 corresponding to the first frame F1 input as the baseband video signal Dvd, and performs video replay corresponding to the video signal of one frame. The encoded data J1 is output to the recording means 7.
[0061]
At this time, the audio encoding means 6 performs a re-encoding process for encoding the audio signal Ba1 corresponding to the video signal ranging from the frame subjected to the encoding process to several frames, for example, the frames F1 to F8. The voice re-encoded data P1 obtained by the re-encoding process is output to the recording means 7.
Then, the recording means 7 associates the video re-encoded data J1 corresponding to the image of the one frame with the audio re-encoded data P1 corresponding to the image so as to be synchronously reproduced, and the memory card 8 To be recorded.
[0062]
When the image of the ninth frame F9 is displayed and the user performs a certain recording operation, the video signal S9 corresponding to the ninth frame in the baseband video signal Dvd is encoded, and As the baseband audio signal Dad related to the ninth frame, for example, an audio signal Ba2 corresponding to the ninth to eighteenth frames is encoded as shown in FIG. Then, the video re-encoded data J9 corresponding to the ninth frame and the audio re-encoded data P2 corresponding to the ninth to 18th frames are output to the recording means 7.
In the first embodiment, even when the recording operation as described above is performed, the TV monitor 12 and the speaker 14 sequentially reproduce images and sounds corresponding to the respective frames.
[0063]
As described above, in the signal processing apparatus 101 according to the first embodiment, the reading means 2 that reads the MPEG stream Ds recorded on the optical disc 1 that is the first recording medium, and the MPEG stream Ds that is read are included. Video decoding means 3 for decoding MPEG2 video encoded data and audio decoding means 5 for decoding AAC audio encoded data included in the read MPEG stream are designated by a user operation. Since the video decoding data corresponding to the frame image and the audio decoding data corresponding thereto are re-encoded by the JPEG method and the AAC method (or MP3 method), respectively, and recorded on the memory card 8 which is the second recording medium. Video encoded data and sound of a specific part of the MPEG stream Ds recorded on the optical disc 1 The encoded data can be dubbed to convert an encoding. As a result, by playing back the video encoded data and the audio encoded data recorded in the memory card 8, the user views the audio related to the specified one frame while viewing the still image of the specified one frame. It becomes possible.
[0064]
In the first embodiment, one frame of video encoded data designated by the user (for example, one obtained by re-encoding video decoded data by the JPEG method) and a number of related audio codes However, the audio encoded data recorded together with the one-frame video encoded data is limited to audio encoded data over several frames related to the one-frame video encoded data. It is not a thing.
For example, audio encoded data over several minutes may be recorded as audio encoded data related to video encoded data of one frame specified by the user. Further, as audio encoded data related to the one frame, You may make it record all the audio | voice coding data corresponding to the music of about 3 to 5 minutes in length for 1 music.
[0065]
In the first embodiment, the case where one frame of video encoded data designated by the user and the audio encoded data over several frames related thereto are recorded has been described. However, the baseband video signal is interlaced. In the case of a signal, video encoded data of one field specified by the user and audio encoded data over several fields related thereto may be recorded.
[0066]
In the first embodiment, the signal processing device records video encoded data corresponding to one frame image (that is, a still image) designated by the user and audio encoded data over several frames related thereto. However, the signal processing apparatus may record several frames of images (that is, moving images) designated by the user and audio encoded data over several frames related thereto.
[0067]
For example, as shown in FIG. 2, when the user designates 20th to 25th frames F20 to F25, the signal processing apparatus obtains video signals S20 to S25 corresponding to these frames by encoding them according to the MPEG1 system. The video encoded data M1 and the audio encoded data C1 obtained by encoding the audio signal Ba3 corresponding to the frames F20 to F25 by the AAC system and multiplexed on the memory card 8 and recorded on the memory card 8. It may be. In such a signal processing device, when the user designates the 26th to 31st frames F26 to F31, the video coding obtained by encoding the video signals S26 to S31 corresponding to these frames by the MPEG1 system. Data M2 and audio encoded data C2 obtained by encoding the audio signal Ba4 corresponding to the frames F26 to F31 by the AAC method are multiplexed by the recording means 7 and recorded on the memory card 8. .
[0068]
In the first embodiment, the DA converter 11 that D / A converts the baseband video signal and outputs the analog video signal, the TV monitor 12 that receives the analog video signal, and the baseband audio signal. A DA converter 13 that outputs an analog audio signal after D / A conversion and a speaker 14 that receives the analog audio signal as an input signal are provided to monitor the decoded video signal and audio signal. There is no need to monitor both the video and audio signals. For example, the signal processing apparatus may include only the DA converter 11 and the TV monitor 12 among the DA converters 11 and 13, the TV monitor 12, and the speaker 14, and monitor only the decoded video signal.
[0069]
Furthermore, in the first embodiment, when the MPEG stream recorded on the first recording medium is dubbed as the signal processing device, both the video encoded data and the audio encoded data included in the MPEG stream are stored. Although the re-encoded recording is shown, the signal processing apparatus re-encodes one of the video encoded data and audio encoded data and re-encodes the other as dubbing processing of the MPEG stream. It is also possible to perform processing for recording as it is.
[0070]
In the first embodiment, when the video encoded data J1 corresponding to the frame F1 and the audio encoded data P1 corresponding to the frames F1 to F8 are recorded as the signal processing device, the TV monitor 12 The image of each frame after F1 is sequentially displayed, but the signal processing apparatus displays an image corresponding to the frame F1 designated by the user on the TV monitor 12 based on the control signal from the control means 9a. May be held for a certain period of time (for example, 5 seconds), and then images of each frame after the frame F2 may be sequentially displayed.
[0071]
In the first embodiment, the process of recording the video encoded data J1 corresponding to the frame F1 and the audio encoded data Ba1 corresponding to the frames F1 to F8 is performed by the user watching the image display on the TV monitor 12. However, the recording process of the video signal of the user-specified frame and the corresponding several frames of the audio signal is desired after the user finishes watching all the moving images corresponding to one image sequence. The location may be specified by specifying the reproduction time or the like.
[0072]
(Embodiment 2)
FIG. 3 is a block diagram for explaining a signal processing apparatus according to Embodiment 2 of the present invention.
The signal processing apparatus 102 according to the second embodiment replaces the audio decoding means 5 and the audio encoding means 6 in the signal processing apparatus 101 according to the first embodiment with an audio code from the MPEG stream Ds read from the optical disc 1. Audio data extraction means 16 that extracts the encoded data Dac and outputs it to the recording means 7 and the MPEG stream Ds, extracts the audio encoded data Dac included in the stream, and decodes the audio encoded data Dac The voice decoding means 5a for outputting the voice decoded data Dad to the D / A converter 13 is provided. Further, the control means 9b in the signal processing apparatus 102 of the second embodiment outputs a control signal Cae for the voice data extracting means 16 instead of the control signal Cac for the voice encoding means 6 in the first embodiment. Only the control means 9a of the first embodiment is different.
The other parts of the signal processing apparatus 102 of the second embodiment are the same as those of the signal processing apparatus 101 of the first embodiment.
[0073]
Next, the operation will be described.
In the signal processing apparatus 102 having such a configuration, a process for dubbing data recorded on the optical disk 1 serving as the first recording medium to the memory card 8 serving as the second recording medium is instructed by a user operation. In the signal processing device 102, the encoded video data and the encoded audio data specified by the user's operation are recorded on the memory card 8 that is the second recording medium.
In the signal processing apparatus 102 of the second embodiment, the process for reproducing the data recorded on the optical disc 1 is exactly the same as that in the signal processing apparatus 101 of the first embodiment.
[0074]
Hereinafter, the dubbing process of the second embodiment will be described.
In the signal processing apparatus 102, the MPEG stream Ds is read from the optical disc 1 based on the control signal from the control means 9b, and the video encoded data and the audio encoded data included in the MPEG stream Ds are respectively decoded by video decoding. Decoded by means 3 and voice decoding means 5a. The video decoded data Dvd and the audio decoded data Dad are D / A converted by the D / A converters 11 and 13, respectively, and the analog video signal Sv and the analog audio signal Sa are output to the TV monitor 12 and the speaker 14, respectively.
[0075]
At this time, the video encoding unit 4 performs a re-encoding process for encoding a portion specified by the control signal Cvc in the baseband video signal Dvd based on the control signal Cvc from the control unit 9b. The encoded video data Dvrc obtained by the re-encoding process is output to the recording means 7. Further, the audio data extraction means 16 performs processing for extracting a portion designated by the control signal Cae in the MPEG stream Ds based on the control signal Cae from the control means 9b, and the extracted audio encoded data Dac is extracted. Is output to the recording means 7.
[0076]
The video re-encoded data Dvrc generated by the video encoding means 4 and the audio encoded data Dac extracted by the audio data extracting means 16 are stored in the memory as the second recording medium by the recording means 7. Recorded on the card 8.
[0077]
In other words, in the signal processing apparatus 102 of the second embodiment, the encoded image data recorded on the first recording medium (optical disc) 1 is converted from the MPEG method to the JPEG method, and the second encoded data. The audio encoded data recorded on the recording medium (memory card) 8 and recorded on the first recording medium (optical disk) 1 is encoded by the AC3 system without being converted into the encoding system. It is recorded in the memory card 8 as it is.
[0078]
As described above, in the signal processing apparatus 102 according to the second embodiment, the reading unit 2 that reads the MPEG stream Ds recorded on the optical disc 1 that is the first recording medium, and the MPEG2 included in the read MPEG stream. Video decoding means 3 for decoding video encoded data of the format and audio data extracting means 16 for extracting audio encoded data of the AC3 format from the read MPEG stream, and for the frame specified by the user operation The video decoding data corresponding to the image is re-encoded by the JPEG method and recorded on the memory card 8 as the second recording medium, and the audio encoding corresponding to the image of the designated frame included in the MPEG stream is performed. Since the data is recorded on the memory card 8 as it is, when the MPEG stream is dubbed, the image is recorded. The encoded data is recorded by changing the coding scheme, the speech encoded data, can be recorded without performing the re-encoding process. As a result, data processing required for re-encoding speech encoded data in the dubbing process can be reduced.
[0079]
In the signal processing apparatus 102 according to the second embodiment, when dubbing data recorded on the optical disc 1 to the memory card 8, both video encoded data and audio encoded data are recorded on the memory card 8. However, only the encoded video data may be recorded in the memory card 8.
[0080]
(Embodiment 3)
FIG. 4 is a diagram for explaining a signal processing apparatus according to Embodiment 3 of the present invention.
The signal processing apparatus 103 according to the third embodiment replaces the video decoding means 3 and the video encoding means 4 in the signal processing apparatus 101 according to the first embodiment with a video code from an MPEG stream Ds read from the optical disc 1. The video data extracting means 17 for extracting the encoded data Dvc and outputting it to the recording means 7 and the MPEG stream Ds are received, the video encoded data Dvc included in the stream is extracted, and the video encoded data Dvc is decoded. Video decoding means 3a for outputting the video decoding data Dvd to the D / A converter 11. Further, the control means 9c in the signal processing apparatus 103 of the third embodiment outputs a control signal Cve for the video data extraction means 17 instead of the control signal Cvc for the video encoding means 4 in the first embodiment. Only the control means 9a of the first embodiment is different.
The other parts of the signal processing apparatus 103 of the third embodiment are the same as those of the signal processing apparatus 101 of the first embodiment.
[0081]
Next, the operation will be described.
In the signal processing apparatus 103 having such a configuration, a process for dubbing data recorded on the optical disk 1 serving as the first recording medium to the memory card 8 serving as the second recording medium is instructed by a user operation. In the signal processing device 103, the video encoded data and the audio encoded data designated by the user's operation are recorded on the memory card 8 that is the second recording medium.
In the signal processing apparatus 103 according to the third embodiment, the process for reproducing the data recorded on the optical disc 1 is exactly the same as that in the signal processing apparatus 101 according to the first embodiment.
[0082]
Hereinafter, the dubbing process of the third embodiment will be described.
In the signal processing device 103, the MPEG stream Ds is read from the optical disc 1 based on the control signal from the control means 9c, and the encoded video data and the encoded audio data included in the MPEG stream Ds are respectively decoded by the video decoding. Decoded by means 3a and speech decoding means 5. The video decoded data Dvd and the audio decoded data Dad are D / A converted by the D / A converters 11 and 13, respectively, and the analog video signal Sv and the analog audio signal Sa are output to the TV monitor 12 and the speaker 14, respectively.
[0083]
At this time, the speech encoding means 6 performs a re-encoding process for encoding the portion specified by the control signal Cac in the baseband speech signal Dad based on the control signal Cac from the control means 9c. The voice encoded data Darc obtained by the re-encoding process is output to the recording means 7. Further, the video data extraction means 17 performs a process of extracting a portion specified by the control signal Cve in the MPEG stream Ds based on the control signal Cve from the control means 9c, and the extracted video encoded data Dvc is extracted. Is output to the recording means 7.
The audio re-encoded data Darc generated by the audio encoding means 6 and the video encoded data Dvc extracted by the video data extracting means 17 are stored in the memory as a second recording medium by the recording means 7. Recorded on the card 8.
[0084]
That is, in the signal processing apparatus 103 according to the third embodiment, the encoded audio data recorded on the first recording medium (optical disk) 1 is converted from the AC3 system to the AAC system by converting the encoding system to the second. The encoded video data recorded on the first recording medium (memory card) 8 and recorded on the first recording medium (optical disk) 1 is encoded by the MPEG2 system without being converted into the encoding system. It is recorded in the memory card 8 as it is. For example, the memory card 8 can record moving image data (a plurality of frames) or still image data (one frame) corresponding to a specified portion of the MPEG stream. Here, when recording one frame of data on the memory card 8, it is desirable that the frame to be recorded is an intra-coded frame.
[0085]
As described above, in the signal processing device 103 according to the third embodiment, the reading means 2 that reads the MPEG stream Ds recorded on the optical disc 1 that is the first recording medium, and the AC3 system audio from the read MPEG stream. The audio decoding means 5 for extracting and decoding the encoded data, and the video data extracting means 17 for extracting the MPEG-2 video encoded data from the read MPEG stream are designated by the user operation. The audio decoded data corresponding to the image of the frame is re-encoded by the AAC method and recorded on the memory card 8 as the second recording medium, and also corresponds to the image of the designated frame included in the MPEG stream. Since the encoded video data is recorded on the memory card 8 as it is, the MPEG stream is dubbed. Encoded audio data recorded by changing the coding method, the video coded data, can be recorded without performing the re-encoding process. As a result, it is possible to reduce signal processing required for re-encoding speech encoded data in the dubbing process.
[0086]
In the signal processing device 103 according to the third embodiment, when dubbing data recorded on the optical disc 1 to the memory card 8, both the encoded video data and the encoded audio data are recorded on the memory card 8. However, only the encoded audio data may be recorded in the memory card 8.
[0087]
(Embodiment 4)
FIG. 5 is a diagram for explaining a signal processing apparatus according to Embodiment 4 of the present invention.
The signal processing apparatus 104 according to the fourth embodiment is provided between the video decoding means 3 and the video encoding means 4 of the signal processing apparatus 101 according to the first embodiment, and based on the control signal Cre, the video decoding means 3 is provided with resolution conversion means 18 that performs resolution conversion processing on the decoded video data Dvd output from 3 and outputs the video data Drc obtained by the resolution conversion processing to the video encoding means 4. The control means 9d of the fourth embodiment is different from the control means 9a of the first embodiment only in that the control signal Cre for the resolution conversion means 18 is generated.
[0088]
Specifically, the resolution conversion unit 18 performs a process of thinning out pixels constituting one frame on the video decoded data Dvd output from the video decoding unit 3 to thereby determine the resolution of the video decoded data Dvd or It converts the signal format. For example, the resolution conversion means 18 sets the pixel values constituting one frame of video data so that the number of pixels in the horizontal direction in one frame is one half, one third, or two thirds, or A blinking process is performed so that the number of pixels in the vertical direction in one frame decreases at a rate of 1/2 or the like. The resolution conversion means 18 performs a process of thinning out the pixel values constituting the image data of one frame so that the number of pixels in the horizontal direction and the number of pixels in the vertical direction in one frame decrease at a constant ratio, for example. Alternatively, an HD (High Definition) signal such as high definition may be converted into a standard signal such as SD (Standard Definition).
[0089]
Further, the signal processing device 104 according to the fourth embodiment includes an optical disk 1a and a driving means 10a for driving the optical disk 1a instead of the memory card 8 as the second recording medium in the first embodiment. The optical disc 1a as the second recording medium may be a different optical disc from the optical disc 1 as the first recording medium, or the same optical disc.
The other parts of the signal processing device 104 of the fourth embodiment are the same as those of the signal processing device 101 of the first embodiment.
[0090]
Next, the operation will be described.
The operation of the signal processing apparatus 104 of the fourth embodiment is that the video decoding data Dvd output from the video decoding means 3 is resolution-converted and output to the video encoding means 4 in the signal processing apparatus 101 of the first embodiment. The operation is different.
That is, when the MPEG stream Ds read from the optical disc 1 is input to the video decoding means 3, the video decoding means 3 extracts video signal encoded data encoded by the MPEG2 system from the MPEG stream, A decoding process for decoding the video signal encoded data is performed, and the baseband video signal Dvd obtained by the decoding process is supplied to the D / A converter 11 and the resolution conversion means 18. The video signal Dvd supplied to the D / A converter 11 is converted into an analog signal and output to the TV monitor 12.
[0091]
On the other hand, in the resolution conversion means 18, based on the control signal Cre from the control means 9d, the pixel value of the image data corresponding to one frame is set in the horizontal direction of the image of one frame or the input video signal Dvd. Thinning processing is performed so that the number of pixels in the vertical direction decreases, and resolution-converted video data Drc in which the resolution or signal format is converted is output to the video encoding means 4.
[0092]
Then, the video encoding means 4 corresponds to the frame specified by the control signal in the resolution-converted video data Drc corresponding to the MPEG stream based on the control signal Cvc from the control means 9d, as in the first embodiment. A re-encoding process is performed in which the portion to be encoded is encoded by a predetermined encoding method. Here, even if the encoding method in the re-encoding process is the same MPEG method as the encoding method of the video encoded data included in the MPEG stream recorded on the optical disc 1, the video code included in the MPEG stream The JPEG method may be different from the encoded data encoding method.
[0093]
Similarly to the first embodiment, the audio encoded data included in the MPEG stream Ds read from the optical disc 1 is subjected to decoding processing by the audio decoding means 5, and the baseband obtained by the decoding processing is processed. The audio signal Dad is supplied to the D / A converter 13 and the audio encoding means 6. The audio signal Dad supplied to the D / A converter 13 is converted into an analog signal and output to the speaker 14. In the audio encoding means 6, based on the control signal Cac from the control means 9d, the portion corresponding to the frame specified by the control signal in the audio decoded data (ie, baseband audio signal) Dad corresponding to the MPEG stream is obtained. Then, re-encoding processing is performed for encoding according to the determined encoding method.
[0094]
When re-encoding speech decoded data, as described in the first embodiment, the encoding method is different from the encoding method of speech encoded data recorded on the first recording medium. Alternatively, as described in Embodiment 2, the same method as the encoding method of the audio encoded data recorded on the first recording medium may be used. Then, the video encoded data Dvc and the audio encoded data Dac obtained by the re-encoding process are input to the recording means 7 and recorded on the optical disc 1a as the second recording medium by the recording means 7.
[0095]
As described above, in the fourth embodiment, the reading means 2 for reading the MPEG stream Ds recorded on the optical disc 1 as the first recording medium, and the MPEG2 video encoding included in the read MPEG stream. The video decoding means 3 for decoding the data, the audio decoding means 5 for decoding the AAC audio encoded data included in the read MPEG stream, and the video decoded data Dvd output from the video decoding means 3 Resolution converting means 18 for performing resolution conversion processing, and the video data Drc obtained by the resolution conversion processing is re-encoded and recorded on the recording medium. Therefore, when the video encoded data is dubbed, the first recording medium The video encoded data recorded in the video can be recorded on the second recording medium by converting the resolution or signal format of the video encoded data. It becomes possible.
[0096]
In the fourth embodiment, as the resolution conversion processing for video data, the pixels constituting the image data of one frame are simply reduced so that the number of pixels in the horizontal direction or the vertical direction of one frame (screen) is simply reduced. Although the processing for thinning out the values is shown, the resolution conversion processing for the video data thins out the pixel values corresponding to the invalid pixels in one screen, and selects only the pixel values corresponding to a partial area of one screen (frame) You may do. In this case, it is possible to re-encode only the image data corresponding to the designated area on one screen.
In each of the above embodiments, a transport stream (TS), a program stream (PS), or the like is shown as an MPEG stream, but the MPEG stream is not limited to these.
[0097]
In each of the above-described embodiments, the MPEG2 system is shown as the MPEG encoding system of the video encoded data recorded as the MPEG stream on the first recording medium. The MPEG encoding system includes the MPEG1 system and the MPEG4 system. System, MPEG7 system, etc. may be used.
In each of the above embodiments, the AC3 method is used as the encoding method for the audio encoded data recorded as the MPEG stream on the first recording medium. However, the encoding method for the audio encoded data is this. For example, the audio encoding method corresponding to MPEG1 or MPEG2, the AAC method, the PCM method, or the like may be used.
[0098]
In each of the above-described embodiments, the AAC method is used as the encoding method used for the re-encoding process of the audio data. However, the encoding method used for the re-encoding process of the audio data is not limited to this. Any method different from the encoding method (for example, AC3) of the audio encoded data recorded on the first recording medium, such as the audio encoding method corresponding to MPEG1 or MPEG2, or the PCM method.
[0099]
In each of the above-described embodiments, the JPEG method is used as the encoding method used for the re-encoding process of the video data. However, the encoding method used for the re-encoding process of the video data is not limited to this. For example, H.M. 261 system, H.264. Any method different from the encoding method (for example, MPEG2 method) of video encoded data recorded on the first recording medium, such as the H.263 method and the wavelet method, may be used.
[0100]
In each of the above embodiments, the optical disk is taken as an example of the first recording medium. However, the first recording medium is not limited to the optical disk, but a hard disk, a magneto-optical disk, a magnetic disk, a semiconductor memory, or It may be a magnetic tape.
[0101]
In the first to third embodiments, the memory card 8 that is a semiconductor memory is taken as an example of the second recording medium. However, the second recording medium is not limited to these. For example, It may be a hard disk, optical disk, magneto-optical disk, or magnetic disk or magnetic tape.
In each of the above embodiments, the case where the first recording medium and the second recording medium are separate recording media has been described. However, these recording media may be the same.
In Embodiments 1 and 4 described above, both the video encoded data and the audio encoded data recorded on the first recording medium are recorded on the second recording medium. Only one of the data and the audio encoded data may be recorded on the second recording medium.
[0102]
【The invention's effect】
  As aboveClearlyAccording to such a signal processing device, the data is read out from the first recording medium on which the multiplexed data obtained by multiplexing the audio encoded data and the video encoded data is recorded, and recorded on the second recording medium. A signal processing method for reading out the multiplexed data from the first recording medium, and decoding data by decoding at least one of audio encoded data and video encoded data included in the read multiplexed data A decoding step for generating a first encoding method used for encoding the encoded audio data, and a second encoding method used for encoding the video encoded data; Includes a re-encoding step for re-encoding and generating re-encoded data by different encoding methods, and a recording step for recording the re-encoded data on the second recording medium. Since, characterized in that, the required portion of the audio data and video data recorded is multiplexed as MPEG stream, there is an effect that can be dubbed selected according to the specified user.
[0103]
  Main departureClearlyAccording tothe aboveIn the signal processing method, the decoding step is a step of generating speech decoded data by decoding at least a part of the speech encoded data included in the read multiplexed data, and the re-encoding step is the speech decoding Since the data is re-encoded by a third encoding scheme different from the first encoding scheme and speech re-encoded data is generated as the re-encoded data, There is an effect that digitally dubbing can be performed by converting audio encoding data included in an MPEG stream or the like recorded on one recording medium into an encoding scheme optimal for the second recording medium. is there.
[0104]
  Main departureClearlyAccording tothe aboveIn the signal processing method, the decoding step is a step of generating video decoded data by decoding at least part of the video encoded data included in the read multiplexed data, and the re-encoding step is the video decoding Since the data is re-encoded by a fourth encoding method different from the second encoding method, video re-encoded data is generated as the re-encoded data. There is an effect that digital dubbing can be performed on video encoded data included in an MPEG stream or the like recorded on one recording medium by converting the encoding method into an encoding method optimal for the second recording medium. is there.
[0105]
  Main departureClearlyAccording tothe aboveIn the signal processing method, the decoding step generates video decoded data by decoding at least part of the video encoded data included in the read multiplexed data, and the re-encoding step includes the video decoding Re-encoding the data by a fourth encoding method different from the second encoding method to generate video re-encoded data, and the recording step includes audio data included in the read multiplexed data Since this is a step of recording at least a part of the encoded data and the video re-encoded data on the second recording medium, an MPEG stream recorded on the first recording medium, etc. The video encoded data and audio encoded data included in the video are converted only to the encoding method of the video encoded data into the optimal encoding method for the second recording medium. Te, there is an effect that can be digital dubbing.
[0106]
  Main departureClearlyAccording tothe aboveIn the signal processing method, the decoding step is a step of generating speech decoded data by decoding at least a part of the speech encoded data included in the read multiplexed data, and the re-encoding step is the speech decoding The data is re-encoded by a third encoding method different from the first encoding method to generate audio re-encoded data, and the recording step is included in the read multiplexed data The MPEG stream recorded on the first recording medium is a step of recording at least a part of the encoded video data and the audio re-encoded data on the second recording medium. The video encoding data and the audio encoding data included in the encoding method of the audio encoding data only for the second recording medium Conversion to an effect that can be digital dubbing.
[0107]
  Main departureClearlyAccording tothe aboveIn the signal processing method, the decoding step generates audio decoded data and video decoded data by decoding at least a part of the encoded audio data and at least a part of the encoded video data included in the read multiplexed data, respectively. The re-encoding step re-encodes the speech decoded data by a third encoding scheme different from the first encoding scheme to generate speech re-encoded data. Re-encoding the video decoded data by a fourth encoding method different from the second encoding method to generate video re-encoded data, and the recording step includes the audio re-encoding The data and the video re-encoded data are recorded in the second data recording medium, and are recorded in the first recording medium. Digitally dubbing video encoded data and audio encoded data included in an MPEG stream, etc., by converting the encoding method of each encoded data into an optimal encoding method for the second recording medium. There is an effect that can.
[0108]
  Main departureClearlyAccording tothe aboveIn the signal processing method, the second encoding method is an MPEG method, and the fourth encoding method is a JPEG method. Therefore, the MPEG stream recorded on the first recording medium, etc. The video encoded data included in the image can be digitally dubbed by converting the MPEG system, which is the encoding system, to the JPEG system, which is the optimal encoding system for the second recording medium.
[0109]
  Main departureClearlyAccording tothe aboveIn the signal processing method, the video encoded data is obtained by encoding a video signal using the MPEG system as the second encoding system, and the decoding step is included in the read multiplexed data. The video encoded data is decoded to generate a video decoded data by decoding a specific portion corresponding to at least one field or frame, and the audio encoded data included in the read multiplexed data is included in the specific portion. Decoding a predetermined amount of data continuously from related portions to generate audio decoded data, wherein the re-encoding step re-encodes at least a part of the video decoded data by the JPEG method to generate a video A re-encoded data is generated, and the decoded audio data is converted into a third encoding different from the first encoding method. Since it is a step of re-encoding according to an expression to generate audio re-encoded data, the specified video encoded data included in the MPEG stream recorded on the first recording medium is designated. A portion corresponding to one screen is converted from the MPEG method, which is the encoding method, to the JPEG method, which is the most suitable encoding method for the second recording medium, and a plurality of screens related to the designated screen. With the audio encoded data corresponding to the above, there is an effect that digital dubbing can be performed.
[0110]
  Main departureClearlyAccording to such a signal processing method, data is read from a first recording medium on which multiplexed data obtained by multiplexing audio encoded data and video encoded data is recorded, and recorded on the second recording medium. And a reading step of reading the multiplexed data from the first recording medium, and a specific portion corresponding to at least one field or one frame of the video encoded data included in the read multiplexed data. Decoding and generating video decoded data, and decoding the audio encoded data included in the read multiplexed data by a certain amount of data continuously from the portion related to the specific portion, A decoding step for generating an MPEG method using at least a part of the video decoded data for encoding the video encoded data; Re-encoding by different JPEG scheme to generate video re-encoded data, and a third encoding different from the first encoding scheme used for encoding the encoded audio data A re-encoding step of re-encoding according to a method to generate audio re-encoded data; and a recording step of recording the video re-encoded data and the audio re-encoded data on the second recording medium. Therefore, the portion corresponding to one designated screen of the video encoded data included in the MPEG stream recorded on the first recording medium is changed to the MPEG method which is the second encoding method. In addition to the audio encoding data corresponding to a plurality of screens related to the designated screen, the digital format is converted into the JPEG format which is the most suitable encoding method for the recording medium. There is an effect that can be Rudabingu.
[0111]
  Main departureClearlyAccording to such a signal processing method, data is read from a first recording medium on which multiplexed data obtained by multiplexing audio encoded data and video encoded data is recorded, and recorded on the second recording medium. A signal processing method for reading out the multiplexed data from the first recording medium, decoding at least a part of the encoded video data included in the read multiplexed data, A decoding step for generating, a conversion step for performing resolution conversion processing for thinning pixel values or conversion processing for converting a data format on the decoded video data, and generating converted video data; and the converted video data A re-encoding step for re-encoding the video to generate video re-encoded data, and a recording step for recording the video re-encoded data on the second recording medium. Therefore, when dubbing video encoded data, the video recording data recorded on the first recording medium is converted to the second recording by converting the resolution or signal format of the video encoded data. Recording on a medium becomes possible.
[0112]
  Main departureClearlyAccording to such a signal processing device, the data is read out from the first recording medium on which the multiplexed data obtained by multiplexing the audio encoded data and the video encoded data is recorded, and recorded on the second recording medium. A signal processing device for reading out the multiplexed data from the first recording medium, and decoding data by decoding at least one of audio encoded data and video encoded data included in the read multiplexed data A first encoding method used for encoding the audio encoded data, and a second encoding method used for encoding the video encoded data; Comprises re-encoding means for re-encoding and outputting re-encoded data by different encoding methods, and recording means for recording the re-encoded data on the second recording medium, Runode, the required portion of the audio data and video data recorded is multiplexed as MPEG stream, there is an effect that can be dubbed selected according to the specified user.
[0113]
  Main departureClearlyAccording to such a signal processing device, the data is read out from the first recording medium on which the multiplexed data obtained by multiplexing the audio encoded data and the video encoded data is recorded, and recorded on the second recording medium. A signal processing device for reading out the multiplexed data from the first recording medium, and a specific portion corresponding to at least one field or one frame of the encoded video data included in the read multiplexed data. Video decoding means for decoding and outputting video decoded data, and audio encoded data included in the read multiplexed data are continuously decoded from a portion related to the specific portion by a certain amount of data, MPEG decoding system that uses audio decoding means for outputting audio decoding data and at least a part of the video decoding data for encoding the video encoded data Is different from the first encoding method used for encoding the audio encoded data, and the video encoding means for re-encoding by the different JPEG method and outputting the video re-encoded data. Audio encoding means for re-encoding by the third encoding method to generate audio re-encoded data, and recording for recording the video re-encoded data and the audio re-encoded data on the second recording medium A portion corresponding to one designated screen of the encoded video data included in the MPEG stream recorded on the first recording medium is encoded by the encoding method. A certain MPEG system is converted into a JPEG system which is the most suitable encoding system for the second recording medium, and also with audio encoded data corresponding to a plurality of screens related to the designated screen. There is an effect that can be digital dubbing.
[0114]
  Main departureClearlyAccording to such a signal processing device, the data is read out from the first recording medium on which the multiplexed data obtained by multiplexing the audio encoded data and the video encoded data is recorded, and recorded on the second recording medium. A signal processing device for reading out the multiplexed data from the first recording medium, and decoding at least a part of the encoded video data included in the read multiplexed data to obtain the decoded video data. A video decoding unit for generating, a data conversion unit for generating a converted video data by performing resolution conversion processing for thinning out pixel values or conversion processing for converting a data format on the video decoding data, and the converted video data Coding means for re-encoding video data to generate video re-encoded data, and recording means for recording the video re-encoded data on the second recording medium Therefore, when dubbing video encoded data, the video encoded data recorded on the first recording medium is recorded on the second recording medium by converting the resolution or signal format of the video encoded data. It becomes possible.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a signal processing device according to a first embodiment of the present invention.
FIG. 2 is a diagram for explaining signal processing in the signal processing apparatus according to the first embodiment;
FIG. 3 is a block diagram illustrating a signal processing device according to a second embodiment of the present invention.
FIG. 4 is a block diagram illustrating a signal processing device according to a third embodiment of the present invention.
FIG. 5 is a block diagram illustrating a signal processing device according to a fourth embodiment of the present invention.
FIG. 6 is a schematic diagram for explaining the data structure of an MPEG stream to be dubbed by a conventional signal processing apparatus.
FIG. 7 is a block diagram for explaining a conventional signal processing apparatus.
[Explanation of symbols]
1,26 Optical disc (first recording medium)
2 Reading means
3,3a Video decoding means
4 Video encoding means
5,5a Voice decoding means
6 Speech coding means
7 Recording means
8 Memory card (second recording medium)
9a, 9b, 9c, 9d, 28 Control means
10, 27 Driving means
11, 13 D / A converter
12 TV monitor
14 Speaker
15, 29 User operation unit
16 Voice data extraction means
17 Video data extraction means
18 Resolution conversion means
101, 102, 103, 104 Signal processing apparatus
Cac, Cre, Cvc, Cd1, Cd2 control signals
Darc voice re-encoded data
Datc compressed audio data
Dad audio decoding data
Ds MPEG stream
Dvrc video re-encoded data
Dvtc compressed video data
Dvd video decoding data
Dw write data
Sa Analog audio signal
Sop, Sop1, Sop2 operation signal
Sv analog video signal

Claims (6)

音声符号化データと映像符号化データとを多重化して得られた多重データが記録されている第1の記録媒体から、データを読み出して第2の記録媒体に記録する信号処理方法であって、
上記第1の記録媒体から上記多重データを読み出す読出ステップと、
該読み出した多重データに含まれる音声符号化データ及び映像符号化データの少なくとも一方を復号して復号データを生成する復号ステップと、
上記復号データを、上記音声符号化データの符号化処理に用いた第1の符号化方式及び上記映像符号化データの符号化処理に用いた第2の符号化方式とは異なる符号化方式により、再符号化して再符号化データを生成する再符号化ステップと、
該再符号化データを上記第2の記録媒体に記録する記録ステップとを含み、
上記映像符号化データは、映像信号を上記第2の符号化方式としてMPEG方式を用いて符号化して得られたものであり、
上記復号ステップは、上記読み出した多重データに含まれる映像符号化データの、少なくとも1フィールドあるいは1フレームに対応する特定部分を復号して、映像復号データを生成するとともに、上記読み出した多重データに含まれる音声符号化データを、その上記特定部分に関連する部分から連続して一定のデータ量だけ復号して、音声復号データを生成するステップであり、
上記再符号化ステップは、上記映像復号データの少なくとも一部をJPEG方式により再符号化して映像再符号化データを生成するとともに、上記復号音声データを、上記第1の符号化方式とは異なる第3の符号化方式により再符号化して、音声再符号化データを生成するステップであることを特徴とする信号処理方法。
A signal processing method of reading data from a first recording medium on which multiplexed data obtained by multiplexing audio encoded data and video encoded data is recorded and recording the data on a second recording medium,
A step of reading the multiplexed data from the first recording medium;
A decoding step of decoding at least one of audio encoded data and video encoded data included in the read multiplexed data to generate decoded data;
The decoded data is encoded by a different encoding method from the first encoding method used for encoding the audio encoded data and the second encoding method used for encoding the video encoded data. A re-encoding step for re-encoding to generate re-encoded data;
The該再encoded data look including a recording step of recording in the second recording medium,
The video encoded data is obtained by encoding a video signal using the MPEG system as the second encoding system,
The decoding step decodes a specific portion corresponding to at least one field or one frame of the encoded video data included in the read multiplexed data to generate video decoded data, and is included in the read multiplexed data. Decoded speech encoded data is continuously decoded from a portion related to the specific portion by a certain amount of data to generate speech decoded data,
The re-encoding step generates video re-encoded data by re-encoding at least a part of the video decoded data by the JPEG method, and the decoded audio data is different from the first encoding method. 3. A signal processing method, which is a step of re-encoding with the encoding method 3 to generate speech re-encoded data .
前記記録ステップは、上記映像再符号化データと上記音声再符号化データを多重化したAV多重データを上記第2の記録媒体に記録する、請求項1記載の信号処理方法。 2. The signal processing method according to claim 1, wherein in the recording step, AV multiplexed data obtained by multiplexing the video re-encoded data and the audio re-encoded data is recorded on the second recording medium . 音声符号化データと映像符号化データとを多重化して得られた多重データが記録されている第1の記録媒体から、データを読み出して第2の記録媒体に記録する信号処理方法であって、
上記第1の記録媒体から上記多重データを読み出す読出ステップと、
上記読み出した多重データに含まれる映像符号化データの、少なくとも1フィールドまたは1フレームに対応する特定部分を復号して、映像復号データを生成するとともに、上記読み出した多重データに含まれる音声符号化データを、その上記特定部分に関連する部分から連続して一定のデータ量だけ復号して、音声復号データを生成する復号ステップと、
上記映像復号データの少なくとも一部を、上記映像符号化データの符号化処理に用いたMPEG方式とは異なるJPEG方式により再符号化して映像再符号化データを生成するとともに、上記復号音声データを、上記音声符号化データの符号化処理に用いた第1の符号化方式とは異なる第3の符号化方式により再符号化して、音声再符号化データを生成する再符号化ステップと、
上記映像再符号化データ及び上記音声再符号化データを上記第2の記録媒体に記録する記録ステップとを含むことを特徴とする信号処理方法。
A signal processing method of reading data from a first recording medium on which multiplexed data obtained by multiplexing audio encoded data and video encoded data is recorded and recording the data on a second recording medium,
A step of reading the multiplexed data from the first recording medium;
The video encoded data included in the read multiplexed data is decoded to generate video decoded data by decoding a specific portion corresponding to at least one field or frame, and the audio encoded data included in the read multiplexed data. Decoding a predetermined amount of data continuously from a portion related to the specific portion to generate speech decoded data;
At least a part of the video decoded data is re-encoded by a JPEG scheme different from the MPEG scheme used for the encoding processing of the video encoded data to generate video re-encoded data, and the decoded audio data is A re-encoding step of re-encoding by a third encoding method different from the first encoding method used for the encoding process of the audio encoded data to generate audio re-encoded data;
A recording step of recording the video re-encoded data and the audio re-encoded data on the second recording medium.
前記記録ステップは、上記映像再符号化データと上記音声再符号化データを多重化したAV多重データを上記第2の記録媒体に記録する、請求項3記載の信号処理方法。 4. The signal processing method according to claim 3, wherein the recording step records AV multiplexed data obtained by multiplexing the video re-encoded data and the audio re-encoded data on the second recording medium . 音声符号化データと映像符号化データとを多重化して得られた多重データが記録されている第1の記録媒体から、データを読み出して第2の記録媒体に記録する信号処理装置であって、
上記第1の記録媒体から上記多重データを読み出す読出手段と、
上記読み出した多重データに含まれる映像符号化データの、少なくとも1フィールドまたは1フレームに対応する特定部分を復号して、映像復号データを出力する映像復号手段と、
上記読み出した多重データに含まれる音声符号化データを、その上記特定部分に関連する部分から連続して一定のデータ量だけ復号して、音声復号データを出力する音声復号手段と、
上記映像復号データの少なくとも一部を、上記映像符号化データの符号化処理に用いたMPEG方式とは異なるJPEG方式により再符号化して映像再符号化データを出力する映像符号化手段と、
上記復号音声データを、上記音声符号化データの符号化処理に用いた第1の符号化方式とは異なる第3の符号化方式により再符号化して、音声再符号化データを生成する音声符号化手段と、
上記映像再符号化データ及び上記音声再符号化データを上記第2の記録媒体に記録する記録手段とを備えたことを特徴とする信号処理装置。
A signal processing device that reads data from a first recording medium on which multiplexed data obtained by multiplexing audio encoded data and video encoded data is recorded and records the data on a second recording medium,
Reading means for reading the multiplexed data from the first recording medium;
Video decoding means for decoding a specific portion corresponding to at least one field or one frame of video encoded data included in the read multiplexed data and outputting video decoded data;
Speech decoding means for decoding speech encoded data included in the read multiplexed data by a predetermined amount of data continuously from a portion related to the specific portion, and outputting speech decoded data;
Video encoding means for re-encoding at least a part of the video decoded data by a JPEG system different from the MPEG system used for the encoding process of the video encoded data and outputting video re-encoded data;
Speech coding that re-encodes the decoded speech data by a third encoding method different from the first encoding method used for the encoding processing of the speech encoded data to generate speech re-encoded data Means,
A signal processing apparatus comprising: recording means for recording the video re-encoded data and the audio re-encoded data on the second recording medium.
前記記録手段は、上記映像再符号化データと上記音声再符号化データを多重化したAV多重データを上記第2の記録媒体に記録する、請求項5記載の信号処理装置。 6. The signal processing apparatus according to claim 5, wherein the recording unit records AV multiplexed data obtained by multiplexing the video re-encoded data and the audio re-encoded data on the second recording medium .
JP2001226421A 2000-07-26 2001-07-26 Signal processing method and signal processing apparatus Expired - Fee Related JP4510337B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001226421A JP4510337B2 (en) 2000-07-26 2001-07-26 Signal processing method and signal processing apparatus

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2000-225018 2000-07-26
JP2000225018 2000-07-26
JP2001226421A JP4510337B2 (en) 2000-07-26 2001-07-26 Signal processing method and signal processing apparatus

Publications (2)

Publication Number Publication Date
JP2002135717A JP2002135717A (en) 2002-05-10
JP4510337B2 true JP4510337B2 (en) 2010-07-21

Family

ID=26596688

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001226421A Expired - Fee Related JP4510337B2 (en) 2000-07-26 2001-07-26 Signal processing method and signal processing apparatus

Country Status (1)

Country Link
JP (1) JP4510337B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005072799A (en) * 2003-08-21 2005-03-17 Ricoh Co Ltd Recording apparatus and recording method
US20080118228A1 (en) * 2004-09-03 2008-05-22 Pioneer Corporation Information Recording Device and Method, Information Reproducing Device and Method, Information Recording/Reproducing Device and Method, and Computer Program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH057356A (en) * 1991-06-27 1993-01-14 Olympus Optical Co Ltd Image recording/reproducing device
JPH09107519A (en) * 1995-10-06 1997-04-22 Matsushita Electric Ind Co Ltd Compressed image data processing method and compressed image data processor
JPH10336672A (en) * 1997-05-30 1998-12-18 Oki Electric Ind Co Ltd Encoding system converter and motion vector detection method therefor
JPH11164247A (en) * 1997-11-27 1999-06-18 Nec Corp Audio and still image recording device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH057356A (en) * 1991-06-27 1993-01-14 Olympus Optical Co Ltd Image recording/reproducing device
JPH09107519A (en) * 1995-10-06 1997-04-22 Matsushita Electric Ind Co Ltd Compressed image data processing method and compressed image data processor
JPH10336672A (en) * 1997-05-30 1998-12-18 Oki Electric Ind Co Ltd Encoding system converter and motion vector detection method therefor
JPH11164247A (en) * 1997-11-27 1999-06-18 Nec Corp Audio and still image recording device

Also Published As

Publication number Publication date
JP2002135717A (en) 2002-05-10

Similar Documents

Publication Publication Date Title
JP2993351B2 (en) Compressed data recording device
JP2004072793A (en) Video recording method and device, video replay method and device, and recording medium
US7756203B2 (en) Image processing apparatus
WO2010086912A1 (en) Recording apparatus and recording method
JP3551887B2 (en) Moving image reproducing method and apparatus
US7236688B2 (en) Signal processing method and signal processing apparatus
EP1339233B1 (en) Audio/video data recording/reproducing device and method, and audio/video data reproducing device and method
JP4510337B2 (en) Signal processing method and signal processing apparatus
JPH0946630A (en) Image information recorder, image information reproducing device and optical disk
JP2000509873A (en) Method and apparatus for recording and reproducing video images
JP4289055B2 (en) Transcoder and recording / reproducing apparatus using the same
JPH09163305A (en) Television receiver with built-in disk device
JP2008098689A (en) Image data processing apparatus and method thereof, program and recording medium
JPH10276395A (en) Image processing unit, image processing method and recording medium
JP4703733B2 (en) Video / audio playback device
JP3890655B2 (en) Digital signal reproduction method and apparatus
JPH06302103A (en) Digital information recording device and digital information reproducing device
JP3093153U (en) Optical disk drive
JP3441795B2 (en) Playback device
JP2932939B2 (en) Video signal switching device
JP2002209186A (en) Video and sound data recording system in mpeg system and its editing system
JP2004320081A (en) Video signal recording apparatus and method, and video signal output apparatus and method
JP2003284005A (en) Data processing device
JP2004120035A (en) Video image recording/reproducing apparatus
JP2003333528A (en) Apparatus and method for recording and reproducing compressed video image

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080603

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100119

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100319

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100407

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100430

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130514

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4510337

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130514

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees