JP4510337B2 - Signal processing method and signal processing apparatus - Google Patents
Signal processing method and signal processing apparatus Download PDFInfo
- Publication number
- JP4510337B2 JP4510337B2 JP2001226421A JP2001226421A JP4510337B2 JP 4510337 B2 JP4510337 B2 JP 4510337B2 JP 2001226421 A JP2001226421 A JP 2001226421A JP 2001226421 A JP2001226421 A JP 2001226421A JP 4510337 B2 JP4510337 B2 JP 4510337B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- video
- encoded data
- encoding
- audio
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
【0001】
【発明の属する技術分野】
本発明は、信号処理方法及び信号処理装置に関し、特に、デジタル映像データあるいはデジタル音声データをダビングする処理に関するものである。
【0002】
【従来の技術】
従来、動画映像や音声などのデジタルデータが多重されているMPEG(Moving Picture Experts Group)ストリーム(多重符号化データ)のダビングは、MPEGストリームの形式を保持したまま行われている。
【0003】
これは、例えば、映像データがMPEG2方式により符号化され、音声データがMPEG1方式により符号化されている場合、映像符号化データと音声符号化データとは、両者の同期をとるため、MPEGストリームとして多重化されるためである。つまり、MPEGストリームに含まれる映像符号化データ及び音声符号化データは、MPEGストリームとして一括してダビングするのが最も効率がよい。また、従来、MPEGストリームのダビングをそのストリーム形式を保持したまま行っている、その他の理由としては、このようなダビング方法以外のダビング方法が考えられなかったことが挙げられる。
【0004】
図6は、上記MPEGストリームを説明するための図である。
MPEG2方式により符号化された映像データ(映像符号化データ)Dvcと、AC3方式により符号化された音声データ(音声符号化データ)Dacは、それぞれMPEGストリームDsとして多重されている。ここでAC3方式は、DVD(Digital Versatile Disk)ビデオ規格にて推奨されている音声符号化方式である。このMPEGストリームDsは、具体的には、上記映像符号化データDvcをこれが音声符号化データDacと多重化されるよう時間軸圧縮して得られる圧縮映像データDvtcと、上記音声符号化データDacを、これが映像符号化データDvcと多重化されるよう時間軸圧縮して得られる圧縮音声データDatcとを含むものである。
【0005】
つまり、上記映像符号化データDvcは、規定のデータ単位(GOP)毎に区分されたデータ構造を有しており、例えば、図6に示すように、第1のGOP(Group of Pictures)を構成する第1番目〜第16番目の映像フレームF1〜F16に対応する映像符号化データDvc1、及び第2のGOPを構成する第17番目〜第32番目の映像フレームF17〜F32に対応する映像符号化データDvc2を含んでいる。また、圧縮映像データDvtcは、図6に示すように、第1のGOPに対応する時間軸圧縮データV1〜V3、及び第2のGOPに対応する時間軸圧縮データV4〜V6を含んでいる。
【0006】
ここで、時間軸圧縮データV1は、上記第1のGOPに対応する映像符号化データDvc1の前方部をまとめて時間軸圧縮して得られたもの、時間軸圧縮データV2は、上記映像符号化データDvc1の中間部をまとめて時間軸圧縮して得られたもの、時間軸圧縮データV3は、上記映像符号化データDvc1の後方部をまとめて時間軸圧縮して得られたものである。また、時間軸圧縮データV4は、上記第2のGOPに対応する映像符号化データDvc2の前方部をまとめて時間軸圧縮して得られたもの、時間軸圧縮データV5は、上記映像符号化データDvc2の中間部をまとめて時間軸圧縮して得られたもの、時間軸圧縮データV6は、上記映像符号化データDvc2の後方部をまとめて時間軸圧縮して得られたものである。
【0007】
なお、上記第1のGOPに対応する映像符号化データDvc1におけるIデータ(画面内符号化データ)は、フレームF1に対応するものであり、フレームF2〜F16に対応するP,Bデータ(画面間符号化データ)は、上記フレームF1に対応するIデータに続いて配列されている。また、上記第2のGOPに対応する映像符号化データDvc2におけるIデータ(画面内符号化データ)は、フレームF17に対応するものであり、フレームF18〜F32に対応するP,Bデータ(画面間符号化データ)は、上記フレームF17に対応するIデータに続いて配列されている。
【0008】
また、圧縮音声データDatcは、図6に示すように、第1のGOPに対応する時間軸圧縮データA1〜A3、及び第2のGOPに対応する時間軸圧縮データA4〜A6を含んでいる。
ここで、時間軸圧縮データA1,A2,A3はそれぞれ、上記音声符号化データDacの、上記圧縮映像データDvtcにおける時間軸圧縮データV1,V2,V3に概ね対応する部分を時間軸圧縮して得られたものである。また、時間軸圧縮データA4,A5,A6はそれぞれ、上記音声符号化データDacの、上記圧縮映像データDvtcにおける時間軸圧縮データV4,V5,V6に概ね対応する部分を時間軸圧縮して得られたものである。
【0009】
図7は、従来の信号処理装置を用いたダビング処理を説明するためのブロック図であり、従来の信号処理装置としてDVDプレーヤ及びDVDレコーダを示している。
まず、従来の信号処理装置であるDVDプレーヤ201について説明する。
このDVDプレーヤ201は、第1の記録媒体である光ディスク1を制御信号Cd1に基づいて駆動する駆動手段10と、該光ディスク1からデータDsを読み出す処理を、制御信号Croに基づいて行う読出手段2とを有している。ここで、上記光ディスク1には、多重された映像符号化データと音声符号化データがMPEGストリームDsとして記録されている。MPEGストリームには、トランスポートストリーム(TS)とプログラムストリーム(PS)があり、いずれのストリームにおいても、映像符号化データと音声符号化データとは、該両データを同期させて再生できるように時間軸圧縮されて多重化されている。
【0010】
上記DVDプレーヤ201は、光ディスク1から読み出されたMPEGストリームDsを受け、該MPEGストリームDsに含まれる、MPEG2方式により符号化された映像符号化データを復号して、ベースバンド(非圧縮)の映像信号Dvdを出力する映像復号手段3と、光ディスク1から読み出されたMPEGストリームDsを受け、該MPEGストリームDsに含まれる、AC3方式により符号化された音声符号化データを復号して、ベースバンド(非圧縮)のPCM(pulse-code modualtion)音声信号Dadを出力する音声復号手段5とを有している。
【0011】
上記DVDプレーヤ201は、上記映像復号手段3の出力であるベースバンド映像信号DvdをDA変換してアナログ映像信号Svを出力するDAコンバータ11と、該アナログ映像信号Svに基づいて画像表示を行うTVモニタ12と、上記音声復号手段5の出力であるベースバンド音声信号DadをDA変換してアナログ音声信号Saを出力するコンバータ13と、該アナログ音声信号Saに基づいて音声出力を行うスピーカ14とを有している。
【0012】
上記DVDプレーヤ201は、ユーザの操作部15と、該操作部15にて発生された操作信号Sop1に基づいて、上記駆動手段10及び読出手段2への制御信号Cd1及びCro、並びにその他の手段3,5及びD/Aコンバータ11,13への制御信号(図示せず)を出力する制御手段9と、上記アナログ映像信号Sv及びアナログ音声信号Saを、上記プレーヤ外部に出力するための出力端子201a及び201bと有している。
【0013】
次に、従来の信号処理装置であるDVDレコーダ202について説明する。
このDVDレコーダ202は、アナログ映像信号Sv及びアナログ音声信号Saを入力するための入力端子202a及び202bと、アナログ映像信号Svをベースバンドのデジタル映像信号Dvに変換するA/Dコンバータ21と、アナログ音声信号Saをベースバンドのデジタル音声信号Daに変換するA/Dコンバータ22と有している。
【0014】
上記DVDレコーダ202は、上記ベースバンド映像信号Dvを符号化して映像符号化データDvcを出力する映像符号化手段23と、上記ベースバンドの音声信号Daを符号化して音声符号化データDacを出力する音声符号化手段24とを有している。
【0015】
上記DVDレコーダ202は、第2の記録媒体である光ディスク26を制御信号Cd2に基づいて駆動する駆動手段27と、上記映像符号化データDvcと音声符号化データDacとを、制御信号Creに基づいて多重化してMPEGストリームDwとして光ディスク26に記録する記録手段25とを有している。
【0016】
上記DVDレコーダ202は、ユーザの操作部29と、該操作部29にて発生された操作信号Sop2に基づいて、上記駆動手段27及び記録手段25への制御信号Cre及びCd2、並びにその他の手段23,24及びA/Dコンバータ21,22への制御信号(図示せず)を出力する制御手段28とを有している。
【0017】
次に動作について説明する。
まず、DVDプレーヤ201の動作について説明する。
このDVDプレーヤ201では、ユーザの操作により、第1の記録媒体である光ディスク1に記録されているデータを再生する処理が選択されると、DVDプレーヤ201の各手段では、制御手段9からの制御信号に基づいてデータ再生処理が行われる。
【0018】
つまり、まず、光ディスク1が、制御信号Cd1により制御される駆動手段10により駆動され、読出手段2により該光ディクス1からデータDsが読み出される。読み出されたデータDsは、読出手段2から映像復号手段3及び音声復号手段5に供給される。
【0019】
具体的には、上記映像復号手段3及び音声復号手段5には、上記データDsとして、MPEG2方式の映像符号化データとAC3方式の音声符号化データとを含むMPEGストリームが供給される。
すると、映像復号手段3では、MPEGストリームDsに含まれるMPEG2方式の映像符号化データを抽出して復号する映像復号処理が行われ、該映像復号処理によりベースバンドの映像信号Dvdが生成される。この映像信号DvdはD/Aコンバータ11に出力される。
このD/Aコンバータ11では、映像信号Dvdをアナログ映像信号Svに変換するD/A変換処理が行われ、アナログ映像信号SvがTVモニタ12に出力される。TVモニタ12では、アナログ映像信号Svに基づいて画像表示が行われる。
【0020】
また、上記のように映像符号化データの再生と同時に、音声復号手段5では、MPEGストリームDsに含まれるAC3方式の音声符号化データを抽出して復号する音声復号処理が行われ、該音声復号処理によりベースバンドPCMの音声信号Dadが生成される。この音声信号DadはD/Aコンバータ13に出力される。
このD/Aコンバータ13では、音声信号Dadをアナログ音声信号Saに変換するD/A変換処理が行われ、アナログ音声信号Saがスピーカ14に出力される。スピーカ14では、アナログ音声信号Saに基づいて音声再生が行われる。また、上記のように映像符号化データ及び音声符号化データの再生中には、DVDプレーヤ201の出力端子201a及び201bには、それぞれアナログ映像信号Sv及びアナログ音声信号Saが出力される。
【0021】
次に上記DVDプレーヤ201及びDVDレコーダ202を用いて、第1の記録媒体である光ディスク1に記録されているデータを第2の記録媒体である光ディスク26に記録するダビング処理について説明する。
上記ダビング処理を行う前に予め、DVDプレーヤ201の出力端子201a及び201bを、それぞれDVDレコーダ202の対応する入力端子202a及び202bに接続しておく。
【0022】
DVDプレーヤ201では、ユーザ操作部15から操作信号Sop1が制御手段9に供給されると、各部を制御するための制御信号が出力される。また、DVDレコーダ202では、ユーザ操作部29から操作信号Sop2が制御手段28に供給されると、各部を制御するための制御信号が出力される。
そして、DVDプレーヤ201では、上記のように、光ディスク1に記録されているMPEGストリームの再生処理が行われ、MPEGストリームの再生処理により得られたアナログ映像信号Sv及びアナログ音声信号Saが出力される。一方、DVDレコーダ202では、DVDプレーヤ201から出力されたアナログ映像信号Sv及びアナログ音声信号SaのAD変換、符号化及び多重化を行って、該多重化により生成されたデータを記録する記録処理が行われる。
【0023】
つまり、上記DVDプレーヤ201では、光ディスク1に記録されているMPEGストリームの再生処理が行われ、MPEGストリームの再生処理により得られたアナログ映像信号Sv及びアナログ音声信号Saが、DVDプレーヤ201の出力端子201a及び201bから、DVDレコーダ202の入力端子202a及び202bに出力される。
上記DVDレコーダ202では、入力端子202aに入力されたアナログ映像信号SvはA/Dコンバータ21によりデジタル映像信号Dvに変換され、映像符号化手段23に供給される。また、入力端子202bに入力されたアナログ音声信号SaはA/Dコンバータ22によりデジタル音声信号Daに変換され、音声符号化手段24に供給される。
【0024】
映像符号化手段23では、デジタル映像信号Dvの符号化処理により映像符号化データDvcが生成され、音声符号化手段24では、デジタル音声信号Daの符号化処理により音声符号化データDacが生成され、映像符号化データDvc及び音声符号化データDacが記録手段25に供給される。
そして、上記映像符号化データDvc及び音声符号化データDacは、記録手段25により多重化されて光ディスク25に記録される。
このようにして、第1の記録媒体である光ディスク1に記録されているMPEGストリームを第2の記録媒体である光ディスク26に記録するダビング処理が行われる。
【0025】
【発明が解決しようとする課題】
ところで近年、半導体メモリ等の携帯用記録媒体が普及しつつあり、このような携帯用記録媒体に動画映像や音声などのデジタルデータをダビングする場合も考えられる。
【0026】
このような半導体メモリ等の携帯用記録媒体に対するダビング処理では、MPEGストリームとして多重化されている映像データ及び音声データの全体を記録するのではなく、該映像データ及び音声データの一部、あるいは映像データ及び音声データのいずれか一方のみを選択的に記録することが要求される場合がある。
【0027】
ところが、この場合、MPEGストリームをそのストリーム形式を保持しつつダビングするという従来の手法では、MPEGストリームとして多重化されている映像データ及び音声データの一部、あるいは該映像データ及び音声データの一方のみを適切に記録することは困難であるという問題があった。
【0028】
本発明は、上記のような問題点を解決するためになされたものであり、MPEGストリームとして多重化されて記録されている音声データ及び映像データの所要部分を、ユーザの指定に応じて選択してダビングすることができる信号処理方法及び信号処理装置を得ることを目的とする。
【0029】
【課題を解決するための手段】
この発明(請求項1)に係る信号処理方法は、音声符号化データと映像符号化データとを多重化して得られた多重データが記録されている第1の記録媒体から、データを読み出して第2の記録媒体に記録する信号処理方法であって、上記第1の記録媒体から上記多重データを読み出す読出ステップと、該読み出した多重データに含まれる音声符号化データ及び映像符号化データの少なくとも一方を復号して復号データを生成する復号ステップと、上記復号データを、上記音声符号化データの符号化処理に用いた第1の符号化方式及び上記映像符号化データの符号化処理に用いた第2の符号化方式とは異なる符号化方式により、再符号化して再符号化データを生成する再符号化ステップと、該再符号化データを上記第2の記録媒体に記録する記録ステップとを含み、上記映像符号化データは、映像信号を上記第2の符号化方式としてMPEG方式を用いて符号化して得られたものであり、上記復号ステップは、上記読み出した多重データに含まれる映像符号化データの、少なくとも1フィールドあるいは1フレームに対応する特定部分を復号して、映像復号データを生成するとともに、上記読み出した多重データに含まれる音声符号化データを、その上記特定部分に関連する部分から連続して一定のデータ量だけ復号して、音声復号データを生成するステップであり、上記再符号化ステップは、上記映像復号データの少なくとも一部をJPEG方式により再符号化して映像再符号化データを生成するとともに、上記復号音声データを、上記第1の符号化方式とは異なる第3の符号化方式により再符号化して、音声再符号化データを生成するステップであることを特徴とするものである。
【0030】
この発明(請求項2)は、請求項1記載の信号処理方法において、前記記録ステップは、上記映像再符号化データと上記音声再符号化データを多重化したAV多重データを上記第2の記録媒体に記録することを特徴とするものである。
【0037】
この発明(請求項3)に係る信号処理方法は、音声符号化データと映像符号化データとを多重化して得られた多重データが記録されている第1の記録媒体から、データを読み出して第2の記録媒体に記録する信号処理方法であって、上記第1の記録媒体から上記多重データを読み出す読出ステップと、上記読み出した多重データに含まれる映像符号化データの、少なくとも1フィールドまたは1フレームに対応する特定部分を復号して、映像復号データを生成するとともに、上記読み出した多重データに含まれる音声符号化データを、その上記特定部分に関連する部分から連続して一定のデータ量だけ復号して、音声復号データを生成する復号ステップと、上記映像復号データの少なくとも一部を、上記映像符号化データの符号化処理に用いたMPEG方式とは異なるJPEG方式により再符号化して映像再符号化データを生成するとともに、上記復号音声データを、上記音声符号化データの符号化処理に用いた第1の符号化方式とは異なる第3の符号化方式により再符号化して、音声再符号化データを生成する再符号化ステップと、上記映像再符号化データ及び上記音声再符号化データを上記第2の記録媒体に記録する記録ステップとを含むことを特徴とするものである。
この発明(請求項4)は、請求項3記載の信号処理方法において、前記記録ステップは、上記映像再符号化データと上記音声再符号化データを多重化したAV多重データを上記第2の記録媒体に記録することを特徴とするものである。
【0040】
この発明(請求項5)に係る信号処理装置は、音声符号化データと映像符号化データとを多重化して得られた多重データが記録されている第1の記録媒体から、データを読み出して第2の記録媒体に記録する信号処理装置であって、上記第1の記録媒体から上記多重データを読み出す読出手段と、上記読み出した多重データに含まれる映像符号化データの、少なくとも1フィールドまたは1フレームに対応する特定部分を復号して、映像復号データを出力する映像復号手段と、上記読み出した多重データに含まれる音声符号化データを、その上記特定部分に関連する部分から連続して一定のデータ量だけ復号して、音声復号データを出力する音声復号手段と、上記映像復号データの少なくとも一部を、上記映像符号化データの符号化処理に用いたMPEG方式とは異なるJPEG方式により再符号化して映像再符号化データを出力する映像符号化手段と、上記復号音声データを、上記音声符号化データの符号化処理に用いた第1の符号化方式とは異なる第3の符号化方式により再符号化して、音声再符号化データを生成する音声符号化手段と、上記映像再符号化データ及び上記音声再符号化データを上記第2の記録媒体に記録する記録手段とを備えたことを特徴とするものである。
この発明(請求項6)は、請求項5記載の信号処理方法において、前記記録手段は、上記映像再符号化データと上記音声再符号化データを多重化したAV多重データを上記第2の記録媒体に記録することを特徴とするものである。
【0042】
【発明の実施の形態】
以下、本発明の実施の形態について説明する。
(実施の形態1)
図1は、本発明の実施の形態1による信号処理装置を説明するためのブロック図である。
この実施の形態1の信号処理装置101は、AV(オーディオビデオ)データを処理するものである。
【0043】
すなわち、この信号処理装置101は、第1の記録媒体である光ディスク1を駆動する駆動手段10と、該光ディスク1からデータDsを読み出す読出手段2とを有している。ここで、上記光ディスク1には、上記データDsとしてMPEGストリームが記録されている。MPEGストリームには、トランスポートストリーム(TS)とプログラムストリーム(PS)があり、いずれのストリームにおいても、映像符号化データと音声符号化データとが、該両データの同期再生が可能となるよう時間軸圧縮されて多重化されている。
【0044】
上記信号処理装置101は、読出手段2により光ディスク1から読み出されたデータ(MPEGストリーム)Dsを受け、該MPEGストリームDsに含まれる、MPEG2方式により符号化された映像符号化データを復号して、ベースバンドの映像信号Dvdを出力する映像復号手段3と、光ディスク1から読み出されたMPEGストリームDsを受け、該MPEGストリームDsに含まれる、AC3方式により符号化された音声符号化データを復号して、ベースバンドのPCM音声信号Dadを出力する音声復号手段5とを有している。
【0045】
上記信号処理装置101は、上記ベースバンドの映像信号Dvdを受け、上記ベースバンドの映像信号Dvdの、制御信号Cvcにより指定された部分を符号化して、映像再符号化データDvrcを出力する映像符号化手段4と、上記ベースバンドの音声信号Dadを受け、上記ベースバンドの音声信号Dadの、制御信号Cacにより指定された部分を符号化して、音声再符号化データDarcを出力する音声符号化手段6とを有している。
【0046】
上記信号処理装置101は、上記映像符号化手段4から出力された映像再符号化データDvrc及び上記音声符号化手段6から出力された音声再符号化データDarcを、制御信号Creに基づいて、第2の記録媒体であるメモリカード8に記録する記録手段7と、ユーザの操作により発生された操作信号Sopに基づいて、上記各手段を制御する、制御信号Cvc,Cac,Creなどを発生する制御手段9aとを有している。
【0047】
ここで、上記記録手段7は、上記映像符号化手段4からの映像再符号化データDvrc及び上記音声符号化手段6からの音声再符号化データDarcを時間軸圧縮して多重化する多重化部(図示せず)を有し、該多重化された映像再符号化データ及び音声再符号化データをAV多重データDwとしてメモリカード8に記録するものである。なお、この記録手段7は、映像再符号化データ及び音声再符号化データを多重化するものである必要はなく、映像再符号化データ及び音声再符号化データを、それぞれメモリカード8の対応する領域に記録するものであってもよい。
【0048】
また、上記映像符号化手段4に供給される制御信号Cvcは、ベースバンドの映像信号Dvdの、再符号化すべき部分を指定するものであり、また上記音声符号化手段6に供給される制御信号Cacは、ベースバンドの音声信号Dadの、再符号化すべき部分を指定するものである。図1では、上記制御手段9aからの駆動手段10、読出手段2、及び記録手段7へ出力される制御信号は図示していない。
【0049】
さらに、上記映像符号化手段4は、上記ベースバンドの映像信号Dvdの、指定された1フレームに対応する部分を、MPEG2方式とは異なる符号化方式であるJPEG(Joint Photographic Coding Experts Group)方式により符号化するものである。また、上記音声符号化手段6は、上記ベースバンドの音声信号Dadを、上記指定された1フレームの映像に関連する数フレームに渡って、メモリカード8に適した音声符号化方式であるAAC(Advanced Audio Coding)方式により符号化するものである。
【0050】
そして、上記信号処理装置101は、上記映像復号手段3の出力であるベースバンド映像信号DvdをDA変換してアナログ映像信号Svを出力するD/Aコンバータ11と、該アナログ映像信号Svに基づいて画像表示を行うTVモニタ12と、上記音声復号手段5の出力であるベースバンド音声信号DadをDA変換してアナログ音声信号Saを出力するD/Aコンバータ13と、該アナログ音声信号Saに基づいて音声出力を行うスピーカ14とを有している。
【0051】
なお、この実施の形態1の信号処理装置101を構成する読出手段2,映像復号手段3,音声復号手段5,映像符号化手段4,音声符号化手段6,記録手段7,制御手段9a,D/Aコンバータ11及び13は、ハードウエアにより実現しても、あるいはソフトウエアにより実現してもよいが、ここでは、これらは、ソフトウエアにより実現されている。
【0052】
次に動作について説明する。
図2は、光ディスク1に記録されているMPEGストリーム、及びメモリカード8に記録される、多重化された再符号化データDwを説明するための図であり、図2に示す、映像符号化データDvc,圧縮映像データDvtc,音声符号化データDac,圧縮音声データDatc,及びMPEGストリームDsは、図6に示すものと同一のものである。
【0053】
この実施の形態1の信号処理装置101では、ユーザの操作により、第1の記録媒体である光ディスク1に記録されているデータを第2の記録媒体であるメモリカード8にダビングする処理の実行を示す操作信号Sopが、ユーザ操作部15から制御手段9aに出力されると、信号処理装置101の各手段では、制御手段9aからの制御信号に基づいてダビング処理が行われる。なお、この実施の形態1の信号処理装置101では、光ディスク1に記録されているデータを再生する処理として、図7に示す従来のDVDプレーヤ201におけるデータ再生処理と全く同一の処理が行われる。
【0054】
つまり、まず、光ディスク1が駆動手段10により駆動され、読出手段2により該光ディクス1からデータDsが読み出され、該読み出されたデータDsが映像復号手段3及び音声復号手段5に供給される。
具体的には、上記映像復号手段3及び音声復号手段5には、上記データDsとして、MPEG2方式の映像符号化データとAC3方式の音声符号化データとを含むMPEGストリームが供給される。
【0055】
すると、映像復号手段3では、MPEGストリームDsからMPEG2方式の映像符号化データDevcを抽出して復号する映像復号処理が行われ、該映像復号処理によりベースバンドのデジタル映像信号Dvdが生成される。このデジタル映像信号DvdはD/Aコンバータ11及び映像符号化手段4に出力される。
該D/Aコンバータ11では、デジタル映像信号DvdはD/A変換処理によりアナログ映像信号Svに変換され、TVモニタ12に出力される。TVモニタ12では、アナログ映像信号Svに基づいて画像表示が行われる。
【0056】
また、映像符号化手段4では、制御手段9aからの制御信号Cvcに基づいて、ベースバンドのデジタル映像信号Dvdにおける、該制御信号Cvcにより指定された部分を符号化する再符号化処理が行われる。例えば、映像符号化手段4では、上記再符号化処理として、ユーザが選択した1フレームの画像に相当するデジタル映像信号DvdをJPEG方式により符号化して映像再符号化データDvrcを生成する処理が行われる。
【0057】
また、音声復号手段5では、MPEGストリームDsからAC3方式の音声符号化データDeacを抽出して復号する音声復号処理が行われ、該音声復号処理によりベースバンドのPCMデジタル音声信号Dadが生成される。このデジタル音声信号DadはD/Aコンバータ13及び音声符号化手段6に出力される。
該D/Aコンバータ13では、デジタル音声信号DadはD/A変換処理によりアナログ音声信号Saに変換され、スピーカ14に出力される。スピーカ14では、アナログ音声信号Saに基づいて音声再生が行われる。
【0058】
また、音声符号化手段6では、制御手段9aからの制御信号Cacに基づいて、ベースバンドのデジタル音声信号Dadにおける、制御信号Cacにより指定された部分を符号化する再符号化処理が行われる。例えば、音声符号化手段6では、ユーザが選択した1映像フレームの画像に関連する、該映像フレームから数フレームにわたって連続した音声信号Dadを、AAC方式により符号化して音声再符号化データDarcを生成する処理が行われる。なお、上記音声符号化手段6では、音声信号Dadを、上記AAC方式ではなく、MP3(MPEG-1 audio layer3)方式により符号化してもよい。
【0059】
上記映像符号化手段4にて生成された映像再符号化データDvrc及び上記音声符号化手段6にて生成された音声再符号化データDarcは記録手段7に供給され、映像再符号化データDvrc及び音声再符号化データDarcは該記録手段7にて多重化されて第2の記録媒体であるメモリカード8に記録される。
【0060】
以下、上記ダビング処理におけるユーザのデータ指定方法、及びユーザの指定に基づいてメモリカード8に記録されるデータについて具体的に説明する。
ユーザは、TVモニタ12に、ユーザが記録したい画像(例えば第1のフレームF1の画像)が表示されたとき、一定の記録操作を行うと、制御手段9aでは、その操作により発生した操作信号に基づいて、上記映像符号化手段4及び音声符号化手段6に対する制御信号Cvc及びCacが生成され、該両手段に供給される。
すると、映像符号化手段4では、ベースバンド映像信号Dvdとして入力された、上記第1のフレームF1に対応する映像信号S1のみ符号化する処理が行われ、1フレームの映像信号に対応する映像再符号化データJ1が記録手段7に出力される。
【0061】
また、このとき、音声符号化手段6では、上記符号化処理が施されたフレームから数フレームにわたる、例えばフレームF1〜F8にわたる映像信号に対応する音声信号Ba1を符号化する再符号化処理が行われ、該再符号化処理により得られた音声再符号化データP1が上記記録手段7に出力される。
そして、上記記録手段7により、上記1フレームの画像に対応する映像再符号化データJ1と、これに対応する音声再符号化データP1とが、同期再生されるよう対応付けられて、メモリカード8に記録される。
【0062】
また、第9のフレームF9の画像が表示されたとき、ユーザが一定の記録操作を行った場合は、ベースバンド映像信号Dvdにおける、第9フレームに対応する映像信号S9が符号化され、また、該第9フレームに関連するベースバンド音声信号Dadとして、例えば、図2に示すように第9〜第18フレームに対応する音声信号Ba2が符号化される。そして、第9フレームに対応する映像再符号化データJ9及び第9〜第18フレームに対応する音声再符号化データP2が記録手段7に出力される。
また、この実施の形態1では、上記のような記録操作を行った場合でも、TVモニタ12及びスピーカ14では、各フレームに対応する画像及び音声の再生が順次行われる。
【0063】
このように本実施の形態1の信号処理装置101では、第1の記録媒体である光ディスク1に記録されているMPEGストリームDsを読み出す読出手段2と、読み出されたMPEGストリームDsに含まれる、MPEG2方式の映像符号化データを復号する映像復号手段3と、読み出されたMPEGストリームに含まれる、AAC方式の音声符号化データを復号する音声復号手段5とを備え、ユーザ操作により指定されたフレームの画像に対応する映像復号データ及びこれに対応する音声復号データをそれぞれ、JPEG方式及びAAC方式(あるいはMP3方式)により再符号化して、第2の記録媒体であるメモリカード8に記録するので、光ディスク1に記録されているMPEGストリームDsの特定の部分の映像符号化データ及び音声符号化データを、符号化方式を変換してダビングすることができる。この結果、ユーザは、メモリカード8に記録されている映像符号化データ及び音声符号化データを再生することにより、指定した1フレームの静止画を見ながら、それに関連する音声を数フレームにわたって視聴することが可能となる。
【0064】
なお、上記実施の形態1では、ユーザが指定した1フレームの映像符号化データ(例えば、映像復号データをJPEG方式により再符号化して得られたもの)と、これに関連する数フレームにわたる音声符号化データとを記録する場合について説明したが、上記1フレームの映像符号化データとともに記録される音声符号化データは、該1フレームの映像符号化データに関連する数フレームにわたる音声符号化データに限るものではない。
例えば、ユーザが指定した1フレームの映像符号化データに関連する音声符号化データとして、数分にわたる音声符号化データを記録してもよく、さらに、上記1フレームに関連する音声符号化データとして、3分から5分程度の長さの楽曲に対応する音声符号化データを1曲分すべて記録するようにしてもよい。
【0065】
また、上記実施の形態1では、ユーザが指定した1フレームの映像符号化データと、これに関連する数フレームにわたる音声符号化データとを記録する場合について説明したが、ベースバンドの映像信号がインターレース信号である場合には、ユーザが指定した1フィールドの映像符号化データと、これに関連する数フィールドにわたる音声符号化データとを記録するようにしてもよい。
【0066】
また、上記実施の形態1では、信号処理装置として、ユーザが指定した1フレームの画像(つまり静止画)に対応する映像符号化データと、これに関連する数フレームにわたる音声符号化データとを記録するものを示したが、信号処理装置は、ユーザが指定した数フレームの画像(つまり動画像)と、これに関連する数フレームにわたる音声符号化データとを記録するものであってもよい。
【0067】
例えば、信号処理装置は、図2に示すように、ユーザが第20〜第25のフレームF20〜F25を指定した場合、これらのフレームに対応する映像信号S20〜S25をMPEG1方式により符号化して得られる映像符号化データM1と、上記フレームF20〜F25に対応する音声信号Ba3をAAC方式により符号化して得られる音声符号化データC1とを、記録手段7により多重化してメモリカード8に記録するものであってもよい。また、このような信号処理装置では、ユーザが第26〜第31のフレームF26〜F31を指定した場合、これらのフレームに対応する映像信号S26〜S31をMPEG1方式により符号化して得られる映像符号化データM2と、上記フレームF26〜F31に対応する音声信号Ba4をAAC方式により符号化して得られる音声符号化データC2とが、記録手段7により多重化されてメモリカード8に記録されることとなる。
【0068】
また、上記実施の形態1では、ベースバンドの映像信号をD/A変換してアナログ映像信号を出力するDAコンバータ11、及びアナログ映像信号を入力信号とするTVモニタ12、ベースバンドの音声信号をD/A変換してアナログ音声信号を出力するDAコンバータ13、及びアナログ音声信号を入力信号とするスピーカ14を備え、復号された映像信号及び音声信号をモニタするようにしているが、必ずしも復号された映像信号と音声信号の両方をモニタする必要はない。例えば、信号処理装置は、上記DAコンバータ11,13、TVモニタ12及びスピーカ14のうちDAコンバータ11及びTVモニタ12のみ備え、復号された映像信号のみモニタするものであってもよい。
【0069】
さらに、上記実施の形態1では、信号処理装置として、第1の記録媒体に記録されているMPEGストリームをダビングする際、該MPEGストリームに含まれる映像符号化データ及び音声符号化データを、両方とも再符号化して記録するものを示したが、上記信号処理装置は、MPEGストリームのダビング処理として、上記映像符号化データ及び音声符号化データの一方を再符号化して、それらの他方を再符号化せずにそのまま記録する処理を行うものであってもよい。
【0070】
また、上記実施の形態1では、信号処理装置として、フレームF1に対応する映像符号化データJ1、及びフレームF1〜F8に対応する音声符号化データP1を記録する際、TVモニタ12では、上記フレームF1以降の各フレームの画像を順次表示するようにしているが、信号処理装置は、TVモニタ12では、制御手段9aからの制御信号に基づいて、ユーザが指定したフレームF1に対応する画像の表示を一定時間(例えば5秒間)保持し、その後、フレームF2以降の各フレームの画像を順次表示するものであってもよい。
【0071】
また、上記実施の形態1では、フレームF1に対応する映像符号化データJ1、及びフレームF1〜F8に対応する音声符号化データBa1を記録する処理を、ユーザがTVモニタ12での画像表示を見ながらリアルタイムで行う場合を示したが、ユーザ指定のフレームの映像信号及び対応する数フレームの音声信号の記録処理は、1つの画像シーケンスに対応する動画像をすべて見終わった後に、ユーザが所望する個所を、再生時刻などにより指定することにより、行うようにしてもよい。
【0072】
(実施の形態2)
図3は、本発明の実施の形態2による信号処理装置を説明するためのブロック図である。
この実施の形態2の信号処理装置102は、上記実施の形態1の信号処理装置101における音声復号手段5及び音声符号化手段6に代えて、光ディスク1から読み出されたMPEGストリームDsから音声符号化データDacを抽出して、記録手段7に出力する音声データ抽出手段16と、上記MPEGストリームDsを受け、該ストリームに含まれる音声符号化データDacを抽出し、該音声符号化データDacを復号して音声復号データDadを上記D/Aコンバータ13に出力する音声復号手段5aとを備えたものである。また、この実施の形態2の信号処理装置102における制御手段9bは、実施の形態1における音声符号化手段6に対する制御信号Cacに代えて、上記音声データ抽出手段16に対する制御信号Caeを出力する点のみ、実施の形態1の制御手段9aと異なっている。
そして、この実施の形態2の信号処理装置102におけるその他の部分は、実施の形態1の信号処理装置101におけるものと同一である。
【0073】
次に動作について説明する。
このような構成の信号処理装置102では、ユーザの操作により、第1の記録媒体である光ディスク1に記録されているデータを第2の記録媒体であるメモリカード8にダビングする処理が指令されると、信号処理装置102では、ユーザの操作により指定された映像符号化データ及び音声符号化データが、第2の記録媒体であるメモリカード8に記録される。
なお、この実施の形態2の信号処理装置102では、光ディスク1に記録されているデータを再生する処理は、実施の形態1の信号処理装置101におけるものと全く同一である。
【0074】
以下、この実施の形態2のダビング処理について説明する。
上記信号処理装置102では、制御手段9bからの制御信号に基づいて、光ディスク1からMPEGストリームDsが読み出され、該MPEGストリームDsに含まれる映像符号化データ及び音声符号化データはそれぞれ、映像復号手段3及び音声復号手段5aにて復号される。そして、映像復号データDvd及び音声復号データDadはそれぞれD/Aコンバータ11及び13にてDA変換されて、アナログ映像信号Sv及びアナログ音声信号SaはそれぞれTVモニタ12及びスピーカ14に出力される。
【0075】
このとき、映像符号化手段4では、制御手段9bからの制御信号Cvcに基づいて、ベースバンドの映像信号Dvdにおける、該制御信号Cvcにより指定された部分を符号化する再符号化処理が行われ、該再符号化処理により得られた映像符号化データDvrcが記録手段7に出力される。また、音声データ抽出手段16では、制御手段9bからの制御信号Caeに基づいて、MPEGストリームDsにおける、制御信号Caeにより指定された部分を抽出する処理が行われ、抽出された音声符号化データDacが記録手段7に出力される。
【0076】
そして、上記映像符号化手段4にて生成された映像再符号化データDvrc及び上記音声データ抽出手段16により抽出された音声符号化データDacは、記録手段7にて第2の記録媒体であるメモリカード8に記録される。
【0077】
つまり、この実施の形態2の信号処理装置102では、第1の記録媒体(光ディスク)1に記録されている映像符号化データは、その符号化方式をMPEG方式からJPEG方式に変換して第2の記録媒体(メモリカード)8に記録され、第1の記録媒体(光ディスク)1に記録されている音声符号化データは、符号化方式の変換を行わずに、AC3方式により符号化された状態のままメモリカード8に記録されることとなる。
【0078】
このように本実施の形態2の信号処理装置102では、第1の記録媒体である光ディスク1に記録されているMPEGストリームDsを読み出す読出手段2と、読み出されたMPEGストリームに含まれる、MPEG2方式の映像符号化データを復号する映像復号手段3と、読み出されたMPEGストリームから、AC3方式の音声符号化データを抽出する音声データ抽出手段16とを備え、ユーザ操作により指定されたフレームの画像に対応する映像復号データを、JPEG方式により再符号化して、第2の記録媒体であるメモリカード8に記録するとともに、MPEGストリームに含まれる、指定されたフレームの画像に対応する音声符号化データをそのままメモリカード8に記録するので、MPEGストリームのダビングの際には、映像符号化データを符号化方式を変更して記録し、音声符号化データを、その再符号化処理を行うことなく記録することができる。この結果、ダビング処理における音声符号化データに対する再符号化に要するデータ処理を削減することができる。
【0079】
なお、上記実施の形態2の信号処理装置102では、光ディスク1に記録されているデータをメモリカード8にダビングする際、メモリカード8には、映像符号化データ及び音声符号化データの両方を記録するようにいるが、メモリカード8には、映像符号化データのみ記録するようにしてもよい。
【0080】
(実施の形態3)
図4は本発明の実施の形態3による信号処理装置を説明するための図である。
この実施の形態3の信号処理装置103は、上記実施の形態1の信号処理装置101における映像復号手段3及び映像符号化手段4に代えて、光ディスク1から読み出されたMPEGストリームDsから映像符号化データDvcを抽出して、記録手段7に出力する映像データ抽出手段17と、上記MPEGストリームDsを受け、該ストリームに含まれる映像符号化データDvcを抽出し、映像符号化データDvcを復号して映像復号データDvdを上記D/Aコンバータ11に出力する映像復号手段3aとを備えたものである。また、この実施の形態3の信号処理装置103における制御手段9cは、実施の形態1における映像符号化手段4に対する制御信号Cvcに代えて、上記映像データ抽出手段17に対する制御信号Cveを出力する点のみ、実施の形態1の制御手段9aと異なっている。
そして、この実施の形態3の信号処理装置103におけるその他の部分は、実施の形態1の信号処理装置101におけるものと同一である。
【0081】
次に動作について説明する。
このような構成の信号処理装置103では、ユーザの操作により、第1の記録媒体である光ディスク1に記録されているデータを第2の記録媒体であるメモリカード8にダビングする処理が指令されると、信号処理装置103では、ユーザの操作により指定された映像符号化データ及び音声符号化データが、第2の記録媒体であるメモリカード8に記録される。
なお、この実施の形態3の信号処理装置103では、光ディスク1に記録されているデータを再生する処理は、実施の形態1の信号処理装置101におけるものと全く同一である。
【0082】
以下、この実施の形態3のダビング処理について説明する。
上記信号処理装置103では、制御手段9cからの制御信号に基づいて、光ディスク1からMPEGストリームDsが読み出され、該MPEGストリームDsに含まれる映像符号化データ及び音声符号化データはそれぞれ、映像復号手段3aび音声復号手段5にて復号される。そして、映像復号データDvd及び音声復号データDadはそれぞれD/Aコンバータ11及び13にてDA変換されて、アナログ映像信号Sv及びアナログ音声信号SaはそれぞれTVモニタ12及びスピーカ14に出力される。
【0083】
このとき、音声符号化手段6では、制御手段9cからの制御信号Cacに基づいて、ベースバンドの音声信号Dadにおける、該制御信号Cacにより指定された部分を符号化する再符号化処理が行われ、該再符号化処理により得られた音声符号化データDarcが記録手段7に出力される。また、映像データ抽出手段17では、制御手段9cからの制御信号Cveに基づいて、MPEGストリームDsにおける、制御信号Cveにより指定された部分を抽出する処理が行われ、抽出された映像符号化データDvcが記録手段7に出力される。
そして、上記音声符号化手段6にて生成された音声再符号化データDarc及び上記映像データ抽出手段17により抽出された映像符号化データDvcは、記録手段7にて第2の記録媒体であるメモリカード8に記録される。
【0084】
つまり、この実施の形態3の信号処理装置103では、第1の記録媒体(光ディスク)1に記録されている音声符号化データは、その符号化方式をAC3方式からAAC方式に変換して第2の記録媒体(メモリカード)8に記録され、第1の記録媒体(光ディスク)1に記録されている映像符号化データは、符号化方式の変換を行わずに、MPEG2方式により符号化された状態のままメモリカード8に記録されることとなる。例えば、メモリカード8には、MPEGストリームにおける指定された部分に対応する動画(複数のフレーム)のデータまたは静止画(1フレーム)のデータを記録することが可能となる。ここで、メモリカード8に1フレームのデータを記録する場合は、記録するフレームは、フレーム内符号化されたフレームであることが望ましい。
【0085】
このように本実施の形態3の信号処理装置103では、第1の記録媒体である光ディスク1に記録されているMPEGストリームDsを読み出す読出手段2と、読み出されたMPEGストリームからAC3方式の音声符号化データを抽出して復号する音声復号手段5と、上記読み出されたMPEGストリームから、MPEG−2方式の映像符号化データを抽出する映像データ抽出手段17とを備え、ユーザ操作により指定されたフレームの画像に対応する音声復号データを、AAC方式により再符号化して、第2の記録媒体であるメモリカード8に記録するとともに、MPEGストリームに含まれる、指定されたフレームの画像に対応する映像符号化データをそのままメモリカード8に記録するので、MPEGストリームのダビングの際には、音声符号化データを符号化方式を変更して記録し、映像符号化データを、その再符号化処理を行うことなく記録することができる。この結果、ダビング処理における音声符号化データに対する再符号化に要する信号処理を削減することができる。
【0086】
なお、上記実施の形態3の信号処理装置103では、光ディスク1に記録されているデータをメモリカード8にダビングする際、メモリカード8には、映像符号化データ及び音声符号化データの両方を記録するようにいるが、メモリカード8には、音声符号化データのみ記録するようにしてもよい。
【0087】
(実施の形態4)
図5は本発明の実施の形態4による信号処理装置を説明するための図である。
この実施の形態4の信号処理装置104は、上記実施の形態1の信号処理装置101の映像復号手段3と映像符号化手段4との間に設けられ、制御信号Creに基づいて、映像復号手段3から出力される映像復号データDvdに対して解像度変換処理を施し、解像度変換処理により得られた映像データDrcを上記映像符号化手段4に出力する解像度変換手段18を備えたものである。この実施の形態4の制御手段9dは、解像度変換手段18に対する制御信号Creを生成する点のみ実施の形態1の制御手段9aと異なっている。
【0088】
上記解像度変換手段18は、具体的には、映像復号手段3から出力された映像復号データDvdに対して、1フレームを構成する画素を間引く処理を施すことにより、該映像復号データDvdの解像度もしくは信号フォーマットを変換するものである。例えば、該解像度変換手段18は、1フレームの映像データを構成する画素値を、1フレームにおける水平方向の画素数が2分の1,3分の1、または3分の2となるよう、あるいは1フレームにおける垂直方向の画素数が2分の1等の割合で減少するようまびく処理を行うものである。なお、この解像度変換手段18は、1フレームにおける水平方向の画素数及び垂直方向の画素数が一定の比率で減少するよう、1フレームの画像データを構成する画素値を間引く処理を行って、例えば、ハイビジョン等のHD(High Definition)信号を、SD(Standard Definition)等の標準信号に変換するものであってもよい。
【0089】
さらにこの実施の形態4の信号処理装置104は、実施の形態1における第2の記録媒体であるメモリカード8に代えて、光ディスク1a及びこれを駆動する駆動手段10aとを備えたものである。なお、第2の記録媒体としての光ディスク1aは、第1の記録媒体としての光ディスク1と、別の光ディスクであっても、同一の光ディスクであってもよい。
そして、この実施の形態4の信号処理装置104におけるその他の部分は、実施の形態1の信号処理装置101におけるものと同一である。
【0090】
次に動作について説明する。
この実施の形態4の信号処理装置104の動作は、映像復号手段3から出力された映像復号データDvdを解像度変換して映像符号化手段4に出力する点のみ実施の形態1の信号処理装置101の動作と異なっている。
つまり、光ディスク1から読み出されたMPEGストリームDsが映像復号手段3に入力されると、該映像復号手段3では、MPEGストリームからMPEG2方式により符号化された映像信号符号化データを抽出して、該映像信号符号化データを復号する復号処理が行われ、該復号処理により得られたベースバンドの映像信号Dvdは、D/Aコンバータ11及び解像度変換手段18に供給される。該D/Aコンバータ11に供給された映像信号Dvdはアナログ信号に変換され、TVモニタ12に出力される。
【0091】
一方、解像度変換手段18では、制御手段9dからの制御信号Creに基づいて、入力された映像信号Dvdに対して、1フレームに対応する画像データの画素値を、1フレームの画像の水平方向あるいは垂直方向における画素数が減少するよう間引く処理が施され、解像度もしくは信号フォーマットが変換された解像度変換映像データDrcが映像符号化手段4に出力される。
【0092】
すると、映像符号化手段4では、実施の形態1と同様、制御手段9dからの制御信号Cvcに基づいて、MPEGストリームに対応する解像度変換映像データDrcにおける、該制御信号により指定されたフレームに対応する部分を、決められた符号化方式により符号化する再符号化処理が行われる。ここで、再符号化処理における符号化方式は、光ディスク1に記録されているMPEGストリームに含まれる映像符号化データの符号化方式と同じMPEG方式であっても、該MPEGストリームに含まれる映像符号化データの符号化方式とは異なるJPEG方式であってもよい。
【0093】
また、光ディスク1から読み出されたMPEGストリームDsに含まれる音声符号化データは、実施の形態1と同様、音声復号手段5にて復号処理が施され、該復号処理により得られたベースバンドの音声信号DadはD/Aコンバータ13及び音声符号化手段6に供給される。該D/Aコンバータ13に供給された音声信号Dadはアナログ信号に変換され、スピーカ14に出力される。音声符号化手段6では、制御手段9dからの制御信号Cacに基づいて、MPEGストリームに対応する音声復号データ(つまりベースバンド音声信号)Dadにおける、該制御信号により指定されたフレームに対応する部分を、決められた符号化方式により符号化する再符号化処理が行われる。
【0094】
なお、音声復号データの再符号化の際には、実施の形態1で述べたように、符号化方式として、第1の記録媒体に記録されている音声符号化データの符号化方式と異なる方式を用いても、または実施の形態2で述べたように、第1の記録媒体に記録されている音声符号化データの符号化方式と同じ方式を用いてもよい。そして、再符号化処理により得られた映像符号化データDvc及び音声符号化データDacは記録手段7に入力され、該記録手段7により第2の記録媒体である光ディスク1aに記録される。
【0095】
このように本実施の形態4では、第1の記録媒体である光ディスク1に記録されているMPEGストリームDsを読み出す読出手段2と、読み出されたMPEGストリームに含まれる、MPEG2方式の映像符号化データを復号する映像復号手段3と、読み出されたMPEGストリームに含まれる、AAC方式の音声符号化データを復号する音声復号手段5と、映像復号手段3から出力される映像復号データDvdに対して解像度変換処理を施す解像度変換手段18とを備え、解像度変換処理により得られた映像データDrcを再符号化して記録媒体に記録するので、映像符号化データをダビングする際、第1の記録媒体に記録されている映像符号化データを、これが持つ解像度または信号フォーマットを変換して第2の記録媒体に記録することが可能となる。
【0096】
なお、上記実施の形態4では、映像データに対する解像度変換処理として、単に1フレーム(画面)の水平方向あるいは垂直方向における画素数が一定の割合で減少するよう、1フレームの画像データを構成する画素値を間引く処理を示したが、映像データに対する解像度変換処理は、1画面における有効でない画素に対応する画素値を間引いて、1画面(フレーム)の一部の領域に対応する画素値のみを選択するものであってもよい。この場合、1画面における指定された領域に対応する画像データのみを再符号化することが可能となる。
また、上記各実施の形態では、MPEGストリームとして、トランスポートストリーム(TS)、プログラムストリーム(PS)等を示したが、MPEGストリームはこれらに限るものではない。
【0097】
また、上記各実施の形態では、第1の記録媒体にMPEGストリームとして記録されている映像符号化データのMPEG符号化方式としてMPEG2方式を示したが、このMPEG符号化方式は、MPEG1方式、MPEG4方式、MPEG7方式等であってもよい。
また、上記各実施の形態では、第1の記録媒体にMPEGストリームとして記録されている音声符号化データに対する符号化方式として、AC3方式を挙げたが、この音声符号化データに対する符号化方式はこれに限るものではなく、例えば、MPEG1あるいはMPEG2対応の音声符号化方式、またはAAC方式、PCM方式等であってもよい。
【0098】
また、上記各実施の形態では、音声データの再符号化処理に用いる符号化方式としてAAC方式を挙げたが、音声データの再符号化処理に用いる符号化方式はこれに限るものではなく、例えば、MPEG1あるいはMPEG2に対応した音声符号化方式、またはPCM方式等、第1の記録媒体に記録されている音声符号化データの符号化方式(例えばAC3)と異なる方式であればよい。
【0099】
また、上記各実施の形態では、映像データの再符号化処理に用いる符号化方式として、JPEG方式を挙げたが、映像データの再符号化処理に用いる符号化方式はこれに限るものではなく、例えば、H.261方式、H.263方式、ウェーブレット方式等、第1の記録媒体に記録されている映像符号化データの符号化方式(例えばMPEG2方式)と異なる方式であればよい。
【0100】
また、上記各実施の形態では、第1の記録媒体として、光ディスクを例にあげたが、第1の記録媒体は光ディスクに限るものではなく、ハードディスク、光磁気ディスク、磁気ディスク、半導体メモリ、あるいは磁気テープであってもよい。
【0101】
また、上記各実施の形態1〜3では、第2の記録媒体として、半導体メモリであるメモリカード8を例に挙げたが、第2の記録媒体はこれらのものに限るものではなく、例えば、ハードディスク、光ディスク、光磁気ディスク、または磁気ディスクまたは磁気テープであってもよい。
また、上記各実施の形態では、第1の記録媒体と第2の記録媒体が別々の記録媒体である場合について説明したが、これらの記録媒体は同一のものであってもよい。
また、上記実施の形態1及び4では、第1の記録媒体に記録されている映像符号化データ及び音声符号化データの両方を第2の記録媒体に記録するようにしているが、映像符号化データ及び音声符号化データの一方のみ第2の記録媒体に記録するようにしてもよい。
【0102】
【発明の効果】
以上のように本発明に係る信号処理装置によれば、音声符号化データと映像符号化データとを多重化して得られた多重データが記録されている第1の記録媒体から、データを読み出して第2の記録媒体に記録する信号処理方法であって、上記第1の記録媒体から上記多重データを読み出す読出ステップと、該読み出した多重データに含まれる音声符号化データ及び映像符号化データの少なくとも一方を復号して復号データを生成する復号ステップと、上記復号データを、上記音声符号化データの符号化処理に用いた第1の符号化方式及び上記映像符号化データの符号化処理に用いた第2の符号化方式とは異なる符号化方式により、再符号化して再符号化データを生成する再符号化ステップと、該再符号化データを上記第2の記録媒体に記録する記録ステップとを含むことを特徴とするので、MPEGストリームとして多重化されて記録されている音声データ及び映像データの所要部分を、ユーザの指定に応じて選択してダビングすることができる効果がある。
【0103】
本発明によれば、上記信号処理方法において、上記復号ステップは、上記読み出した多重データに含まれる音声符号化データの少なくとも一部を復号して音声復号データを生成するステップであり、上記再符号化ステップは、上記音声復号データを、上記第1の符号化方式と異なる第3の符号化方式により再符号化して、音声再符号化データを、上記再符号化データとして生成するステップであることを特徴とするので、第1の記録媒体に記録されているMPEGストリームなどに含まれる音声符号化データを、その符号化方式を第2の記録媒体に最適な符号化方式に変換して、デジタルダビングすることができる効果がある。
【0104】
本発明によれば、上記信号処理方法において、上記復号ステップは、上記読み出した多重データに含まれる映像符号化データの少なくとも一部を復号して映像復号データを生成するステップであり、上記再符号化ステップは、上記映像復号データを、上記第2の符号化方式と異なる第4の符号化方式により再符号化して、映像再符号化データを、上記再符号化データとして生成するステップであることを特徴とするので、第1の記録媒体に記録されているMPEGストリームなどに含まれる映像符号化データを、その符号化方式を第2の記録媒体に最適な符号化方式に変換して、デジタルダビングすることができる効果がある。
【0105】
本発明によれば、上記信号処理方法において、上記復号ステップは、上記読み出した多重データに含まれる映像符号化データの少なくとも一部を復号して映像復号データを生成するものであり、上記再符号化ステップは、上記映像復号データを、上記第2の符号化方式とは異なる第4の符号化方式により再符号化して映像再符号化データを生成するステップであり、上記記録ステップは、上記読み出した多重データに含まれる音声符号化データの少なくとも一部と、上記映像再符号化データとを、上記第2の記録媒体に記録するステップであることを特徴とするので、第1の記録媒体に記録されているMPEGストリームなどに含まれる映像符号化データ及び音声符号化データを、該映像符号化データの符号化方式のみを第2の記録媒体に最適な符号化方式に変換して、デジタルダビングすることができる効果がある。
【0106】
本発明によれば、上記信号処理方法において、上記復号ステップは、上記読み出した多重データに含まれる音声符号化データの少なくとも一部を復号して音声復号データを生成するステップであり、上記再符号化ステップは、上記音声復号データを、上記第1の符号化方式とは異なる第3の符号化方式により再符号化して、音声再符号化データを生成するステップであり、上記記録ステップは、上記読み出した多重データに含まれる映像符号化データの少なくとも一部と、上記音声再符号化データとを、上記第2の記録媒体に記録するステップであることを特徴とするので、第1の記録媒体に記録されているMPEGストリームなどに含まれる映像符号化データ及び音声符号化データを、該音声符号化データの符号化方式のみを第2の記録媒体に最適な符号化方式に変換して、デジタルダビングすることができる効果がある。
【0107】
本発明によれば、上記信号処理方法において、上記復号ステップは、上記読み出した多重データに含まれる音声符号化データの少なくとも一部及び映像符号化データの少なくとも一部をそれぞれ復号して、音声復号データ及び映像復号データを生成するものであり、上記再符号化ステップは、上記音声復号データを、上記第1の符号化方式とは異なる第3の符号化方式により再符号化して、音声再符号化データを生成するとともに、上記映像復号データを、上記第2の符号化方式とは異なる第4の符号化方式により再符号化して、映像再符号化データを生成するステップであり、上記記録ステップは、上記音声再符号化データ及び上記映像再符号化データを、上記第2のデータ記録媒体に記録するステップであることを特徴とするので、第1の記録媒体に記録されているMPEGストリームなどに含まれる映像符号化データ及び音声符号化データを、該各符号化データの符号化方式をそれぞれ、第2の記録媒体に最適な符号化方式に変換して、デジタルダビングすることができる効果がある。
【0108】
本発明によれば、上記信号処理方法において、上記第2の符号化方式はMPEG方式であり、上記第4の符号化方式はJPEG方式であることを特徴とするので、第1の記録媒体に記録されているMPEGストリームなどに含まれる映像符号化データを、その符号化方式であるMPEG方式を第2の記録媒体に最適な符号化方式であるJPEG方式に変換して、デジタルダビングすることができる効果がある。
【0109】
本発明によれば、上記信号処理方法において、上記映像符号化データは、映像信号を上記第2の符号化方式としてMPEG方式を用いて符号化して得られたものであり、上記復号ステップは、上記読み出した多重データに含まれる映像符号化データの、少なくとも1フィールドあるいは1フレームに対応する特定部分を復号して、映像復号データを生成するとともに、上記読み出した多重データに含まれる音声符号化データを、その上記特定部分に関連する部分から連続して一定のデータ量だけ復号して、音声復号データを生成するステップであり、上記再符号化ステップは、上記映像復号データの少なくとも一部をJPEG方式により再符号化して映像再符号化データを生成するとともに、上記復号音声データを、上記第1の符号化方式とは異なる第3の符号化方式により再符号化して、音声再符号化データを生成するステップであることを特徴とするので、第1の記録媒体に記録されているMPEGストリームなどに含まれる映像符号化データの、指定された1画面に相当する部分を、その符号化方式であるMPEG方式を第2の記録媒体に最適な符号化方式であるJPEG方式に変換して、しかも、上記指定された画面に関連する複数の画面に対応する音声符号化データとともに、デジタルダビングすることができる効果がある。
【0110】
本発明に係る信号処理方法によれば、音声符号化データと映像符号化データとを多重化して得られた多重データが記録されている第1の記録媒体から、データを読み出して第2の記録媒体に記録する信号処理方法であって、上記第1の記録媒体から上記多重データを読み出す読出ステップと、上記読み出した多重データに含まれる映像符号化データの、少なくとも1フィールドまたは1フレームに対応する特定部分を復号して、映像復号データを生成するとともに、上記読み出した多重データに含まれる音声符号化データを、その上記特定部分に関連する部分から連続して一定のデータ量だけ復号して、音声復号データを生成する復号ステップと、上記映像復号データの少なくとも一部を、上記映像符号化データの符号化処理に用いたMPEG方式とは異なるJPEG方式により再符号化して映像再符号化データを生成するとともに、上記復号音声データを、上記音声符号化データの符号化処理に用いた第1の符号化方式とは異なる第3の符号化方式により再符号化して、音声再符号化データを生成する再符号化ステップと、上記映像再符号化データ及び上記音声再符号化データを上記第2の記録媒体に記録する記録ステップとを含むことを特徴とするので、第1の記録媒体に記録されているMPEGストリームなどに含まれる映像符号化データの、指定された1画面に相当する部分を、その符号化方式であるMPEG方式を第2の記録媒体に最適な符号化方式であるJPEG方式に変換して、しかも、上記指定された画面に関連する複数の画面に対応する音声符号化データとともに、デジタルダビングすることができる効果がある。
【0111】
本発明に係る信号処理方法によれば、音声符号化データと映像符号化データとを多重化して得られた多重データが記録されている第1の記録媒体から、データを読み出して第2の記録媒体に記録する信号処理方法であって、上記第1の記録媒体から上記多重データを読み出す読出ステップと、該読み出された多重データに含まれる映像符号化データの少なくとも一部を復号して映像復号データを生成する復号ステップと、上記映像復号データに対して、画素値を間引く解像度変換処理、あるいはデータフォーマットを変換する変換処理を施して、変換済映像データを生成する変換ステップと、上記変換済映像データを再符号化して映像再符号化データを生成する再符号化ステップと、上記映像再符号化データを上記第2の記録媒体に記録する記録ステップとを含むことを特徴とするので、映像符号化データをダビングする際、第1の記録媒体に記録されている映像符号化データを、これが持つ解像度または信号フォーマットを変換して第2の記録媒体に記録することが可能となる。
【0112】
本発明に係る信号処理装置によれば、音声符号化データと映像符号化データとを多重化して得られた多重データが記録されている第1の記録媒体から、データを読み出して第2の記録媒体に記録する信号処理装置であって、上記第1の記録媒体から上記多重データを読み出す読出手段と、該読み出した多重データに含まれる音声符号化データ及び映像符号化データの少なくとも一方を復号して復号データを出力する復号手段と、上記復号データを、上記音声符号化データの符号化処理に用いた第1の符号化方式及び上記映像符号化データの符号化処理に用いた第2の符号化方式とは異なる符号化方式により、再符号化して再符号化データを出力する再符号化手段と、該再符号化データを上記第2の記録媒体に記録する記録手段とを備えたことを特徴とするので、MPEGストリームとして多重化されて記録されている音声データ及び映像データの所要部分を、ユーザの指定に応じて選択してダビングすることができる効果がある。
【0113】
本発明に係る信号処理装置によれば、音声符号化データと映像符号化データとを多重化して得られた多重データが記録されている第1の記録媒体から、データを読み出して第2の記録媒体に記録する信号処理装置であって、上記第1の記録媒体から上記多重データを読み出す読出手段と、上記読み出した多重データに含まれる映像符号化データの、少なくとも1フィールドまたは1フレームに対応する特定部分を復号して、映像復号データを出力する映像復号手段と、上記読み出した多重データに含まれる音声符号化データを、その上記特定部分に関連する部分から連続して一定のデータ量だけ復号して、音声復号データを出力する音声復号手段と、上記映像復号データの少なくとも一部を、上記映像符号化データの符号化処理に用いたMPEG方式とは異なるJPEG方式により再符号化して映像再符号化データを出力する映像符号化手段と、上記復号音声データを、上記音声符号化データの符号化処理に用いた第1の符号化方式とは異なる第3の符号化方式により再符号化して、音声再符号化データを生成する音声符号化手段と、上記映像再符号化データ及び上記音声再符号化データを上記第2の記録媒体に記録する記録手段とを備えたことを特徴とするので、第1の記録媒体に記録されているMPEGストリームなどに含まれる映像符号化データの、指定された1画面に相当する部分を、その符号化方式であるMPEG方式を第2の記録媒体に最適な符号化方式であるJPEG方式に変換して、しかも、上記指定された画面に関連する複数の画面に対応する音声符号化データとともに、デジタルダビングすることができる効果がある。
【0114】
本発明に係る信号処理装置によれば、音声符号化データと映像符号化データとを多重化して得られた多重データが記録されている第1の記録媒体から、データを読み出して第2の記録媒体に記録する信号処理装置であって、上記第1の記録媒体から上記多重データを読み出す読出手段と、該読み出された多重データに含まれる映像符号化データの少なくとも一部を復号して映像復号データを生成する映像復号手段と、上記映像復号データに対して、画素値を間引く解像度変換処理、あるいはデータフォーマットを変換する変換処理を施して、変換済映像データを生成するデータ変換手段と、上記変換済映像データを再符号化して映像再符号化データを生成する符号化手段と、上記映像再符号化データを上記第2の記録媒体に記録する記録手段とを備えたことを特徴とするので、映像符号化データをダビングする際、第1の記録媒体に記録されている映像符号化データを、これが持つ解像度または信号フォーマットを変換して第2の記録媒体に記録することが可能となる。
【図面の簡単な説明】
【図1】本発明の実施の形態1による信号処理装置を説明するブロック図である。
【図2】上記実施の形態1の信号処理装置における信号処理を説明するための図である。
【図3】本発明の実施の形態2による信号処理装置を説明するブロック図である。
【図4】本発明の実施の形態3による信号処理装置を説明するブロック図である。
【図5】本発明の実施の形態4よる信号処理装置を説明するブロック図である。
【図6】従来の信号処理装置によりダビングするMPEGストリームのデータ構造を説明するための模式図である。
【図7】従来の信号処理装置を説明するためのブロック図である。
【符号の説明】
1,26 光ディスク(第1の記録媒体)
2 読出手段
3,3a 映像復号手段
4 映像符号化手段
5,5a 音声復号手段
6 音声符号化手段
7 記録手段
8 メモリカード(第2の記録媒体)
9a,9b,9c,9d,28 制御手段
10,27 駆動手段
11,13 D/Aコンバータ
12 TVモニタ
14 スピーカ
15,29 ユーザ操作部
16 音声データ抽出手段
17 映像データ抽出手段
18 解像度変換手段
101,102,103,104 信号処理装置
Cac,Cre,Cvc,Cd1,Cd2 制御信号
Darc 音声再符号化データ
Datc 圧縮音声データ
Dad 音声復号データ
Ds MPEGストリーム
Dvrc 映像再符号化データ
Dvtc 圧縮映像データ
Dvd 映像復号データ
Dw 書込データ
Sa アナログ音声信号
Sop,Sop1,Sop2 操作信号
Sv アナログ映像信号[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a signal processing method and a signal processing apparatus, and more particularly to a process for dubbing digital video data or digital audio data.
[0002]
[Prior art]
Conventionally, dubbing of an MPEG (Moving Picture Experts Group) stream (multi-encoded data) in which digital data such as moving image and audio is multiplexed is performed while maintaining the MPEG stream format.
[0003]
For example, when the video data is encoded by the MPEG2 system and the audio data is encoded by the MPEG1 system, the video encoded data and the audio encoded data are synchronized with each other. This is because they are multiplexed. That is, it is most efficient to dub the video encoded data and audio encoded data included in the MPEG stream together as an MPEG stream. Another reason for the conventional dubbing of an MPEG stream while maintaining the stream format is that a dubbing method other than such a dubbing method could not be considered.
[0004]
FIG. 6 is a diagram for explaining the MPEG stream.
Video data (video encoded data) Dvc encoded by the MPEG2 system and audio data (audio encoded data) Dac encoded by the AC3 system are multiplexed as MPEG streams Ds, respectively. Here, the AC3 system is an audio encoding system recommended in the DVD (Digital Versatile Disk) video standard. Specifically, the MPEG stream Ds includes the compressed video data Dvtc obtained by time-axis compressing the video encoded data Dvc so that it is multiplexed with the audio encoded data Dac, and the audio encoded data Dac. This includes compressed audio data Datc obtained by time-axis compression so as to be multiplexed with video encoded data Dvc.
[0005]
That is, the video encoded data Dvc has a data structure divided for each prescribed data unit (GOP), and forms, for example, a first GOP (Group of Pictures) as shown in FIG. Encoded video data Dvc1 corresponding to the first to sixteenth video frames F1 to F16 and video encoding corresponding to the seventeenth to thirty-second video frames F17 to F32 constituting the second GOP. Data Dvc2 is included. Further, as shown in FIG. 6, the compressed video data Dvtc includes time axis compressed data V1 to V3 corresponding to the first GOP and time axis compressed data V4 to V6 corresponding to the second GOP.
[0006]
Here, the time-axis compressed data V1 is obtained by time-compressing the front part of the video encoded data Dvc1 corresponding to the first GOP, and the time-axis compressed data V2 is the video encoded data. The time axis compressed data V3 is obtained by collectively compressing the intermediate portion of the data Dvc1 and the time axis compression of the video encoded data Dvc1. The time-axis compressed data V4 is obtained by time-axis compressing the front part of the video encoded data Dvc2 corresponding to the second GOP, and the time-axis compressed data V5 is the video encoded data. The time-axis compressed data V6 is obtained by collectively compressing the middle part of Dvc2 and time-axis compressed, and the time-axis compressed data V6 is obtained by collectively compressing the rear part of the video encoded data Dvc2.
[0007]
The I data (intra-screen encoded data) in the video encoded data Dvc1 corresponding to the first GOP corresponds to the frame F1, and P and B data (between the screens) corresponding to the frames F2 to F16. (Encoded data) is arranged following the I data corresponding to the frame F1. The I data (intra-screen encoded data) in the video encoded data Dvc2 corresponding to the second GOP corresponds to the frame F17, and P and B data (inter-screen) corresponding to the frames F18 to F32 (Encoded data) is arranged following the I data corresponding to the frame F17.
[0008]
Further, as shown in FIG. 6, the compressed audio data Datc includes time axis compressed data A1 to A3 corresponding to the first GOP and time axis compressed data A4 to A6 corresponding to the second GOP.
Here, the time-axis compressed data A1, A2, and A3 are obtained by time-axis compressing portions of the audio encoded data Dac that substantially correspond to the time-axis compressed data V1, V2, and V3 in the compressed video data Dvtc, respectively. It is what was done. The time-axis compressed data A4, A5, and A6 are obtained by time-axis compressing portions of the audio encoded data Dac that substantially correspond to the time-axis compressed data V4, V5, and V6 in the compressed video data Dvtc, respectively. It is a thing.
[0009]
FIG. 7 is a block diagram for explaining a dubbing process using a conventional signal processing apparatus, and shows a DVD player and a DVD recorder as the conventional signal processing apparatus.
First, a
The
[0010]
The
[0011]
The
[0012]
The
[0013]
Next, a
The
[0014]
The
[0015]
The
[0016]
The
[0017]
Next, the operation will be described.
First, the operation of the
In this
[0018]
That is, first, the optical disc 1 is driven by the driving means 10 controlled by the control signal Cd1, and the reading means 2 reads the data Ds from the optical disk 1. The read data Ds is supplied from the
[0019]
Specifically, the video decoding means 3 and the audio decoding means 5 are supplied with an MPEG stream including MPEG2 video encoded data and AC3 audio encoded data as the data Ds.
Then, the video decoding means 3 performs a video decoding process for extracting and decoding the MPEG2 video encoded data included in the MPEG stream Ds, and a baseband video signal Dvd is generated by the video decoding process. This video signal Dvd is output to the D /
In the D /
[0020]
Also, as described above, simultaneously with the reproduction of the video encoded data, the audio decoding means 5 performs audio decoding processing for extracting and decoding the AC3 audio encoded data included in the MPEG stream Ds. The processing generates a baseband PCM audio signal Dad. This audio signal Dad is output to the D /
The D /
[0021]
Next, a dubbing process for recording data recorded on the optical disc 1 as the first recording medium onto the
Before performing the dubbing process, the
[0022]
In the
Then, in the
[0023]
In other words, in the
In the
[0024]
The
The video encoded data Dvc and the audio encoded data Dac are multiplexed by the recording means 25 and recorded on the
In this manner, the dubbing process for recording the MPEG stream recorded on the optical disc 1 as the first recording medium onto the
[0025]
[Problems to be solved by the invention]
In recent years, portable recording media such as semiconductor memories are becoming widespread, and it may be considered that digital data such as moving image video and audio is dubbed onto such portable recording media.
[0026]
In such a dubbing process on a portable recording medium such as a semiconductor memory, the entire video data and audio data multiplexed as an MPEG stream is not recorded, but a part of the video data and audio data, or video There are cases where it is required to selectively record only one of data and audio data.
[0027]
However, in this case, in the conventional method of dubbing an MPEG stream while maintaining the stream format, only a part of video data and audio data multiplexed as an MPEG stream or only one of the video data and audio data is stored. It was difficult to record properly.
[0028]
The present invention has been made to solve the above-described problems, and selects required portions of audio data and video data multiplexed and recorded as an MPEG stream according to a user's specification. It is an object of the present invention to obtain a signal processing method and a signal processing apparatus that can be dubbed.
[0029]
[Means for Solving the Problems]
According to the signal processing method of the present invention (claim 1), data is read from a first recording medium on which multiplexed data obtained by multiplexing audio encoded data and video encoded data is recorded. A signal processing method for recording on a second recording medium, the reading step for reading the multiplexed data from the first recording medium, and at least one of audio encoded data and video encoded data included in the read multiplexed data A decoding step of decoding decoded data to generate decoded data, and a first encoding method used for encoding the encoded audio data and a first encoding method used for encoding the encoded video data. A re-encoding step for re-encoding to generate re-encoded data by an encoding method different from the encoding method of No. 2, and a recording method for recording the re-encoded data on the second recording medium. And a step includingThe video encoded data is obtained by encoding a video signal using the MPEG system as the second encoding system, and the decoding step includes the video code included in the read multiplexed data. A portion of the encoded data corresponding to at least one field or one frame is decoded to generate video decoded data, and the audio encoded data included in the read multiplexed data is converted into a portion related to the specific portion. Is a step of decoding a predetermined amount of data continuously to generate audio decoded data, and the re-encoding step re-encodes video by re-encoding at least a part of the video decoded data by the JPEG method. Generating the data and re-encoding the decoded speech data by a third encoding method different from the first encoding method; Te is the step of generating an audio recoding dataIt is characterized by this.
[0030]
The present invention (Claim 2) is the signal processing method according to Claim 1,In the recording step, AV multiplexed data obtained by multiplexing the video re-encoded data and the audio re-encoded data is recorded on the second recording medium.It is characterized by this.
[0037]
This invention (claim)3Is read out from the first recording medium on which the multiplexed data obtained by multiplexing the audio encoded data and the video encoded data is recorded and recorded on the second recording medium. And a reading step of reading the multiplexed data from the first recording medium, and a specific portion corresponding to at least one field or one frame of the video encoded data included in the read multiplexed data. Decoding and generating video decoded data, and decoding the audio encoded data included in the read multiplexed data by a certain amount of data continuously from the portion related to the specific portion, And the MPEG method using at least a part of the video decoded data for the encoding process of the video encoded data. And re-encoding by the JPEG method to generate video re-encoded data, and the decoded audio data is encoded by a third encoding different from the first encoding method used for encoding the audio encoded data. A re-encoding step of re-encoding according to a method to generate audio re-encoded data; and a recording step of recording the video re-encoded data and the audio re-encoded data on the second recording medium. It is characterized by.
According to the present invention (invention 4), in the signal processing method according to
[0040]
This invention (claim)5) Reads out data from the first recording medium on which the multiplexed data obtained by multiplexing the audio encoded data and the video encoded data is recorded, and records the data on the second recording medium A signal processing device for reading out the multiplexed data from the first recording medium, and a specific portion corresponding to at least one field or one frame of the encoded video data included in the read multiplexed data. Video decoding means for decoding and outputting video decoded data, and audio encoded data included in the read multiplexed data are continuously decoded from a portion related to the specific portion by a certain amount of data, An audio decoding means for outputting audio decoded data, and an MPEG system in which at least a part of the video decoded data is used for encoding the video encoded data; Video encoding means for re-encoding by different JPEG scheme and outputting video re-encoded data, and a first encoding scheme different from the first encoding scheme used for encoding the decoded audio data in the encoding processing of the audio encoded data Audio encoding means for re-encoding by the
According to a sixth aspect of the present invention, in the signal processing method according to the fifth aspect, the recording means includes the AV recording data obtained by multiplexing the video re-encoded data and the audio re-encoded data in the second recording. It is recorded on a medium.
[0042]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described below.
(Embodiment 1)
FIG. 1 is a block diagram for explaining a signal processing apparatus according to Embodiment 1 of the present invention.
The
[0043]
That is, the
[0044]
The
[0045]
The
[0046]
The
[0047]
Here, the recording means 7 is a multiplexing section that multiplexes the video re-encoded data Dvrc from the video encoding means 4 and the audio re-encoded data Darc from the audio encoding means 6 by time axis compression. (Not shown), and the multiplexed video re-encoded data and audio re-encoded data are recorded on the memory card 8 as AV multiplexed data Dw. The recording means 7 does not need to multiplex the video re-encoded data and the audio re-encoded data, and the video re-encoded data and the audio re-encoded data respectively correspond to the memory card 8. It may be recorded in the area.
[0048]
The control signal Cvc supplied to the video encoding means 4 designates a portion to be re-encoded of the baseband video signal Dvd, and the control signal supplied to the audio encoding means 6 Cac designates a portion of the baseband audio signal Dad to be re-encoded. In FIG. 1, the control signals output from the control means 9a to the driving means 10, the reading means 2, and the recording means 7 are not shown.
[0049]
Further, the video encoding means 4 uses the JPEG (Joint Photographic Coding Experts Group) method, which is a coding method different from the MPEG2 method, for the portion corresponding to one designated frame of the baseband video signal Dvd. It is to be encoded. The audio encoding means 6 also converts the baseband audio signal Dad into an AAC (audio encoding method suitable for the memory card 8 over several frames related to the designated one frame video. Advanced Audio Coding) is used for encoding.
[0050]
The
[0051]
Note that the reading means 2, video decoding means 3, audio decoding means 5, video encoding means 4, audio encoding means 6, recording means 7 and control means 9a, D constituting the
[0052]
Next, the operation will be described.
FIG. 2 is a diagram for explaining the MPEG stream recorded on the optical disc 1 and the multiplexed re-encoded data Dw recorded on the memory card 8, and the video encoded data shown in FIG. Dvc, compressed video data Dvtc, encoded audio data Dac, compressed audio data Datc, and MPEG stream Ds are the same as those shown in FIG.
[0053]
In the
[0054]
That is, first, the optical disk 1 is driven by the driving
Specifically, the video decoding means 3 and the audio decoding means 5 are supplied with an MPEG stream including MPEG2 video encoded data and AC3 audio encoded data as the data Ds.
[0055]
Then, the video decoding means 3 performs a video decoding process for extracting and decoding the MPEG2 video encoded data Devc from the MPEG stream Ds, and a baseband digital video signal Dvd is generated by the video decoding process. This digital video signal Dvd is output to the D /
In the D /
[0056]
Further, the
[0057]
The audio decoding means 5 performs audio decoding processing for extracting and decoding AC3 audio encoded data Deac from the MPEG stream Ds, and a baseband PCM digital audio signal Dad is generated by the audio decoding processing. . This digital audio signal Dad is output to the D /
In the D /
[0058]
Further, the speech encoding means 6 performs a re-encoding process for encoding the portion specified by the control signal Cac in the baseband digital speech signal Dad based on the control signal Cac from the control means 9a. For example, the audio encoding means 6 generates audio re-encoded data Darc by encoding the audio signal Dad related to the image of one video frame selected by the user for several frames from the video frame by the AAC method. Processing is performed. The audio encoding means 6 may encode the audio signal Dad by the MP3 (MPEG-1 audio layer 3) method instead of the AAC method.
[0059]
The video re-encoded data Dvrc generated by the
[0060]
Hereinafter, a user data designation method in the dubbing process and data recorded on the memory card 8 based on the user designation will be specifically described.
When a user performs a certain recording operation when an image that the user wants to record (for example, an image of the first frame F1) is displayed on the
Then, the
[0061]
At this time, the audio encoding means 6 performs a re-encoding process for encoding the audio signal Ba1 corresponding to the video signal ranging from the frame subjected to the encoding process to several frames, for example, the frames F1 to F8. The voice re-encoded data P1 obtained by the re-encoding process is output to the recording means 7.
Then, the recording means 7 associates the video re-encoded data J1 corresponding to the image of the one frame with the audio re-encoded data P1 corresponding to the image so as to be synchronously reproduced, and the memory card 8 To be recorded.
[0062]
When the image of the ninth frame F9 is displayed and the user performs a certain recording operation, the video signal S9 corresponding to the ninth frame in the baseband video signal Dvd is encoded, and As the baseband audio signal Dad related to the ninth frame, for example, an audio signal Ba2 corresponding to the ninth to eighteenth frames is encoded as shown in FIG. Then, the video re-encoded data J9 corresponding to the ninth frame and the audio re-encoded data P2 corresponding to the ninth to 18th frames are output to the recording means 7.
In the first embodiment, even when the recording operation as described above is performed, the
[0063]
As described above, in the
[0064]
In the first embodiment, one frame of video encoded data designated by the user (for example, one obtained by re-encoding video decoded data by the JPEG method) and a number of related audio codes However, the audio encoded data recorded together with the one-frame video encoded data is limited to audio encoded data over several frames related to the one-frame video encoded data. It is not a thing.
For example, audio encoded data over several minutes may be recorded as audio encoded data related to video encoded data of one frame specified by the user. Further, as audio encoded data related to the one frame, You may make it record all the audio | voice coding data corresponding to the music of about 3 to 5 minutes in length for 1 music.
[0065]
In the first embodiment, the case where one frame of video encoded data designated by the user and the audio encoded data over several frames related thereto are recorded has been described. However, the baseband video signal is interlaced. In the case of a signal, video encoded data of one field specified by the user and audio encoded data over several fields related thereto may be recorded.
[0066]
In the first embodiment, the signal processing device records video encoded data corresponding to one frame image (that is, a still image) designated by the user and audio encoded data over several frames related thereto. However, the signal processing apparatus may record several frames of images (that is, moving images) designated by the user and audio encoded data over several frames related thereto.
[0067]
For example, as shown in FIG. 2, when the user designates 20th to 25th frames F20 to F25, the signal processing apparatus obtains video signals S20 to S25 corresponding to these frames by encoding them according to the MPEG1 system. The video encoded data M1 and the audio encoded data C1 obtained by encoding the audio signal Ba3 corresponding to the frames F20 to F25 by the AAC system and multiplexed on the memory card 8 and recorded on the memory card 8. It may be. In such a signal processing device, when the user designates the 26th to 31st frames F26 to F31, the video coding obtained by encoding the video signals S26 to S31 corresponding to these frames by the MPEG1 system. Data M2 and audio encoded data C2 obtained by encoding the audio signal Ba4 corresponding to the frames F26 to F31 by the AAC method are multiplexed by the recording means 7 and recorded on the memory card 8. .
[0068]
In the first embodiment, the
[0069]
Furthermore, in the first embodiment, when the MPEG stream recorded on the first recording medium is dubbed as the signal processing device, both the video encoded data and the audio encoded data included in the MPEG stream are stored. Although the re-encoded recording is shown, the signal processing apparatus re-encodes one of the video encoded data and audio encoded data and re-encodes the other as dubbing processing of the MPEG stream. It is also possible to perform processing for recording as it is.
[0070]
In the first embodiment, when the video encoded data J1 corresponding to the frame F1 and the audio encoded data P1 corresponding to the frames F1 to F8 are recorded as the signal processing device, the
[0071]
In the first embodiment, the process of recording the video encoded data J1 corresponding to the frame F1 and the audio encoded data Ba1 corresponding to the frames F1 to F8 is performed by the user watching the image display on the
[0072]
(Embodiment 2)
FIG. 3 is a block diagram for explaining a signal processing apparatus according to
The
The other parts of the
[0073]
Next, the operation will be described.
In the
In the
[0074]
Hereinafter, the dubbing process of the second embodiment will be described.
In the
[0075]
At this time, the
[0076]
The video re-encoded data Dvrc generated by the video encoding means 4 and the audio encoded data Dac extracted by the audio
[0077]
In other words, in the
[0078]
As described above, in the
[0079]
In the
[0080]
(Embodiment 3)
FIG. 4 is a diagram for explaining a signal processing apparatus according to
The
The other parts of the
[0081]
Next, the operation will be described.
In the
In the
[0082]
Hereinafter, the dubbing process of the third embodiment will be described.
In the
[0083]
At this time, the speech encoding means 6 performs a re-encoding process for encoding the portion specified by the control signal Cac in the baseband speech signal Dad based on the control signal Cac from the control means 9c. The voice encoded data Darc obtained by the re-encoding process is output to the recording means 7. Further, the video data extraction means 17 performs a process of extracting a portion specified by the control signal Cve in the MPEG stream Ds based on the control signal Cve from the control means 9c, and the extracted video encoded data Dvc is extracted. Is output to the recording means 7.
The audio re-encoded data Darc generated by the audio encoding means 6 and the video encoded data Dvc extracted by the video data extracting means 17 are stored in the memory as a second recording medium by the recording means 7. Recorded on the card 8.
[0084]
That is, in the
[0085]
As described above, in the
[0086]
In the
[0087]
(Embodiment 4)
FIG. 5 is a diagram for explaining a signal processing apparatus according to
The
[0088]
Specifically, the
[0089]
Further, the
The other parts of the
[0090]
Next, the operation will be described.
The operation of the
That is, when the MPEG stream Ds read from the optical disc 1 is input to the video decoding means 3, the video decoding means 3 extracts video signal encoded data encoded by the MPEG2 system from the MPEG stream, A decoding process for decoding the video signal encoded data is performed, and the baseband video signal Dvd obtained by the decoding process is supplied to the D /
[0091]
On the other hand, in the resolution conversion means 18, based on the control signal Cre from the control means 9d, the pixel value of the image data corresponding to one frame is set in the horizontal direction of the image of one frame or the input video signal Dvd. Thinning processing is performed so that the number of pixels in the vertical direction decreases, and resolution-converted video data Drc in which the resolution or signal format is converted is output to the video encoding means 4.
[0092]
Then, the video encoding means 4 corresponds to the frame specified by the control signal in the resolution-converted video data Drc corresponding to the MPEG stream based on the control signal Cvc from the control means 9d, as in the first embodiment. A re-encoding process is performed in which the portion to be encoded is encoded by a predetermined encoding method. Here, even if the encoding method in the re-encoding process is the same MPEG method as the encoding method of the video encoded data included in the MPEG stream recorded on the optical disc 1, the video code included in the MPEG stream The JPEG method may be different from the encoded data encoding method.
[0093]
Similarly to the first embodiment, the audio encoded data included in the MPEG stream Ds read from the optical disc 1 is subjected to decoding processing by the audio decoding means 5, and the baseband obtained by the decoding processing is processed. The audio signal Dad is supplied to the D /
[0094]
When re-encoding speech decoded data, as described in the first embodiment, the encoding method is different from the encoding method of speech encoded data recorded on the first recording medium. Alternatively, as described in
[0095]
As described above, in the fourth embodiment, the reading means 2 for reading the MPEG stream Ds recorded on the optical disc 1 as the first recording medium, and the MPEG2 video encoding included in the read MPEG stream. The video decoding means 3 for decoding the data, the audio decoding means 5 for decoding the AAC audio encoded data included in the read MPEG stream, and the video decoded data Dvd output from the video decoding means 3 Resolution converting means 18 for performing resolution conversion processing, and the video data Drc obtained by the resolution conversion processing is re-encoded and recorded on the recording medium. Therefore, when the video encoded data is dubbed, the first recording medium The video encoded data recorded in the video can be recorded on the second recording medium by converting the resolution or signal format of the video encoded data. It becomes possible.
[0096]
In the fourth embodiment, as the resolution conversion processing for video data, the pixels constituting the image data of one frame are simply reduced so that the number of pixels in the horizontal direction or the vertical direction of one frame (screen) is simply reduced. Although the processing for thinning out the values is shown, the resolution conversion processing for the video data thins out the pixel values corresponding to the invalid pixels in one screen, and selects only the pixel values corresponding to a partial area of one screen (frame) You may do. In this case, it is possible to re-encode only the image data corresponding to the designated area on one screen.
In each of the above embodiments, a transport stream (TS), a program stream (PS), or the like is shown as an MPEG stream, but the MPEG stream is not limited to these.
[0097]
In each of the above-described embodiments, the MPEG2 system is shown as the MPEG encoding system of the video encoded data recorded as the MPEG stream on the first recording medium. The MPEG encoding system includes the MPEG1 system and the MPEG4 system. System, MPEG7 system, etc. may be used.
In each of the above embodiments, the AC3 method is used as the encoding method for the audio encoded data recorded as the MPEG stream on the first recording medium. However, the encoding method for the audio encoded data is this. For example, the audio encoding method corresponding to MPEG1 or MPEG2, the AAC method, the PCM method, or the like may be used.
[0098]
In each of the above-described embodiments, the AAC method is used as the encoding method used for the re-encoding process of the audio data. However, the encoding method used for the re-encoding process of the audio data is not limited to this. Any method different from the encoding method (for example, AC3) of the audio encoded data recorded on the first recording medium, such as the audio encoding method corresponding to MPEG1 or MPEG2, or the PCM method.
[0099]
In each of the above-described embodiments, the JPEG method is used as the encoding method used for the re-encoding process of the video data. However, the encoding method used for the re-encoding process of the video data is not limited to this. For example, H.M. 261 system, H.264. Any method different from the encoding method (for example, MPEG2 method) of video encoded data recorded on the first recording medium, such as the H.263 method and the wavelet method, may be used.
[0100]
In each of the above embodiments, the optical disk is taken as an example of the first recording medium. However, the first recording medium is not limited to the optical disk, but a hard disk, a magneto-optical disk, a magnetic disk, a semiconductor memory, or It may be a magnetic tape.
[0101]
In the first to third embodiments, the memory card 8 that is a semiconductor memory is taken as an example of the second recording medium. However, the second recording medium is not limited to these. For example, It may be a hard disk, optical disk, magneto-optical disk, or magnetic disk or magnetic tape.
In each of the above embodiments, the case where the first recording medium and the second recording medium are separate recording media has been described. However, these recording media may be the same.
In
[0102]
【The invention's effect】
As aboveClearlyAccording to such a signal processing device, the data is read out from the first recording medium on which the multiplexed data obtained by multiplexing the audio encoded data and the video encoded data is recorded, and recorded on the second recording medium. A signal processing method for reading out the multiplexed data from the first recording medium, and decoding data by decoding at least one of audio encoded data and video encoded data included in the read multiplexed data A decoding step for generating a first encoding method used for encoding the encoded audio data, and a second encoding method used for encoding the video encoded data; Includes a re-encoding step for re-encoding and generating re-encoded data by different encoding methods, and a recording step for recording the re-encoded data on the second recording medium. Since, characterized in that, the required portion of the audio data and video data recorded is multiplexed as MPEG stream, there is an effect that can be dubbed selected according to the specified user.
[0103]
Main departureClearlyAccording tothe aboveIn the signal processing method, the decoding step is a step of generating speech decoded data by decoding at least a part of the speech encoded data included in the read multiplexed data, and the re-encoding step is the speech decoding Since the data is re-encoded by a third encoding scheme different from the first encoding scheme and speech re-encoded data is generated as the re-encoded data, There is an effect that digitally dubbing can be performed by converting audio encoding data included in an MPEG stream or the like recorded on one recording medium into an encoding scheme optimal for the second recording medium. is there.
[0104]
Main departureClearlyAccording tothe aboveIn the signal processing method, the decoding step is a step of generating video decoded data by decoding at least part of the video encoded data included in the read multiplexed data, and the re-encoding step is the video decoding Since the data is re-encoded by a fourth encoding method different from the second encoding method, video re-encoded data is generated as the re-encoded data. There is an effect that digital dubbing can be performed on video encoded data included in an MPEG stream or the like recorded on one recording medium by converting the encoding method into an encoding method optimal for the second recording medium. is there.
[0105]
Main departureClearlyAccording tothe aboveIn the signal processing method, the decoding step generates video decoded data by decoding at least part of the video encoded data included in the read multiplexed data, and the re-encoding step includes the video decoding Re-encoding the data by a fourth encoding method different from the second encoding method to generate video re-encoded data, and the recording step includes audio data included in the read multiplexed data Since this is a step of recording at least a part of the encoded data and the video re-encoded data on the second recording medium, an MPEG stream recorded on the first recording medium, etc. The video encoded data and audio encoded data included in the video are converted only to the encoding method of the video encoded data into the optimal encoding method for the second recording medium. Te, there is an effect that can be digital dubbing.
[0106]
Main departureClearlyAccording tothe aboveIn the signal processing method, the decoding step is a step of generating speech decoded data by decoding at least a part of the speech encoded data included in the read multiplexed data, and the re-encoding step is the speech decoding The data is re-encoded by a third encoding method different from the first encoding method to generate audio re-encoded data, and the recording step is included in the read multiplexed data The MPEG stream recorded on the first recording medium is a step of recording at least a part of the encoded video data and the audio re-encoded data on the second recording medium. The video encoding data and the audio encoding data included in the encoding method of the audio encoding data only for the second recording medium Conversion to an effect that can be digital dubbing.
[0107]
Main departureClearlyAccording tothe aboveIn the signal processing method, the decoding step generates audio decoded data and video decoded data by decoding at least a part of the encoded audio data and at least a part of the encoded video data included in the read multiplexed data, respectively. The re-encoding step re-encodes the speech decoded data by a third encoding scheme different from the first encoding scheme to generate speech re-encoded data. Re-encoding the video decoded data by a fourth encoding method different from the second encoding method to generate video re-encoded data, and the recording step includes the audio re-encoding The data and the video re-encoded data are recorded in the second data recording medium, and are recorded in the first recording medium. Digitally dubbing video encoded data and audio encoded data included in an MPEG stream, etc., by converting the encoding method of each encoded data into an optimal encoding method for the second recording medium. There is an effect that can.
[0108]
Main departureClearlyAccording tothe aboveIn the signal processing method, the second encoding method is an MPEG method, and the fourth encoding method is a JPEG method. Therefore, the MPEG stream recorded on the first recording medium, etc. The video encoded data included in the image can be digitally dubbed by converting the MPEG system, which is the encoding system, to the JPEG system, which is the optimal encoding system for the second recording medium.
[0109]
Main departureClearlyAccording tothe aboveIn the signal processing method, the video encoded data is obtained by encoding a video signal using the MPEG system as the second encoding system, and the decoding step is included in the read multiplexed data. The video encoded data is decoded to generate a video decoded data by decoding a specific portion corresponding to at least one field or frame, and the audio encoded data included in the read multiplexed data is included in the specific portion. Decoding a predetermined amount of data continuously from related portions to generate audio decoded data, wherein the re-encoding step re-encodes at least a part of the video decoded data by the JPEG method to generate a video A re-encoded data is generated, and the decoded audio data is converted into a third encoding different from the first encoding method. Since it is a step of re-encoding according to an expression to generate audio re-encoded data, the specified video encoded data included in the MPEG stream recorded on the first recording medium is designated. A portion corresponding to one screen is converted from the MPEG method, which is the encoding method, to the JPEG method, which is the most suitable encoding method for the second recording medium, and a plurality of screens related to the designated screen. With the audio encoded data corresponding to the above, there is an effect that digital dubbing can be performed.
[0110]
Main departureClearlyAccording to such a signal processing method, data is read from a first recording medium on which multiplexed data obtained by multiplexing audio encoded data and video encoded data is recorded, and recorded on the second recording medium. And a reading step of reading the multiplexed data from the first recording medium, and a specific portion corresponding to at least one field or one frame of the video encoded data included in the read multiplexed data. Decoding and generating video decoded data, and decoding the audio encoded data included in the read multiplexed data by a certain amount of data continuously from the portion related to the specific portion, A decoding step for generating an MPEG method using at least a part of the video decoded data for encoding the video encoded data; Re-encoding by different JPEG scheme to generate video re-encoded data, and a third encoding different from the first encoding scheme used for encoding the encoded audio data A re-encoding step of re-encoding according to a method to generate audio re-encoded data; and a recording step of recording the video re-encoded data and the audio re-encoded data on the second recording medium. Therefore, the portion corresponding to one designated screen of the video encoded data included in the MPEG stream recorded on the first recording medium is changed to the MPEG method which is the second encoding method. In addition to the audio encoding data corresponding to a plurality of screens related to the designated screen, the digital format is converted into the JPEG format which is the most suitable encoding method for the recording medium. There is an effect that can be Rudabingu.
[0111]
Main departureClearlyAccording to such a signal processing method, data is read from a first recording medium on which multiplexed data obtained by multiplexing audio encoded data and video encoded data is recorded, and recorded on the second recording medium. A signal processing method for reading out the multiplexed data from the first recording medium, decoding at least a part of the encoded video data included in the read multiplexed data, A decoding step for generating, a conversion step for performing resolution conversion processing for thinning pixel values or conversion processing for converting a data format on the decoded video data, and generating converted video data; and the converted video data A re-encoding step for re-encoding the video to generate video re-encoded data, and a recording step for recording the video re-encoded data on the second recording medium. Therefore, when dubbing video encoded data, the video recording data recorded on the first recording medium is converted to the second recording by converting the resolution or signal format of the video encoded data. Recording on a medium becomes possible.
[0112]
Main departureClearlyAccording to such a signal processing device, the data is read out from the first recording medium on which the multiplexed data obtained by multiplexing the audio encoded data and the video encoded data is recorded, and recorded on the second recording medium. A signal processing device for reading out the multiplexed data from the first recording medium, and decoding data by decoding at least one of audio encoded data and video encoded data included in the read multiplexed data A first encoding method used for encoding the audio encoded data, and a second encoding method used for encoding the video encoded data; Comprises re-encoding means for re-encoding and outputting re-encoded data by different encoding methods, and recording means for recording the re-encoded data on the second recording medium, Runode, the required portion of the audio data and video data recorded is multiplexed as MPEG stream, there is an effect that can be dubbed selected according to the specified user.
[0113]
Main departureClearlyAccording to such a signal processing device, the data is read out from the first recording medium on which the multiplexed data obtained by multiplexing the audio encoded data and the video encoded data is recorded, and recorded on the second recording medium. A signal processing device for reading out the multiplexed data from the first recording medium, and a specific portion corresponding to at least one field or one frame of the encoded video data included in the read multiplexed data. Video decoding means for decoding and outputting video decoded data, and audio encoded data included in the read multiplexed data are continuously decoded from a portion related to the specific portion by a certain amount of data, MPEG decoding system that uses audio decoding means for outputting audio decoding data and at least a part of the video decoding data for encoding the video encoded data Is different from the first encoding method used for encoding the audio encoded data, and the video encoding means for re-encoding by the different JPEG method and outputting the video re-encoded data. Audio encoding means for re-encoding by the third encoding method to generate audio re-encoded data, and recording for recording the video re-encoded data and the audio re-encoded data on the second recording medium A portion corresponding to one designated screen of the encoded video data included in the MPEG stream recorded on the first recording medium is encoded by the encoding method. A certain MPEG system is converted into a JPEG system which is the most suitable encoding system for the second recording medium, and also with audio encoded data corresponding to a plurality of screens related to the designated screen. There is an effect that can be digital dubbing.
[0114]
Main departureClearlyAccording to such a signal processing device, the data is read out from the first recording medium on which the multiplexed data obtained by multiplexing the audio encoded data and the video encoded data is recorded, and recorded on the second recording medium. A signal processing device for reading out the multiplexed data from the first recording medium, and decoding at least a part of the encoded video data included in the read multiplexed data to obtain the decoded video data. A video decoding unit for generating, a data conversion unit for generating a converted video data by performing resolution conversion processing for thinning out pixel values or conversion processing for converting a data format on the video decoding data, and the converted video data Coding means for re-encoding video data to generate video re-encoded data, and recording means for recording the video re-encoded data on the second recording medium Therefore, when dubbing video encoded data, the video encoded data recorded on the first recording medium is recorded on the second recording medium by converting the resolution or signal format of the video encoded data. It becomes possible.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a signal processing device according to a first embodiment of the present invention.
FIG. 2 is a diagram for explaining signal processing in the signal processing apparatus according to the first embodiment;
FIG. 3 is a block diagram illustrating a signal processing device according to a second embodiment of the present invention.
FIG. 4 is a block diagram illustrating a signal processing device according to a third embodiment of the present invention.
FIG. 5 is a block diagram illustrating a signal processing device according to a fourth embodiment of the present invention.
FIG. 6 is a schematic diagram for explaining the data structure of an MPEG stream to be dubbed by a conventional signal processing apparatus.
FIG. 7 is a block diagram for explaining a conventional signal processing apparatus.
[Explanation of symbols]
1,26 Optical disc (first recording medium)
2 Reading means
3,3a Video decoding means
4 Video encoding means
5,5a Voice decoding means
6 Speech coding means
7 Recording means
8 Memory card (second recording medium)
9a, 9b, 9c, 9d, 28 Control means
10, 27 Driving means
11, 13 D / A converter
12 TV monitor
14 Speaker
15, 29 User operation unit
16 Voice data extraction means
17 Video data extraction means
18 Resolution conversion means
101, 102, 103, 104 Signal processing apparatus
Cac, Cre, Cvc, Cd1, Cd2 control signals
Darc voice re-encoded data
Datc compressed audio data
Dad audio decoding data
Ds MPEG stream
Dvrc video re-encoded data
Dvtc compressed video data
Dvd video decoding data
Dw write data
Sa Analog audio signal
Sop, Sop1, Sop2 operation signal
Sv analog video signal
Claims (6)
上記第1の記録媒体から上記多重データを読み出す読出ステップと、
該読み出した多重データに含まれる音声符号化データ及び映像符号化データの少なくとも一方を復号して復号データを生成する復号ステップと、
上記復号データを、上記音声符号化データの符号化処理に用いた第1の符号化方式及び上記映像符号化データの符号化処理に用いた第2の符号化方式とは異なる符号化方式により、再符号化して再符号化データを生成する再符号化ステップと、
該再符号化データを上記第2の記録媒体に記録する記録ステップとを含み、
上記映像符号化データは、映像信号を上記第2の符号化方式としてMPEG方式を用いて符号化して得られたものであり、
上記復号ステップは、上記読み出した多重データに含まれる映像符号化データの、少なくとも1フィールドあるいは1フレームに対応する特定部分を復号して、映像復号データを生成するとともに、上記読み出した多重データに含まれる音声符号化データを、その上記特定部分に関連する部分から連続して一定のデータ量だけ復号して、音声復号データを生成するステップであり、
上記再符号化ステップは、上記映像復号データの少なくとも一部をJPEG方式により再符号化して映像再符号化データを生成するとともに、上記復号音声データを、上記第1の符号化方式とは異なる第3の符号化方式により再符号化して、音声再符号化データを生成するステップであることを特徴とする信号処理方法。A signal processing method of reading data from a first recording medium on which multiplexed data obtained by multiplexing audio encoded data and video encoded data is recorded and recording the data on a second recording medium,
A step of reading the multiplexed data from the first recording medium;
A decoding step of decoding at least one of audio encoded data and video encoded data included in the read multiplexed data to generate decoded data;
The decoded data is encoded by a different encoding method from the first encoding method used for encoding the audio encoded data and the second encoding method used for encoding the video encoded data. A re-encoding step for re-encoding to generate re-encoded data;
The該再encoded data look including a recording step of recording in the second recording medium,
The video encoded data is obtained by encoding a video signal using the MPEG system as the second encoding system,
The decoding step decodes a specific portion corresponding to at least one field or one frame of the encoded video data included in the read multiplexed data to generate video decoded data, and is included in the read multiplexed data. Decoded speech encoded data is continuously decoded from a portion related to the specific portion by a certain amount of data to generate speech decoded data,
The re-encoding step generates video re-encoded data by re-encoding at least a part of the video decoded data by the JPEG method, and the decoded audio data is different from the first encoding method. 3. A signal processing method, which is a step of re-encoding with the encoding method 3 to generate speech re-encoded data .
上記第1の記録媒体から上記多重データを読み出す読出ステップと、
上記読み出した多重データに含まれる映像符号化データの、少なくとも1フィールドまたは1フレームに対応する特定部分を復号して、映像復号データを生成するとともに、上記読み出した多重データに含まれる音声符号化データを、その上記特定部分に関連する部分から連続して一定のデータ量だけ復号して、音声復号データを生成する復号ステップと、
上記映像復号データの少なくとも一部を、上記映像符号化データの符号化処理に用いたMPEG方式とは異なるJPEG方式により再符号化して映像再符号化データを生成するとともに、上記復号音声データを、上記音声符号化データの符号化処理に用いた第1の符号化方式とは異なる第3の符号化方式により再符号化して、音声再符号化データを生成する再符号化ステップと、
上記映像再符号化データ及び上記音声再符号化データを上記第2の記録媒体に記録する記録ステップとを含むことを特徴とする信号処理方法。A signal processing method of reading data from a first recording medium on which multiplexed data obtained by multiplexing audio encoded data and video encoded data is recorded and recording the data on a second recording medium,
A step of reading the multiplexed data from the first recording medium;
The video encoded data included in the read multiplexed data is decoded to generate video decoded data by decoding a specific portion corresponding to at least one field or frame, and the audio encoded data included in the read multiplexed data. Decoding a predetermined amount of data continuously from a portion related to the specific portion to generate speech decoded data;
At least a part of the video decoded data is re-encoded by a JPEG scheme different from the MPEG scheme used for the encoding processing of the video encoded data to generate video re-encoded data, and the decoded audio data is A re-encoding step of re-encoding by a third encoding method different from the first encoding method used for the encoding process of the audio encoded data to generate audio re-encoded data;
A recording step of recording the video re-encoded data and the audio re-encoded data on the second recording medium.
上記第1の記録媒体から上記多重データを読み出す読出手段と、
上記読み出した多重データに含まれる映像符号化データの、少なくとも1フィールドまたは1フレームに対応する特定部分を復号して、映像復号データを出力する映像復号手段と、
上記読み出した多重データに含まれる音声符号化データを、その上記特定部分に関連する部分から連続して一定のデータ量だけ復号して、音声復号データを出力する音声復号手段と、
上記映像復号データの少なくとも一部を、上記映像符号化データの符号化処理に用いたMPEG方式とは異なるJPEG方式により再符号化して映像再符号化データを出力する映像符号化手段と、
上記復号音声データを、上記音声符号化データの符号化処理に用いた第1の符号化方式とは異なる第3の符号化方式により再符号化して、音声再符号化データを生成する音声符号化手段と、
上記映像再符号化データ及び上記音声再符号化データを上記第2の記録媒体に記録する記録手段とを備えたことを特徴とする信号処理装置。A signal processing device that reads data from a first recording medium on which multiplexed data obtained by multiplexing audio encoded data and video encoded data is recorded and records the data on a second recording medium,
Reading means for reading the multiplexed data from the first recording medium;
Video decoding means for decoding a specific portion corresponding to at least one field or one frame of video encoded data included in the read multiplexed data and outputting video decoded data;
Speech decoding means for decoding speech encoded data included in the read multiplexed data by a predetermined amount of data continuously from a portion related to the specific portion, and outputting speech decoded data;
Video encoding means for re-encoding at least a part of the video decoded data by a JPEG system different from the MPEG system used for the encoding process of the video encoded data and outputting video re-encoded data;
Speech coding that re-encodes the decoded speech data by a third encoding method different from the first encoding method used for the encoding processing of the speech encoded data to generate speech re-encoded data Means,
A signal processing apparatus comprising: recording means for recording the video re-encoded data and the audio re-encoded data on the second recording medium.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001226421A JP4510337B2 (en) | 2000-07-26 | 2001-07-26 | Signal processing method and signal processing apparatus |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000-225018 | 2000-07-26 | ||
JP2000225018 | 2000-07-26 | ||
JP2001226421A JP4510337B2 (en) | 2000-07-26 | 2001-07-26 | Signal processing method and signal processing apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2002135717A JP2002135717A (en) | 2002-05-10 |
JP4510337B2 true JP4510337B2 (en) | 2010-07-21 |
Family
ID=26596688
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001226421A Expired - Fee Related JP4510337B2 (en) | 2000-07-26 | 2001-07-26 | Signal processing method and signal processing apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4510337B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005072799A (en) * | 2003-08-21 | 2005-03-17 | Ricoh Co Ltd | Recording apparatus and recording method |
US20080118228A1 (en) * | 2004-09-03 | 2008-05-22 | Pioneer Corporation | Information Recording Device and Method, Information Reproducing Device and Method, Information Recording/Reproducing Device and Method, and Computer Program |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH057356A (en) * | 1991-06-27 | 1993-01-14 | Olympus Optical Co Ltd | Image recording/reproducing device |
JPH09107519A (en) * | 1995-10-06 | 1997-04-22 | Matsushita Electric Ind Co Ltd | Compressed image data processing method and compressed image data processor |
JPH10336672A (en) * | 1997-05-30 | 1998-12-18 | Oki Electric Ind Co Ltd | Encoding system converter and motion vector detection method therefor |
JPH11164247A (en) * | 1997-11-27 | 1999-06-18 | Nec Corp | Audio and still image recording device |
-
2001
- 2001-07-26 JP JP2001226421A patent/JP4510337B2/en not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH057356A (en) * | 1991-06-27 | 1993-01-14 | Olympus Optical Co Ltd | Image recording/reproducing device |
JPH09107519A (en) * | 1995-10-06 | 1997-04-22 | Matsushita Electric Ind Co Ltd | Compressed image data processing method and compressed image data processor |
JPH10336672A (en) * | 1997-05-30 | 1998-12-18 | Oki Electric Ind Co Ltd | Encoding system converter and motion vector detection method therefor |
JPH11164247A (en) * | 1997-11-27 | 1999-06-18 | Nec Corp | Audio and still image recording device |
Also Published As
Publication number | Publication date |
---|---|
JP2002135717A (en) | 2002-05-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2993351B2 (en) | Compressed data recording device | |
JP2004072793A (en) | Video recording method and device, video replay method and device, and recording medium | |
US7756203B2 (en) | Image processing apparatus | |
WO2010086912A1 (en) | Recording apparatus and recording method | |
JP3551887B2 (en) | Moving image reproducing method and apparatus | |
US7236688B2 (en) | Signal processing method and signal processing apparatus | |
EP1339233B1 (en) | Audio/video data recording/reproducing device and method, and audio/video data reproducing device and method | |
JP4510337B2 (en) | Signal processing method and signal processing apparatus | |
JPH0946630A (en) | Image information recorder, image information reproducing device and optical disk | |
JP2000509873A (en) | Method and apparatus for recording and reproducing video images | |
JP4289055B2 (en) | Transcoder and recording / reproducing apparatus using the same | |
JPH09163305A (en) | Television receiver with built-in disk device | |
JP2008098689A (en) | Image data processing apparatus and method thereof, program and recording medium | |
JPH10276395A (en) | Image processing unit, image processing method and recording medium | |
JP4703733B2 (en) | Video / audio playback device | |
JP3890655B2 (en) | Digital signal reproduction method and apparatus | |
JPH06302103A (en) | Digital information recording device and digital information reproducing device | |
JP3093153U (en) | Optical disk drive | |
JP3441795B2 (en) | Playback device | |
JP2932939B2 (en) | Video signal switching device | |
JP2002209186A (en) | Video and sound data recording system in mpeg system and its editing system | |
JP2004320081A (en) | Video signal recording apparatus and method, and video signal output apparatus and method | |
JP2003284005A (en) | Data processing device | |
JP2004120035A (en) | Video image recording/reproducing apparatus | |
JP2003333528A (en) | Apparatus and method for recording and reproducing compressed video image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080603 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100114 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100119 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100319 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100407 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100430 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130514 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4510337 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130514 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |