JP2004362721A - Method and device for creating data, method and device for reproducing data, and program - Google Patents

Method and device for creating data, method and device for reproducing data, and program Download PDF

Info

Publication number
JP2004362721A
JP2004362721A JP2003163153A JP2003163153A JP2004362721A JP 2004362721 A JP2004362721 A JP 2004362721A JP 2003163153 A JP2003163153 A JP 2003163153A JP 2003163153 A JP2003163153 A JP 2003163153A JP 2004362721 A JP2004362721 A JP 2004362721A
Authority
JP
Japan
Prior art keywords
data
frame
encrypted
code string
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2003163153A
Other languages
Japanese (ja)
Inventor
Kiyouya Tsutsui
京弥 筒井
Naoya Haneda
直也 羽田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2003163153A priority Critical patent/JP2004362721A/en
Publication of JP2004362721A publication Critical patent/JP2004362721A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To prevent unnecessary noise from being outputted when reproducing a partly enciphered audio code train. <P>SOLUTION: The audio code train is composed of enciphered frames including enciphered data and silence data, and frames not including enciphered data. In a decoder, when a cipher deciphering key which is recorded in the enciphered frames and decodes the enciphered data is not acquired, the enciphered data are not reproduced for the reproduction period of the enciphered frames, but silence is outputted (sound is not outputted) based on the silence data. Therefore, for the reproduction periods of the frames 1 to 3 and the frames 7 to 9, sound is not outputted. Moreover, for the reproduction periods of the frames 4 to 6, sound for audition is outputted on the basis of a code train described in each frame. This invention is applicable to a personal computer capable of processing an audio code train. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、データ生成方法およびデータ生成装置、データ再生方法およびデータ再生装置、並びにプログラムに関し、特に、より好適な再生音が得られるオーディオデータを生成または再生することができるようにするデータ生成方法およびデータ生成装置、データ再生方法およびデータ再生装置、並びにプログラムに関する。
【0002】
【従来の技術】
符号化されたオーディオ信号や音声信号等を記録する記録媒体として、例えば、MD(MiniDisk)(商標)などの光磁気ディスクなどが一般的に普及しており、このような記録媒体にオーディオ信号等を記録させるための様々な高能率符号化の方法が提案されている。
【0003】
例えば、時間軸上のオーディオ信号をブロック化せず、複数の周波数帯域に分割して符号化する帯域分割符号化(SBC(Sub Band Coding))や、時間軸上の信号を周波数軸上の信号にスペクトル変換して、複数の周波数帯域に分割し、帯域毎に符号化するブロック化周波数帯域分割方式(いわゆる、変換符号化)などがある。また、帯域分割符号化で帯域分割を行った後、各帯域において、信号を周波数軸上の信号にスペクトル変換し、スペクトル変換された帯域毎に符号化を施す手法も考えられている。
【0004】
ここで利用されるフィルタには、例えば、QMF(Quadrature Mirror Filter)があり、このQMFについては、R.E.Crochiereによる非特許文献1に、その詳細が記載されている。また、Joseph H.Rothweilerによる非特許文献2には、等しいバンド幅のフィルタ分割手法について記載されている。
【0005】
また、上述したスペクトル変換としては、例えば、入力オーディオ信号を所定の単位時間(フレーム)でブロック化し、そのブロック毎に、離散フーリエ変換(DFT(Discrete Fourier Transform))、離散コサイン変換(DCT(Discrete Cosine Transform))、モデファイドDCT変換(MDCT(Modified Discrete Cosine Transform))などがある。これらのうちのMDCTについての詳細は、J.P.Princen,A.B.Bradley(Univ. of Surrey Royal Melbourne Inst. of Tech.)らによる非特許文献3に述べられている。
【0006】
また、波形信号をスペクトル変換する方法としてDFTやDCTが用いられた場合、M個のサンプルからなる時間ブロックで変換を行うと、M個の独立した実数データが得られる。時間ブロック間の接続ひずみを軽減するために、通常、両隣のブロックと、それぞれN/2個ずつ、すなわち、両側合わせてN個のサンプルをオーバーラップさせるので、DFTやDCTにおいては、平均して、(M+N/2)個のサンプルに対して、独立したM個の実数データを量子化して符号化することになる。
【0007】
これに対して、スペクトル変換する方法としてMDCTが用いられた場合には、M個のサンプルからなる時間ブロックで変換を行うと、両隣のブロックとそれぞれM/2個ずつ、すなわち、両側合わせてM個オーバーラップさせた2M個のサンプルから、M個の独立した実数データが得られるので、MDCTでは、平均して、M個のサンプルに対して、M個の実数データを、量子化して符号化することになる。
【0008】
復号装置においては、MDCTを用いて得られた符号から、各ブロックを逆変換して得られた波形要素を、お互いに干渉させながら加え合わせることにより、波形信号を再構成することができる。
【0009】
一般に、変換のための時間ブロックを長くすることによって、スペクトルの周波数分解能が高まり、特定のスペクトル成分にエネルギが集中する。従って、両隣のブロックと半分ずつオーバーラップさせることにより、長いブロック長で変換を行い、しかも、得られたスペクトル信号の個数が、基となった時間サンプルの個数に対して増加しないMDCTを用いて変換を施すことにより、変換にDFTやDCTを用いた場合より、効率よく符号化を行うことができる。また、隣接するブロック同士に十分長いオーバーラップを持たせることにより、波形信号のブロック間歪みを軽減することができる。
【0010】
上述したように、フィルタリングやスペクトル変換によって、帯域毎に分割された信号を量子化することにより、量子化雑音が発生する帯域を制御することができ、マスキング効果などの性質を利用して、聴覚的に、より高能率な符号化を行うことができる。また、量子化を行う前に、帯域毎に、例えば、その帯域における信号成分の絶対値の最大値で正規化を行うようにすることにより、更に、高能率な符号化を行うことができる。
【0011】
周波数帯域分割された各周波数成分を量子化する場合、例えば、人間の聴覚特性を考慮して、周波数分割幅が決定されるようにしても良い。すなわち、一般に臨界帯域(クリティカルバンド)と称される高域ほど帯域幅が広くなるように、オーディオ信号が複数の帯域(例えば、25バンド)に分割されるようにしても良い。
【0012】
また、クリティカルバンドが広くなるように帯域が分割されている場合に、帯域毎のデータが符号化されるとき、帯域毎に所定のビット配分が行われるようにしても良いし、帯域毎に適応的にビットが割り当てられる(ビットアロケーションが行われる)ようにしても良い。
【0013】
例えば、MDCTされて得られた係数データが、ビットアロケーションによって符号化される場合、ブロック毎のMDCTにより得られる帯域毎のMDCT係数データに対して、それぞれ、適応的にビット数が割り当てられて、符号化が行われる。ビット割り当ての手法としては、例えば、非特許文献4および5に記載されているような2つの手法が知られている。
【0014】
R.Zelinski,P.Nollらによる非特許文献4では、帯域毎の信号の大きさを基に、ビット割り当てが行われることについて記載されている。この方式によると、量子化雑音スペクトルが平坦となり、雑音エネルギは最小となるが、聴覚的に考慮した場合、マスキング効果が利用されていないため、人間の耳に実際聞こえる雑音を減少させる点では好ましくない。
【0015】
また、M.A.Kransner(Massachusetts Institute of Technology)による、非特許文献5には、聴覚マスキングを利用することで、各帯域毎に必要な信号対雑音比を得て、固定的なビット割り当てを行う手法が記載されている。しかしながら、この手法では、サイン波入力で特性を測定する場合にもビット割り当てが固定的であるために、その特性値は、それほど良い値とはならない。
【0016】
これらの問題を解決するために、ビット割り当てに使用できる全ビットが、小ブロック毎に予め定められた固定ビット割り当てパターン分と、各ブロックの信号の大きさに依存したビット割り当てを行う分とに分割使用され、その分割比が、入力信号に関係する信号に依存され、その信号のスペクトルが滑らかなほど、固定ビット割り当てパターン分への分割比率が大きくされるような高能率符号化が提案されている。
【0017】
この方法を用いることにより、サイン波入力のように、特定のスペクトルにエネルギが集中する場合には、そのスペクトルを含むブロックに多くのビット数を割り当てることができるので、全体的な信号対雑音特性を著しく改善することができる。一般的に、急峻なスペクトル成分を持つ信号に対する人間の聴覚は、極めて敏感であるため、このような方法を用いて信号対雑音特性を改善することは、測定上の特性値のみならず、人間が実際に聞く音の質を改善するのに有効である。
【0018】
ビット割り当ての方法には、上述した以外にも、多くの方法が提案されている。更に、聴覚に関するモデルが精緻化され、符号化装置の能力が向上したことにより、測定上の特性値のみならず、人間の聴覚に対してより高能率な符号化を行うことが可能となっている。これらの方法においては、計算によって求められた信号対雑音特性を、なるべく忠実に実現するような実数のビット割り当て基準値が求められ、それを近似する整数値が求められて、割り当てビット数に設定されるのが一般的である。
【0019】
また、本出願人により先に出願された特許文献1および2には、生成されたスペクトル信号から、聴覚上、特に重要なトーン性の成分、すなわち、特定の周波数周辺にエネルギが集中しているような成分を分離して、他のスペクトル成分とは別に符号化する方法について記載されている。この方法により、オーディオ信号などを、聴覚上の劣化を殆ど感じさせずに、高い圧縮率で効果的に符号化することが可能となっている。
【0020】
実際の符号列を生成する場合、まず、正規化および量子化が行われる帯域毎に、量子化精度情報および正規化係数情報が、所定のビット数で符号化され、次に、正規化、および量子化されたスペクトル信号が符号化される。また、ISO/IEC 11172−3;(1993(E),a933)では、帯域によって量子化精度情報を表すビット数が異なるように設定された高能率符号化方式が記述されており、帯域が高域になるにともなって、量子化精度情報を表すビット数が少なくなるように規格化されている。
【0021】
量子化精度情報を直接符号化する代わりに、復号装置において、例えば、正規化係数情報から量子化精度情報を決定する方法も知られているが、この方法では、規格を設定した時点で、正規化係数情報と、量子化精度情報との関係が決まってしまうので、将来的に、更に高度な聴覚モデルに基づいた量子化精度を用いる制御を導入することができなくなってしまう。また、実現する圧縮率に幅がある場合には、圧縮率毎に正規化係数情報と量子化精度情報との関係を定める必要が生じてしまう。
【0022】
量子化されたスペクトル信号を、より効率的に符号化する方法として、例えば、D.A.Huffmanによる非特許文献6に記載されているように、可変長符号を用いて効率的に符号化を行う方法も知られている。
【0023】
ところで、特許文献3に開示されているように、以上のようにして符号化された音楽データに対して、さらに、試聴帯域を制限するなどして作成した、低音質でのみ再生が可能な試聴データを利用者に配布することが知られている。これにより、利用者は、低音質であるものの、オリジナルの音楽データの全容を把握することができる。また、試聴データを試聴して気に入った場合には、利用者は、試聴データを高音質のオリジナルの音楽データに復元することができる情報のみを別途購入することで、オリジナルの音楽データを復元して利用することができる。
【0024】
また、試聴データの作成方法として、符号化された音楽データのうち、一部のフレームのみを暗号化して、暗号化されていない部分を試聴データとすることも知られている。試聴データを試聴し、気に入った場合、利用者は、暗号を復号するための鍵を別途購入し、それを用いて、オリジナルの音楽データを利用する。これによれば、試聴データからオリジナルのデータを復元するためには、比較的データ量の少ない鍵データのみをダウンロードする(取得する)だけでよいため、オリジナルの音楽データ全体をダウンロードする場合に較べて、通信時間を短縮することができる。例えば、この暗号化の方式としては、非特許文献6に記載されているDES(Data Encryption Standard)などがある。
【0025】
【特許文献1】
特願平5−152865号公報
【特許文献2】
国際公開94/28633号パンフレット
【特許文献3】
特開平10−135944号公報
【非特許文献1】
”Digital coding of speech in subbands”
(BellSyst.Tech.J.Vol.55, No.8 1974)
【非特許文献2】
”Polyphase Quadrature Fitters−A new subband coding technique”
(ICASSP 83, BOSTON)
【非特許文献3】
”Subband / Transform Cording Using Filter Bank Designs Based on Time Domain Aliasing Cancellation”
(ICASSP 1987)
【非特許文献4】
”Adaptive Transform Coding of Speech Signals”
(IEEE Transactions of Acoustics, Speech, and Signal Processing, Vol. ASSP−25, No. 4, August 1977)
【非特許文献5】
”The critical band coder digital encoding of the perceptual requirements of the auditory system”
(ICASSP 1980)
【非特許文献6】
”Federal Information Processing Standards Publication 46Specifications for the DATA ENCRYPTION STANDARD”(1977, January 15)
【0026】
【発明が解決しようとする課題】
しかしながら、上述したように、一部のフレームのみを暗号化したものを試聴データとして用いた場合、試聴データを再生する通常の再生装置(一部のフレームが暗号化されたフォーマットの音楽データを処理できない装置)においては、暗号化されたフレームであろうと、これを暗号化されていない通常の符号列として再生が行われるため、ひどい雑音が発生されることがあるという課題があった。
【0027】
このことは、試聴データを試聴した利用者に不快感を与え、オリジナルの音楽データを購入しようとする意欲を削ぐことにもなり、コンテンツの配信事業者の側としても好ましくない。また、そのような雑音を出力するスピーカにも悪影響を及ぼすおそれがある。
【0028】
本発明はこのような状況に鑑みてなされたものであり、一部のフレームのみを暗号化したものを試聴データとして用いた場合であっても、それを再生したときに、不要な雑音を出力させないようにすることで、より好適な試聴データを提供することができるようにするものである。
【0029】
【課題を解決するための手段】
本発明のデータ生成方法は、入力信号の一部を表す暗号化データを含む暗号化データフレーム内に、この暗号化データフレームの再生期間に所定の音を出力することを、データ列を再生するデータ再生装置に対して指示するデータを付加する付加ステップと、暗号化データフレーム、および、入力信号の一部を表すデータを含むデータフレームからなるデータ列を生成する生成ステップとを含むことを特徴とする。
【0030】
前記付加ステップの処理では、前記暗号化データフレーム以降にある、最初のデータフレームからの復号を指示するデータがさらに付加されるようにすることができる。
【0031】
最初のデータフレームからの復号を指示するデータは、連続する複数の暗号化データフレームのうちの、最初の暗号化データフレームに付加されるようにすることができる。
【0032】
本発明のデータ生成装置は、入力信号の一部を表す暗号化データを含む暗号化データフレーム内に、この暗号化データフレームの再生期間に所定の音を出力することを、データ列を再生するデータ再生装置に対して指示するデータを付加する付加手段と、暗号化データフレーム、および、入力信号の一部を表すデータを含むデータフレームからなるデータ列を生成する生成手段とを備えることを特徴とする。
【0033】
本発明の第1のプログラムは、入力信号の一部を表す暗号化データを含む暗号化データフレーム内に、この暗号化データフレームの再生期間に所定の音を出力することを、データ列を再生するデータ再生装置に対して指示するデータを付加する付加ステップと、暗号化データフレーム、および、入力信号の一部を表すデータを含むデータフレームからなるデータ列を生成する生成ステップとを含むことを特徴とする。
【0034】
本発明のデータ再生方法は、所定の信号の一部を表す暗号化データを含む暗号化データフレーム、および、所定の信号の一部を表すデータを含むデータフレームからなるデータ列を復号する復号ステップと、復号ステップの処理による復号対象のフレームが暗号化データフレームである場合、この暗号化データフレームの再生期間には所定の音を出力する出力ステップとを含むことを特徴とする。
【0035】
前記復号ステップによる処理では、復号対象の暗号化データフレームに、この暗号化データフレーム以降にある、最初のデータフレームからの復号を指示するデータが含まれている場合、指示されるデータフレームからの復号が行われるようにすることができる。
【0036】
前記復号ステップによる処理では、復号したデータが無音を表すデータである場合、復号した無音を表すデータに基づく再生をスキップするようにすることができる。
【0037】
本発明のデータ再生装置は、所定の信号の一部を表す暗号化データを含む暗号化データフレーム、および、所定の信号の一部を表すデータを含むデータフレームからなるデータ列を復号する復号手段と、復号手段による復号対象のフレームが暗号化データフレームである場合、この暗号化データフレームの再生期間には所定の音を出力する出力手段とを備えることを特徴とする。
【0038】
本発明の第2のプログラムは、所定の信号の一部を表す暗号化データを含む暗号化データフレーム、および、所定の信号の一部を表すデータを含むデータフレームからなるデータ列を復号する復号ステップと、復号ステップの処理による復号対象のフレームが暗号化データフレームである場合、この暗号化データフレームの再生期間には所定の音を出力する出力ステップとを含むことを特徴とする。
【0039】
本発明のデータ生成方法およびデータ生成装置、並びに第1のプログラムにおいては、入力信号の一部を表す暗号化データを含む暗号化データフレーム内に、この暗号化データフレームの再生期間に所定の音を出力することを、データ列を再生するデータ再生装置に対して指示するデータが付加され、暗号化データフレーム、および、入力信号の一部を表すデータを含むデータフレームからなるデータ列が生成される。
【0040】
本発明のデータ再生方法およびデータ再生装置、並びに第2のプログラムにおいては、所定の信号の一部を表す暗号化データを含む暗号化データフレーム、および、所定の信号の一部を表すデータを含むデータフレームからなるデータ列が復号され、復号対象のフレームが暗号化データフレームである場合、この暗号化データフレームの再生期間には所定の音が出力される。
【0041】
【発明の実施の形態】
以下に本発明の実施の形態を説明するが、請求項に記載の構成要件と、発明の実施の形態における具体例との対応関係を例示すると、次のようになる。この記載は、請求項に記載されている発明をサポートする具体例が、発明の実施の形態に記載されていることを確認するためのものである。従って、発明の実施の形態中には記載されているが、構成要件に対応するものとして、ここには記載されていない具体例があったとしても、そのことは、その具体例が、その構成要件に対応するものではないことを意味するものではない。逆に、具体例が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その具体例が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。
【0042】
請求項1に記載のデータ生成方法は、入力信号からデータ列(例えば、図7のオーディオ符号列)を生成するデータ生成方法であって、前記入力信号の一部を表す暗号化データを含む暗号化データフレーム(暗号化フレーム)内に、この暗号化データフレームの再生期間に所定の音を出力すること(例えば、無音を出力すること)を、前記データ列を再生するデータ再生装置に対して指示するデータ(例えば、無音符号列)を付加する付加ステップ(例えば、図16のステップS9)と、前記暗号化データフレーム(例えば、図7のフレーム1)、および、前記入力信号の一部を表すデータを含むデータフレーム(例えば、図7のフレーム4)からなる前記データ列を生成する生成ステップ(例えば、図16のステップS4,S12)とを含むことを特徴とする。
【0043】
請求項2に記載のデータ生成方法の付加ステップの処理では、前記暗号化データフレーム以降にある、最初の前記データフレームからの復号を指示するデータ(例えば、スキップフレーム数)がさらに付加されることを特徴とする。
【0044】
請求項3に記載のデータ生成方法の、最初の前記データフレームからの復号を指示する前記データは、連続する複数の前記暗号化データフレームのうちの、最初の暗号化データフレームに付加されることを特徴とする。
【0045】
請求項4に記載のデータ生成方法の前記所定の音は無音であることを特徴とする。
【0046】
請求項5に記載のデータ生成装置は、入力信号からデータ列(例えば、図7のオーディオ符号列)を生成するデータ生成装置であって、前記入力信号の一部を表す暗号化データを含む暗号化データフレーム(暗号化フレーム)内に、この暗号化データフレームの再生期間に所定の音を出力すること(例えば、無音を出力すること)を、前記データ列を再生するデータ再生装置に対して指示するデータ(例えば、無音符号列)を付加する付加手段(例えば、図6の無音符号列発生手段84)と、前記暗号化データフレーム(例えば、図7のフレーム1)、および、前記入力信号の一部を表すデータを含むデータフレーム(例えば、図7のフレーム4)からなる前記データ列を生成する生成手段(例えば、図6の符号列選択手段87)とを備えることを特徴とする。
【0047】
請求項6に記載のプログラムは、入力信号からデータ列(例えば、図7のオーディオ符号列)を生成する処理をコンピュータに実行させるプログラムであって、前記入力信号の一部を表す暗号化データを含む暗号化データフレーム(暗号化フレーム)内に、この暗号化データフレームの再生期間に所定の音を出力すること(例えば、無音を出力すること)を、前記データ列を再生するデータ再生装置に対して指示するデータ(例えば、無音符号列)を付加する付加ステップ(例えば、図16のステップS9)と、前記暗号化データフレーム(例えば、図7のフレーム1)、および、前記入力信号の一部を表すデータを含むデータフレーム(例えば、図7のフレーム4)からなる前記データ列を生成する生成ステップ(例えば、図16のステップS4,S12)とを含むことを特徴とする。
【0048】
請求項7に記載のデータ再生方法は、所定の信号の一部を表す暗号化データを含む暗号化データフレーム、および、所定の信号の一部を表すデータを含むデータフレームからなるデータ列を復号する復号ステップ(例えば、図17のステップS22)と、前記復号ステップの処理による復号対象のフレームが前記暗号化データフレームである場合、この暗号化データフレームの再生期間には所定の音を出力する出力ステップ(例えば、図17のステップS24)とを含むことを特徴とする。
【0049】
請求項8に記載のデータ再生方法の復号ステップによる処理では、復号対象の前記暗号化データフレームに、この暗号化データフレーム以降にある、最初の前記データフレームからの復号を指示するデータが含まれている場合、指示される前記データフレームからの復号が行われることを特徴とする。
【0050】
請求項9に記載のデータ再生方法の復号ステップによる処理では、復号したデータが無音を表すデータである場合、復号した無音を表すデータに基づく再生をスキップすることを特徴とする。
【0051】
請求項10に記載のデータ再生装置は、所定の信号の一部を表す暗号化データを含む暗号化データフレーム、および、所定の信号の一部を表すデータを含むデータフレームからなるデータ列を復号する復号手段(例えば、図12の復号手段131)と、前記復号手段による復号対象のフレームが前記暗号化データフレームである場合、この暗号化データフレームの再生期間には所定の音を出力する出力手段(例えば、図12の復号手段134)とを備えることを特徴とする。
【0052】
請求項11に記載のプログラムは、所定の信号の一部を表す暗号化データを含む暗号化データフレーム、および、所定の信号の一部を表すデータを含むデータフレームからなるデータ列を復号する復号ステップ(例えば、図17のステップS22)と、前記復号ステップの処理による復号対象のフレームが前記暗号化データフレームである場合、この暗号化データフレームの再生期間には所定の音を出力する出力ステップ(例えば、図17のステップS24)とを含むことを特徴とする。
【0053】
以下、図を参照して、本発明の実施の形態について説明する。
【0054】
図1は、本発明を適用した記録再生装置1の構成例を示すブロック図である。
【0055】
図1において、記録再生装置1の記録媒体としては、例えば、スピンドルモータ12により回転駆動される光磁気ディスク11が用いられている。当然、光ディスクや半導体メモリ等の他の記録媒体を用い、それらの記録媒体に、後述するようなフォーマットのオーディオデータを記録させることも可能である。
【0056】
光磁気ディスク11に対するデータの記録時には、例えば、光学ヘッド13によりレーザ光を照射した状態で、記録データに応じた変調磁界を磁気ヘッド14から印加することによって、いわゆる磁界変調記録を行い、光磁気ディスク11の記録トラックに沿ってデータを記録する。また、再生時には、光磁気ディスク11の記録トラックを光学ヘッド13によりレーザ光でトレースし、磁気光学的に再生を行う。
【0057】
光学ヘッド13は、例えば、レーザダイオード等のレーザ光源、コリメータレンズ、対物レンズ、偏光ビームスプリッタ、シリンドリカルレンズ等の光学部品、及び所定パターンの受光部を有するフォトディテクタ等から構成される。光学ヘッド13は、光磁気ディスク11を介して磁気ヘッド14と対向する位置に設けられている。
【0058】
光学ヘッド13は、目的トラックに照射したレーザ光の反射光を検出し、例えば、非点収差法によりフォーカスエラーを検出するとともに、書き換え型のディスクを扱う装置で一般的に用いられるプッシュプル法によりトラッキングエラーを検出する。また、光磁気ディスク11からデータを再生するときには、光学ヘッド13は、フォーカスエラーやトラッキングエラーを検出すると同時に、レーザ光の、目的トラックからの反射光の偏光角(カー回転角)の違いを検出して再生信号を生成し、生成した再生信号をRF回路15に出力する。
【0059】
RF回路15は、光学ヘッド13の出力から、フォーカスエラー信号やトラッキングエラー信号を抽出し、それをサーボ制御回路16に供給するとともに、再生信号を2値化して、それを再生系のデコーダ51に供給する。
【0060】
サーボ制御回路16は、例えば、フォーカスサーボ制御回路、トラッキングサーボ制御回路、スピンドルモータサーボ制御回路、スレッドサーボ制御回路等(いずれも図示せず)から構成される。フォーカスサーボ制御回路は、フォーカスエラー信号がゼロになるように、光学ヘッド13の光学系のフォーカス制御を行う。トラッキングサーボ制御回路は、トラッキングエラー信号がゼロになるように光学ヘッド13のトラッキング制御を行う。スピンドルモータサーボ制御回路は、光磁気ディスク11を所定の回転速度(例えば、一定線速度)で回転駆動するようにスピンドルモータ12を制御する。スレッドサーボ制御回路は、システムコントローラ17により指定される、光磁気ディスク11の目的トラックに光学ヘッド13及び磁気ヘッド14を移動させる。このような各種の制御動作を行うサーボ制御回路16は、各部の動作状態を示す情報を、適宜、システムコントローラ17に出力する。
【0061】
システムコントローラ17には操作部18および表示部19が接続されている。システムコントローラ17は、操作部18が利用者により操作されることで供給される、その操作の内容を表す操作入力情報に従って、記録再生装置1の全体の動作を制御する。また、システムコントローラ17は、光磁気ディスク11の記録トラックから読み出されるヘッダータイムやサブコードのQデータ等から得られるアドレス情報に基づいて、光学ヘッド13および磁気ヘッド14がトレースしている位置を管理する。
【0062】
さらに、システムコントローラ17は、表示部19に再生時間を表示させるなどの処理を行う。具体的には、システムコントローラ17は、ヘッダータイムやサブコードのQデータ等から得られるアドレス情報(絶対時間情報)に対し、データ圧縮率の逆数(例えば1/4圧縮のときには4)を乗算することにより、実際の時間情報を求め、これを、再生時間として表示部19に表示させる。なお、記録時においても、システムコントローラ17は、例えば、光磁気ディスク11の記録トラックに絶対時間情報が予め記録されている(プリフォーマットされている)場合に、このプリフォーマットされた絶対時間情報を読み取って、データ圧縮率の逆数を乗算することにより、現在位置を実際の記録時間で表示させる。
【0063】
次に、記録再生装置1の記録系の構成について説明する。入力端子31から入力されたアナログオーディオ入力信号Ainは、ローパスフイルタ32を介してA/D(Analog/Digital)変換器33に供給され、このA/D変換器33において量子化される。A/D変換器33により得られたデジタルオーディオ信号は、ATC(Adaptive Transform Coding)エンコーダ36(以下、エンコーダ36と適宜証する)に供給される。一方、入力端子34から入力されたデジタルオーディオ入力信号Dinは、デジタル入力インターフェース回路35を介してエンコーダ36に供給される。
【0064】
エンコーダ36は、A/D変換器33から供給されたデジタルオーディオ信号を、所定の圧縮率に応じてデータ圧縮を行い、得られた圧縮データをRAM(Random Access Memory)37に出力する。例えば、データ圧縮率が1/8とすると、ここでのデータ転送速度は、標準のCD−DAのフォーマットのデータ転送速度(75セクタ/秒)の1/8(9.375セクタ/秒)に低減される。
【0065】
RAM37は、システムコントローラ17からの制御に従って、エンコーダ36から供給されるデータの書き込み、および、エンコーダ38に対するデータの読み出しを行う。すなわち、RAM37は、エンコーダ36から供給されるデータを一時的に記憶しておき、必要に応じてディスク上に記録するためのバッファメモリとして用いられている。RAM37に入力されるデータは、上述したように、1/8に圧縮されていることから、8セクタの圧縮前のデータに対して、1セクタの記録を行えば足りるが、このような8セクタおきの記録は事実上不可能に近いため、セクタ連続(クラスタ単位)の記録が行われる。
【0066】
この記録は、休止期間を介して、所定の複数セクタ(例えば、32セクタ+数セクタ)から成るクラスタを記録単位として、標準的なCD−DAフォーマットと同じデータ転送速度(75セクタ/秒)でバースト的に行われる。すなわち、RAM37においては、上述したビット圧縮レートに応じた9.375(=75/8)セクタ/秒の低い転送速度で連続的に書き込まれた、8セクタ分のデータ(エンコーダ36の出力)が、まとめて、記録データとして75セクタ/秒の転送速度でバースト的にエンコーダ38により読み出され、光磁気ディスク11に記録される。従って、ディスク回転速度が標準的なCD−DAフォーマットと同じ速度(一定線速度)のとき、CD−DAフォーマットと同じ記録密度、記憶パターンの記録が行われることになる。
【0067】
RAM37からバースト的に読み出されたオーディオデータ、すなわち記録データは、エンコーダ38に供給される。ここで、1回の記録で連続記録される単位は、例えば、32セクタからなるクラスタ、および、クラスタの前後位置に配されたクラスタ接続用の数セクタを1回の記録単位としている。このクラスタ接続用セクタは、エンコーダ38でのインターリーブ長より長く設定することで、インターリーブが生じても他のクラスタのデータの記録に影響を与えることはない。
【0068】
エンコーダ38は、RAM37から供給される記録データに対して、エラー訂正のためのパリティ付加処理、インターリーブ処理、および、EFM(Eight to Fourteen Modulation)符号化処理などを施す。このような処理が施されて得られた記録データが磁気ヘッド駆動回路39に供給される。
【0069】
次に、記録再生装置1の再生系の構成について説明する。デコーダ51は、RF回路15により2値化され、供給される再生信号について、エラー訂正のための復号処理やEFM復号処理などを行い、例えば、データ圧縮率が1/8のATCオーディオデータを、正規の転送速度よりも早い75セクタ/秒の転送速度で再生する。デコーダ51により得られる再生データは、RAM52に供給される。
【0070】
RAM52は、システムコントローラ17からの制御に従って、デコーダ51からのデータの書き込み、および、ATCデコーダ53に対するデータの読み出しを行う。例えば、デコーダ71から75セクタ/秒の転送速度で供給される再生データがRAM52に書き込まれる。また、RAM52は、書き込まれた再生データを、9.375(=75/8)セクタ/秒の転送速度で連続的にATCデコーダ53(以下、デコーダ53と適宜称する)に出力する。すなわち、デコーダ53は、上述したエンコーダ36に対応する、データ圧縮率1/8のデータを処理するものである。
【0071】
デコーダ53は、例えば、データを8倍にデータ伸張(ビット伸張)することで、16ビットのデジタルオーディオデータを再生する。デコーダ53により再生されたデジタルオーディオデータは、D/A(Digital/Analog)変換器54に供給される。
【0072】
D/A変換器54は、デコーダ53から供給されるデジタルオーディオデータをアナログ信号に変換して、アナログオーディオ出力信号AOUTを、ローパスフイルタ55を介して出力端子56に出力する。
【0073】
なお、システムコントローラ17は、例えば、無線を介しての、外部の機器との通信機能、暗号化機能、暗号化されたデータの復号機能、鍵情報を取得、保持する機能、認証機能等の、各機能を有している。これらの各機能は、システムコントローラ17内に1チップの回路として内蔵されていることが、データの安全上、望ましい。
【0074】
ここで、記録再生装置1において処理されるデータ(符号列)について説明する。
【0075】
図2は、記録再生装置1により処理されるオーディオ符号列のフレームの例を示す図である。
【0076】
この例では、各フレーム(フレームN)の先頭に、同期信号を含む固定長のヘッダがあり、このヘッダには、同期信号の他に、フレームに含まれるオーディオ信号の符号化ユニットの数(符号化ユニット数)等が記述される。後述するように、符号化ユニットは、例えば、8個の帯域に分けられた、符号化を行うスペクトル信号の集合である。
【0077】
ヘッダの次には、量子化精度データ、正規化係数データ、およびスペクトル係数データが符号化ユニット、スペクトルの数に応じて記録される。それぞれのフレームの長さが固定の場合、スペクトル係数データの後には、ヘッダ、量子化精度データ、正規化係数データ、スペクトル係数データ等のデータ量に応じて、適宜、空き領域が形成される。
【0078】
図2に示されるフレームNの符号化ユニット数は0以外の値とされ、さらに、ヘッダの後に記述される符号列に対しては暗号化が施されていないことから、このフレームNの再生時には、符号化ユニット数で指定される帯域で、量子化精度データ、正規化係数データ、スペクトル係数データに基づくオーディオ符号列の再生が行われる。
【0079】
図3は、記録再生装置1により処理されるフレームの他の例を示す図である。
【0080】
図3においては、フレームNのヘッダ1に記述される符号化ユニット数の値が0であり、ヘッダ1の次には、暗号化フラグ=1が記述されている。この暗号化フラグ=1は、フレームN内の、それ以降の符号列に暗号化が施されていることを表している。以下、図3のフレームNのように、暗号化が施された符号列を一部に含むフレームを暗号化フレームと適宜称する。
【0081】
図3の例においては、同期信号2および符号化ユニット数2(≠0)が記述されるヘッダ2、量子化精度データ、正規化係数データ、スペクトル係数データに対して暗号化が施されている。従って、図3の符号列を取得した再生装置は、暗号を復号する暗号復号鍵を取得しなければ、この暗号化された部分を正しく再生することができない。
【0082】
暗号化フレームを再生するデコーダ(例えば、デコーダ53)は、符号化ユニット数の値0を読み込んで、該フレームには、帯域幅が0Hzの無音符号列が記録されているものと認識し、暗号化フラグ以降の、暗号化された符号列を再生することなく、フレームの再生期間中、無音PCM信号を発生させる。すなわち、この例では、符号化ユニット数の値により、暗号化フレームの再生期間中、無音を出力するのか(音を出力しないのか)、または、暗号化フラグ以降の符号列をデコードして得られる音を出力するのかが指定されている。
【0083】
これにより、暗号化された符号列を通常のオーディオ符号列(暗号化されていないオーディオ符号列)として再生が行われることを回避することができる。すなわち、暗号化された符号列を再生したときに生ずる雑音が出力されることはない。
【0084】
なお、暗号化フレームの再生期間中、無音を出力するのか、または、暗号化フラグ以降の符号列をデコードして得られる音を出力するのかを指定する情報(暗号化フレームであることを指定する情報)として、符号化ユニット数の値で指定するのではなく、実際に、無音が出力されるような所定のパターンの符号列をヘッダの後に記述するようにしてもよい。
【0085】
図4は、無音を出力する所定のパターンの無音符号列(無音データ)がヘッダの後に記述されているフレームの例を示す図である。
【0086】
デコーダ53は、図4のフレームNに無音符号列が記述されていることから、フレームNの再生期間中、暗号化フラグの後に記述される、暗号化された符号列を再生することなく、無音符号列に基づいて無音を出力し続ける。
【0087】
図5は、暗号化フレームであることを指定する情報として、暗号化フラグを用いた場合のフレームの他の例を示す図である。
【0088】
図5のように暗号化フラグ=0が記述されている場合には、デコーダ53は、フレームNが暗号化フレームであると認識し(暗号化フラグ以降の符号列は、実際には暗号化された符号列であるが、単なる無音符号列であると認識し)、フレームNの再生期間中、無音を出力し続ける。
【0089】
なお、暗号化フラグの値は、利用者が暗号復号鍵を所定のサーバからダウンロードするなどして取得されたときに書き換えられる。従って、暗号復号鍵が取得されたとき、暗号化フラグの値が1に書き換えられるため、その後、暗号化フラグ以降の符号列が、暗号化された符号列であるとしてデコーダ53により認識されることになる。
【0090】
このように、暗号化フレームであることを指定する情報として、様々な情報を用いることができる。
【0091】
なお、この情報は、例えば、フレーム長による制限などの、フォーマットで許容されるものの中で、最小のデータ量になる情報を用いることが好ましい。すなわち、暗号化フレームであることを指定する情報として最小のデータ量の情報を用いることにより、暗号化された符号列(例えば、図3の暗号化フラグ以降の符号列)を記録する領域を広く確保することができる。また、この暗号化フレームであることを指定する情報は、上述した位置に限られず、フレーム内の、どの位置に記述されるようにしてもよい。
【0092】
図6は、図1のエンコーダ36の詳細な構成例を示すブロック図である。
【0093】
ここでは、フレームの再生期間中、暗号化フレームであることを指定する情報として、図4に示したように、特定パターンの無音符号列を記述するエンコーダ36の構成例を示している。
【0094】
図1のA/D変換器33から供給されたオーディオ信号は、符号化手段81および符号化手段82に入力され、そのそれぞれにおいて高能率符号化が施される。
【0095】
符号化手段82は、フレームの総ビット数から、無音符号列、および、暗号化フラグを記録するのに必要なビット数を差し引いた数以下の所定のビット数を使用して(信号に割り当てて)符号化を行う。一方、符号化手段81は、フレームの総ビット数以下の所定の数のビット数を用いて符号化を行う。
【0096】
符号化手段81により得られた符号列は符号列選択手段87に出力され、符号化手段82により得られた符号列は符号列暗号化手段83に出力される。
【0097】
なお、形成される空き領域は、暗号化フラグとは異なる値のビットで埋められる。例えば、図3に示されるように、暗号化された符号列が暗号化フラグの次に記述される場合には、暗号化フラグを1にするとともに、空き領域に値0が記述される。
【0098】
符号列暗号化手段83は、例えば、図1のシステムコントローラ17から供給される暗号化鍵を用いて、符号化手段82からの出力を暗号化し、暗号化された符号列を符号列合成手段86に出力する。
【0099】
無音符号列発生手段84は、デコードした時に無音を発生する所定のパターンの無音符号列を生成し、無音符号列を暗号化フラグ追加手段85に出力する。
【0100】
暗号化フラグ追加手段85は、無音符号列発生手段84により生成された無音符号列の後に、それ以後の符号列が暗号化されていることを示す暗号化フラグを付加し、得られた符号列を符号列合成手段86に出力する。従って、暗号化フラグ追加手段85から符号列合成手段86に出力される符号列は、例えば、図4の無音符号列と暗号化フラグ=1の部分に相当する。
【0101】
符号列合成手段86は、暗号化フラグ追加手段85から供給される符号列の後ろに、符号列暗号化手段83から供給される、暗号化された符号列を付加し、例えば、図4のフレームN全体を生成する。なお、図4のヘッダ1は所定のタイミングで付加されている。符号列合成手段86により生成された符号列(例えば、図4のフレームN)は、符号列選択手段87に出力される。
【0102】
符号列選択手段87は、図1のシステムコントローラ17から供給される、そのフレームを暗号化フレームにするか否かを指定する情報に従って、符号化手段81から供給されるフレーム(暗号化された符号列を含まないフレーム)と、符号列合成手段86から供給される暗号化フレームのうちのいずれかを選択して後段に出力する。すなわち、符号列選択手段87は、暗号化フレームにすることが指定されている場合、符号列合成手段86から供給される符号列を選択して外部に出力し、暗号化フレームにしないことが指定されている場合、符号化手段81から供給される符号列を選択して外部に出力する。
【0103】
これにより、図2に示されるような暗号化された符号列を含まないフレーム、または、図4に示されるような、無音符号列を含むとともに、暗号化された符号列を一部に含む暗号化フレームが、符号列選択手段87から図1のRAM37に出力される。
【0104】
RAM37においては、エンコーダ36からの出力がバッファリングされ、上述したような所定の単位の符号列が、記録データとして後段のエンコーダ38に出力され、光磁気ディスク11に記録される。
【0105】
図7は、エンコーダ36から出力されるフレーム列の例を示す図である。図7においては、図の左から右方向が再生方向とされ、説明の便宜上、上述した各フレームのヘッダ、暗号化フラグ等は省略されている。
【0106】
図7においては、暗号化された符号列の領域は斜線で示されており、フレーム1乃至3、および、フレーム7乃至9は、無音符号列と暗号化された符号列が記述されている暗号化フレームである。また、フレーム4乃至6は、暗号化されていないオーディオ符号列が記述されているフレームである。
【0107】
従って、このようなフレーム列からなるオーディオ符号列を試聴用の符号列とする場合、利用者は、暗号復号鍵を取得していなくても、フレーム4乃至6の部分は試聴することができる。
【0108】
すなわち、図7のオーディオ符号列を再生した場合、フレーム1乃至3の再生期間は、それぞれに記述されている無音符号列に基づいて無音が出力され(音が出力されず)、フレーム4乃至6の再生期間は、オーディオ符号列を再生して得られる音が出力される。さらに、フレーム7乃至9の再生期間は、それぞれに記述されている無音符号列に基づいて無音が出力される。
【0109】
このように、暗号化フレームである、例えば、フレーム1乃至3を再生した場合であっても、暗号化された符号列を再生したときに得られる音、すなわち雑音は出力されないため、コンテンツの配信事業者は、雑音が発生されることなく、所定のフレームの音のみが試聴可能となるような試聴符号列を生成し、それを利用者に配布することができる。
【0110】
また、利用者は、試聴符号列を試聴して、コンテンツを購入したい場合(暗号化フレームに含まれる暗号化された符号列を復号して、コンテンツ全体を聴きたい場合)、所定の料金を支払うなどしてを暗号復号鍵のみを取得すればよいことから、コンテンツ全体をダウンロードする場合に較べて通信時間を短縮させることができる。
【0111】
次に、図6の構成の詳細について説明する。
【0112】
図8は、図6の符号化手段81の構成例を示すブロック図である。符号化手段82も、図8に示されるものと同様の構成を有している。
【0113】
ここでは、オーディオPCM信号などのデジタル信号の入力を受け、帯域分割符号化(SBC)、適応変換符号化(ATC)、および、適応ビット割り当てを行うことにより、高能率符号化を行う場合について説明する。適応変換符号化とは、離散コサイン変換(DCT)などをベースに、ビット配分を適応化した符号化方法であり、入力信号を時間ブロック毎にスペクトル信号に変換し、所定の帯域毎に、各スペクトル信号をまとめて正規化、すなわち、最大信号成分を近似する正規化係数で各信号成分を除算してから、信号の性質によって適時定められた量子化精度で量子化して符号化するものである。
【0114】
変換手段101は、音響波形信号の入力を受けて、信号周波数成分に変換し、それを信号成分符号化手段102に出力する。信号成分符号化手段102は、入力された信号周波数成分を符号化し、符号列生成手段103に出力する。符号列生成手段103は、信号成分符号化手段102により符号化された信号周波数成分から符号列を生成し、生成した符号列を符号列選択手段87に出力する。
【0115】
図9は、図8の変換手段101の更に詳細な構成例を示すブロック図である。
【0116】
変換手段101に入力された音響波形信号は、帯域分割フィルタ111によって2つの帯域に分割され、それぞれの信号が、順スペクトル変換手段112−1および112−2に出力される。順スペクトル変換手段112−1および112−2は、例えばMDCTなどを用いて、入力された信号を、スペクトル信号成分に変換して信号成分符号化手段102に出力する。順スペクトル変換手段112−1および112−2に入力される信号は、帯域分割フィルタ111に入力される信号の帯域幅の1/2であり、信号の入力も、それぞれ1/2に間引かれている。
【0117】
なお、図9の変換手段101においては、帯域分割フィルタ111によって2つの帯域に分割された信号が、MDCTを用いてスペクトル信号成分に変換されるものとしたが、入力された信号をスペクトル信号成分に変換する方法は、いずれの方法を用いるようにしても良い。例えば、入力された信号を帯域分割せずに、MDCTによりスペクトル信号成分に変換するようにしても良いし、あるいは、入力された信号をDCTやDFTによりスペクトル信号に変換するようにしても良い。
【0118】
いわゆる帯域分割フィルタを用いることにより、入力された信号を帯域成分に分割することも可能であるが、多数の周波数成分を比較的少ない演算量で演算することが可能な、MDCT,DCT、あるいは、DFTを用いてスペクトル変換を行うと好適である。
【0119】
また、図9においては、入力された音響波形信号が帯域分割フィルタ111において、2つの帯域に分割されるものとしたが、帯域分割数は、2つでなくても構わない。帯域分割フィルタ111における帯域分割数を示す情報は、信号成分符号化手段102を介して、符号列生成手段103に出力される。
【0120】
図10は、変換手段101によって得られる、MDCTによるスペクトル信号の絶対値をパワーレベルに変換して示した図である。
【0121】
変換手段101に入力された音響波形信号は、所定の時間ブロック毎に、例えば、64個のスペクトル信号に変換される。これらのスペクトル信号は、信号成分符号化手段102によって、例えば、図中の実線で囲まれた8個の枠組みで示されるように、[1]乃至[8]の、8個の帯域に分けられ、それぞれの帯域毎に量子化および正規化が行われる。この8個の帯域に分けられたスペクトル信号の集合、すなわち、量子化および正規化を行うスペクトル信号の集合が符号化ユニットである。
【0122】
周波数成分の分布の仕方に基づいて、量子化精度を符号化ユニット毎に変化させることにより、人間に聞こえる音の質の劣化を最小限にとどめることが出来る効率の良い符号化が可能となる。
【0123】
図11は、図8の信号成分符号化手段102の詳細な構成例を示すブロック図である。
【0124】
ここでは、信号成分符号化手段102は、例えば、入力されたスペクトル信号から、聴感上、特に重要なトーン部分、すなわち、特定の周波数周辺にエネルギが集中している信号成分を分離して、他のスペクトル成分(非トーン成分)とは別に符号化を行うようにしてもよいし、分離することなく符号化を行うようにしてもよい。
【0125】
正規化手段121は、符号化ユニット毎にトーン成分または非トーン成分のスペクトル信号の入力を受けて、正規化を行い、量子化手段123に出力する。量子化精度決定手段122は、入力された符号化ユニットを参照して、量子化精度を計算し、計算結果を量子化手段123に出力する。量子化精度決定手段122は、入力される符号化ユニットがトーン成分である場合には、非トーン成分である場合に較べて、量子化精度が高くなるように量子化精度を決定する。量子化手段123は、正規化手段121から入力された正規化結果を、量子化精度決定手段122により決定された量子化精度で量子化して、符号を生成するとともに、生成された符号に加えて、正規化係数情報や量子化精度情報などの符号化情報を出力する。
【0126】
また、信号成分符号化手段102は、トーン成分の位置情報なども、トーン成分とともに符号化して出力する。
【0127】
図12は、図1のデコーダ53の構成例を示すブロック図である。
【0128】
復号手段131は、RAM52から供給される符号列(フレーム)をPCM信号に変換し、供給されたフレームが、暗号化フレームであるか否かを判定する。復号手段131は、供給されたフレームが暗号化フレームではないと判定した場合、その復号結果を信号選択手段135に出力する。
【0129】
この場合、信号選択手段135により、復号手段131の出力が選択されて外部に出力されることになり、利用者は、オーディオ符号列の再生結果を試聴することができる。
【0130】
また、復号手段131は、供給されたフレームに記述される暗号化フラグが0であり、フレームに含まれる、暗号化フラグ以降の符号列を無音信号として出力すると判定した場合、無音のPCM信号を信号選択手段135に出力するとともに、暗号化フラグ=0、および、暗号化された符号列を暗号化フラグ検査手段132に出力する。
【0131】
この場合、後述するように、暗号化フラグ検査手段132から0を表す選択信号が信号選択手段135に入力され、信号選択手段135により、復号手段131の出力が選択されることになり、無音が出力される(音が出力されない)。
【0132】
復号手段131は、供給されたフレームが、例えば、図4に示されるように無音符号列が含まれている暗号化フレームであると判定した場合、無音符号列の復号結果である無音PCM信号を信号選択手段135に出力するとともに、それ以降の符号列を暗号化フラグ検査手段132に出力する。従って、図4の暗号化フラグ=1、および、暗号化された符号列が暗号化フラグ検査手段132に出力される。
【0133】
暗号化フラグ検査手段132は、復号手段131から供給される最初のビットである暗号化フラグの値が1であるか否かを検査する。暗号化フラグ検査手段132は、暗号化フラグの値が1であると判定した場合、信号選択手段135に1を表す選択信号を出力し、暗号化フラグの値が0であると判定した場合、信号選択手段135に0を表す選択信号を出力する。また、暗号化フラグ検査手段132は、暗号化フラグ以降の、暗号化された符号列を暗号復号手段133に出力する。
【0134】
暗号復号手段133は、暗号化フラグ検査手段132から供給される符号列を、システムコントローラ17から供給される暗号復号鍵を用いて復号し、得られた復号結果を復号手段134に出力する。また、暗号復号手段133は、利用者が暗号復号鍵を購入しておらず、システムコントローラ17から暗号復号鍵が供給されない場合、暗号化フラグ検査手段132から供給される符号列を、暗号化されたまま、復号手段134に出力する。
【0135】
復号手段134は、暗号化された符号列を復号して得られる復号結果が暗号復号手段133から供給されてきた場合、その符号列を復号し(再生し)、得られたPCM信号を信号選択手段135に出力する。また、復号手段134は、暗号化されたままの符号列が暗号復号手段133から供給されてきた場合、その符号列を復号せずに、無音のPCM信号を信号選択手段135に出力する。
【0136】
暗号化フラグの値が1である場合、暗号化フラグ検査手段132から供給される選択信号に基づいて、復号手段134の出力が選択され、外部に出力される。従って、暗号化フラグの値が1である場合、暗号化された符号列の復号結果を再生したPCM信号、または、復号手段134により生成された無音のPCM信号のいずれかが出力される。
【0137】
信号選択手段135は、暗号化フラグ検査手段132から供給される選択信号の値が1である場合、復号手段134から供給されるPCM信号を外部のD/A変換器54(図1)に出力し、一方、選択信号の値が0である場合、復号手段131から供給されるPCM信号をD/A変換器54に出力する。
【0138】
次に、図12の構成の詳細について説明する。
【0139】
図13は、図12の復号手段131の構成例を示すブロック図である。
【0140】
符号列分解手段151は、フレームの入力を受け、符号列を分解して、各信号成分の符号を抽出し、得られた符号を信号成分復号手段152に出力する。信号成分復号手段152は、入力された符号化フレームを復号し、復号結果を逆変換手段153に出力する。
【0141】
図14は、信号成分復号手段152の詳細な構成例を示すブロック図である。
【0142】
逆量子化手段161は、入力された符号を逆量子化し、逆正規化手段162に出力する。逆正規化手段162は、入力された符号を逆正規化する。すなわち、逆量子化手段161および逆正規化手段162により復号処理が行われて、スペクトル信号が出力される。
【0143】
図15は、図13の逆変換手段153の詳細な構成例を示すブロック図である。
【0144】
図15の例においては、逆変換手段153に対して、信号成分復号手段152により復号されたスペクトル信号が2つの帯域に分離されて、逆スペクトル変換手段171−1および172−2に入力されている。
【0145】
逆スペクトル変換手段171−1および171−2は、入力されたスペクトル信号に逆スペクトル変換を施し、得られた各帯域の信号を帯域合成フィルタ172に出力する。帯域合成フィルタ172は、入力された各帯域の信号を合成して出力する。
【0146】
帯域合成フィルタ172から出力されたPCM信号は、図12の信号選択手段135に出力される。
【0147】
次に、図16のフローチャートを参照して、ソフトウェアによって符号化を行ない、生成したオーディオ符号列を図1の光磁気ディスク11に記録する処理について説明する。
【0148】
なお、ここでは、ソフトウエアによってオーディオ符号列を生成する場合について説明するが、当然、上述したような各構成からなるハードウエアによっても同様の処理が行われ、オーディオ符号列が生成される。
【0149】
ステップS1において、符号化対象であるフレームの番号を表す変数Jに1が設定され、ステップS2に進む。ステップS2において、そのフレームが、暗号化フレームとするか否かが、変数Jの値に基づいて判定される。すなわち、暗号化フレームを指定する情報(どのフレームを、図7に示されるように試聴させないのかを指定する情報)が、例えば、管理者により決定され、入力されている。
【0150】
ステップS2において、そのときの符号化対象のフレームを暗号化フレームとしないと判定された場合、ステップS3に進み、入力されたオーディオ信号がコーデックにより符号化され、ステップS4に進む。ステップS4においては、ステップS3で符号化されたオーディオ信号の記録(光磁気ディスク11に対する、量子化係数データ、正規化係数データ、スペクトル係数データ等の記述)が行われる。
【0151】
ステップS5において、そのフレームに形成された空き領域の全てに値0が記録され、ステップS6に進み、処理したフレームが最終フレームであるか否かが判定される。これにより、例えば、図2に示されるような、暗号化されたデータを含まないフレームが生成され、光磁気ディスク11に記録される。
【0152】
ステップS6において、処理したフレームが最終フレームでないと判定された場合、ステップS7に進み、変数Jの値が1だけ増やされた後、ステップS2に戻り、それ以降の処理が繰り返される。
【0153】
一方、ステップS2において、符号化対象のフレームを暗号化フレームとすると判定された場合、ステップS8に進み、再生期間中に無音を出力することを指示する、特定のパターンの無音符号列が生成され、符号化される。
【0154】
生成された無音符号列は、ステップS9において記録され、ステップS10に進む。ステップS10においては、暗号化フラグ=1が無音符号列に続けて記録される。
【0155】
ステップS11において、入力オーディオ信号がコーデックにより符号化され、ステップS12に進み、暗号化が施される。また、暗号化された入力オーディオ信号が、ステップS10で付加された暗号化フラグに続けて記録される。これにより、例えば、図4に示されるようなフレームが生成され、光磁気ディスク11に記録される。
【0156】
その後、処理はステップS6に進み、それ以降の処理が繰り返される。ステップS6において、処理を行ったフレームが最終フレームであると判定された場合、処理は終了される。
【0157】
以上の処理により、例えば、図7に示されるような、無音符号列と暗号化された符号列を含む暗号化フレーム、または、オリジナルのオーディオ符号列を含むフレームからなるフレーム列が光磁気ディスク11に記録される。なお、以上のようにして生成されたオーディオ符号列が、ネットワークを介して、試聴用の符号列として配信されるようにしてもよい。
【0158】
次に、図17のフローチャートを参照して、図16の処理により生成されたオーディオ符号列を再生するソフトウエアの処理について説明する。
【0159】
ステップS21において、復号対象であるフレームの番号を表す変数Jに1が設定され、ステップS22に進む。ステップS22において、復号対象のフレームが復号され、ステップS23に進み、復号されたフレームが暗号化フレームであるか否かが判定される。
【0160】
ステップS23において、復号されたフレームが暗号化フレームではないと判定された場合、ステップS24に進み、ステップS22で復号されたオーディオ信号(PCM信号)が再生される。従って、復号対象のフレームが試聴可能なフレーム(暗号化されたデータが含まれないフレーム)である場合、その復号結果である試聴用の音が出力される。
【0161】
ステップS25において、処理したフレームが最終フレームであるか否かが判定され、最終フレームでないと判定された場合、ステップS26に進み、変数Jの値が1だけ増やされた後、ステップS22に戻り、それ以降の処理が繰り返される。
【0162】
一方、ステップS23において、復号されたフレームが暗号化フレームであると判定された場合、ステップS27に進み、暗号化フラグが1であるか否かが判定される。
【0163】
ステップS27において、暗号化フラグの値が1でないと判定された場合、ステップS24に進み、ステップS22で復号されたオーディオ信号が再生される。上述したように、暗号化フラグの値が1でない、すなわち、0である場合には、暗号化された符号列が実際にフレーム中にある場合でも、ステップS22においては、その暗号化された符号列は再生されずに、無音符号列が再生されている。従って、ステップS27の判定を経て行われるステップS24の処理においては、無音のPCM信号が再生される。
【0164】
ステップS27において、暗号化フラグの値が1であると判定された場合、ステップS28に進み、暗号化フラグに続けて記述されている、暗号化されているオーディオ符号列が暗号復号鍵を用いて復号され、ステップS29に進み、得られた符号列の高能率符号が復号される。
【0165】
ステップS30において、ステップS29で復号されたオーディオ信号が再生され、ステップS25に進み、それ以降の処理が繰り返される。ステップS25において、再生したフレームが最終フレームであると判定された場合、処理は終了される。
【0166】
以上においては、オーディオ符号列を再生し、それを出力する場合について説明したが、次に、同様にして暗号化フレームの復号などを適宜行い、全てのフレームにおいて試聴可能なオーディオ符号列を生成した後、それを所定の記録媒体に記録する構成と、処理について説明する。
【0167】
図18は、図16を参照して説明した処理により生成されたオーディオ符号列の入力を受けて、暗号化フレームを復号し、復号結果のオーディオ符号列を所定の記録媒体に記録させる記録装置の構成例を示すブロック図である。図18において、図12と同一の構成には同一の符号を付してあり、その説明は適宜省略する。
【0168】
符号列選択手段181は、外部から供給されるオーディオ符号列、および、暗号復号手段133により暗号化が復号され、供給される符号列のうちのいずれかを記録手段182に出力する。上述したように、暗号化フラグの値が1である場合、1を表す選択信号が暗号化フラグ検査手段132から供給されるため、符号列選択手段181は、暗号復号手段133から供給される、暗号化を復号して得られた符号列を選択し、それを記録手段182に出力する。
【0169】
一方、暗号化フラグの値が0である場合、0を表す選択信号が暗号化フラグ検査手段132から供給されるため、符号列選択手段181は、外部から供給される符号列を選択し、それを記録手段182に出力する。なお、例えば、図18の記録装置による処理が、暗号復号鍵が取得されてから行われる場合、暗号化フラグの値が1になるように既に書き換えられているため、外部から供給される符号列がそのまま記録されることはない。
【0170】
記録手段182は、符号列選択手段181から供給される符号列を図示せぬ記録媒体に記録させる。例えば、図2に示されるような暗号化が施されていないフレームが符号列選択手段181に入力された場合、その符号列が符号列選択手段181により選択され、記録手段182により所定の記録媒体に記録される。また、図4に示されるような暗号化フレームが入力された場合、暗号化された符号列が暗号復号手段133により復号され、その復号結果の符号列が符号列選択手段181により選択され、記録手段182により記録媒体に記録される。
【0171】
次に、図19のフローチャートを参照して、暗号化フレームに含まれる暗号化された符号列を復号し、得られたオーディオ符号列を記録媒体に記録させるソフトウェアの処理について説明する。
【0172】
なお、ここでも、ソフトウエアによって処理が行われる場合について説明するが、当然、図18に示されるような構成を有するハードウエアによっても同様の処理が行われる。
【0173】
ステップS41において、記録対象であるフレームの番号を表す変数Jに1が設定され、ステップS42に進む。ステップS42において、記録対象のフレームが復号され、ステップS43に進み、復号されたフレームが暗号化フレームであるか否かが判定される。
【0174】
ステップS43において、復号されたフレームが暗号化フレームではないと判定された場合、ステップS44に進み、記録対象として供給された符号列がそのまま記録媒体に記録される。
【0175】
ステップS45において、記録されたフレームが最終フレームであるか否かが判定され、最終フレームでないと判定された場合、ステップS46に進み、変数Jの値が1だけ増やされた後、ステップS42に戻り、それ以降の処理が繰り返される。
【0176】
一方、ステップS43において、復号されたフレームが暗号化フレームであると判定された場合、ステップS47に進み、暗号化フラグの値が1であるか否かが判定される。
【0177】
ステップS47において、暗号化フラグの値が1でないと判定された場合、ステップS44に進み、ステップS42で復号された無音の符号列が記録される。
【0178】
ステップS47において、暗号化フラグの値が1であると判定された場合、ステップS48に進み、暗号化フラグの次に記述されている、暗号化されたオーディオ符号列が暗号復号鍵を用いて復号される。ステップS49において、復号して得られた符号列が、このとき処理しているフレームに割り当てられる記録位置の先頭から記録される。
【0179】
ステップS50において、空き領域の全てに値0が記述され、ステップS45に進み、それ以降の処理が繰り返し実行される。ステップS45において、記録させたフレームが、最終フレームであると判定された場合、処理は終了される。
【0180】
以上のようにして、暗号化されている符号列が適宜復号され、その全てが復号されたオーディオ符号列が記録媒体に記録される。なお、以上のようにして処理される処理対象のオーディオ符号列が記録されている記録媒体(処理前のオーディオ符号列が記録されている記録媒体)と、以上の処理により復号して得られた、復号結果であるオーディオ符号列が記録される記録媒体(処理後のオーディオ符号列が記録される記録媒体)は、同じ記録媒体であってもよいし、異なる記録媒体であってもよい。
【0181】
以上においては、暗号化されている符号列を、暗号化フラグにより識別する場合について説明したが、元々、無音のフレーム(再生しても音がないフレーム)を暗号化する場合には、暗号化フラグを用いることなく、無音符号列を暗号化して、各フレームのヘッダに続けて記述される無音符号列(オーディオ符号列の作成時に生成され、フレームに含まれる特定パターンの無音符号列)の直後に配置するようにしても良い。
【0182】
この場合、暗号化されている符号列を復号することができないデコーダで再生しても、上述したように、暗号化されたフレームで再生されるのは無音信号であり、暗号化されていないフレームで再生されるのは、元々のオーディオ信号(無音信号)である。従って、暗号化されたフレームであっても、それを再生したときに雑音が出力されることはない。
【0183】
このようなオーディオ符号列の例を図20に示す。図20においては、無音データが記録される代わりに、符号化ユニット数の値が0とされ、これにより、図20のフレームNが、暗号化フレームであることが指定されている。
【0184】
以上においては、暗号化フレームの再生期間中は無音が出力されることとしたため、例えば、図21に示されるように、試聴可能部分が離れた場所にある場合、第1の試聴部分(フレーム3乃至5)から第2の試聴部分(フレーム9乃至12)までの間(フレーム6乃至7の無音が再生される間)、利用者は、無音を聞き続けなければならない。従って、これを回避し、試聴部分のみを連続して聴くことができるように、フレーム内に、次の試聴可能部分の位置を指定する情報を記述しておき、その情報にも基づいて、試聴符号列の再生が制御されるようにしてもよい。
【0185】
図22は、次の試聴可能部分の位置を指定する情報を含むフレームの例を示す図である。上述したものについては、適宜、その説明を省略する。
【0186】
図22においては、ヘッダ1の符号化ユニット数が0となっており、上述したように、デコーダは、符号化ユニット数の値0を読み込んで、このフレームは、帯域幅が0Hzの無音符号列が記録されているものと解釈し、このフレームの再生期間中、無音信号を発生させる。
【0187】
ヘッダ1の直後には、このフレームの種別を表す種別フラグが記述される。また、ヘッダ1の直後に、図4に示されるように無音符号列が実際に記録され、その直後に種別フラグが記述されるようにしてもよい。
【0188】
以下、暗号化された符号列を含まないフレームでは、空き領域(暗号化フレームでは種別フラグが書き込まれる領域)に0が書き込まれるものとする。また、例えば、図21のフレーム1および2のように、複数の暗号化フレームからなるフレーム列のうちの先頭の暗号化フレーム、すなわち、フレーム1には種別フラグとして2が、それ以外のフレーム、すなわち、フレーム2には種別フラグとして1が記述されるものとする。
【0189】
なお、図22のフレーム2に示されるように、種別フラグ1の後にダミーのスキップフレーム数が記述されているが、これは、種別フラグが2である場合に記述される、スキップフレーム数以降の割り当てビットが、フレーム毎に等しくなるように調整したものであり、この領域はなくても構わない。
【0190】
デコーダは、1または2が設定されている種別フラグや、それに続くスキップフレーム数の次に、暗号化された符号列が記録されていると判断する。
【0191】
一方、後に詳述するが、エンコーダは、無音符号列を記録した後、種別フラグ2を記録してからスキップフレーム数を記録し、続いて、符号化したオーディオ信号を暗号化して記録する。また、エンコーダは、無音符号列を記録した後、種別フラグ1を記録してから、ダミーの符号を記録し、続いて、符号化したオーディオ信号を暗号化して記録する。
【0192】
図23は、種別フラグやスキップフレーム数を必要に応じて記録させるエンコーダ36の構成例を示すブロック図である。図6と同一の構成には同一の符号を付してある。
【0193】
符号化手段81および符号化手段82は、それぞれ、供給されたオーディオ信号を高能率符号化する。なお、このとき、符号化手段82は、フレームの総ビット数から、無音符号列、種別フラグ、および、スキップフレーム数を符号化するのに必要なビット数を差し引いた数以下の所定のビット数を使用して符号化を行う。また、符号化手段81は、フレームの総ビット数以下の所定の数のビット数を用いて符号化を行う。
【0194】
符号列暗号化手段83は、システムコントローラ17から供給される暗号化鍵を用いて、符号化手段82からの出力を暗号化し、暗号化が施された符号列を符号列合成手段86に出力する。
【0195】
無音符号列発生手段84は、無音符号列を生成し、その符号列を種別フラグ追加手段201に出力する。
【0196】
種別フラグ追加手段201は、無音符号列発生手段84により生成された無音符号列の後に、それ以後の符号列が暗号化されていることを示す種別フラグ=1と、ダミーのスキップフレーム数を付加し、得られた符号列を符号列合成手段86に出力する。従って、種別フラグ追加手段201から符号列合成手段86に出力される符号列は、図22に示されるフレーム2の無音符号列(符号化ユニット数=0、または実際の無音符号列)、種別フラグ=1、および、空き領域(ダミーのスキップフレーム数)に相当する。
【0197】
符号列合成手段86は、種別フラグ追加手段201から供給される符号列の後ろに、符号列暗号化手段83から供給される符号列を付加し、例えば、図22のフレーム2全体を生成する。符号列合成手段86により生成された符号列は、符号列選択手段205に出力される。
【0198】
無音符号列発生手段202は、無音符号列を生成し、その符号列を種別フラグ・スキップフレーム数情報追加手段203に出力する。
【0199】
種別フラグ・スキップフレーム数情報追加手段203は、無音符号列発生手段202により生成された無音符号列の後に、それ以後の符号列が暗号化されていることを示すとともに、暗号化フレーム列のうちの先頭のフレームであることを示す種別フラグ=2と、スキップフレーム数を付加し、得られた符号列を符号列合成手段204に出力する。スキップフレーム数を指定する情報は、システムコントローラ17から供給されているため、種別フラグ・スキップフレーム数情報追加手段203は、その指定に従ってスキップフレーム数を記述する。
【0200】
例えば、記述されるスキップフレーム数は、次の試聴可能部分の開始フレームから、再生時間にして数秒間だけ前のフレームまでの数にすることが好ましい。これにより、例えば、図21の第1の試聴可能部分(フレーム3乃至5)が再生された後、第2の試聴可能部分(フレーム9乃至12)の再生が開始される前に、数秒間だけ無音が出力されることになり、試聴している利用者は、試聴区間が切り替わったことを知ることができる。
【0201】
種別フラグ・スキップフレーム数情報追加手段203から符号列合成手段204に出力される符号列は、図22に示されるフレーム1の無音符号列(符号化ユニット数=0、または実際の無音符号列)、種別フラグ=2、および、スキップフレーム数に相当する。
【0202】
符号列合成手段204は、種別フラグ・スキップフレーム数情報追加手段203から供給される符号列の後ろに、符号列暗号化手段83から供給される符号列を付加し、例えば、図22のフレーム1全体を生成する。符号列合成手段204により生成された符号列は、符号列選択手段205に出力される。
【0203】
符号列選択手段205は、図1のシステムコントローラ17からの指示に従って、符号化手段81から供給されるフレーム、符号列合成手段86から供給されるフレーム、符号列合成手段204から供給されるフレーム、のうちのいずれかを選択して出力する。
【0204】
図24は、図22に示されるような符号列を処理するデコーダ53の構成例を示すブロック図である。図12と同一の構成には同一の符号を付してあり、適宜、その説明を省略する。
【0205】
復号フレーム選択手段211は、供給される符号列のうち、種別フラグ・スキップフレーム数情報検査手段212から供給される選択信号に基づいて、所定のフレームを選択し、選択したフレームを復号手段131に出力する。
【0206】
復号手段131は、符号フレーム選択手段211から供給される符号列を再生し、得られたPCM信号を信号選択手段135に出力する。また、復号手段131は、復号の結果、供給されたフレームが暗号化フレームであると判定した場合、その暗号化フレームの符号列全体を種別フラグ・スキップフレーム数情報検査手段212に出力する。
【0207】
種別フラグ・スキップフレーム数情報検査手段212は、試聴時には1、暗号復号鍵の購入後には0の値をとる、システムコントローラ17から供給される試聴モードフラグに基づいて、試聴モードフラグと同一の値をとる選択フラグを信号選択手段135に出力する。
【0208】
試聴時であり、かつ、処理対象のフレームに記述される種別フラグの値が2である場合、種別フラグ・スキップフレーム数情報検査手段212は、復号するフレームをスキップフレーム数で指定される分だけスキップすることを指示する信号を復号フレーム選択手段211に対して出力する。
【0209】
また、種別フラグが1または2の値をとる場合、種別フラグ・スキップフレーム数情報検査手段212は、種別フラグ以降の暗号化されている符号列を暗号復号手段133に出力する。
【0210】
暗号復号手段133は、種別フラグ・スキップフレーム数情報検査手段212から供給される符号列を、システムコントローラ17から供給される暗号復号鍵を用いて復号し、得られた復号結果を復号手段134に出力する。復号手段134は、暗号復号手段133から供給される符号列を復号し(再生し)、得られたPCM信号を信号選択手段135に出力する。
【0211】
信号選択手段135は、種別フラグ・スキップフレーム数情報検査手段212から供給される選択信号の値が1である場合(試聴時である場合)、復号手段131から供給されるPCM信号を外部のD/A変換器54(図1)に出力し、一方、選択信号の値が0である場合(暗号復号鍵を購入後の再生時である場合)、復号手段134から供給されるPCM信号を外部に出力する。
【0212】
次に、図25のフローチャートを参照して、ソフトウェアによって符号化を行ない、図22に示されるようなオーディオ符号列を生成する処理について説明する。
【0213】
なお、ここでは、ソフトウエアによってオーディオ符号列を生成する場合について説明するが、当然、図23に示されるような各構成からなるハードウエアによっても同様の処理が行われ、オーディオ符号列が生成される。
【0214】
ステップS101において、符号化対象であるフレームの番号を表す変数Jに1が設定され、ステップS102に進む。ステップS102において、そのフレームが、暗号化フレームとするか否かが、変数Jの値に基づいて判定される。すなわち、暗号化フレームを指定する情報が、例えば、管理者により決定され、入力されている。
【0215】
ステップS102において、そのときの符号化対象のフレームを暗号化フレームとしないと判定された場合、ステップS103に進み、入力されたオーディオ信号をコーデックにより符号化し、ステップS104に進む。ステップS104においては、ステップS103で符号化されたオーディオ信号の記録(光磁気ディスク11に対する、量子化係数データ、正規化係数データ、スペクトル係数データ等の記述)が行われる。
【0216】
ステップS105において、そのフレームに形成された空き領域の全てに値0が記録され、ステップS106に進み、処理したフレームが最終フレームであるか否かが判定される。これにより、試聴可能なフレームが生成され、記録される。
【0217】
ステップS106において、処理したフレームが最終フレームでないと判定された場合、ステップS107に進み、変数Jの値が1だけ増やされた後、ステップS102に戻り、それ以降の処理が繰り返される。
【0218】
一方、ステップS102において、符号化対象のフレームを暗号化フレームとすると判定された場合、ステップS108に進み、再生期間中、無音を出力することを指示する特定のパターンの無音符号列が生成され、符号化される。
【0219】
生成された無音符号列は、ステップS109において記録され、ステップS110に進む。ステップS110においては、処理対象の暗号化フレームが、複数の暗号化フレームからなるフレーム列の先頭の暗号化フレームであるか否かが判定され、先頭のフレームであると判定された場合、ステップS111に進み、種別フラグに2が設定されるとともに、スキップフレーム数が記録される。その後、ステップS113に進む。
【0220】
一方、ステップS110において、処理対象の暗号化フレームが複数の暗号化フレームからなるフレーム列の先頭のフレームではないと判定された場合、ステップS112に進み、種別フラグに1が設定されるとともに、ダミーのスキップフレーム数が記録される。その後、ステップS113に進む。
【0221】
ステップS113において、入力オーディオ信号がコーデックにより符号化され、ステップS114に進み、暗号化が施される。また、暗号化された入力オーディオ信号が、ステップS111またはS112で付加されたスキップフレーム数(ダミーのスキップフレーム数)に続けて記録される。これにより、例えば、図22に示されるようなフレーム1または2が生成され、光磁気ディスク11に記録される。
【0222】
その後、処理はステップS106に進み、それ以降の処理が繰り返される。ステップS106において、処理を行ったフレームが最終フレームであると判定された場合、処理は終了される。
【0223】
次に、図26のフローチャートを参照して、図25の処理により生成されたオーディオ符号列を再生するソフトウエアの処理について説明する。
【0224】
ステップS121において、復号対象であるフレームの番号を表す変数Jに1が設定され、ステップS122に進む。ステップS122において、復号対象のフレームが復号され、ステップS123に進み、復号されたフレームが暗号化フレームであるか否かが判定される。
【0225】
ステップS123において、復号されたフレームが暗号化フレームではないと判定された場合、ステップS124に進み、ステップS122で復号されたオーディオ信号が再生される。従って、復号対象のフレームが試聴可能なフレームである場合、その復号結果である試聴用の音が出力される。
【0226】
ステップS125において、処理したフレームが最終フレームであるか否かが判定され、最終フレームでないと判定された場合、ステップS126に進み、変数Jの値が1だけ増やされた後、ステップS122に戻り、それ以降の処理が繰り返される。
【0227】
一方、ステップS123において、復号されたフレームが暗号化フレームであると判定された場合、ステップS127に進み、種別フラグが2であるか、すなわち、対象の暗号化フレームが、複数の暗号化フレームからなるフレーム列の先頭のフレームであるか否かが判定される。
【0228】
ステップS127において、種別フラグの値が2でない(例えば0)と判定された場合、ステップS124に進み、ステップS122で復号されたオーディオ信号が再生される。なお、種別フラグの値が1である暗号化フレームの処理は基本的にはスキップされる。
【0229】
一方、ステップS127において、種別フラグの値が2であると判定された場合、ステップS128に進み、種別フラグに続けて記述されている、スキップフレーム数を読み出し、その値をKとしてステップS129に進み、変数Jの値をKだけ加算してステップS122に戻る。従って、処理対象のフレームが、Kフレーム分スキップされ、処理されないことになる。
【0230】
以上の処理が繰り返し実行され、ステップS125において、再生したフレームが最終フレームであると判定された場合、処理は終了される。これにより、例えば、試聴可能部分のみが連続して再生されることになる。
【0231】
なお、以上においては、暗号化フレームのフレーム列うち、先頭のフレーム列にのみ、スキップフレーム数を記述する場合について説明したが、フレーム列の先頭の暗号化フレームだけでなく、それ以降の暗号化フレームにも、スキップフレーム数を記述することも可能である。この場合、先頭の暗号化フレーム以降の暗号化フレームに記述されているスキップフレーム数にも基づいて、処理フレームのスキップが行われる。
【0232】
また、以上においては、暗号化フレームの再生期間中、無音が出力される(音が出力されない)としたが、暗号化されたデータをそのまま再生したときに出力される雑音以外の、所定の音が出力されるようにしてもよい。この場合、暗号化フレームには、そのような所定の音を出力させることを指示するデータが、暗号化されたデータとは別に記述される。また、所定の音が無音などである場合、その部分がスキップされて(出力されずに)再生が行われるようにしてもよい。
【0233】
上述したように、これらの一連の処理は、ハードウエアにより実行させることもできるが、ソフトウエアにより実行させることもできる。この場合、例えば、図1の記録再生装置1は、図27に示されるようなパーソナルコンピュータ231により構成される。
【0234】
図27において、CPU(Central Processing Unit)241は、ROM(Read Only Memory)242に記憶されているプログラム、またはHDD(Hard Disk Drive)248からRAM(Random Access Memory)243にロードされたプログラムに従って、各種の処理を実行する。RAM243にはまた、CPU241が各種の処理を実行する上において必要なデータなども適宜記憶される。
【0235】
CPU241、ROM242、およびRAM243は、バス244を介して相互に接続されている。このバス244にはまた、入出力インタフェース245も接続されている。
【0236】
入出力インタフェース245には、キーボード、マウスなどよりなる入力部246、ディスプレイなどよりなる出力部247、HDD248、通信部249が接続されている。通信部249は、ネットワークを介しての通信処理を行う。
【0237】
入出力インタフェース245にはまた、必要に応じてドライブ250が接続され、磁気ディスク251、光ディスク252、光磁気ディスク253、或いは半導体メモリ254などが適宜装着され、それらから読み出されたコンピュータプログラムが、必要に応じてHDD248にインストールされる。
【0238】
一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、ネットワークや記録媒体からインストールされる。
【0239】
この記録媒体は、図27に示されるように、装置本体とは別に、利用者にプログラムを供給するために配布される、プログラムが記憶されている磁気ディスク251(フロッピディスクを含む)、光ディスク252(CD−ROM(Compact Disk−Read Only Memory),DVD(Digital Versatile Disk)を含む)、光磁気ディスク253(MD(Mini−Disk)を含む)、もしくは半導体メモリ254などよりなるパッケージメディアにより構成されるだけでなく、装置本体に予め組み込まれた状態で利用者に供給される、プログラムが記憶されているROM242や、HDD248などで構成される。
【0240】
なお、本明細書において、記録媒体に記憶されるプログラムを記述するステップは、含む順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
【0241】
【発明の効果】
第1の本発明によれば、暗号化されたデータを含むデータ列を生成することができる。
【0242】
また、第1の本発明によれば、暗号化されたデータを含む場合でも、雑音が発せられることを抑制することができるデータ列を生成することができる。
【0243】
第2の本発明によれば、暗号化されたデータを含むデータ列を再生することができる。
【0244】
また、第2の本発明によれば、暗号化されたデータを含む場合でも、雑音が発せられることを抑制することができる。
【図面の簡単な説明】
【図1】本発明を適用した記録再生装置の構成例を示すブロック図である。
【図2】フレームに記述される符号列の例を示す図である。
【図3】フレームに記述される符号列の他の例を示す図である。
【図4】フレームに記述される符号列の更に他の例を示す図である。
【図5】フレームに記述される符号列の例を示す図である。
【図6】図1のATCエンコーダの構成例を示すブロック図である。
【図7】オーディオ符号列の例を示す図である。
【図8】図6の符号化手段の構成例を示すブロック図である。
【図9】図8の変換手段の構成例を示すブロック図である。
【図10】スペクトル信号と符号化ユニットについて説明する図である。
【図11】図8の信号成分符号化手段の構成例を示すブロック図である。
【図12】図1のATCデコーダの構成例を示すブロック図である。
【図13】図12の復号手段の構成例を示すブロック図である。
【図14】図13の信号成分復号手段の構成例を示すブロック図である。
【図15】図13の逆変換手段の構成例を示すブロック図である。
【図16】オーディオ符号列の生成処理について説明するフローチャートである。
【図17】オーディオ符号列の再生処理について説明するフローチャートである。
【図18】記録装置の構成例を示すブロック図である。
【図19】オーディオ符号列の記録処理について説明するフローチャートである。
【図20】フレームに記述される符号列の例を示す図である。
【図21】オーディオ符号列の他の例を示す図である。
【図22】フレームに記述される符号列の他の例を示す図である。
【図23】図1のATCエンコーダの他の構成例を示すブロック図である。
【図24】図1のATCデコーダの他の構成例を示すブロック図である。
【図25】オーディオ符号列の生成処理について説明するフローチャートである。
【図26】オーディオ符号列の再生処理について説明するフローチャートである。
【図27】パーソナルコンピュータの構成例を示すブロック図である。
【符号の説明】
1 記録再生装置, 81,82 符号化手段, 83 符号列暗号化手段,84 無音符号列発生手段, 85 暗号化フラグ追加手段, 86 符号列合成手段, 87 符号列選択手段, 131,134 復号手段, 132 暗号化フラグ検査手段, 133 暗号復号手段, 135 信号選択手段, 181 符号列選択手段, 182 記録手段
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a data generation method and a data generation device, a data reproduction method and a data reproduction device, and a program, and in particular, to a data generation method capable of generating or reproducing audio data that can obtain a more suitable reproduced sound. The present invention relates to a data generation device, a data reproduction method, a data reproduction device, and a program.
[0002]
[Prior art]
As a recording medium for recording encoded audio signals, audio signals, and the like, for example, a magneto-optical disk such as an MD (Mini Disk) (trademark) is widely used. Various high-efficiency encoding methods have been proposed for recording the data.
[0003]
For example, a band division coding (SBC (Sub Band Coding)) in which an audio signal on the time axis is divided into a plurality of frequency bands and encoded without being divided into blocks, or a signal on the time axis is converted into a signal on the frequency axis. There is a blocking frequency band division method (so-called conversion coding) in which spectrum is converted into a plurality of frequency bands and encoded for each band. In addition, a technique has been considered in which, after band division is performed by band division encoding, in each band, a signal is spectrum-converted into a signal on the frequency axis, and encoding is performed for each band subjected to spectrum conversion.
[0004]
The filter used here is, for example, a quadrature mirror filter (QMF). E. FIG. The details are described in Non-Patent Document 1 by Crochiere. Also, Joseph H. et al. Non-Patent Document 2 by Rothweiler describes a filter dividing method with equal bandwidth.
[0005]
As the above-described spectral transform, for example, an input audio signal is divided into blocks in a predetermined unit time (frame), and a discrete Fourier transform (DFT), a discrete cosine transform (DCT) is performed for each block. Cosine Transform) and Modified DCT Transform (MDCT (Modified Discrete Cosine Transform)). Details of MDCT among these are described in J. Amer. P. Princen, A .; B. Bradley (Univ. Of Surrey Royal Melbourne Inst. Of Tech.) Et al.
[0006]
Further, when DFT or DCT is used as a method for spectrally transforming a waveform signal, if the transform is performed in a time block including M samples, M independent real number data can be obtained. In order to reduce connection distortion between time blocks, N / 2 samples are usually overlapped with blocks on both sides, that is, N samples are combined on both sides. Therefore, in DFT and DCT, on average, , (M + N / 2) samples are quantized and coded for M independent real number data.
[0007]
On the other hand, when the MDCT is used as a method for performing spectrum conversion, if the conversion is performed using a time block consisting of M samples, M / 2 blocks are used for each of the blocks adjacent to each other, that is, the M blocks are combined on both sides. Since M independent real number data can be obtained from 2M overlapping samples, the MDCT quantizes and encodes M real number data for M samples on average in MDCT. Will do.
[0008]
In the decoding device, a waveform signal can be reconstructed by adding the waveform elements obtained by inversely transforming each block from the code obtained by using the MDCT while causing the blocks to interfere with each other.
[0009]
In general, lengthening the time block for the transformation increases the frequency resolution of the spectrum and concentrates energy on specific spectral components. Therefore, by using a MDCT in which the conversion is performed with a long block length by overlapping the adjacent blocks by half, and the number of obtained spectral signals does not increase with respect to the number of time samples on which the conversion is based. By performing the transform, encoding can be performed more efficiently than in the case where DFT or DCT is used for the transform. In addition, by providing a sufficiently long overlap between adjacent blocks, distortion between blocks of a waveform signal can be reduced.
[0010]
As described above, by quantizing the signal divided for each band by filtering or spectral conversion, it is possible to control the band in which quantization noise occurs, and to utilize the properties such as the masking effect to improve the auditory Thus, more efficient encoding can be performed. Further, by performing normalization for each band, for example, with the maximum value of the absolute value of the signal component in the band before performing the quantization, it is possible to perform more efficient encoding.
[0011]
When quantizing each frequency component divided into frequency bands, the frequency division width may be determined in consideration of, for example, human auditory characteristics. That is, the audio signal may be divided into a plurality of bands (for example, 25 bands) such that a higher band generally called a critical band (critical band) has a wider bandwidth.
[0012]
Further, when the band is divided so that the critical band is widened, when data for each band is encoded, a predetermined bit distribution may be performed for each band, or the band may be adapted for each band. Bits may be allocated (bit allocation is performed).
[0013]
For example, when coefficient data obtained by MDCT is encoded by bit allocation, the number of bits is adaptively assigned to MDCT coefficient data for each band obtained by MDCT for each block, Encoding is performed. As bit allocation methods, for example, two methods described in Non-Patent Documents 4 and 5 are known.
[0014]
R. Zelinski, P .; Non-Patent Document 4 by Noll et al. Describes that bit allocation is performed based on the magnitude of a signal for each band. According to this method, the quantization noise spectrum becomes flat and the noise energy is minimized. Absent.
[0015]
Further, M. A. Non-Patent Document 5 by Kransner (Massachusetts Institute of Technology) describes a method of obtaining a required signal-to-noise ratio for each band and performing fixed bit allocation by using auditory masking. I have. However, in this method, even when the characteristic is measured with a sine wave input, the characteristic value is not so good because the bit allocation is fixed.
[0016]
In order to solve these problems, all bits that can be used for bit allocation are divided into a fixed bit allocation pattern predetermined for each small block and a bit allocation depending on the signal size of each block. High-efficiency coding has been proposed in which division is used, and the division ratio is dependent on a signal related to the input signal, and the smoother the spectrum of the signal, the larger the division ratio into fixed bit allocation patterns is increased. ing.
[0017]
By using this method, when energy is concentrated on a specific spectrum such as a sine wave input, a large number of bits can be allocated to a block including the spectrum, so that the overall signal-to-noise characteristic is improved. Can be significantly improved. In general, human hearing to a signal having a steep spectral component is extremely sensitive. Therefore, improving the signal-to-noise characteristics using such a method requires not only measurement characteristics but also human characteristics. Is effective in improving the quality of the sound actually heard.
[0018]
Many methods for bit allocation have been proposed in addition to those described above. Furthermore, the model related to hearing has been refined, and the capability of the coding apparatus has been improved, so that it is possible to perform not only the characteristic value on measurement but also coding with higher efficiency for human hearing. I have. In these methods, a real-valued bit allocation reference value for realizing the signal-to-noise characteristic obtained by the calculation as faithfully as possible is obtained, and an integer value approximating the real-valued bit allocation reference value is obtained and set to the number of allocated bits. Generally, it is done.
[0019]
In Patent Documents 1 and 2 filed earlier by the present applicant, from the generated spectral signal, energy is concentrated on a tonal component that is particularly important in hearing, that is, around a specific frequency. A method of separating such components and encoding them separately from other spectral components is described. According to this method, it is possible to effectively encode an audio signal or the like at a high compression ratio with almost no auditory deterioration.
[0020]
When an actual code sequence is generated, first, for each band in which normalization and quantization are performed, quantization accuracy information and normalization coefficient information are encoded with a predetermined number of bits, and then normalization and The quantized spectral signal is encoded. Also, ISO / IEC 11172-3; (1993 (E), a933) describes a high-efficiency coding scheme in which the number of bits representing quantization accuracy information is set to be different depending on the band, and the band is high. It is standardized so that the number of bits representing quantization accuracy information decreases as the frequency band becomes smaller.
[0021]
Instead of directly encoding the quantization accuracy information, a method of determining the quantization accuracy information from the normalization coefficient information in the decoding device, for example, is also known. Since the relationship between the quantization coefficient information and the quantization accuracy information is determined, it will not be possible to introduce control using quantization accuracy based on a more advanced auditory model in the future. Further, when there is a range in the compression ratio to be realized, it becomes necessary to determine the relationship between the normalization coefficient information and the quantization accuracy information for each compression ratio.
[0022]
As a method for encoding the quantized spectrum signal more efficiently, for example, D.I. A. As described in Non-Patent Document 6 by Huffman, a method of efficiently performing encoding using a variable-length code is also known.
[0023]
By the way, as disclosed in Patent Document 3, with respect to the music data coded as described above, a preview that can be reproduced only with low sound quality is created by limiting the preview band. It is known to distribute data to users. Thereby, the user can grasp the entirety of the original music data although the sound quality is low. If the user listens to the sample data and likes it, the user can restore the original music data by purchasing only the information that can restore the sample data to the original music data with high sound quality. Can be used.
[0024]
It is also known as a method of creating trial data that, of encoded music data, only some frames are encrypted and unencrypted portions are used as trial data. If the user listens to the trial listening data and likes it, the user separately purchases a key for decrypting the encryption, and uses the key to use the original music data. According to this, in order to restore the original data from the trial listening data, it is only necessary to download (acquire) only key data having a relatively small data amount. Thus, communication time can be reduced. For example, as this encryption method, there is DES (Data Encryption Standard) described in Non-Patent Document 6.
[0025]
[Patent Document 1]
Japanese Patent Application No. 5-152865
[Patent Document 2]
WO 94/28633 pamphlet
[Patent Document 3]
JP-A-10-135944
[Non-patent document 1]
"Digital coding of speech in subbands"
(BellSys.Tech.J.Vol.55, No.8 1974)
[Non-patent document 2]
"Polyphase Quadrature Fitters-A new subband coding technique"
(ICASSP 83, BOSTON)
[Non-Patent Document 3]
"Subband / Transform Coding Using Filter Bank Designs Based on Time Domain Aliasing Cancellation"
(ICASSP 1987)
[Non-patent document 4]
"Adaptive Transform Coding of Speech Signals"
(IEEE Transactions of Acoustics, Speech, and Signal Processing, Vol. ASSP-25, No. 4, August 1977)
[Non-Patent Document 5]
"The critical band coder digital encoding of the perceptual requirements of the auditory system"
(ICASSP 1980)
[Non-Patent Document 6]
"Federal Information Processing Standards Publication 46Specifications for the DATA ENCRYPTION STANDARD" (1977, January 15)
[0026]
[Problems to be solved by the invention]
However, as described above, when only a part of the frames are encrypted and used as the trial data, a normal playback device that plays the trial data (processing music data in a format in which some frames are encrypted) is performed. In the case of an apparatus that cannot perform encryption, even if an encrypted frame is reproduced as a normal unencrypted code string, serious noise may be generated.
[0027]
This gives the user who listened to the trial data uncomfortable feelings, and discourages the purchase of the original music data, which is not preferable for the content distributor. In addition, there is a possibility that a speaker that outputs such noise may be adversely affected.
[0028]
The present invention has been made in view of such a situation. Even when only a part of frames is encrypted and used as the audition data, unnecessary noise is output when the data is reproduced. By preventing this, it is possible to provide more suitable trial listening data.
[0029]
[Means for Solving the Problems]
The data generation method according to the present invention reproduces a data string by outputting a predetermined sound during the reproduction period of the encrypted data frame in the encrypted data frame including the encrypted data representing a part of the input signal. The method further includes an adding step of adding data instructing the data reproducing apparatus, and a generating step of generating a data sequence including an encrypted data frame and a data frame including data representing a part of an input signal. And
[0030]
In the processing of the adding step, data for instructing decryption from the first data frame after the encrypted data frame may be further added.
[0031]
The data instructing decryption from the first data frame can be added to the first encrypted data frame among the plurality of continuous encrypted data frames.
[0032]
The data generation apparatus of the present invention reproduces a data string in an encrypted data frame including encrypted data representing a part of an input signal, by outputting a predetermined sound during a playback period of the encrypted data frame. An additional unit for adding data instructing the data reproducing apparatus, and a generating unit for generating a data sequence including an encrypted data frame and a data frame including data representing a part of an input signal are provided. And
[0033]
According to a first program of the present invention, outputting a predetermined sound in an encrypted data frame including encrypted data representing a part of an input signal during a playback period of the encrypted data frame includes reproducing a data string. And a generating step of generating a data sequence including an encrypted data frame and a data frame including data representing a part of an input signal. Features.
[0034]
In the data reproducing method according to the present invention, a decoding step of decoding an encrypted data frame including encrypted data representing a part of a predetermined signal and a data sequence including a data frame including data representing a part of a predetermined signal If the frame to be decrypted by the decrypting step is an encrypted data frame, the reproducing period of the encrypted data frame includes an output step of outputting a predetermined sound.
[0035]
In the processing in the decrypting step, if the encrypted data frame to be decrypted includes data instructing decryption from the first data frame subsequent to the encrypted data frame, the Decoding can be performed.
[0036]
In the processing in the decoding step, when the decoded data is data representing silence, reproduction based on the decoded data representing silence can be skipped.
[0037]
The data reproducing apparatus of the present invention is a decoding means for decoding an encrypted data frame including encrypted data representing a part of a predetermined signal and a data sequence including a data frame including data representing a part of a predetermined signal. And an output unit for outputting a predetermined sound during a playback period of the encrypted data frame when the frame to be decrypted by the decryption unit is an encrypted data frame.
[0038]
A second program according to the present invention is a decoding program for decoding an encrypted data frame including encrypted data representing a part of a predetermined signal and a data sequence including a data frame including data representing a part of a predetermined signal. In the case where the frame to be decrypted by the processing of the decrypting step is an encrypted data frame, the reproducing period of the encrypted data frame includes an output step of outputting a predetermined sound.
[0039]
According to the data generation method and the data generation device of the present invention, the first program stores a predetermined sound in an encrypted data frame including encrypted data representing a part of an input signal during a reproduction period of the encrypted data frame. Is output to the data reproducing apparatus that reproduces the data sequence, and a data sequence including an encrypted data frame and a data frame including data representing a part of the input signal is generated. You.
[0040]
In the data reproducing method, the data reproducing apparatus, and the second program of the present invention, an encrypted data frame including encrypted data representing a part of a predetermined signal and data representing a part of a predetermined signal are included. When a data sequence composed of data frames is decrypted and the frame to be decrypted is an encrypted data frame, a predetermined sound is output during the playback period of the encrypted data frame.
[0041]
BEST MODE FOR CARRYING OUT THE INVENTION
Embodiments of the present invention will be described below. The correspondence between constituent elements described in the claims and specific examples in the embodiments of the present invention is as follows. This description is for confirming that a specific example supporting the invention described in the claims is described in the embodiment of the invention. Therefore, even if there is a specific example which is described in the embodiment of the invention but is not described here as corresponding to the configuration requirement, the fact that the specific example is It does not mean that it does not correspond to the requirement. Conversely, even if a specific example is described here as corresponding to a configuration requirement, this means that the specific example does not correspond to a configuration requirement other than the configuration requirement. not.
[0042]
The data generation method according to claim 1, wherein the data generation method generates a data sequence (for example, the audio code sequence in FIG. 7) from an input signal, wherein the encryption includes encrypted data representing a part of the input signal. In the encrypted data frame (encrypted frame), outputting a predetermined sound (for example, outputting silence) during the reproduction period of the encrypted data frame is instructed to the data reproducing apparatus that reproduces the data sequence. An adding step (for example, step S9 in FIG. 16) of adding data to be instructed (for example, a silence code string), the encrypted data frame (for example, frame 1 in FIG. 7), and a part of the input signal A generation step (for example, steps S4 and S12 in FIG. 16) for generating the data sequence including a data frame (for example, frame 4 in FIG. 7) including the data to be represented. It is characterized in.
[0043]
In the processing of the adding step of the data generating method according to claim 2, data (for example, the number of skip frames) instructing decryption from the first data frame after the encrypted data frame is further added. It is characterized by.
[0044]
4. The data generation method according to claim 3, wherein the data instructing decryption from the first data frame is added to a first encrypted data frame among a plurality of continuous encrypted data frames. It is characterized by.
[0045]
In the data generation method according to the fourth aspect, the predetermined sound is a silent sound.
[0046]
6. The data generating device according to claim 5, wherein the data generating device generates a data sequence (for example, the audio code sequence in FIG. 7) from the input signal, and the encrypted data includes encrypted data representing a part of the input signal. In the encrypted data frame (encrypted frame), outputting a predetermined sound (for example, outputting silence) during the reproduction period of the encrypted data frame is instructed to the data reproducing apparatus that reproduces the data sequence. An adding unit (for example, a silent code string generating unit 84 in FIG. 6) for adding data to be instructed (for example, a silent code sequence), the encrypted data frame (for example, frame 1 in FIG. 7), and the input signal Generating means (for example, code string selecting means 87 in FIG. 6) for generating the data sequence comprising a data frame (for example, frame 4 in FIG. 7) including data representing a part of And wherein the door.
[0047]
7. The program according to claim 6, wherein the program causes a computer to execute a process of generating a data sequence (for example, the audio code sequence in FIG. 7) from an input signal, and the encrypted data representing a part of the input signal is transmitted to the computer. Outputting a predetermined sound (for example, outputting silence) during the playback period of the encrypted data frame within the encrypted data frame (encryption frame) including the encrypted data frame to the data playback device that plays back the data sequence. An additional step (for example, step S9 in FIG. 16) of adding data (for example, a silence code sequence) to the instruction, the encrypted data frame (for example, frame 1 in FIG. 7), and one of the input signals A generation step (for example, the step shown in FIG. 16) for generating the data sequence including a data frame (for example, frame 4 in FIG. S4, S12) and characterized in that it comprises a.
[0048]
A data reproducing method according to claim 7, wherein a data sequence including an encrypted data frame including encrypted data representing a part of a predetermined signal and a data frame including data representing a part of a predetermined signal is decrypted. If the frame to be decrypted by the decryption step (eg, step S22 in FIG. 17) and the decryption step is the encrypted data frame, a predetermined sound is output during the playback period of the encrypted data frame. And an output step (for example, step S24 in FIG. 17).
[0049]
In the processing in the decryption step of the data reproduction method according to claim 8, the encrypted data frame to be decrypted includes data instructing decryption from the first data frame after the encrypted data frame. , Decoding is performed from the indicated data frame.
[0050]
In the processing in the decoding step of the data reproducing method according to the ninth aspect, when the decoded data is data representing silence, reproduction based on the decoded data representing silence is skipped.
[0051]
The data reproducing apparatus according to claim 10 decodes a data sequence including an encrypted data frame including encrypted data representing a part of a predetermined signal and a data frame including data representing a part of a predetermined signal. (For example, the decryption unit 131 in FIG. 12), and when the frame to be decrypted by the decryption unit is the encrypted data frame, an output for outputting a predetermined sound during the playback period of the encrypted data frame. Means (for example, the decoding means 134 in FIG. 12).
[0052]
12. The program according to claim 11, wherein the program decodes a data sequence including an encrypted data frame including encrypted data representing a part of a predetermined signal and a data frame including data representing a part of a predetermined signal. A step (for example, step S22 in FIG. 17) and an output step of outputting a predetermined sound during a playback period of the encrypted data frame when the frame to be decrypted by the processing of the decrypting step is the encrypted data frame. (For example, step S24 in FIG. 17).
[0053]
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0054]
FIG. 1 is a block diagram illustrating a configuration example of a recording / reproducing apparatus 1 to which the present invention has been applied.
[0055]
In FIG. 1, as a recording medium of the recording / reproducing apparatus 1, for example, a magneto-optical disk 11 driven to rotate by a spindle motor 12 is used. Naturally, it is also possible to use other recording media such as an optical disc and a semiconductor memory, and to record audio data in a format described later on those recording media.
[0056]
When recording data on the magneto-optical disk 11, for example, a so-called magnetic field modulation recording is performed by applying a modulation magnetic field corresponding to the recording data from the magnetic head 14 while irradiating the optical head 13 with laser light. Data is recorded along the recording track of the disk 11. At the time of reproduction, a recording track of the magneto-optical disk 11 is traced by a laser beam by the optical head 13, and magneto-optical reproduction is performed.
[0057]
The optical head 13 includes, for example, a laser light source such as a laser diode, an optical component such as a collimator lens, an objective lens, a polarizing beam splitter, and a cylindrical lens, and a photodetector having a light receiving unit having a predetermined pattern. The optical head 13 is provided at a position facing the magnetic head 14 via the magneto-optical disk 11.
[0058]
The optical head 13 detects the reflected light of the laser beam applied to the target track, detects a focus error by, for example, an astigmatism method, and detects a focus error by a push-pull method generally used in a device that handles a rewritable disk. Detect tracking errors. When reproducing data from the magneto-optical disk 11, the optical head 13 detects a focus error or a tracking error and, at the same time, detects a difference in the polarization angle (Kerr rotation angle) of the laser beam reflected from the target track. To generate a reproduction signal, and output the generated reproduction signal to the RF circuit 15.
[0059]
The RF circuit 15 extracts a focus error signal and a tracking error signal from the output of the optical head 13, supplies them to the servo control circuit 16, binarizes the reproduction signal, and sends the binarized signal to the reproduction system decoder 51. Supply.
[0060]
The servo control circuit 16 includes, for example, a focus servo control circuit, a tracking servo control circuit, a spindle motor servo control circuit, a thread servo control circuit, and the like (all not shown). The focus servo control circuit controls the focus of the optical system of the optical head 13 so that the focus error signal becomes zero. The tracking servo control circuit performs tracking control of the optical head 13 so that the tracking error signal becomes zero. The spindle motor servo control circuit controls the spindle motor 12 to rotate the magneto-optical disk 11 at a predetermined rotation speed (for example, a constant linear speed). The thread servo control circuit moves the optical head 13 and the magnetic head 14 to a target track on the magneto-optical disk 11 specified by the system controller 17. The servo control circuit 16 that performs such various control operations appropriately outputs information indicating the operation state of each unit to the system controller 17.
[0061]
An operation unit 18 and a display unit 19 are connected to the system controller 17. The system controller 17 controls the overall operation of the recording / reproducing apparatus 1 in accordance with operation input information that is supplied when the operation unit 18 is operated by a user and indicates the content of the operation. Further, the system controller 17 manages the traced positions of the optical head 13 and the magnetic head 14 based on the header time read from the recording track of the magneto-optical disk 11 and the address information obtained from the Q data of the subcode. I do.
[0062]
Further, the system controller 17 performs processing such as displaying the reproduction time on the display unit 19. Specifically, the system controller 17 multiplies the address information (absolute time information) obtained from the header time, the Q data of the subcode, and the like by the reciprocal of the data compression ratio (for example, 4 in the case of 1/4 compression). As a result, actual time information is obtained, and this is displayed on the display unit 19 as the reproduction time. At the time of recording, for example, when absolute time information is recorded in advance on a recording track of the magneto-optical disk 11 (pre-formatted), the system controller 17 uses the pre-formatted absolute time information. The current position is displayed at the actual recording time by reading and multiplying by the reciprocal of the data compression ratio.
[0063]
Next, the configuration of the recording system of the recording / reproducing apparatus 1 will be described. Analog audio input signal A input from input terminal 31 in Is supplied to an A / D (Analog / Digital) converter 33 via a low-pass filter 32, and is quantized by the A / D converter 33. The digital audio signal obtained by the A / D converter 33 is supplied to an ATC (Adaptive Transform Coding) encoder 36 (hereinafter, appropriately referred to as the encoder 36). On the other hand, the digital audio input signal D input from the input terminal 34 in Is supplied to the encoder 36 via the digital input interface circuit 35.
[0064]
The encoder 36 performs data compression on the digital audio signal supplied from the A / D converter 33 in accordance with a predetermined compression rate, and outputs the obtained compressed data to a RAM (Random Access Memory) 37. For example, assuming that the data compression rate is 1/8, the data transfer rate here is 1/8 (9.375 sectors / second) of the data transfer rate (75 sectors / second) of the standard CD-DA format. Reduced.
[0065]
The RAM 37 writes data supplied from the encoder 36 and reads data from the encoder 38 under the control of the system controller 17. That is, the RAM 37 is used as a buffer memory for temporarily storing data supplied from the encoder 36 and recording the data on a disk as needed. As described above, since the data input to the RAM 37 is compressed to 1/8, it is sufficient to record one sector for the data before compression of eight sectors. Since every other recording is practically impossible, recording is performed in a continuous sector (cluster unit).
[0066]
This recording is performed at the same data transfer rate (75 sectors / second) as in the standard CD-DA format by using a cluster composed of a predetermined plurality of sectors (for example, 32 sectors + several sectors) as a recording unit through a pause period. Performed in bursts. That is, in the RAM 37, data (output of the encoder 36) for eight sectors, which is continuously written at a low transfer rate of 9.375 (= 75/8) sectors / second corresponding to the bit compression rate described above, is written. The data is collectively read out by the encoder 38 as recording data at a transfer rate of 75 sectors / sec and recorded on the magneto-optical disk 11. Therefore, when the disk rotation speed is the same speed (constant linear speed) as the standard CD-DA format, the same recording density and storage pattern as those in the CD-DA format are recorded.
[0067]
The audio data burst-read from the RAM 37, that is, the recording data, is supplied to the encoder 38. Here, as a unit of continuous recording in one recording, for example, a cluster composed of 32 sectors and several sectors for cluster connection arranged before and after the cluster are set as one recording unit. By setting the cluster connection sector to be longer than the interleave length in the encoder 38, even if the interleave occurs, it does not affect the recording of data of other clusters.
[0068]
The encoder 38 performs a parity addition process for error correction, an interleave process, an EFM (Eight to Fourteen Modulation) encoding process, and the like on the recording data supplied from the RAM 37. The recording data obtained by performing such processing is supplied to the magnetic head drive circuit 39.
[0069]
Next, the configuration of the reproducing system of the recording / reproducing apparatus 1 will be described. The decoder 51 performs decoding processing for error correction, EFM decoding processing, and the like on the reproduced signal that has been binarized and supplied by the RF circuit 15, and converts, for example, ATC audio data with a data compression ratio of 1 /, Playback is performed at a transfer rate of 75 sectors / sec, which is faster than the regular transfer rate. The reproduction data obtained by the decoder 51 is supplied to the RAM 52.
[0070]
The RAM 52 writes data from the decoder 51 and reads data from the ATC decoder 53 under the control of the system controller 17. For example, reproduction data supplied from the decoder 71 at a transfer rate of 75 sectors / second is written to the RAM 52. The RAM 52 continuously outputs the written reproduction data to the ATC decoder 53 (hereinafter, appropriately referred to as a decoder 53) at a transfer rate of 9.375 (= 75/8) sectors / second. That is, the decoder 53 processes data having a data compression rate of 1/8, which corresponds to the encoder 36 described above.
[0071]
The decoder 53 reproduces 16-bit digital audio data by, for example, expanding the data by 8 times (bit expansion). The digital audio data reproduced by the decoder 53 is supplied to a D / A (Digital / Analog) converter 54.
[0072]
The D / A converter 54 converts the digital audio data supplied from the decoder 53 into an analog signal and outputs the analog audio output signal A OUT Is output to the output terminal 56 via the low-pass filter 55.
[0073]
The system controller 17 includes, for example, a wireless communication function with an external device, an encryption function, a decryption function of encrypted data, a function of acquiring and retaining key information, an authentication function, and the like. It has each function. It is desirable from the viewpoint of data security that these functions are incorporated as one-chip circuits in the system controller 17.
[0074]
Here, data (code sequence) processed in the recording / reproducing apparatus 1 will be described.
[0075]
FIG. 2 is a diagram illustrating an example of a frame of an audio code string processed by the recording / reproducing apparatus 1.
[0076]
In this example, at the beginning of each frame (frame N), there is a fixed-length header including a synchronization signal, and this header includes, in addition to the synchronization signal, the number of encoding units (codes) of the audio signal included in the frame. Number of conversion units) is described. As will be described later, the encoding unit is, for example, a set of spectral signals to be encoded, divided into eight bands.
[0077]
Following the header, quantization precision data, normalization coefficient data, and spectrum coefficient data are recorded according to the number of coding units and spectra. When the length of each frame is fixed, an empty area is appropriately formed after the spectral coefficient data according to the data amount of the header, quantization precision data, normalization coefficient data, spectrum coefficient data, and the like.
[0078]
The number of coding units of the frame N shown in FIG. 2 is set to a value other than 0, and the code string described after the header is not encrypted. In the band specified by the number of coding units, reproduction of an audio code string based on quantization accuracy data, normalization coefficient data, and spectrum coefficient data is performed.
[0079]
FIG. 3 is a diagram illustrating another example of a frame processed by the recording / reproducing apparatus 1.
[0080]
In FIG. 3, the value of the number of coding units described in the header 1 of the frame N is 0, and the encryption flag = 1 is described after the header 1. The encryption flag = 1 indicates that the subsequent code string in the frame N has been encrypted. Hereinafter, a frame partially including an encrypted code string, such as the frame N in FIG. 3, is referred to as an encrypted frame as appropriate.
[0081]
In the example of FIG. 3, the header 2 describing the synchronization signal 2 and the number of encoding units 2 (≠ 0), quantization precision data, normalization coefficient data, and spectrum coefficient data are encrypted. . Therefore, the reproducing apparatus that has obtained the code string in FIG. 3 cannot correctly reproduce the encrypted part unless it obtains the encryption / decryption key for decrypting the encryption.
[0082]
The decoder (for example, the decoder 53) that reproduces the encrypted frame reads the value 0 of the number of coding units, recognizes that the frame contains a silent code string having a bandwidth of 0 Hz, and performs encryption. A silent PCM signal is generated during the frame playback period without playing back the encrypted code string after the encryption flag. That is, in this example, depending on the value of the number of encoding units, during playback of an encrypted frame, silence is output (whether no sound is output) or a code string after the encryption flag is decoded. It is specified whether to output sound.
[0083]
Thereby, it is possible to prevent the encrypted code string from being reproduced as a normal audio code string (unencrypted audio code string). That is, the noise generated when the encrypted code string is reproduced is not output.
[0084]
During the playback of the encrypted frame, information specifying whether to output a silent sound or to output a sound obtained by decoding a code string after the encryption flag (designating that the frame is an encrypted frame). As information, instead of being specified by the value of the number of coding units, a code string of a predetermined pattern that actually outputs silence may be described after the header.
[0085]
FIG. 4 is a diagram illustrating an example of a frame in which a silence code string (silence data) of a predetermined pattern for outputting silence is described after a header.
[0086]
Since the silence code string is described in the frame N of FIG. 4, the decoder 53 does not reproduce the encrypted code string described after the encryption flag during the reproduction period of the frame N without reproducing the encrypted code string. Continue outputting silence based on the code string.
[0087]
FIG. 5 is a diagram illustrating another example of a frame when an encryption flag is used as information specifying that the frame is an encrypted frame.
[0088]
When the encryption flag = 0 is described as shown in FIG. 5, the decoder 53 recognizes that the frame N is an encrypted frame (the code string after the encryption flag is actually encrypted). However, it is recognized that it is a mere silence code sequence), and silence is continuously output during the reproduction period of the frame N.
[0089]
The value of the encryption flag is rewritten when the user obtains the encryption / decryption key by downloading it from a predetermined server or the like. Therefore, when the encryption / decryption key is obtained, the value of the encryption flag is rewritten to 1, and thereafter, the code string after the encryption flag is recognized by the decoder 53 as an encrypted code string. become.
[0090]
As described above, various information can be used as information for specifying that the frame is an encrypted frame.
[0091]
Note that it is preferable to use, as the information, information having a minimum data amount among information permitted in a format, such as a restriction by a frame length. That is, by using the information of the minimum data amount as the information designating that the frame is an encrypted frame, the area for recording the encrypted code string (for example, the code string after the encryption flag in FIG. 3) is widened. Can be secured. Further, the information designating that this is an encrypted frame is not limited to the above-described position, but may be described at any position in the frame.
[0092]
FIG. 6 is a block diagram illustrating a detailed configuration example of the encoder 36 in FIG.
[0093]
Here, as shown in FIG. 4, an example of the configuration of the encoder 36 that describes a silence code string of a specific pattern as information designating that the frame is an encrypted frame during a frame reproduction period is shown.
[0094]
The audio signal supplied from the A / D converter 33 in FIG. 1 is input to an encoding unit 81 and an encoding unit 82, and each of them is subjected to high-efficiency encoding.
[0095]
The encoding means 82 uses a predetermined number of bits that is equal to or less than the total number of bits of the frame minus the number of bits required to record the silent code string and the encryption flag (assigned to the signal). ) Perform encoding. On the other hand, the encoding means 81 performs encoding using a predetermined number of bits equal to or less than the total number of bits of the frame.
[0096]
The code string obtained by the coding means 81 is output to the code string selection means 87, and the code string obtained by the coding means 82 is output to the code string encryption means 83.
[0097]
Note that the formed free area is filled with bits having a value different from the encryption flag. For example, as shown in FIG. 3, when the encrypted code string is described next to the encryption flag, the encryption flag is set to 1 and the value 0 is described in the empty area.
[0098]
The code string encrypting means 83 encrypts the output from the coding means 82 by using, for example, an encryption key supplied from the system controller 17 in FIG. 1, and converts the encrypted code string into a code string combining means 86. Output to
[0099]
The silence code string generating means 84 generates a silence code string of a predetermined pattern that generates silence when decoded, and outputs the silence code string to the encryption flag adding means 85.
[0100]
The encryption flag adding means 85 adds an encryption flag indicating that the subsequent code string is encrypted to the end of the silent code string generated by the silent code string generating means 84, and obtains the obtained code string. Is output to the code string synthesizing means 86. Therefore, the code string output from the encryption flag adding means 85 to the code string synthesizing means 86 corresponds to, for example, the silent code string and the encryption flag = 1 in FIG.
[0101]
The code string synthesizing means 86 adds the encrypted code string supplied from the code string encrypting means 83 to the end of the code string supplied from the encryption flag adding means 85. Generate all N. The header 1 in FIG. 4 is added at a predetermined timing. The code string (for example, frame N in FIG. 4) generated by the code string combining means 86 is output to the code string selecting means 87.
[0102]
The code string selecting means 87 receives the frame (encrypted code) supplied from the encoding means 81 in accordance with information supplied from the system controller 17 of FIG. 1 and specifying whether or not the frame is to be an encrypted frame. (A frame not including a sequence) and an encrypted frame supplied from the code sequence synthesizing means 86, and output to the subsequent stage. That is, when it is specified that an encoded frame is to be used, the code string selecting means 87 selects the code string supplied from the code string synthesizing means 86 and outputs the selected code string to the outside. If so, the code string supplied from the encoding means 81 is selected and output to the outside.
[0103]
Accordingly, a frame not including the encrypted code string as shown in FIG. 2 or a cipher including a silent code string and partially including the encrypted code string as shown in FIG. The encoded frame is output from the code string selecting means 87 to the RAM 37 in FIG.
[0104]
In the RAM 37, the output from the encoder 36 is buffered, and the above-described predetermined unit code string is output as recording data to the subsequent encoder 38 and recorded on the magneto-optical disk 11.
[0105]
FIG. 7 is a diagram illustrating an example of a frame sequence output from the encoder 36. In FIG. 7, the reproduction direction is from left to right in the figure, and the header, encryption flag, and the like of each frame described above are omitted for convenience of description.
[0106]
In FIG. 7, the area of the encrypted code string is indicated by oblique lines, and frames 1 to 3 and frames 7 to 9 are cipher codes in which a silent code string and an encrypted code string are described. It is a chemical frame. Frames 4 to 6 are frames in which an unencrypted audio code string is described.
[0107]
Therefore, when the audio code string composed of such a frame string is used as a code string for trial listening, the user can listen to the frames 4 to 6 even without acquiring the encryption / decryption key.
[0108]
That is, when the audio code string of FIG. 7 is reproduced, during the reproduction period of frames 1 to 3, silence is output (no sound is output) based on the silence code string described respectively, and frames 4 to 6 are output. During the reproduction period of, a sound obtained by reproducing the audio code string is output. Further, during the reproduction period of frames 7 to 9, silence is output based on the silence code strings described in each of them.
[0109]
As described above, even when frames 1 to 3, which are encrypted frames, are reproduced, for example, the sound obtained when the encrypted code string is reproduced, that is, noise is not output. The business operator can generate a trial code sequence such that only the sound of a predetermined frame can be previewed without generating noise, and can distribute it to users.
[0110]
In addition, the user pays a predetermined fee when he / she wants to listen to the trial code sequence and purchase the content (when the user wants to listen to the entire content by decoding the encrypted code sequence included in the encrypted frame). For example, since only the encryption / decryption key needs to be obtained, the communication time can be reduced as compared with the case where the entire content is downloaded.
[0111]
Next, details of the configuration in FIG. 6 will be described.
[0112]
FIG. 8 is a block diagram showing a configuration example of the encoding unit 81 of FIG. The encoding means 82 has the same configuration as that shown in FIG.
[0113]
Here, a case where high efficiency coding is performed by receiving a digital signal such as an audio PCM signal and performing band division coding (SBC), adaptive conversion coding (ATC), and adaptive bit allocation will be described. I do. Adaptive transform coding is a coding method that adapts bit allocation based on a discrete cosine transform (DCT) or the like, and converts an input signal into a spectral signal for each time block, and for each predetermined band, The spectral signals are collectively normalized, that is, each signal component is divided by a normalization coefficient approximating the maximum signal component, and then quantized and encoded with a quantization accuracy determined in a timely manner according to the properties of the signal. .
[0114]
The conversion unit 101 receives the input of the acoustic waveform signal, converts the signal into a signal frequency component, and outputs the signal frequency component to the signal component encoding unit 102. The signal component encoding unit 102 encodes the input signal frequency component and outputs the encoded signal frequency component to the code sequence generation unit 103. The code sequence generation unit 103 generates a code sequence from the signal frequency components encoded by the signal component encoding unit 102, and outputs the generated code sequence to the code sequence selection unit 87.
[0115]
FIG. 9 is a block diagram showing a more detailed configuration example of the conversion means 101 of FIG.
[0116]
The acoustic waveform signal input to the conversion unit 101 is divided into two bands by the band division filter 111, and each signal is output to the forward spectrum conversion units 112-1 and 112-2. The forward spectrum transform means 112-1 and 112-2 convert the input signal into a spectrum signal component using, for example, MDCT or the like and output the signal to the signal component encoding means 102. The signals input to the forward spectrum conversion means 112-1 and 112-2 are の of the bandwidth of the signal input to the band division filter 111, and the signal inputs are also decimated to そ れ ぞ れ, respectively. ing.
[0117]
In the conversion means 101 of FIG. 9, the signal divided into two bands by the band division filter 111 is converted into a spectrum signal component using MDCT, but the input signal is converted into a spectrum signal component. Any method may be used as the method of converting to. For example, the input signal may be converted into a spectrum signal component by MDCT without band division, or the input signal may be converted into a spectrum signal by DCT or DFT.
[0118]
By using a so-called band division filter, it is possible to divide an input signal into band components. However, MDCT, DCT, or It is preferable to perform spectrum conversion using DFT.
[0119]
In FIG. 9, the input acoustic waveform signal is divided into two bands by the band division filter 111, but the number of band divisions does not have to be two. Information indicating the number of band divisions in the band division filter 111 is output to the code sequence generation unit 103 via the signal component encoding unit 102.
[0120]
FIG. 10 is a diagram in which the absolute value of the spectrum signal by MDCT obtained by the conversion unit 101 is converted into a power level.
[0121]
The acoustic waveform signal input to the conversion means 101 is converted into, for example, 64 spectral signals for each predetermined time block. These spectrum signals are divided into eight bands [1] to [8] by the signal component encoding means 102, for example, as shown by eight frames surrounded by solid lines in the figure. , Quantization and normalization are performed for each band. A set of spectral signals divided into these eight bands, that is, a set of spectral signals to be quantized and normalized is an encoding unit.
[0122]
By changing the quantization precision for each coding unit based on the distribution of frequency components, efficient coding that minimizes deterioration of the quality of sound audible to humans becomes possible.
[0123]
FIG. 11 is a block diagram showing a detailed configuration example of the signal component encoding unit 102 in FIG.
[0124]
Here, for example, the signal component encoding unit 102 separates, from the input spectrum signal, a tone portion that is particularly important in terms of audibility, that is, a signal component in which energy is concentrated around a specific frequency. May be encoded separately from the spectral components (non-tone components), or may be encoded without separation.
[0125]
The normalization unit 121 receives a spectral signal of a tone component or a non-tone component for each encoding unit, performs normalization, and outputs the result to the quantization unit 123. The quantization accuracy determination unit 122 calculates the quantization accuracy with reference to the input coding unit, and outputs the calculation result to the quantization unit 123. The quantization precision determining means 122 determines the quantization precision such that when the input coding unit is a tone component, the quantization precision is higher than when the input coding unit is a non-tone component. The quantization means 123 quantizes the normalization result input from the normalization means 121 with the quantization precision determined by the quantization precision determination means 122, generates a code, and adds the code to the generated code. And encoding information such as normalization coefficient information and quantization accuracy information.
[0126]
Further, the signal component encoding means 102 also encodes the position information of the tone component and the like together with the tone component and outputs the encoded information.
[0127]
FIG. 12 is a block diagram showing a configuration example of the decoder 53 of FIG.
[0128]
The decryption unit 131 converts the code string (frame) supplied from the RAM 52 into a PCM signal, and determines whether the supplied frame is an encrypted frame. When determining that the supplied frame is not an encrypted frame, the decryption unit 131 outputs the decryption result to the signal selection unit 135.
[0129]
In this case, the output of the decoding unit 131 is selected by the signal selection unit 135 and output to the outside, and the user can listen to the reproduction result of the audio code string.
[0130]
When the decryption means 131 determines that the encryption flag described in the supplied frame is 0 and outputs a code string included in the frame after the encryption flag as a silent signal, the decryption unit 131 converts the silent PCM signal into a silent signal. In addition to outputting to the signal selection means 135, the encryption flag = 0 and the encrypted code string are output to the encryption flag inspection means 132.
[0131]
In this case, as will be described later, a selection signal representing 0 is input from the encryption flag checking unit 132 to the signal selecting unit 135, and the output of the decrypting unit 131 is selected by the signal selecting unit 135. Output (no sound is output).
[0132]
If the decoding unit 131 determines that the supplied frame is, for example, an encrypted frame including a silence code string as shown in FIG. 4, the decoding unit 131 converts the silence PCM signal, which is the result of decoding the silence code string, into a frame. The signal is output to the signal selection means 135, and the subsequent code string is output to the encryption flag inspection means 132. Therefore, the encryption flag = 1 in FIG. 4 and the encrypted code string are output to the encryption flag checking unit 132.
[0133]
The encryption flag checking unit 132 checks whether the value of the encryption flag, which is the first bit supplied from the decoding unit 131, is 1. When determining that the value of the encryption flag is 1, the encryption flag checking unit 132 outputs a selection signal indicating 1 to the signal selection unit 135, and when determining that the value of the encryption flag is 0, A selection signal representing 0 is output to the signal selection means 135. Further, the encryption flag inspection unit 132 outputs the encrypted code string after the encryption flag to the encryption / decryption unit 133.
[0134]
The encryption / decryption unit 133 decrypts the code string supplied from the encryption flag inspection unit 132 using the encryption / decryption key supplied from the system controller 17, and outputs the obtained decryption result to the decryption unit 134. When the user has not purchased an encryption / decryption key and the encryption / decryption key is not supplied from the system controller 17, the encryption / decryption unit 133 encrypts the code string supplied from the encryption flag inspection unit 132. The data is output to the decoding means 134 as it is.
[0135]
When the decoding result obtained by decoding the encrypted code string is supplied from the encryption / decryption means 133, the decoding means 134 decodes (reproduces) the code string and converts the obtained PCM signal into a signal selected by the signal selecting section. Output to the means 135. In addition, when a code string that has been encrypted is supplied from the encryption / decryption means 133, the decoding means 134 outputs a silent PCM signal to the signal selection means 135 without decoding the code string.
[0136]
When the value of the encryption flag is 1, the output of the decryption means 134 is selected based on the selection signal supplied from the encryption flag inspection means 132 and output to the outside. Therefore, when the value of the encryption flag is 1, either a PCM signal obtained by reproducing the decoding result of the encrypted code string or a silent PCM signal generated by the decoding unit 134 is output.
[0137]
When the value of the selection signal supplied from the encryption flag inspection unit 132 is 1, the signal selection unit 135 outputs the PCM signal supplied from the decryption unit 134 to the external D / A converter 54 (FIG. 1). On the other hand, when the value of the selection signal is 0, the PCM signal supplied from the decoding unit 131 is output to the D / A converter 54.
[0138]
Next, details of the configuration in FIG. 12 will be described.
[0139]
FIG. 13 is a block diagram illustrating a configuration example of the decoding unit 131 in FIG.
[0140]
The code string decomposing means 151 receives the input of the frame, decomposes the code string, extracts the code of each signal component, and outputs the obtained code to the signal component decoding means 152. The signal component decoding unit 152 decodes the input encoded frame, and outputs the decoding result to the inverse transform unit 153.
[0141]
FIG. 14 is a block diagram showing a detailed configuration example of the signal component decoding means 152.
[0142]
The inverse quantization means 161 inversely quantizes the input code and outputs the result to the inverse normalization means 162. The inverse normalizing means 162 inversely normalizes the input code. That is, decoding processing is performed by the inverse quantization means 161 and the inverse normalization means 162, and a spectrum signal is output.
[0143]
FIG. 15 is a block diagram showing a detailed configuration example of the inverse conversion means 153 of FIG.
[0144]
In the example of FIG. 15, the spectrum signal decoded by the signal component decoding unit 152 is separated into two bands by the inverse conversion unit 153 and input to the inverse spectrum conversion units 171-1 and 172-2. I have.
[0145]
The inverse spectrum conversion means 171-1 and 171-2 perform inverse spectrum conversion on the input spectrum signal, and output the obtained signal of each band to the band synthesis filter 172. The band combining filter 172 combines the input signals of the respective bands and outputs the combined signal.
[0146]
The PCM signal output from the band synthesis filter 172 is output to the signal selection unit 135 in FIG.
[0147]
Next, with reference to a flowchart of FIG. 16, a process of encoding by software and recording the generated audio code string on the magneto-optical disk 11 of FIG. 1 will be described.
[0148]
Here, a case will be described in which an audio code string is generated by software. However, the same processing is naturally performed by hardware having the above-described configurations to generate an audio code string.
[0149]
In step S1, 1 is set to a variable J representing the number of the frame to be encoded, and the process proceeds to step S2. In step S2, whether or not the frame is an encrypted frame is determined based on the value of the variable J. That is, information specifying an encrypted frame (information specifying which frame is not to be previewed as shown in FIG. 7) is determined and input by, for example, an administrator.
[0150]
If it is determined in step S2 that the current frame to be encoded is not an encrypted frame, the process proceeds to step S3, where the input audio signal is encoded by the codec, and the process proceeds to step S4. In step S4, recording of the audio signal encoded in step S3 (description of quantization coefficient data, normalization coefficient data, spectrum coefficient data, and the like on the magneto-optical disk 11) is performed.
[0151]
In step S5, the value 0 is recorded in all the empty areas formed in the frame, and the process proceeds to step S6, where it is determined whether the processed frame is the last frame. Thereby, for example, a frame that does not include the encrypted data as shown in FIG. 2 is generated and recorded on the magneto-optical disk 11.
[0152]
If it is determined in step S6 that the processed frame is not the last frame, the process proceeds to step S7, and after the value of the variable J is increased by 1, the process returns to step S2, and the subsequent processes are repeated.
[0153]
On the other hand, if it is determined in step S2 that the encoding target frame is to be an encrypted frame, the process proceeds to step S8, in which a silent code sequence having a specific pattern is generated which instructs to output silence during the reproduction period. , Are encoded.
[0154]
The generated silence code string is recorded in step S9, and proceeds to step S10. In step S10, the encryption flag = 1 is recorded following the silent code string.
[0155]
In step S11, the input audio signal is encoded by the codec, and the process proceeds to step S12, where encryption is performed. Also, the encrypted input audio signal is recorded following the encryption flag added in step S10. Thereby, for example, a frame as shown in FIG. 4 is generated and recorded on the magneto-optical disk 11.
[0156]
Thereafter, the process proceeds to step S6, and the subsequent processes are repeated. If it is determined in step S6 that the processed frame is the last frame, the process ends.
[0157]
By the above processing, for example, as shown in FIG. 7, an encrypted frame including a silence code string and an encrypted code string, or a frame string including a frame including an original audio code string is converted to the magneto-optical disk 11. Recorded in. Note that the audio code string generated as described above may be distributed as a preview code string via a network.
[0158]
Next, with reference to a flowchart of FIG. 17, a description will be given of a process of software for reproducing the audio code string generated by the process of FIG.
[0159]
In step S21, 1 is set to a variable J representing the number of the frame to be decoded, and the process proceeds to step S22. In step S22, the frame to be decrypted is decrypted, and the flow advances to step S23 to determine whether the decrypted frame is an encrypted frame.
[0160]
If it is determined in step S23 that the decrypted frame is not an encrypted frame, the process proceeds to step S24, where the audio signal (PCM signal) decrypted in step S22 is reproduced. Therefore, when the frame to be decrypted is a frame that can be previewed (a frame that does not include encrypted data), a preview sound that is the decryption result is output.
[0161]
In step S25, it is determined whether or not the processed frame is the last frame. If it is determined that the processed frame is not the last frame, the process proceeds to step S26. After the value of the variable J is increased by 1, the process returns to step S22. Subsequent processing is repeated.
[0162]
On the other hand, if it is determined in step S23 that the decrypted frame is an encrypted frame, the process proceeds to step S27, where it is determined whether the encryption flag is 1.
[0163]
If it is determined in step S27 that the value of the encryption flag is not 1, the process proceeds to step S24, and the audio signal decoded in step S22 is reproduced. As described above, if the value of the encryption flag is not 1, that is, if it is 0, even if the encrypted code string is actually in the frame, in step S22, the encrypted code The sequence is not reproduced, and the silence code sequence is reproduced. Therefore, in the process of step S24 performed after the determination of step S27, a silent PCM signal is reproduced.
[0164]
If it is determined in step S27 that the value of the encryption flag is 1, the process proceeds to step S28, where the encrypted audio code string described after the encryption flag is written using the encryption / decryption key. After decoding, the process proceeds to step S29, where the high-efficiency code of the obtained code string is decoded.
[0165]
In step S30, the audio signal decoded in step S29 is reproduced, the process proceeds to step S25, and the subsequent processes are repeated. If it is determined in step S25 that the reproduced frame is the last frame, the process ends.
[0166]
In the above description, the case where the audio code string is reproduced and output is described. Next, the decoding of the encrypted frame is appropriately performed in the same manner, and the audio code string that can be previewed in all the frames is generated. Subsequently, a configuration for recording the data on a predetermined recording medium and a process will be described.
[0167]
FIG. 18 illustrates a recording apparatus that receives an input of an audio code string generated by the process described with reference to FIG. 16, decodes an encrypted frame, and records the decoded audio code string on a predetermined recording medium. FIG. 3 is a block diagram illustrating a configuration example. 18, the same components as those in FIG. 12 are denoted by the same reference numerals, and description thereof will be omitted as appropriate.
[0168]
The code string selecting means 181 outputs to the recording means 182 any one of the audio code string supplied from the outside and the code string supplied by the encryption / decryption by the encryption / decryption means 133. As described above, when the value of the encryption flag is 1, a selection signal representing 1 is supplied from the encryption flag inspection unit 132, and thus the code string selection unit 181 is supplied from the encryption / decryption unit 133. A code string obtained by decrypting the encryption is selected and output to the recording means 182.
[0169]
On the other hand, when the value of the encryption flag is 0, since a selection signal representing 0 is supplied from the encryption flag checking unit 132, the code sequence selection unit 181 selects a code sequence supplied from the outside, and Is output to the recording means 182. Note that, for example, when the processing by the recording device in FIG. 18 is performed after the encryption / decryption key is obtained, the code string supplied from the outside is already rewritten so that the value of the encryption flag becomes 1. Is not recorded as it is.
[0170]
The recording unit 182 records the code string supplied from the code string selection unit 181 on a recording medium (not shown). For example, when a frame not subjected to encryption as shown in FIG. 2 is input to the code string selecting means 181, the code string is selected by the code string selecting means 181, and a predetermined recording medium is recorded by the recording means 182. Recorded in. When an encrypted frame as shown in FIG. 4 is input, the encrypted code string is decrypted by the encryption / decryption means 133, and the code string resulting from the decryption is selected by the code string selection means 181 and recorded. The information is recorded on the recording medium by the means 182.
[0171]
Next, with reference to a flowchart of FIG. 19, a description will be given of a process of software that decodes an encrypted code string included in an encrypted frame and records the obtained audio code string on a recording medium.
[0172]
Here, a case where the processing is performed by software will be described, but the same processing is naturally performed by hardware having a configuration as illustrated in FIG. 18.
[0173]
In step S41, 1 is set to a variable J indicating the number of the frame to be recorded, and the process proceeds to step S42. In step S42, the frame to be recorded is decrypted, and the process advances to step S43 to determine whether the decrypted frame is an encrypted frame.
[0174]
If it is determined in step S43 that the decrypted frame is not an encrypted frame, the process proceeds to step S44, and the code string supplied as a recording target is recorded on the recording medium as it is.
[0175]
In step S45, it is determined whether or not the recorded frame is the last frame. If it is determined that the frame is not the last frame, the process proceeds to step S46, and after the value of the variable J is increased by 1, the process returns to step S42. , And the subsequent processes are repeated.
[0176]
On the other hand, when it is determined in step S43 that the decrypted frame is an encrypted frame, the process proceeds to step S47, and it is determined whether the value of the encryption flag is 1.
[0177]
If it is determined in step S47 that the value of the encryption flag is not 1, the process proceeds to step S44, and the silent code string decoded in step S42 is recorded.
[0178]
If it is determined in step S47 that the value of the encryption flag is 1, the process proceeds to step S48, where the encrypted audio code string described next to the encryption flag is decrypted using the decryption key. Is done. In step S49, the code string obtained by decoding is recorded from the beginning of the recording position allocated to the frame being processed at this time.
[0179]
In step S50, the value 0 is described in all of the empty areas, the process proceeds to step S45, and the subsequent processing is repeatedly executed. If it is determined in step S45 that the recorded frame is the last frame, the process ends.
[0180]
As described above, the encrypted code string is appropriately decoded, and the audio code string obtained by decoding the entire code string is recorded on the recording medium. It should be noted that a recording medium on which an audio code string to be processed as described above is recorded (a recording medium on which an audio code string before processing is recorded) is obtained by decoding by the above processing. The recording medium on which the audio code string as the decoding result is recorded (the recording medium on which the processed audio code string is recorded) may be the same recording medium or different recording media.
[0181]
In the above, the case where the encrypted code string is identified by the encryption flag has been described. However, when a silent frame (a frame having no sound even when reproduced) is originally encrypted, the encryption is performed. Without using a flag, the silence code string is encrypted, and immediately after the silence code string (generated at the time of creating the audio code string and included in the frame) immediately after the silence code string described after the header of each frame. May be arranged at
[0182]
In this case, even if the encrypted code string is played back by a decoder that cannot decode the code string, as described above, it is a silent signal that is played back with the encrypted frame, and the unencrypted frame is played back. Is an original audio signal (silence signal). Therefore, even if the frame is encrypted, no noise is output when the frame is reproduced.
[0183]
FIG. 20 shows an example of such an audio code string. In FIG. 20, the value of the number of encoding units is set to 0 instead of recording silence data, thereby designating that frame N in FIG. 20 is an encrypted frame.
[0184]
In the above description, since silence is output during the playback period of the encrypted frame, for example, as shown in FIG. 21, when the trial listening portion is located at a remote place, the first trial listening portion (frame 3) is output. The user must continue to listen to the silence from the time point 5) to the second audition portion (frames 9 to 12) (while the silence of the frames 6 to 7 is reproduced). Therefore, in order to avoid this and allow only the trial listening part to be heard continuously, information specifying the position of the next trial listening part is described in the frame, and the trial listening is performed based on the information. The reproduction of the code string may be controlled.
[0185]
FIG. 22 is a diagram illustrating an example of a frame including information for specifying the position of the next trial listening possible portion. The description of the above-described components will be omitted as appropriate.
[0186]
In FIG. 22, the number of coding units of the header 1 is 0, and as described above, the decoder reads the value of the number of coding units 0, and this frame is a silent code sequence having a bandwidth of 0 Hz. Is interpreted as recorded, and a silent signal is generated during the reproduction period of this frame.
[0187]
Immediately after the header 1, a type flag indicating the type of this frame is described. Further, immediately after the header 1, a silent code string may be actually recorded as shown in FIG. 4, and the type flag may be described immediately after that.
[0188]
Hereinafter, in a frame that does not include an encrypted code string, 0 is written in a free area (an area where a type flag is written in an encrypted frame). Also, for example, as in frames 1 and 2 in FIG. 21, the first encrypted frame in a frame sequence including a plurality of encrypted frames, that is, frame 1 has 2 as a type flag, and other frames have That is, 1 is described as the type flag in frame 2.
[0189]
As shown in the frame 2 of FIG. 22, the number of dummy skip frames is described after the type flag 1, which is described when the type flag is 2 and is equal to or smaller than the number of skip frames. The allocation bits are adjusted so as to be equal for each frame, and this area does not have to be provided.
[0190]
The decoder determines that an encrypted code string is recorded after the type flag in which 1 or 2 is set and the number of skip frames following the type flag.
[0191]
On the other hand, as will be described in detail later, after recording the silent code string, the encoder records the type flag 2 and then records the number of skipped frames, and then encrypts and records the encoded audio signal. Further, after recording the silent code string, the encoder records the type flag 1 and then records a dummy code, and then encrypts and records the encoded audio signal.
[0192]
FIG. 23 is a block diagram illustrating a configuration example of the encoder 36 that records the type flag and the number of skip frames as necessary. The same components as those in FIG. 6 are denoted by the same reference numerals.
[0193]
The encoding unit 81 and the encoding unit 82 encode the supplied audio signal with high efficiency. At this time, the encoding unit 82 determines the predetermined number of bits equal to or less than the number obtained by subtracting the number of bits necessary for encoding the silence code sequence, the type flag, and the number of skipped frames from the total number of bits of the frame. To perform encoding. The encoding unit 81 performs encoding using a predetermined number of bits equal to or less than the total number of bits of the frame.
[0194]
The code string encrypting means 83 encrypts the output from the coding means 82 using an encryption key supplied from the system controller 17 and outputs the encrypted code string to the code string synthesizing means 86. .
[0195]
The silent code string generating means 84 generates a silent code string and outputs the code string to the type flag adding means 201.
[0196]
The type flag adding unit 201 adds, after the silent code sequence generated by the silent code sequence generating unit 84, a type flag = 1 indicating that a code sequence thereafter is encrypted, and the number of dummy skip frames. Then, the obtained code string is output to the code string combining means 86. Therefore, the code string output from the type flag adding means 201 to the code string synthesizing means 86 includes the silent code string of frame 2 (the number of coding units = 0 or the actual silent code string) shown in FIG. = 1 and an empty area (the number of dummy skip frames).
[0197]
The code string synthesizing means 86 adds the code string supplied from the code string encrypting means 83 to the end of the code string supplied from the type flag adding means 201, and generates, for example, the entire frame 2 in FIG. The code string generated by the code string combining means 86 is output to the code string selecting means 205.
[0198]
The silent code string generating means 202 generates a silent code string, and outputs the code string to the type flag / skip frame number information adding means 203.
[0199]
The type flag / skip frame number information adding means 203 indicates that a code string after the silent code string generated by the silent code string generating means 202 is encrypted, , The type flag = 2 indicating that the frame is the first frame and the number of skipped frames are added, and the obtained code sequence is output to the code sequence synthesizing unit 204. Since the information for specifying the skip frame number is supplied from the system controller 17, the type flag / skip frame number information adding unit 203 describes the skip frame number according to the specification.
[0200]
For example, it is preferable that the number of skip frames described is a number from the start frame of the next previewable portion to a frame that is several seconds earlier in reproduction time. Thereby, for example, after the first trial listening portion (frames 3 to 5) in FIG. 21 is reproduced, before the reproduction of the second trial listening portion (frames 9 to 12) is started, only a few seconds. Since silence is output, the user who is listening can know that the listening interval has been switched.
[0201]
The code string output from the type flag / skip frame number information adding means 203 to the code string synthesizing means 204 is a silent code string of frame 1 shown in FIG. 22 (the number of coding units = 0 or an actual silent code string). , Type flag = 2, and the number of skipped frames.
[0202]
The code string synthesizing unit 204 adds the code string supplied from the code string encrypting unit 83 to the end of the code string supplied from the type flag / skip frame number information adding unit 203. Generate the whole. The code string generated by the code string combining means 204 is output to the code string selecting means 205.
[0203]
The code string selecting means 205 includes a frame supplied from the encoding means 81, a frame supplied from the code string synthesizing means 86, a frame supplied from the code string synthesizing means 204 according to an instruction from the system controller 17 in FIG. And select one of them to output.
[0204]
FIG. 24 is a block diagram showing a configuration example of a decoder 53 that processes a code string as shown in FIG. The same components as those in FIG. 12 are denoted by the same reference numerals, and description thereof will be omitted as appropriate.
[0205]
The decoded frame selecting unit 211 selects a predetermined frame from the supplied code string based on the selection signal supplied from the type flag / skip frame number information inspecting unit 212, and sends the selected frame to the decoding unit 131. Output.
[0206]
The decoding unit 131 reproduces the code string supplied from the code frame selection unit 211 and outputs the obtained PCM signal to the signal selection unit 135. If the decryption unit 131 determines that the supplied frame is an encrypted frame as a result of decryption, the decryption unit 131 outputs the entire code string of the encrypted frame to the type flag / skip frame number information inspection unit 212.
[0207]
The type flag / skip frame number information checking means 212 takes the value of 1 at the time of the trial listening and 0 after the purchase of the encryption / decryption key, and has the same value as the trial mode flag based on the trial mode flag supplied from the system controller 17. Is output to the signal selection means 135.
[0208]
At the time of trial listening, and when the value of the type flag described in the frame to be processed is 2, the type flag / skip frame number information checking unit 212 determines that the number of frames to be decoded is equal to the number specified by the number of skip frames. A signal indicating skipping is output to decoded frame selecting means 211.
[0209]
When the type flag takes a value of 1 or 2, the type flag / skip frame number information inspection unit 212 outputs the encrypted code string after the type flag to the encryption / decryption unit 133.
[0210]
The encryption / decryption unit 133 decodes the code string supplied from the type flag / skip frame number information inspection unit 212 using the encryption / decryption key supplied from the system controller 17, and sends the obtained decryption result to the decryption unit 134. Output. The decoding means 134 decodes (reproduces) the code string supplied from the encryption / decryption means 133 and outputs the obtained PCM signal to the signal selection means 135.
[0211]
When the value of the selection signal supplied from the type flag / skip frame number information inspection unit 212 is 1 (during trial listening), the signal selection unit 135 converts the PCM signal supplied from the decoding unit 131 into an external D signal. / A converter 54 (FIG. 1). On the other hand, when the value of the selection signal is 0 (at the time of reproduction after purchase of the encryption / decryption key), the PCM signal supplied from the decryption means 134 is externally output. Output to
[0212]
Next, with reference to a flowchart of FIG. 25, a process of performing encoding by software to generate an audio code string as shown in FIG. 22 will be described.
[0213]
Here, the case where the audio code string is generated by software will be described. However, the same processing is naturally performed by hardware having each configuration as shown in FIG. 23, and the audio code string is generated. You.
[0214]
In step S101, 1 is set to a variable J indicating the number of the frame to be encoded, and the process proceeds to step S102. In step S102, whether or not the frame is an encrypted frame is determined based on the value of the variable J. That is, the information specifying the encrypted frame is determined and input by, for example, the administrator.
[0215]
If it is determined in step S102 that the current frame to be encoded is not to be an encrypted frame, the process proceeds to step S103, in which the input audio signal is encoded by the codec, and the process proceeds to step S104. In step S104, recording of the audio signal encoded in step S103 (description of quantization coefficient data, normalization coefficient data, spectrum coefficient data, and the like on the magneto-optical disk 11) is performed.
[0216]
In step S105, the value 0 is recorded in all the empty areas formed in the frame, and the process proceeds to step S106, where it is determined whether the processed frame is the last frame. As a result, a frame that can be previewed is generated and recorded.
[0219]
If it is determined in step S106 that the processed frame is not the last frame, the process proceeds to step S107, after the value of the variable J is increased by 1, returns to step S102, and the subsequent processes are repeated.
[0218]
On the other hand, if it is determined in step S102 that the frame to be encoded is an encrypted frame, the process proceeds to step S108, and a silence code sequence having a specific pattern instructing to output silence during the reproduction period is generated. Encoded.
[0219]
The generated silence code string is recorded in step S109, and proceeds to step S110. In step S110, it is determined whether or not the encrypted frame to be processed is the first encrypted frame in the frame sequence including the plurality of encrypted frames. If it is determined that the encrypted frame is the first frame, step S111 Then, the type flag is set to 2 and the number of skipped frames is recorded. After that, it advances to step S113.
[0220]
On the other hand, when it is determined in step S110 that the encrypted frame to be processed is not the first frame of the frame sequence including the plurality of encrypted frames, the process proceeds to step S112, where the type flag is set to 1 and the dummy flag is set. Is recorded. After that, it advances to step S113.
[0221]
In step S113, the input audio signal is encoded by the codec, and the process proceeds to step S114, where encryption is performed. Also, the encrypted input audio signal is recorded following the skip frame number (dummy skip frame number) added in step S111 or S112. Thereby, for example, a frame 1 or 2 as shown in FIG. 22 is generated and recorded on the magneto-optical disk 11.
[0222]
Thereafter, the process proceeds to step S106, and the subsequent processes are repeated. If it is determined in step S106 that the processed frame is the last frame, the process ends.
[0223]
Next, with reference to a flowchart of FIG. 26, a description will be given of a process of software for reproducing the audio code string generated by the process of FIG.
[0224]
In step S121, 1 is set to a variable J indicating the number of the frame to be decoded, and the process proceeds to step S122. In step S122, the frame to be decrypted is decrypted, and the flow advances to step S123 to determine whether the decrypted frame is an encrypted frame.
[0225]
If it is determined in step S123 that the decrypted frame is not an encrypted frame, the process proceeds to step S124, where the audio signal decrypted in step S122 is reproduced. Therefore, when the frame to be decoded is a frame that can be previewed, a preview sound that is the decoding result is output.
[0226]
In step S125, it is determined whether or not the processed frame is the last frame. If it is determined that the processed frame is not the last frame, the process proceeds to step S126. After the value of the variable J is increased by 1, the process returns to step S122. Subsequent processing is repeated.
[0227]
On the other hand, when it is determined in step S123 that the decrypted frame is an encrypted frame, the process proceeds to step S127, and whether the type flag is 2, that is, the target encrypted frame is It is determined whether or not this is the first frame of the frame sequence.
[0228]
If it is determined in step S127 that the value of the type flag is not 2 (for example, 0), the process proceeds to step S124, and the audio signal decoded in step S122 is reproduced. Note that the processing of an encrypted frame whose type flag value is 1 is basically skipped.
[0229]
On the other hand, if it is determined in step S127 that the value of the type flag is 2, the process proceeds to step S128, where the number of skip frames described after the type flag is read, and the value is set to K, and the process proceeds to step S129. , The value of the variable J is added by K, and the process returns to step S122. Therefore, the frame to be processed is skipped by K frames and is not processed.
[0230]
The above processing is repeatedly executed, and when it is determined in step S125 that the reproduced frame is the last frame, the processing ends. As a result, for example, only the trial listening portion is continuously reproduced.
[0231]
In the above description, the case where the number of skip frames is described only in the first frame sequence of the frame sequence of the encrypted frame has been described. However, not only the first encrypted frame of the frame sequence but also the subsequent encrypted frames are described. The number of skip frames can also be described in the frame. In this case, the processing frame is skipped based on the number of skipped frames described in the encrypted frames after the first encrypted frame.
[0232]
In the above description, silence is output (no sound is output) during the playback period of the encrypted frame. However, a predetermined sound other than noise output when the encrypted data is played back as it is is output. May be output. In this case, in the encrypted frame, data instructing to output such a predetermined sound is described separately from the encrypted data. Further, when the predetermined sound is a silent sound or the like, that part may be skipped (not output) and reproduced.
[0233]
As described above, these series of processes can be executed by hardware, but can also be executed by software. In this case, for example, the recording / reproducing apparatus 1 in FIG. 1 is configured by a personal computer 231 as shown in FIG.
[0234]
27, a CPU (Central Processing Unit) 241 has a program stored in a ROM (Read Only Memory) 242 or a program loaded from a HDD (Hard Disk Drive) 248 to a RAM (Random Access Memory) 243 according to a program. Execute various processes. The RAM 243 also appropriately stores data necessary for the CPU 241 to execute various processes.
[0235]
The CPU 241, the ROM 242, and the RAM 243 are mutually connected via a bus 244. The bus 244 is also connected to an input / output interface 245.
[0236]
The input / output interface 245 is connected to an input unit 246 including a keyboard and a mouse, an output unit 247 including a display, an HDD 248, and a communication unit 249. The communication unit 249 performs communication processing via a network.
[0237]
A drive 250 is connected to the input / output interface 245 as necessary, and a magnetic disk 251, an optical disk 252, a magneto-optical disk 253, a semiconductor memory 254, or the like is appropriately mounted. It is installed in the HDD 248 as needed.
[0238]
When a series of processing is executed by software, a program constituting the software executes various functions by installing a computer built in dedicated hardware or installing various programs. For example, it is installed from a network or a recording medium into a general-purpose personal computer or the like.
[0239]
As shown in FIG. 27, this recording medium is a magnetic disk 251 (including a floppy disk) storing the program, an optical disk 252, which is distributed to supply the program to the user separately from the apparatus main body. (Including a CD-ROM (Compact Disk-Read Only Memory), a DVD (Digital Versatile Disk)), a magneto-optical disk 253 (including an MD (Mini-Disk)), or a package medium including a semiconductor memory 254. Not only that, but also a ROM 242 and a HDD 248 that store the program and that are supplied to the user in a state of being incorporated in the apparatus main body in advance.
[0240]
In the present specification, the steps of describing a program stored in a recording medium include, in addition to the processing performed in chronological order in the order in which they are included, the processing is not necessarily performed in chronological order, but may be performed in parallel or individually. This includes the processing to be executed.
[0241]
【The invention's effect】
According to the first aspect of the present invention, a data string including encrypted data can be generated.
[0242]
Further, according to the first aspect of the present invention, it is possible to generate a data string capable of suppressing generation of noise even when encrypted data is included.
[0243]
According to the second aspect of the present invention, a data string including encrypted data can be reproduced.
[0244]
Further, according to the second aspect of the present invention, it is possible to suppress generation of noise even when the data includes encrypted data.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration example of a recording and reproducing apparatus to which the present invention has been applied.
FIG. 2 is a diagram illustrating an example of a code string described in a frame.
FIG. 3 is a diagram illustrating another example of a code string described in a frame.
FIG. 4 is a diagram showing still another example of a code string described in a frame.
FIG. 5 is a diagram illustrating an example of a code string described in a frame.
FIG. 6 is a block diagram illustrating a configuration example of the ATC encoder of FIG. 1;
FIG. 7 is a diagram illustrating an example of an audio code string.
FIG. 8 is a block diagram illustrating a configuration example of an encoding unit in FIG. 6;
9 is a block diagram illustrating a configuration example of a conversion unit in FIG. 8;
FIG. 10 is a diagram illustrating a spectrum signal and an encoding unit.
11 is a block diagram illustrating a configuration example of a signal component encoding unit in FIG. 8;
FIG. 12 is a block diagram illustrating a configuration example of an ATC decoder of FIG. 1;
13 is a block diagram illustrating a configuration example of a decoding unit in FIG.
FIG. 14 is a block diagram illustrating a configuration example of a signal component decoding unit in FIG. 13;
FIG. 15 is a block diagram illustrating a configuration example of an inverse conversion unit in FIG. 13;
FIG. 16 is a flowchart illustrating an audio code string generation process.
FIG. 17 is a flowchart illustrating a reproduction process of an audio code string.
FIG. 18 is a block diagram illustrating a configuration example of a recording apparatus.
FIG. 19 is a flowchart illustrating a recording process of an audio code string.
FIG. 20 is a diagram illustrating an example of a code string described in a frame.
FIG. 21 is a diagram illustrating another example of the audio code string.
FIG. 22 is a diagram illustrating another example of a code string described in a frame.
FIG. 23 is a block diagram illustrating another configuration example of the ATC encoder of FIG. 1;
FIG. 24 is a block diagram illustrating another configuration example of the ATC decoder of FIG. 1;
FIG. 25 is a flowchart illustrating an audio code string generation process.
FIG. 26 is a flowchart illustrating a reproduction process of an audio code string.
FIG. 27 is a block diagram illustrating a configuration example of a personal computer.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 Recording / reproducing apparatus, 81, 82 encoding means, 83 code string encryption means, 84 silence code string generation means, 85 encryption flag addition means, 86 code string synthesis means, 87 code string selection means, 131, 134 decoding means , 132 encryption flag inspection means, 133 encryption / decryption means, 135 signal selection means, 181 code string selection means, 182 recording means

Claims (11)

入力信号からデータ列を生成するデータ生成方法において、
前記入力信号の一部を表す暗号化データを含む暗号化データフレーム内に、この暗号化データフレームの再生期間に所定の音を出力することを、前記データ列を再生するデータ再生装置に対して指示するデータを付加する付加ステップと、
前記暗号化データフレーム、および、前記入力信号の一部を表すデータを含むデータフレームからなる前記データ列を生成する生成ステップと
を含むことを特徴とするデータ生成方法。
In a data generation method for generating a data sequence from an input signal,
In the encrypted data frame including the encrypted data representing a part of the input signal, outputting a predetermined sound during the playback period of the encrypted data frame is transmitted to the data playback device that plays back the data sequence. An adding step of adding data to be instructed,
Generating a data sequence including the encrypted data frame and a data frame including data representing a part of the input signal.
前記付加ステップの処理では、前記暗号化データフレーム以降にある、最初の前記データフレームからの復号を指示するデータがさらに付加される
ことを特徴とする請求項1に記載のデータ生成方法。
2. The data generation method according to claim 1, wherein in the processing of the adding step, data instructing decryption from the first data frame after the encrypted data frame is further added.
最初の前記データフレームからの復号を指示する前記データは、連続する複数の前記暗号化データフレームのうちの、最初の暗号化データフレームに付加される
ことを特徴とする請求項2に記載のデータ生成方法。
The data according to claim 2, wherein the data instructing decryption from the first data frame is added to a first encrypted data frame among a plurality of continuous encrypted data frames. Generation method.
前記所定の音は無音である
ことを特徴とする請求項1に記載のデータ生成方法。
The data generation method according to claim 1, wherein the predetermined sound is silent.
入力信号からデータ列を生成するデータ生成装置において、
前記入力信号の一部を表す暗号化データを含む暗号化データフレーム内に、この暗号化データフレームの再生期間に所定の音を出力することを、前記データ列を再生するデータ再生装置に対して指示するデータを付加する付加手段と、
前記暗号化データフレーム、および、前記入力信号の一部を表すデータを含むデータフレームからなる前記データ列を生成する生成手段と
を備えることを特徴とするデータ生成装置。
In a data generation device that generates a data sequence from an input signal,
In the encrypted data frame including the encrypted data representing a part of the input signal, outputting a predetermined sound during the playback period of the encrypted data frame is transmitted to the data playback device that plays back the data sequence. Adding means for adding data to be instructed,
A data generation apparatus comprising: a generation unit configured to generate the data sequence including the encrypted data frame and a data frame including data representing a part of the input signal.
入力信号からデータ列を生成する処理をコンピュータに実行させるプログラムにおいて、
前記入力信号の一部を表す暗号化データを含む暗号化データフレーム内に、この暗号化データフレームの再生期間に所定の音を出力することを、前記データ列を再生するデータ再生装置に対して指示するデータを付加する付加ステップと、
前記暗号化データフレーム、および、前記入力信号の一部を表すデータを含むデータフレームからなる前記データ列を生成する生成ステップと
を含むことを特徴とするプログラム。
In a program for causing a computer to execute a process of generating a data sequence from an input signal,
In the encrypted data frame including the encrypted data representing a part of the input signal, outputting a predetermined sound during the playback period of the encrypted data frame is transmitted to the data playback device that plays back the data sequence. An adding step of adding data to be instructed,
A generating step of generating the data sequence including the encrypted data frame and a data frame including data representing a part of the input signal.
所定の信号の一部を表す暗号化データを含む暗号化データフレーム、および、所定の信号の一部を表すデータを含むデータフレームからなるデータ列を復号する復号ステップと、
前記復号ステップの処理による復号対象のフレームが前記暗号化データフレームである場合、この暗号化データフレームの再生期間には所定の音を出力する出力ステップと
を含むことを特徴とするデータ再生方法。
An encrypted data frame including encrypted data representing a part of a predetermined signal, and a decoding step of decoding a data sequence including a data frame including data representing a part of the predetermined signal,
An output step of outputting a predetermined sound during a reproduction period of the encrypted data frame, when the frame to be decrypted by the processing of the decryption step is the encrypted data frame.
前記復号ステップによる処理では、復号対象の前記暗号化データフレームに、この暗号化データフレーム以降にある、最初の前記データフレームからの復号を指示するデータが含まれている場合、指示される前記データフレームからの復号が行われる
ことを特徴とする請求項7に記載のデータ再生方法。
In the processing by the decrypting step, when the encrypted data frame to be decrypted includes data instructing decryption from the first data frame after the encrypted data frame, the data to be decrypted is specified. The method according to claim 7, wherein decoding from a frame is performed.
前記復号ステップによる処理では、復号したデータが無音を表すデータである場合、復号した無音を表す前記データに基づく再生をスキップする
ことを特徴とする請求項7に記載のデータ再生方法。
8. The data reproducing method according to claim 7, wherein in the processing in the decoding step, when the decoded data is data representing silence, the reproduction based on the data representing the decoded silence is skipped.
所定の信号の一部を表す暗号化データを含む暗号化データフレーム、および、所定の信号の一部を表すデータを含むデータフレームからなるデータ列を復号する復号手段と、
前記復号手段による復号対象のフレームが前記暗号化データフレームである場合、この暗号化データフレームの再生期間には所定の音を出力する出力手段と
を備えることを特徴とするデータ再生装置。
An encrypted data frame including encrypted data representing a part of the predetermined signal, and a decryption unit for decrypting a data sequence including a data frame including data representing a part of the predetermined signal;
When the frame to be decrypted by the decryption unit is the encrypted data frame, an output unit that outputs a predetermined sound during a playback period of the encrypted data frame is provided.
所定の信号の一部を表す暗号化データを含む暗号化データフレーム、および、所定の信号の一部を表すデータを含むデータフレームからなるデータ列を復号する復号ステップと、
前記復号ステップの処理による復号対象のフレームが前記暗号化データフレームである場合、この暗号化データフレームの再生期間には所定の音を出力する出力ステップと
を含むことを特徴とするコンピュータが読み取り可能なプログラム。
An encrypted data frame including encrypted data representing a part of a predetermined signal, and a decoding step of decoding a data sequence including a data frame including data representing a part of the predetermined signal,
When the frame to be decrypted by the decrypting step is the encrypted data frame, the reproducing period of the encrypted data frame includes an output step of outputting a predetermined sound. Program.
JP2003163153A 2003-06-09 2003-06-09 Method and device for creating data, method and device for reproducing data, and program Withdrawn JP2004362721A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003163153A JP2004362721A (en) 2003-06-09 2003-06-09 Method and device for creating data, method and device for reproducing data, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003163153A JP2004362721A (en) 2003-06-09 2003-06-09 Method and device for creating data, method and device for reproducing data, and program

Publications (1)

Publication Number Publication Date
JP2004362721A true JP2004362721A (en) 2004-12-24

Family

ID=34055048

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003163153A Withdrawn JP2004362721A (en) 2003-06-09 2003-06-09 Method and device for creating data, method and device for reproducing data, and program

Country Status (1)

Country Link
JP (1) JP2004362721A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008047786A1 (en) * 2006-10-16 2008-04-24 Sharp Kabushiki Kaisha Information recording device, information reproducing device, program and recording medium
JP2009528599A (en) * 2006-02-24 2009-08-06 クゥアルコム・インコーポレイテッド Method and apparatus for application and media content protection distribution
JP2010238351A (en) * 2006-12-11 2010-10-21 Mitsubishi Electric Corp Encoding method of video data, and reproducing method of video data
JP2011078139A (en) * 2011-01-17 2011-04-14 Nikon Corp Image reproduction apparatus, music processing program, and image reproduction program
JP2011123946A (en) * 2009-12-10 2011-06-23 Hitachi Global Storage Technologies Netherlands Bv Disk drive and data conversion processing method in disk drive
CN106297827A (en) * 2015-06-02 2017-01-04 中兴通讯股份有限公司 Detection method that voice encryption is made mistakes and device

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009528599A (en) * 2006-02-24 2009-08-06 クゥアルコム・インコーポレイテッド Method and apparatus for application and media content protection distribution
JP2012146314A (en) * 2006-02-24 2012-08-02 Qualcomm Inc Methods and apparatus for protected distribution of applications and media content
US9026804B2 (en) 2006-02-24 2015-05-05 Qualcomm Incorporated Methods and apparatus for protected distribution of applications and media content
JP2017021820A (en) * 2006-02-24 2017-01-26 クゥアルコム・インコーポレイテッドQualcomm Incorporated Methods and apparatus for protected distribution of applications and media content
US9628447B2 (en) 2006-02-24 2017-04-18 Qualcomm Incorporated Methods and apparatus for protected distribution of applications and media content
WO2008047786A1 (en) * 2006-10-16 2008-04-24 Sharp Kabushiki Kaisha Information recording device, information reproducing device, program and recording medium
JP2010238351A (en) * 2006-12-11 2010-10-21 Mitsubishi Electric Corp Encoding method of video data, and reproducing method of video data
US9281004B2 (en) 2006-12-11 2016-03-08 Mitsubishi Electric Corporation Content assessment apparatus, content assessment method, information reproducing apparatus, and information reproducing method
JP2011123946A (en) * 2009-12-10 2011-06-23 Hitachi Global Storage Technologies Netherlands Bv Disk drive and data conversion processing method in disk drive
JP2011078139A (en) * 2011-01-17 2011-04-14 Nikon Corp Image reproduction apparatus, music processing program, and image reproduction program
CN106297827A (en) * 2015-06-02 2017-01-04 中兴通讯股份有限公司 Detection method that voice encryption is made mistakes and device
CN106297827B (en) * 2015-06-02 2020-07-10 中兴通讯股份有限公司 Method and device for detecting voice encryption errors

Similar Documents

Publication Publication Date Title
JP3496411B2 (en) Information encoding method and decoding device
KR100922540B1 (en) Content supply system and information processing method
US6353807B1 (en) Information coding method and apparatus, code transform method and apparatus, code transform control method and apparatus, information recording method and apparatus, and program providing medium
JP4211165B2 (en) Encoding apparatus and method, recording medium, and decoding apparatus and method
JP4190742B2 (en) Signal processing apparatus and method
JP4211166B2 (en) Encoding apparatus and method, recording medium, and decoding apparatus and method
US20030112973A1 (en) Signal processing method and apparatus, and code string generating method and apparatus
US7257226B1 (en) Information management method and information management apparatus
JP2000123481A (en) Information encoding device and method, information decoding device and method, recording medium, and providing medium
JP2004362721A (en) Method and device for creating data, method and device for reproducing data, and program
US7266700B2 (en) Code-string encryption method and apparatus, decryption method and apparatus, and recording medium
US6963860B1 (en) Information recording and reproducing system and method and distribution medium
JP4470304B2 (en) Compressed data recording apparatus, recording method, compressed data recording / reproducing apparatus, recording / reproducing method, and recording medium
JP4691823B2 (en) Signal reproducing apparatus and method, signal recording apparatus and method, and signal processing method
EP0971350A1 (en) Information encoding device and method, information decoding device and method, recording medium, and provided medium
JP4534382B2 (en) Code sequence generation apparatus and method, signal reproduction apparatus and method, and content supply system
JP2004361602A (en) Data generation method and data generation system, data restoring method and data restoring system, and program
JP4066740B2 (en) Signal reproduction apparatus and method, signal recording apparatus and method, and code string generation method and apparatus
JP2003177791A (en) Method and device for encoding content, content encoding program, recording medium with content encoding program recorded thereon, method and device for decoding content, content decoding program, and recording medium with content decoding program recorded thereon
JP2003304158A (en) Method and device for reproducing signal, method and device for recording signal, and method and device for generating code string
JP4123632B2 (en) Information encoding method and apparatus, and program supply medium
JP2003337599A (en) Method and equipment for regenerating signal, method and equipment for recording signal, and method and equipment for generating sign row
JP2003177798A (en) Method and device for encoding content, content encoding program, recording medium with content encoding program recorded thereon, method and device for decoding content, content decoding program, and recording medium with content decoding program recorded thereon
JP2003257121A (en) Signal reproducing method and device, signal recording method and device and code string generating method and device
JP2003263195A (en) Method and device for reproducing signal, method and device for recording signal, and method and device for generating code string

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20060905