JP5104202B2 - Real-time information embedding device for acoustic signals - Google Patents
Real-time information embedding device for acoustic signals Download PDFInfo
- Publication number
- JP5104202B2 JP5104202B2 JP2007275984A JP2007275984A JP5104202B2 JP 5104202 B2 JP5104202 B2 JP 5104202B2 JP 2007275984 A JP2007275984 A JP 2007275984A JP 2007275984 A JP2007275984 A JP 2007275984A JP 5104202 B2 JP5104202 B2 JP 5104202B2
- Authority
- JP
- Japan
- Prior art keywords
- acoustic
- block
- additional information
- frame
- recording
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Signal Processing For Digital Recording And Reproducing (AREA)
Abstract
Description
本発明は、CD・DVD等を用いた民生・業務用途における鑑賞用のパッケージ音楽分野、放送事業者等が商業目的で配信する放送・ネットワーク音楽配信分野における音楽著作権の保護(不正コピーの監視)および音楽属性情報の提供(楽曲タイトル検索サービス)分野、ミュージアム、イベント会場における展示説明ナレーションに連動した文字情報の提供サービス分野、放送番組やCD/DVDパッケージの音声信号からURLなどの情報を抽出し、携帯電話を用いて所定のコンテンツに関連するwebサイトにアクセスして詳細情報を抽出したり、アンケートに回答したりする非接触なインターネットのゲートウェイサービス分野に関する。 The present invention relates to the protection of music copyright (monitoring illegal copying) in the field of package music for viewing for consumer and business use using CDs and DVDs, and the field of broadcasting and network music distribution distributed for commercial purposes by broadcasters and the like. ) And music attribute information (music title search service) field, museum, event information service service field linked to exhibition explanation narration, URL and other information extracted from audio signals of broadcast programs and CD / DVD packages In addition, the present invention relates to a non-contact Internet gateway service field in which a mobile phone is used to access a web site related to a predetermined content and extract detailed information or answer a questionnaire.
従来、流れている音楽のタイトル等を知ることができる楽曲属性情報の提供サービスとして、放送された音楽に対して日時と地域を放送局に照会したり、携帯電話で流れている音楽断片を録音してデータベースに登録されているメロディーと照合したりするサービスが行われている。本出願人は、これをさらに発展させ、音響信号の周波数成分の比率を属性情報のビット値に応じて変更することにより、属性情報(付加情報)を埋め込む手法を提案している(特許文献1参照)。一方、本出願人は、付加情報が埋め込まれた音響信号を再生しながら、リアルタイムに付加情報を抽出する手法も提案している(特許文献2、3参照)。
上記特許文献1に記載の発明は、音響信号を記録した音響データファイルが存在する場合には、付加情報を埋め込むことはできるが、音響データファイルが存在しない場合には、付加情報を埋め込むことができない。そのため、生放送番組、ライブ演奏、講演会、街頭放送などにおいては、付加情報を埋め込んだ音声を発することができないという問題がある。また、音響データファイルが存在する場合であっても、音声を発している途中で付加情報を変更したいという要望に応えることができないという問題がある。
The invention described in
そこで、本発明は、付加情報をリアルタイムで音響信号に埋め込みながら、付加情報を埋め込んだ音響信号を再生することが可能な音響信号に対する情報のリアルタイム埋め込み装置を提供することを課題とする。 Therefore, an object of the present invention is to provide a real-time information embedding device for an acoustic signal capable of reproducing the acoustic signal embedded with the additional information while embedding the additional information in the acoustic signal in real time.
上記課題を解決するため、本発明第1の態様では、音響信号に対して、所定数のサンプルで構成される音響フレームが複数個含まれる音響ブロックを逐次読み込み、前記音響ブロック内の各音響フレームに所定の付加情報を聴取不能な状態で埋め込み、前記付加情報が埋め込まれた音響ブロックを付加情報が埋め込まれた音響信号として逐次出力する装置であって、所定数の音響ブロックを蓄積できる録音ブロック蓄積手段と再生ブロック蓄積手段と、前記音響信号をデジタル化して所定数のサンプルからなる単一の音響ブロックを作成し、当該音響ブロックを録音ブロックとして前記録音ブロック蓄積手段に書き込む録音処理手段と、前記録音ブロック蓄積手段に蓄積されている単一の録音ブロックを読み込み、前記録音ブロック内の各音響フレームに前記付加情報を埋め込み、付加情報が埋め込まれた録音ブロックを再生ブロックとして前記再生ブロック蓄積手段に書き込み、さらに付加情報設定手段を備え、前記付加情報設定手段により前記付加情報が更新された際に、付加情報の最初のビットから埋め込みを開始する付加情報埋め込み手段と、前記再生ブロック蓄積手段に蓄積されている再生ブロックをアナログ変換して前記付加情報が埋め込まれた音響信号として再生する再生処理手段と、各録音ブロック間が不連続にならないように前記録音処理手段に途切れなく処理させる制御と、前記録音ブロック蓄積手段への単一の録音ブロックの書込みが終了するごとに、所定の処理を前記付加情報埋め込み手段に単一回実行させる制御と、再生される音響信号が不連続にならないように前記再生処理手段に途切れなく処理させる制御を行い、前記装置の起動時に、前記録音処理手段の実行を開始させ、前記再生処理手段に対して、前記付加情報埋め込み手段が1回以上実行した時点で、遅らせて実行を開始させるように制御する実行制御手段を有する音響信号に対する情報のリアルタイム埋め込み装置を提供する。 In order to solve the above problems, in the first aspect of the present invention, an acoustic block including a plurality of acoustic frames composed of a predetermined number of samples is sequentially read from the acoustic signal, and each acoustic frame in the acoustic block is read. A recording block that embeds predetermined additional information in an inaudible state and sequentially outputs the acoustic block in which the additional information is embedded as an acoustic signal in which the additional information is embedded, and can store a predetermined number of acoustic blocks A storage means, a reproduction block storage means, a recording processing means for digitizing the acoustic signal to create a single acoustic block consisting of a predetermined number of samples, and writing the acoustic block as a recording block in the recording block storage means; A single recording block stored in the recording block storage means is read and each sound in the recording block is read. Embedding the additional information in the frame, the writes to the reproducing block storage means recording block which the additional information is embedded as a reproduced block, further comprising an additional information setting means, the additional information by the additional information setting means is updated The additional information embedding means for starting embedding from the first bit of the additional information, and the reproduction block stored in the reproduction block accumulating means are converted into analog signals and reproduced as an acoustic signal in which the additional information is embedded. A reproduction processing means, a control for allowing the recording processing means to process without interruption between the recording blocks, and a writing of a single recording block to the recording block accumulating means each time a predetermined recording block is written. Control that causes the additional information embedding means to execute the process once, and if the reproduced acoustic signal is discontinuous. Strangely the have line control to be processed without interruption to the reproduction processing unit, when starting the device, the to start execution of the recording processing means to said reproducing processing means, the additional information embedding means one or more times Provided is a real-time information embedding device for an acoustic signal having execution control means for controlling execution to be started at a delayed time.
本発明第1の態様によれば、デジタル化した音響信号のうち所定数のサンプルで構成される音響ブロックを蓄積できる録音ブロック蓄積手段と再生ブロック蓄積手段を用意し、録音ブロック蓄積手段から読み込んだ抽出した録音ブロックに対して付加情報の埋め込みを行って再生ブロックとして再生ブロック蓄積手段に書き込む一方、入力された音響信号から音響ブロックを作成して録音ブロック蓄積手段に蓄積し、再生ブロック蓄積手段から音響ブロックを抽出して音響信号として再生し、これらの処理タイミングが不連続にならないよう制御するようにしたので、付加情報をリアルタイムで音響信号に埋め込むことが可能となる。 According to the first aspect of the present invention, recording block storage means and reproduction block storage means capable of storing a sound block composed of a predetermined number of samples of a digitized sound signal are prepared and read from the recording block storage means. Additional information is embedded in the extracted recording block and written as a playback block in the playback block storage means, while an acoustic block is created from the input acoustic signal and stored in the recording block storage means. Since the acoustic block is extracted and reproduced as an acoustic signal and control is performed so that these processing timings do not become discontinuous, the additional information can be embedded in the acoustic signal in real time.
また、本発明第2の態様では、音響信号に対して、所定数のサンプルで構成される音響フレームが複数個含まれる音響ブロックを逐次読み込み、前記音響ブロック内の各音響フレームに所定の付加情報を聴取不能な状態で埋め込み、前記付加情報が埋め込まれた音響ブロックを付加情報が埋め込まれた音響信号として逐次出力する装置であって、所定数の音響ブロックを蓄積できる録音ブロック蓄積手段、ブロック一時蓄積手段、再生ブロック蓄積手段と、前記音響信号をデジタル化して所定数のサンプルからなる単一の音響ブロックを読み込み、前記音響ブロックを録音ブロックとして前記録音ブロック蓄積手段に書き込む録音処理手段と、前記録音ブロック蓄積手段に蓄積されている単一の録音ブロックを読み込み、前記録音ブロック内の各音響フレームに前記付加情報を埋め込み、付加情報が埋め込まれた録音ブロックを再生ブロックとして前記ブロック一時蓄積手段に書き込み、さらに付加情報設定手段を備え、前記付加情報設定手段により前記付加情報が更新された際に、付加情報の最初のビットから埋め込みを開始する付加情報埋め込み手段と、前記ブロック一時蓄積手段に蓄積されている単一の再生ブロックを読み込み、当該再生ブロックを前記再生ブロック蓄積手段に書き込む再生準備手段と、前記再生ブロック蓄積手段に蓄積されている単一の再生ブロックをアナログ変換して前記付加情報が埋め込まれた音響信号として再生する再生処理手段と、各録音ブロック間が不連続にならないように前記録音処理手段に途切れなく処理させる制御と、前記録音ブロック蓄積手段への単一の録音ブロックの書込みが終了するごとに、所定の処理を前記付加情報埋め込み手段に単一回実行させる制御と、前記再生処理手段が前記再生ブロック蓄積手段から再生ブロックを抽出するごとに、所定の処理を前記再生準備手段に単一回実行させる制御と、再生される音響信号が不連続にならないように前記再生処理手段に途切れなく処理させる制御を行い、前記装置の起動時に、前記録音処理手段の実行を開始させ、前記再生処理手段に対して、前記付加情報埋め込み手段が1回以上実行した時点で、遅らせて実行を開始させるように制御する実行制御手段を有する音響信号に対する情報のリアルタイム埋め込み装置を提供する。
In the second aspect of the present invention, an acoustic block including a plurality of acoustic frames composed of a predetermined number of samples is sequentially read with respect to the acoustic signal, and predetermined additional information is added to each acoustic frame in the acoustic block. Is a recording block accumulating means capable of accumulating a predetermined number of acoustic blocks, and a block temporary storage device, which sequentially outputs the acoustic block in which the additional information is embedded as an acoustic signal in which the additional information is embedded. Storage means, reproduction block storage means, recording processing means for digitizing the acoustic signal and reading a single acoustic block consisting of a predetermined number of samples, and writing the acoustic block as a recording block to the recording block storage means, Read a single recording block stored in the recording block storage means, The additional information to each of the sound frames embedded, writes to the block temporary storage means a record block which the additional information is embedded as a reproduced block, further comprising an additional information setting means, the additional information by the additional information setting means Additional information embedding means for starting embedding from the first bit of the additional information when updated, and reading a single playback block stored in the block temporary storage means, and reading the playback block into the playback block storage means A reproduction preparation means for writing to the reproduction block, a reproduction processing means for converting the single reproduction block stored in the reproduction block storage means into an analog signal and reproducing it as an acoustic signal embedded with the additional information, and a gap between the recording blocks. A control for allowing the recording processing means to process the recording processing means so as not to be continuous; and the recording block Each time the writing of a single recording block to the product means is completed, a control for causing the additional information embedding means to execute a predetermined process once, and the reproduction processing means extracts a reproduction block from the reproduction block storage means. each time, a control to execute a single time to the reproduction preparation means a predetermined process, have row control to process without interruption in the reproduction processing means, and that the audio signal reproduced does not become discontinuous, the device And an execution control means for starting execution of the recording processing means at start-up and controlling the reproduction processing means to start execution with a delay when the additional information embedding means is executed at least once. A real-time information embedding device for an acoustic signal is provided.
本発明第2の態様によれば、本発明第1の態様に加えて、音響ブロックを蓄積できるブロック一時蓄積手段をさらに用意し、付加情報の埋め込みを行った後、ブロック一時蓄積手段に再生ブロックを一旦書き込み、所定のタイミングでさらに再生ブロック蓄積手段に書き込むよう制御するようにしたので、第1の態様に比べ、さらにタイミングの調整が行い易くなる。 According to the second aspect of the present invention, in addition to the first aspect of the present invention, a block temporary storage unit capable of storing an acoustic block is further prepared, and after additional information is embedded, a reproduction block is stored in the block temporary storage unit. Is once written and is further controlled to be written to the reproduction block accumulating means at a predetermined timing, so that it is easier to adjust the timing than in the first mode.
本発明によれば、付加情報をリアルタイムで音響信号に埋め込みながら、付加情報を埋め込んだ音響信号を再生することが可能となるという効果を奏する。 According to the present invention, it is possible to reproduce an acoustic signal in which the additional information is embedded while embedding the additional information in the acoustic signal in real time.
以下、本発明の実施形態について図面を参照して詳細に説明する。
(1.利用環境)
まず、本発明に係る音響信号に対する情報のリアルタイム埋め込み装置の利用環境について説明する。図1は、従来の埋め込み装置の利用環境と本発明のリアルタイム埋め込み装置の利用環境を比較した図である。従来は、図1(a)に示すように、音響ファイルに対して、埋め込み装置により付加情報の埋め込みを行って埋込済音響ファイルを得て、この埋込済音響ファイルを通常の再生装置で再生し、スピーカから音声を発する。この発した音声を録音し、抽出装置で処理することにより付加情報が抽出される。本発明では、図1(b)に示すように、音響ファイルを通常の再生装置で再生するか、マイクロフォン等で取得した音声をリアルタイム埋め込み装置で音響信号に変換しながら、変換された音響信号に付加情報を埋め込み、付加情報が埋め込まれた音響信号を再生し、スピーカから音声を発する。この発した音声を録音し、抽出装置で処理することにより付加情報が抽出されるのは従来と同じである。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
(1. Usage environment)
First, the use environment of the information real-time embedding device for the acoustic signal according to the present invention will be described. FIG. 1 is a diagram comparing a usage environment of a conventional embedding device and a usage environment of a real-time embedding device of the present invention. Conventionally, as shown in FIG. 1 (a), additional information is embedded in an audio file by an embedding device to obtain an embedded audio file, and the embedded audio file is obtained by a normal playback device. Play and utter sound from the speaker. Additional information is extracted by recording the uttered voice and processing it with an extraction device. In the present invention, as shown in FIG. 1 (b), an acoustic file is reproduced by a normal reproduction device, or sound obtained by a microphone or the like is converted into an acoustic signal by a real-time embedding device, and converted into an acoustic signal. Additional information is embedded, an acoustic signal embedded with the additional information is reproduced, and sound is emitted from a speaker. It is the same as in the past that additional information is extracted by recording this uttered voice and processing it with an extraction device.
図2は、本発明に係る音響信号に対する情報のリアルタイム埋め込み装置の利用環境をさらに詳細に示した図である。本発明では、図2に示すように、音響ファイルを通常の再生装置で再生した音声、マイクロフォン等で取得した音声をミキサーでミキシングする。そして、ミキシングされた音響信号を信号分岐器に送る。信号分岐器は、ミキシングされた音響信号のうち、埋め込み対象となるチャンネルやトラックと、その他のチャンネルやトラックに分離し、リアルタイム埋め込み装置は埋め込み対象となるチャンネルやトラックに情報を埋め込み、信号遅延器は、埋め込み信号とタイミングを合わせるために、埋め込み対象でないチャンネルやトラックを遅延させる。そして、スイッチャーは、情報が埋め込まれたリアルタイム埋め込み装置の出力信号または埋め込み対象でない信号遅延器の出力信号のいずれかをオペレータの指示に基づいて選択してアンプに送信し、スピーカは音声を発する。付加情報を埋め込まない場合は、信号分岐器が、ミキシングされた音響信号を信号遅延器に送り、スイッチャーを経由してアンプ・スピーカに送る。 FIG. 2 is a diagram showing the usage environment of the real-time information embedding device for the acoustic signal according to the present invention in more detail. In the present invention, as shown in FIG. 2, the sound obtained by reproducing a sound file with a normal reproducing device, or the sound obtained with a microphone or the like is mixed by a mixer. Then, the mixed acoustic signal is sent to the signal branching unit. The signal splitter separates the mixed audio signal into the channel or track to be embedded and other channels or tracks, and the real-time embedding device embeds the information into the channel or track to be embedded, and the signal delay unit Delays channels and tracks that are not to be embedded in order to match the timing with the embedded signal. Then, the switcher selects either the output signal of the real-time embedding device in which the information is embedded or the output signal of the signal delay device that is not to be embedded based on the operator's instruction and transmits it to the amplifier, and the speaker emits sound. When the additional information is not embedded, the signal branching unit sends the mixed acoustic signal to the signal delay unit and sends it to the amplifier / speaker via the switcher.
(2.第1の実施形態)
図3は、本発明第1の実施形態に係る音響信号に対する情報のリアルタイム埋め込み装置の構成を示す機能ブロック図である。図3において、210は録音処理手段、220は録音ブロック蓄積手段、230は付加情報埋め込み手段、240は再生ブロック蓄積手段、250は再生処理手段である。なお、図3に示す装置は、ステレオ音響信号、モノラル音響信号の両方に対応可能であるが、ここでは、ステレオ音響信号に対して処理を行う場合について説明していく。
(2. First Embodiment)
FIG. 3 is a functional block diagram showing a configuration of a real-time information embedding device for an acoustic signal according to the first embodiment of the present invention. 3, 210 is a recording processing means, 220 is a recording block storage means, 230 is an additional information embedding means, 240 is a reproduction block storage means, and 250 is a reproduction processing means. Note that the apparatus shown in FIG. 3 is compatible with both stereo sound signals and monaural sound signals, but here, a case where processing is performed on stereo sound signals will be described.
録音処理手段210は、録音サウンドデバイスを有しており、この録音サウンドデバイスを駆動させてアナログ信号をデジタルデータにA/D変換した後、所定数のサンプルを1つの音響ブロックとして出力する機能を有している。1音響ブロックを構成するサンプルの数は、本実施形態では、各チャンネル16384個としており、これは、録音・再生処理ともに64kbytes(44.1kHz、16bits、2chステレオの場合、0.37sec)とした場合に対応している。また、1音響ブロックは、後述する音響フレーム複数個分に相当し、1音響フレームが2048サンプルの場合、音響フレーム8個分、1音響フレームが4096サンプルの場合、音響フレーム4個分である。録音ブロック蓄積手段220は、音響ブロックを蓄積するバッファメモリを複数有しており、これらのバッファメモリに蓄積された音響ブロックを、FIFO(ファーストイン・ファーストアウト)方式、すなわち、先に入ってきた情報が、先に出ていく方式で処理する機能を有している。すなわち、録音ブロック蓄積手段220は、録音処理手段210から投入された音響ブロックを投入された順序で蓄積し、その順序で付加情報埋め込み手段230に渡す機能を有することとなる。音響ブロックのうち、付加情報が埋め込まれる前のものを特に録音ブロックと呼ぶことにする。
The recording processing means 210 has a recording sound device. The
付加情報埋め込み手段230は、音響ブロック内の各音響フレーム単位で処理を行って、付加情報を埋め込む機能を有している。付加情報埋め込み手段230における処理の詳細については、後述する。再生ブロック蓄積手段240は、録音ブロック蓄積手段220と同様、音響ブロックを蓄積するバッファメモリを複数有しており、これらのバッファメモリに蓄積された音響ブロックを、FIFO方式で処理する機能を有している。すなわち、再生ブロック蓄積手段240は、付加情報埋め込み手段230から投入された音響ブロックを投入された順序で蓄積し、その順序で再生処理手段250に渡す機能を有することとなる。再生処理手段250は、再生サウンドデバイスを有しているとともに、この再生サウンドデバイスを駆動させて音響ブロックを音響再生する機能を有しており、再生サウンドデバイスは、デジタルデータである音響ブロックをD/A変換して音声として再生する機能を有している。また、図示していないが、本発明の音響信号に対する情報のリアルタイム埋め込み装置は、各手段の実行タイミングを制御する実行制御手段を有している。音響ブロックのうち、付加情報が埋め込まれた後のものを特に再生ブロックと呼ぶことにする。
The additional
図3に示した装置は、現実には、録音用、再生用のサウンドデバイスを搭載したコンピュータに専用のプログラムを組み込むことにより実現される。録音ブロック蓄積手段220、再生ブロック蓄積手段240は、それぞれメモリに音響ブロック4個分の領域が確保されることにより実現される。録音処理手段210、再生処理手段250は、それぞれ録音サウンドデバイス、再生サウンドデバイスを駆動させるデバイスドライバを含むプログラムにより実現される。図示しない実行制御手段は、上記各手段の制御をパイプライン処理で並列実行させるよう、コンピュータのCPUが、OSおよび専用のプログラムを協働させることにより実現される。本発明のリアルタイム埋め込み装置を実現するためのコンピュータは、オーディオインターフェースとして入力、出力の2系統を必要とし、また、CPU能力の高いものが望ましい。
The apparatus shown in FIG. 3 is actually realized by incorporating a dedicated program into a computer equipped with a sound device for recording and reproduction. The recording
次に、図3に示した装置の処理動作について、図4のフローチャートを用いて説明する。図4は、実行制御手段が行う処理を中心としたフローチャートである。まず、オーディオ・ライン入力から音声が入力されている状態において、実行制御手段が、録音処理手段210を起動する(S501)。録音処理手段210は、録音サウンドデバイスで、入力されたアナログ信号をA/D変換した後、所定数単位のサンプルを1音響ブロックとして、録音ブロック蓄積手段220に書き込む処理を行う。録音処理手段210は、録音ブロックの録音ブロック蓄積手段220への書き込みが1つ終わると、録音終了信号を実行制御手段に送信する。実行制御手段は、録音処理手段210を起動した後、録音処理手段210からの信号を待つ状態となる(S502)。この状態で、録音処理手段210から録音終了信号を受信すると、実行制御手段は、付加情報埋め込み手段230に録音ブロック蓄積手段220から録音ブロックを1つ読み込ませるとともに、付加情報埋め込み手段230に読み込まれた録音ブロックを録音ブロック蓄積手段220から消去させる(S503)。
Next, the processing operation of the apparatus shown in FIG. 3 will be described using the flowchart of FIG. FIG. 4 is a flowchart centering on the processing performed by the execution control means. First, in a state where sound is input from the audio line input, the execution control means activates the recording processing means 210 (S501). The
付加情報埋め込み手段230は、録音ブロック蓄積手段220から録音ブロックを読み込むと、その録音ブロックに対して付加情報を埋め込む処理を実行する(S504)。この付加情報埋込処理の詳細については後述する。1つの録音ブロックに対して埋め込み処理が終了すると、付加情報埋め込み手段230は、埋め込み終了信号を実行制御手段に送信する。すると、実行制御手段は、再生処理手段250が未起動であるかどうかを判断する(S505)。そして、未起動である場合は、再生処理手段250を起動する(S506)。再生処理手段250が起動したら、付加情報埋め込み手段230は、埋め込み処理済みの再生ブロックを再生ブロック蓄積手段240に書き込む処理を行う(S507)。再生処理手段250は、再生ブロック蓄積手段240に書き込まれた再生ブロックを逐次読み込み、再生サウンドデバイスで、D/A変換した後、アナログ信号として、オーディオ・ライン出力を行う。S502において、装置停止信号を受信した場合には、実行制御手段は、装置を停止する処理を行う。
When the additional
(3.第2の実施形態)
図5は、本発明第2の実施形態に係る音響信号に対する情報のリアルタイム埋め込み装置の構成を示す機能ブロック図である。図5において、図3と同様の機能を有するものについては、同一符号を付している。図示していないが、第2の実施形態においても、音響信号に対する情報のリアルタイム埋め込み装置は、各手段の実行タイミングを制御する実行制御手段を有している。第2の実施形態では、主にブロック一時蓄積手段260を有している点、ブロック一時蓄積手段260から再生ブロック蓄積手段240に再生ブロックを渡す再生準備手段を有している点が第1の実施形態と異なっている。なお、再生準備手段は図示していない。
(3. Second embodiment)
FIG. 5 is a functional block diagram showing a configuration of a real-time information embedding device for an acoustic signal according to the second embodiment of the present invention. In FIG. 5, components having the same functions as those in FIG. Although not shown, also in the second embodiment, the real-time information embedding device for the acoustic signal has execution control means for controlling the execution timing of each means. In the second embodiment, the first point is that it mainly includes a block
ブロック一時蓄積手段260は、録音ブロック蓄積手段220、再生ブロック蓄積手段240と同様、音響ブロックを蓄積するバッファメモリを複数有しており、これらのバッファメモリに蓄積された音響ブロックを、FIFO方式で処理する機能を有している。すなわち、ブロック一時蓄積手段260は、付加情報埋め込み手段230から投入された音響ブロックを投入された順序で蓄積し、その順序で再生ブロック蓄積手段240に渡す機能を有することとなる。ブロック一時蓄積手段260は、メモリに音響ブロック4個分の領域が確保されることにより実現される。
Similar to the recording block storage means 220 and the reproduction block storage means 240, the block temporary storage means 260 has a plurality of buffer memories for storing the sound blocks, and the sound blocks stored in these buffer memories are stored in the FIFO method. It has a function to process. That is, the block
次に、図5に示した装置の処理動作について、図6のフローチャートを用いて説明する。図6において、図4と同様の処理については、同一符号を付している。第2の実施形態では、S504とS505の処理の間にS508の処理が入る点と、再生終了信号を受信した場合に、S509、S507の処理を行う点が第1の実施形態と異なっている。 Next, the processing operation of the apparatus shown in FIG. 5 will be described using the flowchart of FIG. In FIG. 6, the same processes as those in FIG. The second embodiment is different from the first embodiment in that the process of S508 is performed between the processes of S504 and S505 and that the processes of S509 and S507 are performed when a reproduction end signal is received. .
第2の実施形態では、実行制御手段が、録音処理手段210を起動した(S501)後、録音処理手段210および再生処理手段250からの信号を待つ状態となる(S502)。この状態で、実行制御手段が、録音処理手段210から録音終了信号を受信すると、S503、S504の処理が実行される。 In the second embodiment, the execution control means waits for signals from the recording processing means 210 and the reproduction processing means 250 after starting the recording processing means 210 (S501) (S502). In this state, when the execution control means receives the recording end signal from the recording processing means 210, the processing of S503 and S504 is executed.
1つの録音ブロックに対して埋め込み処理が終了すると、付加情報埋め込み手段230は、ブロック一時蓄積手段260に再生ブロックを書き込む(S508)。すると、実行制御手段は、再生処理手段250が未起動であるかどうかを判断する(S505)。そして、未起動である場合は、再生処理手段250を起動する(S506)。再生処理手段250は、後述する通り、再生ブロック蓄積手段240に書き込まれた再生ブロックを逐次読み込み、再生サウンドデバイスで、D/A変換した後、アナログ信号として、オーディオ・ライン出力を行う。
When the embedding process is completed for one recording block, the additional
第2の実施形態では、S502における信号待ち状態で、再生処理手段250から再生終了信号を受信すると、再生準備手段は、ブロック一時蓄積手段260から再生ブロックを1つ読み込み、ブロック一時蓄積手段260内の1音響ブロック分のメモリ領域を開放する(S509)。そして、ブロック一時蓄積手段260から読み込んだ再生ブロックを再生ブロック蓄積手段240に書き込む(S507)。
In the second embodiment, when a reproduction end signal is received from the
(4.録音処理手段による処理)
次に、録音処理手段210による処理を、図7のフローチャートを用いて説明する。実行制御手段からの指示により、録音処理手段210が起動すると(S801)、録音処理手段210は、録音ブロック蓄積手段220内に空き領域があるかどうかを探索する(S802)。録音ブロック蓄積手段220内に空き領域がある場合は、録音処理手段210は、録音処理を実行し、録音ブロックを作成する(S803)。録音ブロックを1個作成したら、録音処理手段210は、録音ブロック蓄積手段220に、作成された1個の録音ブロックを書き込む(S804)。録音ブロック蓄積手段220に、1個の録音ブロックを書き込んだら、録音処理手段210は、録音終了信号を実行制御手段に送信する(S805)。
(4. Processing by recording processing means)
Next, the processing by the
(5.再生処理手段による処理)
次に、再生処理手段250による処理を、図8のフローチャートを用いて説明する。実行制御手段からの指示により、再生処理手段250が起動すると(S901)、再生処理手段250は、再生ブロック蓄積手段240内に再生ブロックがあるかどうかを探索する(S902)。再生ブロック蓄積手段240内に再生ブロックがある場合は、再生処理手段250は、再生ブロック蓄積手段240から再生ブロックを読み込む(S903)。この際、再生処理手段250は、読み込んだ再生ブロックを再生ブロック蓄積手段240から消去し、メモリ領域を開放する。続いて、再生処理手段250は、読み込んだ再生ブロックについて、再生処理を実行する(S904)。1個の再生ブロックの再生処理が終了したら、再生処理手段250は、再生終了信号を実行制御手段に送信する(S905)。
(5. Processing by reproduction processing means)
Next, the processing by the reproduction processing means 250 will be described using the flowchart of FIG. When the
(6.付加情報埋め込み手段)
次に、付加情報埋め込み手段230の詳細について説明する。図9は、付加情報埋め込み手段230の詳細を示す機能ブロック図である。図9において、10は音響フレーム読込手段、20は周波数変換手段、30は周波数成分変更手段、40は周波数逆変換手段、50は改変音響フレーム出力手段、62は付加情報記憶部、70はビット配列作成手段、80は変換テーブル作成手段である。なお、図9に示す付加情報埋め込み手段230は、ステレオ音響信号、モノラル音響信号の両方に対応可能であるが、ここでは、ステレオ音響信号に対して処理を行う場合について説明していく。
(6. Additional information embedding means)
Next, details of the additional
音響フレーム読込手段10は、録音ブロック蓄積手段220から読み込んだ録音ブロックを複数の音響フレームに分割し、音響フレーム単位で読み込む機能を有している。周波数変換手段20は、音響フレーム読込手段10が読み込んだ音響フレームをフーリエ変換等により周波数変換してスペクトルを生成する機能を有している。周波数成分変更手段30は、生成されたスペクトルから所定の周波数範囲に相当するスペクトル集合を複数抽出し、付加情報記憶部62から抽出した付加情報よりビット配列作成手段70が作成したビット配列に基づいて、スペクトル集合の状態を変更する機能を有している。周波数逆変換手段40は、変更されたスペクトル集合を含む複数のスペクトルに対して周波数逆変換を行うことにより、改変音響フレームを生成する機能を有している。改変音響フレーム出力手段50は、生成された改変音響フレームを順次蓄積し、1音響ブロック分蓄積された際に、音響ブロックとして再生ブロック蓄積手段240(第1の実施形態の場合)またはブロック一時蓄積手段260(第2の実施形態の場合)に出力する機能を有している。
The acoustic frame reading means 10 has a function of dividing the recording block read from the recording block accumulating means 220 into a plurality of acoustic frames and reading them in units of acoustic frames. The frequency conversion means 20 has a function of generating a spectrum by frequency-converting the acoustic frame read by the acoustic frame reading means 10 by Fourier transformation or the like. The frequency
付加情報記憶部62は、音響信号に埋め込まれる付加情報を記憶した記憶手段である。ビット配列作成手段70は、付加情報記憶部62から付加情報を抽出し、付加情報の各ワードについて、変換テーブル作成手段80を参照し、対応するビット配列を作成する機能を有している。変換テーブル作成手段80は、Nwビットが取り得る2のNw乗個の全ての登録順位に対して、互いにハミング距離が少なくとも4以上となるNh(>Nw)ビットのハミング符号を割り当てることにより、Nwビットの登録順位とNhビットのハミング符号が対応付けられた符号変換テーブルを作成する機能を有している。ここで、登録順位とは、Nwビットを10進で表現した場合の値を示しており、Nw=7の場合、登録順位は、0〜127で表現される。
The additional
なお、付加情報とは、音響情報に付加して埋め込むべき情報であり、タイトルやアーティスト名等の属性情報、および属性情報以外の他の情報を含むものである。本実施形態では、上記Nw、NhをそれぞれNw=7、Nh=12としている。本実施形態では、付加情報のコード形式としてASCIIコードを採用するため、付加情報においてはNw=7となり、7ビットが1ワードとなる。また、ビット配列作成手段70が作成するビット配列は、12ビットとなり、ビット配列作成後は、これを1ワードとして処理している。図9に示した各構成手段は、現実にはコンピュータに専用のプログラムを組み込むことにより実現される。すなわち、コンピュータが、専用のプログラムに従って各手段の内容を実行することになる。 The additional information is information that should be added to the sound information and embedded, and includes attribute information such as a title and artist name, and other information other than the attribute information. In the present embodiment, Nw and Nh are set to Nw = 7 and Nh = 12, respectively. In the present embodiment, since the ASCII code is adopted as the code format of the additional information, Nw = 7 in the additional information, and 7 bits are one word. The bit array created by the bit array creating means 70 is 12 bits, and after the bit array is created, this is processed as one word. Each component shown in FIG. 9 is actually realized by incorporating a dedicated program into a computer. That is, the computer executes the contents of each means according to a dedicated program.
次に、図9に示した付加情報埋め込み手段230の処理動作について説明する。音響フレーム読込手段10は、録音ブロック蓄積手段220から読み込んだ録音ブロックの左右の各チャンネルから、それぞれ所定数Nのサンプルを1音響フレームとして読み込む。音響フレーム読込手段10が読み込む1音響フレームのサンプル数Nは、適宜設定することができるが、サンプリング周波数が44.1kHzの場合、4096サンプル程度とすることが望ましい。したがって、音響フレーム読込手段10は、左チャンネル、右チャンネルについてそれぞれ4096サンプルずつ、順次音響フレームとして読み込んでいくことになる。
Next, the processing operation of the additional
音響フレームとしては、AタイプとBタイプが存在する。Aタイプの音響フレーム、Bタイプの音響フレームは、それぞれ同タイプの先行する音響フレームの最後のサンプルの次のサンプルを先頭サンプルとして設定される。そして、AタイプとBタイプの音響フレームは互いに所定数(本実施形態では2048)のサンプルを重複して設定される。例えば、Aタイプの音響フレームを先頭からA1、A2、A3…とし、Bタイプの音響フレームを先頭からB1、B2、B3…とすると、A1はサンプル1〜4096、A2はサンプル4097〜8192、A3はサンプル8193〜12288、B1はサンプル2049〜6144、B2はサンプル6145〜10240、B3はサンプル10241〜14336となる。なお、AタイプとBタイプは相対的なものであるので、どちらが先であっても良い。すなわち、上記とは逆にA1がサンプル2049〜6144、A2がサンプル6145〜10240、A3がサンプル10241〜14336、B1がサンプル1〜4096、B2がサンプル4097〜8192、B3がサンプル8193〜12288であっても良い。
There are A type and B type as acoustic frames. In the A-type acoustic frame and the B-type acoustic frame, the next sample after the last sample of the preceding acoustic frame of the same type is set as the first sample. The A-type and B-type sound frames are set by overlapping a predetermined number (2048 in this embodiment) of samples. For example, if the A type acoustic frame is A1, A2, A3... From the top and the B type acoustic frame is B1, B2, B3... From the top, A1 is
周波数変換手段20は、振幅変換後の音響フレームに対して周波数変換を行って、その音響フレームのスペクトルを得る。具体的には、窓関数を利用して周波数変換を行う。周波数変換としては、フーリエ変換、ウェーブレット変換その他公知の種々の手法を用いることができる。本実施形態では、フーリエ変換を用いた場合を例にとって説明する。
The
一般に、所定の信号に対してフーリエ変換を行う場合、信号を所定の長さに区切って行う必要があるが、この場合、所定長さの信号に対してそのままフーリエ変換を行うと、擬似高調波成分が発生する。そこで、一般にフーリエ変換を行う場合には、ハニング窓と呼ばれる窓関数を用いて、信号の値を変化させた後、変化後の値に対してフーリエ変換を実行する。 In general, when Fourier transform is performed on a predetermined signal, it is necessary to divide the signal into predetermined lengths. In this case, if Fourier transform is performed on a signal of a predetermined length as it is, a pseudo-harmonic wave is generated. Ingredients are generated. Therefore, in general, when performing Fourier transform, a signal value is changed using a window function called a Hanning window, and then Fourier transform is performed on the changed value.
本実施形態においても、窓関数を利用しているが、Aタイプの音響フレーム、Bタイプの音響フレームで、使用する窓関数を分けている。本実施形態では、図10(a)(b)に示したような第1窓関数W(1,i)、第2窓関数W(2,i)を用意し、抽出側で認識し易いようにした。第1窓関数W(1,i)は、Aタイプの音響フレームに対して用いるためのものであり、図10(a)に示すように所定のサンプル番号iの位置において、最大値1をとり、後部においては、最小値0をとるように設定されている。どのサンプル番号の場合に最大値をとるかについては、窓関数W(1,i)の設計によって異なってくるが、本実施形態では、後述する〔数式1〕で定義される。Aタイプの音響フレームについてのフーリエ変換は、この窓関数W(1,i)を乗じたものに対して行われることになる。 In this embodiment, the window function is used, but the window function to be used is divided into the A type acoustic frame and the B type acoustic frame. In this embodiment, the first window function W (1, i) and the second window function W (2, i) as shown in FIGS. 10A and 10B are prepared so that the extraction side can easily recognize them. I made it. The first window function W (1, i) is for use with an A type acoustic frame, and has a maximum value of 1 at the position of a predetermined sample number i as shown in FIG. In the rear part, the minimum value is set to zero. Which sample number takes the maximum value depends on the design of the window function W (1, i), but in this embodiment, it is defined by [Equation 1] described later. The Fourier transform for the A type acoustic frame is performed on the product of the window function W (1, i).
また、第2窓関数W(2,i)は、Bタイプの音響フレームに対して用いるためのものであり、図10(b)に示すように、所定のサンプル番号iの位置において、最大値1をとり、前部においては、最小値0をとるように設定されている。どのサンプル番号の場合に最大値をとるかについては、窓関数W(2,i)の設計によって異なってくるが、本実施形態では、後述する〔数式2〕で定義される。Bタイプの音響フレームについてのフーリエ変換は、この窓関数W(2,i)を乗じたものに対して行われることになる。 The second window function W (2, i) is for use with a B-type acoustic frame, and has a maximum value at the position of a predetermined sample number i as shown in FIG. 1 is set, and the front portion is set to have a minimum value of 0. Which sample number takes the maximum value depends on the design of the window function W (2, i), but in this embodiment, it is defined by [Expression 2] described later. The Fourier transform for the B type acoustic frame is performed on the product of the window function W (2, i).
なお、上述のように、本実施形態においては、音響フレームは重複して読み込まれる。すなわち、奇数番目の音響フレームと偶数番目の音響フレームは、所定数のサンプルを重複して読み込む。上記のように、奇数フレームと偶数フレームでは、用いられる窓関数が異なるが、奇数フレームと偶数フレームは単に奇数か偶数かの違いだけであるため、どちらに対してどちらの処理を行っても良い。したがって、本明細書では、奇数フレーム、偶数フレームの一方をAタイプフレーム、他方をBタイプフレームと呼ぶことにする。本実施形態では、奇数フレームをAタイプフレーム、偶数フレームをBタイプフレームとして説明するが、逆に偶数フレームをAタイプフレーム、奇数フレームをBタイプフレームとしても良い。 As described above, in the present embodiment, the sound frame is read in duplicate. That is, a predetermined number of samples are redundantly read in the odd-numbered sound frames and the even-numbered sound frames. As described above, the window function used is different between the odd frame and the even frame, but since either the odd frame or the even frame is simply the difference between the odd frame and the even frame, either process may be performed on either. . Therefore, in this specification, one of the odd-numbered frame and the even-numbered frame is referred to as an A-type frame, and the other is referred to as a B-type frame. In the present embodiment, the odd frame is described as an A type frame and the even frame as a B type frame. Conversely, the even frame may be an A type frame and the odd frame may be a B type frame.
本実施形態では、窓関数W(1,i)、W(2,i)は、以下の〔数式1〕〔数式2〕で定義される。なお、図10において、横軸は時間軸(i)である。iは、後述するように、各音響フレーム内のN個のサンプルに付した通し番号であるため時刻tに比例している。また、図10(a)(b)において縦軸は信号の振幅値(レベル)を示す。図10(a)(b)において縦軸は窓関数W(1,i)、W(2,i)の値を示しており、W(1,i)、W(2,i)の最大値はいずれも1である。 In the present embodiment, the window functions W (1, i) and W (2, i) are defined by the following [Equation 1] and [Equation 2]. In FIG. 10, the horizontal axis is the time axis (i). As described later, i is a serial number assigned to N samples in each acoustic frame, and is proportional to time t. 10A and 10B, the vertical axis indicates the amplitude value (level) of the signal. 10A and 10B, the vertical axis indicates the values of the window functions W (1, i) and W (2, i), and the maximum values of W (1, i) and W (2, i). Are all 1.
〔数式1〕
i≦N/4のとき、W(1,i)=0.5−0.5cos(4πi/N)
N/4<i≦11N/16のとき、W(1,i)=1.0
11N/16<i≦13N/16のとき、W(1,i)=0.5−0.5cos(8π(i−9N/16)/N)
i>13N/16のとき、W(1,i)=0.0
[Formula 1]
When i ≦ N / 4, W (1, i) = 0.5−0.5 cos (4πi / N)
When N / 4 <i ≦ 11N / 16, W (1, i) = 1.0
When 11N / 16 <i ≦ 13N / 16, W (1, i) = 0.5−0.5 cos (8π (i−9N / 16) / N)
When i> 13N / 16, W (1, i) = 0.0
〔数式2〕
i≦3N/16のとき、W(2,i)=0.0
3N/16<i≦5N/16のとき、W(2,i)=0.5−0.5cos(8π(i−3N/16)/N)
5N/16<i≦3N/4のとき、W(2,i)=1.0
i>3N/4のとき、W(2,i)=0.5−0.5cos(4π(i−N/2)/N)
[Formula 2]
When i ≦ 3N / 16, W (2, i) = 0.0
When 3N / 16 <i ≦ 5N / 16, W (2, i) = 0.5−0.5 cos (8π (i−3N / 16) / N)
When 5N / 16 <i ≦ 3N / 4, W (2, i) = 1.0
When i> 3N / 4, W (2, i) = 0.5−0.5 cos (4π (i−N / 2) / N)
なお、図10および上記〔数式1〕〔数式2〕から明らかなように、窓関数W(1,i)とW(2,i)は、互いに非対称な形状である。これは、後述する抽出側において、両者の識別を容易にするためである。 As is clear from FIG. 10 and [Formula 1] and [Formula 2], the window functions W (1, i) and W (2, i) are asymmetrical to each other. This is for facilitating identification between the two on the extraction side described later.
本実施形態においては、奇数フレームと偶数フレームを、所定サンプルずつ重複して読み込むため、情報の埋め込みを行った後、音響信号に復元する際に、窓関数を乗じた奇数フレームと、窓関数を乗じた偶数フレームの重複サンプルを加算した場合に、ほぼ元の値に戻るようにしなければならない。このため、奇数フレームと偶数フレームの重複部分において、窓関数W(1,i)、W(2,i)を加算すると、全区間固定値1になるように定義されている。
In this embodiment, since odd frames and even frames are read in duplicate by predetermined samples, after embedding information, when restoring to an acoustic signal, an odd frame multiplied by a window function and a window function are When the overlapped samples of the even frames multiplied are added, it should return to the original value. For this reason, when the window functions W (1, i) and W (2, i) are added in the overlapping portion of the odd frame and the even frame, it is defined to be a fixed
周波数変換手段20が、Aタイプの音響フレームに対してフーリエ変換を行う場合は、左チャンネル信号Xl(i)、右チャンネル信号Xr(i)(i=0,…,N−1)に対して、窓関数W(1,i)を用いて、以下の〔数式3〕に従った処理を行い、左チャンネルに対応する変換データの実部Al(1,j)、虚部Bl(1,j)、右チャンネルに対応する変換データの実部Ar(1,j)、虚部Br(1,j)を得る。 When the frequency conversion means 20 performs Fourier transform on the A type sound frame, the left channel signal Xl (i) and the right channel signal Xr (i) (i = 0,..., N−1). The window function W (1, i) is used to perform processing according to the following [Equation 3], and real part Al (1, j) and imaginary part Bl (1, j) of the conversion data corresponding to the left channel are performed. ), Real part Ar (1, j) and imaginary part Br (1, j) of the conversion data corresponding to the right channel are obtained.
〔数式3〕
Al(1,j)=Σi=0,…,N-1W(1,i)・Xl(i)・cos(2πij/N)
Bl(1,j)=Σi=0,…,N-1W(1,i)・Xl(i)・sin(2πij/N)
Ar(1,j)=Σi=0,…,N-1W(1,i)・Xr(i)・cos(2πij/N)
Br(1,j)=Σi=0,…,N-1W(1,i)・Xr(i)・sin(2πij/N)
[Formula 3]
Al (1, j) = Σi = 0,..., N-1 W (1, i) .Xl (i) .cos (2πij / N)
Bl (1, j) = Σi = 0,..., N-1 W (1, i) · Xl (i) · sin (2πij / N)
Ar (1, j) = Σi = 0,..., N-1 W (1, i) .Xr (i) .cos (2πij / N)
Br (1, j) = Σ i = 0,..., N-1 W (1, i) · Xr (i) · sin (2πij / N)
周波数変換手段20が、Bタイプの音響フレームに対してフーリエ変換を行う場合は、左チャンネル信号Xl(i+N/2)、右チャンネル信号Xr(i+N/2)(i=0,…,N−1)に対して、窓関数W(2,i)を用いて、以下の〔数式4〕に従った処理を行い、左チャンネルに対応する変換データの実部Al(2,j)、虚部Bl(2,j)、右チャンネルに対応する変換データの実部Ar(2,j)、虚部Br(2,j)を得る。
When the
〔数式4〕
Al(2,j)=Σi=0,…,N-1W(2,i)・Xl(i+N/2)・cos(2πij/N)
Bl(2,j)=Σi=0,…,N-1W(2,i)・Xl(i+N/2)・sin(2πij/N)
Ar(2,j)=Σi=0,…,N-1W(2,i)・Xr(i+N/2)・cos(2πij/N)
Br(2,j)=Σi=0,…,N-1W(2,i)・Xr(i+N/2)・sin(2πij/N)
[Formula 4]
Al (2, j) = Σi = 0,..., N-1 W (2, i) · Xl (i + N / 2) · cos (2πij / N)
Bl (2, j) = Σi = 0,..., N-1 W (2, i) .Xl (i + N / 2) .sin (2πij / N)
Ar (2, j) = Σi = 0,..., N-1 W (2, i) .Xr (i + N / 2) .cos (2πij / N)
Br (2, j) = Σi = 0,..., N-1 W (2, i) .Xr (i + N / 2) .sin (2πij / N)
上記〔数式3〕〔数式4〕において、iは、各音響フレーム内のN個のサンプルに付した通し番号であり、i=0,1,2,…N−1の整数値をとる。また、jは周波数の値について、値の小さなものから順に付した通し番号であり、iと同様にj=0,1,2,…N/2−1の整数値をとる。サンプリング周波数が44.1kHz、N=4096の場合、jの値が1つ異なると、周波数が10.8Hz異なることになる。 In the above [Expression 3] and [Expression 4], i is a serial number assigned to N samples in each acoustic frame, and takes an integer value of i = 0, 1, 2,... N−1. Further, j is a serial number assigned in order from the smallest value of the frequency value, and takes an integer value of j = 0, 1, 2,... N / 2-1 like i. When the sampling frequency is 44.1 kHz and N = 4096, if the value of j is different by one, the frequency will be different by 10.8 Hz.
上記〔数式3〕〔数式4〕に従った処理を実行することにより、各音響フレームの各窓関数に対応するスペクトルが得られる。続いて、周波数成分変更手段30が、生成されたスペクトルから所定周波数範囲のスペクトル集合を抽出する。本実施形態では、F1以上F2以下の範囲のものを抽出する。
By executing the processing according to the above [Equation 3] and [Equation 4], a spectrum corresponding to each window function of each acoustic frame is obtained. Subsequently, the frequency
周波数変換手段20は、周波数変換を実行した後に、各スペクトル集合の平均値が設定値になるように変換する。いわゆる振幅を変換する処理を行う。この振幅変換は、各フレームごとのレベル差を軽減し、適切な情報の埋め込みが可能になるようにすることを目的としているため、設定値Zoとしては適宜設定することができる。 After performing the frequency conversion, the frequency conversion means 20 performs conversion so that the average value of each spectrum set becomes a set value. A so-called amplitude conversion process is performed. The purpose of this amplitude conversion is to reduce the level difference for each frame so that appropriate information can be embedded. Therefore, the set value Zo can be set as appropriate.
周波数変換手段20は、得られたスペクトル集合に対して、振幅変換を行うにあたり、まず変換倍率の算出を行う。変換倍率の算出は、所定周波数範囲のスペクトル集合の実効強度値の平均である平均実効値で上記設定値を除算することにより行う。具体的には、LチャンネルのAタイプの音響フレーム、Bタイプの音響フレーム、RチャンネルのAタイプの音響フレーム、Bタイプの音響フレームのスペクトル集合についての変換倍率Zl(1)、Zl(2)、Zr(1)、Zr(2)は、以下の〔数式5〕に従った処理により算出される。対象音響フレームが無音に近く、分母の二乗総和値が所定の値に満たない場合は、変換倍率を1.0に設定し、振幅変換は行わないようにする。振幅変換が実行されることにより、全ての音響フレームは、元の状態における信号強度に関わらず、各音響フレームのスペクトル集合の平均実効値が設定値となるように振幅変換された状態で、情報の埋め込みが行われることになる。 The frequency conversion means 20 first calculates the conversion magnification when performing the amplitude conversion on the obtained spectrum set. The conversion magnification is calculated by dividing the set value by an average effective value that is an average of effective intensity values of a spectrum set in a predetermined frequency range. Specifically, conversion magnifications Zl (1) and Zl (2) for spectrum sets of the L-channel A-type acoustic frame, the B-type acoustic frame, the R-channel A-type acoustic frame, and the B-type acoustic frame. , Zr (1), Zr (2) are calculated by processing according to the following [Equation 5]. When the target acoustic frame is close to silence and the square sum of the denominator is less than a predetermined value, the conversion magnification is set to 1.0 and the amplitude conversion is not performed. By performing the amplitude conversion, all the sound frames are in the state of amplitude conversion so that the average effective value of the spectrum set of each sound frame becomes the set value regardless of the signal intensity in the original state. Will be embedded.
〔数式5〕
Zl(1)=Zo/[Σj=m,…,M-1{Al(1,j)2+Bl(1,j)2}]1/2
Zl(2)=Zo/[Σj=m,…,M-1{Al(2,j)2+Bl(2,j)2}]1/2
Zr(1)=Zo/[Σj=m,…,M-1{Ar(1,j)2+Br(1,j)2}]1/2
Zr(2)=Zo/[Σj=m,…,M-1{Ar(2,j)2+Br(2,j)2}]1/2
[Formula 5]
Zl (1) = Zo / [Σ j = m,..., M−1 {Al (1, j) 2 + Bl (1, j) 2 }] 1/2
Zl (2) = Zo / [Σ j = m,..., M−1 {Al (2, j) 2 + Bl (2, j) 2 }] 1/2
Zr (1) = Zo / [Σ j = m,..., M−1 {Ar (1, j) 2 + Br (1, j) 2 }] 1/2
Zr (2) = Zo / [Σ j = m,..., M−1 {Ar (2, j) 2 + Br (2, j) 2 }] 1/2
上記〔数式5〕において、mおよびMは変更対象周波数帯の下限および上限で、Zo=M−mであり、本実施形態では、Zo=288である。 In the above [Equation 5], m and M are the lower limit and upper limit of the frequency band to be changed, and Zo = M−m. In the present embodiment, Zo = 288.
さらに、j=m,…,M−1(周波数F1,...,F2に相当)の範囲で、Al(1,j)およびBl(1,j)の各々の要素に対してZl(1)を乗じ、Al(2,j)およびBl(2,j)の各々の要素に対してZl(2)を乗じ、Ar(1,j)およびBr(1,j)の各々の要素に対してZr(1)を乗じ、Ar(2,j)およびBr(2,j)の各々の要素に対してZr(2)を乗じることにより、振幅変換を行う。以下説明において、Al(1,j)、Bl(1,j)、Al(2,j)、Bl(2,j)、Ar(1,j)、Br(1,j)、Ar(2,j)、Br(2,j)はこれらの振幅変換を行った値とする。 Further, Zl (1) for each element of Al (1, j) and Bl (1, j) in the range of j = m,..., M−1 (corresponding to frequencies F1,..., F2). ), Multiply each element of Al (2, j) and Bl (2, j) by Zl (2), and multiply each element of Ar (1, j) and Br (1, j) The amplitude is converted by multiplying Zr (1) and multiplying each element of Ar (2, j) and Br (2, j) by Zr (2). In the following description, Al (1, j), Bl (1, j), Al (2, j), Bl (2, j), Ar (1, j), Br (1, j), Ar (2, j) and Br (2, j) are values obtained by performing these amplitude conversions.
周波数成分変更手段30は、Aタイプの音響フレームについて、ビット配列作成手段70が作成したビット配列に応じて、所定周波数成分の割合を変更する処理を行う。本発明では、ビット配列を1ビットまたは2ビットずつ読み込み、Aタイプ、Bタイプの1対の音響フレームに対して1ビットまたは2ビットの情報を埋め込む。埋め込まれる1ビットの値は、“0” “1”の2通りがある。本実施形態では、これらを値1、値2と定義する。2種類の符号を埋め込むことができるという点で、これらを符号1、符号2と表現することも可能である。この際、“0”“1”の2通りのうち、いずれを値1、値2(符号1、符号2)と定義しても良い。抽出側において、埋め込み側で埋め込まれた1ビットが特定できれば良いためである。したがって、この定義は、埋め込み側と抽出側で一致している必要がある。
The frequency
具体的には、埋め込み装置で、音響信号から抽出した所定数のサンプルで構成される音響フレーム内の所定周波数範囲の周波数成分を変更するに際し、その強弱が音脈分凝を発生させるような状態に変更する。これにより、人間には、音が途切れたようには聞こえないが、抽出装置では、その明確な変化を認識することができる。 Specifically, when the frequency component of a predetermined frequency range in an acoustic frame composed of a predetermined number of samples extracted from an acoustic signal is changed by the embedding device, the strength and weakness generate a sound pulse fraction. Change to As a result, although it does not sound as if the sound is interrupted by a human, the extraction device can recognize the clear change.
本実施形態では、音脈分凝の原理を利用して、音響フレームの変更対象周波数帯の成分を2つの状態に変更し、1ビットの情報を埋め込むようにしている。ここで、埋め込み処理の前後における音響フレームの所定周波数成分の変化の状態について説明する。図11に、本実施形態によるAタイプ、BタイプのLチャンネル1音響フレームの所定周波数成分の状態を示す。Rチャンネルについては、Lチャンネルと同様であるので省略してある。図11に示す各音響フレームにおいて、横軸は時間方向、縦軸は周波数方向を示している。
In the present embodiment, using the principle of sound pulse segregation, the components of the change target frequency band of the acoustic frame are changed to two states, and 1-bit information is embedded. Here, the state of change of the predetermined frequency component of the acoustic frame before and after the embedding process will be described. FIG. 11 shows the states of the predetermined frequency components of the A type and B
図11においては、縦軸の周波数方向において、周波数領域が6つに区分されているが、上から2番目〜5番目の領域、すなわち、周波数F1以上F2以下の間が変更対象周波数帯であり、最上部すなわち周波数F2超、最下部すなわちF1未満は、変更対象でない周波数帯である。すなわち、本実施形態では、周波数F1以上F2以下を所定周波数範囲として、スペクトル集合の強度を変更することになる。図11(a)に示すように、Aタイプ音響フレームの変更対象周波数帯については、周波数が低い順に、そのスペクトル集合を1D1、1D2、1U1、1U2で表現することとする。また、図11(b)に示すように、Bタイプ音響フレームの変更対象周波数帯については、周波数が低い順に、そのスペクトル集合を2D1、2D2、2U1、2U2で表現することとする。 In FIG. 11, the frequency region is divided into six in the frequency direction of the vertical axis, but the second to fifth regions from the top, that is, the frequency band from F1 to F2 is the change target frequency band. The uppermost part, that is, the frequency exceeding F2, and the lowermost part, that is, less than F1, are frequency bands not to be changed. That is, in the present embodiment, the intensity of the spectrum set is changed by setting the frequency F1 to F2 as a predetermined frequency range. As shown in FIG. 11A, regarding the change target frequency band of the A type acoustic frame, the spectrum set is represented by 1D1, 1D2, 1U1, and 1U2 in order of increasing frequency. Also, as shown in FIG. 11 (b), regarding the change target frequency band of the B-type acoustic frame, the spectrum set is represented by 2D1, 2D2, 2U1, and 2U2 in order of increasing frequency.
1ビット埋め込み方式で、符号1を埋め込む場合、図11(c)(e)に示すように、1D1と2D2の強度の積、1U1と2U2の強度の積を相対的に強い状態に変更し、1D2と2D1の強度の積、1U2と2U1の強度の積を相対的に弱い状態に変更する。この状態を“状態1”と呼ぶことにする。符号2を埋め込む場合は、図11(d)(f)に示すように、1D2と2D1の強度の積、1U2と2U1の強度の積を相対的に強い状態に変更し、1D1と2D2の強度の積、1U1と2U2の強度の積を相対的に弱い状態に変更する。この状態を“状態2”と呼ぶことにする。網掛けされた部分の濃さは、同濃度のものは、積を求めるための組となるスペクトル集合であることを示している。網掛けの色が濃い方が相対的に強度が強い状態に変更される組を示している。
When the
1ビット埋め込み方式では、図11(c)(e)または(d)(f)に示すような2つの状態にAタイプ、Bタイプの音響フレームの周波数成分を変更することにより、情報の埋め込みを行っている。2つの状態であるので1ビット分の情報量に相当する。図11(c)〜(f)に示したように、1ビット埋め込み方式の場合、変更対象周波数帯の上位周波数帯と下位周波数帯が全く同一のパターンとなっている。2ビット埋め込み方式の場合は、上位周波数帯と下位周波数帯を独立に変更することにより、上位周波数帯で1ビット、下位周波数帯で1ビットの表現が可能となる。 In the 1-bit embedding method, information is embedded by changing the frequency components of the A-type and B-type sound frames into two states as shown in FIGS. 11C, 11E, 11D, and 11F. Is going. Since there are two states, this corresponds to an information amount of 1 bit. As shown in FIGS. 11C to 11F, in the case of the 1-bit embedding method, the upper frequency band and the lower frequency band of the change target frequency band have exactly the same pattern. In the case of the 2-bit embedding method, by independently changing the upper frequency band and the lower frequency band, it is possible to represent 1 bit in the upper frequency band and 1 bit in the lower frequency band.
本実施形態では、上記変更対象周波数帯F1〜F2を、“0.34kHz〜3.4kHz”に設定する。これは、以下のような理由による。すなわち、音声通信として普及度の高い携帯電話機を抽出装置として利用する場合、上限については、電話回線帯域および携帯電話機の上限である3.4kHzとする必要がある。これは、携帯電話機の内部に搭載されているローパスフィルターが、電話交換機に合わせて、3.4kHz以下に対応したものとなっているためである。また、上位周波数帯の下限については、上限の3.4kHzから1オクターブ下がった1.7kHzとすることとした。そして、下位周波数帯の上限を上位周波数帯の下限と同じく、1.7kHzとし、下位周波数帯の下限については、電話回線帯域および携帯電話機の下限である0.3kHz以上とする必要がある。これは、携帯電話機の内部に搭載されているハイパスフィルターが、電話交換機に合わせて、0.3kHz以上に対応したものとなっているためである。そこで、上限の1.7kHzから2オクターブ強下がった0.34kHzとすることとした。下位周波数帯の周波数範囲は、上位周波数帯の周波数範囲に比べ若干狭くなるが、分布している信号成分の強度は平均4倍程度になるため、上位周波数帯より下位周波数帯の方が大きな感度を持つと推定できる。なお、“0.34kHz”“1.7kHz”“3.4kHz”という値は、代表的な値であり、必ずしも正確な値である必要はなく、そこから若干ずれた値であっても良い。 In the present embodiment, the change target frequency bands F1 to F2 are set to “0.34 kHz to 3.4 kHz”. This is due to the following reasons. That is, when a mobile phone having a high degree of spread as voice communication is used as an extraction device, the upper limit needs to be 3.4 kHz which is the upper limit of the telephone line band and the mobile phone. This is because the low-pass filter mounted inside the mobile phone corresponds to 3.4 kHz or less in accordance with the telephone exchange. Also, the lower limit of the upper frequency band is set to 1.7 kHz, which is one octave lower than the upper limit of 3.4 kHz. The upper limit of the lower frequency band is set to 1.7 kHz, similar to the lower limit of the upper frequency band, and the lower limit of the lower frequency band needs to be 0.3 kHz or more, which is the lower limit of the telephone line band and the mobile phone. This is because the high-pass filter mounted inside the mobile phone corresponds to 0.3 kHz or more according to the telephone exchange. Therefore, the upper limit of 1.7 kHz is set to 0.34 kHz, which is slightly lower by 2 octaves. The frequency range of the lower frequency band is slightly narrower than the frequency range of the upper frequency band, but the intensity of the distributed signal components is about 4 times on average, so the sensitivity of the lower frequency band is greater than that of the upper frequency band. Can be estimated. The values “0.34 kHz”, “1.7 kHz”, and “3.4 kHz” are representative values, and are not necessarily accurate values, and may be slightly deviated from them.
図11に示した例では、相対的に強い状態と弱い状態に変更することについて説明したが、この強弱の程度については、状況に応じて設定することが可能である。両者の割合は、以下に述べるように、大きいほど抽出時の精度が高くなるが、補間される割合は不完全になり、再生時に不連続成分によるノイズが聞こえる。一方、両者の割合が均等であるほど再生品質は原音に近付くが、埋め込んだビットの抽出ができなくなり、再生品質と抽出精度はトレードオフの関係になる。例えば、強い方を100%、弱い方を0%とした場合、音脈分凝により、補間される部分の音は図11のような変更を行なう前に原音響信号で鳴っていた音の50%程度となることが確認されている。そこで、強い方を70%、弱い方を30%とした場合、音脈分凝により、補間される部分の音は図11のような変更を行なう前に原音響信号で鳴っていた音とほぼ同程度となり、この割合が抽出精度を維持できる限界であることが確認されている。このため、相対的に強いスペクトル集合と、相対的に弱いスペクトル集合の強度の割合を70%と30%とすることを目標に設定することが好ましい。これを実現するため、本実施形態では、後述する具体的な処理において、強い状態を設定するための係数α=0.7、弱い状態を設定するための係数β=0.3とする。ただし、強い状態に変更すべきスペクトル集合の強度が元々小さい場合には、係数α、βを補正する必要が生じる。このため、周波数成分変更手段30は、まず、以下の〔数式6〕に従った処理を実行することにより、各スペクトル集合の強度E1D1、E2D1、E1D2、E2D2、E1U1、E2U1、E1U2、E2U2を算出する。 In the example illustrated in FIG. 11, the description has been given of changing to a relatively strong state and a weak state. However, the level of this strength can be set according to the situation. As will be described below, the larger the ratio between the two, the higher the accuracy at the time of extraction. However, the ratio of interpolation becomes incomplete, and noise due to discontinuous components is heard during reproduction. On the other hand, as the ratio between the two is equal, the reproduction quality approaches the original sound, but the embedded bits cannot be extracted, and the reproduction quality and extraction accuracy are in a trade-off relationship. For example, when the strong side is set to 100% and the weak side is set to 0%, the sound of the portion to be interpolated is 50% of the sound produced by the original acoustic signal before the change as shown in FIG. % Has been confirmed. Therefore, when the strong side is set to 70% and the weak side is set to 30%, the sound of the portion to be interpolated is almost the same as the sound played by the original acoustic signal before the change as shown in FIG. It has been confirmed that this ratio is the limit that can maintain the extraction accuracy. For this reason, it is preferable to set the intensity ratio of the relatively strong spectrum set and the relatively weak spectrum set as 70% and 30%. In order to realize this, in this embodiment, in a specific process described later, a coefficient α = 0.7 for setting a strong state and a coefficient β = 0.3 for setting a weak state are set. However, when the intensity of the spectrum set to be changed to a strong state is originally small, it is necessary to correct the coefficients α and β. For this reason, the frequency component changing means 30 first executes processing according to the following [Equation 6] to thereby obtain the intensities E 1D1 , E 2D1 , E 1D2 , E 2D2 , E 1U1 , E 2U1 of each spectrum set. , to calculate the E 1U2, E 2U2.
〔数式6〕
E1D1=Σj=m,…,m+G-1{Al(1,j)2+Bl(1,j)2}
E2D1=Σj=m,…,m+G-1{Al(2,j)2+Bl(2,j)2}
E1D2=Σj=m+G,…,m+2G-1{Al(1,j)2+Bl(1,j)2}
E2D2=Σj=m+G,…,m+2G-1{Al(2,j)2+Bl(2,j)2}
E1U1=Σj=m+2G,…,m+2G+Gu-1{Al(1,j)2+Bl(1,j)2}
E2U1=Σj=m+2G,…,m+2G+Gu-1{Al(2,j)2+Bl(2,j)2}
E1U2=Σj=m+2G+Gu,…,m+2G+2Gu-1{Al(1,j)2+Bl(1,j)2}
E2U2=Σj=m+2G+Gu,…,m+2G+2Gu-1{Al(2,j)2+Bl(2,j)2}
[Formula 6]
E 1D1 = Σ j = m,..., M + G−1 {Al (1, j) 2 + Bl (1, j) 2 }
E 2D1 = Σ j = m,..., M + G−1 {Al (2, j) 2 + Bl (2, j) 2 }
E 1D2 = Σ j = m + G,..., M + 2G−1 {Al (1, j) 2 + Bl (1, j) 2 }
E 2D2 = Σ j = m + G,..., M + 2G−1 {Al (2, j) 2 + Bl (2, j) 2 }
E 1U1 = Σ j = m + 2G,..., M + 2G + Gu-1 {Al (1, j) 2 + Bl (1, j) 2 }
E 2U1 = Σ j = m + 2G,..., M + 2G + Gu-1 {Al (2, j) 2 + Bl (2, j) 2 }
E 1U2 = Σ j = m + 2G + Gu,..., M + 2G + 2Gu−1 {Al (1, j) 2 + Bl (1, j) 2 }
E 2U2 = Σ j = m + 2G + Gu,..., M + 2G + 2Gu−1 {Al (2, j) 2 + B1 (2, j) 2 }
上記〔数式6〕において、mは変更対象周波数帯の下限の成分の番号、Gは変更対象周波数帯内の下位周波数帯の2分割領域の幅で、Guは変更対象周波数帯内の上位周波数帯の2分割領域の幅で、m+2G+2Guは変更対象周波数帯の上限の成分の番号である。例えば、変更対象周波数帯として、0.34kHz〜3.4kHzを設定する場合、m=32、m+2G+2Gu=320(=M)となる。したがって、下位周波数帯の2分割領域の幅G(=(M/2−m)/2)=64で、上位周波数帯の2分割領域の幅Gu(=(M−M/2)/2)=80である。 In the above [Equation 6], m is the number of the lower limit component of the frequency band to be changed, G is the width of the two divided regions of the lower frequency band in the frequency band to be changed, and Gu is the upper frequency band in the frequency band to be changed. M + 2G + 2Gu is the number of the upper limit component of the frequency band to be changed. For example, when 0.34 kHz to 3.4 kHz is set as the change target frequency band, m = 32 and m + 2G + 2Gu = 320 (= M). Therefore, the width G (= (M / 2−m) / 2) = 64 of the lower frequency band, and the width Gu (= (M−M / 2) / 2) of the upper frequency band. = 80.
さらに、周波数成分変更手段30は、算出された各スペクトル集合の強度を利用して、弱い状態に変更すべきスペクトル集合に対する強い状態に変更すべきスペクトル集合の強度割合γを算出する。これは、1音響フレームに1ビット埋め込む場合と、2ビット埋め込む場合により異なる。1音響フレームに1ビット埋め込む場合は、以下の〔数式7〕に従って強度割合γを算出する。
Further, the frequency
〔数式7〕
埋め込みデータが値1の場合、γ=(E1D1・E1U1・E2D2・E2U2)/(E1D2・E1U2・E2D1・E2U1)
埋め込みデータが値2の場合、γ=(E1D2・E1U2・E2D1・E2U1)/(E1D1・E1U1・E2D2・E2U2)
[Formula 7]
If the embedded data is a value 1, γ = (E 1D1 · E 1U1 · E 2D2 · E 2U2) / (E 1D2 · E 1U2 · E 2D1 · E 2U1)
If the embedded data is a value 2, γ = (E 1D2 · E 1U2 · E 2D1 · E 2U1) / (E 1D1 · E 1U1 · E 2D2 · E 2U2)
1音響フレームに1ビット埋め込む場合、さらに強度割合γの値に応じて、周波数成分変更手段30は、以下の〔数式8〕に従った処理を実行することにより、係数α、βを補正して係数α´、β´を得る。 When 1 bit is embedded in one acoustic frame, the frequency component changing means 30 further corrects the coefficients α and β by executing the processing according to the following [Equation 8] according to the value of the intensity ratio γ. The coefficients α ′ and β ′ are obtained.
〔数式8〕
0.01≦γ<1.0の場合、α´=α・γ-1/4、β´=β・γ1/4
γ<0.01の場合、α´=10.0・α、β´=0.1・β
γ≧1.0の場合、補正を行わない。
[Formula 8]
In the case of 0.01 ≦ γ <1.0, α'= α · γ -1/4, β'= β ·
When γ <0.01, α ′ = 10.0 · α, β ′ = 0.1 · β
When γ ≧ 1.0, no correction is performed.
一方、1音響フレームに2ビット埋め込む場合は、以下の〔数式9〕に従って強度割合γを算出する。 On the other hand, when embedding 2 bits in one acoustic frame, the intensity ratio γ is calculated according to the following [Equation 9].
〔数式9〕
第1埋め込みデータが値1の場合、γ1=(E1D1・E2D2)/(E1D2・E2D1)
第1埋め込みデータが値2の場合、γ1=(E1D2・E2D1)/(E1D1・E2D2)
第2埋め込みデータが値1の場合、γ2=(E1U1・E2U2)/(E1U2・E2U1)
第2埋め込みデータが値2の場合、γ2=(E1U2・E2U1)/(E1U1・E2U2)
[Formula 9]
When the first embedded data is 1, γ 1 = (E 1D1 · E 2D2 ) / (E 1D2 · E 2D1 )
When the first embedded data is 2, γ 1 = (E 1D2 · E 2D1 ) / (E 1D1 · E 2D2 )
If the second embedded data value 1, γ 2 = (E 1U1 · E 2U2) / (E 1U2 · E 2U1)
If the second embedded data values 2, γ 2 = (E 1U2 · E 2U1) / (E 1U1 · E 2U2)
1音響フレームに2ビット埋め込む場合、さらに強度割合γ1、γ2の値に応じて、周波数成分変更手段30は、以下の〔数式10〕に従った処理を実行することにより、係数α、βを補正して係数α1´、β1´、α2´、β2´を得る。 When embedding 2 bits in one acoustic frame, the frequency component changing means 30 further executes the processing according to the following [Equation 10] according to the values of the intensity ratios γ 1 and γ 2 , thereby obtaining the coefficients α and β. To obtain coefficients α 1 ′, β 1 ′, α 2 ′, β 2 ′.
〔数式10〕
0.01≦γ1<1.0の場合、α1´=α・γ1 -1/2、β1´=β・γ1 1/2
γ<0.01の場合、α1´=10.0・α、β1´=0.1・β
γ≧1.0の場合、補正を行わない。
0.01≦γ2<1.0の場合、α2´=α・γ2 -1/2、β2´=β・γ2 1/2
γ<0.01の場合、α2´=10.0・α、β2´=0.1・β
γ≧1.0の場合、補正を行わない。
[Formula 10]
When 0.01 ≦ γ 1 <1.0, α 1 ′ = α · γ 1 −1/2 , β 1 ′ = β · γ 1 1/2
When γ <0.01, α 1 ′ = 10.0 · α, β 1 ′ = 0.1 · β
When γ ≧ 1.0, no correction is performed.
When 0.01 ≦ γ 2 <1.0, α 2 ′ = α · γ 2 −1/2 , β 2 ′ = β · γ 2 1/2
When γ <0.01, α 2 ′ = 10.0 · α, β 2 ′ = 0.1 · β
When γ ≧ 1.0, no correction is performed.
さらに、周波数成分変更手段30は、連続するAタイプ音響フレーム、Bタイプ音響フレームにおける実部Al(1,j)、Ar(1,j)、Al(2,j)、Ar(2,j)、Bl(1,j)、Br(1,j)、Bl(2,j)、Br(2,j)に対して、周波数領域パラメータとして、下限m(=32)から上限M(=320)を設定し、mからM/2を幅G(=(M/2−m)/2)をもつ2個の領域に分割し、m+2GからMを幅Gu(=(M−M/2)/2)をもつ2個の領域に分割し、埋め込むべきビット値に応じて、各々改変を加える。一例として、1音響フレームに2ビット埋め込む方式で、埋め込むべきビット値が1ビット目、2ビット目ともに“値1”である場合、以下の〔数式11〕に従った処理を実行することにより、周波数成分の状態を“状態1”、すなわち、図11(c)(e)に示したような状態に変更する。
Further, the frequency component changing means 30 is provided with real parts Al (1, j), Ar (1, j), Al (2, j), Ar (2, j) in the continuous A type acoustic frame and B type acoustic frame. , Bl (1, j), Br (1, j), Bl (2, j), Br (2, j) as frequency domain parameters, the lower limit m (= 32) to the upper limit M (= 320) , M to M / 2 are divided into two regions having a width G (= (M / 2−m) / 2), and m + 2G to M are divided into width Gu (= (M−M / 2) / It is divided into two areas having 2), and each is modified according to the bit value to be embedded. As an example, when the bit value to be embedded is “
〔数式11〕
j=m〜m+G−1の各成分に対して
E(1,j)={Al(1,j)2+Bl(1,j)2+Ar(1,j)2+Br(1,j)2}1/2
Al´(1,j)=Al(1,j)・E(1,j)・α1/{Al(1,j)2+Bl(1,j)2}1/2
Bl´(1,j)=Bl(1,j)・E(1,j)・α1/{Al(1,j)2+Bl(1,j)2}1/2
Ar´(1,j)=Ar(1,j)・E(1,j)・α1/{Ar(1,j)2+Br(1,j)2}1/2
Br´(1,j)=Br(1,j)・E(1,j)・α1/{Ar(1,j)2+Br(1,j)2}1/2
E(2,j)={Al(2,j)2+Bl(2,j)2+Ar(2,j)2+Br(2,j)2}1/2
Al´(2,j)=Al(2,j)・E(2,j)・β1/{Al(2,j)2+Bl(2,j)2}1/2
Bl´(2,j)=Bl(2,j)・E(2,j)・β1/{Al(2,j)2+Bl(2,j)2}1/2
Ar´(2,j)=Ar(2,j)・E(2,j)・β1/{Ar(2,j)2+Br(2,j)2}1/2
Br´(2,j)=Br(2,j)・E(2,j)・β1/{Ar(2,j)2+Br(2,j)2}1/2
j=m+G〜m+2G−1の各成分に対して
E(1,j)={Al(1,j)2+Bl(1,j)2+Ar(1,j)2+Br(1,j)2}1/2
Al´(1,j)=Al(1,j)・E(1,j)・β1/{Al(1,j)2+Bl(1,j)2}1/2
Bl´(1,j)=Bl(1,j)・E(1,j)・β1/{Al(1,j)2+Bl(1,j)2}1/2
Ar´(1,j)=Ar(1,j)・E(1,j)・β1/{Ar(1,j)2+Br(1,j)2}1/2
Br´(1,j)=Br(1,j)・E(1,j)・β1/{Ar(1,j)2+Br(1,j)2}1/2
E(2,j)={Al(2,j)2+Bl(2,j)2+Ar(2,j)2+Br(2,j)2}1/2
Al´(2,j)=Al(2,j)・E(2,j)・α1/{Al(2,j)2+Bl(2,j)2}1/2
Bl´(2,j)=Bl(2,j)・E(2,j)・α1/{Al(2,j)2+Bl(2,j)2}1/2
Ar´(2,j)=Ar(2,j)・E(2,j)・α1/{Ar(2,j)2+Br(2,j)2}1/2
Br´(2,j)=Br(2,j)・E(2,j)・α1/{Ar(2,j)2+Br(2,j)2}1/2
j=m+2G〜m+2G+Gu−1の各成分に対して
E(1,j)={Al(1,j)2+Bl(1,j)2+Ar(1,j)2+Br(1,j)2}1/2
Al´(1,j)=Al(1,j)・E(1,j)・α2/{Al(1,j)2+Bl(1,j)2}1/2
Bl´(1,j)=Bl(1,j)・E(1,j)・α2/{Al(1,j)2+Bl(1,j)2}1/2
Ar´(1,j)=Ar(1,j)・E(1,j)・α2/{Ar(1,j)2+Br(1,j)2}1/2
Br´(1,j)=Br(1,j)・E(1,j)・α2/{Ar(1,j)2+Br(1,j)2}1/2
E(2,j)={Al(2,j)2+Bl(2,j)2+Ar(2,j)2+Br(2,j)2}1/2
Al´(2,j)=Al(2,j)・E(2,j)・β2/{Al(2,j)2+Bl(2,j)2}1/2
Bl´(2,j)=Bl(2,j)・E(2,j)・β2/{Al(2,j)2+Bl(2,j)2}1/2
Ar´(2,j)=Ar(2,j)・E(2,j)・β2/{Ar(2,j)2+Br(2,j)2}1/2
Br´(2,j)=Br(2,j)・E(2,j)・β2/{Ar(2,j)2+Br(2,j)2}1/2
j=m+2G+Gu〜M−1の各成分に対して
E(1,j)={Al(1,j)2+Bl(1,j)2+Ar(1,j)2+Br(1,j)2}1/2
Al´(1,j)=Al(1,j)・E(1,j)・β2/{Al(1,j)2+Bl(1,j)2}1/2
Bl´(1,j)=Bl(1,j)・E(1,j)・β2/{Al(1,j)2+Bl(1,j)2}1/2
Ar´(1,j)=Ar(1,j)・E(1,j)・β2/{Ar(1,j)2+Br(1,j)2}1/2
Br´(1,j)=Br(1,j)・E(1,j)・β2/{Ar(1,j)2+Br(1,j)2}1/2
E(2,j)={Al(2,j)2+Bl(2,j)2+Ar(2,j)2+Br(2,j)2}1/2
Al´(2,j)=Al(2,j)・E(2,j)・α2/{Al(2,j)2+Bl(2,j)2}1/2
Bl´(2,j)=Bl(2,j)・E(2,j)・α2/{Al(2,j)2+Bl(2,j)2}1/2
Ar´(2,j)=Ar(2,j)・E(2,j)・α2/{Ar(2,j)2+Br(2,j)2}1/2
Br´(2,j)=Br(2,j)・E(2,j)・α2/{Ar(2,j)2+Br(2,j)2}1/2
[Formula 11]
For each component of j = m to m + G−1, E (1, j) = {Al (1, j) 2 + Bl (1, j) 2 + Ar (1, j) 2 + Br (1, j) 2 } 1/2
Al ′ (1, j) = Al (1, j) · E (1, j) · α 1 / {Al (1, j) 2 + Bl (1, j) 2 } 1/2
Bl ′ (1, j) = Bl (1, j) · E (1, j) · α 1 / {Al (1, j) 2 + Bl (1, j) 2 } 1/2
Ar ′ (1, j) = Ar (1, j) · E (1, j) · α 1 / {Ar (1, j) 2 + Br (1, j) 2 } 1/2
Br ′ (1, j) = Br (1, j) · E (1, j) · α 1 / {Ar (1, j) 2 + Br (1, j) 2 } 1/2
E (2, j) = {Al (2, j) 2 + Bl (2, j) 2 + Ar (2, j) 2 + Br (2, j) 2 } 1/2
Al ′ (2, j) = Al (2, j) · E (2, j) · β 1 / {Al (2, j) 2 + Bl (2, j) 2 } 1/2
Bl ′ (2, j) = Bl (2, j) · E (2, j) · β 1 / {Al (2, j) 2 + Bl (2, j) 2 } 1/2
Ar ′ (2, j) = Ar (2, j) · E (2, j) · β 1 / {Ar (2, j) 2 + Br (2, j) 2 } 1/2
Br ′ (2, j) = Br (2, j) · E (2, j) · β 1 / {Ar (2, j) 2 + Br (2, j) 2 } 1/2
For each component of j = m + G to m + 2G-1, E (1, j) = {Al (1, j) 2 + Bl (1, j) 2 + Ar (1, j) 2 + Br (1, j) 2 } 1/2
Al ′ (1, j) = Al (1, j) · E (1, j) · β 1 / {Al (1, j) 2 + Bl (1, j) 2 } 1/2
Bl ′ (1, j) = Bl (1, j) · E (1, j) · β 1 / {Al (1, j) 2 + Bl (1, j) 2 } 1/2
Ar ′ (1, j) = Ar (1, j) · E (1, j) · β 1 / {Ar (1, j) 2 + Br (1, j) 2 } 1/2
Br ′ (1, j) = Br (1, j) · E (1, j) · β 1 / {Ar (1, j) 2 + Br (1, j) 2 } 1/2
E (2, j) = {Al (2, j) 2 + Bl (2, j) 2 + Ar (2, j) 2 + Br (2, j) 2 } 1/2
Al ′ (2, j) = Al (2, j) · E (2, j) · α 1 / {Al (2, j) 2 + Bl (2, j) 2 } 1/2
Bl ′ (2, j) = Bl (2, j) · E (2, j) · α 1 / {Al (2, j) 2 + Bl (2, j) 2 } 1/2
Ar ′ (2, j) = Ar (2, j) · E (2, j) · α 1 / {Ar (2, j) 2 + Br (2, j) 2 } 1/2
Br ′ (2, j) = Br (2, j) · E (2, j) · α 1 / {Ar (2, j) 2 + Br (2, j) 2 } 1/2
For each component of j = m + 2G to m + 2G + Gu−1, E (1, j) = {Al (1, j) 2 + Bl (1, j) 2 + Ar (1, j) 2 + Br (1, j) 2 } 1/2
Al ′ (1, j) = Al (1, j) · E (1, j) · α 2 / {Al (1, j) 2 + Bl (1, j) 2 } 1/2
Bl ′ (1, j) = Bl (1, j) · E (1, j) · α 2 / {Al (1, j) 2 + Bl (1, j) 2 } 1/2
Ar ′ (1, j) = Ar (1, j) · E (1, j) · α 2 / {Ar (1, j) 2 + Br (1, j) 2 } 1/2
Br ′ (1, j) = Br (1, j) · E (1, j) · α 2 / {Ar (1, j) 2 + Br (1, j) 2 } 1/2
E (2, j) = {Al (2, j) 2 + Bl (2, j) 2 + Ar (2, j) 2 + Br (2, j) 2 } 1/2
Al ′ (2, j) = Al (2, j) · E (2, j) · β 2 / {Al (2, j) 2 + Bl (2, j) 2 } 1/2
Bl ′ (2, j) = Bl (2, j) · E (2, j) · β 2 / {Al (2, j) 2 + Bl (2, j) 2 } 1/2
Ar ′ (2, j) = Ar (2, j) · E (2, j) · β 2 / {Ar (2, j) 2 + Br (2, j) 2 } 1/2
Br ′ (2, j) = Br (2, j) · E (2, j) · β 2 / {Ar (2, j) 2 + Br (2, j) 2 } 1/2
For each component of j = m + 2G + Gu to M−1, E (1, j) = {Al (1, j) 2 + Bl (1, j) 2 + Ar (1, j) 2 + Br (1, j) 2 } 1/2
Al ′ (1, j) = Al (1, j) · E (1, j) · β 2 / {Al (1, j) 2 + Bl (1, j) 2 } 1/2
Bl ′ (1, j) = Bl (1, j) · E (1, j) · β 2 / {Al (1, j) 2 + Bl (1, j) 2 } 1/2
Ar ′ (1, j) = Ar (1, j) · E (1, j) · β 2 / {Ar (1, j) 2 + Br (1, j) 2 } 1/2
Br ′ (1, j) = Br (1, j) · E (1, j) · β 2 / {Ar (1, j) 2 + Br (1, j) 2 } 1/2
E (2, j) = {Al (2, j) 2 + Bl (2, j) 2 + Ar (2, j) 2 + Br (2, j) 2 } 1/2
Al ′ (2, j) = Al (2, j) · E (2, j) · α 2 / {Al (2, j) 2 + Bl (2, j) 2 } 1/2
Bl ′ (2, j) = Bl (2, j) · E (2, j) · α 2 / {Al (2, j) 2 + Bl (2, j) 2 } 1/2
Ar ′ (2, j) = Ar (2, j) · E (2, j) · α 2 / {Ar (2, j) 2 + Br (2, j) 2 } 1/2
Br ′ (2, j) = Br (2, j) · E (2, j) · α 2 / {Ar (2, j) 2 + Br (2, j) 2 } 1/2
1音響フレームに2ビット埋め込む方式で、1ビット目、2ビット目のいずれかもしくは両方の埋め込むべきビット値が“値2”である場合は、それに応じて上記〔数式11〕において、α1とβ1を互いに交換するか、α2とβ2を互いに交換して処理を実行する。また、1音響フレームに1ビット埋め込む方式の場合は、上記〔数式11〕において、α1=α2=α、β1=β2=βとして処理を実行する。この場合は、スペクトル集合単位の強弱パターンは、高周波側と低周波側で同一となる。
In the method of embedding 2 bits in one acoustic frame, if the bit value to be embedded in either or both of the first bit and the second bit is “
なお、上記〔数式8〕〔数式10〕に従った処理を実行して係数α´、β´、α1´、β1´、α2´、β2´を得た場合は、上記〔数式11〕において、係数α、β、α1、β1、α2、β2に代えて係数α´、β´、α1´、β1´、α2´、β2´を用いる。 In addition, when the processing according to the above [Formula 8] and [Formula 10] is executed to obtain the coefficients α ′, β ′, α 1 ′, β 1 ′, α 2 ′, β 2 ′, 11], coefficients α ′, β ′, α 1 ′, β 1 ′, α 2 ′, β 2 ′ are used in place of the coefficients α, β, α 1 , β 1 , α 2 , β 2 .
周波数逆変換手段40は、上記のようにして、周波数成分の状態が変更されたフレームスペクトルを周波数逆変換して改変音響フレームを得る処理を行う。この周波数逆変換は、当然のことながら、周波数変換手段20が実行した手法に対応していることが必要となる。本実施形態では、周波数変換手段20において、フーリエ変換を施しているため、周波数逆変換手段40は、フーリエ逆変換を実行することになる。
As described above, the frequency inverse transform means 40 performs the process of obtaining the modified sound frame by performing the frequency inverse transform on the frame spectrum in which the state of the frequency component is changed. Naturally, the inverse frequency conversion needs to correspond to the method executed by the frequency conversion means 20. In the present embodiment, since the
具体的には、Aタイプの音響フレームに対しては、周波数逆変換手段40は、上記〔数式11〕により得られたスペクトルの左チャンネルの実部Al´(1,j)等、虚部Bl´(1,j)等、右チャンネルの実部Ar´(1,j)等、虚部Br´(1,j)等を用いて、以下の〔数式12〕に従った処理を行い、Xl´(i)、Xr´(i)を算出する。なお、上記〔数式11〕において改変されていない周波数成分については、Al´(1,j)等として、元の周波数成分であるAl(1,j)等を用いる。周波数逆変換を計算するにあたり、Al´(1,j)およびBl´(1,j)に対しては〔数式5〕におけるZl(1)を、Ar´(1,j)およびBr´(1,j)に対しては〔数式5〕におけるZr(1)を除することにより、同時に振幅逆変換を施す必要がある。 Specifically, for the A type sound frame, the frequency inverse transform means 40 uses the imaginary part Bl such as the real part Al ′ (1, j) of the left channel of the spectrum obtained by the above [Equation 11]. Using the real part Ar ′ (1, j) of the right channel, imaginary part Br ′ (1, j), etc., according to the following [Equation 12], X ′ '(I) and Xr' (i) are calculated. For the frequency component not modified in the above [Equation 11], Al (1, j) or the like that is the original frequency component is used as Al ′ (1, j) or the like. In calculating the inverse frequency transform, for Al ′ (1, j) and Bl ′ (1, j), Zl (1) in [Formula 5] is replaced with Ar ′ (1, j) and Br ′ (1 , J), it is necessary to simultaneously perform inverse amplitude transformation by dividing Zr (1) in [Formula 5].
〔数式12〕
Xl´(i)=1/N・{ΣjAl´(1,j)・cos(2πij/N)/Zl(1)−ΣjBl´(1,j)・sin(2πij/N)/Zl(1)}+Xlp(i+N/2)
Xr´(i)=1/N・{ΣjAr´(1,j)・cos(2πij/N)/Zr(1)−ΣjBr´(1,j)・sin(2πij/N)/Zr(1)}+Xrp(i+N/2)
[Formula 12]
Xl' (i) = 1 / N · {Σ j Al' (1, j) · cos (2πij / N) / Zl (1) -Σ j Bl' (1, j) · sin (2πij / N) / Zl (1)} + Xlp (i + N / 2)
Xr' (i) = 1 / N · {Σ j Ar' (1, j) · cos (2πij / N) / Zr (1) -Σ j Br' (1, j) · sin (2πij / N) / Zr (1)} + Xrp (i + N / 2)
上記〔数式12〕においては、式が繁雑になるのを防ぐため、Σj=0,…,N-1をΣjとして示している。上記〔数式12〕における第1式の“+Xlp(i+N/2)”、第2式の“+Xrp(i+N/2)”の項は、直前に改変された改変音響フレームのデータXlp(i)、Xrp(i)が存在する場合に、時間軸上N/2サンプル分重複することを考慮して加算するためのものである。上記〔数式12〕によりAタイプの改変音響フレームの左チャンネルの各サンプルXl´(i)、右チャンネルの各サンプルXr´(i)、が得られることになる。 In the above [Expression 12], Σ j = 0,..., N−1 is shown as Σ j in order to prevent the expression from becoming complicated. The terms “+ Xlp (i + N / 2)” in the first equation and “+ Xrp (i + N / 2)” in the second equation in the above [Equation 12] indicate the data Xlp (i) of the modified acoustic frame modified immediately before, When Xrp (i) exists, the addition is performed in consideration of the overlap of N / 2 samples on the time axis. By the above [Equation 12], each sample Xl ′ (i) of the left channel and each sample Xr ′ (i) of the right channel of the A type modified acoustic frame are obtained.
Bタイプの音響フレームに対しては、周波数逆変換手段40は、上記〔数式11〕により得られたスペクトルの左チャンネルの実部Al´(2,j)、虚部Bl´(2,j)、右チャンネルの実部Ar´(2,j)、虚部Br´(2,j)を用いて、以下の〔数式13〕に従った処理を行い、Xl´(i)、Xr´(i)を算出する。なお、上記〔数式11〕において改変されていない周波数成分については、以下の〔数式13〕においてはAl´(2,j)、Bl´(2,j)、Ar´(2,j)、Br´(2,j)として、元の値であるAl(2,j)、Bl(2,j)、Ar(2,j)、Br(2,j)を用いる。周波数逆変換を計算するにあたり、Al´(2,j)およびBl´(2,j)に対しては〔数式5〕におけるZl(2)を、Ar´(2,j)およびBr´(2,j)に対しては〔数式5〕におけるZr(2)を除することにより、同時に振幅逆変換を施す必要がある。 For the B type acoustic frame, the frequency inverse transform means 40 performs real part Al ′ (2, j) and imaginary part Bl ′ (2, j) of the left channel of the spectrum obtained by the above [Equation 11]. , Using the real part Ar ′ (2, j) and imaginary part Br ′ (2, j) of the right channel, the processing according to the following [Equation 13] is performed, and Xl ′ (i), Xr ′ (i ) Is calculated. For frequency components that are not modified in the above [Equation 11], in the following [Equation 13], Al ′ (2, j), Bl ′ (2, j), Ar ′ (2, j), Br The original values Al (2, j), Bl (2, j), Ar (2, j), and Br (2, j) are used as ′ (2, j). In calculating the frequency inverse transform, for Al ′ (2, j) and Bl ′ (2, j), Zl (2) in [Equation 5] is replaced with Ar ′ (2, j) and Br ′ (2 , J), it is necessary to simultaneously perform inverse amplitude transformation by dividing Zr (2) in [Equation 5].
〔数式13〕
Xl´(i+N/2)=1/N・{ΣjAl´(2,j)・cos(2πij/N)/Zl(2)−ΣjBl´(2,j)・sin(2πij/N)/Zl(2)}+Xlp(i+N)
Xr´(i+N/2)=1/N・{ΣjAr´(2,j)・cos(2πij/N)/Zr(2)−ΣjBr´(2,j)・sin(2πij/N)/Zr(2)}+Xrp(i+N)
[Formula 13]
Xl' (i + N / 2) = 1 / N · {Σ j Al' (2, j) · cos (2πij / N) / Zl (2) -Σ j Bl' (2, j) · sin (2πij / N ) / Zl (2)} + Xlp (i + N)
Xr' (i + N / 2) = 1 / N · {Σ j Ar' (2, j) · cos (2πij / N) / Zr (2) -Σ j Br' (2, j) · sin (2πij / N ) / Zr (2)} + Xrp (i + N)
上記〔数式13〕によりBタイプの改変音響フレームの左チャンネルの各サンプルXl´(i)、右チャンネルの各サンプルXr´(i)、が得られることになる。改変音響フレーム出力手段50は、周波数逆変換手段40の処理により得られたAタイプの改変音響フレーム、Bタイプの改変音響フレームを順次蓄積し、1音響ブロック分蓄積された際に、音響ブロックとして出力する。 By the above [Equation 13], each sample Xl ′ (i) of the left channel and each sample Xr ′ (i) of the right channel of the B type modified acoustic frame are obtained. The modified sound frame output means 50 sequentially stores the A type modified sound frame and the B type modified sound frame obtained by the processing of the frequency inverse transform means 40, and when one sound block is accumulated, Output.
次に、図9に示した付加情報埋め込み手段230の処理の全体的な流れについて説明する。付加情報埋め込み手段230が起動すると、まず、変換テーブル作成手段80が、Nwビットの登録順位とNhビットのハミング符号が対応付けられた符号変換テーブルを作成する。変換テーブル作成手段80による符号変換テーブル作成のフローチャートを図12に示す。
Next, the overall flow of processing of the additional
変換テーブル作成手段80は、最初に初期化処理を行う(S601)。具体的には、7ビット符号“0”に12ビット符号“1”を対応付けて符号変換テーブルのi(=0)番目に登録するとともに、7ビット符号KFの初期値を1、12ビット符号HFの初期値を2とする。続いて、i=0に初期設定する(S602)。次に、12ビット符号HFと符号変換テーブルのi番目に既に登録されている他の12ビット符号とのハミング距離を算出する(S603)。
The conversion
算出したハミング距離が4未満の場合、HFの値を1増加して更新した後(S604)、S602に戻って、次の12ビット符号HFについての処理を行う。一方、算出したハミング距離が4以上の場合、iの値を1増加して更新する(S605)。そして、iがKF−1未満である場合には、S603に戻って、符号変換テーブル内のi番目に登録されている12ビット符号とのハミング距離を算出する。S605の後、iがKF−1以上となった場合には、12ビット符号HFを符号変換テーブルの7ビット符号KFの位置に登録するとともに、KF、HFの値をそれぞれ1ずつ増加して更新する(S606)。そして、KFが128未満である場合は、S602に戻って、次の7ビット符号KFについての処理を行う。KFが128以上である場合は、全ての7ビット符号KFに対応する12ビット符号HFが登録されたことになるので、符号変換テーブル作成処理を終了する。 If the calculated Hamming distance is less than 4, the value of HF is incremented by 1 (S604), and then the process returns to S602 and the next 12-bit code HF is processed. On the other hand, if the calculated Hamming distance is 4 or more, the value of i is incremented by 1 and updated (S605). If i is less than KF-1, the process returns to S603 to calculate the Hamming distance from the 12th code registered in the code conversion table. If i becomes KF-1 or more after S605, the 12-bit code HF is registered at the position of the 7-bit code KF in the code conversion table, and the values of KF and HF are respectively incremented by one and updated. (S606). If KF is less than 128, the process returns to S602 and the process for the next 7-bit code KF is performed. When KF is 128 or more, since 12-bit codes HF corresponding to all 7-bit codes KF have been registered, the code conversion table creation process is terminated.
このようにして作成された符号変換テーブルを図13に示す。図13に示すように、符号変換テーブルには、7ビット符号が取り得る各値0〜127について、12ビット符号が対応付けて登録されている。12ビット符号の2進表記を見るとわかるように、全ての12ビット符号は互いにハミング距離が4以上となっている。なお、図13の例では、説明の便宜上、7ビット符号の10進表記と、12ビット符号の10進表記及び2進表記を示しているが、現実には、7ビット符号のビット列と12ビット符号のビット列が対応付けて登録されている。
The code conversion table created in this way is shown in FIG. As shown in FIG. 13, in the code conversion table, 12-bit codes are registered in association with
続いて、符号変換テーブル作成処理後の、埋め込み装置の処理を、図14のフローチャートに従って説明する。図9に示した付加情報埋め込み手段230を構成する各構成要素は、連携して図14に従った処理を実行する。図14は、付加情報1ワード分の処理に対応したものとなっている。1ワードのビット数Nwとしては、任意のビット数に設定することができるが、上述のように、本実施形態では、ASCIIコードの実質7ビットに設定されている。 Next, the process of the embedding device after the code conversion table creation process will be described with reference to the flowchart of FIG. Each component which comprises the additional information embedding means 230 shown in FIG. 9 performs the process according to FIG. 14 in cooperation. FIG. 14 corresponds to processing for one word of additional information. The number of bits Nw of one word can be set to an arbitrary number of bits, but as described above, in this embodiment, it is set to substantially 7 bits of the ASCII code.
図14においては、まず、ビット配列作成手段70は、付加情報記憶部62から抽出した付加情報の各ワードについて、変換テーブル作成手段80を参照し、対応するビット配列を作成する(S101)。具体的には、まず、付加情報記憶部62から1ワード(7ビット)単位で抽出し、図13に示した符号変換テーブルを参照し、対応するハミング符号で構成される12ビットのビット配列を抽出する。
In FIG. 14, first, the bit array creation means 70 creates a corresponding bit array by referring to the conversion table creation means 80 for each word of the additional information extracted from the additional information storage unit 62 (S101). Specifically, first, the additional
そして、この12ビットが、音響信号に対する情報の埋め込み装置として用いられるコンピュータ内のレジスタに読み込まれることになる。このように、付加情報記憶部62においては、1ワードは7ビットであるが、埋め込み処理時は、この12ビットの配列で、付加情報内の1ワード分の処理を行う。
These 12 bits are read into a register in a computer used as an information embedding device for an acoustic signal. Thus, in the additional
次に、周波数成分変更手段30が、レジスタに保持されたNh(=12)ビットから1ビットを読み込む処理を行う(S102)。続いて、音響フレーム読込手段10が、録音ブロック蓄積手段220から読み込んだ録音ブロックの左右の各チャンネルから、それぞれ所定数Nのサンプルを1音響フレームとして読み込み、周波数変換手段20が周波数変換を行って、得られたフレームスペクトルに対して振幅変換を行う(S103)。具体的には、まず、読み込んだ音響フレームに対して、周波数変換を行って、その音響フレームのスペクトルであるフレームスペクトルを得る。すなわち、各音響フレームについて、窓関数W(1,i)を用いて、上記〔数式2〕に従った処理を行う。そして、上記〔数式5〕に従った処理を実行してZl(1)、Zr(1)を算出し振幅変換を行う。同様に、音響フレーム読込手段10が、録音ブロック蓄積手段220から読み込んだ録音ブロックの左右の各チャンネルから、それぞれ所定数のサンプルをBタイプの1音響フレームとして読み込み、周波数変換手段20が周波数変換を行って、得られたフレームスペクトルに対して振幅変換を行う(S104)。具体的には、まず、読み込んだ音響フレームに対して、周波数変換を行って、その音響フレームのスペクトルであるフレームスペクトルを得る。すなわち、各音響フレームについて、窓関数W(2,i)を用いて、上記〔数式3〕に従った処理を行う。そして、上記〔数式5〕に従った処理を実行してZl(2)、Zr(2)を算出し振幅変換を行う。続いて、周波数成分変更手段30が、読み込んだビット値に応じてAタイプ音響フレームおよびBタイプ音響フレームの周波数成分の状態を変更するにあたり、〔数式6〕〔数式8〕に従った処理を実行して変換割合α、βを決定する処理を行う(S105)。この決定された変換割合を用いて、周波数成分変更手段30は、ビット配列作成手段70から受け取った値1、値2に応じて上記〔数式11〕に従った処理を実行し、変更対象周波数帯の成分の状態を“状態1”、“状態2”に応じた状態のいずれかに変更する(S106)。
Next, the frequency
次に、周波数逆変換手段40が、上記S106の処理によりAタイプの音響フレームに対応する各スペクトル集合の強度が変更されたスペクトルを振幅逆変換、周波数逆変換して改変音響フレームを得る処理を行う(S107)。この振幅逆変換は〔数式5〕で算出したZl(1)、Zr(1)の逆数をスペクトルに乗じることにより行ない、この周波数逆変換は、当然のことながら、周波数変換手段20がS103において実行した手法に対応していることが必要となる。本実施形態では、周波数変換手段20において、フーリエ逆変換を施しているため、周波数逆変換手段40は、フーリエ逆変換を実行することになる。具体的には、上記〔数式11〕により得られたスペクトルの左チャンネルの実部Al´(1,j)等、虚部Bl´(1,j)等、右チャンネルの実部Ar´(1,j)等、虚部Br´(1,j)等を用いて、上記〔数式12〕に従った処理を行い、Xl´(i)、Xr´(i)を算出する。改変音響フレーム出力手段50は、得られた改変音響フレームを順次蓄積し、1音響ブロック分蓄積する。
Next, the frequency
同様に、周波数逆変換手段40が、上記S106の処理によりBタイプの音響フレームに対応する各スペクトル集合の強度が変更されたスペクトルを振幅逆変換、周波数逆変換して改変音響フレームを得る処理を行う(S108)。具体的には、振幅逆変換は〔数式5〕で算出したZl(2)、Zr(2)の逆数をスペクトルに乗じることにより行ない、上記〔数式11〕により得られたスペクトルの左チャンネルの実部Al´(2,j)等、虚部Bl´(2,j)等、右チャンネルの実部Ar´(2,j)等、虚部Br´(2,j)等を用いて、上記〔数式13〕に従った処理を行い、Xl´(i)、Xr´(i)を算出する。
Similarly, the frequency
改変音響フレーム出力手段50は、得られた改変音響フレームを順次蓄積する。こうして各チャンネルについて、AタイプおよびBタイプの2つの音響フレームに対する処理を終えたら、周波数成分変更手段30がビット配列中の次の1ビットを読み込む(S102)。以上のような処理を音響信号の両チャンネルの全サンプルに渡って実行していく。すなわち、所定数のサンプルを音響フレームとして読み込み、音響信号から読み込むべき音響フレームがなくなったら(S103、S104)、処理を終了する。なお、S101において読み込んだ1ワード分のビット配列(Nh=12ビット)の各ビットに対応する処理を終えた場合、S102からS101に戻り、付加情報の次のワードを読み込んでビット配列を作成する処理を行うことになる。付加情報の全ワードに対して処理が終了した場合は、付加情報の先頭ワードに戻って処理を行う。この結果、所定数の音響フレームに対して処理を行った所定数の改変音響フレームが蓄積され、音響ブロック1個分になったら、再生ブロックとして出力される。 The modified sound frame output means 50 sequentially stores the obtained modified sound frames. When the processing for the two A-type and B-type sound frames is finished for each channel in this way, the frequency component changing means 30 reads the next 1 bit in the bit array (S102). The above processing is executed over all samples of both channels of the acoustic signal. That is, a predetermined number of samples are read as sound frames, and when there are no more sound frames to be read from the sound signal (S103, S104), the process ends. When the processing corresponding to each bit of the bit arrangement (Nh = 12 bits) for one word read in S101 is completed, the process returns from S102 to S101 to read the next word of the additional information and create a bit arrangement. Processing will be performed. When the processing is completed for all the words of the additional information, the processing returns to the first word of the additional information. As a result, a predetermined number of modified audio frames processed for a predetermined number of audio frames are accumulated, and when one audio block is reached, it is output as a playback block.
なお、本実施形態では、付加情報を1ワード7ビットとし、符号変換テーブルにより12ビットのビット配列に変換して、付加情報1ワード分の処理をする場合について説明したが、本発明では、抽出側と取り決めがある限り、付加情報の1ワードを他のビット数単位で記録することが可能である。 In the present embodiment, the case has been described in which the additional information is converted to 12 bits in the code conversion table by converting the additional information into 7 bits per word, and processing for one word of additional information is performed. As long as there is an agreement with the side, it is possible to record one word of additional information in units of other number of bits.
上記のようにして得られた改変音響信号のうち、付加情報が埋め込まれている部分については、変更対象周波数帯の成分は、1ビット埋め込み方式の場合は、状態1、状態2の2通り、2ビット埋め込み方式の場合は、それぞれのビットについて2通りの計4通りの分布しかないことになる。しかし、変更対象周波数帯の成分以外については、元の音響信号のままであるので、制作者の設定に基づいた種々な分布になる。また、上記〔数式11〕の処理からも明らかなように、変更対象周波数帯の成分は、左チャンネルと右チャンネルにおいて同等の割合で変化させられている。したがって、両スピーカと等距離の位置においても、変更対象周波数帯の成分は、相殺されることなく増幅させる関係となり、情報を抽出し易くなる。
Of the modified acoustic signal obtained as described above, for the portion in which the additional information is embedded, the component of the frequency band to be changed has two types of
本発明に係る音響信号に対する情報のリアルタイム埋め込み装置では、埋め込み途中で付加情報の内容を変更することができる。このような場合、図示しない付加情報入力手段により付加情報を入力すると、付加情報埋め込み手段230内の付加情報記憶部62に記録された付加情報が更新される。付加情報が更新されると、ビット配列作成手段70は、これを認識し、更新された付加情報を基に新たなビット配列を作成する。さらに、ビット配列作成手段70は、レジスタ内に残っている12ビットのビット列に、新たに作成したビット配列の先頭の12ビットを上書きする処理を行う。そして、周波数成分変更手段30はレジスタの先頭からビットを読み込む処理を開始する。このようにして、付加情報が更新された場合には、即座に新たな付加情報を埋め込む処理が開始される。
In the real-time information embedding apparatus for an acoustic signal according to the present invention, the content of the additional information can be changed during the embedding. In such a case, when additional information is input by an additional information input unit (not shown), the additional information recorded in the additional
以上、付加情報抽出手段230の詳細について説明したが、ここで、本実施形態で行っている振幅変換を用いた埋め込みおよび抽出について、図15から図18を用いて説明する。図15および図16は、比較のために、振幅変換を用いない場合の埋め込み処理および抽出処理を示し、図17および図18は本実施形態における振幅変換を用いた埋め込み処理および抽出処理を示す。これらの説明図においては、音響フレーム奇数および偶数3対分について、3ビットの情報を埋め込むことを想定した音響信号の信号波形を示しており、説明の便宜上、音響フレームが互いに重複しない状態で示している。各図において、左端の波形は時間次元の通常の音響信号波形を示しており、横方向は時間軸であり、右に向かうに従って時間が進行し、縦方向は強度(振幅)である。中央または右端の波形は周波数変換後の所定の周波数範囲のスペクトル成分の合算値を信号波形で表現しており、仮想的にバンドパスフィルターを通した後の信号波形になっている。縦方向は同様に強度であり、本来は左端に比べ顕著に低くなるが、ここでは説明の都合上、左端と同程度に拡大して表現している。また、2種類の波形のレベルも本来は差があるが、ここでは同一レベルで表現している。実際には、周波数変換後のデータとして所定の周波数範囲外の高周波数成分や低周波数成分も存在するが、これらについては改変を加えないという前提で図示しておらず、図11に従った埋め込みを行なう2種の周波数帯域成分に限定して2種の信号波形で示している。
The details of the additional
図15(a)は原音響信号を示しており、最初の1対の音響フレームは全体に渡って強度がほぼ一定、中央の1対の音響フレームは奇数フレームの強度が小さく偶数フレームの強度が大きいものであり、最後の1対の音響フレームは奇数フレームの強度が大きく偶数フレームの強度が小さいものである。このような音響信号に対して、周波数変換を行った結果が図15(b)で、図11で示されように埋め込み対象成分は上下2分割して成分変更を施す都合上、図15(b)では(b−1)および(b−2)の2種の波形に分離して表現した。周波数変換後の波形形状は周波数ごとに異なり、図15(a)と必ずしも相似形にはならないが、ここでは周波数変換前と同様になると仮定して説明する。図15(b−1)および(b−2)に対して、[0,0,0]という3ビットのデータを図11で説明した方法に基づいて埋め込むことにより(図11ではビット0は符号1に相当する)、図15(c−1)および(c−2)が得られる。最初の1対は図11のようなパターンが表現できているが、残り2対の上下一方は、原段階に対して逆方向に大小関係を構築することが要求され、品質維持の都合上、適切なパターンが構築できていないことがわかる。このような改変を加えた結果に対して、周波数逆変換を行った結果が図15(d)である。一般に音響信号波形の外形(エンベロープという)はエネルギー分布が大きい低周波成分で決定され、これらは本願では所定の周波数範囲外の信号成分に含まれ、図15(c)の段階では改変が加えられていないため、周波数逆変換後の図15(d)は周波数変換前の図15(a)と類似した形状になる。 FIG. 15 (a) shows the original sound signal. The first pair of sound frames has a substantially constant intensity throughout, and the center pair of sound frames has a smaller odd frame intensity and an even frame intensity. The last pair of sound frames has a large odd-numbered frame and a small even-numbered frame. FIG. 15 (b) shows the result of frequency conversion performed on such an acoustic signal, and the component to be embedded is divided into two parts as shown in FIG. ) Are expressed separately as two waveforms (b-1) and (b-2). The waveform shape after frequency conversion differs for each frequency and is not necessarily similar to that shown in FIG. 15A, but here it is assumed that it is the same as before frequency conversion. By embedding 3-bit data [0, 0, 0] based on the method described with reference to FIG. 11 with respect to FIGS. 15 (c-1) and (c-2) are obtained. The first pair can express a pattern as shown in FIG. 11. However, the upper and lower ones of the remaining two pairs are required to construct a magnitude relationship in the opposite direction with respect to the original stage. It turns out that an appropriate pattern has not been constructed. FIG. 15D shows the result of performing frequency inverse transform on the result of such modification. In general, the external shape (referred to as an envelope) of an acoustic signal waveform is determined by low-frequency components having a large energy distribution. In this application, these are included in signal components outside a predetermined frequency range, and are modified in the stage of FIG. 15 (c). Therefore, FIG. 15D after frequency inverse transformation has a shape similar to FIG. 15A before frequency transformation.
このような埋め込みを行なった結果に対して、抽出処理を行う様子を図16に示す。図16(a)および図16(b)は各々図15(d)および図15(c)に対応する。図16(b)において、ビット判定を行なうにあたり、最初の1対以外は図11で想定されているパターンが形成されていないため、正しいビットを判定することが難しくなる。 FIG. 16 shows how extraction processing is performed on the result of such embedding. FIGS. 16A and 16B correspond to FIGS. 15D and 15C, respectively. In FIG. 16B, when performing bit determination, since the pattern assumed in FIG. 11 is not formed except for the first pair, it is difficult to determine a correct bit.
次に、本実施形態における振幅変換を導入した手法について図17および図18を用いて説明する。図17(a)は図15(a)と同じ原音響信号を示しており、同様に周波数変換を行った図17(b)も図15(b)と同じである。ここで、6つのフレーム単位に振幅変換を行った結果が図17(c)である。図17の場合、図17(a)で各フレーム内の振幅が平坦であるため、図17(c)では全体が平坦になっているが、実際には各フレーム内は微細に変動しており、そのフレーム内変動分は図17(c)の段階でも踏襲されるため、本図のように完全に平坦になることは通常ない。(実際は図17(c)は周波数次元のデータになるため、周波数次元のデータも平坦にならず変動した形態になる。)また、変換倍率はフレームごとに設定し、上下2つの周波数成分に対しては同一の倍率で変換を行うため、通常は上下で顕著な差が生じる(ただし、時間軸方向は比較的揃う)。これに対して、[0,0,0]という3ビットのデータを埋め込むと、図17(d−1)および(d−2)が得られる。原段階である図17(c)が平坦な波形であるため、全てのフレームにおいて図11のような理想的なパターンが容易に構築できることがわかる。続いて、前記フレームごとに設定した倍率の逆数を乗じて振幅逆変換を行った結果が図17(e)である。この段階では図15(c)と類似したパターンが生じることが多いが、本形状はいかなるものでも構わない。最後に周波数逆変換を行うと、図17(f)が得られ、同様に原信号波形の図17(a)と類似した形状になる。 Next, a method in which amplitude conversion is introduced in the present embodiment will be described with reference to FIGS. 17 and 18. FIG. 17 (a) shows the same original acoustic signal as FIG. 15 (a), and FIG. 17 (b) obtained by frequency conversion similarly is the same as FIG. 15 (b). Here, FIG. 17C shows the result of amplitude conversion performed in units of six frames. In the case of FIG. 17, since the amplitude in each frame is flat in FIG. 17A, the whole is flat in FIG. 17C, but actually the inside of each frame fluctuates minutely. Since the intra-frame variation is followed even in the stage of FIG. 17C, it does not normally become completely flat as shown in the figure. (Actually, since FIG. 17C is frequency dimension data, the frequency dimension data is not flat and fluctuates.) Also, the conversion magnification is set for each frame, and the upper and lower two frequency components are set. Since the conversion is performed at the same magnification, there is usually a significant difference between the upper and lower sides (however, the time axis direction is relatively uniform). On the other hand, when 3-bit data [0, 0, 0] is embedded, FIGS. 17D-1 and 17D-2 are obtained. Since FIG. 17C, which is the original stage, has a flat waveform, it can be seen that an ideal pattern as shown in FIG. 11 can be easily constructed in all frames. Next, FIG. 17E shows the result of inverse amplitude conversion performed by multiplying the inverse of the magnification set for each frame. At this stage, a pattern similar to that shown in FIG. 15C is often generated, but any shape can be used. Finally, when frequency inverse transformation is performed, FIG. 17F is obtained, and similarly, the shape is similar to that of FIG. 17A of the original signal waveform.
このような埋め込みを行なった結果に対して、抽出処理を行う様子を図18に示す。図18(a)、(b)および(c)は各々図17(f)、(e)および(d)に対応する。図18(b)の周波数変換後の波形形状は図17(b)とは基本的に異なるが、算出される振幅変換倍率は類似した値になり、ほぼ同様な倍率で振幅変換が行われ図18(c)が得られる。図18(c)の段階で、ビット判定を行なうと、全てのフレームにおいて図11のような理想的なパターンが形成されているため、正しいビットを判定することが可能になる。 FIG. 18 shows how extraction processing is performed on the result of such embedding. 18A, 18B, and 18C correspond to FIGS. 17F, 17E, and 17D, respectively. The waveform shape after frequency conversion in FIG. 18B is basically different from that in FIG. 17B, but the calculated amplitude conversion magnification is a similar value, and the amplitude conversion is performed at substantially the same magnification. 18 (c) is obtained. When bit determination is performed in the stage of FIG. 18C, an ideal pattern as shown in FIG. 11 is formed in all frames, so that correct bits can be determined.
以上、振幅変換を導入した本実施形態では、図17(c)に示したように、埋め込み対象の信号成分が時間軸方向に平坦になるように変換を行って埋め込むようにしているため、高周波側と低周波側の成分強度の大小関係が完全に逆になるような不自然な変更を行う確率が低くなり、品質を維持しながら、抽出側における抽出精度を高めることが可能となる。 As described above, in the present embodiment in which amplitude conversion is introduced, since the signal component to be embedded is converted and embedded so as to be flat in the time axis direction as shown in FIG. The probability of making an unnatural change that completely reverses the magnitude relationship between the component intensity on the low frequency side and the low frequency side is reduced, and the extraction accuracy on the extraction side can be increased while maintaining the quality.
(7.音響信号からの情報の抽出装置)
次に、音響信号からの情報の抽出装置について説明する。図19は、音響信号からの情報の抽出装置を示す構成図である。図19において、100は音響信号入力手段、110は基準フレーム獲得手段、120は位相変更フレーム設定手段、130は周波数変換手段、140は符号判定パラメータ算出手段、150は符号出力手段、160は付加情報抽出手段、170は音響フレーム保持手段、180は変換テーブル作成手段である。
(7. Information extraction device from acoustic signals)
Next, an apparatus for extracting information from an acoustic signal will be described. FIG. 19 is a configuration diagram illustrating an apparatus for extracting information from an acoustic signal. In FIG. 19, 100 is an acoustic signal input means, 110 is a reference frame acquisition means, 120 is a phase change frame setting means, 130 is a frequency conversion means, 140 is a code determination parameter calculation means, 150 is a code output means, and 160 is additional information. Extraction means, 170 is an acoustic frame holding means, and 180 is a conversion table creation means.
音響信号入力手段100は、流れている音声をデジタル音響信号として取得し、入力する機能を有している。現実には、マイクロフォンおよびA/D変換器により実現される。マイクロフォンとしては、変更対象周波数帯の成分が検出可能なものであれば、モノラル無指向性のものであっても、ステレオ指向性のものであっても使用可能である。ステレオ指向性のものであっても一方のチャンネルだけ利用すれば良い。また、図9に示した付加情報埋め込み手段230で情報の埋め込みを行った場合には、ステレオで再生されるが、左右どちらのスピーカの音を入力しても、双方のスピーカの音を混合入力しても良く、マイクロフォンの設置位置に制約がない。もちろん、付加情報が埋め込まれた音響信号がモノラル再生される場合、あるいは付加情報が埋め込まれた音響信号自体がモノラルである場合は、再生される単一のスピーカにマイクロフォンを向ければ良い。このマイクロフォンは特別精度の高いものでなく、一般的な精度のマイクロフォンを用いても情報の抽出が可能となる。基準フレーム獲得手段110は、入力されたデジタルのモノラル音響信号(あるいはステレオ音響信号の1チャンネル)から所定数のサンプルで構成される音響フレームを基準フレームとして読み込む機能を有している。基準フレームとしては、埋め込み時と同様にAタイプ、Bタイプのものが設定される。位相変更フレーム設定手段120は、Aタイプ、Bタイプそれぞれの基準フレームと所定サンプルずつ移動させることにより位相を変更した音響フレームを位相変更フレームとして設定する機能を有している。
The acoustic
周波数変換手段130は、基本的には、図9に示した周波数変換手段20とほぼ同様の機能を有している。ただし、音を取り込むタイミングが、音響信号の先頭からとはならないため、正しい位相を特定するために、複数の位相で振幅変換、周波数変換を行う点、元の音響信号がステレオであっても、1つのチャンネルで行う点が異なっている。
The
周波数変換手段130は、Aタイプの音響フレームに対してフーリエ変換を行う場合は、信号X(i−N/2+pN/6)(i=0,…,N−1)に対して、窓関数W(1,i)を用いて、以下の〔数式14〕に従った処理を行い、変換データの実部A(1,j,p)、虚部B(1,j,p)を得る機能を有している。pは位相番号であり、0〜5の整数値をとる。
When performing the Fourier transform on the A type acoustic frame, the
〔数式14〕
A(1,j,p)=Σi=0,…,N-1W(1,i)・X(i−N/2+p・N/6)・cos(2πij/N)
B(1,j,p)=Σi=0,…,N-1W(1,i)・X(i−N/2+p・N/6)・sin(2πij/N)
[Formula 14]
A (1, j, p) = Σi = 0,..., N-1 W (1, i) .X (i-N / 2 + p.N / 6) .cos (2πij / N)
B (1, j, p) = Σi = 0,..., N-1 W (1, i) .X (i-N / 2 + p.N / 6) .sin (2πij / N)
周波数変換手段130は、Bタイプの音響フレームに対してフーリエ変換を行う場合は、信号X(i+p・N/6)(i=0,…,N−1)に対して、窓関数W(2,i)を用いて、以下の〔数式15〕に従った処理を行い、変換データの実部A(2,j,p)、虚部B(2,j,p)を得る機能を有している。
When the Fourier transform is performed on the B type acoustic frame, the
〔数式15〕
A(2,j,p)=Σi=0,…,N-1W(2,i)・X(i+p・N/6)・cos(2πij/N)
B(2,j,p)=Σi=0,…,N-1W(2,i)・X(i+p・N/6)・sin(2πij/N)
[Formula 15]
A (2, j, p) = Σ i = 0,..., N-1 W (2, i) · X (i + p · N / 6) · cos (2πij / N)
B (2, j, p) = Σi = 0,..., N-1 W (2, i) .X (i + p.N / 6) .sin (2πij / N)
周波数変換手段130は、周波数変換手段20と同様に振幅変換を行う。振幅変換を行うにあたり、まず変換倍率の算出を行う。変換倍率の算出は、所定周波数範囲のスペクトル集合の実効強度値の平均である平均実効値で、設定値を除算することにより行う。設定値は、適宜定めておくことができるが、埋め込み時における振幅変換の場合と同一値としておくことが必要となる。したがって、本実施形態では、設定値Zoは288(=M−m)にする必要がある。具体的には、Aタイプの音響フレーム、Bタイプの音響フレームについての変換倍率Z(1,p)、Z(2,p)、これらの直前のAタイプの音響フレーム、Bタイプの音響フレームについての変換倍率Z-1(1,p)、Z-1(2,p)は、以下の〔数式16〕に従った処理により算出される。振幅変換が実行されることにより、全ての音響フレームは、元の状態における信号強度に関わらず、各音響フレームの平均実効値が設定値となるように振幅変換された状態で、情報の抽出が行われることになる。なお、pは位相番号であり、0〜5の整数値をとる。
The
〔数式16〕
Z(1,p)=Zo/[Σj=m,…,M-1{A(1,j,p)2+B(1,j,p)2}]1/2
Z(2,p)=Zo/[Σj=m,…,M-1{A(2,j,p)2+B(2,j,p)2}]1/2
Z-1(1,p)=Zo/[Σj=m,…,M-1{A-1(1,j,p)2+B-1(1,j,p)2}]1/2
Z-1(2,p)=Zo/[Σj=m,…,M-1{A-1(2,j,p)2+B-1(2,j,p)2}]1/2
[Formula 16]
Z (1, p) = Zo / [Σ j = m,..., M−1 {A (1, j, p) 2 + B (1, j, p) 2 }] 1/2
Z (2, p) = Zo / [Σ j = m,..., M−1 {A (2, j, p) 2 + B (2, j, p) 2 }] 1/2
Z −1 (1, p) = Zo / [Σ j = m,..., M−1 {A −1 (1, j, p) 2 + B −1 (1, j, p) 2 }] 1/2
Z −1 (2, p) = Zo / [Σ j = m,..., M−1 {A −1 (2, j, p) 2 + B −1 (2, j, p) 2 }] 1/2
j=m,…,M−1(周波数F1,...,F2に相当)およびp=0,...,5の範囲で、A(1,j,p)およびB(1,j,p)の各々の要素に対してZ(1,p)を乗じ、A(2,j,p)およびB(2,j,p)の各々の要素に対してZ(2,p)を乗じ、A-1(1,j,p)およびB-1(1,j,p)の各々の要素に対してZ-1(1,p)を乗じ、A-1(2,j,p)およびB-1(2,j,p)の各々の要素に対してZ-1(2,p)を乗じることにより、振幅変換を行う。以下説明において、A(1,j,p)、B(1,j,p)、A(2,j,p)、B(2,j,p)、A-1(1,j,p)、B-1(1,j,p)、A-1(2,j,p)、B-1(2,j,p)はこれらの振幅変換を行った値とする。 j = m,..., M-1 (corresponding to frequencies F1,..., F2) and p = 0,. . . , 5, each element of A (1, j, p) and B (1, j, p) is multiplied by Z (1, p) and A (2, j, p) and B ( 2, j, p) is multiplied by Z (2, p), and for each element of A -1 (1, j, p) and B -1 (1, j, p) Multiply by Z -1 (1, p) and multiply each element of A -1 (2, j, p) and B -1 (2, j, p) by Z -1 (2, p) Thus, amplitude conversion is performed. In the following description, A (1, j, p), B (1, j, p), A (2, j, p), B (2, j, p), A −1 (1, j, p) , B −1 (1, j, p), A −1 (2, j, p), and B −1 (2, j, p) are values obtained by performing these amplitude conversions.
符号判定パラメータ算出手段140は、生成されたスペクトルから所定の周波数範囲に相当するスペクトル集合を抽出し、各スペクトル集合の強度値を算出するとともに、この強度値を利用して符号判定パラメータを算出し、この符号判定パラメータの大小関係に基づいて、所定の状態であると判断する機能を有している。上述のように、本実施形態では、Aタイプの音響フレームとBタイプの音響フレームがN/2サンプルずつ重複して設定されているため、ある音響フレームについて、強度値、符号判定パラメータを算出する際には、直前の音響フレームによる残響成分を考慮する必要がある。ところが、残響成分は計算により算出されるものであるので、必ずしも正確なものが算出されるとは限らず、算出された残響成分を除去することにより、反って抽出精度が低下する場合がある。そこで、本実施形態では、残響成分を除去しない場合の強度値E1、E2、E3、E4、および符号判定パラメータCと、除去した場合の強度値E1´、E2´、E3´、E4´、および補正符号判定パラメータC´を算出し、これらを利用して最適であると思われる状態を判断する。
The code determination
Aタイプの音響フレームの各成分A(1,j,p)、B(1,j,p)に対して1フレーム分前のBタイプの音響フレームに対応する各成分をA-1(2,j,p)、B-1(2,j,p)とすると、Bタイプの音響フレームの各成分A(2,j,p)、B(2,j,p)に対応して、1フレーム分前の音響フレームは以下補正を施す前の前記Aタイプの音響フレームとなる。符号判定パラメータ算出手段140は、各スペクトル集合の強度値の算出の前に、まず、各スペクトル集合の基本強度値E(1,j,p)、E(2,j,p)、および残響成分を除去した基本強度値E´(1,j,p)、E´(2,j,p)を、以下の〔数式17〕に従った処理により算出する。
Each component corresponding to the B type acoustic frame one frame before the respective components A (1, j, p) and B (1, j, p) of the A type acoustic frame is represented by A −1 (2, j, p), B −1 (2, j, p), one frame corresponding to each component A (2, j, p), B (2, j, p) of the B type acoustic frame The sound frame before the minute is the A-type sound frame before correction. The code determination
〔数式17〕
E(1,j,p)=A(1,j,p)2+B(1,j,p)2
E(2,j,p)=A(2,j,p)2+B(2,j,p)2
E-1(1,j,p)=A-1(1,j,p)2+B-1(1,j,p)2
E-1(2,j,p)=A-1(2,j,p)2+B-1(2,j,p)2
E´(1,j,p)=E(1,j,p)−q・E-1(2,j,p)
E´(2,j,p)=E(2,j,p)−q・E(1,j,p)
[Formula 17]
E (1, j, p) = A (1, j, p) 2 + B (1, j, p) 2
E (2, j, p) = A (2, j, p) 2 + B (2, j, p) 2
E −1 (1, j, p) = A −1 (1, j, p) 2 + B −1 (1, j, p) 2
E −1 (2, j, p) = A −1 (2, j, p) 2 + B −1 (2, j, p) 2
E ′ (1, j, p) = E (1, j, p) −q · E −1 (2, j, p)
E ′ (2, j, p) = E (2, j, p) −q · E (1, j, p)
上記〔数式17〕における6つの式のうち、上から5番目(下から2番目)の式は、あるAタイプの音響フレームに着目したときに、その前半のN/2サンプルが重複するBタイプの音響フレームからの残響成分を除去するためのものである。また、上から6番目(下から1番目)の式は、あるBタイプの音響フレームに着目したときに、その前半のN/2サンプルが重複するAタイプの音響フレームからの残響成分を除去するためのものである。E´(1,j,p)≧0、E´(2,j,p)≧0とし、〔数式17〕の上から5番目、6番目の式に従った処理の結果、負の値となった場合には、0に設定する。 Of the six formulas in [Formula 17], the fifth formula from the top (second from the bottom) is the B type in which N / 2 samples in the first half overlap when focusing on a certain type A acoustic frame. It is for removing the reverberation component from the sound frame. In addition, the sixth expression from the top (first from the bottom) removes the reverberation component from the A-type sound frame in which the N / 2 samples in the first half overlap when focusing on a certain B-type sound frame. Is for. E ′ (1, j, p) ≧ 0, E ′ (2, j, p) ≧ 0, and as a result of processing according to the fifth and sixth equations from the top of [Equation 17], a negative value is obtained. If this happens, set it to 0.
上記〔数式17〕において、qは残響成分の大きさを示す係数であるが、この係数qは1未満の値を持つものであり、実験の結果、N=4096のときq=0.06、N=2048のときq=0.12、N=1024のときq=0.24、N=512のときq=0.48が最適である。そして、残響成分を除去しない場合の各スペクトル集合の強度値E1、E2、E3、E4、E5、E6、E7、E8、除去した場合の強度値E1´、E2´、E3´、E4´、E5´、E6´、E7´、E8´を、算出した基本強度値E(1,j,p)、E(2,j,p)、E´(1,j,p)、E´(2,j,p)を用いて以下の〔数式18〕に基づいて算出する。 In the above [Equation 17], q is a coefficient indicating the magnitude of the reverberation component, but this coefficient q has a value less than 1, and as a result of experiment, when N = 4096, q = 0.06, When N = 2048, q = 0.12. When N = 1024, q = 0.24. When N = 512, q = 0.48 is optimal. Then, the intensity values E1, E2, E3, E4, E5, E6, E7, E8 of each spectrum set when the reverberation component is not removed, and the intensity values E1 ′, E2 ′, E3 ′, E4 ′, E5 when removed. ′, E6 ′, E7 ′, E8 ′ are calculated from the calculated basic intensity values E (1, j, p), E (2, j, p), E ′ (1, j, p), E ′ (2, j, p) is used to calculate based on the following [Equation 18].
〔数式18〕
E1(p)=Σj=m,…,m+G-1E(1,j,p)
E2(p)=Σj=m,…,m+G-1E(2,j,p)
E3(p)=Σj=m+G,…,m+2G-1E(1,j,p)
E4(p)=Σj=m+G,…,m+2G-1E(2,j,p)
E5(p)=Σj=m+2G,…,m+2G+Gu-1E(1,j,p)
E6(p)=Σj=m+2G,…,m+2G+Gu-1E(2,j,p)
E7(p)=Σj=m+2G+Gu,…,m+2G+2Gu-1E(1,j,p)
E8(p)=Σj=m+2G+Gu,…,m+2G+2Gu-1E(2,j,p)
E1´(p)=Σj=m,…,m+G-1E´(1,j,p)
E2´(p)=Σj=m,…,m+G-1E´(2,j,p)
E3´(p)=Σj=m+G,…,m+2G-1E´(1,j,p)
E4´(p)=Σj=m+G,…,m+2G-1E´(2,j,p)
E5´(p)=Σj=m+2G,…,m+2G+Gu-1E´(1,j,p)
E6´(p)=Σj=m+2G,…,m+2G+Gu-1E´(2,j,p)
E7´(p)=Σj=m+2G+Gu,…,m+2G+2Gu-1E´(1,j,p)
E8´(p)=Σj=m+2G+Gu,…,m+2G+2Gu-1E´(2,j,p)
[Formula 18]
E1 (p) = Σ j = m,..., M + G-1 E (1, j, p)
E2 (p) = Σ j = m, ..., m + G-1 E (2, j, p)
E3 (p) = Σ j = m + G,..., M + 2G-1 E (1, j, p)
E4 (p) = Σ j = m + G,..., M + 2G-1 E (2, j, p)
E5 (p) = Σ j = m + 2G,..., M + 2G + Gu-1 E (1, j, p)
E6 (p) = Σ j = m + 2G,..., M + 2G + Gu-1 E (2, j, p)
E7 (p) = Σ j = m + 2G + Gu, ..., m + 2G + 2Gu-1 E (1, j, p)
E8 (p) = Σ j = m + 2G + Gu, ..., m + 2G + 2Gu-1 E (2, j, p)
E1 ′ (p) = Σ j = m,..., M + G-1 E ′ (1, j, p)
E2 ′ (p) = Σ j = m,..., M + G-1 E ′ (2, j, p)
E3 ′ (p) = Σ j = m + G,..., M + 2G-1 E ′ (1, j, p)
E4 ′ (p) = Σ j = m + G,..., M + 2G-1 E ′ (2, j, p)
E5 ′ (p) = Σ j = m + 2G,..., M + 2G + Gu−1 E ′ (1, j, p)
E6 ′ (p) = Σ j = m + 2G,..., M + 2G + Gu−1 E ′ (2, j, p)
E7 ′ (p) = Σ j = m + 2G + Gu,..., M + 2G + 2Gu−1 E ′ (1, j, p)
E8 ′ (p) = Σ j = m + 2G + Gu,..., M + 2G + 2Gu−1 E ′ (2, j, p)
結局〔数式17〕〔数式18〕により、各スペクトル集合の強度値E1、E2、E3、E4、E5、E6、E7、E8が算出されるとともに、当該各スペクトル集合に対応するタイプの別を問わない直前の音響フレームにおけるスペクトル集合の強度にqを乗じた値を減じることにより強度値E1´、E2´、E3´、E4´、E5´、E6´、E7´、E8´が算出されることになる。 Eventually, the intensity values E1, E2, E3, E4, E5, E6, E7, and E8 of each spectrum set are calculated by [Equation 17] and [Equation 18], and the type corresponding to each spectrum set is determined. Intensity values E1 ′, E2 ′, E3 ′, E4 ′, E5 ′, E6 ′, E7 ′, E8 ′ are calculated by subtracting the value obtained by multiplying the intensity of the spectrum set in the immediately preceding acoustic frame by q. become.
また、符号判定パラメータ算出手段140は、残響成分を除去せずに算出した強度値E1、E2、E3、E4、E5、E6、E7、E8を用いて、符号判定パラメータCを算出する。1音響フレームに1ビット埋め込む方式の場合、以下の〔数式19〕に従った処理を実行することにより、候補符号Bについて仮判定するとともに、符号判定パラメータCを算出する。
Also, the code determination
〔数式19〕
1)E1(p)・E5(p)>E2(p)・E6(p)かつE4(p)・E8(p)>E3(p)・E7(p)の場合
B=0と仮判定、
C=E1(p)・E5(p)・{E4(p)・E8(p)−E2(p)・E6(p)・E3(p)・E7(p)}/{E1(p)・E5(p)・E4(p)・E8(p)+E2(p)・E6(p)・E3(p)・E7(p)}
2)E2(p)・E6(p)>E1(p)・E5(p)かつE3(p)・E7(p)>E4(p)・E8(p)の場合
B=1と仮判定、
C={E2(p)・E6(p)・E3(p)・E7(p)−E1(p)・E5(p)・E4(p)・E8(p)}/{E1(p)・E5(p)・E4(p)・E8(p)+E2(p)・E6(p)・E3(p)・E7(p)}
3)E1(p)・E5(p)・E4(p)・E8(p)>E2(p)・E6(p)・E3(p)・E7(p)の場合
B=0と仮判定、
C={E1(p)・E5(p)・E4(p)・E8(p)−E2(p)・E6(p)・E3(p)・E7(p)}/{E1(p)・E5(p)・E4(p)・E8(p)+E2(p)・E6(p)・E3(p)・E7(p)}
4)上記1)〜3)以外の場合
B=1と仮判定、
C={E2(p)・E6(p)・E3(p)・E7(p)−E1(p)・E5(p)・E4(p)・E8(p)}/{E1(p)・E5(p)・E4(p)・E8(p)+E2(p)・E6(p)・E3(p)・E7(p)}
[Formula 19]
1) In the case of E1 (p) · E5 (p)> E2 (p) · E6 (p) and E4 (p) · E8 (p)> E3 (p) · E7 (p)
C = E1 (p) .E5 (p). {E4 (p) .E8 (p) -E2 (p) .E6 (p) .E3 (p) .E7 (p)} / {E1 (p). E5 (p), E4 (p), E8 (p) + E2 (p), E6 (p), E3 (p), E7 (p)}
2) When E2 (p) · E6 (p)> E1 (p) · E5 (p) and E3 (p) · E7 (p)> E4 (p) · E8 (p)
C = {E2 (p) .E6 (p) .E3 (p) .E7 (p) -E1 (p) .E5 (p) .E4 (p) .E8 (p)} / {E1 (p). E5 (p), E4 (p), E8 (p) + E2 (p), E6 (p), E3 (p), E7 (p)}
3) In the case of E1 (p), E5 (p), E4 (p), E8 (p)> E2 (p), E6 (p), E3 (p), E7 (p)
C = {E1 (p) .E5 (p) .E4 (p) .E8 (p) -E2 (p) .E6 (p) .E3 (p) .E7 (p)} / {E1 (p). E5 (p), E4 (p), E8 (p) + E2 (p), E6 (p), E3 (p), E7 (p)}
4) In cases other than the above 1) to 3) B = 1 and provisional determination,
C = {E2 (p) .E6 (p) .E3 (p) .E7 (p) -E1 (p) .E5 (p) .E4 (p) .E8 (p)} / {E1 (p). E5 (p), E4 (p), E8 (p) + E2 (p), E6 (p), E3 (p), E7 (p)}
また、符号判定パラメータ算出手段140は、残響成分を除去して算出した強度値E1´、E2´、E3´、E4´、E5´、E6´、E7´、E8´を用いて、補正符号判定パラメータC´を算出する。1音響フレームに1ビット埋め込む方式の場合、上記〔数式19〕において、E1(p)〜E8(p)をそれぞれE1´(p)〜E8´(p)に置き換えることにより、候補符号Bに代えて候補符号B´について仮判定するとともに、符号判定パラメータCに代えて補正符号判定パラメータC´を算出する。
In addition, the code determination
一方、符号判定パラメータ算出手段140は、1音響フレームに2ビット埋め込む方式の場合、2ビットの各ビットについて、それぞれ候補符号をB1、B2、符号判定パラメータをC1、C2とすると、以下の〔数式20〕に従った処理を実行することにより、候補符号B1について仮判定するとともに、符号判定パラメータC1を算出する。
On the other hand, in the case of a method of embedding 2 bits in one acoustic frame, the code determination
〔数式20〕
1)E1(p)>E2(p)かつE4(p)>E3(p)の場合
B1=0と仮判定、
C1={E1(p)・E4(p)−E2(p)・E3(p)}/{E1(p)・E4(p)+E2(p)・E3(p)}
2)E2(p)>E1(p)かつE3(p)>E4(p)の場合
B1=1と仮判定、
C1={E2(p)・E3(p)−E1(p)・E4(p)}/{E1(p)・E4(p)+E2(p)・E3(p)}
3)E1(p)・E4(p)>E2(p)・E3(p)の場合
B1=0と仮判定、
C1={E1(p)・E4(p)−E2(p)・E3(p)}/{E1(p)・E4(p)+E2(p)・E3(p)}
4)上記1)〜3)以外の場合
B1=1と仮判定、
C1={E2(p)・E3(p)−E1(p)・E4(p)}/{E1(p)・E4(p)+E2(p)・E3(p)}
[Formula 20]
1) When E1 (p)> E2 (p) and E4 (p)> E3 (p) B1 = 0 and provisional determination
C1 = {E1 (p) · E4 (p) −E2 (p) · E3 (p)} / {E1 (p) · E4 (p) + E2 (p) · E3 (p)}
2) When E2 (p)> E1 (p) and E3 (p)> E4 (p)
C1 = {E2 (p) · E3 (p) −E1 (p) · E4 (p)} / {E1 (p) · E4 (p) + E2 (p) · E3 (p)}
3) In the case of E1 (p) · E4 (p)> E2 (p) · E3 (p) B1 = 0 is temporarily determined,
C1 = {E1 (p) · E4 (p) −E2 (p) · E3 (p)} / {E1 (p) · E4 (p) + E2 (p) · E3 (p)}
4) In cases other than the above 1) to 3) B1 = 1 and provisional determination,
C1 = {E2 (p) · E3 (p) −E1 (p) · E4 (p)} / {E1 (p) · E4 (p) + E2 (p) · E3 (p)}
また、以下の〔数式21〕に従った処理を実行することにより、候補符号B2について仮判定するとともに、符号判定パラメータC2を算出する。 Further, by executing a process according to the following [Equation 21], the candidate code B2 is provisionally determined and the code determination parameter C2 is calculated.
〔数式21〕
1)E5(p)>E6(p)かつE8(p)>E7(p)の場合
B2=0と仮判定、
C2={E5(p)・E8(p)−E6(p)・E7(p)}/{E5(p)・E8(p)+E6(p)・E7(p)}
2)E6(p)>E5(p)かつE7(p)>E8(p)の場合
B2=1と仮判定、
C2={E6(p)・E7(p)−E5(p)・E8(p)}/{E5(p)・E8(p)+E6(p)・E7(p)}
3)E5(p)・E8(p)>E6(p)・E7(p)の場合
B2=0と仮判定、
C2={E5(p)・E8(p)−E6(p)・E7(p)}/{E5(p)・E8(p)+E6(p)・E7(p)}
4)上記1)〜3)以外の場合
B2=1と仮判定、
C2={E6(p)・E7(p)−E5(p)・E8(p)}/{E5(p)・E8(p)+E6(p)・E7(p)}
[Formula 21]
1) When E5 (p)> E6 (p) and E8 (p)> E7 (p) B2 = 0 and provisional determination
C2 = {E5 (p) .E8 (p) -E6 (p) .E7 (p)} / {E5 (p) .E8 (p) + E6 (p) .E7 (p)}
2) When E6 (p)> E5 (p) and E7 (p)> E8 (p)
C2 = {E6 (p) .E7 (p) -E5 (p) .E8 (p)} / {E5 (p) .E8 (p) + E6 (p) .E7 (p)}
3) In the case of E5 (p) · E8 (p)> E6 (p) · E7 (p) B2 = 0 is temporarily determined,
C2 = {E5 (p) .E8 (p) -E6 (p) .E7 (p)} / {E5 (p) .E8 (p) + E6 (p) .E7 (p)}
4) In cases other than the above 1) to 3) B2 = 1 and provisional determination,
C2 = {E6 (p) .E7 (p) -E5 (p) .E8 (p)} / {E5 (p) .E8 (p) + E6 (p) .E7 (p)}
また、符号判定パラメータ算出手段140は、残響成分を除去して算出した強度値E1´、E2´、E3´、E4´、E5´、E6´、E7´、E8´を用いて、補正符号判定パラメータC1´、C2´を算出する。1音響フレームに2ビット埋め込む方式の場合、上記〔数式20〕〔数式21〕において、E1(p)〜E8(p)をそれぞれE1´(p)〜E8´(p)に置き換えることにより、候補符号B1、B2に代えて候補符号B1´、B2´について仮判定するとともに、符号判定パラメータC1、C2に代えて補正符号判定パラメータC1´、C2´を算出する。
In addition, the code determination
符号出力手段150は、1つの基準フレームに対応する音響フレーム(基準フレームおよび位相変更フレーム)の中から最適な位相であると判断されるものを判断し、その音響フレームの状態に対応する符号を出力する機能を有している。符号判定パラメータ算出手段140と符号出力手段150により符号化手段が構成される。付加情報抽出手段160は、符号出力手段150により出力された2値の配列をNhビット単位で抽出し、符号逆変換テーブルを参照することにより、Nwビットの登録順位に変換し、さらに所定の規則により変換して意味のある付加情報として抽出する機能を有している。音響フレーム保持手段170は、チャンネルごとのAタイプ、Bタイプそれぞれについて連続する2個の基準フレーム(チャンネルごとに計4個の基準フレーム)を保持可能なバッファメモリである。変換テーブル作成手段180は、図9に示した変換テーブル作成手段80と同様、Nwビットが取り得る2のNw乗個の全ての登録順位に対して、互いにハミング距離が少なくとも4以上となるNh(>Nw)ビットのハミング符号を割り当てることにより、Nwビットの登録順位とNhビットのハミング符号が対応付けられた符号変換テーブルを作成する機能を有している。図19に示した各構成手段は、現実には情報処理機能を有する小型のコンピュータおよびその周辺機器等のハードウェアに専用のプログラムを搭載することにより実現される。特に、携帯電話機等の携帯型端末装置をハードウェアとして用いることが望ましい。なお、本明細書では、携帯電話機等の携帯型端末装置であっても、演算処理機能を有するものは、コンピュータの一種と考えるものとする。
The code output means 150 determines what is determined to be the optimum phase from the acoustic frames (reference frame and phase change frame) corresponding to one reference frame, and selects a code corresponding to the state of the acoustic frame. It has a function to output. The code determination
次に、図19に示した音響信号からの情報の抽出装置の処理動作について説明する。抽出装置を起動すると、まず、変換テーブル作成手段180が、符号変換テーブルを作成する。変換テーブル作成手段180による符号変換テーブルの作成は、変換テーブル作成手段80と同様、図12のフローチャートに従った処理により行われ、図13に示したような符号変換テーブルが得られることになる。
Next, the processing operation of the apparatus for extracting information from the acoustic signal shown in FIG. 19 will be described. When the extraction device is activated, first, the conversion table creation means 180 creates a code conversion table. The code conversion table is created by the conversion
続いて、符号変換テーブル作成処理後の、抽出装置の処理動作について説明する。本発明に係る抽出装置は、検査符号によりエラーを検出した際、エラー訂正を行わない設定とすることもできるし、1ビットのエラー訂正をするものと設定することもできる。ここからは、エラー訂正を行わない設定における抽出装置の処理動作を、図20のフローチャートに従って説明する。まず、本装置では、位相判定テーブルS(p)、位相決定ログ、位相確定フラグ、ビットカウンタを初期化する(S200)。位相判定テーブルS(p)は、位相を判定するためのテーブルであり、pは0〜5の整数値をとる。初期値はS(p)=0に設定されている。位相決定ログは、1つの基準フレームと5つの位相変更フレームの組ごとに、決定された位相すなわち位相番号pを記録していくものであり、初期状態では0が設定されている。位相確定フラグは、位相が確定しているかどうかを示すフラグであり、初期状態ではOffに設定されている。ビットカウンタについては初期値として0を設定する。 Next, the processing operation of the extraction device after the code conversion table creation process will be described. The extraction apparatus according to the present invention can be set not to perform error correction when an error is detected by a check code, or can be set to perform 1-bit error correction. Hereafter, the processing operation of the extraction apparatus in a setting in which error correction is not performed will be described according to the flowchart of FIG. First, the apparatus initializes the phase determination table S (p), the phase determination log, the phase determination flag, and the bit counter (S200). The phase determination table S (p) is a table for determining the phase, and p takes an integer value of 0 to 5. The initial value is set to S (p) = 0. The phase determination log records the determined phase, that is, the phase number p for each set of one reference frame and five phase change frames, and 0 is set in the initial state. The phase determination flag is a flag indicating whether or not the phase is fixed, and is set to Off in the initial state. For the bit counter, 0 is set as an initial value.
このように、符号変換テーブルが作成され、初期値が設定されている状態で、利用者が流れている音楽について、その楽曲名等の属性情報を知りたいと思った場合、まず、抽出装置に対して、抽出装置としての起動の指示を行う。これは、例えば、抽出装置を携帯電話機等の携帯端末で実現している場合は、所定のボタンを操作することにより実行できる。抽出装置は、指示が入力されると、音響信号入力手段100が、流れている音楽を録音し、デジタル化してデジタル音響信号として入力する。具体的には、無指向性マイクロフォン(または指向性マイクロフォンの一方のチャンネル)から入力される音声を、A/D変換器によりデジタル化する処理を行うことになる。
In this way, when the code conversion table is created and the initial value is set, if the user wants to know the attribute information such as the song name of the music that is playing, first, the extraction device On the other hand, an activation instruction as an extraction device is given. For example, this can be executed by operating a predetermined button when the extraction device is realized by a mobile terminal such as a mobile phone. When an instruction is input to the extraction device, the acoustic
続いて、基準フレーム獲得手段110が、音響信号入力手段100から入力された音響信号から、所定数のサンプルで構成される音響フレームを基準フレームとして抽出する(S201)。具体的には、Aタイプ、Bタイプについての基準フレームを抽出して音響フレーム保持手段170に読み込むことになる。基準フレーム獲得手段110が基準フレームとして読み込む1音響フレームのサンプル数は、図9に示した音響フレーム読込手段10で設定されたものと同一にする必要がある。したがって、本実施形態の場合、基準フレーム獲得手段110は、Aタイプ、Bタイプについてそれぞれ4096サンプルずつ、順次基準フレームとして読み込んでいくことになる。音響フレーム保持手段170には、各チャンネルについて、Aタイプ、Bタイプ2個ずつの基準フレーム、すなわち2.5Nサンプルが格納可能となっており、新しい基準フレームが読み込まれると、古い基準フレームを破棄するようになっている。したがって、音響フレーム保持手段170には、常に基準フレーム4個分(連続する10240サンプル)が格納されていることになる。
Subsequently, the reference
抽出装置で処理する音響フレームは、先頭から途切れることなく隣接して設定される基準フレームと、この基準フレームと位相を変更した位相変更フレームとに分けることができる。基準フレームについては、Aタイプの音響フレームとBタイプの音響フレームが、2048サンプルずつ重複している場合、最初の基準フレームとしてサンプル番号1からサンプル番号4096までを設定したら、次の基準フレームは、サンプル番号2049からサンプル番号6144、さらに次の基準フレームは、サンプル番号4097からサンプル番号8192、さらに次の基準フレームは、サンプル番号6145からサンプル番号10240、というように途切れることなく設定される。そして、各基準フレームについて、1/6フレーム(約683サンプル)ずつ移動した5個の位相変更フレームを設定する。例えば、最初の基準フレームについては、サンプル番号683、1366、2049、2732、3413から始まる4096のサンプルで構成される5個の位相変更フレームが設定されることになる。続いて、周波数変換手段130、符号判定パラメータ算出手段140が、読み込んだ各音響フレームについて、位相を特定した後、埋め込まれている情報を判定し、対応する符号を出力する(S202)。出力される情報の形式は、付加情報が埋め込まれる場合に対応する値1、値2の2通りの形式となる。
The acoustic frame processed by the extraction device can be divided into a reference frame that is set adjacently without interruption from the beginning, and a phase change frame in which the phase is changed. As for the reference frame, when the A type sound frame and the B type sound frame overlap each other by 2048 samples, after setting
ここで、ステップS202の位相確定および符号判定の詳細を図21のフローチャートに従って説明する。まず、位相確定フラグがOnであるかOffであるかの確認を行う(S301)。位相確定フラグがOnである場合は、位相確定処理(S303〜S309)を行わず、符号判定処理のみを行う(S302)。ただし、初期状態では位相は確定しておらず、位相確定フラグがOffとなっているので、候補符号テーブルB(p)の初期化を行う(S303)。候補符号テーブルB(p)は、1つの基準フレームおよび5個の位相変更フレームを特定するp=0〜5の位相番号および、この6個の音響フレームの状態から得られる2値の符号を記録するものである。 Here, details of phase determination and code determination in step S202 will be described with reference to the flowchart of FIG. First, it is confirmed whether the phase determination flag is On or Off (S301). When the phase determination flag is On, the phase determination process (S303 to S309) is not performed, and only the code determination process is performed (S302). However, since the phase is not fixed in the initial state and the phase determination flag is Off, the candidate code table B (p) is initialized (S303). Candidate code table B (p) records one reference frame and five phase change frames, a phase number of p = 0 to 5 and a binary code obtained from the states of these six acoustic frames. To do.
続いて、符号判定パラメータ算出手段140は、符号判定処理を行う(S302)。ここで、符号判定処理の詳細を図22に示す。まず、周波数変換手段130が、読み込んだ各音響フレームに対して、周波数変換を行って各窓スペクトルを得る(S401)。具体的には、上記〔数式14〕〔数式15〕に従った処理を実行し、変換データの実部A(1,j,p)、虚部B(1,j,p)、実部A(2,j,p)、虚部B(2,j,p)を得る。
Subsequently, the code determination
S401の処理については、実際には、Aタイプ音響フレームについて周波数変換を行った後、N/2サンプルだけシフトしてBタイプ音響フレームについて周波数変換を行う。これらの変換データA(2,j,p)、B(2,j,p)、A(2,j,p)、B(2,j,p)に対して、上記〔数式16〕に従った処理を実行し、振幅変換を行う(S402)。 Regarding the processing of S401, in practice, after frequency conversion is performed on the A type sound frame, the frequency conversion is performed on the B type sound frame after being shifted by N / 2 samples. For these conversion data A (2, j, p), B (2, j, p), A (2, j, p), B (2, j, p), the above [Expression 16] is followed. The process is executed to perform amplitude conversion (S402).
上記周波数変換手段130における処理により、周波数に対応した成分であるスペクトルで表現されたフレームスペクトルが得られる。続いて、符号判定パラメータ算出手段140は、符号判定パラメータC、C´を上述のようにして算出した後、符号判定パラメータC、C´を用いて、変更対象周波数帯の成分の状態がどのような状態であるか、すなわち、1ビットの値としてどのような値が埋め込まれていたかを判断する処理を行う(S403)。具体的には、上記〔数式17〕〜〔数式19〕に従った処理を実行して、符号判定パラメータC、C´を算出する。そして、この両者を比較して、C>C´であれば候補符号Bを候補符号テーブルB(p)に設定し、C≦C´であれば候補符号B´を候補符号テーブルB(p)に出力する。
By the processing in the frequency conversion means 130, a frame spectrum expressed by a spectrum that is a component corresponding to the frequency is obtained. Subsequently, after the code determination
S403の具体的な処理手順としては、まず、上記〔数式17〕の1番目の式と2番目の式を利用して基本強度値E(1,j,p)、E(2,j,p)を算出した後、上記〔数式18〕の1番目から4番目までの式を利用してE1(p)、E2(p)、E3(p)、E4(p)を算出し、上記〔数式19〕に従って候補符号Bおよび符号判定パラメータCを算出する処理を行う。続いて、上記〔数式17〕の3番目から6番目までの式を利用して、残響補正処理を行って基本強度値E´(1,j,p)、E´(2,j,p)を算出する。そして、上記〔数式18〕の5番目から8番目までの式を利用してE1´(p)、E2´(p)、E3´(p)、E4´(p)を算出し、上記〔数式19〕に従って候補符号B´および補正符号判定パラメータC´を算出する処理を行う。 As a specific processing procedure of S403, first, the basic intensity values E (1, j, p), E (2, j, p) are used by using the first and second expressions of [Expression 17]. ), E1 (p), E2 (p), E3 (p), E4 (p) are calculated using the first to fourth formulas of [Formula 18]. 19], the candidate code B and the code determination parameter C are calculated. Subsequently, reverberation correction processing is performed using the third to sixth expressions of [Expression 17] to obtain basic intensity values E ′ (1, j, p), E ′ (2, j, p). Is calculated. Then, E1 ′ (p), E2 ′ (p), E3 ′ (p), and E4 ′ (p) are calculated using the fifth to eighth formulas of [Formula 18]. 19] to calculate the candidate code B ′ and the correction code determination parameter C ′.
1音響フレームに2ビットが埋め込まれている場合は、S403において、符号判定パラメータ算出手段140は、符号判定パラメータC1、C2、C1´、C2´を上述のようにして算出した後、符号判定パラメータC1、C2、C1´、C2´を用いて、変更対象周波数帯の成分の状態がどのような状態であるか、すなわち、2ビットの値としてどのような値が埋め込まれていたかを判断する処理を行う。具体的には、上記〔数式17〕〔数式18〕〔数式20〕〔数式21〕に従った処理を実行して、符号判定パラメータC1、C2、C1´、C2´を算出する。そして、C1+C2>C1´+C2´であれば候補符号B1、B2を候補符号テーブルB(p)に設定し、C1+C2≦C1´+C2´であれば候補符号B1´、B2´を候補符号テーブルB(p)に出力する。
If 2 bits are embedded in one acoustic frame, in S403, the code determination
また、上記判定の結果、位相pにおける候補符号テーブルB(p)に値1、値2のいずれかを出力した場合には、さらに、以下の〔数式22〕に従って位相判定テーブルS(p)の更新を行う(S404)。
Further, as a result of the above determination, when either
〔数式22〕
C>C´である場合、S(p)←S(p)+C
C≦C´である場合、S(p)←S(p)+C´
[Formula 22]
When C> C ′, S (p) ← S (p) + C
When C ≦ C ′, S (p) ← S (p) + C ′
1音響フレームに2ビットが埋め込まれている場合は、判定の結果、位相pにおける候補符号テーブルB(p)に2ビットに対応する値を出力した場合には、S404において、以下の〔数式23〕に従って位相判定テーブルS(p)の更新を行う。 If 2 bits are embedded in one acoustic frame, if a value corresponding to 2 bits is output to the candidate code table B (p) at phase p as a result of the determination, in S404, the following [Equation 23 ], The phase determination table S (p) is updated.
〔数式23〕
C1+C2>C1´+C2´である場合、S(p)←S(p)+C1+C2
C1+C2≦C1´+C2´である場合、S(p)←S(p)+C1´+C2´
[Formula 23]
When C1 + C2> C1 ′ + C2 ′, S (p) ← S (p) + C1 + C2
When C1 + C2 ≦ C1 ′ + C2 ′, S (p) ← S (p) + C1 ′ + C2 ′
ここで、図21のフローチャートに戻って、符号判定パラメータ算出手段140は、候補符号テーブルB(p)に、位相pにおいて符号判定処理(S302)で仮決定された符号を保存する(S304)。
Returning to the flowchart of FIG. 21, the code determination
続いて、全ての位相番号pに対応する処理を終えたかどうかを判定する(S305)。これは、ある基準フレームに対して全ての位相変更フレームの処理を行ったかどうかを判定している。本実施形態では、pが0〜5までの値をとるので、6回分処理していない場合は、処理していた音響フレームから所定サンプル数ずらして、位相の異なる音響フレームを設定し、S302に戻って処理を繰り返す。なお、p=0の場合が基準フレームであり、p=1〜5の場合が位相変更フレームである。全ての位相番号pに対応する処理を終えた場合は、位相判定テーブルS(p)の値が最大となる位相番号pmaxに対応する位相が最適位相であると判定し、候補符号テーブルB(p)に記録されている符号B(pmax)を出力する(S306)。 Subsequently, it is determined whether or not the processing corresponding to all the phase numbers p has been completed (S305). This determines whether all phase change frames have been processed for a certain reference frame. In this embodiment, since p takes a value from 0 to 5, if the processing is not performed six times, an acoustic frame having a different phase is set by shifting a predetermined number of samples from the acoustic frame being processed. Return and repeat the process. The case where p = 0 is a reference frame, and the case where p = 1 to 5 is a phase change frame. When the processing corresponding to all the phase numbers p is completed, it is determined that the phase corresponding to the phase number pmax having the maximum value in the phase determination table S (p) is the optimum phase, and the candidate code table B (p The code B (pmax) recorded in () is output (S306).
続いて、位相決定ログの更新を行う(S307)。位相決定ログとは、1つの基準フレームと5つの位相変更フレームの組ごとに、決定された位相すなわち位相番号pを記録するものである。そして、位相決定ログを参照して、位相が過去所定回数同一であったかどうかを判断する(S308)。本実施形態では、この回数を10回としている。位相が過去所定回数同一であった場合には、位相確定フラグをOnに設定する(S309)。これにより、同一位相が所定回数続いた場合には、最適位相はpmaxとなる可能性が高いため、位相確定処理(S303〜S309)を行わず、位相番号p=pmaxに対してのみ符号判定処理(S302)を行うことになる。 Subsequently, the phase determination log is updated (S307). The phase determination log records the determined phase, that is, the phase number p for each set of one reference frame and five phase change frames. Then, referring to the phase determination log, it is determined whether or not the phase has been the same a predetermined number of times in the past (S308). In the present embodiment, this number is 10 times. If the phase has been the same a predetermined number of times in the past, the phase determination flag is set to On (S309). As a result, when the same phase continues for a predetermined number of times, the optimum phase is likely to be pmax. Therefore, the phase determination process (S303 to S309) is not performed, and the code determination process is performed only for the phase number p = pmax. (S302) is performed.
再び図20のフローチャートに戻って説明する。位相確定および符号出力が行なわれたら、出力された符号の値に対応する1ビットをバッファに保存する(S203)。次に、ビットカウンタを“1”だけカウントアップする(S204)。 Returning to the flowchart of FIG. When the phase is determined and the code is output, 1 bit corresponding to the output code value is stored in the buffer (S203). Next, the bit counter is incremented by “1” (S204).
次に、ビットカウンタが11以下であるか12以上であるかを判断する(S205)。ビットカウンタが11以下の場合は、S201に戻って、次のAタイプ、Bタイプの基準フレームを抽出する処理を行う。 Next, it is determined whether the bit counter is 11 or less or 12 or more (S205). If the bit counter is 11 or less, the process returns to S201 to perform processing for extracting the next A type and B type reference frames.
ビットカウンタが12以上である場合は、バッファに保存された12ビットのビット配列のデコードを行う(S206)。このデコード処理の詳細を、図23のフローチャートに従って説明する。 If the bit counter is 12 or more, the 12-bit bit array stored in the buffer is decoded (S206). Details of the decoding process will be described with reference to the flowchart of FIG.
付加情報抽出手段160は、まず、初期化処理を行う(S701)。具体的には、7ビット符号KFおよび最小ハミング距離HDを定義するとともに、KF=0およびHD=2として初期化する処理を行う。続いて、i=0に初期設定する(S702)。次に、バッファに保存された12ビットのビット配列を12ビット符号HFとし、符号変換テーブルのi番目に対応する12ビット符号とのハミング距離hdを算出し、hd<HDの場合、KF=i、HD=hdに更新する(S703)。そして、iの値を1加算して(S704)、iの値が128未満である場合には、S703の処理を繰り返し行う。付加情報抽出手段160は、図13に示した符号変換テーブルに記録された128個のハミング符号全てについて、ハミング距離hdを算出し、最小ハミング距離HD、およびハミング距離が最小となる場合の7ビット基準符号KFを得る。
The additional
最小ハミング距離HDが得られたら、図20に戻って、得られた最小ハミング距離HDが0か、1以上かを判断する(S207)。S207において最小ハミング距離が1以上と判断された場合は、S201に戻って、次の基準フレームを抽出する処理を行う。 When the minimum hamming distance HD is obtained, the process returns to FIG. 20 to determine whether the obtained minimum hamming distance HD is 0 or 1 or more (S207). If it is determined in S207 that the minimum Hamming distance is 1 or more, the process returns to S201 to perform processing for extracting the next reference frame.
S207において最小ハミング距離が0と判断された場合は、付加情報抽出手段160が、図23の処理により得られた7ビット基準符号KFに1ビット付加して出力する(S208)。S207において最小ハミング距離が0であった場合は、バッファ中の先頭の1ビット目が、付加情報内のワードの1ビット目であった可能性が高いことになる。このため、その先頭からの7ビットにビット“0”を付加することによりASCIIコードにおける1ワードとして出力するのである。ハミング距離が1以上の場合は、照合に用いた12ビットが、付加情報内のワードとずれている可能性が高いことになる。この場合は、先頭の1ビットを破棄して、S201からS204の処理により新たな1ビットを得るための処理を行う。
If it is determined in S207 that the minimum Hamming distance is 0, the additional
最小ハミング距離が0と判断された場合は、その部分がワードの区切りである可能性が高いので、それが本当に区切りであれば、以降は12ビットずつ抽出すれば、全て正確にワード単位で抽出を行うことができる。逆に、最小ハミング距離が0と判断されたとしても、それが偶然であり、実はワードの区切りではない場合も考えられる。このような場合は、次の検査の際に不適合となる可能性が高く、何回か繰り返しているうちに正しい区切りが正確に判断できることになる。S208において、7ビット基準符号KFに1ビット付加して出力した場合には、ビットカウンタを0に初期化する(S209)。そして、S201に戻って、次の基準フレームを抽出する処理を行う。 If the minimum hamming distance is determined to be 0, there is a high possibility that the part is a word delimiter, so if it is really a delimiter, then if it is extracted 12 bits at a time, all are extracted exactly in units of words. It can be performed. On the other hand, even if the minimum hamming distance is determined to be 0, it is a coincidence and may not be a word break. In such a case, there is a high possibility of nonconformity at the next inspection, and the correct division can be accurately determined after repeating several times. In S208, when 1 bit is added to the 7-bit reference code KF and output, the bit counter is initialized to 0 (S209). Then, the process returns to S201 to perform processing for extracting the next reference frame.
図20に示す処理を各基準フレームに対して実行することにより、付加情報が抽出されることになる。S201において全ての基準フレームが抽出されたと判断された場合には、処理を終了する。 By executing the process shown in FIG. 20 for each reference frame, additional information is extracted. If it is determined in S201 that all reference frames have been extracted, the process ends.
上記S208の処理において、付加情報抽出手段160は、まず、符号出力手段150により出力された値を、所定の規則により変換して意味のある付加情報として抽出する。所定の規則としては、情報を埋め込む者が意図した情報が受け取った者に認識可能な状態にすることができるものであれば、さまざまな規則が採用できるが、本実施形態では、ASCIIコードを採用している。すなわち、付加情報抽出手段160は、符号判定パラメータ算出手段140が判定し、符号出力手段150から出力される符号から得られるビット値の配列を1バイト(8ビット)単位で認識し、これをASCIIコードに従って文字情報を認識する。このようにして得られた文字情報は、表示装置(図示省略)の画面に表示出力される。
In the process of S208, the additional
従って、埋め込み装置により音響信号に、その楽曲の曲名やアーチスト等の属性情報を文字情報として埋め込んでおけば、利用者は、その音楽が流れているのを聞いて、その曲名やアーチストを知りたいと思ったときに、抽出装置として機能する自身の携帯端末に所定の操作を行えば、自身の携帯端末の画面に曲名やアーチスト等の属性情報が文字情報として表示されることになる。 Therefore, if the embedding device embeds the attribute information such as the song title or artist in the sound signal as the character information, the user wants to know the song title or artist by listening to the music being played. If a predetermined operation is performed on the mobile terminal that functions as the extraction device, attribute information such as a song title and an artist is displayed as character information on the screen of the mobile terminal.
上記の例では、図20のフローチャートに従ってエラー訂正を行わない設定における抽出装置の処理動作を説明した。エラー訂正を行わない場合は、エラーが生じない場合にのみ、付加情報1ワードの出力が可能となる。 In the above example, the processing operation of the extraction apparatus in a setting where error correction is not performed has been described according to the flowchart of FIG. When error correction is not performed, it is possible to output one word of additional information only when no error occurs.
次に、1ビットのエラー訂正をする設定における抽出装置の処理動作を、図24のフローチャートに従って説明する。図24においては、図20と同一処理を行う部分が含まれている。そこで、図20と同一処理を行う部分については、同一符号を付して説明を省略する。図24の例においても、まず、初期化処理を行う(S200)。この初期化処理では、図20の例と同様、位相判定テーブルS(p)、位相決定ログ、位相確定フラグ、ビットカウンタを初期化するが、さらに、自動訂正モードをOFFにする設定を行う。 Next, the processing operation of the extraction apparatus in a setting for performing 1-bit error correction will be described with reference to the flowchart of FIG. 24 includes a portion that performs the same processing as in FIG. Therefore, parts that perform the same processing as in FIG. Also in the example of FIG. 24, first, initialization processing is performed (S200). In this initialization process, as in the example of FIG. 20, the phase determination table S (p), the phase determination log, the phase determination flag, and the bit counter are initialized, and further, the automatic correction mode is set to OFF.
続いて、図20と同様、所定数のサンプルで構成される音響フレームを基準フレームとして抽出した後(S201)、読み込んだ各音響フレームについて、位相を特定した後、埋め込まれている情報を判定し、対応する符号を出力する(S202)。なお、S202の処理については、図21、図22に示したようなものとなる。 Subsequently, as in FIG. 20, after extracting an acoustic frame composed of a predetermined number of samples as a reference frame (S201), after identifying the phase of each read acoustic frame, the embedded information is determined. The corresponding code is output (S202). Note that the processing of S202 is as shown in FIGS.
位相確定および符号出力が行なわれたら、出力された符号の値に対応する1ビットをバッファに保存して(S203)、ビットカウンタを“1”だけカウントアップする(S204)。そして、ビットカウンタが11以下であるか12以上であるかを判断し(S205)、ビットカウンタが11以下の場合は、S201に戻って、次の基準フレームを抽出する処理を行う。 When the phase is determined and the code is output, 1 bit corresponding to the output code value is stored in the buffer (S203), and the bit counter is incremented by "1" (S204). Then, it is determined whether the bit counter is 11 or less or 12 or more (S205). If the bit counter is 11 or less, the process returns to S201 to perform processing for extracting the next reference frame.
ビットカウンタが12以上である場合は、バッファに保存された12ビットのビット配列のデコードを行う(S206)。続いて、得られたハミング距離が0か1以上かを判断する(S207)。S207においてハミング距離が0と判断された場合は、S208におけるビット列の出力処理の直前に、自動訂正モードをONに設定する処理を行う(S210)。 If the bit counter is 12 or more, the 12-bit bit array stored in the buffer is decoded (S206). Next, it is determined whether the obtained Hamming distance is 0 or 1 (S207). If it is determined in S207 that the Hamming distance is 0, immediately before the bit string output processing in S208, processing for setting the automatic correction mode to ON is performed (S210).
S207においてハミング距離が1以上と判断された場合は、さらにハミング距離が1か2以上かを判断する(S211)。判断の結果、ハミング距離が2以上と判断された場合には、自動設定モードをOFFに設定する処理を行った後(S212)、S201に戻って、次の基準フレームを抽出する処理を行う。 If it is determined in S207 that the Hamming distance is 1 or more, it is further determined whether the Hamming distance is 1 or 2 (S211). As a result of the determination, if it is determined that the hamming distance is 2 or more, after performing the process of setting the automatic setting mode to OFF (S212), the process returns to S201, and the process of extracting the next reference frame is performed.
S211における判断の結果、ハミング距離が1と判断された場合には、自動訂正モードがONであるかOFFであるかの確認を行う(S213)。自動訂正モードがOFFである場合は、S201に戻って、次の基準フレームを抽出する処理を行う。 If the hamming distance is determined to be 1 as a result of the determination in S211, it is confirmed whether the automatic correction mode is ON or OFF (S213). If the automatic correction mode is OFF, the process returns to S201 to perform processing for extracting the next reference frame.
自動訂正モードがONである場合は、付加情報抽出手段160が、図23の処理により得られた7ビット基準符号KFに1ビット付加して出力する(S208)。そして、ビットカウンタを0に初期化する(S209)。
If the automatic correction mode is ON, the additional
図24の例のように、1ビットのエラー訂正をする設定の場合は、1ビットのエラーが生じた場合であっても、付加情報1ワードの出力が可能となる。
As shown in the example of FIG. 24, in the case of setting for 1-bit error correction, it is possible to
上記のように、抽出時には、埋め込み時に埋め込んだ音響フレームに対応して、音響信号を読み込むことができるとは限らない。そこで、音響フレームの位相をずらして複数通り(本実施形態では6通り)で読み込み、その中で最適な位相を決定し、その位相で特定される音響フレームに対応する符号を出力することにしている。例えば、6通りで読み込む場合、先頭の音響フレームは、本来サンプル番号1〜4096のサンプルであるが、サンプル番号1、683、1366、2049、2732、3413から始まる4096のサンプルで構成される6個の各音響フレームに対して処理を行い、最適な音響フレームに対応する符号を出力することになる。なお、図21のフローチャートを用いて説明したように、本実施形態では、同一位相が所定回数連続した場合には、それ以降はその位相を確定したものとして処理を行う。
As described above, at the time of extraction, it is not always possible to read an acoustic signal corresponding to the acoustic frame embedded at the time of embedding. Therefore, the phase of the acoustic frame is shifted and read in a plurality of ways (six in this embodiment), the optimum phase is determined, and a code corresponding to the acoustic frame specified by the phase is output. Yes. For example, in the case of reading in six ways, the top acoustic frame is originally a sample of
(8.ビット配列のビット数Nh、ハミング距離を変更した場合)
上記実施形態では、ビット配列作成の際、作成されるビット配列は、12ビット(Nhビット)でハミング距離が4となるようにしたが、ビット配列のビット数Nh、およびハミング距離は、適宜変更することが可能である。一般に、ビット配列のビット数Nhを大きくすれば、符号化効率は悪くなるが、訂正可能な誤りビット数は増えることになる。したがって、マイクロフォンの感度や演算処理能力が比較的高い抽出装置を用いる場合には、ビット数、ハミング距離が小さいビット配列を作成するようにし、マイクロフォンの感度や演算処理能力が比較的低い抽出装置を用いる場合には、ビット数、ハミング距離が大きいビット配列を作成するようにする。
(8. When the number of bits in the bit array is Nh and the Hamming distance is changed)
In the above embodiment, when the bit array is created, the created bit array is 12 bits (Nh bits) and the Hamming distance is 4. However, the bit number Nh of the bit array and the Hamming distance are appropriately changed. Is possible. In general, if the bit number Nh of the bit array is increased, the coding efficiency is deteriorated, but the number of error bits that can be corrected is increased. Therefore, when using an extraction device with a relatively high microphone sensitivity and arithmetic processing capability, a bit array with a small number of bits and a hamming distance is created, and an extraction device with a relatively low microphone sensitivity and arithmetic processing capability is used. When used, a bit array having a large number of bits and a hamming distance is created.
ここでは、ビット配列のビット数Nhを16、ハミング距離を6とした場合の例について説明する。ビット配列のビット数を16、ハミング距離を6とした場合も、変換テーブル作成手段80による符号変換テーブル作成は、基本的には、図12に示したフローチャートに従って行われる。ただし、HFが16ビット符号である点、S603において16ビット符号HFと符号変換テーブルに既に登録されている他の16ビット符号とのハミング距離を算出した後、S604、S605のいずれに進むかの閾値が、ハミング距離が6未満か、6以上かで決まる点が、ビット数Nh=12、ハミング距離4の場合と異なっている。
Here, an example in which the number of bits Nh in the bit array is 16 and the Hamming distance is 6 will be described. Even when the number of bits of the bit array is 16 and the Hamming distance is 6, the code conversion table creation by the conversion table creation means 80 is basically performed according to the flowchart shown in FIG. However, HF is a 16-bit code, and after calculating the Hamming distance between the 16-bit code HF and another 16-bit code already registered in the code conversion table in S603, whether to proceed to S604 or S605 The threshold is determined by whether the Hamming distance is less than 6 or more than 6 and is different from the case of the number of bits Nh = 12, and the
このようにして作成された符号変換テーブルを図25に示す。図25に示すように、符号変換テーブルには、7ビット符号が取り得る各値0〜127について、16ビット符号が対応付けて登録されている。16ビット符号の2進表記を見るとわかるように、全ての16ビット符号は互いにハミング距離が6以上となっている。なお、図25の例では、説明の便宜上、7ビット符号の10進表記と、16ビット符号の10進表記及び2進表記を示しているが、現実には、7ビット符号のビット列と16ビット符号のビット列が対応付けて登録されている。
The code conversion table created in this way is shown in FIG. As shown in FIG. 25, a 16-bit code is registered in the code conversion table in association with each
符号変換テーブル作成処理後は、図14のフローチャートに従って埋め込み処理が行われる。この際、1ワードとして、16ビット分の処理が行われることになる。 After the code conversion table creation process, the embedding process is performed according to the flowchart of FIG. At this time, processing for 16 bits is performed as one word.
抽出時には、変換テーブル作成手段180が、最初に、符号変換テーブルを作成する。符号変換テーブルが作成された後は、図20〜図24に従った処理により、付加情報が抽出されることになる。16ビット符号を扱う場合、図20、図24におけるS205においては、ビットカウンタが15以下か16以上かで判断を行うことになる。また、図23のS701においては、最小ハミング距離HD=3として初期化し、S703においては、HFが16ビット符号として定義される。また、図24のS212に進むのは、最小ハミング距離が3以上の場合となる。 At the time of extraction, the conversion table creation means 180 first creates a code conversion table. After the code conversion table is created, additional information is extracted by the processing according to FIGS. In the case of handling a 16-bit code, in S205 in FIGS. 20 and 24, determination is made based on whether the bit counter is 15 or less or 16 or more. Further, in S701 of FIG. 23, initialization is performed with the minimum hamming distance HD = 3, and in S703, HF is defined as a 16-bit code. Further, the process proceeds to S212 in FIG. 24 when the minimum hamming distance is 3 or more.
(9.信号成分が小さい場合にさらに確実に情報の埋め込みを行う手法)
ここまでの説明のように、本実施形態では、元の信号成分に無音に近い部分があっても、情報の埋め込みを可能とするものである。このままでも、もちろん十分であるが、より確実に情報を埋め込むような処理を付加することも可能である。具体的には、周波数変換を行う前に、音響信号に聴取困難な微弱な白色ノイズを重畳させる。
(9. Method of embedding information more reliably when the signal component is small)
As described so far, in the present embodiment, information can be embedded even if the original signal component has a portion close to silence. Of course, this is sufficient, but it is also possible to add a process for embedding information more reliably. Specifically, before performing the frequency conversion, weak white noise that is difficult to hear is superimposed on the acoustic signal.
この場合、図9に示した音響フレーム読込手段10は、所定数のサンプルを1音響フレームとして読み込んだ後、所定の振幅範囲で所定サンプル数単位で同一値を加算または減算する機能を有している。本実施形態では、左チャンネル信号Xl(i)、右チャンネル信号Xr(i)(i=0,…,N−1)に対して、−32〜+32の振幅範囲(Xl(i)、Xr(i)のとり得る値が−32768〜+32767の場合)で一様乱数Hを発生させ、K(本実施形態ではK=5)個のサンプル間は同一値Hを用いて以下の〔数式24〕に示すような処理を実行し、Xl(i)、Xr(i)の値を更新する。 In this case, the acoustic frame reading means 10 shown in FIG. 9 has a function of adding or subtracting the same value in units of a predetermined number of samples within a predetermined amplitude range after reading a predetermined number of samples as one acoustic frame. Yes. In this embodiment, with respect to the left channel signal Xl (i) and the right channel signal Xr (i) (i = 0,..., N−1), an amplitude range of −32 to +32 (Xl (i), Xr ( i) is a value between −32768 to +32767) and a uniform random number H is generated, and the same value H is used between K (K = 5 in the present embodiment) samples as shown in the following [Equation 24]. The processing as shown in FIG. 5 is executed to update the values of Xl (i) and Xr (i).
〔数式24〕
Xl(i)←Xl(i)+H
Xr(i)←Xr(i)−H
[Formula 24]
Xl (i) ← Xl (i) + H
Xr (i) ← Xr (i) -H
すなわち、上記〔数式24〕に従った処理をNサンプルに渡って実行することにより、1つの音響フレームに白色ノイズが発生されることになる。この白色ノイズの発生処理は、図14のフローチャートにおいては、S103、S104の音響フレーム抽出処理の直後に行われることになる。 That is, white noise is generated in one acoustic frame by executing the processing according to [Equation 24] over N samples. This white noise generation process is performed immediately after the acoustic frame extraction process of S103 and S104 in the flowchart of FIG.
上記のように、白色ノイズを発生させた場合であっても、抽出側の、音響信号からの情報の抽出装置の構成は図19と同一であり、処理動作は図20〜図24のフローチャートに従ったものと同一である。 As described above, even when white noise is generated, the configuration of the extraction device for extracting information from the acoustic signal on the extraction side is the same as that of FIG. 19, and the processing operation is shown in the flowcharts of FIGS. It is the same as followed.
(10.抽出時に符号逆変換テーブルを作成する場合)
上記実施形態では、抽出装置は、バッファにNh(12又は16)ビットが保存された状態で、図23に示した処理を実行することにより、対応する7ビットの基準符号KFを得るようにしたが、この場合、1ワード単位で図23に示した処理を実行することになるため、処理負荷が大きくなる。このような処理負荷を小さくするためには、得られたNhビットを、Nwビットに変換するための符号逆変換テーブルを作成しておくことが望ましい。ここでは、このような符号逆変換テーブルを利用する場合について説明する。
(10. When creating a sign reverse conversion table during extraction)
In the above embodiment, the extraction apparatus obtains the corresponding 7-bit reference code KF by executing the processing shown in FIG. 23 with Nh (12 or 16) bits stored in the buffer. In this case, however, the processing shown in FIG. 23 is executed in units of one word, so that the processing load increases. In order to reduce such a processing load, it is desirable to create a code reverse conversion table for converting the obtained Nh bits into Nw bits. Here, a case where such a code reverse conversion table is used will be described.
この場合、抽出装置の変換テーブル作成手段180は、変換テーブル作成手段80の機能に加え、符号逆変換テーブルを作成する機能を備えるとともに、付加情報抽出手段160が、図23に従った処理を行う機能に代えて、符号逆変換テーブルを参照する機能を備える。具体的には、付加情報抽出手段160は、図20、図24のS206において、図23に従った処理を実行する代わりに、符号逆変換テーブルを参照することになる。
In this case, the conversion
この場合、変換テーブル作成手段180は、Nh(>Nw)ビットの全ハミング符号に対して、変換対象となるハミング符号までのハミング距離を記録するとともに、このハミング距離が所定以下のハミング符号に対しては、対応するNwビットの登録順位が対応付けられた符号逆変換テーブルを作成する機能を有する。 In this case, the conversion table creation means 180 records the Hamming distance to the Hamming code to be converted for all Hamming codes of Nh (> Nw) bits, and for Hamming codes whose Hamming distance is a predetermined value or less. Thus, it has a function of creating a code reverse conversion table in which the registration order of the corresponding Nw bits is associated.
抽出装置を起動すると、まず、変換テーブル作成手段180が、符号逆変換テーブルを作成する。変換テーブル作成手段180による符号逆変換テーブルの作成は、最初に、変換テーブル作成手段80と同様の処理を行って符号変換テーブルを作成した後、この符号変換テーブルを利用して行う。
When the extraction device is activated, first, the conversion
符号逆変換テーブルは、Nhビットの全ハミング符号に対して、各々符号変換テーブルに登録されているハミング符号までの最小のハミング距離を記録するとともに、このハミング距離が所定以下のハミング符号に対しては、逆変換先となるNwビットの登録順位(当該ハミング距離をもつハミング符号が符号変換テーブルに登録されている登録順位)が対応付けられたものであるので、Nh=12の場合、HF=0〜4095までの各ハミング符号について作成されることになる。HFの値を特定した場合の処理は、図23に示したものと同じである。S704において、iの値が128以上となった場合、ハミング距離HDが0または1であった場合には、ハミング符号HFと対応付けて、7ビット符号KFおよび最小ハミング距離HDを符号逆変換テーブルに登録する。 The code reverse conversion table records the minimum hamming distance to each hamming code registered in the code conversion table for all Nh-bit hamming codes, and for the hamming codes whose hamming distance is a predetermined value or less. Is associated with the registration order of Nw bits as the inverse transform destination (registration order in which the Hamming code having the Hamming distance is registered in the code conversion table), so when Nh = 12, HF = It is created for each Hamming code from 0 to 4095. The processing when the HF value is specified is the same as that shown in FIG. In S704, when the value of i is 128 or more, and the hamming distance HD is 0 or 1, the 7-bit code KF and the minimum hamming distance HD are associated with the hamming code HF and the code inverse conversion table is used. Register with.
図23に示した処理を、HF=0〜4095の全てについて実行することにより、図26に示すような符号逆変換テーブルが作成される。図26に示すように、符号逆変換テーブルには、12ビット符号HFが取り得る各値0〜4095について、ハミング距離が対応付けて登録されているとともに、ハミング距離が1以下となったものについては、対応する7ビット符号KFが登録されている。なお、図26の例では、説明の便宜上、7ビット符号の10進表記と、12ビット符号の10進表記及び2進表記を示しているが、現実には、7ビット符号のビット列と12ビット符号のビット列が対応付けて登録されている。
By executing the process shown in FIG. 23 for all of HF = 0 to 4095, a code reverse conversion table as shown in FIG. 26 is created. As shown in FIG. 26, in the code reverse conversion table, the
また、Nh=16の場合、図23に示した処理を、HF=0〜65535の全てについて実行することにより、図27に示すような符号逆変換テーブルが作成される。 When Nh = 16, the process shown in FIG. 23 is executed for all of HF = 0 to 65535, whereby a code reverse conversion table as shown in FIG. 27 is created.
そして、図20のS206の処理を行う際には、Nh=12の場合は、得られた12ビットで図26を参照し、対応する7ビット符号KFと、ハミング距離を得ることになり、Nh=16の場合は、得られた16ビットで図27を参照し、対応する7ビット符号KFと、ハミング距離を得ることになる。 Then, when performing the process of S206 in FIG. 20, if Nh = 12, the corresponding 12-bit code KF and the Hamming distance are obtained by referring to FIG. 26 with the obtained 12 bits, and Nh When = 16, the corresponding 16-bit code KF and the Hamming distance are obtained with reference to FIG. 27 using the obtained 16 bits.
(11.周波数範囲の変形例)
上記実施形態では抽出精度を向上させるため、電話帯域全体に埋め込み領域を拡大する方法を採用したが、再生品質を向上させるため、下位の変更対象周波数帯の幅を上記実施形態より狭くすることも可能である。具体的には、変更対象周波数帯の下限F1を0.85kHzとする。この場合、上位周波数帯は1.7kHz〜3.4kHz、下位周波数帯は0.85kHz〜1.7kHzとなる。ただし、実験の結果、前記電話帯域全体に埋め込み領域を設定した方法と比較し、品質上の顕著な差は無く、むしろ抽出精度の低下のデメリットの方が大きく、結果的に優位性は見られなかった。また出願人は、電話帯域全体に埋め込み領域を設定する際、上記実施形態で示した方法ではなく、下位周波数帯を0.85kHz〜1.7kHzに狭くし、その下に、さらに独立した周波数帯0.34kHz〜0.85kHzを三重に設置する手法についても実験したが、比較の結果、下位周波数帯を0.34kHz〜1.7kHzの1本にまとめる方が雑音の抑圧効果が高く、感度も2倍程度に拡大されることがわかった。低音部は信号エネルギー成分が大きいため、わずかな拡大により感度が顕著に改善されたのだと思われる。結局、周波数方向に4つの周波数領域に分け、上位周波数帯と下位周波数帯の幅を近づけ、二重の音脈分凝を形成する手法が、人間の聴覚に対して、最もノイズを抑制できることがわかった。
(11. Modified examples of frequency range)
In the above embodiment, in order to improve the extraction accuracy, a method of expanding the embedding area in the entire telephone band is adopted. However, in order to improve the reproduction quality, the width of the lower change target frequency band may be narrower than that in the above embodiment. Is possible. Specifically, the lower limit F1 of the change target frequency band is set to 0.85 kHz. In this case, the upper frequency band is 1.7 kHz to 3.4 kHz, and the lower frequency band is 0.85 kHz to 1.7 kHz. However, as a result of the experiment, there is no significant difference in quality compared to the method in which the embedded area is set over the entire telephone band, but rather the disadvantage of a decrease in extraction accuracy is greater, and as a result, superiority is seen. There wasn't. In addition, when setting the embedding area in the entire telephone band, the applicant narrows the lower frequency band to 0.85 kHz to 1.7 kHz instead of the method shown in the above embodiment, and further separates the frequency band below it. Experiments were also conducted on a method of installing 0.34 kHz to 0.85 kHz in triplicate, but as a result of comparison, it is more effective to suppress noise by combining the lower frequency bands into one of 0.34 kHz to 1.7 kHz, and the sensitivity is also high. It was found that it was magnified about twice. The bass part has a large signal energy component, so it seems that the sensitivity was significantly improved by a slight enlargement. In the end, the method that divides the frequency range into four frequency regions and makes the upper and lower frequency bands close to each other to form a double sound pulse concentration can suppress the noise most for human hearing. all right.
(12.その他)
以上、本発明の好適な実施形態について限定したが、本発明は上記実施形態に限定されず、種々の変形が可能である。例えば、上記実施形態では、1音響フレームのサンプル数N=4096としたが、N=2048、1024、512等を設定するようにしても良い。これにより、同一時間あたりの音響フレーム数が、2倍、4倍、8倍となり、全体として2〜8倍の情報の埋め込みが可能となる。
(12. Other)
As mentioned above, although it limited about the suitable embodiment of the present invention, the present invention is not limited to the above-mentioned embodiment, and various modifications are possible. For example, in the above embodiment, the number of samples of one acoustic frame is N = 4096, but N = 2048, 1024, 512, etc. may be set. As a result, the number of sound frames per same time is doubled, quadrupled, and quadrupled, and 2 to 8 times of information can be embedded as a whole.
また、上記実施形態では、音響信号からの情報の抽出装置を、携帯電話機等の携帯型端末装置単体で実現した場合を例にとって説明したが、他のコンピュータと連携して実現するようにしても良い。具体的には、携帯型端末装置と専用コンピュータを無線通信可能に接続し、音響信号入力手段100〜音響フレーム保持手段170の構成要素のうち、演算負荷の大きいものは、専用コンピュータで処理する。例えば、音響信号入力手段100、基準フレーム獲得手段110、位相変更フレーム設定手段120、付加情報抽出手段160、変換テーブル作成手段180を携帯型端末装置に備え、周波数変換手段130、符号判定パラメータ算出手段140、符号出力手段150、音響フレーム保持手段170を専用コンピュータに備えるようにして、必要な情報を両者間で通信するようにする。これにより、携帯型端末装置の処理性能が低い場合であっても高速な処理を行うことが可能となる。
In the above-described embodiment, the case where the device for extracting information from the acoustic signal is realized by a single mobile terminal device such as a mobile phone has been described as an example. However, the device may be realized in cooperation with other computers. good. Specifically, the portable terminal device and the dedicated computer are connected so as to be capable of wireless communication, and among the components of the acoustic
また、上記実施形態では、2チャンネルのステレオ音響信号を利用した場合を例にとって説明したが、1チャンネルのモノラル音響信号を利用しても良い。この場合は、上記LチャンネルまたはRチャンネルのいずれか一方に対して行った処理を実行すれば良い。 In the above embodiment, a case where a two-channel stereo sound signal is used has been described as an example. However, a one-channel monaural sound signal may be used. In this case, the process performed on either the L channel or the R channel may be executed.
また、周波数成分変更手段30による所定周波数成分の変更を、図11および〔数式11〕に従って実行するようにしたが、埋め込むべきビット値に応じた周波数成分の変更は、様々なものを用いることができ、例えば特許文献1に示したような手法を用いることも可能である。この場合、抽出側においても、当然その埋め込み手法に応じた手法で抽出が行われる。
Further, the change of the predetermined frequency component by the frequency component changing means 30 is executed according to FIG. 11 and [Equation 11], but various changes can be used for changing the frequency component according to the bit value to be embedded. For example, it is possible to use a technique as shown in
10・・・音響フレーム読込手段
20・・・周波数変換手段
30・・・周波数成分変更手段
40・・・周波数逆変換手段
50・・・改変音響フレーム出力手段
62・・・付加情報記憶部
70・・・ビット配列作成手段
80・・・変換テーブル作成手段
100・・・音響信号入力手段
110・・・基準フレーム獲得手段
120・・・位相変更フレーム設定手段
130・・・周波数変換手段
140・・・符号判定パラメータ算出手段
150・・・符号出力手段
160・・・付加情報抽出手段
170・・・音響フレーム保持手段
180・・・変換テーブル作成手段
210・・・録音処理手段
220・・・録音ブロック蓄積手段
230・・・付加情報埋め込み手段
240・・・再生ブロック蓄積手段
250・・・再生処理手段
260・・・ブロック一時蓄積手段
DESCRIPTION OF
Claims (14)
所定数の音響ブロックを蓄積できる録音ブロック蓄積手段と再生ブロック蓄積手段と、
前記音響信号をデジタル化して所定数のサンプルからなる単一の音響ブロックを作成し、当該音響ブロックを録音ブロックとして前記録音ブロック蓄積手段に書き込む録音処理手段と、
前記録音ブロック蓄積手段に蓄積されている単一の録音ブロックを読み込み、前記録音ブロック内の各音響フレームに前記付加情報を埋め込み、付加情報が埋め込まれた録音ブロックを再生ブロックとして前記再生ブロック蓄積手段に書き込み、さらに付加情報設定手段を備え、前記付加情報設定手段により前記付加情報が更新された際に、付加情報の最初のビットから埋め込みを開始する付加情報埋め込み手段と、
前記再生ブロック蓄積手段に蓄積されている再生ブロックをアナログ変換して前記付加情報が埋め込まれた音響信号として再生する再生処理手段と、
各録音ブロック間が不連続にならないように前記録音処理手段に途切れなく処理させる制御と、前記録音ブロック蓄積手段への単一の録音ブロックの書込みが終了するごとに、所定の処理を前記付加情報埋め込み手段に単一回実行させる制御と、再生される音響信号が不連続にならないように前記再生処理手段に途切れなく処理させる制御を行い、前記装置の起動時に、前記録音処理手段の実行を開始させ、前記再生処理手段に対して、前記付加情報埋め込み手段が1回以上実行した時点で、遅らせて実行を開始させるように制御する実行制御手段と、
を有することを特徴とする音響信号に対する情報のリアルタイム埋め込み装置。 A sound block including a plurality of sound frames composed of a predetermined number of samples is sequentially read into the sound signal, and predetermined additional information is embedded in each sound frame in the sound block in an inaudible state, and the addition is performed. A device that sequentially outputs an acoustic block in which information is embedded as an acoustic signal in which additional information is embedded,
Recording block storage means and playback block storage means capable of storing a predetermined number of sound blocks;
A recording processing unit that digitizes the acoustic signal to create a single acoustic block composed of a predetermined number of samples, and writes the acoustic block as a recording block in the recording block storage unit;
The playback block storage means reads a single recording block stored in the recording block storage means, embeds the additional information in each acoustic frame in the recording block, and uses the recording block in which the additional information is embedded as a playback block. writes to, further comprising an additional information setting means, when said additional information has been updated by the additional information setting means, an additional information embedding means for starting an embedded from the first bit of the additional information,
Reproduction processing means for converting the reproduction block stored in the reproduction block storage means into an analog signal and reproducing it as an acoustic signal in which the additional information is embedded;
Control that causes the recording processing means to process without interruption between the recording blocks, and every time writing of a single recording block to the recording block storage means is completed, the predetermined processing is performed on the additional information. a control to execute a single once embedding means, have row control to process without interruption in the reproduction processing means, and that the audio signal reproduced does not become discontinuous at the time of activation of the device, the execution of the recording processing means Execution control means for starting and controlling the reproduction processing means to start execution with a delay when the additional information embedding means is executed at least once ;
A real-time information embedding device for an acoustic signal.
所定数の音響ブロックを蓄積できる録音ブロック蓄積手段、ブロック一時蓄積手段、再生ブロック蓄積手段と、
前記音響信号をデジタル化して所定数のサンプルからなる単一の音響ブロックを読み込み、前記音響ブロックを録音ブロックとして前記録音ブロック蓄積手段に書き込む録音処理手段と、
前記録音ブロック蓄積手段に蓄積されている単一の録音ブロックを読み込み、前記録音ブロック内の各音響フレームに前記付加情報を埋め込み、付加情報が埋め込まれた録音ブロックを再生ブロックとして前記ブロック一時蓄積手段に書き込み、さらに付加情報設定手段を備え、前記付加情報設定手段により前記付加情報が更新された際に、付加情報の最初のビットから埋め込みを開始する付加情報埋め込み手段と、
前記ブロック一時蓄積手段に蓄積されている単一の再生ブロックを読み込み、当該再生ブロックを前記再生ブロック蓄積手段に書き込む再生準備手段と、
前記再生ブロック蓄積手段に蓄積されている単一の再生ブロックをアナログ変換して前記付加情報が埋め込まれた音響信号として再生する再生処理手段と、
各録音ブロック間が不連続にならないように前記録音処理手段に途切れなく処理させる制御と、前記録音ブロック蓄積手段への単一の録音ブロックの書込みが終了するごとに、所定の処理を前記付加情報埋め込み手段に単一回実行させる制御と、前記再生処理手段が前記再生ブロック蓄積手段から再生ブロックを抽出するごとに、所定の処理を前記再生準備手段に単一回実行させる制御と、再生される音響信号が不連続にならないように前記再生処理手段に途切れなく処理させる制御を行い、前記装置の起動時に、前記録音処理手段の実行を開始させ、前記再生処理手段に対して、前記付加情報埋め込み手段が1回以上実行した時点で、遅らせて実行を開始させるように制御する実行制御手段と、
を有することを特徴とする音響信号に対する情報のリアルタイム埋め込み装置。 A sound block including a plurality of sound frames composed of a predetermined number of samples is sequentially read into the sound signal, and predetermined additional information is embedded in each sound frame in the sound block in an inaudible state, and the addition is performed. A device that sequentially outputs an acoustic block in which information is embedded as an acoustic signal in which additional information is embedded,
Recording block storage means capable of storing a predetermined number of sound blocks, block temporary storage means, reproduction block storage means,
Recording processing means for digitizing the acoustic signal and reading a single acoustic block consisting of a predetermined number of samples, and writing the acoustic block as a recording block to the recording block storage means;
The block temporary storage means reads a single recording block stored in the recording block storage means, embeds the additional information in each acoustic frame in the recording block, and uses the recording block in which the additional information is embedded as a playback block. writes to, further comprising an additional information setting means, when said additional information has been updated by the additional information setting means, an additional information embedding means for starting an embedded from the first bit of the additional information,
A reproduction preparation unit that reads a single reproduction block stored in the block temporary storage unit and writes the reproduction block to the reproduction block storage unit;
Reproduction processing means for analog-converting a single reproduction block stored in the reproduction block storage means and reproducing it as an acoustic signal in which the additional information is embedded;
Control that causes the recording processing means to process without interruption between the recording blocks, and every time writing of a single recording block to the recording block storage means is completed, the predetermined processing is performed on the additional information. A control for causing the embedding means to execute a single time, and a control for causing the playback preparation means to execute a single process each time the playback processing means extracts a playback block from the playback block storage means, and playback is performed. There line control to process without interruption in the reproduction processing means, and that the audio signal does not become discontinuous at the time of activation of the device, to start execution of the recording processing means, to said reproduction processing means, the additional information Execution control means for controlling to start execution with a delay when the embedding means is executed once or more ;
A real-time information embedding device for an acoustic signal.
前記音響信号が2以上のチャンネルのステレオ信号であり、
前記録音ブロック蓄積手段、ブロック一時蓄積手段、再生ブロック蓄積手段、録音処理手段、付加情報埋め込み手段、再生処理手段、実行制御手段は、各チャンネルに対して処理を実行するものであることを特徴とする音響信号に対する情報のリアルタイム埋め込み装置。 In any one of claims 1 or claim 2,
The acoustic signal is a stereo signal of two or more channels;
The recording block storage means, block temporary storage means, playback block storage means, recording processing means, additional information embedding means, playback processing means, and execution control means execute processing for each channel. Real-time information embedding device for acoustic signals.
前記付加情報埋め込み手段は、
前記録音ブロックより音響フレームを逐次読み込む音響フレーム読込手段と、
前記読み込んだ音響フレームのうち、奇数番目、偶数番目の一方をAタイプ、他方をBタイプとし、前記Aタイプの音響フレームに対して第1窓関数を用いて周波数変換を行い、前記Bタイプの音響フレームに対して第2窓関数を用いて周波数変換を行い、前記第1窓関数に対応するスペクトルである第1窓スペクトル、前記第2窓関数に対応するスペクトルである第2窓スペクトルを得る周波数変換手段と、
前記生成された各窓スペクトルから所定の周波数範囲における互いに重複しない2個のスペクトル集合を、周波数が高い方のスペクトル集合の周波数幅が大きくなるように抽出し、更に各スペクトル集合を1/2の周波数幅に均等分割し、各窓スペクトルについての4個のスペクトル集合を、前記第1窓スペクトルから抽出したスペクトル集合を周波数が低い順に、1D1、1D2、1U1、1U2とし、前記第2窓スペクトルから抽出したスペクトル集合を周波数が低い順に、2D1、2D2、2U1、2U2とした場合に、埋め込むべきビット配列に基づいて、1D1の強度値と2D2の強度値との積と、1D2の強度値と2D1の強度値との積のいずれか一方が他方より所定の比率以上に大きくなり、同時に1U1の強度値と2U2の強度値との積と、1U2の強度値と2U1の強度値との積のいずれか一方が他方より所定の比率以上に大きくなるように、各スペクトル集合の強度を変更する周波数成分変更手段と、
前記変更されたスペクトル集合を含む各窓スペクトルに対して周波数逆変換を行って、改変音響フレームを生成する周波数逆変換手段と、
前記生成された改変音響フレームを順次結合し、前記再生ブロックを作成する改変音響フレーム出力手段と、
を有することを特徴とする音響信号に対する情報のリアルタイム埋め込み装置。 In any one of claims 1 to 3,
The additional information embedding means is
Sound frame reading means for sequentially reading sound frames from the recording block;
Of the read acoustic frames, odd-numbered and even-numbered ones are A type and the other is B type, and frequency conversion is performed on the A type acoustic frames using a first window function, and the B type Frequency conversion is performed on the acoustic frame using the second window function to obtain a first window spectrum that is a spectrum corresponding to the first window function and a second window spectrum that is a spectrum corresponding to the second window function. Frequency conversion means;
Two spectrum sets that do not overlap each other in a predetermined frequency range are extracted from the generated window spectra so that the frequency width of the higher frequency spectrum set becomes larger, and each spectrum set is reduced to 1/2. The spectrum set obtained by equally dividing the frequency spectrum into four spectrum sets for each window spectrum and extracting the spectrum set from the first window spectrum in order of increasing frequency is 1D1, 1D2, 1U1, 1U2, and from the second window spectrum. When the extracted spectrum set is 2D1, 2D2, 2U1, and 2U2 in order of frequency, based on the bit arrangement to be embedded, the product of the intensity value of 1D1 and the intensity value of 2D2, the intensity value of 1D2, and 2D1 One of the products with the intensity value of the current value is greater than the other by a predetermined ratio, and at the same time, the intensity value of 1U1 and 2U2 And the product of the degrees value, as one of the product of the intensity values of the intensity values and 2U1 of 1U2 is larger than a predetermined ratio than the other, and the frequency component changing means for changing the intensity of each spectral set,
Frequency inverse transform means for performing frequency inverse transform on each window spectrum including the modified spectrum set to generate a modified acoustic frame;
Modified acoustic frame output means for sequentially combining the generated modified acoustic frames and creating the reproduction block;
A real-time information embedding device for an acoustic signal.
前記周波数成分変更手段は、前記ビット配列中の1ビットの状態に基づいて、1D1の強度値と1U1の強度値と2D2の強度値と2U2の強度値との積と、1D2の強度値と1U2の強度値と2D1の強度値と2U1の強度値との積のいずれか一方が他方より所定の比率以上に大きくなるように、各スペクトル集合の強度を変更するものであることを特徴とする音響信号に対する情報のリアルタイム埋め込み装置。 In claim 4 ,
The frequency component changing means, based on the state of 1 bit in the bit array, a product of an intensity value of 1D1, an intensity value of 1U1, an intensity value of 2D2, and an intensity value of 2U2, and an intensity value of 1D2 and 1U2 The intensity of each spectrum set is changed so that any one of the product of the intensity value of 2D1, the intensity value of 2D1 and the intensity value of 2U1 is larger than the other by a predetermined ratio or more. Real-time information embedding device for signals.
前記周波数成分変更手段は、前記ビット配列中の1ビットの状態に基づいて、1D1の強度値と2D2の強度値との積と、1D2の強度値と2D1の強度値との積のいずれか一方が他方より所定の比率以上に大きくなるように各スペクトル集合の強度を変更し、前記ビット配列中の他の1ビットの状態に基づいて、1U1の強度値と2U2の強度値との積と、1U2の強度値と2U1の強度値との積のいずれか一方が他方より所定の比率以上に大きくなるように各スペクトル集合の強度を変更するものであることを特徴とする音響信号に対する情報のリアルタイム埋め込み装置。 In claim 4 ,
The frequency component changing means is one of a product of an intensity value of 1D1 and an intensity value of 2D2, and a product of an intensity value of 1D2 and an intensity value of 2D1, based on the state of one bit in the bit array. Change the intensity of each spectrum set so that is greater than a predetermined ratio over the other, and based on the state of the other 1 bit in the bit array, the product of the intensity value of 1U1 and the intensity value of 2U2; Real-time information of an acoustic signal characterized in that the intensity of each spectrum set is changed so that one of the products of the intensity value of 1U2 and the intensity value of 2U1 is greater than a predetermined ratio than the other. Implantation device.
前記周波数成分変更手段は、1D1の強度値と2D2の強度値との積と、1D2の強度値と2D1の強度値との積と、1U1の強度値と2U2の強度値との積と、1U2の強度値と2U1の強度値との積のうち、大きくなるように変更する側のスペクトル集合に対しては、係数αを乗じた強度とし、小さくなるように変更する側のスペクトル集合に対しては、係数αより小さい係数βを乗じた強度とするものであることを特徴とする音響信号に対する情報のリアルタイム埋め込み装置。 In any one of claims 6 claim 4,
The frequency component changing means includes a product of an intensity value of 1D1 and an intensity value of 2D2, a product of an intensity value of 1D2 and an intensity value of 2D1, a product of an intensity value of 1U1 and an intensity value of 2U2, and 1U2. Of the product of the intensity value of 2 and the intensity value of 2U1, the spectrum set on the side to be changed to be larger is multiplied by the coefficient α, and the spectrum set on the side to be changed to be smaller. Is a device for real-time embedding of information with respect to an acoustic signal, characterized in that the intensity is multiplied by a coefficient β smaller than the coefficient α.
前記周波数成分変更手段は、前記強度の積を相対的に大きくなるように変更するグループの強度の積を、前記強度の積を相対的に小さくなるように変更するグループの強度の積で割った値γが、1より小さい場合に、前記係数αよりγの平方根を除した係数α´と、前記係数βにγの平方根を乗じた係数β´を、前記係数α、βに代えて用いるものであることを特徴とする音響信号に対する情報のリアルタイム埋め込み装置。 In claim 7 ,
The frequency component changing means divides the intensity product of the group that changes the intensity product to be relatively large by the product of the intensity of the group that changes the intensity product to be relatively small. When the value γ is smaller than 1, the coefficient α ′ obtained by dividing the coefficient α by the square root of γ and the coefficient β ′ obtained by multiplying the coefficient β by the square root of γ are used in place of the coefficients α and β. A real-time information embedding device for an acoustic signal.
前記付加情報がNwビットを1ワードとして構成されるものであり、
前記付加情報埋め込み手段は、
Nwビットが取り得る2のNw乗個の全ての登録順位に対して、互いにハミング距離が少なくとも4以上となるNh(>Nw)ビットのハミング符号を割り当てた符号変換テーブルを作成する変換テーブル作成手段と、
前記付加情報中の各ワードについて、前記符号変換テーブルを参照し、対応するハミング符号で構成されるNhビットのビット配列を作成するビット配列作成手段と、
をさらに有することを特徴とする音響信号に対する情報のリアルタイム埋め込み装置。 In any one of claims 8 claims 4,
The additional information is composed of Nw bits as one word;
The additional information embedding means is
Conversion table creation means for creating a code conversion table in which Nh (> Nw) bits of Hamming codes with a Hamming distance of at least 4 are assigned to all 2 2 Nw registration orders that Nw bits can take. When,
For each word in the additional information, referring to the code conversion table, a bit array creating means for creating a bit array of Nh bits composed of a corresponding Hamming code;
A real-time information embedding device for an acoustic signal, further comprising:
前記変換テーブル作成手段は、7ビットが取り得る128個の全ての登録順位に対して互いにハミング距離が6以上となる16ビットのハミング符号を割り当てた符号変換テーブルを作成するものであることを特徴とする音響信号に対する情報のリアルタイム埋め込み装置。 In claim 9 ,
The conversion table creating means creates a code conversion table in which 16-bit Hamming codes having a Hamming distance of 6 or more are assigned to all 128 registration orders that 7 bits can take. Real-time information embedding device for acoustic signals.
前記音響フレーム読込手段は、前記Aタイプの音響フレームと前記Bタイプの音響フレームを、所定数のサンプルを重複させて読み込むものであり、
前記改変音響フレーム出力手段は、前記生成された改変音響フレームを先行する改変音響フレームと連結させて出力するものであることを特徴とする音響信号に対する情報のリアルタイム埋め込み装置。 In any one of claims 10 to claim 4,
The acoustic frame reading means reads the A type acoustic frame and the B type acoustic frame by overlapping a predetermined number of samples,
The real-time information embedding device for an acoustic signal, wherein the modified acoustic frame output means outputs the generated modified acoustic frame by connecting it with a preceding modified acoustic frame.
前記周波数成分変更手段は、前記所定周波数範囲を0.34kHz以上および3.4kHz以下として設定するものであることを特徴とする音響信号に対する情報のリアルタイム埋め込み装置。 In any one of claims 11 claim 4,
The real-time information embedding device for an acoustic signal, wherein the frequency component changing means sets the predetermined frequency range as 0.34 kHz or more and 3.4 kHz or less.
前記音響フレーム読込手段は、前記音響フレームと同サンプル数で、再生時に聴取困難な極めて低振幅の白色ノイズを作成し、前記音響フレームに対して加算するものであることを特徴とする音響信号に対する情報のリアルタイム埋め込み装置。 In any one of claims 12 to claim 4,
The acoustic frame reading means generates white noise with extremely low amplitude that is difficult to hear during reproduction with the same number of samples as the acoustic frame, and adds the white noise to the acoustic frame. Real-time information embedding device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007275984A JP5104202B2 (en) | 2007-10-24 | 2007-10-24 | Real-time information embedding device for acoustic signals |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007275984A JP5104202B2 (en) | 2007-10-24 | 2007-10-24 | Real-time information embedding device for acoustic signals |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009103947A JP2009103947A (en) | 2009-05-14 |
JP5104202B2 true JP5104202B2 (en) | 2012-12-19 |
Family
ID=40705681
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007275984A Expired - Fee Related JP5104202B2 (en) | 2007-10-24 | 2007-10-24 | Real-time information embedding device for acoustic signals |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5104202B2 (en) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001135020A (en) * | 1999-11-05 | 2001-05-18 | Sony Corp | Information transmission/reception method and device, information transmission method and device, and information reception method and device |
JP2003263182A (en) * | 2002-03-07 | 2003-09-19 | Nippon Telegraph & Telephone East Corp | Method for embedding watermark information, its device, watermark information embedding program, and computer readable recording medium having the program recorded thereon |
JP4660275B2 (en) * | 2005-05-20 | 2011-03-30 | 大日本印刷株式会社 | Information embedding apparatus and method for acoustic signal |
JP4839775B2 (en) * | 2005-10-24 | 2011-12-21 | 大日本印刷株式会社 | Information embedding device, method, and program for acoustic signal |
-
2007
- 2007-10-24 JP JP2007275984A patent/JP5104202B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2009103947A (en) | 2009-05-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2009180893A (en) | Content playback device controlled with acoustic signal | |
JP4660275B2 (en) | Information embedding apparatus and method for acoustic signal | |
JP4867765B2 (en) | Information embedding device for sound signal and device for extracting information from sound signal | |
JP4629495B2 (en) | Information embedding apparatus and method for acoustic signal | |
JP5157931B2 (en) | Information embedding device for acoustic signal and position detecting device using acoustic signal | |
JP5157863B2 (en) | Information embedding device for acoustic signal and position detecting device using acoustic signal | |
JP4910920B2 (en) | Information embedding device for sound signal and device for extracting information from sound signal | |
JP4910959B2 (en) | Information embedding device for sound signal and device for extracting information from sound signal | |
JP5104202B2 (en) | Real-time information embedding device for acoustic signals | |
JP5569033B2 (en) | Information embedding device for acoustic signals | |
JP5104200B2 (en) | Network connection device | |
JP4968468B2 (en) | Information embedding device for sound signal and device for extracting information from sound signal | |
JP4973417B2 (en) | Information embedding device for sound signal and device for extracting information from sound signal | |
JP5310498B2 (en) | Information embedding device for acoustic signals | |
JP5212715B2 (en) | Device for extracting information from acoustic signals | |
JP2010078728A (en) | Device for embedding information in sound signal and device for extracting information from sound signal | |
JP5273366B2 (en) | Content synchronized playback device | |
JP4831333B2 (en) | Information embedding device for sound signal and device for extracting information from sound signal | |
JP4910921B2 (en) | Information embedding device for sound signal and device for extracting information from sound signal | |
JP4876978B2 (en) | Information embedding device for sound signal and device for extracting information from sound signal | |
JP5003164B2 (en) | Device for extracting information from acoustic signals | |
JP2008152154A (en) | Device for embedding information on sound signal and device for extracting information from sound signal | |
JP2008065052A (en) | Device for embedding information in sound signal and device for extracting information from sound signal | |
JP2006243340A (en) | Device for embedding information in sound signal, device for extracting information from sound signal, and device for reproducing sound signal | |
JP4760540B2 (en) | Information embedding device for acoustic signals |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100715 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20111201 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20111220 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120220 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120904 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120917 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5104202 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151012 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |