JP4877007B2 - Information embedding device for sound signal and device for extracting information from sound signal - Google Patents

Information embedding device for sound signal and device for extracting information from sound signal Download PDF

Info

Publication number
JP4877007B2
JP4877007B2 JP2007081573A JP2007081573A JP4877007B2 JP 4877007 B2 JP4877007 B2 JP 4877007B2 JP 2007081573 A JP2007081573 A JP 2007081573A JP 2007081573 A JP2007081573 A JP 2007081573A JP 4877007 B2 JP4877007 B2 JP 4877007B2
Authority
JP
Japan
Prior art keywords
spectrum
window
frame
acoustic
bit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007081573A
Other languages
Japanese (ja)
Other versions
JP2008242017A (en
Inventor
敏雄 茂出木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2007081573A priority Critical patent/JP4877007B2/en
Publication of JP2008242017A publication Critical patent/JP2008242017A/en
Application granted granted Critical
Publication of JP4877007B2 publication Critical patent/JP4877007B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a device for embedding information in a sound signal and a device for extracting information from the sound signal, such that even when data is embedded in a stereo sound signal and is monaurally reproduced from either of channels, information is extracted from the sound, while suppressing degradation in reproduced quality. <P>SOLUTION: When additional information is embedded in the sound signal, a sound frame is obtained from a prescribed period of the sound signal, and a prescribed frequency range from F1 to F2 of the sound frame is divided into multiple numbers (4 or larger). Intensity of a spectrum set extracted from them are changed so that it may become about the same for right and left channels, both in even numbered sound frames (c) and (d), and in odd numbered sound frames (e). <P>COPYRIGHT: (C)2009,JPO&amp;INPIT

Description

本発明は、CD・DVD等を用いた民生・業務用途における鑑賞用のパッケージ音楽分野、放送事業者等が商業目的で配信する放送・ネットワーク音楽配信分野における音楽著作権の保護(不正コピーの監視)および音楽属性情報の提供(楽曲タイトル検索サービス)分野、ミュージアム、イベント会場における展示説明ナレーションに連動した文字情報の提供サービス分野、放送番組やCD/DVDパッケージの音声信号からURLなどの情報を抽出し、携帯電話を用いて所定のコンテンツに関連するwebサイトにアクセスして詳細情報を抽出したり、アンケートに回答したりする非接触なインターネットのゲートウェイサービス分野に関する。   The present invention relates to the protection of music copyright (monitoring illegal copying) in the field of package music for viewing for consumer and business use using CDs and DVDs, and the field of broadcasting and network music distribution distributed for commercial purposes by broadcasters and the like. ) And music attribute information (music title search service) field, museum, event information service service field linked to exhibition explanation narration, URL and other information extracted from audio signals of broadcast programs and CD / DVD packages In addition, the present invention relates to a non-contact Internet gateway service field in which a mobile phone is used to access a web site related to a predetermined content and extract detailed information or answer a questionnaire.

従来、流れている音楽のタイトル等を知ることができる楽曲属性情報の提供サービスとして、放送された音楽に対して日時と地域を放送局に照会したり、携帯電話で流れている音楽断片を録音してデータベースに登録されているメロディーと照合したりするサービスが行われている。本出願人は、これを、さらに発展させ、音響信号の周波数成分の比率を属性情報のビット値に応じて変更することにより、属性情報(付加情報)を埋め込む手法を提案している(特許文献1、2参照)。   Conventionally, as a service for providing music attribute information that allows you to know the title of music that is playing, you can query the broadcast station for the date and time of the broadcasted music, and record music fragments that are played on mobile phones. In addition, there is a service that matches the melody registered in the database. The present applicant has further developed this and proposed a method of embedding attribute information (additional information) by changing the ratio of frequency components of an acoustic signal according to the bit value of the attribute information (Patent Literature). 1 and 2).

特許文献1、2に記載の発明では、2チャンネルステレオ音響信号に対して、左右チャンネル間で対応する信号成分を移動させながらデータを埋め込み、抽出時はステレオ再生されている2つのスピーカのL側だけにマイクロフォン等を近付けて、モノラル入力して抽出するようにしているため、広いホール等で2つのスピーカが離れている場合、R側のスピーカの近くに居ると物理的にデータ抽出が行えないという問題があるとともに、L側とR側が逆転していたり、どちらがL側であるかの判断が難しい場所があり抽出操作に混乱が生じる場合もあった。   In the inventions described in Patent Documents 1 and 2, data is embedded in a 2-channel stereo sound signal while moving corresponding signal components between the left and right channels, and at the time of extraction, the L side of two speakers being reproduced in stereo Since the microphones are placed close to each other and monaural input is used for extraction, when two speakers are separated by a wide hall etc., data cannot be physically extracted if they are close to the R-side speakers. In some cases, the L side and the R side are reversed, or there are places where it is difficult to determine which side is the L side, and the extraction operation may be confused.

L側信号とR側信号は相補的な関係にあるため、R側信号にも埋め込みデータに基づく改変は加わっているが、位置ずれ補正などを行う都合上、同期をとりやすくするため、抽出対象のL側はR側に比べ所定領域の信号成分が削られており、その分がR側に加わるため、R側信号からは基本的に抽出困難な設計になっている。また、L側信号だけをモノラル再生する運用形態をとると、信号劣化がL側に偏っているためノイズが目立つという問題もある。   Since the L-side signal and the R-side signal are in a complementary relationship, the R-side signal has been modified based on the embedded data. However, in order to facilitate misalignment correction, etc. On the L side, a signal component in a predetermined region is cut compared to the R side, and the amount is added to the R side, so that the design is basically difficult to extract from the R side signal. In addition, when the operation mode in which only the L-side signal is reproduced in monaural is used, there is a problem that noise is conspicuous because the signal degradation is biased to the L side.

このような問題の解決のため、本出願人は、2チャンネルステレオ音響信号のどちらのチャンネルから発せられた音であっても、その音から情報を抽出することが可能な技術を提案した(特許文献3参照)。
特開2006−235359号公報 特開2006−323246号公報 特願2007−53324号
In order to solve such a problem, the present applicant has proposed a technique capable of extracting information from either sound of a two-channel stereo sound signal (patent). Reference 3).
JP 2006-235359 A JP 2006-323246 A Japanese Patent Application No. 2007-53324

しかしながら、上記特許文献3に記載の発明では、双方のチャンネルからの音が混ざり合った中央付近では抽出することができない。このため、どこからでも抽出できるようにするためには、どちらか一方のチャンネルによるモノラル再生により対応することができるが、モノラル再生の場合は、再生品質に問題がある。   However, in the invention described in Patent Document 3, it cannot be extracted near the center where sounds from both channels are mixed. For this reason, in order to enable extraction from anywhere, it is possible to cope with monaural reproduction using either one of the channels. However, in the case of monaural reproduction, there is a problem in reproduction quality.

そこで、本発明は、ステレオ音響信号に対してデータを埋め込み、どちらか一方のチャンネルからモノラル再生した場合であっても、再生品質の劣化を抑えつつ、その音から情報を抽出することが可能な音響信号に対する情報の埋め込み装置および音響信号からの情報の抽出装置を提供することを課題とする。   Therefore, according to the present invention, even when data is embedded in a stereo sound signal and monaural reproduction is performed from one of the channels, information can be extracted from the sound while suppressing deterioration in reproduction quality. It is an object of the present invention to provide an information embedding device for an acoustic signal and an information extracting device for the acoustic signal.

上記課題を解決するため、本発明では、チャンネルL、チャンネルRの2チャンネルからなるステレオの時系列のサンプル列で構成される音響信号に対して、付加情報を聴取不能な状態で埋め込む装置であって、前記音響信号より、チャンネルL、チャンネルRについてそれぞれ所定数のサンプルをL音響フレーム、R音響フレームとして読み込む音響フレーム読込手段と、前記読み込んだ音響フレームのうち、奇数番目、偶数番目の一方をAタイプ、他方をBタイプとし、前記Aタイプの前記L音響フレーム、R音響フレームに対して、時間方向の前部、中部、後部の信号成分を主として抽出する第1窓関数、第2窓関数、第3窓関数を用いてそれぞれ周波数変換を行い、前記Bタイプの前記L音響フレーム、R音響フレームに対して、第4窓関数を用いて周波数変換を行い、前記第1窓関数に対応するスペクトルである第1窓Lスペクトル、第1窓Rスペクトル、前記第2窓関数に対応するスペクトルである第2窓Lスペクトル、第2窓Rスペクトル、前記第3窓関数に対応するスペクトルである第3窓Lスペクトル、第3窓Rスペクトル、前記第4窓関数に対応するスペクトルである第4窓Lスペクトル、第4窓Rスペクトルを得る周波数変換手段と、前記生成された各窓スペクトルから所定の周波数範囲における互いに重複しない2Q(Qは2以上の整数)個のスペクトル集合を抽出し、第1窓Lスペクトル、第1窓Rスペクトル、第3窓Lスペクトル、第3窓Rスペクトルから抽出したスペクトル集合を、同一チャンネルの同一窓スペクトルにおける隣接するスペクトル集合が互いに異なるグループに属するようにして複数のグループに分け、埋め込むべきビット配列に基づいて、前記複数のグループの強度が互いに異なるように変更し、第2窓Lスペクトル、第2窓Rスペクトル、第4窓Lスペクトル、第4窓Rスペクトルについては、前記埋め込むべき付加情報のビット配列に関わらず、同一チャンネルの同一窓スペクトルにおける隣接するスペクトル集合の強度が互いに異なるように変更する周波数成分変更手段と、前記変更されたスペクトル集合を含む各窓スペクトルに対して周波数逆変換を行って、改変音響フレームを生成する周波数逆変換手段と、前記生成された改変音響フレームを順次出力する改変音響フレーム出力手段を有する音響信号に対する情報の埋め込み装置を提供する。   In order to solve the above problems, the present invention is an apparatus that embeds additional information in an inaudible state in an acoustic signal composed of a stereo time-series sample sequence consisting of two channels, channel L and channel R. Then, from the acoustic signal, acoustic frame reading means for reading a predetermined number of samples for the channel L and channel R as an L acoustic frame and an R acoustic frame, and one of the odd numbered and even numbered acoustic frames among the read acoustic frames. A first window function and a second window function that mainly extract signal components of the front, middle, and rear in the time direction with respect to the L acoustic frame and the R acoustic frame of the A type. The frequency conversion is performed using the third window function, and the B type L sound frame and R sound frame Frequency conversion using a window function, a first window L spectrum that is a spectrum corresponding to the first window function, a first window R spectrum, a second window L spectrum that is a spectrum corresponding to the second window function, Second window R spectrum, third window L spectrum, which is a spectrum corresponding to the third window function, third window R spectrum, fourth window L spectrum, which is a spectrum corresponding to the fourth window function, fourth window R Frequency conversion means for obtaining a spectrum, and 2Q (Q is an integer of 2 or more) spectrum sets that do not overlap each other in a predetermined frequency range are extracted from each of the generated window spectra, and a first window L spectrum, a first window The spectrum set extracted from the R spectrum, the third window L spectrum, and the third window R spectrum is an adjacent spectrum in the same window spectrum of the same channel. The second window L spectrum, the second window R spectrum, the intensity of the plurality of groups are changed to be different from each other based on the bit arrangement to be embedded, so as to belong to different groups. For the fourth window L spectrum and the fourth window R spectrum, frequency component changing means for changing the intensity of adjacent spectrum sets in the same window spectrum of the same channel to be different from each other regardless of the bit arrangement of the additional information to be embedded. Frequency inverse transform means for performing frequency inverse transform on each window spectrum including the modified spectrum set to generate modified acoustic frames, and modified acoustic frame output for sequentially outputting the generated modified acoustic frames An information embedding device for an acoustic signal having means is provided.

また、本発明では、前記音響信号に対する情報の埋め込み装置により聴取不能な状態で埋め込まれた付加情報を、2チャンネルステレオ音響信号の所望の単一チャンネルのモノラル音響信号から抽出する装置であって、前記音響信号の所定区間をデジタル化して、所定数のサンプルで構成される音響フレームを獲得する音響フレーム獲得手段と、前記音響フレームに対して、時間方向の前部、後部の信号成分を主として抽出する前記第1窓関数、前記第3窓関数を用いてそれぞれ、周波数変換を行い、前記第1窓関数に対応するスペクトルである第1窓スペクトル、前記第3窓関数に対応するスペクトルである第3窓スペクトルを得る周波数変換手段と、前記第1窓スペクトルから所定の周波数範囲における互いに重複しない2Q個のスペクトル集合を抽出するとともに、前記第3窓スペクトルから前記所定の周波数範囲における互いに重複しない2Q個のスペクトル集合を抽出し、第1窓スペクトル、第3窓スペクトルから抽出したスペクトル集合を、同一窓スペクトルにおける隣接するスペクトル集合が互いに異なるグループに属するようにして2つのグループに分け、各グループ間の同一周波数における各スペクトル要素の強度の大小に基づいて、埋め込まれていたビット値を抽出する符号化手段と、前記抽出されたビット値をワード単位で所定の規則により変換して付加情報を抽出する付加情報抽出手段を有する音響信号からの情報の抽出装置を提供する。
In the present invention, the additional information embedded in a non listening state by embedding device information for said acoustic signal, there in the desired mono audio signal or we Extraction to apparatus of a single channel of a two-channel stereo audio signals An acoustic frame acquisition means for digitizing a predetermined section of the acoustic signal to acquire an acoustic frame composed of a predetermined number of samples; and a signal component at a front portion and a rear portion in a time direction with respect to the acoustic frame. mainly the first window function to extract, respectively, using the third window function, performs frequency conversion, the first window spectrum is a spectrum corresponding to the first window function, in the spectrum corresponding to the third window function A frequency converting means for obtaining a third window spectrum; and 2Q spectra not overlapping each other in a predetermined frequency range from the first window spectrum. Extracts the torque set, extracts 2Q number of spectral set that do not overlap with each other in the predetermined frequency range from said third window spectrum, first window spectrum, the spectral set extracted from the third window spectrum, the same window spectrum Is divided into two groups so that adjacent spectrum sets belong to different groups, and an embedded bit value is extracted based on the magnitude of each spectral element at the same frequency between the groups. And an apparatus for extracting information from an acoustic signal having additional information extraction means for converting the extracted bit value in units of words according to a predetermined rule to extract additional information.

本発明によれば、ステレオ音響信号に付加情報を埋め込むにあたり、各チャンネルの所定周波数範囲の情報を、所定周波数範囲を4個以上の細かい範囲に区分し、区分した細かい範囲ごとに、埋め込むべきビット値に応じて左右で同等の強度となるように変更するようにしたので、どちらか一方のチャンネルからモノラル再生した場合であっても、再生品質の劣化を抑えつつ、その音から情報を抽出することが可能となる。   According to the present invention, when the additional information is embedded in the stereo sound signal, the predetermined frequency range information of each channel is divided into four or more fine ranges, and the bits to be embedded for each divided fine range. Since it is changed so that it becomes the same intensity on the left and right according to the value, even if it is monaural playback from one of the channels, information is extracted from that sound while suppressing deterioration in playback quality It becomes possible.

以下、本発明の実施形態について図面を参照して詳細に説明する。
(1.1.埋め込み装置の構成)
まず、音響信号に対する情報の埋め込み装置について説明する。図1は、本発明に係る音響信号に対する情報の埋め込み装置の構成を示す機能ブロック図である。図1において、10は音響フレーム読込手段、20は周波数変換手段、30は周波数成分変更手段、40は周波数逆変換手段、50は改変音響フレーム出力手段、60は記憶手段、61は音響信号記憶部、62は付加情報記憶部、63は改変音響信号記憶部、70はビット配列作成手段である。なお、図1に示す装置は、ステレオ音響信号、モノラル音響信号の両方に対応可能であるが、ここでは、ステレオ音響信号に対して処理を行う場合について説明していく。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
(1.1. Configuration of embedded device)
First, an information embedding device for an acoustic signal will be described. FIG. 1 is a functional block diagram showing the configuration of an information embedding device for an acoustic signal according to the present invention. In FIG. 1, 10 is an acoustic frame reading means, 20 is a frequency converting means, 30 is a frequency component changing means, 40 is a frequency inverse converting means, 50 is a modified acoustic frame output means, 60 is a storage means, and 61 is an acoustic signal storage section. 62 is an additional information storage unit, 63 is a modified acoustic signal storage unit, and 70 is a bit array creation means. The apparatus shown in FIG. 1 can deal with both a stereo sound signal and a monaural sound signal. Here, a case where processing is performed on a stereo sound signal will be described.

音響フレーム読込手段10は、付加情報の埋め込み対象とする元のステレオ音響信号の各チャンネルから所定数のサンプルを1フレームとして読み込む機能を有している。周波数変換手段20は、音響フレーム読込手段10が読み込んだ音響信号のフレームをフーリエ変換等により周波数変換してスペクトルを生成する機能を有している。周波数成分変更手段30は、生成されたスペクトルから所定の周波数範囲に相当するスペクトル集合を複数抽出し、付加情報記憶部62から抽出した付加情報よりビット配列作成手段70が作成したビット配列に基づいて、スペクトル集合の状態を変更する機能を有している。周波数逆変換手段40は、変更されたスペクトル集合を含む複数のスペクトルに対して周波数逆変換を行うことにより、改変音響フレームを生成する機能を有している。改変音響フレーム出力手段50は、生成された改変音響フレームを順次出力する機能を有している。   The sound frame reading means 10 has a function of reading a predetermined number of samples as one frame from each channel of the original stereo sound signal to be embedded with additional information. The frequency conversion means 20 has a function of generating a spectrum by frequency-converting the frame of the acoustic signal read by the acoustic frame reading means 10 by Fourier transformation or the like. The frequency component changing unit 30 extracts a plurality of spectrum sets corresponding to a predetermined frequency range from the generated spectrum, and based on the bit arrangement created by the bit arrangement creating unit 70 from the additional information extracted from the additional information storage unit 62. The function of changing the state of the spectrum set is provided. The frequency inverse transform means 40 has a function of generating a modified acoustic frame by performing frequency inverse transform on a plurality of spectra including the changed spectrum set. The modified sound frame output means 50 has a function of sequentially outputting the generated modified sound frames.

記憶手段60は、付加情報を埋め込む対象とするステレオ音響信号を記憶した音響信号記憶部61と、ビット配列として構成され、ステレオ音響信号に埋め込まれる付加情報を記憶した付加情報記憶部62と、付加情報埋め込み後の改変音響信号を記憶する改変音響信号記憶部63を有しており、その他処理に必要な各種情報を記憶するものである。ビット配列作成手段70は、付加情報記憶部62から付加情報を抽出し、付加情報の各ワードに対して、1ビットのパリティビットを追加した後、さらに所定の規則により8ビットを追加したビット配列を作成する機能を有している。なお、付加情報とは、音響情報に付加して埋め込むべき情報であり、タイトルやアーティスト名等の属性情報、および属性情報以外の他の情報を含むものである。本実施形態では、付加情報のコード形式としてASCIIコードを採用するため、付加情報においては7ビットを1ワードとし、ビット配列作成手段70が作成するビット配列は、パリティビットを付加した後、検査符号付加処理を施した16ビットを1ワードとする。図1に示した各構成手段は、現実にはコンピュータおよびその周辺機器等のハードウェアに専用のプログラムを搭載することにより実現される。すなわち、コンピュータが、専用のプログラムに従って各手段の内容を実行することになる。   The storage means 60 includes an acoustic signal storage unit 61 that stores a stereo acoustic signal to be embedded with additional information, an additional information storage unit 62 that is configured as a bit array and stores additional information embedded in the stereo acoustic signal, and an additional information It has a modified acoustic signal storage unit 63 for storing the modified acoustic signal after information is embedded, and stores various information necessary for other processing. The bit array creation means 70 extracts additional information from the additional information storage unit 62, adds a 1-bit parity bit to each word of the additional information, and then adds a bit array according to a predetermined rule. Has the function to create. The additional information is information that should be added to the sound information and embedded, and includes attribute information such as a title and artist name, and other information other than the attribute information. In the present embodiment, since the ASCII code is adopted as the code format of the additional information, 7 bits are set as one word in the additional information, and the bit array generated by the bit array generating means 70 is a check code after adding a parity bit. The 16 bits subjected to the additional processing are defined as one word. Each component shown in FIG. 1 is actually realized by installing a dedicated program in hardware such as a computer and its peripheral devices. That is, the computer executes the contents of each means according to a dedicated program.

(1.2.埋め込み装置の処理動作)
次に、図1に示した音響信号に対する情報の埋め込み装置の処理動作について説明する。音響フレーム読込手段10は、音響信号記憶部61に記憶されたステレオ音響信号の左右の各チャンネルから、それぞれ所定数のサンプルを1音響フレームとして読み込む。音響フレーム読込手段10が読み込む1音響フレームのサンプル数は、適宜設定することができるが、サンプリング周波数が44.1kHzの場合、4096サンプル程度とすることが望ましい。したがって、音響フレーム読込手段10は、左チャンネル、右チャンネルについてそれぞれ4096サンプルずつ、順次音響フレームとして読み込んでいくことになる。
(1.2. Processing operation of embedded device)
Next, the processing operation of the information embedding device for the acoustic signal shown in FIG. 1 will be described. The sound frame reading means 10 reads a predetermined number of samples as one sound frame from each of the left and right channels of the stereo sound signal stored in the sound signal storage unit 61. The number of samples of one sound frame read by the sound frame reading means 10 can be set as appropriate, but is desirably about 4096 samples when the sampling frequency is 44.1 kHz. Therefore, the acoustic frame reading means 10 sequentially reads 4096 samples for each of the left channel and the right channel as acoustic frames.

音響フレームとしては、AタイプとBタイプが存在する。Aタイプの音響フレーム、Bタイプの音響フレームは、それぞれ同タイプの先行する音響フレームの最後のサンプルの次のサンプルを先頭サンプルとして設定される。そして、AタイプとBタイプの音響フレームは互いに所定数(本実施形態では2048)のサンプルを重複して設定される。例えば、Aタイプの音響フレームを先頭からA1、A2、A3…とし、Bタイプの音響フレームを先頭からB1、B2、B3…とすると、A1はサンプル1〜4096、A2はサンプル4097〜8192、A3はサンプル8193〜12288、B1はサンプル2049〜6144、B2はサンプル6145〜10240、B3はサンプル10241〜14336となる。なお、AタイプとBタイプは相対的なものであるので、どちらが先であっても良い。すなわち、上記とは逆にA1がサンプル2049〜6144、A2がサンプル6145〜10240、A3がサンプル10241〜14336、B1がサンプル1〜4096、B2がサンプル4097〜8192、B3がサンプル8193〜12288であっても良い。   There are A type and B type as acoustic frames. In the A-type acoustic frame and the B-type acoustic frame, the next sample after the last sample of the preceding acoustic frame of the same type is set as the first sample. The A-type and B-type sound frames are set by overlapping a predetermined number (2048 in this embodiment) of samples. For example, if the A type acoustic frame is A1, A2, A3... From the top and the B type acoustic frame is B1, B2, B3... From the top, A1 is samples 1 to 4096, A2 is samples 4097 to 8192, A3. Is samples 8193-12288, B1 is samples 2049-6144, B2 is samples 6145-10240, and B3 is samples 10241-14336. Since the A type and the B type are relative, either one may be first. That is, contrary to the above, A1 is samples 2049 to 6144, A2 is samples 6145 to 10240, A3 is samples 10241 to 14336, B1 is samples 1 to 4096, B2 is samples 4097 to 8192, and B3 is samples 8193 to 12288. May be.

周波数変換手段20は、音響フレーム読込手段10が読み込んだ音響フレームに対して、周波数変換を行って、その音響フレームのスペクトルを得る。具体的には、窓関数を利用して周波数変換を行う。周波数変換としては、フーリエ変換、ウェーブレット変換その他公知の種々の手法を用いることができる。本実施形態では、フーリエ変換を用いた場合を例にとって説明する。   The frequency conversion unit 20 performs frequency conversion on the sound frame read by the sound frame reading unit 10 to obtain a spectrum of the sound frame. Specifically, frequency conversion is performed using a window function. As frequency conversion, Fourier transform, wavelet transform, and other various known methods can be used. In the present embodiment, a case where Fourier transform is used will be described as an example.

一般に、所定の信号に対してフーリエ変換を行う場合、信号を所定の長さに区切って行う必要があるが、この場合、所定長さの信号に対してそのままフーリエ変換を行うと、擬似高調波成分が発生する。そこで、一般にフーリエ変換を行う場合には、ハニング窓と呼ばれる窓関数を用いて、信号の値を変化させた後、変化後の値に対してフーリエ変換を実行する。   In general, when Fourier transform is performed on a predetermined signal, it is necessary to divide the signal into predetermined lengths. In this case, if Fourier transform is performed on a signal of a predetermined length as it is, a pseudo-harmonic wave is generated. Ingredients are generated. Therefore, in general, when performing Fourier transform, a signal value is changed using a window function called a Hanning window, and then Fourier transform is performed on the changed value.

本発明では、擬似高調波成分の発生を防止するためだけではなく、一つの音響フレームから、情報を埋め込むための複数の状態を作り出すため、複数の窓関数を用意し、一つの音響フレームに対して、各窓関数を利用してフーリエ変換を行い、複数のスペクトルを得る。複数の窓関数として、本実施形態では、図2(b)〜(d)に示したような第1窓関数W(1,i)、第2窓関数W(2,i)、第3窓関数W(3,i)を用意し、抽出側で認識し易いようにした。第1窓関数W(1,i)は、音響フレームの前部を抽出するためのものであり、図2(b)に示すように前部の所定のサンプル番号iの位置において、最大値1をとり、後部においては、最小値0をとるように設定されている。どのサンプル番号の場合に最大値をとるかについては、窓関数W(1,i)の設計によって異なってくるが、本実施形態では、後述する〔数式1〕で定義される。窓関数W(1,i)を乗じることにより、図2(a)に示すような音響フレームの信号波形は、図2(f)に示すように、前部に信号成分が残り、後部の信号成分が削除されたものとなり、これがフーリエ変換対象となる。   In the present invention, not only to prevent the generation of pseudo-harmonic components but also to create a plurality of states for embedding information from one acoustic frame, a plurality of window functions are prepared, Then, Fourier transform is performed using each window function to obtain a plurality of spectra. As a plurality of window functions, in the present embodiment, the first window function W (1, i), the second window function W (2, i), and the third window as shown in FIGS. A function W (3, i) is prepared so that it can be easily recognized on the extraction side. The first window function W (1, i) is for extracting the front part of the acoustic frame, and has a maximum value of 1 at the position of a predetermined sample number i in the front part as shown in FIG. And the rear part is set to have a minimum value of 0. Which sample number takes the maximum value depends on the design of the window function W (1, i), but in this embodiment, it is defined by [Equation 1] described later. By multiplying the window function W (1, i), the signal waveform of the acoustic frame as shown in FIG. 2 (a) has a signal component remaining in the front part as shown in FIG. The component is deleted, and this becomes a Fourier transform target.

また、第2窓関数W(2,i)は、音響フレームの中央部を抽出するためのものであり、図2(c)に示すように、中央部の所定のサンプル番号iの位置において、最大値1をとり、前部、後部においては、最小値0をとるように設定されている。どのサンプル番号の場合に最大値をとるかについては、窓関数W(2,i)の設計によって異なってくるが、本実施形態では、後述する〔数式2〕で定義される。窓関数W(2,i)を乗じることにより、図2(a)に示すような音響フレームの信号波形は、図2(g)に示すように、中央部に信号成分が残り、前部と後部の信号成分が除去されたものとなり、これがフーリエ変換対象となる。   The second window function W (2, i) is for extracting the central portion of the acoustic frame, and as shown in FIG. 2 (c), at the position of the predetermined sample number i in the central portion. The maximum value is 1, and the minimum value is set to 0 at the front and rear portions. Which sample number takes the maximum value depends on the design of the window function W (2, i), but in this embodiment, it is defined by [Expression 2] described later. By multiplying the window function W (2, i), the signal waveform of the acoustic frame as shown in FIG. 2A has a signal component remaining at the center as shown in FIG. The rear signal component is removed, and this is subjected to Fourier transform.

また、第3窓関数W(3,i)は、音響フレームの後部を抽出するためのものであり、図2(d)に示すように、前部においては最小値0をとり、後部の所定のサンプル番号iの位置において、最大値1をとるように設定されている。どのサンプル番号の場合に最大値をとるかについては、窓関数W(3,i)の設計によって異なってくるが、本実施形態では、後述する〔数式3〕で定義される。窓関数W(3,i)を乗じることにより、図2(a)に示すような音響フレームの信号波形は、図2(h)に示すように、前部の信号成分が除去され、後部に信号成分が残ったものとなり、これがフーリエ変換対象となる。このように前部、中央部、後部を抽出した後、フーリエ変換を実行するため、前部、中央部、後部に対応したスペクトルが得られることになる。1つの音響フレームにビット値を埋め込むためには、本来、前部と後部の2つに分けられれば良いのであるが、抽出側においては、必ずしも、信号を同期して読み込むことができるとは限らず、したがって、前部と後部をはっきりと区別するため、本実施形態では、埋め込み時に中央部の信号成分を常に削除し、前部と後部を時間的に分離することとしている(ただし、抽出時は前部と後部だけを解析すればよく、中央部は無視してよい)。本実施形態において用いる窓関数は、窓関数W(1,i)と窓関数W(3,i)が左右非対称であるため、抽出時において、埋め込まれていた情報の誤認識が起こりにくくなる。   The third window function W (3, i) is for extracting the rear part of the acoustic frame. As shown in FIG. 2 (d), the front part has a minimum value of 0 and a predetermined value in the rear part. The maximum value 1 is set at the position of the sample number i. Which sample number takes the maximum value depends on the design of the window function W (3, i), but in this embodiment, it is defined by [Equation 3] described later. By multiplying the window function W (3, i), the signal waveform of the acoustic frame as shown in FIG. 2 (a) is removed from the front signal component as shown in FIG. 2 (h). The signal component remains and becomes a Fourier transform target. Thus, after extracting the front part, the central part, and the rear part, the Fourier transform is executed, so that spectra corresponding to the front part, the central part, and the rear part are obtained. In order to embed a bit value in one acoustic frame, the bit value is originally divided into two parts, a front part and a rear part. However, on the extraction side, it is not always possible to read a signal synchronously. Therefore, in order to clearly distinguish the front part from the rear part, in this embodiment, the signal component at the center part is always deleted at the time of embedding, and the front part and the rear part are separated in time (however, at the time of extraction) Only need to analyze the front and rear, and ignore the middle). In the window function used in the present embodiment, the window function W (1, i) and the window function W (3, i) are asymmetrical, so that erroneous recognition of embedded information is less likely to occur during extraction.

また、本実施形態では、音響フレームを重複させて読み込み、奇数フレーム(または偶数フレーム)については、窓関数W(1,i)、W(2,i)、W(3,i)を用い、偶数フレーム(または奇数フレーム)については、図2(e)に示したような第4窓関数W(4,i)を用いるようにした。   In the present embodiment, the acoustic frames are read in duplicate, and the window functions W (1, i), W (2, i), W (3, i) are used for the odd frames (or even frames), For even frames (or odd frames), the fourth window function W (4, i) as shown in FIG. 2 (e) is used.

なお、本発明においては、音響フレームは重複して読み込まれる。すなわち、奇数番目の音響フレームと偶数番目の音響フレームは、所定数のサンプルを重複して読み込む。上記のように、奇数フレームと偶数フレームでは、用いられる窓関数が異なるが、奇数フレームと偶数フレームは単に奇数か偶数かの違いだけであるため、どちらに対してどちらの処理を行っても良い。したがって、本明細書では、奇数フレーム、偶数フレームの一方をAタイプフレーム、他方をBタイプフレームと呼ぶことにする。本実施形態では、奇数フレームをAタイプフレーム、偶数フレームをBタイプフレームとして説明するが、逆に偶数フレームをAタイプフレーム、奇数フレームをBタイプフレームとしても良い。   In the present invention, sound frames are read in duplicate. That is, a predetermined number of samples are redundantly read in the odd-numbered sound frames and the even-numbered sound frames. As described above, the window function used is different between the odd frame and the even frame, but since either the odd frame or the even frame is simply the difference between the odd frame and the even frame, either process may be performed on either. . Therefore, in this specification, one of the odd-numbered frame and the even-numbered frame is referred to as an A-type frame, and the other is referred to as a B-type frame. In the present embodiment, an odd frame is described as an A type frame and an even frame is described as a B type frame. Conversely, an even frame may be an A type frame and an odd frame may be a B type frame.

本実施形態では、窓関数W(1,i)〜W(4,i)は、以下の〔数式1〕〜〔数式4〕で定義される。なお、図2において、横軸は時間軸(i)である。iは、後述するように、各音響フレーム内のN個のサンプルに付した通し番号であるため時刻tに比例している。また、図2(a)(f)(g)(h)(i)において縦軸は信号の振幅値(レベル)を示す。図2(b)〜(e)において縦軸は窓関数W(1,i)、W(2,i)、W(3,i)、W(4,i)の値を示しており、W(1,i)、W(2,i)、W(3,i)、W(4,i)の最大値はいずれも1である。   In the present embodiment, the window functions W (1, i) to W (4, i) are defined by the following [Equation 1] to [Equation 4]. In FIG. 2, the horizontal axis is the time axis (i). As described later, i is a serial number assigned to N samples in each acoustic frame, and is proportional to time t. 2A, 2F, 2G, 2H, and 2I, the vertical axis indicates the amplitude value (level) of the signal. 2B to 2E, the vertical axis indicates the values of the window functions W (1, i), W (2, i), W (3, i), and W (4, i). The maximum values of (1, i), W (2, i), W (3, i), and W (4, i) are all 1.

〔数式1〕
i≦3N/8のとき、W(1,i)=0.5−0.5cos(8πi/(3N))
3N/8<i≦N/2のとき、W(1,i)=0.5−0.5cos(8π(i−N/4)/N)
i>N/2のとき、W(1,i)=0.0
[Formula 1]
When i ≦ 3N / 8, W (1, i) = 0.5−0.5 cos (8πi / (3N))
When 3N / 8 <i ≦ N / 2, W (1, i) = 0.5−0.5 cos (8π (i−N / 4) / N)
When i> N / 2, W (1, i) = 0.0

〔数式2〕
i≦3N/8のとき、W(2,i)=0.0
3N/8<i≦N/2のとき、W(2,i)=0.5−0.5cos(8π(i−3N/8)/N)
N/2<i≦3N/4のとき、W(2,i)=0.5−0.5cos(4π(i−N/4)/N)
i>3N/4のとき、W(2,i)=0.0
[Formula 2]
When i ≦ 3N / 8, W (2, i) = 0.0
When 3N / 8 <i ≦ N / 2, W (2, i) = 0.5−0.5 cos (8π (i−3N / 8) / N)
When N / 2 <i ≦ 3N / 4, W (2, i) = 0.5−0.5 cos (4π (i−N / 4) / N)
When i> 3N / 4, W (2, i) = 0.0

〔数式3〕
i≦N/2のとき、W(3,i)=0.0
i>N/2のとき、W(3,i)=0.5−0.5cos(4π(i−N/2)/N)
[Formula 3]
When i ≦ N / 2, W (3, i) = 0.0
When i> N / 2, W (3, i) = 0.5−0.5 cos (4π (i−N / 2) / N)

〔数式4〕
i≦N/4のとき、W(4,i)=0.0
N/4<i≦N/2のとき、W(4,i)=0.5−0.5cos(4π(i−N/4)/N)
N/2<i≦7N/8のとき、W(4,i)=0.5−0.5cos(8π(i−N/8)/(3N))
i>7N/8のとき、W(4,i)=0.0
[Formula 4]
When i ≦ N / 4, W (4, i) = 0.0
When N / 4 <i ≦ N / 2, W (4, i) = 0.5−0.5 cos (4π (i−N / 4) / N)
When N / 2 <i ≦ 7N / 8, W (4, i) = 0.5−0.5 cos (8π (i−N / 8) / (3N))
When i> 7N / 8, W (4, i) = 0.0

なお、図2および上記〔数式1〕〜〔数式4〕から明らかなように、窓関数W(1,i)とW(3,i)は、互いに非対称な形状である。これは、後述する抽出側において、両者の識別を容易にするためである。また、窓関数W(1,i)、W(2,i)、W(3,i)は、iが所定の値のときに最大値1をとり、iがその他の値をとる場合には、iの値に応じて単調増加、または単調減少する窓関数を分割したものであるため、窓関数W(1,i)とW(3,i)が定まると、窓関数W(2,i)も必然的に定まる。このため、窓関数W(2,i)は左右非対称の形状となっている。   As is clear from FIG. 2 and [Formula 1] to [Formula 4], the window functions W (1, i) and W (3, i) have asymmetric shapes. This is for facilitating identification between the two on the extraction side described later. The window functions W (1, i), W (2, i), and W (3, i) have a maximum value of 1 when i is a predetermined value, and i takes other values. , I is a window function that monotonically increases or decreases according to the value of i, and therefore, when the window functions W (1, i) and W (3, i) are determined, the window function W (2, i ) Is inevitably determined. For this reason, the window function W (2, i) has a left-right asymmetric shape.

本発明においては、奇数フレームと偶数フレームを、所定サンプルずつ重複して読み込むため、情報の埋め込みを行った後、音響信号に復元する際に、窓関数を乗じた奇数フレームと、窓関数を乗じた偶数フレームの重複サンプルを加算した場合に、ほぼ元の値に戻るようにしなければならない。このため、窓関数W(4,i)の形状は、窓関数W(1,i)、W(2,i)、W(3,i)の値に応じて必然的に定まる。すなわち、奇数フレームと偶数フレームの重複部分において、窓関数W(1,i)、W(2,i)、W(3,i)、W(4,i)を加算すると、全区間固定値1になるように定義されている。   In the present invention, since odd frames and even frames are redundantly read by a predetermined number of samples, after embedding information and then restoring to an acoustic signal, the odd frame multiplied by the window function and the window function are multiplied. When overlapping samples of even frames are added, it is necessary to return almost to the original value. Therefore, the shape of the window function W (4, i) is inevitably determined according to the values of the window functions W (1, i), W (2, i), and W (3, i). That is, when the window functions W (1, i), W (2, i), W (3, i), and W (4, i) are added in the overlapping portion of the odd and even frames, the fixed value 1 for the entire section is obtained. Is defined to be

周波数変換手段20が、Aタイプの音響フレームに対してフーリエ変換を行う場合は、左チャンネル信号Xl(i)、右チャンネル信号Xr(i)(i=0,…,N−1)に対して、3つの窓関数W(1,i)、W(2,i)、W(3,i)を用いて、以下の〔数式5〕に従った処理を行い、左チャンネルに対応する変換データの実部Al(1,j)、Al(2,j)、Al(3,j)、虚部Bl(1,j)、Bl(2,j)、Bl(3,j)、右チャンネルに対応する変換データの実部Ar(1,j)、Ar(2,j)、Ar(3,j)、虚部Br(1,j)、Br(2,j)、Br(3,j)を得る。なお、窓関数W(1,i)、W(2,i)、W(3,i)は、それぞれ音響フレームの前部(先頭)付近、中央付近、後部付近において値が大きくなる関数となっている。   When the frequency conversion means 20 performs Fourier transform on the A type sound frame, the left channel signal Xl (i) and the right channel signal Xr (i) (i = 0,..., N−1). Using the three window functions W (1, i), W (2, i), W (3, i), processing according to the following [Equation 5] is performed, and the conversion data corresponding to the left channel is obtained. Real part Al (1, j), Al (2, j), Al (3, j), imaginary part Bl (1, j), Bl (2, j), Bl (3, j), corresponding to the right channel Real part Ar (1, j), Ar (2, j), Ar (3, j), imaginary part Br (1, j), Br (2, j), Br (3, j) obtain. Note that the window functions W (1, i), W (2, i), and W (3, i) are functions whose values increase near the front (front), near the center, and near the rear of the acoustic frame, respectively. ing.

〔数式5〕
Al(1,j)=Σi=0,…,N-1W(1,i)・Xl(i)・cos(2πij/N)
Bl(1,j)=Σi=0,…,N-1W(1,i)・Xl(i)・sin(2πij/N)
Al(2,j)=Σi=0,…,N-1W(2,i)・Xl(i)・cos(2πij/N)
Bl(2,j)=Σi=0,…,N-1W(2,i)・Xl(i)・sin(2πij/N)
Al(3,j)=Σi=0,…,N-1W(3,i)・Xl(i)・cos(2πij/N)
Bl(3,j)=Σi=0,…,N-1W(3,i)・Xl(i)・sin(2πij/N)
Ar(1,j)=Σi=0,…,N-1W(1,i)・Xr(i)・cos(2πij/N)
Br(1,j)=Σi=0,…,N-1W(1,i)・Xr(i)・sin(2πij/N)
Ar(2,j)=Σi=0,…,N-1W(2,i)・Xr(i)・cos(2πij/N)
Br(2,j)=Σi=0,…,N-1W(2,i)・Xr(i)・sin(2πij/N)
Ar(3,j)=Σi=0,…,N-1W(3,i)・Xr(i)・cos(2πij/N)
Br(3,j)=Σi=0,…,N-1W(3,i)・Xr(i)・sin(2πij/N)
[Formula 5]
Al (1, j) = Σi = 0,..., N-1 W (1, i) .Xl (i) .cos (2πij / N)
Bl (1, j) = Σi = 0,..., N-1 W (1, i) · Xl (i) · sin (2πij / N)
Al (2, j) = Σi = 0,..., N-1 W (2, i) · Xl (i) · cos (2πij / N)
Bl (2, j) = Σi = 0,..., N-1 W (2, i) · Xl (i) · sin (2πij / N)
Al (3, j) = Σi = 0,..., N-1 W (3, i) · Xl (i) · cos (2πij / N)
Bl (3, j) = Σi = 0,..., N-1 W (3, i) .Xl (i) .sin (2πij / N)
Ar (1, j) = Σi = 0,..., N-1 W (1, i) .Xr (i) .cos (2πij / N)
Br (1, j) = Σ i = 0,..., N-1 W (1, i) · Xr (i) · sin (2πij / N)
Ar (2, j) = Σi = 0,..., N-1 W (2, i) .Xr (i) .cos (2πij / N)
Br (2, j) = Σi = 0,..., N-1 W (2, i) .Xr (i) .sin (2πij / N)
Ar (3, j) = Σi = 0,..., N-1 W (3, i) · Xr (i) · cos (2πij / N)
Br (3, j) = Σi = 0,..., N-1 W (3, i) · Xr (i) · sin (2πij / N)

周波数変換手段20が、Bタイプの音響フレームに対してフーリエ変換を行う場合は、左チャンネル信号Xl(i)、右チャンネル信号Xr(i)(i=0,…,N−1)に対して、窓関数W(4,i)を用いて、以下の〔数式6〕に従った処理を行い、左チャンネルに対応する変換データの実部Al(4,j)、虚部Bl(4,j)、右チャンネルに対応する変換データの実部Ar(4,j)、虚部Br(4,j)を得る。   When the frequency conversion means 20 performs Fourier transform on the B type sound frame, the left channel signal Xl (i) and the right channel signal Xr (i) (i = 0,..., N−1). The window function W (4, i) is used to perform processing according to the following [Equation 6], and the real part Al (4, j) and imaginary part Bl (4, j) of the conversion data corresponding to the left channel ), Real part Ar (4, j) and imaginary part Br (4, j) of the conversion data corresponding to the right channel are obtained.

〔数式6〕
Al(4,j)=Σi=0,…,N-1W(4,i)・Xl(i)・cos(2πij/N)
Bl(4,j)=Σi=0,…,N-1W(4,i)・Xl(i)・sin(2πij/N)
Ar(4,j)=Σi=0,…,N-1W(4,i)・Xr(i)・cos(2πij/N)
Br(4,j)=Σi=0,…,N-1W(4,i)・Xr(i)・sin(2πij/N)
[Formula 6]
Al (4, j) = Σi = 0,..., N-1 W (4, i) · Xl (i) · cos (2πij / N)
Bl (4, j) = Σi = 0,..., N-1 W (4, i) .Xl (i) .sin (2πij / N)
Ar (4, j) = Σi = 0,..., N-1 W (4, i) .Xr (i) .cos (2πij / N)
Br (4, j) = Σi = 0,..., N-1 W (4, i) · Xr (i) · sin (2πij / N)

上記〔数式5〕〔数式6〕において、iは、各音響フレーム内のN個のサンプルに付した通し番号であり、i=0,1,2,…N−1の整数値をとる。また、jは周波数の値について、値の小さなものから順に付した通し番号であり、iと同様にj=0,1,2,…N/2−1の整数値をとる。サンプリング周波数が44.1kHz、N=4096の場合、jの値が1つ異なると、周波数が10.8Hz異なることになる。   In the above [Formula 5] and [Formula 6], i is a serial number assigned to N samples in each acoustic frame, and takes an integer value of i = 0, 1, 2,. Further, j is a serial number assigned in order from the smallest value of the frequency value, and takes an integer value of j = 0, 1, 2,... N / 2-1 like i. When the sampling frequency is 44.1 kHz and N = 4096, if the value of j is different by one, the frequency will be different by 10.8 Hz.

上記〔数式5〕〔数式6〕に従った処理を実行することにより、各音響フレームの各窓関数に対応するスペクトルが得られる。続いて、周波数成分変更手段30が、生成されたスペクトルから所定周波数範囲のスペクトル集合を抽出する。本実施形態では、F1以上F2以下の範囲のものを抽出する。   By executing the processing according to the above [Equation 5] and [Equation 6], a spectrum corresponding to each window function of each acoustic frame is obtained. Subsequently, the frequency component changing unit 30 extracts a spectrum set in a predetermined frequency range from the generated spectrum. In the present embodiment, a range between F1 and F2 is extracted.

周波数成分変更手段30は、Aタイプの音響フレームについて、ビット配列作成手段70が作成したビット配列に応じて、所定周波数成分の割合を変更する処理を行う。本発明では、ビット配列を1ビットずつ読み込み、1音響フレームに対して1ビットの情報を埋め込む。埋め込まれる1ビットの値は、“0” “1”の2通りがある。本実施形態では、これらを値1、値2と定義する。2種類の符号を埋め込むことができるという点で、これらを符号1、符号2と表現することもできる。この際、“0”“1”の2通りのうち、いずれを値1、値2(符号1、符号2)と定義しても良い。抽出側において、埋め込み側で埋め込まれた1ビットが特定できれば良いためである。したがって、この定義は、埋め込み側と抽出側で一致している必要がある。   The frequency component changing unit 30 performs a process of changing the ratio of the predetermined frequency component for the A type sound frame according to the bit arrangement created by the bit arrangement creating unit 70. In the present invention, the bit arrangement is read bit by bit, and 1-bit information is embedded in one acoustic frame. There are two 1-bit values to be embedded: “0” and “1”. In the present embodiment, these are defined as value 1 and value 2. Since two types of codes can be embedded, these can also be expressed as code 1 and code 2. At this time, any one of “0” and “1” may be defined as a value 1 and a value 2 (reference numerals 1 and 2). This is because it is sufficient that one bit embedded on the extraction side can be specified on the extraction side. Therefore, this definition must match between the embedding side and the extraction side.

本実施形態では、音響フレームの変更対象周波数帯の成分を2つの状態に変更し、1ビットの情報を埋め込むようにしている。ここで、埋め込み処理の前後における音響フレームの所定周波数成分の変化の状態について説明する。図3に、本実施形態によるAタイプ、Bタイプの各チャンネル1音響フレームの所定周波数成分の状態を示す。図3に示す各音響フレームにおいて、横軸は時間方向、縦軸は周波数方向を示している。また、網掛けされた部分は、周波数成分が存在している部分を示し、網掛けが濃いほど成分強度が強いことを示している。   In this embodiment, the component of the change target frequency band of the acoustic frame is changed to two states, and 1-bit information is embedded. Here, the state of change of the predetermined frequency component of the acoustic frame before and after the embedding process will be described. FIG. 3 shows a state of a predetermined frequency component of each channel 1 sound frame of A type and B type according to the present embodiment. In each acoustic frame shown in FIG. 3, the horizontal axis indicates the time direction, and the vertical axis indicates the frequency direction. A shaded portion indicates a portion where a frequency component exists, and the darker the shade, the stronger the component strength.

図3においては、縦軸の周波数方向において、周波数領域が6つに区分されているが、下から2番目〜5番目の領域、すなわち、周波数F1以上F2以下の間が変更対象周波数帯であり、最上部すなわち周波数F2超、最下部すなわちF1未満は、変更対象でない周波数帯である。すなわち、本実施形態では、周波数F1以上F2以下を所定周波数範囲として、スペクトル集合の強度を変更することになる。LチャンネルのAタイプ音響フレームの変更対象周波数帯については、前部におけるスペクトル集合を低周波側から順に、L1Dq、L1Uq(q=1,…,Q)の繰り返し、中部におけるスペクトル集合を高周波側から順に、L2Dq、L2Uqの繰り返し、後部におけるスペクトル集合を高周波側から順に、L3Dq、L3Uqの繰り返しで表現し、RチャンネルのAタイプ音響フレームの変更対象周波数帯については、前部におけるスペクトル集合を高周波側から順に、R1Dq、R1Uqの繰り返し、中部におけるスペクトル集合を高周波側から順に、R2Dq、R2Uqの繰り返し、後部におけるスペクトル集合を高周波側から順に、R3Dq、R3Uqの繰り返しで表現することとする。本実施形態では、Q=2であるため、図3(a)に示すように、L3Dq、L3Uqの繰り返しは、L3D1、L3U1、L3D2、L3U2となる。また、LチャンネルのBタイプ音響フレームの変更対象周波数帯については、スペクトル集合を高周波側から順に、L4Dq、L4Uqの繰り返しで表現し、RチャンネルのBタイプ音響フレームの変更対象周波数帯については、スペクトル集合を高周波側から順に、R4Dq、R4Uqの繰り返しで表現することとする。このため、図3(b)に示すように、L4Dq、L4Uqの繰り返しは、L4D1、L4U1、L4D2、L4U2となる。   In FIG. 3, the frequency region is divided into six in the frequency direction of the vertical axis, but the second to fifth regions from the bottom, that is, the frequency range from F1 to F2 is the change target frequency band. The uppermost part, that is, the frequency exceeding F2, and the lowermost part, that is, less than F1, are frequency bands not to be changed. That is, in the present embodiment, the intensity of the spectrum set is changed by setting the frequency F1 to F2 as a predetermined frequency range. For the change target frequency band of the A type acoustic frame of the L channel, the spectrum set in the front part is sequentially repeated from the low frequency side, L1Dq, L1Uq (q = 1,..., Q), and the spectrum set in the middle part is set from the high frequency side. In turn, L2Dq and L2Uq are repeated, and the spectrum set in the rear part is expressed in order from the high-frequency side by repetition of L3Dq and L3Uq. For the change target frequency band of the A type acoustic frame of the R channel, the spectrum set in the front part is In this order, R1Dq and R1Uq are repeated, the spectrum set in the middle is expressed in order from the high frequency side, R2Dq and R2Uq are repeated, and the spectrum set in the rear is expressed in order from the high frequency side by repetition of R3Dq and R3Uq. In this embodiment, since Q = 2, as shown in FIG. 3A, the repetition of L3Dq and L3Uq is L3D1, L3U1, L3D2, and L3U2. Also, for the change target frequency band of the L channel B type acoustic frame, the spectrum set is expressed by repeating L4Dq and L4Uq in order from the high frequency side, and for the change target frequency band of the R channel B type acoustic frame, the spectrum Assume that the set is expressed by repetition of R4Dq and R4Uq in order from the high frequency side. Therefore, as shown in FIG. 3B, the repetition of L4Dq and L4Uq is L4D1, L4U1, L4D2, and L4U2.

本実施形態で、符号1を埋め込む場合、図3(c)に示すように、L1Uq、L3Dqの成分を除去し、除去した成分と同等の成分をR1Uq、R3Dqの成分に加算する。また、R1Dq、R3Uqの成分を除去し、除去した成分と同等の成分をL1Dq、L3Uqの成分に加算する。この状態を“状態1”と呼ぶことにする。符号2を埋め込む場合は、図3(d)に示すように、L1Dq、L3Uqの成分を除去し、除去した成分と同等の成分をR1Dq、R3Uqの成分に加算する。また、R1Uq、R3Dqの成分を除去し、除去した成分と同等の成分をL1Uq、L3Dqの成分に加算する。この状態を“状態2”と呼ぶことにする。また、埋め込むビット値に関わらず、図3(c)(d)に示すように、L2Dqの成分を除去し、除去した成分と同等の成分をR2Dqの成分に加算する。また、R2Uqの成分を除去し、除去した成分と同等の成分をL2Uqの成分に加算する。   In the present embodiment, when the code 1 is embedded, as shown in FIG. 3C, the components L1Uq and L3Dq are removed, and components equivalent to the removed components are added to the components R1Uq and R3Dq. Also, the components R1Dq and R3Uq are removed, and components equivalent to the removed components are added to the components L1Dq and L3Uq. This state is referred to as “state 1”. When embedding the code 2, as shown in FIG. 3D, the components L1Dq and L3Uq are removed, and components equivalent to the removed components are added to the components R1Dq and R3Uq. Further, the components R1Uq and R3Dq are removed, and components equivalent to the removed components are added to the components L1Uq and L3Dq. This state is referred to as “state 2”. Regardless of the bit value to be embedded, as shown in FIGS. 3C and 3D, the component of L2Dq is removed, and a component equivalent to the removed component is added to the component of R2Dq. Further, the R2Uq component is removed, and a component equivalent to the removed component is added to the L2Uq component.

また、埋め込むビット値に関わらず、図3(e)に示すように、L4Dqの成分を除去し、除去した成分と同等の成分をR4Dqの成分に加算する。また、R4Uqの成分を除去し、除去した成分と同等の成分をL4Uqの成分に加算する。   Regardless of the bit value to be embedded, as shown in FIG. 3E, the L4Dq component is removed, and a component equivalent to the removed component is added to the R4Dq component. Further, the R4Uq component is removed, and a component equivalent to the removed component is added to the L4Uq component.

本実施形態では、図3(c)、(d)に示すような2つの状態にAタイプ音響フレームの周波数成分を変更することにより、情報の埋め込みを行っている。2つの状態であるので1ビット分の情報量に相当する。   In this embodiment, information is embedded by changing the frequency component of the A-type sound frame in two states as shown in FIGS. Since there are two states, this corresponds to an information amount of 1 bit.

図3(c)(d)(e)に示したように、本発明では、状態1、状態2いずれの場合であっても、変更対象周波数帯における成分強度のチャンネル間における差があまり大きくならないように変更される。したがって、どちらかのチャンネルの信号が極端に劣化するということがなく、ノイズが目立たなくなる。   As shown in FIGS. 3C, 3D, and 3E, in the present invention, the difference between the component intensities in the frequency band to be changed between channels is not so large in either state 1 or state 2. Will be changed as follows. Therefore, the signal of one of the channels is not extremely deteriorated, and the noise is not conspicuous.

本実施形態では、上記変更対象周波数帯F1〜F2を、“1.7kHz〜3.4kHz”または “3.4kHz〜6.8kHz”のいずれかに設定する。これは、以下のような理由による。   In the present embodiment, the change target frequency bands F1 to F2 are set to either “1.7 kHz to 3.4 kHz” or “3.4 kHz to 6.8 kHz”. This is due to the following reasons.

人間の音源定位感覚は高音部では増大傾向になるが、ソース音源のエネルギーは高音になるほど小さくなる特性があり、特に電話回線帯域(300Hz〜3.4kHz)を超えると倍音成分のみとなるため、結果的に聴取可能な音源定位変異は小さい。実験の結果、400Hz〜1.5kHzの領域では聴取可能な音源定位変異は増大していくが、1.5kHzを超えると減少傾向になり、更に4kHzを超えるとほとんどなくなる。これは、4kHz以上は音声の成分はほとんどなくなり、楽器音では基音が最高音域を超えることため倍音のみの成分となるためである。   The human sound source localization sensation tends to increase in the treble part, but the energy of the source sound source has a characteristic that it becomes smaller as the treble becomes higher, especially when it exceeds the telephone line bandwidth (300 Hz to 3.4 kHz), it becomes only the harmonic component. As a result, the audible sound source localization variation is small. As a result of the experiment, the audible sound source localization mutation increases in the region of 400 Hz to 1.5 kHz, but tends to decrease when the frequency exceeds 1.5 kHz, and almost disappears when the frequency exceeds 4 kHz. This is because there is almost no sound component above 4 kHz, and the fundamental tone of the instrument sound exceeds the highest range, so that only the overtone component is obtained.

そこで、どの周波数範囲に埋め込むべきかを具体的に検討する。音声通信として普及度の高い携帯電話機を受信端末として利用する場合、上限については、電話回線帯域および携帯電話機の上限である3.4kHzとする必要がある。そこで、下限については、上限の3.4kHzから1オクターブ下がった1.7kHzとすることとした。また、携帯電話機以外を受信端末として利用する場合には、可聴周波数の上限(22kHz)以下であれば3.4kHzより高い周波数領域を用いることができるが、10kHzを超える高音域では、圧縮・変調などの信号処理の影響を受け易く、スピーカによっては再生能力が低下するため、下限を電話回線帯域の上限である3.4kHzとし、上限を3.4kHzから1オクターブ上がった6.8kHzとすることとした。なお、“1.7kHz”“3.4kHz”“6.8kHz”という値は、代表的な値であり、必ずしも正確な値である必要はなく、そこから若干ずれた値であっても良い。なお、本明細書においては、“1.7kHz〜3.4kHz”を「電話高周波帯」、“3.4kHz〜6.8kHz”を「超電話周波帯」と呼ぶことにする。また、電話回線帯域の上限は上述のように3.4kHz近辺であるので、上記「電話高周波帯」、「超電話周波帯」はそれぞれ可聴周波数範囲で電話回線帯域の上限より若干低音側、若干高音側における所定の周波数帯に該当する。   Therefore, the frequency range to be embedded is specifically examined. When a mobile phone having a high degree of spread as voice communication is used as a receiving terminal, the upper limit needs to be 3.4 kHz which is the upper limit of the telephone line band and the mobile phone. Therefore, the lower limit is set to 1.7 kHz, which is one octave lower than the upper limit of 3.4 kHz. Further, when a device other than a mobile phone is used as a receiving terminal, a frequency region higher than 3.4 kHz can be used as long as it is below the upper limit of audible frequency (22 kHz), but in a high sound region exceeding 10 kHz, compression / modulation is possible. The lower limit is set to 3.4 kHz, which is the upper limit of the telephone line bandwidth, and the upper limit is set to 6.8 kHz, which is one octave higher than 3.4 kHz. It was. Note that the values “1.7 kHz”, “3.4 kHz”, and “6.8 kHz” are representative values, and are not necessarily accurate values, and may be slightly deviated from them. In the present specification, “1.7 kHz to 3.4 kHz” is referred to as “telephone high frequency band”, and “3.4 kHz to 6.8 kHz” is referred to as “super telephone frequency band”. Further, since the upper limit of the telephone line band is around 3.4 kHz as described above, the above “telephone high frequency band” and “super telephone frequency band” are slightly lower than the upper limit of the telephone line band in the audible frequency range. This corresponds to a predetermined frequency band on the high sound side.

周波数成分の変更をより詳細に説明すると、埋め込むべき情報が“値1”である場合、以下の〔数式7〕に従った処理を、q=1〜QのQ個の領域に対して実行することにより、周波数成分の状態を“状態1”、すなわち、図3(c)に示したような状態に変更する。   The change of the frequency component will be described in more detail. When the information to be embedded is “value 1”, the processing according to the following [Equation 7] is executed for Q regions of q = 1 to Q. Thus, the state of the frequency component is changed to “state 1”, that is, the state shown in FIG.

〔数式7〕
j=m+2P(q−1)〜m+2P(q−1)+P−1の各成分に対して
Al´(2,j)=0
Bl´(2,j)=0
E(2,j)={Al(2,j)2+Bl(2,j)2+Ar(2,j)2+Br(2,j)21/2
Ar´(2,j)=Ar(2,j)・E(2,j)/{Ar(2,j)2+Br(2,j)21/2
Br´(2,j)=Br(2,j)・E(2,j)/{Ar(2,j)2+Br(2,j)21/2
Al´(3,j)=0
Bl´(3,j)=0
E(3,j)={Al(3,j)2+Bl(3,j)2+Ar(3,j)2+Br(3,j)21/2
Ar´(3,j)=Ar(3,j)・E(3,j)/{Ar(3,j)2+Br(3,j)21/2
Br´(3,j)=Br(3,j)・E(3,j)/{Ar(3,j)2+Br(3,j)21/2
E(1,j)={Al(1,j)2+Bl(1,j)2+Ar(1,j)2+Br(1,j)21/2
Al´(1,j)=Al(1,j)・E(1,j)/{Al(1,j)2+Bl(1,j)21/2
Bl´(1,j)=Bl(1,j)・E(1,j)/{Al(1,j)2+Bl(1,j)21/2
Ar´(1,j)=0
Br´(1,j)=0
j=m+2P(q−1)+P〜m+2P(q−1)+2P−1の各成分に対して
Al´(1,j)=0
Bl´(1,j)=0
E(1,j)={Al(1,j)2+Bl(1,j)2+Ar(1,j)2+Br(1,j)21/2
Ar´(1,j)=Ar(1,j)・E(1,j)/{Ar(1,j)2+Br(1,j)21/2
Br´(1,j)=Br(1,j)・E(1,j)/{Ar(1,j)2+Br(1,j)21/2
E(2,j)={Al(2,j)2+Bl(2,j)2+Ar(2,j)2+Br(2,j)21/2
Al´(2,j)=Al(2,j)・E(2,j)/{Al(2,j)2+Bl(2,j)21/2
Bl´(2,j)=Bl(2,j)・E(2,j)/{Al(2,j)2+Bl(2,j)21/2
Ar´(2,j)=0
Br´(2,j)=0
E(3,j)={Al(3,j)2+Bl(3,j)2+Ar(3,j)2+Br(3,j)21/2
Al´(3,j)=Al(3,j)・E(3,j)/{Al(3,j)2+Bl(3,j)21/2
Bl´(3,j)=Bl(3,j)・E(3,j)/{Al(3,j)2+Bl(3,j)21/2
Ar´(3,j)=0
Br´(3,j)=0
[Formula 7]
For each component of j = m + 2P (q−1) to m + 2P (q−1) + P−1, Al ′ (2, j) = 0
Bl ′ (2, j) = 0
E (2, j) = {Al (2, j) 2 + Bl (2, j) 2 + Ar (2, j) 2 + Br (2, j) 2 } 1/2
Ar ′ (2, j) = Ar (2, j) · E (2, j) / {Ar (2, j) 2 + Br (2, j) 2 } 1/2
Br ′ (2, j) = Br (2, j) · E (2, j) / {Ar (2, j) 2 + Br (2, j) 2 } 1/2
Al ′ (3, j) = 0
Bl ′ (3, j) = 0
E (3, j) = {Al (3, j) 2 + B1 (3, j) 2 + Ar (3, j) 2 + Br (3, j) 2 } 1/2
Ar ′ (3, j) = Ar (3, j) · E (3, j) / {Ar (3, j) 2 + Br (3, j) 2 } 1/2
Br ′ (3, j) = Br (3, j) · E (3, j) / {Ar (3, j) 2 + Br (3, j) 2 } 1/2
E (1, j) = {Al (1, j) 2 + Bl (1, j) 2 + Ar (1, j) 2 + Br (1, j) 2 } 1/2
Al ′ (1, j) = Al (1, j) · E (1, j) / {Al (1, j) 2 + Bl (1, j) 2 } 1/2
Bl ′ (1, j) = Bl (1, j) · E (1, j) / {Al (1, j) 2 + Bl (1, j) 2 } 1/2
Ar ′ (1, j) = 0
Br ′ (1, j) = 0
For each component of j = m + 2P (q−1) + P to m + 2P (q−1) + 2P−1, Al ′ (1, j) = 0
Bl ′ (1, j) = 0
E (1, j) = {Al (1, j) 2 + Bl (1, j) 2 + Ar (1, j) 2 + Br (1, j) 2 } 1/2
Ar ′ (1, j) = Ar (1, j) · E (1, j) / {Ar (1, j) 2 + Br (1, j) 2 } 1/2
Br ′ (1, j) = Br (1, j) · E (1, j) / {Ar (1, j) 2 + Br (1, j) 2 } 1/2
E (2, j) = {Al (2, j) 2 + Bl (2, j) 2 + Ar (2, j) 2 + Br (2, j) 2 } 1/2
Al ′ (2, j) = Al (2, j) · E (2, j) / {Al (2, j) 2 + Bl (2, j) 2 } 1/2
Bl ′ (2, j) = Bl (2, j) · E (2, j) / {Al (2, j) 2 + Bl (2, j) 2 } 1/2
Ar ′ (2, j) = 0
Br ′ (2, j) = 0
E (3, j) = {Al (3, j) 2 + B1 (3, j) 2 + Ar (3, j) 2 + Br (3, j) 2 } 1/2
Al ′ (3, j) = Al (3, j) · E (3, j) / {Al (3, j) 2 + Bl (3, j) 2 } 1/2
Bl ′ (3, j) = B1 (3, j) · E (3, j) / {Al (3, j) 2 + Bl (3, j) 2 } 1/2
Ar ′ (3, j) = 0
Br ′ (3, j) = 0

上記〔数式7〕において、mは変更対象周波数帯の下限の成分の番号、Mは変更対象周波数帯の上限の成分の番号である。例えば、変更対象周波数帯として、1.7kHz〜3.4kHzを設定する場合、m=160、M=320となる。また、P=(M−m)/(2Q)である(本実施形態ではQ=2)。   In the above [Equation 7], m is the number of the lower limit component of the change target frequency band, and M is the number of the upper limit component of the change target frequency band. For example, when 1.7 kHz to 3.4 kHz is set as the change target frequency band, m = 160 and M = 320. Further, P = (M−m) / (2Q) (Q = 2 in this embodiment).

上記〔数式7〕においては、j=m+2P(q−1)〜m+2P(q−1)+P−1において、Al´(2,j)、Bl´(2,j)、Al´(3,j)、Bl´(3,j)、Ar´(1,j)、Br´(1,j)を0とし、j=m+2P(q−1)+P〜m+2P(q−1)+2P−1において、Al´(1,j)、Bl´(1,j)、Ar´(2,j)、Br´(2,j)、Ar´(3,j)、Br´(3,j)を0としている。これは、図3(c)に示すように、L1Uq、L3Dq、R1Dq、R3Uq内の各成分を0にすることを示しているが、“状態1”では、これら以外のスペクトル集合との強度の差を明確にすることができれば十分であるため、必ずしも0にする必要はなく、小さな値であれば良い。   In the above [Expression 7], when j = m + 2P (q−1) to m + 2P (q−1) + P−1, Al ′ (2, j), Bl ′ (2, j), Al ′ (3, j ), Bl ′ (3, j), Ar ′ (1, j), Br ′ (1, j) are set to 0, and j = m + 2P (q−1) + P to m + 2P (q−1) + 2P−1 Al ′ (1, j), Bl ′ (1, j), Ar ′ (2, j), Br ′ (2, j), Ar ′ (3, j), Br ′ (3, j) are set to 0 Yes. This indicates that each component in L1Uq, L3Dq, R1Dq, and R3Uq is set to 0 as shown in FIG. 3 (c). Since it is sufficient if the difference can be clarified, it is not necessarily required to be 0, and a small value is sufficient.

埋め込むべき情報が“値2”である場合は、以下の〔数式8〕に従った処理を、q=1〜QのQ個の領域に対して実行することにより、周波数成分の状態を“状態2” 、すなわち、図3(d)に示したような状態に変更する。   When the information to be embedded is “value 2”, the processing according to the following [Equation 8] is executed for Q regions of q = 1 to Q, thereby changing the frequency component state to “state”. 2 ″, that is, the state shown in FIG.

〔数式8〕
j=m+2P(q−1)〜m+2P(q−1)+P−1の各成分に対して
Al´(2,j)=0
Bl´(2,j)=0
E(2,j)={Al(2,j)2+Bl(2,j)2+Ar(2,j)2+Br(2,j)21/2
Ar´(2,j)=Ar(2,j)・E(2,j)/{Ar(2,j)2+Br(2,j)21/2
Br´(2,j)=Br(2,j)・E(2,j)/{Ar(2,j)2+Br(2,j)21/2
Al´(1,j)=0
Bl´(1,j)=0
E(1,j)={Al(1,j)2+Bl(1,j)2+Ar(1,j)2+Br(1,j)21/2
Ar´(1,j)=Ar(1,j)・E(1,j)/{Ar(1,j)2+Br(1,j)21/2
Br´(1,j)=Br(1,j)・E(1,j)/{Ar(1,j)2+Br(1,j)21/2
E(3,j)={Al(3,j)2+Bl(3,j)2+Ar(3,j)2+Br(3,j)21/2
Al´(3,j)=Al(3,j)・E(3,j)/{Al(3,j)2+Bl(3,j)21/2
Bl´(3,j)=Bl(3,j)・E(3,j)/{Al(3,j)2+Bl(3,j)21/2
Ar´(3,j)=0
Br´(3,j)=0
j=m+2P(q−1)+P〜m+2P(q−1)+2P−1の各成分に対して
Al´(3,j)=0
Bl´(3,j)=0
E(3,j)={Al(3,j)2+Bl(3,j)2+Ar(3,j)2+Br(3,j)21/2
Ar´(3,j)=Ar(3,j)・E(3,j)/{Ar(3,j)2+Br(3,j)21/2
Br´(3,j)=Br(3,j)・E(3,j)/{Ar(3,j)2+Br(3,j)21/2
E(2,j)={Al(2,j)2+Bl(2,j)2+Ar(2,j)2+Br(2,j)21/2
Al´(2,j)=Al(2,j)・E(2,j)/{Al(2,j)2+Bl(2,j)21/2
Bl´(2,j)=Bl(2,j)・E(2,j)/{Al(2,j)2+Bl(2,j)21/2
Ar´(2,j)=0
Br´(2,j)=0
E(1,j)={Al(1,j)2+Bl(1,j)2+Ar(1,j)2+Br(1,j)21/2
Al´(1,j)=Al(1,j)・E(1,j)/{Al(1,j)2+Bl(1,j)21/2
Bl´(1,j)=Bl(1,j)・E(1,j)/{Al(1,j)2+Bl(1,j)21/2
Ar´(1,j)=0
Br´(1,j)=0
[Formula 8]
For each component of j = m + 2P (q−1) to m + 2P (q−1) + P−1, Al ′ (2, j) = 0
Bl ′ (2, j) = 0
E (2, j) = {Al (2, j) 2 + Bl (2, j) 2 + Ar (2, j) 2 + Br (2, j) 2 } 1/2
Ar ′ (2, j) = Ar (2, j) · E (2, j) / {Ar (2, j) 2 + Br (2, j) 2 } 1/2
Br ′ (2, j) = Br (2, j) · E (2, j) / {Ar (2, j) 2 + Br (2, j) 2 } 1/2
Al ′ (1, j) = 0
Bl ′ (1, j) = 0
E (1, j) = {Al (1, j) 2 + Bl (1, j) 2 + Ar (1, j) 2 + Br (1, j) 2 } 1/2
Ar ′ (1, j) = Ar (1, j) · E (1, j) / {Ar (1, j) 2 + Br (1, j) 2 } 1/2
Br ′ (1, j) = Br (1, j) · E (1, j) / {Ar (1, j) 2 + Br (1, j) 2 } 1/2
E (3, j) = {Al (3, j) 2 + B1 (3, j) 2 + Ar (3, j) 2 + Br (3, j) 2 } 1/2
Al ′ (3, j) = Al (3, j) · E (3, j) / {Al (3, j) 2 + Bl (3, j) 2 } 1/2
Bl ′ (3, j) = B1 (3, j) · E (3, j) / {Al (3, j) 2 + Bl (3, j) 2 } 1/2
Ar ′ (3, j) = 0
Br ′ (3, j) = 0
For each component of j = m + 2P (q−1) + P to m + 2P (q−1) + 2P−1, Al ′ (3, j) = 0
Bl ′ (3, j) = 0
E (3, j) = {Al (3, j) 2 + B1 (3, j) 2 + Ar (3, j) 2 + Br (3, j) 2 } 1/2
Ar ′ (3, j) = Ar (3, j) · E (3, j) / {Ar (3, j) 2 + Br (3, j) 2 } 1/2
Br ′ (3, j) = Br (3, j) · E (3, j) / {Ar (3, j) 2 + Br (3, j) 2 } 1/2
E (2, j) = {Al (2, j) 2 + Bl (2, j) 2 + Ar (2, j) 2 + Br (2, j) 2 } 1/2
Al ′ (2, j) = Al (2, j) · E (2, j) / {Al (2, j) 2 + Bl (2, j) 2 } 1/2
Bl ′ (2, j) = Bl (2, j) · E (2, j) / {Al (2, j) 2 + Bl (2, j) 2 } 1/2
Ar ′ (2, j) = 0
Br ′ (2, j) = 0
E (1, j) = {Al (1, j) 2 + Bl (1, j) 2 + Ar (1, j) 2 + Br (1, j) 2 } 1/2
Al ′ (1, j) = Al (1, j) · E (1, j) / {Al (1, j) 2 + Bl (1, j) 2 } 1/2
Bl ′ (1, j) = Bl (1, j) · E (1, j) / {Al (1, j) 2 + Bl (1, j) 2 } 1/2
Ar ′ (1, j) = 0
Br ′ (1, j) = 0

上記〔数式8〕においては、j=m+2P(q−1)〜m+2P(q−1)+P−1において、Al´(2,j)、Bl´(2,j)、Al´(1,j)、Bl´(1,j)、Ar´(3,j)、Br´(3,j)を0とし、j=m+2P(q−1)+P〜m+2P(q−1)+2P−1においてAl´(3,j)、Bl´(3,j)、Ar´(2,j)、Br´(2,j)、Ar´(1,j)、Br´(1,j)を0としている。これは、図3(d)に示すように、L1Dq、L3Uq、R1Uq、R3Dq内の各成分を0にすることを示しているが、“状態2”では、これら以外のスペクトル集合との強度の差を明確にすることができれば十分であるため、必ずしも0にする必要はなく、小さな値であれば良い。   In the above [Expression 8], when j = m + 2P (q−1) to m + 2P (q−1) + P−1, Al ′ (2, j), Bl ′ (2, j), Al ′ (1, j ), Bl ′ (1, j), Ar ′ (3, j), Br ′ (3, j) are set to 0, and Al in j = m + 2P (q−1) + P to m + 2P (q−1) + 2P−1 '(3, j), Bl' (3, j), Ar '(2, j), Br' (2, j), Ar '(1, j), Br' (1, j) are set to 0 . This indicates that each component in L1Dq, L3Uq, R1Uq, and R3Dq is set to 0 as shown in FIG. 3 (d). In “state 2”, the intensity of the spectrum set other than these components Since it is sufficient if the difference can be clarified, it is not necessarily required to be 0, and a small value is sufficient.

上記のように、Aタイプの音響フレームに対しては、埋め込むべきビット値に応じて、周波数成分の変更を行う必要があるため、周波数成分変更手段30は、上記〔数式7〕〔数式8〕に従った処理を実行する。一方、Bタイプの音響フレームは、両チャンネルの信号劣化の差を補い、聴く者にノイズを感じさせないようにするために用いられるものであるので、ビット値に応じて周波数成分の変更を行う必要はない。そこで、周波数成分変更手段30は、Bタイプの音響フレームについては、常に以下の〔数式9〕に従った処理をq=1〜QのQ個の領域に対して実行する。   As described above, since it is necessary to change the frequency component for the A type sound frame according to the bit value to be embedded, the frequency component changing means 30 performs the above [Formula 7] and [Formula 8]. Execute the process according to. On the other hand, the B-type acoustic frame is used to compensate for the difference in signal degradation between both channels and prevent the listener from feeling noise, so it is necessary to change the frequency component according to the bit value. There is no. Therefore, the frequency component changing unit 30 always executes the process according to the following [Equation 9] for B type acoustic frames for Q regions of q = 1 to Q.

〔数式9〕
j=m+2P(q−1)〜m+2P(q−1)+P−1の各成分に対して
Al´(4,j)=0
Bl´(4,j)=0
E(4,j)={Al(4,j)2+Bl(4,j)2+Ar(4,j)2+Br(4,j)21/2
Ar´(4,j)=Ar(4,j)・E(4,j)/{Ar(4,j)2+Br(4,j)21/2
Br´(4,j)=Br(4,j)・E(4,j)/{Ar(4,j)2+Br(4,j)21/2
j=m+2P(q−1)+P〜m+2P(q−1)+2P−1の各成分に対して
E(4,j)={Al(4,j)2+Bl(4,j)2+Ar(4,j)2+Br(4,j)21/2
Al´(4,j)=Al(4,j)・E(4,j)/{Al(4,j)2+Bl(4,j)21/2
Bl´(4,j)=Bl(4,j)・E(4,j)/{Al(4,j)2+Bl(4,j)21/2
Ar´(4,j)=0
Br´(4,j)=0
[Formula 9]
For each component of j = m + 2P (q−1) to m + 2P (q−1) + P−1, Al ′ (4, j) = 0
Bl ′ (4, j) = 0
E (4, j) = {Al (4, j) 2 + Bl (4, j) 2 + Ar (4, j) 2 + Br (4, j) 2 } 1/2
Ar ′ (4, j) = Ar (4, j) · E (4, j) / {Ar (4, j) 2 + Br (4, j) 2 } 1/2
Br ′ (4, j) = Br (4, j) · E (4, j) / {Ar (4, j) 2 + Br (4, j) 2 } 1/2
For each component of j = m + 2P (q−1) + P to m + 2P (q−1) + 2P−1, E (4, j) = {Al (4, j) 2 + Bl (4, j) 2 + Ar (4 , J) 2 + Br (4, j) 2 } 1/2
Al ′ (4, j) = Al (4, j) · E (4, j) / {Al (4, j) 2 + Bl (4, j) 2 } 1/2
Bl ′ (4, j) = B1 (4, j) · E (4, j) / {Al (4, j) 2 + Bl (4, j) 2 } 1/2
Ar ′ (4, j) = 0
Br ′ (4, j) = 0

周波数逆変換手段40は、上記のようにして、周波数成分の状態が変更されたフレームスペクトルを周波数逆変換して改変音響フレームを得る処理を行う。この周波数逆変換は、当然のことながら、周波数変換手段20が実行した手法に対応していることが必要となる。本実施形態では、周波数変換手段20において、フーリエ変換を施しているため、周波数逆変換手段40は、フーリエ逆変換を実行することになる。   As described above, the frequency inverse transform means 40 performs the process of obtaining the modified sound frame by performing the frequency inverse transform on the frame spectrum in which the state of the frequency component is changed. Naturally, the inverse frequency conversion needs to correspond to the method executed by the frequency conversion means 20. In the present embodiment, since the frequency transform unit 20 performs the Fourier transform, the frequency inverse transform unit 40 executes the Fourier inverse transform.

具体的には、Aタイプの音響フレームに対しては、周波数逆変換手段40は、上記〔数式7〕〔数式8〕のいずれかにより得られたスペクトルの左チャンネルの実部Al´(1,j)等、虚部Bl´(1,j)等、右チャンネルの実部Ar´(1,j)等、虚部Br´(1,j)等を用いて、以下の〔数式10〕に従った処理を行い、Xl´(i)、Xr´(i)を算出する。なお、上記〔数式7〕〔数式8〕において改変されていない周波数成分については、Al´(1,j)等として、元の周波数成分であるAl(1,j)等を用いる。   Specifically, for the A type sound frame, the frequency inverse transform means 40 performs the real part Al ′ (1,1) of the left channel of the spectrum obtained by any of the above [Formula 7] and [Formula 8]. j), imaginary part Bl ′ (1, j), etc., real part Ar ′ (1, j), etc. of the right channel, imaginary part Br ′ (1, j), etc. The process according to this is performed and Xl '(i) and Xr' (i) are calculated. For frequency components that are not modified in the above [Equation 7] and [Equation 8], the original frequency component Al (1, j) or the like is used as Al ′ (1, j) or the like.

〔数式10〕
Xl´(i)=1/N・{ΣjAl´(1,j)・cos(2πij/N)−ΣjBl´(1,j)・sin(2πij/N)}+1/N・{ΣjAl´(2,j)・cos(2πij/N)−ΣjBl´(2,j)・sin(2πij/N)}+1/N・{ΣjAl´(3,j)・cos(2πij/N)−ΣjBl´(3,j)・sin(2πij/N)}+Xlp(i+N/2)
Xr´(i)=1/N・{ΣjAr´(1,j)・cos(2πij/N)−ΣjBr´(1,j)・sin(2πij/N)}+1/N・{ΣjAr´(2,j)・cos(2πij/N)−ΣjBr´(2,j)・sin(2πij/N)}+1/N・{ΣjAr´(3,j)・cos(2πij/N)−ΣjBr´(3,j)・sin(2πij/N)}+Xrp(i+N/2)
[Formula 10]
Xl' (i) = 1 / N · {Σ j Al' (1, j) · cos (2πij / N) -Σ j Bl' (1, j) · sin (2πij / N)} + 1 / N · { Σ j Al ′ (2, j) · cos (2πij / N) −Σ j Bl ′ (2, j) · sin (2πij / N)} + 1 / N · {Σ j Al ′ (3, j) · cos (2πij / N) −Σ j Bl ′ (3, j) · sin (2πij / N)} + Xlp (i + N / 2)
Xr' (i) = 1 / N · {Σ j Ar' (1, j) · cos (2πij / N) -Σ j Br' (1, j) · sin (2πij / N)} + 1 / N · { Σ j Ar' (2, j) · cos (2πij / N) -Σ j Br' (2, j) · sin (2πij / N)} + 1 / N · {Σ j Ar' (3, j) · cos (2πij / N) -Σ j Br' (3, j) · sin (2πij / N)} + Xrp (i + N / 2)

上記〔数式10〕においては、式が繁雑になるのを防ぐため、Σj=0,,N-1をΣjとして示している。上記〔数式10〕における第1式の“+Xlp(i+N/2)”、第2式の“+Xrp(i+N/2)”の項は、直前に改変された改変音響フレームのデータXlp(i)、Xrp(i)が存在する場合に、時間軸上N/2サンプル分重複することを考慮して加算するためのものである。上記〔数式10〕によりAタイプの改変音響フレームの左チャンネルの各サンプルXl´(i)、右チャンネルの各サンプルXr´(i)、が得られることになる。 In the above [Expression 10], Σ j = 0, ... , N−1 is shown as Σ j in order to prevent the expression from becoming complicated. The terms “+ Xlp (i + N / 2)” in the first equation and “+ Xrp (i + N / 2)” in the second equation in the above [Equation 10] indicate the data Xlp (i) of the modified acoustic frame modified immediately before, When Xrp (i) exists, the addition is performed in consideration of the overlap of N / 2 samples on the time axis. By the above [Equation 10], each sample Xl ′ (i) of the left channel and each sample Xr ′ (i) of the right channel of the A type modified acoustic frame are obtained.

Bタイプの音響フレームに対しては、周波数逆変換手段40は、上記〔数式9〕により得られたスペクトルの左チャンネルの実部Al´(4,j)、虚部Bl´(4,j)、右チャンネルの実部Ar´(4,j)、虚部Br´(4,j)を用いて、以下の〔数式11〕に従った処理を行い、Xl´(i)、Xr´(i)を算出する。なお、上記〔数式9〕において改変されていない周波数成分については、以下の〔数式11〕においてはAl´(4,j)、Bl´(4,j)、Ar´(4,j)、Br´(4,j)として、元の値であるAl(4,j)、Bl(4,j)、Ar(4,j)、Br(4,j)を用いる。   For the B type acoustic frame, the frequency inverse transform means 40 performs real part Al ′ (4, j) and imaginary part Bl ′ (4, j) of the left channel of the spectrum obtained by the above [Equation 9]. , Using the real part Ar ′ (4, j) and the imaginary part Br ′ (4, j) of the right channel, the processing according to the following [Equation 11] is performed, and Xl ′ (i), Xr ′ (i ) Is calculated. For frequency components that are not modified in the above [Equation 9], in the following [Equation 11], Al ′ (4, j), Bl ′ (4, j), Ar ′ (4, j), Br The original values Al (4, j), Bl (4, j), Ar (4, j), and Br (4, j) are used as ′ (4, j).

〔数式11〕
Xl´(i)=1/N・{ΣjAl´(4,j)・cos(2πij/N)−ΣjBl´(4,j)・sin(2πij/N)}+Xlp(i+N/2)
Xr´(i)=1/N・{ΣjAr´(4,j)・cos(2πij/N)−ΣjBr´(4,j)・sin(2πij/N)}+Xrp(i+N/2)
[Formula 11]
Xl' (i) = 1 / N · {Σ j Al' (4, j) · cos (2πij / N) -Σ j Bl' (4, j) · sin (2πij / N)} + Xlp (i + N / 2 )
Xr' (i) = 1 / N · {Σ j Ar' (4, j) · cos (2πij / N) -Σ j Br' (4, j) · sin (2πij / N)} + Xrp (i + N / 2 )

上記〔数式11〕によりBタイプの改変音響フレームの左チャンネルの各サンプルXl´(i)、右チャンネルの各サンプルXr´(i)、が得られることになる。   By the above [Equation 11], each sample Xl ′ (i) of the left channel and each sample Xr ′ (i) of the right channel of the B type modified acoustic frame are obtained.

改変音響フレーム出力手段50は、周波数逆変換手段40の処理により得られたAタイプの改変音響フレーム、Bタイプの改変音響フレームを順次出力ファイルに出力する。   The modified sound frame output unit 50 sequentially outputs the A type modified sound frame and the B type modified sound frame obtained by the processing of the frequency inverse transform unit 40 to an output file.

次に、図1に示した音響信号に対する情報の埋め込み装置の処理の全体的な流れを、図4のフローチャートに従って説明する。図1に示した装置を構成する各構成要素は、連携して図4に従った処理を実行する。図4は、付加情報1ワード分の処理に対応したものとなっている。1ワードとしては、任意のビット数に設定することができるが、上述のように、本実施形態では実質7ビットに設定されている。また、情報の埋め込みは、Aタイプの音響フレームに対して行われるので、図4は、Aタイプの音響フレームについての説明となっている。Bタイプの音響フレームについては、Aタイプの音響フレームと並行して、音響フレーム読込手段10により読み込まれ、窓関数W(4,i)を利用して周波数変換手段20により周波数変換された後、周波数成分変更手段30により〔数式9〕に従った処理により周波数成分が変更され、周波数逆変換手段40により周波数逆変換された後、改変音響フレーム出力手段50により出力される。   Next, the overall flow of processing of the information embedding device for the acoustic signal shown in FIG. 1 will be described with reference to the flowchart of FIG. Each component which comprises the apparatus shown in FIG. 1 cooperates, and performs the process according to FIG. FIG. 4 corresponds to processing of one word of additional information. One word can be set to an arbitrary number of bits, but as described above, in this embodiment, it is set to substantially 7 bits. Further, since information embedding is performed on an A type acoustic frame, FIG. 4 illustrates the A type acoustic frame. The B type acoustic frame is read by the acoustic frame reading means 10 in parallel with the A type acoustic frame, and is frequency converted by the frequency converting means 20 using the window function W (4, i). The frequency component is changed by the processing according to [Equation 9] by the frequency component changing means 30, and the frequency is inversely converted by the frequency inverse converting means 40, and then output by the modified acoustic frame output means 50.

図4においては、まず、ビット配列作成手段70は、付加情報記憶部62から抽出した付加情報に対して所定の処理を施し新たなビット配列を作成する(S101)。具体的には、まず、付加情報記憶部62から1ワード(7ビット)単位で抽出し、これにパリティビットを1ビット付加して8ビットとする。そして、この8ビットの連続する2つのビットの排他的論理和を値とするビットを、交互に順序を入れ替えて8ビット配置し、16ビットのビット配列を作成する。この処理によるビット配列の変化の様子を図5に示す。図5(a)は、パリティビット付加後のビット配列を示している。図5(a)において、第8ビットはパリティビットである。このような場合、まず、第1〜第8ビットの排他的論理和となる検査符号の列を求め、さらに、排他的論理和で得られた各ビットを先頭から交互に入れ替えたビット列を第9ビット〜第16ビットとする新たなビット配列を作成する。この結果、図5(b)に示すような配列となる。   In FIG. 4, first, the bit array creation means 70 performs a predetermined process on the additional information extracted from the additional information storage unit 62 to create a new bit array (S101). Specifically, first, it is extracted from the additional information storage unit 62 in units of 1 word (7 bits), and 1 bit of parity bit is added thereto to make 8 bits. Then, the bits having the value of the exclusive OR of two consecutive 8 bits are alternately arranged in 8 bits to create a 16-bit bit array. FIG. 5 shows how the bit arrangement is changed by this processing. FIG. 5A shows a bit arrangement after adding parity bits. In FIG. 5A, the eighth bit is a parity bit. In such a case, first, a check code string that is an exclusive OR of the first to eighth bits is obtained, and a bit string obtained by alternately replacing each bit obtained by the exclusive OR from the beginning is the ninth. A new bit array having bits to 16th bits is created. As a result, the arrangement as shown in FIG.

検査符号P1〜P8は、図5(c)に示したように定義される。すなわち、検査符号P1は、ビットD1とD2の排他的論理和として算出される。検査符号P2は、ビットD3とD4の排他的論理和として算出される。検査符号P3は、ビットD5とD6の排他的論理和として算出される。検査符号P4は、ビットD7とD8の排他的論理和として算出される。検査符号P5は、ビット値“1”とビットD1の排他的論理和として算出される。検査符号P6は、ビット値“1”とビットD3の排他的論理和として算出される。検査符号P7は、ビット値“1”とビットD5の排他的論理和として算出される。検査符号P8は、ビット値“1”とビットD7の排他的論理和として算出される。したがって、ビット配列作成手段70は、S101において、図5(c)に示した定義に従って図5(b)に示したような16ビットのビット配列を作成することになる。そして、この16ビットが、音響信号に対する情報の埋め込み装置として用いられるコンピュータ内のレジスタに読み込まれることになる。このように、付加情報記憶部62においては、1ワードは7ビットであるが、埋め込み処理時は、この16ビットの配列で、付加情報内の1ワード分の処理を行う。このように作成されたビット配列のうち、前半のビット列を前半ビット列、後半のビット列を後半ビット列と呼ぶことにする。   The inspection codes P1 to P8 are defined as shown in FIG. That is, the check code P1 is calculated as an exclusive OR of the bits D1 and D2. The check code P2 is calculated as an exclusive OR of the bits D3 and D4. The check code P3 is calculated as an exclusive OR of the bits D5 and D6. The check code P4 is calculated as an exclusive OR of the bits D7 and D8. The check code P5 is calculated as an exclusive OR of the bit value “1” and the bit D1. The check code P6 is calculated as an exclusive OR of the bit value “1” and the bit D3. The check code P7 is calculated as an exclusive OR of the bit value “1” and the bit D5. The check code P8 is calculated as an exclusive OR of the bit value “1” and the bit D7. Therefore, the bit array creation means 70 creates a 16-bit bit array as shown in FIG. 5B in S101 according to the definition shown in FIG. 5C. These 16 bits are read into a register in a computer used as an information embedding device for an acoustic signal. Thus, in the additional information storage unit 62, one word is 7 bits, but at the time of embedding processing, processing for one word in the additional information is performed with this 16-bit array. In the bit array thus created, the first half bit string is referred to as the first half bit string, and the second half bit string is referred to as the second half bit string.

次に、周波数成分変更手段30が、レジスタに保持された16ビットから1ビットを読み込む処理を行う(S102)。続いて、音響フレーム読込手段10が、音響信号記憶部61に記憶されたステレオ音響信号の左右の各チャンネルから、それぞれ所定数のサンプルを1音響フレームとして読み込む(S103)。続いて、周波数変換手段20および周波数成分変更手段30が、音響フレームの周波数成分の状態を“状態1”、“状態2”のいずれかに変更する処理を行う(S104)。具体的には、まず、読み込んだ音響フレームに対して、周波数変換を行って、その音響フレームのスペクトルであるフレームスペクトルを得る。すなわち、各音響フレームについて、3つの窓関数W(1,i)、W(2,i)、W(3,i)を用いて、上記〔数式5〕に従った処理を行う。そして、周波数成分変更手段30は、ビット配列作成手段70から受け取った値1、値2に応じて上記〔数式7〕〔数式8〕に従った処理を実行し、変更対象周波数帯の成分の状態を“状態1”、“状態2”のいずれかに変更する。   Next, the frequency component changing unit 30 performs a process of reading 1 bit from 16 bits held in the register (S102). Subsequently, the acoustic frame reading means 10 reads a predetermined number of samples as one acoustic frame from each of the left and right channels of the stereo acoustic signal stored in the acoustic signal storage unit 61 (S103). Subsequently, the frequency converting unit 20 and the frequency component changing unit 30 perform processing for changing the state of the frequency component of the acoustic frame to either “state 1” or “state 2” (S104). Specifically, first, frequency conversion is performed on the read sound frame to obtain a frame spectrum that is a spectrum of the sound frame. That is, for each acoustic frame, the processing according to [Formula 5] is performed using the three window functions W (1, i), W (2, i), and W (3, i). Then, the frequency component changing unit 30 executes processing according to the above [Formula 7] and [Formula 8] according to the value 1 and the value 2 received from the bit array creating unit 70, and the state of the component of the frequency band to be changed Is changed to either “state 1” or “state 2”.

次に、周波数逆変換手段40が、上記S104の処理により各窓成分のスペクトル集合間の割合が変更されたフレームスペクトルを周波数逆変換して改変音響フレームを得る処理を行う(S105)。この周波数逆変換は、当然のことながら、周波数変換手段20がS104において実行した手法に対応していることが必要となる。本実施形態では、周波数変換手段20において、フーリエ逆変換を施しているため、周波数逆変換手段40は、フーリエ逆変換を実行することになる。具体的には、上記〔数式7〕〔数式8〕のいずれかにより得られたスペクトルの左チャンネルの実部Al´(1,j)等、虚部Bl´(1,j)等、右チャンネルの実部Ar´(1,j)等、虚部Br´(1,j)等を用いて、上記〔数式10〕に従った処理を行い、Xl´(i)、Xr´(i)を算出する。   Next, the frequency inverse transform means 40 performs the process of obtaining the modified acoustic frame by performing the frequency inverse transform on the frame spectrum in which the ratio between the spectrum sets of each window component is changed by the process of S104 (S105). As a matter of course, this frequency inverse transform needs to correspond to the method executed by the frequency converter 20 in S104. In the present embodiment, since the frequency transform unit 20 performs the inverse Fourier transform, the frequency inverse transform unit 40 performs the inverse Fourier transform. Specifically, the real channel Al ′ (1, j), etc., the imaginary part Bl ′ (1, j), etc. of the left channel of the spectrum obtained by any of the above [Equation 7] and [Equation 8], the right channel. Using the real part Ar ′ (1, j), etc., the imaginary part Br ′ (1, j), etc., the processing according to the above [Equation 10] is performed, and Xl ′ (i), Xr ′ (i) calculate.

改変音響フレーム出力手段50は、得られた改変音響フレームを順次出力ファイルに出力する。こうして1つの音響フレームに対する処理を終えたら、周波数成分変更手段30がビット配列中の次の1ビットを読み込む(S102)。以上のような処理を音響信号の両チャンネルの全サンプルに渡って実行していく。すなわち、所定数のサンプルを音響フレームとして読み込み、音響信号から読み込むべき音響フレームがなくなったら(S103)、処理を終了する。なお、S101において読み込んだ1ワード分のビット配列(16ビット)の各ビットに対応する処理を終えた場合、S102からS101に戻り、付加情報の次の7ビットを読み込んで16ビットのビット配列を作成する処理を行うことになる。付加情報の全ワードに対して処理が終了した場合は、付加情報の先頭ワードに戻って処理を行う。この結果、全ての音響フレームに対して処理を行った全ての改変音響フレームが出力ファイルに記録されて、改変音響信号として得られる。得られた改変音響信号は、記憶手段60内の改変音響信号記憶部63に出力され、記憶される。   The modified sound frame output means 50 sequentially outputs the obtained modified sound frames to an output file. When the processing for one acoustic frame is completed in this way, the frequency component changing means 30 reads the next 1 bit in the bit array (S102). The above processing is executed over all samples of both channels of the acoustic signal. That is, a predetermined number of samples are read as sound frames, and when there are no more sound frames to be read from the sound signal (S103), the process ends. When the processing corresponding to each bit of the bit arrangement (16 bits) for one word read in S101 is completed, the process returns from S102 to S101, the next 7 bits of the additional information are read, and the 16-bit bit arrangement is changed. The process to create will be performed. When the processing is completed for all the words of the additional information, the processing returns to the first word of the additional information. As a result, all modified acoustic frames that have been processed for all acoustic frames are recorded in the output file and obtained as modified acoustic signals. The obtained modified acoustic signal is output to and stored in the modified acoustic signal storage unit 63 in the storage unit 60.

なお、本実施形態では、付加情報を1ワード7ビットとし、パリティの1ビットを付加した後、検査符号を加えて16ビットとして、付加情報1ワード分の処理をする場合について説明したが、抽出側と取り決めがある限り、付加情報の1ワードを任意のビット数単位で記録することが可能である。   In this embodiment, additional information is set to 7 bits per word, 1 bit of parity is added, a check code is added to 16 bits, and processing is performed for 1 word of additional information. As long as there is an agreement with the side, it is possible to record one word of additional information in an arbitrary number of bits.

上記のようにして得られた改変音響信号の左チャンネルのうち、付加情報が埋め込まれている部分については、変更対象周波数帯の成分は、上記状態1、状態2の2通りの分布しかないことになる。しかし、変更対象周波数帯の成分以外については、元の音響信号のままであるので、制作者の設定に基づいた種々な分布になる。また、上記〔数式7〕〔数式8〕の処理からも明らかなように、左チャンネルにおいて変化させられた変更対象周波数帯の成分は、必ず右チャンネルの変更対象周波数帯の成分に付加され、逆に、右チャンネルにおいて変化させられた変更対象周波数帯の成分は、必ず左チャンネルの変更対象周波数帯の成分に付加されている。したがって、左右のチャンネルがた互いに削除された成分を補っているため、両チャンネル全体として見ると、信号の劣化がない。   Of the left channel of the modified acoustic signal obtained as described above, with respect to the portion where the additional information is embedded, the component of the change target frequency band has only two distributions of the state 1 and the state 2 described above. become. However, since the components other than the component of the frequency band to be changed remain as the original acoustic signals, various distributions are made based on the setting of the producer. Further, as is apparent from the processing of [Formula 7] and [Formula 8], the component of the change target frequency band changed in the left channel is always added to the component of the change target frequency band of the right channel, and vice versa. In addition, the component of the change target frequency band changed in the right channel is always added to the component of the change target frequency band of the left channel. Accordingly, since the left and right channels supplement each other with the components deleted from each other, there is no signal degradation when viewed as both channels as a whole.

(2.1.抽出装置の構成)
次に、本発明に係る音響信号からの情報の抽出装置について説明する。図6は、本発明に係る音響信号からの情報の抽出装置の一実施形態を示す構成図である。図6において、100は音響信号入力手段、110は基準フレーム獲得手段、120は位相変更フレーム設定手段、130は周波数変換手段、140は符号判定パラメータ算出手段、150は符号出力手段、160は付加情報抽出手段、170は音響フレーム保持手段である。
(2.1. Configuration of extraction device)
Next, an apparatus for extracting information from an acoustic signal according to the present invention will be described. FIG. 6 is a block diagram showing an embodiment of an apparatus for extracting information from an acoustic signal according to the present invention. In FIG. 6, 100 is an acoustic signal input unit, 110 is a reference frame acquisition unit, 120 is a phase change frame setting unit, 130 is a frequency conversion unit, 140 is a code determination parameter calculation unit, 150 is a code output unit, and 160 is additional information. Extraction means 170 is an acoustic frame holding means.

音響信号入力手段100は、流れている音声をデジタル音響信号として取得し、入力する機能を有している。現実には、マイクロフォンおよびA/D変換器により実現される。マイクロフォンとしては、変更対象周波数帯の成分が検出可能なものであれば、モノラル無指向性のものであっても、ステレオ指向性のものであっても使用可能である。ステレオ指向性のものであっても一方のチャンネルだけ利用すれば良い。また、図1に示した装置で情報の埋め込みを行った場合には、特別精度の高いものでなく、一般的な精度のマイクロフォンを用いても情報の抽出が可能となる。基準フレーム獲得手段110は、入力されたデジタルのモノラル音響信号(あるいはステレオ音響信号の1チャンネル)から所定数のサンプルで構成される音響フレームを基準フレームとして読み込む機能を有している。位相変更フレーム設定手段120は、基準フレームと所定サンプルずつ移動させることにより位相を変更した音響フレームを位相変更フレームとして設定する機能を有している。周波数変換手段130は、図1に示した周波数変換手段20と同様の機能を有している。   The acoustic signal input unit 100 has a function of acquiring and inputting a flowing sound as a digital acoustic signal. In reality, it is realized by a microphone and an A / D converter. Any microphone can be used, regardless of whether it is monaural omnidirectional or stereo directional, as long as the component in the frequency band to be changed can be detected. Even if it is stereo-directional, only one channel needs to be used. Further, when information is embedded by the apparatus shown in FIG. 1, the information can be extracted even if a microphone with a general accuracy is used instead of a high accuracy. The reference frame acquisition unit 110 has a function of reading an audio frame composed of a predetermined number of samples as a reference frame from the input digital monaural audio signal (or one channel of a stereo audio signal). The phase change frame setting means 120 has a function of setting, as a phase change frame, an acoustic frame whose phase has been changed by moving the reference frame and a predetermined sample at a time. The frequency conversion means 130 has the same function as the frequency conversion means 20 shown in FIG.

符号判定パラメータ算出手段140は、生成されたスペクトルから所定の周波数範囲に相当するスペクトル集合を抽出し、各スペクトル集合の強度値E1q〜E4qを以下の〔数式12〕に基づいて、q=1〜Qに対応してQセット算出する。また、各要素jに対応する成分の強度値を利用して符号判定パラメータC1q〜C4qを同様にQセット算出し、この符号判定パラメータC1q〜C4qのq=1〜Qにおける総和値の大小関係に基づいて、所定の状態であると判断する機能を有している。   The code determination parameter calculation unit 140 extracts a spectrum set corresponding to a predetermined frequency range from the generated spectrum, and calculates the intensity values E1q to E4q of each spectrum set based on the following [Equation 12] from q = 1 to 1. Q set is calculated corresponding to Q. Similarly, the code determination parameters C1q to C4q are calculated in Q sets using the intensity values of the components corresponding to the respective elements j, and the magnitude relationship of the sum values of q = 1 to Q of the code determination parameters C1q to C4q is calculated. Based on this, it has a function of determining that it is in a predetermined state.

〔数式12〕
E1q=Σj=m+2P(q-1),…,m+2P(q-1)+P-1{Al(1,j)2+Bl(1,j)2}・F(j−m−2P(q−1))・(αj)2
E2q=Σj=m+2P(q-1),…,m+2P(q-1)+P-1{Al(3,j)2+Bl(3,j)2}・F(j−m−2P(q−1))・(αj)2
E3q=Σj=m+2P(q-1)+P,…,m+2P(q-1)+2P-1{Al(1,j)2+Bl(1,j)2}・F(j−m−P−2P(q−1))・(αj)2
E4q=Σj=m+2P(q-1)+P,…,m+2P(q-1)+2P-1{Al(3,j)2+Bl(3,j)2}・F(j−m−P−2P(q−1))・(αj)2
[Formula 12]
E1q = Σj = m + 2P (q-1), ..., m + 2P (q-1) + P-1 {Al (1, j) 2 + Bl (1, j) 2 } .F (j-m -2P (q-1)). (Αj) 2
E2q = Σ j = m + 2P (q-1), ..., m + 2P (q-1) + P-1 {Al (3, j) 2 + Bl (3, j) 2 } · F (j−m -2P (q-1)). (Αj) 2
E3q = Σj = m + 2P (q-1) + P, ..., m + 2P (q-1) + 2P-1 {Al (1, j) 2 + Bl (1, j) 2 } · F (j -M-P-2P (q-1)). (Αj) 2
E4q = Σ j = m + 2P (q-1) + P, ..., m + 2P (q-1) + 2P-1 {Al (3, j) 2 + Bl (3, j) 2 } · F (j -M-P-2P (q-1)). (Αj) 2

上記〔数式12〕において、(αj)2、F(j−m−2P(q−1))は共に各jに対応するスペクトル要素を補正するために用いられる関数である。このうち、(αj)2は、一般的には(αf)βで表現される補正関数であり、β=2.0とした場合を示している。なお、jは周波数fに比例する値であるため、〔数式12〕においては、周波数fに代えてjが用いられる。ここで、音響信号の周波数とエネルギー分布の関係を図7に示す。図7に示すように、音響信号のエネルギー分布は、周波数fの2乗に比例して下がる傾向にある。このため、高周波成分について、情報が埋め込まれているかどうかの判断を行う際、低周波成分よりも信号強度が大きくなるように補正した方が、誤判断が生じ難くなる。そこで、本発明では、補正関(αf)βにより補正した強度値E1q〜E4qを求めるのである。また、αは1以下の実数定数であり、本実施形態では、α=0.178・(512/N)である。F(j−m−2P(q−1))は、以下の〔数式13〕で定義される周波数方向窓関数F(j)において、各周波数領域の下限値m+2P(q−1)分補正したものである。これらの関数は、各スペクトル要素に対して作用するが、スペクトル集合の強度の算出にあたり、上記〔数式12〕では、各スペクトル要素の強度の総和を求めるため、その総和に作用させる形式となっている。 In the above [Equation 12], (αj) 2 and F (j−m−2P (q−1)) are both functions used to correct the spectral elements corresponding to each j. Among these, (αj) 2 is a correction function generally expressed by (αf) β , and shows a case where β = 2.0. Since j is a value proportional to the frequency f, in [Equation 12], j is used instead of the frequency f. Here, the relationship between the frequency of the acoustic signal and the energy distribution is shown in FIG. As shown in FIG. 7, the energy distribution of the acoustic signal tends to decrease in proportion to the square of the frequency f. For this reason, when it is determined whether or not information is embedded in the high frequency component, it is more difficult to make an erroneous determination if the signal intensity is corrected to be larger than that of the low frequency component. Therefore, in the present invention, the intensity values E1q to E4q corrected by the correction function (αf) β are obtained. In addition, α is a real number constant of 1 or less, and in this embodiment, α = 0.178 · (512 / N). F (j−m−2P (q−1)) is corrected by the lower limit m + 2P (q−1) of each frequency region in the frequency direction window function F (j) defined by the following [Equation 13]. Is. Although these functions act on each spectral element, in calculating the intensity of the spectrum set, the above [Equation 12] calculates the total sum of the intensities of each spectral element, so that it acts on the sum. Yes.

〔数式13〕
0≦j<P/8のときF(j)=0.5j2/(P/8)2
P/8≦j<P/4のときF(j)=1.0−0.5・(j−P/4)2/(P/8)2
P/4≦j<3P/4のときF(j)=1.0
3P/4≦j<7P/8のときF(j)=1.0−0.5・(j−3P/4)2/(P/8)2
7P/8≦j<PのときF(j)=0.5(P−j)2/(P/8)2
[Formula 13]
When 0 ≦ j <P / 8, F (j) = 0.5j 2 / (P / 8) 2
When P / 8 ≦ j <P / 4, F (j) = 1.0−0.5 · (j−P / 4) 2 / (P / 8) 2
When P / 4 ≦ j <3P / 4, F (j) = 1.0
When 3P / 4 ≦ j <7P / 8, F (j) = 1.0−0.5 · (j−3P / 4) 2 / (P / 8) 2
When 7P / 8 ≦ j <P, F (j) = 0.5 (P−j) 2 / (P / 8) 2

上記〔数式13〕において、Pは所定周波数帯におけるスペクトル集合の成分数を示し、P=(M−m)/(2Q)である。ここで、周波数方向窓関数F(j)、補正関数(αj)2のグラフを図8に示す。上記〔数式12〕においては、jがmからm+P−1、m+PからM−1のそれぞれP個の各スペクトル要素に対して、周波数方向窓関数F(j)、補正関数(αj)2が乗じられることになる。また、周波数方向窓関数F(j)のさらに詳細なグラフを図9に示す。図9と上記〔数式13〕を対比するとわかるように、周波数方向窓関数F(j)は、jの値により5つに区分されており、特にj<P/8の場合とj≧7P/8のときに、値が小さくなる。このため、周波数方向窓関数F(j)は、所定周波数帯を周波数方向に複数に区分してスペクトル集合を抽出する場合に、低周波成分側のスペクトル集合と高周波成分側のスペクトル集合を明確に区別するのに役立つ。 In the above [Formula 13], P indicates the number of components of the spectrum set in the predetermined frequency band, and P = (M−m) / (2Q). Here, a graph of the frequency direction window function F (j) and the correction function (αj) 2 is shown in FIG. In the above [Equation 12], the frequency direction window function F (j) and the correction function (αj) 2 are multiplied for each of the P spectral elements, where j is m to m + P−1 and m + P to M−1. Will be. A more detailed graph of the frequency direction window function F (j) is shown in FIG. As can be seen from a comparison between FIG. 9 and the above [Equation 13], the frequency direction window function F (j) is divided into five according to the value of j, and particularly when j <P / 8 and j ≧ 7P /. When the value is 8, the value decreases. For this reason, when the frequency direction window function F (j) extracts a spectrum set by dividing a predetermined frequency band into a plurality of frequency directions, the spectrum set on the low frequency component side and the spectrum set on the high frequency component side are clearly defined. Help to distinguish.

また、符号判定パラメータ算出手段140は、j=m+2P(q−1),…,m+2P(q−1)+P−1のP個の要素の中で、Al(1,j)2+Bl(1,j)2>Al(3,j)2+Bl(3,j)2を満たす要素の個数を符号判定パラメータC1qとして算出し、P−C1qを符号判定パラメータC2qとして算出する。また、j=m+2P(q−1)+P,…,m+2P(q−1)+2P−1のP個の要素の中で、Al(1,j)2+Bl(1,j)2>Al(3,j)2+Bl(3,j)2を満たす要素の個数を符号判定パラメータC3qとして算出し、P−C3qを符号判定パラメータC4qとして算出する。 In addition, the sign determination parameter calculation unit 140 includes Al (1, j) 2 + Bl (1, j = m + 2P (q−1),..., M + 2P (q−1) + P−1. j) The number of elements satisfying 2 > Al (3, j) 2 + Bl (3, j) 2 is calculated as the code determination parameter C1q, and P−C1q is calculated as the code determination parameter C2q. In addition, among P elements of j = m + 2P (q−1) + P,..., M + 2P (q−1) + 2P−1, Al (1, j) 2 + Bl (1, j) 2 > Al (3 , J) 2 + Bl (3, j) 2 is calculated as the code determination parameter C3q, and P−C3q is calculated as the code determination parameter C4q.

符号出力手段150は、1つの基準フレームに対応する音響フレーム(基準フレームおよび位相変更フレーム)の中から最適な位相であると判断されるものを判断し、その音響フレームの状態に対応する符号を出力する機能を有している。符号判定パラメータ算出手段140と符号出力手段150により符号化手段が構成される。付加情報抽出手段160は、符号出力手段150により出力された2値の配列を、所定の規則により変換して意味のある付加情報として抽出する機能を有している。音響フレーム保持手段170は、連続する2個の基準フレームを保持可能なバッファメモリである。図6に示した各構成手段は、現実には情報処理機能を有する小型のコンピュータおよびその周辺機器等のハードウェアに専用のプログラムを搭載することにより実現される。特に、本発明の目的をより簡易に達成するためには、携帯電話機等の携帯型端末装置をハードウェアとして用いることが望ましい。なお、携帯電話機等の携帯型端末装置であっても、演算処理機能を有するものは、コンピュータの一種である。   The code output means 150 determines what is determined to be the optimum phase from the acoustic frames (reference frame and phase change frame) corresponding to one reference frame, and selects a code corresponding to the state of the acoustic frame. It has a function to output. The code determination parameter calculation unit 140 and the code output unit 150 constitute an encoding unit. The additional information extraction unit 160 has a function of converting the binary array output by the code output unit 150 according to a predetermined rule and extracting it as meaningful additional information. The acoustic frame holding means 170 is a buffer memory that can hold two consecutive reference frames. Each component shown in FIG. 6 is actually realized by mounting a dedicated program on hardware such as a small computer having an information processing function and its peripheral devices. In particular, in order to more easily achieve the object of the present invention, it is desirable to use a portable terminal device such as a cellular phone as hardware. Note that even a portable terminal device such as a cellular phone is a type of computer having an arithmetic processing function.

(2.2.抽出装置の処理動作)
次に、図6に示した音響信号からの情報の抽出装置の処理動作について説明する。本発明に係る抽出装置は、誤り検査によりエラーを検出した際、エラー訂正を行わない設定とすることもできるし、1ビットのエラー訂正をするものと設定することもできる。ここからは、エラー訂正を行わない設定における抽出装置の処理動作を、図10のフローチャートに従って説明する。まず、本装置では、チャンネルモード、位相判定テーブルS(p)、位相決定ログ、位相確定フラグ、ビットカウンタを初期化する(S200)。チャンネルモードは、情報を抽出する対象とするチャンネルを特定するものであり、初期状態では、“L”に設定する。位相判定テーブルS(p)は、位相を判定するためのテーブルであり、pは0〜5の整数値をとる。初期値はS(p)=0に設定されている。位相決定ログは、1つの基準フレームと5つの位相変更フレームの組ごとに、決定された位相すなわち位相番号pを記録していくものであり、初期状態では0が設定されている。位相確定フラグは、位相が確定しているかどうかを示すフラグであり、初期状態ではOffに設定されている。ビットカウンタについては初期値として0を設定する。
(2.2. Processing operation of extraction device)
Next, the processing operation of the apparatus for extracting information from the acoustic signal shown in FIG. 6 will be described. The extraction apparatus according to the present invention can be set not to perform error correction when an error is detected by error checking, or can be set to perform 1-bit error correction. Hereafter, the processing operation of the extraction apparatus in a setting in which error correction is not performed will be described according to the flowchart of FIG. First, in this apparatus, the channel mode, the phase determination table S (p), the phase determination log, the phase determination flag, and the bit counter are initialized (S200). The channel mode specifies a channel from which information is to be extracted, and is set to “L” in the initial state. The phase determination table S (p) is a table for determining the phase, and p takes an integer value of 0 to 5. The initial value is set to S (p) = 0. The phase determination log records the determined phase, that is, the phase number p for each set of one reference frame and five phase change frames, and 0 is set in the initial state. The phase determination flag is a flag indicating whether or not the phase is fixed, and is set to Off in the initial state. For the bit counter, 0 is set as an initial value.

このように、初期値が設定されている状態で、利用者が流れている音楽について、その楽曲名等の属性情報を知りたいと思った場合、まず、抽出装置に対して、抽出装置としての起動の指示を行う。これは、例えば、抽出装置を携帯電話機等の携帯端末で実現している場合は、所定のボタンを操作することにより実行できる。抽出装置は、指示が入力されると、音響信号入力手段100が、流れている音楽を録音し、デジタル化してデジタル音響信号として入力する。具体的には、無指向性マイクロフォン(または指向性マイクロフォンの一方のチャンネル)から入力される音声を、A/D変換器によりデジタル化する処理を行うことになる。   In this way, when the initial value is set and the user wants to know the attribute information such as the song name of the music that is flowing, first, the extraction device Instruct startup. For example, this can be executed by operating a predetermined button when the extraction device is realized by a mobile terminal such as a mobile phone. When an instruction is input to the extraction device, the acoustic signal input unit 100 records the flowing music, digitizes it, and inputs it as a digital acoustic signal. More specifically, the audio input from the omnidirectional microphone (or one channel of the directional microphone) is digitized by the A / D converter.

続いて、基準フレーム獲得手段110が、音響信号入力手段100から入力された音響信号から、所定数のサンプルで構成される音響フレームを基準フレームとして抽出する(S201)。具体的には、基準フレームを抽出して音響フレーム保持手段170に読み込むことになる。基準フレーム獲得手段110が基準フレームとして読み込む1音響フレームのサンプル数は、図1に示した音響フレーム読込手段10で設定されたものと同一にする必要がある。したがって、本実施形態の場合、基準フレーム獲得手段110は、4096サンプルずつ、順次基準フレームとして読み込んでいくことになる。音響フレーム保持手段170には、上述のように2個の基準フレームが格納可能となっており、新しい基準フレームが読み込まれると、古い基準フレームを破棄するようになっている。したがって、音響フレーム保持手段170には、常に基準フレーム2個分(連続する8192サンプル)が格納されていることになる。   Subsequently, the reference frame acquisition unit 110 extracts an acoustic frame including a predetermined number of samples from the acoustic signal input from the acoustic signal input unit 100 as a reference frame (S201). Specifically, the reference frame is extracted and read into the acoustic frame holding unit 170. The number of samples of one acoustic frame read as the reference frame by the reference frame acquisition unit 110 needs to be the same as that set by the acoustic frame reading unit 10 shown in FIG. Therefore, in the present embodiment, the reference frame acquisition unit 110 sequentially reads 4096 samples as reference frames. The acoustic frame holding means 170 can store two reference frames as described above, and when a new reference frame is read, the old reference frame is discarded. Therefore, the sound frame holding means 170 always stores two reference frames (continuous 8192 samples).

抽出装置で処理する音響フレームは、先頭から途切れることなく隣接して設定される基準フレームと、この基準フレームと位相を変更した位相変更フレームとに分けることができる。基準フレームについては、最初の基準フレームとしてサンプル番号1からサンプル番号4096までを設定したら、次の基準フレームは、サンプル番号4097からサンプル番号8192、さらに次の基準フレームは、サンプル番号8193からサンプル番号12288、というように途切れることなく設定される。そして、各基準フレームについて、1/6フレーム(約683サンプル)ずつ移動した5個の位相変更フレームを設定する。例えば、最初の基準フレームについては、サンプル番号683、1366、2049、2732、3413から始まる4096のサンプルで構成される5個の位相変更フレームが設定されることになる。続いて、周波数変換手段130、符号判定パラメータ算出手段140が、読み込んだ各音響フレームについて、位相を特定した後、埋め込まれている情報を判定し、対応する符号を出力する(S202)。出力される情報の形式は、付加情報が埋め込まれる場合に対応する値1、値2の2通りの形式となる。   The acoustic frame processed by the extraction device can be divided into a reference frame that is set adjacently without interruption from the beginning, and a phase change frame in which the phase is changed. For the reference frame, after setting sample number 1 to sample number 4096 as the first reference frame, the next reference frame is sample number 4097 to sample number 8192, and the next reference frame is sample number 8193 to sample number 12288. It is set without interruption. Then, for each reference frame, five phase change frames moved by 1/6 frame (about 683 samples) are set. For example, for the first reference frame, five phase change frames configured by 4096 samples starting from sample numbers 683, 1366, 2049, 2732, and 3413 are set. Subsequently, the frequency conversion unit 130 and the code determination parameter calculation unit 140 specify the phase of each read sound frame, determine embedded information, and output a corresponding code (S202). The format of the information to be output has two formats of value 1 and value 2 corresponding to the case where the additional information is embedded.

ここで、ステップS202の位相確定および符号判定の詳細を図11のフローチャートに従って説明する。まず、位相確定フラグがOnであるかOffであるかの確認を行う(S301)。位相確定フラグがOnである場合は、位相確定処理(S303〜S309)を行わず、符号判定処理のみを行う(S302)。ただし、初期状態では位相は確定しておらず、位相確定フラグがOffとなっているので、候補符号テーブルの初期化を行う(S303)。候補符号テーブルは、1つの基準フレームおよび5個の位相変更フレームを特定する0〜5の位相番号および、この6個の音響フレームの状態から得られる2値の符号を記録するものである。   Here, details of phase determination and code determination in step S202 will be described with reference to the flowchart of FIG. First, it is confirmed whether the phase determination flag is On or Off (S301). When the phase determination flag is On, the phase determination process (S303 to S309) is not performed, and only the code determination process is performed (S302). However, since the phase is not fixed in the initial state and the phase determination flag is Off, the candidate code table is initialized (S303). The candidate code table records a phase number of 0 to 5 that specifies one reference frame and five phase change frames, and a binary code obtained from the states of the six acoustic frames.

続いて、符号判定パラメータ算出手段140は、符号判定処理を行う(S302)。ここで、符号判定処理の詳細を図12に示す。まず、周波数変換手段130が、読み込んだ各音響フレームに対して、周波数変換を行って各窓スペクトルを得る(S401)。この処理は、図1に示した周波数変換手段20における処理と同様である。ただし、抽出に用いるのは、左チャンネルだけであるので、上記〔数式5〕に従った処理を行い、左チャンネルに対応する変換データの実部Al(1,j)等、虚部Bl(1,j)等を得る。   Subsequently, the code determination parameter calculation unit 140 performs a code determination process (S302). Details of the code determination process are shown in FIG. First, the frequency conversion means 130 performs frequency conversion on each read sound frame to obtain each window spectrum (S401). This process is the same as the process in the frequency conversion means 20 shown in FIG. However, since only the left channel is used for extraction, the processing according to [Formula 5] is performed, and the imaginary part Bl (1) such as the real part Al (1, j) of the conversion data corresponding to the left channel is performed. , J) etc.

上記周波数変換手段130における処理により、周波数に対応した成分であるスペクトルで表現されたフレームスペクトルが得られる。続いて、符号判定パラメータ算出手段140は、符号判定パラメータC1q〜符号判定パラメータC4qを上述のようにして算出した後、符号判定パラメータC1q〜符号判定パラメータC4qを用いて、変更対象周波数帯の成分の状態がどのような状態であるか、すなわち、1ビットの値としてどのような値が埋め込まれていたかを判断する処理を行う(S402)。具体的には、まず、以下の判定処理を実行し、その結果、対応する状態であったと判断し、対応する値を出力する。   By the processing in the frequency conversion means 130, a frame spectrum expressed by a spectrum that is a component corresponding to the frequency is obtained. Subsequently, the code determination parameter calculation unit 140 calculates the code determination parameter C1q to the code determination parameter C4q as described above, and then uses the code determination parameter C1q to the code determination parameter C4q to calculate the component of the frequency band to be changed. Processing is performed to determine what state is, that is, what value is embedded as a 1-bit value (S402). Specifically, first, the following determination processing is executed, and as a result, it is determined that the corresponding state is obtained, and the corresponding value is output.

Σq=1,…,Q(C1q+C4q)>Σq=1,…,Q(C2q+C3q)の場合、“状態1”であると判断し、値1を出力する。
上記以外の場合、“状態2”であると判断し、値2を出力する。
If Σq = 1,..., Q (C1q + C4q)> Σq = 1,..., Q (C2q + C3q), it is determined that the state is “1”, and a value 1 is output.
In cases other than the above, it is determined that the state is “state 2”, and the value 2 is output.

符号判定パラメータ算出手段140は、各音響フレーム単位で、上記判定結果に応じて値1、値2のいずれかを候補符号テーブルB(p)に設定する(S403)。具体的には、値1の場合はB(p)=0とし、値2の場合はB(p)=1とする。   The code determination parameter calculation means 140 sets either value 1 or value 2 in the candidate code table B (p) according to the determination result for each acoustic frame (S403). Specifically, when the value is 1, B (p) = 0, and when the value is 2, B (p) = 1.

また、上記判定の結果、位相pにおける候補符号テーブルB(p)に値1、値2のいずれかを設定した場合には、さらに、以下の〔数式14〕に従って位相判定テーブルS(p)の更新を行う(S404)。   Further, as a result of the above determination, when either value 1 or value 2 is set in the candidate code table B (p) in the phase p, the phase determination table S (p) Update is performed (S404).

〔数式14〕
“状態1”であると判断し、値1を出力した場合、
S(p)←S(p)+Σq=1,…,Q(E1q+E4q−E2q−E3q)
“状態2”であると判断し、値2を出力した場合、
S(p)←S(p)+Σq=1,…,Q(E2q+E3q−E1q−E4q)
[Formula 14]
If it is determined that the status is "1" and the value 1 is output,
S (p) ← S (p) + Σ q = 1,..., Q (E1q + E4q−E2q−E3q)
If it is determined that the status is "2" and the value 2 is output,
S (p) ← S (p) + Σ q = 1,..., Q (E2q + E3q−E1q−E4q)

次に、チャンネルモードがRであるか否かを判断する(S405)。判断の結果、チャンネルモードがRである場合は、符号反転処理を実行する(S406)。すなわち、S403において値1が設定された場合は値2に反転し、S403において値2が設定された場合は値1に反転する。すなわち、候補符号テーブルB(p)を1−B(p)に変更する。S405における判断の結果、チャンネルモードがRでない場合、すなわちチャンネルモードがLである場合は、符号反転処理をせず、S403で設定された値(符号)がそのまま出力される。   Next, it is determined whether or not the channel mode is R (S405). If the channel mode is R as a result of the determination, a sign inversion process is executed (S406). That is, when value 1 is set in S403, the value is inverted to value 2, and when value 2 is set in S403, it is inverted to value 1. That is, the candidate code table B (p) is changed to 1-B (p). As a result of the determination in S405, if the channel mode is not R, that is, if the channel mode is L, the sign inversion process is not performed and the value (sign) set in S403 is output as it is.

ここで、図11のフローチャートに戻って、符号判定パラメータ算出手段140は、候補符号テーブルに、位相pにおいて符号判定処理(S302)で仮決定された符号を保存する(S304)。   Returning to the flowchart of FIG. 11, the code determination parameter calculation unit 140 stores the code temporarily determined in the code determination process (S302) in the phase p in the candidate code table (S304).

続いて、全ての位相番号pに対応する処理を終えたかどうかを判定する(S305)。これは、ある基準フレームに対して全ての位相変更フレームの処理を行ったかどうかを判定している。本実施形態では、pが0〜5までの値をとるので、6回分処理していない場合は、処理していた音響フレームから所定サンプル数ずらして、位相の異なる音響フレームを設定し、S302に戻って処理を繰り返す。なお、p=0の場合が基準フレームであり、p=1〜5の場合が位相変更フレームである。全ての位相番号pに対応する処理を終えた場合は、位相判定テーブルS(p)の値が最大となる位相番号pmaxに対応する位相が最適位相であると判定し、候補符号テーブルB(p)に記録されている符号B(pmax)を出力する(S306)。   Subsequently, it is determined whether or not the processing corresponding to all the phase numbers p has been completed (S305). This determines whether all phase change frames have been processed for a certain reference frame. In this embodiment, since p takes a value from 0 to 5, if the processing is not performed six times, an acoustic frame having a different phase is set by shifting a predetermined number of samples from the acoustic frame being processed. Return and repeat the process. The case where p = 0 is a reference frame, and the case where p = 1 to 5 is a phase change frame. When the processing corresponding to all the phase numbers p is completed, it is determined that the phase corresponding to the phase number pmax having the maximum value in the phase determination table S (p) is the optimum phase, and the candidate code table B (p The code B (pmax) recorded in () is output (S306).

続いて、位相決定ログの更新を行う(S307)。位相決定ログとは、1つの基準フレームと5つの位相変更フレームの組ごとに、決定された位相すなわち位相番号pを記録するものである。そして、位相決定ログを参照して、位相が過去所定回数同一であったかどうかを判断する(S308)。本実施形態では、この回数を10回としている。位相が過去所定回数同一であった場合には、位相確定フラグをOnに設定する(S309)。これにより、同一位相が所定回数続いた場合には、最適位相はpmaxとなる可能性が高いため、位相確定処理(S303〜S309)を行わず、位相番号p=pmaxに対してのみ符号判定処理(S302)を行うことになる。   Subsequently, the phase determination log is updated (S307). The phase determination log records the determined phase, that is, the phase number p for each set of one reference frame and five phase change frames. Then, referring to the phase determination log, it is determined whether or not the phase has been the same a predetermined number of times in the past (S308). In the present embodiment, this number is 10 times. If the phase has been the same a predetermined number of times in the past, the phase determination flag is set to On (S309). As a result, when the same phase continues for a predetermined number of times, the optimum phase is likely to be pmax. Therefore, the phase determination process (S303 to S309) is not performed, and the code determination process is performed only for the phase number p = pmax. (S302) is performed.

再び図10のフローチャートに戻って説明する。位相確定および符号出力が行なわれたら、出力された符号の値に対応する1ビットをバッファに保存する(S203)。次に、ビットカウンタを“1”だけカウントアップする(S204)。   Returning to the flowchart of FIG. When the phase is determined and the code is output, 1 bit corresponding to the output code value is stored in the buffer (S203). Next, the bit counter is incremented by “1” (S204).

次に、ビットカウンタが15以下であるか16以上であるかを判断する(S205)。ビットカウンタが15以下の場合は、S201に戻って、次の基準フレームを抽出する処理を行う。   Next, it is determined whether the bit counter is 15 or less or 16 or more (S205). If the bit counter is equal to or smaller than 15, the process returns to S201 to perform processing for extracting the next reference frame.

ビットカウンタが16以上である場合は、バッファに保存されたビット配列のうちの前半ビット列から検査ビット値を算出する(S206)。具体的には、前半ビット列中の所定の2つのビット、およびビット値“1”と所定のビットの排他的論理和を算出する。これは、埋め込み側で行った検査符号算出のルールに従うことになる。これにより、8個の検査符号が得られる。続いて、算出した検査符号と後半検査符号との照合を行う(S207)。具体的には、S206において排他的論理和として算出された8個の検査符号と、後半検査符号8個をそれぞれ順に照合する。この結果、8個全て一致する場合は完全適合と判断する。また、第1検査符号〜第4検査符号が全て不一致であり、第5検査符号〜第8検査符号が全て一致する場合は完全不適合と判断する。その他の場合は不適合と判断する。S207において不適合と判断された場合は、S201に戻って、次の基準フレームを抽出する処理を行う。   If the bit counter is 16 or more, a check bit value is calculated from the first half bit string in the bit array stored in the buffer (S206). Specifically, an exclusive OR of predetermined two bits in the first half bit string and the bit value “1” and the predetermined bit is calculated. This follows the rule of the check code calculation performed on the embedding side. As a result, eight check codes are obtained. Subsequently, the calculated check code is compared with the latter half check code (S207). Specifically, the eight check codes calculated as the exclusive OR in S206 and the latter half check code are collated in order. As a result, when all the eight pieces match, it is determined that they are perfectly matched. Further, if the first check code to the fourth check code are all inconsistent and the fifth check code to the eighth check code are all in agreement, it is determined that they are completely incompatible. In other cases, it is judged as nonconforming. If it is determined in S207 that it is nonconforming, the process returns to S201 to perform processing for extracting the next reference frame.

S207において完全適合と判断された場合は、付加情報抽出手段160が、前半8ビット中の前7ビットに1ビット付加して出力する(S208)。S207において完全適合であった場合は、バッファ中の先頭の1ビット目が、付加情報内のワードの1ビット目であった可能性が高いことになる。このため、その先頭からの7ビットにビット“0”を付加することによりASCIIコードにおける1ワードとして出力するのである。完全不適合以外の不適合の場合は、照合に用いた前半ビット列が、付加情報内のワードとずれている可能性が高いことになる。この場合は、先頭の1ビットを破棄して、S201からS204の処理により新たな1ビットを得るための処理を行うのである。   If it is determined in S207 that it is a perfect match, the additional information extraction unit 160 adds 1 bit to the previous 7 bits in the first 8 bits and outputs the result (S208). In the case of perfect match in S207, there is a high possibility that the first bit in the buffer is the first bit of the word in the additional information. Therefore, by adding bit “0” to the 7 bits from the head, it is output as one word in the ASCII code. In the case of non-conformity other than complete non-conformity, there is a high possibility that the first half bit string used for collation is shifted from the word in the additional information. In this case, the first 1 bit is discarded, and processing for obtaining a new 1 bit is performed by the processing from S201 to S204.

S207において完全不適合と判断された場合は、全てのビット値を反転させた場合、完全適合となる。この場合は、ワードの先頭から正しく抽出されているが、抽出対象とするチャンネルが逆である場合が考えられる。したがって、この場合は、バッファ内のビットを反転させる(S210)。また、チャンネルが逆であるため、チャンネルモードを変更する(S211)。そして、S210で反転させたバッファ内ビットのうち前7ビットにビット“0”を付加して出力する(S208)。   If it is determined in S207 that it is completely non-conforming, if all the bit values are inverted, it is completely conforming. In this case, the word is correctly extracted from the beginning of the word, but the extraction target channel may be reversed. Therefore, in this case, the bit in the buffer is inverted (S210). Further, since the channel is reversed, the channel mode is changed (S211). Then, a bit “0” is added to the previous 7 bits among the bits in the buffer inverted in S210 and output (S208).

完全適合、完全不適合と判断された場合は、その部分がワードの区切りである可能性が高いので、それが本当に区切りであれば、以降は16ビットずつ抽出すれば、全て正確にワード単位で抽出を行うことができる。逆に、完全適合、完全不適合と判断されたとしても、それが偶然であり、実はワードの区切りではない場合も考えられる。このような場合は、次の検査の際に不適合となる可能性が高く、何回か繰り返しているうちに正しい区切りが正確に判断できることになる。S208において、前7ビットに1ビット付加して出力した場合には、ビットカウンタを0に初期化する(S209)。そして、S201に戻って、次の基準フレームを抽出する処理を行う。   If it is judged as perfect conformity or complete nonconformity, there is a high possibility that the part is a word delimiter, so if it is really a delimiter, then if it is extracted 16 bits at a time, all will be accurately extracted in word units It can be performed. On the other hand, even if it is determined that it is a perfect match or a complete non-conformity, it may be a coincidence and not actually a word break. In such a case, there is a high possibility of nonconformity at the next inspection, and the correct division can be accurately determined after repeating several times. In S208, when 1 bit is added to the previous 7 bits and output, the bit counter is initialized to 0 (S209). Then, the process returns to S201 to perform processing for extracting the next reference frame.

図10に示す処理を各基準フレームに対して実行することにより、付加情報が抽出されることになる。S201において全ての基準フレームが抽出されたと判断された場合には、処理を終了する。   By executing the processing shown in FIG. 10 for each reference frame, additional information is extracted. If it is determined in S201 that all reference frames have been extracted, the process ends.

上記S208の処理において、付加情報抽出手段160は、まず、符号出力手段150により出力された値を、所定の規則により変換して意味のある付加情報として抽出する。所定の規則としては、情報を埋め込む者が意図した情報が受け取った者に認識可能な状態とできるものであれば、さまざまな規則が採用できるが、本実施形態では、ASCIIコードを採用している。すなわち、付加情報抽出手段160は、符号判定パラメータ算出手段140が判定し、符号出力手段150から出力される符号から得られるビット値の配列を1バイト(8ビット)単位で認識し、これをASCIIコードに従って文字情報を認識する。このようにして得られた文字情報は、表示装置(図示省略)の画面に表示出力される。   In the process of S208, the additional information extraction unit 160 first converts the value output by the code output unit 150 according to a predetermined rule and extracts it as meaningful additional information. As the predetermined rule, various rules can be adopted as long as the information intended by the person who embeds the information can be recognized by the recipient. In this embodiment, the ASCII code is adopted. . That is, the additional information extraction unit 160 recognizes the bit value array obtained from the code determined by the code determination parameter calculation unit 140 and output from the code output unit 150 in units of 1 byte (8 bits), and recognizes this as ASCII. Recognizes character information according to the code. The character information thus obtained is displayed and output on a screen of a display device (not shown).

従って、埋め込み装置により音響信号に、その楽曲の曲名やアーチスト等の属性情報を文字情報として埋め込んでおけば、利用者は、その音楽が流れているのを聞いて、その曲名やアーチストを知りたいと思ったときに、抽出装置として機能する自身の携帯端末に所定の操作を行えば、自身の携帯端末の画面に曲名やアーチスト等の属性情報が文字情報として表示されることになる。   Therefore, if the embedding device embeds the attribute information such as the song title or artist in the sound signal as the character information, the user wants to know the song title or artist by listening to the music being played. If a predetermined operation is performed on the mobile terminal that functions as the extraction device, attribute information such as a song title and an artist is displayed as character information on the screen of the mobile terminal.

上記の例では、図10のフローチャートに従ってエラー訂正を行わない設定における抽出装置の処理動作を説明した。エラー訂正を行わない場合は、エラーが生じない場合にのみ、付加情報1ワードの出力が可能となる。   In the above example, the processing operation of the extraction apparatus in a setting in which error correction is not performed has been described according to the flowchart of FIG. When error correction is not performed, it is possible to output one word of additional information only when no error occurs.

次に、1ビットのエラー訂正をする設定における抽出装置の処理動作を、図13のフローチャートに従って説明する。図13においては、図10と同一処理を行う部分が含まれている。そこで、図10と同一処理を行う部分については、同一符号を付して説明を省略する。図13の例においても、まず、初期化処理を行う(S200)。この初期化処理では、図10の例と同様、チャンネルモード、位相判定テーブルS(p)、位相決定ログ、位相確定フラグ、ビットカウンタを初期化するが、さらに、自動訂正モードをOFFにする設定を行う。   Next, the processing operation of the extraction apparatus in a setting for performing 1-bit error correction will be described with reference to the flowchart of FIG. 13 includes a portion that performs the same processing as in FIG. Therefore, portions that perform the same processing as in FIG. Also in the example of FIG. 13, first, initialization processing is performed (S200). In this initialization process, the channel mode, phase determination table S (p), phase determination log, phase determination flag, and bit counter are initialized as in the example of FIG. 10, but the automatic correction mode is set to OFF. I do.

続いて、図10と同様、所定数のサンプルで構成される音響フレームを基準フレームとして抽出した後(S201)、読み込んだ各音響フレームについて、位相を特定した後、埋め込まれている情報を判定し、対応する符号を出力する(S202)。なお、S202の処理については、図11、図12に示したようなものとなる。   Subsequently, as in FIG. 10, after extracting an acoustic frame composed of a predetermined number of samples as a reference frame (S201), after identifying the phase of each read acoustic frame, the embedded information is determined. The corresponding code is output (S202). Note that the processing of S202 is as shown in FIGS.

位相確定および符号出力が行なわれたら、出力された符号の値に対応する1ビットをバッファに保存して(S203)、ビットカウンタを“1”だけカウントアップする(S204)。そして、ビットカウンタが15以下であるか16以上であるかを判断し(S205)、ビットカウンタが15以下の場合は、S201に戻って、次の基準フレームを抽出する処理を行う。   When the phase is determined and the code is output, 1 bit corresponding to the output code value is stored in the buffer (S203), and the bit counter is incremented by "1" (S204). Then, it is determined whether the bit counter is 15 or less or 16 or more (S205). If the bit counter is 15 or less, the process returns to S201 to perform processing for extracting the next reference frame.

ビットカウンタが16以上である場合は、バッファに保存されたビット配列のうちの前半ビット列から検査符号を算出する(S206)。続いて、算出した検査符号と後半検査符号との照合を行う(S207)。S207において、完全適合、完全不適合と判断された場合は、S208におけるビット列の出力処理の直前に、自動訂正モードをONに設定する処理を行う(S212)。   If the bit counter is 16 or more, a check code is calculated from the first half bit string in the bit array stored in the buffer (S206). Subsequently, the calculated check code is compared with the latter half check code (S207). If it is determined in S207 that it is completely conforming or completely incompatibility, processing for setting the automatic correction mode to ON is performed immediately before the bit string output processing in S208 (S212).

S207において不適合と判断された場合は、誤りである前半ビット列中の1ビットが特定できるかどうかを判断する(S213)。具体的には、第1検査符号〜第4検査符号のいずれか1つが不一致の場合、それぞれ第2ビット、第4ビット、第6ビット、第8ビットの誤りと判断でき、第1検査符号と第5検査符号、第2検査符号と第6検査符号、第3検査符号と第7検査符号、第4検査符号と第8検査符号のいずれか1対が不一致の場合、それぞれ第1ビット、第3ビット、第5ビット、第7ビットの誤りと判断できる。誤りの1ビットが特定できない場合は、自動設定モードをOFFに設定する処理を行った後(S214)、S201に戻って、次の基準フレームを抽出する処理を行う。   If it is determined in S207 that it is nonconforming, it is determined whether one bit in the first half bit string which is an error can be specified (S213). Specifically, when any one of the first check code to the fourth check code does not match, it can be determined that the second bit, the fourth bit, the sixth bit, and the eighth bit are errors, respectively, If any one of the fifth check code, the second check code and the sixth check code, the third check code and the seventh check code, the fourth check code and the eighth check code does not match, the first bit, It can be judged as an error of 3 bits, 5th bit and 7th bit. If one error bit cannot be specified, the process of setting the automatic setting mode to OFF is performed (S214), and the process returns to S201 to perform the process of extracting the next reference frame.

S213における判断の結果、誤りの1ビットが特定できた場合は、自動訂正モードがONであるかOFFであるかの判断を行う(S215)。自動訂正モードがOFFである場合は、S201に戻って、次の基準フレームを抽出する処理を行う。   As a result of the determination in S213, if one error bit can be identified, it is determined whether the automatic correction mode is ON or OFF (S215). If the automatic correction mode is OFF, the process returns to S201 to perform processing for extracting the next reference frame.

自動訂正モードがONである場合は、前半ビット列中の特定された誤り1ビットを反転訂正する(S216)。続いて反転訂正したバッファ内ビットのうち前7ビットにビット“0”を付加して出力する(S208)。   If the automatic correction mode is ON, the specified error 1 bit in the first half bit string is inverted and corrected (S216). Subsequently, a bit “0” is added to the previous 7 bits of the in-buffer bits that have been inverted and corrected (S208).

図13の例のように、1ビットのエラー訂正をする設定の場合は、1ビットのエラーが生じた場合であっても、付加情報1ワードの出力が可能となる。   As shown in the example of FIG. 13, in the case of setting for 1-bit error correction, even if a 1-bit error occurs, it is possible to output 1 word of additional information.

(2.3.位相補正処理について)
上記のように、抽出時には、埋め込み時に埋め込んだ音響フレームに対応して、音響信号を読み込むことができるとは限らない。そこで、音響フレームの位相をずらして複数通り(本実施形態では6通り)で読み込み、その中で最適な位相を決定し、その位相で特定される音響フレームに対応する符号を出力することにしている。例えば、6通りで読み込む場合、先頭の音響フレームは、本来サンプル番号1〜4096のサンプルであるが、サンプル番号1、683、1366、2049、2732、3413から始まる4096のサンプルで構成される6個の各音響フレームに対して処理を行い、最適な音響フレームに対応する符号を出力することになる。なお、図11のフローチャートを用いて説明したように、本実施形態では、同一位相が所定回数連続した場合には、それ以降はその位相を確定したものとして処理を行う。
(2.3. About phase correction processing)
As described above, at the time of extraction, it is not always possible to read an acoustic signal corresponding to the acoustic frame embedded at the time of embedding. Therefore, the phase of the acoustic frame is shifted and read in a plurality of ways (six in this embodiment), the optimum phase is determined, and a code corresponding to the acoustic frame specified by the phase is output. Yes. For example, in the case of reading in six ways, the top acoustic frame is originally a sample of sample numbers 1 to 4096, but six pieces composed of 4096 samples starting from sample numbers 1, 683, 1366, 2049, 2732, and 3413 Are processed, and a code corresponding to the optimum acoustic frame is output. As described with reference to the flowchart of FIG. 11, in the present embodiment, when the same phase continues a predetermined number of times, the processing is performed after that phase is determined.

(3.信号成分が小さくても情報の埋め込みを確実に行う手法)
ここまでの説明のように、本発明では、元の信号成分の状態如何にかかわらず、常に変更対象周波数帯の信号成分を変更するものであるが、その成分の大きさは、両チャンネルの信号強度より大きくなることはない。このため、元の信号成分が存在しないか、または小さすぎる場合には、抽出に必要な信号成分が得られないため、情報の抽出を適切に行うことができず抽出エラーとなる。そこで、以下、元の信号成分が小さくても、情報の抽出を適切に行えるように信号の埋め込みを可能とする手法について説明する。
(3. Method of reliably embedding information even if the signal component is small)
As described so far, in the present invention, the signal component of the frequency band to be changed is always changed regardless of the state of the original signal component, but the magnitude of the component is the signal of both channels. There is no greater than strength. For this reason, if the original signal component does not exist or is too small, the signal component necessary for extraction cannot be obtained, and information cannot be appropriately extracted, resulting in an extraction error. Therefore, hereinafter, a method for enabling signal embedding so that information can be appropriately extracted even when the original signal component is small will be described.

従来は、元の信号成分が小さい場合に情報の抽出を適切に行うために、上記特許文献3に示すように、所定の固定値をスペクトル集合中の成分の強度として強制的に与えることにより、情報の埋め込みを可能とした。しかし、この手法では、再生品質に劣化が生ずるという問題がある。そこで、本実施形態では、音響信号に聴取困難な微弱な白色ノイズを重畳させることとした。   Conventionally, in order to appropriately extract information when the original signal component is small, as shown in Patent Document 3, by giving a predetermined fixed value as the intensity of the component in the spectrum set, It was possible to embed information. However, this method has a problem that the reproduction quality is deteriorated. Therefore, in this embodiment, weak white noise that is difficult to hear is superimposed on the acoustic signal.

この場合、図1に示した音響フレーム読込手段10は、所定数のサンプルを1音響フレームとして読み込んだ後、所定の振幅範囲で所定サンプル数単位で同一値を加算または減算する機能を有している。本実施形態では、左チャンネル信号Xl(i)、右チャンネル信号Xr(i)(i=0,…,N−1)に対して、−32〜+32の振幅範囲(Xl(i)、Xr(i)のとり得る値が−32768〜+32767の場合)で一様乱数Hを発生させ、K(本実施形態ではK=5)個のサンプル間は同一値Hを用いて以下の〔数式15〕に示すような処理を実行し、Xl(i)、Xr(i)の値を更新する。   In this case, the acoustic frame reading means 10 shown in FIG. 1 has a function of adding or subtracting the same value in units of a predetermined number of samples within a predetermined amplitude range after reading a predetermined number of samples as one acoustic frame. Yes. In this embodiment, with respect to the left channel signal Xl (i) and the right channel signal Xr (i) (i = 0,..., N−1), an amplitude range of −32 to +32 (Xl (i), Xr ( i) is a value between −32768 to +32767), and a uniform random number H is generated, and the same value H is used between K (K = 5 in the present embodiment) samples as follows: The processing as shown in FIG. 5 is executed to update the values of Xl (i) and Xr (i).

〔数式15〕
Xl(i)←Xl(i)+H
Xr(i)←Xr(i)−H
[Formula 15]
Xl (i) ← Xl (i) + H
Xr (i) ← Xr (i) -H

すなわち、上記〔数式15〕に従った処理をNサンプルに渡って実行することにより、1つの音響フレームに白色ノイズが発生されることになる。この白色ノイズの発生処理は、図4のフローチャートにおいては、S103の音響フレーム抽出処理の直後に行われることになる。   That is, white noise is generated in one acoustic frame by executing the process according to the above [Formula 15] over N samples. The white noise generation process is performed immediately after the acoustic frame extraction process of S103 in the flowchart of FIG.

上記のように、白色ノイズを発生させた場合であっても、抽出側の、音響信号からの情報の抽出装置の構成は図6と同一であり、処理動作は図10〜図13のフローチャートに従ったものと同一である。   As described above, even when white noise is generated, the configuration of the extraction device for extracting information from the acoustic signal on the extraction side is the same as that in FIG. 6, and the processing operation is shown in the flowcharts of FIGS. It is the same as followed.

(4.1音響フレームに多ビットを埋め込む場合)
上記実施形態では、1音響フレームに1ビットを埋め込む場合を例にとって説明したが、1音響フレームに2ビット以上埋め込むようにすることも可能である。次に、このような手法について説明する。
(4.1 When embedding multiple bits in a sound frame)
In the above embodiment, the case where 1 bit is embedded in one acoustic frame has been described as an example, but it is also possible to embed 2 bits or more in one acoustic frame. Next, such a method will be described.

まず、音響フレームの変更対象周波数帯の成分を4つの状態に変更し、2ビットの情報を埋め込む場合について説明する。この場合におけるAタイプの各チャンネル1音響フレームの所定周波数成分の状態を図14に示す。なお、Bタイプの各チャンネル1音響フレームについては、図3に示した場合と同じとなる。図14においても、図3と同様、横軸は時間方向、縦軸は周波数方向を示している。また、網掛けされた部分は、周波数成分が存在している部分を示し、網掛けが濃いほど成分強度が強いことを示している。   First, a case will be described in which the components of the frequency band to be changed of the acoustic frame are changed to four states and 2-bit information is embedded. FIG. 14 shows a state of a predetermined frequency component of each type A channel 1 acoustic frame in this case. The B type channel 1 sound frame is the same as that shown in FIG. Also in FIG. 14, as in FIG. 3, the horizontal axis indicates the time direction, and the vertical axis indicates the frequency direction. A shaded portion indicates a portion where a frequency component exists, and the darker the shade, the stronger the component strength.

図14においても、図3と同様、縦軸の周波数方向において、周波数領域が6つに区分されており、下から2番目〜5番目の領域、すなわち周波数F1以上F2以下の間が変更対象周波数帯であり、最上部すなわち周波数F2超、最下部すなわちF1未満は、変更対象でない周波数帯である。   Also in FIG. 14, as in FIG. 3, the frequency region is divided into six in the frequency direction of the vertical axis, and the second to fifth regions from the bottom, that is, between F1 and F2 is the frequency to be changed. The uppermost band, that is, the frequency above F2, and the lowermost area, that is, less than F1, are frequency bands that are not to be changed.

本実施形態で、符号1を埋め込む場合、図14(b)に示すようにスペクトル集合の強度を変更して “状態1”とする。符号2を埋め込む場合は、図14(c)に示すようにスペクトル集合の強度を変更して“状態2”とする。なお、図14(a)〜図14(c)は、それぞれ図3(a)(c)(d)と全く同じ状態となっている。   In this embodiment, when the code 1 is embedded, the intensity of the spectrum set is changed to “state 1” as shown in FIG. When the code 2 is embedded, the intensity of the spectrum set is changed to “state 2” as shown in FIG. 14A to 14C are in exactly the same state as FIGS. 3A, 3C, and 3D, respectively.

本実施形態で、符号3を埋め込む場合、図14(d)に示すようにスペクトル集合の強度を変更して “状態3”とする。符号4を埋め込む場合は、図14(c)に示すようにスペクトル集合の強度を変更して“状態4”とする。1音響フレームに1ビット埋め込む場合は、図3(c)(d)に示したように、変更対象周波数帯における4つの周波数領域のうち、下から1番目と下から3番目の領域が同一であり、下から2番目と下から4番目の領域が同一になるように変更される。すなわち、下から1番目と2番目の領域、下から3番目と4番目の領域をそれぞれ1つのセットとして、2つのセットが同一となるように変更される。これに対して、1音響フレームに2ビット埋め込む場合は、下から1番目と2番目の領域、下から3番目と4番目の領域をそれぞれ1つのセットとした場合、各セットが異なるように変更される。これにより、多数のパターンが生まれ、多くのビットが埋め込まれることになる。   In this embodiment, when the code 3 is embedded, the intensity of the spectrum set is changed to “state 3” as shown in FIG. When embedding the code 4, the intensity of the spectrum set is changed to “state 4” as shown in FIG. When 1 bit is embedded in one acoustic frame, as shown in FIGS. 3C and 3D, among the four frequency regions in the change target frequency band, the first region from the bottom and the third region from the bottom are the same. Yes, the second area from the bottom and the fourth area from the bottom are changed to be the same. That is, the first and second regions from the bottom and the third and fourth regions from the bottom are each set as one set, and the two sets are changed to be the same. On the other hand, when 2 bits are embedded in one acoustic frame, the first and second areas from the bottom, and the third and fourth areas from the bottom are each set as one set. Is done. This creates a large number of patterns and embeds many bits.

1音響フレームに2ビット埋め込む場合も、埋め込み処理は、図4のフローチャートに従ったものとなる。ただし、S102においては、2ビット読み込み、S104においては、図14(b)〜(e)に示したように、状態1〜状態4のいずれかの状態に設定することになる。   Even when 2 bits are embedded in one acoustic frame, the embedding process follows the flowchart of FIG. However, in S102, 2-bit reading is performed, and in S104, the state is set to any one of states 1 to 4 as shown in FIGS.

1音響フレームに2ビット埋め込む場合も、抽出処理は、図10〜図13のフローチャートに従ったものとなる。ただし、S202においては、値1〜値4のいずれかの出力となり、S204においては、ビットカウンタに2加算となり、S402においては、状態1〜状態4の判定を行なうことになる。S402における状態の判定は、以下の判定処理を実行し、その結果、対応する状態であったと判断し、対応する値を出力する。   Even when 2 bits are embedded in one acoustic frame, the extraction process follows the flowcharts of FIGS. However, in S202, any one of the values 1 to 4 is output. In S204, the bit counter is incremented by 2. In S402, the state 1 to the state 4 are determined. In the determination of the state in S402, the following determination process is executed, and as a result, it is determined that the state is a corresponding state, and a corresponding value is output.

q=1,…,Qごとに、
C1q+C4q>C2q+C3qの場合、ビット値“1”(または“0”)であると判断する。
上記以外の場合、ビット値“0”(または“1”)であると判断する。
For each q = 1, ..., Q,
When C1q + C4q> C2q + C3q, it is determined that the bit value is “1” (or “0”).
Otherwise, it is determined that the bit value is “0” (or “1”).

図14の例では、Q=2であり、変更対象周波数帯のうち、下側の2つの領域(q=1)からビット値が抽出され、変更対象周波数帯のうち、上側の2つの領域(q=2)からビット値が抽出され、これら2ビットの組み合わせに応じてあらかじめ定められた値1〜値4として出力する。   In the example of FIG. 14, Q = 2, the bit value is extracted from the lower two regions (q = 1) in the change target frequency band, and the upper two regions ( A bit value is extracted from q = 2), and is output as a value 1 to a value 4 determined in advance according to the combination of these two bits.

上記図3、図14に示した例では、いずれも変更対象周波数帯であるF1〜F2の間を4つの領域に分けたが、さらに多くの領域に分けることが可能である。ここで、F1〜F2の間を8つに分け、音響フレームの変更対象周波数帯の成分を4つの状態に変更し、2ビットの情報を埋め込む場合における、Aタイプの各チャンネル1音響フレームの所定周波数成分の状態を図15に示す。この場合、Q=4であり、各セットの状態が異なるように変更させることにより、4ビットまで入力可能であるが、図15の例では、2ビットまでとしている。1つの音響フレームに埋め込むビット数をGとした場合、本発明では、GがQの約数となるように設定することができる。   In the example shown in FIG. 3 and FIG. 14, the change target frequency band F1 to F2 is divided into four regions, but can be divided into more regions. Here, F1 to F2 are divided into eight, the components of the frequency band to be changed in the acoustic frame are changed to four states, and 2-bit information is embedded, and each of the A type channel 1 acoustic frames is predetermined. The state of the frequency component is shown in FIG. In this case, Q = 4, and it is possible to input up to 4 bits by changing the state of each set to be different. However, in the example of FIG. When the number of bits embedded in one acoustic frame is G, in the present invention, G can be set to be a divisor of Q.

図15に示すように、より多数の領域に分けた場合も、埋め込み処理は、図4のフローチャートに従ったものとなり、抽出処理は、図10〜図13のフローチャートに従ったものとなる。ただし、S402における状態の判定は、以下の判定処理を実行し、その結果、対応する状態であったと判断し、対応する値を出力する。   As shown in FIG. 15, even when the area is divided into a larger number of areas, the embedding process follows the flowchart of FIG. 4, and the extraction process follows the flowcharts of FIGS. 10 to 13. However, in the state determination in S402, the following determination process is executed, and as a result, it is determined that the state is a corresponding state, and a corresponding value is output.

g=1,…,Gごとに、
Σq=gG+1,…,gG+Q/G(C1q+C4q)>Σq=gG+1,…,gG+Q/G(C2q+C3q)の場合、ビット値“1”(または“0”)であると判断する。
上記以外の場合、ビット値“0”(または“1”)であると判断する。
For each g = 1, ..., G,
When Σq = gG + 1,..., GG + Q / G (C1q + C4q)> Σq = gG + 1,..., GG + Q / G (C2q + C3q), the bit value is “1” (or “0”). Judge that there is.
Otherwise, it is determined that the bit value is “0” (or “1”).

(5.ビット配列の変形例)
上記実施形態では、ビット配列作成手段70が、付加情報から7ビットを抽出して、1ビットのパリティ符号を付加し、さらに8ビットの検査符号を付加するようにしたが、この場合、付加情報1バイトを埋め込むのに16ビットを要することになる。そこで、以下では、1ビット誤りの訂正機能と、全ビット反転の検出機能を維持しつつ、検査符号を削減する2つの手法について説明する。
(5. Modified example of bit array)
In the above embodiment, the bit array creation means 70 extracts 7 bits from the additional information, adds a 1-bit parity code, and further adds an 8-bit check code. In this case, however, the additional information It takes 16 bits to embed 1 byte. Therefore, in the following, two methods for reducing check codes while maintaining a 1-bit error correction function and an all-bit inversion detection function will be described.

まず、1つ目の手法は、図16(a)に示すように、付加情報から抽出した7ビットD1〜D7に対して5つの検査符号P1〜P5を付加したビット配列を作成するものである。各検査符号P1〜P5は、図16(b)に示したように定義される。このうち、検査符号P1はパリティ符号であり、検査符号P2〜P5は4ビットのハミング符号である。具体的には、検査符号P1は、ビットD1〜D7の排他的論理和として算出される。検査符号P2は、ビットD1、D2、D3、D7の排他的論理和として算出される。検査符号P3は、ビットD1、D4、D5、D7、P1の排他的論理和として算出される。検査符号P4は、ビットD2、D4、D6、D7、P1の排他的論理和として算出される。検査符号P5は、ビットD3、D5、D6、P1の排他的論理和として算出される。したがって、ビット配列作成手段70は、S101において、図16(b)に示した定義に従って図16(a)に示したような12ビットのビット配列を作成することになる。   First, as shown in FIG. 16A, the first technique creates a bit array in which five check codes P1 to P5 are added to 7 bits D1 to D7 extracted from the additional information. . Each check code P1 to P5 is defined as shown in FIG. Among these, the check code P1 is a parity code, and the check codes P2 to P5 are 4-bit Hamming codes. Specifically, the check code P1 is calculated as an exclusive OR of the bits D1 to D7. The check code P2 is calculated as an exclusive OR of the bits D1, D2, D3, and D7. The check code P3 is calculated as an exclusive OR of the bits D1, D4, D5, D7, and P1. The check code P4 is calculated as an exclusive OR of the bits D2, D4, D6, D7, and P1. The check code P5 is calculated as an exclusive OR of the bits D3, D5, D6, and P1. Therefore, the bit array creation means 70 creates a 12-bit bit array as shown in FIG. 16A in S101 according to the definition shown in FIG. 16B.

この場合、抽出装置においては、図10のS205において、ビットカウンタが11以下であるか12以上であるかを判断することになる。そして、ビットカウンタが12以上である場合は、S206において、バッファに保存されたビット配列のうちの前7ビットから検査ビット値を算出する。具体的には、図16(b)に示した定義に従って算出することになる。これにより、5個の検査符号が得られる。続いて、S207において、算出した検査符号とビット配列中の後5ビットとの照合を行う。   In this case, the extraction apparatus determines whether the bit counter is 11 or less or 12 or more in S205 of FIG. If the bit counter is 12 or more, in S206, a check bit value is calculated from the previous 7 bits in the bit array stored in the buffer. Specifically, the calculation is performed according to the definition shown in FIG. As a result, five check codes are obtained. Subsequently, in S207, the calculated check code is compared with the last 5 bits in the bit array.

この結果、P1〜P5の全てが合格の場合、完全適合と判断する。また、P1が合格で、P2とP5の2ビットが不合格の場合、12ビット全体が反転していると判断できるため、完全不適合と判断する。そして、それ以外の場合は、不適合として、S213において誤り1ビットが特定できるかどうかの判断を行うことになる。   As a result, when all of P1 to P5 are acceptable, it is determined that they are completely compatible. Further, when P1 is acceptable and 2 bits of P2 and P5 are unacceptable, it can be determined that the entire 12 bits are inverted, and therefore, it is determined that it is completely nonconforming. In other cases, it is determined whether or not one error bit can be specified in S213 as incompatibility.

S213において、P1が不合格で、P2とP3、P2とP4、P2とP5、P3とP4、P3とP5、P4とP5のいずれか2ビットが不合格の場合、各々D1、D2、D3、D4、D5、D6の1ビット誤りと特定する。P1が不合格で、P2とP3とP4、P3とP4とP5のいずれか3ビットが不合格の場合、各々D7、P1の1ビット誤りと特定する。P1が不合格で、P2〜P5のいずれか1ビットが不合格の場合、各々それ自身の1ビット誤りと特定する。   In S213, if P1 is rejected and P2 and P3, P2 and P4, P2 and P5, P3 and P4, P3 and P5, and any two bits of P4 and P5 are rejected, D1, D2, D3, It is specified as a one-bit error of D4, D5, and D6. If P1 is unsuccessful, and any 3 bits of P2, P3, and P4, and P3, P4, and P5 are unsuccessful, they are identified as 1-bit errors of D7 and P1, respectively. If P1 fails and any one of P2 to P5 fails, each is identified as its own 1-bit error.

2つ目の手法は、図17(a)に示すように、付加情報から抽出した7ビットD1〜D7に対して4つの検査符号P1〜P4を付加したビット配列を作成するものである。検査符号P1〜P4は、図17(b)に示したように定義される4ビットのハミング符号である。すなわち、検査符号P1は、ビットD1、D2、D3、D5、D6、D7の排他的論理和として算出される。検査符号P2は、ビットD1、D4、D6、D7の排他的論理和として算出される。検査符号P3は、ビットD2、D4、D5、D7の排他的論理和として算出される。検査符号P4は、ビットD3、D4、D5、D6の排他的論理和として算出される。したがって、ビット配列作成手段70は、S101において、図17(b)に示した定義に従って図17(a)に示したような11ビットのビット配列を作成することになる。   As shown in FIG. 17A, the second method is to create a bit array in which four check codes P1 to P4 are added to 7 bits D1 to D7 extracted from the additional information. The check codes P1 to P4 are 4-bit hamming codes defined as shown in FIG. That is, the check code P1 is calculated as an exclusive OR of the bits D1, D2, D3, D5, D6, and D7. The check code P2 is calculated as an exclusive OR of the bits D1, D4, D6, and D7. The check code P3 is calculated as an exclusive OR of the bits D2, D4, D5, and D7. The check code P4 is calculated as an exclusive OR of the bits D3, D4, D5, and D6. Therefore, the bit array creation means 70 creates an 11-bit bit array as shown in FIG. 17A according to the definition shown in FIG. 17B in S101.

この場合、抽出装置においては、図10のS205において、ビットカウンタが10以下であるか11以上であるかを判断することになる。そして、ビットカウンタが11以上である場合は、S206において、バッファに保存されたビット配列のうちの前7ビットから検査ビット値を算出する。具体的には、図17(b)に示した定義に従って算出することになる。これにより、4個の検査符号が得られる。続いて、S207において、算出した検査符号とビット配列中の後4ビットとの照合を行う。   In this case, the extraction apparatus determines whether the bit counter is 10 or less or 11 or more in S205 of FIG. If the bit counter is 11 or more, in S206, a check bit value is calculated from the previous 7 bits in the bit array stored in the buffer. Specifically, the calculation is performed according to the definition shown in FIG. As a result, four check codes are obtained. Subsequently, in S207, the calculated check code is compared with the last 4 bits in the bit array.

この結果、P1〜P4の全てが合格の場合、完全適合と判断する。また、P1〜P4の全てが不合格の場合、11ビット全体が反転していると判断できるため、完全不適合と判断する。そして、それ以外の場合は、不適合として、S213において誤り1ビットが特定できるかどうかの判断を行うことになる。   As a result, when all of P1 to P4 are acceptable, it is determined that they are completely compatible. Further, when all of P1 to P4 are unacceptable, it can be determined that the entire 11 bits are inverted, and therefore, it is determined that it is completely incompatible. In other cases, it is determined whether or not one error bit can be specified in S213 as incompatibility.

S213において、P1とP2、P1とP3、P1とP4のいずれか2ビットが不合格の場合、各々D1、D2、D3の1ビット誤りと特定する。P2とP3とP4、P1とP3とP4、P1とP2とP4、P1とP2とP3のいずれか3ビットが不合格の場合、各々D4、D5、D6、D7の1ビット誤りと特定する。P1〜P4のいずれか1ビットが不合格の場合、各々それ自身の1ビット誤りと特定する。   In S213, when any two bits of P1 and P2, P1 and P3, and P1 and P4 are unacceptable, they are identified as 1-bit errors of D1, D2, and D3, respectively. When any 3 bits of P2, P3 and P4, P1 and P3 and P4, P1 and P2 and P4, and P1 and P2 and P3 are unacceptable, they are identified as 1-bit errors of D4, D5, D6 and D7, respectively. If any one of P1 to P4 fails, each is identified as its own 1-bit error.

ビット配列については、図5、図16、図17に示したように、3つの形態について説明したが、実験の結果、この中では、図16に示した12ビットの場合が、最も抽出精度が高かった。   As for the bit arrangement, three forms have been described as shown in FIGS. 5, 16, and 17. As a result of the experiment, the extraction accuracy is the highest in the case of 12 bits shown in FIG. it was high.

(6.その他)
以上、本発明の好適な実施形態について限定したが、本発明は上記実施形態に限定されず、種々の変形が可能である。例えば、上記実施形態では、1音響フレームのサンプル数N=4096としたが、N=2048、1024、512等を設定するようにしても良い。これにより、同一時間あたりの音響フレーム数が、2倍、4倍、8倍となり、全体として2〜8倍の情報の埋め込みが可能となる。
(6. Others)
As mentioned above, although it limited about the suitable embodiment of the present invention, the present invention is not limited to the above-mentioned embodiment, and various modifications are possible. For example, in the above embodiment, the number of samples of one acoustic frame is N = 4096, but N = 2048, 1024, 512, etc. may be set. As a result, the number of sound frames per same time is doubled, quadrupled, and quadrupled, and 2 to 8 times of information can be embedded as a whole.

また、上記実施形態では、音響信号からの情報の抽出装置を、携帯電話機等の携帯型端末装置単体で実現した場合を例にとって説明したが、他のコンピュータと連携して実現するようにしても良い。具体的には、携帯型端末装置と専用コンピュータを無線通信可能に接続し、音響信号入力手段100〜音響フレーム保持手段170の構成要素のうち、演算負荷の大きいものは、専用コンピュータで処理する。例えば、音響信号入力手段100、基準フレーム獲得手段110、位相変更フレーム設定手段120、付加情報抽出手段160を携帯型端末装置に備え、周波数変換手段130、符号判定パラメータ算出手段140、符号出力手段150、音響フレーム保持手段170を専用コンピュータに備えるようにして、必要な情報を両者間で通信するようにする。これにより、携帯型端末装置の処理性能が低い場合であっても高速な処理を行うことが可能となる。   In the above-described embodiment, the case where the device for extracting information from the acoustic signal is realized by a single mobile terminal device such as a mobile phone has been described as an example. However, the device may be realized in cooperation with other computers. good. Specifically, the portable terminal device and the dedicated computer are connected so as to be capable of wireless communication, and among the components of the acoustic signal input unit 100 to the acoustic frame holding unit 170, those having a large calculation load are processed by the dedicated computer. For example, the portable terminal device includes the acoustic signal input unit 100, the reference frame acquisition unit 110, the phase change frame setting unit 120, and the additional information extraction unit 160, and the frequency conversion unit 130, the code determination parameter calculation unit 140, and the code output unit 150. The sound frame holding means 170 is provided in a dedicated computer so that necessary information is communicated between the two. This makes it possible to perform high-speed processing even when the processing performance of the portable terminal device is low.

音響信号に対する情報の埋め込み装置の機能ブロック図である。It is a functional block diagram of an information embedding device for an acoustic signal. 本発明で用いる時間方向窓関数を示す図である。It is a figure which shows the time direction window function used by this invention. 本発明の一実施形態における変更対象周波数帯の成分の変化の状態を示す図である。It is a figure which shows the state of a change of the component of the change object frequency band in one Embodiment of this invention. 図1に示した装置の処理概要を示すフローチャートである。It is a flowchart which shows the process outline | summary of the apparatus shown in FIG. ビット配列の作成の様子を示す図である。It is a figure which shows the mode of preparation of a bit arrangement | sequence. 本発明に係る音響信号からの情報の抽出装置の機能ブロック図である。1 is a functional block diagram of an apparatus for extracting information from an acoustic signal according to the present invention. 音響信号の周波数とエネルギー分布の関係を示す図である。It is a figure which shows the relationship between the frequency of an acoustic signal, and energy distribution. 本発明の一実施形態で用いる周波数方向窓関数F(j)、補正関数を示す図である。It is a figure which shows the frequency direction window function F (j) used in one Embodiment of this invention, and a correction function. 本発明の一実施形態で用いる周波数方向窓関数F(j)の詳細を示す図である。It is a figure which shows the detail of the frequency direction window function F (j) used by one Embodiment of this invention. 図6に示した装置の、エラー訂正を行わない設定における処理概要を示すフローチャートである。7 is a flowchart illustrating an outline of processing in a setting in which error correction is not performed in the apparatus illustrated in FIG. 6. 図10のS202の位相確定および符号出力の詳細を示すフローチャートである。11 is a flowchart showing details of phase determination and code output in S202 of FIG. 図11のS302の符号判定処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the code | symbol determination process of S302 of FIG. 図6に示した装置の、1ビットのエラー訂正をする設定における処理概要を示すフローチャートである。7 is a flowchart showing an outline of processing in a setting for performing 1-bit error correction in the apparatus shown in FIG. 6. 2ビットの情報を埋め込む場合における変更対象周波数帯の成分の変化の状態を示す図である。It is a figure which shows the state of a change of the component of the frequency band for change in the case of embedding 2-bit information. 変更対象周波数帯を8つに分けた場合の成分の変化の状態を示す図である。It is a figure which shows the state of a change of a component at the time of dividing a change object frequency band into eight. ビット配列の変形例を示す図である。It is a figure which shows the modification of a bit arrangement | sequence. ビット配列の変形例を示す図である。It is a figure which shows the modification of a bit arrangement | sequence.

符号の説明Explanation of symbols

10・・・音響フレーム読込手段
20・・・周波数変換手段
30・・・周波数成分変更手段
40・・・周波数逆変換手段
50・・・改変音響フレーム出力手段
60・・・記憶手段
61・・・音響信号記憶部
62・・・付加情報記憶部
63・・・改変音響信号記憶部
70・・・ビット配列作成手段
100・・・音響信号入力手段
110・・・基準フレーム獲得手段
120・・・位相変更フレーム設定手段
130・・・周波数変換手段
140・・・符号判定パラメータ算出手段
150・・・符号出力手段
160・・・付加情報抽出手段
170・・・音響フレーム保持手段
DESCRIPTION OF SYMBOLS 10 ... Acoustic frame reading means 20 ... Frequency conversion means 30 ... Frequency component change means 40 ... Frequency reverse conversion means 50 ... Modified acoustic frame output means 60 ... Storage means 61 ... Acoustic signal storage unit 62 ... additional information storage unit 63 ... modified acoustic signal storage unit 70 ... bit array creation means 100 ... acoustic signal input means 110 ... reference frame acquisition means 120 ... phase Change frame setting means 130 ... frequency conversion means 140 ... code determination parameter calculation means 150 ... code output means 160 ... additional information extraction means 170 ... sound frame holding means

Claims (20)

チャンネルL、チャンネルRの2チャンネルからなるステレオの時系列のサンプル列で構成される音響信号に対して、付加情報を聴取不能な状態で埋め込む装置であって、
前記音響信号より、チャンネルL、チャンネルRについてそれぞれ所定数のサンプルをL音響フレーム、R音響フレームとして読み込む音響フレーム読込手段と、
前記読み込んだ音響フレームのうち、奇数番目、偶数番目の一方をAタイプ、他方をBタイプとし、前記Aタイプの前記L音響フレーム、R音響フレームに対して、時間方向の前部、中部、後部の信号成分を主として抽出する第1窓関数、第2窓関数、第3窓関数を用いてそれぞれ周波数変換を行い、前記Bタイプの前記L音響フレーム、R音響フレームに対して、第4窓関数を用いて周波数変換を行い、前記第1窓関数に対応するスペクトルである第1窓Lスペクトル、第1窓Rスペクトル、前記第2窓関数に対応するスペクトルである第2窓Lスペクトル、第2窓Rスペクトル、前記第3窓関数に対応するスペクトルである第3窓Lスペクトル、第3窓Rスペクトル、前記第4窓関数に対応するスペクトルである第4窓Lスペクトル、第4窓Rスペクトルを得る周波数変換手段と、
前記生成された各窓スペクトルから所定の周波数範囲における互いに重複しない2Q(Qは2以上の整数)個のスペクトル集合を抽出し、第1窓Lスペクトル、第1窓Rスペクトル、第3窓Lスペクトル、第3窓Rスペクトルから抽出したスペクトル集合を、同一チャンネルの同一窓スペクトルにおける隣接するスペクトル集合が互いに異なるグループに属するようにして複数のグループに分け、埋め込むべきビット配列に基づいて、前記複数のグループの強度が互いに異なるように変更し、第2窓Lスペクトル、第2窓Rスペクトル、第4窓Lスペクトル、第4窓Rスペクトルについては、前記埋め込むべき付加情報のビット配列に関わらず、同一チャンネルの同一窓スペクトルにおける隣接するスペクトル集合の強度が互いに異なるように変更する周波数成分変更手段と、
前記変更されたスペクトル集合を含む各窓スペクトルに対して周波数逆変換を行って、改変音響フレームを生成する周波数逆変換手段と、
前記生成された改変音響フレームを順次出力する改変音響フレーム出力手段と、
を有することを特徴とする音響信号に対する情報の埋め込み装置。
An apparatus for embedding additional information in an inaudible state with respect to an acoustic signal composed of a stereo time-series sample sequence consisting of two channels of channel L and channel R,
A sound frame reading means for reading a predetermined number of samples as an L sound frame and an R sound frame for the channel L and the channel R from the sound signal;
Of the read sound frames, odd-numbered and even-numbered ones are A type and the other is B type, and the front, middle, and rear in the time direction with respect to the L type sound frame and the R type sound frame of the A type Frequency conversion using the first window function, the second window function, and the third window function that mainly extract the signal components of the B type, and the fourth window function for the B type L acoustic frame and the R acoustic frame. The first window L spectrum, which is a spectrum corresponding to the first window function, the first window R spectrum, the second window L spectrum which is a spectrum corresponding to the second window function, Window R spectrum, third window L spectrum, which is a spectrum corresponding to the third window function, third window R spectrum, fourth window L spectrum, which is a spectrum corresponding to the fourth window function, A frequency converting means for obtaining the window R spectrum,
2Q (Q is an integer greater than or equal to 2) spectrum sets in a predetermined frequency range are extracted from the generated window spectra, and the first window L spectrum, the first window R spectrum, and the third window L spectrum are extracted. The spectrum set extracted from the third window R spectrum is divided into a plurality of groups such that adjacent spectrum sets in the same window spectrum of the same channel belong to different groups, and based on the bit arrangement to be embedded, The second window L spectrum, the second window R spectrum, the fourth window L spectrum, and the fourth window R spectrum are the same regardless of the bit arrangement of the additional information to be embedded. The intensity of adjacent spectral sets in the same window spectrum of the channel is different from each other. A frequency component changing means for changing,
Frequency inverse transform means for performing frequency inverse transform on each window spectrum including the modified spectrum set to generate a modified acoustic frame;
Modified acoustic frame output means for sequentially outputting the generated modified acoustic frames;
An information embedding device for an acoustic signal, comprising:
請求項1において、
前記周波数成分変更手段は、各窓スペクトルから抽出したスペクトル集合を隣接する2つの領域単位で1セットとし、Qセットのスペクトル集合に対して同様な変更を行うものであることを特徴とする音響信号に対する情報の埋め込み装置。
In claim 1,
The frequency component changing means sets the spectrum set extracted from each window spectrum as one set in units of two adjacent regions, and performs the same change to the Q set spectrum set. An information embedding device.
請求項1において、
前記周波数成分変更手段は、各窓スペクトルから抽出したスペクトル集合を隣接する2つの領域単位で1セットとし、Qセットのスペクトル集合に対して異なる変更を行うものであることを特徴とする音響信号に対する情報の埋め込み装置。
In claim 1,
The frequency component changing means makes one set of spectrum sets extracted from each window spectrum in units of two adjacent regions, and makes different changes to the Q set of spectrum sets. An information embedding device.
請求項1において、
前記周波数成分変更手段は、各窓スペクトルから抽出したスペクトル集合を隣接する2つの領域単位で1セットとし、G(GはQの約数)セットのスペクトル集合に対して異なる変更を行うものであることを特徴とする音響信号に対する情報の埋め込み装置。
In claim 1,
The frequency component changing means sets one set of spectrum sets extracted from each window spectrum in units of two adjacent areas, and makes different changes to G (G is a divisor of Q) sets of spectrum sets. An information embedding device for an acoustic signal.
請求項1において、
前記周波数成分変更手段は、一方のチャンネルのスペクトル集合の成分を除去し、除去した成分と同等の成分を他方のグループの対応するスペクトル集合の成分に加算することにより、強度の変更を行うものであることを特徴とする音響信号に対する情報の埋め込み装置。
In claim 1,
The frequency component changing means changes the intensity by removing the component of the spectrum set of one channel and adding a component equivalent to the removed component to the component of the corresponding spectrum set of the other group. An apparatus for embedding information in an acoustic signal.
請求項1から請求項5のいずれかにおいて、
前記ビット配列を、付加情報中のビット列に誤りを検出するための検査符号を付加することにより作成するビット配列作成手段をさらに有し、
前記周波数成分変更手段は、前記ビット配列に基づいて、前記両グループの強度が互いに異なるように変更するものであることを特徴とする音響信号に対する情報の埋め込み装置。
In any one of Claims 1-5,
A bit array creating means for creating the bit array by adding a check code for detecting an error to the bit string in the additional information;
The apparatus for embedding information in an acoustic signal, wherein the frequency component changing means changes the intensity of the two groups to be different from each other based on the bit arrangement.
請求項6において、
前記ビット配列作成手段は、前記付加情報中のビット列の排他的論理和を前記検査符号とするものであることを特徴とする音響信号に対する情報の埋め込み装置。
In claim 6,
The apparatus for embedding information in an acoustic signal, wherein the bit array creation means uses an exclusive OR of a bit string in the additional information as the check code.
請求項1から請求項7のいずれかにおいて、
前記音響フレーム読込手段は、前記Aタイプの音響フレームと前記Bタイプの音響フレームを、所定数のサンプルを重複させて読み込むものであり、
前記改変音響フレーム出力手段は、前記生成された改変音響フレームを先行する改変音響フレームと連結させて出力するものであることを特徴とする音響信号に対する情報の埋め込み装置。
In any one of Claims 1-7,
The acoustic frame reading means reads the A type acoustic frame and the B type acoustic frame by overlapping a predetermined number of samples,
The apparatus for embedding information in an acoustic signal, wherein the modified acoustic frame output means outputs the generated modified acoustic frame by connecting it with a preceding modified acoustic frame.
請求項1から請求項8のいずれかにおいて、
前記周波数成分変更手段は、前記所定周波数範囲を1.7kHz以上および3.4kHz以下として設定するか、または3.4kHz以上および6.8kHz以下として設定するものであることを特徴とする音響信号に対する情報の埋め込み装置。
In any one of Claims 1-8,
The frequency component changing means sets the predetermined frequency range as 1.7 kHz or more and 3.4 kHz or less, or sets the predetermined frequency range as 3.4 kHz or more and 6.8 kHz or less. An information embedding device.
請求項1から請求項9のいずれかにおいて、
前記音響フレーム読込手段は、前記L音響フレーム、R音響フレームと同サンプル数で、再生時に聴取困難な極めて低振幅の白色ノイズを作成し、前記L音響フレーム、R音響フレームに対して加算するものであることを特徴とする音響信号に対する情報の埋め込み装置。
In any one of Claims 1-9,
The sound frame reading means generates white noise with extremely low amplitude that is difficult to hear during reproduction with the same number of samples as the L sound frame and the R sound frame, and adds the white noise to the L sound frame and the R sound frame. An information embedding device for an acoustic signal, characterized in that:
請求項10において、
前記音響フレーム読込手段は、前記L音響フレーム、R音響フレームのサンプル数の1/K個の一様乱数を作成し、前記L音響フレーム、R音響フレームに対してKサンプル単位に同一乱数値を、前記L音響フレームとR音響フレームとで互いに正負を逆にして加算することにより白色ノイズの加算を行うものであることを特徴とする音響信号に対する情報の埋め込み装置。
In claim 10,
The sound frame reading means creates 1 / K uniform random numbers of the number of samples of the L sound frame and the R sound frame, and sets the same random value in K sample units for the L sound frame and the R sound frame. An apparatus for embedding information with respect to an acoustic signal, wherein white noise is added by adding the L acoustic frame and the R acoustic frame with the signs reversed.
コンピュータを、請求項1から請求項11のいずれかに記載の音響信号に対する情報の埋め込み装置として、機能させるためのプログラム。 The computer, as an embedded device information for the acoustic signal as claimed in any one of claims 11, a program to function. 請求項1から請求項11のいずれかに記載の音響信号に対する情報の埋め込み装置により聴取不能な状態で埋め込まれた付加情報を、2チャンネルステレオ音響信号の所望の単一チャンネルのモノラル音響信号から抽出する装置であって、
前記音響信号の所定区間をデジタル化して、所定数のサンプルで構成される音響フレームを獲得する音響フレーム獲得手段と、
前記音響フレームに対して、時間方向の前部、後部の信号成分を主として抽出する前記第1窓関数、前記第3窓関数を用いてそれぞれ、周波数変換を行い、前記第1窓関数に対応するスペクトルである第1窓スペクトル、前記第3窓関数に対応するスペクトルである第3窓スペクトルを得る周波数変換手段と、
前記第1窓スペクトルから所定の周波数範囲における互いに重複しない2Q個のスペクトル集合を抽出するとともに、前記第3窓スペクトルから前記所定の周波数範囲における互いに重複しない2Q個のスペクトル集合を抽出し、第1窓スペクトル、第3窓スペクトルから抽出したスペクトル集合を、同一窓スペクトルにおける隣接するスペクトル集合が互いに異なるグループに属するようにして2つのグループに分け、各グループ間の同一周波数における各スペクトル要素の強度の大小に基づいて、埋め込まれていたビット値を抽出する符号化手段と、
前記抽出されたビット値をワード単位で所定の規則により変換して付加情報を抽出する付加情報抽出手段と、
を有することを特徴とする音響信号からの情報の抽出装置。
The additional information embedded in a non listening state by embedding device information for the acoustic signal as claimed in any one of claims 11, desired single-channel monophonic audio signal or these two-channel stereo audio signals there is provided an apparatus to extract,
An acoustic frame acquisition means for digitizing a predetermined section of the acoustic signal and acquiring an acoustic frame composed of a predetermined number of samples;
With respect to the acoustic frame, the front portion of the time direction, the first window function to extract mainly the rear signal components, respectively, using the third window function, performs frequency conversion, corresponding to the first window function Frequency conversion means for obtaining a first window spectrum that is a spectrum, a third window spectrum that is a spectrum corresponding to the third window function;
It extracts the 2Q number of spectral set not overlapping with each other in a predetermined frequency range of the first window spectrum, extracting 2Q number of spectral set that do not overlap with each other in the predetermined frequency range from said third window spectrum, first The spectrum set extracted from the window spectrum and the third window spectrum is divided into two groups such that adjacent spectrum sets in the same window spectrum belong to different groups, and the intensity of each spectral element at the same frequency between the groups is determined. An encoding means for extracting the embedded bit value based on the magnitude;
Additional information extracting means for converting the extracted bit value in units of words according to a predetermined rule and extracting additional information;
An apparatus for extracting information from an acoustic signal, comprising:
請求項13において、
前記符号化手段は、各窓スペクトルから抽出したスペクトル集合を隣接する2つの領域単位で1セットとし、Qセットの全てのスペクトル集合における前記スペクトル要素の強度の大小に基づいて、1ビットのビット値を抽出するものであることを特徴とする音響信号からの情報の抽出装置。
In claim 13,
The encoding means sets one set of spectrum sets extracted from each window spectrum in units of two adjacent regions, and sets a 1-bit bit value based on the magnitude of the intensity of the spectrum elements in all spectrum sets of the Q set. An apparatus for extracting information from an acoustic signal, characterized in that
請求項13において、
前記符号化手段は、各窓スペクトルから抽出したスペクトル集合を隣接する2つの領域単位で1セットとし、Qセットの各セットごとに全てのスペクトル集合における前記スペクトル要素の強度の大小に基づいて1ビットのビット値を抽出することにより、全体としてQビット抽出するものであることを特徴とする音響信号からの情報の抽出装置。
In claim 13,
The encoding means sets one set of spectrum sets extracted from each window spectrum in units of two adjacent regions, and sets one bit based on the magnitude of the intensity of the spectrum elements in all spectrum sets for each set of Q sets. An apparatus for extracting information from an acoustic signal, which extracts Q bits as a whole by extracting the bit value of.
請求項13において、
前記符号化手段は、各窓スペクトルから抽出したスペクトル集合を隣接する2つの領域単位で1セットとし、G(GはQの約数)セットの各セットごとに全てのスペクトル集合における前記スペクトル要素の強度の大小に基づいて1ビットのビット値を抽出することにより、全体としてGビット抽出するものであることを特徴とする音響信号からの情報の抽出装置。
In claim 13,
The encoding means sets one set of spectrum sets extracted from each window spectrum in units of two adjacent regions, and sets the spectral elements in all spectrum sets for each set of G (G is a divisor of Q) set. An apparatus for extracting information from an acoustic signal, wherein G bits are extracted as a whole by extracting a 1-bit bit value based on the magnitude of intensity.
請求項13から請求項16のいずれかにおいて、
前記付加情報抽出手段は、前記抽出されたビット値の集合が所定ビット数のビット配列となった場合に、当該ビット配列の後ろから所定数のビットを検査符号として用い、検査符号が所定の状態である場合に、前記ビット列の前から所定数の各ビットを反転し、付加情報を構成するビット列として出力することにより、付加情報を抽出するものであることを特徴とする音響信号からの情報の抽出装置。
In any one of Claims 13-16,
The additional information extraction means uses a predetermined number of bits from the back of the bit array as a check code when the set of extracted bit values becomes a bit array of a predetermined number of bits, and the check code is in a predetermined state In this case, a predetermined number of bits are inverted from the front of the bit string and output as a bit string constituting the additional information to extract the additional information. Extraction device.
請求項17において、
前記付加情報抽出手段は、前記検査符号が所定の状態であるか否かを判断するにあたり、前記ビット列の前から所定数のビットの排他的論理和を用いるものであることを特徴とする音響信号からの情報の抽出装置。
In claim 17,
The acoustic signal is characterized in that the additional information extraction means uses an exclusive OR of a predetermined number of bits from the front of the bit string when determining whether or not the check code is in a predetermined state. Information extraction device.
請求項13から請求項18のいずれかにおいて、
前記音響フレーム獲得手段は、前記音響信号から、所定数のサンプルで構成される音響フレームを基準フレームとして獲得する基準フレーム獲得手段と、前記基準フレームと所定サンプルずつ移動させることにより位相を変更して設定される複数の音響フレームを位相変更フレームとして設定する位相変更フレーム設定手段により構成され、
前記符号化手段は、前記抽出したスペクトル集合に基づいて、符号判定パラメータを算出する符号判定パラメータ算出手段と、基準フレームが異なる過去の同位相の音響フレームにおいて算出された符号判定パラメータに基づいて、前記基準フレームおよび複数の位相変更フレームのうち1つの音響フレームを位相が最適なものであると判断し、当該最適な位相の音響フレームについて判断された前記符号判定パラメータに基づいて、所定の符号を出力する符号出力手段を有するものであることを特徴とする音響信号からの情報の抽出装置。
In any one of Claims 13-18,
The acoustic frame acquisition means changes a phase by moving a reference frame and a predetermined sample from a reference frame acquisition means for acquiring an acoustic frame composed of a predetermined number of samples as a reference frame from the acoustic signal. It is constituted by phase change frame setting means for setting a plurality of set sound frames as phase change frames,
The encoding means is based on the code determination parameter calculation means for calculating a code determination parameter based on the extracted spectrum set, and on the code determination parameter calculated in a past in-phase acoustic frame having a different reference frame, It is determined that one of the reference frame and the plurality of phase change frames has an optimal phase, and a predetermined code is determined based on the code determination parameter determined for the acoustic frame having the optimal phase. An apparatus for extracting information from an acoustic signal, characterized by comprising code output means for outputting.
コンピュータを、請求項13から請求項19のいずれかに記載の音響信号からの情報の抽出装置として、機能させるためのプログラム。   A program for causing a computer to function as an apparatus for extracting information from an acoustic signal according to any one of claims 13 to 19.
JP2007081573A 2007-03-27 2007-03-27 Information embedding device for sound signal and device for extracting information from sound signal Expired - Fee Related JP4877007B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007081573A JP4877007B2 (en) 2007-03-27 2007-03-27 Information embedding device for sound signal and device for extracting information from sound signal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007081573A JP4877007B2 (en) 2007-03-27 2007-03-27 Information embedding device for sound signal and device for extracting information from sound signal

Publications (2)

Publication Number Publication Date
JP2008242017A JP2008242017A (en) 2008-10-09
JP4877007B2 true JP4877007B2 (en) 2012-02-15

Family

ID=39913472

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007081573A Expired - Fee Related JP4877007B2 (en) 2007-03-27 2007-03-27 Information embedding device for sound signal and device for extracting information from sound signal

Country Status (1)

Country Link
JP (1) JP4877007B2 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003208187A (en) * 2001-09-17 2003-07-25 Matsushita Electric Ind Co Ltd Data-update apparatus, reproduction apparatus, data- addition apparatus, data-detection apparatus and data- removal apparatus
JP4629495B2 (en) * 2005-05-19 2011-02-09 大日本印刷株式会社 Information embedding apparatus and method for acoustic signal
JP4660275B2 (en) * 2005-05-20 2011-03-30 大日本印刷株式会社 Information embedding apparatus and method for acoustic signal

Also Published As

Publication number Publication date
JP2008242017A (en) 2008-10-09

Similar Documents

Publication Publication Date Title
JP4867765B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP4629495B2 (en) Information embedding apparatus and method for acoustic signal
JP2007292827A (en) Acoustic signal retrieving apparatus
JP5011849B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP4770194B2 (en) Information embedding apparatus and method for acoustic signal
JP4910920B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP5082257B2 (en) Acoustic signal retrieval device
JP4876978B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP4877007B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP4831335B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP4910959B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP5003164B2 (en) Device for extracting information from acoustic signals
JP2008152154A (en) Device for embedding information on sound signal and device for extracting information from sound signal
JP4968468B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP4910921B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP4713180B2 (en) Device for extracting information from acoustic signals
JP4713181B2 (en) Information embedding device for sound signal, device for extracting information from sound signal, and sound signal reproducing device
JP4831333B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP2008139491A (en) Device for embedding information in sound signal and device for extracting information from sound signal
JP5011855B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP5212715B2 (en) Device for extracting information from acoustic signals
JP2008129198A (en) Information embedding device for acoustic signal and information extracting device from acoustic signal
JP2010078728A (en) Device for embedding information in sound signal and device for extracting information from sound signal
JP5011865B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP2008216581A (en) Device for extracting information from sound signal

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110706

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110816

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111014

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111101

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111114

R150 Certificate of patent or registration of utility model

Ref document number: 4877007

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141209

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees