JP2008170828A - Extracting device for information from sound signal - Google Patents

Extracting device for information from sound signal Download PDF

Info

Publication number
JP2008170828A
JP2008170828A JP2007005321A JP2007005321A JP2008170828A JP 2008170828 A JP2008170828 A JP 2008170828A JP 2007005321 A JP2007005321 A JP 2007005321A JP 2007005321 A JP2007005321 A JP 2007005321A JP 2008170828 A JP2008170828 A JP 2008170828A
Authority
JP
Japan
Prior art keywords
frame
acoustic
bit
frequency
phase
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007005321A
Other languages
Japanese (ja)
Other versions
JP5003164B2 (en
Inventor
Toshio Motegi
敏雄 茂出木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2007005321A priority Critical patent/JP5003164B2/en
Publication of JP2008170828A publication Critical patent/JP2008170828A/en
Application granted granted Critical
Publication of JP5003164B2 publication Critical patent/JP5003164B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an extracting device for information from a sound signal that can perform high-speed extraction processing, even for a general portable terminal, and the like, having low voice recording performance and processing capability. <P>SOLUTION: An embedding device performs embedding processing for information to a source sound signal (a) sampled at 44.1 kHz to obtain a sound signal (b), having the information embedded. After acquiring an analog sound signal, the extracting device samples the sound signal at 22.05 or 8 kHz to digitize it (c). One sound frame is set for the sound signal to have the same time with a sound frame at the embedding (d), and the extraction processing is performed. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、CD・DVD等を用いた民生・業務用途における鑑賞用のパッケージ音楽分野、放送事業者等が商業目的で配信する放送・ネットワーク音楽配信分野における音楽著作権の保護(不正コピーの監視)および音楽属性情報の提供(楽曲タイトル検索サービス)分野、ミュージアム、イベント会場における展示説明ナレーションに連動した文字情報の提供サービス分野、放送番組やCD/DVDパッケージの音声信号からURLなどの情報を抽出し、携帯電話を用いて所定のコンテンツに関連するwebサイトにアクセスして詳細情報を抽出したり、アンケートに回答したりする非接触なインターネットのゲートウェイサービス分野に関する。   The present invention relates to the protection of music copyright (monitoring illegal copying) in the field of package music for viewing for consumer and business use using CDs and DVDs, and the field of broadcasting and network music distribution distributed for commercial purposes by broadcasters and the like. ) And music attribute information (music title search service) field, museum, event information service service field linked to exhibition explanation narration, URL and other information extracted from audio signals of broadcast programs and CD / DVD packages In addition, the present invention relates to a non-contact Internet gateway service field in which a mobile phone is used to access a web site related to a predetermined content and extract detailed information or answer a questionnaire.

従来より、流れている音楽のタイトル等を知ることができる楽曲属性情報の提供サービスとして、放送された音楽に対して日時と地域を放送局に照会したり、携帯電話で流れている音楽断片を録音してデータベースに登録されているメロディーと照合したりするサービスが実用化されている。最近では、曲名やアーチスト情報などの楽曲属性情報を不可聴な電子透かしとして音響信号に埋め込む手法も提案されている(例えば、特許文献1〜4参照)。   Conventionally, as a service to provide music attribute information that allows you to know the title of the music that is playing, you can query the broadcast station for the date and area of the broadcasted music, Services that record and match melodies registered in the database have been put into practical use. Recently, a method of embedding music attribute information such as a song title and artist information in an acoustic signal as an inaudible digital watermark has been proposed (see, for example, Patent Documents 1 to 4).

特許文献1〜4に記載の手法では、埋め込み可能な情報量が少なく、音質が少なからず劣化し、各種信号処理により透かし情報が消失し、またアナログコピーに対しては、透かし検出が困難であるという問題がある。そこで、本出願人は、音響信号の低周波数成分の比率を属性情報のビット値に応じて変更することにより、属性情報(付加情報)を埋め込む手法を提案した(特許文献5、6参照)。   In the methods described in Patent Documents 1 to 4, the amount of information that can be embedded is small, the sound quality is deteriorated to some extent, watermark information is lost by various signal processing, and watermark detection is difficult for analog copies. There is a problem. Therefore, the present applicant has proposed a method of embedding attribute information (additional information) by changing the ratio of the low frequency component of the acoustic signal according to the bit value of the attribute information (see Patent Documents 5 and 6).

上記特許文献5、6に記載の発明では、いずれも周波数44.1kHz、量子化ビット数16ビットでサンプリングした音響信号について、4096サンプルを1音響フレームとし、この1音響フレームについて1ビットの情報を埋め込む処理を行っているが、抽出時においても、埋め込み時と同様、サンプリング周波数44.1kHz、量子化ビット数16ビットでサンプリングを行っているため、リアルタイムで抽出処理を行うためには、44.1kHz以上の音声録音性能とそれ相当の信号処理能力(例えば1GHz以上のクロック数をもつCPU)が必要となる。抽出装置を一般的なPCで実現する場合には問題ないが、抽出装置を携帯端末等で実現する場合にはPC並みの音声録音性能とCPU処理能力を備える機種を選定する必要がある。(例えば、携帯端末と同程度の筐体で実現した小型PCなどが少なからず存在するため、それらを選定すれば実現不可能ではない。)   In the inventions described in Patent Documents 5 and 6, both acoustic signals sampled at a frequency of 44.1 kHz and a quantization bit number of 16 bits are set to 4096 samples as one acoustic frame, and 1-bit information is stored for each acoustic frame. Although the embedding process is performed, sampling is performed at the sampling frequency of 44.1 kHz and the quantization bit number of 16 bits at the time of extraction as in the embedding process. Audio recording performance of 1 kHz or higher and equivalent signal processing capability (for example, a CPU having a clock number of 1 GHz or higher) are required. There is no problem when the extraction device is realized by a general PC, but when the extraction device is realized by a portable terminal or the like, it is necessary to select a model having a voice recording performance and a CPU processing capability equivalent to those of a PC. (For example, there are a lot of small PCs and the like realized by a casing of the same level as a portable terminal, so it is not impossible to realize them by selecting them.)

また、本出願人は、携帯端末等を用いてリアルタイムで処理を行うために、別途高性能のサーバを用意し、携帯端末でサンプリング周波数44.1kHz、量子化ビット数16ビットでサンプリングして得た音響信号をサーバに転送して、サーバで情報を抽出し、抽出した情報を携帯端末に転送するという手法も提案している(特許文献7参照)。
特開平11−145840号公報 特開平11−219172号公報 特許第3321767号公報 特開2003−99077号公報 特開2006−235359号公報 特開2006−323246号公報 特願2005−312755号
In addition, the present applicant prepared a separate high-performance server for processing in real time using a portable terminal or the like, and obtained the sample by sampling with a portable terminal at a sampling frequency of 44.1 kHz and a quantization bit number of 16 bits. A method has also been proposed in which a sound signal is transferred to a server, information is extracted by the server, and the extracted information is transferred to a portable terminal (see Patent Document 7).
JP-A-11-145840 JP-A-11-219172 Japanese Patent No. 3321767 JP 2003-99077 A JP 2006-235359 A JP 2006-323246 A Japanese Patent Application No. 2005-31755

しかしながら、一般的に普及している携帯端末は高精細な音楽録音を行なったり負荷のかかる演算処理を実行するニーズが比較的低いのと、コスト低減、軽量化とバッテリー消費量節約という理由から、音声録音性能とCPU性能(特に浮動小数点演算とメインメモリ容量)を低く抑えている。そのため、上記特許文献5、6に記載の抽出装置を一般的な携帯端末で実現した場合には、リアルタイムで抽出処理を行うことができないという問題がある。また、上記特許文献7に記載の発明では、本来の抽出処理以外にネットワークを往復する処理が加わるため、サーバー側で抽出処理自体をリアルタイムに実行できても、現行のネットワーク環境では携帯端末側でリアルタイムなレスポンスを得ることは困難である。   However, the reason why mobile terminals that are widely used have relatively low needs for performing high-definition music recording or performing computationally intensive processing, and because of cost reduction, weight reduction, and battery consumption saving, Voice recording performance and CPU performance (especially floating point arithmetic and main memory capacity) are kept low. Therefore, when the extraction device described in Patent Documents 5 and 6 is realized by a general portable terminal, there is a problem that extraction processing cannot be performed in real time. In addition, in the invention described in Patent Document 7, since a process of reciprocating the network is added in addition to the original extraction process, even if the extraction process itself can be executed in real time on the server side, the mobile terminal side in the current network environment It is difficult to obtain a real-time response.

そこで、本発明は、音声録音性能および処理能力が低い一般的な携帯端末等においても高速に抽出処理を行うことが可能な音響信号からの情報の抽出装置を提供することを課題とする。   Therefore, an object of the present invention is to provide an apparatus for extracting information from an acoustic signal that can perform extraction processing at high speed even in a general portable terminal or the like having low voice recording performance and processing capability.

上記課題を解決するため、本発明では、所定のサンプリング周波数Fsでデジタル化された音響信号に対して、あらかじめ聴取不能な状態で所定数Nのサンプルで構成される音響フレームごとに付加情報が埋め込まれて再生されたアナログ音響信号から付加情報を抽出する装置であって、前記アナログ音響信号の所定区間を前記サンプリング周波数Fsより小さい周波数Fs´でデジタル化して、前記所定数Nより少ない所定数N´のサンプルで構成される音響フレームを獲得する音響フレーム獲得手段と、前記音響フレームに対して窓関数を用いて周波数変換を行い、スペクトルを得る周波数変換手段と、前記生成されたスペクトルから所定の周波数範囲の複数のスペクトル集合を抽出し、各スペクトル集合のスペクトル強度を算出し、その各スペクトル強度に基づいて、埋め込まれていた1以上のビット列を抽出する符号化手段と、前記出力されたビット列をワード単位で所定の規則により変換して付加情報を抽出する付加情報抽出手段を有する音響信号からの情報の抽出装置を提供する。   In order to solve the above-described problem, in the present invention, additional information is embedded for each acoustic frame composed of a predetermined number N of samples in an inaudible state with respect to an acoustic signal digitized at a predetermined sampling frequency Fs. A device for extracting additional information from an analog sound signal reproduced in this manner, wherein a predetermined section of the analog sound signal is digitized at a frequency Fs ′ smaller than the sampling frequency Fs, and a predetermined number N smaller than the predetermined number N An acoustic frame acquisition means for acquiring an acoustic frame composed of a sample of ', a frequency conversion means for obtaining a spectrum by performing frequency conversion on the acoustic frame using a window function, and a predetermined frequency from the generated spectrum. Extract multiple spectral sets in the frequency range, calculate the spectral intensity of each spectral set, and An encoding unit for extracting one or more embedded bit strings based on each spectrum intensity, and an additional information extracting unit for extracting the additional information by converting the output bit string according to a predetermined rule in units of words. An apparatus for extracting information from an acoustic signal is provided.

本発明によれば、利用者の携帯端末の音声録音性能の制約に基づいて、元の音響信号のサンプリング周波数Fsより小さい周波数Fs´でデジタル化し、埋め込み時の1音響フレームのサンプル数Nより少ないサンプル数N´を1音響フレームとして、抽出処理を行うようにしたので、音声録音性能が低い携帯端末等においても支障なく音響信号入力を実現でき、それを逆手にとって少ないサンプル数の音響フレームを用いて同等な精度を維持しながら抽出処理を実現するようにしたため、処理能力が低い携帯端末等においても遅滞のない抽出処理を行うことが可能となるという効果を奏する。   According to the present invention, based on the restriction of the voice recording performance of the user's mobile terminal, digitization is performed at a frequency Fs ′ smaller than the sampling frequency Fs of the original acoustic signal, and the number is smaller than the number N of samples of one acoustic frame at the time of embedding. Since the sampling process is performed with the number of samples N ′ as one sound frame, sound signal input can be realized without any trouble even in a portable terminal having low voice recording performance. Thus, the extraction process is realized while maintaining the same accuracy, so that it is possible to perform the extraction process without delay even in a portable terminal having a low processing capability.

以下、本発明の実施形態について図面を参照して詳細に説明する。
(1.第1の実施形態)
まず、第1の実施形態について説明する。最初に第1の実施形態における埋め込み処理の前後における音響フレームの所定周波数成分の変化の状態について説明する。図1に、本実施形態による所定周波数成分の状態を1音響フレーム単位で示す。図1に示す各音響フレームにおいて、横軸は時間方向、縦軸は周波数方向を示している。また、網掛けされた部分は、周波数成分が存在している部分を示し、網掛けが濃いほど成分強度が強いことを示している。図1においては、縦軸の周波数方向において、周波数領域が3つに区分されているが、上から2番目の領域、すなわち、周波数F1以上F2以下の間が変更対象周波数帯であり、最上部すなわち周波数F2超、最下部すなわちF1未満は、変更対象でない周波数帯である。すなわち、本実施形態では、周波数F1以上F2以下を所定周波数範囲として、スペクトル集合の強度を変更することになる。図1(a)に示すように、変更対象周波数帯の前部におけるスペクトルをSP1、変更対象周波数帯の後部におけるスペクトルをSP3で表現することとする。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
(1. First embodiment)
First, the first embodiment will be described. First, the change state of the predetermined frequency component of the acoustic frame before and after the embedding process in the first embodiment will be described. FIG. 1 shows a state of a predetermined frequency component according to this embodiment in units of one acoustic frame. In each acoustic frame shown in FIG. 1, the horizontal axis indicates the time direction, and the vertical axis indicates the frequency direction. A shaded portion indicates a portion where a frequency component exists, and the darker the shade, the stronger the component strength. In FIG. 1, the frequency region is divided into three in the frequency direction of the vertical axis, but the second region from the top, that is, the frequency band from F1 to F2 is the frequency band to be changed, and the topmost part. That is, the frequency band above the frequency F2 and at the bottom, that is, less than F1, is a frequency band that is not to be changed. That is, in the present embodiment, the intensity of the spectrum set is changed by setting the frequency F1 to F2 as a predetermined frequency range. As shown in FIG. 1A, the spectrum in the front part of the change target frequency band is expressed by SP1, and the spectrum in the rear part of the change target frequency band is expressed by SP3.

本実施形態で、符号1を埋め込む場合、図1(b)に示すように、L-chの信号の変更対象周波数帯の後部の成分を除去し、除去した成分と同等の成分をR-chの信号に加算する。また、L-chの信号の変更対象周波数帯の前部の成分強度を高め、R-chの信号の前部の各スペクトル集合の強度を弱めている。この状態を“状態1”と呼ぶことにする。符号2を埋め込む場合は、図1(c)に示すように、L-chの信号の変更対象周波数帯の前部の成分を除去し、除去した成分と同等の成分をR-chの信号に加算する。また、L-chの信号の変更対象周波数帯の後部の成分強度を高め、R-chの信号の後部の各スペクトル集合の強度を弱めている。この状態を“状態2”と呼ぶことにする。   In the present embodiment, when the code 1 is embedded, as shown in FIG. 1B, the rear component of the L-ch signal to be changed is removed, and a component equivalent to the removed component is R-ch. Is added to the signal. Further, the intensity of the component at the front of the frequency band to be changed of the L-ch signal is increased, and the intensity of each spectrum set at the front of the R-ch signal is reduced. This state is referred to as “state 1”. When embedding the code 2, as shown in FIG. 1 (c), the front component of the change target frequency band of the L-ch signal is removed, and a component equivalent to the removed component is converted to the R-ch signal. to add. Further, the intensity of the rear component of the frequency band to be changed of the L-ch signal is increased, and the intensity of each spectrum set at the rear of the R-ch signal is reduced. This state is referred to as “state 2”.

本実施形態では、図1(b)、(c)に示すような2つの状態に周波数成分を変更することにより、情報の埋め込みを行っている。2つの状態であるので1ビット分の情報量に相当する。   In this embodiment, information is embedded by changing the frequency component into two states as shown in FIGS. Since there are two states, this corresponds to an information amount of 1 bit.

本実施形態では、上記変更対象周波数帯F1〜F2を、“1.7kHz〜3.4kHz”または “3.4kHz〜6.8kHz”のいずれかに設定する。これは、以下のような理由による。   In the present embodiment, the change target frequency bands F1 to F2 are set to either “1.7 kHz to 3.4 kHz” or “3.4 kHz to 6.8 kHz”. This is due to the following reasons.

人間の音源定位感覚は高音部では増大傾向になるが、ソース音源のエネルギーは高音になるほど小さくなる特性があり、特に電話回線帯域(300Hz〜3.4kHz)を超えると倍音成分のみとなるため、結果的に聴取可能な音源定位変異は小さい。実験の結果、400Hz〜1.5kHzの領域では聴取可能な音源定位変異は増大していくが、1.5kHzを超えると減少傾向になり、更に4kHzを超えるとほとんどなくなる。これは、4kHz以上は音声の成分はほとんどなくなり、楽器音では基音が最高音域を超えることため倍音のみの成分となるためである。   The human sound source localization sensation tends to increase in the treble part, but the energy of the source sound source has a characteristic that it becomes smaller as the treble becomes higher, especially when it exceeds the telephone line bandwidth (300 Hz to 3.4 kHz), it becomes only the harmonic component. As a result, the audible sound source localization variation is small. As a result of the experiment, the audible sound source localization mutation increases in the region of 400 Hz to 1.5 kHz, but tends to decrease when the frequency exceeds 1.5 kHz, and almost disappears when the frequency exceeds 4 kHz. This is because there is almost no sound component above 4 kHz, and the fundamental tone of the instrument sound exceeds the highest range, so that only the overtone component is obtained.

そこで、どの周波数範囲に埋め込むべきかを具体的に検討する。音声通信として普及度の高い携帯電話機を受信端末として利用する場合、上限については、電話回線帯域および携帯電話機の上限である3.4kHzとする必要がある。そこで、下限については、上限の3.4kHzから1オクターブ下がった1.7kHzとすることとした。また、携帯電話機以外を受信端末として利用する場合には、可聴周波数の上限(22kHz)以下であれば3.4kHzより高い周波数領域を用いることができるが、10kHzを超える高音域では、圧縮・変調などの信号処理の影響を受け易く、スピーカによっては再生能力が低下するため、下限を電話回線帯域の上限である3.4kHzとし、上限を3.4kHzから1オクターブ上がった6.8kHzとすることとした。なお、“1.7kHz”“3.4kHz”“6.8kHz”という値は、代表的な値であり、必ずしも正確な値である必要はなく、そこから若干ずれた値であっても良い。なお、本明細書においては、“1.7kHz〜3.4kHz”を「電話高周波帯」、“3.4kHz〜6.8kHz”を「超電話周波帯」と呼ぶことにする。また、電話回線帯域の上限は上述のように3.4kHz近辺であるので、上記「電話高周波帯」、「超電話周波帯」はそれぞれ可聴周波数範囲で電話回線帯域の上限より若干低音側、若干高音側における所定の周波数帯に該当する。   Therefore, the frequency range to be embedded is specifically examined. When a mobile phone having a high degree of spread as voice communication is used as a receiving terminal, the upper limit needs to be 3.4 kHz which is the upper limit of the telephone line band and the mobile phone. Therefore, the lower limit is set to 1.7 kHz, which is one octave lower than the upper limit of 3.4 kHz. Further, when a device other than a mobile phone is used as a receiving terminal, a frequency region higher than 3.4 kHz can be used as long as it is below the upper limit of audible frequency (22 kHz), but in a high sound region exceeding 10 kHz, compression / modulation is possible. The lower limit is set to 3.4 kHz, which is the upper limit of the telephone line bandwidth, and the upper limit is set to 6.8 kHz, which is one octave higher than 3.4 kHz. It was. Note that the values “1.7 kHz”, “3.4 kHz”, and “6.8 kHz” are representative values, and are not necessarily accurate values, and may be slightly deviated from them. In the present specification, “1.7 kHz to 3.4 kHz” is referred to as “telephone high frequency band”, and “3.4 kHz to 6.8 kHz” is referred to as “super telephone frequency band”. Further, since the upper limit of the telephone line band is around 3.4 kHz as described above, the above “telephone high frequency band” and “super telephone frequency band” are slightly lower than the upper limit of the telephone line band in the audible frequency range. This corresponds to a predetermined frequency band on the high sound side.

(1.1.埋め込み装置の構成)
まず、音響信号に対する情報の埋め込み装置について説明する。図2は、音響信号に対する情報の埋め込み装置の構成を示す機能ブロック図である。図2において、10は音響フレーム読込手段、20は周波数変換手段、30は周波数成分変更手段、40は周波数逆変換手段、50は改変音響フレーム出力手段、60は記憶手段、61は音響信号記憶部、62は付加情報記憶部、63は改変音響信号記憶部、70はビット配列作成手段である。なお、図2に示す装置は、ステレオ音響信号、モノラル音響信号の両方に対応可能であるが、ここでは、ステレオ音響信号に対して処理を行う場合について説明していく。
(1.1. Configuration of embedded device)
First, an information embedding device for an acoustic signal will be described. FIG. 2 is a functional block diagram showing a configuration of an information embedding device for an acoustic signal. In FIG. 2, 10 is an acoustic frame reading means, 20 is a frequency converting means, 30 is a frequency component changing means, 40 is a frequency inverse converting means, 50 is a modified acoustic frame output means, 60 is a storage means, and 61 is an acoustic signal storage section. 62 is an additional information storage unit, 63 is a modified acoustic signal storage unit, and 70 is a bit array creation means. Note that the apparatus shown in FIG. 2 can handle both stereo sound signals and monaural sound signals, but here, a case where processing is performed on stereo sound signals will be described.

音響フレーム読込手段10は、付加情報の埋め込み対象とする元のステレオ音響信号の各チャンネルから所定数のサンプルを1フレームとして読み込む機能を有している。周波数変換手段20は、音響フレーム読込手段10が読み込んだ音響信号のフレームをフーリエ変換等により周波数変換してフレームスペクトルを生成する機能を有している。周波数成分変更手段30は、生成されたフレームスペクトルから所定の周波数範囲に相当するスペクトル集合を複数抽出し、付加情報記憶部62から抽出し、ビット配列作成手段70が作成したビット配列に基づいて、周波数強度データのスペクトル集合の状態を変更する機能を有している。周波数逆変換手段40は、変更された周波数強度データを含む複数のフレームスペクトルに対して周波数逆変換を行うことにより、改変音響フレームを生成する機能を有している。改変音響フレーム出力手段50は、生成された改変音響フレームを順次出力する機能を有している。   The sound frame reading means 10 has a function of reading a predetermined number of samples as one frame from each channel of the original stereo sound signal to be embedded with additional information. The frequency conversion means 20 has a function of generating a frame spectrum by frequency-converting the frame of the acoustic signal read by the acoustic frame reading means 10 by Fourier transformation or the like. The frequency component changing unit 30 extracts a plurality of spectrum sets corresponding to a predetermined frequency range from the generated frame spectrum, extracts them from the additional information storage unit 62, and based on the bit arrangement created by the bit arrangement creation unit 70, It has a function of changing the state of the spectrum set of frequency intensity data. The frequency inverse transform means 40 has a function of generating a modified acoustic frame by performing frequency inverse transform on a plurality of frame spectra including the changed frequency intensity data. The modified sound frame output means 50 has a function of sequentially outputting the generated modified sound frames.

記憶手段60は、付加情報を埋め込む対象とするステレオ音響信号を記憶した音響信号記憶部61と、ビット配列として構成され、ステレオ音響信号に埋め込まれる付加情報を記憶した付加情報記憶部62と、付加情報埋め込み後の改変音響信号を記憶する改変音響信号記憶部63を有しており、その他処理に必要な各種情報を記憶するものである。ビット配列作成手段70は、付加情報記憶部62から付加情報を抽出し、付加情報の各ワードに対して、1ビットの誤り検出ビット(パリティビット)を追加した後、さらに所定の規則により8ビットを追加したビット配列を作成する機能を有している。なお、付加情報とは、音響情報に付加して埋め込むべき情報であり、タイトルやアーティスト名等の属性情報、および属性情報以外の他の情報を含むものである。本実施形態では、付加情報のコード形式としてASCIIコードを採用するため、付加情報においては7ビットを1ワードとし、ビット配列作成手段70が作成するビット配列は、誤り検出ビットを付加した後、反転付加処理を施した16ビットを1ワードとする。図2に示した各構成手段は、現実にはコンピュータおよびその周辺機器等のハードウェアに専用のプログラムを搭載することにより実現される。すなわち、コンピュータが、専用のプログラムに従って各手段の内容を実行することになる。   The storage means 60 includes an acoustic signal storage unit 61 that stores a stereo acoustic signal to be embedded with additional information, an additional information storage unit 62 that is configured as a bit array and stores additional information embedded in the stereo acoustic signal, and an additional information It has a modified acoustic signal storage unit 63 for storing the modified acoustic signal after information is embedded, and stores various information necessary for other processing. The bit array creation unit 70 extracts additional information from the additional information storage unit 62, adds a 1-bit error detection bit (parity bit) to each word of the additional information, and then further adds 8 bits according to a predetermined rule. It has a function to create a bit array to which is added. The additional information is information that should be added to the sound information and embedded, and includes attribute information such as a title and artist name, and other information other than the attribute information. In the present embodiment, since the ASCII code is used as the code format of the additional information, 7 bits are set as one word in the additional information, and the bit array generated by the bit array generating means 70 is inverted after adding an error detection bit. The 16 bits subjected to the additional processing are defined as one word. Each component shown in FIG. 2 is actually realized by mounting a dedicated program on hardware such as a computer and its peripheral devices. That is, the computer executes the contents of each means according to a dedicated program.

(1.2.埋め込み装置の処理動作)
次に、図2に示した音響信号に対する情報の埋め込み装置の処理動作について説明する。ここでは、音響信号として、L(左)、R(右)の2チャンネルを有するステレオ音響信号に対して処理を行う場合について説明していく。音響フレーム読込手段10は、音響信号記憶部61に記憶されたステレオ音響信号の左右の各チャンネルから、それぞれ所定数のサンプルを1音響フレームとして読み込む。音響フレーム読込手段10が読み込む1音響フレームのサンプル数は、適宜設定することができるが、サンプリング周波数が44.1kHzの場合、4096サンプル程度とすることが望ましい。したがって、音響フレーム読込手段10は、左チャンネル、右チャンネルについてそれぞれ4096サンプルずつ、順次音響フレームとして読み込んでいくことになる。
(1.2. Processing operation of embedded device)
Next, the processing operation of the information embedding device for the acoustic signal shown in FIG. 2 will be described. Here, a case where processing is performed on a stereo sound signal having two channels of L (left) and R (right) as sound signals will be described. The sound frame reading means 10 reads a predetermined number of samples as one sound frame from each of the left and right channels of the stereo sound signal stored in the sound signal storage unit 61. The number of samples of one sound frame read by the sound frame reading means 10 can be set as appropriate, but is desirably about 4096 samples when the sampling frequency is 44.1 kHz. Therefore, the acoustic frame reading means 10 sequentially reads 4096 samples for each of the left channel and the right channel as acoustic frames.

音響フレームとしては、AタイプとBタイプが存在する。Aタイプの音響フレーム、Bタイプの音響フレームは、それぞれ同タイプの先行する音響フレームの最後のサンプルの次のサンプルを先頭サンプルとして設定される。そして、AタイプとBタイプの音響フレームは互いに所定数(本実施形態では2048)のサンプルを重複して設定される。例えば、Aタイプの音響フレームを先頭からA1、A2、A3…とし、Bタイプの音響フレームを先頭からB1、B2、B3…とすると、A1はサンプル1〜4096、A2はサンプル4097〜8192、A3はサンプル8193〜12288、B1はサンプル2049〜6144、B2はサンプル6145〜10240、B3はサンプル10241〜14336となる。なお、AタイプとBタイプは相対的なものであるので、どちらが先であっても良い。すなわち、上記とは逆にA1がサンプル2049〜6144、A2がサンプル6145〜10240、A3がサンプル10241〜14336、B1がサンプル1〜4096、B2がサンプル4097〜8192、B3がサンプル8193〜12288であっても良い。   There are A type and B type as acoustic frames. In the A-type acoustic frame and the B-type acoustic frame, the next sample after the last sample of the preceding acoustic frame of the same type is set as the first sample. The A-type and B-type sound frames are set by overlapping a predetermined number (2048 in this embodiment) of samples. For example, if the A type acoustic frame is A1, A2, A3... From the top and the B type acoustic frame is B1, B2, B3... From the top, A1 is samples 1 to 4096, A2 is samples 4097 to 8192, A3. Is samples 8193-12288, B1 is samples 2049-6144, B2 is samples 6145-10240, and B3 is samples 10241-14336. Since the A type and the B type are relative, either one may be first. That is, contrary to the above, A1 is samples 2049 to 6144, A2 is samples 6145 to 10240, A3 is samples 10241 to 14336, B1 is samples 1 to 4096, B2 is samples 4097 to 8192, and B3 is samples 8193 to 12288. May be.

周波数変換手段20は、音響フレーム読込手段10が読み込んだ音響フレームに対して、周波数変換を行って、その音響フレームのスペクトルであるフレームスペクトルを得る。具体的には、窓関数を利用して周波数変換を行う。周波数変換としては、フーリエ変換、ウェーブレット変換その他公知の種々の手法を用いることができる。本実施形態では、フーリエ変換を用いた場合を例にとって説明する。   The frequency conversion unit 20 performs frequency conversion on the sound frame read by the sound frame reading unit 10 to obtain a frame spectrum that is a spectrum of the sound frame. Specifically, frequency conversion is performed using a window function. As frequency conversion, Fourier transform, wavelet transform, and other various known methods can be used. In the present embodiment, a case where Fourier transform is used will be described as an example.

一般に、所定の信号に対してフーリエ変換を行う場合、信号を所定の長さに区切って行う必要があるが、この場合、所定長さの信号に対してそのままフーリエ変換を行うと、擬似高調波成分が発生する。そこで、一般にフーリエ変換を行う場合には、ハニング窓と呼ばれる窓関数を用いて、信号の値を変化させた後、変化後の値に対してフーリエ変換を実行する。   In general, when Fourier transform is performed on a predetermined signal, it is necessary to divide the signal into predetermined lengths. In this case, if Fourier transform is performed on a signal of a predetermined length as it is, a pseudo-harmonic wave is generated. Ingredients are generated. Therefore, in general, when performing Fourier transform, a signal value is changed using a window function called a Hanning window, and then Fourier transform is performed on the changed value.

本実施形態では、擬似高調波成分の発生を防止するためだけではなく、一つの音響フレームから、情報を埋め込むための複数の状態を作り出すため、複数の窓関数を用意し、一つの音響フレームに対して、各窓関数を利用してフーリエ変換を行い、複数のスペクトルを得る。複数の窓関数として、本実施形態では、図3(b)〜(d)に示したような第1窓関数W(1,i)、第2窓関数W(2,i)、第3窓関数W(3,i)を用意し、抽出側で認識し易いようにした。第1窓関数W(1,i)は、音響フレームの前部を抽出するためのものであり、図3(b)に示すように前部の所定のサンプル番号iの位置において、最大値1をとり、後部においては、最小値0をとるように設定されている。どのサンプル番号の場合に最大値をとるかについては、窓関数W(1,i)の設計によって異なってくるが、本実施形態では、後述する〔数式1〕で定義される。窓関数W(1,i)を乗じることにより、図3(a)に示すような音響フレームの信号波形は、図3(f)に示すように、前部に信号成分が残り、後部の信号成分が削除されたものとなり、これがフーリエ変換対象となる。   In this embodiment, not only to prevent the generation of the pseudo-harmonic component, but also to create a plurality of states for embedding information from one acoustic frame, a plurality of window functions are prepared, and one acoustic frame is provided. On the other hand, Fourier transform is performed using each window function to obtain a plurality of spectra. As a plurality of window functions, in the present embodiment, the first window function W (1, i), the second window function W (2, i), the third window as shown in FIGS. A function W (3, i) is prepared so that it can be easily recognized on the extraction side. The first window function W (1, i) is for extracting the front part of the acoustic frame, and has a maximum value of 1 at the position of a predetermined sample number i in the front part as shown in FIG. And the rear part is set to have a minimum value of 0. Which sample number takes the maximum value depends on the design of the window function W (1, i), but in this embodiment, it is defined by [Equation 1] described later. By multiplying the window function W (1, i), the signal waveform of the acoustic frame as shown in FIG. 3A has a signal component remaining in the front part as shown in FIG. The component is deleted, and this becomes a Fourier transform target.

また、第2窓関数W(2,i)は、音響フレームの中央部を抽出するためのものであり、図3(c)に示すように、中央部の所定のサンプル番号iの位置において、最大値1をとり、前部、後部においては、最小値0をとるように設定されている。どのサンプル番号の場合に最大値をとるかについては、窓関数W(2,i)の設計によって異なってくるが、本実施形態では、後述する〔数式2〕で定義される。窓関数W(2,i)を乗じることにより、図3(a)に示すような音響フレームの信号波形は、図3(g)に示すように、中央部に信号成分が残り、前部と後部の信号成分が除去されたものとなり、これがフーリエ変換対象となる。   The second window function W (2, i) is for extracting the central portion of the acoustic frame, and as shown in FIG. 3C, at the position of the predetermined sample number i in the central portion. The maximum value is 1, and the minimum value is set to 0 at the front and rear portions. Which sample number takes the maximum value depends on the design of the window function W (2, i), but in this embodiment, it is defined by [Expression 2] described later. By multiplying the window function W (2, i), the signal waveform of the acoustic frame as shown in FIG. 3A has a signal component remaining in the center as shown in FIG. The rear signal component is removed, and this is subjected to Fourier transform.

また、第3窓関数W(3,i)は、音響フレームの後部を抽出するためのものであり、図3(d)に示すように、前部においては最小値0をとり、後部の所定のサンプル番号iの位置において、最大値1をとるように設定されている。どのサンプル番号の場合に最大値をとるかについては、窓関数W(3,i)の設計によって異なってくるが、本実施形態では、後述する〔数式3〕で定義される。窓関数W(3,i)を乗じることにより、図3(a)に示すような音響フレームの信号波形は、図3(h)に示すように、前部の信号成分が除去され、後部に信号成分が残ったものとなり、これがフーリエ変換対象となる。   The third window function W (3, i) is for extracting the rear part of the acoustic frame. As shown in FIG. 3D, the third window function W (3, i) takes a minimum value of 0 at the front part, The maximum value 1 is set at the position of the sample number i. Which sample number takes the maximum value depends on the design of the window function W (3, i), but in this embodiment, it is defined by [Equation 3] described later. By multiplying the window function W (3, i), the signal waveform of the acoustic frame as shown in FIG. 3A is removed from the front signal component as shown in FIG. The signal component remains and becomes a Fourier transform target.

このように前部、中央部、後部を抽出した後、フーリエ変換を実行するため、前部、中央部、後部に対応したスペクトルが得られることになる。1つの音響フレームにビット値を埋め込むためには、本来、前部と後部の2つに分けられれば良いのであるが、抽出側においては、必ずしも、信号を同期して読み込むことができるとは限らず、したがって、前部と後部をはっきりと区別するため、本実施形態では、埋め込み時に中央部の信号成分を常に削除し、前部と後部を時間的に分離することとしている(ただし、抽出時は前部と後部だけを解析すればよく、中央部は無視してよい)。本実施形態において用いる窓関数は、窓関数W(1,i)と窓関数W(3,i)が左右非対称であるため、抽出時において、埋め込まれていた情報の誤認識が起こりにくくなる。   Thus, after extracting the front part, the central part, and the rear part, the Fourier transform is executed, so that spectra corresponding to the front part, the central part, and the rear part are obtained. In order to embed a bit value in one acoustic frame, the bit value is originally divided into two parts, a front part and a rear part. However, on the extraction side, it is not always possible to read a signal synchronously. Therefore, in order to clearly distinguish the front part and the rear part, in this embodiment, the signal component at the center part is always deleted at the time of embedding, and the front part and the rear part are separated in time (however, at the time of extraction) Only need to analyze the front and rear, and ignore the middle). In the window function used in the present embodiment, the window function W (1, i) and the window function W (3, i) are asymmetrical, so that erroneous recognition of embedded information is less likely to occur during extraction.

また、本発明では、音響フレームを重複させて読み込み、奇数フレーム(または偶数フレーム)については、窓関数W(1,i)、W(2,i)、W(3,i)を用い、偶数フレーム(または奇数フレーム)については、図3(e)に示したような第4窓関数W(4,i)を用いるようにした。   In the present invention, acoustic frames are read in duplicate, and for odd frames (or even frames), window functions W (1, i), W (2, i), W (3, i) are used, and even frames are used. For frames (or odd frames), the fourth window function W (4, i) as shown in FIG. 3 (e) is used.

なお、本発明においては、音響フレームは重複して読み込まれる。すなわち、奇数番目の音響フレームと偶数番目の音響フレームは、所定数のサンプルを重複して読み込む。上記のように、奇数フレームと偶数フレームでは、用いられる窓関数が異なるが、奇数フレームと偶数フレームは単に奇数か偶数かの違いだけであるため、どちらに対してどちらの処理を行っても良い。したがって、本明細書では、奇数フレーム、偶数フレームの一方をAタイプフレーム、他方をBタイプフレームと呼ぶことにする。本実施形態では、奇数フレームをAタイプフレーム、偶数フレームをBタイプフレームとして説明するが、逆に偶数フレームをAタイプフレーム、奇数フレームをBタイプフレームとしても良い。   In the present invention, sound frames are read in duplicate. That is, a predetermined number of samples are redundantly read in the odd-numbered sound frames and the even-numbered sound frames. As described above, the window function used is different between the odd frame and the even frame, but since either the odd frame or the even frame is simply the difference between the odd frame and the even frame, either process may be performed on either. . Therefore, in this specification, one of the odd-numbered frame and the even-numbered frame is referred to as an A-type frame, and the other is referred to as a B-type frame. In the present embodiment, an odd frame is described as an A type frame and an even frame is described as a B type frame. Conversely, an even frame may be an A type frame and an odd frame may be a B type frame.

本実施形態では、窓関数W(1,i)〜W(4,i)は、以下の〔数式1〕〜〔数式4〕で定義される。なお、図3において、横軸は時間軸(i)である。iは、後述するように、各音響フレーム内のN個のサンプルに付した通し番号であるため時刻tに比例している。また、図3(a)(f)(g)(h)(i)において縦軸は信号の振幅値(レベル)を示す。図3(b)〜(e)において縦軸は窓関数W(1,i)、W(2,i)、W(3,i)、W(4,i)の値を示しており、W(1,i)、W(2,i)、W(3,i)、W(4,i)の最大値はいずれも1である。   In the present embodiment, the window functions W (1, i) to W (4, i) are defined by the following [Equation 1] to [Equation 4]. In FIG. 3, the horizontal axis is the time axis (i). As described later, i is a serial number assigned to N samples in each acoustic frame, and is proportional to time t. 3A, 3F, 3G, 3H, and 3I, the vertical axis indicates the amplitude value (level) of the signal. 3B to 3E, the vertical axis indicates the values of the window functions W (1, i), W (2, i), W (3, i), and W (4, i). The maximum values of (1, i), W (2, i), W (3, i), and W (4, i) are all 1.

〔数式1〕
i≦3N/8のとき、W(1,i)=0.5−0.5cos(8πi/(3N))
3N/8<i≦N/2のとき、W(1,i)=0.5−0.5cos(8π(i−N/4)/N)
i>N/2のとき、W(1,i)=0.0
[Formula 1]
When i ≦ 3N / 8, W (1, i) = 0.5−0.5 cos (8πi / (3N))
When 3N / 8 <i ≦ N / 2, W (1, i) = 0.5−0.5 cos (8π (i−N / 4) / N)
When i> N / 2, W (1, i) = 0.0

〔数式2〕
i≦3N/8のとき、W(2,i)=0.0
3N/8<i≦N/2のとき、W(2,i)=0.5−0.5cos(8π(i−3N/8)/N)
N/2<i≦3N/4のとき、W(2,i)=0.5−0.5cos(4π(i−N/4)/N)
i>3N/4のとき、W(2,i)=0.0
[Formula 2]
When i ≦ 3N / 8, W (2, i) = 0.0
When 3N / 8 <i ≦ N / 2, W (2, i) = 0.5−0.5 cos (8π (i−3N / 8) / N)
When N / 2 <i ≦ 3N / 4, W (2, i) = 0.5−0.5 cos (4π (i−N / 4) / N)
When i> 3N / 4, W (2, i) = 0.0

〔数式3〕
i≦N/2のとき、W(3,i)=0.0
i>N/2のとき、W(3,i)=0.5−0.5cos(4π(i−N/2)/N)
[Formula 3]
When i ≦ N / 2, W (3, i) = 0.0
When i> N / 2, W (3, i) = 0.5−0.5 cos (4π (i−N / 2) / N)

〔数式4〕
i≦N/4のとき、W(4,i)=0.0
N/4<i≦N/2のとき、W(4,i)=0.5−0.5cos(4π(i−N/4)/N)
N/2<i≦7N/8のとき、W(4,i)=0.5−0.5cos(8π(i−N/8)/(3N))
i>7N/8のとき、W(4,i)=0.0
[Formula 4]
When i ≦ N / 4, W (4, i) = 0.0
When N / 4 <i ≦ N / 2, W (4, i) = 0.5−0.5 cos (4π (i−N / 4) / N)
When N / 2 <i ≦ 7N / 8, W (4, i) = 0.5−0.5 cos (8π (i−N / 8) / (3N))
When i> 7N / 8, W (4, i) = 0.0

なお、図3および上記〔数式1〕〜〔数式4〕から明らかなように、窓関数W(1,i)とW(3,i)は、互いに非対称な形状である。これは、後述する抽出側において、両者の識別を容易にするためである。また、窓関数W(1,i)、W(2,i)、W(3,i)は、iが所定の値のときに最大値1をとり、iがその他の値をとる場合には、iの値に応じて単調増加、または単調減少する窓関数を分割したものであるため、窓関数W(1,i)とW(3,i)が定まると、窓関数W(2,i)も必然的に定まる。このため、窓関数W(2,i)は左右非対称の形状となっている。   As is clear from FIG. 3 and [Formula 1] to [Formula 4], the window functions W (1, i) and W (3, i) have asymmetric shapes. This is for facilitating identification between the two on the extraction side described later. The window functions W (1, i), W (2, i), and W (3, i) have a maximum value of 1 when i is a predetermined value, and i takes other values. , I is a window function that monotonically increases or decreases according to the value of i, and therefore, when the window functions W (1, i) and W (3, i) are determined, the window function W (2, i ) Is inevitably determined. For this reason, the window function W (2, i) has a left-right asymmetric shape.

本発明においては、奇数フレームと偶数フレームを、所定サンプルずつ重複して読み込むため、情報の埋め込みを行った後、音響信号に復元する際に、窓関数を乗じた奇数フレームと、窓関数を乗じた偶数フレームの重複サンプルを加算した場合に、ほぼ元の値に戻るようにしなければならない。このため、窓関数W(4,i)の形状は、窓関数W(1,i)、W(2,i)、W(3,i)の値に応じて必然的に定まる。すなわち、奇数フレームと偶数フレームの重複部分において、窓関数W(1,i)、W(2,i)、W(3,i)、W(4,i)を加算すると、全区間固定値1になるように定義されている。   In the present invention, since odd frames and even frames are redundantly read by a predetermined number of samples, after embedding information and then restoring to an acoustic signal, the odd frame multiplied by the window function and the window function are multiplied. When overlapping samples of even frames are added, it is necessary to return almost to the original value. Therefore, the shape of the window function W (4, i) is inevitably determined according to the values of the window functions W (1, i), W (2, i), and W (3, i). That is, when the window functions W (1, i), W (2, i), W (3, i), and W (4, i) are added in the overlapping portion of the odd and even frames, the fixed value 1 for the entire section is obtained. Is defined to be

周波数変換手段20が、Aタイプの音響フレームに対してフーリエ変換を行う場合は、左チャンネル信号Xl(i)、右チャンネル信号Xr(i)(i=0,…,N−1)に対して、3つの窓関数W(1,i)、W(2,i)、W(3,i)を用いて、以下の〔数式5〕に従った処理を行い、左チャンネルに対応する変換データの実部Al(1,j)、Al(2,j)、Al(3,j)、虚部Bl(1,j)、Bl(2,j)、Bl(3,j)、右チャンネルに対応する変換データの実部Ar(1,j)、Ar(2,j)、Ar(3,j)、虚部Br(1,j)、Br(2,j)、Br(3,j)を得る。なお、窓関数W(1,i)、W(2,i)、W(3,i)は、それぞれ音響フレームの前部(先頭)付近、中央付近、後部付近において値が大きくなる関数となっている。   When the frequency conversion means 20 performs Fourier transform on the A type sound frame, the left channel signal Xl (i) and the right channel signal Xr (i) (i = 0,..., N−1). Using the three window functions W (1, i), W (2, i), W (3, i), processing according to the following [Equation 5] is performed, and the conversion data corresponding to the left channel is obtained. Real part Al (1, j), Al (2, j), Al (3, j), imaginary part Bl (1, j), Bl (2, j), Bl (3, j), corresponding to the right channel Real part Ar (1, j), Ar (2, j), Ar (3, j), imaginary part Br (1, j), Br (2, j), Br (3, j) obtain. Note that the window functions W (1, i), W (2, i), and W (3, i) are functions whose values increase near the front (front), near the center, and near the rear of the acoustic frame, respectively. ing.

〔数式5〕
Al(1,j)=Σi=0,…,N-1W(1,i)・Xl(i)・cos(2πij/N)
Bl(1,j)=Σi=0,…,N-1W(1,i)・Xl(i)・sin(2πij/N)
Al(2,j)=Σi=0,…,N-1W(2,i)・Xl(i)・cos(2πij/N)
Bl(2,j)=Σi=0,…,N-1W(2,i)・Xl(i)・sin(2πij/N)
Al(3,j)=Σi=0,…,N-1W(3,i)・Xl(i)・cos(2πij/N)
Bl(3,j)=Σi=0,…,N-1W(3,i)・Xl(i)・sin(2πij/N)
Ar(1,j)=Σi=0,…,N-1W(1,i)・Xr(i)・cos(2πij/N)
Br(1,j)=Σi=0,…,N-1W(1,i)・Xr(i)・sin(2πij/N)
Ar(2,j)=Σi=0,…,N-1W(2,i)・Xr(i)・cos(2πij/N)
Br(2,j)=Σi=0,…,N-1W(2,i)・Xr(i)・sin(2πij/N)
Ar(3,j)=Σi=0,…,N-1W(3,i)・Xr(i)・cos(2πij/N)
Br(3,j)=Σi=0,…,N-1W(3,i)・Xr(i)・sin(2πij/N)
[Formula 5]
Al (1, j) = Σi = 0,..., N-1 W (1, i) .Xl (i) .cos (2πij / N)
Bl (1, j) = Σi = 0,..., N-1 W (1, i) · Xl (i) · sin (2πij / N)
Al (2, j) = Σi = 0,..., N-1 W (2, i) · Xl (i) · cos (2πij / N)
Bl (2, j) = Σi = 0,..., N-1 W (2, i) · Xl (i) · sin (2πij / N)
Al (3, j) = Σi = 0,..., N-1 W (3, i) · Xl (i) · cos (2πij / N)
Bl (3, j) = Σi = 0,..., N-1 W (3, i) .Xl (i) .sin (2πij / N)
Ar (1, j) = Σi = 0,..., N-1 W (1, i) .Xr (i) .cos (2πij / N)
Br (1, j) = Σ i = 0,..., N-1 W (1, i) · Xr (i) · sin (2πij / N)
Ar (2, j) = Σi = 0,..., N-1 W (2, i) .Xr (i) .cos (2πij / N)
Br (2, j) = Σi = 0,..., N-1 W (2, i) .Xr (i) .sin (2πij / N)
Ar (3, j) = Σi = 0,..., N-1 W (3, i) · Xr (i) · cos (2πij / N)
Br (3, j) = Σi = 0,..., N-1 W (3, i) · Xr (i) · sin (2πij / N)

周波数変換手段20が、Bタイプの音響フレームに対してフーリエ変換を行う場合は、左チャンネル信号Xl(i)、右チャンネル信号Xr(i)(i=0,…,N−1)に対して、窓関数W(4,i)を用いて、以下の〔数式6〕に従った処理を行い、左チャンネルに対応する変換データの実部Al(4,j)、虚部Bl(4,j)、右チャンネルに対応する変換データの実部Ar(4,j)、虚部Br(4,j)を得る。   When the frequency conversion means 20 performs Fourier transform on the B type sound frame, the left channel signal Xl (i) and the right channel signal Xr (i) (i = 0,..., N−1). The window function W (4, i) is used to perform processing according to the following [Equation 6], and the real part Al (4, j) and imaginary part Bl (4, j) of the conversion data corresponding to the left channel ), Real part Ar (4, j) and imaginary part Br (4, j) of the conversion data corresponding to the right channel are obtained.

〔数式6〕
Al(4,j)=Σi=0,…,N-1W(4,i)・Xl(i)・cos(2πij/N)
Bl(4,j)=Σi=0,…,N-1W(4,i)・Xl(i)・sin(2πij/N)
Ar(4,j)=Σi=0,…,N-1W(4,i)・Xr(i)・cos(2πij/N)
Br(4,j)=Σi=0,…,N-1W(4,i)・Xr(i)・sin(2πij/N)
[Formula 6]
Al (4, j) = Σi = 0,..., N-1 W (4, i) · Xl (i) · cos (2πij / N)
Bl (4, j) = Σi = 0,..., N-1 W (4, i) .Xl (i) .sin (2πij / N)
Ar (4, j) = Σi = 0,..., N-1 W (4, i) .Xr (i) .cos (2πij / N)
Br (4, j) = Σi = 0,..., N-1 W (4, i) · Xr (i) · sin (2πij / N)

上記〔数式5〕〔数式6〕において、iは、各音響フレーム内のN個のサンプルに付した通し番号であり、i=0,1,2,…N−1の整数値をとる。また、jは周波数の値について、値の小さなものから順に付した通し番号であり、iと同様にj=0,1,2,…N/2−1の整数値をとる。サンプリング周波数が44.1kHz、N=4096の場合、jの値が1つ異なると、周波数が10.8Hz異なることになる。   In the above [Formula 5] and [Formula 6], i is a serial number assigned to N samples in each acoustic frame, and takes an integer value of i = 0, 1, 2,. Further, j is a serial number assigned in order from the smallest value of the frequency value, and takes an integer value of j = 0, 1, 2,... N / 2-1 like i. When the sampling frequency is 44.1 kHz and N = 4096, if the value of j is different by one, the frequency will be different by 10.8 Hz.

上記〔数式5〕〔数式6〕に従った処理を実行することにより、各音響フレームの信号成分を周波数に対応した成分であるスペクトルで表現されたフレームスペクトルが得られる。続いて、周波数成分変更手段30が、生成されたフレームスペクトルから所定周波数範囲のスペクトル集合を抽出する。本実施形態では、F1以上F2以下の範囲のものを抽出する。   By executing the processing according to the above [Equation 5] and [Equation 6], a frame spectrum in which the signal component of each acoustic frame is represented by a spectrum corresponding to the frequency is obtained. Subsequently, the frequency component changing unit 30 extracts a spectrum set in a predetermined frequency range from the generated frame spectrum. In the present embodiment, a range between F1 and F2 is extracted.

周波数成分変更手段30は、Aタイプの音響フレームについて、ビット配列作成手段70が作成したビット配列に応じて、周波数成分の割合を変更する処理を行う。本発明では、ビット配列を1ビットずつ読み込み、1音響フレームに対して1ビットの情報を埋め込む。埋め込まれる1ビットの値は、“0” “1”の2通りがある。本実施形態では、これらを値1、値2と定義する。この際、“0”“1”の2通りのうち、いずれを値1、値2と定義しても良い。抽出側において、埋め込み側で埋め込まれた1ビットが特定できれば良いためである。したがって、この定義は、埋め込み側と抽出側で一致している必要がある。   The frequency component changing unit 30 performs a process of changing the ratio of the frequency components for the A type sound frame according to the bit arrangement created by the bit arrangement creating unit 70. In the present invention, the bit arrangement is read bit by bit, and 1-bit information is embedded in one acoustic frame. There are two 1-bit values to be embedded: “0” and “1”. In the present embodiment, these are defined as value 1 and value 2. At this time, either of “0” and “1” may be defined as value 1 and value 2. This is because it is sufficient that one bit embedded on the extraction side can be specified on the extraction side. Therefore, this definition must match between the embedding side and the extraction side.

本発明では、L-chの信号の変更対象周波数帯における成分強度を高め、R-chの信号の対応するスペクトル集合の強度を弱める際に、周波数方向の値jに応じて変化する窓関数F(j)を用いる。この周波数方向窓関数F(j)は、以下の〔数式7〕で定義されるものである。   In the present invention, when the component intensity in the change target frequency band of the L-ch signal is increased and the intensity of the corresponding spectrum set of the R-ch signal is decreased, the window function F that changes according to the value j in the frequency direction. (J) is used. This frequency direction window function F (j) is defined by the following [Equation 7].

〔数式7〕
F(j)=1.0−(j−Pr)2/Pr2
[Formula 7]
F (j) = 1.0− (j−Pr) 2 / Pr 2

上記〔数式7〕において、Pr=P/2である。また、Pは変更対象周波数帯の周波数方向の幅であり、変更対象周波数帯の下限の成分の番号をm、変更対象周波数帯の上限の成分の番号をMとした場合、P=M−mである。例えば、変更対象周波数帯として、1.7kHz〜3.4kHzを設定する場合、m=160、M=320であるので、P=160となる。この窓関数F(j)が描く曲線を図4に示す。図4に示すように、窓関数F(j)は、変更対象周波数帯における周波数の中心部分に重みを大きくした関数となっている。実際に窓関数F(j)を適用する際には、変更対象周波数帯の下限であるmだけjの値を補正して適用することになる。   In the above [Expression 7], Pr = P / 2. Further, P is the width in the frequency direction of the change target frequency band. When m is the number of the lower limit component of the change target frequency band and M is the number of the upper limit component of the change target frequency band, P = M−m It is. For example, when 1.7 kHz to 3.4 kHz is set as the change target frequency band, since m = 160 and M = 320, P = 160. A curve drawn by the window function F (j) is shown in FIG. As shown in FIG. 4, the window function F (j) is a function in which the weight is increased at the center portion of the frequency in the change target frequency band. When the window function F (j) is actually applied, the value of j is corrected by m which is the lower limit of the change target frequency band.

埋め込むべき情報が“値1”である場合、以下の〔数式8〕に従った処理を実行することにより、周波数成分の状態を“状態1”、すなわち、図1(b)に示したような状態に変更する。   When the information to be embedded is “value 1”, the state of the frequency component is set to “state 1”, that is, as shown in FIG. Change to state.

〔数式8〕
j=m〜M−1の各成分に対して
Al´(3,j)=0
Bl´(3,j)=0
E(3,j)={Al(3,j)2+Bl(3,j)2+Ar(3,j)2+Br(3,j)21/2
Ar´(3,j)=Ar(3,j)・E(3,j)/{Ar(3,j)2+Br(3,j)21/2
Br´(3,j)=Br(3,j)・E(3,j)/{Ar(3,j)2+Br(3,j)21/2
Al´(2,j)=0
Bl´(2,j)=0
E(2,j)={Al(2,j)2+Bl(2,j)2+Ar(2,j)2+Br(2,j)21/2
Ar´(2,j)=Ar(2,j)・E(2,j)/{Ar(2,j)2+Br(2,j)21/2
Br´(2,j)=Br(2,j)・E(2,j)/{Ar(2,j)2+Br(2,j)21/2
E(1,j)={Al(1,j)2+Bl(1,j)2+Ar(1,j)2+Br(1,j)21/2
Al´(1,j)=F(j−m)・Al(1,j)・E(1,j)/{Al(1,j)2+Bl(1,j)21/2
Bl´(1,j)=F(j−m)・Bl(1,j)・E(1,j)/{Al(1,j)2+Bl(1,j)21/2
Ar´(1,j)=(1.0−F(j−m))・Ar(1,j)・E(1,j)/{Ar(1,j)2+Br(1,j)21/2
Br´(1,j)=(1.0−F(j−m))・Br(1,j)・E(1,j)/{Ar(1,j)2+Br(1,j)21/2
[Formula 8]
For each component of j = m to M−1, Al ′ (3, j) = 0
Bl ′ (3, j) = 0
E (3, j) = {Al (3, j) 2 + B1 (3, j) 2 + Ar (3, j) 2 + Br (3, j) 2 } 1/2
Ar ′ (3, j) = Ar (3, j) · E (3, j) / {Ar (3, j) 2 + Br (3, j) 2 } 1/2
Br ′ (3, j) = Br (3, j) · E (3, j) / {Ar (3, j) 2 + Br (3, j) 2 } 1/2
Al ′ (2, j) = 0
Bl ′ (2, j) = 0
E (2, j) = {Al (2, j) 2 + Bl (2, j) 2 + Ar (2, j) 2 + Br (2, j) 2 } 1/2
Ar ′ (2, j) = Ar (2, j) · E (2, j) / {Ar (2, j) 2 + Br (2, j) 2 } 1/2
Br ′ (2, j) = Br (2, j) · E (2, j) / {Ar (2, j) 2 + Br (2, j) 2 } 1/2
E (1, j) = {Al (1, j) 2 + Bl (1, j) 2 + Ar (1, j) 2 + Br (1, j) 2 } 1/2
Al ′ (1, j) = F (j−m) · Al (1, j) · E (1, j) / {Al (1, j) 2 + Bl (1, j) 2 } 1/2
Bl ′ (1, j) = F (j−m) · B1 (1, j) · E (1, j) / {Al (1, j) 2 + B1 (1, j) 2 } 1/2
Ar ′ (1, j) = (1.0−F (j−m)) · Ar (1, j) · E (1, j) / {Ar (1, j) 2 + Br (1, j) 2 } 1/2
Br ′ (1, j) = (1.0−F (j−m)) · Br (1, j) · E (1, j) / {Ar (1, j) 2 + Br (1, j) 2 } 1/2

上記〔数式8〕においては、j=m〜M−1において、Al´(3,j)、Bl´(3,j)を共に0としている。これは、図1(b)の上段に示すように、L-chにおいて、SP3内の各成分を0にすることを示しているが、“状態1”はSP1との差を明確にすることができれば十分であるため、必ずしも0にする必要はなく、小さな値であれば良い。   In the above [Formula 8], Al ′ (3, j) and Bl ′ (3, j) are both 0 at j = m to M−1. As shown in the upper part of FIG. 1B, this indicates that each component in SP3 is set to 0 in L-ch, but “state 1” makes the difference from SP1 clear. Therefore, it is not always necessary to set to 0, and a small value is sufficient.

埋め込むべき情報が“値2”である場合は、以下の〔数式9〕に従った処理を実行することにより、周波数成分の状態を“状態2” 、すなわち、図1(c)に示したような状態に変更する。   When the information to be embedded is “value 2”, the state according to the following [Equation 9] is executed to change the frequency component state to “state 2”, that is, as shown in FIG. Change to the correct state.

〔数式9〕
j=m〜M−1の各成分に対して
Al´(1,j)=0
Bl´(1,j)=0
E(1,j)={Al(1,j)2+Bl(1,j)2+Ar(1,j)2+Br(1,j)21/2
Ar´(1,j)=Ar(1,j)・E(1,j)/{Ar(1,j)2+Br(1,j)21/2
Br´(1,j)=Br(1,j)・E(1,j)/{Ar(1,j)2+Br(1,j)21/2
Al´(2,j)=0
Bl´(2,j)=0
E(2,j)={Al(2,j)2+Bl(2,j)2+Ar(2,j)2+Br(2,j)21/2
Ar´(2,j)=Ar(2,j)・E(2,j)/{Ar(2,j)2+Br(2,j)21/2
Br´(2,j)=Br(2,j)・E(2,j)/{Ar(2,j)2+Br(2,j)21/2
E(3,j)={Al(3,j)2+Bl(3,j)2+Ar(3,j)2+Br(3,j)21/2
Al´(3,j)=F(j−m)・Al(3,j)・E(3,j)/{Al(3,j)2+Bl(3,j)21/2
Bl´(3,j)=F(j−m)・Bl(3,j)・E(3,j)/{Al(3,j)2+Bl(3,j)21/2
Ar´(3,j)=(1.0−F(j−m))・Ar(3,j)・E(3,j)/{Ar(3,j)2+Br(3,j)21/2
Br´(3,j)=(1.0−F(j−m))・Br(3,j)・E(3,j)/{Ar(3,j)2+Br(3,j)21/2
[Formula 9]
For each component of j = m to M−1, Al ′ (1, j) = 0
Bl ′ (1, j) = 0
E (1, j) = {Al (1, j) 2 + Bl (1, j) 2 + Ar (1, j) 2 + Br (1, j) 2 } 1/2
Ar ′ (1, j) = Ar (1, j) · E (1, j) / {Ar (1, j) 2 + Br (1, j) 2 } 1/2
Br ′ (1, j) = Br (1, j) · E (1, j) / {Ar (1, j) 2 + Br (1, j) 2 } 1/2
Al ′ (2, j) = 0
Bl ′ (2, j) = 0
E (2, j) = {Al (2, j) 2 + Bl (2, j) 2 + Ar (2, j) 2 + Br (2, j) 2 } 1/2
Ar ′ (2, j) = Ar (2, j) · E (2, j) / {Ar (2, j) 2 + Br (2, j) 2 } 1/2
Br ′ (2, j) = Br (2, j) · E (2, j) / {Ar (2, j) 2 + Br (2, j) 2 } 1/2
E (3, j) = {Al (3, j) 2 + B1 (3, j) 2 + Ar (3, j) 2 + Br (3, j) 2 } 1/2
Al ′ (3, j) = F (j−m) · Al (3, j) · E (3, j) / {Al (3, j) 2 + Bl (3, j) 2 } 1/2
Bl ′ (3, j) = F (j−m) · B1 (3, j) · E (3, j) / {Al (3, j) 2 + B1 (3, j) 2 } 1/2
Ar ′ (3, j) = (1.0−F (j−m)) · Ar (3, j) · E (3, j) / {Ar (3, j) 2 + Br (3, j) 2 } 1/2
Br ′ (3, j) = (1.0−F (j−m)) · Br (3, j) · E (3, j) / {Ar (3, j) 2 + Br (3, j) 2 } 1/2

上記〔数式9〕においては、j=m〜M−1において、Al´(1,j)、Bl´(1,j)を共に0としている。これは、図1(c)の上段に示すように、L-chにおいて、SP1内の各成分を0にすることを示しているが、“状態2”はSP3との差を明確にすることができれば十分であるため、必ずしも0にする必要はなく、小さな値であれば良い。   In the above [Equation 9], in j = m to M−1, both Al ′ (1, j) and Bl ′ (1, j) are set to 0. This indicates that each component in SP1 is set to 0 in L-ch as shown in the upper part of FIG. 1C, but “state 2” makes the difference from SP3 clear. Therefore, it is not always necessary to set to 0, and a small value is sufficient.

上記のように、Aタイプの音響フレームに対しては、埋め込むべきビット値に応じて、周波数成分の変更を行う必要があるため、周波数成分変更手段30は、上記〔数式8〕〔数式9〕に従った処理を実行する。ところが、Bタイプの音響フレームは、Aタイプの音響フレームのみの場合に生じる両端部分の不連続性を防止するために用いられるものであるので、ビット値に応じて周波数成分の変更を行う必要はない。そこで、周波数成分変更手段30は、Bタイプの音響フレームについては、以下の〔数式10〕に従った処理を実行し、常にその変更対象周波数帯の成分を除去する。   As described above, since it is necessary to change the frequency component for the A type sound frame in accordance with the bit value to be embedded, the frequency component changing means 30 performs the above [Formula 8] and [Formula 9]. Execute the process according to. However, since the B type acoustic frame is used to prevent discontinuity at both end portions that occurs only in the case of the A type acoustic frame, it is necessary to change the frequency component according to the bit value. Absent. Therefore, the frequency component changing unit 30 executes processing according to the following [Formula 10] for the B type acoustic frame, and always removes the component of the frequency band to be changed.

〔数式10〕
j=0〜M−1の各成分に対して
Al´(4,j)=0
Bl´(4,j)=0
E(4,j)={Al(4,j)2+Bl(4,j)2+Ar(4,j)2+Br(4,j)21/2
Ar´(4,j)=Ar(4,j)・E(4,j)/{Ar(4,j)2+Br(4,j)21/2
Br´(4,j)=Br(4,j)・E(4,j)/{Ar(4,j)2+Br(4,j)21/2
[Formula 10]
For each component of j = 0 to M−1, Al ′ (4, j) = 0
Bl ′ (4, j) = 0
E (4, j) = {Al (4, j) 2 + Bl (4, j) 2 + Ar (4, j) 2 + Br (4, j) 2 } 1/2
Ar ′ (4, j) = Ar (4, j) · E (4, j) / {Ar (4, j) 2 + Br (4, j) 2 } 1/2
Br ′ (4, j) = Br (4, j) · E (4, j) / {Ar (4, j) 2 + Br (4, j) 2 } 1/2

周波数逆変換手段40は、上記のようにして、周波数成分の状態が変更されたフレームスペクトルを周波数逆変換して改変音響フレームを得る処理を行う。この周波数逆変換は、当然のことながら、周波数変換手段20が実行した手法に対応していることが必要となる。本実施形態では、周波数変換手段20において、フーリエ変換を施しているため、周波数逆変換手段40は、フーリエ逆変換を実行することになる。   As described above, the frequency inverse transform means 40 performs the process of obtaining the modified sound frame by performing the frequency inverse transform on the frame spectrum in which the state of the frequency component is changed. Naturally, the inverse frequency conversion needs to correspond to the method executed by the frequency conversion means 20. In the present embodiment, since the frequency transform unit 20 performs the Fourier transform, the frequency inverse transform unit 40 executes the Fourier inverse transform.

具体的には、Aタイプの音響フレームに対しては、周波数逆変換手段40は、上記〔数式8〕〔数式9〕のいずれかにより得られたスペクトルの左チャンネルの実部Al´(1,j)等、虚部Bl´(1,j)等、右チャンネルの実部Ar´(1,j)等、虚部Br´(1,j)等を用いて、以下の〔数式11〕に従った処理を行い、Xl´(i)、Xr´(i)を算出する。なお、上記〔数式8〕〔数式9〕において改変されていない周波数成分については、Al´(1,j)等として、元の周波数成分であるAl(1,j)等を用いる。   Specifically, for the A type sound frame, the frequency inverse transform means 40 performs the real part Al ′ (1,1) of the left channel of the spectrum obtained by any of the above [Formula 8] and [Formula 9]. j), imaginary part Bl ′ (1, j), etc., real part Ar ′ (1, j), etc. of the right channel, imaginary part Br ′ (1, j), etc. The process according to this is performed and Xl '(i) and Xr' (i) are calculated. For the frequency components that are not modified in the above [Equation 8] and [Equation 9], Al (1, j), which is the original frequency component, is used as Al ′ (1, j).

〔数式11〕
Xl´(i)=1/N・{ΣjAl´(1,j)・cos(2πij/N)−ΣjBl´(1,j)・sin(2πij/N)}+1/N・{ΣjAl´(2,j)・cos(2πij/N)−ΣjBl´(2,j)・sin(2πij/N)}+1/N・{ΣjAl´(3,j)・cos(2πij/N)−ΣjBl´(3,j)・sin(2πij/N)}+Xlp(i+N/2)
Xr´(i)=1/N・{ΣjAr´(1,j)・cos(2πij/N)−ΣjBr´(1,j)・sin(2πij/N)}+1/N・{ΣjAr´(2,j)・cos(2πij/N)−ΣjBr´(2,j)・sin(2πij/N)}+1/N・{ΣjAr´(3,j)・cos(2πij/N)−ΣjBr´(3,j)・sin(2πij/N)}+Xrp(i+N/2)
[Formula 11]
Xl' (i) = 1 / N · {Σ j Al' (1, j) · cos (2πij / N) -Σ j Bl' (1, j) · sin (2πij / N)} + 1 / N · { Σ j Al ′ (2, j) · cos (2πij / N) −Σ j Bl ′ (2, j) · sin (2πij / N)} + 1 / N · {Σ j Al ′ (3, j) · cos (2πij / N) −Σ j Bl ′ (3, j) · sin (2πij / N)} + Xlp (i + N / 2)
Xr' (i) = 1 / N · {Σ j Ar' (1, j) · cos (2πij / N) -Σ j Br' (1, j) · sin (2πij / N)} + 1 / N · { Σ j Ar' (2, j) · cos (2πij / N) -Σ j Br' (2, j) · sin (2πij / N)} + 1 / N · {Σ j Ar' (3, j) · cos (2πij / N) -Σ j Br' (3, j) · sin (2πij / N)} + Xrp (i + N / 2)

上記〔数式11〕においては、式が繁雑になるのを防ぐため、Σj=0,,N-1をΣjとして示している。上記〔数式11〕における第1式の“+Xlp(i+N/2)”、第2式の“+Xrp(i+N/2)”の項は、直前に改変された改変音響フレームのデータXlp(i)、Xrp(i)が存在する場合に、時間軸上N/2サンプル分重複することを考慮して加算するためのものである。上記〔数式11〕によりAタイプの改変音響フレームの左チャンネルの各サンプルXl´(i)、右チャンネルの各サンプルXr´(i)、が得られることになる。 In the above [Expression 11], Σ j = 0, ... , N−1 is shown as Σ j in order to prevent the expression from becoming complicated. The terms “+ Xlp (i + N / 2)” in the first equation and “+ Xrp (i + N / 2)” in the second equation in the [Equation 11] are the data Xlp (i) of the modified acoustic frame modified immediately before, When Xrp (i) exists, the addition is performed in consideration of the overlap of N / 2 samples on the time axis. By the above [Equation 11], each sample Xl ′ (i) of the left channel and each sample Xr ′ (i) of the right channel of the A type modified acoustic frame are obtained.

Bタイプの音響フレームに対しては、周波数逆変換手段40は、上記〔数式10〕により得られたスペクトルの左チャンネルの実部Al´(4,j)、虚部Bl´(4,j)、右チャンネルの実部Ar´(4,j)、虚部Br´(4,j)を用いて、以下の〔数式12〕に従った処理を行い、Xl´(i)、Xr´(i)を算出する。なお、上記〔数式10〕において改変されていない周波数成分については、以下の〔数式12〕においてはAl´(4,j)、Bl´(4,j)、Ar´(4,j)、Br´(4,j)として、元の値であるAl(4,j)、Bl(4,j)、Ar(4,j)、Br(4,j)を用いる。   For the B type acoustic frame, the frequency inverse transform means 40 performs real part Al ′ (4, j) and imaginary part Bl ′ (4, j) of the left channel of the spectrum obtained by the above [Equation 10]. , Using the real part Ar ′ (4, j) and imaginary part Br ′ (4, j) of the right channel, the processing according to the following [Equation 12] is performed, and Xl ′ (i), Xr ′ (i ) Is calculated. For frequency components that are not modified in the above [Equation 10], in the following [Equation 12], Al ′ (4, j), Bl ′ (4, j), Ar ′ (4, j), Br The original values Al (4, j), Bl (4, j), Ar (4, j), and Br (4, j) are used as ′ (4, j).

〔数式12〕
Xl´(i)=1/N・{ΣjAl´(4,j)・cos(2πij/N)−ΣjBl´(4,j)・sin(2πij/N)}+Xlp(i+N/2)
Xr´(i)=1/N・{ΣjAr´(4,j)・cos(2πij/N)−ΣjBr´(4,j)・sin(2πij/N)}+Xrp(i+N/2)
[Formula 12]
Xl' (i) = 1 / N · {Σ j Al' (4, j) · cos (2πij / N) -Σ j Bl' (4, j) · sin (2πij / N)} + Xlp (i + N / 2 )
Xr' (i) = 1 / N · {Σ j Ar' (4, j) · cos (2πij / N) -Σ j Br' (4, j) · sin (2πij / N)} + Xrp (i + N / 2 )

上記〔数式12〕によりBタイプの改変音響フレームの左チャンネルの各サンプルXl´(i)、右チャンネルの各サンプルXr´(i)、が得られることになる。   By the above [Equation 12], each sample Xl ′ (i) of the left channel and each sample Xr ′ (i) of the right channel of the B type modified sound frame are obtained.

改変音響フレーム出力手段50は、周波数逆変換手段40の処理により得られたAタイプの改変音響フレーム、Bタイプの改変音響フレームを順次出力ファイルに出力する。   The modified sound frame output unit 50 sequentially outputs the A type modified sound frame and the B type modified sound frame obtained by the processing of the frequency inverse transform unit 40 to an output file.

次に、図2に示した音響信号に対する情報の埋め込み装置の処理の全体的な流れを、図5のフローチャートに従って説明する。図2に示した装置を構成する各構成要素は、連携して図5に従った処理を実行する。図5は、付加情報1ワード分の処理に対応したものとなっている。1ワードとしては、任意のビット数に設定することができるが、上述のように、本実施形態では誤り検出ビットを含めて1バイト(8ビット)に設定されている。また、情報の埋め込みは、Aタイプの音響フレームに対して行われるので、図5は、Aタイプの音響フレームについての説明となっている。Bタイプの音響フレームについては、Aタイプの音響フレームと並行して、音響フレーム読込手段10により読み込まれ、窓関数W(4,i)を利用して周波数変換手段20により周波数変換された後、周波数成分変更手段30により変更対象周波数帯の成分が除去され、周波数逆変換手段40により周波数逆変換された後、改変音響フレーム出力手段50により出力される。   Next, the overall flow of processing of the information embedding device for the acoustic signal shown in FIG. 2 will be described with reference to the flowchart of FIG. Each component which comprises the apparatus shown in FIG. 2 cooperates, and performs the process according to FIG. FIG. 5 corresponds to processing for one word of additional information. Although one word can be set to an arbitrary number of bits, as described above, in this embodiment, it is set to 1 byte (8 bits) including error detection bits. Further, since information embedding is performed on an A type acoustic frame, FIG. 5 illustrates the A type acoustic frame. The B type acoustic frame is read by the acoustic frame reading means 10 in parallel with the A type acoustic frame, and is frequency converted by the frequency converting means 20 using the window function W (4, i). The frequency component changing unit 30 removes the component of the change target frequency band, the frequency inverse converting unit 40 performs the frequency inverse conversion, and then the modified acoustic frame output unit 50 outputs the result.

図5においては、まず、ビット配列作成手段70は、付加情報記憶部62から抽出した付加情報に対して所定の処理を施し新たなビット配列を作成する(S101)。具体的には、まず、付加情報記憶部62から1ワード(7ビット)単位で抽出し、これに誤り検出ビットを1ビット付加して8ビットとする。そして、抽出した1ワード(7ビット)の各ビットを反転させて配置し、最後に誤り検出ビットと同じ値の1ビットを配置して16ビットのビット配列を作成する。この処理によるビット配列の変化の様子を図6に示す。図6(a)は、誤り検出ビット付加後のビット配列を示している。図6(a)において、第8ビットの“0”は誤り検出ビットである。このような場合、第1〜第7ビットの“1011110”を反転させた“0100001”を第9ビット〜第15ビットとし、第8ビットの“0”を複写して第16ビットとする新たなビット配列を作成する。この結果、図6(b)に示すような配列となる。   In FIG. 5, first, the bit array creation means 70 performs a predetermined process on the additional information extracted from the additional information storage unit 62 to create a new bit array (S101). Specifically, first, it is extracted in units of 1 word (7 bits) from the additional information storage unit 62, and 1 bit of error detection bits is added to this to make 8 bits. Then, the extracted bits of one word (7 bits) are inverted and arranged, and finally, one bit having the same value as the error detection bit is arranged to create a 16-bit bit array. FIG. 6 shows how the bit arrangement is changed by this processing. FIG. 6A shows the bit arrangement after adding the error detection bits. In FIG. 6A, the eighth bit “0” is an error detection bit. In such a case, “01100001” obtained by inverting “1011110” of the first to seventh bits is changed to the ninth bit to the fifteenth bit, and “0” of the eighth bit is copied to become the sixteenth bit. Create a bit array. As a result, the arrangement as shown in FIG.

この図6(b)に示す配列では、前半の8ビットと後半の8ビットにおける対応する各ビットの順序が同じであるので、抽出時において、どのビットについても8ビット離れたビットとの比較を行うことになる。すなわち、図6(b)に示すように、第1ビットは第9ビット(第1ビット反転)、第2ビットは第10ビット(第2ビット反転)との比較を行うことになる。この場合、抽出時に、誤って第2ビットを先頭と判断しても、第10ビットとの比較になり、適合性が保たれることが多い。すると、第2ビットを先頭とした誤ったビット配列を抽出してしまう可能性がある。このような問題が発生するのを防ぐため、本実施形態では、さらに、16ビット中の後半8ビット内において、奇数番目のビットと偶数番目のビットの入れ替えを行う。この結果、図6(c)に示すような配列となる。そして、この16ビットが、音響信号に対する情報の埋め込み装置として用いられるコンピュータ内のレジスタに読み込まれることになる。このように、付加情報記憶部62においては、1ワードは7ビットであるが、埋め込み処理時は、この16ビットの配列で、付加情報内の1ワード分の処理を行う。このように作成されたビット配列のうち、前半のビット列を前半ビット列、後半のビット列を後半ビット列と呼ぶことにする。   In the arrangement shown in FIG. 6B, the order of the corresponding bits in the first 8 bits and the latter 8 bits is the same. Therefore, at the time of extraction, any bit is compared with a bit 8 bits away. Will do. That is, as shown in FIG. 6B, the first bit is compared with the ninth bit (first bit inversion), and the second bit is compared with the tenth bit (second bit inversion). In this case, at the time of extraction, even if the second bit is erroneously determined to be the head, it is compared with the tenth bit, and compatibility is often maintained. Then, there is a possibility of extracting an incorrect bit arrangement starting from the second bit. In order to prevent such a problem from occurring, in the present embodiment, the odd-numbered bits and the even-numbered bits are further interchanged in the latter 8 bits of 16 bits. As a result, the arrangement as shown in FIG. These 16 bits are read into a register in a computer used as an information embedding device for an acoustic signal. Thus, in the additional information storage unit 62, one word is 7 bits, but at the time of embedding processing, processing for one word in the additional information is performed with this 16-bit array. In the bit array thus created, the first half bit string is referred to as the first half bit string, and the second half bit string is referred to as the second half bit string.

次に、周波数成分変更手段30が、レジスタに保持された16ビットから1ビットを読み込む処理を行う(S102)。続いて、音響フレーム読込手段10が、音響信号記憶部61に記憶されたステレオ音響信号の左右の各チャンネルから、それぞれ所定数のサンプルを1音響フレームとして読み込む(S103)。続いて、周波数変換手段20および周波数成分変更手段30が、音響フレームの周波数成分の状態を“状態1”、“状態2”のいずれかに変更する処理を行う(S104)。具体的には、読み込んだ音響フレームに対して、周波数変換を行って、その音響フレームのスペクトルであるフレームスペクトルを得る。すなわち、各音響フレームについて、3つの窓関数W(1,i)、W(2,i)、W(3,i)を用いて、上記〔数式5〕に従った処理を行うことになる。   Next, the frequency component changing unit 30 performs a process of reading 1 bit from 16 bits held in the register (S102). Subsequently, the acoustic frame reading means 10 reads a predetermined number of samples as one acoustic frame from each of the left and right channels of the stereo acoustic signal stored in the acoustic signal storage unit 61 (S103). Subsequently, the frequency converting unit 20 and the frequency component changing unit 30 perform processing for changing the state of the frequency component of the acoustic frame to either “state 1” or “state 2” (S104). Specifically, frequency conversion is performed on the read sound frame to obtain a frame spectrum that is a spectrum of the sound frame. That is, for each acoustic frame, processing according to the above [Equation 5] is performed using three window functions W (1, i), W (2, i), and W (3, i).

続いて、周波数成分変更手段30は、ビット配列作成手段70から受け取った値1、値2に応じて上記〔数式8〕〔数式9〕に従った処理を実行し、変更対象周波数帯の成分の状態を“状態1”、“状態2”のいずれかに変更する。   Subsequently, the frequency component changing unit 30 executes processing according to the above [Equation 8] and [Equation 9] according to the value 1 and the value 2 received from the bit array creation unit 70, and the component of the frequency band to be changed The state is changed to either “state 1” or “state 2”.

次に、周波数逆変換手段40が、上記S104の処理により各窓成分のスペクトル集合間の割合が変更されたフレームスペクトルを周波数逆変換して改変音響フレームを得る処理を行う(S105)。この周波数逆変換は、当然のことながら、周波数変換手段20がS104において実行した手法に対応していることが必要となる。本実施形態では、周波数変換手段20において、フーリエ逆変換を施しているため、周波数逆変換手段40は、フーリエ逆変換を実行することになる。具体的には、上記〔数式8〕〔数式9〕のいずれかにより得られたスペクトルの左チャンネルの実部Al´(1,j)等、虚部Bl´(1,j)等、右チャンネルの実部Ar´(1,j)等、虚部Br´(1,j)等を用いて、上記〔数式11〕に従った処理を行い、Xl´(i)、Xr´(i)を算出する。   Next, the frequency inverse transform means 40 performs the process of obtaining the modified acoustic frame by performing the frequency inverse transform on the frame spectrum in which the ratio between the spectrum sets of each window component is changed by the process of S104 (S105). As a matter of course, this frequency inverse transform needs to correspond to the method executed by the frequency converter 20 in S104. In the present embodiment, since the frequency transform unit 20 performs the inverse Fourier transform, the frequency inverse transform unit 40 performs the inverse Fourier transform. Specifically, the right channel such as the real part Al ′ (1, j) of the left channel, the imaginary part Bl ′ (1, j), etc. of the spectrum obtained by any one of the above [Equation 8] and [Equation 9]. Using the real part Ar ′ (1, j), etc., the imaginary part Br ′ (1, j), etc., the processing according to the above [Equation 11] is performed, and Xl ′ (i), Xr ′ (i) calculate.

改変音響フレーム出力手段50は、得られた改変音響フレームを順次出力ファイルに出力する。こうして1つの音響フレームに対する処理を終えたら、周波数成分変更手段30がビット配列中の次の1ビットを読み込む(S102)。以上のような処理を音響信号の両チャンネルの全サンプルに渡って実行していく。すなわち、所定数のサンプルを音響フレームとして読み込み、音響信号から読み込むべき音響フレームがなくなったら(S103)、処理を終了する。なお、S101において読み込んだ1ワード分のビット配列(16ビット)の各ビットに対応する処理を終えた場合、S102からS101に戻り、付加情報の次のワードを読み込んでビット配列を作成する処理を行うことになる。付加情報の全ワードに対して処理が終了した場合は、付加情報の先頭ワードに戻って処理を行う。この結果、全ての音響フレームに対して処理を行った全ての改変音響フレームが出力ファイルに記録されて、改変音響信号として得られる。得られた改変音響信号は、記憶手段60内の改変音響信号記憶部63に出力され、記憶される。   The modified sound frame output means 50 sequentially outputs the obtained modified sound frames to an output file. When the processing for one acoustic frame is completed in this way, the frequency component changing means 30 reads the next 1 bit in the bit array (S102). The above processing is executed over all samples of both channels of the acoustic signal. That is, a predetermined number of samples are read as sound frames, and when there are no more sound frames to be read from the sound signal (S103), the process ends. When the processing corresponding to each bit of the bit arrangement (16 bits) for one word read in S101 is completed, the processing returns from S102 to S101, and processing for creating the bit arrangement by reading the next word of the additional information. Will do. When the processing is completed for all the words of the additional information, the processing returns to the first word of the additional information. As a result, all modified acoustic frames that have been processed for all acoustic frames are recorded in the output file and obtained as modified acoustic signals. The obtained modified acoustic signal is output to and stored in the modified acoustic signal storage unit 63 in the storage unit 60.

なお、本実施形態では、付加情報を1ワード7ビットとし、誤り検出用の1ビットを付加した後、反転ビット等を加えて16ビットとして、付加情報1ワード分の処理をする場合について説明したが、抽出側と取り決めがある限り、付加情報の1ワードを任意のビット数単位で記録することが可能である。   In the present embodiment, the case has been described where the additional information is 7 bits per word, 1 bit for error detection is added, and then the inverted bit is added to 16 bits to process 1 word of additional information. However, as long as there is an agreement with the extraction side, one word of additional information can be recorded in an arbitrary number of bits.

上記のようにして得られた改変音響信号の左チャンネルのうち、付加情報が埋め込まれている部分については、変更対象周波数帯の成分は、上記状態1、状態2の2通りの分布しかないことになる。しかし、変更対象周波数帯の成分以外については、元の音響信号のままであるので、制作者の設定に基づいた種々な分布になる。また、上記の例で示したように、ステレオ音響信号を利用した場合には、左チャンネルにおいて変化させられた変更対象周波数帯の成分は、上記〔数式8〕〔数式9〕の処理からも明らかなように、必ず右チャンネルの変更対象周波数帯の成分に付加されている。したがって、右チャンネルが左チャンネルにおいて削除された成分を補っているため、両チャンネル全体として見ると、信号の劣化がない。   Of the left channel of the modified acoustic signal obtained as described above, with respect to the portion where the additional information is embedded, the component of the change target frequency band has only two distributions of the state 1 and the state 2 described above. become. However, since the components other than the component of the frequency band to be changed remain as the original acoustic signals, various distributions are made based on the setting of the producer. Further, as shown in the above example, when a stereo sound signal is used, the component of the frequency band to be changed that has been changed in the left channel is also apparent from the processing of [Equation 8] and [Equation 9]. In this way, it is always added to the component of the frequency band to be changed in the right channel. Therefore, since the right channel supplements the deleted component in the left channel, there is no signal degradation when viewed as both channels as a whole.

(1.3.音響信号からの情報の抽出装置)
次に、本発明に係る音響信号からの情報の抽出装置について説明する。図7は、本発明に係る音響信号からの情報の抽出装置の一実施形態を示す構成図である。図7において、100は音響信号入力手段、110は基準フレーム獲得手段、120は位相変更フレーム設定手段、130は周波数変換手段、140は符号判定パラメータ算出手段、150は符号出力手段、160は付加情報抽出手段、170は音響フレーム保持手段である。
(1.3. Apparatus for extracting information from acoustic signals)
Next, an apparatus for extracting information from an acoustic signal according to the present invention will be described. FIG. 7 is a block diagram showing an embodiment of an apparatus for extracting information from an acoustic signal according to the present invention. In FIG. 7, 100 is an acoustic signal input means, 110 is a reference frame acquisition means, 120 is a phase change frame setting means, 130 is a frequency conversion means, 140 is a code determination parameter calculation means, 150 is a code output means, and 160 is additional information. Extraction means 170 is an acoustic frame holding means.

音響信号入力手段100は、流れている音声をデジタル音響信号として取得し、入力する機能を有している。現実には、マイクロフォンおよびA/D変換器により実現される。マイクロフォンとしては、変更対象周波数帯の成分が検出可能なものであれば、モノラル無指向性のものであっても、ステレオ指向性のものであっても使用可能である。ステレオ指向性のものであっても一方のチャンネルだけ利用すれば良い。また、図2に示した装置で情報の埋め込みを行った場合には、特別精度の高いものでなく、一般的な精度のマイクロフォンを用いても情報の抽出が可能となる。基準フレーム獲得手段110は、入力されたデジタルのモノラル音響信号(あるいはステレオ音響信号の1チャンネル)から所定数のサンプルで構成される音響フレームを基準フレームとして読み込む機能を有している。位相変更フレーム設定手段120は、基準フレームと所定サンプルずつ移動させることにより位相を変更した音響フレームを位相変更フレームとして設定する機能を有している。周波数変換手段130は、図2に示した周波数変換手段20と同様の機能を有している。   The acoustic signal input unit 100 has a function of acquiring and inputting a flowing sound as a digital acoustic signal. In reality, it is realized by a microphone and an A / D converter. Any microphone can be used, regardless of whether it is monaural omnidirectional or stereo directional, as long as the component in the frequency band to be changed can be detected. Even if it is stereo-directional, only one channel needs to be used. In addition, when information is embedded by the apparatus shown in FIG. 2, the information can be extracted even if a microphone having a general accuracy is used instead of a high accuracy one. The reference frame acquisition unit 110 has a function of reading an audio frame composed of a predetermined number of samples as a reference frame from the input digital monaural audio signal (or one channel of a stereo audio signal). The phase change frame setting means 120 has a function of setting, as a phase change frame, an acoustic frame whose phase has been changed by moving the reference frame and a predetermined sample at a time. The frequency conversion means 130 has the same function as the frequency conversion means 20 shown in FIG.

符号判定パラメータ算出手段140は、生成されたフレームスペクトルから所定の周波数範囲に相当する各周波数強度データを抽出し、各成分に対応した各周波数強度データの強度値EC1、EC2を以下の〔数式13〕に基づいて算出し、この強度値EC1、EC2を符号判定パラメータとし、この符号判定パラメータEC1、EC2の比率等に基づいて、所定の状態であると判断する機能を有している。 The code determination parameter calculation means 140 extracts each frequency intensity data corresponding to a predetermined frequency range from the generated frame spectrum, and sets the intensity values E C1 and E C2 of each frequency intensity data corresponding to each component as follows: Formula 13] is calculated, the intensity values E C1 and E C2 are used as code determination parameters, and a function for determining a predetermined state based on the ratio of the code determination parameters E C1 and E C2 is provided. is doing.

〔数式13〕
C1=Σj=m,…,M-1{Al(1,j)2+Bl(1,j)2}・F(j−m)・C
C2=Σj=m,…,M-1{Al(3,j)2+Bl(3,j)2}・F(j−m)・C
[Formula 13]
E C1 = Σ j = m,..., M−1 {Al (1, j) 2 + Bl (1, j) 2 } · F (j−m) · C
E C2 = Σ j = m,..., M−1 {Al (3, j) 2 + Bl (3, j) 2 } · F (j−m) · C

なお、上記〔数式13〕における係数Cは、以下の〔数式14〕で定義される。   The coefficient C in the above [Formula 13] is defined by the following [Formula 14].

〔数式14〕
C=1.0/Σj=0,P-1F(j)
[Formula 14]
C = 1.0 / Σ j = 0, P-1 F (j)

符号出力手段150は、1つの基準フレームに対応する音響フレーム(基準フレームおよび位相変更フレーム)の中から最適な位相であると判断されるものを判断し、その音響フレームの状態に対応する符号を出力する機能を有している。符号判定パラメータ算出手段140と符号出力手段150により符号化手段が構成される。付加情報抽出手段160は、符号出力手段150により出力された2値の配列を、所定の規則により変換して意味のある付加情報として抽出する機能を有している。音響フレーム保持手段170は、連続する2個の基準フレームを保持可能なバッファメモリである。図7に示した各構成手段は、現実には情報処理機能を有する小型のコンピュータおよびその周辺機器等のハードウェアに専用のプログラムを搭載することにより実現される。特に、本発明においては、汎用のコンピュータより録音性能および演算処理性能の低い携帯ゲーム機、PDA、PHS端末、携帯電話機を抽出装置として用いることを想定している。   The code output means 150 determines what is determined to be the optimum phase from the acoustic frames (reference frame and phase change frame) corresponding to one reference frame, and selects a code corresponding to the state of the acoustic frame. It has a function to output. The code determination parameter calculation unit 140 and the code output unit 150 constitute an encoding unit. The additional information extraction unit 160 has a function of converting the binary array output by the code output unit 150 according to a predetermined rule and extracting it as meaningful additional information. The acoustic frame holding means 170 is a buffer memory that can hold two consecutive reference frames. Each component shown in FIG. 7 is actually realized by mounting a dedicated program on hardware such as a small computer having an information processing function and its peripheral devices. In particular, in the present invention, it is assumed that a portable game machine, a PDA, a PHS terminal, and a mobile phone, which have lower recording performance and arithmetic processing performance than a general-purpose computer, are used as the extraction device.

(1.4.抽出装置の処理動作)
次に、図7に示した音響信号からの情報の抽出装置の処理動作について説明する。本発明に係る抽出装置は、パリティ検査によりエラーを検出した際、エラー訂正を行わない設定とすることもできるし、1ビットのエラー訂正をするものと設定することもできる。ここからは、エラー訂正を行わない設定における抽出装置の処理動作を、図8のフローチャートに従って説明する。まず、本装置では、位相判定テーブルS(p)、位相決定ログ、位相確定フラグ、ビットカウンタを初期化する(S200)。位相判定テーブルS(p)は、位相を判定するためのテーブルであり、pは0〜5の整数値をとる。初期値はS(p)=0に設定されている。位相決定ログは、1つの基準フレームと5つの位相変更フレームの組ごとに、決定された位相すなわち位相番号pを記録するものであり、初期状態では0が設定されている。位相確定フラグは、位相が確定しているかどうかを示すフラグであり、初期状態ではOffに設定されている。ビットカウンタについては初期値として0を設定する。
(1.4. Processing operation of extraction device)
Next, the processing operation of the apparatus for extracting information from the acoustic signal shown in FIG. 7 will be described. The extraction device according to the present invention can be set not to perform error correction when an error is detected by a parity check, or can be set to perform 1-bit error correction. Hereafter, the processing operation of the extraction apparatus in a setting in which error correction is not performed will be described according to the flowchart of FIG. First, in this apparatus, the phase determination table S (p), the phase determination log, the phase determination flag, and the bit counter are initialized (S200). The phase determination table S (p) is a table for determining the phase, and p takes an integer value of 0 to 5. The initial value is set to S (p) = 0. The phase determination log records the determined phase, that is, the phase number p for each set of one reference frame and five phase change frames, and 0 is set in the initial state. The phase determination flag is a flag indicating whether or not the phase is fixed, and is set to Off in the initial state. For the bit counter, 0 is set as an initial value.

このように、初期値が設定されている状態で、利用者が流れている音楽について、その楽曲名等の属性情報を知りたいと思った場合、まず、抽出装置に対して、抽出装置としての起動の指示を行う。これは、例えば、抽出装置を携帯電話機等の携帯端末で実現している場合は、所定のボタンを操作することにより実行できる。抽出装置は、指示が入力されると、音響信号入力手段100が、流れている音楽を録音し、デジタル化してデジタル音響信号として入力する。具体的には、無指向性マイクロフォン(または指向性マイクロフォンの一方のチャンネル)から入力される音声を、A/D変換器によりデジタル化する処理を行うことになる。この際、そのサンプリング周波数、量子化ビット数は機器の性能に依存するが、本実施形態では、携帯ゲーム機、PDA、PHS端末を想定しているため、サンプリング周波数22.05kHz、量子化ビット数12ビットでデジタル化する。   In this way, when the initial value is set and the user wants to know the attribute information such as the song name of the music that is flowing, first, the extraction device Instruct startup. For example, this can be executed by operating a predetermined button when the extraction device is realized by a mobile terminal such as a mobile phone. When an instruction is input to the extraction device, the acoustic signal input unit 100 records the flowing music, digitizes it, and inputs it as a digital acoustic signal. More specifically, the audio input from the omnidirectional microphone (or one channel of the directional microphone) is digitized by the A / D converter. At this time, the sampling frequency and the number of quantization bits depend on the performance of the device. However, in this embodiment, since a portable game machine, a PDA, and a PHS terminal are assumed, the sampling frequency is 22.05 kHz and the number of quantization bits. Digitize with 12 bits.

続いて、基準フレーム獲得手段110が、音響信号入力手段100から入力された音響信号から、所定数のサンプルで構成される音響フレームを基準フレームとして抽出する(S201)。具体的には、基準フレームを抽出して音響フレーム保持手段170に読み込むことになる。基準フレーム獲得手段110が基準フレームとして読み込む1音響フレームのサンプル数は、図2に示した音響フレーム読込手段10で設定されたものとは異なり、半分の2048個に設定してある。これは、音響信号入力手段100によるサンプリング周波数Fs´が22.05kHzであり、埋め込み装置で処理した元の音響信号のサンプリング周波数Fs(44.1kHz)の半分であるためである。すなわち、サンプリング周波数44.1kHz、サンプル数4096(N)の埋め込み装置における1音響フレームと、抽出装置における1音響フレームの秒数が同一となるように、抽出装置においては、1音響フレーム2048(N´=(N/2))サンプルと設定しているのである。すなわち、N´=N×Fs´/Fsとなるように、N´は設定されることになる。したがって、本実施形態の場合、基準フレーム獲得手段110は、2048サンプルずつ、順次基準フレームとして読み込んでいくことになる。なお、本実施形態では、音響信号入力手段100において量子化ビット数12ビットでサンプリングした場合、基準フレーム獲得手段110が16ビットに各サンプルをアップコンバートした後、抽出するようにしている。   Subsequently, the reference frame acquisition unit 110 extracts an acoustic frame including a predetermined number of samples from the acoustic signal input from the acoustic signal input unit 100 as a reference frame (S201). Specifically, the reference frame is extracted and read into the acoustic frame holding unit 170. The number of samples of one sound frame read as the reference frame by the reference frame acquisition unit 110 is set to 2048, which is half of that set by the sound frame reading unit 10 shown in FIG. This is because the sampling frequency Fs ′ by the acoustic signal input means 100 is 22.05 kHz, which is half the sampling frequency Fs (44.1 kHz) of the original acoustic signal processed by the embedding device. That is, in the extraction device, one acoustic frame 2048 (N) is used so that one acoustic frame in the embedding device having a sampling frequency of 44.1 kHz and the number of samples 4096 (N) is equal to the number of seconds of one acoustic frame in the extraction device. '= (N / 2)) sample is set. That is, N ′ is set so that N ′ = N × Fs ′ / Fs. Therefore, in the present embodiment, the reference frame acquisition unit 110 sequentially reads 2048 samples as reference frames. In the present embodiment, when sampling is performed with the quantization signal number 12 bits in the acoustic signal input means 100, the reference frame acquisition means 110 performs extraction after up-converting each sample to 16 bits.

音響フレーム保持手段170には、上述のように2個の基準フレームが格納可能となっており、新しい基準フレームが読み込まれると、古い基準フレームを破棄するようになっている。したがって、音響フレーム保持手段170には、常に基準フレーム2個分(連続する4096サンプル)が格納されていることになる。   The acoustic frame holding means 170 can store two reference frames as described above, and when a new reference frame is read, the old reference frame is discarded. Therefore, the sound frame holding means 170 always stores two reference frames (continuous 4096 samples).

抽出装置で処理する音響フレームは、先頭から途切れることなく隣接して設定される基準フレームと、この基準フレームと位相を変更した位相変更フレームとに分けることができる。基準フレームについては、最初の基準フレームとしてサンプル番号1からサンプル番号2048までを設定したら、次の基準フレームは、サンプル番号2049からサンプル番号4096、さらに次の基準フレームは、サンプル番号4097からサンプル番号6144、というように途切れることなく設定される。そして、各基準フレームについて、1/6フレーム(341サンプル)ずつ移動した5個の位相変更フレームを設定する。例えば、最初の基準フレームについては、サンプル番号342、684、1025、1366、1708から始まる2048のサンプルで構成される5個の位相変更フレームが設定されることになる。続いて、周波数変換手段130、符号判定パラメータ算出手段140が、読み込んだ各音響フレームについて、位相を特定した後、埋め込まれている情報を判定し、対応する符号を出力する(S202)。出力される情報の形式は、付加情報が埋め込まれる場合に対応する値1、値2の2通りの形式となる。   The acoustic frame processed by the extraction device can be divided into a reference frame that is set adjacently without interruption from the beginning, and a phase change frame in which the phase is changed. For the reference frame, after setting sample number 1 to sample number 2048 as the first reference frame, the next reference frame is sample number 2049 to sample number 4096, and the next reference frame is sample number 4097 to sample number 6144. It is set without interruption. Then, for each reference frame, five phase change frames moved by 1/6 frame (341 samples) are set. For example, for the first reference frame, five phase change frames configured by 2048 samples starting from sample numbers 342, 684, 1025, 1366, and 1708 are set. Subsequently, the frequency conversion unit 130 and the code determination parameter calculation unit 140 specify the phase of each read sound frame, determine embedded information, and output a corresponding code (S202). The format of the information to be output has two formats of value 1 and value 2 corresponding to the case where the additional information is embedded.

ここで、ステップS202の位相確定および符号判定の詳細を図9のフローチャートに従って説明する。まず、位相確定フラグがOnであるかOffであるかの確認を行う(S301)。位相確定フラグがOnである場合は、位相確定処理(S303〜S309)を行わず、符号判定処理のみを行う(S302)。ただし、初期状態では位相は確定しておらず、位相確定フラグがOffとなっているので、候補符号テーブルの初期化を行う(S303)。候補符号テーブルは、1つの基準フレームおよび5個の位相変更フレームを特定する0〜5の位相番号および、この6個の音響フレームの状態から得られる2値の符号を記録するものである。   Here, details of the phase determination and code determination in step S202 will be described with reference to the flowchart of FIG. First, it is confirmed whether the phase determination flag is On or Off (S301). When the phase determination flag is On, the phase determination process (S303 to S309) is not performed, and only the code determination process is performed (S302). However, since the phase is not fixed in the initial state and the phase determination flag is Off, the candidate code table is initialized (S303). The candidate code table records a phase number of 0 to 5 that specifies one reference frame and five phase change frames, and a binary code obtained from the states of the six acoustic frames.

続いて、符号判定パラメータ算出手段140は、符号判定処理を行う(S302)。ここで、符号判定処理の詳細を図10に示す。まず、周波数変換手段130が、読み込んだ各音響フレームに対して、周波数変換を行ってフレームスペクトルを得る(S401)。具体的には、図2に示した周波数変換手段20と同様、〔数式5〕に従った処理を実行する。ただし、〔数式5〕におけるNをN´(=N/2)に置き換えて実行する。また、〔数式5〕において用いるW(1,i)〜W(3,i)は、それぞれ〔数式1〕〜〔数式3〕におけるNをN´(=N/2)に置き換えたものを用いる。なお、抽出に用いるのは、左チャンネルだけであるので、上記〔数式5〕に従った処理を行い、左チャンネルに対応する変換データの実部Al(1,j)等、虚部Bl(1,j)等を得る。   Subsequently, the code determination parameter calculation unit 140 performs a code determination process (S302). Here, the details of the code determination process are shown in FIG. First, the frequency conversion means 130 performs frequency conversion on each read sound frame to obtain a frame spectrum (S401). Specifically, the processing according to [Formula 5] is executed in the same manner as the frequency conversion means 20 shown in FIG. However, N is replaced by N ′ (= N / 2) in [Formula 5]. Further, W (1, i) to W (3, i) used in [Formula 5] are obtained by replacing N in [Formula 1] to [Formula 3] with N ′ (= N / 2), respectively. . Since only the left channel is used for extraction, the processing according to [Formula 5] is performed, and the imaginary part Bl (1) such as the real part Al (1, j) of the converted data corresponding to the left channel is performed. , J) etc.

上記周波数変換手段130における処理により、周波数に対応した成分であるスペクトルで表現されたフレームスペクトルが得られる。続いて、強度値EC1、強度値EC2を用いて、変更対象周波数帯の成分の状態がどのような状態であるか、すなわち、1ビットの値としてどのような値が埋め込まれていたかを判断する処理を行う(S402)。具体的には、まず、以下の判定処理を実行し、その結果、対応する状態であったと判断し、対応する値を出力する。 By the processing in the frequency conversion means 130, a frame spectrum expressed by a spectrum that is a component corresponding to the frequency is obtained. Subsequently, the intensity value E C1 and the intensity value E C2 are used to determine what state the component of the frequency band to be changed is, that is, what value was embedded as a 1-bit value. A determination process is performed (S402). Specifically, first, the following determination processing is executed, and as a result, it is determined that the corresponding state is obtained, and the corresponding value is output.

C1>EC2の場合、“状態1”であると判断し、値1を出力する。
C2≧EC1の場合、“状態2”であると判断し、値2を出力する。
If E C1 > E C2 , it is determined that the state is “1”, and a value of 1 is output.
When E C2 ≧ E C1 , it is determined that “state 2” is satisfied, and a value 2 is output.

符号判定パラメータ算出手段140は、各音響フレーム単位で、上記判定結果に応じて値1、値2のいずれかを設定する(S403)。また、上記判定の結果、値1、値2のいずれかを設定した場合には、さらに、以下の〔数式15〕に従って位相判定テーブルS(p)の更新を行う(S404)。   The code determination parameter calculation unit 140 sets either value 1 or value 2 according to the determination result for each acoustic frame (S403). If either of the values 1 and 2 is set as a result of the determination, the phase determination table S (p) is further updated according to the following [Equation 15] (S404).

〔数式15〕
“状態1”であると判断し、値1を出力した場合、S(p)←S(p)+EC1/EC2
“状態2”であると判断し、値2を出力した場合、S(p)←S(p)+EC2/EC1
[Formula 15]
When it is determined that the state is “1” and the value 1 is output, S (p) ← S (p) + E C1 / E C2
When it is determined that the state is “2” and the value 2 is output, S (p) ← S (p) + E C2 / E C1

ここで、図9のフローチャートに戻って、符号判定パラメータ算出手段140は、候補符号テーブルに、最適位相となる候補を保存する(S304)。具体的には、位相判定テーブルに記録されているS(p)の値が最大となる位相番号pの値、前記S403により設定された2値のいずれかの符号、その音響フレームについての上記〔数式13〕に従った処理を実行することにより算出した、周波数成分に対応するEC1、EC2のいずれかを最適位相の候補として候補符号テーブルに保存する。 Here, returning to the flowchart of FIG. 9, the code determination parameter calculation unit 140 stores a candidate for the optimum phase in the candidate code table (S304). Specifically, the value of the phase number p that maximizes the value of S (p) recorded in the phase determination table, the binary code set in S403, and the above [ One of E C1 and E C2 corresponding to the frequency component calculated by executing the processing according to Equation 13] is stored in the candidate code table as an optimal phase candidate.

続いて、全ての位相番号pに対応する処理を終えたかどうかを判定する(S305)。これは、ある基準フレームに対して全ての位相変更フレームの処理を行ったかどうかを判定している。本実施形態では、pが0〜5までの値をとるので、6回分処理していない場合は、処理していた音響フレームから所定サンプル数ずらして、位相の異なる音響フレームを設定し、S302に戻って処理を繰り返す。なお、p=0の場合が基準フレームであり、p=1〜5の場合が位相変更フレームである。全ての位相番号pに対応する処理を終えた場合は、候補保存テーブルに記録されている位相番号pに対応する位相が最適位相であると判定し、候補保存テーブルに記録されている符号を出力する(S306)。   Subsequently, it is determined whether or not the processing corresponding to all the phase numbers p has been completed (S305). This determines whether all phase change frames have been processed for a certain reference frame. In this embodiment, since p takes a value from 0 to 5, if the processing is not performed six times, an acoustic frame having a different phase is set by shifting a predetermined number of samples from the acoustic frame being processed. Return and repeat the process. The case where p = 0 is a reference frame, and the case where p = 1 to 5 is a phase change frame. When the processing corresponding to all the phase numbers p is completed, it is determined that the phase corresponding to the phase number p recorded in the candidate storage table is the optimum phase, and the code recorded in the candidate storage table is output. (S306).

続いて、位相決定ログの更新を行う(S307)。位相決定ログとは、1つの基準フレームと5つの位相変更フレームの組ごとに、決定された位相すなわち位相番号pを記録するものである。そして、位相決定ログを参照して、位相が過去所定回数同一であったかどうかを判断する(S308)。本実施形態では、この回数を10回としている。位相が過去所定回数同一であった場合には、位相確定フラグをOnに設定する(S309)。これにより、同一位相が所定回数続いた場合には、必ず位相確定フラグがOnとなっているため、位相確定処理(S303〜S309)を行わず、符号判定処理(S302)のみを行うことになる。   Subsequently, the phase determination log is updated (S307). The phase determination log records the determined phase, that is, the phase number p for each set of one reference frame and five phase change frames. Then, referring to the phase determination log, it is determined whether or not the phase has been the same a predetermined number of times in the past (S308). In the present embodiment, this number is 10 times. If the phase has been the same a predetermined number of times in the past, the phase determination flag is set to On (S309). As a result, when the same phase continues for a predetermined number of times, the phase determination flag is always On, so that the phase determination processing (S303 to S309) is not performed and only the code determination processing (S302) is performed. .

再び図8のフローチャートに戻って説明する。位相確定および符号出力が行なわれたら、出力された符号の値に対応する1ビットをバッファに保存する(S203)。次に、ビットカウンタを“1”だけカウントアップする(S204)。   Returning to the flowchart of FIG. When the phase is determined and the code is output, 1 bit corresponding to the output code value is stored in the buffer (S203). Next, the bit counter is incremented by “1” (S204).

次に、ビットカウンタが15以下であるか16以上であるかを判断する(S205)。ビットカウンタが15以下の場合は、S201に戻って、次の基準フレームを抽出する処理を行う。   Next, it is determined whether the bit counter is 15 or less or 16 or more (S205). If the bit counter is equal to or smaller than 15, the process returns to S201 to perform processing for extracting the next reference frame.

ビットカウンタが16以上である場合は、バッファに保存されたビット配列のうち前半8ビットと後半8ビットの適合性の判断を行う(S206)。すなわち、図6(c)に示したように、16ビット中先頭から1ビット目と10ビット目、2ビット目と9ビット目、3ビット目と12ビット目、4ビット目と11ビット目、5ビット目と14ビット目、6ビット目と13ビット目、7ビット目と16ビット目が互いに反転した値となっており、8ビット目と15ビット目が一致しているかどうかの判断を行う。これらを満たしていれば適合していると判断し、満たしていなければ不適合と判断する。判断の結果、不適合である場合には、S201に戻って、次の基準フレームを抽出する処理を行う。判断の結果、適合している場合には、16ビット中の前半8ビットについてパリティ検査を行う(S207)。具体的には、16ビット中の前半8ビットを抽出し、そのうち前7ビットでパリティ計算を行い、その結果と8ビット目と照合を行う。パリティ検査が不合格の場合は、S201に戻って、次の基準フレームを抽出する処理を行う。   When the bit counter is 16 or more, the compatibility of the first half 8 bits and the second half 8 bits in the bit arrangement stored in the buffer is determined (S206). That is, as shown in FIG. 6C, the first and tenth bits, the second and ninth bits, the third and twelfth bits, the fourth and eleventh bits, The 5th and 14th bits, the 6th and 13th bits, the 7th and 16th bits are inverted from each other, and it is determined whether the 8th and 15th bits match. . If these conditions are satisfied, it is determined to be conforming, and if they are not satisfied, it is determined to be nonconforming. If the result of determination is incompatibility, processing returns to S201 and the next reference frame is extracted. As a result of the determination, if it matches, a parity check is performed on the first 8 bits of 16 bits (S207). Specifically, 8 bits in the first half of 16 bits are extracted, parity calculation is performed on the previous 7 bits, and the result is compared with the 8th bit. If the parity check fails, the process returns to S201 to perform processing for extracting the next reference frame.

パリティ検査が合格の場合は、付加情報抽出手段160が、前半8ビット中の前7ビットに1ビット付加して出力する(S208)。ここで、パリティ検査が合格の場合は、照合に用いた8ビット目が誤り検出ビットであった可能性が高いことになる。そうすると、その前の7ビットは元の付加情報における7ビットであると考えられる。このため、その先頭からの7ビットにビット0を付加することによりASCIIコードにおける1ワードとして出力するのである。逆にパリティ検査が不合格の場合は、照合に用いた8ビット目が誤り検出ビットでない可能性が高いことになる。そうすると、その時点で保持している7ビットは、元の付加情報における7ビットからずれたものであると考えられる。この場合は、先頭の1ビットを破棄して、S201からS204の処理により得られた新たな1ビットを得るための処理を行うのである。   If the parity check is successful, the additional information extraction unit 160 adds 1 bit to the previous 7 bits in the first 8 bits and outputs the result (S208). Here, if the parity check passes, there is a high possibility that the eighth bit used for collation is an error detection bit. Then, the previous 7 bits are considered to be 7 bits in the original additional information. Therefore, by adding bit 0 to the 7 bits from the head, it is output as one word in the ASCII code. On the other hand, if the parity check fails, there is a high possibility that the eighth bit used for collation is not an error detection bit. Then, it is considered that the 7 bits held at that time are shifted from the 7 bits in the original additional information. In this case, the first 1 bit is discarded, and processing for obtaining a new 1 bit obtained by the processing from S201 to S204 is performed.

このようにパリティ検査を行い、これに合格した場合は、その部分がワードの区切りである可能性が高いので、それが本当に区切りであれば、以降は16ビットずつ抽出すれば、全て正確にワード単位で抽出を行うことができる。逆に、パリティ検査に合格したとしても、それが偶然であり、実はワードの区切りではない場合も考えられる。このような場合は、次のパリティ検査の際に不合格となる可能性が高く、何回か繰り返しているうちに正しい区切りが正確に判断できることになる。S208において、前7ビットに1ビット付加して出力した場合には、ビットカウンタを0に初期化する(S209)。そして、S201に戻って、次の基準フレームを抽出する処理を行う。   If the parity check is performed in this way and the result is passed, there is a high possibility that the part is a word delimiter. Extraction can be done in units. On the other hand, even if the parity check is passed, it may be a coincidence and not actually a word break. In such a case, there is a high possibility that it will be rejected at the next parity check, and the correct delimiter can be accurately determined after repeating several times. In S208, when 1 bit is added to the previous 7 bits and output, the bit counter is initialized to 0 (S209). Then, the process returns to S201 to perform processing for extracting the next reference frame.

図8に示す処理を各基準フレームに対して実行することにより、付加情報が抽出されることになる。S201において全ての基準フレームが抽出されたと判断された場合には、処理を終了する。   By executing the processing shown in FIG. 8 for each reference frame, additional information is extracted. If it is determined in S201 that all reference frames have been extracted, the process ends.

上記S208の処理において、付加情報抽出手段160は、まず、符号出力手段150により出力された値を、所定の規則により変換して意味のある付加情報として抽出する。所定の規則としては、情報を埋め込む者が意図した情報が受け取った者に認識可能な状態とできるものであれば、さまざまな規則が採用できるが、本実施形態では、ASCIIコードを採用している。すなわち、付加情報抽出手段160は、符号判定パラメータ算出手段140が判定し、符号出力手段150から出力される符号から得られるビット値の配列を1バイト(8ビット)単位で認識し、これをASCIIコードに従って文字情報を認識する。このようにして得られた文字情報は、表示装置(図示省略)の画面に表示出力される。   In the process of S208, the additional information extraction unit 160 first converts the value output by the code output unit 150 according to a predetermined rule and extracts it as meaningful additional information. As the predetermined rule, various rules can be adopted as long as the information intended by the person who embeds the information can be recognized by the recipient. In this embodiment, the ASCII code is adopted. . That is, the additional information extraction unit 160 recognizes the bit value array obtained from the code determined by the code determination parameter calculation unit 140 and output from the code output unit 150 in units of 1 byte (8 bits), and recognizes this as ASCII. Recognizes character information according to the code. The character information thus obtained is displayed and output on a screen of a display device (not shown).

従って、埋め込み装置により音響信号に、その楽曲の曲名やアーチスト等の属性情報を文字情報として埋め込んでおけば、利用者は、その音楽が流れているのを聞いて、その曲名やアーチストを知りたいと思ったときに、抽出装置として機能する自身の携帯端末に所定の操作を行えば、自身の携帯端末の画面に曲名やアーチスト等の属性情報が文字情報として表示されることになる。   Therefore, if the embedding device embeds the attribute information such as the song title or artist in the sound signal as the character information, the user wants to know the song title or artist by listening to the music being played. If a predetermined operation is performed on the mobile terminal that functions as the extraction device, attribute information such as a song title and an artist is displayed as character information on the screen of the mobile terminal.

上記の例では、図8のフローチャートに従ってエラー訂正を行わない設定における抽出装置の処理動作を説明した。エラー訂正を行わない場合は、エラーが生じない場合にのみ、付加情報1ワードの出力が可能となる。例えば、図12(a)に示すような正常な配列(図6(c)の配列と同一)の場合、第1ビット〜第7ビットまでは、それぞれの反転ビットと照合を行い、第8ビットはその複写ビットと照合を行う。そして、その関係が適合している場合には、前半の第1ビット〜第8ビットにおいてパリティ検査を行う。図12(a)の例では、第1ビット〜第8ビットと第9ビット〜第16ビットが適合しており、前半の第1ビット〜第8ビットのパリティ検査も合格であるので、第1ビット〜第7ビットにビット0を付加することによりASCIIコードにおける1ワードとして出力する。   In the above example, the processing operation of the extraction apparatus in a setting in which error correction is not performed has been described according to the flowchart of FIG. When error correction is not performed, it is possible to output one word of additional information only when no error occurs. For example, in the case of a normal array as shown in FIG. 12 (a) (same as the array in FIG. 6 (c)), the first bit to the seventh bit are compared with the respective inverted bits, and the eighth bit Verifies the copy bit. If the relationship is suitable, a parity check is performed on the first to eighth bits of the first half. In the example of FIG. 12A, the first bit to the eighth bit and the ninth bit to the sixteenth bit are suitable, and the first half to the eighth bit parity check is also passed. By adding bit 0 to bit-7, it is output as one word in the ASCII code.

次に、1ビットのエラー訂正をする設定における抽出装置の処理動作を、図11のフローチャートに従って説明する。図11においては、図8と同一処理を行う部分が含まれている。そこで、図8と同一処理を行う部分については、同一符号を付して説明を省略する。図11の例においても、まず、初期化処理を行う(S200)。この初期化処理では、図8の例と同様、位相判定テーブルS(p)、位相決定ログ、位相確定フラグ、ビットカウンタを初期化するが、さらに、自動訂正モードをOFFにする設定を行う。   Next, the processing operation of the extraction apparatus in a setting for performing 1-bit error correction will be described with reference to the flowchart of FIG. 11 includes a portion that performs the same processing as in FIG. Therefore, portions that perform the same processing as in FIG. Also in the example of FIG. 11, first, initialization processing is performed (S200). In this initialization process, as in the example of FIG. 8, the phase determination table S (p), the phase determination log, the phase determination flag, and the bit counter are initialized, and further, the automatic correction mode is set to OFF.

続いて、図8と同様、所定数のサンプルで構成される音響フレームを基準フレームとして抽出した後(S201)、読み込んだ各音響フレームについて、位相を特定した後、埋め込まれている情報を判定し、対応する符号を出力する(S202)。なお、S202の処理については、図9、図10に示したようなものとなる。   Subsequently, as in FIG. 8, after extracting an acoustic frame composed of a predetermined number of samples as a reference frame (S201), after identifying the phase of each read acoustic frame, the embedded information is determined. The corresponding code is output (S202). Note that the processing of S202 is as shown in FIGS.

位相確定および符号出力が行なわれたら、出力された符号の値に対応する1ビットをバッファに保存して(S203)、ビットカウンタを“1”だけカウントアップする(S204)。そして、ビットカウンタが15以下であるか16以上であるかを判断し(S205)、ビットカウンタが15以下の場合は、S201に戻って、次の基準フレームを抽出する処理を行う。   When the phase is determined and the code is output, 1 bit corresponding to the output code value is stored in the buffer (S203), and the bit counter is incremented by "1" (S204). Then, it is determined whether the bit counter is 15 or less or 16 or more (S205). If the bit counter is 15 or less, the process returns to S201 to perform processing for extracting the next reference frame.

ビットカウンタが16以上である場合は、バッファに保存されたビット列のうち前半8ビットと後半8ビットの適合性の判断を行う(S206)。判断の結果、2ビット以上不適合の場合には、自動訂正モードをOFFに設定した後(S210)、S201に戻って、次の基準フレームを抽出する処理を行う。   When the bit counter is 16 or more, the compatibility of the first half 8 bits and the second half 8 bits in the bit string stored in the buffer is determined (S206). As a result of the determination, if it is not suitable for 2 bits or more, after the automatic correction mode is set to OFF (S210), the process returns to S201 to extract the next reference frame.

一方、判断の結果、1ビット以下の不適合の場合には、さらに、適合か1ビットのみ不適合かを判断する。適合している場合には、16ビット中の前半8ビットについてパリティ検査を行う(S207)。パリティ検査が合格の場合は、自動訂正モードをONに設定した後(S211)、付加情報抽出手段160が、前半8ビット中の前7ビットに1ビット付加して出力する(S208)。   On the other hand, if the result of determination is nonconformity of 1 bit or less, it is further determined whether it is compatible or only 1 bit is nonconforming. If it matches, parity check is performed on the first 8 bits of 16 bits (S207). If the parity check is acceptable, the automatic correction mode is set to ON (S211), and then the additional information extraction unit 160 adds 1 bit to the previous 7 bits in the first 8 bits and outputs (S208).

1ビットのみ不適合の場合は、自動訂正モードがONであるかOFFであるかの判断を行う(S212)。自動訂正モードがOFFである場合は、S201に戻って、次の基準フレームを抽出する処理を行う。自動訂正モードがONである場合は、16ビット中の前半8ビットについてパリティ検査を行う(S207)。パリティ検査が合格の場合は、付加情報抽出手段160が、前半8ビット中の前7ビットに1ビット付加して出力する(S208)。パリティ検査が不合格の場合は、前半の不適合ビットを反転訂正する(S213)。そして、付加情報抽出手段160が、前半8ビット中の前7ビットに1ビット付加して出力する(S208)。   If only one bit is unsuitable, it is determined whether the automatic correction mode is ON or OFF (S212). If the automatic correction mode is OFF, the process returns to S201 to perform processing for extracting the next reference frame. If the automatic correction mode is ON, a parity check is performed on the first 8 bits of 16 bits (S207). If the parity check is successful, the additional information extraction unit 160 adds 1 bit to the previous 7 bits in the first 8 bits and outputs the result (S208). If the parity check fails, the first non-conforming bit is inverted and corrected (S213). Then, the additional information extraction unit 160 adds 1 bit to the previous 7 bits in the first 8 bits and outputs the result (S208).

S208において、前7ビットに1ビット付加して出力した場合には、ビットカウンタを0に初期化する(S209)。そして、S201に戻って、次の基準フレームを抽出する処理を行う。   In S208, when 1 bit is added to the previous 7 bits and output, the bit counter is initialized to 0 (S209). Then, the process returns to S201 to perform processing for extracting the next reference frame.

図11の例のように、1ビットのエラー訂正をする設定の場合は、1ビットのエラーが生じた場合であっても、付加情報1ワードの出力が可能となる。例えば、図12(b)に示すように、第5ビット反転がエラーとなっている場合を考えてみる。この場合、第5ビットと第5ビット反転が同一の値であり、反転の関係となっておらず、不適合となる。しかし、前半のパリティ検査は合格となるので、前半の8ビット中、前7ビットに1ビットを付加して出力される。   As in the example of FIG. 11, in the case of setting for 1-bit error correction, even if a 1-bit error occurs, it is possible to output 1 word of additional information. For example, consider the case where the fifth bit inversion is an error, as shown in FIG. In this case, the fifth bit and the fifth bit inversion have the same value and are not in an inversion relationship, which is incompatible. However, since the parity check in the first half is passed, one bit is added to the first 7 bits out of the 8 bits in the first half and output.

次に、図13(a)に示すように、第5ビットがエラーとなっている場合を考えてみる。この場合、第5ビットと第5ビット反転が同一の値であり、反転の関係となっておらず、不適合となる。さらに、前半のパリティ検査は不合格となるので、前半の不適合ビットである第5ビットを反転訂正した後、訂正後の8ビット中、前7ビットに1ビットを付加して出力される。   Next, consider the case where the fifth bit is in error as shown in FIG. In this case, the fifth bit and the fifth bit inversion have the same value and are not in an inversion relationship, which is incompatible. Furthermore, since the parity check in the first half is rejected, the fifth bit which is the non-conforming bit in the first half is inverted and corrected, and then 1 bit is added to the previous 7 bits out of the 8 bits after the correction.

次に、図13(b)に示すように、第8ビット複写がエラーとなっている場合を考えてみる。この場合、第8ビットと第8ビット複写が異なる値であり、複写の関係となっておらず、不適合となる。しかし、前半のパリティ検査は合格となるので、前半の8ビット中、前7ビットに1ビットを付加して出力される。   Next, as shown in FIG. 13B, consider the case where the eighth bit copy has an error. In this case, the 8th bit and the 8th bit copy are different values and are not in a relationship of copying, which is incompatible. However, since the parity check in the first half is passed, one bit is added to the first 7 bits out of the 8 bits in the first half and output.

次に、図14(a)に示すように、第8ビットがエラーとなっている場合を考えてみる。この場合、第8ビットと第8ビット複写が異なる値であり、複写の関係となっておらず、不適合となる。さらに、前半のパリティ検査は不合格となるので、前半の不適合ビットである第8ビットを反転訂正した後、訂正後の8ビット中、前7ビットに1ビットを付加して出力される。   Next, consider the case where the eighth bit is in error as shown in FIG. In this case, the 8th bit and the 8th bit copy are different values and are not in a relationship of copying, which is incompatible. Further, since the parity check in the first half is rejected, the eighth bit, which is a non-conforming bit in the first half, is inverted and corrected, and then 1 bit is added to the previous 7 bits out of the 8 bits after the correction.

後半ビット列において奇数番目のビットと偶数番目のビットを入れ替えた場合は、図6(c)に示すように、前半ビット列の奇数番目のビットは9ビット離れたビットとの比較となり、前半ビット列の偶数番目のビットは7ビット離れたビットとの比較となる。すなわち、第1ビットは第10ビット(第1ビット反転)、第2ビットは第9ビット(第2ビット反転)との比較を行うことになる。この場合、抽出時に、誤って第2ビットを先頭と判断すると、第11ビットとの比較になり、これは第4ビット反転であるため、適合性が保たれない場合も多い。すると、第2ビットを先頭とした誤ったビット配列を抽出してしまう可能性が低くなる。このため、後半ビット列において奇数番目のビットと偶数番目のビットを入れ替えた場合、図6(b)のように前半ビット列と後半ビット列における対応する各ビットの順序が同じである場合に比べると、誤認識が低く、より精度の高い抽出を行うことが可能となる。   When the odd-numbered bits and the even-numbered bits are interchanged in the latter-half bit string, as shown in FIG. 6C, the odd-numbered bits in the first-half bit string are compared with the bits separated by 9 bits, and the even-numbered bits in the first-half bit string The th bit is compared with a bit 7 bits away. That is, the first bit is compared with the tenth bit (first bit inversion), and the second bit is compared with the ninth bit (second bit inversion). In this case, at the time of extraction, if the second bit is erroneously determined to be the head, it is compared with the eleventh bit. Since this is the fourth bit inversion, compatibility is often not maintained. Then, the possibility of extracting an incorrect bit arrangement starting from the second bit is reduced. For this reason, when the odd-numbered bits and the even-numbered bits are interchanged in the second half bit string, compared to the case where the order of the corresponding bits in the first half bit string and the second half bit string is the same as shown in FIG. The recognition is low and it becomes possible to perform extraction with higher accuracy.

(1.5.位相補正処理について)
上記のように、抽出時には、埋め込み時に埋め込んだ音響フレームに対応して、音響信号を読み込むことができるとは限らない。そこで、音響フレームの位相をずらして複数通り(本実施形態では6通り)で読み込み、その中で最適な位相を決定し、その位相で特定される音響フレームに対応する符号を出力することにしている。例えば、6通りで読み込む場合、先頭の音響フレームは、本来サンプル番号1〜2048のサンプルであるが、サンプル番号1、342、684、1025、1366、1708から始まる2048のサンプルで構成される6個の各音響フレームに対して処理を行い、最適な音響フレームに対応する符号を出力することになる。なお、図9のフローチャートを用いて説明したように、本実施形態では、同一位相が所定回数連続した場合には、それ以降はその位相を確定したものとして処理を行う。
(1.5. About phase correction processing)
As described above, at the time of extraction, it is not always possible to read an acoustic signal corresponding to the acoustic frame embedded at the time of embedding. Therefore, the phase of the acoustic frame is shifted and read in a plurality of ways (six in this embodiment), the optimum phase is determined, and a code corresponding to the acoustic frame specified by the phase is output. Yes. For example, when reading in six ways, the first sound frame is originally a sample of sample numbers 1 to 2048, but six pieces composed of 2048 samples starting from sample numbers 1, 342, 684, 1025, 1366, and 1708 Are processed, and a code corresponding to the optimum acoustic frame is output. As described with reference to the flowchart of FIG. 9, in the present embodiment, when the same phase continues a predetermined number of times, the processing is performed after that phase is determined.

(1.6.モノラル音響信号の場合)
上記実施形態においては、埋め込み装置、抽出装置のいずれにおいても、左右のチャンネルを有するステレオ音響信号の左チャンネル信号に付加情報を埋め込む場合を例にとって説明したが、逆に右チャンネル信号に付加情報を埋め込むようにしても良い。本発明は、左右の特性には無関係だからである。また、1つのチャンネルしかないモノラル音響信号に対して処理を行う場合は、上記実施形態において、左チャンネル信号に対して行った処理を行うことになる。本発明は、1つのチャンネル信号に対して付加情報を埋め込み、また抽出を行うので、モノラル音響信号であってもステレオ音響信号であっても同様に行うことができる。
(1.6. Monaural sound signal)
In the above embodiment, the case where the additional information is embedded in the left channel signal of the stereo sound signal having the left and right channels in both the embedding device and the extraction device has been described as an example, but conversely, the additional information is added to the right channel signal. It may be embedded. This is because the present invention is not related to the left and right characteristics. Further, when processing is performed on a monaural sound signal having only one channel, the processing performed on the left channel signal is performed in the above embodiment. Since the present invention embeds and extracts additional information from one channel signal, it can be similarly performed for a monaural sound signal or a stereo sound signal.

(1.7.信号成分が小さくても情報の埋め込みを確実に行う手法)
ここまでの説明のように、本発明では、元の信号成分の状態如何にかかわらず、常に変更対象周波数帯の信号成分を変更するものであるが、その成分の大きさは、両チャンネルの信号強度より大きくなることはない。このため、元の信号成分が存在しないか、または小さすぎる場合には、抽出に必要な信号成分が得られないため、情報の抽出を適切に行うことができず抽出エラーとなる。そこで、以下、元の信号成分が小さくても、情報の抽出を適切に行えるように信号の埋め込みを可能とする手法について説明する。
(1.7. Method of reliably embedding information even if the signal component is small)
As described so far, in the present invention, the signal component of the frequency band to be changed is always changed regardless of the state of the original signal component, but the magnitude of the component is the signal of both channels. There is no greater than strength. For this reason, if the original signal component does not exist or is too small, the signal component necessary for extraction cannot be obtained, and information cannot be appropriately extracted, resulting in an extraction error. Therefore, hereinafter, a method for enabling signal embedding so that information can be appropriately extracted even when the original signal component is small will be described.

この場合、図2に示した埋め込み装置における情報の埋め込み処理も、図5のフローチャートに従って行われる。   In this case, the information embedding process in the embedding apparatus shown in FIG. 2 is also performed according to the flowchart of FIG.

したがって、S104における状態1、状態2に設定する処理としては、まず、以下の〔数式16〕に従って算出される固定値Vを、変更対象周波数帯の成分の強度として設定する。   Therefore, as a process for setting the state 1 and the state 2 in S104, first, the fixed value V calculated according to the following [Equation 16] is set as the intensity of the component of the change target frequency band.

〔数式16〕
V={0.5・Lev・C/P}1/2
[Formula 16]
V = {0.5 · Lev · C / P} 1/2

そして、状態1とする場合は、上記〔数式8〕に従った処理を実行した後、以下の〔数式17〕に従った処理を実行する。   In the case of the state 1, after executing the process according to the above [Equation 8], the process according to the following [Equation 17] is executed.

〔数式17〕
j=m〜M−1の各成分に対して
Al´(1,j)=F(j−m)・Al(1,j)・V/{Al(1,j)2+Bl(1,j)21/2
Bl´(1,j)=F(j−m)・Bl(1,j)・V/{Al(1,j)2+Bl(1,j)21/2
[Formula 17]
For each component of j = m to M−1, Al ′ (1, j) = F (j−m) · Al (1, j) · V / {Al (1, j) 2 + Bl (1, j 2 } 1/2
Bl ′ (1, j) = F (j−m) · B1 (1, j) · V / {Al (1, j) 2 + B1 (1, j) 2 } 1/2

状態2とする場合は、上記〔数式9〕に従った処理を実行した後、以下の〔数式18〕に従った処理を実行する。   In the case of the state 2, after executing the process according to the above [Expression 9], the process according to the following [Expression 18] is executed.

〔数式18〕
j=m〜M−1の各成分に対して
Al´(3,j)=F(j−m)・Al(3,j)・V/{Al(3,j)2+Bl(3,j)21/2
Bl´(3,j)=F(j−m)・Bl(3,j)・V/{Al(3,j)2+Bl(3,j)21/2
[Formula 18]
For each component of j = m to M−1, Al ′ (3, j) = F (j−m) · Al (3, j) · V / {Al (3, j) 2 + Bl (3, j 2 } 1/2
Bl ′ (3, j) = F (j−m) · B1 (3, j) · V / {Al (3, j) 2 + B1 (3, j) 2 } 1/2

上記のように、周波数成分が小さい場合に情報を埋め込んだ場合であっても、抽出側の、音響信号からの情報の抽出装置の構成は図7と同一であり、処理動作は図8〜図11のフローチャートに従ったものと同一である。   As described above, even when information is embedded when the frequency component is small, the configuration of the extraction device for extracting information from the acoustic signal on the extraction side is the same as that in FIG. 7, and the processing operation is shown in FIGS. 11 is the same as that according to the flowchart of FIG.

(2.第2の実施形態)
次に、第2の実施形態について説明する。第2の実施形態では、図15に示すように、音響フレームの変更対象周波数帯の成分を4つの状態に変更し、2ビットの情報を埋め込むことを特徴とする。
(2. Second Embodiment)
Next, a second embodiment will be described. As shown in FIG. 15, the second embodiment is characterized in that the components of the frequency band to be changed in the acoustic frame are changed to four states and 2-bit information is embedded.

図15に示す各音響フレームにおいても、図1と同様、横軸は時間方向、縦軸は周波数方向を示している。また、網掛けされた部分は、周波数成分が存在している部分を示し、網掛けが濃いほど成分強度が強いことを示している。図15においても、図1と同様、所定周波数範囲(変更対象周波数帯)はF1以上F2以下に設定されているが、図15においては、変更対象周波数帯がF1とF2の中間において2つに区分されている。したがって、図15に示すように、縦軸の周波数方向において、周波数領域が4つに区分されている。   Also in each acoustic frame shown in FIG. 15, the horizontal axis indicates the time direction and the vertical axis indicates the frequency direction, as in FIG. A shaded portion indicates a portion where a frequency component exists, and the darker the shade, the stronger the component strength. Also in FIG. 15, the predetermined frequency range (change target frequency band) is set to F1 or more and F2 or less as in FIG. 1, but in FIG. 15, the change target frequency band is two in the middle of F1 and F2. It is divided. Therefore, as shown in FIG. 15, the frequency domain is divided into four in the frequency direction of the vertical axis.

本実施形態で、符号1、符号2を埋め込む場合は、図15(b)(c)に示すように、図1(b)(c)に示した第1の実施形態と同様に処理が行われる。   In the present embodiment, when embedding reference numerals 1 and 2, as shown in FIGS. 15B and 15C, processing is performed in the same manner as in the first embodiment shown in FIGS. Is called.

符号3を埋め込む場合、図15(d)に示すように、L-chの信号の前部の上位周波数成分と後部の下位周波数成分を除去し、除去した成分と同等の成分をR-chの信号に加算する。また、L-chの信号の変更対象周波数帯の下位周波数成分と後部の上位周波数成分の強度を高め、R-chの信号の対応する各スペクトル集合の強度を弱めている。この状態を“状態3”と呼ぶことにする。符号4を埋め込む場合は、図15(e)に示すように、L-chの信号の変更対象周波数帯の前部の下位周波数成分と後部の上位周波数成分を除去し、除去した成分と同等の成分をR-chの信号に加算する。また、L-chの信号の変更対象周波数帯の前部の上位周波数成分と後部の下位周波数成分の強度を高め、R-chの信号の対応する各スペクトル集合の強度を弱めている。この状態を“状態4”と呼ぶことにする。   When the code 3 is embedded, as shown in FIG. 15D, the front upper frequency component and the rear lower frequency component of the L-ch signal are removed, and a component equivalent to the removed component is removed from the R-ch. Add to signal. Further, the intensity of the lower frequency component and rear upper frequency component of the change target frequency band of the L-ch signal is increased, and the intensity of each spectrum set corresponding to the R-ch signal is decreased. This state is referred to as “state 3”. When embedding the code 4, as shown in FIG. 15 (e), the lower frequency component in the front part and the higher frequency component in the rear part of the frequency band to be changed of the L-ch signal are removed, and it is equivalent to the removed component. The component is added to the R-ch signal. Further, the intensity of the upper frequency component in the front part and the lower frequency component in the rear part of the change target frequency band of the L-ch signal is increased, and the intensity of each spectrum set corresponding to the R-ch signal is weakened. This state is called “state 4”.

本発明では、図15(b)〜(e)に示すような4つの状態に変更対象周波数帯の成分を変更することにより、情報の埋め込みを行っている。4つの状態を埋め込むことができるので、2ビット分の情報量に相当する。   In the present invention, information is embedded by changing the components of the frequency band to be changed to four states as shown in FIGS. Since four states can be embedded, this corresponds to an information amount of 2 bits.

(2.1.埋め込み装置)
第2の実施形態においても、埋め込み装置の構成は図2に示したものと同様であるが、主に周波数成分変更手段30の内容が異なっている。具体的には、周波数成分変更手段30は、Aタイプの音響フレームについて、ビット配列作成手段70が作成したビット配列に応じて、変更対象周波数帯の成分の割合を変更する処理を行うが、第2の実施形態では、ビット配列を2ビットずつ読み込み、1音響フレームに対して2ビットの情報を埋め込む。埋め込まれる2ビットの値は、“00”“01”“10”“11”の4通りがある。本実施形態では、これらを値1〜値4と定義する。この際、“00”〜“11”の4通りのうち、いずれを値1〜値4と定義しても良い。抽出側において、埋め込み側で埋め込まれた2ビットの配列が特定できれば良いためである。したがって、この定義は、埋め込み側と抽出側で一致している必要がある。
(2.1. Embedded device)
Also in the second embodiment, the configuration of the embedding device is the same as that shown in FIG. 2, but the contents of the frequency component changing means 30 are mainly different. Specifically, the frequency component changing unit 30 performs a process for changing the ratio of the components of the change target frequency band according to the bit arrangement created by the bit arrangement creating unit 70 for the A type acoustic frame. In the second embodiment, the bit array is read two bits at a time, and 2-bit information is embedded in one acoustic frame. There are four embedded 2-bit values: “00”, “01”, “10”, and “11”. In the present embodiment, these are defined as value 1 to value 4. At this time, any one of four values “00” to “11” may be defined as a value 1 to a value 4. This is because the extraction side only needs to be able to specify the 2-bit array embedded on the embedding side. Therefore, this definition must match between the embedding side and the extraction side.

そして、周波数成分変更手段30は、この値1〜値4に応じて、周波数成分を状態1〜状態4のいずれかに変更する。   Then, the frequency component changing unit 30 changes the frequency component to any one of the state 1 to the state 4 according to the value 1 to the value 4.

埋め込むべき2ビットが“値1”である場合、以下の〔数式19〕に従った処理を実行することにより、変更対象周波数帯の成分の状態を“状態1”、すなわち、図15(b)に示したような状態に変更する。   When the two bits to be embedded are “value 1”, the processing according to the following [Equation 19] is executed to change the component state of the frequency band to be changed to “state 1”, that is, FIG. Change to the state shown in.

〔数式19〕
j=m〜m+P−1、m+P〜M−1の各成分に対して
Al´(3,j)=0
Bl´(3,j)=0
E(3,j)={Al(3,j)2+Bl(3,j)2+Ar(3,j)2+Br(3,j)21/2
Ar´(3,j)=Ar(3,j)・E(3,j)/{Ar(3,j)2+Br(3,j)21/2
Br´(3,j)=Br(3,j)・E(3,j)/{Ar(3,j)2+Br(3,j)21/2
j=m〜m+P−1の各成分に対して
E(1,j)={Al(1,j)2+Bl(1,j)2+Ar(1,j)2+Br(1,j)21/2
Al´(1,j)=F(j−m)・Al(1,j)・E(1,j)/{Al(1,j)2+Bl(1,j)21/2
Bl´(1,j)=F(j−m)・Bl(1,j)・E(1,j)/{Al(1,j)2+Bl(1,j)21/2
Ar´(1,j)=(1.0−F(j−m))・Ar(1,j)・E(1,j)/{Ar(1,j)2+Br(1,j)21/2
Br´(1,j)=(1.0−F(j−m))・Br(1,j)・E(1,j)/{Ar(1,j)2+Br(1,j)21/2
j=m+P〜M−1の各成分に対して
E(1,j)={Al(1,j)2+Bl(1,j)2+Ar(1,j)2+Br(1,j)21/2
Al´(1,j)=F(j−m−P)・Al(1,j)・E(1,j)/{Al(1,j)2+Bl(1,j)21/2
Bl´(1,j)=F(j−m−P)・Bl(1,j)・E(1,j)/{Al(1,j)2+Bl(1,j)21/2
Ar´(1,j)=(1.0−F(j−m−P))・Ar(1,j)・E(1,j)/{Ar(1,j)2+Br(1,j)21/2
Br´(1,j)=(1.0−F(j−m−P))・Br(1,j)・E(1,j)/{Ar(1,j)2+Br(1,j)21/2
j=m〜M−1の各成分に対して
Al´(2,j)=0
Bl´(2,j)=0
E(2,j)={Al(2,j)2+Bl(2,j)2+Ar(2,j)2+Br(2,j)21/2
Ar´(2,j)=Ar(2,j)・E(2,j)/{Ar(2,j)2+Br(2,j)21/2
Br´(2,j)=Br(2,j)・E(2,j)/{Ar(2,j)2+Br(2,j)21/2
[Formula 19]
For each component of j = m to m + P−1 and m + P to M−1, Al ′ (3, j) = 0
Bl ′ (3, j) = 0
E (3, j) = {Al (3, j) 2 + B1 (3, j) 2 + Ar (3, j) 2 + Br (3, j) 2 } 1/2
Ar ′ (3, j) = Ar (3, j) · E (3, j) / {Ar (3, j) 2 + Br (3, j) 2 } 1/2
Br ′ (3, j) = Br (3, j) · E (3, j) / {Ar (3, j) 2 + Br (3, j) 2 } 1/2
For each component of j = m to m + P−1, E (1, j) = {Al (1, j) 2 + Bl (1, j) 2 + Ar (1, j) 2 + Br (1, j) 2 } 1/2
Al ′ (1, j) = F (j−m) · Al (1, j) · E (1, j) / {Al (1, j) 2 + Bl (1, j) 2 } 1/2
Bl ′ (1, j) = F (j−m) · B1 (1, j) · E (1, j) / {Al (1, j) 2 + B1 (1, j) 2 } 1/2
Ar ′ (1, j) = (1.0−F (j−m)) · Ar (1, j) · E (1, j) / {Ar (1, j) 2 + Br (1, j) 2 } 1/2
Br ′ (1, j) = (1.0−F (j−m)) · Br (1, j) · E (1, j) / {Ar (1, j) 2 + Br (1, j) 2 } 1/2
For each component of j = m + P to M−1, E (1, j) = {Al (1, j) 2 + Bl (1, j) 2 + Ar (1, j) 2 + Br (1, j) 2 } 1/2
Al ′ (1, j) = F (j−m−P) · Al (1, j) · E (1, j) / {Al (1, j) 2 + Bl (1, j) 2 } 1/2
Bl ′ (1, j) = F (j−m−P) · B1 (1, j) · E (1, j) / {Al (1, j) 2 + B1 (1, j) 2 } 1/2
Ar ′ (1, j) = (1.0−F (j−m−P)) · Ar (1, j) · E (1, j) / {Ar (1, j) 2 + Br (1, j 2 } 1/2
Br ′ (1, j) = (1.0−F (j−m−P)) · Br (1, j) · E (1, j) / {Ar (1, j) 2 + Br (1, j 2 } 1/2
For each component of j = m to M−1, Al ′ (2, j) = 0
Bl ′ (2, j) = 0
E (2, j) = {Al (2, j) 2 + Bl (2, j) 2 + Ar (2, j) 2 + Br (2, j) 2 } 1/2
Ar ′ (2, j) = Ar (2, j) · E (2, j) / {Ar (2, j) 2 + Br (2, j) 2 } 1/2
Br ′ (2, j) = Br (2, j) · E (2, j) / {Ar (2, j) 2 + Br (2, j) 2 } 1/2

上記〔数式19〕においては、j=m〜m+P−1、m+P〜M−1において、Al´(3,j)、Bl´(3,j)を共に0としている。これは、図15(b)の上段に示すように、L-chにおいて、SP3U、SP3D内の各成分を0にすることを示しているが、“状態1”はSP1U、SP1Dとの差を明確にすることができれば十分であるため、必ずしも0にする必要はなく、小さな値であれば良い。埋め込むべき2ビットが“値2”である場合は、以下の〔数式20〕に従った処理を実行することにより、変更対象周波数帯の成分の状態を“状態2”、すなわち、図15(c)に示したような状態に変更する。   In the above [Equation 19], in j = m to m + P−1 and m + P to M−1, both Al ′ (3, j) and Bl ′ (3, j) are 0. This indicates that each component in SP3U and SP3D is set to 0 in L-ch as shown in the upper part of FIG. 15B, but “state 1” indicates the difference from SP1U and SP1D. Since it is sufficient if it can be clarified, it is not always necessary to set it to 0, and a small value is sufficient. When the two bits to be embedded are “value 2”, the processing according to the following [Equation 20] is executed to change the state of the component of the frequency band to be changed to “state 2”, that is, FIG. Change to the state shown in

〔数式20〕
j=m〜m+P−1、m+P〜M−1の各成分に対して
Al´(1,j)=0
Bl´(1,j)=0
E(1,j)={Al(1,j)2+Bl(1,j)2+Ar(1,j)2+Br(1,j)21/2
Ar´(1,j)=Ar(1,j)・E(1,j)/{Ar(1,j)2+Br(1,j)21/2
Br´(1,j)=Br(1,j)・E(1,j)/{Ar(1,j)2+Br(1,j)21/2
j=m〜m+P−1の各成分に対して
E(3,j)={Al(3,j)2+Bl(3,j)2+Ar(3,j)2+Br(3,j)21/2
Al´(3,j)=F(j−m)・Al(3,j)・E(3,j)/{Al(3,j)2+Bl(3,j)21/2
Bl´(3,j)=F(j−m)・Bl(3,j)・E(3,j)/{Al(3,j)2+Bl(3,j)21/2
Ar´(3,j)=(1.0−F(j−m))・Ar(3,j)・E(3,j)/{Ar(3,j)2+Br(3,j)21/2
Br´(3,j)=(1.0−F(j−m))・Br(3,j)・E(3,j)/{Ar(3,j)2+Br(3,j)21/2
j=m+P〜M−1の各成分に対して
E(3,j)={Al(3,j)2+Bl(3,j)2+Ar(3,j)2+Br(3,j)21/2
Al´(3,j)=F(j−m−P)・Al(3,j)・E(3,j)/{Al(3,j)2+Bl(3,j)21/2
Bl´(3,j)=F(j−m−P)・Bl(3,j)・E(3,j)/{Al(3,j)2+Bl(3,j)21/2
Ar´(3,j)=(1.0−F(j−m−P))・Ar(3,j)・E(3,j)/{Ar(3,j)2+Br(3,j)21/2
Br´(3,j)=(1.0−F(j−m−P))・Br(3,j)・E(3,j)/{Ar(3,j)2+Br(3,j)21/2
j=m〜M−1の各成分に対して
Al´(2,j)=0
Bl´(2,j)=0
E(2,j)={Al(2,j)2+Bl(2,j)2+Ar(2,j)2+Br(2,j)21/2
Ar´(2,j)=Ar(2,j)・E(2,j)/{Ar(2,j)2+Br(2,j)21/2
Br´(2,j)=Br(2,j)・E(2,j)/{Ar(2,j)2+Br(2,j)21/2
[Formula 20]
For each component of j = m to m + P−1 and m + P to M−1, Al ′ (1, j) = 0
Bl ′ (1, j) = 0
E (1, j) = {Al (1, j) 2 + Bl (1, j) 2 + Ar (1, j) 2 + Br (1, j) 2 } 1/2
Ar ′ (1, j) = Ar (1, j) · E (1, j) / {Ar (1, j) 2 + Br (1, j) 2 } 1/2
Br ′ (1, j) = Br (1, j) · E (1, j) / {Ar (1, j) 2 + Br (1, j) 2 } 1/2
For each component of j = m to m + P-1, E (3, j) = {Al (3, j) 2 + B1 (3, j) 2 + Ar (3, j) 2 + Br (3, j) 2 } 1/2
Al ′ (3, j) = F (j−m) · Al (3, j) · E (3, j) / {Al (3, j) 2 + Bl (3, j) 2 } 1/2
Bl ′ (3, j) = F (j−m) · B1 (3, j) · E (3, j) / {Al (3, j) 2 + B1 (3, j) 2 } 1/2
Ar ′ (3, j) = (1.0−F (j−m)) · Ar (3, j) · E (3, j) / {Ar (3, j) 2 + Br (3, j) 2 } 1/2
Br ′ (3, j) = (1.0−F (j−m)) · Br (3, j) · E (3, j) / {Ar (3, j) 2 + Br (3, j) 2 } 1/2
For each component of j = m + P to M−1, E (3, j) = {Al (3, j) 2 + Bl (3, j) 2 + Ar (3, j) 2 + Br (3, j) 2 } 1/2
Al ′ (3, j) = F (j−m−P) · Al (3, j) · E (3, j) / {Al (3, j) 2 + Bl (3, j) 2 } 1/2
Bl ′ (3, j) = F (j−m−P) · B1 (3, j) · E (3, j) / {Al (3, j) 2 + B1 (3, j) 2 } 1/2
Ar ′ (3, j) = (1.0−F (j−m−P)) · Ar (3, j) · E (3, j) / {Ar (3, j) 2 + Br (3, j 2 } 1/2
Br ′ (3, j) = (1.0−F (j−m−P)) · Br (3, j) · E (3, j) / {Ar (3, j) 2 + Br (3, j 2 } 1/2
For each component of j = m to M−1, Al ′ (2, j) = 0
Bl ′ (2, j) = 0
E (2, j) = {Al (2, j) 2 + Bl (2, j) 2 + Ar (2, j) 2 + Br (2, j) 2 } 1/2
Ar ′ (2, j) = Ar (2, j) · E (2, j) / {Ar (2, j) 2 + Br (2, j) 2 } 1/2
Br ′ (2, j) = Br (2, j) · E (2, j) / {Ar (2, j) 2 + Br (2, j) 2 } 1/2

上記〔数式20〕においては、j=m〜m+P−1、m+P〜M−1において、Al´(1,j)、Bl´(1,j)を共に0としている。これは、図15(c)の上段に示すように、L-chにおいて、SP1U、SP1D内の各成分を0にすることを示しているが、“状態2”はSP3U、SP3Dとの差を明確にすることができれば十分であるため、必ずしも0にする必要はなく、小さな値であれば良い。埋め込むべき2ビットが“値3”である場合、以下の〔数式21〕に従った処理を実行することにより、変更対象周波数帯の成分の状態を“状態3” 、すなわち、図15(d)に示したような状態に変更する。   In the above [Expression 20], Al ′ (1, j) and Bl ′ (1, j) are both 0 in j = m to m + P−1 and m + P to M−1. This indicates that each component in SP1U and SP1D is set to 0 in L-ch as shown in the upper part of FIG. 15C, but “state 2” indicates a difference from SP3U and SP3D. Since it is sufficient if it can be clarified, it is not always necessary to set it to 0, and a small value is sufficient. When 2 bits to be embedded are “value 3”, the state of the component of the frequency band to be changed is changed to “state 3”, that is, FIG. Change to the state shown in.

〔数式21〕
j=m〜m+P−1の各成分に対して
Al´(3,j)=0
Bl´(3,j)=0
E(3,j)={Al(3,j)2+Bl(3,j)2+Ar(3,j)2+Br(3,j)21/2
Ar´(3,j)=Ar(3,j)・E(3,j)/{Ar(3,j)2+Br(3,j)21/2
Br´(3,j)=Br(3,j)・E(3,j)/{Ar(3,j)2+Br(3,j)21/2
j=m+P〜M−1の各成分に対して
Al´(1,j)=0
Bl´(1,j)=0
E(1,j)={Al(1,j)2+Bl(1,j)2+Ar(1,j)2+Br(1,j)21/2
Ar´(1,j)=Ar(1,j)・E(1,j)/{Ar(1,j)2+Br(1,j)21/2
Br´(1,j)=Br(1,j)・E(1,j)/{Ar(1,j)2+Br(1,j)21/2
j=m〜m+P−1の各成分に対して
E(1,j)={Al(1,j)2+Bl(1,j)2+Ar(1,j)2+Br(1,j)21/2
Al´(1,j)=F(j−m)・Al(1,j)・E(1,j)/{Al(1,j)2+Bl(1,j)21/2
Bl´(1,j)=F(j−m)・Bl(1,j)・E(1,j)/{Al(1,j)2+Bl(1,j)21/2
Ar´(1,j)=(1.0−F(j−m))・Ar(1,j)・E(1,j)/{Ar(1,j)2+Br(1,j)21/2
Br´(1,j)=(1.0−F(j−m))・Br(1,j)・E(1,j)/{Ar(1,j)2+Br(1,j)21/2
j=m+P〜M−1の各成分に対して
E(3,j)={Al(3,j)2+Bl(3,j)2+Ar(3,j)2+Br(3,j)21/2
Al´(3,j)=F(j−m−P)・Al(3,j)・E(3,j)/{Al(3,j)2+Bl(3,j)21/2
Bl´(3,j)=F(j−m−P)・Bl(3,j)・E(3,j)/{Al(3,j)2+Bl(3,j)21/2
Ar´(3,j)=(1.0−F(j−m−P))・Ar(3,j)・E(3,j)/{Ar(3,j)2+Br(3,j)21/2
Br´(3,j)=(1.0−F(j−m−P))・Br(3,j)・E(3,j)/{Ar(3,j)2+Br(3,j)21/2
j=m〜M−1の各成分に対して
Al´(2,j)=0
Bl´(2,j)=0
E(2,j)={Al(2,j)2+Bl(2,j)2+Ar(2,j)2+Br(2,j)21/2
Ar´(2,j)=Ar(2,j)・E(2,j)/{Ar(2,j)2+Br(2,j)21/2
Br´(2,j)=Br(2,j)・E(2,j)/{Ar(2,j)2+Br(2,j)21/2
[Formula 21]
For each component of j = m to m + P−1, Al ′ (3, j) = 0
Bl ′ (3, j) = 0
E (3, j) = {Al (3, j) 2 + B1 (3, j) 2 + Ar (3, j) 2 + Br (3, j) 2 } 1/2
Ar ′ (3, j) = Ar (3, j) · E (3, j) / {Ar (3, j) 2 + Br (3, j) 2 } 1/2
Br ′ (3, j) = Br (3, j) · E (3, j) / {Ar (3, j) 2 + Br (3, j) 2 } 1/2
For each component of j = m + P to M−1, Al ′ (1, j) = 0
Bl ′ (1, j) = 0
E (1, j) = {Al (1, j) 2 + Bl (1, j) 2 + Ar (1, j) 2 + Br (1, j) 2 } 1/2
Ar ′ (1, j) = Ar (1, j) · E (1, j) / {Ar (1, j) 2 + Br (1, j) 2 } 1/2
Br ′ (1, j) = Br (1, j) · E (1, j) / {Ar (1, j) 2 + Br (1, j) 2 } 1/2
For each component of j = m to m + P−1, E (1, j) = {Al (1, j) 2 + Bl (1, j) 2 + Ar (1, j) 2 + Br (1, j) 2 } 1/2
Al ′ (1, j) = F (j−m) · Al (1, j) · E (1, j) / {Al (1, j) 2 + Bl (1, j) 2 } 1/2
Bl ′ (1, j) = F (j−m) · B1 (1, j) · E (1, j) / {Al (1, j) 2 + B1 (1, j) 2 } 1/2
Ar ′ (1, j) = (1.0−F (j−m)) · Ar (1, j) · E (1, j) / {Ar (1, j) 2 + Br (1, j) 2 } 1/2
Br ′ (1, j) = (1.0−F (j−m)) · Br (1, j) · E (1, j) / {Ar (1, j) 2 + Br (1, j) 2 } 1/2
For each component of j = m + P to M−1, E (3, j) = {Al (3, j) 2 + Bl (3, j) 2 + Ar (3, j) 2 + Br (3, j) 2 } 1/2
Al ′ (3, j) = F (j−m−P) · Al (3, j) · E (3, j) / {Al (3, j) 2 + Bl (3, j) 2 } 1/2
Bl ′ (3, j) = F (j−m−P) · B1 (3, j) · E (3, j) / {Al (3, j) 2 + B1 (3, j) 2 } 1/2
Ar ′ (3, j) = (1.0−F (j−m−P)) · Ar (3, j) · E (3, j) / {Ar (3, j) 2 + Br (3, j 2 } 1/2
Br ′ (3, j) = (1.0−F (j−m−P)) · Br (3, j) · E (3, j) / {Ar (3, j) 2 + Br (3, j 2 } 1/2
For each component of j = m to M−1, Al ′ (2, j) = 0
Bl ′ (2, j) = 0
E (2, j) = {Al (2, j) 2 + Bl (2, j) 2 + Ar (2, j) 2 + Br (2, j) 2 } 1/2
Ar ′ (2, j) = Ar (2, j) · E (2, j) / {Ar (2, j) 2 + Br (2, j) 2 } 1/2
Br ′ (2, j) = Br (2, j) · E (2, j) / {Ar (2, j) 2 + Br (2, j) 2 } 1/2

上記〔数式21〕においては、j=m〜m+P−1においてAl´(3,j)、Bl´(3,j)を共に0とし、j=m+P〜M−1においてAl´(1,j)、Bl´(1,j)を共に0としている。これは、図15(d)の上段に示すように、L-chにおいて、SP3D、SP1U内の各成分を0にすることを示しているが、“状態3”はSP3U、SP1Dとの差を明確にすることができれば十分であるため、必ずしも0にする必要はなく、小さな値であれば良い。埋め込むべき2ビットが“値4”である場合、以下の〔数式22〕に従った処理を実行することにより、変更対象周波数帯の成分の状態を“状態4” 、すなわち、図15(e)に示したような状態に変更する。   In the above [Equation 21], when j = m to m + P−1, Al ′ (3, j) and Bl ′ (3, j) are both 0, and when j = m + P to M−1, Al ′ (1, j ), Bl ′ (1, j) are both 0. This indicates that each component in SP3D and SP1U is set to 0 in L-ch as shown in the upper part of FIG. 15D, but “state 3” indicates the difference from SP3U and SP1D. Since it is sufficient if it can be clarified, it is not always necessary to set it to 0, and a small value is sufficient. When 2 bits to be embedded are “value 4”, the state of the component of the frequency band to be changed is changed to “state 4”, that is, FIG. Change to the state shown in.

〔数式22〕
j=m〜m+P−1の各成分に対して
Al´(1,j)=0
Bl´(1,j)=0
E(1,j)={Al(1,j)2+Bl(1,j)2+Ar(1,j)2+Br(1,j)21/2
Ar´(1,j)=Ar(1,j)・E(1,j)/{Ar(1,j)2+Br(1,j)21/2
Br´(1,j)=Br(1,j)・E(1,j)/{Ar(1,j)2+Br(1,j)21/2
j=m+P〜M−1の各成分に対して
Al´(3,j)=0
Bl´(3,j)=0
E(3,j)={Al(3,j)2+Bl(3,j)2+Ar(3,j)2+Br(3,j)21/2
Ar´(3,j)=Ar(3,j)・E(3,j)/{Ar(3,j)2+Br(3,j)21/2
Br´(3,j)=Br(3,j)・E(3,j)/{Ar(3,j)2+Br(3,j)21/2
j=m〜m+P−1の各成分に対して
E(3,j)={Al(3,j)2+Bl(3,j)2+Ar(3,j)2+Br(3,j)21/2
Al´(3,j)=F(j−m)・Al(3,j)・E(3,j)/{Al(3,j)2+Bl(3,j)21/2
Bl´(3,j)=F(j−m)・Bl(3,j)・E(3,j)/{Al(3,j)2+Bl(3,j)21/2
Ar´(3,j)=(1.0−F(j−m))・Ar(3,j)・E(3,j)/{Ar(3,j)2+Br(3,j)21/2
Br´(3,j)=(1.0−F(j−m))・Br(3,j)・E(3,j)/{Ar(3,j)2+Br(3,j)21/2
j=m+P〜M−1の各成分に対して
E(1,j)={Al(1,j)2+Bl(1,j)2+Ar(1,j)2+Br(1,j)21/2
Al´(1,j)=F(j−m−P)・Al(1,j)・E(1,j)/{Al(1,j)2+Bl(1,j)21/2
Bl´(1,j)=F(j−m−P)・Bl(1,j)・E(1,j)/{Al(1,j)2+Bl(1,j)21/2
Ar´(1,j)=(1.0−F(j−m−P))・Ar(1,j)・E(1,j)/{Ar(1,j)2+Br(1,j)21/2
Br´(1,j)=(1.0−F(j−m−P))・Br(1,j)・E(1,j)/{Ar(1,j)2+Br(1,j)21/2
j=m〜M−1の各成分に対して
Al´(2,j)=0
Bl´(2,j)=0
E(2,j)={Al(2,j)2+Bl(2,j)2+Ar(2,j)2+Br(2,j)21/2
Ar´(2,j)=Ar(2,j)・E(2,j)/{Ar(2,j)2+Br(2,j)21/2
Br´(2,j)=Br(2,j)・E(2,j)/{Ar(2,j)2+Br(2,j)21/2
[Formula 22]
For each component of j = m to m + P−1, Al ′ (1, j) = 0
Bl ′ (1, j) = 0
E (1, j) = {Al (1, j) 2 + Bl (1, j) 2 + Ar (1, j) 2 + Br (1, j) 2 } 1/2
Ar ′ (1, j) = Ar (1, j) · E (1, j) / {Ar (1, j) 2 + Br (1, j) 2 } 1/2
Br ′ (1, j) = Br (1, j) · E (1, j) / {Ar (1, j) 2 + Br (1, j) 2 } 1/2
For each component of j = m + P to M−1, Al ′ (3, j) = 0
Bl ′ (3, j) = 0
E (3, j) = {Al (3, j) 2 + B1 (3, j) 2 + Ar (3, j) 2 + Br (3, j) 2 } 1/2
Ar ′ (3, j) = Ar (3, j) · E (3, j) / {Ar (3, j) 2 + Br (3, j) 2 } 1/2
Br ′ (3, j) = Br (3, j) · E (3, j) / {Ar (3, j) 2 + Br (3, j) 2 } 1/2
For each component of j = m to m + P-1, E (3, j) = {Al (3, j) 2 + B1 (3, j) 2 + Ar (3, j) 2 + Br (3, j) 2 } 1/2
Al ′ (3, j) = F (j−m) · Al (3, j) · E (3, j) / {Al (3, j) 2 + Bl (3, j) 2 } 1/2
Bl ′ (3, j) = F (j−m) · B1 (3, j) · E (3, j) / {Al (3, j) 2 + B1 (3, j) 2 } 1/2
Ar ′ (3, j) = (1.0−F (j−m)) · Ar (3, j) · E (3, j) / {Ar (3, j) 2 + Br (3, j) 2 } 1/2
Br ′ (3, j) = (1.0−F (j−m)) · Br (3, j) · E (3, j) / {Ar (3, j) 2 + Br (3, j) 2 } 1/2
For each component of j = m + P to M−1, E (1, j) = {Al (1, j) 2 + Bl (1, j) 2 + Ar (1, j) 2 + Br (1, j) 2 } 1/2
Al ′ (1, j) = F (j−m−P) · Al (1, j) · E (1, j) / {Al (1, j) 2 + Bl (1, j) 2 } 1/2
Bl ′ (1, j) = F (j−m−P) · B1 (1, j) · E (1, j) / {Al (1, j) 2 + B1 (1, j) 2 } 1/2
Ar ′ (1, j) = (1.0−F (j−m−P)) · Ar (1, j) · E (1, j) / {Ar (1, j) 2 + Br (1, j 2 } 1/2
Br ′ (1, j) = (1.0−F (j−m−P)) · Br (1, j) · E (1, j) / {Ar (1, j) 2 + Br (1, j 2 } 1/2
For each component of j = m to M−1, Al ′ (2, j) = 0
Bl ′ (2, j) = 0
E (2, j) = {Al (2, j) 2 + Bl (2, j) 2 + Ar (2, j) 2 + Br (2, j) 2 } 1/2
Ar ′ (2, j) = Ar (2, j) · E (2, j) / {Ar (2, j) 2 + Br (2, j) 2 } 1/2
Br ′ (2, j) = Br (2, j) · E (2, j) / {Ar (2, j) 2 + Br (2, j) 2 } 1/2

上記〔数式22〕においては、j=m〜m+P−1においてAl´(1,j)、Bl´(1,j)を共に0とし、j=m+P〜M−1においてAl´(3,j)、Bl´(3,j)を共に0としている。これは、図15(e)の上段に示すように、L-chにおいて、SP1D、SP3U内の各成分を0にすることを示しているが、“状態4”はSP3D、SP1Uとの差を明確にすることができれば十分であるため、必ずしも0にする必要はなく、小さな値であれば良い。   In the above [Equation 22], when j = m to m + P−1, both Al ′ (1, j) and Bl ′ (1, j) are set to 0, and when j = m + P to M−1, Al ′ (3, j ), Bl ′ (3, j) are both 0. This indicates that each component in SP1D and SP3U is set to 0 in L-ch as shown in the upper part of FIG. 15E, but “state 4” indicates a difference from SP3D and SP1U. Since it is sufficient if it can be clarified, it is not always necessary to set it to 0, and a small value is sufficient.

また、第2の実施形態においても第1の実施形態と同様、周波数成分変更手段30は、Bタイプの音響フレームについては、上記〔数式10〕に従った処理を実行し、常にその変更対象周波数帯の成分を除去する。周波数成分変更手段30により上記のような処理が行われたら、周波数逆変換手段40、改変音響フレーム出力手段50については、第1の実施形態と同様の処理が行われる。   Also in the second embodiment, as in the first embodiment, the frequency component changing unit 30 executes the process according to the above [Formula 10] for the B type acoustic frame, and always changes the frequency to be changed. Remove strip components. When the processing as described above is performed by the frequency component changing unit 30, the frequency inverse converting unit 40 and the modified acoustic frame output unit 50 are subjected to the same processing as in the first embodiment.

第2の実施形態における音響信号に対する情報の埋め込み装置の処理の全体的な流れについては、第1の実施形態と基本的には同じであるが、図5のフローチャートにおいて、S102のレジスタからの読み込みが2ビット単位である点、S104で状態1〜状態4のいずれかに設定する点で異なっている。   The overall flow of the processing of the information embedding device for the acoustic signal in the second embodiment is basically the same as that in the first embodiment, but in the flowchart of FIG. 5, reading from the register in S102 is performed. Is in units of 2 bits, and is different in that it is set to any one of states 1 to 4 in S104.

(2.2.抽出装置)
第2の実施形態においても、抽出装置の構成は図7に示したものと同様であるが、主に符号判定パラメータ算出手段140の内容が異なっている。具体的には、符号判定パラメータ算出手段140は、生成されたフレームスペクトルから所定周波数範囲に相当する各周波数強度データを抽出し、各成分に対応した各周波数強度データの強度値EC1〜EC4を以下の〔数式23〕に基づいて算出し、この強度値EC1〜EC4を符号判定パラメータとし、この符号判定パラメータEC1〜EC4の比率等に基づいて、所定の状態であると判断する機能を有している。
(2.2. Extraction device)
Also in the second embodiment, the configuration of the extraction apparatus is the same as that shown in FIG. 7, but the contents of the sign determination parameter calculation means 140 are mainly different. Specifically, the code determination parameter calculation means 140 extracts each frequency intensity data corresponding to a predetermined frequency range from the generated frame spectrum, and the intensity values E C1 to E C4 of each frequency intensity data corresponding to each component. Is calculated based on the following [Equation 23], the intensity values E C1 to E C4 are used as code determination parameters, and it is determined that the state is a predetermined state based on the ratio of the code determination parameters E C1 to E C4. It has a function to do.

〔数式23〕
C1=Σj=m,…,m+P-1{Al(1,j)2+Bl(1,j)2}・F(j−m)・C
C2=Σj=m,…,m+P-1{Al(3,j)2+Bl(3,j)2}・F(j−m)・C
C3=Σj=m+P,…,M-1{Al(1,j)2+Bl(1,j)2}・F(j−m−P)・C
C4=Σj=m+P,…,M-1{Al(3,j)2+Bl(3,j)2}・F(j−m−P)・C
[Formula 23]
E C1 = Σ j = m,..., M + P-1 {Al (1, j) 2 + Bl (1, j) 2 } · F (j−m) · C
E C2 = Σ j = m,..., M + P-1 {Al (3, j) 2 + Bl (3, j) 2 } · F (j−m) · C
E C3 = Σ j = m + P,..., M−1 {Al (1, j) 2 + Bl (1, j) 2 } · F (j−m−P) · C
E C4 = Σ j = m + P,..., M−1 {Al (3, j) 2 + Bl (3, j) 2 } · F (j−m−P) · C

第2の実施形態における音響信号からの情報の抽出装置の処理の全体的な流れについては、第1の実施形態と基本的には同じであるが、図8のフローチャートにおいて、S202から値1〜値4が出力される点、S206においてビットカウンタに2だけ加算される点が異なっている。   The overall processing flow of the apparatus for extracting information from an acoustic signal in the second embodiment is basically the same as that in the first embodiment, but in the flowchart of FIG. The difference is that the value 4 is output and that 2 is added to the bit counter in S206.

また、ステップS202の位相確定および符号出力についても、第1の実施形態と同様、図9、図10のフローチャートに従って行われる。ただし、図10のS402〜S404の処理は、第1の実施形態とは異なっているので、以下に説明する。   Further, the phase determination and the code output in step S202 are performed according to the flowcharts of FIGS. 9 and 10 as in the first embodiment. However, the processing of S402 to S404 in FIG. 10 is different from that of the first embodiment, and will be described below.

図10の周波数成分の状態判定においては、符号判定パラメータ算出手段140は、強度値EC1〜強度値EC4を用いて、周波数成分の状態がどのような状態であるか、すなわち、2ビットの値としてどのような値が埋め込まれていたかを判断する処理を行う(S402)。具体的には、以下の4群の判定処理を実行し、各群における全ての条件を満たす場合に、対応する状態であったと判断し、対応する2ビットの値を出力する。 In the frequency component state determination of FIG. 10, the code determination parameter calculation means 140 uses the intensity value E C1 to the intensity value E C4 to determine what the frequency component state is, that is, a 2-bit state. A process of determining what value is embedded as a value is performed (S402). Specifically, the following four groups of determination processes are executed, and when all the conditions in each group are satisfied, it is determined that the state is a corresponding state, and a corresponding 2-bit value is output.

C1>EC2かつEC1>EC4かつEC3>EC2かつEC3>EC4の場合、“状態1”であると判断し、値1を出力する。 If E C1 > E C2 and E C1 > E C4 and E C3 > E C2 and E C3 > E C4 , it is determined that the state is “1” and a value 1 is output.

C2>EC1かつEC2>EC3かつEC4>EC1かつEC4>EC3の場合、“状態2”であると判断し、値2を出力する。 If E C2 > E C1 and E C2 > E C3 and E C4 > E C1 and E C4 > E C3 , it is determined that the state is “2”, and a value 2 is output.

C1>EC2かつEC1>EC3かつEC4>EC2かつEC4>EC3の場合、“状態3”であると判断し、値3を出力する。 If E C1 > E C2 and E C1 > E C3 and E C4 > E C2 and E C4 > E C3 , it is determined that “state 3”, and value 3 is output.

上記いずれにも該当しない場合、“状態4”であると判断し、値4を出力する。   If none of the above applies, it is determined that the state is “state 4”, and a value of 4 is output.

そして、符号判定パラメータ算出手段140は、各音響フレーム単位で、上記判定結果に応じて値1〜値4のいずれかを設定する(S403)。   And the code | symbol determination parameter calculation means 140 sets either the value 1-the value 4 according to the said determination result for each acoustic frame unit (S403).

また、上記判定の結果、値1〜値4のいずれかを設定した場合には、さらに、以下の〔数式24〕に従って位相判定テーブルS(p)の更新を行う(S404)。   If any of the values 1 to 4 is set as a result of the determination, the phase determination table S (p) is further updated according to the following [Equation 24] (S404).

〔数式24〕
“状態1”であると判断し、値1を出力した場合、S(p)←S(p)+EC1+EC3
“状態2”であると判断し、値2を出力した場合、S(p)←S(p)+EC2+EC4
“状態3”であると判断し、値3を出力した場合、S(p)←S(p)+EC1+EC4
“状態4”であると判断し、値4を出力した場合、S(p)←S(p)+EC2+EC3
[Formula 24]
When it is determined that the state is “1” and the value 1 is output, S (p) ← S (p) + E C1 + E C3
When it is determined that the state is “2” and the value 2 is output, S (p) ← S (p) + E C2 + E C4
When it is determined that the state is “3” and the value 3 is output, S (p) ← S (p) + E C1 + E C4
When it is determined that the state is “state 4” and the value 4 is output, S (p) ← S (p) + E C2 + E C3

図9においては、符号判定パラメータ算出手段140は、候補符号テーブルに、最適位相となる候補を保存する(S304)。具体的には、位相判定テーブルに記録されているS(p)の値が最大となる位相番号pの値、前記S407、S408により判定された4値のいずれかの符号、その音響フレームについての上記〔数式23〕に従った処理を実行することにより算出した、変更対象周波数帯の成分に対応する各EC1〜EC4の値を最適位相の候補として候補符号テーブルに保存する。 In FIG. 9, the code determination parameter calculation unit 140 stores a candidate for the optimum phase in the candidate code table (S304). Specifically, the value of the phase number p that maximizes the value of S (p) recorded in the phase determination table, the code of any of the four values determined in S407 and S408, and the sound frame The values of E C1 to E C4 corresponding to the components of the frequency band to be changed, which are calculated by executing the processing according to the above [Equation 23], are stored in the candidate code table as optimum phase candidates.

続いて、全ての位相番号pに対応する処理を終えたかどうかを判定する(S305)。これは、ある基準フレームに対して全ての位相変更フレームの処理を行ったかどうかを判定している。本実施形態では、pが0〜5までの値をとるので、6回分処理していない場合は、処理していた音響フレームから所定サンプル数ずらして、位相の異なる音響フレームを設定し、S302に戻って処理を繰り返す。なお、p=0の場合が基準フレームであり、p=1〜5の場合が位相変更フレームである。全ての位相番号pに対応する処理を終えた場合は、候補保存テーブルに記録されている位相番号pに対応する位相が最適位相であると判定し、候補保存テーブルに記録されている符号を出力する(S306)。   Subsequently, it is determined whether or not the processing corresponding to all the phase numbers p has been completed (S305). This determines whether all phase change frames have been processed for a certain reference frame. In this embodiment, since p takes a value from 0 to 5, if the processing is not performed six times, an acoustic frame having a different phase is set by shifting a predetermined number of samples from the acoustic frame being processed. Return and repeat the process. The case where p = 0 is a reference frame, and the case where p = 1 to 5 is a phase change frame. When the processing corresponding to all the phase numbers p is completed, it is determined that the phase corresponding to the phase number p recorded in the candidate storage table is the optimum phase, and the code recorded in the candidate storage table is output. (S306).

図8において、パリティ検査の結果、合格の場合には、付加情報抽出手段160が、前7ビットに1ビット付加して出力する(S208)。ここで、検査結果が合格の場合は、照合に用いた8ビット目が誤り検出ビットであった可能性が高いことになる。そうすると、その前の7ビットは元の付加情報における7ビットであると考えられる。このため、その先頭からの7ビットにビット0を付加することによりASCIIコードにおける1ワードとして出力するのである。逆に不一致である場合は、照合に用いた8ビット目が誤り検出ビットでない可能性が高いことになる。そうすると、その時点で保持している7ビットは、元の付加情報における7ビットからずれたものであると考えられる。この場合は、先頭の2ビットを破棄して、S201からS206の処理により得られた新たな2ビットを得るための処理を行う。   In FIG. 8, when the parity check results in pass, the additional information extraction means 160 adds 1 bit to the previous 7 bits and outputs (S208). Here, if the inspection result is acceptable, there is a high possibility that the eighth bit used for collation was an error detection bit. Then, the previous 7 bits are considered to be 7 bits in the original additional information. Therefore, by adding bit 0 to the 7 bits from the head, it is output as one word in the ASCII code. On the other hand, if there is a mismatch, there is a high possibility that the eighth bit used for collation is not an error detection bit. Then, it is considered that the 7 bits held at that time are shifted from the 7 bits in the original additional information. In this case, the first 2 bits are discarded, and processing for obtaining new 2 bits obtained by the processing from S201 to S206 is performed.

上記S208の処理において、付加情報抽出手段160は、付加情報抽出手段160は、符号判定パラメータ算出手段140が判定し、符号出力手段150から出力される符号から得られるビット値の配列を1バイト(8ビット)単位で認識し、これをASCIIコードに従って文字情報を認識し、表示装置(図示省略)の画面に表示出力する。   In the processing of S208, the additional information extraction unit 160 determines that the additional information extraction unit 160 determines the bit value array obtained from the code determined by the code determination parameter calculation unit 140 and output from the code output unit 150 by 1 byte ( It is recognized in units of 8 bits), character information is recognized according to the ASCII code, and displayed on a screen of a display device (not shown).

(2.3.信号成分が小さくても情報の埋め込みを確実に行う手法)
上記の処理は、変更対象周波数帯の信号成分がいずれの大きさであっても実行されるが、元の信号成分が存在しないか、または小さすぎる場合には、抽出に必要な信号成分が得られないため、情報の抽出を適切に行うことができず抽出エラーとなる。そこで、元の信号の変更対象周波数帯の成分が小さくても、情報の抽出を適切に行えるように信号の埋め込みを可能とする手法について説明する。
(2.3. Method for reliably embedding information even if the signal component is small)
The above processing is executed regardless of the magnitude of the signal component of the frequency band to be changed, but if the original signal component does not exist or is too small, the signal component necessary for extraction is obtained. Therefore, information cannot be properly extracted, resulting in an extraction error. Therefore, a method for enabling signal embedding so that information can be appropriately extracted even when the frequency band component of the original signal is small will be described.

この場合、図2に示した埋め込み装置における情報の埋め込み処理も、図5のフローチャートに従って行われる。   In this case, the information embedding process in the embedding apparatus shown in FIG. 2 is also performed according to the flowchart of FIG.

したがって、S104における状態1〜状態4に設定する処理としては、まず、以下の〔数式25〕に従って算出される固定値Vを、変更対象周波数帯の成分の強度として設定する。   Therefore, as a process for setting the state 1 to the state 4 in S104, first, the fixed value V calculated according to the following [Equation 25] is set as the intensity of the component of the change target frequency band.

〔数式25〕
V={0.5・Lev・C/P}1/2
[Formula 25]
V = {0.5 · Lev · C / P} 1/2

そして、状態1とする場合は、上記〔数式19〕に従った処理を実行した後、以下の〔数式26〕に従った処理を実行する。   In the case of state 1, after executing the process according to the above [Equation 19], the process according to the following [Equation 26] is executed.

〔数式26〕
j=m〜m+P−1の各成分に対して
Al´(1,j)=F(j−m)・Al(1,j)・V/{Al(1,j)2+Bl(1,j)21/2
Bl´(1,j)=F(j−m)・Bl(1,j)・V/{Al(1,j)2+Bl(1,j)21/2
j=m+P〜M−1の各成分に対して
Al´(1,j)=F(j−m−P)・Al(1,j)・V/{Al(1,j)2+Bl(1,j)21/2
Bl´(1,j)=F(j−m−P)・Bl(1,j)・V/{Al(1,j)2+Bl(1,j)21/2
[Formula 26]
For each component of j = m to m + P−1, Al ′ (1, j) = F (j−m) · Al (1, j) · V / {Al (1, j) 2 + Bl (1, j 2 } 1/2
Bl ′ (1, j) = F (j−m) · B1 (1, j) · V / {Al (1, j) 2 + B1 (1, j) 2 } 1/2
For each component of j = m + P to M−1, Al ′ (1, j) = F (j−m−P) .Al (1, j) .V / {Al (1, j) 2 + Bl (1 , J) 2 } 1/2
Bl ′ (1, j) = F (j−m−P) · Bl (1, j) · V / {Al (1, j) 2 + Bl (1, j) 2 } 1/2

状態2とする場合は、上記〔数式20〕に従った処理を実行した後、以下の〔数式27〕に従った処理を実行する。   In the case of the state 2, after executing the process according to the above [Equation 20], the process according to the following [Equation 27] is executed.

〔数式27〕
j=m〜m+P−1の各成分に対して
Al´(3,j)=F(j−m)・Al(3,j)・V/{Al(3,j)2+Bl(3,j)21/2
Bl´(3,j)=F(j−m)・Bl(3,j)・V/{Al(3,j)2+Bl(3,j)21/2
j=m+P〜M−1の各成分に対して
Al´(3,j)=F(j−m−P)・Al(3,j)・V/{Al(3,j)2+Bl(3,j)21/2
Bl´(3,j)=F(j−m−P)・Bl(3,j)・V/{Al(3,j)2+Bl(3,j)21/2
[Formula 27]
For each component of j = m to m + P−1, Al ′ (3, j) = F (j−m) · Al (3, j) · V / {Al (3, j) 2 + Bl (3, j 2 } 1/2
Bl ′ (3, j) = F (j−m) · B1 (3, j) · V / {Al (3, j) 2 + B1 (3, j) 2 } 1/2
For each component of j = m + P to M−1, Al ′ (3, j) = F (j−m−P) · Al (3, j) · V / {Al (3, j) 2 + Bl (3 , J) 2 } 1/2
Bl ′ (3, j) = F (j−m−P) · B1 (3, j) · V / {Al (3, j) 2 + B1 (3, j) 2 } 1/2

状態3とする場合は、上記〔数式21〕に従った処理を実行した後、以下の〔数式28〕に従った処理を実行する。   In the case of the state 3, after executing the process according to the above [Equation 21], the process according to the following [Equation 28] is executed.

〔数式28〕
j=m〜m+P−1の各成分に対して
Al´(1,j)=F(j−m)・Al(1,j)・V/{Al(1,j)2+Bl(1,j)21/2
Bl´(1,j)=F(j−m)・Bl(1,j)・V/{Al(1,j)2+Bl(1,j)21/2
j=m+P〜M−1の各成分に対して
Al´(3,j)=F(j−m−P)・Al(3,j)・V/{Al(3,j)2+Bl(3,j)21/2
Bl´(3,j)=F(j−m−P)・Bl(3,j)・V/{Al(3,j)2+Bl(3,j)21/2
[Formula 28]
For each component of j = m to m + P−1, Al ′ (1, j) = F (j−m) · Al (1, j) · V / {Al (1, j) 2 + Bl (1, j 2 } 1/2
Bl ′ (1, j) = F (j−m) · B1 (1, j) · V / {Al (1, j) 2 + B1 (1, j) 2 } 1/2
For each component of j = m + P to M−1, Al ′ (3, j) = F (j−m−P) · Al (3, j) · V / {Al (3, j) 2 + Bl (3 , J) 2 } 1/2
Bl ′ (3, j) = F (j−m−P) · B1 (3, j) · V / {Al (3, j) 2 + B1 (3, j) 2 } 1/2

状態4とする場合は、上記〔数式22〕に従った処理を実行した後、以下の〔数式29〕に従った処理を実行する。   In the case of the state 4, after executing the process according to the above [Equation 22], the process according to the following [Equation 29] is executed.

〔数式29〕
j=m〜m+P−1の各成分に対して
Al´(3,j)=F(j−m)・Al(3,j)・V/{Al(3,j)2+Bl(3,j)21/2
Bl´(3,j)=F(j−m)・Bl(3,j)・V/{Al(3,j)2+Bl(3,j)21/2
j=m+P〜M−1の各成分に対して
Al´(1,j)=F(j−m−P)・Al(1,j)・V/{Al(1,j)2+Bl(1,j)21/2
Bl´(1,j)=F(j−m−P)・Bl(1,j)・V/{Al(1,j)2+Bl(1,j)21/2
[Formula 29]
For each component of j = m to m + P−1, Al ′ (3, j) = F (j−m) · Al (3, j) · V / {Al (3, j) 2 + Bl (3, j 2 } 1/2
Bl ′ (3, j) = F (j−m) · B1 (3, j) · V / {Al (3, j) 2 + B1 (3, j) 2 } 1/2
For each component of j = m + P to M−1, Al ′ (1, j) = F (j−m−P) .Al (1, j) .V / {Al (1, j) 2 + Bl (1 , J) 2 } 1/2
Bl ′ (1, j) = F (j−m−P) · Bl (1, j) · V / {Al (1, j) 2 + Bl (1, j) 2 } 1/2

(3.携帯電話機を抽出装置として用いる場合)
上記実施形態では、抽出装置における1音響フレームのサンプル数N´をN/2とした場合について説明した。これは、上述のように、携帯ゲーム機、PDA、PHS端末等を抽出装置のハードウェアとして採用した場合、サンプリング周波数が元の音響信号のサンプリング周波数の1/2となるため、1音響フレームの秒数を合わせるためにサンプル数も1/2にする必要があるからである。通常の携帯電話機を抽出装置として採用する場合には、携帯電話機の録音機能がサンプリング周波数8kHzであるため、1音響フレームのサンプル数もこれに比例させて、743個とする必要がある。
(3. When using a mobile phone as an extraction device)
In the above embodiment, the case where the number N ′ of samples of one acoustic frame in the extraction device is N / 2 has been described. As described above, when a portable game machine, a PDA, a PHS terminal, or the like is employed as the hardware of the extraction device, the sampling frequency is ½ of the sampling frequency of the original acoustic signal. This is because the number of samples needs to be halved to match the number of seconds. When a normal mobile phone is used as the extraction device, the recording function of the mobile phone has a sampling frequency of 8 kHz, and the number of samples of one acoustic frame needs to be proportional to 743.

このようにサンプル数N´=743とする場合、図8のフローチャートにおいて、基準フレーム獲得手段110は、音響信号入力手段100から入力された音響信号から、743個のサンプルで構成される音響フレームを基準フレームとして抽出する(S201)。したがって、音響フレーム保持手段170には、常に基準フレーム2個分(連続する1486サンプル)が格納されていることになる。   As described above, when the number of samples N ′ = 743, in the flowchart of FIG. 8, the reference frame acquisition unit 110 generates an acoustic frame composed of 743 samples from the acoustic signal input from the acoustic signal input unit 100. Extract as a reference frame (S201). Therefore, the sound frame holding means 170 always stores two reference frames (continuous 1486 samples).

埋め込み装置で処理する音響フレームは、上記実施形態と同様、先頭から途切れることなく隣接して設定される基準フレームと、この基準フレームと位相を変更した位相変更フレームとに分けられる。   Similar to the above embodiment, the acoustic frame processed by the embedding device is divided into a reference frame that is set adjacently without interruption from the beginning, and a phase change frame in which the phase has been changed.

また、図10のS401においては、周波数変換手段130が、読み込んだ各音響フレームに対して周波数変換を行ってスペクトルを得るが、この際、〔数式5〕におけるNを1024に置き換えて実行する。このとき、〔数式5〕におけるサンプルXl(i)、Xr(i)は、i=743〜1023までは全てダミーであり、その値は“0”が用いられる。なお、〔数式5〕において用いるW(1,i)〜W(3,i)は、それぞれ〔数式1〕〜〔数式3〕におけるNを743に置き換えたものを用いる。〔数式5〕において、Nを743ではなく1024とするのは、周知の高速フーリエ変換アルゴリズム(FFT)を用いて〔数式5〕と同等な計算を高速に実行する方法をとるためで、FFTではNを2の累乗という制約条件で高速化をはかっている理由からである。従って、〔数式5〕の離散フーリエ変換を計算式通りに実行する場合には、Nをそのまま743に設定して行うことができるがFFTに比べ2桁強の計算負荷を要し、まして本発明のようにCPU性能の限られた携帯端末で実行する用途には適さない。また、FFTは携帯端末上で各種映像・音声データを復号・再生するのにも必須の信号処理であるため、専用ハードウェアが実装されている携帯端末も少なくなく、FFTを用いればCPU性能が低くても専用ハードウェアにより汎用PC並みの速度で実行できる可能性もある。   In S401 of FIG. 10, the frequency conversion unit 130 performs frequency conversion on each read sound frame to obtain a spectrum. At this time, N is replaced with 1024 in [Formula 5]. At this time, the samples Xl (i) and Xr (i) in [Formula 5] are all dummy up to i = 743 to 1023, and “0” is used as the value thereof. Note that W (1, i) to W (3, i) used in [Formula 5] are obtained by replacing N in [Formula 1] to [Formula 3] with 743, respectively. In [Formula 5], N is set to 1024 instead of 743 because a fast equivalent Fourier transform algorithm (FFT) is used to execute a calculation equivalent to [Formula 5]. This is because the speed is increased by the constraint that N is a power of 2. Therefore, when the discrete Fourier transform of [Formula 5] is executed according to the calculation formula, N can be set to 743 as it is, but it requires a calculation load of slightly more than two digits as compared with the FFT. Thus, it is not suitable for applications that are executed by a portable terminal with limited CPU performance. In addition, since FFT is an essential signal processing for decoding and playing back various video and audio data on a mobile terminal, there are not a few mobile terminals equipped with dedicated hardware. Even if it is low, there is a possibility that it can be executed at the same speed as a general-purpose PC by dedicated hardware.

S402においては、強度値EC1、強度値EC2を用いて、変更対象周波数帯の成分の状態がどのような状態であるかを判断する処理を行うが、〔数式13〕による強度値EC1、強度値EC2の算出の際、m=220、M=441として実行する。また、上記第2の実施形態における〔数式23〕による強度値EC1〜EC4の算出の際も、m=220、M=441として実行する。これは、1音響フレームのサンプル数743ではなく、1024個のサンプルを用いてフーリエ変換を行うことによるずれのため、j=220(=160×1024/743)が1.7kHzに相当し、j=441(=320×1024/743)が3.4kHzに相当するためである。その他については、N´=N/2の場合と同様に処理が行われる。 In S402, the intensity value E C1 and the intensity value E C2 are used to determine what state the component of the frequency band to be changed is, but the intensity value E C1 according to [Equation 13]. When calculating the intensity value E C2 , m = 220 and M = 441 are executed. Further, when calculating the intensity values E C1 to E C4 according to [Equation 23] in the second embodiment, m = 220 and M = 441 are executed. This is not due to the number of samples 743 in one acoustic frame, but due to a shift caused by performing Fourier transform using 1024 samples, j = 220 (= 160 × 1024/743) corresponds to 1.7 kHz. This is because = 441 (= 320 × 1024/743) corresponds to 3.4 kHz. In other cases, the processing is performed in the same manner as in the case of N ′ = N / 2.

ここで、埋め込み時、サンプリング周波数22.05kHzに対応した抽出時、サンプリング周波数8kHzに対応した抽出時の周波数領域の概念を図16に示す。図16において、縦軸は周波数である。また、各ブロックの右側に示した数字は周波数に比例するjの値である。   Here, FIG. 16 shows the concept of the frequency domain at the time of embedding, at the time of extraction corresponding to the sampling frequency 22.05 kHz, and at the time of extraction corresponding to the sampling frequency 8 kHz. In FIG. 16, the vertical axis represents frequency. The number shown on the right side of each block is the value of j proportional to the frequency.

埋め込み時には、4096サンプルを対象としてフーリエ変換を実行するため、2048通りの周波数成分の値が得られ、これは0Hz〜22.05kHzに対応する。このうち、1.7kHz〜3.4kHzに対応するj=160〜320の間にデータの埋め込みが行われ、その他は原音維持となる。   At the time of embedding, since 4096 samples are subjected to Fourier transform, 2048 frequency component values are obtained, which correspond to 0 Hz to 22.05 kHz. Among these, data is embedded between j = 160 to 320 corresponding to 1.7 kHz to 3.4 kHz, and the other is the original sound.

サンプリング周波数22.05kHzに対応した抽出時には、2048サンプルを対象としてフーリエ変換を実行するため、1024通りの周波数成分の値が得られ、これは0Hz〜11.025kHzに対応する。このうち、1.7kHz〜3.4kHzに対応するjの値は結果的に、埋め込み時、サンプリング周波数22.05kHzの抽出時と同様に、j=160〜320の間よりデータの抽出が行われ、その他は無視される。   At the time of extraction corresponding to a sampling frequency of 22.05 kHz, since 2048 samples are subjected to Fourier transformation, 1024 frequency component values are obtained, which correspond to 0 Hz to 11.025 kHz. Among these, the value of j corresponding to 1.7 kHz to 3.4 kHz results in data extraction from j = 160 to 320 as in the case of embedding and sampling frequency of 22.05 kHz. , Others are ignored.

サンプリング周波数8kHzに対応した抽出時には、1音響フレームは、743サンプルとなるが、上述のように、ダミーのサンプルを付加して1024サンプルを対象としてフーリエ変換を実行するため、512通りの周波数成分の値が得られる。サンプリング周波数が8kHzであるため、これらの値は0Hz〜4kHzに対応する。このため、1.7kHz〜3.4kHzに対応するjの値は、埋め込み時、サンプリング周波数22.05kHzの抽出時とは異なり、j=220〜441となる。このj=220〜441の間よりデータの抽出が行われ、その他は無視される。   At the time of extraction corresponding to the sampling frequency of 8 kHz, one acoustic frame is 743 samples. As described above, since a dummy sample is added and Fourier transform is performed on 1024 samples, 512 frequency components are included. A value is obtained. Since the sampling frequency is 8 kHz, these values correspond to 0 Hz to 4 kHz. For this reason, the value of j corresponding to 1.7 kHz to 3.4 kHz is j = 220 to 441, unlike the extraction at the time of embedding and the sampling frequency of 22.05 kHz. Data is extracted from j = 220 to 441, and others are ignored.

また、埋め込み時、抽出時の信号波形の様子を図17に示す。図17において、横軸は時間軸、縦軸は振幅強度を示している。埋め込み時には、図2に示した埋め込み装置により、図17(a)に示すような44.1kHzでサンプリングされた音響信号に対して、埋め込み処理が行われ、図17(b)に示すような音響信号が得られる。そして、図7に示した抽出装置により、22.05kHzまたは8kHzでサンプリングされ、図17(c)に示すような音響信号が得られる。そして、1音響フレームを埋め込み時の音響フレームと同一時間となるように設定して、抽出処理を行う。   Further, FIG. 17 shows signal waveforms at the time of embedding and extraction. In FIG. 17, the horizontal axis represents the time axis, and the vertical axis represents the amplitude intensity. At the time of embedding, an embedding process is performed on the acoustic signal sampled at 44.1 kHz as shown in FIG. 17A by the embedding device shown in FIG. 2, and the acoustic as shown in FIG. A signal is obtained. Then, sampling is performed at 22.05 kHz or 8 kHz by the extraction device shown in FIG. 7, and an acoustic signal as shown in FIG. 17C is obtained. Then, extraction processing is performed by setting one acoustic frame to have the same time as the acoustic frame at the time of embedding.

(4.その他)
以上、本発明の好適な実施形態について限定したが、本発明は上記実施形態に限定されず、種々の変形が可能である。例えば、上記実施形態では、1音響フレームのサンプル数N=4096としたが、N=2048、1024、512等を設定するようにしても良い。これにより、同一時間あたりの音響フレーム数が、2倍、4倍、8倍となり、全体として2〜8倍の情報の埋め込みが可能となる。
(4. Other)
As mentioned above, although it limited about the suitable embodiment of the present invention, the present invention is not limited to the above-mentioned embodiment, and various modifications are possible. For example, in the above embodiment, the number of samples of one acoustic frame is N = 4096, but N = 2048, 1024, 512, etc. may be set. As a result, the number of sound frames per same time is doubled, quadrupled, and quadrupled, and 2 to 8 times of information can be embedded as a whole.

また、上記実施形態では、後半ビット列の各ビットを隣接する奇数番目と偶数番目のビットの順序を入れ替えるようにしたが、必ずしもこのようにする必要はなく、抽出側との取り決めがなされていれば、他の何らかの規則で順序を入れ替えるようにしても良い。   In the above embodiment, the order of adjacent odd-numbered bits and even-numbered bits in each bit of the latter half bit string is changed. However, this is not always necessary, and if the arrangement with the extraction side is made. The order may be changed according to some other rule.

第1の実施形態における変更対象周波数帯の成分の変化の状態を示す図である。It is a figure which shows the state of a change of the component of the change object frequency band in 1st Embodiment. 音響信号に対する情報の埋め込み装置の機能ブロック図である。It is a functional block diagram of an information embedding device for an acoustic signal. 本発明で用いる時間方向窓関数を示す図である。It is a figure which shows the time direction window function used by this invention. 本発明で用いる周波数方向窓関数F(j)を示す図である。It is a figure which shows the frequency direction window function F (j) used by this invention. 図2に示した装置の処理概要を示すフローチャートである。It is a flowchart which shows the process outline | summary of the apparatus shown in FIG. ビット配列の作成の様子を示す図である。It is a figure which shows the mode of preparation of a bit arrangement | sequence. 本発明に係る音響信号からの情報の抽出装置の機能ブロック図である。1 is a functional block diagram of an apparatus for extracting information from an acoustic signal according to the present invention. 図7に示した装置の、エラー訂正を行わない設定における処理概要を示すフローチャートである。It is a flowchart which shows the process outline | summary in the setting which does not perform error correction of the apparatus shown in FIG. 図8のS202の位相確定および符号出力の詳細を示すフローチャートである。It is a flowchart which shows the detail of the phase determination and code | symbol output of S202 of FIG. 図9のS302の符号判定処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the code | symbol determination process of S302 of FIG. 図7に示した装置の、1ビットのエラー訂正をする設定における処理概要を示すフローチャートである。It is a flowchart which shows the process outline | summary in the setting which performs the error correction of 1 bit of the apparatus shown in FIG. 付加情報1ワードに相当する16ビット配列の適合およびパリティ検査を説明するための図である。It is a figure for demonstrating the conformity and parity check of a 16-bit arrangement | sequence equivalent to 1 word of additional information. 付加情報1ワードに相当する16ビット配列の適合およびパリティ検査を説明するための図である。It is a figure for demonstrating the conformity and parity check of a 16-bit arrangement | sequence equivalent to 1 word of additional information. 付加情報1ワードに相当する16ビット配列の適合およびパリティ検査を説明するための図である。It is a figure for demonstrating the conformity and parity check of a 16-bit arrangement | sequence equivalent to 1 word of additional information. 第2の実施形態における周波数成分の変化の状態を示す図である。It is a figure which shows the state of the change of the frequency component in 2nd Embodiment. 埋め込み時、サンプリング周波数22.05kHzの抽出時、サンプリング周波数8kHzの抽出時の周波数領域の概念を示す図である。It is a figure which shows the concept of the frequency area | region at the time of embedding, the extraction of sampling frequency 22.05kHz, and the extraction of sampling frequency 8kHz. 埋め込み時、抽出時の信号波形の様子を示す図である。It is a figure which shows the mode of the signal waveform at the time of embedding and extraction.

符号の説明Explanation of symbols

10・・・音響フレーム読込手段
20・・・周波数変換手段
30・・・周波数成分変更手段
40・・・周波数逆変換手段
50・・・改変音響フレーム出力手段
60・・・記憶手段
61・・・音響信号記憶部
62・・・付加情報記憶部
63・・・改変音響信号記憶部
70・・・ビット配列作成手段
100・・・音響信号入力手段
110・・・基準フレーム獲得手段
120・・・位相変更フレーム設定手段
130・・・周波数変換手段
140・・・符号判定パラメータ算出手段
150・・・符号出力手段
160・・・付加情報抽出手段
170・・・音響フレーム保持手段
DESCRIPTION OF SYMBOLS 10 ... Acoustic frame reading means 20 ... Frequency conversion means 30 ... Frequency component change means 40 ... Frequency reverse conversion means 50 ... Modified acoustic frame output means 60 ... Storage means 61 ... Acoustic signal storage unit 62 ... additional information storage unit 63 ... modified acoustic signal storage unit 70 ... bit array creation means 100 ... acoustic signal input means 110 ... reference frame acquisition means 120 ... phase Change frame setting means 130 ... frequency conversion means 140 ... code determination parameter calculation means 150 ... code output means 160 ... additional information extraction means 170 ... sound frame holding means

Claims (6)

所定のサンプリング周波数Fsでデジタル化された音響信号に対して、あらかじめ聴取不能な状態で所定数Nのサンプルで構成される音響フレームごとに付加情報が埋め込まれて再生されたアナログ音響信号から付加情報を抽出する装置であって、
前記アナログ音響信号の所定区間を前記サンプリング周波数Fsより小さい周波数Fs´でデジタル化して、前記所定数Nより少ない所定数N´のサンプルで構成される音響フレームを獲得する音響フレーム獲得手段と、
前記音響フレームに対して窓関数を用いて周波数変換を行い、スペクトルを得る周波数変換手段と、
前記生成されたスペクトルから所定の周波数範囲の複数のスペクトル集合を抽出し、各スペクトル集合のスペクトル強度を算出し、その各スペクトル強度に基づいて、埋め込まれていた1以上のビット列を抽出する符号化手段と、
前記出力されたビット列をワード単位で所定の規則により変換して付加情報を抽出する付加情報抽出手段と、
を有することを特徴とする音響信号からの情報の抽出装置。
Additional information is obtained from an analog acoustic signal reproduced by embedding additional information for each acoustic frame composed of a predetermined number N of samples in an inaudible state in advance for an acoustic signal digitized at a predetermined sampling frequency Fs. A device for extracting
Acoustic frame acquisition means for digitizing a predetermined section of the analog acoustic signal at a frequency Fs ′ smaller than the sampling frequency Fs to acquire an acoustic frame composed of a predetermined number N ′ of samples smaller than the predetermined number N;
Frequency conversion means for performing a frequency conversion on the acoustic frame using a window function to obtain a spectrum; and
Encoding that extracts a plurality of spectrum sets in a predetermined frequency range from the generated spectrum, calculates the spectrum intensity of each spectrum set, and extracts one or more embedded bit strings based on each spectrum intensity Means,
Additional information extracting means for extracting the additional information by converting the output bit string according to a predetermined rule in units of words;
An apparatus for extracting information from an acoustic signal, comprising:
請求項1において、
前記所定数N´は、N´=N×Fs´/Fsの関係を満たすものであることを特徴とする音響信号からの情報の抽出装置。
In claim 1,
The apparatus for extracting information from an acoustic signal, wherein the predetermined number N ′ satisfies a relationship of N ′ = N × Fs ′ / Fs.
請求項1または請求項2において、
前記周波数変換手段は、音響フレームに対して第1窓関数、第3窓関数を用いてそれぞれ周波数変換を行い、前記第1窓関数に対応するスペクトルである第1窓スペクトル、前記第3窓関数に対応するスペクトルである第3窓スペクトルを生成するものであり、
前記符号化手段は、生成された第1窓スペクトルから1以上の所定周波数範囲のスペクトル集合を抽出するとともに、前記第3窓スペクトルから1以上の所定周波数範囲のスペクトル集合を抽出し、各スペクトル集合のスペクトル強度を算出し、その各スペクトル強度に基づいて、埋め込まれていた1以上のビット列を抽出するものであることを特徴とする音響信号からの情報の抽出装置。
In claim 1 or claim 2,
The frequency converting means performs frequency conversion on the acoustic frame using a first window function and a third window function, respectively, and a first window spectrum and a third window function which are spectra corresponding to the first window function. A third window spectrum that is a spectrum corresponding to
The encoding means extracts a spectrum set of one or more predetermined frequency ranges from the generated first window spectrum, and extracts a spectrum set of one or more predetermined frequency ranges from the third window spectrum. The apparatus for extracting information from an acoustic signal is characterized in that one or more embedded bit strings are extracted based on each spectrum intensity.
請求項1から請求項3のいずれかにおいて、
前記音響フレーム獲得手段は、前記音響信号から、所定数のサンプルで構成される音響フレームを基準フレームとして獲得する基準フレーム獲得手段と、前記基準フレームと所定サンプルずつ移動させることにより位相を変更して設定される複数の音響フレームを位相変更フレームとして設定する位相変更フレーム設定手段により構成され、
前記符号化手段は、前記抽出したスペクトル集合に基づいて、符号判定パラメータを算出する符号判定パラメータ算出手段と、基準フレームが異なる過去の同位相の音響フレームにおいて算出された符号判定パラメータに基づいて、前記基準フレームおよび複数の位相変更フレームのうち1つの音響フレームを位相が最適なものであると判断し、当該最適な位相の音響フレームについて判断された前記符号判定パラメータに基づいて、所定の符号を出力する符号出力手段を有するものであることを特徴とする音響信号からの情報の抽出装置。
In any one of Claims 1-3,
The acoustic frame acquisition means changes a phase by moving a reference frame and a predetermined sample from a reference frame acquisition means for acquiring an acoustic frame composed of a predetermined number of samples as a reference frame from the acoustic signal. It is constituted by phase change frame setting means for setting a plurality of set sound frames as phase change frames,
The encoding means is based on the code determination parameter calculation means for calculating a code determination parameter based on the extracted spectrum set, and on the code determination parameter calculated in a past in-phase acoustic frame having a different reference frame, It is determined that one of the reference frame and the plurality of phase change frames has an optimal phase, and a predetermined code is determined based on the code determination parameter determined for the acoustic frame having the optimal phase. An apparatus for extracting information from an acoustic signal, characterized by comprising code output means for outputting.
請求項4において、
前記符号化手段は、過去に判断された最適な位相を保持し、最適な位相が所定回数以上連続した場合、当該位相を確定位相として設定するものであり、
前記前記音響フレーム獲得手段は、前記確定位相が存在する場合には、当該確定位相に対応する基準フレームまたは位相変更フレームのいずれか1つの音響フレームのみを抽出し、前記周波数変換手段は、当該抽出した音響フレームに対してのみ処理を行うとともに、前記符号化手段は、前記抽出され、周波数変換手段により処理された音響フレームのみから所定の符号を出力するものであることを特徴とする音響信号からの情報の抽出装置。
In claim 4,
The encoding means holds the optimum phase determined in the past, and when the optimum phase continues for a predetermined number of times or more, sets the phase as a definite phase,
When the definite phase exists, the acoustic frame acquisition unit extracts only one of the reference frame or the phase change frame corresponding to the deterministic phase, and the frequency conversion unit From the acoustic signal, wherein the encoding means outputs a predetermined code only from the extracted acoustic frame processed by the frequency conversion means. Information extraction device.
コンピュータを、請求項1から請求項5のいずれかに記載の音響信号からの情報の抽出装置として、機能させるためのプログラム。   A program for causing a computer to function as an apparatus for extracting information from an acoustic signal according to any one of claims 1 to 5.
JP2007005321A 2007-01-15 2007-01-15 Device for extracting information from acoustic signals Expired - Fee Related JP5003164B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007005321A JP5003164B2 (en) 2007-01-15 2007-01-15 Device for extracting information from acoustic signals

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007005321A JP5003164B2 (en) 2007-01-15 2007-01-15 Device for extracting information from acoustic signals

Publications (2)

Publication Number Publication Date
JP2008170828A true JP2008170828A (en) 2008-07-24
JP5003164B2 JP5003164B2 (en) 2012-08-15

Family

ID=39698955

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007005321A Expired - Fee Related JP5003164B2 (en) 2007-01-15 2007-01-15 Device for extracting information from acoustic signals

Country Status (1)

Country Link
JP (1) JP5003164B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200077609A (en) * 2012-05-01 2020-06-30 엘아이에스엔알, 인크. Systems and methods for content delivery and management

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004525430A (en) * 2001-05-08 2004-08-19 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Digital watermark generation and detection
JP2006235359A (en) * 2005-02-25 2006-09-07 Dainippon Printing Co Ltd Device for extracting information from sound signal
JP2006251676A (en) * 2005-03-14 2006-09-21 Akira Nishimura Device for embedding and detection of electronic watermark data in sound signal using amplitude modulation
JP2006323246A (en) * 2005-05-20 2006-11-30 Dainippon Printing Co Ltd Embedding device for information into sound signal, extraction device of information from sound signal, and sound signal reproducing apparatus

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004525430A (en) * 2001-05-08 2004-08-19 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Digital watermark generation and detection
JP2006235359A (en) * 2005-02-25 2006-09-07 Dainippon Printing Co Ltd Device for extracting information from sound signal
JP2006251676A (en) * 2005-03-14 2006-09-21 Akira Nishimura Device for embedding and detection of electronic watermark data in sound signal using amplitude modulation
JP2006323246A (en) * 2005-05-20 2006-11-30 Dainippon Printing Co Ltd Embedding device for information into sound signal, extraction device of information from sound signal, and sound signal reproducing apparatus

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200077609A (en) * 2012-05-01 2020-06-30 엘아이에스엔알, 인크. Systems and methods for content delivery and management
KR102317364B1 (en) 2012-05-01 2021-10-25 엘아이에스엔알, 인크. Systems and methods for content delivery and management

Also Published As

Publication number Publication date
JP5003164B2 (en) 2012-08-15

Similar Documents

Publication Publication Date Title
JP4660275B2 (en) Information embedding apparatus and method for acoustic signal
JP4867765B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP2007121330A (en) Device for embedding information into sound signal
JP4629495B2 (en) Information embedding apparatus and method for acoustic signal
JP2007292827A (en) Acoustic signal retrieving apparatus
JP5011849B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP5082257B2 (en) Acoustic signal retrieval device
JP5003164B2 (en) Device for extracting information from acoustic signals
JP2006227330A (en) Embedding device/method of information to audio signals, extraction device/method of information from audio signals
JP2006201527A (en) Device for embedding information in sound signal, device for extracting information from sound signal, and sound signal reproducing device and method
JP4910920B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP2008152154A (en) Device for embedding information on sound signal and device for extracting information from sound signal
JP4876978B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP2008139491A (en) Device for embedding information in sound signal and device for extracting information from sound signal
JP2008216581A (en) Device for extracting information from sound signal
JP4877007B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP5104200B2 (en) Network connection device
JP4713181B2 (en) Information embedding device for sound signal, device for extracting information from sound signal, and sound signal reproducing device
JP4713180B2 (en) Device for extracting information from acoustic signals
JP5011855B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP4968468B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP2008129198A (en) Information embedding device for acoustic signal and information extracting device from acoustic signal
JP2008065052A (en) Device for embedding information in sound signal and device for extracting information from sound signal
JP4910921B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP5011872B2 (en) Information embedding device for sound signal and device for extracting information from sound signal

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091030

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110802

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111003

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120424

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120507

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150601

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5003164

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees