JP2006323182A - Embedding device for information into sound signal, extraction device of information from sound signal, and sound signal reproducing apparatus - Google Patents

Embedding device for information into sound signal, extraction device of information from sound signal, and sound signal reproducing apparatus Download PDF

Info

Publication number
JP2006323182A
JP2006323182A JP2005146872A JP2005146872A JP2006323182A JP 2006323182 A JP2006323182 A JP 2006323182A JP 2005146872 A JP2005146872 A JP 2005146872A JP 2005146872 A JP2005146872 A JP 2005146872A JP 2006323182 A JP2006323182 A JP 2006323182A
Authority
JP
Japan
Prior art keywords
frame
acoustic
spectrum
sound
low frequency
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005146872A
Other languages
Japanese (ja)
Other versions
JP4629495B2 (en
Inventor
Toshio Motegi
敏雄 茂出木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2005146872A priority Critical patent/JP4629495B2/en
Publication of JP2006323182A publication Critical patent/JP2006323182A/en
Application granted granted Critical
Publication of JP4629495B2 publication Critical patent/JP4629495B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Signal Processing For Digital Recording And Reproducing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an embedding device for information into sound signal, capable of coping with either monaural or stereophonic sound signals and of exactly extracting the embedded additive information from the sound signal, an extraction device for the information from the sound signal, and a sound signal reproducing apparatus. <P>SOLUTION: Sound signal is subjected to signal separation according to frequency bands, and the 0-th low-frequency band is changed according to the presence or the absence of the bit to be embedded among three low-frequency bands; and after the states of the first low-frequency band and second low-frequency band are changed, these frequency bands are combined with the high-frequency components. In the case of the stereophonic sound signals, the sound signals are embedded into the L-channel signals but the processing to add the components deleted for the purpose of the embedding processing to the R-channel is performed to prevent the deterioration of the signals. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、CD・DVD等を用いた民生・業務用途における鑑賞用のパッケージ音楽分野、放送事業者等が商業目的で配信する放送・ネットワーク音楽配信分野における音楽著作権の保護(不正コピーの監視)および音楽属性情報の提供(楽曲タイトル検索サービス)分野、ミュージアム、イベント会場における展示説明ナレーションに連動した文字情報の提供サービス分野に関する。   The present invention relates to the protection of music copyright (monitoring illegal copying) in the field of package music for viewing for consumer and business use using CDs and DVDs, and the field of broadcasting and network music distribution distributed for commercial purposes by broadcasters and the like. ) And music attribute information (music title search service) field, and a character information providing service field linked to exhibition narration at museums and event venues.

最近、流れている音楽のタイトル等を知ることができる楽曲属性情報の提供サービスとして、放送された音楽に対して日時と地域を放送局に照会したり、携帯電話で流れている音楽断片を録音してデータベースに登録されているメロディーと照合したりするサービスが実用化されている(例えば、特許文献1、2参照)。   As a service to provide music attribute information that allows you to know the titles of music that has been played recently, you can query the broadcast station for the date and time of the broadcast music, and record music fragments that are being played on mobile phones. Services that collate with melodies registered in the database have been put into practical use (see, for example, Patent Documents 1 and 2).

特許文献1、2に記載の発明では、録音した音楽の断片と、データベースに登録されているメロディーと照合するため、データベースに登録される楽曲が増えると、処理負荷が増え、類似したメロディーを誤判定する可能性が増える。そこで、曲名やアーチスト情報などの楽曲属性情報を不可聴な電子透かしとして音響信号に埋め込む手法も提案されている(例えば、特許文献3〜6参照)。   In the inventions described in Patent Documents 1 and 2, since the recorded music fragments are checked against the melodies registered in the database, the processing load increases as the number of songs registered in the database increases, and similar melodies are mistaken. The possibility of judging increases. Therefore, a method of embedding music attribute information such as a song name and artist information as an inaudible digital watermark in an acoustic signal has also been proposed (see, for example, Patent Documents 3 to 6).

特許文献1〜6に記載の手法では、埋め込み可能な情報量が少なく、音質が少なからず劣化し、各種信号処理により透かし情報が消失し、またアナログコピーに対しては、透かし検出が困難であるという問題がある。そこで、本出願人は、音響信号の低周波数領域における2つの低周波数帯の成分の比率を属性情報のビット値に応じて変更することにより、モノラル、ステレオのいずれの音響信号に対しても、属性情報(付加情報)を埋め込むことができる手法を提案した(特許文献7参照)。
特開2002−259421号公報 特開2003−157087号公報 特開平11−145840号公報 特開平11−219172号公報 特許第3321767号公報 特開2003−99077号公報 特願2005−58824号
In the methods described in Patent Documents 1 to 6, the amount of information that can be embedded is small, the sound quality is deteriorated to some extent, watermark information is lost by various signal processing, and watermark detection is difficult for analog copies. There is a problem. Therefore, the present applicant changes the ratio of the components of the two low frequency bands in the low frequency region of the acoustic signal according to the bit value of the attribute information, so that both the monaural and stereo acoustic signals are A method that can embed attribute information (additional information) has been proposed (see Patent Document 7).
JP 2002-259421 A Japanese Patent Laid-Open No. 2003-157087 JP-A-11-145840 JP-A-11-219172 Japanese Patent No. 3321767 JP 2003-99077 A Japanese Patent Application No. 2005-58824

しかしながら、上記特許文献7に記載の手法では、付加情報の埋め込みに用いられる低周波数帯が、一般的なマイクロフォンの感度範囲に含まれないことになる場合が多く、埋め込まれた情報を正しく識別することができないという問題がある。   However, in the method described in Patent Document 7, the low frequency band used for embedding additional information is often not included in the general microphone sensitivity range, and the embedded information is correctly identified. There is a problem that can not be.

このような場合、付加情報の埋め込みに用いられる低周波数帯の範囲を狭くして、より低い方の低周波数帯も、一般的なマイクロフォンの感度範囲に含まれる位置に設定することが望ましいが、この場合は、2つの低周波数帯が互いに接近することになり、埋め込み、抽出の処理過程において、相互の干渉が生じ、やはり、埋め込まれた情報を正しく識別することができないという問題がある。   In such a case, it is desirable to narrow the range of the low frequency band used for embedding the additional information and set the lower low frequency band to a position included in the general microphone sensitivity range. In this case, the two low frequency bands are close to each other, causing mutual interference in the process of embedding and extracting, and there is still a problem that the embedded information cannot be correctly identified.

そこで、本発明は、モノラル、ステレオのいずれの音響信号にも対応可能であって、埋め込まれた付加情報を正しく抽出することが可能な音響信号に対する情報の埋め込み装置、音響信号からの情報の抽出装置、および音響信号再生装置を提供することを課題とする。   Therefore, the present invention is compatible with both monaural and stereo acoustic signals, and can embed additional information correctly, and can embed information in an acoustic signal, and extract information from the acoustic signal. It is an object to provide a device and an acoustic signal reproduction device.

上記課題を解決するため、本発明では、時系列のサンプル列で構成される音響信号に対して、付加情報を聴取不能な状態で埋め込む装置であって、前記音響信号より、所定数のサンプルを音響フレームとして読み込む音響フレーム読込手段と、前記音響フレームに対して周波数変換を行い、フレームスペクトルを生成する周波数変換手段と、前記生成されたフレームスペクトルから、互いに重複しない3つの所定周波数範囲である第0低周波数帯、第1低周波数帯、第2低周波数帯を間隔を空けて設定し、前記各低周波数帯に対応するスペクトル集合をそれぞれ抽出し、前記埋め込むべき付加情報の情報配列の値に基づいて、前記抽出した3セットのスペクトル集合のうち、最も高い周波数範囲である第2低周波数帯と2番目に高い周波数範囲である第1低周波数帯間のスペクトル強度の割合を変更すると共に、最も低い周波数範囲である第0低周波数帯のスペクトル集合には、情報の埋め込みの有無を示す変更を行う低周波成分変更手段と、前記変更されたスペクトル強度を含むフレームスペクトルに対して周波数逆変換を行い、改変音響フレームを生成する周波数逆変換手段と、前記生成された改変音響フレームを順次出力する改変音響フレーム出力手段を有する音響信号に対する情報の埋め込み装置を提供する。   In order to solve the above-described problem, the present invention is an apparatus for embedding additional information in an inaudible state with respect to an acoustic signal composed of a time-series sample sequence, and a predetermined number of samples are embedded from the acoustic signal. Acoustic frame reading means for reading as an acoustic frame; frequency conversion means for performing frequency conversion on the acoustic frame to generate a frame spectrum; and three predetermined frequency ranges that do not overlap with each other from the generated frame spectrum. 0 low-frequency band, first low-frequency band, and second low-frequency band are set at intervals, a spectrum set corresponding to each low-frequency band is extracted, and the value of the information array of the additional information to be embedded Based on the second low frequency band which is the highest frequency range and the second highest frequency range among the three sets of extracted spectrum sets. The low frequency component changing means for changing the ratio of the spectrum intensity between the first low frequency bands and changing the spectrum set of the zeroth low frequency band, which is the lowest frequency range, to indicate whether or not information is embedded. Frequency inverse transform means for performing frequency inverse transform on the frame spectrum including the changed spectrum intensity to generate a modified acoustic frame; and modified acoustic frame output means for sequentially outputting the generated modified acoustic frames. An information embedding device for an acoustic signal is provided.

本発明によれば、音響信号の低周波領域における3つの低周波数帯を間隔を空けて設定し、最も低い周波数範囲のスペクトル集合には、情報の埋め込みの有無を示す変更を行うとともに、埋め込むべき付加情報の情報配列の値に基づいて、前記抽出した3セットのスペクトル集合のうち、最も高い周波数範囲と2番目に高い周波数範囲のスペクトル強度の割合を変更するようにしたので、モノラル、ステレオのいずれの音響信号にも対応可能であって、埋め込んだ付加情報を正確に抽出することが可能となるという効果を奏する。   According to the present invention, three low frequency bands in the low frequency region of the acoustic signal are set at intervals, and the spectrum set in the lowest frequency range is changed to indicate whether information is embedded or not and should be embedded Based on the value of the information array of the additional information, the ratio of the spectrum intensity of the highest frequency range and the second highest frequency range in the extracted three sets of spectrum sets is changed. It is possible to deal with any acoustic signal, and it is possible to accurately extract the embedded additional information.

以下、本発明の実施形態について図面を参照して詳細に説明する。
(1.音響信号に対する情報の埋め込み装置)
図1は、本発明に係る音響信号に対する情報の埋め込み装置の構成を示す機能ブロック図である。図1において、10は音響フレーム読込手段、20は周波数変換手段、30は低周波成分変更手段、40は周波数逆変換手段、50は改変音響フレーム出力手段、60は記憶手段、61は音響信号記憶部、62は付加情報記憶部、63は改変音響信号記憶部、70は付加情報読込手段である。なお、図1に示す装置は、ステレオ音響信号、モノラル音響信号の両方に対応可能であるが、ここでは、ステレオ音響信号に対して処理を行う場合について説明していく。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
(1. Information embedding device for acoustic signals)
FIG. 1 is a functional block diagram showing the configuration of an information embedding device for an acoustic signal according to the present invention. In FIG. 1, 10 is an acoustic frame reading means, 20 is a frequency converting means, 30 is a low frequency component changing means, 40 is a frequency inverse converting means, 50 is a modified acoustic frame output means, 60 is a storage means, and 61 is an acoustic signal storage. , 62 is an additional information storage unit, 63 is a modified acoustic signal storage unit, and 70 is an additional information reading means. The apparatus shown in FIG. 1 can deal with both a stereo sound signal and a monaural sound signal. Here, a case where processing is performed on a stereo sound signal will be described.

音響フレーム読込手段10は、付加情報の埋め込み対象とする元のステレオ音響信号の各チャンネルから所定数のサンプルを1フレームとして読み込む機能を有している。周波数変換手段20は、音響フレーム読込手段10が読み込んだ音響信号のフレームをフーリエ変換等により周波数変換してフレームスペクトルを生成する機能を有している。低周波成分変更手段30は、生成されたフレームスペクトルから3つの所定周波数範囲に相当するスペクトル集合を3セット抽出し、付加情報記憶部62から抽出した付加情報に基づいて、低周波強度データのスペクトル集合間の割合(比率)を変更する機能を有している。周波数逆変換手段40は、変更された低周波強度データを含む複数のフレームスペクトルに対して周波数逆変換を行うことにより、改変音響フレームを生成する機能を有している。改変音響フレーム出力手段50は、生成された改変音響フレームを順次出力する機能を有している。記憶手段60は、付加情報を埋め込む対象とするステレオ音響信号を記憶した音響信号記憶部61と、ビット配列として構成され、ステレオ音響信号に埋め込まれる付加情報を記憶した付加情報記憶部62と、付加情報埋め込み後の改変音響信号を記憶する改変音響信号記憶部63を有しており、その他処理に必要な各種情報を記憶するものである。付加情報読込手段70は、付加情報記憶部62から付加情報を抽出する機能を有している。なお、付加情報とは、音響情報に付加して埋め込むべき情報であり、タイトルやアーティスト名等の属性情報、および属性情報以外の他の情報を含むものである。図1に示した各構成手段は、現実にはコンピュータおよびその周辺機器等のハードウェアに専用のプログラムを搭載することにより実現される。すなわち、コンピュータが、専用のプログラムに従って各手段の内容を実行することになる。   The sound frame reading means 10 has a function of reading a predetermined number of samples as one frame from each channel of the original stereo sound signal to be embedded with additional information. The frequency conversion means 20 has a function of generating a frame spectrum by frequency-converting the frame of the acoustic signal read by the acoustic frame reading means 10 by Fourier transformation or the like. The low frequency component changing means 30 extracts three sets of spectrum sets corresponding to three predetermined frequency ranges from the generated frame spectrum, and based on the additional information extracted from the additional information storage unit 62, the spectrum of the low frequency intensity data It has a function to change the ratio (ratio) between sets. The frequency reverse conversion means 40 has a function of generating a modified acoustic frame by performing frequency reverse conversion on a plurality of frame spectra including the changed low frequency intensity data. The modified sound frame output means 50 has a function of sequentially outputting the generated modified sound frames. The storage means 60 includes an acoustic signal storage unit 61 that stores a stereo acoustic signal to be embedded with additional information, an additional information storage unit 62 that is configured as a bit array and stores additional information embedded in the stereo acoustic signal, and an additional information It has a modified acoustic signal storage unit 63 for storing the modified acoustic signal after information is embedded, and stores various information necessary for other processing. The additional information reading means 70 has a function of extracting additional information from the additional information storage unit 62. The additional information is information that should be added to the sound information and embedded, and includes attribute information such as a title and artist name, and other information other than the attribute information. Each component shown in FIG. 1 is actually realized by installing a dedicated program in hardware such as a computer and its peripheral devices. That is, the computer executes the contents of each means according to a dedicated program.

(2.埋め込み装置の処理動作)
次に、図1に示した音響信号に対する情報の埋め込み装置の処理動作について図2のフローチャートに従って説明する。ここでは、音響信号として、L(左)、R(右)の2チャンネルを有するステレオ音響信号に対して処理を行う場合について説明していく。図2は、付加情報1バイトの処理に対応したものとなっている。まず、付加情報読込手段70は、付加情報記憶部62から付加情報を1バイト単位で読み込む(S101)。具体的には、音響信号に対する情報の埋め込み装置として用いられるコンピュータ内のレジスタに1バイト読み込むことになる。続いて、モードを区切りモードに設定する(S102)。モードは区切りモードと、ビットモードの2種類が存在する。区切りモードは1バイト単位の区切りにおける処理を行うモードを示し、ビットモードは1バイトの各ビットの値に基づいた処理を行うモードを示している。付加情報記憶部62から1バイト読み込んだ場合には、その直後に必ず区切りモードに設定されることになる。
(2. Processing operation of embedded device)
Next, the processing operation of the information embedding device for the acoustic signal shown in FIG. 1 will be described with reference to the flowchart of FIG. Here, a case where processing is performed on a stereo sound signal having two channels of L (left) and R (right) as sound signals will be described. FIG. 2 corresponds to processing of 1 byte of additional information. First, the additional information reading means 70 reads additional information from the additional information storage unit 62 in units of 1 byte (S101). Specifically, one byte is read into a register in a computer used as an information embedding device for an acoustic signal. Subsequently, the mode is set to the separation mode (S102). There are two types of modes: separation mode and bit mode. The delimiter mode indicates a mode for performing processing at a delimiter in units of 1 byte, and the bit mode indicates a mode for performing processing based on the value of each bit of 1 byte. When one byte is read from the additional information storage unit 62, the separator mode is always set immediately after that.

続いて、音響フレーム読込手段10が、音響信号記憶部61に記憶されたステレオ音響信号の左右の各チャンネルから、それぞれ所定数のサンプルを1音響フレームとして読み込む(S104)。音響フレーム読込手段10が読み込む1音響フレームのサンプル数は、適宜設定することができるが、サンプリング周波数が44.1kHzの場合、4096サンプル程度とすることが望ましい。したがって、音響フレーム読込手段10は、左チャンネル、右チャンネルについてそれぞれ4096サンプルずつ、順次音響フレームとして読み込んでいくことになる。   Subsequently, the acoustic frame reading means 10 reads a predetermined number of samples as one acoustic frame from each of the left and right channels of the stereo acoustic signal stored in the acoustic signal storage unit 61 (S104). The number of samples of one sound frame read by the sound frame reading means 10 can be set as appropriate, but is desirably about 4096 samples when the sampling frequency is 44.1 kHz. Therefore, the acoustic frame reading means 10 sequentially reads 4096 samples for each of the left channel and the right channel as acoustic frames.

続いて、周波数変換手段20は、読み込んだ各音響フレームに対して、周波数変換を行って、その音響フレームのスペクトルであるフレームスペクトルを得る(S105)。周波数変換としては、フーリエ変換、ウェーブレット変換その他公知の種々の手法を用いることができる。本実施形態では、フーリエ変換を用いた場合を例にとって説明する。フーリエ変換を行う場合、左チャンネル信号xl(i)、右チャンネル信号xr(i)(i=0,…,N−1)に対して、以下の〔数式1〕に従った処理を行い、左チャンネルに対応する変換データの実部Al(j)、虚部Bl(j)、右チャンネルに対応する変換データの実部Ar(j)、虚部Br(j)を得る。   Subsequently, the frequency conversion means 20 performs frequency conversion on each read sound frame to obtain a frame spectrum that is a spectrum of the sound frame (S105). As frequency conversion, Fourier transform, wavelet transform, and other various known methods can be used. In the present embodiment, a case where Fourier transform is used will be described as an example. When performing Fourier transform, the left channel signal xl (i) and the right channel signal xr (i) (i = 0,..., N−1) are processed according to the following [Equation 1], and left The real part Al (j) and imaginary part Bl (j) of the conversion data corresponding to the channel and the real part Ar (j) and imaginary part Br (j) of the conversion data corresponding to the right channel are obtained.

〔数式1〕
Al(j)=Σi=0,…,N-1W(i)・xl(i)・cos(2πij/N)
Bl(j)=Σi=0,…,N-1W(i)・xl(i)・sin(2πij/N)
Ar(j)=Σi=0,…,N-1W(i)・xr(i)・cos(2πij/N)
Br(j)=Σi=0,…,N-1W(i)・xr(i)・sin(2πij/N)
[Formula 1]
Al (j) = Σ i = 0,..., N-1 W (i) · xl (i) · cos (2πij / N)
Bl (j) = Σi = 0,..., N-1 W (i) · xl (i) · sin (2πij / N)
Ar (j) = Σi = 0,..., N-1 W (i) .xr (i) .cos (2πij / N)
Br (j) = Σi = 0,..., N-1 W (i) .xr (i) .sin (2πij / N)

〔数式1〕において、iは、各音響フレーム内のN個のサンプルに付した通し番号であり、i=0,1,2,…N−1の整数値をとる。また、jは周波数の値について、値の小さなものから順に付した通し番号であり、iと同様にj=0,1,2,…N−1の整数値をとる。サンプリング周波数が44.1kHz、N=4096の場合、jの値が1つ異なると、周波数が10.8Hz異なることになる。なお、〔数式1〕においては、音響信号xl(i)、xr(i)には、それぞれW(i)=0.5−0.5・cos(2πi/N)で表現される窓関数(ハニング窓)を重みとして乗じたものを用いている。このような窓関数は、フーリエ変換を行う際に、周波数成分に波形を分断することにより発生する高周波ノイズを低減するためと、フーリエ逆変換を行う際に解析区間(音響フレームに相当)の間で信号レベルが不連続にならないように連結させるために用いられるものであり、周知の技術である。   In [Expression 1], i is a serial number assigned to N samples in each acoustic frame, and takes an integer value of i = 0, 1, 2,... N−1. Further, j is a serial number assigned in order from the smallest value of the frequency value, and takes an integer value of j = 0, 1, 2,... N−1 similarly to i. When the sampling frequency is 44.1 kHz and N = 4096, if the value of j is different by one, the frequency will be different by 10.8 Hz. In [Formula 1], the window functions (W (i) = 0.5−0.5 · cos (2πi / N) are represented in the acoustic signals xl (i) and xr (i), respectively. Hanning window) multiplied by weight is used. Such a window function is used to reduce high-frequency noise generated by dividing the waveform into frequency components when performing Fourier transform, and between analysis intervals (corresponding to acoustic frames) when performing inverse Fourier transform. This is a well-known technique used to connect signal levels so as not to be discontinuous.

上記〔数式1〕に従った処理を実行することにより、各音響フレームの信号成分を周波数に対応した成分であるスペクトルで表現されたフレームスペクトルが得られる。続いて、低周波成分変更手段30が、生成されたフレームスペクトルから3つの所定周波数範囲のスペクトル集合を抽出する。人間の聴覚は、200〜300Hz程度までの低周波成分については、方向性を感知しにくくなっていることが知られている(コロナ社1990年10月30日発行「音響工学講座1.基礎音響工学、日本音響学会編」p247図9・26参照)。したがって、本実施形態では、低周波成分を200Hz程度以下とし、さらに、低周波成分を60Hz近辺、120Hz近辺を境として3つに分け、第0低周波数帯、第1低周波数帯、第2低周波数帯として抽出することにしている。周波数60Hz付近、120Hz付近、180Hz付近は、それぞれ上記jが6、12、18に相当するので、上記〔数式1〕により算出された実部Al(j)、虚部Bl(j)、実部Ar(j)、虚部Br(j)のうち、第0低周波数帯としてj≦6、第1低周波数帯として7≦j≦12、第2低周波数帯として13≦j≦18のものを抽出することになる。   By executing the processing according to the above [Equation 1], a frame spectrum in which the signal component of each acoustic frame is expressed by a spectrum corresponding to the frequency is obtained. Subsequently, the low frequency component changing unit 30 extracts a spectrum set of three predetermined frequency ranges from the generated frame spectrum. Human hearing is known to be less sensitive to directionality for low frequency components up to about 200-300 Hz (Corona Corp., issued October 30, 1990, "Sound Engineering Course 1. Basic Acoustics"). Engineering, Acoustical Society of Japan ”p.247 (see FIGS. 9 and 26). Therefore, in the present embodiment, the low frequency component is set to about 200 Hz or less, and the low frequency component is further divided into three with the vicinity of 60 Hz and the vicinity of 120 Hz as a boundary, the 0th low frequency band, the first low frequency band, The frequency band is extracted. In the vicinity of frequencies 60 Hz, 120 Hz, and 180 Hz, j corresponds to 6, 12, and 18, respectively. Therefore, the real part Al (j), imaginary part Bl (j), and real part calculated by the above [Equation 1] Of Ar (j) and imaginary part Br (j), those with j ≦ 6 as the 0th low frequency band, 7 ≦ j ≦ 12 as the first low frequency band, and 13 ≦ j ≦ 18 as the second low frequency band Will be extracted.

続いて、低周波成分変更手段30は、抽出した実部Al(j)、虚部Bl(j)、実部Ar(j)、虚部Br(j)のうち、左チャンネルの実部Al(j)、虚部Bl(j)を利用して、以下の〔数式2〕により、第1低周波数帯を含む低周波強度の合算値E1、第2低周波数帯を含む低周波強度の合算値E2を算出する。 Subsequently, the low-frequency component changing unit 30 extracts the real part Al (left channel) of the real part Al (j), the imaginary part Bl (j), the real part Ar (j), and the imaginary part Br (j). j), and in use of the imaginary part Bl (j), the following [equation 2], the total value E 1 of the low-frequency intensity including a first low frequency band, the sum of low-frequency intensity including the second low frequency band to calculate the value E 2.

〔数式2〕
1=Σj=2,…,M-1{Al(j)2+Bl(j)2}+Σj=M+2,…,2M-1{Al(j)2+Bl(j)2
2=Σj=2,…,M-1{Al(j)2+Bl(j)2}+Σj=2M+2,…,3M-1{Al(j)2+Bl(j)2
[Formula 2]
E 1 = Σ j = 2,..., M−1 {Al (j) 2 + Bl (j) 2 } + Σ j = M + 2,..., 2M−1 {Al (j) 2 + Bl (j) 2 }
E 2 = Σ j = 2,..., M−1 {Al (j) 2 + Bl (j) 2 } + Σ j = 2M + 2,..., 3M−1 {Al (j) 2 + Bl (j) 2 }

上記〔数式2〕により算出されたE1はフレームスペクトルにおける第0低周波数帯と第1低周波数帯のスペクトル集合の成分強度の合算値、E2はフレームスペクトルにおける第0低周波数帯と第2低周波数帯のスペクトル集合の成分強度の合算値を示すことになる。続いて、この合算値E1、E2がレベル下限値Lev以上であるかどうかの判定を行う。レベル下限値Levは、音響信号xl(i)、xr(i)の振幅最大値が1に正規化されており、M=6に設定されている場合、0.8に設定する。このLev=0.8という値は、経験的にアナログ変換への耐性が維持できるレベルであり、低周波成分が少ない場合は適宜下げることになるが、その場合は、アナログ変換により検出精度も低下することになる。 E 1 calculated by the above [Equation 2] is the sum of the component intensities of the spectrum set of the 0th low frequency band and the 1st low frequency band in the frame spectrum, and E 2 is the 0th low frequency band and the 2nd value in the frame spectrum. This indicates the sum of the component intensities of the spectrum set in the low frequency band. Subsequently, it is determined whether or not the combined values E 1 and E 2 are equal to or higher than the level lower limit value Lev. The level lower limit value Lev is set to 0.8 when the maximum amplitude value of the acoustic signals xl (i) and xr (i) is normalized to 1 and M = 6 is set. This value of Lev = 0.8 is a level at which the resistance to analog conversion can be maintained empirically, and when there are few low frequency components, it will be reduced as appropriate. In this case, the detection accuracy also decreases due to analog conversion. Will do.

合算値E1、E2がレベル下限値Lev以上であるかどうかを判断するのは、信号の強度が小さいと、信号を変化させても、その変化を抽出側で検出することができないためである。したがって、合算値E1、E2が共にレベル下限値Lev未満である場合は、付加情報のビット値に応じた記録をせず、先頭ビットから再度処理するため、読み込み位置を先頭ビットに戻し、モードを区切りモードに設定する(S106)。一方、合算値E1、E2がレベル下限値Lev以上である場合には、モードを判断することになる。 The reason why it is determined whether or not the combined values E 1 and E 2 are equal to or greater than the level lower limit value Lev is that if the signal strength is small, even if the signal is changed, the change cannot be detected on the extraction side. is there. Therefore, when both the sum values E 1 and E 2 are less than the level lower limit value Lev, the recording is not performed according to the bit value of the additional information, but is processed again from the first bit, so that the reading position is returned to the first bit, The mode is set to the separation mode (S106). On the other hand, when the combined values E 1 and E 2 are equal to or higher than the level lower limit value Lev, the mode is determined.

低周波成分変更手段30は、モードが区切りモードである場合、左(L)チャンネル信号において、第0低周波数帯、第1低周波数帯、第2低周波数帯で均等(全て0となる場合も含む)とする処理を行う(S108)。具体的には、以下の〔数式3〕に従って、L側の双方を0に設定する処理を実行することになる。この場合、右(R)チャンネル信号の第0低周波数帯、第1低周波数帯、第2低周波数帯の成分は均等ではない。   The low frequency component changing means 30 is equal in the 0th low frequency band, the 1st low frequency band, and the 2nd low frequency band in the left (L) channel signal when the mode is the separation mode (all may be 0). (S108). Specifically, according to the following [Equation 3], processing for setting both L side to 0 is executed. In this case, the components of the 0th low frequency band, the first low frequency band, and the second low frequency band of the right (R) channel signal are not equal.

〔数式3〕
第0低周波数帯、第1低周波数帯、第2低周波数帯全て(j=1〜3M)に対して、
E(j)={Al(j)2+Bl(j)2+Ar(j)2+Br(j)21/2
Al´(j)=0
Bl´(j)=0
Ar´(j)=Ar(j)・E(j)/{Ar(j)2+Br(j)21/2
Br´(j)=Br(j)・E(j)/{Ar(j)2+Br(j)21/2
[Formula 3]
For all 0th low frequency band, 1st low frequency band, and 2nd low frequency band (j = 1-3M),
E (j) = {Al (j) 2 + Bl (j) 2 + Ar (j) 2 + Br (j) 2 } 1/2
Al ′ (j) = 0
Bl ′ (j) = 0
Ar ′ (j) = Ar (j) · E (j) / {Ar (j) 2 + Br (j) 2 } 1/2
Br ′ (j) = Br (j) · E (j) / {Ar (j) 2 + Br (j) 2 } 1/2

上記〔数式3〕に従った処理を実行することにより、左チャンネルのフレームスペクトルの低周波数成分は、第0低周波数帯、第1低周波数帯、第2低周波数帯共に“0” で同一となる。この第0低周波数帯、第1低周波数帯、第2低周波数帯が均等のパターンは、付加情報の先頭位置(区切り)を示す情報となる。なお、上記〔数式3〕においては、第0低周波数帯、第1低周波数帯、第2低周波数帯ともにAl´(j)=Bl´(j)=0としているが、抽出側で区切りであることが認識可能とすることを目的としているため、十分小さな値であれば、必ずしも0とする必要はない。また、必ずしも第0低周波数帯、第1低周波数帯、第2低周波数帯において同一である必要はなく、差が小さければ良い。この意味で、ここでは「均等」という言葉を用いている。   By executing the processing according to the above [Equation 3], the low frequency component of the frame spectrum of the left channel is “0” and the same in all of the 0th low frequency band, the 1st low frequency band, and the 2nd low frequency band. Become. The pattern in which the 0th low frequency band, the first low frequency band, and the second low frequency band are equal is information indicating the head position (separation) of the additional information. In the above [Equation 3], Al ′ (j) = Bl ′ (j) = 0 is set for all of the 0th low frequency band, the 1st low frequency band, and the 2nd low frequency band. Since it is intended to make it possible to recognize that there is something, if it is a sufficiently small value, it is not necessarily set to 0. Moreover, it is not necessarily required to be the same in the 0th low frequency band, the first low frequency band, and the second low frequency band, and it is sufficient that the difference is small. In this sense, the term “equal” is used here.

ここで、低周波成分変更手段30の処理後の、左チャンネル信号の第0低周波成分、第1低周波成分、第2低周波成分の状態を図13に示す。図13(a)〜(c)において、縦軸は周波数の値についての通し番号jに従ったものとなっている。また、網掛けで示した部分は周波数成分が所定の強度を持って存在し、空白部分は周波数成分の値が“0”であることを示している。図13(a)は、上記〔数式3〕による処理を行った場合の低周波成分の状態を示しており、j=1〜3Mまで全て“0”となっている。   Here, FIG. 13 shows the states of the zeroth low frequency component, the first low frequency component, and the second low frequency component of the left channel signal after the processing of the low frequency component changing means 30. 13A to 13C, the vertical axis follows the serial number j for the frequency value. The shaded portion indicates that the frequency component has a predetermined intensity, and the blank portion indicates that the value of the frequency component is “0”. FIG. 13A shows the state of the low-frequency component when the processing according to [Formula 3] is performed, and j = 0 to 1M are all “0”.

一方、低周波成分変更手段30は、モードがビットモードである場合、付加情報記憶部62から抽出した付加情報のビット配列のビット値に応じて、左チャンネル信号の第1、第2低周波数帯間のスペクトル強度の割合を第1低周波数帯が優位か、第2低周波数帯が優位かのいずれかの状態に変更する処理を行う(S107)。ここで、「優位」とは、一方の低周波数帯のスペクトル集合におけるスペクトル強度が、一方の低周波数帯のスペクトル集合におけるスペクトル強度よりも大きいことを示す。そこで、S107においては、第1の値と第2の値をとり得るビット値に応じて以下の〔数式4〕、〔数式5〕のいずれかに従った処理を実行することにより、第1低周波数帯のスペクトル強度と、第2低周波数帯のスペクトル強度の大小関係を変更し、第1低周波数帯が優位か、第2低周波数帯が優位かのいずれかに変更する処理を行う。例えば、第1の値を1、第2の値を0とした場合、ビット値が1のとき、以下の〔数式4〕に従った処理を実行する。なお、この場合、第0低周波数帯(j=2〜M−1)、第1低周波数帯(j=M+2〜2M−1)に対しては処理は行わない。   On the other hand, when the mode is the bit mode, the low frequency component changing means 30 determines the first and second low frequency bands of the left channel signal according to the bit value of the bit arrangement of the additional information extracted from the additional information storage unit 62. A process of changing the ratio of the spectrum intensity between the first low frequency band and the second low frequency band is dominant (S107). Here, “dominant” indicates that the spectrum intensity in one low frequency band spectrum set is larger than the spectrum intensity in one low frequency band spectrum set. Therefore, in S107, by executing processing according to any of the following [Equation 4] and [Equation 5] according to the bit values that can take the first value and the second value, the first low value is obtained. A process of changing the magnitude relationship between the spectrum intensity of the frequency band and the spectrum intensity of the second low frequency band and changing the first low frequency band to dominant or the second low frequency band to dominant is performed. For example, when the first value is 1 and the second value is 0, when the bit value is 1, processing according to the following [Equation 4] is executed. In this case, no processing is performed for the 0th low frequency band (j = 2 to M−1) and the 1st low frequency band (j = M + 2 to 2M−1).

〔数式4〕
j=1、M、M+1、2M〜3Mに対して
E(j)={Al(j)2+Bl(j)2+Ar(j)2+Br(j)21/2
Al´(j)=0
Bl´(j)=0
Ar´(j)=Ar(j)・E(j)/{Ar(j)2+Br(j)21/2
Br´(j)=Br(j)・E(j)/{Ar(j)2+Br(j)21/2
[Formula 4]
For j = 1, M, M + 1, 2M-3M, E (j) = {Al (j) 2 + Bl (j) 2 + Ar (j) 2 + Br (j) 2 } 1/2
Al ′ (j) = 0
Bl ′ (j) = 0
Ar ′ (j) = Ar (j) · E (j) / {Ar (j) 2 + Br (j) 2 } 1/2
Br ′ (j) = Br (j) · E (j) / {Ar (j) 2 + Br (j) 2 } 1/2

上記〔数式4〕による処理を行った場合の低周波成分の状態を図13(b)に示す。図13(b)に示すように、j=1、M、M+1、2M〜3Mにおいては、値が“0”となり、他は所定値以上の信号成分が存在することになる。したがって、この場合、第1低周波数帯が優位な状態にスペクトル強度の割合が変更されたことになる。   FIG. 13B shows the state of the low frequency component when the processing according to the above [Equation 4] is performed. As shown in FIG. 13B, when j = 1, M, M + 1, 2M to 3M, the value is “0”, and there are other signal components equal to or greater than the predetermined value. Therefore, in this case, the ratio of the spectral intensity is changed so that the first low frequency band is dominant.

ビット値が0の場合、以下の〔数式5〕に従った処理を実行する。なお、この場合、第0低周波数帯(j=2〜M−1)、第2低周波数帯(j=2M+2〜3M−1)に対しては処理は行わない。   When the bit value is 0, processing according to the following [Formula 5] is executed. In this case, no processing is performed for the 0th low frequency band (j = 2 to M−1) and the second low frequency band (j = 2M + 2 to 3M−1).

〔数式5〕
j=1、M〜2M+1、3Mに対して
E(j)={Al(j)2+Bl(j)2+Ar(j)2+Br(j)21/2
Al´(j)=0
Bl´(j)=0
Ar´(j)=Ar(j)・E(j)/{Ar(j)2+Br(j)21/2
Br´(j)=Br(j)・E(j)/{Ar(j)2+Br(j)21/2
[Formula 5]
For j = 1, M-2M + 1, 3M E (j) = {Al (j) 2 + Bl (j) 2 + Ar (j) 2 + Br (j) 2 } 1/2
Al ′ (j) = 0
Bl ′ (j) = 0
Ar ′ (j) = Ar (j) · E (j) / {Ar (j) 2 + Br (j) 2 } 1/2
Br ′ (j) = Br (j) · E (j) / {Ar (j) 2 + Br (j) 2 } 1/2

上記〔数式5〕による処理を行った場合の低周波成分の状態を図13(c)に示す。図13(c)に示すように、j=1、M〜2M+1、3Mにおいては、値が“0”となり、他は所定値以上の信号成分が存在することになる。したがって、この場合、第2低周波数帯が優位な状態にスペクトル強度の割合が変更されたことになる。   FIG. 13C shows the state of the low frequency component when the processing according to the above [Equation 5] is performed. As shown in FIG. 13C, when j = 1, M to 2M + 1, and 3M, the value is “0”, and other signal components are equal to or greater than a predetermined value. Therefore, in this case, the ratio of the spectral intensity is changed so that the second low frequency band is dominant.

上記〔数式4〕、〔数式5〕のいずれかに従った処理を実行することにより、付加情報のビット配列の各ビット値に応じて、左チャンネル信号の第1低周波数帯が優位か、第2低周波数帯が優位かのどちらかのパターンに変更されることになる。この場合、図13(b)(c)から明らかなように、各低周波数帯(網掛けで示した部分)の間には、必ず信号成分が“0”の部分が存在し、これにより、各低周波数帯の信号成分が混在することを防いでいる。結局、低周波成分変更手段30は、区切りモードの場合に〔数式3〕に基づく処理をS108において行い、ビットモードの場合に〔数式4〕又は〔数式5〕に基づく処理をS107において行うことになる。   By executing the processing according to any one of [Equation 4] and [Equation 5], whether the first low frequency band of the left channel signal is dominant or not according to each bit value of the bit array of the additional information, 2 The low frequency band is changed to one of the dominant patterns. In this case, as is apparent from FIGS. 13B and 13C, there is always a portion where the signal component is “0” between the low frequency bands (the portions indicated by shading). The signal components of each low frequency band are prevented from being mixed. Eventually, the low frequency component changing means 30 performs the processing based on [Equation 3] in the case of the separation mode in S108, and performs the processing based on [Equation 4] or [Equation 5] in S107 in the case of the bit mode. Become.

次に、周波数逆変換手段40が、低周波強度データのスペクトル集合間の割合が変更されたフレームスペクトルを周波数逆変換して改変音響フレームを得る処理を行う(S109)。この周波数逆変換は、当然のことながら、周波数変換手段20がS105において実行した手法に対応していることが必要となる。本実施形態では、周波数変換手段20において、フーリエ逆変換を施しているため、周波数逆変換手段40は、フーリエ逆変換を実行することになる。具体的には、上記〔数式3〕〜〔数式5〕のいずれかにより得られたスペクトルの左チャンネルの実部Al´(j)、虚部Bl´(j)、右チャンネルの実部Ar´(j)、虚部Br´(j)を用いて、以下の〔数式6〕に従った処理を行い、xl´(i)、xr´(i)を算出する。なお、上記〔数式3〕〜〔数式5〕において処理されていない周波数領域については、Al´(j)、Bl´(j)、Ar´(j)、Br´(j)として、Al(j)、Bl(j)、Ar(j)、Br(j)を用いる。   Next, the frequency inverse transform means 40 performs a process of obtaining the modified acoustic frame by performing frequency inverse transform on the frame spectrum in which the ratio between the spectrum sets of the low frequency intensity data is changed (S109). As a matter of course, this frequency inverse transform needs to correspond to the method executed by the frequency transform unit 20 in S105. In the present embodiment, since the frequency transform unit 20 performs the inverse Fourier transform, the frequency inverse transform unit 40 performs the inverse Fourier transform. Specifically, the real part Al ′ (j), the imaginary part Bl ′ (j) of the left channel and the real part Ar ′ of the right channel of the spectrum obtained by any one of [Formula 3] to [Formula 5] above. (J) Using imaginary part Br ′ (j), processing according to the following [Equation 6] is performed to calculate xl ′ (i) and xr ′ (i). In addition, about the frequency area | region which is not processed in the said [Formula 3]-[Formula 5], Al (j) is represented as Al '(j), Bl' (j), Ar '(j), Br' (j). ), Bl (j), Ar (j), Br (j) are used.

〔数式6〕
xl´(i)=1/N・{Σj=0,…,N-1Al´(j)・cos(2πij/N)−Σj=0,…,N-1Bl´(j)・sin(2πij/N)}+{1−W(i)}・xl(i)
xr´(i)=1/N・{Σj=0,…,N-1Ar´(j)・cos(2πij/N)−Σj=0,…,N-1Br´(j)・sin(2πij/N)}+{1−W(i)}・xr(i)
[Formula 6]
xl ′ (i) = 1 / N · {Σ j = 0,..., N−1 Al ′ (j) · cos (2πij / N) −Σ j = 0,..., N−1 Bl ′ (j) • sin (2πij / N)} + {1-W (i)} · xl (i)
xr ′ (i) = 1 / N · {Σ j = 0,..., N−1 Ar ′ (j) · cos (2πij / N) −Σ j = 0,..., N−1 Br ′ (j) • sin (2πij / N)} + {1-W (i)} · xr (i)

上記〔数式6〕における第1式の“+{1−W(i)}・xl(i)”、第2式の“+{1−W(i)}・xr(i)”の項は、上記〔数式1〕において周波数変換する際に、窓関数W(i)を乗じることにより除去された信号成分を復元するためのものである。上記〔数式6〕により改変音響フレームの左チャンネルの各サンプルxl´(i)、右チャンネルの各サンプルxr´(i)、が得られることになる。改変音響フレーム出力手段50は、得られた改変音響フレームを順次出力ファイルに出力する(S110)。こうして1つの音響フレームに対する処理を終えたら、モードをビットモードに設定した後(S111)、付加情報読込手段70が付加情報のビット配列中の次のビットを読み込む(S103)。以上のような処理を音響信号の両チャンネルの全サンプルに渡って実行していく。すなわち、所定数のサンプルを音響フレームとして読み込み、音響信号から読み込むべき音響フレームがなくなったら(S104)、処理を終了する。なお、S101において読み込んだ1バイトのデータの各ビットに対応する処理を終えた場合、S103からS101に戻り、付加情報の次のバイトを読み込み処理をすることになる。付加情報の全バイトに対して、処理が終了した場合は、付加情報の先頭バイトに戻って処理を行う。この結果、全ての音響フレームに対して処理を行った全ての改変音響フレームが出力ファイルに記録されて、改変音響信号として得られる。得られた改変音響信号は、記憶手段60内の改変音響信号記憶部63に出力され、記憶される。   The terms “+ {1−W (i)} · xl (i)” in the first equation and “+ {1−W (i)} · xr (i)” in the second equation in the above [Equation 6] are When the frequency conversion is performed in the above [Equation 1], the signal component removed by multiplying by the window function W (i) is restored. By the above [Equation 6], each sample xl ′ (i) of the left channel and each sample xr ′ (i) of the right channel of the modified sound frame are obtained. The modified sound frame output unit 50 sequentially outputs the obtained modified sound frames to the output file (S110). When the processing for one acoustic frame is completed in this way, after the mode is set to the bit mode (S111), the additional information reading means 70 reads the next bit in the bit array of the additional information (S103). The above processing is executed over all samples of both channels of the acoustic signal. That is, a predetermined number of samples are read as sound frames, and when there are no more sound frames to be read from the sound signal (S104), the process ends. When the processing corresponding to each bit of the 1-byte data read in S101 is completed, the process returns from S103 to S101, and the next byte of the additional information is read. When the processing is completed for all the bytes of the additional information, the processing returns to the first byte of the additional information. As a result, all modified acoustic frames that have been processed for all acoustic frames are recorded in the output file and obtained as modified acoustic signals. The obtained modified acoustic signal is output to and stored in the modified acoustic signal storage unit 63 in the storage unit 60.

以上の処理による左チャンネル信号の変化の様子を図3を用いて説明する。図3において、図面左右方向は、時間軸であり、サンプル数に比例する。また、図中多数存在する矩形は、改変音響フレームの第1低周波数帯、第2低周波数帯成分を示し、その横幅はサンプル数(本実施形態では、4096)、縦幅は強度を示している。図3(a)は、上記〔数式2〕により算出された合算値E1、E2がレベル下限値Lev未満となる音響フレームが存在しない場合、すなわち、付加情報を埋め込むには、良好な信号である場合を示している。図3(b)は、上記〔数式2〕により算出された合算値E1、E2がレベル下限値Lev未満となる音響フレームが存在する場合、すなわち、付加情報を埋め込むには、良好でない信号である場合を示している。 The change of the left channel signal by the above processing will be described with reference to FIG. In FIG. 3, the horizontal direction in the drawing is the time axis and is proportional to the number of samples. In addition, a large number of rectangles in the figure indicate the first low frequency band and second low frequency band components of the modified acoustic frame, the horizontal width indicates the number of samples (4096 in the present embodiment), and the vertical width indicates the intensity. Yes. FIG. 3A shows a good signal when there is no acoustic frame in which the total values E 1 and E 2 calculated by the above [Equation 2] are less than the level lower limit value Lev, that is, for embedding additional information. The case is shown. FIG. 3B shows a signal that is not good for embedding additional information when there is an acoustic frame in which the total values E 1 and E 2 calculated by the above [Equation 2] are less than the level lower limit value Lev. The case is shown.

例えば、付加情報として、1バイト目が「11011100」、2バイト目が「11000001」の2バイトのビット配列を埋め込むとする。まず、各バイトの先頭には、区切りを示す情報として、第1低周波数帯、第2低周波数帯が均等な状態に設定されることになる。これは、S102により区切りモードに設定され、S108において、上記〔数式3〕に従った処理を実行した結果得られる。また、図3(a)の例では、合算値E1、E2がレベル下限値Lev未満となる音響フレームが存在しないため、1バイトが連続して上記〔数式4〕又は〔数式5〕により処理されることになる。これは、S103からS111を経由するループが8回連続して繰り返され、その間レベル下限値未満であるとしてS106およびS108を経由することがなかったことを示している。図3に示すように、付加情報のビット値が1の場合は、第1低周波数帯側に低周波成分が存在し、付加情報のビット値が0の場合は、第2低周波数帯側に低周波成分が存在する。上記〔数式4〕、〔数式5〕からもわかるように、この場合は他方の低周波数帯の低周波成分は0となる。 For example, it is assumed that a 2-byte bit array in which the first byte is “11011100” and the second byte is “11000001” is embedded as additional information. First, at the head of each byte, the first low frequency band and the second low frequency band are set to be equal as information indicating a delimiter. This is obtained as a result of executing the processing in accordance with the above [Equation 3] in S108 by setting the separation mode in S102. In the example of FIG. 3 (a), since there is no acoustic frame in which the combined values E 1 and E 2 are less than the level lower limit value Lev, 1 byte is continuously obtained by the above [Expression 4] or [Expression 5]. Will be processed. This indicates that the loop from S103 to S111 was repeated 8 times in succession, and during that time, it did not pass through S106 and S108 because it was less than the level lower limit value. As shown in FIG. 3, when the bit value of the additional information is 1, a low frequency component exists on the first low frequency band side, and when the bit value of the additional information is 0, the low frequency component is on the second low frequency band side. There is a low frequency component. As can be seen from the above [Equation 4] and [Equation 5], in this case, the low frequency component of the other low frequency band is zero.

図3(b)の例では、上記〔数式2〕に従った処理の結果、レベル下限値Lev未満となる音響フレームが存在するので、この場合S106およびS108を経由して、上記〔数式3〕に従った処理を実行した結果第1低周波数帯、第2低周波数帯が均等な状態に設定される。この場合、S106において、読み込み位置が先頭ビットに戻されるため、再び同じビットを読むことになる。図3(b)の例では、1バイト目の「11011100」を埋め込む場合に、最初は「11」の2ビット処理した時点でレベル下限値Lev未満の音響フレームが出現し、2度目は「11011」の5ビット処理した時点でレベル下限値Lev未満の音響フレームが出現し、3度目でようやく8ビット処理することができたことを示している。なお、図3(a)(b)のいずれの場合においても、第0周波数帯は、先頭区切りでは、低周波成分は存在せず、先頭区切り以外では、低周波成分が存在する状態となっている。   In the example of FIG. 3B, there is an acoustic frame that is less than the level lower limit value Lev as a result of the process according to the above [Equation 2]. In this case, the above [Equation 3] is passed through S106 and S108. As a result of executing the processing according to, the first low frequency band and the second low frequency band are set to be in an equal state. In this case, since the reading position is returned to the first bit in S106, the same bit is read again. In the example of FIG. 3B, when “11011100” in the first byte is embedded, an acoustic frame less than the level lower limit value Lev appears at the time when the first two bits of “11” are processed, and the second time “11011”. ”Indicates that an audio frame less than the level lower limit value Lev appeared at the time of 5 bit processing, and finally 8 bit processing could be performed at the third time. In any case of FIGS. 3A and 3B, the 0th frequency band is in a state where no low frequency component is present at the head segment, and a low frequency component is present except at the head segment. Yes.

しかし、図2に従った処理を行った場合には、図3(b)に示したように、低周波成分の信号レベルが小さい音響フレームが出現するたびに、1バイト単位で先頭から繰り返して処理することになるため、効率が悪い。そこで、図2に代えて、図4に示すような処理を行うようにしても良い。   However, when the processing according to FIG. 2 is performed, as shown in FIG. 3B, every time an acoustic frame having a low signal level of low frequency components appears, it is repeated from the beginning in units of 1 byte. Since it will be processed, efficiency is bad. Therefore, instead of FIG. 2, processing as shown in FIG. 4 may be performed.

図4に示す処理で、図2に示す処理と大きく異なるのは、区切りモード、ビットモードの他に継続識別モードを備え、3つのモードとし、低周波成分の信号レベルが小さい音響フレームが出現した場合であっても、先頭に戻らず、継続して処理するようにした点である。そのため、継続識別モードにおいては、次のビットが先頭から始まる新規なものか、中断されたために継続されたものであるかを識別するための情報を記録することになる。なお、図4の処理では、付加情報の処理をバイト単位でなく、ワード単位で行っている。これは、図2のS106に示したように、強制的に読み込み位置を先頭に戻す処理がないため、バイト以外の単位で処理するのが容易であるためである。1ワードのビット数は自由に設定でき、1バイトに設定することもできる。   The processing shown in FIG. 4 differs greatly from the processing shown in FIG. 2 in that it has a continuous identification mode in addition to the separation mode and the bit mode, and has three modes, and an acoustic frame with a low signal level of low frequency components has appeared. Even in this case, the process is continued without returning to the top. Therefore, in the continuous identification mode, information for identifying whether the next bit is a new one starting from the beginning or continued because it is interrupted is recorded. In the process of FIG. 4, the additional information is processed in units of words instead of units of bytes. This is because, as shown in S106 of FIG. 2, there is no process for forcibly returning the reading position to the beginning, and it is easy to process in units other than bytes. The number of bits in one word can be set freely and can be set to 1 byte.

図4の処理については、図2の処理と共通する部分が多いため、異なる部分を中心に説明していく。まず、付加情報読込手段70は、付加情報記憶部62から付加情報を1ワード単位で読み込む(S201)。その後、モードを区切りモードに設定し(S202)、音響フレーム読込手段10が、音響信号記憶部61に記憶されたステレオ音響信号の左右各チャンネルから、音響フレームを読み込み(S204)、周波数変換手段20が、読み込んだ各音響フレームに対して、〔数式1〕に従って周波数変換を行ってフレームスペクトルを得て(S205)、低周波成分変更手段30が、抽出した実部Al(j)、虚部Bl(j)、実部Ar(j)、虚部Br(j)を利用して、〔数式2〕により合算値E1、E2を算出し、合算値E1、E2がレベル下限値Lev以上であるかどうかを判断するところまでは同一である。ただし、図4の処理においては、合算値E1、E2がレベル下限値Lev未満である場合は、モードを区切りモードに設定するだけである(S206)。一方、合算値E1、E2がレベル下限値Lev以上である場合には、モードを判断することになる。 The processing in FIG. 4 has many parts in common with the processing in FIG. First, the additional information reading means 70 reads additional information from the additional information storage unit 62 in units of one word (S201). Thereafter, the mode is set to the separation mode (S202), and the acoustic frame reading means 10 reads the acoustic frames from the left and right channels of the stereo acoustic signal stored in the acoustic signal storage unit 61 (S204), and the frequency converting means 20 However, frequency conversion is performed on each read acoustic frame according to [Equation 1] to obtain a frame spectrum (S205), and the low frequency component changing means 30 extracts the real part Al (j) and imaginary part Bl. (J) Using the real part Ar (j) and imaginary part Br (j), the combined values E 1 and E 2 are calculated by [Formula 2], and the combined values E 1 and E 2 are the level lower limit value Lev. It is the same up to the point where it is judged whether it is above. However, in the process of FIG. 4, when the summed values E 1 and E 2 are less than the level lower limit value Lev, the mode is simply set to the separation mode (S206). On the other hand, when the combined values E 1 and E 2 are equal to or higher than the level lower limit value Lev, the mode is determined.

低周波成分変更手段30は、モードが区切りモードである場合、上記〔数式3〕に従って、L側の第0低周波数帯、第1低周波数帯、第2低周波数帯の周波数成分を均等とする処理を行う(S208)。一方、低周波成分変更手段30は、モードがビットモードである場合、上記〔数式4〕、〔数式5〕に従って、付加情報記憶部62から抽出した付加情報のビット配列のビット値に応じて、スペクトル強度の第1低周波数帯、第2低周波数帯間の割合を変更する処理を行う(S207)。また、S207においては、図2のS107と異なり、継続識別モードである場合にも処理を行う。継続識別モードである場合、新規であるときは〔数式4〕に従って低周波成分の第1低周波数帯、第2低周波数帯間の分布を第1低周波数帯が優位な状態に変更し、継続であるときは〔数式5〕に従って低周波成分の第1低周波数帯、第2低周波数帯間の分布を第2低周波数帯が優位な状態に変更する。   When the mode is the separation mode, the low frequency component changing unit 30 equalizes the frequency components of the L-th 0th low frequency band, 1st low frequency band, and 2nd low frequency band according to the above [Equation 3]. Processing is performed (S208). On the other hand, when the mode is the bit mode, the low frequency component changing means 30 according to the above [Equation 4] and [Equation 5] according to the bit value of the bit array of the additional information extracted from the additional information storage unit 62, A process of changing the ratio of the spectrum intensity between the first low frequency band and the second low frequency band is performed (S207). Further, in S207, unlike S107 in FIG. 2, processing is performed even in the continuous identification mode. In the case of the continuous identification mode, if it is new, the distribution between the first low frequency band and the second low frequency band of the low frequency component is changed to a state in which the first low frequency band is dominant according to [Equation 4] and continued. In the case of, the distribution of the low frequency component between the first low frequency band and the second low frequency band is changed to a state in which the second low frequency band is dominant according to [Equation 5].

次に、周波数逆変換手段40が、スペクトル強度のスペクトル集合間の割合が変更されたフレームスペクトルを〔数式6〕に従って周波数逆変換して改変音響フレームを得る処理を行い(S209)、改変音響フレーム出力手段50は、得られた改変音響フレームを順次出力ファイルに出力する(S210)。こうして1つの音響フレームに対する処理を終えたら、モードの判定を行い(S211)、モードが区切りモードである場合は、モードを継続識別モードに設定した後(S212)、音響フレーム読込手段10が、音響フレームを読み込む(S204)。一方、モードがビットモード又は継続識別モードである場合は、モードをビットモードに設定した後(S213)、低周波成分変更手段30が付加情報のビット配列中の次のビットを読み込む(S203)。そして、全音響フレームの処理を行い、音響信号から読み込むべき音響フレームがなくなったら(S204)、処理を終了する。   Next, the frequency inverse transform means 40 performs a process of performing frequency inverse transform on the frame spectrum in which the ratio of the spectrum intensity between the spectral sets is changed according to [Equation 6] to obtain a modified acoustic frame (S209), and the modified acoustic frame The output unit 50 sequentially outputs the obtained modified sound frames to the output file (S210). When the processing for one acoustic frame is completed in this manner, the mode is determined (S211). If the mode is the separation mode, the mode is set to the continuous identification mode (S212), and then the acoustic frame reading means 10 A frame is read (S204). On the other hand, when the mode is the bit mode or the continuous identification mode, after setting the mode to the bit mode (S213), the low frequency component changing means 30 reads the next bit in the bit array of the additional information (S203). Then, all the sound frames are processed, and when there are no more sound frames to be read from the sound signal (S204), the process ends.

図4に従った処理による左チャンネル信号の変化の様子を図5を用いて説明する。図5においては、図3と同様、左右方向は時間軸であり、図中多数存在する矩形は、改変音響フレームの第1低周波数帯、第2低周波数帯成分を示し、その横幅はサンプル数、縦幅は強度を示している。図5(a)は、図3(a)と同様、上記〔数式2〕により算出された合算値E1、E2が、レベル下限値Lev以上となる音響フレームが存在しない場合を示しており、図5(b)は、図3(b)と同様、上記〔数式2〕により算出された合算値E1、E2が、レベル下限値Lev未満となる音響フレームが存在する場合を示している。 A state of the change of the left channel signal by the processing according to FIG. 4 will be described with reference to FIG. In FIG. 5, as in FIG. 3, the horizontal direction is the time axis, and a large number of rectangles in the figure indicate the first low frequency band and second low frequency band components of the modified acoustic frame, and the horizontal width is the number of samples. The vertical width indicates the strength. FIG. 5A shows a case where there is no acoustic frame in which the sum values E 1 and E 2 calculated by the above [Equation 2] are equal to or higher than the level lower limit value Lev, as in FIG. 3A. FIG. 5 (b) shows a case where there is an acoustic frame in which the total values E 1 and E 2 calculated by the above [Formula 2] are less than the level lower limit value Lev, as in FIG. 3 (b). Yes.

また、図2の処理との比較のため、埋め込む付加情報も、図3の場合と同様、1バイト目が「11011100」、2バイト目が「11000001」の2バイトのビット配列とする。図3と同様、各バイトの先頭には、区切りを示す情報として、第1低周波数帯、第2低周波数帯が均等な状態に設定されることになる。これは、S202により区切りモードに設定され、S208において、上記〔数式3〕に従った処理を実行した結果得られる。続いて、付加情報の各ビットに対応した処理を行う前に、新規であるか継続であるかを示す情報を記録することになる。図2に示す処理によれば、レベル下限値Lev未満となる音響フレームが存在した場合には、処理するビットを各バイトの先頭に戻して処理するため、全て新規となるが、図4に示す処理では、レベル下限値Lev未満となる音響フレームが存在した場合であっても、その時点で処理したビットは有効とし、そこから継続して行うため、そのビットが新規であるか継続であるかの情報を記録しておく必要がある。そこで、区切りを示す情報を記録した後には、新規であるか継続であるかを示す情報を記録する。具体的には、区切りモードの状態で、モード判断を行うことにより(S211)、継続識別モードに設定され(S212)、付加情報のビットを読み込むことなく、音響フレームの抽出を行う(S204)。そして、周波数変換後(S205)、新規である場合には、〔数式4〕に従った処理により、低周波成分の第1低周波数帯、第2低周波数帯間の分布を第1低周波数帯が優位な状態に変更する(S207)。   For comparison with the processing of FIG. 2, the additional information to be embedded is also a 2-byte bit array in which the first byte is “11011100” and the second byte is “11000001”, as in FIG. As in FIG. 3, the first low frequency band and the second low frequency band are set to be uniform at the head of each byte as information indicating a delimiter. This is obtained as a result of executing the processing according to the above [Equation 3] in S208 by setting the separation mode in S202. Subsequently, before the processing corresponding to each bit of the additional information is performed, information indicating whether the information is new or continued is recorded. According to the process shown in FIG. 2, when there is an acoustic frame that is less than the level lower limit value Lev, the bit to be processed is returned to the beginning of each byte and processed, so all are new, but as shown in FIG. In the processing, even if there is an acoustic frame that is less than the level lower limit value Lev, the bit processed at that time is valid and continues from there, so whether the bit is new or continued It is necessary to record the information. Therefore, after recording the information indicating the break, information indicating whether it is new or continued is recorded. Specifically, the mode determination is performed in the separation mode state (S211), the continuous identification mode is set (S212), and the sound frame is extracted without reading the bits of the additional information (S204). Then, after the frequency conversion (S205), if new, the distribution between the first low frequency band and the second low frequency band of the low frequency component is changed to the first low frequency band by the process according to [Equation 4]. Is changed to a dominant state (S207).

このようにして、新規か継続かを示す情報を記録した後は、継続識別モードの状態でモード判断を行うため(S211)、ビットモードに設定され(S213)、レジスタから先頭のビットを読み込み(S203)、音響フレームの抽出を行う(S204)。図5(a)の例では、レベル下限値Lev未満となる音響フレームが存在しないため、1バイトが連続して上記〔数式4〕又は〔数式5〕により処理されることになる。これは、S203からS213を経由するループが8回連続して繰り返され、その間レベル下限値Lev未満であるとしてS206およびS208、S212を経由することがなかったことを示している。   After recording the information indicating whether it is new or continued in this way, in order to make a mode determination in the state of the continuous identification mode (S211), the bit mode is set (S213), and the first bit is read from the register ( (S203), an acoustic frame is extracted (S204). In the example of FIG. 5A, since there is no acoustic frame that is less than the level lower limit value Lev, one byte is continuously processed by the above [Expression 4] or [Expression 5]. This indicates that the loop from S203 to S213 was repeated 8 times in succession, and during that time, it was assumed that the level was lower than the lower limit value Lev, and that it did not go through S206, S208, and S212.

図5(b)の例では、上記〔数式2〕に従った処理の結果、レベル下限値Lev未満となる音響フレームが存在するので、この場合S206およびS208を経由して、上記〔数式3〕に従った処理を実行した結果、第0低周波数帯、第1低周波数帯、第2低周波数帯が均等な状態に設定される。この場合、S206において、区切りモードに設定されるため、S212を経由して、新規か継続かを示す情報を記録することになる。図5(b)の例では、1バイト目の「11011100」を埋め込む場合に、最初は第1ビット目の「1」の1ビット処理した時点でレベル下限値Lev未満の音響フレームが出現しているため、区切りを示す情報を記録した後、継続を示す情報を記録し、継続して第2ビット目の「1」から処理をしている。そして、第2ビット目から第5ビット目の「1011」を処理した時点でレベル下限値Lev未満の音響フレームが出現しているため、区切りを示す情報を記録した後、継続を示す情報を記録し、継続して第6ビット目の「1」から処理をしている。   In the example of FIG. 5B, as a result of the processing according to the above [Equation 2], there is an acoustic frame that is less than the level lower limit value Lev. In this case, the above [Equation 3] passes through S206 and S208. As a result of executing the processing according to the above, the zeroth low frequency band, the first low frequency band, and the second low frequency band are set to be equal. In this case, since the separation mode is set in S206, information indicating whether it is new or continued is recorded via S212. In the example of FIG. 5B, when embedding “11011100” of the first byte, an acoustic frame less than the level lower limit value Lev appears when 1 bit of “1” of the first bit is initially processed. Therefore, after the information indicating the break is recorded, the information indicating the continuation is recorded, and the processing is continued from “1” of the second bit. Then, since “1011” from the second bit to the fifth bit has been processed, an acoustic frame less than the level lower limit value Lev has appeared, so after recording the information indicating the break, the information indicating the continuation is recorded. Then, processing is continued from “1” of the sixth bit.

なお、図5の例では、図3との比較のため、付加情報がバイト単位で記録されている場合について説明したが、図4に示す処理は、新規か継続かを示す情報を記録するため、付加情報を任意のビット数単位で記録することが可能である。   In the example of FIG. 5, the case where the additional information is recorded in units of bytes has been described for comparison with FIG. 3, but the process shown in FIG. 4 records information indicating whether it is new or continued. Additional information can be recorded in an arbitrary number of bits.

上記の例では、固定長のバイト単位又は可変長のワード単位で区切りを示す情報を挿入するようにしたが、さらにビット単位で区切りを示す情報を挿入することも可能である。この場合、音響フレーム読込手段10が音響フレームの抽出を行う際、前後の音響フレームに重複する重複音響フレームを抽出し、この重複音響フレームに対して、〔数式1〕に従って周波数変換を行い、さらに、〔数式3〕に従って第0低周波数帯、第1低周波数帯、第2低周波数帯の低周波成分を均等にする処理を行う。重複音響フレームは、前後の音響フレームと半数づつサンプルが重複するように設定する。例えば、先行する音響フレームがサンプル番号1から4096まで、後続する音響フレームがサンプル番号4097から8192までである場合、この間に設定される重複音響フレームはサンプル番号2049から6144までとなる。同様にして、音響信号の全区間について、重複音響フレームを読み込み、第0低周波数帯、第1低周波数帯、第2低周波数帯の低周波成分を均等にする処理を行うことになる。   In the above example, information indicating a delimiter is inserted in a fixed-length byte unit or a variable-length word unit, but it is also possible to insert information indicating a delimiter in bit units. In this case, when the acoustic frame reading means 10 performs the extraction of the acoustic frame, the overlapping acoustic frame that overlaps with the preceding and following acoustic frames is extracted, the frequency conversion is performed on the overlapping acoustic frame according to [Equation 1], and , [Equation 3] is performed to equalize the low frequency components of the zeroth low frequency band, the first low frequency band, and the second low frequency band. The overlapping sound frames are set so that half of the samples overlap with the preceding and following sound frames. For example, when the preceding sound frame is sample number 1 to 4096 and the subsequent sound frame is sample number 4097 to 8192, the overlapping sound frame set between this is sample number 2049 to 6144. Similarly, for all sections of the acoustic signal, a duplicate acoustic frame is read, and processing for equalizing the low frequency components of the zeroth low frequency band, the first low frequency band, and the second low frequency band is performed.

上記のように、重複音響フレームを設定して、その第0低周波数帯、第1低周波数帯、第2低周波数帯の低周波成分を均等にする処理を行った場合、これを改変音響信号に反映させるため、第0低周波数帯、第1低周波数帯、第2低周波数帯の低周波成分を均等にする処理後の重複フレームスペクトルに対して周波数逆変換を行って改変重複音響フレームを得て、さらに音響フレームと連結する処理を行う必要がある。この場合、窓関数W(i)を乗じることにより音響フレームから除去された信号成分を、重複音響フレームの信号と連結することにより補うことが可能となるため、上記〔数式6〕における第1式の“+{1−W(i)}・xl(i)”、第2式の“+{1−W(i)}・xr(i)” の項が不要となる。したがって、この場合、重複フレームスペクトルに対する周波数逆変換、およびフレームスペクトルに対する周波数逆変換(S109、S209)は上記〔数式6〕ではなく、以下の〔数式7〕に従って処理することになる。   As described above, when the overlapping acoustic frame is set and the process of equalizing the low frequency components of the zeroth low frequency band, the first low frequency band, and the second low frequency band is performed, this is changed to the modified acoustic signal. In order to reflect this, the modified overlapping acoustic frame is subjected to frequency inverse transform on the overlapped frame spectrum after processing for equalizing the low frequency components of the 0th low frequency band, the first low frequency band, and the second low frequency band. In addition, it is necessary to perform processing for connecting to the acoustic frame. In this case, the signal component removed from the acoustic frame by multiplying by the window function W (i) can be compensated by connecting it with the signal of the overlapping acoustic frame. “+ {1−W (i)} · xl (i)” and “+ {1−W (i)} · xr (i)” in the second equation are not necessary. Therefore, in this case, the frequency inverse transformation for the overlapping frame spectrum and the frequency inverse transformation (S109, S209) for the frame spectrum are processed according to the following [Equation 7] instead of the above [Equation 6].

〔数式7〕
xl´(i)=1/N・{Σj=0,…,N-1Al´(j)・cos(2πij/N)−Σj=0,…,N-1Bl´(j)・sin(2πij/N)}
xr´(i)=1/N・{Σj=0,…,N-1Ar´(j)・cos(2πij/N)−Σj=0,…,N-1Br´(j)・sin(2πij/N)}
[Formula 7]
xl ′ (i) = 1 / N · {Σ j = 0,..., N−1 Al ′ (j) · cos (2πij / N) −Σ j = 0,..., N−1 Bl ′ (j) • sin (2πij / N)}
xr ′ (i) = 1 / N · {Σ j = 0,..., N−1 Ar ′ (j) · cos (2πij / N) −Σ j = 0,..., N−1 Br ′ (j) • sin (2πij / N)}

上記〔数式7〕により改変音響フレーム、改変重複音響フレームの左チャンネルの各サンプルxl´(i)、右チャンネルの各サンプルxr´(i)、が得られることになる。改変音響フレーム出力手段50は、S110、S210において、得られた改変音響フレームおよび改変重複音響フレームを順次連結して出力ファイルに出力する。上述のように、音響フレームおよび重複音響フレームは、音響フレーム読込手段10により音響信号から読み込む際、音響フレームと重複音響フレームに同一のサンプルが重複して含まれるように処理されている。したがって、音響フレーム出力手段50においては、重複して読み込まれたサンプルについて、各サンプルの値を合算した値として、出力ファイルに記録していく。   By the above [Expression 7], each sample xl ′ (i) of the left channel and each sample xr ′ (i) of the right channel of the modified acoustic frame and the modified overlapping acoustic frame are obtained. In S110 and S210, the modified sound frame output means 50 sequentially connects the obtained modified sound frame and the modified overlapping sound frame and outputs them to the output file. As described above, when the sound frame and the overlapping sound frame are read from the sound signal by the sound frame reading means 10, the sound frame and the overlapping sound frame are processed so that the same sample is included in duplicate. Therefore, the acoustic frame output means 50 records the sample read in duplicate in the output file as the sum of the values of the samples.

このようにして得られた改変音響信号の左チャンネルのうち、付加情報が埋め込まれている部分については、低周波成分は、第0低周波数帯、第1低周波数帯、第2低周波数帯に均等となっているか、あるいは第1低周波数帯、第2低周波数帯のどちらか一方に偏在するかの3通りの分布しかないことになる。しかし、高周波成分については、元の音響信号のままであるので、制作者の設定に基づいた種々な分布になる。また、上記の例で示したように、ステレオ音響信号を利用した場合には、左チャンネルにおいて変化させられた低周波成分は、上記〔数式3〕〜〔数式5〕の処理からも明らかなように、必ず右チャンネルの低周波成分に付加されている。したがって、右チャンネルが左チャンネルにおいて削除された成分を補っているため、両チャンネル全体として見ると、信号の劣化がない。人間の聴覚は、高周波成分については、方向性を感知し易いが、低周波成分については、方向性を感知しにくくなっている。したがって、低周波成分が一方に偏っていても、聴いている人にとっては、通常の音響信号と変わりなく聴こえることになる。   Of the left channel of the modified acoustic signal obtained in this way, for the portion where the additional information is embedded, the low frequency component is in the 0th low frequency band, the 1st low frequency band, and the 2nd low frequency band. There are only three types of distributions, which are uniform or unevenly distributed in either the first low frequency band or the second low frequency band. However, since the high frequency component remains the original acoustic signal, it has various distributions based on the setting of the producer. Further, as shown in the above example, when a stereo sound signal is used, the low frequency component changed in the left channel is apparent from the processing of [Expression 3] to [Expression 5]. In addition, it is always added to the low frequency component of the right channel. Therefore, since the right channel supplements the deleted component in the left channel, there is no signal degradation when viewed as both channels as a whole. Human auditory senses directionality with respect to high-frequency components, but it is difficult to sense directionality with respect to low-frequency components. Therefore, even if the low frequency component is biased to one side, it will be heard as if it is a normal acoustic signal for the listener.

(3.音響信号からの情報の抽出装置)
次に、本発明に係る音響信号からの情報の抽出装置について説明する。図6は、本発明に係る音響信号からの情報の抽出装置の一実施形態を示す構成図である。図6において、100は音響信号入力手段、110は基準フレーム獲得手段、120は位相変更フレーム設定手段、130は周波数変換手段、140は符号判定パラメータ算出手段、150は符号出力手段、160は付加情報抽出手段、170は音響フレーム保持手段である。
(3. Device for extracting information from acoustic signals)
Next, an apparatus for extracting information from an acoustic signal according to the present invention will be described. FIG. 6 is a block diagram showing an embodiment of an apparatus for extracting information from an acoustic signal according to the present invention. In FIG. 6, 100 is an acoustic signal input unit, 110 is a reference frame acquisition unit, 120 is a phase change frame setting unit, 130 is a frequency conversion unit, 140 is a code determination parameter calculation unit, 150 is a code output unit, and 160 is additional information. Extraction means 170 is an acoustic frame holding means.

音響信号入力手段100は、流れている音声をデジタル音響信号として取得し、入力する機能を有している。現実には、マイクロフォンおよびA/D変換器により実現される。マイクロフォンとしては、低周波成分が検出可能なものであれば、モノラル無指向性のものであっても、ステレオ指向性のものであっても使用可能である。ステレオ指向性のものであっても一方のチャンネルだけ利用すれば良い。また、図1に示した装置で情報の埋め込みを行った場合には、特別精度の高いものでなく、一般的な精度のマイクロフォンを用いても情報の抽出が可能となる。基準フレーム獲得手段110は、入力されたデジタルのモノラル音響信号(あるいはステレオ音響信号の1チャンネル)から所定数のサンプルで構成される音響フレームを基準フレームとして読み込む機能を有している。位相変更フレーム設定手段120は、基準フレームと所定サンプルずつ移動させることにより位相を変更した音響フレームを位相変更フレームとして設定する機能を有している。周波数変換手段130は、図1に示した周波数変換手段20と同様の機能を有している。符号判定パラメータ算出手段140は、生成されたフレームスペクトルから所定の周波数以下に相当する各低周波強度データを抽出し、第1低周波数帯、第2低周波数帯ごとに各低周波強度データの合算値E1、E2を算出し、この合算値E1、E2を符号判定パラメータとし、この符号判定パラメータE1、E2の比率に基づいて、所定の状態であると判断する機能を有している。 The acoustic signal input unit 100 has a function of acquiring and inputting a flowing sound as a digital acoustic signal. In reality, it is realized by a microphone and an A / D converter. Any microphone can be used, as long as it can detect a low-frequency component, whether it is monaural omnidirectional or stereo directional. Even if it is stereo-directional, only one channel needs to be used. Further, when information is embedded by the apparatus shown in FIG. 1, the information can be extracted even if a microphone with a general accuracy is used instead of a high accuracy. The reference frame acquisition unit 110 has a function of reading an audio frame composed of a predetermined number of samples as a reference frame from the input digital monaural audio signal (or one channel of a stereo audio signal). The phase change frame setting means 120 has a function of setting, as a phase change frame, an acoustic frame whose phase has been changed by moving the reference frame and a predetermined sample at a time. The frequency conversion means 130 has the same function as the frequency conversion means 20 shown in FIG. The code determination parameter calculation means 140 extracts each low frequency intensity data corresponding to a predetermined frequency or less from the generated frame spectrum, and adds the low frequency intensity data for each of the first low frequency band and the second low frequency band. A function of calculating values E 1 and E 2 , using the combined values E 1 and E 2 as code determination parameters, and determining a predetermined state based on the ratio of the code determination parameters E 1 and E 2 is doing.

符号出力手段150は、1つの基準フレームに対応する音響フレーム(基準フレームおよび位相変更フレーム)の中から最適な位相であると判断されるものを判断し、その音響フレームの状態に対応する符号を出力する機能を有している。付加情報抽出手段160は、符号出力手段150により出力された符号の集合である3値配列を、所定の規則により変換して意味のある付加情報として抽出する機能を有している。音響フレーム保持手段170は、連続する2個の基準フレームを保持可能なバッファメモリである。図6に示した各構成手段は、現実には情報処理機能を有する小型のコンピュータおよびその周辺機器等のハードウェアに専用のプログラムを搭載することにより実現される。特に、本発明の目的をより簡易に達成するためには、携帯型端末装置をハードウェアとして用いることが望ましい。   The code output means 150 determines what is determined to be the optimum phase from the acoustic frames (reference frame and phase change frame) corresponding to one reference frame, and selects a code corresponding to the state of the acoustic frame. It has a function to output. The additional information extraction unit 160 has a function of converting the ternary array, which is a set of codes output by the code output unit 150, according to a predetermined rule and extracting it as meaningful additional information. The acoustic frame holding means 170 is a buffer memory that can hold two consecutive reference frames. Each component shown in FIG. 6 is actually realized by mounting a dedicated program on hardware such as a small computer having an information processing function and its peripheral devices. In particular, in order to achieve the object of the present invention more easily, it is desirable to use a portable terminal device as hardware.

(4.抽出装置の処理動作)
次に、図6に示した音響信号からの情報の抽出装置の処理動作について図7のフローチャートに従って説明する。まず、本装置では、平均符号レベルHL1、HL2、位相判定テーブルが初期化される。これらについて説明する。平均符号レベルHL1、HL2は、ビット値に対応する2値が埋め込まれていたと判断される音響フレーム(以下、有効フレームと呼ぶことにする)についての、上記〔数式2〕で算出される低周波成分の合算値E1、E2の平均値、すなわち、過去の有効フレームにおける合算値E1、E2の平均値で与えられるものであり、初期値は、上記埋め込み装置においても用いられるレベル下限値Levに設定されている。位相判定テーブルS(p)は、位相を判定するためのテーブルであり、pは0〜5の整数値をとる。初期値はS(p)=0に設定されている。
(4. Processing operation of extraction device)
Next, the processing operation of the apparatus for extracting information from the acoustic signal shown in FIG. 6 will be described with reference to the flowchart of FIG. First, in this apparatus, the average code levels HL1 and HL2 and the phase determination table are initialized. These will be described. The average code levels HL1 and HL2 are the low frequencies calculated by the above [Equation 2] for an acoustic frame (hereinafter referred to as an effective frame) that is determined to have embedded binary values corresponding to bit values. sum E 1, the average value of E 2 components, namely, which is given by the average value of the sum E 1, E 2 in the past valid frame, the initial value is, the level limit is also used in the above embedding device The value Lev is set. The phase determination table S (p) is a table for determining the phase, and p takes an integer value of 0 to 5. The initial value is set to S (p) = 0.

このように、初期値が設定されている状態で、利用者が流れている音楽について、その楽曲名等の属性情報を知りたいと思った場合、まず、抽出装置に対して、抽出装置としての起動の指示を行う。これは、例えば、抽出装置を携帯電話機等の携帯端末で実現している場合は、所定のボタンを操作することにより実行できる。抽出装置は、指示が入力されると、音響信号入力手段100が、流れている音楽を録音し、デジタル化してデジタル音響信号として入力する。具体的には、無指向性マイクロフォン(または指向性マイクロフォンの一方のチャンネル)から入力される音声を、A/D変換器によりデジタル化する処理を行うことになる。   In this way, when the initial value is set and the user wants to know the attribute information such as the song name of the music that is flowing, first, the extraction device Instruct startup. For example, this can be executed by operating a predetermined button when the extraction device is realized by a mobile terminal such as a mobile phone. In the extraction device, when an instruction is input, the acoustic signal input means 100 records the flowing music, digitizes it, and inputs it as a digital acoustic signal. More specifically, the audio input from the omnidirectional microphone (or one channel of the directional microphone) is digitized by the A / D converter.

続いて、基準フレーム獲得手段110が、音響信号入力手段100から入力された音響信号から、所定数のサンプルで構成される音響フレームを基準フレームとして抽出する(S301)。具体的には、基準フレームを抽出して音響フレーム保持手段170に読み込むことになる。基準フレーム獲得手段110が基準フレームとして読み込む1音響フレームのサンプル数は、図1に示した音響フレーム読込手段10で設定されたものと同一にする必要がある。したがって、本実施形態の場合、基準フレーム獲得手段110は、4096サンプルずつ、順次基準フレームとして読み込んでいくことになる。音響フレーム保持手段170には、上述のように2個の基準フレームが格納可能となっており、新しい基準フレームが読み込まれると、古い基準フレームを破棄するようになっている。したがって、音響フレーム保持手段170には、常に基準フレーム2個分(連続する8192サンプル)が格納されていることになる。   Subsequently, the reference frame acquisition unit 110 extracts an acoustic frame including a predetermined number of samples from the acoustic signal input from the acoustic signal input unit 100 as a reference frame (S301). Specifically, the reference frame is extracted and read into the acoustic frame holding unit 170. The number of samples of one acoustic frame read as the reference frame by the reference frame acquisition unit 110 needs to be the same as that set by the acoustic frame reading unit 10 shown in FIG. Therefore, in the present embodiment, the reference frame acquisition unit 110 sequentially reads 4096 samples as reference frames. The acoustic frame holding means 170 can store two reference frames as described above, and when a new reference frame is read, the old reference frame is discarded. Therefore, the sound frame holding means 170 always stores two reference frames (continuous 8192 samples).

埋め込み装置で処理する音響フレームは、先頭から途切れることなく隣接して設定される基準フレームと、この基準フレームと位相を変更した位相変更フレームとに分けることができる。基準フレームについては、最初の基準フレームをサンプル番号1からサンプル番号4096までを設定したら、次の基準フレームは、サンプル番号4097からサンプル番号8192、さらに次の基準フレームは、サンプル番号8193からサンプル番号12288、というように途切れることなく設定される。そして、各基準フレームについて、1/6フレーム(約683サンプル)ずつ移動した5個の位相変更フレームを設定する。例えば、最初の基準フレームについては、サンプル番号683、1366、2049、2732、3413から始まる4096のサンプルで構成される5個の位相変更フレームが設定されることになる。   The acoustic frame processed by the embedding device can be divided into a reference frame that is set adjacently without interruption from the head, and a phase change frame in which the phase is changed. For the reference frame, after setting the first reference frame from sample number 1 to sample number 4096, the next reference frame is sample number 4097 to sample number 8192, and the next reference frame is sample number 8193 to sample number 12288. It is set without interruption. Then, for each reference frame, five phase change frames moved by 1/6 frame (about 683 samples) are set. For example, for the first reference frame, five phase change frames configured by 4096 samples starting from sample numbers 683, 1366, 2049, 2732, and 3413 are set.

続いて、周波数変換手段130、符号判定パラメータ算出手段140が、読み込んだ各音響フレームから、埋め込まれている情報を判定し、対応する符号を出力する(S302)。出力される情報の形式は、埋め込み側のビット値に対応する2値、および区切りとして入力された値の3値の形式となる。   Subsequently, the frequency conversion unit 130 and the code determination parameter calculation unit 140 determine embedded information from each read sound frame and output a corresponding code (S302). The format of the information to be output is a binary format corresponding to the bit value on the embedding side and a ternary format of values input as delimiters.

ここで、ステップS302の符号判定処理の詳細を図8のフローチャートに従って説明する。まず、周波数変換手段130が、読み込んだ各音響フレームに対して、周波数変換を行ってフレームスペクトルを得る(S401)。この処理は、図1に示した周波数変換手段20における処理と同様である。ただし、抽出に用いるのは、左チャンネルだけであるので、上記〔数式1〕に従った処理を行い、左チャンネルに対応する変換データの実部Al(j)、虚部Bl(j)を得る。この際、左チャンネル音響信号xl(i)には、それぞれW(i)=0.5−0.5・cos(2πi/N)で表現される窓関数(ハニング窓)を重みとして乗じる処理も、周波数変換手段20と同様に行われる。   Details of the code determination process in step S302 will be described with reference to the flowchart of FIG. First, the frequency conversion means 130 performs frequency conversion on each read sound frame to obtain a frame spectrum (S401). This process is the same as the process in the frequency conversion means 20 shown in FIG. However, since only the left channel is used for extraction, processing according to the above [Equation 1] is performed to obtain real part Al (j) and imaginary part Bl (j) of the conversion data corresponding to the left channel. . At this time, the left channel acoustic signal xl (i) is multiplied by a window function (Hanning window) expressed by W (i) = 0.5−0.5 · cos (2πi / N) as a weight. This is performed in the same manner as the frequency conversion means 20.

上記周波数変換手段130における処理により、周波数に対応した成分であるスペクトルで表現されたフレームスペクトルが得られる。続いて、符号判定パラメータ算出手段140は、平均符号レベルHL1、HL2の算出を行う(S402)。具体的には、過去第1低周波数帯が優位な状態と判断された音響フレームについての合算値E1の積算値であるv1を、過去第1低周波数帯が優位な状態と判断された音響フレームの数であるn1で除算することによりHL1を算出し、過去第2低周波数帯が優位な状態と判断された音響フレームについての合算値E2の積算値であるv2を、過去第2低周波数帯が優位な状態と判断された音響フレームの数であるn2で除算することによりHL2を算出する。したがって、平均符号レベルHL1、HL2は、過去対応する低周波数帯が優位な状態と判断された音響フレームの低周波強度データの合算値の平均値となる。 By the processing in the frequency conversion means 130, a frame spectrum expressed by a spectrum that is a component corresponding to the frequency is obtained. Subsequently, the code determination parameter calculation unit 140 calculates the average code levels HL1 and HL2 (S402). Specifically, v1 is an integrated value of the sum E 1 for the first acoustic frame low frequency band is determined to dominant state past, first low frequency band past is determined to dominant state sound by dividing n1 is the number of frames to calculate a HL1, the v2 second low frequency band past is an integrated value of the sum E 2 for acoustic frame is determined dominant state, the second low past HL2 is calculated by dividing by n2, which is the number of sound frames determined to be in a dominant frequency band. Therefore, the average code levels HL1 and HL2 are average values of the sum values of the low-frequency intensity data of the acoustic frames that have been determined to be dominant in the past corresponding low-frequency bands.

さらに、符号判定パラメータ算出手段140は、生成されたフレームスペクトルから所定の周波数範囲の各低周波強度データを抽出する。抽出すべき周波数範囲は、埋め込み装置と対応させる必要がある。したがって、ここでは、周波数が200Hz程度以下の低周波強度データを抽出することになり、埋め込み装置の場合と同様、上記〔数式1〕により算出された左チャンネルの実部Al(j)、虚部Bl(j)のうち、j≦18のものを抽出する。そして、符号判定パラメータ算出手段140は、上記〔数式2〕に従った処理を実行することにより、第1低周波数帯を含む低周波強度の合算値E1、第2低周波数帯を含む低周波強度の合算値E2を算出する。さらに、以下の〔数式8〕に従って、符号判定パラメータEc1、Ec2を算出する。符号判定パラメータEc1は第1低周波数帯の低周波強度を示し、符号判定パラメータEc2は第2低周波数帯の低周波強度を示す。 Furthermore, the code determination parameter calculation unit 140 extracts each low frequency intensity data in a predetermined frequency range from the generated frame spectrum. The frequency range to be extracted needs to correspond to the embedding device. Therefore, here, low frequency intensity data having a frequency of about 200 Hz or less is extracted, and the real part Al (j) and imaginary part of the left channel calculated by the above [Equation 1] as in the case of the embedding device. Of Bl (j), those with j ≦ 18 are extracted. The code determination parameter calculating means 140, by executing the processing according to the above [Equation 2], the total value E 1 of the low-frequency intensity including a first low frequency band, low frequency including the second low frequency band The total strength value E 2 is calculated. Furthermore, sign determination parameters E c1 and E c2 are calculated according to the following [Equation 8]. The code determination parameter E c1 indicates the low frequency intensity in the first low frequency band, and the code determination parameter E c2 indicates the low frequency intensity in the second low frequency band.

〔数式8〕
c1=Σj=M+2,…,2M-1{Al(j)2+Bl(j)2
c2=Σj=2M+2,…,3M-1{Al(j)2+Bl(j)2
[Formula 8]
E c1 = Σ j = M + 2,..., 2M−1 {Al (j) 2 + Bl (j) 2 }
E c2 = Σ j = 2M + 2,..., 3M−1 {Al (j) 2 + Bl (j) 2 }

続いて、符号判定パラメータ算出手段140は、候補符号テーブルの初期化を行う(S403)。候補符号テーブルは、1つの基準フレームおよび5個の位相変更フレームを特定する0〜5の位相番号および、この6個の音響フレームの状態から得られる3値の符号を記録するものである。   Subsequently, the code determination parameter calculation unit 140 initializes the candidate code table (S403). The candidate code table records a phase number of 0 to 5 that specifies one reference frame and five phase change frames, and a ternary code obtained from the states of the six acoustic frames.

続いて、符号判定パラメータ算出手段140は、第1低周波数帯の低周波強度の合算値E1、第2低周波数帯の低周波強度の合算値E2がそれぞれ所定値以下であるかどうかの判定を行う(S404)。具体的には、所定値としてそれぞれ平均符号レベルHL1、HL2の20分の1を設定する。合算値E1が平均符号レベルHL1の20分の1以下であり、かつ、合算値E2が平均符号レベルHL2の20分の1以下である場合、符号判定パラメータ算出手段140は、区切り情報であると判定する(S408)。 Subsequently, the sign determination parameter calculation means 140 determines whether or not the sum value E 1 of the low frequency intensity in the first low frequency band and the sum value E 2 of the low frequency intensity in the second low frequency band are each equal to or less than a predetermined value. A determination is made (S404). Specifically, 1/20 of the average code levels HL1 and HL2 are set as predetermined values, respectively. And the sum E 1 is less than 1/20 of the average code level HL1, and if the total value E 2 is less than one twentieth of the average code level HL2, sign determination parameter calculating means 140, with delimiter information It is determined that there is (S408).

一方、合算値E1、E2のうちいずれか一方が所定値より大きい場合、符号判定パラメータ算出手段140は、上記算出された符号判定パラメータEc1、Ec2の比較判定を以下の〔数式9〕に従って行い(S405)、比較結果に対応する符号を出力する。 On the other hand, when either one of the total values E 1 and E 2 is larger than the predetermined value, the code determination parameter calculation unit 140 performs the comparison determination of the calculated code determination parameters E c1 and E c2 as follows: ] (S405), and outputs a code corresponding to the comparison result.

〔数式9〕
c2/Ec1>2の場合、第2低周波数帯が優位な状態
c1/Ec2>2の場合、第1低周波数帯が優位な状態
c2/Ec1≦2かつEc1/Ec2≦2の場合、両周波数帯が均等
[Formula 9]
When E c2 / E c1 > 2, the second low frequency band is dominant. When E c1 / E c2 > 2, the first low frequency band is dominant. E c2 / E c1 ≦ 2 and E c1 / E When c2 ≦ 2, both frequency bands are equal

符号判定パラメータ算出手段140は、各音響フレーム単位で、上記判定結果に応じて3値の符号を出力する。すなわち、第1低周波数帯が優位な状態と判定した場合には、第1のビット値(例えば“1”)を出力し(S406)、第2低周波数帯が優位な状態と判定した場合には、第2のビット値(例えば“0”)を出力し(S407)、各低周波数帯が均等と判定した場合には、区切り情報を示す符号を出力する(S408)。なお、S405において、第1低周波数帯が優位な状態と判定した場合は、Ec1がHL1以上であるか、また、第2低周波数帯が優位な状態と判定した場合は、Ec2がHL2以上であるかを判定し、これらの条件を満たしていない場合は、区切り情報を示す符号を出力する(S408)。 The code determination parameter calculation unit 140 outputs a ternary code according to the determination result for each acoustic frame. That is, when it is determined that the first low frequency band is dominant, the first bit value (eg, “1”) is output (S406), and when it is determined that the second low frequency band is dominant. Outputs a second bit value (eg, “0”) (S407), and outputs a code indicating delimiter information when it is determined that each low frequency band is equal (S408). If it is determined in S405 that the first low frequency band is dominant, E c1 is equal to or higher than HL1, and if it is determined that the second low frequency band is dominant, E c2 is HL2. It is determined whether or not the above is satisfied, and if these conditions are not satisfied, a code indicating delimiter information is output (S408).

第1低周波数帯が優位な状態と判定して、第1のビット値を出力した場合(S406)、又は第2低周波数帯が優位な状態と判定して、第2のビット値を出力した場合(S407)は、さらに、以下の〔数式10〕に従って位相判定テーブルS(p)の更新を行う(S409)。   When it is determined that the first low frequency band is dominant and the first bit value is output (S406), or it is determined that the second low frequency band is dominant and the second bit value is output. In the case (S407), the phase determination table S (p) is further updated according to the following [Equation 10] (S409).

〔数式10〕
第1低周波数帯が優位な状態の場合、S(p)←S(p)+Ec1/Ec2
第2低周波数帯が優位な状態の場合、S(p)←S(p)+Ec2/Ec1
[Formula 10]
When the first low frequency band is dominant, S (p) ← S (p) + E c1 / E c2
When the second low frequency band is dominant, S (p) ← S (p) + E c2 / E c1

続いて、符号判定パラメータ算出手段140は、候補符号テーブルに、最適位相となる候補を保存する(S410)。具体的には、位相判定テーブルに記録されているS(p)の値が最大となる位相番号pの値、前記S406〜S408により判定された3値のいずれかの符号、その音響フレームについての上記〔数式2〕に従った処理を実行することにより算出した、低周波数成分に対応する各E1、E2の値を最適位相の候補として候補符号テーブルに保存する。 Subsequently, the code determination parameter calculation unit 140 saves the candidate for the optimum phase in the candidate code table (S410). Specifically, the value of the phase number p that maximizes the value of S (p) recorded in the phase determination table, one of the three values determined in S406 to S408, and the sound frame The values of E 1 and E 2 corresponding to the low frequency components calculated by executing the processing according to the above [Equation 2] are stored in the candidate code table as candidates for the optimum phase.

続いて、全ての位相番号pに対応する処理を終えたかどうかを判定する(S411)。これは、ある基準フレームに対して全ての位相変更フレームの処理を行ったかどうかを判定している。本実施形態では、pが0〜5までの値をとるので、6回分処理していない場合は、処理していた音響フレームから所定サンプル数ずらして、位相の異なる音響フレームを設定し、S404に戻って処理を繰り返す。なお、p=0の場合が基準フレームであり、p=1〜5の場合が位相変更フレームである。全ての位相番号pに対応する処理を終えた場合は、候補保存テーブルに記録されている位相番号pに対応する位相が最適位相であると判定し、候補保存テーブルに記録されている符号を出力する(S412)。   Subsequently, it is determined whether or not the processing corresponding to all the phase numbers p has been completed (S411). This determines whether all phase change frames have been processed for a certain reference frame. In the present embodiment, since p takes a value from 0 to 5, if the processing is not performed six times, an acoustic frame having a different phase is set by shifting a predetermined number of samples from the acoustic frame that has been processed. Return and repeat the process. The case where p = 0 is a reference frame, and the case where p = 1 to 5 is a phase change frame. When the processing corresponding to all the phase numbers p is completed, it is determined that the phase corresponding to the phase number p recorded in the candidate storage table is the optimum phase, and the code recorded in the candidate storage table is output. (S412).

再び図7のフローチャートに戻って説明する。S302による処理の結果、ビット値に相当する符号が出力された場合には、平均符号レベルのパラメータの更新を行う(S303)。具体的には、平均符号レベルHL1、HL2算出の際の分子となる積算値v1、v2にそれぞれ合算値Ec1、Ec2を加算して積算値v1、v2を更新し、分母となるフレーム数n1、n2にそれぞれ1を加算してフレーム数n1、n2を更新する。続いて、出力された符号に対応するビット値をバッファに保存する(S304)。続いて、ビットカウンタをカウントアップする(S305)。そして、ビットカウンタが8ビット以上であるかどうかを判断する(S306)。その結果、ビットカウンタが8ビット以上である場合には、1バイト分のビット値がバッファに格納されていることになるので、バッファ内の1バイト分のデータを、付加情報抽出手段160が出力する(S307)。 Returning to the flowchart of FIG. If the code corresponding to the bit value is output as a result of the processing in S302, the parameter of the average code level is updated (S303). Specifically, the sum values E c1 and E c2 are added to the accumulated values v 1 and v 2 which are numerators when calculating the average code levels HL 1 and HL 2, respectively, and the accumulated values v 1 and v 2 are updated, respectively. The number of frames n1 and n2 is updated by adding 1 to n1 and n2, respectively. Subsequently, the bit value corresponding to the output code is stored in the buffer (S304). Subsequently, the bit counter is counted up (S305). Then, it is determined whether the bit counter is 8 bits or more (S306). As a result, when the bit counter is 8 bits or more, since the bit value for 1 byte is stored in the buffer, the additional information extraction unit 160 outputs the data for 1 byte in the buffer. (S307).

そして、ビットカウンタを0に初期化する(S309)。図7に示す処理を各音響フレームに対して実行することにより、付加情報が抽出されることになる。S301において全ての音響フレームが抽出されたと判断された場合には、処理を終了する。   Then, the bit counter is initialized to 0 (S309). By executing the processing shown in FIG. 7 for each acoustic frame, additional information is extracted. If it is determined in S301 that all sound frames have been extracted, the process ends.

上記S307の処理において、付加情報抽出手段160は、まず、符号判定パラメータ算出手段140により出力された3値の符号のうち、第1低周波数帯と第2低周波数帯が均等であることを示す符号を区切り位置として、その次の符号を先頭とし、第1低周波数帯が優位な状態、第2低周波数帯が優位な状態であることを示す符号をビット値に対応させて、ビット配列を作成する。続いて、このビット配列を、所定の規則により変換して意味のある付加情報として抽出する。所定の規則としては、情報を埋め込む者が意図した情報が受け取った者に認識可能な状態とできるものであれば、さまざまな規則が適用できるが、本実施形態では、文字情報として認識するための規則としている。すなわち、付加情報抽出手段160は、符号判定パラメータ算出手段140が判定し、符号出力手段150から出力される符号を1バイト(8ビット)単位で認識し、これを設定されたコード体系に従って文字情報を認識する。このようにして得られた文字情報は、表示装置(図示省略)の画面に表示出力される。   In the processing of S307, the additional information extracting unit 160 first indicates that the first low frequency band and the second low frequency band are equal among the ternary codes output by the code determination parameter calculating unit 140. The bit arrangement is determined by associating the bit value with a code indicating that the first low frequency band is dominant and the second low frequency band is dominant, with the code as a delimiter position and the next code as the head. create. Subsequently, this bit arrangement is converted according to a predetermined rule and extracted as meaningful additional information. As the predetermined rule, various rules can be applied as long as the information intended by the person who embeds the information can be recognized by the person who has received it. As a rule. In other words, the additional information extraction unit 160 recognizes the code output from the code output unit 150 as determined by the code determination parameter calculation unit 140 in units of 1 byte (8 bits), and character information according to the set code system. Recognize The character information thus obtained is displayed and output on a screen of a display device (not shown).

従って、埋め込み装置により音響信号に、その楽曲の曲名やアーチスト等の属性情報を文字情報として埋め込んでおけば、利用者は、その音楽が流れているのを聞いて、その曲名やアーチストを知りたいと思ったときに、抽出装置として機能する自身の携帯端末に所定の操作を行えば、自身の携帯端末の画面に曲名やアーチスト等の属性情報が文字情報として表示されることになる。   Therefore, if the embedding device embeds the attribute information such as the song title or artist in the sound signal as the character information, the user wants to know the song title or artist by listening to the music being played. If a predetermined operation is performed on the mobile terminal that functions as the extraction device, attribute information such as a song title and an artist is displayed as character information on the screen of the mobile terminal.

以上の処理においては、抽出装置において正確に付加情報を抽出するために、位相を補正する処理、第1低周波数帯と第2低周波数帯の低周波成分の強度のバランスを補正する処理、無効フレームであることを判断するための下限閾値を補正する処理を行っている。次に、これら3つの補正処理について補足説明を行う。   In the above processing, in order to extract additional information accurately in the extraction device, processing for correcting the phase, processing for correcting the balance of the intensity of the low frequency components of the first low frequency band and the second low frequency band, and invalidity A process of correcting the lower limit threshold value for determining the frame is performed. Next, supplementary explanation will be given for these three correction processes.

(5.位相補正処理について)
上記のように、抽出時には、埋め込み時に埋め込んだ音響フレームに対応して、音響信号を読み込むことができるとは限らない。そこで、音響フレームの位相をずらして複数通り(本実施形態では6通り)で読み込み、その中で最適な位相を決定し、その位相で特定される音響フレームに対応する符号を出力することにしている。例えば、6通りで読み込む場合、先頭の音響フレームは、本来サンプル番号1〜4096のサンプルであるが、サンプル番号1、683、1366、2049、2732、3413から始まる4096のサンプルで構成される6個の各音響フレームに対して処理を行い、最適な音響フレームに対応する符号を出力することになる。この位相補正処理は、S403、S409、S410、S411、S412における処理を中心として行われることになる。
(5. About phase correction processing)
As described above, at the time of extraction, it is not always possible to read an acoustic signal corresponding to the acoustic frame embedded at the time of embedding. Therefore, the phase of the acoustic frame is shifted and read in a plurality of ways (six in this embodiment), the optimum phase is determined, and a code corresponding to the acoustic frame specified by the phase is output. Yes. For example, in the case of reading in six ways, the top acoustic frame is originally a sample of sample numbers 1 to 4096, but six pieces composed of 4096 samples starting from sample numbers 1, 683, 1366, 2049, 2732, and 3413 Are processed, and a code corresponding to the optimum acoustic frame is output. This phase correction process is performed centering on the processes in S403, S409, S410, S411, and S412.

(6.下限閾値補正処理について)
信号レベルが小さい場合には、周波数帯別の強度の大小が判定できず、抽出側で誤判断することが多くなる。そこで、低周波強度E1およびE2が所定の閾値以下のフレームについては、無効なフレームであると判断するようにしているが、この際の閾値を過去の有効フレームについての低周波強度の積算値を利用して補正する処理を行っている。このように閾値を変動させることにより、信号レベルが変動しても無効なフレームであるか、有効なフレームであるかを正確に判断することが可能となる。この下限閾値補正処理は、S402、S303における処理を中心として行われることになる。
(6. Lower threshold correction process)
When the signal level is small, the magnitude of the intensity for each frequency band cannot be determined, and erroneous determination is often made on the extraction side. Therefore, the frames whose low frequency intensities E 1 and E 2 are equal to or less than the predetermined threshold are determined to be invalid frames. The threshold at this time is used as the integration of the low frequency intensities for the past effective frames. A correction process is performed using the value. By varying the threshold value in this way, it is possible to accurately determine whether the frame is invalid or valid even if the signal level varies. This lower threshold correction process is performed centering on the processes in S402 and S303.

図7のフローチャートは、埋め込み側において、付加情報をバイト単位で記録したものに対応している。埋め込み側で付加情報をワード単位で記録している場合には、図9のフローチャートに従った処理を行うことになる。まず、図7のS301と同様、基準フレーム獲得手段110が、音響信号入力手段100から入力されたステレオ音響信号の各チャンネルから、それぞれ所定数のサンプルを1基準フレームとして読み込む(S501)。   The flowchart in FIG. 7 corresponds to the additional information recorded on the embedding side in byte units. When additional information is recorded in units of words on the embedding side, processing according to the flowchart of FIG. 9 is performed. First, as in S301 of FIG. 7, the reference frame acquisition unit 110 reads a predetermined number of samples as one reference frame from each channel of the stereo audio signal input from the audio signal input unit 100 (S501).

続いて、図7のS301と同様、周波数変換手段130、符号判定パラメータ算出手段140が、読み込んだ各基準フレームを利用して、基準フレームもしくは位相変更フレームから最適な位相の音響フレームを特定し、その音響フレームに埋め込まれている情報に対応する符号を出力する(S502)。このS502における処理の詳細は、S302と同様、図8に示したようなものとなる。   Subsequently, as in S301 of FIG. 7, the frequency conversion unit 130 and the code determination parameter calculation unit 140 specify the acoustic frame having the optimum phase from the reference frame or the phase change frame using each read reference frame, A code corresponding to the information embedded in the sound frame is output (S502). The details of the processing in S502 are as shown in FIG. 8 as in S302.

S502による処理の結果、ビット値に相当する符号が抽出された場合には、S303と同様、平均符号レベルHL1、HL2いずれかのパラメータの更新を行う(S503)。続いて、モードの判定を行う(S504)。モードは、区切りモードとビット出力モードの2つが用意されている。ビット出力モードである場合は、そのビット値をバッファに保存する(S509)。続いて、ビットカウンタをカウントアップする(S510)。一方、S504による判定の結果、区切りモードである場合には、さらに抽出された符号が、新規を意味するものか継続を意味するものかを判定する(S505)。この結果、新規である場合には、その直前で1ワードが終了していることを意味するので、バッファに記録された1ワード分のデータを、付加情報抽出手段160が出力する(S506)。そして、ビットカウンタを0に初期化する(S507)。さらに、モードをビット出力モードに設定する(S508)。S505において、継続と判定された場合には、バッファ内のビットに値を出力すべきであるので、ビット出力モードに設定する処理のみを行う。また、S502において、区切り情報に相当する符号が抽出された場合には、次の音響フレームから新規か継続かの情報を抽出するため、モードを区切りモードに設定する(S511)。図9に示す処理を各基準フレームに対して実行することにより、付加情報が抽出されることになる。S501において全ての基準フレームが抽出されたと判断された場合には、処理を終了する。   If a code corresponding to the bit value is extracted as a result of the processing in S502, the parameter of either the average code level HL1 or HL2 is updated as in S303 (S503). Subsequently, the mode is determined (S504). Two modes, a delimited mode and a bit output mode, are prepared. If it is in the bit output mode, the bit value is stored in the buffer (S509). Subsequently, the bit counter is counted up (S510). On the other hand, if the result of determination in S504 is that the mode is the separation mode, it is further determined whether the extracted code means new or continuation (S505). As a result, if it is new, it means that one word has been completed immediately before, and the additional information extracting means 160 outputs the data for one word recorded in the buffer (S506). Then, the bit counter is initialized to 0 (S507). Further, the mode is set to the bit output mode (S508). If it is determined in S505 that the operation is to be continued, the value should be output to the bit in the buffer, so only the processing for setting the bit output mode is performed. If a code corresponding to the delimiter information is extracted in S502, the mode is set to the delimiter mode in order to extract new or continued information from the next sound frame (S511). By executing the processing shown in FIG. 9 for each reference frame, additional information is extracted. If it is determined in S501 that all the reference frames have been extracted, the process ends.

(7.音響信号再生装置)
次に、本発明に係る音響信号再生装置について説明する。図10は、本発明に係る音響信号再生装置の一実施形態を示す構成図である。図10において、200は音響フレーム読込手段、210は付加情報抽出表示手段、240は再生フレーム投入手段、250は再生フレーム蓄積手段、260はサウンドデバイスドライバ、261はサウンドデバイス、262はタイマーである。本発明に係る音響信号再生装置は、モノラル音響信号でもステレオ音響信号でも再生可能であるが、図10に示す装置は、ステレオ音響信号を再生するものとして説明する。
(7. Sound signal reproduction device)
Next, the acoustic signal reproducing apparatus according to the present invention will be described. FIG. 10 is a block diagram showing an embodiment of an acoustic signal reproduction device according to the present invention. In FIG. 10, reference numeral 200 denotes an acoustic frame reading unit, 210 denotes an additional information extraction / display unit, 240 denotes a reproduction frame input unit, 250 denotes a reproduction frame storage unit, 260 denotes a sound device driver, 261 denotes a sound device, and 262 denotes a timer. The sound signal reproducing apparatus according to the present invention can reproduce either a monaural sound signal or a stereo sound signal, but the apparatus shown in FIG. 10 will be described as reproducing a stereo sound signal.

音響フレーム読込手段200は、図1に示した音響フレーム読込手段10と同様、ステレオ音響信号の各チャンネルから所定数のサンプルをフレームして読み込む機能を有している。音響フレーム読込手段200により読み込まれた各音響フレームは、付加情報抽出表示手段210、再生フレーム投入手段240の2系統において処理されることになる。付加情報抽出表示手段210は、具体的には、図6に示した抽出装置のうち、位相変更フレーム設定手段120、周波数変換手段130、符号判定パラメータ算出手段140、符号出力手段150、付加情報抽出手段160、音響フレーム保持手段170、および付加情報抽出手段160が抽出した付加情報を表示出力する手段により構成されている。   Similar to the acoustic frame reading means 10 shown in FIG. 1, the acoustic frame reading means 200 has a function to frame and read a predetermined number of samples from each channel of the stereo acoustic signal. Each sound frame read by the sound frame reading means 200 is processed in two systems of the additional information extraction / display means 210 and the reproduction frame input means 240. More specifically, the additional information extraction / display unit 210 includes the phase change frame setting unit 120, the frequency conversion unit 130, the code determination parameter calculation unit 140, the code output unit 150, and the additional information extraction unit of the extraction apparatus illustrated in FIG. The means 160, the sound frame holding means 170, and the means for displaying and outputting the additional information extracted by the additional information extracting means 160 are configured.

再生フレーム投入手段240は、音響フレーム読込手段200により読み込まれた各音響フレームを再生フレーム蓄積手段250に投入する機能を有している。ただし、再生フレーム投入手段240は、単純に音響フレームを投入するだけでなく、後述するように、再生フレーム蓄積手段250に空きが無い場合は、音響フレームの投入を制御する機能も有している。再生フレーム蓄積手段250は、音響フレームを蓄積するバッファメモリを複数有しており、これらのバッファメモリに蓄積された音響フレームを、FIFO(ファーストイン・ファーストアウト)方式、すなわち、先に入ってきた情報が、先に出ていく方式で処理する機能を有している。すなわち、再生フレーム蓄積手段250は、再生フレーム投入手段240から投入された音響フレームを投入された順序で蓄積し、その順序でサウンドデバイスドライバ260に渡す機能を有することとなる。サウンドデバイスドライバ260は、サウンドデバイス261を駆動させて音響フレームを音響再生する機能を有しており、サウンドデバイス261は、デジタルデータである音響フレームをD/A変換して音声として再生する機能を有している。すなわち、サウンドデバイスドライバ260およびサウンドデバイス261は音響フレーム再生手段として機能することになる。タイマー262は、サウンドデバイスによる音響信号の再生と、外部機器の音響信号の再生とのタイミングをとるために利用するタイマーであり、コンピュータにおいて時刻管理を行うタイマーと共用されている。   The reproduction frame input unit 240 has a function of inputting each sound frame read by the sound frame reading unit 200 to the reproduction frame storage unit 250. However, the reproduction frame input unit 240 not only simply inputs an audio frame, but also has a function of controlling the input of an audio frame when the reproduction frame storage unit 250 is not empty, as will be described later. . The reproduction frame accumulating means 250 has a plurality of buffer memories for accumulating the sound frames, and the sound frames accumulated in these buffer memories are input into the FIFO (first in first out) system, that is, first. It has a function to process information in a way that goes out first. That is, the playback frame storage unit 250 has a function of storing the sound frames input from the playback frame input unit 240 in the input order and passing them to the sound device driver 260 in that order. The sound device driver 260 has a function of driving the sound device 261 to reproduce sound frames, and the sound device 261 has a function of D / A converting the sound frames that are digital data and reproducing them as sound. Have. That is, the sound device driver 260 and the sound device 261 function as sound frame reproduction means. The timer 262 is a timer used for timing the reproduction of the acoustic signal by the sound device and the reproduction of the acoustic signal of the external device, and is shared with a timer that performs time management in the computer.

図10に示す音響信号再生装置においては、上述のように、付加情報抽出表示手段210における付加情報を抽出・表示する系統と、再生フレーム投入手段240〜サウンドデバイスドライバ260の音響再生する系統の2系統が存在する。モノラル音響信号を処理する場合には、音響信号にチャンネルが1つしかなく、そのチャンネルに付加情報が埋め込まれているため、両系統とも1つのチャンネルの信号を処理する。一方、ステレオ音響信号を処理する場合には、音響再生系統は2つのチャンネルの信号を処理してステレオ再生するが、付加情報抽出系統は、付加情報が埋め込まれている1つのチャンネルの信号のみを処理することになる。   In the acoustic signal reproduction apparatus shown in FIG. 10, as described above, there are two systems, namely, a system for extracting and displaying additional information in the additional information extraction / display means 210 and a system for reproducing sound by the reproduction frame input means 240 to the sound device driver 260. A system exists. When processing a monaural sound signal, since there is only one channel in the sound signal and additional information is embedded in that channel, both systems process the signal of one channel. On the other hand, when processing a stereo sound signal, the sound reproduction system processes the signal of two channels and performs stereo reproduction. However, the additional information extraction system only processes the signal of one channel in which the additional information is embedded. Will be processed.

(8.再生装置の処理動作)
次に、図10に示した音響信号の再生装置の処理動作について説明する。図1に示した埋め込み装置により付加情報が埋め込まれた改変音響信号を記録した記録媒体を再生装置において再生すると、まず、音響フレーム読込手段200が記録媒体から読み取られたステレオ音響信号の各チャンネルから、それぞれ所定数のサンプルを1音響フレームとして読み込む。音響フレーム読込手段200が読み込む1音響フレームのサンプル数も、図1に示した音響フレーム読込手段10で設定されたものと同一にする必要がある。したがって、本実施形態の場合、音響フレーム読込手段200は、左チャンネル、右チャンネルについてそれぞれ4096サンプルずつ、順次音響フレームとして読み込んでいくことになる。また、図1に示した音響フレーム読込手段10において、音響フレームを、隣接する音響フレームとサンプルが重複するように読み込んでいる場合には、音響フレーム読込手段200においても、音響フレームを、隣接する音響フレームとサンプルが重複するように読み込んで行く。この場合、重複させるサンプル数は、音響フレーム読込手段10で重複させたサンプル数と同一とし、1音響フレームを構成する4096サンプルの半数の2048サンプルとする。なお、音響フレームを重複して読み込んだ場合であっても、付加情報抽出表示手段210に対しては、重複していない音響フレームのみを渡す処理を行う。また、付加情報抽出表示手段210に渡される音響フレームは、付加情報が埋め込まれている左チャンネルのものだけになる。
(8. Processing operation of playback device)
Next, the processing operation of the acoustic signal reproducing device shown in FIG. 10 will be described. When the recording device on which the modified acoustic signal in which the additional information is embedded by the embedding device shown in FIG. 1 is recorded is reproduced on the reproducing device, first, the acoustic frame reading means 200 starts from each channel of the stereo acoustic signal read from the recording medium Each of a predetermined number of samples is read as one acoustic frame. The number of samples of one sound frame read by the sound frame reading means 200 needs to be the same as that set by the sound frame reading means 10 shown in FIG. Therefore, in the case of this embodiment, the acoustic frame reading means 200 sequentially reads 4096 samples for each of the left channel and the right channel as acoustic frames. Further, in the sound frame reading means 10 shown in FIG. 1, when the sound frame is read so that the sample overlaps with the sound frame adjacent to the sound frame, the sound frame reading means 200 is also adjacent to the sound frame. Read so that the sound frame and the sample overlap. In this case, the number of samples to be duplicated is the same as the number of samples duplicated by the acoustic frame reading means 10 and is 2048 samples, which is half of the 4096 samples constituting one acoustic frame. Even when the acoustic frames are read in duplicate, only the non-overlapping acoustic frames are passed to the additional information extraction / display unit 210. Further, the sound frame passed to the additional information extraction / display unit 210 is only for the left channel in which the additional information is embedded.

続いて、付加情報抽出表示手段210においては、読み込んだ各音響フレームを基準フレームとして、図6に示した抽出装置と同様の処理を行い、付加情報を抽出した後、画面に表示出力する。   Subsequently, the additional information extraction / display unit 210 performs the same processing as that of the extraction apparatus shown in FIG. 6 using each read sound frame as a reference frame, extracts the additional information, and displays and outputs it on the screen.

一方、音響フレーム読込手段200により読み込まれた音響フレームは、再生フレーム投入手段240により再生フレーム蓄積手段250に蓄積されていく。再生フレーム蓄積手段250に少なくとも1フレーム蓄積されれば、サウンドデバイスドライバ260による再生処理は開始されるが、この再生処理は音響フレーム読込手段200、付加情報抽出表示手段210および再生フレーム投入手段240の処理に比べ圧倒的に処理時間がかかる。(換言すれば、付加情報抽出表示手段210などは再生処理に比べ圧倒的に速くなるように設計している。)そこで、本実施形態では、再生フレーム蓄積手段250に4フレームまで蓄積可能となっており、図10に示すように、音響フレーム読込手段200は、連続して次の音響フレームを読み込み、再生フレーム投入手段240により再生フレーム蓄積手段250に音響フレームを4フレームまで蓄積できるようにしている。再生フレーム蓄積手段250に4フレーム蓄積されると、音響フレーム読込手段200および再生フレーム投入手段240は、再生フレーム蓄積手段250に空きが発生するまで待機状態になる。従って、再生フレーム蓄積手段250には常時4フレーム分蓄積され、サウンドデバイスドライバ260は、再生フレーム蓄積手段250に蓄積された音響フレームのうち先頭の音響フレームを音響再生する。具体的には、サウンドデバイス261が音響フレームのデータをD/A変換してスピーカに出力することになる。音響再生された音響フレームは、再生フレーム蓄積手段250から削除される。   On the other hand, the sound frame read by the sound frame reading means 200 is accumulated in the reproduction frame accumulation means 250 by the reproduction frame input means 240. If at least one frame is stored in the playback frame storage unit 250, the playback process by the sound device driver 260 is started. This playback process is performed by the sound frame reading unit 200, the additional information extraction display unit 210, and the playback frame input unit 240. Processing time is overwhelmingly longer than processing. (In other words, the additional information extraction and display unit 210 is designed to be overwhelmingly faster than the reproduction process.) Therefore, in the present embodiment, the reproduction frame accumulation unit 250 can accumulate up to four frames. As shown in FIG. 10, the sound frame reading means 200 continuously reads the next sound frame, and the playback frame input means 240 can store up to four sound frames in the playback frame storage means 250. Yes. When four frames are accumulated in the reproduction frame accumulation unit 250, the sound frame reading unit 200 and the reproduction frame input unit 240 are in a standby state until a space is generated in the reproduction frame accumulation unit 250. Accordingly, four frames are always stored in the playback frame storage unit 250, and the sound device driver 260 plays back the first acoustic frame among the acoustic frames stored in the playback frame storage unit 250. Specifically, the sound device 261 D / A converts the sound frame data and outputs it to the speaker. The acoustic frame that has been acoustically reproduced is deleted from the reproduction frame storage means 250.

音響フレームが削除されて、再生フレーム蓄積手段250内に余裕ができると、再生フレーム投入手段240から音響フレームが再生フレーム蓄積手段250に投入される。これにより、再生フレーム蓄積手段250内は再び最大容量まで蓄積されることになる。読み込まれた音響フレームは、現実には、CPUが再生フレーム投入手段240として機能することにより、再生フレーム蓄積手段250内に投入される。この再生フレーム投入手段240は、音響フレームを再生フレーム蓄積手段250に単純に投入するだけでなく、再生フレーム蓄積手段250に空きが無い場合は、音響フレーム読込手段200、付加情報抽出表示手段210に対して処理を中断するメッセージを送り、再生フレーム蓄積手段250への音響フレームの投入を制御している。   When the sound frame is deleted and there is room in the reproduction frame storage means 250, the sound frame is input from the reproduction frame input means 240 to the reproduction frame storage means 250. As a result, the reproduction frame storage means 250 stores the maximum capacity again. In reality, the read sound frame is input into the reproduction frame accumulating unit 250 when the CPU functions as the reproduction frame input unit 240. The reproduction frame input unit 240 not only simply inputs the audio frame to the reproduction frame storage unit 250 but also if the reproduction frame storage unit 250 has no free space, the reproduction frame storage unit 250 displays the audio frame reading unit 200 and the additional information extraction / display unit 210. On the other hand, a message for interrupting the process is sent to control the input of the sound frame to the reproduction frame storage means 250.

一方、サウンドデバイス261は、再生フレーム蓄積手段250に蓄積された音響フレームのうち先頭の音響フレームを順次音響再生していく。この際、サウンドデバイス261は、1つの音響フレームの音響再生を終了する度に、音響フレーム読込手段200、付加情報抽出表示手段210、再生フレーム投入手段240に対して各処理の実行を許可するメッセージを送る。   On the other hand, the sound device 261 sequentially reproduces the first acoustic frame among the acoustic frames accumulated in the reproduction frame accumulation unit 250. At this time, each time the sound device 261 finishes the sound reproduction of one sound frame, the sound device 261 allows the sound frame reading means 200, the additional information extraction / display means 210, and the reproduction frame input means 240 to execute each process. Send.

ここで、上記再生装置における音響再生側、すなわち再生フレーム投入手段240、再生フレーム蓄積手段250、サウンドデバイスドライバ260の処理の概要を整理して図11のフローチャートに示す。まず、再生フレーム投入手段240が、再生フレーム蓄積手段250内に空いているバッファメモリが存在するかどうかを探索する(S601)。空いているバッファメモリが存在しない場合は、音響フレーム読込手段200に対して処理を中断するメッセージを送り、サウンドデバイス261からの再生終了メッセージの受信待ちとする(S602)。サウンドデバイスドライバ261からの再生終了メッセージがあった場合には、再生が終了した音響フレームを格納していたバッファメモリから削除して再生終了バッファを空きバッファに設定する(S603)。サウンドデバイス261からの再生終了メッセージは、同時に音響フレーム読込手段200、付加情報抽出表示手段210、再生フレーム投入手段240にも送信されるため、音響フレーム読込手段200、再生フレーム投入手段240が処理を再開する(S604)。続いて、空いているバッファメモリに音響フレームが格納される(S605)。一方、サウンドデバイス261では、常に、再生フレーム蓄積手段250内のバッファメモリを探索しており(S606)、音響フレームが存在する場合には、音響フレームを再生する(S607)。1つの音響フレームの再生を待ち(S608)、再生が終了したら、再生終了メッセージを音響フレーム読込手段200、再生フレーム投入手段240に送信する(S609)。   Here, the outline of the processing of the sound playback side in the playback apparatus, that is, the playback frame input means 240, the playback frame storage means 250, and the sound device driver 260 is organized and shown in the flowchart of FIG. First, the playback frame input means 240 searches for a free buffer memory in the playback frame storage means 250 (S601). If there is no vacant buffer memory, a message for interrupting the process is sent to the sound frame reading means 200 to wait for reception of a reproduction end message from the sound device 261 (S602). If there is a playback end message from the sound device driver 261, the playback end buffer is set as an empty buffer by deleting from the buffer memory storing the sound frame that has been played back (S603). Since the playback end message from the sound device 261 is simultaneously transmitted to the sound frame reading means 200, the additional information extraction / display means 210, and the playback frame input means 240, the sound frame reading means 200 and the playback frame input means 240 perform processing. The process is resumed (S604). Subsequently, the sound frame is stored in an empty buffer memory (S605). On the other hand, the sound device 261 always searches the buffer memory in the reproduction frame storage means 250 (S606), and when there is an acoustic frame, reproduces the acoustic frame (S607). Waiting for the reproduction of one acoustic frame (S608), when the reproduction is completed, a reproduction end message is transmitted to the acoustic frame reading means 200 and the reproduction frame input means 240 (S609).

図10に示した音響信号再生装置は、音響信号については、それが付加情報が埋め込まれているか否かに関わらず、同様に音響再生処理を行う。したがって、付加情報が埋め込まれていない音響信号もそのまま音響再生されることになる。音響信号のうち、左チャンネルの付加情報が埋め込まれている部分については、改変されている。しかし、高周波成分については、元の音響信号のままであるので、制作者の設定に基づいた種々な分布になる。また、上述のように、ステレオ音響信号を利用した場合には、左チャンネルにおいて変化させられた低周波成分は、上記〔数式3〕〜〔数式5〕の処理により必ず右チャンネルの低周波成分に付加されているので、両チャンネル全体として見ると、信号の劣化がない。そのため、通常の音響信号と変わりなく聴こえることになる。   The sound signal reproduction device shown in FIG. 10 performs sound reproduction processing on the sound signal in the same manner regardless of whether or not the additional information is embedded. Therefore, the sound signal in which the additional information is not embedded is also reproduced as it is. Of the acoustic signal, the portion in which the additional information of the left channel is embedded is modified. However, since the high frequency component remains the original acoustic signal, it has various distributions based on the setting of the producer. As described above, when a stereo sound signal is used, the low-frequency component changed in the left channel is always changed to the low-frequency component in the right channel by the processing of [Formula 3] to [Formula 5]. Since it is added, there is no signal degradation when viewed as both channels as a whole. Therefore, it can be heard as normal sound signals.

(9.モノラル音響信号の場合)
上記実施形態においては、埋め込み装置、抽出装置、再生装置のいずれにおいても、左右のチャンネルを有するステレオ音響信号の左チャンネル信号に付加情報を埋め込む場合を例にとって説明したが、逆に右チャンネル信号に付加情報を埋め込むようにしても良い。本発明は、左右の特性には無関係だからである。また、1つのチャンネルしかないモノラル音響信号に対して処理を行う場合は、上記実施形態において、左チャンネル信号に対して行った処理を行うことになる。本発明は、1つのチャンネル信号に対して付加情報を埋め込み、また抽出を行うので、モノラル音響信号であってもステレオ音響信号であっても同様に行うことができる。
(9. For monaural sound signals)
In the above embodiment, the case where the additional information is embedded in the left channel signal of the stereo sound signal having the left and right channels has been described as an example in any of the embedding device, the extraction device, and the playback device. Additional information may be embedded. This is because the present invention is independent of the left and right characteristics. Further, when processing is performed on a monaural sound signal having only one channel, the processing performed on the left channel signal in the above embodiment is performed. Since the present invention embeds and extracts additional information from one channel signal, the present invention can be similarly applied to a monaural sound signal or a stereo sound signal.

図12にステレオ音響信号とモノラル音響信号に対して、本発明により付加情報を埋め込む場合の概念図を示す。図12(a)はステレオ音響信号の場合、図12(b)はモノラル音響信号の場合である。なお、図12の例では、音響フレーム3つ分の低周波成分を波形で表現しており、埋め込むビット列は、付加情報中の“0”“1”の連続するビット列であり、間に区切りを挿入するものとしている。   FIG. 12 is a conceptual diagram when embedding additional information according to the present invention in a stereo sound signal and a monaural sound signal. FIG. 12A shows a stereo sound signal, and FIG. 12B shows a monaural sound signal. In the example of FIG. 12, the low-frequency component for three acoustic frames is represented by a waveform, and the bit string to be embedded is a continuous bit string of “0” and “1” in the additional information, with a break between them. It is supposed to be inserted.

ステレオ音響信号の場合、埋め込みは左チャンネル(L−ch)信号に対して行われる。図12(a)に示すように、周波数変換後、信号分離し、さらに、ビット埋め込み処理を行う。具体的には、〔数式3〕〜〔数式5〕の処理の結果、ビット埋め込みがなされることになる。ここで、上述のように、“0”を埋め込む場合は〔数式4〕、区切りモードである場合は〔数式3〕、“1”を埋め込む場合は〔数式5〕を用いる。したがって、ビット埋め込み処理後は、先頭(左端)の音響フレームは、第1低周波数帯の信号成分は0(図中、波形がないことで表現)、中央の音響フレームは、第0低周波数帯、第1低周波数帯、第2低周波数帯の信号成分は共に0、最後尾(右端)の音響フレームは、第2低周波数帯の信号成分は0となる。この際、〔数式3〕〜〔数式5〕の内容から明らかなように、左チャンネル信号の削除された信号成分は、右チャンネル(R−ch)信号に加算される。したがって、図12(a)の下段に示すように、右チャンネル信号の低周波成分は大きくなる。ビット埋め込み処理後は、高周波成分を含めて信号合成された後、周波数逆変換され、改変音響信号が得られることになる。   In the case of a stereo sound signal, embedding is performed on the left channel (L-ch) signal. As shown in FIG. 12A, after frequency conversion, signal separation is performed, and bit embedding processing is performed. Specifically, bit embedding is performed as a result of the processing of [Formula 3] to [Formula 5]. Here, as described above, [Equation 4] is used when embedding “0”, [Equation 3] when embedding mode is used, and [Equation 5] when embedding “1”. Therefore, after bit embedding processing, the first (leftmost) acoustic frame has a signal component of the first low frequency band of 0 (represented by no waveform in the figure), and the central acoustic frame has the 0th low frequency band. The signal components in the first low frequency band and the second low frequency band are both 0, and the signal component in the second low frequency band is 0 in the last (right end) acoustic frame. At this time, as is clear from the contents of [Equation 3] to [Equation 5], the signal component from which the left channel signal is deleted is added to the right channel (R-ch) signal. Therefore, as shown in the lower part of FIG. 12A, the low-frequency component of the right channel signal is increased. After bit embedding processing, signal synthesis including high frequency components is performed, and then frequency inverse conversion is performed to obtain a modified acoustic signal.

モノラル音響信号の場合、図12(b)に示すように処理が行われるが、図12(a)の上段と比較するとわかるように、ステレオ音響信号の左チャンネルと同様の処理が行われることになる。   In the case of a monaural sound signal, processing is performed as shown in FIG. 12B, but as can be seen from the upper part of FIG. 12A, processing similar to the left channel of the stereo sound signal is performed. Become.

(10.信号成分が小さくても情報の埋め込みを可能とする手法)
ここまで、説明してきた処理においては、第0低周波数帯、第1低周波数帯、第2低周波数帯に所定の大きさ以上の信号成分が存在していることが必要となり、第0低周波数帯、第1低周波数帯、第2低周波数帯のいずれかの信号成分が所定の大きさ以下の場合には、情報の埋め込みを行うことができない。そこで、以下、第0低周波数帯、第1低周波数帯、第2低周波数帯のいずれかの信号成分が所定の大きさ以下であっても、信号の埋め込みを可能とする手法について説明する。
(10. Method that enables information to be embedded even if the signal component is small)
In the processing described so far, it is necessary that a signal component having a predetermined size or more exists in the 0th low frequency band, the 1st low frequency band, and the 2nd low frequency band. If any of the signal components in the band, the first low frequency band, and the second low frequency band is equal to or smaller than a predetermined magnitude, information cannot be embedded. Therefore, hereinafter, a method for enabling signal embedding even when any of the signal components in the 0th low frequency band, the first low frequency band, and the second low frequency band is equal to or smaller than a predetermined magnitude will be described.

この場合、図1に示した埋め込み装置における情報の埋め込み処理は、図14のフローチャートに従って行われる。図14のフローチャートにおいて、図2のフローチャートと異なる点は、S705における周波数変換処理において低周波成分変更手段30がレベルの判定を行わず、さらに、S206に相当する区切りモードへの設定処理が存在しない点である。これは、図14に従った処理では、信号レベルが小さくても強制的に情報を埋め込むこととしているため、情報の埋め込みが不可能な信号レベルが小さい部分が存在するかどうかを判断し、区切りモードに設定する必要がないからである。   In this case, the information embedding process in the embedding apparatus shown in FIG. 1 is performed according to the flowchart of FIG. The flowchart of FIG. 14 differs from the flowchart of FIG. 2 in that the low-frequency component changing unit 30 does not determine the level in the frequency conversion process in S705, and there is no setting process for the separation mode corresponding to S206. Is a point. This is because the processing according to FIG. 14 forcibly embeds information even if the signal level is low. Therefore, it is determined whether there is a portion with a low signal level where information cannot be embedded. This is because it is not necessary to set the mode.

したがって、S706における第1低周波数帯、第2低周波数帯のいずれかを優位な状態に設定する処理としては、まず、以下の〔数式11〕に従って算出される固定値Vを、第0低周波数帯の強度として、上記合算値E1、E2に代えて設定する。 Therefore, as a process of setting one of the first low frequency band and the second low frequency band in S706 to be in an advantageous state, first, the fixed value V calculated according to the following [Equation 11] is set to the 0th low frequency band. The band strength is set in place of the combined values E 1 and E 2 .

〔数式11〕
V={0.5・Lev/(2M−4)}1/2
[Formula 11]
V = {0.5 · Lev / (2M−4)} 1/2

そして、第1の値を1、第2の値を0とした場合、ビット値が1のとき、上記〔数式4〕に従った処理を実行した後、以下の〔数式12〕に従った処理を実行する。   When the first value is 1 and the second value is 0, when the bit value is 1, the process according to the above [Equation 4] is executed and then the process according to the following [Equation 12] Execute.

〔数式12〕
j=2〜M−1、2M+2〜3M−1の各成分に対して
Al´(j)=Al(j)・V/{Ar(j)2+Br(j)21/2
Bl´(j)=Bl(j)・V/{Ar(j)2+Br(j)21/2
[Formula 12]
For each component of j = 2 to M−1, 2M + 2 to 3M−1, Al ′ (j) = Al (j) · V / {Ar (j) 2 + Br (j) 2 } 1/2
Bl ′ (j) = Bl (j) · V / {Ar (j) 2 + Br (j) 2 } 1/2

ビット値が0の場合、上記〔数式5〕に従った処理を実行した後、以下の〔数式13〕に従った処理を実行する。   When the bit value is 0, the process according to the above [Equation 5] is executed, and then the process according to the following [Equation 13] is executed.

〔数式13〕
j=2〜M−1、M+2〜2M−1の各成分に対して
Al´(j)=Al(j)・V/{Ar(j)2+Br(j)21/2
Bl´(j)=Bl(j)・V/{Ar(j)2+Br(j)21/2
[Formula 13]
For each component of j = 2 to M−1 and M + 2 to 2M−1, Al ′ (j) = Al (j) · V / {Ar (j) 2 + Br (j) 2 } 1/2
Bl ′ (j) = Bl (j) · V / {Ar (j) 2 + Br (j) 2 } 1/2

S706における上記処理を行った後、周波数逆変換処理(S708)以降の処理は、図2に示したS209以降の処理と同様にして行われる。   After performing the above processing in S706, the processing after the frequency inverse transformation processing (S708) is performed in the same manner as the processing after S209 shown in FIG.

上記のように、周波数成分が小さい場合に情報を埋め込んだ場合であっても、抽出側の、音響信号からの情報の抽出装置の構成は図6と同一であり、処理動作は図7のフローチャートに従ったものと同一である。また、音響信号再生装置の構成も図10と同一であり、処理動作は図11のフローチャートに従ったものと同一である。   As described above, even when information is embedded when the frequency component is small, the configuration of the extraction device for extracting information from the acoustic signal on the extraction side is the same as that in FIG. 6, and the processing operation is the flowchart in FIG. Is the same as Further, the configuration of the acoustic signal reproducing apparatus is the same as that of FIG. 10, and the processing operation is the same as that according to the flowchart of FIG.

図15にステレオ音響信号とモノラル音響信号に対して、信号成分が小さい場合に、付加情報を埋め込む場合の概念図を示す。図15(a)はステレオ音響信号の場合、図15(b)はモノラル音響信号の場合である。なお、図15の例では、図12の場合と同様に、音響フレーム3つ分の低周波成分を波形で表現しており、埋め込むビット列は、付加情報中の“0”“1”の連続するビット列であり、間に区切りを挿入するものとしている。   FIG. 15 shows a conceptual diagram when additional information is embedded when a signal component is small with respect to a stereo sound signal and a monaural sound signal. FIG. 15A shows a stereo sound signal, and FIG. 15B shows a monaural sound signal. In the example of FIG. 15, as in the case of FIG. 12, low-frequency components for three acoustic frames are represented by waveforms, and the embedded bit string is a series of “0” and “1” in the additional information. It is a bit string, and a break is inserted between them.

図15において、図12の場合と異なるのは、元の信号成分が小さい点である。図15(a)に示す例のように、信号分離後の段階では、第1低周波成分、第2低周波成分の値が小さい場合であっても、上記〔数式11〕〜〔数式13〕の処理に従ってビット埋め込みを行うことにより、図12と同様な信号成分を有することとなる。   FIG. 15 is different from FIG. 12 in that the original signal component is small. As in the example shown in FIG. 15A, in the stage after the signal separation, even if the values of the first low frequency component and the second low frequency component are small, the above [Formula 11] to [Formula 13]. By performing bit embedding according to the above process, signal components similar to those in FIG. 12 are obtained.

モノラル音響信号の場合、図15(b)に示すように処理が行われるが、図15(a)の上段と比較するとわかるように、ステレオ音響信号の左チャンネルと同様の処理が行われることになる。   In the case of a monaural sound signal, processing is performed as shown in FIG. 15B. As can be seen from the upper part of FIG. 15A, processing similar to that for the left channel of a stereo sound signal is performed. Become.

音響信号に対する情報の埋め込み装置の機能ブロック図である。It is a functional block diagram of an information embedding device for an acoustic signal. 図1に示した装置の処理概要を示すフローチャートである。It is a flowchart which shows the process outline | summary of the apparatus shown in FIG. 図2に従った処理による低周波成分の変化の様子を示すである。FIG. 3 shows how a low-frequency component is changed by processing according to FIG. 2. 図1に示した装置の他の手法による処理概要を示すフローチャートである。It is a flowchart which shows the process outline | summary by the other method of the apparatus shown in FIG. 図4に従った処理による低周波成分の変化の様子を示すである。FIG. 5 shows how the low frequency component changes due to the processing according to FIG. 4. FIG. 本発明に係る音響信号からの情報の抽出装置の機能ブロック図である。1 is a functional block diagram of an apparatus for extracting information from an acoustic signal according to the present invention. 図6に示した装置の処理概要を示すフローチャートである。It is a flowchart which shows the process outline | summary of the apparatus shown in FIG. 図7のS302の符号判定処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the code | symbol determination process of S302 of FIG. 図6に示した装置の他の手法による処理概要を示すフローチャートである。It is a flowchart which shows the process outline | summary by the other method of the apparatus shown in FIG. 本発明に係る音響信号再生装置の機能ブロック図である。It is a functional block diagram of the acoustic signal reproducing device according to the present invention. 図10に示した装置の処理概要を示すフローチャートである。It is a flowchart which shows the process outline | summary of the apparatus shown in FIG. 本発明による付加情報の埋め込み処理の概念図である。It is a conceptual diagram of the embedding process of the additional information by this invention. 低周波成分変更手段30の処理後の、左チャンネル信号の第0低周波成分、第1低周波成分、第2低周波成分の状態を模式的に示した図である。It is the figure which showed typically the state of the 0th low frequency component of the left channel signal after a process of the low frequency component change means 30, a 1st low frequency component, and a 2nd low frequency component. 図1に示した装置において、元の信号成分が小さくても情報の埋め込みを可能とする場合の処理概要を示すフローチャートである。FIG. 2 is a flowchart showing an outline of processing when information can be embedded even if the original signal component is small in the apparatus shown in FIG. 1. 元の信号成分が小さい場合の、付加情報の埋め込み処理の概念図である。It is a conceptual diagram of an additional information embedding process when the original signal component is small.

符号の説明Explanation of symbols

10・・・音響フレーム読込手段
20・・・周波数変換手段
30・・・低周波成分変更手段
40・・・周波数逆変換手段
50・・・改変音響フレーム出力手段
60・・・記憶手段
61・・・音響信号記憶部
62・・・付加情報記憶部
63・・・改変音響信号記憶部
70・・・付加情報読込手段
100・・・音響信号入力手段
110・・・基準フレーム獲得手段
120・・・位相変更フレーム設定手段
130・・・周波数変換手段
140・・・符号判定パラメータ算出手段
150・・・符号出力手段
160・・・付加情報抽出手段
170・・・音響フレーム保持手段
200・・・音響フレーム読込手段
210・・・付加情報抽出表示手段
240・・・再生フレーム投入手段
250・・・再生フレーム蓄積手段
260・・・サウンドデバイスドライバ
261・・・サウンドデバイス
262・・・タイマー


DESCRIPTION OF SYMBOLS 10 ... Sound frame reading means 20 ... Frequency conversion means 30 ... Low frequency component change means 40 ... Frequency reverse conversion means 50 ... Modified sound frame output means 60 ... Storage means 61 ... -Acoustic signal storage unit 62 ... Additional information storage unit 63 ... Modified acoustic signal storage unit 70 ... Additional information reading means 100 ... Acoustic signal input means 110 ... Reference frame acquisition means 120 ... Phase change frame setting means 130: Frequency conversion means 140 ... Code determination parameter calculation means 150 ... Code output means 160 ... Additional information extraction means 170 ... Acoustic frame holding means 200 ... Acoustic frame Reading means 210... Additional information extraction and display means 240... Playback frame input means 250... Playback frame storage means 260. Device driver 261 ... Sound device 262 ... Timer


Claims (14)

時系列のサンプル列で構成される音響信号に対して、付加情報を聴取不能な状態で埋め込む装置であって、
前記音響信号より、所定数のサンプルを音響フレームとして読み込む音響フレーム読込手段と、
前記音響フレームに対して周波数変換を行い、フレームスペクトルを生成する周波数変換手段と、
前記生成されたフレームスペクトルから、互いに重複しない3つの所定周波数範囲である第0低周波数帯、第1低周波数帯、第2低周波数帯を間隔を空けて設定し、前記各低周波数帯に対応するスペクトル集合をそれぞれ抽出し、前記埋め込むべき付加情報の情報配列の値に基づいて、前記抽出した3セットのスペクトル集合のうち、最も高い周波数範囲である第2低周波数帯と2番目に高い周波数範囲である第1低周波数帯間のスペクトル強度の割合を変更すると共に、最も低い周波数範囲である第0低周波数帯のスペクトル集合には、情報の埋め込みの有無を示す変更を行う低周波成分変更手段と、
前記変更されたスペクトル強度を含むフレームスペクトルに対して周波数逆変換を行い、改変音響フレームを生成する周波数逆変換手段と、
前記生成された改変音響フレームを順次出力する改変音響フレーム出力手段と、
を有することを特徴とする音響信号に対する情報の埋め込み装置。
A device for embedding additional information in an inaudible state with respect to an acoustic signal composed of a time-series sample sequence,
From the acoustic signal, acoustic frame reading means for reading a predetermined number of samples as an acoustic frame;
Frequency conversion means for performing frequency conversion on the acoustic frame and generating a frame spectrum;
From the generated frame spectrum, zero-frequency band, first low-frequency band, and second low-frequency band, which are three predetermined frequency ranges that do not overlap each other, are set at intervals, and each low-frequency band is supported. Each of the spectrum sets to be extracted, and based on the value of the information array of the additional information to be embedded, the second low frequency band that is the highest frequency range and the second highest frequency among the extracted three sets of spectrum sets Change the ratio of the spectral intensity between the first low frequency bands that are the range, and change the low frequency component that changes whether or not information is embedded in the spectrum set of the zeroth low frequency band that is the lowest frequency range Means,
Frequency inverse transform means for performing frequency inverse transform on the frame spectrum including the changed spectrum intensity and generating a modified acoustic frame;
Modified acoustic frame output means for sequentially outputting the generated modified acoustic frames;
An information embedding device for an acoustic signal, comprising:
請求項1において、
前記低周波成分変更手段は、所定の固定値Vを、第0低周波数帯の強度として、設定すると共に、前記固定値Vを利用して、第1低周波数帯、第2低周波数帯に所定の強度を与えることにより、前記第2低周波数帯と前記第1低周波数帯間のスペクトル強度の割合を変更するものであることを特徴とする音響信号に対する情報の埋め込み装置。
In claim 1,
The low frequency component changing means sets a predetermined fixed value V as the intensity of the zeroth low frequency band and uses the fixed value V to set the predetermined low value to the first low frequency band and the second low frequency band. A device for embedding information in an acoustic signal is characterized in that the ratio of the spectral intensity between the second low frequency band and the first low frequency band is changed by giving the intensity.
請求項1または請求項2において、
前記音響フレーム読込手段は、隣接する音響フレームと所定数のサンプルを重複させて読み込み、読み込んだ音響フレーム全体に所定の窓関数を乗じて前記周波数変換手段に渡すものであり、
前記改変音響フレーム出力手段は、前記生成された改変音響フレームを隣接する改変音響フレームと連結させて出力するものであることを特徴とする音響信号に対する情報の埋め込み装置。
In claim 1 or claim 2,
The acoustic frame reading means reads an adjacent acoustic frame and a predetermined number of samples in an overlapping manner, multiplies the entire read acoustic frame by a predetermined window function, and passes it to the frequency conversion means,
The apparatus for embedding information in an acoustic signal, wherein the modified acoustic frame output means is configured to output the generated modified acoustic frame by connecting it to an adjacent modified acoustic frame.
請求項1から請求項3のいずれかにおいて、
前記低周波成分変更手段は、前記第0低周波数帯、第1低周波数帯、第2低周波数帯を200Hz以下の低周波領域に設定するものであることを特徴とする音響信号に対する情報の埋め込み装置。
In any one of Claims 1-3,
The low frequency component changing means sets the zeroth low frequency band, the first low frequency band, and the second low frequency band in a low frequency region of 200 Hz or less, and embeds information in an acoustic signal apparatus.
請求項1において、
前記音響信号が左右2チャンネルの時系列のサンプル列で構成されるステレオ音響信号であって、
前記音響フレーム読込手段は、各チャンネルに対応する音響フレームをそれぞれ読み込み、前記周波数変換手段は、各チャンネルの音響フレームに対して周波数変換を行い、各チャンネル別のフレームスペクトルを生成するものであり、
前記低周波成分変更手段は、一方のチャンネルのフレームスペクトルから抽出した3セットのスペクトル集合に対して、前記埋め込むべき付加情報の情報配列の値に基づいて、前記スペクトル強度の前記スペクトル集合間の割合を変更すると共に、他方のチャンネルからも3つの対応する周波数範囲のスペクトル集合を3セット抽出し、前記一方のチャンネルにおいて行われた変更により削除された成分を補足するよう前記スペクトル強度の前記スペクトル集合間の割合を変更するものであり、
前記周波数逆変換手段は、各チャンネルについて、変更されたスペクトル強度を含むフレームスペクトルに対して周波数逆変換を行って改変音響フレームを生成し、前記改変音響フレーム出力手段は、各チャンネルについて、生成された改変音響フレームを順次出力するものであることを特徴とする音響信号に対する情報の埋め込み装置。
In claim 1,
The acoustic signal is a stereo acoustic signal composed of a time-series sample sequence of two left and right channels,
The acoustic frame reading unit reads an acoustic frame corresponding to each channel, and the frequency conversion unit performs frequency conversion on the acoustic frame of each channel to generate a frame spectrum for each channel.
The low frequency component changing means is configured such that, for three sets of spectrum sets extracted from the frame spectrum of one channel, the ratio of the spectrum intensity between the spectrum sets based on the value of the information array of the additional information to be embedded. And three sets of spectrum sets of three corresponding frequency ranges are extracted from the other channel, and the spectrum set of the spectrum intensity is supplemented with the components deleted by the change made in the one channel. Is to change the ratio between
The frequency inverse transform means generates a modified acoustic frame by performing frequency inverse transform on the frame spectrum including the changed spectrum intensity for each channel, and the modified acoustic frame output means is generated for each channel. A device for embedding information in an acoustic signal, wherein the modified acoustic frames are sequentially output.
時系列のサンプル列で構成される音響信号に対して、付加情報を聴取不能な状態で埋め込む方法であって、
前記音響信号より、所定数のサンプルを音響フレームとして読み込む音響フレーム読込段階と、
前記音響フレームに対して周波数変換を行い、フレームスペクトルを生成する周波数変換段階と、
前記生成されたフレームスペクトルから、互いに重複しない3つの所定周波数範囲である第0低周波数帯、第1低周波数帯、第2低周波数帯を間隔を空けて設定し、前記各低周波数帯に対応するスペクトル集合をそれぞれ抽出し、前記埋め込むべき付加情報の情報配列の値に基づいて、前記抽出した3セットのスペクトル集合のうち、最も高い周波数範囲である第2低周波数帯と2番目に高い周波数範囲である第1低周波数帯間のスペクトル強度の割合を変更すると共に、最も低い周波数範囲である第0低周波数帯のスペクトル集合には、情報の埋め込みの有無を示す変更を行う低周波成分変更段階と、
前記変更されたスペクトル強度を含むフレームスペクトルに対して周波数逆変換を行い、改変音響フレームを生成する周波数逆変換段階と、
前記生成された改変音響フレームを順次出力する改変音響フレーム出力段階と、
を有することを特徴とする音響信号に対する情報の埋め込み方法。
A method of embedding additional information in an inaudible state for an acoustic signal composed of a time-series sample sequence,
From the acoustic signal, an acoustic frame reading stage for reading a predetermined number of samples as an acoustic frame;
Performing a frequency conversion on the acoustic frame to generate a frame spectrum; and
From the generated frame spectrum, zero-frequency band, first low-frequency band, and second low-frequency band, which are three predetermined frequency ranges that do not overlap each other, are set at intervals, and each low-frequency band is supported. Each of the spectrum sets to be extracted, and based on the value of the information array of the additional information to be embedded, the second low frequency band that is the highest frequency range and the second highest frequency among the extracted three sets of spectrum sets Change the ratio of the spectral intensity between the first low frequency bands that are the range, and change the low frequency component that changes whether or not information is embedded in the spectrum set of the zeroth low frequency band that is the lowest frequency range Stages,
Performing a frequency inverse transform on the frame spectrum including the changed spectral intensity to generate a modified acoustic frame; and
A modified sound frame output step of sequentially outputting the generated modified sound frames;
A method for embedding information in an acoustic signal, comprising:
時系列のサンプル列で構成される音響信号に対して、付加情報を聴取不能な状態で埋め込む装置としてコンピュータを機能させるプログラムであって、
コンピュータを、前記音響信号より、所定数のサンプルを音響フレームとして読み込む音響フレーム読込手段、
前記音響フレームに対して周波数変換を行い、フレームスペクトルを生成する周波数変換手段、
前記生成されたフレームスペクトルから、互いに重複しない3つの所定周波数範囲である第0低周波数帯、第1低周波数帯、第2低周波数帯を間隔を空けて設定し、前記各低周波数帯に対応するスペクトル集合をそれぞれ抽出し、前記埋め込むべき付加情報の情報配列の値に基づいて、前記抽出した3セットのスペクトル集合のうち、最も高い周波数範囲である第2低周波数帯と2番目に高い周波数範囲である第1低周波数帯間のスペクトル強度の割合を変更すると共に、最も低い周波数範囲である第0低周波数帯のスペクトル集合には、情報の埋め込みの有無を示す変更を行う低周波成分変更手段、
前記変更されたスペクトル強度を含むフレームスペクトルに対して周波数逆変換を行い、改変音響フレームを生成する周波数逆変換手段、
前記生成された改変音響フレームを順次出力する改変音響フレーム出力手段、
として機能させるためのプログラム。
A program that causes a computer to function as an apparatus for embedding additional information in an inaudible state with respect to an acoustic signal composed of a time-series sample sequence,
An acoustic frame reading means for reading a predetermined number of samples as an acoustic frame from the acoustic signal,
Frequency conversion means for performing frequency conversion on the acoustic frame and generating a frame spectrum;
From the generated frame spectrum, zero-frequency band, first low-frequency band, and second low-frequency band, which are three predetermined frequency ranges that do not overlap each other, are set at intervals, and each low-frequency band is supported. Each of the spectrum sets to be extracted, and based on the value of the information array of the additional information to be embedded, the second low frequency band that is the highest frequency range and the second highest frequency among the extracted three sets of spectrum sets Change the ratio of the spectral intensity between the first low frequency bands that are the range, and change the low frequency component that changes whether or not information is embedded in the spectrum set of the zeroth low frequency band that is the lowest frequency range means,
Frequency inverse transform means for performing frequency inverse transform on the frame spectrum including the changed spectrum intensity and generating a modified acoustic frame;
Modified acoustic frame output means for sequentially outputting the generated modified acoustic frames;
Program to function as.
音響信号から、あらかじめ聴取不能な状態で埋め込まれた付加情報を抽出する装置であって、
前記音響信号の所定の区間をデジタル化して、所定数のサンプルで構成される音響フレームを獲得する音響フレーム獲得手段と、
前記音響フレームに対して周波数変換を行い、フレームスペクトルを生成する周波数変換手段と、
前記生成されたフレームスペクトルから3つの所定周波数範囲のスペクトル集合を3セット抽出し、各スペクトル集合ごとにスペクトル強度の総和値を算出し、その総和値のスペクトル集合間の割合に基づいて、所定の符号を出力する符号化手段と、
前記出力された符号に対応する情報配列を、所定の規則により変換して付加情報を抽出する付加情報抽出手段と、
を有することを特徴とする音響信号からの情報の抽出装置。
An apparatus for extracting additional information embedded in an inaudible state in advance from an acoustic signal,
An acoustic frame acquisition means for digitizing a predetermined section of the acoustic signal and acquiring an acoustic frame composed of a predetermined number of samples;
Frequency conversion means for performing frequency conversion on the acoustic frame and generating a frame spectrum;
Three sets of spectrum sets in three predetermined frequency ranges are extracted from the generated frame spectrum, a total value of spectrum intensities is calculated for each spectrum set, and a predetermined value is calculated based on a ratio between the spectrum sets of the total value. Encoding means for outputting a code;
Additional information extracting means for extracting the additional information by converting the information array corresponding to the output code according to a predetermined rule;
An apparatus for extracting information from an acoustic signal, comprising:
請求項8において、
前記音響フレーム獲得手段は、前記音響信号から、所定数のサンプルで構成される音響フレームを基準フレームとして獲得する基準フレーム獲得手段と、前記基準フレームと所定サンプルずつ移動させることにより位相を変更して設定される複数の音響フレームを位相変更フレームとして設定する位相変更フレーム設定手段により構成され、
前記符号化手段は、前記抽出したスペクトル集合に基づいて、符号判定パラメータを算出する符号判定パラメータ算出手段と、基準フレームが異なる過去の同位相の音響フレームにおいて算出された符号判定パラメータに基づいて、前記基準フレームおよび複数の位相変更フレームのうち1つの音響フレームを位相が最適なものであると判断し、当該最適な位相の音響フレームについて判断された前記符号判定パラメータに基づいて、所定の符号を出力する符号出力手段を有するものであることを特徴とする音響信号からの情報の抽出装置。
In claim 8,
The acoustic frame acquisition means changes a phase by moving a reference frame and a predetermined sample from a reference frame acquisition means for acquiring an acoustic frame composed of a predetermined number of samples as a reference frame from the acoustic signal. It is constituted by phase change frame setting means for setting a plurality of set sound frames as phase change frames,
The encoding means is based on the code determination parameter calculation means for calculating a code determination parameter based on the extracted spectrum set, and on the code determination parameter calculated in a past in-phase acoustic frame having a different reference frame, It is determined that one of the reference frame and the plurality of phase change frames has an optimal phase, and a predetermined code is determined based on the code determination parameter determined for the acoustic frame having the optimal phase. An apparatus for extracting information from an acoustic signal, characterized by comprising code output means for outputting.
音響信号から、あらかじめ聴取不能な状態で埋め込まれた付加情報を抽出する方法であって、
前記音響信号の所定の区間をデジタル化して、所定数のサンプルで構成される音響フレームを獲得する音響フレーム獲得段階と、
前記音響フレームに対して周波数変換を行い、フレームスペクトルを生成する周波数変換段階と、
前記生成されたフレームスペクトルから3つの所定周波数範囲のスペクトル集合を3セット抽出し、各スペクトル集合ごとにスペクトル強度の総和値を算出し、その総和値のスペクトル集合間の割合に基づいて、所定の符号を出力する符号化段階と、
前記出力された符号に対応する情報配列を、所定の規則により変換して付加情報を抽出する付加情報抽出段階と、
を有することを特徴とする音響信号からの情報の抽出方法。
A method for extracting additional information embedded in an inaudible state in advance from an acoustic signal,
An acoustic frame acquisition step of digitizing a predetermined section of the acoustic signal to acquire an acoustic frame composed of a predetermined number of samples;
Performing a frequency conversion on the acoustic frame to generate a frame spectrum; and
Three sets of spectrum sets in three predetermined frequency ranges are extracted from the generated frame spectrum, a total value of spectrum intensities is calculated for each spectrum set, and a predetermined value is calculated based on a ratio between the spectrum sets of the total value. An encoding stage for outputting a code;
An additional information extraction step of extracting the additional information by converting the information array corresponding to the output code according to a predetermined rule;
A method for extracting information from an acoustic signal.
音響信号から、あらかじめ聴取不能な状態で埋め込まれた付加情報を抽出する装置としてコンピュータを機能させるプログラムであって、
コンピュータを、前記音響信号の所定の区間をデジタル化して、所定数のサンプルで構成される音響フレームを獲得する音響フレーム獲得手段、
前記音響フレームに対して周波数変換を行い、フレームスペクトルを生成する周波数変換手段、
前記生成されたフレームスペクトルから3つの所定周波数範囲のスペクトル集合を3セット抽出し、各スペクトル集合ごとにスペクトル強度の総和値を算出し、その総和値のスペクトル集合間の割合に基づいて、所定の符号を出力する符号化手段、
前記出力された符号に対応する情報配列を、所定の規則により変換して付加情報を抽出する付加情報抽出手段、
として機能させるためのプログラム。
A program that causes a computer to function as an apparatus that extracts additional information embedded in an inaudible state in advance from an acoustic signal,
An acoustic frame acquisition means for digitizing a predetermined section of the acoustic signal and acquiring an acoustic frame composed of a predetermined number of samples;
Frequency conversion means for performing frequency conversion on the acoustic frame and generating a frame spectrum;
Three sets of spectrum sets in three predetermined frequency ranges are extracted from the generated frame spectrum, a total value of spectrum intensities is calculated for each spectrum set, and a predetermined value is calculated based on a ratio between the spectrum sets of the total value. Encoding means for outputting a code;
Additional information extracting means for extracting the additional information by converting the information array corresponding to the output code according to a predetermined rule;
Program to function as.
音響信号から、あらかじめ聴取不能な状態で埋め込まれた付加情報を抽出しながら音響再生する装置であって、
前記音響信号より、所定数のサンプルを音響フレームとして読み込む音響フレーム読込手段と、
前記読み込んだ音響フレームに対して周波数変換を行い、フレームスペクトルを生成する周波数変換手段と、
前記生成されたフレームスペクトルから3つの所定周波数範囲のスペクトル集合を3セット抽出し、各スペクトル集合ごとにスペクトル強度の総和値を算出し、その総和値のスペクトル集合間の割合に基づいて、所定の符号を出力する符号化手段と、
前記出力された符号に対応する情報配列を、付加情報に変換して表示出力する付加情報表示手段と、
前記音響フレームを2つ以上蓄積する再生フレーム蓄積手段と、
前記音響フレーム読込手段により読み込まれた音響フレームを前記再生フレーム蓄積手段に投入する再生フレーム投入手段と、
前記再生フレーム蓄積手段内に存在する音響フレームのうち最初に投入された音響フレームを音響再生し、再生終了後に当該音響フレームを前記再生フレーム蓄積手段から削除させることで、新規に音響フレームを投入できる余地を前記再生フレーム蓄積手段に設けるとともに、次に蓄積されている音響フレームが存在する場合に、前記最初に投入された音響フレームに連続して次の音響フレームを音響再生する音響フレーム再生手段と、
を備えていることを特徴とする音響信号再生装置。
A device that reproduces sound while extracting additional information embedded in an inaudible state in advance from an acoustic signal,
From the acoustic signal, acoustic frame reading means for reading a predetermined number of samples as an acoustic frame;
Frequency conversion means for performing frequency conversion on the read sound frame and generating a frame spectrum;
Three sets of spectrum sets in three predetermined frequency ranges are extracted from the generated frame spectrum, a total value of spectrum intensities is calculated for each spectrum set, and a predetermined value is calculated based on a ratio between the spectrum sets of the total value. Encoding means for outputting a code;
Additional information display means for converting the information array corresponding to the outputted code into additional information for display output;
Reproduction frame storage means for storing two or more of the acoustic frames;
Reproduction frame input means for inputting the sound frame read by the sound frame reading means to the reproduction frame storage means;
A new sound frame can be inserted by sound-reproducing the first input sound frame among the sound frames existing in the playback frame storage means and deleting the sound frame from the playback frame storage means after the end of playback. Acoustic frame reproduction means for providing a room for the reproduction frame accumulation means and, when there is a next accumulated acoustic frame, for acoustic reproduction of the next acoustic frame in succession to the first input acoustic frame; ,
An acoustic signal reproducing device comprising:
音響信号から、あらかじめ聴取不能な状態で埋め込まれた付加情報を抽出しながら音響再生する方法であって、
前記音響信号より、所定数のサンプルを音響フレームとして読み込む音響フレーム読込段階と、
前記読み込んだ音響フレームに対して周波数変換を行い、フレームスペクトルを生成する周波数変換段階と、
前記生成されたフレームスペクトルから3つの所定周波数範囲のスペクトル集合を3セット抽出し、各スペクトル集合ごとにスペクトル強度の総和値を算出し、その総和値のスペクトル集合間の割合に基づいて、所定の符号を出力する符号化手段と、
前記出力された符号に対応する情報配列を、付加情報に変換して表示出力する付加情報表示段階と、
前記音響フレーム読込段階において読み込まれた音響フレームを、音響フレームを2つ以上蓄積する再生フレーム蓄積手段に、投入する再生フレーム投入段階と、
前記再生フレーム蓄積手段内に存在する音響フレームのうち最初に投入された音響フレームを音響再生し、再生終了後に当該音響フレームを前記再生フレーム蓄積手段から削除させることで、新規に音響フレームを投入できる余地を前記再生フレーム蓄積手段に設けるとともに、次に蓄積されている音響フレームが存在する場合に、前記最初に投入された音響フレームに連続して次の音響フレームを音響再生する音響フレーム再生段階と、
を備えていることを特徴とする音響信号再生方法。
A method of reproducing sound while extracting additional information embedded in an inaudible state in advance from an acoustic signal,
From the acoustic signal, an acoustic frame reading stage for reading a predetermined number of samples as an acoustic frame;
Performing a frequency conversion on the read sound frame to generate a frame spectrum; and
Three sets of spectrum sets in three predetermined frequency ranges are extracted from the generated frame spectrum, a total value of spectrum intensities is calculated for each spectrum set, and a predetermined value is calculated based on a ratio between the spectrum sets of the total value. Encoding means for outputting a code;
An additional information display step of converting the information array corresponding to the outputted code into additional information and displaying it;
A reproduction frame input step of inputting the sound frame read in the sound frame reading step into a reproduction frame storage means for storing two or more sound frames;
A new sound frame can be inserted by sound-reproducing the first input sound frame among the sound frames existing in the playback frame storage means and deleting the sound frame from the playback frame storage means after the end of playback. An acoustic frame reproduction step of providing a room for the reproduction frame storage means and, when there is a next stored acoustic frame, acoustically reproducing the next acoustic frame in succession to the first input acoustic frame; ,
An acoustic signal reproducing method comprising:
コンピュータを、音響信号から、あらかじめ聴取不能な状態で埋め込まれた付加情報を抽出しながら音響再生する装置として機能させるプログラムであって、
コンピュータを、前記音響信号より、所定数のサンプルを音響フレームとして読み込む音響フレーム読込手段、
前記読み込んだ音響フレームに対して周波数変換を行い、フレームスペクトルを生成する周波数変換手段、
前記生成されたフレームスペクトルから3つの所定周波数範囲のスペクトル集合を3セット抽出し、各スペクトル集合ごとにスペクトル強度の総和値を算出し、その総和値のスペクトル集合間の割合に基づいて、所定の符号を出力する符号化手段、
前記出力された符号に対応する情報配列を、付加情報に変換して表示出力する付加情報表示手段、
前記音響フレームを2つ以上蓄積する再生フレーム蓄積手段、
前記音響フレーム読込手段により読み込まれた音響フレームを前記再生フレーム蓄積手段に投入する再生フレーム投入手段、
前記再生フレーム蓄積手段内に存在する音響フレームのうち最初に投入された音響フレームを音響再生し、再生終了後に当該音響フレームを前記再生フレーム蓄積手段から削除させることで、新規に音響フレームを投入できる余地を前記再生フレーム蓄積手段に設けるとともに、次に蓄積されている音響フレームが存在する場合に、前記最初に投入された音響フレームに連続して次の音響フレームを音響再生する音響フレーム再生手段、
として機能させるプログラム。

A program for causing a computer to function as an apparatus for reproducing sound while extracting additional information embedded in an inaudible state in advance from an acoustic signal,
An acoustic frame reading means for reading a predetermined number of samples as an acoustic frame from the acoustic signal,
Frequency conversion means for performing frequency conversion on the read sound frame and generating a frame spectrum,
Three sets of spectrum sets in three predetermined frequency ranges are extracted from the generated frame spectrum, a total value of spectrum intensities is calculated for each spectrum set, and a predetermined value is calculated based on a ratio between the spectrum sets of the total value. Encoding means for outputting a code;
Additional information display means for converting the information array corresponding to the outputted code into additional information for display output;
Reproduction frame storage means for storing two or more of the acoustic frames;
Reproduction frame input means for inputting the audio frame read by the audio frame reading means to the reproduction frame storage means;
A new sound frame can be inserted by sound-reproducing the first input sound frame among the sound frames existing in the playback frame storage means and deleting the sound frame from the playback frame storage means after the end of playback. An acoustic frame reproducing unit that provides a room for the reproduced frame accumulating unit and that reproduces the next acoustic frame in succession to the first input acoustic frame when the next accumulated acoustic frame exists.
Program to function as.

JP2005146872A 2005-05-19 2005-05-19 Information embedding apparatus and method for acoustic signal Expired - Fee Related JP4629495B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005146872A JP4629495B2 (en) 2005-05-19 2005-05-19 Information embedding apparatus and method for acoustic signal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005146872A JP4629495B2 (en) 2005-05-19 2005-05-19 Information embedding apparatus and method for acoustic signal

Publications (2)

Publication Number Publication Date
JP2006323182A true JP2006323182A (en) 2006-11-30
JP4629495B2 JP4629495B2 (en) 2011-02-09

Family

ID=37542907

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005146872A Expired - Fee Related JP4629495B2 (en) 2005-05-19 2005-05-19 Information embedding apparatus and method for acoustic signal

Country Status (1)

Country Link
JP (1) JP4629495B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008216594A (en) * 2007-03-02 2008-09-18 Dainippon Printing Co Ltd Device for embedding information to sound signal, and device for extracting information from sound signal
JP2008242017A (en) * 2007-03-27 2008-10-09 Dainippon Printing Co Ltd Device for embedding information in sound signal and device for extracting information from sound signal
JP2008256948A (en) * 2007-04-05 2008-10-23 Dainippon Printing Co Ltd Device for embedding information in sound signal and device for extracting information from sound signal
JP2009075294A (en) * 2007-09-20 2009-04-09 Dainippon Printing Co Ltd Device for embedding information to sound signal, and device for extracting information from sound signal
JP2010197862A (en) * 2009-02-26 2010-09-09 Toshiba Corp Signal bandwidth expanding apparatus
JP2013141054A (en) * 2011-12-28 2013-07-18 Spotlight Inc Beacon and ultrasonic communication system using mobile terminal
JPWO2014104285A1 (en) * 2012-12-28 2017-01-19 株式会社スポットライト Ultrasonic communication system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000083014A (en) * 1998-09-04 2000-03-21 Nippon Telegr & Teleph Corp <Ntt> Information multiplexing method and method and device for extracting information
JP2000138819A (en) * 1998-10-30 2000-05-16 Canon Inc Method and device for inserting and detecting of electronic watermarks
WO2000057399A1 (en) * 1999-03-19 2000-09-28 Sony Corporation Additional information embedding method and its device, and additional information decoding method and its decoding device
JP2001148670A (en) * 1999-11-19 2001-05-29 Nippon Telegr & Teleph Corp <Ntt> Method and device for transmitting acoustic signal
JP2002044408A (en) * 2000-06-29 2002-02-08 Internatl Business Mach Corp <Ibm> Method and system of digital watermark

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000083014A (en) * 1998-09-04 2000-03-21 Nippon Telegr & Teleph Corp <Ntt> Information multiplexing method and method and device for extracting information
JP2000138819A (en) * 1998-10-30 2000-05-16 Canon Inc Method and device for inserting and detecting of electronic watermarks
WO2000057399A1 (en) * 1999-03-19 2000-09-28 Sony Corporation Additional information embedding method and its device, and additional information decoding method and its decoding device
JP2001148670A (en) * 1999-11-19 2001-05-29 Nippon Telegr & Teleph Corp <Ntt> Method and device for transmitting acoustic signal
JP2002044408A (en) * 2000-06-29 2002-02-08 Internatl Business Mach Corp <Ibm> Method and system of digital watermark

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008216594A (en) * 2007-03-02 2008-09-18 Dainippon Printing Co Ltd Device for embedding information to sound signal, and device for extracting information from sound signal
JP2008242017A (en) * 2007-03-27 2008-10-09 Dainippon Printing Co Ltd Device for embedding information in sound signal and device for extracting information from sound signal
JP2008256948A (en) * 2007-04-05 2008-10-23 Dainippon Printing Co Ltd Device for embedding information in sound signal and device for extracting information from sound signal
JP2009075294A (en) * 2007-09-20 2009-04-09 Dainippon Printing Co Ltd Device for embedding information to sound signal, and device for extracting information from sound signal
JP2010197862A (en) * 2009-02-26 2010-09-09 Toshiba Corp Signal bandwidth expanding apparatus
US8271292B2 (en) 2009-02-26 2012-09-18 Kabushiki Kaisha Toshiba Signal bandwidth expanding apparatus
JP2013141054A (en) * 2011-12-28 2013-07-18 Spotlight Inc Beacon and ultrasonic communication system using mobile terminal
JPWO2014104285A1 (en) * 2012-12-28 2017-01-19 株式会社スポットライト Ultrasonic communication system

Also Published As

Publication number Publication date
JP4629495B2 (en) 2011-02-09

Similar Documents

Publication Publication Date Title
JP4899416B2 (en) Network connection device
JP4660275B2 (en) Information embedding apparatus and method for acoustic signal
JP4839775B2 (en) Information embedding device, method, and program for acoustic signal
JP4629495B2 (en) Information embedding apparatus and method for acoustic signal
JP4867765B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP4770194B2 (en) Information embedding apparatus and method for acoustic signal
JP2007292827A (en) Acoustic signal retrieving apparatus
JP4531653B2 (en) Device for extracting information from acoustic signals
JP5011849B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP2006195061A (en) Information embedding device for acoustic signal, information extracting device from acoustic signal and acoustic signal reproducing device
JP2006201527A (en) Device for embedding information in sound signal, device for extracting information from sound signal, and sound signal reproducing device and method
JP4839721B2 (en) Information embedding device for acoustic signals
JP5082257B2 (en) Acoustic signal retrieval device
JP4713181B2 (en) Information embedding device for sound signal, device for extracting information from sound signal, and sound signal reproducing device
JP4713180B2 (en) Device for extracting information from acoustic signals
JP4760540B2 (en) Information embedding device for acoustic signals
JP4831335B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP4910959B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP4760539B2 (en) Information embedding device for acoustic signals
JP4831333B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP5011855B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP4968468B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP4876978B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP4831334B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP2008129198A (en) Information embedding device for acoustic signal and information extracting device from acoustic signal

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080411

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100914

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101021

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101109

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131119

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees