JP2006227330A - Embedding device/method of information to audio signals, extraction device/method of information from audio signals - Google Patents

Embedding device/method of information to audio signals, extraction device/method of information from audio signals Download PDF

Info

Publication number
JP2006227330A
JP2006227330A JP2005041579A JP2005041579A JP2006227330A JP 2006227330 A JP2006227330 A JP 2006227330A JP 2005041579 A JP2005041579 A JP 2005041579A JP 2005041579 A JP2005041579 A JP 2005041579A JP 2006227330 A JP2006227330 A JP 2006227330A
Authority
JP
Japan
Prior art keywords
frame
channel
acoustic
additional information
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005041579A
Other languages
Japanese (ja)
Other versions
JP4770194B2 (en
Inventor
Toshio Motegi
敏雄 茂出木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2005041579A priority Critical patent/JP4770194B2/en
Publication of JP2006227330A publication Critical patent/JP2006227330A/en
Application granted granted Critical
Publication of JP4770194B2 publication Critical patent/JP4770194B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide the embedding device/method of information to audio signals which can embed mass additional information to audio signals of a plurality of channels as un-audible electronic watermark information by hardly affecting original sound quality and also can extract embedded additional information from audio signals under being reproduced correctly. <P>SOLUTION: In the embedding device of information to audio signals, additional information which is to be embedded is read (S101), audio frames are extracted from respective channels of a stereo audio signal (S104), the extracted frames are subjected to frequency conversion (S105), when intensity of low frequency components is below the reference, low frequency components of the left and right channels are processed evenly as information showing a delimiter (S108), when the intensity of the low frequency components is equal to or larger than the reference, the distribution between the left and right channels is changed so that the left is larger or the right is larger according to the bit values of the additional information (S107). Then, the additional information is embedded in the audio signals by subjecting the signals whose low frequency components are changed to frequency inverse conversion (S109). <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、CD・DVD等を用いた民生・業務用途における鑑賞用のパッケージ音楽分野、放送事業者等が商業目的で配信する放送・ネットワーク音楽配信分野における音楽著作権の保護(不正コピーの監視)および音楽属性情報の提供(楽曲タイトル検索サービス)分野に関する。   The present invention relates to the protection of music copyright (monitoring illegal copying) in the field of package music for viewing for consumer and business use using CDs and DVDs, and the field of broadcasting and network music distribution distributed for commercial purposes by broadcasters and the like. ) And the provision of music attribute information (music title search service).

最近、流れている音楽のタイトル等を知ることができる楽曲属性情報の提供サービスとして、放送された音楽に対して日時と地域を放送局に照会したり、携帯電話で流れている音楽断片を録音してデータベースに登録されているメロディーと照合したりするサービスが実用化されている(例えば、特許文献1、2参照)。   As a service to provide music attribute information that allows you to know the titles of music that has been played recently, you can query the broadcast station for the date and time of the broadcast music, and record music fragments that are being played on mobile phones. Services that collate with melodies registered in the database have been put into practical use (see, for example, Patent Documents 1 and 2).

特許文献1、2に記載の発明では、録音した音楽の断片と、データベースに登録されているメロディーと照合するため、データベースに登録される楽曲が増えると、処理負荷が増え、類似したメロディーを誤判定する可能性が増える。そこで、曲名やアーチスト情報などの楽曲属性情報を不可聴な電子透かしとして音響信号に埋め込む手法も提案されている(例えば、特許文献3〜6参照)。   In the inventions described in Patent Documents 1 and 2, since the recorded music fragments are checked against the melodies registered in the database, the processing load increases as the number of songs registered in the database increases, and similar melodies are mistaken. The possibility of judging increases. Therefore, a method of embedding music attribute information such as a song name and artist information as an inaudible digital watermark in an acoustic signal has also been proposed (see, for example, Patent Documents 3 to 6).

特許文献1〜6に記載の手法では、埋め込み可能な情報量が少なく、音質が少なからず劣化し、各種信号処理により透かし情報が消失し、またアナログコピーに対しては、透かし検出が困難であるという問題がある。そこで、本出願人は、複数チャンネル有する音響信号の低周波数成分の比率を属性情報のビット値に応じて変更することにより、属性情報を埋め込む手法を提案した(特許文献7参照)。
特開2002−259421号公報 特開2003−157087号公報 特開平11−145840号公報 特開平11−219172号公報 特許第3321767号公報 特開2003−99077号公報 特願2005−5157号
In the methods described in Patent Documents 1 to 6, the amount of information that can be embedded is small, the sound quality is deteriorated to some extent, watermark information is lost by various signal processing, and watermark detection is difficult for analog copies. There is a problem. Therefore, the present applicant has proposed a method of embedding attribute information by changing the ratio of low frequency components of an acoustic signal having a plurality of channels according to the bit value of the attribute information (see Patent Document 7).
JP 2002-259421 A Japanese Patent Laid-Open No. 2003-157087 JP-A-11-145840 JP-A-11-219172 Japanese Patent No. 3321767 JP 2003-99077 A Japanese Patent Application No. 2005-5157

しかしながら、上記特許文献7に記載の手法では、アナログ経由で属性情報等の付加情報を抽出する場合、必ずしも付加情報を埋め込んだ先頭の位置から抽出することができるわけではないため、正しい付加情報が抽出できない場合があるという問題がある。   However, in the method described in Patent Document 7, when additional information such as attribute information is extracted via analog, it is not always possible to extract from the top position where the additional information is embedded. There is a problem that extraction may not be possible.

そこで、本発明は、CDや放送で提供される複数チャンネルの音響信号に対して、原音質にほとんど影響を与えずに、大容量の付加情報を不可聴な電子透かしとして埋め込むと共に、再生されている音響信号から埋め込まれた付加情報を正確に抽出することが可能な音響信号に対する情報の埋め込み装置・方法、音響信号からの情報の抽出装置・方法を提供することを課題とする。   Therefore, the present invention embeds a large amount of additional information as an inaudible digital watermark and reproduces it for an audio signal of a plurality of channels provided on a CD or broadcast with little influence on the original sound quality. It is an object of the present invention to provide an information embedding apparatus / method for an acoustic signal and an apparatus / method for extracting information from an acoustic signal, which can accurately extract additional information embedded from the existing acoustic signal.

上記課題を解決するため、本発明では、左右の2チャンネルを有し、左右ぞれぞれのチャンネルが時系列のサンプル列で構成されるステレオの音響信号に対して、付加情報を聴取不能な状態で埋め込む装置であって、埋め込むべき付加情報のビット配列を順次読み込む付加情報読み込み手段と、前記音響信号の左右の各チャンネルより、それぞれ所定数のサンプルを音響フレームとして読み込む音響フレーム読込手段と、前記読み込んだ各音響フレームに対して周波数変換を行い、前記各チャンネルに対応する複数のフレームスペクトルを生成する周波数変換手段と、前記生成された複数のフレームスペクトルから所定の周波数以下の成分に相当する低周波強度データを抽出し、前記読み込んだ付加情報のビット配列の各ビット値がとり得る値、および付加情報のビット配列の区切りを示す情報に基づいて、チャンネル間で対応する前記低周波強度データのチャンネル間比率を、左チャンネルを大、右チャンネルを大、左右均等の3パターンのいずれかに変更する低周波成分変更手段と、前記変更された低周波成分を含む前記複数のフレームスペクトルに対して周波数逆変換を行い、複数の改変音響フレームを生成する周波数逆変換手段と、前記生成された改変音響フレームを順次出力する改変音響フレーム出力手段を有する音響信号に対する情報の埋め込み装置を提供する。   In order to solve the above-described problem, in the present invention, additional information cannot be heard for a stereo acoustic signal having two left and right channels, and each of the left and right channels is composed of a time-series sample string. An apparatus for embedding in a state, additional information reading means for sequentially reading a bit array of additional information to be embedded, and acoustic frame reading means for reading a predetermined number of samples as acoustic frames from the left and right channels of the acoustic signal, Frequency conversion means for performing frequency conversion on each of the read sound frames and generating a plurality of frame spectra corresponding to the respective channels, and corresponding to a component having a predetermined frequency or less from the generated plurality of frame spectra The low frequency intensity data is extracted, and each bit value of the read additional information bit array can be taken. Based on the information indicating the bit array delimiter of the additional information, the channel-to-channel ratio of the low-frequency intensity data corresponding between the channels is any one of three patterns that are the left channel is large, the right channel is large, and the left and right are equal. Low frequency component changing means for changing to, and frequency reverse converting means for performing frequency inverse conversion on the plurality of frame spectra including the changed low frequency component to generate a plurality of modified acoustic frames, and the generated Provided is an information embedding device for an acoustic signal having modified acoustic frame output means for sequentially outputting modified acoustic frames.

本発明によれば、2チャンネルで構成される音響信号に対して、各音響信号の低周波成分のチャンネル間の割合を、埋め込むべき付加情報の情報配列、および当該情報配列の区切りを示す情報に基づいて変化させるようにしたので、複数チャンネルの音響信号に対して、原音質にほとんど影響を与えずに、大容量の付加情報を不可聴な電子透かしとして埋め込み、埋め込まれた付加情報を再生されている音響信号から正確に抽出することが可能となるという効果を奏する。   According to the present invention, with respect to an acoustic signal composed of two channels, the ratio between the channels of the low frequency components of each acoustic signal is represented in the information array of additional information to be embedded and the information indicating the separation of the information array. As a result, the large amount of additional information is embedded as an inaudible digital watermark, and the embedded additional information is played back with little influence on the original sound quality. The effect that it becomes possible to extract correctly from the sound signal which has been carried out is produced.

以下、本発明の実施形態について図面を参照して詳細に説明する。
(1.音響信号に対する情報の埋め込み装置)
図1は、本発明に係る音響信号に対する情報の埋め込み装置の構成を示す機能ブロック図である。図1において、10は音響フレーム読込手段、20は周波数変換手段、30は低周波成分変更手段、40は周波数逆変換手段、50は改変音響フレーム出力手段、60は記憶手段、61は音響信号記憶部、62は付加情報記憶部、63は改変音響信号記憶部、70は付加情報読込手段である。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
(1. Information embedding device for acoustic signals)
FIG. 1 is a functional block diagram showing the configuration of an information embedding device for an acoustic signal according to the present invention. In FIG. 1, 10 is an acoustic frame reading means, 20 is a frequency converting means, 30 is a low frequency component changing means, 40 is a frequency inverse converting means, 50 is a modified acoustic frame output means, 60 is a storage means, and 61 is an acoustic signal storage. , 62 is an additional information storage unit, 63 is a modified acoustic signal storage unit, and 70 is an additional information reading means.

音響フレーム読込手段10は、付加情報の埋め込み対象とする元のステレオ音響信号の各チャンネルから所定数のサンプルを1フレームとして読み込む機能を有している。周波数変換手段20は、音響フレーム読込手段10が読み込んだ音響信号のフレームをフーリエ変換等により周波数変換してフレームスペクトルを生成する機能を有している。低周波成分変更手段30は、生成された複数のフレームスペクトルから所定の周波数以下に相当する各低周波強度データを抽出し、付加情報記憶部62から抽出した付加情報に基づいて、チャンネル間で対応する低周波強度データのチャンネル間比率を変更する機能を有している。周波数逆変換手段40は、変更された低周波強度データを含む複数のフレームスペクトルに対して周波数逆変換を行うことにより、複数の改変音響フレームを生成する機能を有している。改変音響フレーム出力手段50は、生成された改変音響フレームを順次出力する機能を有している。記憶手段60は、付加情報を埋め込む対象とするステレオ音響信号を記憶した音響信号記憶部61と、ビット配列として構成され、ステレオ音響信号に埋め込まれる付加情報を記憶した付加情報記憶部62と、付加情報埋め込み後の改変音響信号を記憶する改変音響信号記憶部63を有しており、その他処理に必要な各種情報を記憶するものである。付加情報読込手段70は、付加情報記憶部62から付加情報を抽出する機能を有している。なお、付加情報とは、音響情報に付加して埋め込むべき情報であり、タイトルやアーティスト名等の属性情報、および属性情報以外の他の情報を含むものである。図1に示した各構成手段は、現実にはコンピュータおよびその周辺機器等のハードウェアに専用のプログラムを搭載することにより実現される。すなわち、コンピュータが、専用のプログラムに従って各手段の内容を実行することになる。   The sound frame reading means 10 has a function of reading a predetermined number of samples as one frame from each channel of the original stereo sound signal to be embedded with additional information. The frequency conversion means 20 has a function of generating a frame spectrum by frequency-converting the frame of the acoustic signal read by the acoustic frame reading means 10 by Fourier transformation or the like. The low frequency component changing means 30 extracts each low frequency intensity data corresponding to a predetermined frequency or less from a plurality of generated frame spectra, and responds between channels based on the additional information extracted from the additional information storage unit 62. It has a function of changing the inter-channel ratio of low frequency intensity data. The frequency reverse conversion means 40 has a function of generating a plurality of modified sound frames by performing frequency reverse conversion on a plurality of frame spectra including the changed low frequency intensity data. The modified sound frame output means 50 has a function of sequentially outputting the generated modified sound frames. The storage means 60 includes an acoustic signal storage unit 61 that stores a stereo acoustic signal to be embedded with additional information, an additional information storage unit 62 that is configured as a bit array and stores additional information embedded in the stereo acoustic signal, and an additional information It has a modified acoustic signal storage unit 63 for storing the modified acoustic signal after information is embedded, and stores various information necessary for other processing. The additional information reading means 70 has a function of extracting additional information from the additional information storage unit 62. The additional information is information that should be added to the sound information and embedded, and includes attribute information such as a title and artist name, and other information other than the attribute information. Each component shown in FIG. 1 is actually realized by installing a dedicated program in hardware such as a computer and its peripheral devices. That is, the computer executes the contents of each means according to a dedicated program.

(2.埋め込み装置の処理動作)
次に、図1に示した音響信号に対する情報の埋め込み装置の処理動作について図2のフローチャートに従って説明する。図2は、付加情報1バイトの処理に対応したものとなっている。まず、付加情報読込手段70は、付加情報記憶部62から付加情報を1バイト単位で読み込む(S101)。具体的には、レジスタに1バイト読み込むことになる。続いて、モードを区切りモードに設定する(S102)。モードは区切りモードと、ビットモードの2種類が存在する。区切りモードは1バイト単位の区切りにおける処理を行うモードを示し、ビットモードは1バイトの各ビットの値に基づいた処理を行うモードを示している。付加情報記憶部62から1バイト読み込んだ場合には、その直後に必ず区切りモードに設定されることになる。
(2. Processing operation of embedded device)
Next, the processing operation of the information embedding device for the acoustic signal shown in FIG. 1 will be described with reference to the flowchart of FIG. FIG. 2 corresponds to processing of 1 byte of additional information. First, the additional information reading means 70 reads additional information from the additional information storage unit 62 in units of 1 byte (S101). Specifically, 1 byte is read into the register. Subsequently, the mode is set to the separation mode (S102). There are two types of modes: separation mode and bit mode. The delimiter mode indicates a mode for performing processing at a delimiter in units of 1 byte, and the bit mode indicates a mode for performing processing based on the value of each bit of 1 byte. When one byte is read from the additional information storage unit 62, the separator mode is always set immediately after that.

続いて、音響フレーム読込手段10が、音響信号記憶部61に記憶されたステレオ音響信号の左右の各チャンネルから、それぞれ所定数のサンプルを1音響フレームとして読み込む(S104)。音響フレーム読込手段10が読み込む1音響フレームのサンプル数は、適宜設定することができるが、サンプリング周波数が44.1kHzの場合、4096サンプル程度とすることが望ましい。したがって、音響フレーム読込手段10は、左チャンネル、右チャンネルについてそれぞれ4096サンプルずつ、順次音響フレームとして読み込んでいくことになる。   Subsequently, the acoustic frame reading means 10 reads a predetermined number of samples as one acoustic frame from each of the left and right channels of the stereo acoustic signal stored in the acoustic signal storage unit 61 (S104). The number of samples of one sound frame read by the sound frame reading means 10 can be set as appropriate, but is desirably about 4096 samples when the sampling frequency is 44.1 kHz. Therefore, the acoustic frame reading means 10 sequentially reads 4096 samples for each of the left channel and the right channel as acoustic frames.

続いて、周波数変換手段20は、読み込んだ各音響フレームに対して、周波数変換を行って、その音響フレームのスペクトルであるフレームスペクトルを得る(S105)。周波数変換としては、フーリエ変換、ウェーブレット変換その他公知の種々の手法を用いることができる。本実施形態では、フーリエ変換を用いた場合を例にとって説明する。フーリエ変換を行う場合、左チャンネル信号xl(i)、右チャンネル信号xr(i)(i=0,…,N−1)に対して、以下の〔数式1〕に従った処理を行い、左チャンネルに対応する変換データの実部Al(j)、虚部Bl(j)、右チャンネルに対応する変換データの実部Ar(j)、虚部Br(j)を得る。   Subsequently, the frequency conversion means 20 performs frequency conversion on each read sound frame to obtain a frame spectrum that is a spectrum of the sound frame (S105). As frequency conversion, Fourier transform, wavelet transform, and other various known methods can be used. In the present embodiment, a case where Fourier transform is used will be described as an example. When performing Fourier transform, the left channel signal xl (i) and the right channel signal xr (i) (i = 0,..., N−1) are processed according to the following [Equation 1], and left The real part Al (j) and imaginary part Bl (j) of the conversion data corresponding to the channel and the real part Ar (j) and imaginary part Br (j) of the conversion data corresponding to the right channel are obtained.

〔数式1〕
Al(j)=Σi=0,…,N-1xl(i)・cos(2πij/N)
Bl(j)=Σi=0,…,N-1xl(i)・sin(2πij/N)
Ar(j)=Σi=0,…,N-1xr(i)・cos(2πij/N)
Br(j)=Σi=0,…,N-1xr(i)・sin(2πij/N)
[Formula 1]
Al (j) = Σ i = 0,..., N−1 xl (i) · cos (2πij / N)
Bl (j) = Σ i = 0,..., N−1 xl (i) · sin (2πij / N)
Ar (j) = Σ i = 0,..., N−1 xr (i) · cos (2πij / N)
Br (j) = Σ i = 0,..., N−1 xr (i) · sin (2πij / N)

〔数式1〕において、iは、各音響フレーム内のN個のサンプルに付した通し番号であり、i=0,1,2,…N−1の整数値をとる。また、jは周波数の値について、値の小さなものから順に付した通し番号であり、iと同様にj=0,1,2,…N−1の整数値をとる。サンプリング周波数が44.1kHz、N=4096の場合、jの値が1つ異なると、周波数が10.8Hz異なることになる。この際、音響信号xl(i)、xr(i)には、それぞれW(i)=0.5−0.5・cos(2πi/N)で表現される窓関数(ハニング窓)を重みとして乗じる。このような窓関数は、フーリエ変換を行う際に、周波数成分に波形を分断することにより発生する高周波ノイズを低減するためと、フーリエ逆変換を行う際に解析区間(音響フレームに相当)の間で信号レベルが不連続にならないように連結させるために用いられるものであり、周知の技術である。   In [Expression 1], i is a serial number assigned to N samples in each acoustic frame, and takes an integer value of i = 0, 1, 2,... N−1. Further, j is a serial number assigned in order from the smallest value of the frequency value, and takes an integer value of j = 0, 1, 2,... N−1 similarly to i. When the sampling frequency is 44.1 kHz and N = 4096, if the value of j is different by one, the frequency will be different by 10.8 Hz. At this time, the acoustic signals xl (i) and xr (i) are each weighted with a window function (Hanning window) expressed by W (i) = 0.5−0.5 · cos (2πi / N). Multiply. Such a window function is used to reduce high-frequency noise generated by dividing the waveform into frequency components when performing Fourier transform, and between analysis intervals (corresponding to acoustic frames) when performing inverse Fourier transform. This is a well-known technique used to connect signal levels so as not to be discontinuous.

上記〔数式1〕に従った処理を実行することにより、各音響フレームの信号成分を周波数に対応した成分であるスペクトルで表現されたフレームスペクトルが得られる。続いて、低周波成分変更手段30が、生成された複数のフレームスペクトルから所定の周波数以下の低周波強度データを抽出する。人間の聴覚は、200〜300Hz程度までの低周波成分については、方向性を感知しにくくなっていることが知られている(コロナ社1990年10月30日発行「音響工学講座1.基礎音響工学、日本音響学会編」p247図9・26参照)。したがって、本実施形態では、所定の周波数として200Hz程度を設定し、周波数が200Hz以下の低周波強度データを抽出することにしている。周波数200Hz付近は、上記jが20に相当するので、上記〔数式1〕により算出された実部Al(j)、虚部Bl(j)、実部Ar(j)、虚部Br(j)のうち、j≦20のものを抽出する。   By executing the processing according to the above [Equation 1], a frame spectrum in which the signal component of each acoustic frame is expressed by a spectrum corresponding to the frequency is obtained. Subsequently, the low frequency component changing unit 30 extracts low frequency intensity data having a frequency equal to or lower than a predetermined frequency from the generated plurality of frame spectra. Human hearing is known to be less sensitive to directionality for low frequency components up to about 200-300 Hz (Corona Corp., issued October 30, 1990, "Sound Engineering Course 1. Basic Acoustics"). Engineering, Acoustical Society of Japan ”p.247 (see FIGS. 9 and 26). Therefore, in this embodiment, about 200 Hz is set as the predetermined frequency, and low frequency intensity data having a frequency of 200 Hz or less is extracted. In the vicinity of a frequency of 200 Hz, j corresponds to 20, so the real part Al (j), imaginary part Bl (j), real part Ar (j), and imaginary part Br (j) calculated by the above [Equation 1]. Among them, those with j ≦ 20 are extracted.

続いて、低周波成分変更手段30は、抽出した実部Al(j)、虚部Bl(j)、実部Ar(j)、虚部Br(j)を利用して、以下の〔数式2〕によりj=1〜M(200Hz以下を抽出する場合は、20)までの低周波強度の合計値を算出する。   Subsequently, the low-frequency component changing unit 30 uses the extracted real part Al (j), imaginary part Bl (j), real part Ar (j), and imaginary part Br (j) as follows: ], The total value of the low frequency intensity up to j = 1 to M (20 when extracting 200 Hz or less) is calculated.

〔数式2〕
E=Σj=1,…,M{Al(j)2+Bl(j)2+Ar(j)2+Br(j)2
[Formula 2]
E = Σ j = 1,..., M {Al (j) 2 + Bl (j) 2 + Ar (j) 2 + Br (j) 2 }

上記〔数式2〕により算出されたEは、フレームスペクトルにおける低周波成分の合算値を示すことになる。続いて、この合算値Eがレベル下限値以上であるかどうかの判定を行う。レベル下限値は、音響信号xl(i)、xr(i)の振幅最大値が1に正規化されており、M=20に設定されている場合、4程度に設定する。合算値Eがレベル下限以上であるかどうかを判断するのは、信号の強度が小さいと、信号を変化させても、その変化を抽出側で検出することができないためである。したがって、合算値Eがレベル下限値未満である場合は、付加情報のビット値に応じた記録をせず、先頭ビットから再度処理するため、読み込み位置を先頭ビットに戻し、モードを区切りモードに設定する(S106)。一方、合算値Eがレベル下限値以上である場合には、モードを判断することになる。   E calculated by the above [Equation 2] indicates the sum of low frequency components in the frame spectrum. Subsequently, it is determined whether or not the total value E is equal to or higher than the level lower limit value. The level lower limit value is set to about 4 when the maximum amplitude value of the acoustic signals xl (i) and xr (i) is normalized to 1 and M = 20. The reason why it is determined whether or not the total value E is equal to or higher than the lower limit of the level is that if the signal strength is small, the change cannot be detected on the extraction side even if the signal is changed. Therefore, when the total value E is less than the lower level limit value, recording is not performed according to the bit value of the additional information, but processing is started again from the first bit, so the reading position is returned to the first bit and the mode is set to the delimiter mode. (S106). On the other hand, when the total value E is equal to or higher than the level lower limit value, the mode is determined.

低周波成分変更手段30は、モードが区切りモードである場合、低周波強度を左右のチャンネルで同一とする処理を行う(S108)。すなわち、低周波成分の音源を中央へ移動することになる。具体的には、以下の〔数式3〕に従った処理を実行することになる。   When the mode is the separation mode, the low frequency component changing unit 30 performs a process of making the low frequency intensity the same between the left and right channels (S108). That is, the low frequency component sound source is moved to the center. Specifically, processing according to the following [Equation 3] is executed.

〔数式3〕
E(j)=[0.5・{Al(j)2+Bl(j)2+Ar(j)2+Br(j)2}]1/2
Al(j)←Al(j)・E(j)/{Al(j)2+Bl(j)21/2
Bl(j)←Bl(j)・E(j)/{Al(j)2+Bl(j)21/2
Ar(j)←Ar(j)・E(j)/{Ar(j)2+Br(j)21/2
Br(j)←Br(j)・E(j)/{Ar(j)2+Br(j)21/2
[Formula 3]
E (j) = [0.5 · {Al (j) 2 + Bl (j) 2 + Ar (j) 2 + Br (j) 2 }] 1/2
Al (j) ← Al (j) · E (j) / {Al (j) 2 + Bl (j) 2 } 1/2
Bl (j) ← Bl (j) · E (j) / {Al (j) 2 + Bl (j) 2 } 1/2
Ar (j) ← Ar (j) · E (j) / {Ar (j) 2 + Br (j) 2 } 1/2
Br (j) ← Br (j) · E (j) / {Ar (j) 2 + Br (j) 2 } 1/2

上記〔数式3〕において、第2式から第5式における“←”は右辺の計算結果を左辺に代入することを示している。上記〔数式3〕に従った処理を実行することにより、フレームスペクトルの低周波数成分は、左右チャンネル均等のパターンに変更されることになる。この左右チャンネル均等のパターンは、付加情報の先頭位置(区切り)を示す情報となる。   In the above [Formula 3], “←” in the second to fifth formulas indicates that the calculation result of the right side is substituted into the left side. By executing the processing according to the above [Equation 3], the low frequency component of the frame spectrum is changed to a pattern equivalent to the left and right channels. This equal pattern of left and right channels is information indicating the head position (separation) of the additional information.

一方、低周波成分変更手段30は、モードがビットモードである場合、付加情報記憶部62から抽出した付加情報のビット配列のビット値に応じて、低周波成分の左右チャンネル間の分布を左チャンネル大か、右チャンネル大かのいずれかに変更する処理を行う(S107)。すなわち、低周波成分の音源を左又は右へ移動することになる。具体的には、第1の値と第2の値をとり得るビット値に応じて以下の〔数式4〕、〔数式5〕のいずれかに従った処理を実行することにより、低周波成分の左右分布を変更する。例えば、第1の値を1、第2の値を0とした場合、ビット値が1のとき、以下の〔数式4〕に従った処理を実行する。   On the other hand, when the mode is the bit mode, the low frequency component changing means 30 changes the distribution of the low frequency component between the left and right channels according to the bit value of the bit array of the additional information extracted from the additional information storage unit 62. A process of changing to either large or right channel is performed (S107). That is, the sound source of the low frequency component is moved to the left or right. Specifically, by executing processing according to any of the following [Formula 4] and [Formula 5] according to the bit value that can take the first value and the second value, Change the left-right distribution. For example, when the first value is 1 and the second value is 0, when the bit value is 1, processing according to the following [Equation 4] is executed.

〔数式4〕
E(j)={Al(j)2+Bl(j)2+Ar(j)2+Br(j)21/2
Ar(j)←Ar(j)・E(j)/{Ar(j)2+Br(j)21/2
Br(j)←Br(j)・E(j)/{Ar(j)2+Br(j)21/2
Al(j)=0
Bl(j)=0
[Formula 4]
E (j) = {Al (j) 2 + Bl (j) 2 + Ar (j) 2 + Br (j) 2 } 1/2
Ar (j) ← Ar (j) · E (j) / {Ar (j) 2 + Br (j) 2 } 1/2
Br (j) ← Br (j) · E (j) / {Ar (j) 2 + Br (j) 2 } 1/2
Al (j) = 0
Bl (j) = 0

ビット値が0の場合、以下の〔数式5〕に従った処理を実行する。   When the bit value is 0, processing according to the following [Formula 5] is executed.

〔数式5〕
E(j)={Al(j)2+Bl(j)2+Ar(j)2+Br(j)21/2
Al(j)←Al(j)・E(j)/{Al(j)2+Bl(j)21/2
Bl(j)←Bl(j)・E(j)/{Al(j)2+Bl(j)21/2
Ar(j)=0
Br(j)=0
[Formula 5]
E (j) = {Al (j) 2 + Bl (j) 2 + Ar (j) 2 + Br (j) 2 } 1/2
Al (j) ← Al (j) · E (j) / {Al (j) 2 + Bl (j) 2 } 1/2
Bl (j) ← Bl (j) · E (j) / {Al (j) 2 + Bl (j) 2 } 1/2
Ar (j) = 0
Br (j) = 0

上記〔数式4〕、〔数式5〕のいずれかに従った処理を実行することにより、付加情報のビット配列の各ビット値に応じて、低周波数成分が左チャンネル、右チャンネル、のどちらかのパターンに変更されることになる。結局、低周波成分変更手段30は、区切りモードの場合に〔数式3〕に基づく処理をS108において行い、ビットモードの場合に〔数式4〕又は〔数式5〕に基づく処理をS107において行うことになる。   By executing the processing according to any one of [Equation 4] and [Equation 5], the low frequency component is either the left channel or the right channel according to each bit value of the bit array of the additional information. It will be changed to a pattern. Eventually, the low frequency component changing means 30 performs the processing based on [Equation 3] in the case of the separation mode in S108, and performs the processing based on [Equation 4] or [Equation 5] in S107 in the case of the bit mode. Become.

次に、周波数逆変換手段40が、低周波強度データのチャンネル間比率が変更されたフレームスペクトルを周波数逆変換して改変音響フレームを得る処理を行う(S109)。この周波数逆変換は、当然のことながら、周波数変換手段20がS105において実行した手法に対応していることが必要となる。本実施形態では、周波数変換手段20において、フーリエ逆変換を施しているため、周波数逆変換手段40は、フーリエ逆変換を実行することになる。具体的には、上記〔数式3〕〜〔数式5〕のいずれかにより得られたスペクトルの左チャンネルの実部Al(j)、虚部Bl(j)、右チャンネルの実部Ar(j)、虚部Br(j)を用いて、以下の〔数式6〕に従った処理を行い、xl´(i)、xr´(i)を算出する。   Next, the frequency inverse transform means 40 performs a process of obtaining a modified acoustic frame by performing frequency inverse transform on the frame spectrum in which the inter-channel ratio of the low frequency intensity data is changed (S109). As a matter of course, this frequency inverse transform needs to correspond to the method executed by the frequency transform unit 20 in S105. In the present embodiment, since the frequency transform unit 20 performs the inverse Fourier transform, the frequency inverse transform unit 40 performs the inverse Fourier transform. Specifically, the real part Al (j), the imaginary part Bl (j), and the real part Ar (j) of the right channel of the spectrum obtained by any one of [Formula 3] to [Formula 5]. Then, using imaginary part Br (j), processing according to the following [Equation 6] is performed to calculate xl ′ (i) and xr ′ (i).

〔数式6〕
xl´(i)=1/N・{Σj=0,…,N-1Al(j)・cos(2πij/N)−Σj=0,…,N-1Bl(j)・sin(2πij/N)}+{1−W(i)}・xl(i)
xr´(i)=1/N・{Σj=0,…,N-1Ar(j)・cos(2πij/N)−Σj=0,…,N-1Br(j)・sin(2πij/N)}+{1−W(i)}・xr(i)
[Formula 6]
xl ′ (i) = 1 / N · {Σj = 0,..., N-1 Al (j) · cos (2πij / N) −Σj = 0,..., N−1 B1 (j) · sin ( 2πij / N)} + {1-W (i)} · xl (i)
xr ′ (i) = 1 / N · {Σ j = 0,..., N−1 Ar (j) · cos (2πij / N) −Σ j = 0,..., N−1 Br (j) · sin ( 2πij / N)} + {1-W (i)} · xr (i)

上記〔数式6〕における第1式の“+{1−W(i)}・xl(i)”、第2式の“+{1−W(i)}・xr(i)”の項は、上記〔数式1〕において周波数変換する際に、窓関数W(i)を乗じることにより除去された信号成分を復元するためのものである。上記〔数式6〕により改変音響フレームの左チャンネルの各サンプルxl´(i)、右チャンネルの各サンプルxr´(i)、が得られることになる。改変音響フレーム出力手段50は、得られた改変音響フレームを順次出力ファイルに出力する(S110)。こうして1つの音響フレームに対する処理を終えたら、モードをビットモードに設定した後(S111)、付加情報読込手段70が付加情報のビット配列中の次のビットを読み込む(S103)。以上のような処理を音響信号の両チャンネルの全サンプルに渡って実行していく。すなわち、所定数のサンプルを音響フレームとして読み込み、音響信号から読み込むべき音響フレームがなくなったら(S104)、処理を終了する。なお、S101において読み込んだ1バイトのデータの各ビットに対応する処理を終えた場合、S103からS101に戻り、付加情報の次のバイトを読み込み処理をすることになる。付加情報の全バイトに対して、処理が終了した場合は、付加情報の先頭バイトに戻って処理を行う。この結果、全ての音響フレームに対して処理を行った全ての改変音響フレームが出力ファイルに記録されて、改変音響信号として得られる。得られた改変音響信号は、記憶手段60内の改変音響信号記憶部63に出力され、記憶される。   The terms “+ {1−W (i)} · xl (i)” in the first equation and “+ {1−W (i)} · xr (i)” in the second equation in the above [Equation 6] are When the frequency conversion is performed in the above [Equation 1], the signal component removed by multiplying by the window function W (i) is restored. By the above [Equation 6], each sample xl ′ (i) of the left channel and each sample xr ′ (i) of the right channel of the modified sound frame are obtained. The modified sound frame output unit 50 sequentially outputs the obtained modified sound frames to the output file (S110). When the processing for one acoustic frame is completed in this way, after the mode is set to the bit mode (S111), the additional information reading means 70 reads the next bit in the bit array of the additional information (S103). The above processing is executed over all samples of both channels of the acoustic signal. That is, a predetermined number of samples are read as sound frames, and when there are no more sound frames to be read from the sound signal (S104), the process ends. When the processing corresponding to each bit of the 1-byte data read in S101 is completed, the process returns from S103 to S101, and the next byte of the additional information is read. When the processing is completed for all the bytes of the additional information, the processing returns to the first byte of the additional information. As a result, all modified acoustic frames that have been processed for all acoustic frames are recorded in the output file and obtained as modified acoustic signals. The obtained modified acoustic signal is output to and stored in the modified acoustic signal storage unit 63 in the storage unit 60.

以上の処理による信号の変化の様子を図3を用いて説明する。図3において、左右方向は、時間軸であり、サンプル数に比例する。L、Rはそれぞれ改変音響信号の左チャンネル、右チャンネルを示している。また、図中多数存在する矩形は、改変音響フレームの低周波成分を示し、その横幅はサンプル数(本実施形態では、4096)、縦幅は強度を示している。図3(a)は、上記〔数式2〕により算出された合算値Eがレベル下限値未満となる音響フレームが存在しない場合、すなわち、付加情報を埋め込むには、良好な信号である場合を示している。図3(b)は、上記〔数式2〕により算出された合算値Eがレベル下限値未満となる音響フレームが存在する場合、すなわち、付加情報を埋め込むには、良好でない信号である場合を示している。   A state of signal change by the above processing will be described with reference to FIG. In FIG. 3, the left-right direction is a time axis and is proportional to the number of samples. L and R indicate the left channel and the right channel of the modified acoustic signal, respectively. Further, a large number of rectangles in the figure indicate low-frequency components of the modified acoustic frame, the horizontal width indicates the number of samples (4096 in the present embodiment), and the vertical width indicates the intensity. FIG. 3A shows a case where there is no acoustic frame in which the total value E calculated by the above [Equation 2] is less than the level lower limit value, that is, a case where the signal is a good signal for embedding additional information. ing. FIG. 3B shows a case where there is an acoustic frame in which the total value E calculated by the above [Equation 2] is less than the level lower limit value, that is, a signal that is not good for embedding additional information. ing.

例えば、付加情報として、1バイト目が「11011100」、2バイト目が「11000001」の2バイトのビット配列を埋め込むとする。まず、各バイトの先頭には、区切りを示す情報として、左右均等な状態に設定されることになる。これは、S102により区切りモードに設定され、S108において、上記〔数式3〕に従った処理を実行した結果得られる。また、図3(a)の例では、合算値Eがレベル下限値未満となる音響フレームが存在しないため、1バイトが連続して上記〔数式4〕又は〔数式5〕により処理されることになる。これは、S103からS111を経由するループが8回連続して繰り返され、その間レベル下限値未満であるとしてS106およびS108を経由することがなかったことを示している。図に示すように、付加情報のビット値が1の場合は、R側に存在し、付加情報のビット値が0の場合は、L側に低周波成分が設定される。上記〔数式4〕、〔数式5〕からもわかるように、この場合は他方の低周波成分は0となる。   For example, it is assumed that a 2-byte bit array in which the first byte is “11011100” and the second byte is “11000001” is embedded as additional information. First, at the head of each byte, left and right are set as information indicating delimiters. This is obtained as a result of executing the processing in accordance with the above [Equation 3] in S108 by setting the separation mode in S102. Further, in the example of FIG. 3A, since there is no acoustic frame in which the total value E is less than the level lower limit value, one byte is continuously processed by the above [Formula 4] or [Formula 5]. Become. This indicates that the loop from S103 to S111 was repeated 8 times in succession, and during that time, it did not pass through S106 and S108 because it was less than the level lower limit value. As shown in the figure, when the bit value of the additional information is 1, it exists on the R side, and when the bit value of the additional information is 0, the low frequency component is set on the L side. As can be seen from the above [Formula 4] and [Formula 5], in this case, the other low frequency component is zero.

図3(b)の例では、上記〔数式2〕に従った処理の結果、レベル下限値未満となる音響フレームが存在するので、この場合S106およびS108を経由して、上記〔数式3〕に従った処理を実行した結果左右均等な状態に設定される。この場合、S106において、読み込み位置が先頭ビットに戻されるため、再び同じビットを読むことになる。図3(b)の例では、1バイト目の「11011100」を埋め込む場合に、最初は「11」の2ビット処理した時点でレベル下限値未満の音響フレームが出現し、2度目は「11011」の5ビット処理した時点でレベル下限値未満の音響フレームが出現し、3度目でようやく8ビット処理することができたことを示している。   In the example of FIG. 3B, as a result of the processing according to the above [Equation 2], there is an acoustic frame that is less than the level lower limit value. In this case, the above [Equation 3] is obtained via S106 and S108. As a result of executing the processing according to this, the left and right state is set to be equal. In this case, since the reading position is returned to the first bit in S106, the same bit is read again. In the example of FIG. 3B, when “11011100” of the first byte is embedded, an acoustic frame less than the level lower limit value appears at the time when the 2-bit processing of “11” is first performed, and “11011” is performed the second time. When the 5-bit processing is performed, an acoustic frame less than the level lower limit value appears, indicating that the 8-bit processing was finally possible at the third time.

しかし、図2に従った処理を行った場合には、図3(b)に示したように、低周波成分の信号レベルが小さい音響フレームが出現するたびに、1バイト単位で先頭から繰り返して処理することになるため、効率が悪い。そこで、図2に代えて、図4に示すような処理を行うようにしても良い。   However, when the processing according to FIG. 2 is performed, as shown in FIG. 3B, every time an acoustic frame having a low signal level of low frequency components appears, it is repeated from the beginning in units of 1 byte. Since it will be processed, efficiency is bad. Therefore, instead of FIG. 2, processing as shown in FIG. 4 may be performed.

図4に示す処理で、図2に示す処理と大きく異なるのは、区切りモード、ビットモードの他に継続識別モードを備え、3つのモードとし、低周波成分の信号レベルが小さい音響フレームが出現した場合であっても、先頭に戻らず、継続して処理するようにした点である。そのため、継続識別モードにおいては、次のビットが先頭から始まる新規なものか、中断されたために継続されたものであるかを識別するための情報を記録することになる。なお、図4の処理では、付加情報の処理をバイト単位でなく、ワード単位で行っている。これは、図2のS106に示したように、強制的に読み込み位置を先頭に戻す処理がないため、バイト以外の単位で処理するのが容易であるためである。1ワードのビット数は自由に設定でき、1バイトに設定することもできる。   The processing shown in FIG. 4 differs greatly from the processing shown in FIG. 2 in that it has a continuous identification mode in addition to the separation mode and the bit mode, and has three modes, and an acoustic frame with a low signal level of low frequency components has appeared. Even in this case, the process is continued without returning to the top. Therefore, in the continuous identification mode, information for identifying whether the next bit is a new one starting from the beginning or continued because it is interrupted is recorded. In the process of FIG. 4, the additional information is processed in units of words instead of units of bytes. This is because, as shown in S106 of FIG. 2, there is no process for forcibly returning the reading position to the beginning, and it is easy to process in units other than bytes. The number of bits in one word can be set freely and can be set to 1 byte.

図4の処理については、図2の処理と共通する部分が多いため、異なる部分について説明していく。まず、付加情報読込手段70は、付加情報記憶部62から付加情報を1ワード単位で読み込む(S201)。その後、モードを区切りモードに設定し(S202)、音響フレーム読込手段10が、音響信号記憶部61に記憶されたステレオ音響信号の左右各チャンネルから、音響フレームを読み込み(S204)、周波数変換手段20が、読み込んだ各音響フレームに対して、〔数式1〕に従って周波数変換を行ってフレームスペクトルを得て(S205)、低周波成分変更手段30が、抽出した実部Al(j)、虚部Bl(j)、実部Ar(j)、虚部Br(j)を利用して、〔数式2〕により合算値Eを算出し、合算値Eがレベル下限以上であるかどうかを判断するところまでは同一である。ただし、図4の処理においては、合算値Eがレベル下限値未満である場合は、モードを区切りモードに設定するだけである(S206)。一方、合算値Eがレベル下限値以上である場合には、モードを判断することになる。   Since the process of FIG. 4 has many parts in common with the process of FIG. 2, different parts will be described. First, the additional information reading means 70 reads additional information from the additional information storage unit 62 in units of one word (S201). Thereafter, the mode is set to the separation mode (S202), and the acoustic frame reading means 10 reads the acoustic frames from the left and right channels of the stereo acoustic signal stored in the acoustic signal storage unit 61 (S204), and the frequency converting means 20 However, frequency conversion is performed on each read acoustic frame according to [Equation 1] to obtain a frame spectrum (S205), and the low frequency component changing means 30 extracts the real part Al (j) and imaginary part Bl. (J) Using the real part Ar (j) and the imaginary part Br (j) to calculate the total value E by [Formula 2] and determine whether the total value E is equal to or higher than the level lower limit Are the same. However, in the process of FIG. 4, when the sum E is less than the level lower limit value, the mode is simply set to the separation mode (S206). On the other hand, when the total value E is equal to or higher than the level lower limit value, the mode is determined.

低周波成分変更手段30は、モードが区切りモードである場合、上記〔数式3〕に従って、低周波強度を左右のチャンネルで同一とする処理を行う(S208)。一方、低周波成分変更手段30は、モードがビットモードである場合、上記〔数式4〕、〔数式5〕に従って、付加情報記憶部62から抽出した付加情報のビット配列のビット値に応じて、低周波強度の左右チャンネル間の比率を変更する処理を行う(S207)。また、S207においては、図2のS107と異なり、継続識別モードである場合にも処理を行う。継続識別モードである場合、新規であるときは〔数式4〕に従って低周波成分の左右チャンネル間の分布を右チャンネル大に変更し、継続であるときは〔数式5〕に従って低周波成分の左右チャンネル間の分布を左チャンネル大に変更する。   When the mode is the delimiter mode, the low frequency component changing unit 30 performs the process of making the low frequency intensity the same in the left and right channels according to the above [Equation 3] (S208). On the other hand, when the mode is the bit mode, the low frequency component changing means 30 according to the above [Equation 4] and [Equation 5] according to the bit value of the bit array of the additional information extracted from the additional information storage unit 62, A process of changing the ratio between the left and right channels of low frequency intensity is performed (S207). Further, in S207, unlike S107 in FIG. 2, processing is performed even in the continuous identification mode. In the continuous identification mode, when it is new, the distribution between the left and right channels of the low frequency component is changed to the right channel according to [Equation 4]. Change the distribution between to the left channel size.

次に、周波数逆変換手段40が、低周波強度データのチャンネル間比率が変更されたフレームスペクトルを〔数式6〕に従って周波数逆変換して改変音響フレームを得る処理を行い(S209)、改変音響フレーム出力手段50は、得られた改変音響フレームを順次出力ファイルに出力する(S210)。こうして1つの音響フレームに対する処理を終えたら、モードの判定を行い(S211)、モードが区切りモードである場合は、モードを継続識別モードに設定した後(S212)、音響フレーム読込手段10が、音響フレームを読み込む(S204)。一方、モードがビットモード又は継続識別モードである場合は、モードをビットモードに設定した後(S213)、低周波成分変更手段30が付加情報のビット配列中の次のビットを読み込む(S203)。そして、全音響フレームの処理を行い、音響信号から読み込むべき音響フレームがなくなったら(S204)、処理を終了する。   Next, the frequency inverse transform means 40 performs a process of performing frequency inverse transform on the frame spectrum in which the inter-channel ratio of the low frequency intensity data is changed according to [Equation 6] to obtain a modified acoustic frame (S209), and the modified acoustic frame The output unit 50 sequentially outputs the obtained modified sound frames to the output file (S210). When the processing for one acoustic frame is completed in this manner, the mode is determined (S211). If the mode is the separation mode, the mode is set to the continuous identification mode (S212), and then the acoustic frame reading means 10 A frame is read (S204). On the other hand, when the mode is the bit mode or the continuous identification mode, after setting the mode to the bit mode (S213), the low frequency component changing means 30 reads the next bit in the bit array of the additional information (S203). Then, all the sound frames are processed, and when there are no more sound frames to be read from the sound signal (S204), the process ends.

図4に従った処理による信号の変化の様子を図5を用いて説明する。図5においては、図3と同様、左右方向は時間軸であり、図中多数存在する矩形は、改変音響フレームの低周波成分を示し、その横幅はサンプル数、縦幅は強度を示している。図5(a)は、図3(a)と同様、上記〔数式2〕により算出された合算値Eが、レベル下限値以上となる音響フレームが存在しない場合を示しており、図5(b)は、図3(b)と同様、上記〔数式2〕により算出された合算値Eが、レベル下限値未満となる音響フレームが存在する場合を示している。   The state of signal change by the processing according to FIG. 4 will be described with reference to FIG. In FIG. 5, as in FIG. 3, the horizontal direction is the time axis, and a large number of rectangles in the figure indicate the low frequency components of the modified acoustic frame, the horizontal width indicates the number of samples, and the vertical width indicates the intensity. . FIG. 5A shows a case where there is no acoustic frame in which the total value E calculated by the above [Equation 2] is equal to or higher than the level lower limit value, as in FIG. 3A. ) Shows a case where there is an acoustic frame in which the total value E calculated by the above [Equation 2] is less than the level lower limit value, as in FIG.

また、図2の処理との比較のため、埋め込む付加情報も、図3の場合と同様、1バイト目が「11011100」、2バイト目が「11000001」の2バイトのビット配列とする。図3と同様、各バイトの先頭には、区切りを示す情報として、左右均等な状態に設定されることになる。これは、S202により区切りモードに設定され、S208において、上記〔数式3〕に従った処理を実行した結果得られる。続いて、付加情報の各ビットに対応した処理を行う前に、新規であるか継続であるかを示す情報を記録することになる。図2に示す処理によれば、レベル下限値未満となる音響フレームが存在した場合には、処理するビットを各バイトの先頭に戻して処理するため、全て新規となるが、図4に示す処理では、レベル下限値未満となる音響フレームが存在した場合であっても、その時点で処理したビットは有効とし、そこから継続して行うため、そのビットが新規であるか継続であるかの情報を記録しておく必要がある。そこで、区切りを示す情報を記録した後には、新規であるか継続であるかを示す情報を記録する。具体的には、区切りモードの状態で、モード判断を行うことにより(S211)、継続識別モードに設定され(S212)、付加情報のビットを読み込むことなく、音響フレームの抽出を行う(S204)。そして、周波数変換後(S205)、新規である場合には、〔数式4〕に従った処理により、低周波成分の左右チャンネル間の分布を右チャンネル大に変更する(S207)。   For comparison with the processing of FIG. 2, the additional information to be embedded is also a 2-byte bit array in which the first byte is “11011100” and the second byte is “11000001”, as in FIG. As in FIG. 3, the left and right states are set at the beginning of each byte as information indicating a delimiter. This is obtained as a result of executing the processing according to the above [Equation 3] in S208 by setting the separation mode in S202. Subsequently, before the processing corresponding to each bit of the additional information is performed, information indicating whether the information is new or continued is recorded. According to the processing shown in FIG. 2, when there is an acoustic frame that is less than the lower level limit value, the processing bit is returned to the head of each byte and processing is performed. Then, even if there is an acoustic frame that is less than the lower limit level, the bit processed at that time is valid and is continuously performed from there, so information on whether the bit is new or continued Must be recorded. Therefore, after recording the information indicating the break, information indicating whether it is new or continued is recorded. Specifically, the mode determination is performed in the separation mode state (S211), the continuous identification mode is set (S212), and the sound frame is extracted without reading the bits of the additional information (S204). Then, after frequency conversion (S205), if it is new, the distribution between the left and right channels of the low frequency component is changed to the right channel size by processing according to [Equation 4] (S207).

このようにして、新規か継続かを示す情報を記録した後は、継続識別モードの状態でモード判断を行うため(S211)、ビットモードに設定され(S213)、レジスタから先頭のビットを読み込み(S203)、音響フレームの抽出を行う(S204)。図5(a)の例では、レベル下限値未満となる音響フレームが存在しないため、1バイトが連続して上記〔数式4〕又は〔数式5〕により処理されることになる。これは、S203からS213を経由するループが8回連続して繰り返され、その間レベル下限値未満であるとしてS206およびS208、S212を経由することがなかったことを示している。   After recording the information indicating whether it is new or continued in this way, in order to make a mode determination in the state of the continuous identification mode (S211), the bit mode is set (S213), and the first bit is read from the register ( (S203), an acoustic frame is extracted (S204). In the example of FIG. 5A, since there is no acoustic frame that is less than the level lower limit value, one byte is continuously processed by the above [Expression 4] or [Expression 5]. This indicates that the loop from S203 to S213 was repeated 8 times in succession, and during that time, it was not via S206, S208, and S212 that the level was less than the lower limit value.

図5(b)の例では、上記〔数式2〕に従った処理の結果、レベル下限値未満となる音響フレームが存在するので、この場合S206およびS208を経由して、上記〔数式3〕に従った処理を実行した結果左右均等な状態に設定される。この場合、S206において、区切りモードに設定されるため、S212を経由して、新規か継続かを示す情報を記録することになる。図5(b)の例では、1バイト目の「11011100」を埋め込む場合に、最初は第1ビット目の「1」の1ビット処理した時点でレベル下限値未満の音響フレームが出現しているため、区切りを示す情報を記録した後、継続を示す情報を記録し、継続して第2ビット目の「1」から処理をしている。そして、第2ビット目から第5ビット目の「1011」を処理した時点でレベル下限値未満の音響フレームが出現しているため、区切りを示す情報を記録した後、継続を示す情報を記録し、継続して第6ビット目の「1」から処理をしている。   In the example of FIG. 5B, as a result of the processing according to the above [Equation 2], there is an acoustic frame that is less than the level lower limit value. In this case, the above [Equation 3] is obtained via S206 and S208. As a result of executing the processing according to this, the left and right state is set to be equal. In this case, since the separation mode is set in S206, information indicating whether it is new or continued is recorded via S212. In the example of FIG. 5B, when embedding “11011100” of the first byte, an acoustic frame less than the level lower limit value appears when 1 bit of “1” of the first bit is initially processed. Therefore, after the information indicating the break is recorded, the information indicating the continuation is recorded, and the processing is continued from “1” of the second bit. Then, since “1011” from the 2nd bit to the 5th bit has been processed, an acoustic frame having a level lower than the lower limit value has appeared. Therefore, after recording the information indicating the break, the information indicating the continuation is recorded. The processing is continued from “1” of the sixth bit.

なお、図5の例では、図3との比較のため、付加情報がバイト単位で記録されている場合について説明したが、図4に示す処理は、新規か継続かを示す情報を記録するため、付加情報を任意のビット数単位で記録することが可能である。   In the example of FIG. 5, the case where the additional information is recorded in units of bytes has been described for comparison with FIG. 3, but the process shown in FIG. 4 records information indicating whether it is new or continued. Additional information can be recorded in an arbitrary number of bits.

上記の例では、区切り情報を固定長のバイト単位又は可変長のワード単位で区切りを示す情報を挿入するようにしたが、さらにビット単位で区切りを示す情報を挿入することも可能である。この場合、音響フレーム読込手段10が音響フレームの抽出を行う際、前後の音響フレームに重複する重複音響フレームを抽出し、この重複音響フレームに対して、〔数式1〕に従って周波数変換を行い、さらに、〔数式3〕に従って左右チャンネルの低周波成分を均等にする処理を行う。重複音響フレームは、前後の音響フレームと半数づつサンプルが重複するように設定する。例えば、先行する音響フレームがサンプル番号1から4096まで、後続する音響フレームがサンプル番号4097から8192までである場合、この間に設定される重複音響フレームはサンプル番号2049から6144までとなる。同様にして、音響信号の全区間について、重複音響フレームを読み込み、左右チャンネルの低周波成分を均等にする処理を行うことになる。   In the above example, the delimiter information is inserted with the information indicating the delimiter in fixed-length byte units or variable-length word units. However, it is also possible to insert the delimiter information in bit units. In this case, when the acoustic frame reading means 10 extracts the acoustic frame, it extracts an overlapping acoustic frame that overlaps the preceding and following acoustic frames, performs frequency conversion on the overlapping acoustic frame according to [Equation 1], and , [Equation 3] is performed to equalize the low frequency components of the left and right channels. The overlapping sound frames are set so that half of the samples overlap with the preceding and following sound frames. For example, when the preceding sound frame is sample number 1 to 4096 and the subsequent sound frame is sample number 4097 to 8192, the overlapping sound frame set between this is sample number 2049 to 6144. Similarly, for all sections of the acoustic signal, a duplicate acoustic frame is read, and processing for equalizing the low frequency components of the left and right channels is performed.

上記のように、重複音響フレームを設定して、その左右チャンネルの低周波成分を均等にする処理を行った場合、これを改変音響信号に反映させるため、左右チャンネルの低周波成分を均等にする処理後の重複フレームスペクトルに対して周波数逆変換を行って改変重複音響フレームを得て、さらに音響フレームと連結する処理を行う必要がある。この場合、窓関数W(i)を乗じることにより音響フレームから除去された信号成分を、重複音響フレームの信号と連結することにより補うことが可能となるため、上記〔数式6〕における第1式の“+{1−W(i)}・xl(i)”、第2式の“+{1−W(i)}・xr(i)” の項が不要となる。したがって、この場合、重複フレームスペクトルに対する周波数逆変換、およびフレームスペクトルに対する周波数逆変換(S109、S209)は上記〔数式6〕ではなく、以下の〔数式7〕に従って処理することになる。   As described above, when the overlapping acoustic frame is set and the processing for equalizing the low frequency components of the left and right channels is performed, the low frequency components of the left and right channels are equalized in order to reflect this in the modified acoustic signal. It is necessary to perform a process of performing inverse frequency conversion on the overlapped frame spectrum after processing to obtain a modified overlapped acoustic frame and further connecting to the acoustic frame. In this case, the signal component removed from the acoustic frame by multiplying by the window function W (i) can be compensated by connecting it with the signal of the overlapping acoustic frame. “+ {1−W (i)} · xl (i)” and “+ {1−W (i)} · xr (i)” in the second equation are not necessary. Therefore, in this case, the frequency inverse transformation for the overlapping frame spectrum and the frequency inverse transformation (S109, S209) for the frame spectrum are processed according to the following [Equation 7] instead of the above [Equation 6].

〔数式7〕
xl´(i)=1/N・{Σj=0,…,N-1Al(j)・cos(2πij/N)−Σj=0,…,N-1Bl(j)・sin(2πij/N)}
xr´(i)=1/N・{Σj=0,…,N-1Ar(j)・cos(2πij/N)−Σj=0,…,N-1Br(j)・sin(2πij/N)}
[Formula 7]
xl ′ (i) = 1 / N · {Σj = 0,..., N-1 Al (j) · cos (2πij / N) −Σj = 0,..., N−1 B1 (j) · sin ( 2πij / N)}
xr ′ (i) = 1 / N · {Σ j = 0,..., N−1 Ar (j) · cos (2πij / N) −Σ j = 0,..., N−1 Br (j) · sin ( 2πij / N)}

上記〔数式7〕により改変音響フレーム、改変重複音響フレームの左チャンネルの各サンプルxl´(i)、右チャンネルの各サンプルxr´(i)、が得られることになる。改変音響フレーム出力手段50は、S110、S210において、得られた改変音響フレームおよび改変重複音響フレームを順次連結して出力ファイルに出力する。上述のように、音響フレームおよび重複音響フレームは、音響フレーム読込手段10により音響信号から読み込む際、音響フレームと重複音響フレームに同一のサンプルが重複して含まれるように処理されている。したがって、音響フレーム出力手段50においては、重複して読み込まれたサンプルについて、各サンプルの値を合算した値として、出力ファイルに記録していく。   By the above [Expression 7], each sample xl ′ (i) of the left channel and each sample xr ′ (i) of the right channel of the modified acoustic frame and the modified overlapping acoustic frame are obtained. In S110 and S210, the modified sound frame output means 50 sequentially connects the obtained modified sound frame and the modified overlapping sound frame and outputs them to the output file. As described above, when the sound frame and the overlapping sound frame are read from the sound signal by the sound frame reading means 10, the sound frame and the overlapping sound frame are processed so that the same sample is included in duplicate. Therefore, the acoustic frame output means 50 records the sample read in duplicate in the output file as the sum of the values of the samples.

このようにして得られた改変音響信号のうち、付加情報が埋め込まれている部分については、低周波成分は、双方のチャンネルに均等に存在するか、あるいはどちらか一方のチャンネルに偏在するかの3通りの分布しかないことになる。しかし、高周波成分については、元の音響信号のままであるので、両チャンネルから制作者の設定に基づいた種々な分布になる。人間の聴覚は、高周波成分については、方向性を感知し易いが、低周波成分については、方向性を感知しにくくなっている。したがって、低周波成分が一方に偏っていても、聴いている人にとっては、通常の音響信号と変わりなく聴こえることになる。   Of the modified acoustic signal obtained in this way, for the part where the additional information is embedded, whether the low frequency component exists equally in both channels or is unevenly distributed in one of the channels. There are only three distributions. However, since the high-frequency component remains as the original acoustic signal, it has various distributions based on the settings of the creator from both channels. Human auditory senses directionality with respect to high-frequency components, but it is difficult to sense directionality with respect to low-frequency components. Therefore, even if the low frequency component is biased to one side, it will be heard as if it is a normal acoustic signal for the listener.

(3.音響信号からの情報の抽出装置)
次に、本発明に係る音響信号からの情報の抽出装置について説明する。図6は、本発明に係る音響信号からの情報の抽出装置の一実施形態を示す構成図である。図6において、100は音響信号入力手段、110は音響フレーム獲得手段、120は周波数変換手段、130はチャンネル間比率符号化手段、140は付加情報抽出手段である。
(3. Device for extracting information from acoustic signals)
Next, an apparatus for extracting information from an acoustic signal according to the present invention will be described. FIG. 6 is a block diagram showing an embodiment of an apparatus for extracting information from an acoustic signal according to the present invention. In FIG. 6, 100 is an acoustic signal input means, 110 is an acoustic frame acquisition means, 120 is a frequency conversion means, 130 is an interchannel ratio encoding means, and 140 is an additional information extraction means.

音響信号入力手段100は、流れている音声をデジタル音響信号として取得し、入力する機能を有している。現実には、マイクロフォンおよびA/D変換器により実現される。マイクロフォンとしては、左右の2チャンネルからの音声入力が可能な指向性マイクであることが必要である。音響フレーム獲得手段110は、入力されたデジタルのステレオ音響信号の各チャンネルから所定数のサンプルを1フレームとして読み込む機能を有している。したがって、図1に示した音響フレーム読込手段10と同様の処理を行うものであるが、隣接する音響フレームと重複させるサンプルの数が音響フレーム読込手段10とは異なっている。周波数変換手段120は、図1に示した周波数変換手段20と同様の機能を有している。チャンネル間比率符号化手段130は、生成された複数のフレームスペクトルから所定の周波数以下に相当する各低周波強度データを抽出し、左右各チャンネルごとに各低周波強度データの総和値を算出し、その総和値のチャンネル間比率に基づいて、所定の符号を出力する機能を有している。付加情報抽出手段140は、チャンネル間比率符号化手段130により出力された符号の集合である3値配列を、所定の規則により変換して意味のある付加情報として抽出する機能を有している。図6に示した各構成手段は、現実には情報処理機能を有する小型のコンピュータおよびその周辺機器等のハードウェアに専用のプログラムを搭載することにより実現される。特に、本発明の目的をより簡易に達成するためには、携帯型端末装置をハードウェアとして用いることが望ましい。   The acoustic signal input unit 100 has a function of acquiring and inputting a flowing sound as a digital acoustic signal. In reality, it is realized by a microphone and an A / D converter. The microphone needs to be a directional microphone that can input sound from the left and right channels. The sound frame acquisition means 110 has a function of reading a predetermined number of samples as one frame from each channel of the input digital stereo sound signal. Therefore, although the same processing as the acoustic frame reading means 10 shown in FIG. 1 is performed, the number of samples to be overlapped with the adjacent acoustic frames is different from that of the acoustic frame reading means 10. The frequency conversion means 120 has the same function as the frequency conversion means 20 shown in FIG. The channel-to-channel ratio encoding unit 130 extracts each low frequency intensity data corresponding to a predetermined frequency or less from the generated plurality of frame spectra, calculates a sum value of each low frequency intensity data for each of the left and right channels, It has a function of outputting a predetermined code based on the inter-channel ratio of the sum value. The additional information extraction unit 140 has a function of converting the ternary array, which is a set of codes output from the inter-channel ratio encoding unit 130, according to a predetermined rule and extracting it as meaningful additional information. Each component shown in FIG. 6 is actually realized by mounting a dedicated program on hardware such as a small computer having an information processing function and its peripheral devices. In particular, in order to achieve the object of the present invention more easily, it is desirable to use a portable terminal device as hardware.

(4.抽出装置の処理動作)
次に、図6に示した音響信号からの情報の抽出装置の処理動作について図7のフローチャートに従って説明する。利用者が流れている音楽について、その楽曲名等の属性情報を知りたいと思った場合、まず、抽出装置に対して、抽出装置としての起動の指示を行う。これは、例えば、抽出装置を携帯電話機等の携帯端末で実現している場合は、所定のボタンを操作することにより実行できる。抽出装置は、指示が入力されると、音響信号入力手段100が、流れている音楽を録音し、デジタル化してデジタル音響信号として入力する。具体的には、指向性マイクロフォンの左右から入力される音声を、それぞれA/D変換器によりデジタル化する処理を行うことになる。
(4. Processing operation of extraction device)
Next, the processing operation of the apparatus for extracting information from the acoustic signal shown in FIG. 6 will be described with reference to the flowchart of FIG. When the user wants to know the attribute information such as the song name of the music that is playing, first, the extraction device is instructed to start as the extraction device. For example, this can be executed by operating a predetermined button when the extraction device is realized by a mobile terminal such as a mobile phone. When an instruction is input to the extraction device, the acoustic signal input unit 100 records the flowing music, digitizes it, and inputs it as a digital acoustic signal. Specifically, the audio input from the left and right sides of the directional microphone is digitized by an A / D converter.

続いて、音響フレーム獲得手段110が、音響信号入力手段100から入力されたステレオ音響信号の各チャンネルから、それぞれ所定数のサンプルを1音響フレームとして読み込む(S310)。音響フレーム獲得手段110が読み込む1音響フレームのサンプル数は、図1に示した音響フレーム読込手段10で設定されたものと同一にする必要がある。したがって、本実施形態の場合、音響フレーム獲得手段110は、左チャンネル、右チャンネルについてそれぞれ4096サンプルずつ、順次音響フレームとして読み込んでいくことになる。   Subsequently, the acoustic frame acquisition unit 110 reads a predetermined number of samples as one acoustic frame from each channel of the stereo acoustic signal input from the acoustic signal input unit 100 (S310). The number of samples of one acoustic frame read by the acoustic frame acquisition unit 110 needs to be the same as that set by the acoustic frame reading unit 10 shown in FIG. Therefore, in the case of this embodiment, the acoustic frame acquisition unit 110 sequentially reads 4096 samples for each of the left channel and the right channel as acoustic frames.

続いて、周波数変換手段120、チャンネル間比率符号化手段130が、読み込んだ各音響フレームから、埋め込まれている情報を判定し、対応する符号を出力する(S320)。出力される情報の形式は、埋め込み側のビット値に対応する2値、および区切りとして入力された値の3値の形式となる。このS320における処理については後述する。   Subsequently, the frequency conversion unit 120 and the inter-channel ratio encoding unit 130 determine embedded information from each read sound frame and output a corresponding code (S320). The format of the information to be output is a binary format corresponding to the bit value on the embedding side and a ternary format of values input as delimiters. The process in S320 will be described later.

S320による処理の結果、ビット値に相当する符号が抽出された場合には、そのビット値をバッファに保存する(S330)。続いて、ビットカウンタをカウントアップする(S340)。そして、ビットカウンタが8ビット以上であるかどうかを判断する(S350)。その結果、ビットカウンタが8ビット以上である場合には、1バイト分のビット値がバッファに格納されていることになるので、バッファ内の1バイト分のデータを、付加情報抽出手段140が出力する(S360)。一方、S320による処理の結果、区切り情報に対応する値が出力された場合には、ビットカウンタを0に初期化する(S370)。図7に示す処理を各音響フレームに対して実行することにより、付加情報が抽出されることになる。S310において全ての音響フレームが抽出されたと判断された場合には、処理を終了する。   If a code corresponding to the bit value is extracted as a result of the processing in S320, the bit value is stored in the buffer (S330). Subsequently, the bit counter is counted up (S340). Then, it is determined whether the bit counter is 8 bits or more (S350). As a result, when the bit counter is 8 bits or more, since the bit value for 1 byte is stored in the buffer, the additional information extraction unit 140 outputs the data for 1 byte in the buffer. (S360). On the other hand, if a value corresponding to the delimiter information is output as a result of the processing in S320, the bit counter is initialized to 0 (S370). By executing the processing shown in FIG. 7 for each acoustic frame, additional information is extracted. If it is determined in S310 that all sound frames have been extracted, the process ends.

続いて、上記S320の符号出力処理の詳細を図8のフローチャートに従って説明する。まず、周波数変換手段120が、読み込んだ各音響フレームに対して、周波数変換を行ってフレームスペクトルを得る(S321)。この処理は、図1に示した周波数変換手段20における処理と同様である。したがって、本実施形態では、上記〔数式1〕に従った処理を行い、左チャンネルに対応する変換データの実部Al(j)、虚部Bl(j)、右チャンネルに対応する変換データの実部Ar(j)、虚部Br(j)を得る。この際、音響信号xl(i)、xr(i)には、それぞれW(i)=0.5−0.5・cos(2πi/N)で表現される窓関数(ハニング窓)を重みとして乗じる処理も、周波数変換手段20と同様に行われる。   Next, the details of the code output process of S320 will be described with reference to the flowchart of FIG. First, the frequency conversion means 120 performs frequency conversion on each read sound frame to obtain a frame spectrum (S321). This process is the same as the process in the frequency conversion means 20 shown in FIG. Therefore, in the present embodiment, the processing according to the above [Equation 1] is performed, and the real part Al (j), the imaginary part Bl (j) of the conversion data corresponding to the left channel, and the conversion data corresponding to the right channel are processed. Part Ar (j) and imaginary part Br (j) are obtained. At this time, the acoustic signals xl (i) and xr (i) are each weighted with a window function (Hanning window) expressed by W (i) = 0.5−0.5 · cos (2πi / N). The multiplication process is also performed in the same manner as the frequency conversion means 20.

上記周波数変換手段120における処理により、周波数に対応した成分であるスペクトルで表現されたフレームスペクトルが得られる。続いて、チャンネル間比率符号化手段130は、生成された複数のフレームスペクトルから所定の周波数範囲の各低周波強度データを抽出する。抽出すべき周波数範囲は、埋め込み装置と対応させる必要がある。したがって、ここでは、周波数が200Hz以下の低周波強度データを抽出することになり、埋め込み装置の場合と同様、上記〔数式1〕により算出された実部Al(j)、虚部Bl(j)、実部Ar(j)、虚部Br(j)のうち、j≦20のものを抽出する。   By the processing in the frequency conversion means 120, a frame spectrum expressed by a spectrum that is a component corresponding to the frequency is obtained. Subsequently, the inter-channel ratio encoding unit 130 extracts each low frequency intensity data in a predetermined frequency range from the generated plurality of frame spectra. The frequency range to be extracted needs to correspond to the embedding device. Therefore, here, low frequency intensity data having a frequency of 200 Hz or less is extracted, and the real part Al (j) and imaginary part Bl (j) calculated by the above [Equation 1] as in the case of the embedding device. , J ≦ 20 are extracted from the real part Ar (j) and the imaginary part Br (j).

続いて、チャンネル間比率符号化手段130は、埋め込み装置の低周波成分変更手段30と同様、抽出した実部Al(j)、虚部Bl(j)、実部Ar(j)、虚部Br(j)を利用して、上記〔数式2〕によりj=1〜M(例えば20)までの低周波強度の合計値Eを算出する。さらに、低周波成分変更手段30と同様、この合算値Eがレベル下限値以上であるかどうかの判定を行う(S322)。   Subsequently, the inter-channel ratio encoding unit 130 extracts the extracted real part Al (j), imaginary part Bl (j), real part Ar (j), and imaginary part Br, similarly to the low-frequency component changing unit 30 of the embedding device. Using (j), the total value E of the low frequency intensity from j = 1 to M (for example, 20) is calculated by the above [Equation 2]. Further, similarly to the low-frequency component changing means 30, it is determined whether or not the total value E is equal to or higher than the level lower limit value (S322).

合算値Eがレベル下限以上である場合、以下の〔数式8〕に従った処理を実行する。   When the total value E is equal to or higher than the lower limit of the level, processing according to the following [Equation 8] is executed.

〔数式8〕
El=Cl・Σj=1,…,M{Al(j)2+Bl(j)2
Er=Cr・Σj=1,…,M{Ar(j)2+Br(j)2
[Formula 8]
El = Cl · Σ j = 1,..., M {Al (j) 2 + Bl (j) 2 }
Er = Cr · Σ j = 1,..., M {Ar (j) 2 + Br (j) 2 }

上記〔数式8〕において、Cl、Crはキャリブレーションデータを用いた補正係数であり、抽出装置の利用環境に応じて設定されるが、本実施形態では、共にCl=Cr=1と設定してある。さらに、チャンネル間比率符号化手段130は、上記算出されたEl、Erの比較判定を以下の〔数式9〕に従って行い(S323)、比較結果に対応する符号を出力する。   In the above [Equation 8], Cl and Cr are correction coefficients using calibration data, and are set according to the use environment of the extraction device. In this embodiment, both Cl = Cr = 1 are set. is there. Further, the inter-channel ratio encoding means 130 performs the comparison determination of the calculated El and Er according to the following [Equation 9] (S323), and outputs a code corresponding to the comparison result.

〔数式9〕
Er/El>2の場合、右チャンネル大
El/Er>2の場合、左チャンネル大
Er/El≦2かつEl/Er≦2の場合、左右均等
[Formula 9]
When Er / El> 2, the right channel is large. When El / Er> 2, the left channel is large. When Er / El ≦ 2 and El / Er ≦ 2, the left and right are equal.

チャンネル間比率符号化手段130は、各音響フレーム単位で、上記判定結果に応じて3値の符号を出力する。すなわち、右チャンネル大と判定した場合には、第1のビット値(例えば“1”)を出力し(S324)、左チャンネル大と判定した場合には、第2のビット値(例えば“0”)を出力し(S325)、左右均等と判定した場合には、区切り情報を示す符号を出力する(S326)。   The inter-channel ratio encoding unit 130 outputs a ternary code according to the determination result for each acoustic frame. That is, when it is determined that the right channel is large, a first bit value (for example, “1”) is output (S324), and when it is determined that the left channel is large, the second bit value (for example, “0”). ) Is output (S325), and when it is determined that the left and right are equal, a code indicating delimiter information is output (S326).

上記S360の処理において、付加情報抽出手段140は、まず、チャンネル間比率符号化手段130により出力された3値の符号のうち、左右均等を示す符号を区切り位置として、その次の符号を先頭とし、右チャンネル大、左チャンネル大の符号をビット値に対応させて、ビット配列を作成する。続いて、このビット配列を、所定の規則により変換して意味のある付加情報として抽出する。所定の規則としては、情報を埋め込む者が意図した情報が受け取った者に認識可能な状態とできるものであれば、さまざまな規則が適用できるが、本実施形態では、文字情報として認識するための規則としている。すなわち、付加情報抽出手段140は、チャンネル間比率符号化手段130から出力される符号を1バイト(8ビット)単位で認識し、これを設定されたコード体系に従って文字情報を認識する。このようにして得られた文字情報は、表示装置(図示省略)の画面に表示出力される。   In the process of S360, the additional information extracting unit 140 first sets a code indicating equal left and right among the ternary codes output by the inter-channel ratio encoding unit 130 as a delimiter position, and sets the next code as the head. The bit array is created by associating the signs of the right channel size and the left channel size with the bit values. Subsequently, this bit arrangement is converted according to a predetermined rule and extracted as meaningful additional information. As the predetermined rule, various rules can be applied as long as the information intended by the person who embeds the information can be recognized by the person who has received it. As a rule. That is, the additional information extracting unit 140 recognizes the code output from the inter-channel ratio encoding unit 130 in units of 1 byte (8 bits), and recognizes the character information according to the set code system. The character information thus obtained is displayed and output on a screen of a display device (not shown).

従って、埋め込み装置により音響信号に、その楽曲の曲名やアーチスト等の属性情報を文字情報として埋め込んでおけば、利用者は、その音楽が流れているのを聞いて、その曲名やアーチストを知りたいと思ったときに、抽出装置として機能する自身の携帯端末に所定の操作を行えば、自身の携帯端末の画面に曲名やアーチスト等の属性情報が文字情報として表示されることになる。   Therefore, if the embedding device embeds the attribute information such as the song title or artist in the sound signal as the character information, the user wants to know the song title or artist by listening to the music being played. If a predetermined operation is performed on the mobile terminal that functions as the extraction device, attribute information such as a song title and an artist is displayed as character information on the screen of the mobile terminal.

図7のフローチャートは、埋め込み側において、付加情報をバイト単位で記録したものに対応している。埋め込み側で付加情報をワード単位で記録している場合には、図9のフローチャートに従った処理を行うことになる。まず、図7のS310と同様、音響フレーム獲得手段110が、音響信号入力手段100から入力されたステレオ音響信号の各チャンネルから、それぞれ所定数のサンプルを1音響フレームとして読み込む(S401)。   The flowchart in FIG. 7 corresponds to the additional information recorded on the embedding side in byte units. When additional information is recorded in units of words on the embedding side, processing according to the flowchart of FIG. 9 is performed. First, as in S310 of FIG. 7, the acoustic frame acquisition unit 110 reads a predetermined number of samples as one acoustic frame from each channel of the stereo acoustic signal input from the acoustic signal input unit 100 (S401).

続いて、図7のS310と同様、周波数変換手段120、チャンネル間比率符号化手段130が、読み込んだ各音響フレームから、埋め込まれている情報を判定し、対応する符号を出力する(S402)。このS402における処理の詳細は、図8に示したようなものとなる。   Subsequently, as in S310 of FIG. 7, the frequency conversion unit 120 and the inter-channel ratio encoding unit 130 determine embedded information from each read acoustic frame and output a corresponding code (S402). The details of the processing in S402 are as shown in FIG.

S402による処理の結果、ビット値に相当する符号が抽出された場合には、モードの判定を行う(S403)。モードは、区切りモードとビット出力モードの2つが用意されている。ビット出力モードである場合は、そのビット値をバッファに保存する(S408)。続いて、ビットカウンタをカウントアップする(S409)。一方、S403による判定の結果、区切りモードである場合には、さらに抽出された符号が、新規を意味するものか継続を意味するものかを判定する(S404)。この結果、新規である場合には、その直前で1ワードが終了していることを意味するので、バッファに記録された1ワード分のデータを、付加情報抽出手段140が出力する(S405)。そして、ビットカウンタを0に初期化する(S406)。さらに、モードをビット出力モードに設定する(S407)。S404において、継続と判定された場合には、バッファ内のビットに値を出力すべきであるので、ビット出力モードに設定する処理のみを行う。また、S402において、区切り情報に相当する符号が抽出された場合には、次の音響フレームから新規か継続かの情報を抽出するため、モードを区切りモードに設定する(S410)。図9に示す処理を各音響フレームに対して実行することにより、付加情報が抽出されることになる。S401において全ての音響フレームが抽出されたと判断された場合には、処理を終了する。   If a code corresponding to the bit value is extracted as a result of the process in S402, the mode is determined (S403). Two modes, a delimited mode and a bit output mode, are prepared. If it is in the bit output mode, the bit value is stored in the buffer (S408). Subsequently, the bit counter is counted up (S409). On the other hand, if the result of determination in S403 is that the mode is a separation mode, it is further determined whether the extracted code means new or continuation (S404). As a result, if it is new, it means that one word has been completed immediately before, and the additional information extracting means 140 outputs the data for one word recorded in the buffer (S405). Then, the bit counter is initialized to 0 (S406). Further, the mode is set to the bit output mode (S407). If it is determined to continue in S404, the value should be output to the bit in the buffer, so only the processing for setting the bit output mode is performed. If a code corresponding to the delimiter information is extracted in S402, the mode is set to the delimiter mode in order to extract new or continued information from the next sound frame (S410). By executing the processing shown in FIG. 9 for each acoustic frame, additional information is extracted. If it is determined in S401 that all sound frames have been extracted, the process ends.

本発明に係る音響信号に対する情報の埋め込み装置の機能ブロック図である。It is a functional block diagram of an information embedding device for an acoustic signal according to the present invention. 図1に示した装置の処理概要を示すフローチャートである。It is a flowchart which shows the process outline | summary of the apparatus shown in FIG. 図2に従った処理による低周波成分の変化の様子を示すである。FIG. 3 shows how a low-frequency component is changed by processing according to FIG. 2. 図1に示した装置の他の手法による処理概要を示すフローチャートである。It is a flowchart which shows the process outline | summary by the other method of the apparatus shown in FIG. 図4に従った処理による低周波成分の変化の様子を示すである。FIG. 5 shows how the low frequency component changes due to the processing according to FIG. 4. FIG. 本発明に係る音響信号からの情報の抽出装置の機能ブロック図である。1 is a functional block diagram of an apparatus for extracting information from an acoustic signal according to the present invention. 図6に示した装置の処理概要を示すフローチャートである。It is a flowchart which shows the process outline | summary of the apparatus shown in FIG. 図7のS320の符号出力処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the code | symbol output process of S320 of FIG. 図6に示した装置の他の手法による処理概要を示すフローチャートである。It is a flowchart which shows the process outline | summary by the other method of the apparatus shown in FIG.

符号の説明Explanation of symbols

10・・・音響フレーム読込手段
20・・・周波数変換手段
30・・・低周波成分変更手段
40・・・周波数逆変換手段
50・・・改変音響フレーム出力手段
60・・・記憶手段
61・・・音響信号記憶部
62・・・付加情報記憶部
63・・・改変音響信号記憶部
70・・・付加情報読込手段
100・・・音響信号入力手段
110・・・音響フレーム獲得手段
120・・・周波数変換手段
130・・・チャンネル間比率符号化手段
140・・・付加情報抽出手段

DESCRIPTION OF SYMBOLS 10 ... Sound frame reading means 20 ... Frequency conversion means 30 ... Low frequency component change means 40 ... Frequency reverse conversion means 50 ... Modified sound frame output means 60 ... Storage means 61 ... -Acoustic signal storage unit 62 ... Additional information storage unit 63 ... Modified acoustic signal storage unit 70 ... Additional information reading means 100 ... Acoustic signal input means 110 ... Acoustic frame acquisition means 120 ... Frequency conversion means 130 ... Inter-channel ratio encoding means 140 ... Additional information extraction means

Claims (8)

左右の2チャンネルを有し、左右それぞれのチャンネルが時系列のサンプル列で構成されるステレオの音響信号に対して、付加情報を聴取不能な状態で埋め込む装置であって、
埋め込むべき付加情報のビット配列を順次読み込む付加情報読み込み手段と、
前記音響信号の左右の各チャンネルより、それぞれ所定数のサンプルを音響フレームとして読み込む音響フレーム読込手段と、
前記読み込んだ各音響フレームに対して周波数変換を行い、前記各チャンネルに対応する複数のフレームスペクトルを生成する周波数変換手段と、
前記生成された複数のフレームスペクトルから所定の周波数以下の成分に相当する低周波強度データを抽出し、前記読み込んだ付加情報のビット配列の各ビット値がとり得る値、および付加情報のビット配列の区切りを示す情報に基づいて、チャンネル間で対応する前記低周波強度データのチャンネル間比率を、左チャンネルを大、右チャンネルを大、左右均等の3パターンのいずれかに変更する低周波成分変更手段と、
前記変更された低周波成分を含む前記複数のフレームスペクトルに対して周波数逆変換を行い、複数の改変音響フレームを生成する周波数逆変換手段と、
前記生成された改変音響フレームを順次出力する改変音響フレーム出力手段と、
を有することを特徴とする音響信号に対する情報の埋め込み装置。
A device that embeds additional information in an inaudible state with respect to a stereo acoustic signal having two left and right channels, each of the left and right channels being composed of a time-series sample sequence,
Additional information reading means for sequentially reading a bit array of additional information to be embedded;
From each of the left and right channels of the acoustic signal, acoustic frame reading means for reading a predetermined number of samples as acoustic frames,
Frequency conversion means for performing frequency conversion on each of the read sound frames and generating a plurality of frame spectra corresponding to the channels;
Extracting low-frequency intensity data corresponding to a component below a predetermined frequency from the generated plurality of frame spectra, a value that each bit value of the read bit sequence of the additional information can take, and a bit sequence of the additional information Low-frequency component changing means for changing the channel-to-channel ratio of the low-frequency intensity data corresponding to each channel to any one of three patterns equivalent to the left channel being large, the right channel being large, and the left and right based on the information indicating the separation. When,
Frequency inverse transform means for performing frequency inverse transform on the plurality of frame spectra including the changed low frequency component, and generating a plurality of modified acoustic frames;
Modified acoustic frame output means for sequentially outputting the generated modified acoustic frames;
An information embedding device for an acoustic signal, comprising:
請求項1において、
前記低周波成分変更手段は、所定の周波数以下に相当する低周波強度データの合算値が所定のレベルに達しない場合、両チャンネルの低周波強度データのチャンネル間比率を左右均等なものとすることを特徴とする音響信号に対する情報の埋め込み装置。
In claim 1,
The low frequency component changing means equalizes the ratio between the left and right channels of the low frequency intensity data of both channels when the sum of the low frequency intensity data corresponding to a predetermined frequency or less does not reach a predetermined level. An information embedding device for an acoustic signal characterized by
請求項2において、
前記低周波成分変更手段は、前記各低周波強度データの合算値が所定のレベルに達しない場合、再度、前記付加情報のビット配列のワード先頭ビットから、後続するフレームスペクトルに対して低周波強度データのチャンネル間比率を変更する処理を行うことを特徴とする音響信号に対する情報の埋め込み装置。
In claim 2,
The low frequency component changing means, when the sum of the low frequency intensity data does not reach a predetermined level, again, the low frequency intensity for the subsequent frame spectrum from the word leading bit of the bit array of the additional information. An apparatus for embedding information in an acoustic signal, characterized by performing processing for changing a ratio between data channels.
請求項2において、
前記低周波成分変更手段は、直前のフレームスペクトルに対して前記付加情報の低周波強度データのチャンネル間比率を左右均等なものとした場合に、後続するフレームスペクトルについて、付加情報のビット配列のワード先頭であるか、ワード途中であるかを示すために、前記低周波強度データのチャンネル間比率を左チャンネルを大、右チャンネルを大のいずれかのパターンに変更するものであることを特徴とする音響信号に対する情報の埋め込み装置。
In claim 2,
The low frequency component changing means, when the interchannel ratio of the low frequency intensity data of the additional information is equal to the left and right with respect to the immediately preceding frame spectrum, the word of the bit array of the additional information for the subsequent frame spectrum In order to indicate whether it is the beginning or the middle of a word, the ratio between channels of the low frequency intensity data is changed to a pattern of either a large left channel or a large right channel. An information embedding device for acoustic signals.
請求項1において、
前記音響フレーム読込手段は、前記各音響フレームを読み込む際に、前記音響フレームの長さの1/2だけ重複した重複音響フレームを読み込むものであり、
前記周波数変換手段は、当該重複音響フレームに対して周波数変換を行い、前記各チャンネルに対応する複数の重複フレームスペクトルを生成するものであり、
前記低周波成分変更手段は、生成された重複フレームスペクトルから所定の周波数以下に相当する各低周波強度データを抽出し、両チャンネルの低周波強度データの割合を均等なものとするものであり、
前記周波数逆変換手段は、前記変更された低周波強度データを含む前記複数の重複フレームスペクトルに対して周波数逆変換を行い、複数の改変重複音響フレームを生成するものであり、
前記改変音響フレーム出力手段は、前記改変音響フレームおよび前記改変重複音響フレームを元の音響信号におけるサンプルの順序に従って連結して出力するものであることを特徴とする音響信号に対する情報の埋め込み装置。
In claim 1,
The acoustic frame reading means is for reading an overlapping acoustic frame that is overlapped by ½ of the length of the acoustic frame when reading each acoustic frame,
The frequency converting means performs frequency conversion on the overlapping acoustic frame, and generates a plurality of overlapping frame spectra corresponding to the channels,
The low frequency component changing means extracts each low frequency intensity data corresponding to a predetermined frequency or less from the generated overlapping frame spectrum, and equalizes the ratio of the low frequency intensity data of both channels,
The frequency inverse transform means performs frequency inverse transform on the plurality of overlapping frame spectra including the changed low frequency intensity data, and generates a plurality of modified overlapping acoustic frames,
The apparatus for embedding information in an acoustic signal, wherein the modified acoustic frame output means connects and outputs the modified acoustic frame and the modified overlapping acoustic frame according to a sample order in the original acoustic signal.
左右の2チャンネルを有し、左右ぞれぞれのチャンネルが時系列のサンプル列で構成されるステレオの音響信号に対して、付加情報を聴取不能な状態で埋め込む方法であって、
埋め込むべき付加情報のビット配列を順次読み込む付加情報読み込み段階と、
前記音響信号の左右の各チャンネルより、それぞれ所定数のサンプルを音響フレームとして読み込む音響フレーム読込段階と、
前記読み込んだ各音響フレームに対して周波数変換を行い、前記各チャンネルに対応する複数のフレームスペクトルを生成する周波数変換段階と、
前記生成された複数のフレームスペクトルから所定の周波数以下の成分に相当する低周波強度データを抽出し、前記読み込んだ付加情報のビット配列の各ビット値がとり得る値、および付加情報のビット配列の区切りを示す情報に基づいて、チャンネル間で対応する前記低周波強度データのチャンネル間比率を、左チャンネルを大、右チャンネルを大、左右均等の3パターンのいずれかに変更する低周波成分変更段階と、
前記変更された低周波成分を含む前記複数のフレームスペクトルに対して周波数逆変換を行い、複数の改変音響フレームを生成する周波数逆変換段階と、
前記生成された改変音響フレームを順次出力する改変音響フレーム出力段階と、
を有することを特徴とする音響信号に対する情報の埋め込み方法。
A method of embedding additional information in an inaudible state with respect to a stereo acoustic signal having two left and right channels, each of the left and right channels being composed of a time-series sample sequence,
An additional information reading stage for sequentially reading a bit array of additional information to be embedded;
A sound frame reading step for reading a predetermined number of samples as sound frames from the left and right channels of the sound signal,
Performing a frequency conversion on each of the read sound frames to generate a plurality of frame spectra corresponding to the channels;
Extracting low-frequency intensity data corresponding to a component below a predetermined frequency from the generated plurality of frame spectra, a value that each bit value of the read bit sequence of the additional information can take, and a bit sequence of the additional information A low-frequency component changing step of changing the channel-to-channel ratio of the low-frequency intensity data corresponding to each channel to any one of three patterns equivalent to the left channel is large, the right channel is large, and left and right based on the information indicating the delimiter. When,
A frequency inverse transform stage that performs frequency inverse transform on the plurality of frame spectra including the modified low frequency component to generate a plurality of modified acoustic frames;
A modified sound frame output step of sequentially outputting the generated modified sound frames;
A method for embedding information in an acoustic signal, comprising:
左右の2チャンネルを有し、左右ぞれぞれのチャンネルが時系列のサンプル列で構成されるステレオの音響信号から、あらかじめ聴取不能な状態で埋め込まれた付加情報を抽出する装置であって、
前記音響信号の各チャンネルの所定の区間をデジタル化して、所定数のサンプルで構成される音響フレームを、各チャンネルに対応して複数個獲得する音響フレーム獲得手段と、
前記獲得した各音響フレームに対して周波数変換を行い、前記各チャンネルに対応する複数のフレームスペクトルを生成する周波数変換手段と、
前記生成された複数のフレームスペクトルから所定の周波数以下の成分に相当する低周波強度データを抽出し、各チャンネルごとに各低周波強度データの総和値を算出し、当該総和値のチャンネル間比率が左右均等であるか、左チャンネルが大きいか、右チャンネルが大きいかのいずれの状態であるかに基づいて、前記各状態に対応する3値の符号を出力するチャンネル間比率符号化手段と、
前記出力された符号が、チャンネル間比率が均等であったことを示す情報である場合に、当該符号を除いた他の2値の符号により構成されるビット配列を、所定の規則により変換して付加情報を抽出する付加情報抽出手段と、
を有することを特徴とする音響信号からの情報の抽出装置。
An apparatus for extracting additional information embedded in an inaudible state in advance from a stereo sound signal having two left and right channels, each of the left and right channels being composed of a time-series sample sequence,
Sound frame acquisition means for digitizing a predetermined section of each channel of the sound signal and acquiring a plurality of sound frames composed of a predetermined number of samples corresponding to each channel;
Frequency conversion means for performing frequency conversion on each acquired acoustic frame and generating a plurality of frame spectra corresponding to each channel;
Extract low frequency intensity data corresponding to a component below a predetermined frequency from the generated plurality of frame spectra, calculate the total value of each low frequency intensity data for each channel, and the inter-channel ratio of the total value is An inter-channel ratio encoding means for outputting a ternary code corresponding to each state based on whether the left and right are equal, the left channel is large, or the right channel is large;
When the output code is information indicating that the ratio between channels is uniform, a bit array composed of other binary codes excluding the code is converted according to a predetermined rule. Additional information extracting means for extracting additional information;
An apparatus for extracting information from an acoustic signal, comprising:
左右の2チャンネルを有し、左右ぞれぞれのチャンネルが時系列のサンプル列で構成されるステレオの音響信号から、あらかじめ聴取不能な状態で埋め込まれた付加情報を抽出する方法であって、
前記音響信号の各チャンネルの所定の区間をデジタル化して、所定数のサンプルで構成される音響フレームを、各チャンネルに対応して複数個獲得する音響フレーム獲得段階と、
前記獲得した各音響フレームに対して周波数変換を行い、前記各チャンネルに対応する複数のフレームスペクトルを生成する周波数変換段階と、
前記生成された複数のフレームスペクトルから所定の周波数以下の成分に相当する低周波強度データを抽出し、各チャンネルごとに各低周波強度データの総和値を算出し、当該総和値のチャンネル間比率が左右均等であるか、左チャンネルが大きいか、右チャンネルが大きいかのいずれの状態であるかに基づいて、前記各状態に対応する3値の符号を出力するチャンネル間比率符号化段階と、
前記出力された符号が、チャンネル間比率が均等であったことを示す情報である場合に、当該符号を除いた他の2値の符号により構成されるビット配列を、所定の規則により変換して付加情報を抽出する付加情報抽出段階と、
を有することを特徴とする音響信号からの情報の抽出方法。


A method of extracting additional information embedded in an inaudible state in advance from a stereo acoustic signal having two left and right channels, each of which is composed of a time-series sample sequence,
A sound frame acquisition step of digitizing a predetermined section of each channel of the sound signal and acquiring a plurality of sound frames composed of a predetermined number of samples corresponding to each channel;
Performing a frequency conversion on each acquired acoustic frame to generate a plurality of frame spectra corresponding to each channel;
Extract low frequency intensity data corresponding to a component below a predetermined frequency from the generated plurality of frame spectra, calculate the total value of each low frequency intensity data for each channel, and the inter-channel ratio of the total value is An inter-channel ratio encoding step for outputting a ternary code corresponding to each state based on whether the left and right are equal, the left channel is large, or the right channel is large;
When the output code is information indicating that the ratio between channels is uniform, a bit array composed of other binary codes excluding the code is converted according to a predetermined rule. An additional information extraction stage for extracting additional information;
A method for extracting information from an acoustic signal.


JP2005041579A 2005-02-18 2005-02-18 Information embedding apparatus and method for acoustic signal Expired - Fee Related JP4770194B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005041579A JP4770194B2 (en) 2005-02-18 2005-02-18 Information embedding apparatus and method for acoustic signal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005041579A JP4770194B2 (en) 2005-02-18 2005-02-18 Information embedding apparatus and method for acoustic signal

Publications (2)

Publication Number Publication Date
JP2006227330A true JP2006227330A (en) 2006-08-31
JP4770194B2 JP4770194B2 (en) 2011-09-14

Family

ID=36988750

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005041579A Expired - Fee Related JP4770194B2 (en) 2005-02-18 2005-02-18 Information embedding apparatus and method for acoustic signal

Country Status (1)

Country Link
JP (1) JP4770194B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008065008A (en) * 2006-09-07 2008-03-21 Dainippon Printing Co Ltd Device for embedding information in sound signal and device for extracting information from sound signal
JP2008064952A (en) * 2006-09-06 2008-03-21 Dainippon Printing Co Ltd Device for embedding information in sound signal and device for extracting information from sound signal
JP2008065052A (en) * 2006-09-07 2008-03-21 Dainippon Printing Co Ltd Device for embedding information in sound signal and device for extracting information from sound signal
EP2777247A4 (en) * 2011-11-11 2015-08-05 Optimark Llc Digital communications
US9357326B2 (en) 2012-07-12 2016-05-31 Dolby Laboratories Licensing Corporation Embedding data in stereo audio using saturation parameter modulation

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04102528A (en) * 1990-08-10 1992-04-03 Ube Ind Ltd Bulk item automatic filling device
JPH10313497A (en) * 1996-09-18 1998-11-24 Nippon Telegr & Teleph Corp <Ntt> Sound source separation method, system and recording medium
JP2000083014A (en) * 1998-09-04 2000-03-21 Nippon Telegr & Teleph Corp <Ntt> Information multiplexing method and method and device for extracting information
JP2000138819A (en) * 1998-10-30 2000-05-16 Canon Inc Method and device for inserting and detecting of electronic watermarks
JP2000181499A (en) * 1998-12-10 2000-06-30 Nippon Hoso Kyokai <Nhk> Sound source signal separation circuit and microphone device using the same
JP2002044408A (en) * 2000-06-29 2002-02-08 Internatl Business Mach Corp <Ibm> Method and system of digital watermark
WO2004102528A1 (en) * 2003-05-16 2004-11-25 Ascii Solutions,Inc. Audio electronic watermarking device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04102528A (en) * 1990-08-10 1992-04-03 Ube Ind Ltd Bulk item automatic filling device
JPH10313497A (en) * 1996-09-18 1998-11-24 Nippon Telegr & Teleph Corp <Ntt> Sound source separation method, system and recording medium
JP2000083014A (en) * 1998-09-04 2000-03-21 Nippon Telegr & Teleph Corp <Ntt> Information multiplexing method and method and device for extracting information
JP2000138819A (en) * 1998-10-30 2000-05-16 Canon Inc Method and device for inserting and detecting of electronic watermarks
JP2000181499A (en) * 1998-12-10 2000-06-30 Nippon Hoso Kyokai <Nhk> Sound source signal separation circuit and microphone device using the same
JP2002044408A (en) * 2000-06-29 2002-02-08 Internatl Business Mach Corp <Ibm> Method and system of digital watermark
WO2004102528A1 (en) * 2003-05-16 2004-11-25 Ascii Solutions,Inc. Audio electronic watermarking device

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008064952A (en) * 2006-09-06 2008-03-21 Dainippon Printing Co Ltd Device for embedding information in sound signal and device for extracting information from sound signal
JP2008065008A (en) * 2006-09-07 2008-03-21 Dainippon Printing Co Ltd Device for embedding information in sound signal and device for extracting information from sound signal
JP2008065052A (en) * 2006-09-07 2008-03-21 Dainippon Printing Co Ltd Device for embedding information in sound signal and device for extracting information from sound signal
EP2777247A4 (en) * 2011-11-11 2015-08-05 Optimark Llc Digital communications
US10007769B2 (en) 2011-11-11 2018-06-26 Optimark, L.L.C. Digital communications
US10007796B2 (en) 2011-11-11 2018-06-26 Optimark, L.L.C. Digital communications
US9357326B2 (en) 2012-07-12 2016-05-31 Dolby Laboratories Licensing Corporation Embedding data in stereo audio using saturation parameter modulation

Also Published As

Publication number Publication date
JP4770194B2 (en) 2011-09-14

Similar Documents

Publication Publication Date Title
JP4899416B2 (en) Network connection device
JP4660275B2 (en) Information embedding apparatus and method for acoustic signal
JP2006323161A (en) Control code embedding device to sound signal, and control system for time series driving gear using sound signal
JP4839775B2 (en) Information embedding device, method, and program for acoustic signal
JP4629495B2 (en) Information embedding apparatus and method for acoustic signal
JP4770194B2 (en) Information embedding apparatus and method for acoustic signal
JP4867765B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP2007292827A (en) Acoustic signal retrieving apparatus
JP4531653B2 (en) Device for extracting information from acoustic signals
JP2006195061A (en) Information embedding device for acoustic signal, information extracting device from acoustic signal and acoustic signal reproducing device
JP2006201527A (en) Device for embedding information in sound signal, device for extracting information from sound signal, and sound signal reproducing device and method
JP5082257B2 (en) Acoustic signal retrieval device
JP4839721B2 (en) Information embedding device for acoustic signals
JP4713180B2 (en) Device for extracting information from acoustic signals
JP4713181B2 (en) Information embedding device for sound signal, device for extracting information from sound signal, and sound signal reproducing device
JP5104200B2 (en) Network connection device
JP4831335B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP4876978B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP5011855B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP2006243398A (en) Synthesizer of sound signals and retrieval device thereof
JP4831333B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP4968468B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP4760539B2 (en) Information embedding device for acoustic signals
JP4760540B2 (en) Information embedding device for acoustic signals
JP2008139491A (en) Device for embedding information in sound signal and device for extracting information from sound signal

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070906

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100601

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100802

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110301

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110425

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110524

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110606

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140701

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees