JP2006227330A - Embedding device/method of information to audio signals, extraction device/method of information from audio signals - Google Patents
Embedding device/method of information to audio signals, extraction device/method of information from audio signals Download PDFInfo
- Publication number
- JP2006227330A JP2006227330A JP2005041579A JP2005041579A JP2006227330A JP 2006227330 A JP2006227330 A JP 2006227330A JP 2005041579 A JP2005041579 A JP 2005041579A JP 2005041579 A JP2005041579 A JP 2005041579A JP 2006227330 A JP2006227330 A JP 2006227330A
- Authority
- JP
- Japan
- Prior art keywords
- frame
- channel
- acoustic
- additional information
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、CD・DVD等を用いた民生・業務用途における鑑賞用のパッケージ音楽分野、放送事業者等が商業目的で配信する放送・ネットワーク音楽配信分野における音楽著作権の保護(不正コピーの監視)および音楽属性情報の提供(楽曲タイトル検索サービス)分野に関する。 The present invention relates to the protection of music copyright (monitoring illegal copying) in the field of package music for viewing for consumer and business use using CDs and DVDs, and the field of broadcasting and network music distribution distributed for commercial purposes by broadcasters and the like. ) And the provision of music attribute information (music title search service).
最近、流れている音楽のタイトル等を知ることができる楽曲属性情報の提供サービスとして、放送された音楽に対して日時と地域を放送局に照会したり、携帯電話で流れている音楽断片を録音してデータベースに登録されているメロディーと照合したりするサービスが実用化されている(例えば、特許文献1、2参照)。
As a service to provide music attribute information that allows you to know the titles of music that has been played recently, you can query the broadcast station for the date and time of the broadcast music, and record music fragments that are being played on mobile phones. Services that collate with melodies registered in the database have been put into practical use (see, for example,
特許文献1、2に記載の発明では、録音した音楽の断片と、データベースに登録されているメロディーと照合するため、データベースに登録される楽曲が増えると、処理負荷が増え、類似したメロディーを誤判定する可能性が増える。そこで、曲名やアーチスト情報などの楽曲属性情報を不可聴な電子透かしとして音響信号に埋め込む手法も提案されている(例えば、特許文献3〜6参照)。
In the inventions described in
特許文献1〜6に記載の手法では、埋め込み可能な情報量が少なく、音質が少なからず劣化し、各種信号処理により透かし情報が消失し、またアナログコピーに対しては、透かし検出が困難であるという問題がある。そこで、本出願人は、複数チャンネル有する音響信号の低周波数成分の比率を属性情報のビット値に応じて変更することにより、属性情報を埋め込む手法を提案した(特許文献7参照)。
しかしながら、上記特許文献7に記載の手法では、アナログ経由で属性情報等の付加情報を抽出する場合、必ずしも付加情報を埋め込んだ先頭の位置から抽出することができるわけではないため、正しい付加情報が抽出できない場合があるという問題がある。 However, in the method described in Patent Document 7, when additional information such as attribute information is extracted via analog, it is not always possible to extract from the top position where the additional information is embedded. There is a problem that extraction may not be possible.
そこで、本発明は、CDや放送で提供される複数チャンネルの音響信号に対して、原音質にほとんど影響を与えずに、大容量の付加情報を不可聴な電子透かしとして埋め込むと共に、再生されている音響信号から埋め込まれた付加情報を正確に抽出することが可能な音響信号に対する情報の埋め込み装置・方法、音響信号からの情報の抽出装置・方法を提供することを課題とする。 Therefore, the present invention embeds a large amount of additional information as an inaudible digital watermark and reproduces it for an audio signal of a plurality of channels provided on a CD or broadcast with little influence on the original sound quality. It is an object of the present invention to provide an information embedding apparatus / method for an acoustic signal and an apparatus / method for extracting information from an acoustic signal, which can accurately extract additional information embedded from the existing acoustic signal.
上記課題を解決するため、本発明では、左右の2チャンネルを有し、左右ぞれぞれのチャンネルが時系列のサンプル列で構成されるステレオの音響信号に対して、付加情報を聴取不能な状態で埋め込む装置であって、埋め込むべき付加情報のビット配列を順次読み込む付加情報読み込み手段と、前記音響信号の左右の各チャンネルより、それぞれ所定数のサンプルを音響フレームとして読み込む音響フレーム読込手段と、前記読み込んだ各音響フレームに対して周波数変換を行い、前記各チャンネルに対応する複数のフレームスペクトルを生成する周波数変換手段と、前記生成された複数のフレームスペクトルから所定の周波数以下の成分に相当する低周波強度データを抽出し、前記読み込んだ付加情報のビット配列の各ビット値がとり得る値、および付加情報のビット配列の区切りを示す情報に基づいて、チャンネル間で対応する前記低周波強度データのチャンネル間比率を、左チャンネルを大、右チャンネルを大、左右均等の3パターンのいずれかに変更する低周波成分変更手段と、前記変更された低周波成分を含む前記複数のフレームスペクトルに対して周波数逆変換を行い、複数の改変音響フレームを生成する周波数逆変換手段と、前記生成された改変音響フレームを順次出力する改変音響フレーム出力手段を有する音響信号に対する情報の埋め込み装置を提供する。 In order to solve the above-described problem, in the present invention, additional information cannot be heard for a stereo acoustic signal having two left and right channels, and each of the left and right channels is composed of a time-series sample string. An apparatus for embedding in a state, additional information reading means for sequentially reading a bit array of additional information to be embedded, and acoustic frame reading means for reading a predetermined number of samples as acoustic frames from the left and right channels of the acoustic signal, Frequency conversion means for performing frequency conversion on each of the read sound frames and generating a plurality of frame spectra corresponding to the respective channels, and corresponding to a component having a predetermined frequency or less from the generated plurality of frame spectra The low frequency intensity data is extracted, and each bit value of the read additional information bit array can be taken. Based on the information indicating the bit array delimiter of the additional information, the channel-to-channel ratio of the low-frequency intensity data corresponding between the channels is any one of three patterns that are the left channel is large, the right channel is large, and the left and right are equal. Low frequency component changing means for changing to, and frequency reverse converting means for performing frequency inverse conversion on the plurality of frame spectra including the changed low frequency component to generate a plurality of modified acoustic frames, and the generated Provided is an information embedding device for an acoustic signal having modified acoustic frame output means for sequentially outputting modified acoustic frames.
本発明によれば、2チャンネルで構成される音響信号に対して、各音響信号の低周波成分のチャンネル間の割合を、埋め込むべき付加情報の情報配列、および当該情報配列の区切りを示す情報に基づいて変化させるようにしたので、複数チャンネルの音響信号に対して、原音質にほとんど影響を与えずに、大容量の付加情報を不可聴な電子透かしとして埋め込み、埋め込まれた付加情報を再生されている音響信号から正確に抽出することが可能となるという効果を奏する。 According to the present invention, with respect to an acoustic signal composed of two channels, the ratio between the channels of the low frequency components of each acoustic signal is represented in the information array of additional information to be embedded and the information indicating the separation of the information array. As a result, the large amount of additional information is embedded as an inaudible digital watermark, and the embedded additional information is played back with little influence on the original sound quality. The effect that it becomes possible to extract correctly from the sound signal which has been carried out is produced.
以下、本発明の実施形態について図面を参照して詳細に説明する。
(1.音響信号に対する情報の埋め込み装置)
図1は、本発明に係る音響信号に対する情報の埋め込み装置の構成を示す機能ブロック図である。図1において、10は音響フレーム読込手段、20は周波数変換手段、30は低周波成分変更手段、40は周波数逆変換手段、50は改変音響フレーム出力手段、60は記憶手段、61は音響信号記憶部、62は付加情報記憶部、63は改変音響信号記憶部、70は付加情報読込手段である。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
(1. Information embedding device for acoustic signals)
FIG. 1 is a functional block diagram showing the configuration of an information embedding device for an acoustic signal according to the present invention. In FIG. 1, 10 is an acoustic frame reading means, 20 is a frequency converting means, 30 is a low frequency component changing means, 40 is a frequency inverse converting means, 50 is a modified acoustic frame output means, 60 is a storage means, and 61 is an acoustic signal storage. , 62 is an additional information storage unit, 63 is a modified acoustic signal storage unit, and 70 is an additional information reading means.
音響フレーム読込手段10は、付加情報の埋め込み対象とする元のステレオ音響信号の各チャンネルから所定数のサンプルを1フレームとして読み込む機能を有している。周波数変換手段20は、音響フレーム読込手段10が読み込んだ音響信号のフレームをフーリエ変換等により周波数変換してフレームスペクトルを生成する機能を有している。低周波成分変更手段30は、生成された複数のフレームスペクトルから所定の周波数以下に相当する各低周波強度データを抽出し、付加情報記憶部62から抽出した付加情報に基づいて、チャンネル間で対応する低周波強度データのチャンネル間比率を変更する機能を有している。周波数逆変換手段40は、変更された低周波強度データを含む複数のフレームスペクトルに対して周波数逆変換を行うことにより、複数の改変音響フレームを生成する機能を有している。改変音響フレーム出力手段50は、生成された改変音響フレームを順次出力する機能を有している。記憶手段60は、付加情報を埋め込む対象とするステレオ音響信号を記憶した音響信号記憶部61と、ビット配列として構成され、ステレオ音響信号に埋め込まれる付加情報を記憶した付加情報記憶部62と、付加情報埋め込み後の改変音響信号を記憶する改変音響信号記憶部63を有しており、その他処理に必要な各種情報を記憶するものである。付加情報読込手段70は、付加情報記憶部62から付加情報を抽出する機能を有している。なお、付加情報とは、音響情報に付加して埋め込むべき情報であり、タイトルやアーティスト名等の属性情報、および属性情報以外の他の情報を含むものである。図1に示した各構成手段は、現実にはコンピュータおよびその周辺機器等のハードウェアに専用のプログラムを搭載することにより実現される。すなわち、コンピュータが、専用のプログラムに従って各手段の内容を実行することになる。
The sound frame reading means 10 has a function of reading a predetermined number of samples as one frame from each channel of the original stereo sound signal to be embedded with additional information. The frequency conversion means 20 has a function of generating a frame spectrum by frequency-converting the frame of the acoustic signal read by the acoustic frame reading means 10 by Fourier transformation or the like. The low frequency component changing means 30 extracts each low frequency intensity data corresponding to a predetermined frequency or less from a plurality of generated frame spectra, and responds between channels based on the additional information extracted from the additional
(2.埋め込み装置の処理動作)
次に、図1に示した音響信号に対する情報の埋め込み装置の処理動作について図2のフローチャートに従って説明する。図2は、付加情報1バイトの処理に対応したものとなっている。まず、付加情報読込手段70は、付加情報記憶部62から付加情報を1バイト単位で読み込む(S101)。具体的には、レジスタに1バイト読み込むことになる。続いて、モードを区切りモードに設定する(S102)。モードは区切りモードと、ビットモードの2種類が存在する。区切りモードは1バイト単位の区切りにおける処理を行うモードを示し、ビットモードは1バイトの各ビットの値に基づいた処理を行うモードを示している。付加情報記憶部62から1バイト読み込んだ場合には、その直後に必ず区切りモードに設定されることになる。
(2. Processing operation of embedded device)
Next, the processing operation of the information embedding device for the acoustic signal shown in FIG. 1 will be described with reference to the flowchart of FIG. FIG. 2 corresponds to processing of 1 byte of additional information. First, the additional information reading means 70 reads additional information from the additional
続いて、音響フレーム読込手段10が、音響信号記憶部61に記憶されたステレオ音響信号の左右の各チャンネルから、それぞれ所定数のサンプルを1音響フレームとして読み込む(S104)。音響フレーム読込手段10が読み込む1音響フレームのサンプル数は、適宜設定することができるが、サンプリング周波数が44.1kHzの場合、4096サンプル程度とすることが望ましい。したがって、音響フレーム読込手段10は、左チャンネル、右チャンネルについてそれぞれ4096サンプルずつ、順次音響フレームとして読み込んでいくことになる。 Subsequently, the acoustic frame reading means 10 reads a predetermined number of samples as one acoustic frame from each of the left and right channels of the stereo acoustic signal stored in the acoustic signal storage unit 61 (S104). The number of samples of one sound frame read by the sound frame reading means 10 can be set as appropriate, but is desirably about 4096 samples when the sampling frequency is 44.1 kHz. Therefore, the acoustic frame reading means 10 sequentially reads 4096 samples for each of the left channel and the right channel as acoustic frames.
続いて、周波数変換手段20は、読み込んだ各音響フレームに対して、周波数変換を行って、その音響フレームのスペクトルであるフレームスペクトルを得る(S105)。周波数変換としては、フーリエ変換、ウェーブレット変換その他公知の種々の手法を用いることができる。本実施形態では、フーリエ変換を用いた場合を例にとって説明する。フーリエ変換を行う場合、左チャンネル信号xl(i)、右チャンネル信号xr(i)(i=0,…,N−1)に対して、以下の〔数式1〕に従った処理を行い、左チャンネルに対応する変換データの実部Al(j)、虚部Bl(j)、右チャンネルに対応する変換データの実部Ar(j)、虚部Br(j)を得る。 Subsequently, the frequency conversion means 20 performs frequency conversion on each read sound frame to obtain a frame spectrum that is a spectrum of the sound frame (S105). As frequency conversion, Fourier transform, wavelet transform, and other various known methods can be used. In the present embodiment, a case where Fourier transform is used will be described as an example. When performing Fourier transform, the left channel signal xl (i) and the right channel signal xr (i) (i = 0,..., N−1) are processed according to the following [Equation 1], and left The real part Al (j) and imaginary part Bl (j) of the conversion data corresponding to the channel and the real part Ar (j) and imaginary part Br (j) of the conversion data corresponding to the right channel are obtained.
〔数式1〕
Al(j)=Σi=0,…,N-1xl(i)・cos(2πij/N)
Bl(j)=Σi=0,…,N-1xl(i)・sin(2πij/N)
Ar(j)=Σi=0,…,N-1xr(i)・cos(2πij/N)
Br(j)=Σi=0,…,N-1xr(i)・sin(2πij/N)
[Formula 1]
Al (j) = Σ i = 0,..., N−1 xl (i) · cos (2πij / N)
Bl (j) = Σ i = 0,..., N−1 xl (i) · sin (2πij / N)
Ar (j) = Σ i = 0,..., N−1 xr (i) · cos (2πij / N)
Br (j) = Σ i = 0,..., N−1 xr (i) · sin (2πij / N)
〔数式1〕において、iは、各音響フレーム内のN個のサンプルに付した通し番号であり、i=0,1,2,…N−1の整数値をとる。また、jは周波数の値について、値の小さなものから順に付した通し番号であり、iと同様にj=0,1,2,…N−1の整数値をとる。サンプリング周波数が44.1kHz、N=4096の場合、jの値が1つ異なると、周波数が10.8Hz異なることになる。この際、音響信号xl(i)、xr(i)には、それぞれW(i)=0.5−0.5・cos(2πi/N)で表現される窓関数(ハニング窓)を重みとして乗じる。このような窓関数は、フーリエ変換を行う際に、周波数成分に波形を分断することにより発生する高周波ノイズを低減するためと、フーリエ逆変換を行う際に解析区間(音響フレームに相当)の間で信号レベルが不連続にならないように連結させるために用いられるものであり、周知の技術である。 In [Expression 1], i is a serial number assigned to N samples in each acoustic frame, and takes an integer value of i = 0, 1, 2,... N−1. Further, j is a serial number assigned in order from the smallest value of the frequency value, and takes an integer value of j = 0, 1, 2,... N−1 similarly to i. When the sampling frequency is 44.1 kHz and N = 4096, if the value of j is different by one, the frequency will be different by 10.8 Hz. At this time, the acoustic signals xl (i) and xr (i) are each weighted with a window function (Hanning window) expressed by W (i) = 0.5−0.5 · cos (2πi / N). Multiply. Such a window function is used to reduce high-frequency noise generated by dividing the waveform into frequency components when performing Fourier transform, and between analysis intervals (corresponding to acoustic frames) when performing inverse Fourier transform. This is a well-known technique used to connect signal levels so as not to be discontinuous.
上記〔数式1〕に従った処理を実行することにより、各音響フレームの信号成分を周波数に対応した成分であるスペクトルで表現されたフレームスペクトルが得られる。続いて、低周波成分変更手段30が、生成された複数のフレームスペクトルから所定の周波数以下の低周波強度データを抽出する。人間の聴覚は、200〜300Hz程度までの低周波成分については、方向性を感知しにくくなっていることが知られている(コロナ社1990年10月30日発行「音響工学講座1.基礎音響工学、日本音響学会編」p247図9・26参照)。したがって、本実施形態では、所定の周波数として200Hz程度を設定し、周波数が200Hz以下の低周波強度データを抽出することにしている。周波数200Hz付近は、上記jが20に相当するので、上記〔数式1〕により算出された実部Al(j)、虚部Bl(j)、実部Ar(j)、虚部Br(j)のうち、j≦20のものを抽出する。
By executing the processing according to the above [Equation 1], a frame spectrum in which the signal component of each acoustic frame is expressed by a spectrum corresponding to the frequency is obtained. Subsequently, the low frequency
続いて、低周波成分変更手段30は、抽出した実部Al(j)、虚部Bl(j)、実部Ar(j)、虚部Br(j)を利用して、以下の〔数式2〕によりj=1〜M(200Hz以下を抽出する場合は、20)までの低周波強度の合計値を算出する。
Subsequently, the low-frequency
〔数式2〕
E=Σj=1,…,M{Al(j)2+Bl(j)2+Ar(j)2+Br(j)2}
[Formula 2]
E = Σ j = 1,..., M {Al (j) 2 + Bl (j) 2 + Ar (j) 2 + Br (j) 2 }
上記〔数式2〕により算出されたEは、フレームスペクトルにおける低周波成分の合算値を示すことになる。続いて、この合算値Eがレベル下限値以上であるかどうかの判定を行う。レベル下限値は、音響信号xl(i)、xr(i)の振幅最大値が1に正規化されており、M=20に設定されている場合、4程度に設定する。合算値Eがレベル下限以上であるかどうかを判断するのは、信号の強度が小さいと、信号を変化させても、その変化を抽出側で検出することができないためである。したがって、合算値Eがレベル下限値未満である場合は、付加情報のビット値に応じた記録をせず、先頭ビットから再度処理するため、読み込み位置を先頭ビットに戻し、モードを区切りモードに設定する(S106)。一方、合算値Eがレベル下限値以上である場合には、モードを判断することになる。 E calculated by the above [Equation 2] indicates the sum of low frequency components in the frame spectrum. Subsequently, it is determined whether or not the total value E is equal to or higher than the level lower limit value. The level lower limit value is set to about 4 when the maximum amplitude value of the acoustic signals xl (i) and xr (i) is normalized to 1 and M = 20. The reason why it is determined whether or not the total value E is equal to or higher than the lower limit of the level is that if the signal strength is small, the change cannot be detected on the extraction side even if the signal is changed. Therefore, when the total value E is less than the lower level limit value, recording is not performed according to the bit value of the additional information, but processing is started again from the first bit, so the reading position is returned to the first bit and the mode is set to the delimiter mode. (S106). On the other hand, when the total value E is equal to or higher than the level lower limit value, the mode is determined.
低周波成分変更手段30は、モードが区切りモードである場合、低周波強度を左右のチャンネルで同一とする処理を行う(S108)。すなわち、低周波成分の音源を中央へ移動することになる。具体的には、以下の〔数式3〕に従った処理を実行することになる。
When the mode is the separation mode, the low frequency
〔数式3〕
E(j)=[0.5・{Al(j)2+Bl(j)2+Ar(j)2+Br(j)2}]1/2
Al(j)←Al(j)・E(j)/{Al(j)2+Bl(j)2}1/2
Bl(j)←Bl(j)・E(j)/{Al(j)2+Bl(j)2}1/2
Ar(j)←Ar(j)・E(j)/{Ar(j)2+Br(j)2}1/2
Br(j)←Br(j)・E(j)/{Ar(j)2+Br(j)2}1/2
[Formula 3]
E (j) = [0.5 · {Al (j) 2 + Bl (j) 2 + Ar (j) 2 + Br (j) 2 }] 1/2
Al (j) ← Al (j) · E (j) / {Al (j) 2 + Bl (j) 2 } 1/2
Bl (j) ← Bl (j) · E (j) / {Al (j) 2 + Bl (j) 2 } 1/2
Ar (j) ← Ar (j) · E (j) / {Ar (j) 2 + Br (j) 2 } 1/2
Br (j) ← Br (j) · E (j) / {Ar (j) 2 + Br (j) 2 } 1/2
上記〔数式3〕において、第2式から第5式における“←”は右辺の計算結果を左辺に代入することを示している。上記〔数式3〕に従った処理を実行することにより、フレームスペクトルの低周波数成分は、左右チャンネル均等のパターンに変更されることになる。この左右チャンネル均等のパターンは、付加情報の先頭位置(区切り)を示す情報となる。 In the above [Formula 3], “←” in the second to fifth formulas indicates that the calculation result of the right side is substituted into the left side. By executing the processing according to the above [Equation 3], the low frequency component of the frame spectrum is changed to a pattern equivalent to the left and right channels. This equal pattern of left and right channels is information indicating the head position (separation) of the additional information.
一方、低周波成分変更手段30は、モードがビットモードである場合、付加情報記憶部62から抽出した付加情報のビット配列のビット値に応じて、低周波成分の左右チャンネル間の分布を左チャンネル大か、右チャンネル大かのいずれかに変更する処理を行う(S107)。すなわち、低周波成分の音源を左又は右へ移動することになる。具体的には、第1の値と第2の値をとり得るビット値に応じて以下の〔数式4〕、〔数式5〕のいずれかに従った処理を実行することにより、低周波成分の左右分布を変更する。例えば、第1の値を1、第2の値を0とした場合、ビット値が1のとき、以下の〔数式4〕に従った処理を実行する。
On the other hand, when the mode is the bit mode, the low frequency component changing means 30 changes the distribution of the low frequency component between the left and right channels according to the bit value of the bit array of the additional information extracted from the additional
〔数式4〕
E(j)={Al(j)2+Bl(j)2+Ar(j)2+Br(j)2}1/2
Ar(j)←Ar(j)・E(j)/{Ar(j)2+Br(j)2}1/2
Br(j)←Br(j)・E(j)/{Ar(j)2+Br(j)2}1/2
Al(j)=0
Bl(j)=0
[Formula 4]
E (j) = {Al (j) 2 + Bl (j) 2 + Ar (j) 2 + Br (j) 2 } 1/2
Ar (j) ← Ar (j) · E (j) / {Ar (j) 2 + Br (j) 2 } 1/2
Br (j) ← Br (j) · E (j) / {Ar (j) 2 + Br (j) 2 } 1/2
Al (j) = 0
Bl (j) = 0
ビット値が0の場合、以下の〔数式5〕に従った処理を実行する。 When the bit value is 0, processing according to the following [Formula 5] is executed.
〔数式5〕
E(j)={Al(j)2+Bl(j)2+Ar(j)2+Br(j)2}1/2
Al(j)←Al(j)・E(j)/{Al(j)2+Bl(j)2}1/2
Bl(j)←Bl(j)・E(j)/{Al(j)2+Bl(j)2}1/2
Ar(j)=0
Br(j)=0
[Formula 5]
E (j) = {Al (j) 2 + Bl (j) 2 + Ar (j) 2 + Br (j) 2 } 1/2
Al (j) ← Al (j) · E (j) / {Al (j) 2 + Bl (j) 2 } 1/2
Bl (j) ← Bl (j) · E (j) / {Al (j) 2 + Bl (j) 2 } 1/2
Ar (j) = 0
Br (j) = 0
上記〔数式4〕、〔数式5〕のいずれかに従った処理を実行することにより、付加情報のビット配列の各ビット値に応じて、低周波数成分が左チャンネル、右チャンネル、のどちらかのパターンに変更されることになる。結局、低周波成分変更手段30は、区切りモードの場合に〔数式3〕に基づく処理をS108において行い、ビットモードの場合に〔数式4〕又は〔数式5〕に基づく処理をS107において行うことになる。 By executing the processing according to any one of [Equation 4] and [Equation 5], the low frequency component is either the left channel or the right channel according to each bit value of the bit array of the additional information. It will be changed to a pattern. Eventually, the low frequency component changing means 30 performs the processing based on [Equation 3] in the case of the separation mode in S108, and performs the processing based on [Equation 4] or [Equation 5] in S107 in the case of the bit mode. Become.
次に、周波数逆変換手段40が、低周波強度データのチャンネル間比率が変更されたフレームスペクトルを周波数逆変換して改変音響フレームを得る処理を行う(S109)。この周波数逆変換は、当然のことながら、周波数変換手段20がS105において実行した手法に対応していることが必要となる。本実施形態では、周波数変換手段20において、フーリエ逆変換を施しているため、周波数逆変換手段40は、フーリエ逆変換を実行することになる。具体的には、上記〔数式3〕〜〔数式5〕のいずれかにより得られたスペクトルの左チャンネルの実部Al(j)、虚部Bl(j)、右チャンネルの実部Ar(j)、虚部Br(j)を用いて、以下の〔数式6〕に従った処理を行い、xl´(i)、xr´(i)を算出する。
Next, the frequency inverse transform means 40 performs a process of obtaining a modified acoustic frame by performing frequency inverse transform on the frame spectrum in which the inter-channel ratio of the low frequency intensity data is changed (S109). As a matter of course, this frequency inverse transform needs to correspond to the method executed by the
〔数式6〕
xl´(i)=1/N・{Σj=0,…,N-1Al(j)・cos(2πij/N)−Σj=0,…,N-1Bl(j)・sin(2πij/N)}+{1−W(i)}・xl(i)
xr´(i)=1/N・{Σj=0,…,N-1Ar(j)・cos(2πij/N)−Σj=0,…,N-1Br(j)・sin(2πij/N)}+{1−W(i)}・xr(i)
[Formula 6]
xl ′ (i) = 1 / N · {Σj = 0,..., N-1 Al (j) · cos (2πij / N) −Σj = 0,..., N−1 B1 (j) · sin ( 2πij / N)} + {1-W (i)} · xl (i)
xr ′ (i) = 1 / N · {Σ j = 0,..., N−1 Ar (j) · cos (2πij / N) −Σ j = 0,..., N−1 Br (j) · sin ( 2πij / N)} + {1-W (i)} · xr (i)
上記〔数式6〕における第1式の“+{1−W(i)}・xl(i)”、第2式の“+{1−W(i)}・xr(i)”の項は、上記〔数式1〕において周波数変換する際に、窓関数W(i)を乗じることにより除去された信号成分を復元するためのものである。上記〔数式6〕により改変音響フレームの左チャンネルの各サンプルxl´(i)、右チャンネルの各サンプルxr´(i)、が得られることになる。改変音響フレーム出力手段50は、得られた改変音響フレームを順次出力ファイルに出力する(S110)。こうして1つの音響フレームに対する処理を終えたら、モードをビットモードに設定した後(S111)、付加情報読込手段70が付加情報のビット配列中の次のビットを読み込む(S103)。以上のような処理を音響信号の両チャンネルの全サンプルに渡って実行していく。すなわち、所定数のサンプルを音響フレームとして読み込み、音響信号から読み込むべき音響フレームがなくなったら(S104)、処理を終了する。なお、S101において読み込んだ1バイトのデータの各ビットに対応する処理を終えた場合、S103からS101に戻り、付加情報の次のバイトを読み込み処理をすることになる。付加情報の全バイトに対して、処理が終了した場合は、付加情報の先頭バイトに戻って処理を行う。この結果、全ての音響フレームに対して処理を行った全ての改変音響フレームが出力ファイルに記録されて、改変音響信号として得られる。得られた改変音響信号は、記憶手段60内の改変音響信号記憶部63に出力され、記憶される。
The terms “+ {1−W (i)} · xl (i)” in the first equation and “+ {1−W (i)} · xr (i)” in the second equation in the above [Equation 6] are When the frequency conversion is performed in the above [Equation 1], the signal component removed by multiplying by the window function W (i) is restored. By the above [Equation 6], each sample xl ′ (i) of the left channel and each sample xr ′ (i) of the right channel of the modified sound frame are obtained. The modified sound
以上の処理による信号の変化の様子を図3を用いて説明する。図3において、左右方向は、時間軸であり、サンプル数に比例する。L、Rはそれぞれ改変音響信号の左チャンネル、右チャンネルを示している。また、図中多数存在する矩形は、改変音響フレームの低周波成分を示し、その横幅はサンプル数(本実施形態では、4096)、縦幅は強度を示している。図3(a)は、上記〔数式2〕により算出された合算値Eがレベル下限値未満となる音響フレームが存在しない場合、すなわち、付加情報を埋め込むには、良好な信号である場合を示している。図3(b)は、上記〔数式2〕により算出された合算値Eがレベル下限値未満となる音響フレームが存在する場合、すなわち、付加情報を埋め込むには、良好でない信号である場合を示している。 A state of signal change by the above processing will be described with reference to FIG. In FIG. 3, the left-right direction is a time axis and is proportional to the number of samples. L and R indicate the left channel and the right channel of the modified acoustic signal, respectively. Further, a large number of rectangles in the figure indicate low-frequency components of the modified acoustic frame, the horizontal width indicates the number of samples (4096 in the present embodiment), and the vertical width indicates the intensity. FIG. 3A shows a case where there is no acoustic frame in which the total value E calculated by the above [Equation 2] is less than the level lower limit value, that is, a case where the signal is a good signal for embedding additional information. ing. FIG. 3B shows a case where there is an acoustic frame in which the total value E calculated by the above [Equation 2] is less than the level lower limit value, that is, a signal that is not good for embedding additional information. ing.
例えば、付加情報として、1バイト目が「11011100」、2バイト目が「11000001」の2バイトのビット配列を埋め込むとする。まず、各バイトの先頭には、区切りを示す情報として、左右均等な状態に設定されることになる。これは、S102により区切りモードに設定され、S108において、上記〔数式3〕に従った処理を実行した結果得られる。また、図3(a)の例では、合算値Eがレベル下限値未満となる音響フレームが存在しないため、1バイトが連続して上記〔数式4〕又は〔数式5〕により処理されることになる。これは、S103からS111を経由するループが8回連続して繰り返され、その間レベル下限値未満であるとしてS106およびS108を経由することがなかったことを示している。図に示すように、付加情報のビット値が1の場合は、R側に存在し、付加情報のビット値が0の場合は、L側に低周波成分が設定される。上記〔数式4〕、〔数式5〕からもわかるように、この場合は他方の低周波成分は0となる。 For example, it is assumed that a 2-byte bit array in which the first byte is “11011100” and the second byte is “11000001” is embedded as additional information. First, at the head of each byte, left and right are set as information indicating delimiters. This is obtained as a result of executing the processing in accordance with the above [Equation 3] in S108 by setting the separation mode in S102. Further, in the example of FIG. 3A, since there is no acoustic frame in which the total value E is less than the level lower limit value, one byte is continuously processed by the above [Formula 4] or [Formula 5]. Become. This indicates that the loop from S103 to S111 was repeated 8 times in succession, and during that time, it did not pass through S106 and S108 because it was less than the level lower limit value. As shown in the figure, when the bit value of the additional information is 1, it exists on the R side, and when the bit value of the additional information is 0, the low frequency component is set on the L side. As can be seen from the above [Formula 4] and [Formula 5], in this case, the other low frequency component is zero.
図3(b)の例では、上記〔数式2〕に従った処理の結果、レベル下限値未満となる音響フレームが存在するので、この場合S106およびS108を経由して、上記〔数式3〕に従った処理を実行した結果左右均等な状態に設定される。この場合、S106において、読み込み位置が先頭ビットに戻されるため、再び同じビットを読むことになる。図3(b)の例では、1バイト目の「11011100」を埋め込む場合に、最初は「11」の2ビット処理した時点でレベル下限値未満の音響フレームが出現し、2度目は「11011」の5ビット処理した時点でレベル下限値未満の音響フレームが出現し、3度目でようやく8ビット処理することができたことを示している。 In the example of FIG. 3B, as a result of the processing according to the above [Equation 2], there is an acoustic frame that is less than the level lower limit value. In this case, the above [Equation 3] is obtained via S106 and S108. As a result of executing the processing according to this, the left and right state is set to be equal. In this case, since the reading position is returned to the first bit in S106, the same bit is read again. In the example of FIG. 3B, when “11011100” of the first byte is embedded, an acoustic frame less than the level lower limit value appears at the time when the 2-bit processing of “11” is first performed, and “11011” is performed the second time. When the 5-bit processing is performed, an acoustic frame less than the level lower limit value appears, indicating that the 8-bit processing was finally possible at the third time.
しかし、図2に従った処理を行った場合には、図3(b)に示したように、低周波成分の信号レベルが小さい音響フレームが出現するたびに、1バイト単位で先頭から繰り返して処理することになるため、効率が悪い。そこで、図2に代えて、図4に示すような処理を行うようにしても良い。 However, when the processing according to FIG. 2 is performed, as shown in FIG. 3B, every time an acoustic frame having a low signal level of low frequency components appears, it is repeated from the beginning in units of 1 byte. Since it will be processed, efficiency is bad. Therefore, instead of FIG. 2, processing as shown in FIG. 4 may be performed.
図4に示す処理で、図2に示す処理と大きく異なるのは、区切りモード、ビットモードの他に継続識別モードを備え、3つのモードとし、低周波成分の信号レベルが小さい音響フレームが出現した場合であっても、先頭に戻らず、継続して処理するようにした点である。そのため、継続識別モードにおいては、次のビットが先頭から始まる新規なものか、中断されたために継続されたものであるかを識別するための情報を記録することになる。なお、図4の処理では、付加情報の処理をバイト単位でなく、ワード単位で行っている。これは、図2のS106に示したように、強制的に読み込み位置を先頭に戻す処理がないため、バイト以外の単位で処理するのが容易であるためである。1ワードのビット数は自由に設定でき、1バイトに設定することもできる。 The processing shown in FIG. 4 differs greatly from the processing shown in FIG. 2 in that it has a continuous identification mode in addition to the separation mode and the bit mode, and has three modes, and an acoustic frame with a low signal level of low frequency components has appeared. Even in this case, the process is continued without returning to the top. Therefore, in the continuous identification mode, information for identifying whether the next bit is a new one starting from the beginning or continued because it is interrupted is recorded. In the process of FIG. 4, the additional information is processed in units of words instead of units of bytes. This is because, as shown in S106 of FIG. 2, there is no process for forcibly returning the reading position to the beginning, and it is easy to process in units other than bytes. The number of bits in one word can be set freely and can be set to 1 byte.
図4の処理については、図2の処理と共通する部分が多いため、異なる部分について説明していく。まず、付加情報読込手段70は、付加情報記憶部62から付加情報を1ワード単位で読み込む(S201)。その後、モードを区切りモードに設定し(S202)、音響フレーム読込手段10が、音響信号記憶部61に記憶されたステレオ音響信号の左右各チャンネルから、音響フレームを読み込み(S204)、周波数変換手段20が、読み込んだ各音響フレームに対して、〔数式1〕に従って周波数変換を行ってフレームスペクトルを得て(S205)、低周波成分変更手段30が、抽出した実部Al(j)、虚部Bl(j)、実部Ar(j)、虚部Br(j)を利用して、〔数式2〕により合算値Eを算出し、合算値Eがレベル下限以上であるかどうかを判断するところまでは同一である。ただし、図4の処理においては、合算値Eがレベル下限値未満である場合は、モードを区切りモードに設定するだけである(S206)。一方、合算値Eがレベル下限値以上である場合には、モードを判断することになる。
Since the process of FIG. 4 has many parts in common with the process of FIG. 2, different parts will be described. First, the additional information reading means 70 reads additional information from the additional
低周波成分変更手段30は、モードが区切りモードである場合、上記〔数式3〕に従って、低周波強度を左右のチャンネルで同一とする処理を行う(S208)。一方、低周波成分変更手段30は、モードがビットモードである場合、上記〔数式4〕、〔数式5〕に従って、付加情報記憶部62から抽出した付加情報のビット配列のビット値に応じて、低周波強度の左右チャンネル間の比率を変更する処理を行う(S207)。また、S207においては、図2のS107と異なり、継続識別モードである場合にも処理を行う。継続識別モードである場合、新規であるときは〔数式4〕に従って低周波成分の左右チャンネル間の分布を右チャンネル大に変更し、継続であるときは〔数式5〕に従って低周波成分の左右チャンネル間の分布を左チャンネル大に変更する。
When the mode is the delimiter mode, the low frequency
次に、周波数逆変換手段40が、低周波強度データのチャンネル間比率が変更されたフレームスペクトルを〔数式6〕に従って周波数逆変換して改変音響フレームを得る処理を行い(S209)、改変音響フレーム出力手段50は、得られた改変音響フレームを順次出力ファイルに出力する(S210)。こうして1つの音響フレームに対する処理を終えたら、モードの判定を行い(S211)、モードが区切りモードである場合は、モードを継続識別モードに設定した後(S212)、音響フレーム読込手段10が、音響フレームを読み込む(S204)。一方、モードがビットモード又は継続識別モードである場合は、モードをビットモードに設定した後(S213)、低周波成分変更手段30が付加情報のビット配列中の次のビットを読み込む(S203)。そして、全音響フレームの処理を行い、音響信号から読み込むべき音響フレームがなくなったら(S204)、処理を終了する。
Next, the frequency inverse transform means 40 performs a process of performing frequency inverse transform on the frame spectrum in which the inter-channel ratio of the low frequency intensity data is changed according to [Equation 6] to obtain a modified acoustic frame (S209), and the modified acoustic frame The
図4に従った処理による信号の変化の様子を図5を用いて説明する。図5においては、図3と同様、左右方向は時間軸であり、図中多数存在する矩形は、改変音響フレームの低周波成分を示し、その横幅はサンプル数、縦幅は強度を示している。図5(a)は、図3(a)と同様、上記〔数式2〕により算出された合算値Eが、レベル下限値以上となる音響フレームが存在しない場合を示しており、図5(b)は、図3(b)と同様、上記〔数式2〕により算出された合算値Eが、レベル下限値未満となる音響フレームが存在する場合を示している。 The state of signal change by the processing according to FIG. 4 will be described with reference to FIG. In FIG. 5, as in FIG. 3, the horizontal direction is the time axis, and a large number of rectangles in the figure indicate the low frequency components of the modified acoustic frame, the horizontal width indicates the number of samples, and the vertical width indicates the intensity. . FIG. 5A shows a case where there is no acoustic frame in which the total value E calculated by the above [Equation 2] is equal to or higher than the level lower limit value, as in FIG. 3A. ) Shows a case where there is an acoustic frame in which the total value E calculated by the above [Equation 2] is less than the level lower limit value, as in FIG.
また、図2の処理との比較のため、埋め込む付加情報も、図3の場合と同様、1バイト目が「11011100」、2バイト目が「11000001」の2バイトのビット配列とする。図3と同様、各バイトの先頭には、区切りを示す情報として、左右均等な状態に設定されることになる。これは、S202により区切りモードに設定され、S208において、上記〔数式3〕に従った処理を実行した結果得られる。続いて、付加情報の各ビットに対応した処理を行う前に、新規であるか継続であるかを示す情報を記録することになる。図2に示す処理によれば、レベル下限値未満となる音響フレームが存在した場合には、処理するビットを各バイトの先頭に戻して処理するため、全て新規となるが、図4に示す処理では、レベル下限値未満となる音響フレームが存在した場合であっても、その時点で処理したビットは有効とし、そこから継続して行うため、そのビットが新規であるか継続であるかの情報を記録しておく必要がある。そこで、区切りを示す情報を記録した後には、新規であるか継続であるかを示す情報を記録する。具体的には、区切りモードの状態で、モード判断を行うことにより(S211)、継続識別モードに設定され(S212)、付加情報のビットを読み込むことなく、音響フレームの抽出を行う(S204)。そして、周波数変換後(S205)、新規である場合には、〔数式4〕に従った処理により、低周波成分の左右チャンネル間の分布を右チャンネル大に変更する(S207)。 For comparison with the processing of FIG. 2, the additional information to be embedded is also a 2-byte bit array in which the first byte is “11011100” and the second byte is “11000001”, as in FIG. As in FIG. 3, the left and right states are set at the beginning of each byte as information indicating a delimiter. This is obtained as a result of executing the processing according to the above [Equation 3] in S208 by setting the separation mode in S202. Subsequently, before the processing corresponding to each bit of the additional information is performed, information indicating whether the information is new or continued is recorded. According to the processing shown in FIG. 2, when there is an acoustic frame that is less than the lower level limit value, the processing bit is returned to the head of each byte and processing is performed. Then, even if there is an acoustic frame that is less than the lower limit level, the bit processed at that time is valid and is continuously performed from there, so information on whether the bit is new or continued Must be recorded. Therefore, after recording the information indicating the break, information indicating whether it is new or continued is recorded. Specifically, the mode determination is performed in the separation mode state (S211), the continuous identification mode is set (S212), and the sound frame is extracted without reading the bits of the additional information (S204). Then, after frequency conversion (S205), if it is new, the distribution between the left and right channels of the low frequency component is changed to the right channel size by processing according to [Equation 4] (S207).
このようにして、新規か継続かを示す情報を記録した後は、継続識別モードの状態でモード判断を行うため(S211)、ビットモードに設定され(S213)、レジスタから先頭のビットを読み込み(S203)、音響フレームの抽出を行う(S204)。図5(a)の例では、レベル下限値未満となる音響フレームが存在しないため、1バイトが連続して上記〔数式4〕又は〔数式5〕により処理されることになる。これは、S203からS213を経由するループが8回連続して繰り返され、その間レベル下限値未満であるとしてS206およびS208、S212を経由することがなかったことを示している。 After recording the information indicating whether it is new or continued in this way, in order to make a mode determination in the state of the continuous identification mode (S211), the bit mode is set (S213), and the first bit is read from the register ( (S203), an acoustic frame is extracted (S204). In the example of FIG. 5A, since there is no acoustic frame that is less than the level lower limit value, one byte is continuously processed by the above [Expression 4] or [Expression 5]. This indicates that the loop from S203 to S213 was repeated 8 times in succession, and during that time, it was not via S206, S208, and S212 that the level was less than the lower limit value.
図5(b)の例では、上記〔数式2〕に従った処理の結果、レベル下限値未満となる音響フレームが存在するので、この場合S206およびS208を経由して、上記〔数式3〕に従った処理を実行した結果左右均等な状態に設定される。この場合、S206において、区切りモードに設定されるため、S212を経由して、新規か継続かを示す情報を記録することになる。図5(b)の例では、1バイト目の「11011100」を埋め込む場合に、最初は第1ビット目の「1」の1ビット処理した時点でレベル下限値未満の音響フレームが出現しているため、区切りを示す情報を記録した後、継続を示す情報を記録し、継続して第2ビット目の「1」から処理をしている。そして、第2ビット目から第5ビット目の「1011」を処理した時点でレベル下限値未満の音響フレームが出現しているため、区切りを示す情報を記録した後、継続を示す情報を記録し、継続して第6ビット目の「1」から処理をしている。 In the example of FIG. 5B, as a result of the processing according to the above [Equation 2], there is an acoustic frame that is less than the level lower limit value. In this case, the above [Equation 3] is obtained via S206 and S208. As a result of executing the processing according to this, the left and right state is set to be equal. In this case, since the separation mode is set in S206, information indicating whether it is new or continued is recorded via S212. In the example of FIG. 5B, when embedding “11011100” of the first byte, an acoustic frame less than the level lower limit value appears when 1 bit of “1” of the first bit is initially processed. Therefore, after the information indicating the break is recorded, the information indicating the continuation is recorded, and the processing is continued from “1” of the second bit. Then, since “1011” from the 2nd bit to the 5th bit has been processed, an acoustic frame having a level lower than the lower limit value has appeared. Therefore, after recording the information indicating the break, the information indicating the continuation is recorded. The processing is continued from “1” of the sixth bit.
なお、図5の例では、図3との比較のため、付加情報がバイト単位で記録されている場合について説明したが、図4に示す処理は、新規か継続かを示す情報を記録するため、付加情報を任意のビット数単位で記録することが可能である。 In the example of FIG. 5, the case where the additional information is recorded in units of bytes has been described for comparison with FIG. 3, but the process shown in FIG. 4 records information indicating whether it is new or continued. Additional information can be recorded in an arbitrary number of bits.
上記の例では、区切り情報を固定長のバイト単位又は可変長のワード単位で区切りを示す情報を挿入するようにしたが、さらにビット単位で区切りを示す情報を挿入することも可能である。この場合、音響フレーム読込手段10が音響フレームの抽出を行う際、前後の音響フレームに重複する重複音響フレームを抽出し、この重複音響フレームに対して、〔数式1〕に従って周波数変換を行い、さらに、〔数式3〕に従って左右チャンネルの低周波成分を均等にする処理を行う。重複音響フレームは、前後の音響フレームと半数づつサンプルが重複するように設定する。例えば、先行する音響フレームがサンプル番号1から4096まで、後続する音響フレームがサンプル番号4097から8192までである場合、この間に設定される重複音響フレームはサンプル番号2049から6144までとなる。同様にして、音響信号の全区間について、重複音響フレームを読み込み、左右チャンネルの低周波成分を均等にする処理を行うことになる。
In the above example, the delimiter information is inserted with the information indicating the delimiter in fixed-length byte units or variable-length word units. However, it is also possible to insert the delimiter information in bit units. In this case, when the acoustic frame reading means 10 extracts the acoustic frame, it extracts an overlapping acoustic frame that overlaps the preceding and following acoustic frames, performs frequency conversion on the overlapping acoustic frame according to [Equation 1], and , [Equation 3] is performed to equalize the low frequency components of the left and right channels. The overlapping sound frames are set so that half of the samples overlap with the preceding and following sound frames. For example, when the preceding sound frame is
上記のように、重複音響フレームを設定して、その左右チャンネルの低周波成分を均等にする処理を行った場合、これを改変音響信号に反映させるため、左右チャンネルの低周波成分を均等にする処理後の重複フレームスペクトルに対して周波数逆変換を行って改変重複音響フレームを得て、さらに音響フレームと連結する処理を行う必要がある。この場合、窓関数W(i)を乗じることにより音響フレームから除去された信号成分を、重複音響フレームの信号と連結することにより補うことが可能となるため、上記〔数式6〕における第1式の“+{1−W(i)}・xl(i)”、第2式の“+{1−W(i)}・xr(i)” の項が不要となる。したがって、この場合、重複フレームスペクトルに対する周波数逆変換、およびフレームスペクトルに対する周波数逆変換(S109、S209)は上記〔数式6〕ではなく、以下の〔数式7〕に従って処理することになる。 As described above, when the overlapping acoustic frame is set and the processing for equalizing the low frequency components of the left and right channels is performed, the low frequency components of the left and right channels are equalized in order to reflect this in the modified acoustic signal. It is necessary to perform a process of performing inverse frequency conversion on the overlapped frame spectrum after processing to obtain a modified overlapped acoustic frame and further connecting to the acoustic frame. In this case, the signal component removed from the acoustic frame by multiplying by the window function W (i) can be compensated by connecting it with the signal of the overlapping acoustic frame. “+ {1−W (i)} · xl (i)” and “+ {1−W (i)} · xr (i)” in the second equation are not necessary. Therefore, in this case, the frequency inverse transformation for the overlapping frame spectrum and the frequency inverse transformation (S109, S209) for the frame spectrum are processed according to the following [Equation 7] instead of the above [Equation 6].
〔数式7〕
xl´(i)=1/N・{Σj=0,…,N-1Al(j)・cos(2πij/N)−Σj=0,…,N-1Bl(j)・sin(2πij/N)}
xr´(i)=1/N・{Σj=0,…,N-1Ar(j)・cos(2πij/N)−Σj=0,…,N-1Br(j)・sin(2πij/N)}
[Formula 7]
xl ′ (i) = 1 / N · {Σj = 0,..., N-1 Al (j) · cos (2πij / N) −Σj = 0,..., N−1 B1 (j) · sin ( 2πij / N)}
xr ′ (i) = 1 / N · {Σ j = 0,..., N−1 Ar (j) · cos (2πij / N) −Σ j = 0,..., N−1 Br (j) · sin ( 2πij / N)}
上記〔数式7〕により改変音響フレーム、改変重複音響フレームの左チャンネルの各サンプルxl´(i)、右チャンネルの各サンプルxr´(i)、が得られることになる。改変音響フレーム出力手段50は、S110、S210において、得られた改変音響フレームおよび改変重複音響フレームを順次連結して出力ファイルに出力する。上述のように、音響フレームおよび重複音響フレームは、音響フレーム読込手段10により音響信号から読み込む際、音響フレームと重複音響フレームに同一のサンプルが重複して含まれるように処理されている。したがって、音響フレーム出力手段50においては、重複して読み込まれたサンプルについて、各サンプルの値を合算した値として、出力ファイルに記録していく。 By the above [Expression 7], each sample xl ′ (i) of the left channel and each sample xr ′ (i) of the right channel of the modified acoustic frame and the modified overlapping acoustic frame are obtained. In S110 and S210, the modified sound frame output means 50 sequentially connects the obtained modified sound frame and the modified overlapping sound frame and outputs them to the output file. As described above, when the sound frame and the overlapping sound frame are read from the sound signal by the sound frame reading means 10, the sound frame and the overlapping sound frame are processed so that the same sample is included in duplicate. Therefore, the acoustic frame output means 50 records the sample read in duplicate in the output file as the sum of the values of the samples.
このようにして得られた改変音響信号のうち、付加情報が埋め込まれている部分については、低周波成分は、双方のチャンネルに均等に存在するか、あるいはどちらか一方のチャンネルに偏在するかの3通りの分布しかないことになる。しかし、高周波成分については、元の音響信号のままであるので、両チャンネルから制作者の設定に基づいた種々な分布になる。人間の聴覚は、高周波成分については、方向性を感知し易いが、低周波成分については、方向性を感知しにくくなっている。したがって、低周波成分が一方に偏っていても、聴いている人にとっては、通常の音響信号と変わりなく聴こえることになる。 Of the modified acoustic signal obtained in this way, for the part where the additional information is embedded, whether the low frequency component exists equally in both channels or is unevenly distributed in one of the channels. There are only three distributions. However, since the high-frequency component remains as the original acoustic signal, it has various distributions based on the settings of the creator from both channels. Human auditory senses directionality with respect to high-frequency components, but it is difficult to sense directionality with respect to low-frequency components. Therefore, even if the low frequency component is biased to one side, it will be heard as if it is a normal acoustic signal for the listener.
(3.音響信号からの情報の抽出装置)
次に、本発明に係る音響信号からの情報の抽出装置について説明する。図6は、本発明に係る音響信号からの情報の抽出装置の一実施形態を示す構成図である。図6において、100は音響信号入力手段、110は音響フレーム獲得手段、120は周波数変換手段、130はチャンネル間比率符号化手段、140は付加情報抽出手段である。
(3. Device for extracting information from acoustic signals)
Next, an apparatus for extracting information from an acoustic signal according to the present invention will be described. FIG. 6 is a block diagram showing an embodiment of an apparatus for extracting information from an acoustic signal according to the present invention. In FIG. 6, 100 is an acoustic signal input means, 110 is an acoustic frame acquisition means, 120 is a frequency conversion means, 130 is an interchannel ratio encoding means, and 140 is an additional information extraction means.
音響信号入力手段100は、流れている音声をデジタル音響信号として取得し、入力する機能を有している。現実には、マイクロフォンおよびA/D変換器により実現される。マイクロフォンとしては、左右の2チャンネルからの音声入力が可能な指向性マイクであることが必要である。音響フレーム獲得手段110は、入力されたデジタルのステレオ音響信号の各チャンネルから所定数のサンプルを1フレームとして読み込む機能を有している。したがって、図1に示した音響フレーム読込手段10と同様の処理を行うものであるが、隣接する音響フレームと重複させるサンプルの数が音響フレーム読込手段10とは異なっている。周波数変換手段120は、図1に示した周波数変換手段20と同様の機能を有している。チャンネル間比率符号化手段130は、生成された複数のフレームスペクトルから所定の周波数以下に相当する各低周波強度データを抽出し、左右各チャンネルごとに各低周波強度データの総和値を算出し、その総和値のチャンネル間比率に基づいて、所定の符号を出力する機能を有している。付加情報抽出手段140は、チャンネル間比率符号化手段130により出力された符号の集合である3値配列を、所定の規則により変換して意味のある付加情報として抽出する機能を有している。図6に示した各構成手段は、現実には情報処理機能を有する小型のコンピュータおよびその周辺機器等のハードウェアに専用のプログラムを搭載することにより実現される。特に、本発明の目的をより簡易に達成するためには、携帯型端末装置をハードウェアとして用いることが望ましい。
The acoustic
(4.抽出装置の処理動作)
次に、図6に示した音響信号からの情報の抽出装置の処理動作について図7のフローチャートに従って説明する。利用者が流れている音楽について、その楽曲名等の属性情報を知りたいと思った場合、まず、抽出装置に対して、抽出装置としての起動の指示を行う。これは、例えば、抽出装置を携帯電話機等の携帯端末で実現している場合は、所定のボタンを操作することにより実行できる。抽出装置は、指示が入力されると、音響信号入力手段100が、流れている音楽を録音し、デジタル化してデジタル音響信号として入力する。具体的には、指向性マイクロフォンの左右から入力される音声を、それぞれA/D変換器によりデジタル化する処理を行うことになる。
(4. Processing operation of extraction device)
Next, the processing operation of the apparatus for extracting information from the acoustic signal shown in FIG. 6 will be described with reference to the flowchart of FIG. When the user wants to know the attribute information such as the song name of the music that is playing, first, the extraction device is instructed to start as the extraction device. For example, this can be executed by operating a predetermined button when the extraction device is realized by a mobile terminal such as a mobile phone. When an instruction is input to the extraction device, the acoustic
続いて、音響フレーム獲得手段110が、音響信号入力手段100から入力されたステレオ音響信号の各チャンネルから、それぞれ所定数のサンプルを1音響フレームとして読み込む(S310)。音響フレーム獲得手段110が読み込む1音響フレームのサンプル数は、図1に示した音響フレーム読込手段10で設定されたものと同一にする必要がある。したがって、本実施形態の場合、音響フレーム獲得手段110は、左チャンネル、右チャンネルについてそれぞれ4096サンプルずつ、順次音響フレームとして読み込んでいくことになる。
Subsequently, the acoustic
続いて、周波数変換手段120、チャンネル間比率符号化手段130が、読み込んだ各音響フレームから、埋め込まれている情報を判定し、対応する符号を出力する(S320)。出力される情報の形式は、埋め込み側のビット値に対応する2値、および区切りとして入力された値の3値の形式となる。このS320における処理については後述する。 Subsequently, the frequency conversion unit 120 and the inter-channel ratio encoding unit 130 determine embedded information from each read sound frame and output a corresponding code (S320). The format of the information to be output is a binary format corresponding to the bit value on the embedding side and a ternary format of values input as delimiters. The process in S320 will be described later.
S320による処理の結果、ビット値に相当する符号が抽出された場合には、そのビット値をバッファに保存する(S330)。続いて、ビットカウンタをカウントアップする(S340)。そして、ビットカウンタが8ビット以上であるかどうかを判断する(S350)。その結果、ビットカウンタが8ビット以上である場合には、1バイト分のビット値がバッファに格納されていることになるので、バッファ内の1バイト分のデータを、付加情報抽出手段140が出力する(S360)。一方、S320による処理の結果、区切り情報に対応する値が出力された場合には、ビットカウンタを0に初期化する(S370)。図7に示す処理を各音響フレームに対して実行することにより、付加情報が抽出されることになる。S310において全ての音響フレームが抽出されたと判断された場合には、処理を終了する。 If a code corresponding to the bit value is extracted as a result of the processing in S320, the bit value is stored in the buffer (S330). Subsequently, the bit counter is counted up (S340). Then, it is determined whether the bit counter is 8 bits or more (S350). As a result, when the bit counter is 8 bits or more, since the bit value for 1 byte is stored in the buffer, the additional information extraction unit 140 outputs the data for 1 byte in the buffer. (S360). On the other hand, if a value corresponding to the delimiter information is output as a result of the processing in S320, the bit counter is initialized to 0 (S370). By executing the processing shown in FIG. 7 for each acoustic frame, additional information is extracted. If it is determined in S310 that all sound frames have been extracted, the process ends.
続いて、上記S320の符号出力処理の詳細を図8のフローチャートに従って説明する。まず、周波数変換手段120が、読み込んだ各音響フレームに対して、周波数変換を行ってフレームスペクトルを得る(S321)。この処理は、図1に示した周波数変換手段20における処理と同様である。したがって、本実施形態では、上記〔数式1〕に従った処理を行い、左チャンネルに対応する変換データの実部Al(j)、虚部Bl(j)、右チャンネルに対応する変換データの実部Ar(j)、虚部Br(j)を得る。この際、音響信号xl(i)、xr(i)には、それぞれW(i)=0.5−0.5・cos(2πi/N)で表現される窓関数(ハニング窓)を重みとして乗じる処理も、周波数変換手段20と同様に行われる。 Next, the details of the code output process of S320 will be described with reference to the flowchart of FIG. First, the frequency conversion means 120 performs frequency conversion on each read sound frame to obtain a frame spectrum (S321). This process is the same as the process in the frequency conversion means 20 shown in FIG. Therefore, in the present embodiment, the processing according to the above [Equation 1] is performed, and the real part Al (j), the imaginary part Bl (j) of the conversion data corresponding to the left channel, and the conversion data corresponding to the right channel are processed. Part Ar (j) and imaginary part Br (j) are obtained. At this time, the acoustic signals xl (i) and xr (i) are each weighted with a window function (Hanning window) expressed by W (i) = 0.5−0.5 · cos (2πi / N). The multiplication process is also performed in the same manner as the frequency conversion means 20.
上記周波数変換手段120における処理により、周波数に対応した成分であるスペクトルで表現されたフレームスペクトルが得られる。続いて、チャンネル間比率符号化手段130は、生成された複数のフレームスペクトルから所定の周波数範囲の各低周波強度データを抽出する。抽出すべき周波数範囲は、埋め込み装置と対応させる必要がある。したがって、ここでは、周波数が200Hz以下の低周波強度データを抽出することになり、埋め込み装置の場合と同様、上記〔数式1〕により算出された実部Al(j)、虚部Bl(j)、実部Ar(j)、虚部Br(j)のうち、j≦20のものを抽出する。 By the processing in the frequency conversion means 120, a frame spectrum expressed by a spectrum that is a component corresponding to the frequency is obtained. Subsequently, the inter-channel ratio encoding unit 130 extracts each low frequency intensity data in a predetermined frequency range from the generated plurality of frame spectra. The frequency range to be extracted needs to correspond to the embedding device. Therefore, here, low frequency intensity data having a frequency of 200 Hz or less is extracted, and the real part Al (j) and imaginary part Bl (j) calculated by the above [Equation 1] as in the case of the embedding device. , J ≦ 20 are extracted from the real part Ar (j) and the imaginary part Br (j).
続いて、チャンネル間比率符号化手段130は、埋め込み装置の低周波成分変更手段30と同様、抽出した実部Al(j)、虚部Bl(j)、実部Ar(j)、虚部Br(j)を利用して、上記〔数式2〕によりj=1〜M(例えば20)までの低周波強度の合計値Eを算出する。さらに、低周波成分変更手段30と同様、この合算値Eがレベル下限値以上であるかどうかの判定を行う(S322)。
Subsequently, the inter-channel ratio encoding unit 130 extracts the extracted real part Al (j), imaginary part Bl (j), real part Ar (j), and imaginary part Br, similarly to the low-frequency
合算値Eがレベル下限以上である場合、以下の〔数式8〕に従った処理を実行する。 When the total value E is equal to or higher than the lower limit of the level, processing according to the following [Equation 8] is executed.
〔数式8〕
El=Cl・Σj=1,…,M{Al(j)2+Bl(j)2}
Er=Cr・Σj=1,…,M{Ar(j)2+Br(j)2}
[Formula 8]
El = Cl · Σ j = 1,..., M {Al (j) 2 + Bl (j) 2 }
Er = Cr · Σ j = 1,..., M {Ar (j) 2 + Br (j) 2 }
上記〔数式8〕において、Cl、Crはキャリブレーションデータを用いた補正係数であり、抽出装置の利用環境に応じて設定されるが、本実施形態では、共にCl=Cr=1と設定してある。さらに、チャンネル間比率符号化手段130は、上記算出されたEl、Erの比較判定を以下の〔数式9〕に従って行い(S323)、比較結果に対応する符号を出力する。 In the above [Equation 8], Cl and Cr are correction coefficients using calibration data, and are set according to the use environment of the extraction device. In this embodiment, both Cl = Cr = 1 are set. is there. Further, the inter-channel ratio encoding means 130 performs the comparison determination of the calculated El and Er according to the following [Equation 9] (S323), and outputs a code corresponding to the comparison result.
〔数式9〕
Er/El>2の場合、右チャンネル大
El/Er>2の場合、左チャンネル大
Er/El≦2かつEl/Er≦2の場合、左右均等
[Formula 9]
When Er / El> 2, the right channel is large. When El / Er> 2, the left channel is large. When Er / El ≦ 2 and El / Er ≦ 2, the left and right are equal.
チャンネル間比率符号化手段130は、各音響フレーム単位で、上記判定結果に応じて3値の符号を出力する。すなわち、右チャンネル大と判定した場合には、第1のビット値(例えば“1”)を出力し(S324)、左チャンネル大と判定した場合には、第2のビット値(例えば“0”)を出力し(S325)、左右均等と判定した場合には、区切り情報を示す符号を出力する(S326)。 The inter-channel ratio encoding unit 130 outputs a ternary code according to the determination result for each acoustic frame. That is, when it is determined that the right channel is large, a first bit value (for example, “1”) is output (S324), and when it is determined that the left channel is large, the second bit value (for example, “0”). ) Is output (S325), and when it is determined that the left and right are equal, a code indicating delimiter information is output (S326).
上記S360の処理において、付加情報抽出手段140は、まず、チャンネル間比率符号化手段130により出力された3値の符号のうち、左右均等を示す符号を区切り位置として、その次の符号を先頭とし、右チャンネル大、左チャンネル大の符号をビット値に対応させて、ビット配列を作成する。続いて、このビット配列を、所定の規則により変換して意味のある付加情報として抽出する。所定の規則としては、情報を埋め込む者が意図した情報が受け取った者に認識可能な状態とできるものであれば、さまざまな規則が適用できるが、本実施形態では、文字情報として認識するための規則としている。すなわち、付加情報抽出手段140は、チャンネル間比率符号化手段130から出力される符号を1バイト(8ビット)単位で認識し、これを設定されたコード体系に従って文字情報を認識する。このようにして得られた文字情報は、表示装置(図示省略)の画面に表示出力される。 In the process of S360, the additional information extracting unit 140 first sets a code indicating equal left and right among the ternary codes output by the inter-channel ratio encoding unit 130 as a delimiter position, and sets the next code as the head. The bit array is created by associating the signs of the right channel size and the left channel size with the bit values. Subsequently, this bit arrangement is converted according to a predetermined rule and extracted as meaningful additional information. As the predetermined rule, various rules can be applied as long as the information intended by the person who embeds the information can be recognized by the person who has received it. As a rule. That is, the additional information extracting unit 140 recognizes the code output from the inter-channel ratio encoding unit 130 in units of 1 byte (8 bits), and recognizes the character information according to the set code system. The character information thus obtained is displayed and output on a screen of a display device (not shown).
従って、埋め込み装置により音響信号に、その楽曲の曲名やアーチスト等の属性情報を文字情報として埋め込んでおけば、利用者は、その音楽が流れているのを聞いて、その曲名やアーチストを知りたいと思ったときに、抽出装置として機能する自身の携帯端末に所定の操作を行えば、自身の携帯端末の画面に曲名やアーチスト等の属性情報が文字情報として表示されることになる。 Therefore, if the embedding device embeds the attribute information such as the song title or artist in the sound signal as the character information, the user wants to know the song title or artist by listening to the music being played. If a predetermined operation is performed on the mobile terminal that functions as the extraction device, attribute information such as a song title and an artist is displayed as character information on the screen of the mobile terminal.
図7のフローチャートは、埋め込み側において、付加情報をバイト単位で記録したものに対応している。埋め込み側で付加情報をワード単位で記録している場合には、図9のフローチャートに従った処理を行うことになる。まず、図7のS310と同様、音響フレーム獲得手段110が、音響信号入力手段100から入力されたステレオ音響信号の各チャンネルから、それぞれ所定数のサンプルを1音響フレームとして読み込む(S401)。
The flowchart in FIG. 7 corresponds to the additional information recorded on the embedding side in byte units. When additional information is recorded in units of words on the embedding side, processing according to the flowchart of FIG. 9 is performed. First, as in S310 of FIG. 7, the acoustic
続いて、図7のS310と同様、周波数変換手段120、チャンネル間比率符号化手段130が、読み込んだ各音響フレームから、埋め込まれている情報を判定し、対応する符号を出力する(S402)。このS402における処理の詳細は、図8に示したようなものとなる。 Subsequently, as in S310 of FIG. 7, the frequency conversion unit 120 and the inter-channel ratio encoding unit 130 determine embedded information from each read acoustic frame and output a corresponding code (S402). The details of the processing in S402 are as shown in FIG.
S402による処理の結果、ビット値に相当する符号が抽出された場合には、モードの判定を行う(S403)。モードは、区切りモードとビット出力モードの2つが用意されている。ビット出力モードである場合は、そのビット値をバッファに保存する(S408)。続いて、ビットカウンタをカウントアップする(S409)。一方、S403による判定の結果、区切りモードである場合には、さらに抽出された符号が、新規を意味するものか継続を意味するものかを判定する(S404)。この結果、新規である場合には、その直前で1ワードが終了していることを意味するので、バッファに記録された1ワード分のデータを、付加情報抽出手段140が出力する(S405)。そして、ビットカウンタを0に初期化する(S406)。さらに、モードをビット出力モードに設定する(S407)。S404において、継続と判定された場合には、バッファ内のビットに値を出力すべきであるので、ビット出力モードに設定する処理のみを行う。また、S402において、区切り情報に相当する符号が抽出された場合には、次の音響フレームから新規か継続かの情報を抽出するため、モードを区切りモードに設定する(S410)。図9に示す処理を各音響フレームに対して実行することにより、付加情報が抽出されることになる。S401において全ての音響フレームが抽出されたと判断された場合には、処理を終了する。 If a code corresponding to the bit value is extracted as a result of the process in S402, the mode is determined (S403). Two modes, a delimited mode and a bit output mode, are prepared. If it is in the bit output mode, the bit value is stored in the buffer (S408). Subsequently, the bit counter is counted up (S409). On the other hand, if the result of determination in S403 is that the mode is a separation mode, it is further determined whether the extracted code means new or continuation (S404). As a result, if it is new, it means that one word has been completed immediately before, and the additional information extracting means 140 outputs the data for one word recorded in the buffer (S405). Then, the bit counter is initialized to 0 (S406). Further, the mode is set to the bit output mode (S407). If it is determined to continue in S404, the value should be output to the bit in the buffer, so only the processing for setting the bit output mode is performed. If a code corresponding to the delimiter information is extracted in S402, the mode is set to the delimiter mode in order to extract new or continued information from the next sound frame (S410). By executing the processing shown in FIG. 9 for each acoustic frame, additional information is extracted. If it is determined in S401 that all sound frames have been extracted, the process ends.
10・・・音響フレーム読込手段
20・・・周波数変換手段
30・・・低周波成分変更手段
40・・・周波数逆変換手段
50・・・改変音響フレーム出力手段
60・・・記憶手段
61・・・音響信号記憶部
62・・・付加情報記憶部
63・・・改変音響信号記憶部
70・・・付加情報読込手段
100・・・音響信号入力手段
110・・・音響フレーム獲得手段
120・・・周波数変換手段
130・・・チャンネル間比率符号化手段
140・・・付加情報抽出手段
DESCRIPTION OF
Claims (8)
埋め込むべき付加情報のビット配列を順次読み込む付加情報読み込み手段と、
前記音響信号の左右の各チャンネルより、それぞれ所定数のサンプルを音響フレームとして読み込む音響フレーム読込手段と、
前記読み込んだ各音響フレームに対して周波数変換を行い、前記各チャンネルに対応する複数のフレームスペクトルを生成する周波数変換手段と、
前記生成された複数のフレームスペクトルから所定の周波数以下の成分に相当する低周波強度データを抽出し、前記読み込んだ付加情報のビット配列の各ビット値がとり得る値、および付加情報のビット配列の区切りを示す情報に基づいて、チャンネル間で対応する前記低周波強度データのチャンネル間比率を、左チャンネルを大、右チャンネルを大、左右均等の3パターンのいずれかに変更する低周波成分変更手段と、
前記変更された低周波成分を含む前記複数のフレームスペクトルに対して周波数逆変換を行い、複数の改変音響フレームを生成する周波数逆変換手段と、
前記生成された改変音響フレームを順次出力する改変音響フレーム出力手段と、
を有することを特徴とする音響信号に対する情報の埋め込み装置。 A device that embeds additional information in an inaudible state with respect to a stereo acoustic signal having two left and right channels, each of the left and right channels being composed of a time-series sample sequence,
Additional information reading means for sequentially reading a bit array of additional information to be embedded;
From each of the left and right channels of the acoustic signal, acoustic frame reading means for reading a predetermined number of samples as acoustic frames,
Frequency conversion means for performing frequency conversion on each of the read sound frames and generating a plurality of frame spectra corresponding to the channels;
Extracting low-frequency intensity data corresponding to a component below a predetermined frequency from the generated plurality of frame spectra, a value that each bit value of the read bit sequence of the additional information can take, and a bit sequence of the additional information Low-frequency component changing means for changing the channel-to-channel ratio of the low-frequency intensity data corresponding to each channel to any one of three patterns equivalent to the left channel being large, the right channel being large, and the left and right based on the information indicating the separation. When,
Frequency inverse transform means for performing frequency inverse transform on the plurality of frame spectra including the changed low frequency component, and generating a plurality of modified acoustic frames;
Modified acoustic frame output means for sequentially outputting the generated modified acoustic frames;
An information embedding device for an acoustic signal, comprising:
前記低周波成分変更手段は、所定の周波数以下に相当する低周波強度データの合算値が所定のレベルに達しない場合、両チャンネルの低周波強度データのチャンネル間比率を左右均等なものとすることを特徴とする音響信号に対する情報の埋め込み装置。 In claim 1,
The low frequency component changing means equalizes the ratio between the left and right channels of the low frequency intensity data of both channels when the sum of the low frequency intensity data corresponding to a predetermined frequency or less does not reach a predetermined level. An information embedding device for an acoustic signal characterized by
前記低周波成分変更手段は、前記各低周波強度データの合算値が所定のレベルに達しない場合、再度、前記付加情報のビット配列のワード先頭ビットから、後続するフレームスペクトルに対して低周波強度データのチャンネル間比率を変更する処理を行うことを特徴とする音響信号に対する情報の埋め込み装置。 In claim 2,
The low frequency component changing means, when the sum of the low frequency intensity data does not reach a predetermined level, again, the low frequency intensity for the subsequent frame spectrum from the word leading bit of the bit array of the additional information. An apparatus for embedding information in an acoustic signal, characterized by performing processing for changing a ratio between data channels.
前記低周波成分変更手段は、直前のフレームスペクトルに対して前記付加情報の低周波強度データのチャンネル間比率を左右均等なものとした場合に、後続するフレームスペクトルについて、付加情報のビット配列のワード先頭であるか、ワード途中であるかを示すために、前記低周波強度データのチャンネル間比率を左チャンネルを大、右チャンネルを大のいずれかのパターンに変更するものであることを特徴とする音響信号に対する情報の埋め込み装置。 In claim 2,
The low frequency component changing means, when the interchannel ratio of the low frequency intensity data of the additional information is equal to the left and right with respect to the immediately preceding frame spectrum, the word of the bit array of the additional information for the subsequent frame spectrum In order to indicate whether it is the beginning or the middle of a word, the ratio between channels of the low frequency intensity data is changed to a pattern of either a large left channel or a large right channel. An information embedding device for acoustic signals.
前記音響フレーム読込手段は、前記各音響フレームを読み込む際に、前記音響フレームの長さの1/2だけ重複した重複音響フレームを読み込むものであり、
前記周波数変換手段は、当該重複音響フレームに対して周波数変換を行い、前記各チャンネルに対応する複数の重複フレームスペクトルを生成するものであり、
前記低周波成分変更手段は、生成された重複フレームスペクトルから所定の周波数以下に相当する各低周波強度データを抽出し、両チャンネルの低周波強度データの割合を均等なものとするものであり、
前記周波数逆変換手段は、前記変更された低周波強度データを含む前記複数の重複フレームスペクトルに対して周波数逆変換を行い、複数の改変重複音響フレームを生成するものであり、
前記改変音響フレーム出力手段は、前記改変音響フレームおよび前記改変重複音響フレームを元の音響信号におけるサンプルの順序に従って連結して出力するものであることを特徴とする音響信号に対する情報の埋め込み装置。 In claim 1,
The acoustic frame reading means is for reading an overlapping acoustic frame that is overlapped by ½ of the length of the acoustic frame when reading each acoustic frame,
The frequency converting means performs frequency conversion on the overlapping acoustic frame, and generates a plurality of overlapping frame spectra corresponding to the channels,
The low frequency component changing means extracts each low frequency intensity data corresponding to a predetermined frequency or less from the generated overlapping frame spectrum, and equalizes the ratio of the low frequency intensity data of both channels,
The frequency inverse transform means performs frequency inverse transform on the plurality of overlapping frame spectra including the changed low frequency intensity data, and generates a plurality of modified overlapping acoustic frames,
The apparatus for embedding information in an acoustic signal, wherein the modified acoustic frame output means connects and outputs the modified acoustic frame and the modified overlapping acoustic frame according to a sample order in the original acoustic signal.
埋め込むべき付加情報のビット配列を順次読み込む付加情報読み込み段階と、
前記音響信号の左右の各チャンネルより、それぞれ所定数のサンプルを音響フレームとして読み込む音響フレーム読込段階と、
前記読み込んだ各音響フレームに対して周波数変換を行い、前記各チャンネルに対応する複数のフレームスペクトルを生成する周波数変換段階と、
前記生成された複数のフレームスペクトルから所定の周波数以下の成分に相当する低周波強度データを抽出し、前記読み込んだ付加情報のビット配列の各ビット値がとり得る値、および付加情報のビット配列の区切りを示す情報に基づいて、チャンネル間で対応する前記低周波強度データのチャンネル間比率を、左チャンネルを大、右チャンネルを大、左右均等の3パターンのいずれかに変更する低周波成分変更段階と、
前記変更された低周波成分を含む前記複数のフレームスペクトルに対して周波数逆変換を行い、複数の改変音響フレームを生成する周波数逆変換段階と、
前記生成された改変音響フレームを順次出力する改変音響フレーム出力段階と、
を有することを特徴とする音響信号に対する情報の埋め込み方法。 A method of embedding additional information in an inaudible state with respect to a stereo acoustic signal having two left and right channels, each of the left and right channels being composed of a time-series sample sequence,
An additional information reading stage for sequentially reading a bit array of additional information to be embedded;
A sound frame reading step for reading a predetermined number of samples as sound frames from the left and right channels of the sound signal,
Performing a frequency conversion on each of the read sound frames to generate a plurality of frame spectra corresponding to the channels;
Extracting low-frequency intensity data corresponding to a component below a predetermined frequency from the generated plurality of frame spectra, a value that each bit value of the read bit sequence of the additional information can take, and a bit sequence of the additional information A low-frequency component changing step of changing the channel-to-channel ratio of the low-frequency intensity data corresponding to each channel to any one of three patterns equivalent to the left channel is large, the right channel is large, and left and right based on the information indicating the delimiter. When,
A frequency inverse transform stage that performs frequency inverse transform on the plurality of frame spectra including the modified low frequency component to generate a plurality of modified acoustic frames;
A modified sound frame output step of sequentially outputting the generated modified sound frames;
A method for embedding information in an acoustic signal, comprising:
前記音響信号の各チャンネルの所定の区間をデジタル化して、所定数のサンプルで構成される音響フレームを、各チャンネルに対応して複数個獲得する音響フレーム獲得手段と、
前記獲得した各音響フレームに対して周波数変換を行い、前記各チャンネルに対応する複数のフレームスペクトルを生成する周波数変換手段と、
前記生成された複数のフレームスペクトルから所定の周波数以下の成分に相当する低周波強度データを抽出し、各チャンネルごとに各低周波強度データの総和値を算出し、当該総和値のチャンネル間比率が左右均等であるか、左チャンネルが大きいか、右チャンネルが大きいかのいずれの状態であるかに基づいて、前記各状態に対応する3値の符号を出力するチャンネル間比率符号化手段と、
前記出力された符号が、チャンネル間比率が均等であったことを示す情報である場合に、当該符号を除いた他の2値の符号により構成されるビット配列を、所定の規則により変換して付加情報を抽出する付加情報抽出手段と、
を有することを特徴とする音響信号からの情報の抽出装置。 An apparatus for extracting additional information embedded in an inaudible state in advance from a stereo sound signal having two left and right channels, each of the left and right channels being composed of a time-series sample sequence,
Sound frame acquisition means for digitizing a predetermined section of each channel of the sound signal and acquiring a plurality of sound frames composed of a predetermined number of samples corresponding to each channel;
Frequency conversion means for performing frequency conversion on each acquired acoustic frame and generating a plurality of frame spectra corresponding to each channel;
Extract low frequency intensity data corresponding to a component below a predetermined frequency from the generated plurality of frame spectra, calculate the total value of each low frequency intensity data for each channel, and the inter-channel ratio of the total value is An inter-channel ratio encoding means for outputting a ternary code corresponding to each state based on whether the left and right are equal, the left channel is large, or the right channel is large;
When the output code is information indicating that the ratio between channels is uniform, a bit array composed of other binary codes excluding the code is converted according to a predetermined rule. Additional information extracting means for extracting additional information;
An apparatus for extracting information from an acoustic signal, comprising:
前記音響信号の各チャンネルの所定の区間をデジタル化して、所定数のサンプルで構成される音響フレームを、各チャンネルに対応して複数個獲得する音響フレーム獲得段階と、
前記獲得した各音響フレームに対して周波数変換を行い、前記各チャンネルに対応する複数のフレームスペクトルを生成する周波数変換段階と、
前記生成された複数のフレームスペクトルから所定の周波数以下の成分に相当する低周波強度データを抽出し、各チャンネルごとに各低周波強度データの総和値を算出し、当該総和値のチャンネル間比率が左右均等であるか、左チャンネルが大きいか、右チャンネルが大きいかのいずれの状態であるかに基づいて、前記各状態に対応する3値の符号を出力するチャンネル間比率符号化段階と、
前記出力された符号が、チャンネル間比率が均等であったことを示す情報である場合に、当該符号を除いた他の2値の符号により構成されるビット配列を、所定の規則により変換して付加情報を抽出する付加情報抽出段階と、
を有することを特徴とする音響信号からの情報の抽出方法。
A method of extracting additional information embedded in an inaudible state in advance from a stereo acoustic signal having two left and right channels, each of which is composed of a time-series sample sequence,
A sound frame acquisition step of digitizing a predetermined section of each channel of the sound signal and acquiring a plurality of sound frames composed of a predetermined number of samples corresponding to each channel;
Performing a frequency conversion on each acquired acoustic frame to generate a plurality of frame spectra corresponding to each channel;
Extract low frequency intensity data corresponding to a component below a predetermined frequency from the generated plurality of frame spectra, calculate the total value of each low frequency intensity data for each channel, and the inter-channel ratio of the total value is An inter-channel ratio encoding step for outputting a ternary code corresponding to each state based on whether the left and right are equal, the left channel is large, or the right channel is large;
When the output code is information indicating that the ratio between channels is uniform, a bit array composed of other binary codes excluding the code is converted according to a predetermined rule. An additional information extraction stage for extracting additional information;
A method for extracting information from an acoustic signal.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005041579A JP4770194B2 (en) | 2005-02-18 | 2005-02-18 | Information embedding apparatus and method for acoustic signal |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005041579A JP4770194B2 (en) | 2005-02-18 | 2005-02-18 | Information embedding apparatus and method for acoustic signal |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006227330A true JP2006227330A (en) | 2006-08-31 |
JP4770194B2 JP4770194B2 (en) | 2011-09-14 |
Family
ID=36988750
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005041579A Expired - Fee Related JP4770194B2 (en) | 2005-02-18 | 2005-02-18 | Information embedding apparatus and method for acoustic signal |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4770194B2 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008065008A (en) * | 2006-09-07 | 2008-03-21 | Dainippon Printing Co Ltd | Device for embedding information in sound signal and device for extracting information from sound signal |
JP2008064952A (en) * | 2006-09-06 | 2008-03-21 | Dainippon Printing Co Ltd | Device for embedding information in sound signal and device for extracting information from sound signal |
JP2008065052A (en) * | 2006-09-07 | 2008-03-21 | Dainippon Printing Co Ltd | Device for embedding information in sound signal and device for extracting information from sound signal |
EP2777247A4 (en) * | 2011-11-11 | 2015-08-05 | Optimark Llc | Digital communications |
US9357326B2 (en) | 2012-07-12 | 2016-05-31 | Dolby Laboratories Licensing Corporation | Embedding data in stereo audio using saturation parameter modulation |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04102528A (en) * | 1990-08-10 | 1992-04-03 | Ube Ind Ltd | Bulk item automatic filling device |
JPH10313497A (en) * | 1996-09-18 | 1998-11-24 | Nippon Telegr & Teleph Corp <Ntt> | Sound source separation method, system and recording medium |
JP2000083014A (en) * | 1998-09-04 | 2000-03-21 | Nippon Telegr & Teleph Corp <Ntt> | Information multiplexing method and method and device for extracting information |
JP2000138819A (en) * | 1998-10-30 | 2000-05-16 | Canon Inc | Method and device for inserting and detecting of electronic watermarks |
JP2000181499A (en) * | 1998-12-10 | 2000-06-30 | Nippon Hoso Kyokai <Nhk> | Sound source signal separation circuit and microphone device using the same |
JP2002044408A (en) * | 2000-06-29 | 2002-02-08 | Internatl Business Mach Corp <Ibm> | Method and system of digital watermark |
WO2004102528A1 (en) * | 2003-05-16 | 2004-11-25 | Ascii Solutions,Inc. | Audio electronic watermarking device |
-
2005
- 2005-02-18 JP JP2005041579A patent/JP4770194B2/en not_active Expired - Fee Related
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04102528A (en) * | 1990-08-10 | 1992-04-03 | Ube Ind Ltd | Bulk item automatic filling device |
JPH10313497A (en) * | 1996-09-18 | 1998-11-24 | Nippon Telegr & Teleph Corp <Ntt> | Sound source separation method, system and recording medium |
JP2000083014A (en) * | 1998-09-04 | 2000-03-21 | Nippon Telegr & Teleph Corp <Ntt> | Information multiplexing method and method and device for extracting information |
JP2000138819A (en) * | 1998-10-30 | 2000-05-16 | Canon Inc | Method and device for inserting and detecting of electronic watermarks |
JP2000181499A (en) * | 1998-12-10 | 2000-06-30 | Nippon Hoso Kyokai <Nhk> | Sound source signal separation circuit and microphone device using the same |
JP2002044408A (en) * | 2000-06-29 | 2002-02-08 | Internatl Business Mach Corp <Ibm> | Method and system of digital watermark |
WO2004102528A1 (en) * | 2003-05-16 | 2004-11-25 | Ascii Solutions,Inc. | Audio electronic watermarking device |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008064952A (en) * | 2006-09-06 | 2008-03-21 | Dainippon Printing Co Ltd | Device for embedding information in sound signal and device for extracting information from sound signal |
JP2008065008A (en) * | 2006-09-07 | 2008-03-21 | Dainippon Printing Co Ltd | Device for embedding information in sound signal and device for extracting information from sound signal |
JP2008065052A (en) * | 2006-09-07 | 2008-03-21 | Dainippon Printing Co Ltd | Device for embedding information in sound signal and device for extracting information from sound signal |
EP2777247A4 (en) * | 2011-11-11 | 2015-08-05 | Optimark Llc | Digital communications |
US10007769B2 (en) | 2011-11-11 | 2018-06-26 | Optimark, L.L.C. | Digital communications |
US10007796B2 (en) | 2011-11-11 | 2018-06-26 | Optimark, L.L.C. | Digital communications |
US9357326B2 (en) | 2012-07-12 | 2016-05-31 | Dolby Laboratories Licensing Corporation | Embedding data in stereo audio using saturation parameter modulation |
Also Published As
Publication number | Publication date |
---|---|
JP4770194B2 (en) | 2011-09-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4899416B2 (en) | Network connection device | |
JP4660275B2 (en) | Information embedding apparatus and method for acoustic signal | |
JP2006323161A (en) | Control code embedding device to sound signal, and control system for time series driving gear using sound signal | |
JP4839775B2 (en) | Information embedding device, method, and program for acoustic signal | |
JP4629495B2 (en) | Information embedding apparatus and method for acoustic signal | |
JP4770194B2 (en) | Information embedding apparatus and method for acoustic signal | |
JP4867765B2 (en) | Information embedding device for sound signal and device for extracting information from sound signal | |
JP2007292827A (en) | Acoustic signal retrieving apparatus | |
JP4531653B2 (en) | Device for extracting information from acoustic signals | |
JP2006195061A (en) | Information embedding device for acoustic signal, information extracting device from acoustic signal and acoustic signal reproducing device | |
JP2006201527A (en) | Device for embedding information in sound signal, device for extracting information from sound signal, and sound signal reproducing device and method | |
JP5082257B2 (en) | Acoustic signal retrieval device | |
JP4839721B2 (en) | Information embedding device for acoustic signals | |
JP4713180B2 (en) | Device for extracting information from acoustic signals | |
JP4713181B2 (en) | Information embedding device for sound signal, device for extracting information from sound signal, and sound signal reproducing device | |
JP5104200B2 (en) | Network connection device | |
JP4831335B2 (en) | Information embedding device for sound signal and device for extracting information from sound signal | |
JP4876978B2 (en) | Information embedding device for sound signal and device for extracting information from sound signal | |
JP5011855B2 (en) | Information embedding device for sound signal and device for extracting information from sound signal | |
JP2006243398A (en) | Synthesizer of sound signals and retrieval device thereof | |
JP4831333B2 (en) | Information embedding device for sound signal and device for extracting information from sound signal | |
JP4968468B2 (en) | Information embedding device for sound signal and device for extracting information from sound signal | |
JP4760539B2 (en) | Information embedding device for acoustic signals | |
JP4760540B2 (en) | Information embedding device for acoustic signals | |
JP2008139491A (en) | Device for embedding information in sound signal and device for extracting information from sound signal |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070906 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100527 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100601 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100802 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110301 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110425 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110524 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110606 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140701 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |