JP5569033B2 - Information embedding device for acoustic signals - Google Patents

Information embedding device for acoustic signals Download PDF

Info

Publication number
JP5569033B2
JP5569033B2 JP2010042141A JP2010042141A JP5569033B2 JP 5569033 B2 JP5569033 B2 JP 5569033B2 JP 2010042141 A JP2010042141 A JP 2010042141A JP 2010042141 A JP2010042141 A JP 2010042141A JP 5569033 B2 JP5569033 B2 JP 5569033B2
Authority
JP
Japan
Prior art keywords
frequency
frame
acoustic
intensity
spectrum
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010042141A
Other languages
Japanese (ja)
Other versions
JP2011180234A (en
Inventor
敏雄 茂出木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2010042141A priority Critical patent/JP5569033B2/en
Publication of JP2011180234A publication Critical patent/JP2011180234A/en
Application granted granted Critical
Publication of JP5569033B2 publication Critical patent/JP5569033B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、音響信号に、属性情報等の付加情報を埋め込む技術に関し、特に、広範な室内に設置されたスピーカから音を発することによる残響の影響を防いで、精度の高い埋め込み情報の抽出を可能とするための技術に関する。   The present invention relates to a technique for embedding additional information such as attribute information in an acoustic signal, and in particular, to extract embedded information with high accuracy while preventing the influence of reverberation due to sound emitted from speakers installed in a wide range of rooms. It relates to technology to make it possible.

従来、流れている音楽のタイトル等を知ることができる楽曲属性情報の提供サービスとして、放送された音楽に対して日時と地域を放送局に照会したり、携帯電話で流れている音楽断片を録音してデータベースに登録されているメロディーと照合したりするサービスが行われている。本出願人は、これをさらに発展させ、音響信号の周波数成分の比率を属性情報のビット値に応じて変更することにより、属性情報(付加情報)を埋め込む手法を提案している(特許文献1参照)。   Conventionally, as a service for providing music attribute information that allows you to know the title of music that is playing, you can query the broadcast station for the date and time of the broadcasted music, and record music fragments that are played on mobile phones. In addition, there is a service that matches the melody registered in the database. The present applicant has further developed this and proposed a method of embedding attribute information (additional information) by changing the ratio of frequency components of an acoustic signal according to the bit value of the attribute information (Patent Document 1). reference).

また、本出願人は、特許文献1に記載の発明における、広いホール等で2つのスピーカが離れている場合、双方のチャンネルからの音が混ざり合った中央付近では抽出することができないという問題を解決するため、音脈分凝の原理を利用して、情報の埋め込みおよび抽出を行う技術を提案している(特許文献2参照)。また、出願人は、情報を埋め込む周波数帯を2段に設定し、それぞれの周波数帯で音脈分凝を起こす二重音脈分凝を利用して、情報の埋め込みおよび抽出を行う技術も提案している(特許文献3参照)。   In addition, in the invention described in Patent Document 1, the present applicant has a problem that when two speakers are separated by a wide hall or the like, it cannot be extracted near the center where the sound from both channels is mixed. In order to solve this problem, a technique for embedding and extracting information using the principle of sound pulse fractionation has been proposed (see Patent Document 2). The applicant has also proposed a technology for embedding and extracting information by setting double frequency bands in which information is embedded and using double sound wave condensation that causes sound wave condensation in each frequency band. (See Patent Document 3).

上記特許文献1から特許文献3のいずれにおいても、付加情報は、音響信号の所定区間である音響フレームを単位として埋め込まれる。この音響フレームにおいては、情報を埋め込むために、その周波数成分が変更されるが、音響フレーム内で変更可能な周波数帯が大きい程、埋め込み効率を高めたり、抽出精度を高めたりすることが可能となる。さらに、上記特許文献2、3に記載の発明では、人間の聴覚感度が高い周波数帯に情報を埋め込んでも、音脈分凝の原理により、人間がノイズを感じないような音とすることが可能である。   In any of Patent Document 1 to Patent Document 3, the additional information is embedded in units of an acoustic frame that is a predetermined section of the acoustic signal. In this acoustic frame, the frequency component is changed in order to embed information. However, the larger the frequency band that can be changed in the acoustic frame, the higher the embedding efficiency and the higher the extraction accuracy. Become. Furthermore, in the inventions described in Patent Documents 2 and 3, even if information is embedded in a frequency band where human auditory sensitivity is high, it is possible to obtain a sound that does not cause humans to feel noise by the principle of segregation. It is.

しかしながら、特許文献2、3に記載の発明を用いたとしても、スピーカから空間に発せられた音をマイクロフォンで取得して、電子透かし抽出を行う場合においては、室内残響の問題が避けられず、これにより伝搬距離の制約を受けていた。スピーカとマイクロフォンとの距離が一定以上離れると、スピーカからの直接音より床・天井・壁を経由する反射音の割合が大きくなり、人間には音量が豊かに聴こえるというプラスの効果がある反面、音響信号解析の用途においては位相遅れの音波が同時に収録されるため、高精度な解析が行えないというネガティブな効果を引き起こす。特に特許文献2、3に記載した電子透かし埋め込みの場合、時間的に前のフレーム成分が重なって収録されて、信号成分の音量大小パターンがくずれるため抽出ビット誤りにつながるという問題があった。そのため、人間には充分聞こえても端末をスピーカに近づけないと安定して抽出できないという問題があった。これに対して、特許文献3においては、透かし抽出時に残響成分を削減するため直前フレーム成分を一定の割合で減算させてビット判定を行っていた。しかし、特許文献3の直前フレームの影響だけをスカラー的に補正する方法では多重の反射波の影響を十分に削減することはできないことが判明した。   However, even if the inventions described in Patent Documents 2 and 3 are used, in the case where a sound emitted from a speaker is acquired by a microphone and digital watermark extraction is performed, the problem of room reverberation cannot be avoided. As a result, the propagation distance is limited. If the distance between the speaker and the microphone is more than a certain distance, the proportion of the reflected sound that passes through the floor, ceiling, and wall becomes larger than the direct sound from the speaker, which has the positive effect that the volume can be heard by human beings, In acoustic signal analysis, a phase-delayed sound wave is recorded at the same time, which causes a negative effect that high-precision analysis cannot be performed. In particular, in the case of digital watermark embedding described in Patent Documents 2 and 3, there is a problem in that the previous frame components are overlapped and recorded, and the volume pattern of the signal components is broken, leading to an extraction bit error. Therefore, there is a problem that even if it can be heard by humans, it cannot be stably extracted unless the terminal is brought close to the speaker. On the other hand, in Patent Document 3, bit determination is performed by subtracting the immediately preceding frame component at a constant rate in order to reduce the reverberation component during watermark extraction. However, it has been found that the method of correcting only the influence of the immediately preceding frame in Patent Document 3 cannot sufficiently reduce the influence of multiple reflected waves.

このような問題を解決するため、出願人は、付加情報を埋め込む際、埋め込む情報に応じて複素周波数成分の強度状態を変更した後、強度を弱めた複素周波数成分の位相を、直前の区間の複素周波数成分の方向と反対側の方向に補正するようにする技術を提案した(特許文献4参照)。これにより、直前の区間の複素周波数成分の残響により当該複素周波数成分の強度が大きく変化することを防ぐことができ、抽出側において情報の抽出精度を高めることが可能となった。
特開2006−323246号公報 特開2008−256948号公報 特開2009−75332号公報 特願2009−260065号
In order to solve such a problem, when the applicant embeds the additional information, the applicant changes the intensity state of the complex frequency component according to the information to be embedded, and then changes the phase of the complex frequency component whose intensity is weakened in the immediately preceding section. A technique has been proposed in which correction is performed in a direction opposite to the direction of the complex frequency component (see Patent Document 4). Thereby, it is possible to prevent the intensity of the complex frequency component from greatly changing due to the reverberation of the complex frequency component in the immediately preceding section, and it is possible to improve the information extraction accuracy on the extraction side.
JP 2006-323246 A JP 2008-256948 A JP 2009-75332 A Japanese Patent Application No. 2009-260065

しかしながら、特許文献4に記載の技術では、室内残響成分は直前フレームまでの反射波が種々の位相で複雑に重なったもので、推定することは困難であるが、直前フレーム成分が主成分になると仮定し、室内残響成分の位相は直前フレーム成分の位相と近傍であると仮定していた。この仮定は比較的小さい部屋であれば成立するが、ホールなど広範な室内形態では成立しない。そのため、特許文献4に記載の技術で広い室内において残響補正を施すと、逆効果になる場合もある。また、特許文献4に記載の技術では、位相補正の対象を振幅レベルが小さい成分のみに限定していたため、再生品質への影響が比較的少ないという利点はあるものの、実用レベルの残響補正効果を得ることが難しいという問題がある。   However, in the technique described in Patent Document 4, it is difficult to estimate the room reverberation component because the reflected waves up to the immediately preceding frame are complicatedly overlapped at various phases, but when the immediately preceding frame component becomes the main component, Assuming that the phase of the room reverberation component is close to the phase of the previous frame component. This assumption is valid for a relatively small room, but not for a wide indoor form such as a hall. Therefore, when reverberation correction is performed in a large room using the technique described in Patent Document 4, there may be an adverse effect. Further, in the technique described in Patent Document 4, since the target of phase correction is limited to only components having a small amplitude level, there is an advantage that the influence on reproduction quality is relatively small, but a reverberation correction effect at a practical level is achieved. There is a problem that it is difficult to obtain.

そこで、本発明は、大ホールなど広範な室内において情報の抽出処理を行う場合でも残響耐性を持ち、高い精度で埋め込まれた情報を抽出可能なように、情報を音響信号に埋め込むことが可能な音響信号に対する情報の埋め込み装置を提供することを課題とする。   Therefore, the present invention can embed information in an acoustic signal so that it can withstand reverberation and extract embedded information with high accuracy even when performing information extraction processing in a wide room such as a large hall. It is an object to provide an information embedding device for an acoustic signal.

上記課題を解決するため、本発明第1の態様では、時系列のサンプル列で構成される音響信号に対して、付加情報を聴取不能な状態で埋め込む装置であって、前記音響信号より、所定数のサンプルを読み込む音響フレーム読込手段と、前記読み込んだ音響フレームのうち、奇数番目、偶数番目の一方をAタイプ、他方をBタイプとし、前記Aタイプの音響フレームに対して第1窓関数を用いて周波数変換を行い、前記Bタイプの音響フレームに対して第2窓関数を用いて周波数変換を行い、前記第1窓関数に対応する複素周波数成分である第1窓スペクトル、前記第2窓関数に対応する複素周波数成分である第2窓スペクトルを得る周波数変換手段と、前記各窓スペクトルから所定の周波数範囲における互いに重複しない2つのスペクトル集合を抽出し、第1窓スペクトル、第2窓スペクトルから抽出した計4つのスペクトル集合の強度(複素周波数成分である複素ベクトルの大きさ)を、埋め込むべきビット配列に基づいて、ある2つのスペクトル集合の強度が、他の2つのスペクトル集合の強度に対して所定の基準で大きくなるように、各スペクトル集合の強度を変更する周波数成分変更手段と、前記スペクトル集合のうち、小さくなるように変更されたスペクトル集合の各周波数の複素周波数成分の方向(複素2次元空間における方向、即ち位相)を、直前の音響フレームにおけるスペクトル集合の各周波数の複素周波数成分の方向に対して、0度、90度、180度、270度の4方向のいずれかの方向の中から事前に設定された方向に80%だけ近付けるように補正する位相補正手段と、前記位相補正されたスペクトル集合を含む各窓スペクトルに対して周波数逆変換を行って、改変音響フレームを生成する周波数逆変換手段と、前記生成された改変音響フレームを順次出力する改変音響フレーム出力手段を有する音響信号に対する情報の埋め込み装置を提供する。 In order to solve the above-described problem, according to the first aspect of the present invention, an apparatus for embedding additional information in an inaudible state with respect to an acoustic signal composed of a time-series sample sequence, Acoustic frame reading means for reading a number of samples, and among the read acoustic frames, odd-numbered and even-numbered one is A type and the other is B type, and the first window function is applied to the A type acoustic frame. A first window spectrum, which is a complex frequency component corresponding to the first window function, and the second window. a frequency converting means for obtaining a second window spectrum is complex frequency components corresponding to the function, before Symbol two spectra collection do not overlap with each other in a predetermined frequency range of each window spectrum Are extracted from the first window spectrum and the second window spectrum, and the intensities (magnitudes of complex vectors, which are complex frequency components) of a total of four spectrum sets are calculated based on the bit arrangement to be embedded. The frequency component changing means for changing the intensity of each spectrum set and the spectrum set are changed to be smaller so that the intensity of the spectrum set becomes larger than the intensity of the other two spectrum sets by a predetermined criterion. The direction of the complex frequency component of each frequency of the spectrum set (the direction in the complex two-dimensional space, that is, the phase) is 0 degree and 90 degrees with respect to the direction of the complex frequency component of each frequency of the spectrum set in the immediately preceding acoustic frame. , 180 degrees, and 270 degrees are corrected so as to be close to the preset direction by 80% from any of the four directions. Phase correction means, frequency reverse conversion means for generating a modified acoustic frame by performing frequency inverse transformation on each window spectrum including the phase-corrected spectrum set, and sequentially outputting the generated modified acoustic frame An information embedding device for an acoustic signal having a modified acoustic frame output means is provided.

また、本発明第2の態様では、時系列のサンプル列で構成される音響信号に対して、付加情報を聴取不能な状態で埋め込む装置であって、前記音響信号より、所定数のサンプルを読み込む音響フレーム読込手段と、前記読み込んだ音響フレームのうち、奇数番目、偶数番目の一方をAタイプ、他方をBタイプとし、前記Aタイプの音響フレームに対して第1窓関数を用いて周波数変換を行い、前記Bタイプの音響フレームに対して第2窓関数を用いて周波数変換を行い、前記第1窓関数に対応する複素周波数成分である第1窓スペクトル、前記第2窓関数に対応する複素周波数成分である第2窓スペクトルを得る周波数変換手段と、前記各窓スペクトルから所定の周波数範囲における互いに重複しない4つのスペクトル集合を、周波数が高い方の2つのスペクトル集合の周波数幅が周波数が低い方の2つのスペクトル集合の周波数幅よりも大きくなるように抽出し、各窓スペクトルについての4つのスペクトル集合を、前記第1窓スペクトルから抽出したスペクトル集合を周波数が低い順に、1D1、1D2、1U1、1U2とし、前記第2窓スペクトルから抽出したスペクトル集合を周波数が低い順に、2D1、2D2、2U1、2U2とした場合に、埋め込むべきビット配列に基づいて、1D1の強度値と2D2の強度値との積と、1D2の強度値と2D1の強度値との積のいずれか一方が他方より所定の比率以上に大きくなり、同時に1U1の強度値と2U2の強度値との積と、1U2の強度値と2U1の強度値との積のいずれか一方が他方より所定の比率以上に大きくなるように、各スペクトル集合の強度を変更する周波数成分変更手段と、前記スペクトル集合のうち、小さくなるように変更されたスペクトル集合の各周波数の複素周波数成分の方向を、直前の音響フレームにおけるスペクトル集合の各周波数の複素周波数成分の方向に対して、0度、90度、180度、270度の4方向のいずれかの方向の中から事前に設定された方向に80%だけ近付けるように補正する位相補正手段と、前記位相補正されたスペクトル集合を含む各窓スペクトルに対して周波数逆変換を行って、改変音響フレームを生成する周波数逆変換手段と、前記生成された改変音響フレームを順次出力する改変音響フレーム出力手段を有する音響信号に対する情報の埋め込み装置を提供する。
The second aspect of the present invention is a device for embedding additional information in an inaudible state with respect to an acoustic signal composed of a time-series sample sequence, and reads a predetermined number of samples from the acoustic signal. An acoustic frame reading means, and among the read acoustic frames, odd-numbered and even-numbered one is A type and the other is B type, and frequency conversion is performed on the A type acoustic frame using a first window function. And performing frequency conversion on the B-type acoustic frame using a second window function, a first window spectrum, which is a complex frequency component corresponding to the first window function, and a complex corresponding to the second window function. a frequency converting means for obtaining a second window spectrum is a frequency component, the four spectral set not overlapping with each other in a predetermined frequency range from the previous SL each window spectrum, high frequency Are extracted such that the frequency widths of the two spectrum sets are larger than the frequency widths of the two lower spectrum sets, and four spectrum sets for each window spectrum are extracted from the first window spectrum. Based on the bit sequence to be embedded when the set is set to 1D1, 1D2, 1U1, 1U2 in the order of low frequency, and the spectrum set extracted from the second window spectrum is set to 2D1, 2D2, 2U1, 2U2 in the order of low frequency. Thus, one of the product of the intensity value of 1D1 and the intensity value of 2D2 and the product of the intensity value of 1D2 and the intensity value of 2D1 is larger than the other by a predetermined ratio, and at the same time, the intensity value of 1U1 and 2U2 One of the product of the intensity value of 1 and the intensity value of 1U2 and the intensity value of 2U1 is greater than the other by a predetermined ratio or more. As described above, the frequency component changing means for changing the intensity of each spectrum set, and the direction of the complex frequency component of each frequency of the spectrum set changed so as to be smaller among the spectrum sets, the direction of the spectrum set in the immediately preceding acoustic frame. A phase that is corrected so as to be closer to a preset direction by 80% from any one of four directions of 0 degree, 90 degrees, 180 degrees, and 270 degrees with respect to the direction of the complex frequency component of each frequency. Correction means, frequency inverse conversion means for generating a modified acoustic frame by performing frequency inverse transformation on each window spectrum including the phase-corrected spectrum set, and modification for sequentially outputting the generated modified acoustic frame An information embedding device for an acoustic signal having an acoustic frame output means is provided.

本発明第1、第2の態様によれば、付加情報を埋め込む際、埋め込む情報に応じて複素周波数成分の強度状態を変更した後、強度を弱めた複素周波数成分の位相を、直前の区間の複素周波数成分の方向に対して、あらかじめ設定された0度、90度、180度、270度の4方向のいずれかの方向の近傍に補正するようにしたので、広範な室内で情報を抽出する際にも、直前の区間の複素周波数成分の残響により当該複素周波数成分の強度が大きく変化することを防ぐことができ、抽出側において情報の抽出精度を高めることが可能となる。   According to the first and second aspects of the present invention, when embedding additional information, after changing the intensity state of the complex frequency component according to the information to be embedded, the phase of the complex frequency component whose intensity is weakened is Since the correction is made in the vicinity of any of the four directions of 0 degrees, 90 degrees, 180 degrees, and 270 degrees set in advance with respect to the direction of the complex frequency component, information is extracted in a wide range of rooms. Even in this case, it is possible to prevent the intensity of the complex frequency component from changing greatly due to the reverberation of the complex frequency component in the immediately preceding section, and it is possible to improve the information extraction accuracy on the extraction side.

また、本発明第3の態様では、本発明第1、第2の態様の音響信号に対する情報の埋め込み装置において、前記周波数変換手段は、前記音響フレームに対して周波数変換を行う前に、音響フレームを構成する最初のサンプルを0に設定し、後続するサンプルは各々直前の改変前のサンプルとの差分値になるように、前記音響フレームを構成するサンプルの値に改変を加えるものであり、前記周波数逆変換手段は、前記周波数逆変換により得られた各サンプルの値に直前のサンプルの値を順次加算することにより、前記改変音響フレームを構成する各サンプルの値を設定することを特徴とする。   According to the third aspect of the present invention, in the information embedding device for the acoustic signal according to the first and second aspects of the present invention, the frequency converting means performs an acoustic frame before performing the frequency conversion on the acoustic frame. Is set to 0, and each subsequent sample is modified to a difference value from the previous sample before modification, and the value of the sample constituting the acoustic frame is modified, The frequency inverse transformation means sets the value of each sample constituting the modified acoustic frame by sequentially adding the value of the immediately preceding sample to the value of each sample obtained by the frequency inverse transformation. .

本発明第3の態様によれば、音響フレームに対して周波数変換を行う前に、音響フレームを構成する各サンプルを、元の隣接サンプル間の差分となるように微分処理し、周波数成分の変更、位相補正を行った後、周波数逆変換により得られた各サンプルの値に直前のサンプルの値を順次加算することにより、各サンプルの値を積分処理するようにしたので、残響による影響が加わった場合であっても、その影響を軽減することが可能となる。   According to the third aspect of the present invention, before frequency conversion is performed on the acoustic frame, each sample constituting the acoustic frame is subjected to differentiation processing so as to be a difference between the original adjacent samples, and the frequency component is changed. After performing phase correction, the value of each sample is added to the value of each sample obtained by inverse frequency transformation in order, so that the value of each sample is integrated. Even in such a case, it is possible to reduce the influence.

本発明によれば、付加情報を埋め込む際、埋め込む情報に応じて複素周波数成分の強度状態を変更した後、強度を弱めた複素周波数成分の位相を、直前の区間の複素周波数成分の方向に対して、0度、90度、180度、270度の4方向のいずれかの方向の中から事前に設定された方向に80%だけ近付けるように補正するようにしたので、広範な室内で情報を抽出する際にも、直前の区間の複素周波数成分の残響により当該複素周波数成分の強度が大きく変化することを防ぐことができ、抽出側において情報の抽出精度を高めることが可能となる。
According to the present invention, when embedding the additional information, after changing the intensity state of the complex frequency component according to the information to be embedded, the phase of the complex frequency component whose intensity is weakened with respect to the direction of the complex frequency component in the immediately preceding section. The correction is made so that it approaches 80% of the preset direction from any of the four directions of 0 degrees, 90 degrees, 180 degrees, and 270 degrees. Also in the extraction, it is possible to prevent the intensity of the complex frequency component from changing greatly due to the reverberation of the complex frequency component in the immediately preceding section, and it is possible to improve the information extraction accuracy on the extraction side.

音響信号に対する情報の埋め込み装置の機能ブロック図である。It is a functional block diagram of an information embedding device for an acoustic signal. 本発明で用いる時間方向窓関数を示す図である。It is a figure which shows the time direction window function used by this invention. 本発明の一実施形態における変更対象周波数帯の成分の変化の状態を示す図である。It is a figure which shows the state of a change of the component of the change object frequency band in one Embodiment of this invention. 符号変換テーブル作成の処理概要を示すフローチャートである。It is a flowchart which shows the process outline | summary of code conversion table preparation. 8ビット符号と16ビット符号の符号変換テーブルの一例を示す図である。It is a figure which shows an example of the code conversion table of an 8-bit code and a 16-bit code. 図1に示した装置の処理概要を示すフローチャートである。It is a flowchart which shows the process outline | summary of the apparatus shown in FIG. 振幅変換を用いない埋め込み処理を説明するための図である。It is a figure for demonstrating the embedding process which does not use amplitude conversion. 振幅変換を用いない抽出処理を説明するための図である。It is a figure for demonstrating the extraction process which does not use amplitude conversion. 振幅変換を用いた埋め込み処理を説明するための図である。It is a figure for demonstrating the embedding process using amplitude conversion. 振幅変換を用いた抽出処理を説明するための図である。It is a figure for demonstrating the extraction process using amplitude conversion. 音響信号からの情報の抽出装置の機能ブロック図である。It is a functional block diagram of the extraction apparatus of the information from an acoustic signal. 8ビット符号と16ビット符号の符号変換テーブルの一例を示す図である。It is a figure which shows an example of the code conversion table of an 8-bit code and a 16-bit code. 図11に示した装置の、エラー訂正を行わない設定における処理概要を示すフローチャートである。12 is a flowchart illustrating an outline of processing in a setting in which error correction is not performed in the apparatus illustrated in FIG. 11. 図13のS202の時間軸シフト確定および符号出力の詳細を示すフローチャートである。It is a flowchart which shows the detail of the time-axis shift confirmation and code | symbol output of S202 of FIG. 図14のS302の符号判定処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the code | symbol determination process of S302 of FIG. 人間の聴覚心理特性である音脈分凝の原理の説明図である。It is explanatory drawing of the principle of the sound pulse fractionation which is a human auditory psychological characteristic. 特許文献2の埋め込み時の各音響フレームの強度変化の様子を示す図である。It is a figure which shows the mode of the intensity | strength change of each acoustic frame at the time of embedding of patent document 2. FIG. 特許文献3における埋め込み時の各音響フレームの強度変化の様子を示す図である。It is a figure which shows the mode of the intensity | strength change of each sound frame at the time of embedding in patent document 3. FIG. 位相補正による残響耐性実現の基本原理(単純モデル)を示す概念図である。It is a conceptual diagram which shows the basic principle (simple model) of reverberation tolerance realization by phase correction. 図19に示した単純モデルにおける残響除去の根拠の説明図である。It is explanatory drawing of the basis of the dereverberation in the simple model shown in FIG. 位相補正による残響耐性実現の基本原理(実用モデル)を示す概念図である。It is a conceptual diagram which shows the basic principle (practical model) of realization of reverberation tolerance by phase correction. 図21に示した実用モデルにおける残響除去の根拠の説明図である。It is explanatory drawing of the basis of the reverberation removal in the practical model shown in FIG. 周波数に対するエネルギー分布および、特許文献2と特許文献3の埋め込み領域を示す図である。It is a figure which shows the energy distribution with respect to a frequency, and the embedding area | region of patent document 2 and patent document 3. FIG. 合成直前フレーム成分と直前フレーム成分の角度が大きい場合の、各フレーム成分の様子を示す図である。It is a figure which shows the mode of each frame component when the angle of a frame component just before a synthesis | combination and a frame component just before is large. 直前フレーム成分の方向(0度)を基準として、補正可能な4方向を示す図である。It is a figure which shows 4 directions which can be correct | amended on the basis of the direction (0 degree | times) of a frame component immediately before. 時間次元での残響抑圧原理を説明するための図である。It is a figure for demonstrating the reverberation suppression principle in a time dimension. 時間次元での残響抑圧原理を説明するための図である。It is a figure for demonstrating the reverberation suppression principle in a time dimension. 時間次元での残響抑圧原理を説明するための図である。It is a figure for demonstrating the reverberation suppression principle in a time dimension. 時間次元での残響抑圧原理を説明するための図である。It is a figure for demonstrating the reverberation suppression principle in a time dimension.

以下、本発明の実施形態について図面を参照して詳細に説明する。
(1.本発明の基本概念)
最初に、本発明の基本概念について説明しておく。本発明では、特許文献2〜4と同様、人間の聴覚心理特性である音脈分凝の原理を利用する。音脈分凝とは、時系列に高い音と低い音が交互に進行するパターンに対して、人間が、あたかも高低2つのトラックが連続して流れるように音を補間して聞いてしまう錯覚現象である。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
(1. Basic concept of the present invention)
First, the basic concept of the present invention will be described. In the present invention, as in Patent Documents 2 to 4, the principle of sound pulse segregation, which is a human psychoacoustic characteristic, is used. The syllable segregation is an illusion that humans interpolate and hear sounds as if two tracks of high and low are flowing continuously against a pattern in which high and low sounds alternate in time series. It is.

たとえば、図16(a)に示すように、3つの低い音である低音1、低音3、低音5と3つの高い音である高音2、高音4、高音6が、低音1、高音2、低音3、高音4、低音5、高音6の順に演奏されている場合を考えてみる。低音1、低音3、低音5と高音2、高音4、高音6は1オクターブ程度離れており、低い音と高い音は同時に演奏されることはないが、時間的間隔は、ほぼ連続しているものとする。この場合、人間には、図16(b)に示すように、低い音と高い音が演奏されていない部分も補間されて演奏されているように聞こえる。すなわち、実際の演奏は単旋律であるのに、人間には、図16(b)に示すように、高音1´、高音3´、高音5´、低音2´、低音4´、低音6´が補間されて複旋律であるように聞こえる。例えば、高音3´は高音2と高音4が連続的につながるように、高音2と高音4の平均的な成分に聞こえる。また、末端部の高音1´と低音6´についても、隣接する高音2と低音5に近い成分で、各々低音1と高音6に対応するように聞こえる。しかし、マイクロフォン等の電気音響装置は、図16(a)に示したものをそのままの音として取得することになる。本発明および特許文献2の発明は、このような性質を利用するのである。なお、補間された音は、前後に演奏されている音と必ずしも同じレベルに補間されて聴こえるのではなく、大雑把に言って、前後に演奏されている音の50%程度があたかも補間されているように聞こえる。   For example, as shown in FIG. 16 (a), three low sounds, low tone 1, low sound 3, low sound 5, and three high sounds, high sound 2, high sound 4, and high sound 6, are low sound 1, high sound 2, and low sound. Consider a case in which 3, 3 high sounds, 5 low sounds, and 6 high sounds are played in this order. Low pitch 1, low pitch 3, low pitch 5 and high pitch 2, high pitch 4, high pitch 6 are about 1 octave apart, and the low and high sounds are not played at the same time, but the time intervals are almost continuous. Shall. In this case, as shown in FIG. 16 (b), a human sounds as if the portion where the low and high sounds are not played is interpolated and played. That is, although the actual performance is a single melody, as shown in FIG. 16 (b), humans can obtain a high tone 1 ′, a high tone 3 ′, a high tone 5 ′, a low tone 2 ′, a low tone 4 ′, and a low tone 6 ′. Sounds like it is interpolated. For example, the high sound 3 ′ is heard as an average component of the high sound 2 and the high sound 4 so that the high sound 2 and the high sound 4 are continuously connected. Further, the high pitch 1 'and the low pitch 6' at the end also sound like components corresponding to the low tone 1 and the high tone 6 with components close to the adjacent high tone 2 and low tone 5, respectively. However, an electroacoustic apparatus such as a microphone acquires the sound shown in FIG. 16A as it is. The present invention and the invention of Patent Document 2 utilize such properties. Note that the interpolated sound is not necessarily interpolated at the same level as the sound played back and forth, but roughly speaking, about 50% of the sound played back and forth is interpolated. Sounds like

本発明および特許文献2〜4の発明のいずれにおいても、音響信号をサンプリングすることにより得られた所定数のサンプルを1音響フレームとして、処理を行う。また、先頭から奇数番目と偶数番目の音響フレームは、互いに半分のサンプルを重複する形で設定される。特許文献2の発明と特許文献3の発明の違いは、埋め込みに利用される変更対象周波数帯の分割数であり、特許文献2の発明では2つの周波数領域、特許文献3では4つの周波数領域に分けている。いずれの場合も2つの周波数領域における複素周波数成分の強度の関係を変更して、情報を埋め込むものであり、特許文献2の発明では変更対象周波数帯で1ビットが埋め込み可能であり、特許文献3の発明では、変更対象周波数帯を上位周波数帯と下位周波数帯に分け、上位周波数帯と下位周波数帯で異なる情報を埋め込むことにより2ビット埋め込みが可能となっている。   In both of the present invention and the inventions of Patent Documents 2 to 4, processing is performed using a predetermined number of samples obtained by sampling an acoustic signal as one acoustic frame. The odd-numbered and even-numbered sound frames from the top are set in such a manner that half samples are overlapped with each other. The difference between the invention of Patent Document 2 and the invention of Patent Document 3 is the number of divisions of the frequency band to be changed used for embedding. In the invention of Patent Document 2, it is divided into two frequency regions, and in Patent Document 3, it is divided into four frequency regions. It is divided. In either case, information is embedded by changing the relationship between the intensities of complex frequency components in the two frequency regions. In the invention of Patent Document 2, 1 bit can be embedded in the change target frequency band. In this invention, the change target frequency band is divided into an upper frequency band and a lower frequency band, and two bits can be embedded by embedding different information in the upper frequency band and the lower frequency band.

ここで、変更対象周波数帯が2つの周波数領域からなる場合における埋め込み時の各音響フレームの強度変化の様子を図17に示す。ステレオ音響信号の場合は、L-ch(左チャンネル)、R-ch(右チャンネル)とも同様に処理が行われるが、図17においては、L-ch(左チャンネル)のみを示している。また、u、dはそれぞれ相対的に高周波、低周波成分を示し、1〜6は先頭からの音響フレームの順番を示している。したがって、図17の例では、6個の音響フレームを示しており、例えば、“Uu1”は、1番目の音響フレームの高周波側成分を示していることになる。また、奇数番目と偶数番目の音響フレームは、実際に半分のサンプルが重複して設定されるが、図17では、説明の便宜上独立した形態で示している。また、図17において、“Uu1”等の各周波数成分の文字の大きさは、相対的な強度の大小を示している。   Here, FIG. 17 shows a state of intensity change of each acoustic frame at the time of embedding when the change target frequency band is composed of two frequency regions. In the case of a stereo sound signal, processing is performed in the same way for both L-ch (left channel) and R-ch (right channel), but only L-ch (left channel) is shown in FIG. U and d represent relatively high and low frequency components, respectively, and 1 to 6 represent the order of the acoustic frames from the beginning. Therefore, in the example of FIG. 17, six acoustic frames are shown, and for example, “Uu1” indicates the high frequency side component of the first acoustic frame. In addition, although the odd-numbered and even-numbered sound frames are actually set by overlapping half of the samples, they are shown in an independent form for convenience of explanation in FIG. In FIG. 17, the size of each frequency component such as “Uu1” indicates the relative strength.

図17においては、図17(a)は原音響信号の変更対象周波数帯を、図17(b)は従来の埋め込み処理後の変更対象周波数帯を、図17(c)は本発明の埋め込み処理後の変更対象周波数帯を示している。特許文献2の発明では、奇数番目の音響フレームの高周波側と低周波側の複素周波数成分の強度の大小関係と、偶数番目の音響フレームの高周波側と低周波側の複素周波数成分の強度の大小関係が逆転するように処理を行う。奇数番目と偶数番目のどちらの音響フレームの高周波側を大きくするかによって、埋め込むビット値を変化させることができる。図17の例では、偶数番目の音響フレームの高周波側を大きくすることにより“0”、奇数番目の音響フレームの高周波側を大きくすることにより“1”を埋め込むことを示している。したがって、元の音響信号に“010”という3ビットの情報を埋め込んだ場合、音響フレームの状態は、図17(b)に示すように変化する。   In FIG. 17, FIG. 17A shows the frequency band to be changed of the original sound signal, FIG. 17B shows the frequency band to be changed after the conventional embedding process, and FIG. 17C shows the embedding process of the present invention. The frequency band to be changed later is shown. In the invention of Patent Document 2, the magnitude relationship between the complex frequency components on the high-frequency side and the low-frequency side of the odd-numbered acoustic frame and the magnitude of the complex frequency components on the high-frequency side and the low-frequency side of the even-numbered acoustic frame. Processing is performed so that the relationship is reversed. The bit value to be embedded can be changed depending on whether the high-frequency side of the odd-numbered or even-numbered acoustic frame is increased. In the example of FIG. 17, “0” is embedded by increasing the high frequency side of the even-numbered acoustic frame, and “1” is embedded by increasing the high-frequency side of the odd-numbered acoustic frame. Therefore, when the 3-bit information “010” is embedded in the original acoustic signal, the state of the acoustic frame changes as shown in FIG.

特許文献2の発明では、奇数番目と偶数番目の音響フレームで高周波側の強度と低周波側の強度を逆転させるので、図17(b)に示すように、2音響フレーム単位で見た場合、高周波側にも低周波側にも必ず信号強度の強い部分が存在する。このため、音脈分凝の原理により、人間には、音が途切れたようには聞こえないが、抽出装置では、その明確な変化を認識することができる。   In the invention of Patent Document 2, since the intensity on the high frequency side and the intensity on the low frequency side are reversed in the odd-numbered and even-numbered acoustic frames, as shown in FIG. There is always a strong signal strength on both the high and low frequency sides. For this reason, the sound does not sound as if the sound has been interrupted by the principle of sound-band division, but the extraction device can recognize the clear change.

本発明では、特許文献4と同様、残響耐性を高めるため、さらに、複素周波数成分の強度を相対的に小さくされた複素周波数成分に対して位相補正を行う。複素周波数成分の強度を相対的に小さくされた複素周波数成分に対して行うのは、複素周波数成分の強度を相対的に大きくされた複素周波数成分に対して行うと、品質劣化につながるためである。したがって、図17(c)で示したように、補正対象は、“Ud2” “Uu4” “Ud6”となる。また、詳しくは後述するが、位相補正の方向としては、特許文献4とは異なり、直前の音響フレームに対して、設定された0度、90度、180度、270度の4方向のいずれかの方向に近付けるように行う。   In the present invention, similarly to Patent Document 4, in order to increase the reverberation tolerance, the phase correction is further performed on the complex frequency component in which the intensity of the complex frequency component is relatively reduced. The reason why the complex frequency component is applied to the complex frequency component whose intensity is relatively reduced is that if the complex frequency component is applied to the complex frequency component whose intensity is relatively increased, quality deterioration will occur. . Therefore, as illustrated in FIG. 17C, the correction target is “Ud2”, “Uu4”, and “Ud6”. In addition, as will be described in detail later, the phase correction direction is different from Patent Document 4, and is set to any one of four directions of 0 degrees, 90 degrees, 180 degrees, and 270 degrees set with respect to the immediately preceding acoustic frame. Do as close as possible.

図17(a)(b)に示したような特許文献2の発明について、付加情報を埋め込むための周波数領域を大きく確保したいという要望に応え、周波数領域を大きく確保することにより、抽出感度および精度を向上させ、1つの音響フレームに埋め込み可能な情報量を増やしたのが、特許文献3の発明である。周波数領域を広げる方法としては、高音側に広げる方法と、低音側に広げる方法の2通りがあるが、前者の方法は実現が容易である。なぜなら、高音側は信号強度が低くヒトの聴覚感度も下がるため、周波数領域を広げても再生品質にはあまり影響を与えないからである。しかし、携帯電話による電子透かし抽出を実現可能とするため、特許文献3の発明では、電話回線帯域である0.3kHzまで低音側に広げることにした。この場合、低音帯域は信号強度が強く聴覚感度も比較的高いため、埋め込み対象とする周波数領域を低音側に単純に拡張させて、その情報を変化させると、上手く音脈分凝の原理が機能せず、人間の耳に不快な音になってしまう。   With respect to the invention of Patent Document 2 as shown in FIGS. 17 (a) and 17 (b), in response to a desire to ensure a large frequency region for embedding additional information, by ensuring a large frequency region, the extraction sensitivity and accuracy are increased. The invention of Patent Document 3 has improved the amount of information that can be embedded in one acoustic frame. There are two methods for widening the frequency region: a method of widening to the high sound side and a method of widening to the low sound side, but the former method is easy to realize. This is because the signal intensity is low on the high sound side and the human auditory sensitivity is lowered, so that the reproduction quality is not greatly affected even if the frequency region is expanded. However, in order to make it possible to implement digital watermark extraction by a mobile phone, in the invention of Patent Document 3, it is decided to extend to the low sound side up to 0.3 kHz which is a telephone line band. In this case, the signal intensity in the bass band is strong and the auditory sensitivity is relatively high, so if you simply expand the frequency range to be embedded to the bass side and change that information, the principle of sound pulse condensation works well. Without sounding uncomfortable to the human ear.

そこで、特許文献3の発明では、周波数領域を単純に拡張させるのではなく、1.7kHz以下の低音領域に従来の埋め込み領域とは独立した領域を設け、高低2つの帯域で二重に音脈分凝の原理が機能するようにした。なお、高低2つの帯域は独立して音脈分凝を機能させるため、双方の周波数幅は必ずしも同一である必要はなく(ただし、各々の帯域は周波数方向に更に2分割されるが、2分割領域の幅は同一にする)、電話回線帯域の下限は規格上0.3kHzであるため、低音側の帯域幅は高音側より若干狭く設定せざるを得ない。そこで、特許文献3の発明では、好ましい例として、高音側は特許文献2の発明と同様に、1.7kHzから3.4kHzの範囲とし、低音側は0.34kHzから1.7kHzの範囲を採用した。   Therefore, in the invention of Patent Document 3, the frequency region is not simply expanded, but a region independent of the conventional embedding region is provided in the low frequency region of 1.7 kHz or less, and the sound pulse is doubled in the two high and low bands. Made the principle of separation work. In addition, since the two high and low bands function the sound pulse separation function independently, both frequency widths do not necessarily have to be the same (however, each band is further divided into two in the frequency direction, but divided into two). Since the lower limit of the telephone line band is 0.3 kHz according to the standard, the bandwidth on the low sound side must be set slightly narrower than that on the high sound side. Therefore, in the invention of Patent Document 3, as a preferable example, the high sound side is in the range of 1.7 kHz to 3.4 kHz, and the low sound side is in the range of 0.34 kHz to 1.7 kHz, as in the invention of Patent Document 2. did.

ここで、変更対象周波数帯が4つの周波数領域からなる場合における埋め込み時の各音響フレームの強度変化の様子を図18に示す。この場合も、ステレオ音響信号の場合は、L-ch(左チャンネル)、R-ch(右チャンネル)とも同様に処理が行われるが、図18においては、L-ch(左チャンネル)のみを示している。また、u、dはそれぞれ相対的に高周波、低周波成分を示し、1〜6は先頭からの音響フレームの順番を示している点も図17と同様である。本発明では、図17に示したような従来の周波数範囲よりもさらに、低い周波数範囲においても、複素周波数成分の変更処理を行う。図18において、“Uu1”〜“Uu6”、“Ud1”〜“Ud6”は、図17に示したものと同じ複素周波数成分であるが、“Du1”〜“Du6”、“Dd1”〜“Dd6”は、本発明により新たに情報の埋め込みに用いる複素周波数成分である。なお、図18においても、“Uu1”等の各複素周波数成分の文字の大きさは、相対的な強度の大小を示している。   Here, FIG. 18 shows a state of intensity change of each acoustic frame at the time of embedding when the change target frequency band is composed of four frequency regions. In this case as well, in the case of a stereo sound signal, the same processing is performed for both L-ch (left channel) and R-ch (right channel), but only L-ch (left channel) is shown in FIG. ing. Also, u and d are relatively high frequency and low frequency components, respectively, and 1 to 6 are the same as in FIG. In the present invention, the complex frequency component changing process is performed even in a frequency range lower than the conventional frequency range as shown in FIG. In FIG. 18, “Uu1” to “Uu6” and “Ud1” to “Ud6” are the same complex frequency components as shown in FIG. 17, but “Du1” to “Du6”, “Dd1” to “Dd6”. "Is a complex frequency component newly used for embedding information according to the present invention. In FIG. 18 as well, the size of characters of each complex frequency component such as “Uu1” indicates the relative strength.

図18においては、図18(a)は原音響信号の変更対象周波数帯を、図18(b)は従来の埋め込み処理後の変更対象周波数帯を、図18(c)は本発明の埋め込み処理後の変更対象周波数帯を示している。特許文献3の発明では、上位周波数帯、下位周波数帯それぞれにおいて、奇数番目の音響フレームの高周波側と低周波側の成分強度の大小関係と、偶数番目の音響フレームの高周波側と低周波側の成分強度の大小関係が逆転するように処理を行う。奇数番目と偶数番目のどちらの音響フレームの高周波側を大きくするかによって、埋め込むビット値を変化させることができる。図18の例では、上位周波数帯、下位周波数帯いずれにおいても、偶数番目の音響フレームの高周波側を大きくすることにより“0”、奇数番目の音響フレームの高周波側を大きくすることにより“1”を埋め込むことを示している。したがって、元の音響信号に“010”という3ビットの情報を埋め込んだ場合、音響フレームの状態は、図18(b)に示すように変化する。   18, FIG. 18 (a) shows the frequency band to be changed of the original sound signal, FIG. 18 (b) shows the frequency band to be changed after the conventional embedding process, and FIG. 18 (c) shows the embedding process of the present invention. The frequency band to be changed later is shown. In the invention of Patent Document 3, in each of the upper frequency band and the lower frequency band, the magnitude relationship between the high-frequency side and low-frequency side component intensities of the odd-numbered acoustic frames, and the high-frequency side and low-frequency side of the even-numbered acoustic frames. Processing is performed so that the magnitude relationship between the component intensities is reversed. The bit value to be embedded can be changed depending on whether the high-frequency side of the odd-numbered or even-numbered acoustic frame is increased. In the example of FIG. 18, in both the upper frequency band and the lower frequency band, “0” is set by increasing the high frequency side of the even-numbered sound frame, and “1” is set by increasing the high-frequency side of the odd-numbered sound frame. Indicates embedding. Therefore, when the 3-bit information “010” is embedded in the original acoustic signal, the state of the acoustic frame changes as shown in FIG.

本発明では、特許文献4と同様、残響耐性を高めるため、さらに、複素周波数成分の強度を相対的に小さくされた複素周波数成分に対して位相補正を行う。したがって、図18(c)で示したように、補正対象は、“Ud2” “Uu4” “Ud6” “Dd2” “Du4” “Dd6”となる。また、図17の場合と同様、位相補正の方向としては、特許文献4とは異なり、直前の音響フレームに対して、設定された0度、90度、180度、270度の4方向のいずれかの方向に近付けるように行う。   In the present invention, similarly to Patent Document 4, in order to increase the reverberation tolerance, the phase correction is further performed on the complex frequency component in which the intensity of the complex frequency component is relatively reduced. Therefore, as shown in FIG. 18C, the correction target is “Ud2” “Uu4” “Ud6” “Dd2” “Du4” “Dd6”. Similarly to the case of FIG. 17, the phase correction direction is different from Patent Document 4, and any of the four directions of 0 degrees, 90 degrees, 180 degrees, and 270 degrees set for the immediately preceding acoustic frame is used. Do as close as possible.

(1.2.位相補正による残響耐性付与原理)
残響耐性を高めるために位相補正を行う理由について説明する。図19は、位相補正による残響耐性実現の基本原理を示す概念図である。図19においては、対象フレーム(変更対象の音響フレーム)と直前フレーム(変更対象の音響フレームの直前の音響フレーム)の変更対象周波数帯における複素周波数成分を、その実部と虚部を軸として複素ベクトル表現している。
(1.2. Principle of adding reverberation tolerance by phase correction)
The reason why the phase correction is performed to increase the reverberation tolerance will be described. FIG. 19 is a conceptual diagram showing the basic principle of realizing reverberation tolerance by phase correction. In FIG. 19, complex frequency components in the change target frequency band of the target frame (acoustic frame to be changed) and the immediately preceding frame (acoustic frame immediately before the change target acoustic frame) are complex vectors with the real part and the imaginary part as axes. expressing.

図19(a)は、複素周波数成分の変更を行った後の状態(図17(b)、図18(b)の状態)を示したものである。図19(b)は、図19(a)に示した直前フレーム成分、対象フレーム成分に加えて位相補正後の対象フレーム成分を複素ベクトル表現したものである。図19の例では、直前フレーム成分の振幅(複素ベクトルのノルム)が、対象フレーム成分の振幅に比べて大きいため、直前フレーム成分の逆位相の方向に対象フレーム成分の位相を補正する。すなわち、直前フレーム成分と180度逆の方向に対象フレーム成分の位相を補正する。   FIG. 19A shows a state after changing the complex frequency component (the states of FIG. 17B and FIG. 18B). FIG. 19B shows a complex vector representation of the target frame component after phase correction in addition to the immediately preceding frame component and the target frame component shown in FIG. In the example of FIG. 19, the amplitude of the previous frame component (the norm of the complex vector) is larger than the amplitude of the target frame component, so the phase of the target frame component is corrected in the direction opposite to the previous frame component. That is, the phase of the target frame component is corrected in a direction 180 degrees opposite to the previous frame component.

図19(b)のように位相補正することにより、残響を除去することができる原理について図20を用いて説明する。図20(a)、図20(b)は、それぞれ図19(a)、図19(b)と同様、周波数成分の変更を行った後と位相補正後の状態を示したものである。また、図20に示した直前フレーム成分、対象フレーム成分、位相補正後の対象フレーム成分は、図19と同じものである。図20では、図19に示したフレーム成分に加えて、残響発生時の対象フレーム成分を示している。   The principle that reverberation can be removed by phase correction as shown in FIG. 19B will be described with reference to FIG. 20 (a) and 20 (b) show the states after the frequency components are changed and after the phase correction, as in FIGS. 19 (a) and 19 (b). Further, the immediately preceding frame component, the target frame component, and the target frame component after phase correction shown in FIG. 20 are the same as those in FIG. In FIG. 20, in addition to the frame component shown in FIG. 19, the target frame component when reverberation occurs is shown.

図20(a)に示すように、残響により直前フレーム成分が対象フレーム成分に重畳されると、対象フレーム成分の振幅が大きくなり、埋め込まれたビット値が反転して抽出される可能性が高くなる。直前フレーム成分の逆位相の方向に対象フレーム成分の位相を補正した場合、図20(b)に示すように、残響により直前フレーム成分が対象フレーム成分に重畳されても、対象フレーム成分の振幅はほとんど変化せず、埋め込まれたビット値が反転して抽出される可能性が低くなる。すなわち、位相補正を行うことにより、残響による埋め込み情報の誤検出を防ぐことができる。   As shown in FIG. 20A, when the immediately preceding frame component is superimposed on the target frame component due to reverberation, the amplitude of the target frame component increases, and the embedded bit value is likely to be inverted and extracted. Become. When the phase of the target frame component is corrected in the direction opposite to the previous frame component, as shown in FIG. 20B, even if the previous frame component is superimposed on the target frame component due to reverberation, the amplitude of the target frame component is There is almost no change, and the possibility that the embedded bit value is inverted and extracted is reduced. That is, by performing phase correction, it is possible to prevent erroneous detection of embedded information due to reverberation.

図19、図20は、直前フレームからの残響を考慮した単純モデルであるが、現実には、直前フレームよりも前の音響フレームからも影響を受けることがある。そこで、次では、変更対象の音響フレームの2つ前の音響フレームである2直前フレームと、直前フレームの2つの音響フレームからの残響を考慮した実用モデルについて説明する。   19 and 20 are simple models that take into account the reverberation from the immediately preceding frame, but in reality, they may be affected by acoustic frames before the immediately preceding frame. Therefore, in the following, a practical model that takes into account reverberation from the two immediately preceding frames, which are the two immediately preceding the acoustic frame to be changed, and the two immediately preceding frames is described.

図21は、位相補正による残響耐性実現の基本原理実用モデルを示す概念図である。図21においては、図19に示した対象フレーム成分、直前フレーム成分、位相補正後の対象フレーム成分に加えて、2直前フレーム成分も示している。図21(a)は、周波数成分の変更を行った後の状態を示したものである。図21(b)は、2直前フレーム成分、直前フレーム成分、対象フレーム成分に加えて位相補正後の対象フレーム成分をベクトル表現したものである。図21の例でも、直前フレーム成分の振幅(複素ベクトルのノルム)が、対象フレーム成分の振幅に比べて大きいため、直前フレーム成分の逆位相の方向に対象フレーム成分の位相を補正する。このとき、単純モデルの場合と異なり、直前フレーム成分ではなく、2直前フレーム成分と直前フレーム成分を合成した合成直前フレーム成分の逆位相の方向に対象フレーム成分の位相を補正する。すなわち、合成直前フレーム成分と180度逆の方向に対象フレーム成分の位相を補正する。したがって、直前フレーム成分の逆位相より若干手前に対象フレーム成分の位相を補正することになる。   FIG. 21 is a conceptual diagram showing a basic principle practical model for realizing reverberation tolerance by phase correction. In FIG. 21, in addition to the target frame component, the previous frame component, and the target frame component after phase correction shown in FIG. 19, two previous frame components are also shown. FIG. 21A shows the state after the frequency component is changed. FIG. 21B is a vector representation of the target frame component after phase correction in addition to the two previous frame component, the previous frame component, and the target frame component. Also in the example of FIG. 21, since the amplitude of the immediately preceding frame component (the norm of the complex vector) is larger than the amplitude of the subject frame component, the phase of the subject frame component is corrected in the direction opposite to the previous frame component. At this time, unlike the case of the simple model, the phase of the target frame component is corrected in the direction of the opposite phase of the immediately preceding frame component obtained by combining the immediately preceding frame component and the immediately preceding frame component instead of the immediately preceding frame component. That is, the phase of the target frame component is corrected in a direction 180 degrees opposite to the frame component immediately before the synthesis. Therefore, the phase of the target frame component is corrected slightly before the opposite phase of the immediately preceding frame component.

図21(b)のように位相補正することにより、残響を除去することができる原理について図22を用いて説明する。図22(a)、図22(b)は、それぞれ図21(a)、図21(b)と同様、周波数成分の変更を行った後と位相補正後の状態を示したものである。また、図22に示した直前フレーム成分、合成直前フレーム成分、対象フレーム成分、位相補正後の対象フレーム成分は、図21と同じものである。図22では、図21に示したフレーム成分に加えて、残響発生時の対象フレーム成分を示している。   The principle that reverberation can be removed by phase correction as shown in FIG. 21B will be described with reference to FIG. FIGS. 22 (a) and 22 (b) show the states after the frequency components are changed and after the phase correction, as in FIGS. 21 (a) and 21 (b). Also, the immediately preceding frame component, the immediately preceding frame component, the target frame component, and the target frame component after phase correction shown in FIG. 22 are the same as those in FIG. FIG. 22 shows a target frame component when reverberation occurs in addition to the frame components shown in FIG.

図22(a)に示すように、残響により合成直前フレーム成分が対象フレーム成分に重畳されると、対象フレーム成分の振幅が大きくなり、埋め込まれたビット値が反転して抽出される可能性が高くなる。合成直前フレーム成分の逆位相の方向に対象フレーム成分の位相を補正した場合、図22(b)に示すように、残響により合成直前フレーム成分が対象フレーム成分に重畳されても、対象フレーム成分の振幅はほとんど変化せず、埋め込まれたビット値が反転して抽出される可能性が低くなる。すなわち、位相補正を行うことにより、残響による埋め込み情報の誤検出を防ぐことができる。   As shown in FIG. 22A, when the frame component immediately before synthesis is superimposed on the target frame component due to reverberation, the amplitude of the target frame component increases, and the embedded bit value may be inverted and extracted. Get higher. When the phase of the target frame component is corrected in the opposite phase direction to the frame component immediately before synthesis, as shown in FIG. 22B, even if the frame component immediately before synthesis is superimposed on the target frame component due to reverberation, The amplitude hardly changes, and the possibility that the embedded bit value is inverted and extracted becomes low. That is, by performing phase correction, it is possible to prevent erroneous detection of embedded information due to reverberation.

図21、図22に示した実用モデル(特許文献4の技術に対応)では、合成直前フレーム成分と直前フレーム成分の角度が20度〜30度と比較的小さいため、対象フレーム成分を、合成直前フレーム成分の逆位相(0度)の方向に補正することは、直前フレーム成分の逆位相に近い方向(20〜30度)に補正することになる。この場合、対象フレーム成分を、直前フレーム成分の逆位相に近い方向に補正することにより、合成直前フレーム成分の逆位相方向に補正することとほぼ同等になり、残響による埋め込み情報の誤検出を防ぐことができる。しかし、図24(a)に示すように、合成直前フレーム成分と直前フレーム成分の角度が大きい場合、直前フレーム成分の逆位相に近い方向に補正することは、合成直前フレーム成分の逆位相の方向に補正することにならないため、残響耐性を高めることはできない。   In the practical model shown in FIGS. 21 and 22 (corresponding to the technique of Patent Document 4), the angle between the immediately preceding frame component and the immediately preceding frame component is relatively small, 20 degrees to 30 degrees. Correcting in the direction of the opposite phase (0 degrees) of the frame component is correcting in the direction (20 to 30 degrees) close to the opposite phase of the immediately preceding frame component. In this case, correcting the target frame component in a direction close to the reverse phase of the immediately preceding frame component is almost equivalent to correcting the target frame component in the reverse phase direction of the immediately preceding frame component, and prevents erroneous detection of embedded information due to reverberation. be able to. However, as shown in FIG. 24A, when the angle between the immediately preceding frame component and the immediately preceding frame component is large, correction in a direction close to the opposite phase of the immediately preceding frame component means that the direction of the opposite phase of the immediately preceding frame component is Therefore, the resistance to reverberation cannot be increased.

本発明においては、対象フレーム成分の補正方向を直前フレーム成分の逆位相に近い方向に限定せず、合成直前フレーム成分と直前フレーム成分の角度に種々の隔たりがあっても、対象フレーム成分を、合成直前フレーム成分の逆位相の方向に補正するのと同等な効果が得られるように、直前フレーム成分に対して所定の角度で補正する。例えば、図24(b)に示すように、合成直前フレーム成分と直前フレーム成分の角度が180度程度に大きい場合、対象フレーム成分を直前フレーム成分と同位相に近い方向に補正する。合成直前フレーム成分の逆位相の方向に対象フレーム成分の位相を補正した場合、図24(c)に示すように、残響により合成直前フレーム成分が対象フレーム成分に重畳されても、対象フレーム成分の振幅はほとんど変化せず、埋め込まれたビット値が反転して抽出される可能性が低くなる。すなわち、位相補正を行うことにより、残響による埋め込み情報の誤検出を防ぐことができる。   In the present invention, the correction direction of the target frame component is not limited to a direction close to the opposite phase of the immediately preceding frame component, and the target frame component is determined even if there are various gaps in the angle between the immediately preceding frame component and the immediately preceding frame component. Correction is performed at a predetermined angle with respect to the immediately preceding frame component so as to obtain an effect equivalent to correction in the opposite phase direction of the immediately preceding frame component. For example, as shown in FIG. 24B, when the angle between the immediately preceding frame component and the immediately preceding frame component is as large as about 180 degrees, the target frame component is corrected in a direction close to the same phase as the immediately preceding frame component. When the phase of the target frame component is corrected in the opposite phase direction of the frame component immediately before synthesis, even if the frame component immediately before synthesis is superimposed on the target frame component due to reverberation as shown in FIG. The amplitude hardly changes, and the possibility that the embedded bit value is inverted and extracted becomes low. That is, by performing phase correction, it is possible to prevent erroneous detection of embedded information due to reverberation.

本発明では、図25(a)に示すように、直前フレーム成分の方向(0度)を基準として、0度、90度、180度、270度の4方向のいずれかの近傍に補正可能とする。すなわち、直前フレーム成分に対しては、逆位相に近い方向に限定されず、逆位相に近い方向を含む4方向のいずれかの近傍に補正することになる。図25(b)の例では、合成直前フレーム成分の逆位相(直前フレーム成分の同位相に近い方向)に補正することにより、残響耐性を高めることができる。   In the present invention, as shown in FIG. 25A, correction can be made in the vicinity of any of the four directions of 0 degrees, 90 degrees, 180 degrees, and 270 degrees with reference to the direction of the immediately preceding frame component (0 degrees). To do. In other words, the immediately preceding frame component is not limited to the direction close to the reverse phase, but is corrected to any one of the four directions including the direction close to the reverse phase. In the example of FIG. 25 (b), reverberation tolerance can be increased by correcting the phase of the immediately previous frame component to the opposite phase (the direction close to the same phase of the immediately preceding frame component).

図23に周波数に対するエネルギー分布および、変更対象周波数帯が1段(図17の例:周波数領域は2つ)の場合と2段(図18の例:周波数領域は4つ)の場合の埋め込み領域を示す。図23(a)に示すように、音響信号のエネルギー分布は、周波数が低い程大きくなる。図23(b)に示すように、変更対象周波数帯が2段の場合、変更対象周波数帯が1段の場合の埋め込み領域よりも低い周波数範囲も埋め込み領域としたので、全体として埋め込み領域が広がっている。変更対象周波数帯が2段の場合、上位周波数帯(1.7kHz〜3.4kHz)と、下位周波数帯(0.34kHz〜1.7kHz)では、上位の方が若干広範囲を有するが、図23(a)に示すように、下位の方がエネルギー分布が大きいため、埋め込みに必要なエネルギーについては、むしろ下位の方が大きくなる。   FIG. 23 shows the energy distribution with respect to the frequency and the embedding area when the change target frequency band is one stage (example in FIG. 17: two frequency areas) and two stages (example in FIG. 18: four frequency areas). Indicates. As shown in FIG. 23A, the energy distribution of the acoustic signal increases as the frequency decreases. As shown in FIG. 23B, when the change target frequency band is two stages, the frequency range lower than the embedding area in the case where the change target frequency band is one stage is also used as the embedding area. ing. When the change target frequency band has two stages, the upper frequency band (1.7 kHz to 3.4 kHz) and the lower frequency band (0.34 kHz to 1.7 kHz) have a slightly wider range in the upper frequency band (FIG. 23). As shown in (a), since the energy distribution in the lower order is larger, the energy required for embedding is rather larger in the lower order.

(1.3.時間次元での残響抑圧原理)
本発明では、上記位相補正以外に時間次元でも残響抑圧を行っている。次に、時間次元での残響抑圧原理について説明する。図26〜図29は、音響信号を単純化したモデルを示している。本発明では、音響信号から所定数Nのサンプルを音響フレームとして抽出し、N個(実施形態では4096個)のサンプル単位で処理を行うが、図26〜図29の例では、説明の簡略化のため、16個としている。ここでは、図26(a)に示すような16個のサンプルで構成される音響信号DATA1を想定する。なお、図26〜図29において、上下方向ほぼ中央の位置がサンプル値“0”を示し、上側が正の値、下側が負の値である。
(1.3. Reverberation suppression principle in the time dimension)
In the present invention, reverberation suppression is performed in the time dimension in addition to the above phase correction. Next, the principle of dereverberation suppression in the time dimension will be described. 26 to 29 show models obtained by simplifying acoustic signals. In the present invention, a predetermined number N of samples are extracted from the acoustic signal as an acoustic frame, and the processing is performed in units of N samples (4096 in the embodiment). However, in the examples of FIGS. Therefore, it is 16 pieces. Here, an acoustic signal DATA1 composed of 16 samples as shown in FIG. In FIG. 26 to FIG. 29, the center position in the vertical direction indicates the sample value “0”, the upper side is a positive value, and the lower side is a negative value.

詳細は後述するが、本発明では、ビット値を埋め込む際、重複して設定された音響フレームの周波数成分の強度を変更する。そのため、1つの音響フレームで考えると、その前半または後半の値が変化することになる。ここでは、後半の強度を50%小さく変調する場合を考えてみる。図26(a)の原音響信号に対して、後半8サンプルを50%小さく変調すると、図26(b)に示すような変調音響信号DATA2が得られる。変調音響信号DATA2では、前半8サンプルと後半8サンプルの強度が大きく相違している。抽出側では、この相違を検出して埋め込まれたビット値を抽出することになる。   Although details will be described later, in the present invention, when embedding the bit value, the intensity of the frequency component of the acoustic frame set in an overlapping manner is changed. For this reason, when one acoustic frame is considered, the value in the first half or the latter half changes. Here, consider a case where the intensity of the latter half is modulated by 50%. If the latter 8 samples are modulated 50% smaller than the original acoustic signal of FIG. 26A, a modulated acoustic signal DATA2 as shown in FIG. 26B is obtained. In the modulated acoustic signal DATA2, the intensities of the first half 8 samples and the second half 8 samples are greatly different. The extraction side detects this difference and extracts the embedded bit value.

ここで、図27(b)に示すような残響信号DATA4を用意し、図26(b)に示した変調音響信号DATA2に加算する。この結果、図27(a)に示すような残響付加された変調音響信号DATA3が得られる。変調音響信号DATA3では、後半8サンプルに残響成分が付加されているため、前半8サンプルと後半8サンプルの強度の差が小さくなり、埋め込まれたビット値を正確に抽出することができない。   Here, a reverberation signal DATA4 as shown in FIG. 27B is prepared and added to the modulated acoustic signal DATA2 shown in FIG. As a result, a reverberation-added modulated acoustic signal DATA3 as shown in FIG. 27A is obtained. In the modulated acoustic signal DATA3, since a reverberation component is added to the latter 8 samples, the difference in intensity between the first 8 samples and the latter 8 samples becomes small, and the embedded bit value cannot be extracted accurately.

本発明では、時間次元での残響抑圧を行うため、原音響信号に対して、微分処理・積分処理を実行する。図26(a)に示した原音響信号DATA1に対して微分処理を施した微分信号DATA5を図28(a)に示す。微分信号DATA5の各サンプルの値は、原音響信号DATA1の隣接するサンプル間の差分となっている。図28(a)の微分信号DATA5に対して、後半8サンプルを50%小さく変調すると、図28(b)に示すような変調微分信号DATA6が得られる。   In the present invention, in order to perform reverberation suppression in the time dimension, differential processing / integration processing is performed on the original sound signal. FIG. 28A shows a differential signal DATA5 obtained by performing differential processing on the original sound signal DATA1 shown in FIG. The value of each sample of the differential signal DATA5 is a difference between adjacent samples of the original sound signal DATA1. If the latter half 8 samples are modulated 50% smaller than the differential signal DATA5 of FIG. 28A, a modulated differential signal DATA6 as shown in FIG. 28B is obtained.

次に、図28(b)に示した変調微分信号DATA6に対して積分処理を施す。変調微分信号DATA6に対して積分処理を施した積分信号DATA7を図29(a)に示す。積分信号DATA7の各サンプルの値は、変調微分信号DATA6の隣接するサンプルの値を加算したものとなっている。   Next, an integration process is performed on the modulated differential signal DATA6 shown in FIG. FIG. 29A shows an integration signal DATA7 obtained by performing integration processing on the modulated differential signal DATA6. The value of each sample of the integration signal DATA7 is obtained by adding the values of adjacent samples of the modulated differential signal DATA6.

このようにして得られた積分信号DATA7に対して、図27(b)に示した残響信号DATA4を加算する。この結果、図29(b)に示すような残響付加された積分信号DATA8が得られる。図29(b)に示した積分信号DATA8に対して微分処理を施した微分信号DATA9を図29(c)に示す。図29(c)に示す微分信号DATA9においては、後半サンプルに振幅低減成分が維持されているため、抽出側において、埋め込まれたビット値を正確に抽出することができる。   The reverberation signal DATA4 shown in FIG. 27B is added to the integral signal DATA7 obtained in this way. As a result, an integrated signal DATA8 with reverberation added as shown in FIG. 29B is obtained. FIG. 29C shows a differential signal DATA9 obtained by subjecting the integral signal DATA8 shown in FIG. 29B to differential processing. In the differential signal DATA9 shown in FIG. 29 (c), since the amplitude reduction component is maintained in the latter half sample, the embedded bit value can be accurately extracted on the extraction side.

(2.1.埋め込み装置の構成)
次に、本発明に係る音響信号に対する情報の埋め込み装置について説明する。図1は、本発明に係る音響信号に対する情報の埋め込み装置の構成を示す機能ブロック図である。図1において、10は音響フレーム読込手段、20は周波数変換手段、30は周波数成分変更手段、40は周波数逆変換手段、50は改変音響フレーム出力手段、60は記憶手段、61は音響信号記憶部、62は付加情報記憶部、63は改変音響信号記憶部、70はビット配列作成手段、80は変換テーブル作成手段である。なお、図1に示す装置は、ステレオ音響信号、モノラル音響信号の両方に対応可能であるが、ここでは、ステレオ音響信号に対して処理を行う場合について説明していく。
(2.1. Configuration of embedded device)
Next, an information embedding device for an acoustic signal according to the present invention will be described. FIG. 1 is a functional block diagram showing the configuration of an information embedding device for an acoustic signal according to the present invention. In FIG. 1, 10 is an acoustic frame reading means, 20 is a frequency converting means, 30 is a frequency component changing means, 40 is a frequency inverse converting means, 50 is a modified acoustic frame output means, 60 is a storage means, and 61 is an acoustic signal storage section. , 62 is an additional information storage unit, 63 is a modified acoustic signal storage unit, 70 is a bit array creation unit, and 80 is a conversion table creation unit. The apparatus shown in FIG. 1 can deal with both a stereo sound signal and a monaural sound signal. Here, a case where processing is performed on a stereo sound signal will be described.

音響フレーム読込手段10は、付加情報の埋め込み対象とする元のステレオ音響信号の各チャンネルから所定数のサンプルを1フレームとして読み込む機能を有している。周波数変換手段20は、音響フレーム読込手段10が読み込んだ音響信号の実数成分で表現されるフレームをフーリエ変換等により周波数変換して複素周波数成分を生成する機能を有している。本実施形態では、周波数変換手段20は、周波数変換を行う直前に後述する微分処理も行う。周波数成分変更手段30は、生成された複素周波数成分から所定の周波数範囲に相当するスペクトル集合を複数抽出し、付加情報記憶部62から抽出した付加情報よりビット配列作成手段70が作成したビット配列に基づいて、スペクトル集合の状態を変更する機能を有している。位相補正手段31は、周波数成分変更手段30により、強度を小さくするように変更されたスペクトル集合の複素周波数成分の位相を、直前に読み込まれた音響フレームにおける対応する周波数範囲のスペクトル集合の複素周波数成分の方向から所定の角度だけずれた方向に補正をする機能を有している。この際、位相補正された複素数端数成分の強度(複素ベクトルのノルム)は、補正前と同一になるようにする処理も行う。周波数逆変換手段40は、変更されたスペクトル集合を含む複数の複素周波数成分に対して周波数逆変換を行うことにより、改変音響フレームを生成する機能を有している。本実施形態では、周波数逆変換手段40は、周波数逆変換を行う際に後述する積分処理も行う。改変音響フレーム出力手段50は、生成された改変音響フレームを順次出力する機能を有している。   The sound frame reading means 10 has a function of reading a predetermined number of samples as one frame from each channel of the original stereo sound signal to be embedded with additional information. The frequency conversion means 20 has a function of generating a complex frequency component by frequency-converting a frame represented by a real component of the acoustic signal read by the acoustic frame reading means 10 by Fourier transformation or the like. In the present embodiment, the frequency conversion means 20 also performs a differentiation process described later immediately before performing the frequency conversion. The frequency component changing unit 30 extracts a plurality of spectrum sets corresponding to a predetermined frequency range from the generated complex frequency component, and converts the spectrum set into the bit array created by the bit array creating unit 70 from the additional information extracted from the additional information storage unit 62. Based on this, it has the function of changing the state of the spectrum set. The phase correction unit 31 converts the phase of the complex frequency component of the spectrum set that has been changed so as to reduce the intensity by the frequency component change unit 30 to the complex frequency of the spectrum set in the corresponding frequency range in the acoustic frame that was read immediately before. It has a function of correcting in a direction shifted by a predetermined angle from the component direction. At this time, processing is performed to make the intensity of the complex fractional component whose phase is corrected (norm of the complex vector) the same as that before the correction. The frequency inverse transform means 40 has a function of generating a modified acoustic frame by performing frequency inverse transform on a plurality of complex frequency components including the changed spectrum set. In the present embodiment, the frequency inverse transform unit 40 also performs an integration process to be described later when performing frequency inverse transform. The modified sound frame output means 50 has a function of sequentially outputting the generated modified sound frames.

記憶手段60は、付加情報を埋め込む対象とするステレオ音響信号を記憶した音響信号記憶部61と、ビット列として構成され、ステレオ音響信号に埋め込まれる付加情報を記憶した付加情報記憶部62と、付加情報埋め込み後の改変音響信号を記憶する改変音響信号記憶部63を有しており、その他処理に必要な各種情報を記憶するものである。ビット配列作成手段70は、付加情報記憶部62から付加情報を抽出し、付加情報の各ワードについて、変換テーブル作成手段80を参照し、対応するビット配列を作成する機能を有している。変換テーブル作成手段80は、Nwビットが取り得る2のNw乗個の全ての登録順位に対して、ビットデータを巡回したビットパターンを含めて互いにハミング距離が少なくとも3以上となるNh(>Nw)ビットの巡回ハミング符号を割り当てることにより、Nwビットの登録順位とNhビットの巡回ハミング符号が対応付けられた符号変換テーブルを作成する機能を有している。ここで、登録順位とは、Nwビットを10進で表現した場合の値を示しており、Nw=7の場合、登録順位は、0〜127(実際には0〜131までは登録可能)で表現される。符号変換テーブルについては、別の装置により事前に作成したものを記憶手段60に記憶させておき、ビット配列作成手段70が参照するようにしても良い。この場合は、音響信号に対する情報の埋め込み装置には、変換テーブル作成手段80は不要となる。   The storage means 60 includes an acoustic signal storage unit 61 that stores a stereo acoustic signal to be embedded as additional information, an additional information storage unit 62 that is configured as a bit string and stores additional information embedded in the stereo acoustic signal, and additional information. It has a modified acoustic signal storage unit 63 for storing the modified acoustic signal after embedding, and stores various information necessary for other processing. The bit array creating unit 70 has a function of extracting additional information from the additional information storage unit 62 and referring to the conversion table creating unit 80 for each word of the additional information to create a corresponding bit array. The conversion table creation means 80 includes Nh (> Nw) that has a Hamming distance of at least 3 or more, including a bit pattern that circulates bit data, for all 2 Nw powers of registration rank that Nw bits can take. By assigning a cyclic hamming code of bits, it has a function of creating a code conversion table in which the registration order of Nw bits and the cyclic hamming code of Nh bits are associated with each other. Here, the registration order indicates a value when Nw bits are expressed in decimal. When Nw = 7, the registration order is 0 to 127 (actually, registration is possible from 0 to 131). Expressed. As for the code conversion table, a code table created in advance by another device may be stored in the storage means 60 and referred to by the bit array creation means 70. In this case, the conversion table creating means 80 is not required for the information embedding device for the acoustic signal.

なお、付加情報とは、音響情報に付加して埋め込むべき情報であり、タイトルやアーティスト名等の属性情報、および属性情報以外の他の情報を含むものである。本実施形態では、上記Nw、NhをそれぞれNw=7、Nh=16としている。本実施形態では、付加情報のコード形式としてASCIIコードを採用するため、付加情報においてはNw=7となり、7ビットが1ワードとなる。ただし、実際は7ビット範囲を若干超える符号表現が可能なため、8ビットを1ワードとしている。また、ビット配列作成手段70が作成するビット配列は、16ビットとなり、ビット配列作成後は、これを1ワードとして処理している。図1に示した各構成手段は、現実にはコンピュータおよびその周辺機器等のハードウェアに専用のプログラムを搭載することにより実現される。すなわち、コンピュータが、専用のプログラムに従って各手段の内容を実行することになる。   The additional information is information that should be added to the sound information and embedded, and includes attribute information such as a title and artist name, and other information other than the attribute information. In the present embodiment, Nw and Nh are set to Nw = 7 and Nh = 16, respectively. In the present embodiment, since the ASCII code is adopted as the code format of the additional information, Nw = 7 in the additional information, and 7 bits are one word. However, in practice, code expression slightly exceeding the 7-bit range is possible, so 8 bits are defined as 1 word. The bit array created by the bit array creating means 70 is 16 bits, and after the bit array is created, this is processed as one word. Each component shown in FIG. 1 is actually realized by installing a dedicated program in hardware such as a computer and its peripheral devices. That is, the computer executes the contents of each means according to a dedicated program.

(2.2.埋め込み装置の処理動作)
次に、図1に示した音響信号に対する情報の埋め込み装置の処理動作について説明する。上述のように、本発明は、図17に示したように変更対象周波数帯を1段とし、単一の音脈分凝(以下、「単一音脈分凝」という)を発生させる場合にも、図18に示したように、変更対象周波数帯を上位周波数帯と下位周波数帯の2つに分け、二重に音脈分凝(以下、「二重音脈分凝」という)を発生させる場合にも、適用することができる。以下では、「二重音脈分凝」を例にとって説明する。音響フレーム読込手段10は、音響信号記憶部61に記憶されたステレオ音響信号の左右の各チャンネルから、それぞれ所定数Nのサンプルを1音響フレームとして読み込む。音響フレーム読込手段10が読み込む1音響フレームのサンプル数Nは、適宜設定することができるが、サンプリング周波数が44.1kHzの場合、4096サンプル程度とすることが望ましい。したがって、音響フレーム読込手段10は、左チャンネル、右チャンネルについてそれぞれ4096サンプルずつ、順次音響フレームとして読み込んでいくことになる。
(2.2. Processing operation of embedded device)
Next, the processing operation of the information embedding device for the acoustic signal shown in FIG. 1 will be described. As described above, in the present invention, as shown in FIG. 17, the change target frequency band is set to one stage and a single sound pulse coagulation (hereinafter referred to as “single sound wave coagulation”) is generated. As shown in FIG. 18, the change target frequency band is divided into an upper frequency band and a lower frequency band, and a double sound pulse coagulation (hereinafter referred to as “double sound wave coagulation”) is generated. It can also be applied to cases. In the following, explanation will be given by taking “double sound volume fractionation” as an example. The sound frame reading means 10 reads a predetermined number N of samples as one sound frame from each of the left and right channels of the stereo sound signal stored in the sound signal storage unit 61. The number N of samples of one acoustic frame read by the acoustic frame reading means 10 can be set as appropriate, but is desirably about 4096 samples when the sampling frequency is 44.1 kHz. Therefore, the acoustic frame reading means 10 sequentially reads 4096 samples for each of the left channel and the right channel as acoustic frames.

音響フレームとしては、AタイプとBタイプが存在する。Aタイプの音響フレーム、Bタイプの音響フレームは、それぞれ同タイプの先行する音響フレームの最後のサンプルの次のサンプルを先頭サンプルとして設定される。そして、AタイプとBタイプの音響フレームは互いに所定数(本実施形態では2048)のサンプルを重複して設定される。例えば、Aタイプの音響フレームを先頭からA1、A2、A3…とし、Bタイプの音響フレームを先頭からB1、B2、B3…とすると、A1はサンプル1〜4096、A2はサンプル4097〜8192、A3はサンプル8193〜12288、B1はサンプル2049〜6144、B2はサンプル6145〜10240、B3はサンプル10241〜14336となる。なお、AタイプとBタイプは相対的なものであるので、どちらが先であっても良い。すなわち、上記とは逆にA1がサンプル2049〜6144、A2がサンプル6145〜10240、A3がサンプル10241〜14336、B1がサンプル1〜4096、B2がサンプル4097〜8192、B3がサンプル8193〜12288であっても良い。   There are A type and B type as acoustic frames. In the A-type acoustic frame and the B-type acoustic frame, the next sample after the last sample of the preceding acoustic frame of the same type is set as the first sample. The A-type and B-type sound frames are set by overlapping a predetermined number (2048 in this embodiment) of samples. For example, if the A type acoustic frame is A1, A2, A3... From the top and the B type acoustic frame is B1, B2, B3... From the top, A1 is samples 1 to 4096, A2 is samples 4097 to 8192, A3. Is samples 8193-12288, B1 is samples 2049-6144, B2 is samples 6145-10240, and B3 is samples 10241-14336. Since the A type and the B type are relative, either one may be first. In other words, A1 is samples 2049 to 6144, A2 is samples 6145 to 10240, A3 is samples 10241 to 14336, B1 is samples 1 to 4096, B2 is samples 4097 to 8192, and B3 is samples 8193 to 12288. May be.

周波数変換手段20は、実数次元の音響フレームに対して周波数変換を行って、その音響フレームの複素周波数成分を得る。本実施形態では、周波数変換に先立って周波数変換手段20が微分処理を行う。具体的には、左チャンネル信号の音響フレームの各サンプルXl(i)、右チャンネル信号の音響フレームの各サンプルXr(i)(i=0,…,N−1)に対して、Xl(0)=Xr(0)=0とし、i=1,…,N−1において、Xl(i)←Xl(i)−Xl(i−1)、Xr(i)←Xr(i)−Xr(i−1)なる変換を施し、N個の配列Xl(i)、Xr(i)の値を元の隣接サンプル間の差分に変更する。これにより、各サンプルXl(i)、Xr(i)は、元の隣接サンプル間の差分を示す値となる。以降、この差分値を有するサンプルXl(i)、Xr(i)を元のサンプルXl(i)、Xr(i)に代えて用いることとする。なお、室内環境によっては、この微分処理を行うことにより、逆効果になることもある。その場合は、微分処理を実行しないような設定にしておく。微分処理を実行しない場合は、元のサンプルがそのままXl(i)、Xr(i)として用いられることになる。   The frequency converting means 20 performs frequency conversion on a real-dimensional sound frame to obtain a complex frequency component of the sound frame. In this embodiment, the frequency conversion means 20 performs a differentiation process prior to frequency conversion. Specifically, for each sample Xl (i) of the acoustic frame of the left channel signal and each sample Xr (i) (i = 0,..., N−1) of the acoustic frame of the right channel signal, Xl (0 ) = Xr (0) = 0, and when i = 1,..., N−1, Xl (i) ← Xl (i) −Xl (i−1), Xr (i) ← Xr (i) −Xr ( i-1) is converted, and the values of the N arrays Xl (i) and Xr (i) are changed to the differences between the original adjacent samples. Thereby, each sample Xl (i), Xr (i) becomes a value which shows the difference between the original adjacent samples. Hereinafter, the samples Xl (i) and Xr (i) having this difference value are used in place of the original samples Xl (i) and Xr (i). Depending on the indoor environment, performing this differentiation process may have an adverse effect. In that case, the setting is made so that the differentiation process is not executed. When the differentiation process is not executed, the original sample is used as it is as Xl (i) and Xr (i).

微分処理を終えたら、周波数変換手段20は、周波数変換を行う。具体的には、窓関数を利用して周波数変換を行う。周波数変換としては、複素数次元への変換に対応可能なフーリエ変換、ウェーブレット変換その他公知の種々の手法を用いることができる。本実施形態では、フーリエ変換を用いた場合を例にとって説明する。   When the differentiation process is finished, the frequency conversion means 20 performs frequency conversion. Specifically, frequency conversion is performed using a window function. As the frequency transformation, various known methods such as Fourier transformation, wavelet transformation, and the like that can cope with transformation to a complex number dimension can be used. In the present embodiment, a case where Fourier transform is used will be described as an example.

一般に、所定の信号に対してフーリエ変換を行う場合、信号を所定の長さに区切って行う必要があるが、この場合、所定長さの信号に対してそのままフーリエ変換を行うと、擬似高調波成分が発生する。そこで、一般にフーリエ変換を行う場合には、ハニング窓と呼ばれる窓関数を用いて、信号の値を変化させた後、変化後の値に対してフーリエ変換を実行する。   In general, when Fourier transform is performed on a predetermined signal, it is necessary to divide the signal into predetermined lengths. In this case, if Fourier transform is performed on a signal of a predetermined length as it is, a pseudo-harmonic wave is generated. Ingredients are generated. Therefore, in general, when performing Fourier transform, a signal value is changed using a window function called a Hanning window, and then Fourier transform is performed on the changed value.

本実施形態においても、窓関数を利用しているが、Aタイプの音響フレーム、Bタイプの音響フレームで、使用する窓関数を分けている。本実施形態では、図2(a)(b)に示したような第1窓関数W(1,i)、第2窓関数W(2,i)を用意し、抽出側で認識し易いようにした。第1窓関数W(1,i)は、Aタイプの音響フレームに対して用いるためのものであり、図2(a)に示すように所定のサンプル番号iの位置において、最大値1をとり、後部においては、最小値0をとるように設定されている。どのサンプル番号の場合に最大値をとるかについては、窓関数W(1,i)の設計によって異なってくるが、本実施形態では、後述する〔数式1〕で定義される。Aタイプの音響フレームについてのフーリエ変換は、この窓関数W(1,i)を乗じたものに対して行われることになる。   In this embodiment, the window function is used, but the window function to be used is divided into the A type acoustic frame and the B type acoustic frame. In the present embodiment, the first window function W (1, i) and the second window function W (2, i) as shown in FIGS. 2A and 2B are prepared so that the extraction side can easily recognize them. I made it. The first window function W (1, i) is for use with an A type acoustic frame, and has a maximum value of 1 at the position of a predetermined sample number i as shown in FIG. In the rear part, the minimum value is set to 0. Which sample number takes the maximum value depends on the design of the window function W (1, i), but in this embodiment, it is defined by [Equation 1] described later. The Fourier transform for the A type acoustic frame is performed on the product of the window function W (1, i).

また、第2窓関数W(2,i)は、Bタイプの音響フレームに対して用いるためのものであり、図2(b)に示すように、所定のサンプル番号iの位置において、最大値1をとり、前部においては、最小値0をとるように設定されている。どのサンプル番号の場合に最大値をとるかについては、窓関数W(2,i)の設計によって異なってくるが、本実施形態では、後述する〔数式2〕で定義される。Bタイプの音響フレームについてのフーリエ変換は、この窓関数W(2,i)を乗じたものに対して行われることになる。   The second window function W (2, i) is for use with a B-type acoustic frame, and has a maximum value at the position of a predetermined sample number i as shown in FIG. 1 is set, and the front portion is set to have a minimum value of 0. Which sample number takes the maximum value depends on the design of the window function W (2, i), but in this embodiment, it is defined by [Expression 2] described later. The Fourier transform for the B type acoustic frame is performed on the product of the window function W (2, i).

なお、上述のように、本実施形態においては、音響フレームは重複して読み込まれる。すなわち、奇数番目の音響フレームと偶数番目の音響フレームは、所定数のサンプルを重複して読み込む。上記のように、奇数フレームと偶数フレームでは、用いられる窓関数が異なるが、奇数フレームと偶数フレームは単に奇数か偶数かの違いだけであるため、どちらに対してどちらの処理を行っても良い。したがって、本明細書では、奇数フレーム、偶数フレームの一方をAタイプフレーム、他方をBタイプフレームと呼ぶことにする。本実施形態では、奇数フレームをAタイプフレーム、偶数フレームをBタイプフレームとして説明するが、逆に偶数フレームをAタイプフレーム、奇数フレームをBタイプフレームとしても良い。   As described above, in the present embodiment, the sound frame is read in duplicate. That is, a predetermined number of samples are redundantly read in the odd-numbered sound frames and the even-numbered sound frames. As described above, the window function used is different between the odd frame and the even frame, but since either the odd frame or the even frame is simply the difference between the odd frame and the even frame, either process may be performed on either. . Therefore, in this specification, one of the odd-numbered frame and the even-numbered frame is referred to as an A-type frame, and the other is referred to as a B-type frame. In the present embodiment, an odd frame is described as an A type frame and an even frame is described as a B type frame. Conversely, an even frame may be an A type frame and an odd frame may be a B type frame.

本実施形態では、窓関数W(1,i)、W(2,i)は、以下の〔数式1〕〔数式2〕で定義される。なお、図2において、横軸は時間軸(i)である。iは、後述するように、各音響フレーム内のN個のサンプルに付した通し番号であるため時刻tに比例している。また、図2(a)(b)において縦軸は信号の振幅値(レベル)を示す。図2(a)(b)において縦軸は窓関数W(1,i)、W(2,i)の値を示しており、W(1,i)、W(2,i)の最大値はいずれも1である。   In the present embodiment, the window functions W (1, i) and W (2, i) are defined by the following [Equation 1] and [Equation 2]. In FIG. 2, the horizontal axis is the time axis (i). As described later, i is a serial number assigned to N samples in each acoustic frame, and is proportional to time t. 2A and 2B, the vertical axis indicates the amplitude value (level) of the signal. 2A and 2B, the vertical axis indicates the values of the window functions W (1, i) and W (2, i), and the maximum values of W (1, i) and W (2, i). Are all 1.

〔数式1〕
i≦N/8のとき、W(1,i)=0.0
N/8<i≦3N/8のとき、W(1,i)=0.5−0.5cos(4π(i−N/8)/N)
3N/8<i≦11N/16のとき、W(1,i)=1.0
11N/16<i≦13N/16のとき、W(1,i)=0.5+0.5cos(8π(i−11N/16)/N)
i>13N/16のとき、W(1,i)=0.0
[Formula 1]
When i ≦ N / 8, W (1, i) = 0.0
When N / 8 <i ≦ 3N / 8, W (1, i) = 0.5−0.5 cos (4π (i−N / 8) / N)
When 3N / 8 <i ≦ 11N / 16, W (1, i) = 1.0
When 11N / 16 <i ≦ 13N / 16, W (1, i) = 0.5 + 0.5 cos (8π (i-11N / 16) / N)
When i> 13N / 16, W (1, i) = 0.0

〔数式2〕
i≦3N/16のとき、W(2,i)=0.0
3N/16<i≦5N/16のとき、W(2,i)=0.5−0.5cos(8π(i−3N/16)/N)
5N/16<i≦5N/8のとき、W(2,i)=1.0
5N/8<i≦7N/8のとき、W(2,i)=0.5+0.5cos(4π(i−5N/8)/N)
i>7N/8のとき、W(2,i)=0.0
[Formula 2]
When i ≦ 3N / 16, W (2, i) = 0.0
When 3N / 16 <i ≦ 5N / 16, W (2, i) = 0.5−0.5 cos (8π (i−3N / 16) / N)
When 5N / 16 <i ≦ 5N / 8, W (2, i) = 1.0
When 5N / 8 <i ≦ 7N / 8, W (2, i) = 0.5 + 0.5 cos (4π (i−5N / 8) / N)
When i> 7N / 8, W (2, i) = 0.0

なお、図2および上記〔数式1〕〔数式2〕から明らかなように、窓関数W(1,i)とW(2,i)は、互いに非対称な形状である。これは、後述する抽出側において、両者の識別を容易にするためである。   As is clear from FIG. 2 and [Formula 1] and [Formula 2], the window functions W (1, i) and W (2, i) are asymmetrical to each other. This is for facilitating identification between the two on the extraction side described later.

本発明においては、奇数フレームと偶数フレームを、所定サンプルずつ重複して読み込むため、情報の埋め込みを行った後、音響信号に復元する際に、窓関数を乗じた奇数フレームと、窓関数を乗じた偶数フレームの重複サンプルを加算した場合に、ほぼ元の値に戻るようにしなければならない。このため、奇数フレームと偶数フレームの重複部分において、窓関数W(1,i)、W(2,i)を加算すると、全区間固定値1になるように定義されている。   In the present invention, since odd frames and even frames are redundantly read by a predetermined number of samples, after embedding information and then restoring to an acoustic signal, the odd frame multiplied by the window function and the window function are multiplied. When overlapping samples of even frames are added, it is necessary to return almost to the original value. For this reason, when the window functions W (1, i) and W (2, i) are added in the overlapping portion of the odd frame and the even frame, it is defined to be a fixed value 1 for all sections.

周波数変換手段20が、Aタイプの音響フレームに対してフーリエ変換を行う場合は、左チャンネル信号Xl(i)、右チャンネル信号Xr(i)に対して、窓関数W(1,i)を用いて、以下の〔数式3〕に従った処理を行い、左チャンネルに対応する変換データの実部Al(1,j)、虚部Bl(1,j)、右チャンネルに対応する変換データの実部Ar(1,j)、虚部Br(1,j)を得る。   When the frequency conversion means 20 performs a Fourier transform on an A type acoustic frame, the window function W (1, i) is used for the left channel signal Xl (i) and the right channel signal Xr (i). Thus, the processing according to the following [Equation 3] is performed, and the real part Al (1, j), the imaginary part Bl (1, j) of the conversion data corresponding to the left channel, and the conversion data corresponding to the right channel Part Ar (1, j) and imaginary part Br (1, j) are obtained.

〔数式3〕
Al(1,j)=Σi=0,…,N-1W(1,i)・Xl(i)・cos(2πij/N)
Bl(1,j)=Σi=0,…,N-1W(1,i)・Xl(i)・sin(2πij/N)
Ar(1,j)=Σi=0,…,N-1W(1,i)・Xr(i)・cos(2πij/N)
Br(1,j)=Σi=0,…,N-1W(1,i)・Xr(i)・sin(2πij/N)
[Formula 3]
Al (1, j) = Σi = 0,..., N-1 W (1, i) .Xl (i) .cos (2πij / N)
Bl (1, j) = Σi = 0,..., N-1 W (1, i) · Xl (i) · sin (2πij / N)
Ar (1, j) = Σi = 0,..., N-1 W (1, i) .Xr (i) .cos (2πij / N)
Br (1, j) = Σ i = 0,..., N-1 W (1, i) · Xr (i) · sin (2πij / N)

周波数変換手段20が、Bタイプの音響フレームに対してフーリエ変換を行う場合は、左チャンネル信号Xl(i+N/2)、右チャンネル信号Xr(i+N/2)(i=0,…,N−1)に対して、窓関数W(2,i)を用いて、以下の〔数式4〕に従った処理を行い、左チャンネルに対応する変換データの実部Al(2,j)、虚部Bl(2,j)、右チャンネルに対応する変換データの実部Ar(2,j)、虚部Br(2,j)を得る。   When the frequency converting means 20 performs Fourier transform on the B type sound frame, the left channel signal Xl (i + N / 2), the right channel signal Xr (i + N / 2) (i = 0,..., N−1) ) Is processed using the window function W (2, i) according to the following [Equation 4], and the real part Al (2, j) and imaginary part Bl of the conversion data corresponding to the left channel are performed. (2, j), real part Ar (2, j) and imaginary part Br (2, j) of the conversion data corresponding to the right channel are obtained.

〔数式4〕
Al(2,j)=Σi=0,…,N-1W(2,i)・Xl(i+N/2)・cos(2πij/N)
Bl(2,j)=Σi=0,…,N-1W(2,i)・Xl(i+N/2)・sin(2πij/N)
Ar(2,j)=Σi=0,…,N-1W(2,i)・Xr(i+N/2)・cos(2πij/N)
Br(2,j)=Σi=0,…,N-1W(2,i)・Xr(i+N/2)・sin(2πij/N)
[Formula 4]
Al (2, j) = Σi = 0,..., N-1 W (2, i) · Xl (i + N / 2) · cos (2πij / N)
Bl (2, j) = Σi = 0,..., N-1 W (2, i) .Xl (i + N / 2) .sin (2πij / N)
Ar (2, j) = Σi = 0,..., N-1 W (2, i) .Xr (i + N / 2) .cos (2πij / N)
Br (2, j) = Σi = 0,..., N-1 W (2, i) .Xr (i + N / 2) .sin (2πij / N)

上記〔数式3〕〔数式4〕において、iは、各音響フレーム内のN個のサンプルに付した通し番号であり、i=0,1,2,…N−1の整数値をとる。また、jは周波数の値について、値の小さなものから順に付した通し番号であり、iと同様にj=0,1,2,…N/2−1の整数値をとる。サンプリング周波数が44.1kHz、N=4096の場合、jの値が1つ異なると、周波数が10.8Hz異なることになる。   In the above [Expression 3] and [Expression 4], i is a serial number assigned to N samples in each acoustic frame, and takes an integer value of i = 0, 1, 2,... N−1. Further, j is a serial number assigned in order from the smallest value of the frequency value, and takes an integer value of j = 0, 1, 2,... N / 2-1 like i. When the sampling frequency is 44.1 kHz and N = 4096, if the value of j is different by one, the frequency will be different by 10.8 Hz.

上記〔数式3〕〔数式4〕に従った処理を実行することにより、各音響フレームの各窓関数に対応する複素周波数成分が得られる。続いて、周波数成分変更手段30が、生成された複素周波数成分から所定周波数範囲のスペクトル集合を抽出する。本実施形態では、F1以上F2以下の範囲のものを抽出する。   By executing the processing according to the above [Equation 3] and [Equation 4], a complex frequency component corresponding to each window function of each acoustic frame is obtained. Subsequently, the frequency component changing unit 30 extracts a spectrum set in a predetermined frequency range from the generated complex frequency component. In the present embodiment, a range between F1 and F2 is extracted.

周波数変換手段20は、周波数変換を実行した後に、各スペクトル集合の平均値が設定値になるように変換する。いわゆる振幅を変換する処理を行う。この振幅変換は、各フレームごとのレベル差を軽減し、適切な情報の埋め込みが可能になるようにすることを目的としているため、設定値Zoとしては適宜設定することができる。   After performing the frequency conversion, the frequency conversion means 20 performs conversion so that the average value of each spectrum set becomes a set value. A so-called amplitude conversion process is performed. The purpose of this amplitude conversion is to reduce the level difference for each frame so that appropriate information can be embedded. Therefore, the set value Zo can be set as appropriate.

周波数変換手段20は、得られたスペクトル集合に対して、振幅変換を行うにあたり、まず変換倍率の算出を行う。変換倍率の算出は、所定周波数範囲のスペクトル集合の実効強度値の平均である平均実効値で上記設定値を除算することにより行う。具体的には、LチャンネルのAタイプの音響フレーム、Bタイプの音響フレーム、RチャンネルのAタイプの音響フレーム、Bタイプの音響フレームのスペクトル集合についての変換倍率Zl(1)、Zl(2)、Zr(1)、Zr(2)は、以下の〔数式5〕に従った処理により算出される。対象音響フレームが無音に近く、分母の二乗総和値が所定の値に満たない場合は、変換倍率を1.0に設定し、振幅変換は行わないようにする。振幅変換が実行されることにより、全ての音響フレームは、元の状態における信号強度に関わらず、各音響フレームのスペクトル集合の平均実効値が設定値となるように振幅変換された状態で、情報の埋め込みが行われることになる。   The frequency conversion means 20 first calculates the conversion magnification when performing the amplitude conversion on the obtained spectrum set. The conversion magnification is calculated by dividing the set value by an average effective value that is an average of effective intensity values of a spectrum set in a predetermined frequency range. Specifically, conversion magnifications Zl (1) and Zl (2) for spectrum sets of the L-channel A-type acoustic frame, the B-type acoustic frame, the R-channel A-type acoustic frame, and the B-type acoustic frame. , Zr (1), Zr (2) are calculated by processing according to the following [Equation 5]. When the target sound frame is close to silence and the square sum of the denominator is less than a predetermined value, the conversion magnification is set to 1.0 and the amplitude conversion is not performed. By performing the amplitude conversion, all the sound frames are in the state of amplitude conversion so that the average effective value of the spectrum set of each sound frame becomes the set value regardless of the signal intensity in the original state. Will be embedded.

〔数式5〕
Zl(1)=Zo/[Σj=m,…,M-1{Al(1,j)2+Bl(1,j)2}]1/2
Zl(2)=Zo/[Σj=m,…,M-1{Al(2,j)2+Bl(2,j)2}]1/2
Zr(1)=Zo/[Σj=m,…,M-1{Ar(1,j)2+Br(1,j)2}]1/2
Zr(2)=Zo/[Σj=m,…,M-1{Ar(2,j)2+Br(2,j)2}]1/2
[Formula 5]
Zl (1) = Zo / [Σ j = m,..., M−1 {Al (1, j) 2 + Bl (1, j) 2 }] 1/2
Zl (2) = Zo / [Σ j = m,..., M−1 {Al (2, j) 2 + Bl (2, j) 2 }] 1/2
Zr (1) = Zo / [Σ j = m,..., M−1 {Ar (1, j) 2 + Br (1, j) 2 }] 1/2
Zr (2) = Zo / [Σ j = m,..., M−1 {Ar (2, j) 2 + Br (2, j) 2 }] 1/2

上記〔数式5〕において、mおよびMは変更対象周波数帯の下限および上限で、Zo=M−mであり、本実施形態では、M=320、m=32、Zo=288である。   In the above [Formula 5], m and M are the lower limit and upper limit of the frequency band to be changed, and Zo = M−m. In this embodiment, M = 320, m = 32, and Zo = 288.

さらに、j=m,…,M−1(周波数F1,...,F2に相当)の範囲で、Al(1,j)およびBl(1,j)の各々の要素に対してZl(1)を乗じ、Al(2,j)およびBl(2,j)の各々の要素に対してZl(2)を乗じ、Ar(1,j)およびBr(1,j)の各々の要素に対してZr(1)を乗じ、Ar(2,j)およびBr(2,j)の各々の要素に対してZr(2)を乗じることにより、振幅変換を行う。以下説明において、Al(1,j)、Bl(1,j)、Al(2,j)、Bl(2,j)、Ar(1,j)、Br(1,j)、Ar(2,j)、Br(2,j)はこれらの振幅変換を行った値とする。   Further, Zl (1) for each element of Al (1, j) and Bl (1, j) in the range of j = m,..., M−1 (corresponding to frequencies F1,..., F2). ), Multiply each element of Al (2, j) and Bl (2, j) by Zl (2), and multiply each element of Ar (1, j) and Br (1, j) The amplitude is converted by multiplying Zr (1) and multiplying each element of Ar (2, j) and Br (2, j) by Zr (2). In the following description, Al (1, j), Bl (1, j), Al (2, j), Bl (2, j), Ar (1, j), Br (1, j), Ar (2, j) and Br (2, j) are values obtained by performing these amplitude conversions.

周波数成分変更手段30は、Aタイプの音響フレームについて、ビット配列作成手段70が作成したビット配列に応じて、所定複素周波数成分の割合を変更する処理を行う。本発明では、ビット配列を1ビットずつ読み込み、Aタイプ、Bタイプの1対の音響フレームに対して1ビットの情報を埋め込む。埋め込まれる1ビットの値は、“0” “1”の2通りがある。本実施形態では、これらを値1、値2と定義する。2種類の符号を埋め込むことができるという点で、これらを符号1、符号2と表現することも可能である。この際、“0”“1”の2通りのうち、いずれを値1、値2(符号1、符号2)と定義しても良い。抽出側において、埋め込み側で埋め込まれた1ビットが特定できれば良いためである。したがって、この定義は、埋め込み側と抽出側で一致している必要がある。   The frequency component changing unit 30 performs a process of changing the ratio of the predetermined complex frequency component for the A type sound frame according to the bit arrangement created by the bit arrangement creating unit 70. In the present invention, the bit array is read bit by bit, and 1-bit information is embedded in a pair of acoustic frames of A type and B type. There are two 1-bit values to be embedded: “0” and “1”. In the present embodiment, these are defined as value 1 and value 2. These can be expressed as code 1 and code 2 in that two types of codes can be embedded. At this time, any one of “0” and “1” may be defined as a value 1 and a value 2 (reference numerals 1 and 2). This is because it is sufficient that one bit embedded on the extraction side can be specified on the extraction side. Therefore, this definition must match between the embedding side and the extraction side.

具体的には、埋め込み装置で、音響信号から抽出した所定数のサンプルで構成される音響フレーム内の所定複素周波数範囲の複素周波数成分を変更するに際し、その強弱が音脈分凝を発生させるような状態に変更する。これにより、人間には、音が途切れたようには聞こえないが、抽出装置では、その明確な変化を認識することができる。   Specifically, when changing the complex frequency component of a predetermined complex frequency range in an acoustic frame composed of a predetermined number of samples extracted from an acoustic signal, the strength of the embedding device causes sound pulse segregation. Change to the correct state. As a result, although it does not sound as if the sound is interrupted by a human, the extraction device can recognize the clear change.

本実施形態では、音脈分凝の原理を利用して、音響フレームの変更対象周波数帯の成分を2つの状態に変更し、1ビットの情報を埋め込むようにしている。ここで、埋め込み処理の前後における音響フレームの所定複素周波数成分の変化の状態について説明する。図3に、本実施形態によるAタイプ、BタイプのLチャンネル1音響フレームの所定複素周波数成分の状態を示す。Rチャンネルについては、Lチャンネルと同様であるので省略してある。図3に示す各音響フレームにおいて、横軸は時間方向、縦軸は周波数方向を示している。   In the present embodiment, using the principle of sound pulse segregation, the components of the change target frequency band of the acoustic frame are changed to two states, and 1-bit information is embedded. Here, the state of change of the predetermined complex frequency component of the acoustic frame before and after the embedding process will be described. FIG. 3 shows the states of the predetermined complex frequency components of the A type and B type L channel 1 sound frames according to this embodiment. The R channel is omitted because it is the same as the L channel. In each acoustic frame shown in FIG. 3, the horizontal axis indicates the time direction, and the vertical axis indicates the frequency direction.

図3においては、縦軸の周波数方向において、周波数領域が6つに区分されているが、上から2番目〜5番目の領域、すなわち、周波数F1以上F2以下の間が変更対象周波数帯であり、最上部すなわち周波数F2超、最下部すなわちF1未満は、変更対象でない周波数帯である。すなわち、本実施形態では、周波数F1以上F2以下を所定周波数範囲として、スペクトル集合の強度を変更することになる。図3(a)に示すように、Aタイプ音響フレームの変更対象周波数帯については、周波数が低い順に、そのスペクトル集合を1D1、1D2、1U1、1U2で表現することとする。また、図3(b)に示すように、Bタイプ音響フレームの変更対象周波数帯については、周波数が低い順に、そのスペクトル集合を2D1、2D2、2U1、2U2で表現することとする。   In FIG. 3, the frequency region is divided into six in the frequency direction of the vertical axis, but the change target frequency band is the second to fifth regions from the top, that is, between frequency F1 and F2 or less. The uppermost part, that is, the frequency exceeding F2, and the lowermost part, that is, less than F1, are frequency bands not to be changed. That is, in the present embodiment, the intensity of the spectrum set is changed by setting the frequency F1 to F2 as a predetermined frequency range. As shown in FIG. 3A, regarding the change target frequency band of the A type acoustic frame, the spectrum set is expressed by 1D1, 1D2, 1U1, and 1U2 in order of increasing frequency. Also, as shown in FIG. 3B, for the change target frequency band of the B-type acoustic frame, the spectrum set is represented by 2D1, 2D2, 2U1, and 2U2 in order of increasing frequency.

1ビット埋め込み方式で、符号1を埋め込む場合、図3(c)(e)に示すように、1D1と2D2の強度の積、1U1と2U2の強度の積を相対的に強い状態に変更し、1D2と2D1の強度の積、1U2と2U1の強度の積を相対的に弱い状態に変更する。この状態を“状態1”と呼ぶことにする。符号2を埋め込む場合は、図3(d)(f)に示すように、1D2と2D1の強度の積、1U2と2U1の強度の積を相対的に強い状態に変更し、1D1と2D2の強度の積、1U1と2U2の強度の積を相対的に弱い状態に変更する。この状態を“状態2”と呼ぶことにする。網掛けされた部分の濃さは、同濃度のものは、積を求めるための組となるスペクトル集合であることを示している。網掛けの色が濃い方が相対的に強度が強い状態に変更される組を示している。   When embedding code 1 by the 1-bit embedding method, as shown in FIGS. 3C and 3E, the product of the strengths of 1D1 and 2D2 and the product of the strengths of 1U1 and 2U2 are changed to a relatively strong state, The product of the strengths of 1D2 and 2D1 is changed to a relatively weak state. This state is referred to as “state 1”. When embedding the code 2, as shown in FIGS. 3D and 3F, the product of the strength of 1D2 and 2D1 is changed to a relatively strong state, and the product of the strength of 1D2 and 2U1 is changed to a strength of 1D1 and 2D2. The product of the intensity of 1U1 and 2U2 is changed to a relatively weak state. This state is referred to as “state 2”. The shaded portions indicate that the ones having the same concentration are a spectrum set that is a set for obtaining a product. The darker shaded color indicates a group that is changed to a relatively strong state.

図3(c)(e)または(d)(f)に示すような2つの状態にAタイプ、Bタイプの音響フレームの周波数成分を変更することにより、情報の埋め込みを行っている。2つの状態であるので1ビット分の情報量に相当する。図3(c)〜(f)に示したように、変更対象周波数帯の上位周波数帯と下位周波数帯が全く同一のパターンとなっている。   Information is embedded by changing the frequency components of the A-type and B-type sound frames in two states as shown in FIGS. 3C, 3E, 3D, and 3F. Since there are two states, this corresponds to an information amount of 1 bit. As shown in FIGS. 3C to 3F, the upper frequency band and the lower frequency band of the change target frequency band have the same pattern.

本実施形態では、上記変更対象周波数帯F1〜F2を、“0.34kHz〜3.4kHz”に設定する。これは、以下のような理由による。すなわち、音声通信として普及度の高い携帯電話機を受信端末として利用する場合、上限については、電話回線帯域および携帯電話機の上限である3.4kHzとする必要がある。これは、携帯電話機の内部に搭載されているローパスフィルターが、電話交換機に合わせて、3.4kHz以下に対応したものとなっているためである。また、上位周波数帯の下限については、上限の3.4kHzから1オクターブ下がった1.7kHzとすることとした。そして、下位周波数帯の上限を上位周波数帯の下限と同じく、1.7kHzとし、下位周波数帯の下限については、電話回線帯域および携帯電話機の下限である0.3kHz以上とする必要がある。これは、携帯電話機の内部に搭載されているハイパスフィルターが、電話交換機に合わせて、0.3kHz以上に対応したものとなっているためである。そこで、上限の1.7kHzから2オクターブ強下がった0.34kHzとすることとした。下位周波数帯の周波数範囲は、上位周波数帯の周波数範囲に比べ若干狭くなるが、分布している信号成分の強度は平均4倍程度になるため、上位周波数帯より下位周波数帯の方が大きな感度を持つと推定できる。なお、“0.34kHz”“1.7kHz”“3.4kHz”という値は、代表的な値であり、必ずしも正確な値である必要はなく、そこから若干ずれた値であっても良い。   In the present embodiment, the change target frequency bands F1 to F2 are set to “0.34 kHz to 3.4 kHz”. This is due to the following reasons. That is, when a mobile phone having a high degree of spread as voice communication is used as a receiving terminal, the upper limit needs to be 3.4 kHz which is the upper limit of the telephone line band and the mobile phone. This is because the low-pass filter mounted inside the mobile phone corresponds to 3.4 kHz or less in accordance with the telephone exchange. Also, the lower limit of the upper frequency band is set to 1.7 kHz, which is one octave lower than the upper limit of 3.4 kHz. The upper limit of the lower frequency band is set to 1.7 kHz, similar to the lower limit of the upper frequency band, and the lower limit of the lower frequency band needs to be 0.3 kHz or more, which is the lower limit of the telephone line band and the mobile phone. This is because the high-pass filter mounted inside the mobile phone corresponds to 0.3 kHz or more according to the telephone exchange. Therefore, the upper limit of 1.7 kHz is set to 0.34 kHz, which is slightly lower by 2 octaves. The frequency range of the lower frequency band is slightly narrower than the frequency range of the upper frequency band, but the intensity of the distributed signal components is about 4 times on average, so the sensitivity of the lower frequency band is greater than that of the upper frequency band. Can be estimated. The values “0.34 kHz”, “1.7 kHz”, and “3.4 kHz” are representative values, and are not necessarily accurate values, and may be slightly deviated from them.

図3に示した例では、相対的に強い状態と弱い状態に変更することについて説明したが、この強弱の程度については、状況に応じて設定することが可能である。両者の割合は、以下に述べるように、大きいほど抽出時の精度が高くなるが、補間される割合は不完全になり、再生時に不連続成分によるノイズが聞こえる。一方、両者の割合が均等であるほど再生品質は原音に近付くが、埋め込んだビットの抽出ができなくなり、再生品質と抽出精度はトレードオフの関係になる。例えば、強い方を100%、弱い方を0%とした場合、音脈分凝により、補間される部分の音は図3のような変更を行なう前に原音響信号で鳴っていた音の50%程度となることが確認されている。そこで、強い方を70%、弱い方を30%とした場合、音脈分凝により、補間される部分の音は図3のような変更を行なう前に原音響信号で鳴っていた音とほぼ同程度となり、この割合が抽出精度を維持できる限界であることが確認されている。このため、相対的に強いスペクトル集合と、相対的に弱いスペクトル集合の強度の割合を70%と30%とすることを目標に設定することが好ましい。これを実現するため、本実施形態では、後述する具体的な処理において、強い状態を設定するための係数α=0.7、弱い状態を設定するための係数β=0.3とする。ただし、強い状態に変更すべきスペクトル集合の強度が元々小さい場合には、係数α、βを補正する必要が生じる。このため、周波数成分変更手段30は、まず、以下の〔数式6〕に従った処理を実行することにより、各スペクトル集合の強度E1D1、E2D1、E1D2、E2D2、E1U1、E2U1、E1U2、E2U2を算出する。 In the example shown in FIG. 3, the change to the relatively strong state and the weak state has been described. However, the degree of the strength can be set according to the situation. As will be described below, the larger the ratio between the two, the higher the accuracy at the time of extraction. However, the ratio of interpolation becomes incomplete, and noise due to discontinuous components is heard during reproduction. On the other hand, as the ratio between the two is equal, the reproduction quality approaches the original sound, but the embedded bits cannot be extracted, and the reproduction quality and extraction accuracy are in a trade-off relationship. For example, when the strong side is set to 100% and the weak side is set to 0%, the sound of the portion to be interpolated is 50% of the sound that was played in the original acoustic signal before the change as shown in FIG. % Has been confirmed. Therefore, if the strong side is set to 70% and the weak side is set to 30%, the sound of the portion to be interpolated is almost the same as the sound played by the original acoustic signal before the change as shown in FIG. It has been confirmed that this ratio is the limit that can maintain the extraction accuracy. For this reason, it is preferable to set the intensity ratio of the relatively strong spectrum set and the relatively weak spectrum set as 70% and 30%. In order to realize this, in this embodiment, in a specific process described later, a coefficient α = 0.7 for setting a strong state and a coefficient β = 0.3 for setting a weak state are set. However, when the intensity of the spectrum set to be changed to a strong state is originally small, it is necessary to correct the coefficients α and β. For this reason, the frequency component changing means 30 first executes processing according to the following [Equation 6] to thereby obtain the intensities E 1D1 , E 2D1 , E 1D2 , E 2D2 , E 1U1 , E 2U1 of each spectrum set. , to calculate the E 1U2, E 2U2.

〔数式6〕
1D1=Σj=m,…,m+G-1{Al(1,j)2+Bl(1,j)2
2D1=Σj=m,…,m+G-1{Al(2,j)2+Bl(2,j)2
1D2=Σj=m+G,…,m+2G-1{Al(1,j)2+Bl(1,j)2
2D2=Σj=m+G,…,m+2G-1{Al(2,j)2+Bl(2,j)2
1U1=Σj=2m,…,2m+2G-1{Al(1,j)2+Bl(1,j)2
2U1=Σj=2m,…,2m+2G-1{Al(2,j)2+Bl(2,j)2
1U2=Σj=2m+2G,…,2m+4G-1{Al(1,j)2+Bl(1,j)2
2U2=Σj=2m+2G,…,2m+4G-1{Al(2,j)2+Bl(2,j)2
[Formula 6]
E 1D1 = Σ j = m,..., M + G−1 {Al (1, j) 2 + Bl (1, j) 2 }
E 2D1 = Σ j = m,..., M + G−1 {Al (2, j) 2 + Bl (2, j) 2 }
E 1D2 = Σ j = m + G,..., M + 2G−1 {Al (1, j) 2 + Bl (1, j) 2 }
E 2D2 = Σ j = m + G,..., M + 2G−1 {Al (2, j) 2 + Bl (2, j) 2 }
E 1U1 = Σ j = 2m,..., 2m + 2G-1 {Al (1, j) 2 + Bl (1, j) 2 }
E 2U1 = Σ j = 2m,..., 2m + 2G−1 {Al (2, j) 2 + Bl (2, j) 2 }
E 1U2 = Σ j = 2m + 2G,..., 2m + 4G-1 {Al (1, j) 2 + Bl (1, j) 2 }
E 2U2 = Σ j = 2m + 2G,..., 2m + 4G-1 {Al (2, j) 2 + Bl (2, j) 2 }

上記〔数式6〕において、mは変更対象周波数帯の下限の複素周波数成分の番号、Gは変更対象周波数帯内の下位周波数帯の2分割領域の幅で、2m+4Gは変更対象周波数帯の上限の複素周波数成分の番号である。例えば、変更対象周波数帯として、0.34kHz〜3.4kHzを設定する場合、m=32、2m+4G=320(=M)となる。したがって、下位周波数帯の2分割領域の幅G(=(M−2m)/4)=64で、上位周波数帯の2分割領域の幅2G=128である。   In the above [Expression 6], m is the number of the complex frequency component at the lower limit of the frequency band to be changed, G is the width of the divided region of the lower frequency band in the frequency band to be changed, and 2m + 4G is the upper limit of the frequency band to be changed. This is the number of the complex frequency component. For example, when 0.34 kHz to 3.4 kHz is set as the change target frequency band, m = 32 and 2m + 4G = 320 (= M). Therefore, the width G (= (M−2m) / 4) = 64 of the two divided regions in the lower frequency band and the width 2G = 128 of the two divided regions in the upper frequency band.

さらに、周波数成分変更手段30は、算出された各スペクトル集合の強度を利用して、弱い状態に変更すべきスペクトル集合に対する強い状態に変更すべきスペクトル集合の強度割合γを算出する。以下の〔数式7〕に従って強度割合γを算出する。   Further, the frequency component changing unit 30 uses the calculated intensity of each spectrum set to calculate the intensity ratio γ of the spectrum set to be changed to a strong state with respect to the spectrum set to be changed to the weak state. The intensity ratio γ is calculated according to the following [Equation 7].

〔数式7〕
γ=(E1D1・E1U1・E2D2・E2U2)/(E1D2・E1U2・E2D1・E2U1
[Formula 7]
γ = (E 1D1 · E 1U1 · E 2D2 · E 2U2) / (E 1D2 · E 1U2 · E 2D1 · E 2U1)

さらに強度割合γの値に応じて、周波数成分変更手段30は、以下の〔数式8〕に従った処理を実行することにより、係数α、βを補正して係数α´、β´を得る。   Further, according to the value of the intensity ratio γ, the frequency component changing unit 30 performs processing according to the following [Equation 8] to correct the coefficients α and β to obtain the coefficients α ′ and β ′.

〔数式8〕
0.01≦γ<1.0の場合、α´=α・γ-1/4、β´=β・γ1/4
γ<0.01の場合、α´=10.0・α、β´=0.1・β
γ≧1.0の場合、補正を行わない。
[Formula 8]
In the case of 0.01 ≦ γ <1.0, α'= α · γ -1/4, β'= β · γ 1/4
When γ <0.01, α ′ = 10.0 · α, β ′ = 0.1 · β
When γ ≧ 1.0, no correction is performed.

さらに、周波数成分変更手段30は、連続するAタイプ音響フレーム、Bタイプ音響フレームにおける実部Al(1,j)、Ar(1,j)、Al(2,j)、Ar(2,j)、Bl(1,j)、Br(1,j)、Bl(2,j)、Br(2,j)に対して、周波数領域パラメータとして、下限m(=32)から上限M(=320)を設定し、mからM/2を幅G(=(M−2m)/4)をもつ2個の領域に分割し、2mからMを幅2Gをもつ2個の領域に分割し、埋め込むべきビット値に応じて、各々改変を加える。一例として、1音響フレームに埋め込むべきビット値が “値1”である場合、以下の〔数式9〕に従った処理を実行することにより、周波数成分の状態を“状態1”、すなわち、図3(c)(e)に示したような状態に変更する。   Further, the frequency component changing means 30 is provided with real parts Al (1, j), Ar (1, j), Al (2, j), Ar (2, j) in the continuous A type acoustic frame and B type acoustic frame. , Bl (1, j), Br (1, j), Bl (2, j), Br (2, j) as frequency domain parameters, the lower limit m (= 32) to the upper limit M (= 320) And m to M / 2 should be divided into two regions with width G (= (M-2m) / 4), and 2m to M should be divided into two regions with width 2G and embedded Each modification is made according to the bit value. As an example, when the bit value to be embedded in one sound frame is “value 1”, the state of the frequency component is changed to “state 1”, that is, FIG. (C) Change to the state shown in (e).

〔数式9〕
j=m〜m+G−1の各成分に対して
E(1,j)={Al(1,j)2+Bl(1,j)2+Ar(1,j)2+Br(1,j)21/2
Al´(1,j)=Al(1,j)・E(1,j)・α/{Al(1,j)2+Bl(1,j)21/2
Bl´(1,j)=Bl(1,j)・E(1,j)・α/{Al(1,j)2+Bl(1,j)21/2
Ar´(1,j)=Ar(1,j)・E(1,j)・α/{Ar(1,j)2+Br(1,j)21/2
Br´(1,j)=Br(1,j)・E(1,j)・α/{Ar(1,j)2+Br(1,j)21/2
E(2,j)={Al(2,j)2+Bl(2,j)2+Ar(2,j)2+Br(2,j)21/2
Al´(2,j)=Al(2,j)・E(2,j)・β/{Al(2,j)2+Bl(2,j)21/2
Bl´(2,j)=Bl(2,j)・E(2,j)・β/{Al(2,j)2+Bl(2,j)21/2
Ar´(2,j)=Ar(2,j)・E(2,j)・β/{Ar(2,j)2+Br(2,j)21/2
Br´(2,j)=Br(2,j)・E(2,j)・β/{Ar(2,j)2+Br(2,j)21/2
j=m+G〜m+2G−1の各成分に対して
E(1,j)={Al(1,j)2+Bl(1,j)2+Ar(1,j)2+Br(1,j)21/2
Al´(1,j)=Al(1,j)・E(1,j)・β/{Al(1,j)2+Bl(1,j)21/2
Bl´(1,j)=Bl(1,j)・E(1,j)・β/{Al(1,j)2+Bl(1,j)21/2
Ar´(1,j)=Ar(1,j)・E(1,j)・β/{Ar(1,j)2+Br(1,j)21/2
Br´(1,j)=Br(1,j)・E(1,j)・β/{Ar(1,j)2+Br(1,j)21/2
E(2,j)={Al(2,j)2+Bl(2,j)2+Ar(2,j)2+Br(2,j)21/2
Al´(2,j)=Al(2,j)・E(2,j)・α/{Al(2,j)2+Bl(2,j)21/2
Bl´(2,j)=Bl(2,j)・E(2,j)・α/{Al(2,j)2+Bl(2,j)21/2
Ar´(2,j)=Ar(2,j)・E(2,j)・α/{Ar(2,j)2+Br(2,j)21/2
Br´(2,j)=Br(2,j)・E(2,j)・α/{Ar(2,j)2+Br(2,j)21/2
j=2m〜2m+2G−1の各成分に対して
E(1,j)={Al(1,j)2+Bl(1,j)2+Ar(1,j)2+Br(1,j)21/2
Al´(1,j)=Al(1,j)・E(1,j)・α/{Al(1,j)2+Bl(1,j)21/2
Bl´(1,j)=Bl(1,j)・E(1,j)・α/{Al(1,j)2+Bl(1,j)21/2
Ar´(1,j)=Ar(1,j)・E(1,j)・α/{Ar(1,j)2+Br(1,j)21/2
Br´(1,j)=Br(1,j)・E(1,j)・α/{Ar(1,j)2+Br(1,j)21/2
E(2,j)={Al(2,j)2+Bl(2,j)2+Ar(2,j)2+Br(2,j)21/2
Al´(2,j)=Al(2,j)・E(2,j)・β/{Al(2,j)2+Bl(2,j)21/2
Bl´(2,j)=Bl(2,j)・E(2,j)・β/{Al(2,j)2+Bl(2,j)21/2
Ar´(2,j)=Ar(2,j)・E(2,j)・β/{Ar(2,j)2+Br(2,j)21/2
Br´(2,j)=Br(2,j)・E(2,j)・β/{Ar(2,j)2+Br(2,j)21/2
j=2m+2G〜M−1の各成分に対して
E(1,j)={Al(1,j)2+Bl(1,j)2+Ar(1,j)2+Br(1,j)21/2
Al´(1,j)=Al(1,j)・E(1,j)・β/{Al(1,j)2+Bl(1,j)21/2
Bl´(1,j)=Bl(1,j)・E(1,j)・β/{Al(1,j)2+Bl(1,j)21/2
Ar´(1,j)=Ar(1,j)・E(1,j)・β/{Ar(1,j)2+Br(1,j)21/2
Br´(1,j)=Br(1,j)・E(1,j)・β/{Ar(1,j)2+Br(1,j)21/2
E(2,j)={Al(2,j)2+Bl(2,j)2+Ar(2,j)2+Br(2,j)21/2
Al´(2,j)=Al(2,j)・E(2,j)・α/{Al(2,j)2+Bl(2,j)21/2
Bl´(2,j)=Bl(2,j)・E(2,j)・α/{Al(2,j)2+Bl(2,j)21/2
Ar´(2,j)=Ar(2,j)・E(2,j)・α/{Ar(2,j)2+Br(2,j)21/2
Br´(2,j)=Br(2,j)・E(2,j)・α/{Ar(2,j)2+Br(2,j)21/2
[Formula 9]
For each component of j = m to m + G−1, E (1, j) = {Al (1, j) 2 + Bl (1, j) 2 + Ar (1, j) 2 + Br (1, j) 2 } 1/2
Al ′ (1, j) = Al (1, j) · E (1, j) · α / {Al (1, j) 2 + Bl (1, j) 2 } 1/2
Bl ′ (1, j) = Bl (1, j) · E (1, j) · α / {Al (1, j) 2 + Bl (1, j) 2 } 1/2
Ar ′ (1, j) = Ar (1, j) · E (1, j) · α / {Ar (1, j) 2 + Br (1, j) 2 } 1/2
Br ′ (1, j) = Br (1, j) · E (1, j) · α / {Ar (1, j) 2 + Br (1, j) 2 } 1/2
E (2, j) = {Al (2, j) 2 + Bl (2, j) 2 + Ar (2, j) 2 + Br (2, j) 2 } 1/2
Al ′ (2, j) = Al (2, j) · E (2, j) · β / {Al (2, j) 2 + Bl (2, j) 2 } 1/2
Bl ′ (2, j) = Bl (2, j) · E (2, j) · β / {Al (2, j) 2 + Bl (2, j) 2 } 1/2
Ar ′ (2, j) = Ar (2, j) · E (2, j) · β / {Ar (2, j) 2 + Br (2, j) 2 } 1/2
Br ′ (2, j) = Br (2, j) · E (2, j) · β / {Ar (2, j) 2 + Br (2, j) 2 } 1/2
For each component of j = m + G to m + 2G-1, E (1, j) = {Al (1, j) 2 + Bl (1, j) 2 + Ar (1, j) 2 + Br (1, j) 2 } 1/2
Al ′ (1, j) = Al (1, j) · E (1, j) · β / {Al (1, j) 2 + Bl (1, j) 2 } 1/2
Bl ′ (1, j) = B1 (1, j) · E (1, j) · β / {Al (1, j) 2 + B1 (1, j) 2 } 1/2
Ar ′ (1, j) = Ar (1, j) · E (1, j) · β / {Ar (1, j) 2 + Br (1, j) 2 } 1/2
Br ′ (1, j) = Br (1, j) · E (1, j) · β / {Ar (1, j) 2 + Br (1, j) 2 } 1/2
E (2, j) = {Al (2, j) 2 + Bl (2, j) 2 + Ar (2, j) 2 + Br (2, j) 2 } 1/2
Al ′ (2, j) = Al (2, j) · E (2, j) · α / {Al (2, j) 2 + Bl (2, j) 2 } 1/2
Bl ′ (2, j) = Bl (2, j) · E (2, j) · α / {Al (2, j) 2 + Bl (2, j) 2 } 1/2
Ar ′ (2, j) = Ar (2, j) · E (2, j) · α / {Ar (2, j) 2 + Br (2, j) 2 } 1/2
Br ′ (2, j) = Br (2, j) · E (2, j) · α / {Ar (2, j) 2 + Br (2, j) 2 } 1/2
For each component of j = 2m to 2m + 2G-1, E (1, j) = {Al (1, j) 2 + Bl (1, j) 2 + Ar (1, j) 2 + Br (1, j) 2 } 1/2
Al ′ (1, j) = Al (1, j) · E (1, j) · α / {Al (1, j) 2 + Bl (1, j) 2 } 1/2
Bl ′ (1, j) = Bl (1, j) · E (1, j) · α / {Al (1, j) 2 + Bl (1, j) 2 } 1/2
Ar ′ (1, j) = Ar (1, j) · E (1, j) · α / {Ar (1, j) 2 + Br (1, j) 2 } 1/2
Br ′ (1, j) = Br (1, j) · E (1, j) · α / {Ar (1, j) 2 + Br (1, j) 2 } 1/2
E (2, j) = {Al (2, j) 2 + Bl (2, j) 2 + Ar (2, j) 2 + Br (2, j) 2 } 1/2
Al ′ (2, j) = Al (2, j) · E (2, j) · β / {Al (2, j) 2 + Bl (2, j) 2 } 1/2
Bl ′ (2, j) = Bl (2, j) · E (2, j) · β / {Al (2, j) 2 + Bl (2, j) 2 } 1/2
Ar ′ (2, j) = Ar (2, j) · E (2, j) · β / {Ar (2, j) 2 + Br (2, j) 2 } 1/2
Br ′ (2, j) = Br (2, j) · E (2, j) · β / {Ar (2, j) 2 + Br (2, j) 2 } 1/2
For each component of j = 2m + 2G to M−1, E (1, j) = {Al (1, j) 2 + Bl (1, j) 2 + Ar (1, j) 2 + Br (1, j) 2 } 1/2
Al ′ (1, j) = Al (1, j) · E (1, j) · β / {Al (1, j) 2 + Bl (1, j) 2 } 1/2
Bl ′ (1, j) = B1 (1, j) · E (1, j) · β / {Al (1, j) 2 + B1 (1, j) 2 } 1/2
Ar ′ (1, j) = Ar (1, j) · E (1, j) · β / {Ar (1, j) 2 + Br (1, j) 2 } 1/2
Br ′ (1, j) = Br (1, j) · E (1, j) · β / {Ar (1, j) 2 + Br (1, j) 2 } 1/2
E (2, j) = {Al (2, j) 2 + Bl (2, j) 2 + Ar (2, j) 2 + Br (2, j) 2 } 1/2
Al ′ (2, j) = Al (2, j) · E (2, j) · α / {Al (2, j) 2 + Bl (2, j) 2 } 1/2
Bl ′ (2, j) = Bl (2, j) · E (2, j) · α / {Al (2, j) 2 + Bl (2, j) 2 } 1/2
Ar ′ (2, j) = Ar (2, j) · E (2, j) · α / {Ar (2, j) 2 + Br (2, j) 2 } 1/2
Br ′ (2, j) = Br (2, j) · E (2, j) · α / {Ar (2, j) 2 + Br (2, j) 2 } 1/2

1音響フレームに1ビット埋め込む方式であるため、スペクトル集合単位の強弱パターンは、高周波側と低周波側で同一となる。   Since one bit is embedded in one acoustic frame, the intensity pattern of the spectrum set unit is the same on the high frequency side and the low frequency side.

なお、上記〔数式8〕に従った処理を実行して係数α´、β´、を得た場合は、上記〔数式9〕において、係数α、β、に代えて係数α´、β´を用いる。   When the coefficients α ′ and β ′ are obtained by executing the processing according to the above [Equation 8], the coefficients α ′ and β ′ are replaced with the coefficients α and β in the [Equation 9]. Use.

次に、位相補正手段31が、上記成分が変更された低周波成分に対して位相の補正を行う。補正の対象は、周波数成分変更手段30によりその強度を小さく変更された低周波成分とする。ある音響フレームの低周波成分について位相補正を行うためには、直前の音響フレームにおける変更処理後の低周波成分を利用する。したがって、位相補正手段31が位相変更の処理を行う際には、周波数成分変更手段30による変更処理後の低周波成分を一時的にメモリに保持しておく。   Next, the phase correction unit 31 corrects the phase of the low frequency component in which the above component is changed. The correction target is a low frequency component whose intensity has been changed to be small by the frequency component changing means 30. In order to perform phase correction for a low-frequency component of a certain acoustic frame, the low-frequency component after change processing in the immediately preceding acoustic frame is used. Therefore, when the phase correction unit 31 performs the phase change process, the low frequency component after the change process by the frequency component change unit 30 is temporarily held in the memory.

具体的な処理としては、位相補正手段31は、周波数成分変更手段30により、係数βを用いて変更が行われているBタイプ音響フレームの低周波成分(j=m,・・・,M−1の各周波数成分)に対して、位相補正手段31が、以下の〔数式10〕に従った処理を実行することにより、低周波成分の位相を補正する。   As a specific process, the phase correction unit 31 uses the frequency component changing unit 30 to change the low frequency components (j = m,..., M−) of the B type sound frame that has been changed using the coefficient β. 1 for each frequency component), the phase correction means 31 executes the processing according to the following [Equation 10] to correct the phase of the low frequency component.

〔数式10〕
El´(1,j)={Al´(1,j)2+Bl´(1,j)21/2
El´(2,j)={Al´(2,j)2+Bl´(2,j)21/2
Er´(1,j)={Ar´(1,j)2+Br´(1,j)21/2
Er´(2,j)={Ar´(2,j)2+Br´(2,j)21/2
直前フレーム成分と0度の方向の近傍に補正する場合、
Al´(2,j)←(1.0−w)・Al´(2,j)+w・Al´(1,j)・El´(2,j)/El´(1,j)
Bl´(2,j)←(1.0−w)・Bl´(2,j)+w・Bl´(1,j)・El´(2,j)/El´(1,j)
Ar´(2,j)←(1.0−w)・Ar´(2,j)+w・Ar´(1,j)・Er´(2,j)/Er´(1,j)
Br´(2,j)←(1.0−w)・Br´(2,j)+w・Br´(1,j)・Er´(2,j)/Er´(1,j)
直前フレーム成分と90度の方向の近傍に補正する場合、
Al´(2,j)←(1.0−w)・Al´(2,j)−w・Al´(1,j)・El´(2,j)/El´(1,j)
Bl´(2,j)←(1.0−w)・Bl´(2,j)+w・Bl´(1,j)・El´(2,j)/El´(1,j)
Ar´(2,j)←(1.0−w)・Ar´(2,j)−w・Ar´(1,j)・Er´(2,j)/Er´(1,j)
Br´(2,j)←(1.0−w)・Br´(2,j)+w・Br´(1,j)・Er´(2,j)/Er´(1,j)
直前フレーム成分と180度の方向の近傍に補正する場合、
Al´(2,j)←(1.0−w)・Al´(2,j)−w・Al´(1,j)・El´(2,j)/El´(1,j)
Bl´(2,j)←(1.0−w)・Bl´(2,j)−w・Bl´(1,j)・El´(2,j)/El´(1,j)
Ar´(2,j)←(1.0−w)・Ar´(2,j)−w・Ar´(1,j)・Er´(2,j)/Er´(1,j)
Br´(2,j)←(1.0−w)・Br´(2,j)−w・Br´(1,j)・Er´(2,j)/Er´(1,j)
直前フレーム成分と270度の方向の近傍に補正する場合、
Al´(2,j)←(1.0−w)・Al´(2,j)+w・Al´(1,j)・El´(2,j)/El´(1,j)
Bl´(2,j)←(1.0−w)・Bl´(2,j)−w・Bl´(1,j)・El´(2,j)/El´(1,j)
Ar´(2,j)←(1.0−w)・Ar´(2,j)+w・Ar´(1,j)・Er´(2,j)/Er´(1,j)
Br´(2,j)←(1.0−w)・Br´(2,j)−w・Br´(1,j)・Er´(2,j)/Er´(1,j)
さらに、上記改変により各ベクトル成分のノルムが改変前と等しくなるように以下の式で補正を行う。
Al´(2,j)←Al´(2,j)・El´(2,j)/{Al´(2,j)2+Bl´(2,j)21/2
Bl´(2,j)←Bl´(2,j)・El´(2,j)/{Al´(2,j)2+Bl´(2,j)21/2
Ar´(2,j)←Ar´(2,j)・Er´(2,j)/{Ar´(2,j)2+Br´(2,j)21/2
Br´(2,j)←Br´(2,j)・Er´(2,j)/{Ar´(2,j)2+Br´(2,j)21/2
[Formula 10]
El ′ (1, j) = {Al ′ (1, j) 2 + Bl ′ (1, j) 2 } 1/2
El ′ (2, j) = {Al ′ (2, j) 2 + Bl ′ (2, j) 2 } 1/2
Er ′ (1, j) = {Ar ′ (1, j) 2 + Br ′ (1, j) 2 } 1/2
Er ′ (2, j) = {Ar ′ (2, j) 2 + Br ′ (2, j) 2 } 1/2
When correcting near the previous frame component and the direction of 0 degrees,
Al '(2, j) ← (1.0-w) .Al' (2, j) + w.Al '(1, j) .El' (2, j) / El '(1, j)
Bl ′ (2, j) ← (1.0−w) · B1 ′ (2, j) + w · B1 ′ (1, j) · El ′ (2, j) / E1 ′ (1, j)
Ar ′ (2, j) ← (1.0−w) · Ar ′ (2, j) + w · Ar ′ (1, j) · Er ′ (2, j) / Er ′ (1, j)
Br ′ (2, j) ← (1.0−w) · Br ′ (2, j) + w · Br ′ (1, j) · Er ′ (2, j) / Er ′ (1, j)
When correcting to the vicinity of the previous frame component and the direction of 90 degrees,
Al '(2, j) ← (1.0-w) .Al' (2, j) -w.Al '(1, j) .El' (2, j) / El '(1, j)
Bl ′ (2, j) ← (1.0−w) · B1 ′ (2, j) + w · B1 ′ (1, j) · El ′ (2, j) / E1 ′ (1, j)
Ar ′ (2, j) ← (1.0−w) · Ar ′ (2, j) −w · Ar ′ (1, j) · Er ′ (2, j) / Er ′ (1, j)
Br ′ (2, j) ← (1.0−w) · Br ′ (2, j) + w · Br ′ (1, j) · Er ′ (2, j) / Er ′ (1, j)
When correcting in the vicinity of the previous frame component and the direction of 180 degrees,
Al '(2, j) ← (1.0-w) .Al' (2, j) -w.Al '(1, j) .El' (2, j) / El '(1, j)
Bl ′ (2, j) ← (1.0−w) · B1 ′ (2, j) −w · B1 ′ (1, j) · El ′ (2, j) / E1 ′ (1, j)
Ar ′ (2, j) ← (1.0−w) · Ar ′ (2, j) −w · Ar ′ (1, j) · Er ′ (2, j) / Er ′ (1, j)
Br ′ (2, j) ← (1.0−w) · Br ′ (2, j) −w · Br ′ (1, j) · Er ′ (2, j) / Er ′ (1, j)
When correcting to the vicinity of the previous frame component and the direction of 270 degrees,
Al '(2, j) ← (1.0-w) .Al' (2, j) + w.Al '(1, j) .El' (2, j) / El '(1, j)
Bl ′ (2, j) ← (1.0−w) · B1 ′ (2, j) −w · B1 ′ (1, j) · El ′ (2, j) / E1 ′ (1, j)
Ar ′ (2, j) ← (1.0−w) · Ar ′ (2, j) + w · Ar ′ (1, j) · Er ′ (2, j) / Er ′ (1, j)
Br ′ (2, j) ← (1.0−w) · Br ′ (2, j) −w · Br ′ (1, j) · Er ′ (2, j) / Er ′ (1, j)
Furthermore, correction is performed by the following formula so that the norm of each vector component becomes equal to that before the modification by the modification.
Al ′ (2, j) ← Al ′ (2, j) .El ′ (2, j) / {Al ′ (2, j) 2 + B1 ′ (2, j) 2 } 1/2
Bl ′ (2, j) ← Bl ′ (2, j) · El ′ (2, j) / {Al ′ (2, j) 2 + Bl ′ (2, j) 2 } 1/2
Ar' (2, j) ← Ar' (2, j) · Er' (2, j) / {Ar' (2, j) 2 + Br' (2, j) 2} 1/2
Br' (2, j) ← Br' (2, j) · Er' (2, j) / {Ar' (2, j) 2 + Br' (2, j) 2} 1/2

上記〔数式10〕において、wは対象フレーム成分の補正方向の基準とする既知の直前フレーム成分の方向と対象フレーム成分の補正方向の目標とする未知の合成直前フレームの逆位相方向との位相差を補正するための係数である。例えば、図25で既知の直前フレーム成分と未知の直前フレーム成分0°近傍(=合成直前フレームの逆位相方向)との位相差を補正するための値で、前記位相差が未知数であるが、残響特性に応じて経験的に与える定数である。係数wは0.0以上1.0以下の実数であり、使用する残響特性に応じて設定するが、残響補正効果のある値としては、経験上、0.2前後と0.8前後に設定する場合が多く、更に両者の間では後者の方が多い。なお、本実施形態ではw=0.8としている。この係数wが最小値0.0の場合、全く位相補正を行わないことを意味し、wが最大値1.0の場合、直前の音響フレームの対応する成分と設定された角度(0度、90度、180度、270度のいずれか)に補正することを意味する。例えば、図25(b)で対象フレーム成分を直前フレーム成分の方向に双方の角度差の80%程度の方向に補正することを意味する。また、上記〔数式10〕において、El´(1,j)、El´(2,j)、Er´(1,j)、Er´(2,j)を求めた後は事前の設定に従って、0度、90度、180度、270度の場合のいずれか1つを実行する。0度、90度、180度、270度のいずれを設定するかは、抽出装置が設置された室内の状態を考慮して、管理者が手動で設定する。例えば、0度が設定された場合、位相補正手段31は、〔数式10〕の「直前フレーム成分と0度の方向の近傍に補正する場合」と記載されている以下4式と「さらに、上記改変により各ベクトル成分のノルムが改変前と等しくなるように以下の式で補正を行う。」と記載されている以下4式に従った処理を実行することにより、直前のAタイプ音響フレームを利用して、Bタイプ音響フレームの低周波成分に対して、図25(b)に示したような位相補正を行っていることになる。また、〔数式10〕において得られるAl´(2,j)、Ar´(2,j)、Bl´(2,j)、Br´(2,j)は、メモリに保存され、後続の音響フレームの処理において、それぞれAl´(0,j)、Ar´(0,j)、Bl´(0,j)、Br´(0,j)としても用いられる。   In the above [Equation 10], w is the phase difference between the direction of the known immediately preceding frame component that is the reference of the correction direction of the target frame component and the opposite phase direction of the unknown immediately preceding frame that is the target of the correction direction of the target frame component Is a coefficient for correcting. For example, in FIG. 25, a value for correcting the phase difference between the known immediately preceding frame component and the unknown immediately preceding frame component near 0 ° (= the reverse phase direction of the immediately preceding composition frame), and the phase difference is an unknown number. It is a constant given empirically according to the reverberation characteristics. The coefficient w is a real number not less than 0.0 and not more than 1.0, and is set according to the reverberation characteristics to be used. In many cases, the latter is more common between the two. In this embodiment, w = 0.8. When the coefficient w is the minimum value 0.0, it means that no phase correction is performed. When w is the maximum value 1.0, the corresponding component of the immediately preceding acoustic frame and the set angle (0 degree, 90 degrees, 180 degrees, or 270 degrees). For example, in FIG. 25B, this means that the target frame component is corrected in the direction of about 80% of the angle difference between the two in the direction of the immediately preceding frame component. In addition, in the above [Equation 10], after obtaining El ′ (1, j), El ′ (2, j), Er ′ (1, j), Er ′ (2, j), according to the prior setting, Any one of 0 degree, 90 degrees, 180 degrees, and 270 degrees is executed. Whether to set 0 degrees, 90 degrees, 180 degrees, or 270 degrees is set manually by the administrator in consideration of the state of the room in which the extraction device is installed. For example, when 0 degree is set, the phase correcting unit 31 sets the following four expressions described as “when correcting in the vicinity of the immediately preceding frame component and the 0 degree direction” in [Equation 10], and “ Use the following formula to correct the norm of each vector component by modification so that the norm of each vector component is equal to that before modification. " Thus, the phase correction as shown in FIG. 25B is performed on the low-frequency component of the B-type acoustic frame. In addition, Al ′ (2, j), Ar ′ (2, j), Bl ′ (2, j), and Br ′ (2, j) obtained in [Equation 10] are stored in the memory, and the subsequent sound In frame processing, they are also used as Al ′ (0, j), Ar ′ (0, j), Bl ′ (0, j), and Br ′ (0, j), respectively.

また、周波数成分変更手段30により、係数βを用いて変更が行われているAタイプ音響フレームの低周波成分に対しては、位相補正手段31は、以下の〔数式11〕に従った処理を実行することにより、低周波成分の位相を変更する。   For the low frequency component of the A type sound frame that has been changed using the coefficient β by the frequency component changing means 30, the phase correcting means 31 performs processing according to the following [Equation 11]. By executing, the phase of the low frequency component is changed.

〔数式11〕
El´(0,j)={Al´(0,j)2+Bl´(0,j)21/2
El´(1,j)={Al´(1,j)2+Bl´(1,j)21/2
Er´(0,j)={Ar´(0,j)2+Br´(0,j)21/2
Er´(1,j)={Ar´(1,j)2+Br´(1,j)21/2
直前フレーム成分と0度の方向の近傍に補正する場合、
Al´(1,j)←(1.0−w)・Al´(1,j)+w・Al´(0,j)・El´(1,j)/El´(0,j)
Bl´(1,j)←(1.0−w)・Bl´(1,j)+w・Bl´(0,j)・El´(1,j)/El´(0,j)
Ar´(1,j)←(1.0−w)・Ar´(1,j)+w・Ar´(0,j)・Er´(1,j)/Er´(0,j)
Br´(1,j)←(1.0−w)・Br´(1,j)+w・Br´(0,j)・直前フレーム成分と90度の方向の近傍に補正する場合、
Al´(1,j)←(1.0−w)・Al´(1,j)−w・Al´(0,j)・El´(1,j)/El´(0,j)
Bl´(1,j)←(1.0−w)・Bl´(1,j)+w・Bl´(0,j)・El´(1,j)/El´(0,j)
Ar´(1,j)←(1.0−w)・Ar´(1,j)−w・Ar´(0,j)・Er´(1,j)/Er´(0,j)
Br´(1,j)←(1.0−w)・Br´(1,j)+w・Br´(0,j)・Er´(1,j)/Er´(0,j)
直前フレーム成分と180度の方向の近傍に補正する場合、
Al´(1,j)←(1.0−w)・Al´(1,j)−w・Al´(0,j)・El´(1,j)/El´(0,j)
Bl´(1,j)←(1.0−w)・Bl´(1,j)−w・Bl´(0,j)・El´(1,j)/El´(0,j)
Ar´(1,j)←(1.0−w)・Ar´(1,j)−w・Ar´(0,j)・Er´(1,j)/Er´(0,j)
Br´(1,j)←(1.0−w)・Br´(1,j)−w・Br´(0,j)・Er´(1,j)/Er´(0,j)
直前フレーム成分と270度の方向の近傍に補正する場合、
Al´(1,j)←(1.0−w)・Al´(1,j)+w・Al´(0,j)・El´(1,j)/El´(0,j)
Bl´(1,j)←(1.0−w)・Bl´(1,j)−w・Bl´(0,j)・El´(1,j)/El´(0,j)
Ar´(1,j)←(1.0−w)・Ar´(1,j)+w・Ar´(0,j)・Er´(1,j)/Er´(0,j)
Br´(1,j)←(1.0−w)・Br´(1,j)−w・Br´(0,j)・Er´(1,j)/Er´(0,j)
さらに、上記改変により各ベクトル成分のノルムが改変前と等しくなるように以下の式で補正を行う。
Al´(1,j)←Al´(1,j)・El´(1,j)/{Al´(1,j)2+Bl´(1,j)21/2
Bl´(1,j)←Bl´(1,j)・El´(1,j)/{Al´(1,j)2+Bl´(1,j)21/2
Ar´(1,j)←Ar´(1,j)・Er´(1,j)/{Ar´(1,j)2+Br´(1,j)21/2
Br´(1,j)←Br´(1,j)・Er´(1,j)/{Ar´(1,j)2+Br´(1,j)21/2
[Formula 11]
El ′ (0, j) = {Al ′ (0, j) 2 + Bl ′ (0, j) 2 } 1/2
El ′ (1, j) = {Al ′ (1, j) 2 + Bl ′ (1, j) 2 } 1/2
Er ′ (0, j) = {Ar ′ (0, j) 2 + Br ′ (0, j) 2 } 1/2
Er ′ (1, j) = {Ar ′ (1, j) 2 + Br ′ (1, j) 2 } 1/2
When correcting near the previous frame component and the direction of 0 degrees,
Al '(1, j) ← (1.0-w) .Al' (1, j) + w.Al '(0, j) .El' (1, j) / El '(0, j)
Bl ′ (1, j) ← (1.0−w) · B1 ′ (1, j) + w · B1 ′ (0, j) · El ′ (1, j) / E1 ′ (0, j)
Ar ′ (1, j) ← (1.0−w) · Ar ′ (1, j) + w · Ar ′ (0, j) · Er ′ (1, j) / Er ′ (0, j)
Br ′ (1, j) ← (1.0−w) · Br ′ (1, j) + w · Br ′ (0, j) · When correcting near the previous frame component and 90 ° direction,
Al '(1, j) ← (1.0-w) .Al' (1, j) -w.Al '(0, j) .El' (1, j) / El '(0, j)
Bl ′ (1, j) ← (1.0−w) · B1 ′ (1, j) + w · B1 ′ (0, j) · El ′ (1, j) / E1 ′ (0, j)
Ar ′ (1, j) ← (1.0−w) · Ar ′ (1, j) −w · Ar ′ (0, j) · Er ′ (1, j) / Er ′ (0, j)
Br ′ (1, j) ← (1.0−w) · Br ′ (1, j) + w · Br ′ (0, j) · Er ′ (1, j) / Er ′ (0, j)
When correcting in the vicinity of the previous frame component and the direction of 180 degrees,
Al '(1, j) ← (1.0-w) .Al' (1, j) -w.Al '(0, j) .El' (1, j) / El '(0, j)
Bl ′ (1, j) ← (1.0−w) · B1 ′ (1, j) −w · B1 ′ (0, j) · El ′ (1, j) / E1 ′ (0, j)
Ar ′ (1, j) ← (1.0−w) · Ar ′ (1, j) −w · Ar ′ (0, j) · Er ′ (1, j) / Er ′ (0, j)
Br ′ (1, j) ← (1.0−w) · Br ′ (1, j) −w · Br ′ (0, j) · Er ′ (1, j) / Er ′ (0, j)
When correcting to the vicinity of the previous frame component and the direction of 270 degrees,
Al '(1, j) ← (1.0-w) .Al' (1, j) + w.Al '(0, j) .El' (1, j) / El '(0, j)
Bl ′ (1, j) ← (1.0−w) · B1 ′ (1, j) −w · B1 ′ (0, j) · El ′ (1, j) / E1 ′ (0, j)
Ar ′ (1, j) ← (1.0−w) · Ar ′ (1, j) + w · Ar ′ (0, j) · Er ′ (1, j) / Er ′ (0, j)
Br ′ (1, j) ← (1.0−w) · Br ′ (1, j) −w · Br ′ (0, j) · Er ′ (1, j) / Er ′ (0, j)
Furthermore, correction is performed by the following formula so that the norm of each vector component becomes equal to that before the modification by the modification.
Al ′ (1, j) ← Al ′ (1, j) .El ′ (1, j) / {Al ′ (1, j) 2 + B1 ′ (1, j) 2 } 1/2
Bl ′ (1, j) ← Bl ′ (1, j) · El ′ (1, j) / {Al ′ (1, j) 2 + Bl ′ (1, j) 2 } 1/2
Ar' (1, j) ← Ar' (1, j) · Er' (1, j) / {Ar' (1, j) 2 + Br' (1, j) 2} 1/2
Br' (1, j) ← Br' (1, j) · Er' (1, j) / {Ar' (1, j) 2 + Br' (1, j) 2} 1/2

上記〔数式11〕において、Al´(0,j)、Ar´(0,j)は直前のBタイプ音響フレームにおける位相補正後の周波数成分の実部を示し、Bl´(0,j)、Br´(0,j)は直前のBタイプ音響フレームにおける位相補正後の周波数成分の虚部を示している。   In the above [Equation 11], Al ′ (0, j) and Ar ′ (0, j) indicate the real part of the frequency component after phase correction in the immediately preceding B-type acoustic frame, and Bl ′ (0, j), Br ′ (0, j) represents the imaginary part of the frequency component after phase correction in the immediately preceding B-type sound frame.

周波数逆変換手段40は、上記のようにして、周波数成分の位相が補正された複素周波数成分に対して周波数逆変換して実数次元の改変音響フレームを得る処理を行う。この周波数逆変換は、当然のことながら、周波数変換手段20が実行した手法に対応していることが必要となる。本実施形態では、周波数変換手段20において、フーリエ変換を施しているため、周波数逆変換手段40は、フーリエ逆変換を実行することになる。また、周波数変換手段20において微分処理を実行している場合には、積分処理を実行することになる。   As described above, the frequency inverse transform means 40 performs frequency inverse transform on the complex frequency component in which the phase of the frequency component is corrected to obtain a real-dimensional modified acoustic frame. Naturally, the inverse frequency conversion needs to correspond to the method executed by the frequency conversion means 20. In the present embodiment, since the frequency transform unit 20 performs the Fourier transform, the frequency inverse transform unit 40 executes the Fourier inverse transform. In addition, when the frequency conversion means 20 is executing differentiation processing, integration processing is executed.

具体的には、積分処理を実行する場合、Aタイプの音響フレームに対しては、周波数逆変換手段40は、上記〔数式9〕により得られた複素周波数成分の左チャンネルの実部Al´(1,j)、虚部Bl´(1,j)、右チャンネルの実部Ar´(1,j)、虚部Br´(1,j)を用いて、以下の〔数式12〕に従った処理を行い、Xl´(i)、Xr´(i)を算出する。なお、上記〔数式9〕において改変されていない周波数成分については、Al´(1,j)等として、元の周波数成分であるAl(1,j)等を用いる。周波数逆変換を計算するにあたり、Al´(1,j)およびBl´(1,j)に対しては〔数式5〕におけるZl(1)を、Ar´(1,j)およびBr´(1,j)に対しては〔数式5〕におけるZr(1)を除することにより、同時に振幅逆変換を施す必要がある。積分処理を実行する場合、直前に決定した配列成分Xl´(i−1)を加算する。配列の初期値は0とし、N−1番目は、0番目からN−2番目の総和となるようにする。   Specifically, when the integration process is executed, for the A type sound frame, the frequency inverse transform unit 40 uses the real part Al ′ (left side channel) of the complex frequency component obtained by the above [Equation 9]. 1, j), the imaginary part Bl ′ (1, j), the real part Ar ′ (1, j) of the right channel, and the imaginary part Br ′ (1, j), according to the following [Equation 12] Processing is performed to calculate Xl ′ (i) and Xr ′ (i). For frequency components that are not modified in the above [Equation 9], Al (1, j) or the like that is the original frequency component is used as Al ′ (1, j) or the like. In calculating the inverse frequency transform, for Al ′ (1, j) and Bl ′ (1, j), Zl (1) in [Formula 5] is replaced with Ar ′ (1, j) and Br ′ (1 , J), it is necessary to simultaneously perform inverse amplitude transformation by dividing Zr (1) in [Formula 5]. When executing the integration process, the array component Xl ′ (i−1) determined immediately before is added. The initial value of the array is 0, and the (N-1) th is the sum of the 0th to (N-2) th.

〔数式12〕
Xl´(0)=Xr´(0)=0
i=1,・・・,N−1において
Xl´(i)=1/N・{ΣjAl´(1,j)・cos(2πij/N)/Zl(1)−ΣjBl´(1,j)・sin(2πij/N)/Zl(1)}+Xl´(i−1)
Xr´(i)=1/N・{ΣjAr´(1,j)・cos(2πij/N)/Zr(1)−ΣjBr´(1,j)・sin(2πij/N)/Zr(1)}+Xr´(i−1)
[Formula 12]
Xl ′ (0) = Xr ′ (0) = 0
i = 1,..., N−1 Xl ′ (i) = 1 / N · {Σ j Al ′ (1, j) · cos (2πij / N) / Zl (1) −Σ j Bl ′ ( 1, j) · sin (2πij / N) / Zl (1)} + Xl ′ (i−1)
Xr' (i) = 1 / N · {Σ j Ar' (1, j) · cos (2πij / N) / Zr (1) -Σ j Br' (1, j) · sin (2πij / N) / Zr (1)} + Xr ′ (i−1)

上記〔数式12〕においては、式が繁雑になるのを防ぐため、Σj=0,,N-1をΣjとして示している。さらに、直前に改変された改変音響フレームと時間軸上N/2サンプル分重複することを考慮して以下の〔数式13〕に従った処理を実行する。 In the above [Formula 12], Σ j = 0, ... , N−1 is shown as Σ j in order to prevent the expression from becoming complicated. Further, the processing according to the following [Equation 13] is executed in consideration of overlapping with the modified acoustic frame modified immediately before by N / 2 samples on the time axis.

〔数式13〕
i=0,・・・,N−1において
Xl´(i)←Xl´(i)+Xlp(i+N/2)
Xr´(i)←Xr´(i)+Xrp(i+N/2)
[Formula 13]
i = 0,..., N−1 Xl ′ (i) ← Xl ′ (i) + Xlp (i + N / 2)
Xr ′ (i) ← Xr ′ (i) + Xrp (i + N / 2)

上記〔数式13〕における第1式の“+Xlp(i+N/2)”、第2式の“+Xrp(i+N/2)”の項は、直前に改変された改変音響フレームのデータXlp(i)、Xrp(i)が存在する場合に、加算するためのものである。上記〔数式12〕〔数式13〕によりAタイプの改変音響フレームの左チャンネルの各サンプルXl´(i)、右チャンネルの各サンプルXr´(i)、が得られることになる。   The terms “+ Xlp (i + N / 2)” in the first expression and “+ Xrp (i + N / 2)” in the second expression in the above [Formula 13] are the data Xlp (i) of the modified acoustic frame modified immediately before, If Xrp (i) exists, it is for addition. According to the above [Equation 12] and [Equation 13], each sample Xl ′ (i) of the left channel and each sample Xr ′ (i) of the right channel of the A type modified acoustic frame are obtained.

積分処理を実行する場合、Bタイプの音響フレームに対しては、周波数逆変換手段40は、上記〔数式9〕により得られた複素周波数成分の左チャンネルの実部Al´(2,j)、虚部Bl´(2,j)、右チャンネルの実部Ar´(2,j)、虚部Br´(2,j)を用いて、以下の〔数式14〕に従った処理を行い、Xl´(i+N/2)、Xr´(i+N/2)を算出する。なお、上記〔数式9〕において改変されていない周波数成分については、以下の〔数式14〕においてはAl´(2,j)、Bl´(2,j)、Ar´(2,j)、Br´(2,j)として、元の値であるAl(2,j)、Bl(2,j)、Ar(2,j)、Br(2,j)を用いる。周波数逆変換を計算するにあたり、Al´(2,j)およびBl´(2,j)に対しては〔数式5〕におけるZl(2)を、Ar´(2,j)およびBr´(2,j)に対しては〔数式5〕におけるZr(2)を除することにより、同時に振幅逆変換を施す必要がある。積分処理を実行する場合、直前に決定した配列成分Xl´(i−1+N/2)を加算する。配列の初期値は0とし、N−1番目は、0番目からN−2番目の総和となるようにする。   When performing the integration process, for the B type acoustic frame, the frequency inverse transform means 40 uses the real part Al ′ (2, j) of the left channel of the complex frequency component obtained by the above [Equation 9], Using the imaginary part Bl ′ (2, j), the real part Ar ′ (2, j) of the right channel, and the imaginary part Br ′ (2, j), processing according to the following [Equation 14] is performed, and Xl '(I + N / 2) and Xr' (i + N / 2) are calculated. For the frequency components not modified in the above [Equation 9], in the following [Equation 14], Al ′ (2, j), Bl ′ (2, j), Ar ′ (2, j), Br The original values Al (2, j), Bl (2, j), Ar (2, j), and Br (2, j) are used as ′ (2, j). In calculating the frequency inverse transform, for Al ′ (2, j) and Bl ′ (2, j), Zl (2) in [Equation 5] is replaced with Ar ′ (2, j) and Br ′ (2 , J), it is necessary to simultaneously perform inverse amplitude transformation by dividing Zr (2) in [Equation 5]. When the integration process is executed, the array component Xl ′ (i−1 + N / 2) determined immediately before is added. The initial value of the array is 0, and the (N-1) th is the sum of the 0th to (N-2) th.

〔数式14〕
Xl´(N/2)=Xr´(N/2)=0
i=1,・・・,N−1において
Xl´(i+N/2)=1/N・{ΣjAl´(2,j)・cos(2πij/N)/Zl(2)−ΣjBl´(2,j)・sin(2πij/N)/Zl(2)}+Xl´(i−1+N/2)
Xr´(i+N/2)=1/N・{ΣjAr´(2,j)・cos(2πij/N)/Zr(2)−ΣjBr´(2,j)・sin(2πij/N)/Zr(2)}+Xr´(i−1+N/2)
[Formula 14]
Xl ′ (N / 2) = Xr ′ (N / 2) = 0
i = 1,..., N−1 Xl ′ (i + N / 2) = 1 / N · {Σ j Al ′ (2, j) · cos (2πij / N) / Zl (2) −Σ j Bl ′ (2, j) · sin (2πij / N) / Zl (2)} + Xl ′ (i−1 + N / 2)
Xr' (i + N / 2) = 1 / N · {Σ j Ar' (2, j) · cos (2πij / N) / Zr (2) -Σ j Br' (2, j) · sin (2πij / N ) / Zr (2)} + Xr ′ (i−1 + N / 2)

さらに、直前に改変された改変音響フレームと時間軸上N/2サンプル分重複することを考慮して以下の〔数式15〕に従った処理を実行する。   Further, the processing according to the following [Equation 15] is executed in consideration of overlapping with the modified acoustic frame modified immediately before by N / 2 samples on the time axis.

〔数式15〕
i=0,・・・,N−1において
Xl´(i+N/2)←Xl´(i+N/2)+Xlp(i+N)
Xr´(i+N/2)←Xr´(i+N/2)+Xrp(i+N)
[Formula 15]
i = 0,..., N−1 Xl ′ (i + N / 2) ← Xl ′ (i + N / 2) + Xlp (i + N)
Xr ′ (i + N / 2) ← Xr ′ (i + N / 2) + Xrp (i + N)

上記〔数式15〕における第1式の“+Xlp(i+N)”、第2式の“+Xrp(i+N)”の項は、直前に改変された改変音響フレームのデータXlp(i+N/2)、Xrp(i+N/2)が存在する場合に、加算するためのものである。上記〔数式14〕〔数式15〕によりBタイプの改変音響フレームの左チャンネルの各サンプルXl´(i)、右チャンネルの各サンプルXr´(i)、が得られることになる。   The terms “+ Xlp (i + N)” in the first expression and “+ Xrp (i + N)” in the second expression in the above [Formula 15] indicate the data Xlp (i + N / 2), Xrp ( If i + N / 2) exists, it is for addition. According to the above [Equation 14] and [Equation 15], each sample Xl ′ (i) of the left channel and each sample Xr ′ (i) of the right channel of the B type modified acoustic frame are obtained.

周波数変換手段20において微分処理が実行されていない場合には、積分処理は実行されないため、Aタイプの音響フレームに対しては、周波数逆変換手段40は、以下の〔数式16〕に従った処理を行い、Xl´(i)、Xr´(i)を算出する。なお、上記〔数式9〕において改変されていない周波数成分については、Al´(1,j)等として、元の周波数成分であるAl(1,j)等を用いる。周波数逆変換を計算するにあたり、Al´(1,j)およびBl´(1,j)に対しては〔数式5〕におけるZl(1)を、Ar´(1,j)およびBr´(1,j)に対しては〔数式5〕におけるZr(1)を除することにより、同時に振幅逆変換を施す必要がある。   When the differentiation process is not executed in the frequency conversion means 20, the integration process is not executed. Therefore, for the A type sound frame, the frequency inverse conversion means 40 performs the process according to the following [Equation 16]. To calculate Xl ′ (i) and Xr ′ (i). For frequency components that are not modified in the above [Equation 9], Al (1, j) or the like that is the original frequency component is used as Al ′ (1, j) or the like. In calculating the inverse frequency transform, for Al ′ (1, j) and Bl ′ (1, j), Zl (1) in [Formula 5] is replaced with Ar ′ (1, j) and Br ′ (1 , J), it is necessary to simultaneously perform inverse amplitude transformation by dividing Zr (1) in [Formula 5].

〔数式16〕
Xl´(i)=1/N・{ΣjAl´(1,j)・cos(2πij/N)/Zl(1)−ΣjBl´(1,j)・sin(2πij/N)/Zl(1)}+Xlp(i+N/2)
Xr´(i)=1/N・{ΣjAr´(1,j)・cos(2πij/N)/Zr(1)−ΣjBr´(1,j)・sin(2πij/N)/Zr(1)}+Xrp(i+N/2)
[Formula 16]
Xl' (i) = 1 / N · {Σ j Al' (1, j) · cos (2πij / N) / Zl (1) -Σ j Bl' (1, j) · sin (2πij / N) / Zl (1)} + Xlp (i + N / 2)
Xr' (i) = 1 / N · {Σ j Ar' (1, j) · cos (2πij / N) / Zr (1) -Σ j Br' (1, j) · sin (2πij / N) / Zr (1)} + Xrp (i + N / 2)

Bタイプの音響フレームに対しては、周波数逆変換手段40は、以下の〔数式17〕に従った処理を行い、Xl´(i)、Xr´(i)を算出する。なお、上記〔数式9〕において改変されていない周波数成分については、以下の〔数式17〕においてはAl´(2,j)、Bl´(2,j)、Ar´(2,j)、Br´(2,j)として、元の値であるAl(2,j)、Bl(2,j)、Ar(2,j)、Br(2,j)を用いる。周波数逆変換を計算するにあたり、Al´(2,j)およびBl´(2,j)に対しては〔数式5〕におけるZl(2)を、Ar´(2,j)およびBr´(2,j)に対しては〔数式5〕におけるZr(2)を除することにより、同時に振幅逆変換を施す必要がある。   For the B type acoustic frame, the frequency inverse transform means 40 performs processing according to the following [Equation 17] to calculate Xl ′ (i) and Xr ′ (i). For frequency components that are not modified in the above [Equation 9], in the following [Equation 17], Al ′ (2, j), Bl ′ (2, j), Ar ′ (2, j), Br The original values Al (2, j), Bl (2, j), Ar (2, j), and Br (2, j) are used as ′ (2, j). In calculating the frequency inverse transform, for Al ′ (2, j) and Bl ′ (2, j), Zl (2) in [Equation 5] is replaced with Ar ′ (2, j) and Br ′ (2 , J), it is necessary to simultaneously perform inverse amplitude transformation by dividing Zr (2) in [Equation 5].

〔数式17〕
Xl´(i+N/2)=1/N・{ΣjAl´(2,j)・cos(2πij/N)/Zl(2)−ΣjBl´(2,j)・sin(2πij/N)/Zl(2)}+Xlp(i+N)
Xr´(i+N/2)=1/N・{ΣjAr´(2,j)・cos(2πij/N)/Zr(2)−ΣjBr´(2,j)・sin(2πij/N)/Zr(2)}+Xrp(i+N)
[Formula 17]
Xl' (i + N / 2) = 1 / N · {Σ j Al' (2, j) · cos (2πij / N) / Zl (2) -Σ j Bl' (2, j) · sin (2πij / N ) / Zl (2)} + Xlp (i + N)
Xr' (i + N / 2) = 1 / N · {Σ j Ar' (2, j) · cos (2πij / N) / Zr (2) -Σ j Br' (2, j) · sin (2πij / N ) / Zr (2)} + Xrp (i + N)

改変音響フレーム出力手段50は、周波数逆変換手段40の処理により得られたAタイプの改変音響フレーム、Bタイプの改変音響フレームを順次出力ファイルに出力する。   The modified sound frame output unit 50 sequentially outputs the A type modified sound frame and the B type modified sound frame obtained by the processing of the frequency inverse transform unit 40 to an output file.

次に、図1に示した音響信号に対する情報の埋め込み装置の処理の全体的な流れについて説明する。まず、事前に図5に示すようなNwビットの基準符号とNhビットのハミング符号が対応付けられた符号変換テーブルを用意する。この符号変換テーブルは、各ハミング符号間のハミング距離が互いに3以上となるものであれば、どのように作成しても良い。本実施形態では、コンピュータに専用のプログラムを実行させることにより、コンピュータを変換テーブル作成装置として機能させることにより作成する。変換テーブル作成装置による符号変換テーブル作成のフローチャートを図4に示す。   Next, the overall flow of processing of the information embedding device for the acoustic signal shown in FIG. 1 will be described. First, a code conversion table in which an Nw-bit reference code and an Nh-bit Hamming code are associated with each other as shown in FIG. 5 is prepared in advance. This code conversion table may be created in any way as long as the Hamming distance between each Hamming code is 3 or more. In this embodiment, it is created by causing a computer to function as a conversion table creation device by executing a dedicated program. FIG. 4 shows a flowchart of code conversion table creation by the conversion table creation device.

変換テーブル作成装置は、最初に初期化処理を行う(S601)。具体的には、8ビット基準符号“0”に16ビット符号“1”を対応付けて符号変換テーブルのi(=0)番目に登録するとともに、8ビット基準符号KFの初期値を1、16ビット符号HFの初期値を2とする。続いて、i=0に初期設定する(S602)。次に、16ビット符号HF及びそれの15通りの巡回符号と、符号変換テーブルのi番目に既に登録されている他の16ビット符号及びそれの15通り巡回符号とのハミング距離を算出する(S603)。この段階で16通り×16通りで256通りのハミング距離が算出される。   The conversion table creation device first performs initialization processing (S601). Specifically, the 8-bit reference code “0” is associated with the 16-bit code “1” and registered in the i (= 0) -th code conversion table, and the initial value of the 8-bit reference code KF is set to 1, 16 The initial value of the bit code HF is 2. Subsequently, i = 0 is initially set (S602). Next, the Hamming distance between the 16-bit code HF and its 15 cyclic codes and the other 16-bit code already registered in the code conversion table and its 15 cyclic codes is calculated (S603). ). At this stage, 16 ways × 16 ways and 256 ways of Hamming distances are calculated.

算出したハミング距離の少なくとも1つが3未満の場合、HFの値を1増加して更新した後(S604)、S602に戻って、次の16ビット符号HFについての処理を行う。一方、算出したハミング距離が全て3以上の場合、iの値を1増加して更新する(S605)。そして、iがKF−1未満である場合には、S603に戻って、符号変換テーブル内のi番目に登録されている16ビット符号及びそれの15通り巡回符号とのハミング距離を算出する。S605の後、iがKF−1以上となった場合には、16ビット符号HFを符号変換テーブルの8ビット符号KFの位置に登録するとともに、KF、HFの値をそれぞれ1ずつ増加して更新する(S606)。そして、HFが65536未満である場合は、S612に戻って、次の8ビット符号KFについての処理を行う。HFが65536以上である場合は、16ビットの範囲で表現可能な全ての16ビット符号HFが登録されたことになるので、符号変換テーブル作成処理を終了する。なお、変換テーブル作成手段80にて符号変換テーブル作成を行う場合も、変換テーブル作成装置と同様の処理を行う。   If at least one of the calculated Hamming distances is less than 3, the value of HF is updated by 1 (S604), and then the process returns to S602 and the process for the next 16-bit code HF is performed. On the other hand, if all the calculated Hamming distances are 3 or more, the value of i is incremented by 1 and updated (S605). If i is less than KF-1, the process returns to S603 to calculate the Hamming distance between the i-th 16-bit code registered in the code conversion table and its 15 cyclic codes. When i becomes KF-1 or more after S605, the 16-bit code HF is registered at the position of the 8-bit code KF in the code conversion table, and the values of KF and HF are incremented by 1 and updated. (S606). If HF is less than 65536, the process returns to S612 to perform the process for the next 8-bit code KF. If the HF is 65536 or more, all 16-bit codes HF that can be expressed in a 16-bit range have been registered, and the code conversion table creation process ends. Note that when the code conversion table is created by the conversion table creation means 80, the same processing as that performed by the conversion table creation device is performed.

このようにして図5に示した符号変換テーブルが作成される。作成された符号変換テーブルは、記憶手段60に格納され、ビット配列作成手段70により参照される。図5の符号変換テーブルは、巡回符号を考慮しないハミング符号との対応部分だけを抜き出したものである。この符号変換テーブルには、16ビットのハミング符号が定義可能な0〜65535の範囲内で、各々16通りの巡回符号が互いにハミング距離3以上になるように、8ビットの基準符号を定義したもので、基準符号としては7ビットより若干多い0〜131の値が表現可能となっている。   In this way, the code conversion table shown in FIG. 5 is created. The created code conversion table is stored in the storage means 60 and is referred to by the bit array creation means 70. The code conversion table in FIG. 5 is obtained by extracting only the corresponding portion with the Hamming code that does not consider the cyclic code. In this code conversion table, an 8-bit reference code is defined so that 16 cyclic codes each have a Hamming distance of 3 or more within a range of 0 to 65535 in which a 16-bit Hamming code can be defined. Thus, as the reference code, a value of 0 to 131 slightly more than 7 bits can be expressed.

続いて、符号変換テーブル作成処理後の、埋め込み装置の処理を、図6のフローチャートに従って説明する。図1に示した装置を構成する各構成要素は、連携して図6に従った処理を実行する。図6は、付加情報1ワード分の処理に対応したものとなっている。1ワードのビット数Nwとしては、任意のビット数に設定することができるが、上述のように、本実施形態では、ASCIIコードの実質記憶容量の8ビットに設定されている。   Next, the processing of the embedding device after the code conversion table creation processing will be described with reference to the flowchart of FIG. Each component which comprises the apparatus shown in FIG. 1 cooperates, and performs the process according to FIG. FIG. 6 corresponds to processing for one word of additional information. The number of bits Nw of one word can be set to an arbitrary number of bits, but as described above, in this embodiment, it is set to 8 bits of the effective storage capacity of the ASCII code.

図6においては、まず、ビット配列作成手段70は、付加情報記憶部62から抽出した付加情報の各ワードについて、記憶手段60内の符号変換テーブルを参照し、対応するビット配列を作成する(S101)。具体的には、まず、付加情報記憶部62から1ワード(8ビット)単位で抽出し、図5に示した符号変換テーブルを参照し、対応する巡回ハミング符号で構成される16ビットのビット配列を抽出する。   In FIG. 6, first, the bit array creation means 70 creates a corresponding bit array by referring to the code conversion table in the storage means 60 for each word of the additional information extracted from the additional information storage section 62 (S101). ). Specifically, first, a 16-bit bit array that is extracted from the additional information storage unit 62 in units of 1 word (8 bits) and refers to the code conversion table shown in FIG. To extract.

そして、この16ビットが、音響信号に対する情報の埋め込み装置として用いられるコンピュータ内のレジスタに読み込まれることになる。このように、付加情報記憶部62においては、1ワードは8ビットであるが、埋め込み処理時は、この16ビットの配列で、付加情報内の1ワード分の処理を行う。   These 16 bits are read into a register in a computer used as an information embedding device for an acoustic signal. Thus, in the additional information storage unit 62, one word is 8 bits, but at the time of embedding processing, processing for one word in the additional information is performed with this 16-bit array.

次に、周波数成分変更手段30が、レジスタに保持されたNh(=16)ビットから1ビットを読み込む処理を行う(S102)。続いて、音響フレーム読込手段10が、音響信号記憶部61に記憶されたステレオ音響信号の左右の各チャンネルから、それぞれ所定数のサンプルをAタイプの1音響フレームとして読み込み、周波数変換手段20が周波数変換を行って、得られた複素周波数成分に対して振幅変換を行う(S103)。具体的には、まず、読み込んだ音響フレームに対して、微分処理を実行する。そして、周波数変換を行って、その音響フレームの複素周波数成分である複素周波数成分を得る。すなわち、各音響フレームについて、窓関数W(1,i)を用いて、上記〔数式2〕に従った処理を行う。そして、上記〔数式5〕に従った処理を実行してZl(1)、Zr(1)を算出し振幅変換を行う。同様に、音響フレーム読込手段10が、音響信号記憶部61に記憶されたステレオ音響信号の左右の各チャンネルから、それぞれ所定数のサンプルをBタイプの1音響フレームとして読み込み、周波数変換手段20が周波数変換を行って、得られた複素周波数成分に対して振幅変換を行う(S104)。具体的には、まず、読み込んだ音響フレームに対して、微分処理を実行する。そして、周波数変換を行って、その音響フレームの複素周波数成分を得る。すなわち、各音響フレームについて、窓関数W(2,i)を用いて、上記〔数式3〕に従った処理を行う。そして、上記〔数式5〕に従った処理を実行してZl(2)、Zr(2)を算出し振幅変換を行う。続いて、周波数成分変更手段30が、読み込んだビット値に応じてAタイプ音響フレームおよびBタイプ音響フレームの周波数成分の状態を変更するにあたり、〔数式6〕〔数式8〕に従った処理を実行して変換割合α、βを決定する処理を行う(S105)。この決定された変換割合を用いて、周波数成分変更手段30は、ビット配列作成手段70から受け取った値1、値2に応じて上記〔数式9〕に従った処理を実行し、変更対象周波数帯の成分の状態を“状態1”、“状態2”に応じた状態のいずれかに変更する(S106)。   Next, the frequency component changing unit 30 performs a process of reading one bit from Nh (= 16) bits held in the register (S102). Subsequently, the acoustic frame reading means 10 reads a predetermined number of samples from the left and right channels of the stereo acoustic signal stored in the acoustic signal storage unit 61 as one A-type acoustic frame, and the frequency converting means 20 Conversion is performed, and amplitude conversion is performed on the obtained complex frequency component (S103). Specifically, first, differentiation processing is performed on the read sound frame. Then, frequency conversion is performed to obtain a complex frequency component that is a complex frequency component of the acoustic frame. That is, for each acoustic frame, processing according to the above [Equation 2] is performed using the window function W (1, i). Then, the process according to the above [Equation 5] is executed to calculate Zl (1) and Zr (1) and perform amplitude conversion. Similarly, the acoustic frame reading means 10 reads a predetermined number of samples as one B-type acoustic frame from the left and right channels of the stereo acoustic signal stored in the acoustic signal storage unit 61, and the frequency conversion means 20 Conversion is performed, and amplitude conversion is performed on the obtained complex frequency component (S104). Specifically, first, differentiation processing is performed on the read sound frame. Then, frequency conversion is performed to obtain a complex frequency component of the acoustic frame. That is, for each acoustic frame, processing according to the above [Equation 3] is performed using the window function W (2, i). Then, the process according to the above [Equation 5] is executed to calculate Zl (2) and Zr (2) and perform amplitude conversion. Subsequently, when the frequency component changing unit 30 changes the state of the frequency component of the A type sound frame and the B type sound frame according to the read bit value, the processing according to [Formula 6] and [Formula 8] is executed. Then, the conversion ratios α and β are determined (S105). Using this determined conversion ratio, the frequency component changing unit 30 executes the processing according to the above [Equation 9] according to the value 1 and the value 2 received from the bit array creating unit 70, and the frequency band to be changed The state of the component is changed to either “state 1” or “state 2” (S106).

次に、位相補正手段31が、変更対象周波数帯の成分の位相補正を行う(S107)。具体的には、Aタイプ音響フレームおよびBタイプ音響フレームに対して、上記〔数式10〕〔数式11〕に従った処理を実行して各周波数成分の位相を補正することになる。   Next, the phase correction means 31 performs phase correction of the component of the change target frequency band (S107). Specifically, the processing according to [Formula 10] and [Formula 11] is executed on the A type sound frame and the B type sound frame to correct the phase of each frequency component.

次に、周波数逆変換手段40が、上記S107の処理によりAタイプの音響フレームに対応する各スペクトル集合の位相が補正された複素周波数成分を振幅逆変換、周波数逆変換して改変音響フレームを得る処理を行う(S108)。この振幅逆変換は〔数式5〕で算出したZl(1)、Zr(1)の逆数を複素周波数成分に乗じることにより行ない、この周波数逆変換は、当然のことながら、周波数変換手段20がS103において実行した手法に対応していることが必要となる。本実施形態では、周波数変換手段20において、フーリエ逆変換を施しているため、周波数逆変換手段40は、フーリエ逆変換を実行することになる。具体的には、上記〔数式11〕により得られた複素周波数成分の左チャンネルの実部Al´(1,j)、虚部Bl´(1,j)、右チャンネルの実部Ar´(1,j)、虚部Br´(1,j)を用いて、上記〔数式12〕〔数式13〕(積分処理を行わない場合〔数式16〕)に従った処理を行い、Xl´(i)、Xr´(i)を算出する。改変音響フレーム出力手段50は、得られた改変音響フレームを順次出力ファイルに出力する。   Next, the frequency inverse transform means 40 performs amplitude inverse transform and frequency inverse transform on the complex frequency component in which the phase of each spectrum set corresponding to the A-type acoustic frame is corrected by the process of S107 to obtain a modified acoustic frame. Processing is performed (S108). This inverse amplitude transformation is performed by multiplying the complex frequency component by the inverse of Zl (1) and Zr (1) calculated by [Equation 5]. This frequency inverse transformation is naturally performed by the frequency transformation means 20 at S103. It is necessary to correspond to the method executed in the above. In the present embodiment, since the frequency transform unit 20 performs the inverse Fourier transform, the frequency inverse transform unit 40 performs the inverse Fourier transform. Specifically, the real part Al ′ (1, j) of the left channel and the imaginary part Bl ′ (1, j) of the complex frequency component obtained by [Equation 11], the real part Ar ′ (1) of the right channel. , J) and imaginary part Br ′ (1, j), the processing according to the above [Equation 12] [Equation 13] (when integration processing is not performed [Equation 16]) is performed, and Xl ′ (i) , Xr ′ (i) is calculated. The modified sound frame output means 50 sequentially outputs the obtained modified sound frames to an output file.

同様に、周波数逆変換手段40が、上記S107の処理によりBタイプの音響フレームに対応する各スペクトル集合の位相が補正された複素周波数成分を振幅逆変換、周波数逆変換して改変音響フレームを得る処理を行う(S109)。具体的には、振幅逆変換は〔数式5〕で算出したZl(2)、Zr(2)の逆数を複素周波数成分に乗じることにより行ない、上記〔数式10〕により得られた複素周波数成分の左チャンネルの実部Al´(2,j)、虚部Bl´(2,j)、右チャンネルの実部Ar´(2,j)、虚部Br´(2,j)を用いて、上記〔数式14〕〔数式15〕(微分処理、積分処理を行わない場合〔数式17〕)に従った処理を行い、Xl´(i)、Xr´(i)を算出する。   Similarly, the frequency inverse transform means 40 performs amplitude inverse transform and frequency inverse transform on the complex frequency component in which the phase of each spectrum set corresponding to the B-type acoustic frame is corrected by the processing of S107 to obtain a modified acoustic frame. Processing is performed (S109). Specifically, the inverse amplitude transformation is performed by multiplying the complex frequency component by the inverse of Zl (2) and Zr (2) calculated in [Formula 5], and the complex frequency component obtained by the above [Formula 10] is calculated. Using the real part Al ′ (2, j), the imaginary part Bl ′ (2, j) of the left channel, the real part Ar ′ (2, j), and the imaginary part Br ′ (2, j) of the right channel, [Formula 14] [Formula 15] (When differential processing and integration processing are not performed [Formula 17]), Xl ′ (i) and Xr ′ (i) are calculated.

改変音響フレーム出力手段50は、得られた改変音響フレームを順次出力ファイルに出力する。こうして各チャンネルについて、AタイプおよびBタイプの2つの音響フレームに対する処理を終えたら、周波数成分変更手段30がビット配列中の次の1ビットを読み込む(S102)。以上のような処理を音響信号の両チャンネルの全サンプルに渡って実行していく。すなわち、所定数のサンプルを音響フレームとして読み込み、音響信号から読み込むべき音響フレームがなくなったら(S103、S104)、処理を終了する。なお、S101において読み込んだ1ワード分のビット配列(Nh=16ビット)の各ビットに対応する処理を終えた場合、S102からS101に戻り、付加情報の次のワードを読み込んでビット配列を作成する処理を行うことになる。付加情報の全ワードに対して処理が終了した場合は、付加情報の先頭ワードに戻って処理を行う。この結果、全ての音響フレームに対して処理を行った全ての改変音響フレームが出力ファイルに記録されて、改変音響信号として得られる。得られた改変音響信号は、記憶手段60内の改変音響信号記憶部63に出力され、記憶される。   The modified sound frame output means 50 sequentially outputs the obtained modified sound frames to an output file. When the processing for the two A-type and B-type sound frames is finished for each channel in this way, the frequency component changing means 30 reads the next 1 bit in the bit array (S102). The above processing is executed over all samples of both channels of the acoustic signal. That is, a predetermined number of samples are read as sound frames, and when there are no more sound frames to be read from the sound signal (S103, S104), the process ends. When the processing corresponding to each bit of the bit arrangement (Nh = 16 bits) for one word read in S101 is completed, the process returns from S102 to S101 to read the next word of the additional information and create a bit arrangement. Processing will be performed. When the processing is completed for all the words of the additional information, the processing returns to the first word of the additional information. As a result, all modified acoustic frames that have been processed for all acoustic frames are recorded in the output file and obtained as modified acoustic signals. The obtained modified acoustic signal is output to and stored in the modified acoustic signal storage unit 63 in the storage unit 60.

なお、本実施形態では、付加情報を1ワード8ビットとし、符号変換テーブルにより16ビットのビット配列に変換して、付加情報1ワード分の処理をする場合について説明したが、本発明では、抽出側と取り決めがある限り、付加情報の1ワードを他のビット数単位で記録することが可能である。   In the present embodiment, the case has been described in which the additional information is converted into a 16-bit bit array using the code conversion table by converting the additional information into 8 bits per word, and processing for one word of additional information has been described in the present invention. As long as there is an agreement with the side, it is possible to record one word of additional information in units of other number of bits.

上記のようにして得られた改変音響信号のうち、付加情報が埋め込まれている部分については、変更対象周波数帯の成分は、状態1、状態2の2通りの分布しかないことになる。しかし、変更対象周波数帯の成分以外については、元の音響信号のままであるので、制作者の設定に基づいた種々な分布になる。また、上記〔数式9〕の処理からも明らかなように、変更対象周波数帯の成分は、左チャンネルと右チャンネルにおいて同等の割合で変化させられている。したがって、両スピーカと等距離の位置においても、変更対象周波数帯の成分は、相殺されることなく増幅させる関係となり、情報を抽出し易くなる。   Of the modified acoustic signal obtained as described above, for the portion in which the additional information is embedded, the components of the change target frequency band have only two distributions of state 1 and state 2. However, since the components other than the component of the frequency band to be changed remain as the original acoustic signals, various distributions are made based on the setting of the producer. Further, as is clear from the processing of [Formula 9], the components of the frequency band to be changed are changed at the same rate in the left channel and the right channel. Therefore, even at a position equidistant from both speakers, the components in the frequency band to be changed are in a relationship to be amplified without being canceled out, and information can be easily extracted.

以上、埋め込み装置について説明したが、ここで、本実施形態で行っている振幅変換を用いた埋め込みおよび抽出について、図7から図10を用いて説明する。図7および図8は、比較のために、振幅変換を用いない場合の埋め込み処理および抽出処理を示し、図9および図10は本実施形態における振幅変換を用いた埋め込み処理および抽出処理を示す。これらの説明図においては、音響フレーム奇数および偶数3対分について、3ビットの情報を埋め込むことを想定した音響信号の信号波形を示しており、説明の便宜上、音響フレームが互いに重複しない状態で示している。各図において、左端の波形は時間次元の通常の音響信号波形を示しており、横方向は時間軸であり、右に向かうに従って時間が進行し、縦方向は強度(振幅)である。中央または右端の波形は周波数変換後の所定の周波数範囲の複素周波数成分の合算値を信号波形で表現しており、仮想的にバンドパスフィルターを通した後の信号波形になっている。縦方向は同様に強度であり、本来は左端に比べ顕著に低くなるが、ここでは説明の都合上、左端と同程度に拡大して表現している。また、2種類の波形のレベルも本来は差があるが、ここでは同一レベルで表現している。実際には、周波数変換後のデータとして所定の周波数範囲外の高周波数成分や低周波数成分も存在するが、これらについては改変を加えないという前提で図示しておらず、図3に従った埋め込みを行なう2種の周波数帯域成分に限定して2種の信号波形で示している。   The embedding apparatus has been described above. Here, embedding and extraction using amplitude conversion performed in the present embodiment will be described with reference to FIGS. For comparison, FIGS. 7 and 8 show an embedding process and an extraction process when amplitude conversion is not used, and FIGS. 9 and 10 show an embedding process and an extraction process using amplitude conversion in the present embodiment. In these explanatory diagrams, the signal waveform of the acoustic signal assuming that 3-bit information is embedded is shown for the odd and even three pairs of acoustic frames, and the acoustic frames are shown in a state where they do not overlap each other for convenience of explanation. ing. In each figure, the waveform at the left end shows a normal acoustic signal waveform in the time dimension, the horizontal direction is the time axis, the time advances toward the right, and the vertical direction is intensity (amplitude). The waveform at the center or right end expresses the sum of complex frequency components in a predetermined frequency range after frequency conversion as a signal waveform, and is a signal waveform after virtually passing through a bandpass filter. The vertical direction is similarly strong, and is originally significantly lower than the left end, but here, for convenience of explanation, it is enlarged and expressed to the same extent as the left end. Although the levels of the two types of waveforms are originally different, they are represented at the same level here. Actually, there are high-frequency components and low-frequency components outside the predetermined frequency range as the data after frequency conversion, but these are not shown on the assumption that they are not modified, and are embedded according to FIG. The two signal waveforms are limited to the two frequency band components for performing the above.

図7(a)は原音響信号を示しており、最初の1対の音響フレームは全体に渡って強度がほぼ一定、中央の1対の音響フレームは奇数フレームの強度が小さく偶数フレームの強度が大きいものであり、最後の1対の音響フレームは奇数フレームの強度が大きく偶数フレームの強度が小さいものである。このような音響信号に対して、周波数変換を行った結果が図7(b)で、図3で示されように埋め込み対象成分は上下2分割して成分変更を施す都合上、図7(b)では(b−1)および(b−2)の2種の波形に分離して表現した。周波数変換後の波形形状は周波数ごとに異なり、図7(a)と必ずしも相似形にはならないが、ここでは周波数変換前と同様になると仮定して説明する。図7(b−1)および(b−2)に対して、[0,0,0]という3ビットのデータを図3で説明した方法に基づいて埋め込むことにより(図3ではビット0は符号1に相当する)、図7(c−1)および(c−2)が得られる。最初の1対は図3のようなパターンが表現できているが、残り2対の上下一方は、原段階に対して逆方向に大小関係を構築することが要求され、品質維持の都合上、適切なパターンが構築できていないことがわかる。このような改変を加えた結果に対して、周波数逆変換を行った結果が図7(d)である。一般に音響信号波形の外形(エンベロープという)はエネルギー分布が大きい低周波成分で決定され、これらは本願では所定の周波数範囲外の信号成分に含まれ、図7(c)の段階では改変が加えられていないため、周波数逆変換後の図7(d)は周波数変換前の図7(a)と類似した形状になる。   FIG. 7 (a) shows the original sound signal. The first pair of sound frames has a substantially constant intensity throughout, and the center pair of sound frames has a smaller odd frame intensity and an even frame intensity. The last pair of sound frames has a large odd-numbered frame and a small even-numbered frame. FIG. 7B shows the result of frequency conversion performed on such an acoustic signal. As shown in FIG. 3, the embedding target component is divided into upper and lower parts and the components are changed for convenience of FIG. ) Are expressed separately as two waveforms (b-1) and (b-2). The waveform shape after frequency conversion is different for each frequency and is not necessarily similar to that shown in FIG. 7A, but here, it is assumed that it is the same as before frequency conversion. By embedding 3-bit data [0, 0, 0] based on the method described with reference to FIG. 3 with respect to FIGS. 1 (corresponding to 1), FIGS. 7 (c-1) and (c-2) are obtained. The first pair can express a pattern as shown in FIG. 3, but the other two pairs of upper and lower ones are required to construct a magnitude relationship in the opposite direction to the original stage. It turns out that an appropriate pattern has not been constructed. FIG. 7D shows the result of performing frequency inverse transformation on the result of such modification. In general, the external shape (referred to as an envelope) of an acoustic signal waveform is determined by low-frequency components having a large energy distribution, which are included in signal components outside a predetermined frequency range in this application, and are modified in the stage of FIG. 7 (c). Therefore, FIG. 7D after frequency inverse transformation has a shape similar to FIG. 7A before frequency transformation.

このような埋め込みを行なった結果に対して、抽出処理を行う様子を図8に示す。図8(a)および図8(b)は各々図7(d)および図7(c)に対応する。図8(b)において、ビット判定を行なうにあたり、最初の1対以外は図3で想定されているパターンが形成されていないため、正しいビットを判定することが難しくなる。   FIG. 8 shows how extraction processing is performed on the result of such embedding. FIGS. 8A and 8B correspond to FIGS. 7D and 7C, respectively. In FIG. 8B, when performing bit determination, since the pattern assumed in FIG. 3 is not formed except for the first pair, it is difficult to determine a correct bit.

次に、本実施形態における振幅変換を導入した手法について図9および図10を用いて説明する。図9(a)は図7(a)と同じ原音響信号を示しており、同様に周波数変換を行った図9(b)も図7(b)と同じである。ここで、6つのフレーム単位に振幅変換を行った結果が図9(c)である。図9の場合、図9(a)で各フレーム内の振幅が平坦であるため、図9(c)では全体が平坦になっているが、実際には各フレーム内は微細に変動しており、そのフレーム内変動分は図9(c)の段階でも踏襲されるため、本図のように完全に平坦になることは通常ない。(実際は図9(c)は周波数次元のデータになるため、周波数次元のデータも平坦にならず変動した形態になる。)また、変換倍率はフレームごとに設定し、上下2つの周波数成分に対しては同一の倍率で変換を行うため、通常は上下で顕著な差が生じる(ただし、時間軸方向は比較的揃う)。これに対して、[0,0,0]という3ビットのデータを埋め込むと、図9(d−1)および(d−2)が得られる。原段階である図9(c)が平坦な波形であるため、全てのフレームにおいて図3のような理想的なパターンが容易に構築できることがわかる。続いて、前記フレームごとに設定した倍率の逆数を乗じて振幅逆変換を行った結果が図9(e)である。この段階では図7(c)と類似したパターンが生じることが多いが、本形状はいかなるものでも構わない。最後に周波数逆変換を行うと、図9(f)が得られ、同様に原信号波形の図9(a)と類似した形状になる。   Next, a method in which amplitude conversion is introduced in the present embodiment will be described with reference to FIGS. 9 and 10. FIG. 9A shows the same original sound signal as FIG. 7A, and FIG. 9B in which the frequency conversion is performed in the same manner is also the same as FIG. 7B. Here, FIG. 9C shows the result of amplitude conversion performed in units of six frames. In the case of FIG. 9, since the amplitude in each frame is flat in FIG. 9 (a), the whole is flat in FIG. 9 (c). Since the intra-frame variation is followed even in the stage of FIG. 9C, it does not usually become completely flat as in the figure. (Actually, since FIG. 9C is frequency dimension data, the frequency dimension data is not flat and fluctuates.) Also, the conversion magnification is set for each frame, and the upper and lower two frequency components are set. Since the conversion is performed at the same magnification, there is usually a significant difference between the upper and lower sides (however, the time axis direction is relatively uniform). On the other hand, when 3-bit data [0, 0, 0] is embedded, FIGS. 9D-1 and 9D-2 are obtained. Since FIG. 9C, which is the original stage, has a flat waveform, it can be seen that an ideal pattern as shown in FIG. 3 can be easily constructed in all frames. Subsequently, FIG. 9E shows the result of inverse amplitude transformation performed by multiplying the inverse of the magnification set for each frame. At this stage, a pattern similar to that shown in FIG. 7C is often generated, but any shape may be used. Finally, when frequency inverse transform is performed, FIG. 9F is obtained, and similarly, the shape is similar to that of FIG. 9A of the original signal waveform.

このような埋め込みを行なった結果に対して、抽出処理を行う様子を図10に示す。図10(a)、(b)および(c)は各々図9(f)、(e)および(d)に対応する。図10(b)の周波数変換後の波形形状は図9(b)とは基本的に異なるが、算出される振幅変換倍率は類似した値になり、ほぼ同様な倍率で振幅変換が行われ図10(c)が得られる。図10(c)の段階で、ビット判定を行なうと、全てのフレームにおいて図3のような理想的なパターンが形成されているため、正しいビットを判定することが可能になる。   FIG. 10 shows how extraction processing is performed on the result of such embedding. FIGS. 10 (a), (b) and (c) correspond to FIGS. 9 (f), (e) and (d), respectively. Although the waveform shape after frequency conversion in FIG. 10B is basically different from that in FIG. 9B, the calculated amplitude conversion magnification is a similar value, and the amplitude conversion is performed at substantially the same magnification. 10 (c) is obtained. If bit determination is performed in the stage of FIG. 10C, an ideal pattern as shown in FIG. 3 is formed in all frames, and therefore correct bits can be determined.

以上、振幅変換を導入した本実施形態では、図9(c)に示したように、埋め込み対象の信号成分が時間軸方向に平坦になるように変換を行って埋め込むようにしているため、高周波側と低周波側の成分強度の大小関係が完全に逆になるような不自然な変更を行う確率が低くなり、品質を維持しながら、抽出側における抽出精度を高めることが可能となる。   As described above, in the present embodiment in which the amplitude conversion is introduced, since the signal component to be embedded is converted and embedded so as to be flat in the time axis direction as shown in FIG. The probability of making an unnatural change that completely reverses the magnitude relationship between the component intensity on the low frequency side and the low frequency side is reduced, and the extraction accuracy on the extraction side can be increased while maintaining the quality.

(3.1.抽出装置の構成)
次に、本発明に係る音響信号からの情報の抽出装置について説明する。図11は、本発明に係る音響信号からの情報の抽出装置の一実施形態を示す構成図である。図11において、100は音響信号入力手段、110は基準フレーム獲得手段、120は時間軸シフトフレーム設定手段、130は周波数変換手段、140は符号判定パラメータ算出手段、150は符号出力手段、160は付加情報抽出手段、170は音響フレーム保持手段、180は変換テーブル作成手段である。
(3.1. Configuration of extraction device)
Next, an apparatus for extracting information from an acoustic signal according to the present invention will be described. FIG. 11 is a block diagram showing an embodiment of an apparatus for extracting information from an acoustic signal according to the present invention. In FIG. 11, 100 is an acoustic signal input means, 110 is a reference frame acquisition means, 120 is a time-axis shift frame setting means, 130 is a frequency conversion means, 140 is a code determination parameter calculation means, 150 is a code output means, and 160 is an addition Information extraction means, 170 is an acoustic frame holding means, and 180 is a conversion table creation means.

音響信号入力手段100は、流れている音声をデジタル音響信号として取得し、入力する機能を有している。現実には、マイクロフォンおよびA/D変換器により実現される。マイクロフォンとしては、変更対象周波数帯の成分が検出可能なものであれば、モノラル無指向性のものであっても、ステレオ指向性のものであっても使用可能である。ステレオ指向性のものであっても一方のチャンネルだけ利用すれば良い。また、図1に示した装置で情報の埋め込みを行った場合には、ステレオで再生されるが、左右どちらのスピーカの音を入力しても、双方のスピーカの音を混合入力しても良く、マイクロフォンの設置位置に制約がない。もちろん、付加情報が埋め込まれた音響信号がモノラル再生される場合、あるいは付加情報が埋め込まれた音響信号自体がモノラルである場合は、再生される単一のスピーカにマイクロフォンを向ければ良い。このマイクロフォンは特別精度の高いものでなく、一般的な精度のマイクロフォンを用いても情報の抽出が可能となる。基準フレーム獲得手段110は、入力されたデジタルのモノラル音響信号(あるいはステレオ音響信号の1チャンネル)から所定数のサンプルで構成される音響フレームを基準フレームとして読み込む機能を有している。基準フレームとしては、埋め込み時と同様にAタイプ、Bタイプのものが設定される。時間軸シフトフレーム設定手段120は、Aタイプ、Bタイプそれぞれの基準フレームと所定サンプルずつ移動させることにより時間軸をシフトした音響フレームを時間軸シフトフレームとして設定する機能を有している。   The acoustic signal input unit 100 has a function of acquiring and inputting a flowing sound as a digital acoustic signal. In reality, it is realized by a microphone and an A / D converter. Any microphone can be used, regardless of whether it is monaural omnidirectional or stereo directional, as long as the component in the frequency band to be changed can be detected. Even if it is stereo-directional, only one channel needs to be used. In addition, when information is embedded by the apparatus shown in FIG. 1, the information is reproduced in stereo. However, the sound from either the left or right speaker may be input, or the sound from both speakers may be mixed and input. There is no restriction on the position of the microphone. Of course, when the acoustic signal in which the additional information is embedded is monaurally reproduced, or when the acoustic signal itself in which the additional information is embedded is monaural, the microphone may be directed to the single speaker to be reproduced. This microphone is not highly accurate, and information can be extracted using a microphone with general accuracy. The reference frame acquisition unit 110 has a function of reading an audio frame composed of a predetermined number of samples as a reference frame from the input digital monaural audio signal (or one channel of a stereo audio signal). As the reference frame, A type and B type are set as in the case of embedding. The time axis shift frame setting means 120 has a function of setting an acoustic frame whose time axis is shifted by moving each of the A type and B type reference frames and predetermined samples as a time axis shift frame.

周波数変換手段130は、基本的には、図1に示した周波数変換手段20とほぼ同様の機能を有している。ただし、音を取り込むタイミングが、音響信号の先頭からとはならないため、正しい時間軸シフトを特定するために、複数の時間軸シフトで振幅変換、周波数変換を行う点、元の音響信号がステレオであっても、1つのチャンネルで行う点が異なっている。   The frequency conversion unit 130 basically has substantially the same function as the frequency conversion unit 20 shown in FIG. However, since the timing to capture the sound does not start from the beginning of the acoustic signal, in order to specify the correct time axis shift, amplitude conversion and frequency conversion are performed with multiple time axis shifts, and the original acoustic signal is stereo. Even in this case, the difference is that it is performed on one channel.

周波数変換手段130は、Aタイプの音響フレームに対してフーリエ変換を行う場合は、信号X(i−N/2+pN/6)(i=0,…,N−1)に対して、周波数変換処理を行い、変換データの実部A(1,j,p)、虚部B(1,j,p)を得る機能を有している。pは時間軸シフト値であり、0〜5の整数値をとる。   The frequency conversion means 130 performs frequency conversion processing on the signal X (i−N / 2 + pN / 6) (i = 0,..., N−1) when performing Fourier transform on the A type acoustic frame. To obtain the real part A (1, j, p) and the imaginary part B (1, j, p) of the converted data. p is a time axis shift value and takes an integer value of 0 to 5.

本実施形態では、埋め込み時に微分処理および積分処理を行っている場合に限り、周波数変換に先立って周波数変換手段130が微分処理を行う。具体的には、p=0,・・・,5の6通りの左チャンネル信号の音響フレームの各サンプルXl(i+pN/6)、右チャンネル信号の音響フレームの各サンプルXr(i+pN/6)(i=0,…,N−1)に対して、p=0,・・・,5のそれぞれについて、Xl´(pN/6)=Xr´(pN/6)=0とし、i=1,…,N−1において、Xl´(i+pN/6)=Xl(i+pN/6)−Xl(i−1+pN/6)、Xr´(i+pN/6)=Xr(i+pN/6)−Xr(i−1+pN/6)なる変換を施し、N個の配列Xl´(i+pN/6)、Xr´(i+pN/6)を作成する。これにより、各サンプルXl´(i)、Xr´(i)は、元の隣接サンプル間の差分を示す値となる。以降、このサンプルXl´(i+pN/6)、Xr´(i+pN/6)をXl(i+pN/6)、Xr(i+pN/6)として扱うこととする。なお、埋め込み時に何らかの要因により微分処理を行わない設定になっている場合は、埋め込み側に対応させて微分処理を実行しないような設定にしておく。微分処理を実行しない場合は、元のサンプルがそのままXl(i+pN/6)、Xr(i+pN/6)として用いられることになる。   In the present embodiment, the frequency conversion means 130 performs the differentiation process prior to the frequency conversion only when the differentiation process and the integration process are performed at the time of embedding. Specifically, each sample Xl (i + pN / 6) of the acoustic frame of the six left channel signals of p = 0,..., 5 and each sample Xr (i + pN / 6) of the acoustic frame of the right channel signal ( For i = 0,..., N−1), Xl ′ (pN / 6) = Xr ′ (pN / 6) = 0 for each of p = 0,. .., N-1, Xl '(i + pN / 6) = Xl (i + pN / 6) -Xl (i-1 + pN / 6), Xr' (i + pN / 6) = Xr (i + pN / 6) -Xr (i- 1 + pN / 6) is applied to create N arrays Xl ′ (i + pN / 6) and Xr ′ (i + pN / 6). Thereby, each sample Xl ′ (i) and Xr ′ (i) has a value indicating a difference between the original adjacent samples. Hereinafter, the samples Xl ′ (i + pN / 6) and Xr ′ (i + pN / 6) are treated as Xl (i + pN / 6) and Xr (i + pN / 6). If the setting is such that the differentiation process is not performed for some reason during embedding, the setting is made so that the differentiation process is not executed corresponding to the embedding side. When the differentiation process is not executed, the original sample is used as it is as Xl (i + pN / 6) and Xr (i + pN / 6).

続いて、周波数変換手段130は周波数変換を行う。具体的には、Aタイプの音響フレームに対してフーリエ変換を行う場合は、信号X(i−N/2+pN/6)(i=0,…,N−1)に対して、窓関数W(1,i)を用いて、以下の〔数式18〕に従った処理を行う。   Subsequently, the frequency conversion means 130 performs frequency conversion. Specifically, when Fourier transform is performed on an A-type acoustic frame, a window function W () is applied to the signal X (i−N / 2 + pN / 6) (i = 0,..., N−1). 1, i), the processing according to the following [Equation 18] is performed.

〔数式18〕
A(1,j,p)=Σi=0,…,N-1W(1,i)・X(i−N/2+p・N/6)・cos(2πij/N)
B(1,j,p)=Σi=0,…,N-1W(1,i)・X(i−N/2+p・N/6)・sin(2πij/N)
[Formula 18]
A (1, j, p) = Σi = 0,..., N-1 W (1, i) .X (i-N / 2 + p.N / 6) .cos (2πij / N)
B (1, j, p) = Σi = 0,..., N-1 W (1, i) .X (i-N / 2 + p.N / 6) .sin (2πij / N)

周波数変換手段130は、Bタイプの音響フレームに対してフーリエ変換を行う場合は、信号X(i+p・N/6)(i=0,…,N−1)に対して、窓関数W(2,i)を用いて、以下の〔数式19〕に従った処理を行い、変換データの実部A(2,j,p)、虚部B(2,j,p)を得る機能を有している。   When the Fourier transform is performed on the B type acoustic frame, the frequency converting unit 130 applies the window function W (2) to the signal X (i + p · N / 6) (i = 0,..., N−1). , I) is used to perform processing according to the following [Equation 19] to obtain the real part A (2, j, p) and imaginary part B (2, j, p) of the converted data. ing.

〔数式19〕
A(2,j,p)=Σi=0,…,N-1W(2,i)・X(i+p・N/6)・cos(2πij/N)
B(2,j,p)=Σi=0,…,N-1W(2,i)・X(i+p・N/6)・sin(2πij/N)
[Formula 19]
A (2, j, p) = Σ i = 0,..., N-1 W (2, i) · X (i + p · N / 6) · cos (2πij / N)
B (2, j, p) = Σi = 0,..., N-1 W (2, i) .X (i + p.N / 6) .sin (2πij / N)

周波数変換手段130は、周波数変換手段20と同様に振幅変換を行う。振幅変換を行うにあたり、まず変換倍率の算出を行う。変換倍率の算出は、所定周波数範囲のスペクトル集合の実効強度値の平均である平均実効値で、設定値を除算することにより行う。設定値は、適宜定めておくことができるが、埋め込み時における振幅変換の場合と同一値としておくことが必要となる。したがって、本実施形態では、設定値Zoは288(=M−m)にする必要がある。具体的には、Aタイプの音響フレーム、Bタイプの音響フレームについての変換倍率Z(1,p)、Z(2,p)、は、以下の〔数式20〕に従った処理により算出される。振幅変換が実行されることにより、全ての音響フレームは、元の状態における信号強度に関わらず、各音響フレームの平均実効値が設定値となるように振幅変換された状態で、情報の抽出が行われることになる。   The frequency conversion unit 130 performs amplitude conversion in the same manner as the frequency conversion unit 20. In performing amplitude conversion, first, conversion magnification is calculated. The conversion magnification is calculated by dividing the set value by the average effective value that is the average of the effective intensity values of the spectrum set in the predetermined frequency range. Although the set value can be determined as appropriate, it is necessary to set the same value as in the case of amplitude conversion at the time of embedding. Therefore, in the present embodiment, the set value Zo needs to be 288 (= M−m). Specifically, the conversion magnifications Z (1, p) and Z (2, p) for the A type acoustic frame and the B type acoustic frame are calculated by processing according to the following [Equation 20]. . By performing the amplitude conversion, all the sound frames are extracted in a state where the amplitude is converted so that the average effective value of each sound frame becomes a set value regardless of the signal strength in the original state. Will be done.

〔数式20〕
Z(1,p)=Zo/[Σj=m,…,M-1{A(1,j,p)2+B(1,j,p)2}]1/2
Z(2,p)=Zo/[Σj=m,…,M-1{A(2,j,p)2+B(2,j,p)2}]1/2
[Formula 20]
Z (1, p) = Zo / [Σ j = m,..., M−1 {A (1, j, p) 2 + B (1, j, p) 2 }] 1/2
Z (2, p) = Zo / [Σ j = m,..., M−1 {A (2, j, p) 2 + B (2, j, p) 2 }] 1/2

j=m,…,M−1(周波数F1,...,F2に相当)およびp=0,...,5の範囲で、A(1,j,p)およびB(1,j,p)の各々の要素に対してZ(1,p)を乗じ、A(2,j,p)およびB(2,j,p)の各々の要素に対してZ(2,p)を乗じることにより、振幅変換を行う。以下説明において、A(1,j,p)、B(1,j,p)、A(2,j,p)、B(2,j,p)はこれらの振幅変換を行った値とする。   j = m,..., M-1 (corresponding to frequencies F1,..., F2) and p = 0,. . . , 5, each element of A (1, j, p) and B (1, j, p) is multiplied by Z (1, p) and A (2, j, p) and B ( The amplitude conversion is performed by multiplying each element of (2, j, p) by Z (2, p). In the following description, A (1, j, p), B (1, j, p), A (2, j, p), and B (2, j, p) are values obtained by performing these amplitude conversions. .

符号判定パラメータ算出手段140は、生成された複素周波数成分から所定の周波数範囲に相当するスペクトル集合を抽出し、各スペクトル集合の強度値を算出するとともに、この強度値を利用して符号判定パラメータを算出し、この符号判定パラメータの大小関係に基づいて、所定の状態であると判断する機能を有している。   The code determination parameter calculation unit 140 extracts a spectrum set corresponding to a predetermined frequency range from the generated complex frequency component, calculates an intensity value of each spectrum set, and uses this intensity value to calculate a code determination parameter. It has a function of calculating and determining that it is in a predetermined state based on the magnitude relationship of the code determination parameters.

まず、各スペクトル集合の基本強度値E(1,j,p)、E(2,j,p)を、以下の〔数式21〕に従った処理により算出する。尚、抽出時においては得られる〔数式21〕の左辺に対応する複素周波数成分の強度値のみ判定に用い、同式右辺に対応する複素数情報は使用しないため、実数専用の高速フーリエ変換手法を適用し、E(1,j,p)、E(2,j,p)を直接算出する方法をとることもできる。   First, the basic intensity values E (1, j, p) and E (2, j, p) of each spectrum set are calculated by processing according to the following [Equation 21]. At the time of extraction, only the intensity value of the complex frequency component corresponding to the left side of [Formula 21] obtained is used for determination, and the complex number information corresponding to the right side of the same formula is not used. It is also possible to directly calculate E (1, j, p) and E (2, j, p).

〔数式21〕
E(1,j,p)=A(1,j,p)2+B(1,j,p)2
E(2,j,p)=A(2,j,p)2+B(2,j,p)2
[Formula 21]
E (1, j, p) = A (1, j, p) 2 + B (1, j, p) 2
E (2, j, p) = A (2, j, p) 2 + B (2, j, p) 2

各スペクトル集合の強度値E1(p)、E2(p)、E3(p)、E4(p)、E5(p)、E6(p)、E7(p)、E8(p)を、算出した基本強度値E(1,j,p)、E(2,j,p)を用いて以下の〔数式22〕に基づいて算出する。   The calculated basic values of the intensity values E1 (p), E2 (p), E3 (p), E4 (p), E5 (p), E6 (p), E7 (p), and E8 (p) of each spectrum set The intensity values E (1, j, p) and E (2, j, p) are used to calculate based on the following [Equation 22].

〔数式22〕
E1(p)=Σj=m,…,m+G-1E(1,j,p)
E2(p)=Σj=m,…,m+G-1E(2,j,p)
E3(p)=Σj=m+G,…,m+2G-1E(1,j,p)
E4(p)=Σj=m+G,…,m+2G-1E(2,j,p)
E5(p)=Σj=2m,…,2m+2G-1E(1,j,p)
E6(p)=Σj=2m,…,2m+2G-1E(2,j,p)
E7(p)=Σj=2m+2G,…,2m+4G-1E(1,j,p)
E8(p)=Σj=2m+2G,…,2m+4G-1E(2,j,p)
[Formula 22]
E1 (p) = Σ j = m,..., M + G-1 E (1, j, p)
E2 (p) = Σ j = m, ..., m + G-1 E (2, j, p)
E3 (p) = Σ j = m + G,..., M + 2G-1 E (1, j, p)
E4 (p) = Σ j = m + G,..., M + 2G-1 E (2, j, p)
E5 (p) = Σj = 2m, ..., 2m + 2G-1 E (1, j, p)
E6 (p) = Σ j = 2m, ..., 2m + 2G-1 E (2, j, p)
E7 (p) = Σ j = 2m + 2G, ..., 2m + 4G-1 E (1, j, p)
E8 (p) = Σ j = 2m + 2G, ..., 2m + 4G-1 E (2, j, p)

結局〔数式21〕〔数式22〕により、各スペクトル集合の強度値E1(p)、E2(p)、E3(p)、E4(p)、E5(p)、E6(p)、E7(p)、E8(p)が算出されることになる。   After all, according to [Equation 21] and [Equation 22], the intensity values E1 (p), E2 (p), E3 (p), E4 (p), E5 (p), E6 (p), E7 (p) ), E8 (p) is calculated.

また、符号判定パラメータ算出手段140は、強度値E1(p)、E2(p)、E3(p)、E4(p)、E5(p)、E6(p)、E7(p)、E8(p)を用いて、符号判定パラメータCを算出する。以下の〔数式23〕に従った処理を実行することにより、候補符号Bについて仮判定するとともに、符号判定パラメータCを算出する。   In addition, the sign determination parameter calculation means 140 has intensity values E1 (p), E2 (p), E3 (p), E4 (p), E5 (p), E6 (p), E7 (p), E8 (p ) Is used to calculate the sign determination parameter C. By executing the processing according to the following [Equation 23], the candidate code B is provisionally determined and the code determination parameter C is calculated.

〔数式23〕
1)E1(p)・E5(p)>E2(p)・E6(p)かつE4(p)・E8(p)>E3(p)・E7(p)の場合
B=0と仮判定、
C=E1(p)・E5(p)・{E4(p)・E8(p)−E2(p)・E6(p)・E3(p)・E7(p)}/{E1(p)・E5(p)・E4(p)・E8(p)+E2(p)・E6(p)・E3(p)・E7(p)}
2)E2(p)・E6(p)>E1(p)・E5(p)かつE3(p)・E7(p)>E4(p)・E8(p)の場合
B=1と仮判定、
C={E2(p)・E6(p)・E3(p)・E7(p)−E1(p)・E5(p)・E4(p)・E8(p)}/{E1(p)・E5(p)・E4(p)・E8(p)+E2(p)・E6(p)・E3(p)・E7(p)}
3)E1(p)・E5(p)・E4(p)・E8(p)>E2(p)・E6(p)・E3(p)・E7(p)の場合
B=0と仮判定、
C={E1(p)・E5(p)・E4(p)・E8(p)−E2(p)・E6(p)・E3(p)・E7(p)}/{E1(p)・E5(p)・E4(p)・E8(p)+E2(p)・E6(p)・E3(p)・E7(p)}
4)上記1)〜3)以外の場合
B=1と仮判定、
C={E2(p)・E6(p)・E3(p)・E7(p)−E1(p)・E5(p)・E4(p)・E8(p)}/{E1(p)・E5(p)・E4(p)・E8(p)+E2(p)・E6(p)・E3(p)・E7(p)}
[Formula 23]
1) In the case of E1 (p) · E5 (p)> E2 (p) · E6 (p) and E4 (p) · E8 (p)> E3 (p) · E7 (p)
C = E1 (p) .E5 (p). {E4 (p) .E8 (p) -E2 (p) .E6 (p) .E3 (p) .E7 (p)} / {E1 (p). E5 (p), E4 (p), E8 (p) + E2 (p), E6 (p), E3 (p), E7 (p)}
2) When E2 (p) · E6 (p)> E1 (p) · E5 (p) and E3 (p) · E7 (p)> E4 (p) · E8 (p)
C = {E2 (p) .E6 (p) .E3 (p) .E7 (p) -E1 (p) .E5 (p) .E4 (p) .E8 (p)} / {E1 (p). E5 (p), E4 (p), E8 (p) + E2 (p), E6 (p), E3 (p), E7 (p)}
3) In the case of E1 (p), E5 (p), E4 (p), E8 (p)> E2 (p), E6 (p), E3 (p), E7 (p)
C = {E1 (p) .E5 (p) .E4 (p) .E8 (p) -E2 (p) .E6 (p) .E3 (p) .E7 (p)} / {E1 (p). E5 (p), E4 (p), E8 (p) + E2 (p), E6 (p), E3 (p), E7 (p)}
4) In cases other than the above 1) to 3) B = 1 and provisional determination,
C = {E2 (p) .E6 (p) .E3 (p) .E7 (p) -E1 (p) .E5 (p) .E4 (p) .E8 (p)} / {E1 (p). E5 (p), E4 (p), E8 (p) + E2 (p), E6 (p), E3 (p), E7 (p)}

符号出力手段150は、1つの基準フレームに対応する音響フレーム(基準フレームおよび時間軸シフトフレーム)の中から最適な時間軸シフトであると判断されるものを判断し、その音響フレームの状態に対応する符号を出力する機能を有している。符号判定パラメータ算出手段140と符号出力手段150により符号化手段が構成される。付加情報抽出手段160は、符号出力手段150により出力された2値の配列をNhビット単位で抽出し、符号逆変換テーブルを参照することにより、Nwビットの登録順位に変換し、さらに所定の規則により変換して意味のある付加情報として抽出する機能を有している。音響フレーム保持手段170は、チャンネルごとのAタイプ、Bタイプそれぞれについて連続する2個の基準フレーム(チャンネルごとに計4個の基準フレーム)を保持可能なバッファメモリである。変換テーブル作成手段180は、図1に示した変換テーブル作成手段80や、上述の変換テーブル作成装置と同様、Nwビットが取り得る2のNw乗個の全ての登録順位に対して、各々Nh通りの巡回ビットパターン同士で互いにハミング距離が少なくとも3以上となるNh(>Nw)ビットのハミング符号を割り当てることにより、Nwビットの登録順位とNhビットのハミング符号が対応付けられた符号変換テーブルを作成する機能を有している。図11に示した各構成手段は、現実には情報処理機能を有する小型のコンピュータおよびその周辺機器等のハードウェアに専用のプログラムを搭載することにより実現される。特に、本発明の目的をより簡易に達成するためには、携帯電話機等の携帯型端末装置をハードウェアとして用いることが望ましい。なお、本明細書では、携帯電話機等の携帯型端末装置であっても、演算処理機能を有するものは、コンピュータの一種と考えるものとする。   The code output means 150 determines which one of the sound frames (reference frame and time-axis shift frame) corresponding to one reference frame is determined to be the optimum time-axis shift, and corresponds to the state of the sound frame. The function to output the code to The code determination parameter calculation unit 140 and the code output unit 150 constitute an encoding unit. The additional information extraction unit 160 extracts the binary array output by the code output unit 150 in units of Nh bits, refers to the code inverse conversion table, converts it to the registration rank of Nw bits, and further, a predetermined rule It has a function to extract as additional information having meaning after conversion by the above. The acoustic frame holding means 170 is a buffer memory capable of holding two consecutive reference frames (a total of four reference frames for each channel) for each of the A type and B type for each channel. Similarly to the conversion table creation unit 80 shown in FIG. 1 and the above-described conversion table creation device, the conversion table creation unit 180 has Nh ways of registration for all the 2 Nw power registration orders that Nw bits can take. Nh (> Nw) bits of Hamming codes that have a Hamming distance of at least 3 or more among the cyclic bit patterns of each other, thereby creating a code conversion table in which Nw bit registration ranks are associated with Nh bits of Hamming codes It has a function to do. Each component shown in FIG. 11 is actually realized by mounting a dedicated program on hardware such as a small computer having an information processing function and its peripheral devices. In particular, in order to more easily achieve the object of the present invention, it is desirable to use a portable terminal device such as a cellular phone as hardware. Note that in this specification, even a portable terminal device such as a cellular phone has an arithmetic processing function as a kind of computer.

(3.2.抽出装置の処理動作)
次に、図11に示した音響信号からの情報の抽出装置の処理動作について説明する。抽出装置を起動すると、まず、変換テーブル作成手段180が、符号変換テーブルを作成する。変換テーブル作成手段180による符号変換テーブルの作成は、変換テーブル作成手段80や、上述の変換テーブル作成装置と同様、図4のフローチャートに従った処理により行われ、図12に示したような符号変換テーブルが得られることになる。本符号変換テーブルは、8ビットの各基準符号に対応して16ビット符号のハミング符号と巡回ビットパターンを含め、最大16通りの巡回符号が定義されている。
(3.2. Processing operation of extraction device)
Next, the processing operation of the apparatus for extracting information from the acoustic signal shown in FIG. 11 will be described. When the extraction device is activated, first, the conversion table creation means 180 creates a code conversion table. The creation of the code conversion table by the conversion table creation means 180 is performed by the process according to the flowchart of FIG. 4 in the same manner as the conversion table creation means 80 and the above-described conversion table creation device, and the code conversion as shown in FIG. A table will be obtained. In this code conversion table, a maximum of 16 types of cyclic codes are defined including a 16-bit code Hamming code and a cyclic bit pattern corresponding to each 8-bit reference code.

続いて、符号変換テーブル作成処理後の、抽出装置の処理動作について説明する。本発明に係る抽出装置は、図12の符号変換テーブルに基づきエラー検出を行い、本表に掲載されていないビットパターンを抽出した場合は全てエラーと判断するものとする。抽出装置の処理動作を、図13のフローチャートに従って説明する。まず、本装置では、時間軸シフト判定テーブルS(p)、時間軸シフト決定ログ、時間軸シフト確定フラグ、ビットカウンタを初期化する(S200)。時間軸シフト判定テーブルS(p)は、時間軸シフトを判定するためのテーブルであり、pは0〜5の整数値をとる。初期値はS(p)=0に設定されている。時間軸シフト決定ログは、1つの基準フレームと5つの時間軸シフトフレームの組ごとに、決定された時間軸シフトすなわち時間軸シフト値pを記録していくものであり、初期状態では0が設定されている。時間軸シフト確定フラグは、時間軸シフトが確定しているかどうかを示すフラグであり、初期状態ではOffに設定されている。ビットカウンタについては初期値として0を設定する。   Next, the processing operation of the extraction device after the code conversion table creation process will be described. The extraction apparatus according to the present invention performs error detection based on the code conversion table of FIG. 12, and all bit patterns not listed in this table are determined to be errors. The processing operation of the extraction device will be described with reference to the flowchart of FIG. First, in this apparatus, a time axis shift determination table S (p), a time axis shift determination log, a time axis shift determination flag, and a bit counter are initialized (S200). The time axis shift determination table S (p) is a table for determining a time axis shift, and p takes an integer value of 0 to 5. The initial value is set to S (p) = 0. The time axis shift determination log records the determined time axis shift, that is, the time axis shift value p for each set of one reference frame and five time axis shift frames, and is set to 0 in the initial state. Has been. The time axis shift confirmation flag is a flag indicating whether or not the time axis shift is confirmed, and is set to Off in the initial state. For the bit counter, 0 is set as an initial value.

このように、符号変換テーブルが作成され、初期値が設定されている状態で、利用者が流れている音楽について、その楽曲名等の属性情報を知りたいと思った場合、まず、抽出装置に対して、抽出装置としての起動の指示を行う。これは、例えば、抽出装置を携帯電話機等の携帯端末で実現している場合は、所定のボタンを操作することにより実行できる。抽出装置は、指示が入力されると、音響信号入力手段100が、流れている音楽を録音し、デジタル化してデジタル音響信号として入力する。具体的には、無指向性マイクロフォン(または指向性マイクロフォンの一方のチャンネル)から入力される音声を、A/D変換器によりデジタル化する処理を行うことになる。   In this way, when the code conversion table is created and the initial value is set, if the user wants to know the attribute information such as the song name of the music that is playing, first, the extraction device On the other hand, an activation instruction as an extraction device is given. For example, this can be executed by operating a predetermined button when the extraction device is realized by a mobile terminal such as a mobile phone. When an instruction is input to the extraction device, the acoustic signal input unit 100 records the flowing music, digitizes it, and inputs it as a digital acoustic signal. More specifically, the audio input from the omnidirectional microphone (or one channel of the directional microphone) is digitized by the A / D converter.

続いて、基準フレーム獲得手段110が、音響信号入力手段100から入力された音響信号から、所定数のサンプルで構成される音響フレームを基準フレームとして抽出する(S201)。具体的には、Aタイプ、Bタイプについての基準フレームを抽出して音響フレーム保持手段170に読み込むことになる。基準フレーム獲得手段110が基準フレームとして読み込む1音響フレームのサンプル数は、図1に示した音響フレーム読込手段10で設定されたものと同一にする必要がある。したがって、本実施形態の場合、基準フレーム獲得手段110は、Aタイプ、Bタイプについてそれぞれ4096サンプルずつ、順次基準フレームとして読み込んでいくことになる。音響フレーム保持手段170には、各チャンネルについて、Aタイプ、Bタイプ2個ずつの基準フレーム、すなわち2.5Nサンプルが格納可能となっており、新しい基準フレームが読み込まれると、古い基準フレームを破棄するようになっている。したがって、音響フレーム保持手段170には、常に基準フレーム4個分(連続する10240サンプル)が格納されていることになる。   Subsequently, the reference frame acquisition unit 110 extracts an acoustic frame including a predetermined number of samples from the acoustic signal input from the acoustic signal input unit 100 as a reference frame (S201). Specifically, reference frames for A type and B type are extracted and read into the acoustic frame holding means 170. The number of samples of one acoustic frame read as the reference frame by the reference frame acquisition unit 110 needs to be the same as that set by the acoustic frame reading unit 10 shown in FIG. Therefore, in the present embodiment, the reference frame acquisition unit 110 sequentially reads 4096 samples for each of the A type and B type as reference frames. The acoustic frame holding unit 170 can store two reference frames of A type and B type for each channel, that is, 2.5N samples. When a new reference frame is read, the old reference frame is discarded. It is supposed to be. Therefore, the sound frame holding means 170 always stores four reference frames (continuous 10240 samples).

抽出装置で処理する音響フレームは、先頭から途切れることなく隣接して設定される基準フレームと、この基準フレームと時間軸をシフトした時間軸シフトフレームとに分けることができる。基準フレームについては、Aタイプの音響フレームとBタイプの音響フレームが、2048サンプルずつ重複している場合、最初の基準フレームとしてサンプル番号1からサンプル番号4096までを設定したら、次の基準フレームは、サンプル番号2049からサンプル番号6144、さらに次の基準フレームは、サンプル番号4097からサンプル番号8192、さらに次の基準フレームは、サンプル番号6145からサンプル番号10240、というように途切れることなく設定される。そして、各基準フレームについて、1/6フレーム(約683サンプル)ずつ移動した5個の時間軸シフトフレームを設定する。例えば、最初の基準フレームについては、サンプル番号683、1366、2049、2732、3413から始まる4096のサンプルで構成される5個の時間軸シフトフレームが設定されることになる。続いて、周波数変換手段130、符号判定パラメータ算出手段140が、読み込んだ各音響フレームについて、時間軸シフトを特定した後、埋め込まれている情報を判定し、対応する符号を出力する(S202)。出力される情報の形式は、付加情報が埋め込まれる場合に対応する値1、値2の2通りの形式となる。   The sound frame processed by the extraction device can be divided into a reference frame that is set adjacently without interruption from the beginning, and a time axis shift frame in which the reference frame and the time axis are shifted. As for the reference frame, when the A type sound frame and the B type sound frame overlap each other by 2048 samples, after setting sample number 1 to sample number 4096 as the first reference frame, the next reference frame is Sample number 2049 to sample number 6144, the next reference frame is set without interruption, such as sample number 4097 to sample number 8192, and the next reference frame is set to sample number 6145 to sample number 10240. Then, for each reference frame, five time axis shift frames moved by 1/6 frame (about 683 samples) are set. For example, for the first reference frame, five time-axis shift frames configured with 4096 samples starting from sample numbers 683, 1366, 2049, 2732, and 3413 are set. Subsequently, the frequency conversion unit 130 and the code determination parameter calculation unit 140 specify the time axis shift for each read sound frame, determine embedded information, and output a corresponding code (S202). The format of the information to be output has two formats of value 1 and value 2 corresponding to the case where the additional information is embedded.

ここで、ステップS202の時間軸シフト確定および符号判定の詳細を図14のフローチャートに従って説明する。まず、時間軸シフト確定フラグがOnであるかOffであるかの確認を行う(S301)。時間軸シフト確定フラグがOnである場合は、時間軸シフト確定処理(S303〜S309)を行わず、符号判定処理のみを行う(S302)。ただし、初期状態では時間軸シフトは確定しておらず、時間軸シフト確定フラグがOffとなっているので、候補符号テーブルB(p)の初期化を行う(S303)。候補符号テーブルB(p)は、1つの基準フレームおよび5個の時間軸シフトフレームを特定するp=0〜5の時間軸シフト値および、この6個の音響フレームの状態から得られる2値の符号を記録するものである。   Here, details of time axis shift confirmation and sign determination in step S202 will be described with reference to the flowchart of FIG. First, it is confirmed whether the time axis shift confirmation flag is On or Off (S301). When the time axis shift confirmation flag is On, the time axis shift confirmation process (S303 to S309) is not performed, and only the sign determination process is performed (S302). However, since the time axis shift is not fixed in the initial state and the time axis shift determination flag is Off, the candidate code table B (p) is initialized (S303). Candidate code table B (p) includes a time base shift value of p = 0 to 5 that specifies one reference frame and five time axis shift frames, and binary values obtained from the states of these six sound frames. A code is recorded.

続いて、符号判定パラメータ算出手段140は、符号判定処理を行う(S302)。ここで、符号判定処理の詳細を図15に示す。まず、周波数変換手段130が、読み込んだ各音響フレームに対して、周波数変換を行って各窓スペクトルを得る(S401)。具体的には、上記〔数式18〕〔数式19〕に従った処理を実行し、変換データの実部A(1,j,p)、虚部B(1,j,p)、実部A(2,j,p)、虚部B(2,j,p)を得る。   Subsequently, the code determination parameter calculation unit 140 performs a code determination process (S302). Details of the code determination process are shown in FIG. First, the frequency conversion means 130 performs frequency conversion on each read sound frame to obtain each window spectrum (S401). Specifically, the processing according to the above [Equation 18] and [Equation 19] is executed, and the real part A (1, j, p), imaginary part B (1, j, p), real part A of the converted data is executed. (2, j, p) and imaginary part B (2, j, p) are obtained.

S401の処理については、実際には、Aタイプ音響フレームについて周波数変換を行った後、N/2サンプルだけシフトしてBタイプ音響フレームについて周波数変換を行う。これらの変換データA(2,j,p)、B(2,j,p)、A(2,j,p)、B(2,j,p)に対して、上記〔数式20〕に従った処理を実行し、振幅変換を行う(S402)。   Regarding the processing of S401, in practice, after frequency conversion is performed on the A type sound frame, the frequency conversion is performed on the B type sound frame after being shifted by N / 2 samples. For these conversion data A (2, j, p), B (2, j, p), A (2, j, p), B (2, j, p), the above [Equation 20] is followed. The process is executed to perform amplitude conversion (S402).

上記周波数変換手段130における処理により、周波数に対応した成分であるスペクトルで表現されたフレームスペクトルが得られる。続いて、符号判定パラメータ算出手段140は、符号判定パラメータCを上述のようにして算出した後、符号判定パラメータCを用いて、変更対象周波数帯の成分の状態がどのような状態であるか、すなわち、1ビットの値としてどのような値が埋め込まれていたかを判断する処理を行う(S403)。具体的には、上記〔数式21〕〜〔数式23〕に従った処理を実行して、符号判定パラメータCを算出する。候補符号Bを候補符号テーブルB(p)に設定する。   By the processing in the frequency conversion means 130, a frame spectrum expressed by a spectrum that is a component corresponding to the frequency is obtained. Subsequently, after the code determination parameter calculation unit 140 calculates the code determination parameter C as described above, the code determination parameter C is used to determine what state the component of the frequency band to be changed is, That is, a process of determining what value is embedded as a 1-bit value is performed (S403). Specifically, the code determination parameter C is calculated by executing the processing according to the above [Equation 21] to [Equation 23]. Candidate code B is set in candidate code table B (p).

S403の具体的な処理手順としては、まず、上記〔数式21〕を利用して基本強度値E(1,j,p)、E(2,j,p)を算出した後、上記〔数式22〕を利用してE1(p)、E2(p)、E3(p)、E4(p)を算出し、上記〔数式23〕に従って候補符号Bおよび符号判定パラメータCを算出する処理を行う。   As a specific processing procedure of S403, first, the basic intensity values E (1, j, p) and E (2, j, p) are calculated using the above [Expression 21], and then the above [Expression 22]. ], E1 (p), E2 (p), E3 (p), E4 (p) are calculated, and the candidate code B and the code determination parameter C are calculated according to the above [Equation 23].

また、上記判定の結果、時間軸シフト値pにおける候補符号テーブルB(p)に値1、値2のいずれかを出力した場合には、さらに、以下の〔数式24〕に従って時間軸シフト判定テーブルS(p)の更新を行う(S404)。   As a result of the above determination, when either value 1 or value 2 is output to the candidate code table B (p) for the time-axis shift value p, the time-axis shift determination table according to the following [Equation 24]. S (p) is updated (S404).

〔数式24〕
S(p)←S(p)+C
[Formula 24]
S (p) ← S (p) + C

ここで、図14のフローチャートに戻って、符号判定パラメータ算出手段140は、候補符号テーブルB(p)に、時間軸シフト値pにおいて符号判定処理(S302)で仮決定された符号を保存する(S304)。   Returning to the flowchart of FIG. 14, the code determination parameter calculation unit 140 stores the code temporarily determined in the code determination process (S302) in the time axis shift value p in the candidate code table B (p) ( S304).

続いて、全ての時間軸シフト値pに対応する処理を終えたかどうかを判定する(S305)。これは、ある基準フレームに対して全ての時間軸シフトフレームの処理を行ったかどうかを判定している。本実施形態では、pが0〜5までの値をとるので、6回分処理していない場合は、処理していた音響フレームから所定サンプル数ずらして、時間軸シフトの異なる音響フレームを設定し、S302に戻って処理を繰り返す。なお、p=0の場合が基準フレームであり、p=1〜5の場合が時間軸シフトフレームである。全ての時間軸シフト値pに対応する処理を終えた場合は、時間軸シフト判定テーブルS(p)の値が最大となる時間軸シフト値pmaxに対応する時間軸シフトが最適時間軸シフトであると判定し、候補符号テーブルB(p)に記録されている符号B(pmax)を出力する(S306)。   Subsequently, it is determined whether or not the processing corresponding to all the time axis shift values p has been completed (S305). This determines whether all time-axis shift frames have been processed for a certain reference frame. In the present embodiment, since p takes a value from 0 to 5, if processing is not performed 6 times, a predetermined number of samples are shifted from the processed acoustic frame, and an acoustic frame having a different time axis shift is set. The process returns to S302 and is repeated. The case where p = 0 is a reference frame, and the case where p = 1 to 5 is a time axis shift frame. When the processing corresponding to all the time axis shift values p is completed, the time axis shift corresponding to the time axis shift value pmax that maximizes the value of the time axis shift determination table S (p) is the optimum time axis shift. And the code B (pmax) recorded in the candidate code table B (p) is output (S306).

続いて、時間軸シフト決定ログの更新を行う(S307)。時間軸シフト決定ログとは、1つの基準フレームと5つの時間軸シフトフレームの組ごとに、決定された時間軸シフトすなわち時間軸シフト値pを記録するものである。そして、時間軸シフト決定ログを参照して、時間軸シフトが過去所定回数同一であったかどうかを判断する(S308)。本実施形態では、この回数を10回としている。時間軸シフトが過去所定回数同一であった場合には、時間軸シフト確定フラグをOnに設定する(S309)。これにより、同一時間軸シフトが所定回数続いた場合には、最適時間軸シフトはpmaxとなる可能性が高いため、時間軸シフト確定処理(S303〜S309)を行わず、時間軸シフト値p=pmaxに対してのみ符号判定処理(S302)を行うことになる。   Subsequently, the time axis shift determination log is updated (S307). The time axis shift determination log is for recording the determined time axis shift, that is, the time axis shift value p for each set of one reference frame and five time axis shift frames. Then, with reference to the time axis shift determination log, it is determined whether or not the time axis shift has been the same for a predetermined number of times in the past (S308). In the present embodiment, this number is 10 times. If the time axis shift has been the same a predetermined number of times in the past, the time axis shift confirmation flag is set to On (S309). As a result, when the same time-axis shift continues for a predetermined number of times, the optimal time-axis shift is likely to be pmax. Therefore, the time-axis shift determination process (S303 to S309) is not performed, and the time-axis shift value p = The code determination process (S302) is performed only for pmax.

再び図13のフローチャートに戻って説明する。時間軸シフト確定および符号出力が行なわれたら、出力された符号の値に対応する1ビットをバッファに保存する(S203)。次に、ビットカウンタを“1”だけカウントアップする(S204)。   Returning to the flowchart of FIG. When the time axis shift is confirmed and the code is output, 1 bit corresponding to the output code value is stored in the buffer (S203). Next, the bit counter is incremented by “1” (S204).

次に、ビットカウンタが15以下であるか16以上であるかを判断する(S205)。ビットカウンタが15以下の場合は、S201に戻って、次のAタイプ、Bタイプの基準フレームを抽出する処理を行う。   Next, it is determined whether the bit counter is 15 or less or 16 or more (S205). If the bit counter is 15 or less, the process returns to S201 to perform processing for extracting the next A type and B type reference frames.

ビットカウンタが16以上である場合は、バッファに保存された16ビットのビット配列のデコードを行う(S206)。これは16ビットのビットパターンを図12の符号変換テーブルに掲載されている全ての基準符号に対応する全ての巡回ビットパターンと照合する処理を行い、完全一致するビットパターンに対応する8ビット基準符号を探索する。   If the bit counter is 16 or more, the 16-bit bit array stored in the buffer is decoded (S206). This is a process in which a 16-bit bit pattern is checked against all cyclic bit patterns corresponding to all the reference codes listed in the code conversion table of FIG. 12, and an 8-bit reference code corresponding to a completely matching bit pattern is obtained. Explore.

巡回ハミング符号との最小のハミング距離となるビットパターンを探索し、得られた最小ハミング距離が0か、1以上かを判断する(S207)。S207において最小ハミング距離が1以上(完全一致するビットパターン無し)と判断された場合は、S201に戻って、次の基準フレームを抽出する処理を行う。   A bit pattern that is the minimum hamming distance with the cyclic hamming code is searched, and it is determined whether the obtained minimum hamming distance is 0, 1 or more (S207). If it is determined in S207 that the minimum hamming distance is 1 or more (no bit pattern that is completely matched), the process returns to S201 to perform processing for extracting the next reference frame.

S207において最小ハミング距離が0と判断された場合は、付加情報抽出手段160が、8ビット基準符号を出力する(S208)。   If it is determined in S207 that the minimum Hamming distance is 0, the additional information extraction unit 160 outputs an 8-bit reference code (S208).

図13に示す処理を各基準フレームに対して実行することにより、付加情報が抽出されることになる。S201において全ての基準フレームが抽出されたと判断された場合には、処理を終了する。   By executing the processing shown in FIG. 13 for each reference frame, additional information is extracted. If it is determined in S201 that all reference frames have been extracted, the process ends.

上記S208の処理において、付加情報抽出手段160は、まず、符号出力手段150により出力された値を、所定の規則により変換して意味のある付加情報として抽出する。所定の規則としては、情報を埋め込む者が意図した情報が受け取った者に認識可能な状態にすることができるものであれば、さまざまな規則が採用できるが、本実施形態では、ASCIIコードを採用している。すなわち、付加情報抽出手段160は、符号判定パラメータ算出手段140が判定し、符号出力手段150から出力される符号から得られるビット値の配列を1バイト(8ビット)単位で認識し、これをASCIIコードに従って文字情報を認識する。このようにして得られた文字情報は、表示装置(図示省略)の画面に表示出力される。   In the process of S208, the additional information extraction unit 160 first converts the value output by the code output unit 150 according to a predetermined rule and extracts it as meaningful additional information. As the predetermined rule, various rules can be adopted as long as the information intended by the person who embeds the information can be recognized by the recipient, but in this embodiment, the ASCII code is adopted. doing. That is, the additional information extraction unit 160 recognizes the bit value array obtained from the code determined by the code determination parameter calculation unit 140 and output from the code output unit 150 in units of 1 byte (8 bits), and recognizes this as ASCII. Recognizes character information according to the code. The character information thus obtained is displayed and output on a screen of a display device (not shown).

従って、埋め込み装置により音響信号に、その楽曲の曲名やアーチスト等の属性情報を文字情報として埋め込んでおけば、利用者は、その音楽が流れているのを聞いて、その曲名やアーチストを知りたいと思ったときに、抽出装置として機能する自身の携帯端末に所定の操作を行えば、自身の携帯端末の画面に曲名やアーチスト等の属性情報が文字情報として表示されることになる。   Therefore, if the embedding device embeds the attribute information such as the song title or artist in the sound signal as the character information, the user wants to know the song title or artist by listening to the music being played. If a predetermined operation is performed on the mobile terminal that functions as the extraction device, attribute information such as a song title and an artist is displayed as character information on the screen of the mobile terminal.

(3.3.時間軸シフト補正処理について)
上記のように、抽出時には、埋め込み時に埋め込んだ音響フレームに対応して、音響信号を読み込むことができるとは限らない。そこで、音響フレームの時間軸をシフトして複数通り(本実施形態では6通り)で読み込み、その中で最適な時間軸シフトを決定し、その時間軸シフトで特定される音響フレームに対応する符号を出力することにしている。例えば、6通りで読み込む場合、先頭の音響フレームは、本来サンプル番号1〜4096のサンプルであるが、サンプル番号1、683、1366、2049、2732、3413から始まる4096のサンプルで構成される6個の各音響フレームに対して処理を行い、最適な音響フレームに対応する符号を出力することになる。なお、図14のフローチャートを用いて説明したように、本実施形態では、同一時間軸シフトが所定回数連続した場合には、それ以降はその時間軸シフトを確定したものとして処理を行う。
(3.3. Time axis shift correction processing)
As described above, at the time of extraction, it is not always possible to read an acoustic signal corresponding to the acoustic frame embedded at the time of embedding. Therefore, the time axis of the acoustic frame is shifted and read in a plurality of ways (six in this embodiment), an optimum time axis shift is determined, and a code corresponding to the acoustic frame specified by the time axis shift is determined. Is to be output. For example, in the case of reading in six ways, the top acoustic frame is originally a sample of sample numbers 1 to 4096, but six pieces composed of 4096 samples starting from sample numbers 1, 683, 1366, 2049, 2732, and 3413 Are processed, and a code corresponding to the optimum acoustic frame is output. As described with reference to the flowchart of FIG. 14, in the present embodiment, when the same time axis shift continues for a predetermined number of times, the process is performed after that time axis shift is determined.

(4.信号成分が小さい場合にさらに確実に情報の埋め込みを行う手法)
ここまでの説明のように、本発明では、元の信号成分に無音に近い部分があっても、情報の埋め込みを可能とするものである。このままでも、もちろん十分であるが、本発明においては、より確実に情報を埋め込むような処理を付加することも可能である。具体的には、周波数変換を行う前に、音響信号に聴取困難な微弱な白色ノイズを重畳させる。
(4. Method of embedding information more reliably when the signal component is small)
As described so far, according to the present invention, information can be embedded even if the original signal component has a portion close to silence. Of course, this is sufficient, but in the present invention, it is possible to add a process for embedding information more reliably. Specifically, before performing the frequency conversion, weak white noise that is difficult to hear is superimposed on the acoustic signal.

この場合、図1に示した音響フレーム読込手段10は、所定数のサンプルを1音響フレームとして読み込んだ後、所定の振幅範囲で所定サンプル数単位で同一値を加算または減算する機能を有している。本実施形態では、左チャンネル信号Xl(i)、右チャンネル信号Xr(i)(i=0,…,N−1)に対して、−32〜+32の振幅範囲(Xl(i)、Xr(i)のとり得る値が−32768〜+32767の場合)で一様乱数Hを発生させ、K(本実施形態ではK=5)個のサンプル間は同一値Hを用いて以下の〔数式25〕に示すような処理を実行し、Xl(i)、Xr(i)の値を更新する。   In this case, the acoustic frame reading means 10 shown in FIG. 1 has a function of adding or subtracting the same value in units of a predetermined number of samples within a predetermined amplitude range after reading a predetermined number of samples as one acoustic frame. Yes. In this embodiment, with respect to the left channel signal Xl (i) and the right channel signal Xr (i) (i = 0,..., N−1), an amplitude range of −32 to +32 (Xl (i), Xr ( i) is a value between −32768 to +32767) and a uniform random number H is generated, and the same value H is used between K (K = 5 in the present embodiment) samples as shown in the following [Equation 25]. The processing as shown in FIG. 5 is executed to update the values of Xl (i) and Xr (i).

〔数式25〕
Xl(i)←Xl(i)+H
Xr(i)←Xr(i)−H
[Formula 25]
Xl (i) ← Xl (i) + H
Xr (i) ← Xr (i) -H

すなわち、上記〔数式25〕に従った処理をNサンプルに渡って実行することにより、1つの音響フレームに白色ノイズが発生されることになる。この白色ノイズの発生処理は、図6のフローチャートにおいては、S103、S104の音響フレーム抽出処理の直後に行われることになる。   That is, white noise is generated in one acoustic frame by executing the processing according to the above [Equation 25] over N samples. This white noise generation process is performed immediately after the acoustic frame extraction process of S103 and S104 in the flowchart of FIG.

上記のように、白色ノイズを発生させた場合であっても、抽出側の、音響信号からの情報の抽出装置の構成は図11と同一であり、処理動作は図13〜図15のフローチャートに従ったものと同一である。   As described above, even when white noise is generated, the configuration of the extraction device for extracting information from the acoustic signal on the extraction side is the same as that in FIG. 11, and the processing operation is shown in the flowcharts of FIGS. It is the same as followed.

(5.単一音脈分凝)
上記実施形態では、二重音脈分凝の場合を例にとって説明したが、本発明は、当然単一音脈分凝にも適用することができる。単一音脈分凝の場合、上記実施形態における変更対象周波数帯の上位周波数帯に対してのみ処理を行うことにより、情報の埋め込み、抽出処理を実現することができる。
(5. Single sound content)
In the above-described embodiment, the case of double sound wave aggregation has been described as an example, but the present invention can naturally be applied to single sound wave condensation. In the case of a single tone distribution, information embedding and extraction processing can be realized by performing processing only on the upper frequency band of the change target frequency band in the above embodiment.

(6.周波数範囲の変形例)
本実施形態では抽出精度を向上させるため、電話帯域全体に埋め込み領域を拡大する方法を採用したが、再生品質を向上させるため、下位の変更対象周波数帯の幅を上記実施形態より狭くすることも可能である。具体的には、変更対象周波数帯の下限F1を0.85kHzとする。この場合、上位周波数帯は1.7kHz〜3.4kHz、下位周波数帯は0.85kHz〜1.7kHzとなる。ただし、実験の結果、前記電話帯域全体に埋め込み領域を設定した方法と比較し、品質上の顕著な差は無く、むしろ抽出精度の低下のデメリットの方が大きく、結果的に優位性は見られなかった。また出願人は、電話帯域全体に埋め込み領域を設定する際、上記実施形態で示した方法ではなく、下位周波数帯を0.85kHz〜1.7kHzに狭くし、その下に、さらに独立した周波数帯0.34kHz〜0.85kHzを三重に設置する手法についても実験したが、比較の結果、下位周波数帯を0.34kHz〜1.7kHzの1本にまとめる方が雑音の抑圧効果が高く、感度も2倍程度に拡大されることがわかった。低音部は信号エネルギー成分が大きいため、わずかな拡大により感度が顕著に改善されたのだと思われる。結局、周波数方向に4つの周波数領域に分け、上位周波数帯と下位周波数帯の幅を近づけ、二重の音脈分凝を形成する手法が、人間の聴覚に対して、最もノイズを抑制できることがわかった。
(6. Modified examples of frequency range)
In this embodiment, in order to improve the extraction accuracy, a method of expanding the embedding area in the entire telephone band is adopted. However, in order to improve reproduction quality, the width of the lower change target frequency band may be narrower than that in the above embodiment. Is possible. Specifically, the lower limit F1 of the change target frequency band is set to 0.85 kHz. In this case, the upper frequency band is 1.7 kHz to 3.4 kHz, and the lower frequency band is 0.85 kHz to 1.7 kHz. However, as a result of the experiment, there is no significant difference in quality compared to the method in which the embedded area is set over the entire telephone band, but rather the disadvantage of a decrease in extraction accuracy is greater, and as a result, superiority is seen. There wasn't. In addition, when setting the embedding area in the entire telephone band, the applicant narrows the lower frequency band to 0.85 kHz to 1.7 kHz instead of the method shown in the above embodiment, and further separates the frequency band below it. Experiments were also conducted on a method of installing 0.34 kHz to 0.85 kHz in triplicate, but as a result of comparison, it is more effective to suppress noise by combining the lower frequency bands into one of 0.34 kHz to 1.7 kHz, and the sensitivity is also high. It was found that it was magnified about twice. The bass part has a large signal energy component, so it seems that the sensitivity was significantly improved by a slight enlargement. In the end, the method that divides the frequency range into four frequency regions and makes the upper and lower frequency bands close to each other to form a double sound pulse concentration can suppress the noise most for human hearing. all right.

(7.その他)
以上、本発明の好適な実施形態について限定したが、本発明は上記実施形態に限定されず、種々の変形が可能である。例えば、上記実施形態では、1音響フレームのサンプル数N=4096としたが、N=2048、1024、512等を設定するようにしても良い。これにより、同一時間あたりの音響フレーム数が、2倍、4倍、8倍となり、全体として2〜8倍の情報の埋め込みが可能となる。
(7. Others)
As mentioned above, although it limited about the suitable embodiment of the present invention, the present invention is not limited to the above-mentioned embodiment, and various modifications are possible. For example, in the above embodiment, the number of samples of one acoustic frame is N = 4096, but N = 2048, 1024, 512, etc. may be set. As a result, the number of sound frames per same time is doubled, quadrupled, and quadrupled, and 2 to 8 times of information can be embedded as a whole.

また、上記実施形態では、音響信号からの情報の抽出装置を、携帯電話機等の携帯型端末装置単体で実現した場合を例にとって説明したが、他のコンピュータと連携して実現するようにしても良い。具体的には、携帯型端末装置と専用コンピュータを無線通信可能に接続し、音響信号入力手段100〜音響フレーム保持手段170の構成要素のうち、演算負荷の大きいものは、専用コンピュータで処理する。例えば、音響信号入力手段100、基準フレーム獲得手段110、時間軸シフトフレーム設定手段120、付加情報抽出手段160、変換テーブル作成手段180を携帯型端末装置に備え、周波数変換手段130、符号判定パラメータ算出手段140、符号出力手段150、音響フレーム保持手段170を専用コンピュータに備えるようにして、必要な情報を両者間で通信するようにする。これにより、携帯型端末装置の処理性能が低い場合であっても高速な処理を行うことが可能となる。   In the above-described embodiment, the case where the device for extracting information from the acoustic signal is realized by a single mobile terminal device such as a mobile phone has been described as an example. However, the device may be realized in cooperation with other computers. good. Specifically, the portable terminal device and the dedicated computer are connected so as to be capable of wireless communication, and among the components of the acoustic signal input unit 100 to the acoustic frame holding unit 170, those having a large calculation load are processed by the dedicated computer. For example, the portable terminal device includes the acoustic signal input unit 100, the reference frame acquisition unit 110, the time axis shift frame setting unit 120, the additional information extraction unit 160, and the conversion table creation unit 180, and the frequency conversion unit 130 and the code determination parameter calculation. Means 140, code output means 150, and sound frame holding means 170 are provided in a dedicated computer so that necessary information can be communicated between them. This makes it possible to perform high-speed processing even when the processing performance of the portable terminal device is low.

また、上記実施形態では、2チャンネルのステレオ音響信号を利用した場合を例にとって説明したが、1チャンネルのモノラル音響信号を利用しても良い。この場合は、上記LチャンネルまたはRチャンネルのいずれか一方に対して行った処理を実行すれば良い。   In the above embodiment, a case where a two-channel stereo sound signal is used has been described as an example. However, a one-channel monaural sound signal may be used. In this case, the process performed on either the L channel or the R channel may be executed.

また、周波数成分変更手段30による所定周波数成分の変更を、図3および〔数式9〕に従って実行するようにしたが、埋め込むべきビット値に応じた周波数成分の変更は、様々なものを用いることができ、例えば特許文献1に示したような手法を用いることも可能である。この場合、抽出側においても、当然その埋め込み手法に応じた手法で抽出が行われる。   Further, the change of the predetermined frequency component by the frequency component changing means 30 is executed according to FIG. 3 and [Equation 9], but various changes can be used for changing the frequency component according to the bit value to be embedded. For example, it is possible to use a technique as shown in Patent Document 1. In this case, on the extraction side, the extraction is naturally performed by a method corresponding to the embedding method.

本発明は、CD・DVD等を用いた民生・業務用途における鑑賞用のパッケージ音楽分野、放送事業者等が商業目的で配信する放送・ネットワーク音楽配信分野における音楽著作権の保護(不正コピーの監視)および音楽属性情報の提供(楽曲タイトル検索サービス)分野、ミュージアム、イベント会場における展示説明ナレーションに連動した文字情報の提供サービス分野、放送番組やCD/DVDパッケージの音声信号からURLなどの情報を抽出し、携帯電話を用いて所定のコンテンツに関連するwebサイトにアクセスして詳細情報を抽出したり、アンケートに回答したりする非接触なインターネットのゲートウェイサービス分野等の産業に利用可能である。   The present invention relates to the protection of music copyright (monitoring illegal copying) in the field of package music for viewing for consumer and business use using CDs and DVDs, and the field of broadcasting and network music distribution distributed for commercial purposes by broadcasters and the like. ) And music attribute information (music title search service) field, museum, event information service service field linked to exhibition explanation narration, URL and other information extracted from audio signals of broadcast programs and CD / DVD packages In addition, it can be used for industries such as a non-contact Internet gateway service field in which a mobile phone is used to access a web site related to a predetermined content to extract detailed information or answer a questionnaire.

10・・・音響フレーム読込手段
20・・・周波数変換手段
30・・・周波数成分変更手段
31・・・位相補正手段
40・・・周波数逆変換手段
50・・・改変音響フレーム出力手段
60・・・記憶手段
61・・・音響信号記憶部
62・・・付加情報記憶部
63・・・改変音響信号記憶部
70・・・ビット配列作成手段
80・・・変換テーブル作成手段
100・・・音響信号入力手段
110・・・基準フレーム獲得手段
120・・・時間軸シフトフレーム設定手段
130・・・周波数変換手段
140・・・符号判定パラメータ算出手段
150・・・符号出力手段
160・・・付加情報抽出手段
170・・・音響フレーム保持手段
180・・・変換テーブル作成手段
DESCRIPTION OF SYMBOLS 10 ... Sound frame reading means 20 ... Frequency conversion means 30 ... Frequency component change means 31 ... Phase correction means 40 ... Frequency reverse conversion means 50 ... Modified sound frame output means 60 ... Storage means 61: Acoustic signal storage section 62: Additional information storage section 63: Modified acoustic signal storage section 70: Bit array creation means 80: Conversion table creation means 100: Acoustic signal Input means 110: Reference frame acquisition means 120 ... Time axis shift frame setting means 130 ... Frequency conversion means 140 ... Code determination parameter calculation means 150 ... Code output means 160 ... Additional information extraction Means 170: Acoustic frame holding means 180 ... Conversion table creation means

Claims (13)

時系列のサンプル列で構成される音響信号に対して、付加情報を聴取不能な状態で埋め込む装置であって、
前記音響信号より、所定数のサンプルを読み込む音響フレーム読込手段と、
前記読み込んだ音響フレームのうち、奇数番目、偶数番目の一方をAタイプ、他方をBタイプとし、前記Aタイプの音響フレームに対して第1窓関数を用いて周波数変換を行い、前記Bタイプの音響フレームに対して第2窓関数を用いて周波数変換を行い、前記第1窓関数に対応する複素周波数成分である第1窓スペクトル、前記第2窓関数に対応する複素周波数成分である第2窓スペクトルを得る周波数変換手段と、
記各窓スペクトルから所定の周波数範囲における互いに重複しない2つのスペクトル集合を抽出し、第1窓スペクトル、第2窓スペクトルから抽出した計4つのスペクトル集合の強度を、埋め込むべきビット配列に基づいて、ある2つのスペクトル集合の強度が、他の2つのスペクトル集合の強度に対して所定の基準で大きくなるように、各スペクトル集合の強度を変更する周波数成分変更手段と、
前記スペクトル集合のうち、小さくなるように変更されたスペクトル集合の各周波数の複素周波数成分の方向を、直前の音響フレームにおけるスペクトル集合の各周波数の複素周波数成分の方向に対して、0度、90度、180度、270度の4方向のいずれかの方向の中から事前に設定された方向に80%だけ近付けるように補正する位相補正手段と、
前記位相補正されたスペクトル集合を含む各窓スペクトルに対して周波数逆変換を行って、改変音響フレームを生成する周波数逆変換手段と、
前記生成された改変音響フレームを順次出力する改変音響フレーム出力手段と、
を有することを特徴とする音響信号に対する情報の埋め込み装置。
A device for embedding additional information in an inaudible state with respect to an acoustic signal composed of a time-series sample sequence,
An acoustic frame reading means for reading a predetermined number of samples from the acoustic signal;
Of the read acoustic frames, odd-numbered and even-numbered ones are A type and the other is B type, and frequency conversion is performed on the A type acoustic frames using a first window function, and the B type A frequency conversion is performed on the acoustic frame using a second window function, and a first window spectrum that is a complex frequency component corresponding to the first window function and a second that is a complex frequency component corresponding to the second window function. A frequency conversion means for obtaining a window spectrum;
Extracted two spectra set not overlapping with each other in a predetermined frequency range from the previous SL each window spectrum, first window spectrum, the intensity of the total of four spectral set extracted from the second window spectrum, based on the bit sequence to be embedded Frequency component changing means for changing the intensity of each spectrum set so that the intensity of two spectrum sets is larger than the intensity of the other two spectrum sets on a predetermined basis;
Of the spectrum set, the direction of the complex frequency component of each frequency of the spectrum set that has been changed to be small is set to 0 degrees, 90 degrees with respect to the direction of the complex frequency component of each frequency of the spectrum set in the immediately preceding acoustic frame. Phase correcting means for correcting so as to approach the preset direction by 80% from any of the four directions of degrees, 180 degrees, and 270 degrees;
Frequency inverse transform means for performing frequency inverse transform on each window spectrum including the phase-corrected spectrum set to generate a modified acoustic frame;
Modified acoustic frame output means for sequentially outputting the generated modified acoustic frames;
An information embedding device for an acoustic signal, comprising:
時系列のサンプル列で構成される音響信号に対して、付加情報を聴取不能な状態で埋め込む装置であって、
前記音響信号より、所定数のサンプルを読み込む音響フレーム読込手段と、
前記読み込んだ音響フレームのうち、奇数番目、偶数番目の一方をAタイプ、他方をBタイプとし、前記Aタイプの音響フレームに対して第1窓関数を用いて周波数変換を行い、前記Bタイプの音響フレームに対して第2窓関数を用いて周波数変換を行い、前記第1窓関数に対応する複素周波数成分である第1窓スペクトル、前記第2窓関数に対応する複素周波数成分である第2窓スペクトルを得る周波数変換手段と、
記各窓スペクトルから所定の周波数範囲における互いに重複しない4つのスペクトル集合を、周波数が高い方の2つのスペクトル集合の周波数幅が周波数が低い方の2つのスペクトル集合の周波数幅よりも大きくなるように抽出し、各窓スペクトルについての4つのスペクトル集合を、前記第1窓スペクトルから抽出したスペクトル集合を周波数が低い順に、1D1、1D2、1U1、1U2とし、前記第2窓スペクトルから抽出したスペクトル集合を周波数が低い順に、2D1、2D2、2U1、2U2とした場合に、埋め込むべきビット配列に基づいて、1D1の強度値と2D2の強度値との積と、1D2の強度値と2D1の強度値との積のいずれか一方が他方より所定の比率以上に大きくなり、同時に1U1の強度値と2U2の強度値との積と、1U2の強度値と2U1の強度値との積のいずれか一方が他方より所定の比率以上に大きくなるように、各スペクトル集合の強度を変更する周波数成分変更手段と、
前記スペクトル集合のうち、小さくなるように変更されたスペクトル集合の各周波数の複素周波数成分の方向を、直前の音響フレームにおけるスペクトル集合の各周波数の複素周波数成分の方向に対して、0度、90度、180度、270度の4方向のいずれかの方向の中から事前に設定された方向に80%だけ近付けるように補正する位相補正手段と、
前記位相補正されたスペクトル集合を含む各窓スペクトルに対して周波数逆変換を行って、改変音響フレームを生成する周波数逆変換手段と、
前記生成された改変音響フレームを順次出力する改変音響フレーム出力手段と、
を有することを特徴とする音響信号に対する情報の埋め込み装置。
A device for embedding additional information in an inaudible state with respect to an acoustic signal composed of a time-series sample sequence,
An acoustic frame reading means for reading a predetermined number of samples from the acoustic signal;
Of the read acoustic frames, odd-numbered and even-numbered ones are A type and the other is B type, and frequency conversion is performed on the A type acoustic frames using a first window function, and the B type A frequency conversion is performed on the acoustic frame using a second window function, and a first window spectrum that is a complex frequency component corresponding to the first window function and a second that is a complex frequency component corresponding to the second window function. A frequency conversion means for obtaining a window spectrum;
Four spectral set not overlapping with each other in a predetermined frequency range from the previous SL each window spectrum, so that the frequency width of the two spectral set of higher frequency is greater than the frequency width of the two spectral set of lower frequency The four spectral sets for each window spectrum are extracted from the first window spectrum, and the spectral sets extracted from the second window spectrum are designated as 1D1, 1D2, 1U1, 1U2 in order of increasing frequency. Are 2D1, 2D2, 2U1, and 2U2 in order of frequency, based on the bit arrangement to be embedded, the product of the intensity value of 1D1 and the intensity value of 2D2, the intensity value of 1D2, and the intensity value of 2D1 One of the products is larger than the other by a predetermined ratio, and at the same time, the intensity value of 1U1 and the intensity of 2U2 And the product of, as one of the product of the intensity values of the intensity values and 2U1 of 1U2 is larger than a predetermined ratio than the other, and the frequency component changing means for changing the intensity of each spectral set,
Of the spectrum set, the direction of the complex frequency component of each frequency of the spectrum set that has been changed to be small is set to 0 degrees, 90 degrees with respect to the direction of the complex frequency component of each frequency of the spectrum set in the immediately preceding acoustic frame. Phase correcting means for correcting so as to approach the preset direction by 80% from any of the four directions of degrees, 180 degrees, and 270 degrees;
Frequency inverse transform means for performing frequency inverse transform on each window spectrum including the phase-corrected spectrum set to generate a modified acoustic frame;
Modified acoustic frame output means for sequentially outputting the generated modified acoustic frames;
An information embedding device for an acoustic signal, comprising:
請求項2において、
前記周波数成分変更手段は、前記ビット配列中の1ビットの状態に基づいて、1D1の強度値と1U1の強度値と2D2の強度値と2U2の強度値との積と、1D2の強度値と1U2の強度値と2D1の強度値と2U1の強度値との積のいずれか一方が他方より所定の比率以上に大きくなるように、各スペクトル集合の強度を変更するものであることを特徴とする音響信号に対する情報の埋め込み装置。
In claim 2,
The frequency component changing means, based on the state of 1 bit in the bit array, a product of an intensity value of 1D1, an intensity value of 1U1, an intensity value of 2D2, and an intensity value of 2U2, and an intensity value of 1D2 and 1U2 The intensity of each spectrum set is changed so that any one of the product of the intensity value of 2D1, the intensity value of 2D1 and the intensity value of 2U1 is larger than the other by a predetermined ratio or more. An information embedding device for signals.
請求項2または請求項3において、
前記周波数成分変更手段は、1D1の強度値と2D2の強度値との積と、1D2の強度値と2D1の強度値との積と、1U1の強度値と2U2の強度値との積と、1U2の強度値と2U1の強度値との積のうち、大きくなるように変更する側のスペクトル集合に対しては、係数αを乗じた強度とし、小さくなるように変更する側のスペクトル集合に対しては、係数αより小さい係数βを乗じた強度とするものであることを特徴とする音響信号に対する情報の埋め込み装置。
In claim 2 or claim 3,
The frequency component changing means includes a product of an intensity value of 1D1 and an intensity value of 2D2, a product of an intensity value of 1D2 and an intensity value of 2D1, a product of an intensity value of 1U1 and an intensity value of 2U2, and 1U2. Of the product of the intensity value of 2 and the intensity value of 2U1, the spectrum set on the side to be changed to be larger is multiplied by the coefficient α, and the spectrum set on the side to be changed to be smaller. Is a device for embedding information in an acoustic signal, characterized in that the intensity is multiplied by a coefficient β smaller than the coefficient α.
請求項4において、
前記周波数成分変更手段は、前記強度の積を大きくなるように変更するグループの強度の積を、前記強度の積を小さくなるように変更するグループの強度の積で割った値γが、1より小さい場合に、前記係数αよりγの平方根を除した係数α´と、前記係数βにγの平方根を乗じた係数β´を、前記係数α、βに代えて用いるものであることを特徴とする音響信号に対する情報の埋め込み装置。
In claim 4,
The frequency component changing means has a value γ obtained by dividing the product of the intensity of the group to be changed so as to increase the product of the intensity by the product of the intensity of the group to be changed so as to reduce the product of the intensity. In the case where the coefficient is small, a coefficient α ′ obtained by dividing the coefficient α by a square root of γ and a coefficient β ′ obtained by multiplying the coefficient β by the square root of γ are used instead of the coefficients α and β. An information embedding device for an acoustic signal.
請求項1から請求項5のいずれかにおいて、
前記周波数変換手段は、前記音響フレームに対して周波数変換を行う前に、音響フレームを構成する最初のサンプルを0に設定し、後続するサンプルは各々直前の改変前のサンプルとの差分値になるように、前記音響フレームを構成するサンプルの値に改変を加えるものであり、
前記周波数逆変換手段は、前記周波数逆変換により得られた各サンプルの値に直前のサンプルの値を順次加算することにより、前記改変音響フレームを構成する各サンプルの値を設定することを特徴とする音響信号に対する情報の埋め込み装置。
In any one of Claims 1-5,
The frequency conversion means sets the first sample constituting the sound frame to 0 before performing frequency conversion on the sound frame, and each subsequent sample has a difference value from the immediately previous sample before modification. As described above, the value of the sample constituting the acoustic frame is modified.
The frequency inverse transforming unit sets the value of each sample constituting the modified acoustic frame by sequentially adding the value of the immediately preceding sample to the value of each sample obtained by the frequency inverse transform. An information embedding device for an acoustic signal.
請求項1から請求項6のいずれかにおいて、
前記音響信号が2以上のチャンネルのステレオ信号であり、
前記音響フレーム読込手段、前記周波数変換手段、前記周波数成分変更手段、前記周波数逆変換手段、前記改変音響フレーム出力手段は、各チャンネルに対して処理を実行するものであることを特徴とする音響信号に対する情報の埋め込み装置。
In any one of Claims 1-6,
The acoustic signal is a stereo signal of two or more channels;
The acoustic signal is characterized in that the acoustic frame reading means, the frequency converting means, the frequency component changing means, the frequency inverse converting means, and the modified acoustic frame output means execute processing for each channel. An information embedding device.
請求項1から請求項7のいずれかにおいて、
前記付加情報がNwビットを1ワードとして構成されるものであり、
Nwビットが取り得る2のNw乗個の全ての登録順位に対して、Nh通りの巡回NhビットパターンどうしのNh×Nh通りの組み合わせで最小ハミング距離が少なくとも3以上となるNh(>Nw)ビットのハミング符号を割り当てた符号変換テーブルを作成する変換テーブル作成手段と、
前記付加情報中の各ワードについて、前記符号変換テーブルを参照し、対応するハミング符号で構成されるNhビットのビット配列を作成するビット配列作成手段と、
をさらに有することを特徴とする音響信号に対する情報の埋め込み装置。
In any one of Claims 1-7,
The additional information is composed of Nw bits as one word;
Nh (> Nw) bits for which the minimum hamming distance is at least 3 or more in Nh × Nh combinations of Nh cyclic Nh bit patterns with respect to all 2 Nw power registration orders that Nw bits can take Conversion table creation means for creating a code conversion table to which the Hamming code is assigned,
For each word in the additional information, referring to the code conversion table, a bit array creating means for creating a bit array of Nh bits composed of a corresponding Hamming code;
An apparatus for embedding information in an acoustic signal, further comprising:
請求項8において、
前記変換テーブル作成手段は、少なくとも7ビットが取り得る128個の全ての登録順位に対して16通りの巡回16ビットパターンどうしの16×16通りの組み合わせで最小ハミング距離が3以上となる16ビットのハミング符号を割り当てた符号変換テーブルを作成するものであることを特徴とする音響信号に対する情報の埋め込み装置。
In claim 8,
The conversion table creating means is a 16-bit 16-bit combination of 16 cyclic 16-bit patterns with a minimum Hamming distance of 3 or more for all 128 registration orders that can take at least 7 bits. An apparatus for embedding information in an acoustic signal, which creates a code conversion table to which a Hamming code is assigned.
請求項1から請求項9のいずれかにおいて、
前記音響フレーム読込手段は、前記Aタイプの音響フレームと前記Bタイプの音響フレームを、所定数のサンプルを重複させて読み込むものであり、
前記改変音響フレーム出力手段は、前記生成された改変音響フレームを先行する改変音響フレームと連結させて出力するものであることを特徴とする音響信号に対する情報の埋め込み装置。
In any one of Claims 1-9,
The acoustic frame reading means reads the A type acoustic frame and the B type acoustic frame by overlapping a predetermined number of samples,
The apparatus for embedding information in an acoustic signal, wherein the modified acoustic frame output means outputs the generated modified acoustic frame by connecting it with a preceding modified acoustic frame.
請求項1から請求項10のいずれかにおいて、
前記周波数成分変更手段は、前記所定周波数範囲を0.34kHz以上および3.4kHz以下として設定するものであることを特徴とする音響信号に対する情報の埋め込み装置。
In any one of Claims 1-10,
Said frequency component changing unit, said predetermined information embedding device for the acoustic signal, characterized in that is used for setting the frequency range as below 0.34kHz more and 3.4 kHz.
請求項1から請求項11のいずれかにおいて、
前記音響フレーム読込手段は、前記音響フレームと同サンプル数で、再生時に聴取困難な極めて低振幅の白色ノイズを作成し、前記音響フレームに対して加算するものであることを特徴とする音響信号に対する情報の埋め込み装置。
In any one of Claims 1-11,
The acoustic frame reading means generates white noise with extremely low amplitude that is difficult to hear during reproduction with the same number of samples as the acoustic frame, and adds the white noise to the acoustic frame. An information embedding device.
コンピュータを、請求項1から請求項12のいずれかに記載の音響信号に対する情報の埋め込み装置として、機能させるためのプログラム。   The program for functioning a computer as an information embedding apparatus with respect to the acoustic signal in any one of Claims 1-12.
JP2010042141A 2010-02-26 2010-02-26 Information embedding device for acoustic signals Expired - Fee Related JP5569033B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010042141A JP5569033B2 (en) 2010-02-26 2010-02-26 Information embedding device for acoustic signals

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010042141A JP5569033B2 (en) 2010-02-26 2010-02-26 Information embedding device for acoustic signals

Publications (2)

Publication Number Publication Date
JP2011180234A JP2011180234A (en) 2011-09-15
JP5569033B2 true JP5569033B2 (en) 2014-08-13

Family

ID=44691819

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010042141A Expired - Fee Related JP5569033B2 (en) 2010-02-26 2010-02-26 Information embedding device for acoustic signals

Country Status (1)

Country Link
JP (1) JP5569033B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5906659B2 (en) * 2011-10-21 2016-04-20 大日本印刷株式会社 Device for embedding interfering signals with respect to acoustic signals
JP5987511B2 (en) * 2012-07-10 2016-09-07 大日本印刷株式会社 Device for embedding interfering sound for acoustic signals

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4867765B2 (en) * 2007-04-05 2012-02-01 大日本印刷株式会社 Information embedding device for sound signal and device for extracting information from sound signal
JP4910959B2 (en) * 2007-09-20 2012-04-04 大日本印刷株式会社 Information embedding device for sound signal and device for extracting information from sound signal
JP5310498B2 (en) * 2009-11-13 2013-10-09 大日本印刷株式会社 Information embedding device for acoustic signals

Also Published As

Publication number Publication date
JP2011180234A (en) 2011-09-15

Similar Documents

Publication Publication Date Title
JP2010538572A (en) Audio signal decoding method and apparatus
JP4867765B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP4629495B2 (en) Information embedding apparatus and method for acoustic signal
JP5569033B2 (en) Information embedding device for acoustic signals
JP5157931B2 (en) Information embedding device for acoustic signal and position detecting device using acoustic signal
JP4910920B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP5157863B2 (en) Information embedding device for acoustic signal and position detecting device using acoustic signal
JP5310498B2 (en) Information embedding device for acoustic signals
JP4910959B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP4968468B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP5212715B2 (en) Device for extracting information from acoustic signals
JP4973417B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP4876978B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP2010078728A (en) Device for embedding information in sound signal and device for extracting information from sound signal
JP4910921B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP4831335B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP5906659B2 (en) Device for embedding interfering signals with respect to acoustic signals
JP5104202B2 (en) Real-time information embedding device for acoustic signals
JP4713181B2 (en) Information embedding device for sound signal, device for extracting information from sound signal, and sound signal reproducing device
JP5273366B2 (en) Content synchronized playback device
JP4831333B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP2006270649A (en) Voice acoustic signal processing apparatus and method thereof
JP2008152154A (en) Device for embedding information on sound signal and device for extracting information from sound signal
JP4877007B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP2008129198A (en) Information embedding device for acoustic signal and information extracting device from acoustic signal

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121213

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130808

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130820

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20130823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131004

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140401

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140502

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140527

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140609

R150 Certificate of patent or registration of utility model

Ref document number: 5569033

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees