JP5157931B2 - Information embedding device for acoustic signal and position detecting device using acoustic signal - Google Patents

Information embedding device for acoustic signal and position detecting device using acoustic signal Download PDF

Info

Publication number
JP5157931B2
JP5157931B2 JP2009010271A JP2009010271A JP5157931B2 JP 5157931 B2 JP5157931 B2 JP 5157931B2 JP 2009010271 A JP2009010271 A JP 2009010271A JP 2009010271 A JP2009010271 A JP 2009010271A JP 5157931 B2 JP5157931 B2 JP 5157931B2
Authority
JP
Japan
Prior art keywords
identification information
spectrum
frequency
bit
acoustic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009010271A
Other languages
Japanese (ja)
Other versions
JP2010169443A (en
Inventor
敏雄 茂出木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2009010271A priority Critical patent/JP5157931B2/en
Publication of JP2010169443A publication Critical patent/JP2010169443A/en
Application granted granted Critical
Publication of JP5157931B2 publication Critical patent/JP5157931B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an apparatus for embedding information in a sound signal and an apparatus for detecting a position using the sound signal, which specifies a detailed position in two dimensions by using sounds emitted from the smallest possible number of speakers. <P>SOLUTION: Nine kinds of IDs composed of bit strings of a prescribed length are prepared. The sound signal, produced by varying the strength of a prescribed frequency component, based on a bit value of the ID11 and a difference in the bit values between the ID11 and the ID31, and the ID11 and the ID13, is outputted from an FL speaker. The same processing is performed for other channels and the sound signals produced by varying the strength of the prescribed frequency component are outputted from an FR speaker, a BL speaker and a BR speaker. In each microphone installed in a sphere surrounded by the four speakers, an ID33 is extracted from the ID11, and the corresponding position is detected from the relation in correspondence between the ID and the position which is recorded beforehand. <P>COPYRIGHT: (C)2010,JPO&amp;INPIT

Description

本発明は、音響信号に埋め込まれた情報を利用して、位置を検出するための技術に関する。   The present invention relates to a technique for detecting a position using information embedded in an acoustic signal.

近年、携帯電話機等にGPS技術が採用され、端末の位置検出を行うことが可能になってきている。しかし、GPSを用いた位置検出は分解能が低いため、屋内の位置を特定するには十分でないという問題がある。   In recent years, GPS technology has been adopted for mobile phones and the like, and it has become possible to detect the position of a terminal. However, since position detection using GPS has a low resolution, there is a problem that it is not sufficient for specifying an indoor position.

一方、出願人は、流れている音楽のタイトル等を知ることができる楽曲属性情報の提供サービスなどに応用可能とするため、音響信号の周波数成分の比率を属性情報のビット値に応じて変更することにより、属性情報(付加情報)を埋め込む技術を提案している(特許文献1参照)。   On the other hand, the applicant changes the ratio of the frequency components of the acoustic signal according to the bit value of the attribute information so that it can be applied to a music attribute information providing service that can know the title of the music being played. Thus, a technique for embedding attribute information (additional information) has been proposed (see Patent Document 1).

また、出願人は、特許文献1に記載の発明における、広いホール等で2つのスピーカが離れている場合、双方のチャンネルからの音が混ざり合った中央付近では抽出することができないという問題を解決するため、音脈分凝の原理を利用して、情報の埋め込みおよび抽出を行う技術を提案している(特許文献2参照)。
特開2006−323246号公報 特開2008−256948号
In addition, the applicant solves the problem that in the invention described in Patent Document 1, when two speakers are separated by a wide hall or the like, the sound from both channels cannot be extracted near the center. Therefore, a technique for embedding and extracting information using the principle of sound pulse fractionation has been proposed (see Patent Document 2).
JP 2006-323246 A JP 2008-256948 A

上述のように、GPSを用いた位置検出は分解能が低いため、屋内において詳細な位置を特定するには十分でないという問題がある。上記特許文献1、2の技術を利用することにより、それぞれから発するスピーカに位置を特定する情報を埋め込めば、位置検出に利用することも可能であるが、詳細な位置を特定するためには多数のスピーカを設置しなければならないという問題がある。また、一方向の位置検出だけでなく、二次元における位置検出を行うことができないという問題がある。   As described above, since position detection using GPS has low resolution, there is a problem that it is not sufficient to specify a detailed position indoors. By using the techniques of Patent Documents 1 and 2 above, if information for specifying the position is embedded in the speakers emitted from each, it can be used for position detection. There is a problem of having to install a speaker. In addition, there is a problem that not only position detection in one direction but also position detection in two dimensions cannot be performed.

そこで、本発明は、可能な限り少ない数のスピーカから発せられる音を利用して、二次元における詳細な位置を特定することが可能な音響信号に対する情報の埋め込み装置および音響信号を利用した位置検出装置を提供することを課題とする。   Therefore, the present invention uses an information embedding device for an acoustic signal capable of specifying a detailed position in two dimensions using sounds emitted from as few speakers as possible and position detection using the acoustic signal. It is an object to provide an apparatus.

上記課題を解決するため、本発明では、少なくとも4チャンネルの時系列のサンプル列で構成される音響信号に対して、前記音響信号が少なくとも4つのスピーカで再生される際に、それぞれのスピーカ近辺の4箇所、4つのスピーカの中間(n2−5)箇所(nは5以上の奇数)、および4つのスピーカの中央1箇所の計n2箇所の位置で互いに異なるn2種の識別情報が抽出可能になるように、互いに異なるn2種の識別情報をn種の前後識別情報とn種の左右識別情報の組み合わせとして聴取不能な状態で埋め込む装置であって、前記音響信号より、所定数のサンプルを各チャンネルごとに読み込み、音響フレームを作成する音響フレーム読込手段と、前記読み込んだ各チャンネルの音響フレームのうち、各々奇数番目、偶数番目の一方をAタイプ、他方をBタイプとし、前記Aタイプの音響フレームに対して第1窓関数を用いて周波数変換を行い、前記Bタイプの音響フレームに対して第2窓関数を用いて周波数変換を行い、前記第1窓関数に対応するスペクトルである第1窓スペクトル、前記第2窓関数に対応するスペクトルである第2窓スペクトルを得る周波数変換手段と、前記生成された各窓スペクトルから所定の周波数範囲における互いに重複しない2個のスペクトル集合を、周波数が高い方のスペクトル集合の周波数幅が大きくなるように抽出し、更に各スペクトル集合を1/2の周波数幅に均等分割し、各窓スペクトルについての4個のスペクトル集合を、前記第1窓スペクトルから抽出したスペクトル集合を周波数が低い順に、1D1、1D2、1U1、1U2とし、前記第2窓スペクトルから抽出したスペクトル集合を周波数が低い順に、2D1、2D2、2U1、2U2とした場合に、そのチャンネルに埋め込むべき本来の前後または左右識別情報を構成するビット値に基づいて、1D1の強度値と2D2の強度値との積と、1D2の強度値と2D1の強度値との積のいずれか一方が他方より所定の程度以上に大きくなり、同時に1U1の強度値と2U2の強度値との積と、1U2の強度値と2U1の強度値との積のいずれか一方が他方より所定の程度以上に大きくなるように変更するものであり、前後識別情報を用いる場合、前記強度値の大小関係を逆転させない範囲において、さらに強度値を変更させる程度を(n+1)/2段階に設定するとともに、他のスピーカとの間のほぼ中央で抽出させるべき前後識別情報のビット値が前記本来の前後識別情報のビット値と同一である場合に最大の程度になるようにし、本来の前後識別情報を抽出させる位置と隣接する位置において抽出させるべき前後識別情報のビット値が前記本来の前後識別情報のビット値と異なる場合に、最小の程度となるようにしており、左右識別情報を用いる場合、前記強度値の大小関係を逆転させない範囲において、さらに強度値を変更させる程度を(n+1)/2段階に設定するとともに、他のスピーカとの間のほぼ中央で抽出させるべき左右識別情報のビット値が前記本来の左右識別情報のビット値と同一である場合に最大の程度になるようにし、本来の左右識別情報を抽出させる位置と隣接する位置において抽出させるべき左右識別情報のビット値が前記本来の左右識別情報のビット値と異なる場合に、最小の程度となるようにしている周波数成分変更手段と、前記変更されたスペクトル集合を含む各窓スペクトルに対して周波数逆変換を行って、改変音響フレームを生成する周波数逆変換手段と、前記生成された改変音響フレームを順次出力する改変音響フレーム出力手段を有する音響信号に対する情報の埋め込み装置を提供する。 In order to solve the above-described problem, in the present invention, when the acoustic signal is reproduced by at least four speakers with respect to an acoustic signal composed of a time-series sample sequence of at least four channels, N 2 types of identification information that are different from each other are extracted at a total of n 2 positions in the middle (n 2 -5) position (n is an odd number of 5 or more ) of 4 locations and 4 locations, and the central location of 4 speakers. An apparatus for embedding n 2 types of identification information different from each other in an inaudible state as a combination of n types of front / rear identification information and n types of left / right identification information. An acoustic frame reading means for reading a sample for each channel and creating an acoustic frame, and one of the odd numbered and even numbered acoustic frames of each read channel A type and the other B type, frequency conversion is performed on the A type acoustic frame using a first window function, and frequency conversion is performed on the B type acoustic frame using a second window function. Frequency conversion means for obtaining a first window spectrum that is a spectrum corresponding to the first window function, a second window spectrum that is a spectrum corresponding to the second window function, and a predetermined frequency from each of the generated window spectra Two spectrum sets that do not overlap each other in the frequency range are extracted so that the frequency width of the higher frequency spectrum set becomes larger , and each spectrum set is equally divided into ½ frequency widths, and each window spectrum is divided. 1D1, 1D2, 1U1, 1U in order from the lowest frequency of the spectrum sets extracted from the first window spectrum. And then, said spectral set extracted from the second window spectrum in order frequency is low, when the 2D1,2D2,2U1,2U2, based on the bit values constituting the original longitudinal or lateral identification information to be embedded into the channel One of the product of the intensity value of 1D1 and the intensity value of 2D2 and the product of the intensity value of 1D2 and the intensity value of 2D1 is larger than a predetermined level than the other, and simultaneously the intensity value of 1U1 and 2U2 and the product of the intensity values, which one of the product of the intensity values of the intensity values and 2U1 of 1U2 changes beyond a predetermined degree than the size Kunar so the other hand, when using a front-rear identification information, wherein In the range that does not reverse the magnitude relationship of intensity values, the degree to which the intensity value is changed is set to (n + 1) / 2 levels, and is extracted almost at the center with other speakers. When the bit value of the front and rear identification information to be performed is the same as the bit value of the original front and rear identification information, the maximum value is obtained, and before and after the original front and rear identification information is extracted at a position adjacent to the position. When the bit value of the identification information is different from the bit value of the original front-and-rear identification information, it is set to a minimum degree, and when using the left-right identification information, in a range that does not reverse the magnitude relationship of the intensity values, The degree to which the intensity value is changed is set to (n + 1) / 2 stages, and the bit value of the left / right identification information to be extracted at the approximate center between the other speakers is the same as the bit value of the original left / right identification information. In some cases, the bit value of the left / right identification information to be extracted at the position adjacent to the position where the original left / right identification information is extracted is When the bit value of the original left / right identification information is different, the frequency component changing means is set to the minimum degree, and the frequency spectrum is inversely transformed for each window spectrum including the changed spectrum set to be modified. Provided is an information embedding device for an acoustic signal, comprising frequency inverse transform means for generating an acoustic frame and modified acoustic frame output means for sequentially outputting the generated modified acoustic frames.

また、本発明では、あらかじめ聴取不能な状態でn2種の識別情報が埋め込まれた音響信号から、前記音響信号を少なくとも4つのスピーカで再生し、それぞれのスピーカ近辺の4箇所、4つのスピーカの中間(n2−5)箇所、および4つのスピーカの中央1箇所の計n2箇所の位置を検出する装置であって、各スピーカを基準とする相対位置と前記識別情報を対応付けた位置関係を記憶した位置関係記憶手段と、前記音響信号が再生されている空間内の所定の位置で音響信号をモノラル入力し、所定区間をデジタル化して、所定数のサンプルで構成される音響フレームを獲得する音響フレーム獲得手段と、前記読み込んだ音響フレームのうち、奇数番目、偶数番目の一方をAタイプ、他方をBタイプとし、前記Aタイプの音響フレームに対して第1窓関数を用いて周波数変換を行い、前記Bタイプの音響フレームに対して第2窓関数を用いて周波数変換を行い、前記第1窓関数に対応するスペクトルである第1窓スペクトル、前記第2窓関数に対応するスペクトルである第2窓スペクトルを得る周波数変換手段と、前記生成された各窓スペクトルから所定の周波数範囲における互いに重複しない2個のスペクトル集合を、周波数が高い方のスペクトル集合の周波数幅が大きくなるように抽出し、更に各スペクトル集合を1/2の周波数幅に均等分割し、前記第1窓スペクトルから抽出した4個のスペクトル集合の強度値を周波数が低い順にE1、E3、E5、E7として算出し、前記第2窓スペクトルから抽出した4個のスペクトル集合の強度値を周波数が低い順にE2、E4、E6、E8として算出し、E1とE4の積と、E2とE3の積との大小関係、およびE5とE8の積と、E6とE7の積との大小関係に基づいて、埋め込まれていたビット値を抽出する符号化手段と、前記抽出されたビット値をワード単位で所定の規則により変換して時系列に各々n種の前後識別情報と左右識別情報を抽出し、これらを結合して前記n2種の識別情報として抽出する識別情報抽出手段と、前記識別情報抽出手段により得られた識別情報を用いて、前記位置関係記憶手段を参照して位置情報を取得し、当該取得した位置情報を出力する位置出力手段を有する音響信号を利用した位置検出装置を提供する。 In the present invention, the acoustic signal is reproduced by at least four speakers from the acoustic signal in which n 2 types of identification information are embedded in a state incapable of being heard in advance. A device for detecting the position of a total of n 2 locations, that is, an intermediate (n 2 -5) location and a central location of 4 speakers, and a positional relationship in which a relative position based on each speaker is associated with the identification information And a positional relationship storage means for storing the sound signal and monaural input of the sound signal at a predetermined position in the space where the sound signal is reproduced, digitizing the predetermined section, and obtaining an acoustic frame composed of a predetermined number of samples Sound frame acquisition means for performing the operation, and the odd-numbered and even-numbered ones of the read sound frames are A type and the other is B type. Then, frequency conversion is performed using the first window function, frequency conversion is performed using the second window function for the B type acoustic frame, and the first window spectrum which is a spectrum corresponding to the first window function The frequency conversion means for obtaining a second window spectrum that is a spectrum corresponding to the second window function, and two spectrum sets that do not overlap each other in a predetermined frequency range from each of the generated window spectra, have a higher frequency. The spectrum set is extracted so that the frequency width of the spectrum set becomes larger, each spectrum set is equally divided into ½ frequency widths, and the intensity values of the four spectrum sets extracted from the first window spectrum are low in frequency. E1, E3, E5, E7 are calculated in order, and the intensity values of the four spectrum sets extracted from the second window spectrum are E2, E4, 6 and E8, embedded bits based on the relationship between the product of E1 and E4 and the product of E2 and E3, and the product of E5 and E8 and the product of E6 and E7 Encoding means for extracting a value, and converting the extracted bit value in word units according to a predetermined rule to extract n kinds of front and rear identification information and left and right identification information in time series, an identification information extraction means for extracting as n 2 kinds of identification information, by using the identification information obtained by said identification information extracting means, obtains position information by referring to the positional relationship storage means, the acquired position information A position detection device using an acoustic signal having a position output means for outputting the signal is provided.

本発明によれば、少なくとも4つの各チャンネル用の本来の識別情報と、中間検出用の(n2−5)種の識別情報、および4つのスピーカの中央1種の識別情報の計n2種の識別情報を用意し、4つの各チャンネルに対応するビット値を埋め込む際、中間検出用の識別情報のビット値に従って、各チャンネルの所定周波数範囲における変更対象周波数成分の強度の程度を段階的に変化させるようにしたので、各スピーカの間に所定の間隔で設置されたマイクロフォンで取得された音は、所定周波数範囲において、いずれかのスピーカの音からの影響を大きく受けることになり、(n2−4)種の識別情報を抽出することができ、その抽出した情報により4つのスピーカに囲まれた範囲における相対的位置を特定することが可能となる。 According to the present invention, a total of n 2 types of original identification information for each of at least four channels, (n 2 -5) types of identification information for intermediate detection, and one type of identification information for the center of the four speakers Are prepared, and when the bit values corresponding to each of the four channels are embedded, the intensity level of the frequency component to be changed in a predetermined frequency range of each channel is stepwise according to the bit value of the identification information for intermediate detection. Since the sound is changed, the sound acquired by the microphones installed at predetermined intervals between the speakers is greatly affected by the sound of any speaker in the predetermined frequency range. 2-4 ) It is possible to extract the identification information of the species, and it is possible to specify the relative position in the range surrounded by the four speakers by the extracted information.

以下、本発明の実施形態について図面を参照して詳細に説明する。
(1.本発明の基本概念)
(1.1.一次元の位置検出)
本発明の基本概念の説明に際し、本発明の基礎となる一次元の位置検出について説明する。図1(a)は、従来(特許文献1、2等に示された技術)の、音響信号を利用した識別情報の抽出を示す図である。図1(a)の例では、Lチャンネル音響信号に識別情報としてID1を埋め込み、Rチャンネル音響信号に識別情報としてID2を埋め込んでいる。このような音響信号を再生すると、Lスピーカ付近のマイクロフォンから取り込んだ音、Rスピーカ付近のマイクロフォンから取り込んだ音から抽出装置はそれぞれID1、ID2を抽出する。しかし、LスピーカとRスピーカからほぼ等距離のマイクロフォンから取り込んだ音からは、抽出装置はIDを正しく抽出することができない。これは、LスピーカとRスピーカからほぼ等距離のマイクロフォンでは、Lスピーカからの音とRスピーカからの音が混在するためである。特許文献2に示された技術では、中央付近でID1、ID2のいずれかを抽出することは可能であるが、ID1、ID2とは別個のIDを抽出することはできない。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
(1. Basic concept of the present invention)
(1.1. One-dimensional position detection)
In describing the basic concept of the present invention, one-dimensional position detection that is the basis of the present invention will be described. FIG. 1A is a diagram illustrating extraction of identification information using an acoustic signal in the related art (techniques disclosed in Patent Documents 1 and 2, etc.). In the example of FIG. 1A, ID1 is embedded as identification information in the L channel acoustic signal, and ID2 is embedded as identification information in the R channel acoustic signal. When such an acoustic signal is reproduced, the extraction device extracts ID1 and ID2 from the sound captured from the microphone near the L speaker and the sound captured from the microphone near the R speaker, respectively. However, the extraction device cannot correctly extract the ID from the sound captured from the microphones that are approximately equidistant from the L speaker and the R speaker. This is because the sound from the L speaker and the sound from the R speaker are mixed in a microphone that is substantially equidistant from the L speaker and the R speaker. With the technique disclosed in Patent Document 2, it is possible to extract either ID1 or ID2 near the center, but it is not possible to extract an ID different from ID1 and ID2.

出願人は、左右スピーカの中央付近で左右それぞれのスピーカ付近とは異なるIDを抽出する技術を、特願2008−245020において提案した。特願2008−245020の発明では、Lスピーカ付近のマイクロフォンから取り込んだ音、Rスピーカ付近のマイクロフォンから取り込んだ音からは、従来と同様、抽出装置はそれぞれID1、ID2を抽出するが、さらに、LスピーカとRスピーカからほぼ等距離のマイクロフォンから取り込んだ音から別個のID3を抽出する。すなわち、ID1が埋め込まれたLスピーカからの音、ID2が埋め込まれたRスピーカからの音を同時に取り込んで、ID3を抽出する。   The applicant proposed in Japanese Patent Application No. 2008-24450 a technique for extracting an ID different from the vicinity of the left and right speakers near the center of the left and right speakers. In the invention of Japanese Patent Application No. 2008-244502, the extraction device extracts ID1 and ID2 from the sound taken in from the microphone near the L speaker and the sound taken in from the microphone near the R speaker, respectively. A separate ID3 is extracted from the sound captured from the microphones that are approximately equidistant from the speaker and the R speaker. That is, the sound from the L speaker in which ID1 is embedded and the sound from the R speaker in which ID2 is embedded are simultaneously captured to extract ID3.

さらに、特願2008−312741では、図1(b)に示すように、Lスピーカ付近のマイクロフォンから取り込んだ音、Rスピーカ付近のマイクロフォンから取り込んだ音からは、従来と同様、抽出装置はそれぞれID1、ID5を抽出するとともに、LスピーカとRスピーカからほぼ等距離(中央)のマイクロフォンにより取り込んだ音から別個のID3を抽出し、さらに、Lスピーカ付近のマイクロフォンと中央のマイクロフォンからほぼ等距離のマイクロフォンにより取り込んだ音から別個のID2を抽出し、Rスピーカ付近のマイクロフォンと中央のマイクロフォンからほぼ等距離のマイクロフォンにより取り込んだ音から別個のID4を抽出する。すなわち、ID1が埋め込まれたLスピーカからの音、ID5が埋め込まれたRスピーカからの音を同時に取り込んで、ID2、ID3、ID4を抽出する。   Furthermore, in Japanese Patent Application No. 2008-312741, as shown in FIG. 1B, from the sound taken in from the microphone near the L speaker and the sound taken in from the microphone near the R speaker, each of the extraction devices is ID1. , ID5 is extracted, and separate ID3 is extracted from the sound captured by the microphones that are approximately equidistant (center) from the L speaker and the R speaker. A separate ID2 is extracted from the sound captured by the above step, and a separate ID4 is extracted from the sound captured by a microphone that is approximately equidistant from the microphone near the R speaker and the center microphone. That is, the sound from the L speaker in which ID1 is embedded and the sound from the R speaker in which ID5 is embedded are simultaneously captured to extract ID2, ID3, and ID4.

図2を用いて特願2008−245020、特願2008−312741の概念をより詳細に説明する。図2において、“0”“1”は、埋め込まれるビット値を示し、“0”“1”を含む矩形は、ビット値が埋め込まれる音響フレームを示している。音響フレームについては、詳細は後述するが、所定の長さのデジタル音響信号の1区間を示すものである。また、実際には、後述するように、1音響フレームに1ビットが埋め込まれるという単純なものではないが、図1では、説明の便宜上簡略化している。図2において、図面左右方向は時間的長さ、図面上下方向は、所定周波数範囲の周波数成分の強度を示している。図2(a)は、特願2008−245020に記載された発明を示すものである。特願2008−245020では、中央で1種の識別情報を抽出し、全体で計3種の識別情報を抽出する。図2(a)の例では、Lスピーカ用、Rスピーカ用にそれぞれ識別情報として符号“01(16進表記)”、“EF(16進表記)”を埋め込むが、この際、中央で抽出させるべき識別情報である符号“4B(16進表記)”を構成するビット列“01001011”に応じて、所定周波数範囲の周波数成分の強度を変化させて記録しておく。これにより、中央のマイクロフォンで取得した音を解析した場合に、符号“4B”が識別情報として抽出されることになる。   The concept of Japanese Patent Application Nos. 2008-244502 and 2008-312741 will be described in more detail with reference to FIG. In FIG. 2, “0” and “1” indicate embedded bit values, and rectangles including “0” and “1” indicate acoustic frames in which bit values are embedded. The acoustic frame will be described in detail later, but indicates one section of a digital acoustic signal having a predetermined length. In practice, as will be described later, one bit is embedded in one acoustic frame, but this is not simplified in FIG. In FIG. 2, the horizontal direction in the drawing indicates the time length, and the vertical direction in the drawing indicates the intensity of the frequency component in the predetermined frequency range. FIG. 2 (a) shows the invention described in Japanese Patent Application No. 2008-24450. In Japanese Patent Application No. 2008-244502, one type of identification information is extracted at the center, and a total of three types of identification information is extracted. In the example of FIG. 2A, codes “01 (hexadecimal notation)” and “EF (hexadecimal notation)” are embedded as identification information for the L speaker and the R speaker, respectively. According to the bit string “01001011” constituting the code “4B (hexadecimal notation)” that is the power identification information, the intensity of the frequency component in the predetermined frequency range is changed and recorded. Thereby, when the sound acquired by the central microphone is analyzed, the code “4B” is extracted as the identification information.

特願2008−312741では、特願2008−245020からさらに進み、中央で1種の識別情報、Lスピーカと中央との中間、Rスピーカと中央との中間でそれぞれ1以上の識別情報を抽出し、全体で計n種の識別情報を抽出する。図2(b)の例では、Lスピーカと中央との中間、Rスピーカと中央との中間でそれぞれ1個の識別情報を抽出し、全体で計5種の識別情報を抽出している。   In Japanese Patent Application No. 2008-312741, the process further proceeds from Japanese Patent Application No. 2008-244501, and one type of identification information is extracted at the center, one or more pieces of identification information between the L speaker and the center, and one between the R speaker and the center. A total of n types of identification information are extracted. In the example of FIG. 2B, one piece of identification information is extracted between the middle of the L speaker and the middle of the R speaker, and a total of five types of identification information are extracted.

図2(b)の例では、Lスピーカ用、Rスピーカ用にそれぞれ識別情報として符号“04(16進表記)”、“DF(16進表記)”を埋め込む。この際、中間の3箇所で抽出させるべき識別情報である符号“05(16進表記)”“17(16進表記)”“5F(16進表記)”を構成する各ビット列“00000101” “00010111” “01011111”に応じて、所定周波数範囲の周波数成分の強度を変化させて記録しておく。図2(b)における第1段目の符号“04”に対応したビット列の矩形と、第5段目の符号“DF”に対応したビット列の矩形を見ればわかるように、本発明では、Lスピーカ用、Rスピーカ用の所定周波数範囲の周波数成分の強度を大・中・小の3段階に変化させている。これにより、中間の3箇所の各マイクロフォンで取得される音の所定周波数成分が影響され、取得した音の所定周波数成分を解析した場合に、それぞれ符号“05”“17”“5F”が識別情報として抽出されることになる。   In the example of FIG. 2B, codes “04 (hexadecimal notation)” and “DF (hexadecimal notation)” are embedded as identification information for the L speaker and the R speaker, respectively. At this time, each bit string “00000101” “00010111” constituting the codes “05 (hexadecimal notation)” “17 (hexadecimal notation)” “5F (hexadecimal notation)”, which is identification information to be extracted at three intermediate positions. According to “01011111”, the intensity of the frequency component in the predetermined frequency range is changed and recorded. As can be seen from the bit string rectangle corresponding to the first-stage code “04” and the bit-string rectangle corresponding to the fifth-stage code “DF” in FIG. The intensity of the frequency component in the predetermined frequency range for the speaker and the R speaker is changed in three stages of large, medium, and small. As a result, the predetermined frequency components of the sound acquired by the three microphones in the middle are affected, and when the predetermined frequency components of the acquired sound are analyzed, the codes “05”, “17”, and “5F” are respectively identified as identification information. Will be extracted as

図2(b)において第1段目のビット列、第5段目のビット列の各ビットから図面上下方向に伸びる矢印は、そのビットが影響を与える範囲を示している。例えば、第1段目のビット列の左端ビット“0”は強度“大”であるため、比較的遠い位置のマイクロフォンまで影響することになり、第2から第4段目のビット列の左端ビットのビット値は“0”となる。逆に第5段目のビット列の左端ビット“1”は強度“小”であるため、比較的近い位置のマイクロフォンにも影響しない。   In FIG. 2B, an arrow extending in the vertical direction of the drawing from each bit of the first-stage bit string and the fifth-stage bit string indicates a range in which the bit affects. For example, since the leftmost bit “0” of the first-stage bit string has the strength “high”, it affects even a relatively far microphone, and the bit of the leftmost bit of the second to fourth-stage bit string. The value is “0”. Conversely, the leftmost bit “1” of the fifth-stage bit string has a strength of “small”, and does not affect the microphone at a relatively close position.

左端から2番目のビットについては、第1段目のビット列ではビット値“0”強度“大”であり、左端ビットの場合と同じであるが、第5段目のビット列でビット値“1” 強度“中”である。このため、第4段目においては、第5段目からの影響が第1段目からの影響に勝り、左から2番目のビット値は“1”となる。左端から3番目のビットについては、第1段目、第5段目のビット列共にビット値“0”強度“大”であるため、第3段目においては、両方の影響を受けて“0”となる。   For the second bit from the left end, the bit value “0” is “high” in the first bit string, which is the same as in the left bit, but the bit value “1” in the fifth bit string. Strength is “medium”. For this reason, in the fourth stage, the influence from the fifth stage is superior to the influence from the first stage, and the second bit value from the left is “1”. For the third bit from the left end, the bit values “0” and “high” are both “1” and “5” in the first and fifth bit strings. It becomes.

特願2008−312741では、第1段目と第5段目における所定周波数範囲の強度により中間のマイクロフォンで取得される周波数成分の強度を変化させるようにするため、途中のマイクロフォンにおいて異なるビット値が検出されることはない。例えば左端ビットの場合、第1段目のビット値“0”が、第4段目まで影響するため、途中の第2段目や第3段目のビット値が“1”になるようなことはなく、第1段目から第4段目までは全て同一のビット値“0”となる。左から2番目〜8番目までのビット値を縦方向(図面上下方向)に見ると、隣接する段の間でビット値に相違が生じるのは1箇所だけであり、2箇所で相違することはない。   In Japanese Patent Application No. 2008-312741, in order to change the intensity of the frequency component acquired by the intermediate microphone according to the intensity of the predetermined frequency range in the first stage and the fifth stage, different bit values are set in the middle microphone. It will not be detected. For example, in the case of the leftmost bit, the bit value “0” in the first stage affects up to the fourth stage, so that the bit values in the second and third stages in the middle become “1”. No, the first bit to the fourth row all have the same bit value “0”. When the second to eighth bit values from the left are viewed in the vertical direction (vertical direction in the drawing), there is only one difference in bit values between adjacent stages, and there is a difference between the two positions. Absent.

(1.2.二次元の位置検出)
次に、本発明の特徴である二次元の位置検出について説明する。図21(a)は、二次元方向に配置したマイクロフォンにおいて、互いに異なる識別情報を抽出する状態を示す図である。図21(a)の例では、FLチャンネル音響信号に識別情報としてID11を埋め込み、FRチャンネル音響信号に識別情報としてID12を埋め込み、BLチャンネル音響信号に識別情報としてID21を埋め込み、BRチャンネル音響信号に識別情報としてID22を埋め込んでいる。このような音響信号を再生すると、FLスピーカ付近のマイクロフォンから取り込んだ音、FRスピーカ付近のマイクロフォンから取り込んだ音、BLスピーカ付近のマイクロフォンから取り込んだ音、BRスピーカ付近のマイクロフォンから取り込んだ音から抽出装置はそれぞれID11、ID12、ID21、ID22を抽出する。さらに、FLスピーカとFRスピーカからほぼ等距離のマイクロフォンから取り込んだ音から別個のID13を抽出し、FLスピーカとBLスピーカからほぼ等距離のマイクロフォンから取り込んだ音から別個のID31を抽出し、FRスピーカとBRスピーカからほぼ等距離のマイクロフォンから取り込んだ音から別個のID32を抽出し、BLスピーカとBRスピーカからほぼ等距離のマイクロフォンから取り込んだ音から別個のID23を抽出する。そして、中央のマイクロフォン(4つのスピーカからほぼ等距離)から取り込んだ音から別個のID33を抽出する。すなわち、ID13、ID31、ID32、ID23、ID33は、複数のスピーカからの音を同時に取り込むことにより抽出される。
(1.2. Two-dimensional position detection)
Next, two-dimensional position detection, which is a feature of the present invention, will be described. FIG. 21A is a diagram illustrating a state in which different identification information is extracted from microphones arranged in a two-dimensional direction. In the example of FIG. 21A, ID11 is embedded as identification information in the FL channel acoustic signal, ID12 is embedded as identification information in the FR channel acoustic signal, ID21 is embedded as identification information in the BL channel acoustic signal, and the BR channel acoustic signal is embedded in the BR channel acoustic signal. ID 22 is embedded as identification information. When such an acoustic signal is reproduced, it is extracted from the sound captured from the microphone near the FL speaker, the sound captured from the microphone near the FR speaker, the sound captured from the microphone near the BL speaker, and the sound captured from the microphone near the BR speaker. The device extracts ID11, ID12, ID21, and ID22, respectively. Further, a separate ID 13 is extracted from the sound captured from the microphones of approximately equal distance from the FL speaker and the FR speaker, and a separate ID 31 is extracted from the sound captured from the microphone of approximately equal distance from the FL speaker and the BL speaker. A separate ID 32 is extracted from the sound captured from the microphones at approximately the same distance from the BR speaker, and a separate ID 23 is extracted from the sound captured from the microphones at the approximately equal distance from the BL speaker and the BR speaker. Then, a separate ID 33 is extracted from the sound captured from the central microphone (almost equidistant from the four speakers). That is, ID13, ID31, ID32, ID23, and ID33 are extracted by simultaneously capturing sounds from a plurality of speakers.

また、本発明では、マイクロフォンの数を増やし、より多くの識別情報を抽出することも行う。図21(b)の例では、マイクロフォンの数を25個に増やして、25種の識別情報を抽出している。   In the present invention, the number of microphones is increased to extract more identification information. In the example of FIG. 21B, the number of microphones is increased to 25, and 25 types of identification information are extracted.

図22を用いて本発明の概念をより詳細に説明する。図22において、“0”“1”は、埋め込まれるビット値を示し、“0”“1”を含む矩形は、ビット値が埋め込まれる音響フレームを示している。音響フレームについては、詳細は後述するが、所定の長さのデジタル音響信号の1区間を示すものである。また、実際には、後述するように、1音響フレームに1ビットが埋め込まれるという単純なものではないが、図1では、説明の便宜上簡略化している。図22に示した“0”“1”を含む矩形の図面左右方向の長さは時間的長さを示している。“0”“1”を含む矩形のうち、スピーカに近い4つの集合においては、図面上下方向の長さにより所定周波数範囲の周波数成分の強度を表現している。   The concept of the present invention will be described in more detail with reference to FIG. In FIG. 22, “0” and “1” indicate embedded bit values, and rectangles including “0” and “1” indicate acoustic frames in which bit values are embedded. The acoustic frame will be described in detail later, but indicates one section of a digital acoustic signal having a predetermined length. In practice, as will be described later, one bit is embedded in one acoustic frame, but this is not simplified in FIG. The length in the left-right direction of the rectangle including “0” and “1” shown in FIG. 22 indicates the time length. Of the rectangles including “0” and “1”, in the four sets close to the speaker, the intensity of the frequency component in the predetermined frequency range is expressed by the length in the vertical direction of the drawing.

図22は、9箇所の位置を検出する場合を示すものである。この場合、中央で1種の識別情報を抽出し、全体で計9種の識別情報を抽出する。図22に示した識別情報は、1ワード4ビットの2ワード構成となっており、前半の1ワードが前後方向、後半の1ワードが左右方向を特定している。図22の例では、FLスピーカ用、FRスピーカ用、BLスピーカ用、BRスピーカ用にそれぞれ識別情報として符号“01(16進表記)”、“0F(16進表記)”、“E1(16進表記)”、“EF(16進表記)”を埋め込む。この際、中間で抽出させるべき識別情報である符号“41(16進表記)” 、“0B(16進表記)”、“EB(16進表記)”、“4F(16進表記)”を構成するビット列に応じて、所定周波数範囲の周波数成分の強度を変化させて記録しておく。   FIG. 22 shows a case where nine positions are detected. In this case, one type of identification information is extracted at the center, and a total of nine types of identification information is extracted. The identification information shown in FIG. 22 has a two-word configuration of one word and four bits, with the first half of the word specifying the front-rear direction and the latter half of the word specifying the left-right direction. In the example of FIG. 22, the codes “01 (hexadecimal notation)”, “0F (hexadecimal notation)”, “E1 (hexadecimal notation) are used as identification information for the FL speaker, the FR speaker, the BL speaker, and the BR speaker, respectively. Notation) ”and“ EF (hexadecimal notation) ”are embedded. At this time, codes “41 (hexadecimal notation)”, “0B (hexadecimal notation)”, “EB (hexadecimal notation)”, and “4F (hexadecimal notation)”, which are identification information to be extracted in the middle, are configured. In accordance with the bit string to be recorded, the intensity of the frequency component in the predetermined frequency range is changed and recorded.

図23は、25箇所の位置を検出する場合を示すものである。この場合、中央で1種の識別情報を抽出し、全体で計25種の識別情報を抽出する。図23の例では、FLスピーカ用、FRスピーカ用、BLスピーカ用、BRスピーカ用にそれぞれ識別情報として符号“0A(16進表記)”、“05(16進表記)” 、“FA(16進表記)”、“F5(16進表記)”を埋め込む。この際、中間の3箇所で抽出させるべき識別情報である符号“1A(16進表記)”“3A(16進表記)”“7A(16進表記)”“0B(16進表記)”“09(16進表記)”“0D(16進表記)”“FB(16進表記)”“F9(16進表記)”“FD(16進表記)”“15(16進表記)”“35(16進表記)”“75(16進表記)”を構成する各ビット列に応じて、所定周波数範囲の周波数成分の強度を変化させて記録しておく。図23における4つのスピーカ付近の符号“0A(16進表記)”、“05(16進表記)” 、“FA(16進表記)”、“F5(16進表記)”に対応したビット列の矩形を見ればわかるように、本発明では、FLスピーカ用、FRスピーカ用、BLスピーカ用、BRスピーカ用の所定周波数範囲の周波数成分の強度を大・中・小の3段階に変化させている。これにより、中間の各マイクロフォンで取得される音の所定周波数成分が影響され、取得した音の所定周波数成分を解析した場合に、それぞれ異なる識別情報が抽出されることになる。   FIG. 23 shows a case where 25 positions are detected. In this case, one type of identification information is extracted at the center, and a total of 25 types of identification information are extracted. In the example of FIG. 23, the codes “0A (hexadecimal notation)”, “05 (hexadecimal notation)”, “FA (hexadecimal notation) are used as identification information for the FL speaker, the FR speaker, the BL speaker, and the BR speaker, respectively. Notation) ”and“ F5 (hexadecimal notation) ”are embedded. At this time, codes “1A (hexadecimal notation)” “3A (hexadecimal notation)” “7A (hexadecimal notation)” “0B (hexadecimal notation)” “09” are identification information to be extracted at the three intermediate positions. (Hexadecimal notation) "" 0D (hexadecimal notation) "" FB (hexadecimal notation) "" F9 (hexadecimal notation) "" FD (hexadecimal notation) "" 15 (hexadecimal notation) "" 35 (16 In accordance with each bit string constituting “75 (hexadecimal notation)”, the intensity of the frequency component in a predetermined frequency range is changed and recorded. The bit string rectangles corresponding to the codes “0A (hexadecimal notation)”, “05 (hexadecimal notation)”, “FA (hexadecimal notation)”, and “F5 (hexadecimal notation)” near the four speakers in FIG. As can be seen, in the present invention, the intensity of frequency components in a predetermined frequency range for the FL speaker, the FR speaker, the BL speaker, and the BR speaker is changed in three stages of large, medium, and small. Thereby, the predetermined frequency component of the sound acquired by each intermediate microphone is affected, and different identification information is extracted when the predetermined frequency component of the acquired sound is analyzed.

図23において、各ビットを埋め込む際の強度が検出位置に与える影響は、図2(b)を用いて説明した場合と同様となる。例えば、FLスピーカ付近(第1段目)のビット列の左端ビット“0”は強度“大”であるため、比較的遠い位置のマイクロフォンまで影響することになり、第2から第4段目のビット列の左端ビットのビット値は“0”となる。逆にBLスピーカ付近(第5段目)のビット列の左端ビット“1”は強度“小”であるため、比較的近い位置のマイクロフォンにも影響しない。   In FIG. 23, the influence of the strength when embedding each bit on the detection position is the same as that described with reference to FIG. For example, since the leftmost bit “0” in the bit string near the FL speaker (first stage) has the strength “high”, it affects the microphone at a relatively far position, and the second to fourth stage bit strings. The bit value of the leftmost bit of “0” is “0”. Conversely, the leftmost bit “1” in the bit string near the BL speaker (fifth stage) has a strength of “small” and therefore does not affect the microphone at a relatively close position.

左端から2番目のビットについては、FLスピーカ付近(第1段目)のビット列ではビット値“0”が強度“大”であり、左端ビットの場合と同じであるが、BLスピーカ付近(第5段目)のビット列でビット値“1”が強度“中”である。このため、第4段目においては、第5段目からの影響が第1段目からの影響に勝り、左から2番目のビット値は“1”となる。   For the second bit from the left end, the bit value “0” is the intensity “high” in the bit string near the FL speaker (first stage), which is the same as the case of the left end bit. The bit value “1” is the intensity “medium” in the bit string of the (stage). For this reason, in the fourth stage, the influence from the fifth stage is superior to the influence from the first stage, and the second bit value from the left is “1”.

図2(b)を用いて説明した場合と同様、図23の例では、第1段目と第5段目における所定周波数範囲の強度により中間のマイクロフォンで取得される周波数成分の強度を変化させるようにするため、途中のマイクロフォンにおいて異なるビット値が検出されることはない。例えば左端ビットの場合、第1段目のビット値“0”が、第4段目まで影響するため、途中の第2段目や第3段目のビット値が“1”になるようなことはなく、第1段目から第4段目までは全て同一のビット値“0”となる。左から2番目〜4番目までのビット値を縦方向(図面上下方向)に見ると、隣接する段の間でビット値に相違が生じるのは1箇所だけであり、2箇所で相違することはない。   As in the case described with reference to FIG. 2B, in the example of FIG. 23, the intensity of the frequency component acquired by the intermediate microphone is changed according to the intensity of the predetermined frequency range in the first stage and the fifth stage. Therefore, different bit values are not detected in the midway microphone. For example, in the case of the leftmost bit, the bit value “0” in the first stage affects up to the fourth stage, so that the bit values in the second and third stages in the middle become “1”. No, the first bit to the fourth row all have the same bit value “0”. When the second to fourth bit values from the left are viewed in the vertical direction (vertical direction in the drawing), there is only one difference in bit values between adjacent stages, and there is a difference between the two positions. Absent.

図23の例においては、1ワード目の前半4ビットは左右方向において同一であり、2ワード目の後半4ビットは前後方向において同一である。左右の中間に配置されたマイクロフォンで抽出される識別情報の2ワード目は、左右のスピーカ付近の識別情報の2ワード目の各ビットを埋め込む際の強度値に影響される。この影響の様子は、前後の場合および図2(b)の例の場合と同様となる。   In the example of FIG. 23, the first half 4 bits of the first word are the same in the left-right direction, and the second half 4 bits of the second word are the same in the front-rear direction. The second word of the identification information extracted by the microphone arranged in the middle of the left and right is affected by the intensity value when each bit of the second word of the identification information near the left and right speakers is embedded. The state of this influence is the same as in the case of before and after and in the example of FIG.

次に、4チャンネルの符号を埋め込む際に、強度をどのように変化させるかについて説明する。図21(a)、図22に示したように9種の識別情報を抽出させる場合は、強度を2段階に変化させる必要があり、図21(b)、図23に示したように25種の識別情報を抽出させる場合は、強度を“大” “中” “小”の3段階に変化させる必要がある。ここでは、強度を“大” “中” “小”とする場合について説明する。図20は、1組のAタイプ音響フレーム、Bタイプ音響フレーム(奇数番目か偶数番目かにより区別)における所定周波数成分の様子を示す図である。本発明では、後述するように、音響信号をサンプリングすることにより得られた所定数のサンプルを1音響フレームとして処理を行う。4チャンネルの音響信号の場合は、FL-ch(前左チャンネル)、FR-ch(前右チャンネル)、BL-ch(後左チャンネル)、BR-ch(後右チャンネル)とも同様に処理が行われるが、図20においては、代表してFL-ch(前左チャンネル)のみを示している。また、左端の1、2は音響フレームのAタイプ、Bタイプの別を示し、U、Dはそれぞれ変更対象周波数帯全体内の相対的な高周波、低周波成分を示し、右端の1、2は高周波、低周波に分けたそれぞれにおけるさらに低周波側、高周波側の別を示している。したがって、図20の例では、2個の音響フレームを示しており、例えば、“1U2”は、Aタイプの音響フレームの高周波側のさらに高周波側を示していることになる。また、Aタイプ、Bタイプの音響フレームは、実際に半分のサンプルが重複して設定されるが、図20では、説明の便宜上独立した形態で示している。また、図20において、“1U2”等の各周波数成分の文字の大きさは、相対的な強度の大小を示している。   Next, how to change the strength when embedding codes of four channels will be described. When extracting nine types of identification information as shown in FIGS. 21A and 22, it is necessary to change the intensity in two stages, and 25 types as shown in FIGS. 21B and 23. When the identification information is extracted, it is necessary to change the intensity into three levels of “large”, “medium”, and “small”. Here, the case where the intensity is “large”, “medium”, and “small” will be described. FIG. 20 is a diagram illustrating a state of a predetermined frequency component in a pair of A-type sound frames and B-type sound frames (identified by odd-numbered or even-numbered). In the present invention, as will be described later, a predetermined number of samples obtained by sampling an acoustic signal are processed as one acoustic frame. In the case of 4-channel audio signals, the same processing is performed for FL-ch (front left channel), FR-ch (front right channel), BL-ch (rear left channel), and BR-ch (rear right channel). However, in FIG. 20, only the FL-ch (front left channel) is shown as a representative. In addition, left and right 1 and 2 indicate whether the acoustic frame is of type A or B, U and D indicate relative high and low frequency components in the entire frequency band to be changed, respectively, The difference between the low frequency side and the high frequency side in each of the high frequency and the low frequency is shown. Therefore, in the example of FIG. 20, two acoustic frames are shown. For example, “1U2” indicates a higher frequency side of the high frequency side of the A type acoustic frame. In addition, in the A-type and B-type acoustic frames, half of the samples are actually set to overlap, but in FIG. 20, they are shown in an independent form for convenience of explanation. In FIG. 20, the size of each frequency component character such as “1U2” indicates the relative strength.

本発明では、奇数番目の音響フレームの高周波側と低周波側の成分強度の大小関係と、偶数番目の音響フレームの高周波側と低周波側の成分強度の大小関係が逆転するように処理を行う。奇数番目と偶数番目のどちらの音響フレームの高周波側を大きくするかによって、埋め込むビット値を変化させることができる。例えば、図20(a)が、ビット値“0”が埋め込まれた状態であるとすると、逆に1U2と2U1を大きくし、1U1と2U2を小さくした状態がビット値“1”が埋め込まれた状態となる。上記図2を用いて説明した強度“大” “中” “小”はそれぞれ図20(a)(b)(c)に対応している。すなわち、強度“大”であるほど、強度が大きい側(図20の例では1U1や2U2)と強度が小さい側(図20の例では1U2と2U1)の差が大きく、強度“小”であるほど、強度が大きい側と強度が小さい側の差が小さくなる。なお、9種の識別情報を抽出させる場合は、強度“大” “小”を用いれば良いだけである。   In the present invention, processing is performed so that the magnitude relationship between the component strengths on the high frequency side and the low frequency side of the odd-numbered acoustic frame and the magnitude relationship between the component strengths on the high frequency side and the low frequency side of the even-numbered acoustic frame are reversed. . The bit value to be embedded can be changed depending on whether the high-frequency side of the odd-numbered or even-numbered acoustic frame is increased. For example, in FIG. 20A, if the bit value “0” is embedded, the bit values “1” are embedded when 1U2 and 2U1 are increased and 1U1 and 2U2 are decreased. It becomes a state. The strengths “large”, “medium”, and “small” described with reference to FIG. 2 correspond to FIGS. 20A, 20B, and 20C, respectively. That is, the greater the strength is, the greater the difference between the higher strength side (1U1 and 2U2 in the example of FIG. 20) and the lower strength side (1U2 and 2U1 in the example of FIG. 20), and the strength is “small”. The difference between the higher strength side and the lower strength side becomes smaller. When extracting nine types of identification information, it is only necessary to use the strengths “large” and “small”.

(2.1.埋め込み装置の構成)
次に、本発明に係る音響信号に対する情報の埋め込み装置について説明する。図3は、本発明に係る音響信号に対する情報の埋め込み装置の構成を示す機能ブロック図である。図3において、10は音響フレーム読込手段、20は周波数変換手段、30は周波数成分変更手段、40は周波数逆変換手段、50は改変音響フレーム出力手段、60は記憶手段、61は音響信号記憶部、62は識別情報記憶部、63は改変音響信号記憶部、70はビット配列作成手段である。なお、図3に示す装置は、ステレオ音響信号に対応している。
(2.1. Configuration of embedded device)
Next, an information embedding device for an acoustic signal according to the present invention will be described. FIG. 3 is a functional block diagram showing a configuration of an information embedding device for an acoustic signal according to the present invention. In FIG. 3, 10 is an acoustic frame reading means, 20 is a frequency converting means, 30 is a frequency component changing means, 40 is a frequency inverse converting means, 50 is a modified acoustic frame output means, 60 is a storage means, and 61 is an acoustic signal storage section. , 62 is an identification information storage unit, 63 is a modified acoustic signal storage unit, and 70 is a bit array creation means. Note that the apparatus shown in FIG. 3 is compatible with stereo sound signals.

音響フレーム読込手段10は、識別情報の埋め込み対象とする元のステレオ音響信号の各チャンネルから所定数のサンプルを1フレームとして読み込む機能を有している。周波数変換手段20は、音響フレーム読込手段10が読み込んだ音響信号のフレームをフーリエ変換等により周波数変換してスペクトルを生成する機能を有している。周波数成分変更手段30は、生成されたスペクトルから所定の周波数範囲に相当するスペクトル集合を複数抽出し、識別情報記憶部62から抽出した識別情報よりビット配列作成手段70が作成したビット配列に基づいて、スペクトル集合の状態を変更する機能を有している。周波数逆変換手段40は、変更されたスペクトル集合を含む複数のスペクトルに対して周波数逆変換を行うことにより、改変音響フレームを生成する機能を有している。改変音響フレーム出力手段50は、生成された改変音響フレームを順次出力する機能を有している。   The sound frame reading means 10 has a function of reading a predetermined number of samples as one frame from each channel of the original stereo sound signal to be embedded with identification information. The frequency conversion means 20 has a function of generating a spectrum by frequency-converting the frame of the acoustic signal read by the acoustic frame reading means 10 by Fourier transformation or the like. The frequency component changing unit 30 extracts a plurality of spectrum sets corresponding to a predetermined frequency range from the generated spectrum, and based on the bit arrangement created by the bit arrangement creating unit 70 from the identification information extracted from the identification information storage unit 62. The function of changing the state of the spectrum set is provided. The frequency inverse transform means 40 has a function of generating a modified acoustic frame by performing frequency inverse transform on a plurality of spectra including the changed spectrum set. The modified sound frame output means 50 has a function of sequentially outputting the generated modified sound frames.

記憶手段60は、識別情報を埋め込む対象とするステレオ音響信号を記憶した音響信号記憶部61と、ビット列として構成され、ステレオ音響信号に埋め込まれる識別情報を記憶した識別情報記憶部62と、識別情報埋め込み後の改変音響信号を記憶する改変音響信号記憶部63を有しており、その他処理に必要な各種情報を記憶するものである。ビット配列作成手段70は、識別情報記憶部62から識別情報を抽出し、識別情報の各ワードについて、符号変換テーブルを参照し、対応するビット配列を作成する機能を有している。   The storage unit 60 includes an acoustic signal storage unit 61 that stores a stereo acoustic signal to be embedded with identification information, an identification information storage unit 62 that is configured as a bit string and stores identification information embedded in the stereo acoustic signal, and identification information. It has a modified acoustic signal storage unit 63 for storing the modified acoustic signal after embedding, and stores various information necessary for other processing. The bit array creation means 70 has a function of extracting the identification information from the identification information storage unit 62 and creating a corresponding bit array by referring to the code conversion table for each word of the identification information.

なお、音響情報に埋め込む識別情報は、位置を特定するために、各位置を他の位置と区別して、一意に識別することが可能な情報である。なお、本実施形態では、検出側における識別情報の抽出精度を高めるため、Nwビットの識別情報をNhビットに変換した後、このNhビットの各ビットを埋め込む処理を行っている。Nw、Nhの具体的な数値は適宜設定可能であるが、本実施形態ではNw、NhをそれぞれNw=8、Nh=16としている。本実施形態では、ビット配列作成手段70が作成するビット配列は、16ビットとなり、ビット配列作成後は、この16ビットを1ワードとして処理している。図3に示した各構成手段は、現実にはコンピュータおよびその周辺機器等のハードウェアに専用のプログラムを搭載することにより実現される。すなわち、コンピュータが、専用のプログラムに従って各手段の内容を実行することになる。   The identification information embedded in the acoustic information is information that can be uniquely identified by distinguishing each position from other positions in order to specify the position. In the present embodiment, in order to improve the accuracy of extracting identification information on the detection side, Nw-bit identification information is converted into Nh bits, and then processing for embedding each Nh-bit is performed. Although specific numerical values of Nw and Nh can be set as appropriate, in this embodiment, Nw and Nh are set to Nw = 8 and Nh = 16, respectively. In the present embodiment, the bit array created by the bit array creating means 70 is 16 bits, and after the bit array is created, the 16 bits are processed as one word. Each component shown in FIG. 3 is actually realized by mounting a dedicated program on hardware such as a computer and its peripheral devices. That is, the computer executes the contents of each means according to a dedicated program.

(2.2.埋め込み装置の処理動作)
次に、図3に示した音響信号に対する情報の埋め込み装置の処理動作について説明する。音響フレーム読込手段10は、音響信号記憶部61に記憶されたステレオ音響信号の前左、前右、後左、後右の各チャンネルから、それぞれ所定数Nのサンプルを1音響フレームとして読み込む。音響フレーム読込手段10が読み込む1音響フレームのサンプル数Nは、適宜設定することができるが、サンプリング周波数が44.1kHzの場合、4096サンプル程度とすることが望ましい。したがって、音響フレーム読込手段10は、前左、前右、後左、後右の各チャンネルについてそれぞれ4096サンプルずつ、順次音響フレームとして読み込んでいくことになる。
(2.2. Processing operation of embedded device)
Next, the processing operation of the information embedding device for the acoustic signal shown in FIG. 3 will be described. The acoustic frame reading means 10 reads a predetermined number N of samples as one acoustic frame from each of the front left, front right, rear left, and rear right channels of the stereo acoustic signal stored in the acoustic signal storage unit 61. The number N of samples of one acoustic frame read by the acoustic frame reading means 10 can be set as appropriate, but is desirably about 4096 samples when the sampling frequency is 44.1 kHz. Accordingly, the acoustic frame reading means 10 sequentially reads 4096 samples as acoustic frames for each of the front left, front right, rear left, and rear right channels.

音響フレームとしては、AタイプとBタイプが存在する。Aタイプの音響フレーム、Bタイプの音響フレームは、それぞれ同タイプの先行する音響フレームの最後のサンプルの次のサンプルを先頭サンプルとして設定される。そして、AタイプとBタイプの音響フレームは互いに所定数(本実施形態では2048)のサンプルを重複して設定される。例えば、Aタイプの音響フレームを先頭からA1、A2、A3…とし、Bタイプの音響フレームを先頭からB1、B2、B3…とすると、A1はサンプル1〜4096、A2はサンプル4097〜8192、A3はサンプル8193〜12288、B1はサンプル2049〜6144、B2はサンプル6145〜10240、B3はサンプル10241〜14336となる。なお、AタイプとBタイプは相対的なものであるので、どちらが先であっても良い。すなわち、上記とは逆にA1がサンプル2049〜6144、A2がサンプル6145〜10240、A3がサンプル10241〜14336、B1がサンプル1〜4096、B2がサンプル4097〜8192、B3がサンプル8193〜12288であっても良い。   There are A type and B type as acoustic frames. In the A-type acoustic frame and the B-type acoustic frame, the next sample after the last sample of the preceding acoustic frame of the same type is set as the first sample. The A-type and B-type sound frames are set by overlapping a predetermined number (2048 in this embodiment) of samples. For example, if the A type acoustic frame is A1, A2, A3... From the top and the B type acoustic frame is B1, B2, B3... From the top, A1 is samples 1 to 4096, A2 is samples 4097 to 8192, A3. Is samples 8193-12288, B1 is samples 2049-6144, B2 is samples 6145-10240, and B3 is samples 10241-14336. Since the A type and the B type are relative, either one may be first. That is, contrary to the above, A1 is samples 2049 to 6144, A2 is samples 6145 to 10240, A3 is samples 10241 to 14336, B1 is samples 1 to 4096, B2 is samples 4097 to 8192, and B3 is samples 8193 to 12288. May be.

周波数変換手段20は、振幅変換後の音響フレームに対して周波数変換を行って、その音響フレームのスペクトルを得る。具体的には、窓関数を利用して周波数変換を行う。周波数変換としては、フーリエ変換、ウェーブレット変換その他公知の種々の手法を用いることができる。本実施形態では、フーリエ変換を用いた場合を例にとって説明する。   The frequency converting means 20 performs frequency conversion on the acoustic frame after amplitude conversion, and obtains the spectrum of the acoustic frame. Specifically, frequency conversion is performed using a window function. As frequency conversion, Fourier transform, wavelet transform, and other various known methods can be used. In the present embodiment, a case where Fourier transform is used will be described as an example.

一般に、所定の信号に対してフーリエ変換を行う場合、信号を所定の長さに区切って行う必要があるが、この場合、所定長さの信号に対してそのままフーリエ変換を行うと、擬似高調波成分が発生する。そこで、一般にフーリエ変換を行う場合には、ハニング窓と呼ばれる窓関数を用いて、信号の値を変化させた後、変化後の値に対してフーリエ変換を実行する。   In general, when Fourier transform is performed on a predetermined signal, it is necessary to divide the signal into predetermined lengths. In this case, if Fourier transform is performed on a signal of a predetermined length as it is, a pseudo-harmonic wave is generated. Ingredients are generated. Therefore, in general, when performing Fourier transform, a signal value is changed using a window function called a Hanning window, and then Fourier transform is performed on the changed value.

本実施形態においても、窓関数を利用しているが、Aタイプの音響フレーム、Bタイプの音響フレームで、使用する窓関数を分けている。本実施形態では、図4(a)(b)に示したような第1窓関数W(1,i)、第2窓関数W(2,i)を用意し、抽出側で認識し易いようにした。第1窓関数W(1,i)は、Aタイプの音響フレームに対して用いるためのものであり、図4(a)に示すように所定のサンプル番号iの位置において、最大値1をとり、後部においては、最小値0をとるように設定されている。どのサンプル番号の場合に最大値をとるかについては、窓関数W(1,i)の設計によって異なってくるが、本実施形態では、後述する〔数式1〕で定義される。Aタイプの音響フレームについてのフーリエ変換は、この窓関数W(1,i)を乗じたものに対して行われることになる。   In this embodiment, the window function is used, but the window function to be used is divided into the A type acoustic frame and the B type acoustic frame. In the present embodiment, the first window function W (1, i) and the second window function W (2, i) as shown in FIGS. 4A and 4B are prepared so that the extraction side can easily recognize them. I made it. The first window function W (1, i) is for use with an A type acoustic frame and takes a maximum value of 1 at the position of a predetermined sample number i as shown in FIG. In the rear part, the minimum value is set to 0. Which sample number takes the maximum value depends on the design of the window function W (1, i), but in this embodiment, it is defined by [Equation 1] described later. The Fourier transform for the A type acoustic frame is performed on the product of the window function W (1, i).

また、第2窓関数W(2,i)は、Bタイプの音響フレームに対して用いるためのものであり、図4(b)に示すように、所定のサンプル番号iの位置において、最大値1をとり、前部においては、最小値0をとるように設定されている。どのサンプル番号の場合に最大値をとるかについては、窓関数W(2,i)の設計によって異なってくるが、本実施形態では、後述する〔数式2〕で定義される。Bタイプの音響フレームについてのフーリエ変換は、この窓関数W(2,i)を乗じたものに対して行われることになる。   The second window function W (2, i) is for use with a B-type acoustic frame, and has a maximum value at the position of a predetermined sample number i as shown in FIG. 1 is set, and the front portion is set to have a minimum value of 0. Which sample number takes the maximum value depends on the design of the window function W (2, i), but in this embodiment, it is defined by [Expression 2] described later. The Fourier transform for the B type acoustic frame is performed on the product of the window function W (2, i).

なお、上述のように、本実施形態においては、音響フレームは重複して読み込まれる。すなわち、奇数番目の音響フレームと偶数番目の音響フレームは、所定数のサンプルを重複して読み込む。上記のように、奇数フレームと偶数フレームでは、用いられる窓関数が異なるが、奇数フレームと偶数フレームは単に奇数か偶数かの違いだけであるため、どちらに対してどちらの処理を行っても良い。したがって、本明細書では、奇数フレーム、偶数フレームの一方をAタイプフレーム、他方をBタイプフレームと呼ぶことにする。本実施形態では、奇数フレームをAタイプフレーム、偶数フレームをBタイプフレームとして説明するが、逆に偶数フレームをAタイプフレーム、奇数フレームをBタイプフレームとしても良い。   As described above, in the present embodiment, the sound frame is read in duplicate. That is, a predetermined number of samples are redundantly read in the odd-numbered sound frames and the even-numbered sound frames. As described above, the window function used is different between the odd frame and the even frame, but since either the odd frame or the even frame is simply the difference between the odd frame and the even frame, either process may be performed on either. . Therefore, in this specification, one of the odd-numbered frame and the even-numbered frame is referred to as an A-type frame, and the other is referred to as a B-type frame. In the present embodiment, an odd frame is described as an A type frame and an even frame is described as a B type frame. Conversely, an even frame may be an A type frame and an odd frame may be a B type frame.

本実施形態では、窓関数W(1,i)、W(2,i)は、以下の〔数式1〕〔数式2〕で定義される。なお、図4において、横軸は時間軸(i)である。iは、後述するように、各音響フレーム内のN個のサンプルに付した通し番号であるため時刻tに比例している。また、図4(a)(b)において縦軸は信号の振幅値(レベル)を示す。図4(a)(b)において縦軸は窓関数W(1,i)、W(2,i)の値を示しており、W(1,i)、W(2,i)の最大値はいずれも1である。   In the present embodiment, the window functions W (1, i) and W (2, i) are defined by the following [Equation 1] and [Equation 2]. In FIG. 4, the horizontal axis is the time axis (i). As described later, i is a serial number assigned to N samples in each acoustic frame, and is proportional to time t. 4A and 4B, the vertical axis indicates the amplitude value (level) of the signal. 4A and 4B, the vertical axis indicates the values of the window functions W (1, i) and W (2, i), and the maximum values of W (1, i) and W (2, i). Are all 1.

〔数式1〕
i≦N/8のとき、W(1,i)=0.0
N/8<i≦3N/8のとき、W(1,i)=0.5−0.5cos(4π(i−N/8)/N)
3N/8<i≦11N/16のとき、W(1,i)=1.0
11N/16<i≦13N/16のとき、W(1,i)=0.5+0.5cos(8π(i−11N/16)/N)
i>13N/16のとき、W(1,i)=0.0
[Formula 1]
When i ≦ N / 8, W (1, i) = 0.0
When N / 8 <i ≦ 3N / 8, W (1, i) = 0.5−0.5 cos (4π (i−N / 8) / N)
When 3N / 8 <i ≦ 11N / 16, W (1, i) = 1.0
When 11N / 16 <i ≦ 13N / 16, W (1, i) = 0.5 + 0.5 cos (8π (i-11N / 16) / N)
When i> 13N / 16, W (1, i) = 0.0

〔数式2〕
i≦3N/16のとき、W(2,i)=0.0
3N/16<i≦5N/16のとき、W(2,i)=0.5−0.5cos(8π(i−3N/16)/N)
5N/16<i≦5N/8のとき、W(2,i)=1.0
5N/8<i≦7N/8のとき、W(2,i)=0.5+0.5cos(4π(i−5N/8)/N)
i>7N/8のとき、W(2,i)=0.0
[Formula 2]
When i ≦ 3N / 16, W (2, i) = 0.0
When 3N / 16 <i ≦ 5N / 16, W (2, i) = 0.5−0.5 cos (8π (i−3N / 16) / N)
When 5N / 16 <i ≦ 5N / 8, W (2, i) = 1.0
When 5N / 8 <i ≦ 7N / 8, W (2, i) = 0.5 + 0.5 cos (4π (i−5N / 8) / N)
When i> 7N / 8, W (2, i) = 0.0

なお、図4および上記〔数式1〕〔数式2〕から明らかなように、窓関数W(1,i)とW(2,i)は、互いに非対称な形状である。これは、後述する抽出側において、両者の識別を容易にするためである。   As is clear from FIG. 4 and [Formula 1] and [Formula 2], the window functions W (1, i) and W (2, i) are asymmetrical to each other. This is for facilitating identification between the two on the extraction side described later.

本発明においては、奇数フレームと偶数フレームを、所定サンプルずつ重複して読み込むため、情報の埋め込みを行った後、音響信号に復元する際に、窓関数を乗じた奇数フレームと、窓関数を乗じた偶数フレームの重複サンプルを加算した場合に、ほぼ元の値に戻るようにしなければならない。このため、奇数フレームと偶数フレームの重複部分において、窓関数W(1,i)、W(2,i)を加算すると、全区間固定値1になるように定義されている。   In the present invention, since odd frames and even frames are redundantly read by a predetermined number of samples, after embedding information and then restoring to an acoustic signal, the odd frame multiplied by the window function and the window function are multiplied. When overlapping samples of even frames are added, it is necessary to return almost to the original value. For this reason, when the window functions W (1, i) and W (2, i) are added in the overlapping portion of the odd frame and the even frame, it is defined to be a fixed value 1 for all sections.

周波数変換手段20が、Aタイプの音響フレームに対してフーリエ変換を行う場合は、左チャンネル信号Xl(i)、右チャンネル信号Xr(i)(i=0,…,N−1)に対して、窓関数W(1,i)を用いて、以下の〔数式3〕に従った処理を行い、左チャンネルに対応する変換データの実部Al(1,j)、虚部Bl(1,j)、右チャンネルに対応する変換データの実部Ar(1,j)、虚部Br(1,j)を得る。なお、以下の説明において、左チャンネル信号Xl(i)を用いた説明は、前左チャンネル信号、後左チャンネル信号に共通するものであり、右チャンネル信号Xr(i)を用いた説明は、前右チャンネル信号、後右チャンネル信号に共通するものである。   When the frequency conversion means 20 performs Fourier transform on the A type sound frame, the left channel signal Xl (i) and the right channel signal Xr (i) (i = 0,..., N−1). The window function W (1, i) is used to perform processing according to the following [Equation 3], and real part Al (1, j) and imaginary part Bl (1, j) of the conversion data corresponding to the left channel are performed. ), Real part Ar (1, j) and imaginary part Br (1, j) of the conversion data corresponding to the right channel are obtained. In the following description, the description using the left channel signal Xl (i) is common to the front left channel signal and the rear left channel signal, and the description using the right channel signal Xr (i) This is common to the right channel signal and the rear right channel signal.

〔数式3〕
Al(1,j)=Σi=0,…,N-1W(1,i)・Xl(i)・cos(2πij/N)
Bl(1,j)=Σi=0,…,N-1W(1,i)・Xl(i)・sin(2πij/N)
Ar(1,j)=Σi=0,…,N-1W(1,i)・Xr(i)・cos(2πij/N)
Br(1,j)=Σi=0,…,N-1W(1,i)・Xr(i)・sin(2πij/N)
[Formula 3]
Al (1, j) = Σi = 0,..., N-1 W (1, i) .Xl (i) .cos (2πij / N)
Bl (1, j) = Σi = 0,..., N-1 W (1, i) · Xl (i) · sin (2πij / N)
Ar (1, j) = Σi = 0,..., N-1 W (1, i) .Xr (i) .cos (2πij / N)
Br (1, j) = Σ i = 0,..., N-1 W (1, i) · Xr (i) · sin (2πij / N)

周波数変換手段20が、Bタイプの音響フレームに対してフーリエ変換を行う場合は、左チャンネル信号Xl(i+N/2)、右チャンネル信号Xr(i+N/2)(i=0,…,N−1)に対して、窓関数W(2,i)を用いて、以下の〔数式4〕に従った処理を行い、左チャンネルに対応する変換データの実部Al(2,j)、虚部Bl(2,j)、右チャンネルに対応する変換データの実部Ar(2,j)、虚部Br(2,j)を得る。   When the frequency converting means 20 performs Fourier transform on the B type sound frame, the left channel signal Xl (i + N / 2), the right channel signal Xr (i + N / 2) (i = 0,..., N−1) ) Is processed using the window function W (2, i) according to the following [Equation 4], and the real part Al (2, j) and imaginary part Bl of the conversion data corresponding to the left channel are performed. (2, j), real part Ar (2, j) and imaginary part Br (2, j) of the conversion data corresponding to the right channel are obtained.

〔数式4〕
Al(2,j)=Σi=0,…,N-1W(2,i)・Xl(i+N/2)・cos(2πij/N)
Bl(2,j)=Σi=0,…,N-1W(2,i)・Xl(i+N/2)・sin(2πij/N)
Ar(2,j)=Σi=0,…,N-1W(2,i)・Xr(i+N/2)・cos(2πij/N)
Br(2,j)=Σi=0,…,N-1W(2,i)・Xr(i+N/2)・sin(2πij/N)
[Formula 4]
Al (2, j) = Σi = 0,..., N-1 W (2, i) · Xl (i + N / 2) · cos (2πij / N)
Bl (2, j) = Σi = 0,..., N-1 W (2, i) .Xl (i + N / 2) .sin (2πij / N)
Ar (2, j) = Σi = 0,..., N-1 W (2, i) .Xr (i + N / 2) .cos (2πij / N)
Br (2, j) = Σi = 0,..., N-1 W (2, i) .Xr (i + N / 2) .sin (2πij / N)

上記〔数式3〕〔数式4〕において、iは、各音響フレーム内のN個のサンプルに付した通し番号であり、i=0,1,2,…N−1の整数値をとる。また、jは周波数の値について、値の小さなものから順に付した通し番号であり、iと同様にj=0,1,2,…N/2−1の整数値をとる。サンプリング周波数が44.1kHz、N=4096の場合、jの値が1つ異なると、周波数が10.8Hz異なることになる。   In the above [Expression 3] and [Expression 4], i is a serial number assigned to N samples in each acoustic frame, and takes an integer value of i = 0, 1, 2,... N−1. Further, j is a serial number assigned in order from the smallest value of the frequency value, and takes an integer value of j = 0, 1, 2,... N / 2-1 like i. When the sampling frequency is 44.1 kHz and N = 4096, if the value of j is different by one, the frequency will be different by 10.8 Hz.

上記〔数式3〕〔数式4〕に従った処理を実行することにより、各音響フレームの各窓関数に対応するスペクトルが得られる。続いて、周波数成分変更手段30が、生成されたスペクトルから所定周波数範囲のスペクトル集合を抽出する。本実施形態では、F1以上F2以下の範囲のものを抽出する。   By executing the processing according to the above [Equation 3] and [Equation 4], a spectrum corresponding to each window function of each acoustic frame is obtained. Subsequently, the frequency component changing unit 30 extracts a spectrum set in a predetermined frequency range from the generated spectrum. In the present embodiment, a range between F1 and F2 is extracted.

周波数変換手段20は、周波数変換を実行した後に、各スペクトル集合の平均値が設定値になるように変換する。いわゆる振幅を変換する処理を行う。この振幅変換は、各フレームごとのレベル差を軽減し、適切な情報の埋め込みが可能になるようにすることを目的としているため、設定値Zoとしては適宜設定することができる。   After performing the frequency conversion, the frequency conversion means 20 performs conversion so that the average value of each spectrum set becomes a set value. A so-called amplitude conversion process is performed. The purpose of this amplitude conversion is to reduce the level difference for each frame so that appropriate information can be embedded. Therefore, the set value Zo can be set as appropriate.

周波数変換手段20は、得られたスペクトル集合に対して、振幅変換を行うにあたり、まず変換倍率の算出を行う。変換倍率の算出は、所定周波数範囲のスペクトル集合の実効強度値の平均である平均実効値で上記設定値を除算することにより行う。具体的には、LチャンネルのAタイプの音響フレーム、Bタイプの音響フレーム、RチャンネルのAタイプの音響フレーム、Bタイプの音響フレームのスペクトル集合についての変換倍率Zl(1)、Zl(2)、Zr(1)、Zr(2)は、以下の〔数式5〕に従った処理により算出される。対象音響フレームが無音に近く、分母の二乗総和値が所定の値に満たない場合は、変換倍率を1.0に設定し、振幅変換は行わないようにする。振幅変換が実行されることにより、全ての音響フレームは、元の状態における信号強度に関わらず、各音響フレームのスペクトル集合の平均実効値が設定値となるように振幅変換された状態で、情報の埋め込みが行われることになる。   The frequency conversion means 20 first calculates the conversion magnification when performing the amplitude conversion on the obtained spectrum set. The conversion magnification is calculated by dividing the set value by an average effective value that is an average of effective intensity values of a spectrum set in a predetermined frequency range. Specifically, conversion magnifications Zl (1) and Zl (2) for spectrum sets of the L-channel A-type acoustic frame, the B-type acoustic frame, the R-channel A-type acoustic frame, and the B-type acoustic frame. , Zr (1), Zr (2) are calculated by processing according to the following [Equation 5]. When the target sound frame is close to silence and the square sum of the denominator is less than a predetermined value, the conversion magnification is set to 1.0 and the amplitude conversion is not performed. By performing the amplitude conversion, all the sound frames are in the state of amplitude conversion so that the average effective value of the spectrum set of each sound frame becomes the set value regardless of the signal intensity in the original state. Will be embedded.

〔数式5〕
Zl(1)=Zo/[Σj=m,…,M-1{Al(1,j)2+Bl(1,j)2}]1/2
Zl(2)=Zo/[Σj=m,…,M-1{Al(2,j)2+Bl(2,j)2}]1/2
Zr(1)=Zo/[Σj=m,…,M-1{Ar(1,j)2+Br(1,j)2}]1/2
Zr(2)=Zo/[Σj=m,…,M-1{Ar(2,j)2+Br(2,j)2}]1/2
[Formula 5]
Zl (1) = Zo / [Σ j = m,..., M−1 {Al (1, j) 2 + Bl (1, j) 2 }] 1/2
Zl (2) = Zo / [Σ j = m,..., M−1 {Al (2, j) 2 + Bl (2, j) 2 }] 1/2
Zr (1) = Zo / [Σ j = m,..., M−1 {Ar (1, j) 2 + Br (1, j) 2 }] 1/2
Zr (2) = Zo / [Σ j = m,..., M−1 {Ar (2, j) 2 + Br (2, j) 2 }] 1/2

上記〔数式5〕において、mおよびMは変更対象周波数帯の下限および上限で、Zo=M−mであり、本実施形態では、Zo=288である。   In the above [Equation 5], m and M are the lower limit and upper limit of the frequency band to be changed, and Zo = M−m. In the present embodiment, Zo = 288.

さらに、j=m,…,M−1(周波数F1,...,F2に相当)の範囲で、Al(1,j)およびBl(1,j)の各々の要素に対してZl(1)を乗じ、Al(2,j)およびBl(2,j)の各々の要素に対してZl(2)を乗じ、Ar(1,j)およびBr(1,j)の各々の要素に対してZr(1)を乗じ、Ar(2,j)およびBr(2,j)の各々の要素に対してZr(2)を乗じることにより、振幅変換を行う。以下説明において、Al(1,j)、Bl(1,j)、Al(2,j)、Bl(2,j)、Ar(1,j)、Br(1,j)、Ar(2,j)、Br(2,j)はこれらの振幅変換を行った値とする。   Further, Zl (1) for each element of Al (1, j) and Bl (1, j) in the range of j = m,..., M−1 (corresponding to frequencies F1,..., F2). ), Multiply each element of Al (2, j) and Bl (2, j) by Zl (2), and multiply each element of Ar (1, j) and Br (1, j) The amplitude is converted by multiplying Zr (1) and multiplying each element of Ar (2, j) and Br (2, j) by Zr (2). In the following description, Al (1, j), Bl (1, j), Al (2, j), Bl (2, j), Ar (1, j), Br (1, j), Ar (2, j) and Br (2, j) are values obtained by performing these amplitude conversions.

周波数成分変更手段30は、Aタイプの音響フレームについて、ビット配列作成手段70が作成したビット配列に応じて、所定周波数成分の割合を変更する処理を行う。本発明では、ビット配列を1ビットまたは2ビットずつ読み込み、Aタイプ、Bタイプの1対の音響フレームに対して1ビットまたは2ビットの情報を埋め込む。埋め込まれる1ビットの値は、“0” “1”の2通りがある。本実施形態では、これらを値1、値2と定義する。2種類の符号を埋め込むことができるという点で、これらを符号1、符号2と表現することも可能である。この際、“0”“1”の2通りのうち、いずれを値1、値2(符号1、符号2)と定義しても良い。抽出側において、埋め込み側で埋め込まれた1ビットが特定できれば良いためである。したがって、この定義は、埋め込み側と抽出側で一致している必要がある。   The frequency component changing unit 30 performs a process of changing the ratio of the predetermined frequency component for the A type sound frame according to the bit arrangement created by the bit arrangement creating unit 70. In the present invention, a bit array is read one bit or two bits at a time, and 1-bit or 2-bit information is embedded in a pair of acoustic frames of A type and B type. There are two 1-bit values to be embedded: “0” and “1”. In the present embodiment, these are defined as value 1 and value 2. These can be expressed as code 1 and code 2 in that two types of codes can be embedded. At this time, any one of “0” and “1” may be defined as a value 1 and a value 2 (reference numerals 1 and 2). This is because it is sufficient that one bit embedded on the extraction side can be specified on the extraction side. Therefore, this definition must match between the embedding side and the extraction side.

周波数成分の変更の手法としては、様々なものが考えられるが、本実施形態では、人間の聴覚心理特性である音脈分凝の原理を利用する。音脈分凝とは、時系列に高い音と低い音が交互に進行するパターンに対して、人間が、あたかも高低2つのトラックが連続して流れるように音を補間して聞いてしまう錯覚現象である。   Various methods of changing the frequency component are conceivable, but in this embodiment, the principle of sound pulse condensation, which is a human auditory psychological characteristic, is used. The syllable segregation is an illusion that humans interpolate and hear sounds as if two tracks of high and low are flowing continuously against a pattern in which high and low sounds alternate in time series. It is.

具体的には、埋め込み装置で、音響信号から抽出した所定数のサンプルで構成される音響フレーム内の所定周波数範囲の周波数成分を変更するに際し、その強弱が音脈分凝を発生させるような状態に変更する。これにより、人間には、音が途切れたようには聞こえないが、抽出装置では、その明確な変化を認識することができる。   Specifically, when the frequency component of a predetermined frequency range in an acoustic frame composed of a predetermined number of samples extracted from an acoustic signal is changed by the embedding device, the strength and weakness generate a sound pulse fraction. Change to As a result, although it does not sound as if the sound is interrupted by a human, the extraction device can recognize the clear change.

本実施形態では、音脈分凝の原理を利用して、音響フレームの変更対象周波数帯の成分を2つの状態に変更し、1ビットの情報を埋め込むようにしている。音脈分凝の原理を利用した情報の埋め込み手法としては、上記特許文献2に示したような手法を採用することもできるが、本実施形態では、抽出感度および精度を向上させることを目的として識別情報を埋め込むための周波数領域を大きく確保できるように、識別情報を埋め込むための周波数領域において、高低2つの帯域で二重に音脈分凝の原理が機能するようにした。なお、高低2つの帯域は独立して音脈分凝を機能させるため、双方の周波数幅は必ずしも同一である必要はなく(ただし、各々の帯域は周波数方向に更に2分割されるが、2分割領域の幅は同一にする)。ここで、埋め込み処理の前後における音響フレームの所定周波数成分の変化の状態について説明する。図5に、本実施形態によるAタイプ、BタイプのLチャンネル1音響フレームの所定周波数成分の状態を示す。Rチャンネルについては、Lチャンネルと同様であるので省略してある。図5に示す各音響フレームにおいて、横軸は時間方向、縦軸は周波数方向を示している。   In the present embodiment, using the principle of sound pulse segregation, the components of the change target frequency band of the acoustic frame are changed to two states, and 1-bit information is embedded. As an information embedding method using the principle of sound pulse segregation, the method shown in the above-mentioned Patent Document 2 can be adopted. However, in this embodiment, for the purpose of improving the extraction sensitivity and accuracy. In order to secure a large frequency region for embedding the identification information, the principle of sound pulse concentration double functions in two bands, high and low, in the frequency region for embedding the identification information. In addition, since the two high and low bands function the sound pulse separation function independently, both frequency widths do not necessarily have to be the same (however, each band is further divided into two in the frequency direction, but divided into two). The width of the area is the same). Here, the state of change of the predetermined frequency component of the acoustic frame before and after the embedding process will be described. FIG. 5 shows a state of predetermined frequency components of the A type and B type L channel 1 sound frames according to the present embodiment. The R channel is omitted because it is the same as the L channel. In each acoustic frame shown in FIG. 5, the horizontal axis indicates the time direction, and the vertical axis indicates the frequency direction.

図5においては、縦軸の周波数方向において、周波数領域が6つに区分されているが、上から2番目〜5番目の領域、すなわち、周波数F1以上F2以下の間が変更対象周波数帯であり、最上部すなわち周波数F2超、最下部すなわちF1未満は、変更対象でない周波数帯である。すなわち、本実施形態では、周波数F1以上F2以下を所定周波数範囲として、スペクトル集合の強度を変更することになる。図5(a)に示すように、Aタイプ音響フレームの変更対象周波数帯については、周波数が低い順に、そのスペクトル集合を1D1、1D2、1U1、1U2で表現することとする。また、図5(b)に示すように、Bタイプ音響フレームの変更対象周波数帯については、周波数が低い順に、そのスペクトル集合を2D1、2D2、2U1、2U2で表現することとする。   In FIG. 5, the frequency region is divided into six in the frequency direction of the vertical axis, but the change target frequency band is the second to fifth regions from the top, that is, between F1 and F2. The uppermost part, that is, the frequency exceeding F2, and the lowermost part, that is, less than F1, are frequency bands not to be changed. That is, in the present embodiment, the intensity of the spectrum set is changed by setting the frequency F1 to F2 as a predetermined frequency range. As shown in FIG. 5A, regarding the change target frequency band of the A type acoustic frame, the spectrum set is expressed by 1D1, 1D2, 1U1, and 1U2 in order of increasing frequency. Further, as shown in FIG. 5 (b), for the change target frequency band of the B-type acoustic frame, the spectrum set is represented by 2D1, 2D2, 2U1, and 2U2 in order of increasing frequency.

1ビット埋め込み方式で、符号1を埋め込む場合、図5(c)(e)に示すように、1D1と2D2の強度の積、1U1と2U2の強度の積を相対的に強い状態に変更し、1D2と2D1の強度の積、1U2と2U1の強度の積を相対的に弱い状態に変更する。この状態を“状態1”と呼ぶことにする。符号2を埋め込む場合は、図5(d)(f)に示すように、1D2と2D1の強度の積、1U2と2U1の強度の積を相対的に強い状態に変更し、1D1と2D2の強度の積、1U1と2U2の強度の積を相対的に弱い状態に変更する。この状態を“状態2”と呼ぶことにする。網掛けされた部分の濃さは、同濃度のものは、積を求めるための組となるスペクトル集合であることを示している。網掛けの色が濃い方が相対的に強度が強い状態に変更される組を示している。   When the code 1 is embedded by the 1-bit embedding method, as shown in FIGS. 5C and 5E, the product of the strengths of 1D1 and 2D2 and the product of the strengths of 1U1 and 2U2 are changed to a relatively strong state. The product of the strengths of 1D2 and 2D1 is changed to a relatively weak state. This state is referred to as “state 1”. When embedding the code 2, as shown in FIGS. 5D and 5F, the product of the intensity of 1D2 and 2D1 is changed to a relatively strong state, and the product of the intensity of 1U2 and 2U1 is changed to a relatively strong state. The product of the intensity of 1U1 and 2U2 is changed to a relatively weak state. This state is referred to as “state 2”. The shaded portions indicate that the ones having the same concentration are a spectrum set that is a set for obtaining a product. The darker shaded color indicates a group that is changed to a relatively strong state.

1ビット埋め込み方式では、図5(c)(e)または(d)(f)に示すような2つの状態にAタイプ、Bタイプの音響フレームの周波数成分を変更することにより、情報の埋め込みを行っている。2つの状態であるので1ビット分の情報量に相当する。図5(c)〜(f)に示したように、1ビット埋め込み方式の場合、変更対象周波数帯の上位周波数帯と下位周波数帯が全く同一のパターンとなっている。2ビット埋め込み方式の場合は、上位周波数帯と下位周波数帯を独立に変更することにより、上位周波数帯で1ビット、下位周波数帯で1ビットの表現が可能となる。   In the 1-bit embedding method, information is embedded by changing the frequency components of the A-type and B-type sound frames in two states as shown in FIGS. 5C, 5E, 5D, and 5F. Is going. Since there are two states, this corresponds to an information amount of 1 bit. As shown in FIGS. 5C to 5F, in the case of the 1-bit embedding method, the upper frequency band and the lower frequency band of the change target frequency band have the same pattern. In the case of the 2-bit embedding method, by independently changing the upper frequency band and the lower frequency band, it is possible to represent 1 bit in the upper frequency band and 1 bit in the lower frequency band.

本実施形態では、上記変更対象周波数帯F1〜F2を、“0.34kHz〜3.4kHz”に設定する。これは、以下のような理由による。すなわち、音声通信として普及度の高い携帯電話機を受信端末として利用する場合、上限については、電話回線帯域および携帯電話機の上限である3.4kHzとする必要がある。これは、携帯電話機の内部に搭載されているローパスフィルターが、電話交換機に合わせて、3.4kHz以下に対応したものとなっているためである。また、上位周波数帯の下限については、上限の3.4kHzから1オクターブ下がった1.7kHzとすることとした。そして、下位周波数帯の上限を上位周波数帯の下限と同じく、1.7kHzとし、下位周波数帯の下限については、電話回線帯域および携帯電話機の下限である0.3kHz以上とする必要がある。これは、携帯電話機の内部に搭載されているハイパスフィルターが、電話交換機に合わせて、0.3kHz以上に対応したものとなっているためである。そこで、上限の1.7kHzから2オクターブ強下がった0.34kHzとすることとした。下位周波数帯の周波数範囲は、上位周波数帯の周波数範囲に比べ若干狭くなるが、分布している信号成分の強度は平均4倍程度になるため、上位周波数帯より下位周波数帯の方が大きな感度を持つと推定できる。なお、“0.34kHz”“1.7kHz”“3.4kHz”という値は、代表的な値であり、必ずしも正確な値である必要はなく、そこから若干ずれた値であっても良い。   In the present embodiment, the change target frequency bands F1 to F2 are set to “0.34 kHz to 3.4 kHz”. This is due to the following reasons. That is, when a mobile phone having a high degree of spread as voice communication is used as a receiving terminal, the upper limit needs to be 3.4 kHz which is the upper limit of the telephone line band and the mobile phone. This is because the low-pass filter mounted inside the mobile phone corresponds to 3.4 kHz or less in accordance with the telephone exchange. Also, the lower limit of the upper frequency band is set to 1.7 kHz, which is one octave lower than the upper limit of 3.4 kHz. The upper limit of the lower frequency band is set to 1.7 kHz, similar to the lower limit of the upper frequency band, and the lower limit of the lower frequency band needs to be 0.3 kHz or more, which is the lower limit of the telephone line band and the mobile phone. This is because the high-pass filter mounted inside the mobile phone corresponds to 0.3 kHz or more according to the telephone exchange. Therefore, the upper limit of 1.7 kHz is set to 0.34 kHz, which is slightly lower by 2 octaves. The frequency range of the lower frequency band is slightly narrower than the frequency range of the upper frequency band, but the intensity of the distributed signal components is about 4 times on average, so the sensitivity of the lower frequency band is greater than that of the upper frequency band. Can be estimated. The values “0.34 kHz”, “1.7 kHz”, and “3.4 kHz” are representative values, and are not necessarily accurate values, and may be slightly deviated from them.

図5に示した例では、相対的に強い状態と弱い状態に変更することについて説明したが、この強弱の程度については、状況に応じて設定することが可能である。両者の割合は、以下に述べるように、その差が大きいほど抽出時の精度が高くなるが、補間される割合は不完全になり、再生時に不連続成分によるノイズが聞こえる。一方、両者の割合が均等であるほど再生品質は原音に近付くが、埋め込んだビットの抽出ができなくなり、再生品質と抽出精度はトレードオフの関係になる。例えば、強い方を100%、弱い方を0%とした場合、音脈分凝により、補間される部分の音は図5のような変更を行なう前に原音響信号で鳴っていた音の50%程度となることが確認されている。そこで、強い方を70%、弱い方を30%とした場合、音脈分凝により、補間される部分の音は図5のような変更を行なう前に原音響信号で鳴っていた音とほぼ同程度となり、この割合が抽出精度を維持できる限界であることが確認されている。このため、相対的に強いスペクトル集合と、相対的に弱いスペクトル集合の強度の割合を70%と30%程度とすることを目標に設定することが好ましい。ただし、本発明では、中間で検出されるビットをいずれのスピーカから発せられたものとするかにより、強弱を変更させる必要も生じる。そこで、本実施形態では、後述する具体的な処理において、強い状態を設定するための係数α1=0.66、α2=0.72、α3=0.78、弱い状態を設定するための係数β1=0.34、β2=0.28、β3=0.22とする。なお、α3、β3については、25種の識別情報を抽出させるために、強度を3段階に設定する場合に必要なものであり、9種の識別情報を抽出させるために、強度を2段階に設定する場合には不要である。逆に、より多くの識別情報を抽出させるために、強度をより多くの段階に設定する場合には、より多くのαk(k=1,2,・・・,(n+1)/2)の設定が必要となる。また、強い状態に変更すべきスペクトル集合の強度が元々小さい場合には、係数α、βを補正する必要が生じる。このため、周波数成分変更手段30は、まず、以下の〔数式6〕に従った処理を実行することにより、各スペクトル集合の強度E1D1、E2D1、E1D2、E2D2、E1U1、E2U1、E1U2、E2U2を算出する。 In the example illustrated in FIG. 5, the change to the relatively strong state and the weak state has been described, but the degree of the strength can be set according to the situation. As will be described below, the greater the difference between the two, the higher the accuracy at the time of extraction. However, the ratio of interpolation is incomplete, and noise due to discontinuous components is heard during reproduction. On the other hand, as the ratio between the two is equal, the reproduction quality approaches the original sound, but the embedded bits cannot be extracted, and the reproduction quality and extraction accuracy are in a trade-off relationship. For example, when the strong side is set to 100% and the weak side is set to 0%, the sound of the part to be interpolated due to the pulse division is 50% of the sound that was played in the original acoustic signal before the change as shown in FIG. % Has been confirmed. Therefore, if the strong side is 70% and the weak side is 30%, the sound of the part to be interpolated is almost the same as the sound that was played in the original sound signal before making the change as shown in FIG. It has been confirmed that this ratio is the limit that can maintain the extraction accuracy. For this reason, it is preferable to set the ratio of the intensity of the relatively strong spectrum set and the relatively weak spectrum set to about 70% and 30%. However, in the present invention, it is necessary to change the strength depending on from which speaker the bit detected in the middle is emitted. Therefore, in this embodiment, in a specific process described later, coefficients α 1 = 0.66, α 2 = 0.72, α 3 = 0.78, and a weak state are set for setting a strong state. The coefficients β 1 = 0.34, β 2 = 0.28, and β 3 = 0.22. Note that α 3 and β 3 are necessary when the intensity is set at three levels in order to extract 25 types of identification information. In order to extract 9 types of identification information, the intensity is 2 This is not necessary when setting the stage. On the other hand, in order to extract more identification information, when the intensity is set to more stages, more α k (k = 1, 2,..., (N + 1) / 2) Setting is required. Further, when the intensity of the spectrum set to be changed to a strong state is originally small, it is necessary to correct the coefficients α and β. For this reason, the frequency component changing means 30 first executes processing according to the following [Equation 6] to thereby obtain the intensities E 1D1 , E 2D1 , E 1D2 , E 2D2 , E 1U1 , E 2U1 of each spectrum set. , to calculate the E 1U2, E 2U2.

〔数式6〕
1D1=Σj=m,…,m+G-1{Al(1,j)2+Bl(1,j)2
2D1=Σj=m,…,m+G-1{Al(2,j)2+Bl(2,j)2
1D2=Σj=m+G,…,m+2G-1{Al(1,j)2+Bl(1,j)2
2D2=Σj=m+G,…,m+2G-1{Al(2,j)2+Bl(2,j)2
1U1=Σj=m+2G,…,m+2G+Gu-1{Al(1,j)2+Bl(1,j)2
2U1=Σj=m+2G,…,m+2G+Gu-1{Al(2,j)2+Bl(2,j)2
1U2=Σj=m+2G+Gu,…,m+2G+2Gu-1{Al(1,j)2+Bl(1,j)2
2U2=Σj=m+2G+Gu,…,m+2G+2Gu-1{Al(2,j)2+Bl(2,j)2
[Formula 6]
E 1D1 = Σ j = m,..., M + G−1 {Al (1, j) 2 + Bl (1, j) 2 }
E 2D1 = Σ j = m,..., M + G−1 {Al (2, j) 2 + Bl (2, j) 2 }
E 1D2 = Σ j = m + G,..., M + 2G−1 {Al (1, j) 2 + Bl (1, j) 2 }
E 2D2 = Σ j = m + G,..., M + 2G−1 {Al (2, j) 2 + Bl (2, j) 2 }
E 1U1 = Σ j = m + 2G,..., M + 2G + Gu-1 {Al (1, j) 2 + Bl (1, j) 2 }
E 2U1 = Σ j = m + 2G,..., M + 2G + Gu-1 {Al (2, j) 2 + Bl (2, j) 2 }
E 1U2 = Σ j = m + 2G + Gu,..., M + 2G + 2Gu−1 {Al (1, j) 2 + Bl (1, j) 2 }
E 2U2 = Σ j = m + 2G + Gu,..., M + 2G + 2Gu−1 {Al (2, j) 2 + B1 (2, j) 2 }

上記〔数式6〕において、mは変更対象周波数帯の下限の成分の番号、Gは変更対象周波数帯内の下位周波数帯の2分割領域の幅で、Guは変更対象周波数帯内の上位周波数帯の2分割領域の幅で、m+2G+2Guは変更対象周波数帯の上限の成分の番号である。例えば、変更対象周波数帯として、0.34kHz〜3.4kHzを設定する場合、m=32、m+2G+2Gu=320(=M)となる。したがって、下位周波数帯の2分割領域の幅G(=(M/2−m)/2)=64で、上位周波数帯の2分割領域の幅Gu(=(M−M/2)/2)=80である。   In the above [Equation 6], m is the number of the lower limit component of the frequency band to be changed, G is the width of the two divided regions of the lower frequency band in the frequency band to be changed, and Gu is the upper frequency band in the frequency band to be changed. M + 2G + 2Gu is the number of the upper limit component of the frequency band to be changed. For example, when 0.34 kHz to 3.4 kHz is set as the change target frequency band, m = 32 and m + 2G + 2Gu = 320 (= M). Therefore, the width G (= (M / 2−m) / 2) = 64 of the lower frequency band, and the width Gu (= (M−M / 2) / 2) of the upper frequency band. = 80.

さらに、周波数成分変更手段30は、算出された各スペクトル集合の強度を利用して、弱い状態に変更すべきスペクトル集合に対する強い状態に変更すべきスペクトル集合の強度割合γを算出する。具体的には、以下の〔数式7〕に従って強度割合γを算出する。   Further, the frequency component changing unit 30 uses the calculated intensity of each spectrum set to calculate the intensity ratio γ of the spectrum set to be changed to a strong state with respect to the spectrum set to be changed to the weak state. Specifically, the intensity ratio γ is calculated according to the following [Equation 7].

〔数式7〕
埋め込みデータが値1の場合、γ=(E1D1・E1U1・E2D2・E2U2)/(E1D2・E1U2・E2D1・E2U1
埋め込みデータが値2の場合、γ=(E1D2・E1U2・E2D1・E2U1)/(E1D1・E1U1・E2D2・E2U2
[Formula 7]
If the embedded data is a value 1, γ = (E 1D1 · E 1U1 · E 2D2 · E 2U2) / (E 1D2 · E 1U2 · E 2D1 · E 2U1)
If the embedded data is a value 2, γ = (E 1D2 · E 1U2 · E 2D1 · E 2U1) / (E 1D1 · E 1U1 · E 2D2 · E 2U2)

さらに強度割合γの値に応じて、周波数成分変更手段30は、以下の〔数式8〕に従った処理を実行することにより、係数α1、α2、α3、β1、β2、β3を補正して係数α、βを得る。なお、以下の〔数式8〕において、αkは、α1、α2、α3のいずれかを意味する。 Further, according to the value of the intensity ratio γ, the frequency component changing means 30 executes the processing according to the following [Equation 8], whereby the coefficients α 1 , α 2 , α 3 , β 1 , β 2 , β 3 is corrected to obtain coefficients α and β. In the following [Equation 8], α k means any one of α 1 , α 2 , and α 3 .

〔数式8〕
0.01<γ<1.0の場合、α=αk・γ-1/4、β=βk・γ1/4
γ≦0.01の場合、α=10.0・αk、β=0.1・βk
γ≧1.0の場合、補正を行わない(α=αk、β=βk
[Formula 8]
When 0.01 <γ <1.0, α = α k · γ −1/4 , β = β k · γ 1/4
When γ ≦ 0.01, α = 10.0 · α k , β = 0.1 · β k
When γ ≧ 1.0, correction is not performed (α = α k , β = β k )

さらに、周波数成分変更手段30は、連続するAタイプ音響フレーム、Bタイプ音響フレームにおける実部Al(1,j)、Ar(1,j)、Al(2,j)、Ar(2,j)、Bl(1,j)、Br(1,j)、Bl(2,j)、Br(2,j)に対して、周波数領域パラメータとして、下限m(=32)から上限M(=320)を設定し、mからM/2を幅G(=(M/2−m)/2)をもつ2個の領域に分割し、m+2GからMを幅Gu(=(M−M/2)/2)をもつ2個の領域に分割し、埋め込むべきビット値に応じて、各々改変を加える。一例として、埋め込むべきビット値が“値1”である場合、以下の〔数式9〕に従った処理を実行することにより、周波数成分の状態を“状態1”、すなわち、図5(c)(e)に示したような状態に変更する。   Further, the frequency component changing means 30 is provided with real parts Al (1, j), Ar (1, j), Al (2, j), Ar (2, j) in the continuous A type acoustic frame and B type acoustic frame. , Bl (1, j), Br (1, j), Bl (2, j), Br (2, j) as frequency domain parameters, the lower limit m (= 32) to the upper limit M (= 320) , M to M / 2 are divided into two regions having a width G (= (M / 2−m) / 2), and m + 2G to M are divided into width Gu (= (M−M / 2) / It is divided into two areas having 2), and each is modified according to the bit value to be embedded. As an example, when the bit value to be embedded is “value 1”, the state of the frequency component is changed to “state 1”, that is, FIG. Change to the state shown in e).

〔数式9〕
j=m〜m+G−1の各成分に対して
E(1,j)={Al(1,j)2+Bl(1,j)2+Ar(1,j)2+Br(1,j)21/2
Al´(1,j)=Al(1,j)・E(1,j)・α/{Al(1,j)2+Bl(1,j)21/2
Bl´(1,j)=Bl(1,j)・E(1,j)・α/{Al(1,j)2+Bl(1,j)21/2
Ar´(1,j)=Ar(1,j)・E(1,j)・α/{Ar(1,j)2+Br(1,j)21/2
Br´(1,j)=Br(1,j)・E(1,j)・α/{Ar(1,j)2+Br(1,j)21/2
E(2,j)={Al(2,j)2+Bl(2,j)2+Ar(2,j)2+Br(2,j)21/2
Al´(2,j)=Al(2,j)・E(2,j)・β/{Al(2,j)2+Bl(2,j)21/2
Bl´(2,j)=Bl(2,j)・E(2,j)・β/{Al(2,j)2+Bl(2,j)21/2
Ar´(2,j)=Ar(2,j)・E(2,j)・β/{Ar(2,j)2+Br(2,j)21/2
Br´(2,j)=Br(2,j)・E(2,j)・β/{Ar(2,j)2+Br(2,j)21/2
j=m+G〜m+2G−1の各成分に対して
E(1,j)={Al(1,j)2+Bl(1,j)2+Ar(1,j)2+Br(1,j)21/2
Al´(1,j)=Al(1,j)・E(1,j)・β/{Al(1,j)2+Bl(1,j)21/2
Bl´(1,j)=Bl(1,j)・E(1,j)・β/{Al(1,j)2+Bl(1,j)21/2
Ar´(1,j)=Ar(1,j)・E(1,j)・β/{Ar(1,j)2+Br(1,j)21/2
Br´(1,j)=Br(1,j)・E(1,j)・β/{Ar(1,j)2+Br(1,j)21/2
E(2,j)={Al(2,j)2+Bl(2,j)2+Ar(2,j)2+Br(2,j)21/2
Al´(2,j)=Al(2,j)・E(2,j)・α/{Al(2,j)2+Bl(2,j)21/2
Bl´(2,j)=Bl(2,j)・E(2,j)・α/{Al(2,j)2+Bl(2,j)21/2
Ar´(2,j)=Ar(2,j)・E(2,j)・α/{Ar(2,j)2+Br(2,j)21/2
Br´(2,j)=Br(2,j)・E(2,j)・α/{Ar(2,j)2+Br(2,j)21/2
j=m+2G〜m+2G+Gu−1の各成分に対して
E(1,j)={Al(1,j)2+Bl(1,j)2+Ar(1,j)2+Br(1,j)21/2
Al´(1,j)=Al(1,j)・E(1,j)・α/{Al(1,j)2+Bl(1,j)21/2
Bl´(1,j)=Bl(1,j)・E(1,j)・α/{Al(1,j)2+Bl(1,j)21/2
Ar´(1,j)=Ar(1,j)・E(1,j)・α/{Ar(1,j)2+Br(1,j)21/2
Br´(1,j)=Br(1,j)・E(1,j)・α/{Ar(1,j)2+Br(1,j)21/2
E(2,j)={Al(2,j)2+Bl(2,j)2+Ar(2,j)2+Br(2,j)21/2
Al´(2,j)=Al(2,j)・E(2,j)・β/{Al(2,j)2+Bl(2,j)21/2
Bl´(2,j)=Bl(2,j)・E(2,j)・β/{Al(2,j)2+Bl(2,j)21/2
Ar´(2,j)=Ar(2,j)・E(2,j)・β/{Ar(2,j)2+Br(2,j)21/2
Br´(2,j)=Br(2,j)・E(2,j)・β/{Ar(2,j)2+Br(2,j)21/2
j=m+2G+Gu〜M−1の各成分に対して
E(1,j)={Al(1,j)2+Bl(1,j)2+Ar(1,j)2+Br(1,j)21/2
Al´(1,j)=Al(1,j)・E(1,j)・β/{Al(1,j)2+Bl(1,j)21/2
Bl´(1,j)=Bl(1,j)・E(1,j)・β/{Al(1,j)2+Bl(1,j)21/2
Ar´(1,j)=Ar(1,j)・E(1,j)・β/{Ar(1,j)2+Br(1,j)21/2
Br´(1,j)=Br(1,j)・E(1,j)・β/{Ar(1,j)2+Br(1,j)21/2
E(2,j)={Al(2,j)2+Bl(2,j)2+Ar(2,j)2+Br(2,j)21/2
Al´(2,j)=Al(2,j)・E(2,j)・α/{Al(2,j)2+Bl(2,j)21/2
Bl´(2,j)=Bl(2,j)・E(2,j)・α/{Al(2,j)2+Bl(2,j)21/2
Ar´(2,j)=Ar(2,j)・E(2,j)・α/{Ar(2,j)2+Br(2,j)21/2
Br´(2,j)=Br(2,j)・E(2,j)・α/{Ar(2,j)2+Br(2,j)21/2
[Formula 9]
For each component of j = m to m + G−1, E (1, j) = {Al (1, j) 2 + Bl (1, j) 2 + Ar (1, j) 2 + Br (1, j) 2 } 1/2
Al ′ (1, j) = Al (1, j) · E (1, j) · α / {Al (1, j) 2 + Bl (1, j) 2 } 1/2
Bl ′ (1, j) = Bl (1, j) · E (1, j) · α / {Al (1, j) 2 + Bl (1, j) 2 } 1/2
Ar ′ (1, j) = Ar (1, j) · E (1, j) · α / {Ar (1, j) 2 + Br (1, j) 2 } 1/2
Br ′ (1, j) = Br (1, j) · E (1, j) · α / {Ar (1, j) 2 + Br (1, j) 2 } 1/2
E (2, j) = {Al (2, j) 2 + Bl (2, j) 2 + Ar (2, j) 2 + Br (2, j) 2 } 1/2
Al ′ (2, j) = Al (2, j) · E (2, j) · β / {Al (2, j) 2 + Bl (2, j) 2 } 1/2
Bl ′ (2, j) = Bl (2, j) · E (2, j) · β / {Al (2, j) 2 + Bl (2, j) 2 } 1/2
Ar ′ (2, j) = Ar (2, j) · E (2, j) · β / {Ar (2, j) 2 + Br (2, j) 2 } 1/2
Br ′ (2, j) = Br (2, j) · E (2, j) · β / {Ar (2, j) 2 + Br (2, j) 2 } 1/2
For each component of j = m + G to m + 2G-1, E (1, j) = {Al (1, j) 2 + Bl (1, j) 2 + Ar (1, j) 2 + Br (1, j) 2 } 1/2
Al ′ (1, j) = Al (1, j) · E (1, j) · β / {Al (1, j) 2 + Bl (1, j) 2 } 1/2
Bl ′ (1, j) = B1 (1, j) · E (1, j) · β / {Al (1, j) 2 + B1 (1, j) 2 } 1/2
Ar ′ (1, j) = Ar (1, j) · E (1, j) · β / {Ar (1, j) 2 + Br (1, j) 2 } 1/2
Br ′ (1, j) = Br (1, j) · E (1, j) · β / {Ar (1, j) 2 + Br (1, j) 2 } 1/2
E (2, j) = {Al (2, j) 2 + Bl (2, j) 2 + Ar (2, j) 2 + Br (2, j) 2 } 1/2
Al ′ (2, j) = Al (2, j) · E (2, j) · α / {Al (2, j) 2 + Bl (2, j) 2 } 1/2
Bl ′ (2, j) = Bl (2, j) · E (2, j) · α / {Al (2, j) 2 + Bl (2, j) 2 } 1/2
Ar ′ (2, j) = Ar (2, j) · E (2, j) · α / {Ar (2, j) 2 + Br (2, j) 2 } 1/2
Br ′ (2, j) = Br (2, j) · E (2, j) · α / {Ar (2, j) 2 + Br (2, j) 2 } 1/2
For each component of j = m + 2G to m + 2G + Gu−1, E (1, j) = {Al (1, j) 2 + Bl (1, j) 2 + Ar (1, j) 2 + Br (1, j) 2 } 1/2
Al ′ (1, j) = Al (1, j) · E (1, j) · α / {Al (1, j) 2 + Bl (1, j) 2 } 1/2
Bl ′ (1, j) = Bl (1, j) · E (1, j) · α / {Al (1, j) 2 + Bl (1, j) 2 } 1/2
Ar ′ (1, j) = Ar (1, j) · E (1, j) · α / {Ar (1, j) 2 + Br (1, j) 2 } 1/2
Br ′ (1, j) = Br (1, j) · E (1, j) · α / {Ar (1, j) 2 + Br (1, j) 2 } 1/2
E (2, j) = {Al (2, j) 2 + Bl (2, j) 2 + Ar (2, j) 2 + Br (2, j) 2 } 1/2
Al ′ (2, j) = Al (2, j) · E (2, j) · β / {Al (2, j) 2 + Bl (2, j) 2 } 1/2
Bl ′ (2, j) = Bl (2, j) · E (2, j) · β / {Al (2, j) 2 + Bl (2, j) 2 } 1/2
Ar ′ (2, j) = Ar (2, j) · E (2, j) · β / {Ar (2, j) 2 + Br (2, j) 2 } 1/2
Br ′ (2, j) = Br (2, j) · E (2, j) · β / {Ar (2, j) 2 + Br (2, j) 2 } 1/2
For each component of j = m + 2G + Gu to M−1, E (1, j) = {Al (1, j) 2 + Bl (1, j) 2 + Ar (1, j) 2 + Br (1, j) 2 } 1/2
Al ′ (1, j) = Al (1, j) · E (1, j) · β / {Al (1, j) 2 + Bl (1, j) 2 } 1/2
Bl ′ (1, j) = B1 (1, j) · E (1, j) · β / {Al (1, j) 2 + B1 (1, j) 2 } 1/2
Ar ′ (1, j) = Ar (1, j) · E (1, j) · β / {Ar (1, j) 2 + Br (1, j) 2 } 1/2
Br ′ (1, j) = Br (1, j) · E (1, j) · β / {Ar (1, j) 2 + Br (1, j) 2 } 1/2
E (2, j) = {Al (2, j) 2 + Bl (2, j) 2 + Ar (2, j) 2 + Br (2, j) 2 } 1/2
Al ′ (2, j) = Al (2, j) · E (2, j) · α / {Al (2, j) 2 + Bl (2, j) 2 } 1/2
Bl ′ (2, j) = Bl (2, j) · E (2, j) · α / {Al (2, j) 2 + Bl (2, j) 2 } 1/2
Ar ′ (2, j) = Ar (2, j) · E (2, j) · α / {Ar (2, j) 2 + Br (2, j) 2 } 1/2
Br ′ (2, j) = Br (2, j) · E (2, j) · α / {Ar (2, j) 2 + Br (2, j) 2 } 1/2

この場合は、スペクトル集合単位の強弱パターンは、高周波側と低周波側で同一となる。周波数逆変換手段40は、上記のようにして、周波数成分の状態が変更されたフレームスペクトルを周波数逆変換して改変音響フレームを得る処理を行う。この周波数逆変換は、当然のことながら、周波数変換手段20が実行した手法に対応していることが必要となる。本実施形態では、周波数変換手段20において、フーリエ変換を施しているため、周波数逆変換手段40は、フーリエ逆変換を実行することになる。   In this case, the intensity pattern of the spectrum set unit is the same on the high frequency side and the low frequency side. As described above, the frequency inverse transform means 40 performs the process of obtaining the modified sound frame by performing the frequency inverse transform on the frame spectrum in which the state of the frequency component is changed. Naturally, the inverse frequency conversion needs to correspond to the method executed by the frequency conversion means 20. In the present embodiment, since the frequency transform unit 20 performs the Fourier transform, the frequency inverse transform unit 40 executes the Fourier inverse transform.

具体的には、Aタイプの音響フレームに対しては、周波数逆変換手段40は、上記〔数式9〕により得られたスペクトルの左チャンネルの実部Al´(1,j)等、虚部Bl´(1,j)等、右チャンネルの実部Ar´(1,j)等、虚部Br´(1,j)等を用いて、以下の〔数式10〕に従った処理を行い、Xl´(i)、Xr´(i)を算出する。なお、上記〔数式9〕において改変されていない周波数成分については、Al´(1,j)等として、元の周波数成分であるAl(1,j)等を用いる。周波数逆変換を計算するにあたり、Al´(1,j)およびBl´(1,j)に対しては〔数式5〕におけるZl(1)を、Ar´(1,j)およびBr´(1,j)に対しては〔数式5〕におけるZr(1)を除することにより、同時に振幅逆変換を施す必要がある。   Specifically, for the A type sound frame, the frequency inverse transform means 40 uses the imaginary part Bl such as the real part Al ′ (1, j) of the left channel of the spectrum obtained by the above [Equation 9]. Using the real part Ar ′ (1, j) of the right channel, imaginary part Br ′ (1, j), etc., according to the following [Equation 10], X ′ '(I) and Xr' (i) are calculated. For frequency components that are not modified in the above [Equation 9], Al (1, j) or the like that is the original frequency component is used as Al ′ (1, j) or the like. In calculating the inverse frequency transform, for Al ′ (1, j) and Bl ′ (1, j), Zl (1) in [Formula 5] is replaced with Ar ′ (1, j) and Br ′ (1 , J), it is necessary to simultaneously perform inverse amplitude transformation by dividing Zr (1) in [Formula 5].

〔数式10〕
Xl´(i)=1/N・{ΣjAl´(1,j)・cos(2πij/N)/Zl(1)−ΣjBl´(1,j)・sin(2πij/N)/Zl(1)}+Xlp(i+N/2)
Xr´(i)=1/N・{ΣjAr´(1,j)・cos(2πij/N)/Zr(1)−ΣjBr´(1,j)・sin(2πij/N)/Zr(1)}+Xrp(i+N/2)
[Formula 10]
Xl' (i) = 1 / N · {Σ j Al' (1, j) · cos (2πij / N) / Zl (1) -Σ j Bl' (1, j) · sin (2πij / N) / Zl (1)} + Xlp (i + N / 2)
Xr' (i) = 1 / N · {Σ j Ar' (1, j) · cos (2πij / N) / Zr (1) -Σ j Br' (1, j) · sin (2πij / N) / Zr (1)} + Xrp (i + N / 2)

上記〔数式10〕においては、式が繁雑になるのを防ぐため、Σj=0,,N-1をΣjとして示している。上記〔数式10〕における第1式の“+Xlp(i+N/2)”、第2式の“+Xrp(i+N/2)”の項は、直前に改変された改変音響フレームのデータXlp(i)、Xrp(i)が存在する場合に、時間軸上N/2サンプル分重複することを考慮して加算するためのものである。上記〔数式10〕によりAタイプの改変音響フレームの左チャンネルの各サンプルXl´(i)、右チャンネルの各サンプルXr´(i)、が得られることになる。 In the above [Expression 10], Σ j = 0, ... , N−1 is shown as Σ j in order to prevent the expression from becoming complicated. The terms “+ Xlp (i + N / 2)” in the first equation and “+ Xrp (i + N / 2)” in the second equation in the above [Equation 10] are the data Xlp (i) of the modified acoustic frame modified immediately before, When Xrp (i) exists, the addition is performed in consideration of the overlap of N / 2 samples on the time axis. By the above [Equation 10], each sample Xl ′ (i) of the left channel and each sample Xr ′ (i) of the right channel of the A type modified acoustic frame are obtained.

Bタイプの音響フレームに対しては、周波数逆変換手段40は、上記〔数式9〕により得られたスペクトルの左チャンネルの実部Al´(2,j)、虚部Bl´(2,j)、右チャンネルの実部Ar´(2,j)、虚部Br´(2,j)を用いて、以下の〔数式11〕に従った処理を行い、Xl´(i)、Xr´(i)を算出する。なお、上記〔数式9〕において改変されていない周波数成分については、以下の〔数式11〕においてはAl´(2,j)、Bl´(2,j)、Ar´(2,j)、Br´(2,j)として、元の値であるAl(2,j)、Bl(2,j)、Ar(2,j)、Br(2,j)を用いる。周波数逆変換を計算するにあたり、Al´(2,j)およびBl´(2,j)に対しては〔数式5〕におけるZl(2)を、Ar´(2,j)およびBr´(2,j)に対しては〔数式5〕におけるZr(2)を除することにより、同時に振幅逆変換を施す必要がある。   For the B type acoustic frame, the frequency inverse transform means 40 performs real part Al ′ (2, j) and imaginary part Bl ′ (2, j) of the left channel of the spectrum obtained by the above [Equation 9]. , Using the real part Ar ′ (2, j) and imaginary part Br ′ (2, j) of the right channel, the processing according to the following [Equation 11] is performed, and Xl ′ (i), Xr ′ (i ) Is calculated. For frequency components that are not modified in the above [Equation 9], in the following [Equation 11], Al ′ (2, j), Bl ′ (2, j), Ar ′ (2, j), Br The original values Al (2, j), Bl (2, j), Ar (2, j), and Br (2, j) are used as ′ (2, j). In calculating the frequency inverse transform, for Al ′ (2, j) and Bl ′ (2, j), Zl (2) in [Equation 5] is replaced with Ar ′ (2, j) and Br ′ (2 , J), it is necessary to simultaneously perform inverse amplitude transformation by dividing Zr (2) in [Equation 5].

〔数式11〕
Xl´(i+N/2)=1/N・{ΣjAl´(2,j)・cos(2πij/N)/Zl(2)−ΣjBl´(2,j)・sin(2πij/N)/Zl(2)}+Xlp(i+N)
Xr´(i+N/2)=1/N・{ΣjAr´(2,j)・cos(2πij/N)/Zr(2)−ΣjBr´(2,j)・sin(2πij/N)/Zr(2)}+Xrp(i+N)
[Formula 11]
Xl' (i + N / 2) = 1 / N · {Σ j Al' (2, j) · cos (2πij / N) / Zl (2) -Σ j Bl' (2, j) · sin (2πij / N ) / Zl (2)} + Xlp (i + N)
Xr' (i + N / 2) = 1 / N · {Σ j Ar' (2, j) · cos (2πij / N) / Zr (2) -Σ j Br' (2, j) · sin (2πij / N ) / Zr (2)} + Xrp (i + N)

上記〔数式11〕によりBタイプの改変音響フレームの左チャンネルの各サンプルXl´(i)、右チャンネルの各サンプルXr´(i)、が得られることになる。   By the above [Equation 11], each sample Xl ′ (i) of the left channel and each sample Xr ′ (i) of the right channel of the B type modified acoustic frame are obtained.

改変音響フレーム出力手段50は、周波数逆変換手段40の処理により得られたAタイプの改変音響フレーム、Bタイプの改変音響フレームを順次出力ファイルに出力する。   The modified sound frame output unit 50 sequentially outputs the A type modified sound frame and the B type modified sound frame obtained by the processing of the frequency inverse transform unit 40 to an output file.

次に、図3に示した音響信号に対する情報の埋め込み装置の処理の全体的な流れについて説明する。まず、事前に図6に示すようなNwビットの基準符号とNhビットのハミング符号が対応付けられた符号変換テーブルを用意する。この符号変換テーブルは、各ハミング符号間のハミング距離が互いに3以上となるものであれば、どのように作成しても良い。本実施形態では、コンピュータに専用のプログラムを実行させることにより、コンピュータを変換テーブル作成装置として機能させることにより作成する。変換テーブル作成装置による符号変換テーブル作成のフローチャートを図7に示す。   Next, the overall flow of processing of the information embedding device for the acoustic signal shown in FIG. 3 will be described. First, a code conversion table in which an Nw-bit reference code and an Nh-bit Hamming code are associated with each other as shown in FIG. 6 is prepared in advance. This code conversion table may be created in any way as long as the Hamming distance between each Hamming code is 3 or more. In this embodiment, it is created by causing a computer to function as a conversion table creation device by executing a dedicated program. FIG. 7 shows a flowchart of code conversion table creation by the conversion table creation device.

変換テーブル作成装置は、最初に初期化処理を行う(S611)。具体的には、8ビット基準符号“0”に16ビット符号“1”を対応付けて符号変換テーブルのi(=0)番目に登録するとともに、8ビット基準符号KFの初期値を1、16ビット符号HFの初期値を2とする。続いて、i=0に初期設定する(S612)。次に、16ビット符号HF及びそれの15通りの巡回符号と、符号変換テーブルのi番目に既に登録されている他の16ビット符号及びそれの15通り巡回符号とのハミング距離を算出する(S613)。この段階で16通り×16通りで256通りのハミング距離が算出される。   The conversion table creation device first performs initialization processing (S611). Specifically, the 8-bit reference code “0” is associated with the 16-bit code “1” and registered in the i (= 0) -th code conversion table, and the initial value of the 8-bit reference code KF is set to 1, 16 The initial value of the bit code HF is 2. Subsequently, i = 0 is initially set (S612). Next, the Hamming distance between the 16-bit code HF and its 15 cyclic codes and the other 16-bit code already registered in the code conversion table and its 15 cyclic codes is calculated (S613). ). At this stage, 16 ways × 16 ways and 256 ways of Hamming distances are calculated.

算出したハミング距離の少なくとも1つが3未満の場合、HFの値を1増加して更新した後(S614)、S612に戻って、次の16ビット符号HFについての処理を行う。一方、算出したハミング距離が全て3以上の場合、iの値を1増加して更新する(S615)。そして、iがKF−1未満である場合には、S613に戻って、符号変換テーブル内のi番目に登録されている16ビット符号及びそれの15通り巡回符号とのハミング距離を算出する。S615の後、iがKF−1以上となった場合には、16ビット符号HFを符号変換テーブルの8ビット符号KFの位置に登録するとともに、KF、HFの値をそれぞれ1ずつ増加して更新する(S616)。そして、HFが65536未満である場合は、S612に戻って、次の8ビット符号KFについての処理を行う。HFが65536以上である場合は、16ビットの範囲で表現可能な全ての16ビット符号HFが登録されたことになるので、符号変換テーブル作成処理を終了する。   If at least one of the calculated hamming distances is less than 3, the value of HF is updated by 1 (S614), and then the process returns to S612 and the process for the next 16-bit code HF is performed. On the other hand, if all the calculated Hamming distances are 3 or more, the value of i is incremented by 1 and updated (S615). If i is less than KF-1, the process returns to S613 to calculate the Hamming distance between the i-th registered 16-bit code in the code conversion table and its 15 cyclic codes. If i becomes KF-1 or more after S615, the 16-bit code HF is registered at the position of the 8-bit code KF in the code conversion table, and the values of KF and HF are respectively incremented by 1 and updated. (S616). If HF is less than 65536, the process returns to S612 to perform the process for the next 8-bit code KF. If the HF is 65536 or more, all 16-bit codes HF that can be expressed in a 16-bit range have been registered, and the code conversion table creation process ends.

このようにして図6に示した符号変換テーブルが作成される。図6の符号変換テーブルは、巡回符号を考慮しないハミング符号との対応部分だけを抜き出したものである。この符号変換テーブルには、16ビットのハミング符号が定義可能な0〜65535の範囲内で、各々16通りの巡回符号が互いにハミング距離3以上になるように、8ビットの基準符号を定義したもので、基準符号としては7ビットより若干多い0〜131の値が表現可能となっている。   In this way, the code conversion table shown in FIG. 6 is created. The code conversion table of FIG. 6 is obtained by extracting only the corresponding part with the Hamming code that does not consider the cyclic code. In this code conversion table, an 8-bit reference code is defined so that 16 cyclic codes each have a Hamming distance of 3 or more within a range of 0 to 65535 in which a 16-bit Hamming code can be defined. Thus, as the reference code, a value of 0 to 131 slightly more than 7 bits can be expressed.

図6に示したような符号変換テーブルが用意できたら、次に25種の識別情報を決定する。本実施形態では、識別情報を2ワード構成としており、前半の1ワードが5種、後半の1ワードが5種となるように決定することにより、25種の識別情報を決定する。前半、後半それぞれの5種のワードは、符号変換テーブルに示した0〜131の基準符号のいずれかを選択することにより行う。図2(b)を用いて説明したように、本発明の性質上、第2、第3、第4の符号の各ビットは、第1、第5の符号の少なくともいずれか一方のビットと同一でなければならないため、作成には工夫を要する。このような組み合わせとしては、例として図8に示すような2つがある。   When the code conversion table as shown in FIG. 6 is prepared, next, 25 types of identification information are determined. In the present embodiment, the identification information has a two-word configuration, and 25 types of identification information are determined by determining that one word in the first half is five types and one word in the second half is five types. The first half and the second half are performed by selecting one of the reference codes 0 to 131 shown in the code conversion table. As described with reference to FIG. 2B, due to the nature of the present invention, each bit of the second, third, and fourth codes is the same as at least one of the first and fifth codes. It must be devised to create it. As such a combination, there are two examples as shown in FIG.

第1符号〜第5符号は、隣接する符号間において、同一ビット値が連続しているか、全てが同一ビット値でなければならない。これを満足する16ビットのビット列は、ASCII英数字(全62文字)に限定すると、図8に示した2例の組み合わせのみとなる。したがって、作成者は、図8に示したどちらかの組み合わせを選択し、第1符号〜第5符号を作成する。なお、図8の例では、基準符号をASCII英数字に変換した英文字を添えて示してある。図8に示した組み合わせのうちのいずれかを第1符号〜第5符号として1ワードを形成し、第2ワード目は、第1ワード目と全く異なる符号を選択し、例えば第1ワード目の第1符号〜第5符号のビット反転符号でもう1ワードを形成し、2ワード構成の25種の識別情報が識別情報記憶部62に記憶されることになる。図8の2種の符号セットは一部が同一であるため、これらを第1ワードと第2ワードに使用することはできない。   In the first code to the fifth code, the same bit value must be continuous between adjacent codes, or all must be the same bit value. If the 16-bit bit string satisfying this is limited to ASCII alphanumeric characters (all 62 characters), there are only two combinations shown in FIG. Therefore, the creator selects one of the combinations shown in FIG. 8 and creates the first code to the fifth code. In the example of FIG. 8, the reference code is shown with an English character converted to ASCII alphanumeric. One word is formed using any one of the combinations shown in FIG. 8 as the first code to the fifth code, and the second word selects a code completely different from the first word. For example, the first word Another word is formed by the bit inversion codes of the first code to the fifth code, and 25 types of identification information having a 2-word configuration are stored in the identification information storage unit 62. Since the two types of code sets in FIG. 8 are partially the same, they cannot be used for the first word and the second word.

識別情報の準備が完了したら、図3に示した埋め込み装置による処理が可能となる。続いて、図3に示した埋め込み装置の処理を、図9のフローチャートに従って説明する。図3に示した装置を構成する各構成要素は、連携して図9に従った処理を実行する。図9は、1つのチャンネルの識別情報1ワード分の処理に対応したものとなっている。したがって、4チャンネルの場合、各チャンネルにおいてほぼ同じ処理が並行して実行される。また、本発明では、1ワード分を設定された所定回数Naだけ繰り返して実行した後、次の1ワードを読み込む処理を実行する。例えば、Na=3と設定されている場合、3ワード分同じビット列が繰り返し埋め込まれる。   When the preparation of the identification information is completed, processing by the embedding device shown in FIG. 3 becomes possible. Next, the processing of the embedding device shown in FIG. 3 will be described according to the flowchart of FIG. Each component which comprises the apparatus shown in FIG. 3 performs the process according to FIG. 9 in cooperation. FIG. 9 corresponds to processing of one word of identification information of one channel. Therefore, in the case of four channels, almost the same processing is executed in parallel in each channel. In the present invention, the processing for reading the next one word is executed after repeatedly executing one word for a set number of times Na. For example, when Na = 3 is set, the same bit string for three words is repeatedly embedded.

図9においては、まず、ビット配列作成手段70は、識別情報記憶部62から抽出した識別情報の各ワードについて、符号変換テーブルを参照し、対応するビット配列を作成する(S101)。具体的には、まず、識別情報記憶部62から、前左(FL)チャンネル、前右(FR)チャンネル用の第1符号または後左(BL)チャンネル、後右(BR)チャンネル用の第5符号を1ワード(8ビット)、中間で読み出す中間用の第2〜第4符号を1ワード(8ビット)抽出し、図6に示した符号変換テーブルを参照し、対応するハミング符号で構成される16ビットのビット配列を作成する。このS101では、識別情報の1ワード目と2ワード目で異なる処理が行われる。1ワード目の場合は、上記の通りであるが、2ワード目の場合は、識別情報記憶部62から、前左(FL)チャンネル、後左(BL)チャンネル用の第1符号または前右(FR)チャンネル、後右(BR)チャンネル用の第5符号を1ワード(8ビット)、中間で読み出す中間用の第2〜第4符号を1ワード(8ビット)抽出し、図6に示した符号変換テーブルを参照し、対応するハミング符号で構成される16ビットのビット配列を反転して作成する。   In FIG. 9, the bit array creation means 70 first creates a corresponding bit array by referring to the code conversion table for each word of the identification information extracted from the identification information storage unit 62 (S101). Specifically, first, from the identification information storage unit 62, the first code for the front left (FL) channel, the front right (FR) channel or the rear left (BL) channel, the fifth for the rear right (BR) channel. The code is extracted by 1 word (8 bits), and the second to fourth codes for intermediate reading are extracted by 1 word (8 bits). The code conversion table shown in FIG. A 16-bit bit array is created. In S101, different processing is performed for the first word and the second word of the identification information. In the case of the first word, it is as described above. However, in the case of the second word, from the identification information storage unit 62, the first code or the front right (front right (FL) channel, rear left (BL) channel ( The 5th code for the FR) channel and the rear right (BR) channel is extracted by 1 word (8 bits), and the 2nd to 4th codes for intermediate reading are extracted by 1 word (8 bits) and shown in FIG. With reference to the code conversion table, a 16-bit bit array composed of the corresponding Hamming code is inverted and created.

そして、この各16ビット(3つの符号についてそれぞれ1ワードのため、1チャンネルにつき48ビット)が、音響信号に対する情報の埋め込み装置として用いられるコンピュータ内のレジスタに読み込まれることになる。このように、識別情報記憶部62においては、1ワードは8ビットであるが、埋め込み処理時は、この16ビットの配列で、識別情報内の1ワード分の処理を行う。   Then, each 16 bits (48 bits per channel because of one word for each of the three codes) is read into a register in a computer used as an information embedding device for an acoustic signal. In this way, in the identification information storage unit 62, one word is 8 bits, but at the time of embedding processing, processing for one word in the identification information is performed with this 16-bit array.

次に、周波数成分変更手段30が、レジスタに保持された各識別情報のNh(=16)ビットから1ビットを読み込む処理を行う(S102)。このS102における処理も1ワード目と2ワード目で異なる。1ワード目については、FLチャンネル、FRチャンネルに対して処理する場合は、第1〜第3符号の各1ビットずつを読み込み、BLチャンネル、BRチャンネルに対して処理する場合は、第3〜第5符号の各1ビットずつを読み込むことになる。2ワード目については、FLチャンネル、BLチャンネルに対して処理する場合は、第1〜第3符号の各1ビットずつを読み込み、FRチャンネル、BRチャンネルに対して処理する場合は、第3〜第5符号の各1ビットずつを読み込むことになる。   Next, the frequency component changing means 30 performs a process of reading 1 bit from Nh (= 16) bits of each identification information held in the register (S102). The processing in S102 is also different for the first word and the second word. For the first word, when processing is performed for the FL channel and the FR channel, each bit of the first to third codes is read, and when processing is performed for the BL channel and the BR channel, the third to third channels are read. One bit of each of the 5 codes is read. For the second word, when processing is performed for the FL channel and BL channel, each bit of the first to third codes is read, and when processing is performed for the FR channel and BR channel, the third to third channels are read. One bit of each of the 5 codes is read.

続いて、音響フレーム読込手段10が、音響信号記憶部61に記憶されたステレオ音響信号の左右の各チャンネルから、それぞれ所定数のサンプルをAタイプの1音響フレームとして読み込み、周波数変換手段20が周波数変換を行って、得られたフレームスペクトルに対して振幅変換を行う(S103)。具体的には、まず、読み込んだ音響フレームに対して、周波数変換を行って、その音響フレームのスペクトルであるフレームスペクトルを得る。すなわち、各音響フレームについて、窓関数W(1,i)を用いて、上記〔数式2〕に従った処理を行う。そして、上記〔数式5〕に従った処理を実行してZl(1)、Zr(1)を算出し振幅変換を行う。同様に、音響フレーム読込手段10が、音響信号記憶部61に記憶されたステレオ音響信号の左右の各チャンネルから、それぞれ所定数のサンプルをBタイプの1音響フレームとして読み込み、周波数変換手段20が周波数変換を行って、得られたフレームスペクトルに対して振幅変換を行う(S104)。具体的には、まず、読み込んだ音響フレームに対して、周波数変換を行って、その音響フレームのスペクトルであるフレームスペクトルを得る。すなわち、各音響フレームについて、窓関数W(2,i)を用いて、上記〔数式3〕に従った処理を行う。そして、上記〔数式5〕に従った処理を実行してZl(2)、Zr(2)を算出し振幅変換を行う。   Subsequently, the acoustic frame reading means 10 reads a predetermined number of samples from the left and right channels of the stereo acoustic signal stored in the acoustic signal storage unit 61 as one A-type acoustic frame, and the frequency converting means 20 Conversion is performed, and amplitude conversion is performed on the obtained frame spectrum (S103). Specifically, first, frequency conversion is performed on the read sound frame to obtain a frame spectrum that is a spectrum of the sound frame. That is, for each acoustic frame, processing according to the above [Equation 2] is performed using the window function W (1, i). Then, the process according to the above [Equation 5] is executed to calculate Zl (1) and Zr (1) and perform amplitude conversion. Similarly, the acoustic frame reading means 10 reads a predetermined number of samples as one B-type acoustic frame from the left and right channels of the stereo acoustic signal stored in the acoustic signal storage unit 61, and the frequency conversion means 20 Conversion is performed, and amplitude conversion is performed on the obtained frame spectrum (S104). Specifically, first, frequency conversion is performed on the read sound frame to obtain a frame spectrum that is a spectrum of the sound frame. That is, for each acoustic frame, processing according to the above [Equation 3] is performed using the window function W (2, i). Then, the process according to the above [Equation 5] is executed to calculate Zl (2) and Zr (2) and perform amplitude conversion.

続いて、周波数成分変更手段30が、読み込んだビット値に応じてAタイプ音響フレームおよびBタイプ音響フレームの周波数成分の状態を変更するにあたり、〔数式6〕〜〔数式8〕に従った処理を実行して変換割合α、βを決定する処理を行う(S105)。具体的には、読み込んだ本来のチャンネルの符号(1ワード目であれば、FLチャンネル、FRチャンネルの場合は第1の符号、BLチャンネル、BRチャンネルの場合は第5の符号、2ワード目であれば、FLチャンネル、BLチャンネルの場合は第1の符号、FRチャンネル、BRチャンネルの場合は第5の符号)のビット値と中間の符号(1ワード目であれば、FLチャンネル、FRチャンネルの場合は第2の符号、BLチャンネル、BRチャンネルの場合は第4の符号、2ワード目であれば、FLチャンネル、BLチャンネルの場合は第2の符号、FRチャンネル、BRチャンネルの場合は第4の符号)のビット値、中央の符号(第3の符号)のビット値が同一か否かを判断する。そして、本来のチャンネルの符号のビット値、中間の符号のビット値、中央の符号のビット値全てが同一の場合はαkとしてα3を用い、中間の符号のビット値と中央の符号のビット値が異なる場合はαkとしてα2を用い、本来のチャンネルの符号のビット値と中間の符号のビット値が異なる場合はαkとしてα1を用いて、上記〔数式8〕に従った処理を実行することにより、α、βを決定する。この決定された変換割合α、βを用いて、周波数成分変更手段30は、ビット配列作成手段70から受け取った値1、値2に応じて上記〔数式9〕に従った処理を実行し、変更対象周波数帯の成分の状態を“状態1”、“状態2”のいずれかに変更する(S106)。 Subsequently, when the frequency component changing unit 30 changes the state of the frequency component of the A type sound frame and the B type sound frame according to the read bit value, the processing according to [Formula 6] to [Formula 8] is performed. A process is executed to determine the conversion ratios α and β (S105). Specifically, the code of the read original channel (if the first word, the FL channel, the FR channel, the first code, the BL channel, BR channel, the fifth code, the second word If there is, the bit value of the first code in the case of the FL channel and the BL channel, the fifth code in the case of the FR channel and the BR channel) and the intermediate code (if the first word, the FL channel and the FR channel The second code for the BL channel and the BR channel, the fourth code for the second word, the second code for the FL channel and the BL channel, the fourth code for the FR channel and the BR channel. Whether the bit value of the central code (third code) is the same. If the bit value of the original channel code, the bit value of the intermediate code, and the bit value of the central code are all the same, α 3 is used as α k , and the bit value of the intermediate code and the bit of the central code are used. When the values are different, α 2 is used as α k , and when the bit value of the original channel code is different from the bit value of the intermediate code, α 1 is used as α k , and the processing according to the above [Equation 8] To determine α and β. Using the determined conversion ratios α and β, the frequency component changing unit 30 executes the process according to the above [Equation 9] according to the value 1 and the value 2 received from the bit array creating unit 70, and changes them. The state of the component of the target frequency band is changed to either “state 1” or “state 2” (S106).

次に、周波数逆変換手段40が、上記S106の処理によりAタイプの音響フレームに対応する各スペクトル集合の強度が変更されたスペクトルを振幅逆変換、周波数逆変換して改変音響フレームを得る処理を行う(S107)。この振幅逆変換は〔数式5〕で算出したZl(1)、Zr(1)の逆数をスペクトルに乗じることにより行ない、この周波数逆変換は、当然のことながら、周波数変換手段20がS103において実行した手法に対応していることが必要となる。本実施形態では、周波数変換手段20において、フーリエ逆変換を施しているため、周波数逆変換手段40は、フーリエ逆変換を実行することになる。具体的には、上記〔数式9〕により得られたスペクトルの左チャンネルの実部Al´(1,j)等、虚部Bl´(1,j)等、右チャンネルの実部Ar´(1,j)等、虚部Br´(1,j)等を用いて、上記〔数式10〕に従った処理を行い、Xl´(i)、Xr´(i)を算出する。改変音響フレーム出力手段50は、得られた改変音響フレームを順次出力ファイルに出力する。   Next, the frequency inverse transforming unit 40 performs a process of obtaining a modified acoustic frame by performing an amplitude inverse transform and a frequency inverse transform on the spectrum in which the intensity of each spectrum set corresponding to the A type acoustic frame is changed by the process of S106. Perform (S107). This inverse amplitude transform is performed by multiplying the spectrum by the inverse of Zl (1) and Zr (1) calculated by [Equation 5]. This inverse frequency transform is naturally performed by the frequency transforming means 20 in S103. It is necessary to support this method. In the present embodiment, since the frequency transform unit 20 performs the inverse Fourier transform, the frequency inverse transform unit 40 performs the inverse Fourier transform. Specifically, the real part Ar ′ (1) of the right channel, such as the real part Al ′ (1, j) of the left channel, the imaginary part Bl ′ (1, j), etc. of the spectrum obtained by the above [Equation 9]. , J) and the like, the imaginary part Br ′ (1, j) and the like are used to perform processing according to the above [Equation 10] to calculate Xl ′ (i) and Xr ′ (i). The modified sound frame output means 50 sequentially outputs the obtained modified sound frames to an output file.

同様に、周波数逆変換手段40が、上記S106の処理によりBタイプの音響フレームに対応する各スペクトル集合の強度が変更されたスペクトルを振幅逆変換、周波数逆変換して改変音響フレームを得る処理を行う(S108)。具体的には、振幅逆変換は〔数式5〕で算出したZl(2)、Zr(2)の逆数をスペクトルに乗じることにより行ない、上記〔数式9〕により得られたスペクトルの左チャンネルの実部Al´(2,j)等、虚部Bl´(2,j)等、右チャンネルの実部Ar´(2,j)等、虚部Br´(2,j)等を用いて、上記〔数式11〕に従った処理を行い、Xl´(i)、Xr´(i)を算出する。   Similarly, the frequency inverse transform unit 40 performs a process of obtaining a modified acoustic frame by performing an amplitude inverse transform and a frequency inverse transform on the spectrum in which the intensity of each spectrum set corresponding to the B type acoustic frame is changed by the process of S106. Perform (S108). Specifically, the inverse amplitude transformation is performed by multiplying the spectrum by the reciprocal of Zl (2) and Zr (2) calculated by [Equation 5], and the actual left channel of the spectrum obtained by [Equation 9] is obtained. Using the part Al ′ (2, j) etc., the imaginary part Bl ′ (2, j) etc., the real part Ar ′ (2, j) of the right channel, the imaginary part Br ′ (2, j) etc. A process according to [Formula 11] is performed to calculate Xl ′ (i) and Xr ′ (i).

改変音響フレーム出力手段50は、得られた改変音響フレームを順次出力ファイルに出力する。こうして各チャンネルについて、AタイプおよびBタイプの2つの音響フレームに対する処理を終えたら、周波数成分変更手段30がビット配列中の次の1ビットを読み込む(S102)。以上のような処理を音響信号の両チャンネルの全サンプルに渡って実行していく。すなわち、所定数のサンプルを音響フレームとして読み込み、音響信号から読み込むべき音響フレームがなくなったら(S103、S104)、処理を終了する。なお、S101において読み込んだ1ワード分のビット配列(Nh=16ビット)の各ビットに対応する処理を終えた場合、S102からS101に戻り、識別情報の次のワードを読み込む処理を行うことになる。識別情報の全ワードに対して処理が終了した場合は、識別情報の先頭ワードに戻って処理を行う。この結果、全ての音響フレームに対して処理を行った全ての改変音響フレームが出力ファイルに記録されて、改変音響信号として得られる。得られた改変音響信号は、記憶手段60内の改変音響信号記憶部63に出力され、記憶される。   The modified sound frame output means 50 sequentially outputs the obtained modified sound frames to an output file. When the processing for the two A-type and B-type sound frames is finished for each channel in this way, the frequency component changing means 30 reads the next 1 bit in the bit array (S102). The above processing is executed over all samples of both channels of the acoustic signal. That is, a predetermined number of samples are read as sound frames, and when there are no more sound frames to be read from the sound signal (S103, S104), the process ends. Note that when the processing corresponding to each bit of the bit arrangement (Nh = 16 bits) for one word read in S101 is completed, the processing returns from S102 to S101, and the processing for reading the next word of the identification information is performed. . When the process is completed for all the words of the identification information, the process returns to the first word of the identification information. As a result, all modified acoustic frames that have been processed for all acoustic frames are recorded in the output file and obtained as modified acoustic signals. The obtained modified acoustic signal is output to and stored in the modified acoustic signal storage unit 63 in the storage unit 60.

なお、本実施形態では、元の識別情報である1ワード8ビットを変換して、16ビットのビット配列とし、識別情報1ワード分の処理をする場合について説明したが、本発明では、抽出側と取り決めがある限り、識別情報の1ワードを他のビット数単位で記録することが可能である。   In the present embodiment, a case has been described in which 8 bits of 1 word that is the original identification information are converted into a 16-bit bit array and processing for 1 word of the identification information is performed. As long as there is an agreement, it is possible to record one word of identification information in units of other number of bits.

上記のようにして得られた改変音響信号のうち、識別情報が埋め込まれている部分については、変更対象周波数帯の成分は、状態1、状態2の2通りの分布しかないことになる。しかし、変更対象周波数帯の成分以外については、元の音響信号のままであるので、制作者の設定に基づいた種々な分布になる。   Of the modified acoustic signal obtained as described above, for the portion in which the identification information is embedded, the component of the frequency band to be changed has only two distributions of state 1 and state 2. However, since the components other than the component of the frequency band to be changed remain as the original acoustic signals, various distributions are made based on the setting of the producer.

以上、埋め込み装置について説明したが、ここで、本実施形態で行っている振幅変換を用いた埋め込みおよび抽出について、図10から図13を用いて説明する。図10および図11は、比較のために、振幅変換を用いない場合の埋め込み処理および抽出処理を示し、図12および図13は本実施形態における振幅変換を用いた埋め込み処理および抽出処理を示す。これらの説明図においては、音響フレーム奇数および偶数3対分について、3ビットの情報を埋め込むことを想定した音響信号の信号波形を示しており、説明の便宜上、音響フレームが互いに重複しない状態で示している。各図において、左端の波形は時間次元の通常の音響信号波形を示しており、横方向は時間軸であり、右に向かうに従って時間が進行し、縦方向は強度(振幅)である。中央または右端の波形は周波数変換後の所定の周波数範囲のスペクトル成分の合算値を信号波形で表現しており、仮想的にバンドパスフィルターを通した後の信号波形になっている。縦方向は同様に強度であり、本来は左端に比べ顕著に低くなるが、ここでは説明の都合上、左端と同程度に拡大して表現している。また、2種類の波形のレベルも本来は差があるが、ここでは同一レベルで表現している。実際には、周波数変換後のデータとして所定の周波数範囲外の高周波数成分や低周波数成分も存在するが、これらについては改変を加えないという前提で図示しておらず、図5に従った埋め込みを行なう2種の周波数帯域成分に限定して2種の信号波形で示している。   The embedding apparatus has been described above. Here, embedding and extraction using amplitude conversion performed in this embodiment will be described with reference to FIGS. 10 to 13. 10 and 11 show the embedding process and extraction process when amplitude conversion is not used for comparison, and FIGS. 12 and 13 show the embedding process and extraction process using amplitude conversion in the present embodiment. In these explanatory diagrams, the signal waveform of the acoustic signal assuming that 3-bit information is embedded is shown for the odd and even three pairs of acoustic frames, and the acoustic frames are shown in a state where they do not overlap each other for convenience of explanation. ing. In each figure, the waveform at the left end shows a normal acoustic signal waveform in the time dimension, the horizontal direction is the time axis, the time advances toward the right, and the vertical direction is intensity (amplitude). The waveform at the center or right end represents the sum of spectral components in a predetermined frequency range after frequency conversion as a signal waveform, and is a signal waveform after virtually passing through a bandpass filter. The vertical direction is similarly strong, and is originally significantly lower than the left end, but here, for convenience of explanation, it is enlarged and expressed to the same extent as the left end. Although the levels of the two types of waveforms are originally different, they are represented at the same level here. Actually, there are high frequency components and low frequency components outside the predetermined frequency range as the data after frequency conversion, but these are not shown on the assumption that they are not modified, and are embedded according to FIG. The two signal waveforms are limited to the two frequency band components for performing the above.

図10(a)は原音響信号を示しており、最初の1対の音響フレームは全体に渡って強度がほぼ一定、中央の1対の音響フレームは奇数フレームの強度が小さく偶数フレームの強度が大きいものであり、最後の1対の音響フレームは奇数フレームの強度が大きく偶数フレームの強度が小さいものである。このような音響信号に対して、周波数変換を行った結果が図10(b)で、図5で示されように埋め込み対象成分は上下2分割して成分変更を施す都合上、図10(b)では(b−1)および(b−2)の2種の波形に分離して表現した。周波数変換後の波形形状は周波数ごとに異なり、図10(a)と必ずしも相似形にはならないが、ここでは周波数変換前と同様になると仮定して説明する。図10(b−1)および(b−2)に対して、[0,0,0]という3ビットのデータを図5で説明した方法に基づいて埋め込むことにより(図5ではビット0は符号1に相当する)、図10(c−1)および(c−2)が得られる。最初の1対は図5のようなパターンが表現できているが、残り2対の上下一方は、原段階に対して逆方向に大小関係を構築することが要求され、品質維持の都合上、適切なパターンが構築できていないことがわかる。このような改変を加えた結果に対して、周波数逆変換を行った結果が図10(d)である。一般に音響信号波形の外形(エンベロープという)はエネルギー分布が大きい低周波成分で決定され、これらは本願では所定の周波数範囲外の信号成分に含まれ、図10(c)の段階では改変が加えられていないため、周波数逆変換後の図10(d)は周波数変換前の図10(a)と類似した形状になる。   FIG. 10 (a) shows the original sound signal. The first pair of sound frames has a substantially constant intensity throughout, and the center pair of sound frames has a smaller odd frame intensity and an even frame intensity. The last pair of sound frames has a large odd-numbered frame and a small even-numbered frame. FIG. 10 (b) shows the result of frequency conversion performed on such an acoustic signal, and the component to be embedded is divided into two parts, as shown in FIG. ) Are expressed separately as two waveforms (b-1) and (b-2). The waveform shape after frequency conversion differs for each frequency and is not necessarily similar to that shown in FIG. 10A, but here it is assumed that it is the same as before frequency conversion. 10B-1 and 10B-2, by embedding 3-bit data [0, 0, 0] based on the method described in FIG. 10 (c-1) and (c-2) are obtained. The first pair can express a pattern as shown in FIG. 5, but the other two pairs of upper and lower ones are required to construct a magnitude relationship in the opposite direction with respect to the original stage. It turns out that an appropriate pattern has not been constructed. FIG. 10 (d) shows the result of frequency inverse transformation performed on the result of such modification. In general, the external shape (referred to as an envelope) of an acoustic signal waveform is determined by low-frequency components having a large energy distribution, which are included in signal components outside a predetermined frequency range in this application, and are modified in the stage of FIG. 10 (c). Therefore, FIG. 10D after frequency inverse transformation has a shape similar to FIG. 10A before frequency transformation.

このような埋め込みを行なった結果に対して、抽出処理を行う様子を図11に示す。図11(a)および図11(b)は各々図10(d)および図10(c)に対応する。図11(b)において、ビット判定を行なうにあたり、最初の1対以外は図5で想定されているパターンが形成されていないため、正しいビットを判定することが難しくなる。   FIG. 11 shows how extraction processing is performed on the result of such embedding. 11 (a) and 11 (b) correspond to FIGS. 10 (d) and 10 (c), respectively. In FIG. 11B, when performing bit determination, since the pattern assumed in FIG. 5 is not formed except for the first pair, it is difficult to determine a correct bit.

次に、本実施形態における振幅変換を導入した手法について図12および図13を用いて説明する。図12(a)は図10(a)と同じ原音響信号を示しており、同様に周波数変換を行った図12(b)も図10(b)と同じである。ここで、6つのフレーム単位に振幅変換を行った結果が図12(c)である。図12の場合、図12(a)で各フレーム内の振幅が平坦であるため、図12(c)では全体が平坦になっているが、実際には各フレーム内は微細に変動しており、そのフレーム内変動分は図12(c)の段階でも踏襲されるため、本図のように完全に平坦になることは通常ない。(実際は図12(c)は周波数次元のデータになるため、周波数次元のデータも平坦にならず変動した形態になる。)また、変換倍率はフレームごとに設定し、上下2つの周波数成分に対しては同一の倍率で変換を行うため、通常は上下で顕著な差が生じる(ただし、時間軸方向は比較的揃う)。これに対して、[0,0,0]という3ビットのデータを埋め込むと、図12(d−1)および(d−2)が得られる。原段階である図12(c)が平坦な波形であるため、全てのフレームにおいて図5のような理想的なパターンが容易に構築できることがわかる。続いて、前記フレームごとに設定した倍率の逆数を乗じて振幅逆変換を行った結果が図12(e)である。この段階では図10(c)と類似したパターンが生じることが多いが、本形状はいかなるものでも構わない。最後に周波数逆変換を行うと、図12(f)が得られ、同様に原信号波形の図12(a)と類似した形状になる。   Next, a method in which amplitude conversion is introduced in the present embodiment will be described with reference to FIGS. FIG. 12 (a) shows the same original acoustic signal as FIG. 10 (a), and FIG. 12 (b) obtained by frequency conversion in the same manner is the same as FIG. 10 (b). Here, FIG. 12C shows the result of amplitude conversion performed in units of six frames. In the case of FIG. 12, since the amplitude in each frame is flat in FIG. 12 (a), the whole is flat in FIG. 12 (c). Since the intra-frame variation is followed even in the stage of FIG. 12C, it does not normally become completely flat as shown in FIG. (Actually, since FIG. 12 (c) is frequency dimension data, the frequency dimension data is not flat and fluctuates.) Also, the conversion magnification is set for each frame, and the upper and lower two frequency components are set. Since the conversion is performed at the same magnification, there is usually a significant difference between the upper and lower sides (however, the time axis direction is relatively uniform). On the other hand, when 3-bit data [0, 0, 0] is embedded, FIGS. 12D-1 and 12D-2 are obtained. Since FIG. 12C, which is the original stage, has a flat waveform, it can be seen that an ideal pattern as shown in FIG. 5 can be easily constructed in all frames. Next, FIG. 12E shows the result of inverse amplitude transformation performed by multiplying the inverse of the magnification set for each frame. At this stage, a pattern similar to that shown in FIG. 10C is often generated, but any shape can be used. Finally, when frequency inverse transform is performed, FIG. 12F is obtained, and similarly, the shape is similar to that of FIG. 12A of the original signal waveform.

このような埋め込みを行なった結果に対して、抽出処理を行う様子を図13に示す。図13(a)、(b)および(c)は各々図12(f)、(e)および(d)に対応する。図13(b)の周波数変換後の波形形状は図12(b)とは基本的に異なるが、算出される振幅変換倍率は類似した値になり、ほぼ同様な倍率で振幅変換が行われ図13(c)が得られる。図13(c)の段階で、ビット判定を行なうと、全てのフレームにおいて図5のような理想的なパターンが形成されているため、正しいビットを判定することが可能になる。   FIG. 13 shows how extraction processing is performed on the result of such embedding. FIGS. 13 (a), (b) and (c) correspond to FIGS. 12 (f), (e) and (d), respectively. Although the waveform shape after frequency conversion in FIG. 13B is basically different from that in FIG. 12B, the calculated amplitude conversion magnification is a similar value, and the amplitude conversion is performed at substantially the same magnification. 13 (c) is obtained. If bit determination is performed at the stage of FIG. 13C, an ideal pattern as shown in FIG. 5 is formed in all frames, so that correct bits can be determined.

以上、振幅変換を導入した本実施形態では、図12(c)に示したように、埋め込み対象の信号成分が時間軸方向に平坦になるように変換を行って埋め込むようにしているため、高周波側と低周波側の成分強度の大小関係が完全に逆になるような不自然な変更を行う確率が低くなり、品質を維持しながら、抽出側における抽出精度を高めることが可能となる。   As described above, in the present embodiment in which the amplitude conversion is introduced, since the signal component to be embedded is converted and embedded so as to be flat in the time axis direction as illustrated in FIG. The probability of making an unnatural change that completely reverses the magnitude relationship between the component intensity on the low frequency side and the low frequency side is reduced, and the extraction accuracy on the extraction side can be increased while maintaining the quality.

(3.1.位置検出装置の構成)
次に、本発明に係る音響信号を利用した位置検出装置について説明する。図14は、本発明に係る音響信号を利用した位置検出装置の一実施形態を示す構成図である。図14において、100は音響信号入力手段、110は基準フレーム獲得手段、120は位相変更フレーム設定手段、130は周波数変換手段、140は符号判定パラメータ算出手段、150は符号出力手段、160は識別情報抽出手段、170は音響フレーム保持手段、180は巡回符号表作成手段、190は位置関係記憶手段、200は位置出力手段である。
(3.1. Configuration of position detection device)
Next, a position detection apparatus using an acoustic signal according to the present invention will be described. FIG. 14 is a block diagram showing an embodiment of a position detecting device using an acoustic signal according to the present invention. In FIG. 14, 100 is an acoustic signal input means, 110 is a reference frame acquisition means, 120 is a phase change frame setting means, 130 is a frequency conversion means, 140 is a code determination parameter calculation means, 150 is a code output means, and 160 is identification information. Extraction means, 170 an acoustic frame holding means, 180 a cyclic code table creation means, 190 a positional relationship storage means, and 200 a position output means.

音響信号入力手段100は、流れている音声をデジタル音響信号として取得し、入力する機能を有している。現実には、マイクロフォンおよびA/D変換器により実現される。マイクロフォンとしては、変更対象周波数帯の成分が検出可能なものであれば、モノラル無指向性のものであっても、ステレオ指向性のものであっても使用可能である。ステレオ指向性のものであっても一方のチャンネルだけ利用すれば良い。また、図3に示した装置で情報の埋め込みを行った場合には、音響信号はステレオで再生されるが、FLチャンネルに埋め込まれた識別情報を抽出する場合は、FLスピーカ付近にマイクロフォンを設置し、FRチャンネルに埋め込まれた識別情報を抽出する場合は、FRスピーカ付近にマイクロフォンを設置し、BLチャンネルに埋め込まれた識別情報を抽出する場合は、BLスピーカ付近にマイクロフォンを設置し、BRチャンネルに埋め込まれた識別情報を抽出する場合は、BRスピーカ付近にマイクロフォンを設置し、各チャンネルに埋め込まれた複数の情報を利用して識別情報を抽出する場合は、FLスピーカ、FRスピーカ、BLスピーカ、BRスピーカに囲まれた範囲に、隣接するスピーカの間をほぼ4等分した間隔でマイクロフォンを設置する。このマイクロフォンは特別精度の高いものでなく、一般的な精度のマイクロフォンを用いても情報の抽出が可能となる。基準フレーム獲得手段110は、入力されたデジタルのモノラル音響信号(あるいはステレオ音響信号の1チャンネル)から所定数のサンプルで構成される音響フレームを基準フレームとして読み込む機能を有している。基準フレームとしては、埋め込み時と同様にAタイプ、Bタイプのものが設定される。位相変更フレーム設定手段120は、Aタイプ、Bタイプそれぞれの基準フレームと所定サンプルずつ移動させることにより位相を変更した音響フレームを位相変更フレームとして設定する機能を有している。   The acoustic signal input unit 100 has a function of acquiring and inputting a flowing sound as a digital acoustic signal. In reality, it is realized by a microphone and an A / D converter. Any microphone can be used, regardless of whether it is monaural omnidirectional or stereo directional, as long as the component in the frequency band to be changed can be detected. Even if it is stereo-directional, only one channel needs to be used. In addition, when information is embedded with the apparatus shown in FIG. 3, the sound signal is reproduced in stereo, but when identifying information embedded in the FL channel is extracted, a microphone is installed near the FL speaker. When extracting identification information embedded in the FR channel, a microphone is installed near the FR speaker, and when extracting identification information embedded in the BL channel, a microphone is installed near the BL speaker, and the BR channel is extracted. When extracting identification information embedded in the speaker, a microphone is installed in the vicinity of the BR speaker, and when extracting identification information using a plurality of information embedded in each channel, the FL speaker, the FR speaker, and the BL speaker In the range surrounded by BR speakers, the microphones are separated by approximately four equal intervals between adjacent speakers. To install the phone. This microphone is not highly accurate, and information can be extracted using a microphone with general accuracy. The reference frame acquisition unit 110 has a function of reading an audio frame composed of a predetermined number of samples as a reference frame from the input digital monaural audio signal (or one channel of a stereo audio signal). As the reference frame, A type and B type are set as in the case of embedding. The phase change frame setting means 120 has a function of setting, as a phase change frame, an acoustic frame whose phase has been changed by moving each of the A type and B type reference frames and predetermined samples.

周波数変換手段130は、基本的には、図3に示した周波数変換手段20とほぼ同様の機能を有している。ただし、音を取り込むタイミングが、音響信号の先頭からとはならないため、正しい位相を特定するために、複数の位相で振幅変換、周波数変換を行う点、元の音響信号が4チャンネルであっても、1つのチャンネルで行う点が異なっている。   The frequency conversion unit 130 basically has the same function as the frequency conversion unit 20 shown in FIG. However, since the timing for capturing the sound does not start from the beginning of the acoustic signal, in order to identify the correct phase, amplitude conversion and frequency conversion are performed with a plurality of phases, even if the original acoustic signal is four channels. The difference is that one channel is used.

周波数変換手段130は、Aタイプの音響フレームに対してフーリエ変換を行う場合は、信号X(i−N/2+pN/6)(i=0,…,N−1)に対して、窓関数W(1,i)を用いて、以下の〔数式12〕に従った処理を行い、変換データの実部A(1,j,p)、虚部B(1,j,p)を得る機能を有している。pは位相番号であり、0〜5の整数値をとる。   When performing the Fourier transform on the A type acoustic frame, the frequency converting unit 130 applies the window function W to the signal X (i−N / 2 + pN / 6) (i = 0,..., N−1). (1, i) is used to perform processing according to the following [Equation 12] to obtain the real part A (1, j, p) and imaginary part B (1, j, p) of the converted data. Have. p is a phase number and takes an integer value of 0 to 5.

〔数式12〕
A(1,j,p)=Σi=0,…,N-1W(1,i)・X(i−N/2+p・N/6)・cos(2πij/N)
B(1,j,p)=Σi=0,…,N-1W(1,i)・X(i−N/2+p・N/6)・sin(2πij/N)
[Formula 12]
A (1, j, p) = Σi = 0,..., N-1 W (1, i) .X (i-N / 2 + p.N / 6) .cos (2πij / N)
B (1, j, p) = Σi = 0,..., N-1 W (1, i) .X (i-N / 2 + p.N / 6) .sin (2πij / N)

周波数変換手段130は、Bタイプの音響フレームに対してフーリエ変換を行う場合は、信号X(i+p・N/6)(i=0,…,N−1)に対して、窓関数W(2,i)を用いて、以下の〔数式13〕に従った処理を行い、変換データの実部A(2,j,p)、虚部B(2,j,p)を得る機能を有している。   When the Fourier transform is performed on the B type acoustic frame, the frequency converting unit 130 applies the window function W (2) to the signal X (i + p · N / 6) (i = 0,..., N−1). , I) is used to perform processing according to the following [Equation 13] to obtain the real part A (2, j, p) and imaginary part B (2, j, p) of the converted data. ing.

〔数式13〕
A(2,j,p)=Σi=0,…,N-1W(2,i)・X(i+p・N/6)・cos(2πij/N)
B(2,j,p)=Σi=0,…,N-1W(2,i)・X(i+p・N/6)・sin(2πij/N)
[Formula 13]
A (2, j, p) = Σ i = 0,..., N-1 W (2, i) · X (i + p · N / 6) · cos (2πij / N)
B (2, j, p) = Σi = 0,..., N-1 W (2, i) .X (i + p.N / 6) .sin (2πij / N)

周波数変換手段130は、周波数変換手段20と同様に振幅変換を行う。振幅変換を行うにあたり、まず変換倍率の算出を行う。変換倍率の算出は、所定周波数範囲のスペクトル集合の実効強度値の平均である平均実効値で、設定値を除算することにより行う。設定値は、適宜定めておくことができるが、埋め込み時における振幅変換の場合と同一値としておくことが必要となる。したがって、本実施形態では、設定値Zoは288(=M−m)にする必要がある。具体的には、Aタイプの音響フレーム、Bタイプの音響フレームについての変換倍率Z(1,p)、Z(2,p)、これらの直前のAタイプの音響フレーム、Bタイプの音響フレームについての変換倍率Z-1(1,p)、Z-1(2,p)は、以下の〔数式14〕に従った処理により算出される。振幅変換が実行されることにより、全ての音響フレームは、元の状態における信号強度に関わらず、各音響フレームの平均実効値が設定値となるように振幅変換された状態で、情報の抽出が行われることになる。なお、pは位相番号であり、0〜5の整数値をとる。 The frequency conversion unit 130 performs amplitude conversion in the same manner as the frequency conversion unit 20. In performing amplitude conversion, first, conversion magnification is calculated. The conversion magnification is calculated by dividing the set value by the average effective value that is the average of the effective intensity values of the spectrum set in the predetermined frequency range. Although the set value can be determined as appropriate, it is necessary to set the same value as in the case of amplitude conversion at the time of embedding. Therefore, in the present embodiment, the set value Zo needs to be 288 (= M−m). Specifically, the conversion magnifications Z (1, p) and Z (2, p) for the A type acoustic frame and the B type acoustic frame, the A type acoustic frame immediately before these, and the B type acoustic frame. The conversion magnifications Z −1 (1, p) and Z −1 (2, p) are calculated by processing according to the following [Equation 14]. By performing the amplitude conversion, all the sound frames are extracted in a state where the amplitude is converted so that the average effective value of each sound frame becomes a set value regardless of the signal strength in the original state. Will be done. In addition, p is a phase number and takes an integer value of 0-5.

〔数式14〕
Z(1,p)=Zo/[Σj=m,…,M-1{A(1,j,p)2+B(1,j,p)2}]1/2
Z(2,p)=Zo/[Σj=m,…,M-1{A(2,j,p)2+B(2,j,p)2}]1/2
-1(1,p)=Zo/[Σj=m,…,M-1{A-1(1,j,p)2+B-1(1,j,p)2}]1/2
-1(2,p)=Zo/[Σj=m,…,M-1{A-1(2,j,p)2+B-1(2,j,p)2}]1/2
[Formula 14]
Z (1, p) = Zo / [Σ j = m,..., M−1 {A (1, j, p) 2 + B (1, j, p) 2 }] 1/2
Z (2, p) = Zo / [Σ j = m,..., M−1 {A (2, j, p) 2 + B (2, j, p) 2 }] 1/2
Z −1 (1, p) = Zo / [Σ j = m,..., M−1 {A −1 (1, j, p) 2 + B −1 (1, j, p) 2 }] 1/2
Z −1 (2, p) = Zo / [Σ j = m,..., M−1 {A −1 (2, j, p) 2 + B −1 (2, j, p) 2 }] 1/2

j=m,…,M−1(周波数F1,...,F2に相当)およびp=0,...,5の範囲で、A(1,j,p)およびB(1,j,p)の各々の要素に対してZ(1,p)を乗じ、A(2,j,p)およびB(2,j,p)の各々の要素に対してZ(2,p)を乗じ、A-1(1,j,p)およびB-1(1,j,p)の各々の要素に対してZ-1(1,p)を乗じ、A-1(2,j,p)およびB-1(2,j,p)の各々の要素に対してZ-1(2,p)を乗じることにより、振幅変換を行う。以下説明において、A(1,j,p)、B(1,j,p)、A(2,j,p)、B(2,j,p)、A-1(1,j,p)、B-1(1,j,p)、A-1(2,j,p)、B-1(2,j,p)はこれらの振幅変換を行った値とする。 j = m,..., M-1 (corresponding to frequencies F1,..., F2) and p = 0,. . . , 5, each element of A (1, j, p) and B (1, j, p) is multiplied by Z (1, p) and A (2, j, p) and B ( 2, j, p) is multiplied by Z (2, p), and for each element of A -1 (1, j, p) and B -1 (1, j, p) Multiply by Z -1 (1, p) and multiply each element of A -1 (2, j, p) and B -1 (2, j, p) by Z -1 (2, p) Thus, amplitude conversion is performed. In the following description, A (1, j, p), B (1, j, p), A (2, j, p), B (2, j, p), A −1 (1, j, p) , B −1 (1, j, p), A −1 (2, j, p), and B −1 (2, j, p) are values obtained by performing these amplitude conversions.

符号判定パラメータ算出手段140は、生成されたスペクトルから所定の周波数範囲に相当するスペクトル集合を抽出し、各スペクトル集合の強度値を算出するとともに、この強度値を利用して符号判定パラメータを算出し、この符号判定パラメータの大小関係に基づいて、所定の状態であると判断する機能を有している。上述のように、本実施形態では、Aタイプの音響フレームとBタイプの音響フレームがN/2サンプルずつ重複して設定されているため、ある音響フレームについて、強度値、符号判定パラメータを算出する際には、直前の音響フレームによる残響成分を考慮する必要がある。ところが、残響成分は計算により算出されるものであるので、必ずしも正確なものが算出されるとは限らず、算出された残響成分を除去することにより、反って抽出精度が低下する場合がある。そこで、本実施形態では、残響成分を除去しない場合の強度値E1、E2、E3、E4、および符号判定パラメータCと、除去した場合の強度値E1´、E2´、E3´、E4´、および補正符号判定パラメータC´を算出し、これらを利用して最適であると思われる状態を判断する。   The code determination parameter calculation unit 140 extracts a spectrum set corresponding to a predetermined frequency range from the generated spectrum, calculates an intensity value of each spectrum set, and calculates a code determination parameter using the intensity value. Based on the magnitude relationship of the code determination parameters, a function for determining a predetermined state is provided. As described above, in the present embodiment, since the A type acoustic frame and the B type acoustic frame are set to overlap each other by N / 2 samples, the intensity value and the code determination parameter are calculated for a certain acoustic frame. In this case, it is necessary to consider the reverberation component due to the immediately preceding acoustic frame. However, since the reverberation component is calculated, the accurate one is not always calculated. If the calculated reverberation component is removed, the extraction accuracy may be lowered due to warping. Therefore, in this embodiment, the intensity values E1, E2, E3, E4 and the sign determination parameter C when the reverberation component is not removed, and the intensity values E1 ′, E2 ′, E3 ′, E4 ′ when removed, and A correction code determination parameter C ′ is calculated, and a state that seems to be optimal is determined using these parameters.

Aタイプの音響フレームの各成分A(1,j,p)、B(1,j,p)に対して1フレーム分前のBタイプの音響フレームに対応する各成分をA-1(2,j,p)、B-1(2,j,p)とすると、Bタイプの音響フレームの各成分A(2,j,p)、B(2,j,p)に対応して、1フレーム分前の音響フレームは以下補正を施す前の前記Aタイプの音響フレームとなる。符号判定パラメータ算出手段140は、各スペクトル集合の強度値の算出の前に、まず、各スペクトル集合の基本強度値E(1,j,p)、E(2,j,p)、および残響成分を除去した基本強度値E´(1,j,p)、E´(2,j,p)を、以下の〔数式15〕に従った処理により算出する。 Each component corresponding to the B type acoustic frame one frame before the respective components A (1, j, p) and B (1, j, p) of the A type acoustic frame is represented by A −1 (2, j, p), B −1 (2, j, p), one frame corresponding to each component A (2, j, p), B (2, j, p) of the B type acoustic frame The sound frame before the minute is the A-type sound frame before correction. The code determination parameter calculation unit 140 first calculates the basic intensity values E (1, j, p), E (2, j, p), and reverberation components of each spectrum set before calculating the intensity values of each spectrum set. The basic intensity values E ′ (1, j, p) and E ′ (2, j, p) from which the above is removed are calculated by processing according to the following [Equation 15].

〔数式15〕
E(1,j,p)=A(1,j,p)2+B(1,j,p)2
E(2,j,p)=A(2,j,p)2+B(2,j,p)2
-1(1,j,p)=A-1(1,j,p)2+B-1(1,j,p)2
-1(2,j,p)=A-1(2,j,p)2+B-1(2,j,p)2
E´(1,j,p)=E(1,j,p)−q・E-1(2,j,p)
E´(2,j,p)=E(2,j,p)−q・E(1,j,p)
[Formula 15]
E (1, j, p) = A (1, j, p) 2 + B (1, j, p) 2
E (2, j, p) = A (2, j, p) 2 + B (2, j, p) 2
E −1 (1, j, p) = A −1 (1, j, p) 2 + B −1 (1, j, p) 2
E −1 (2, j, p) = A −1 (2, j, p) 2 + B −1 (2, j, p) 2
E ′ (1, j, p) = E (1, j, p) −q · E −1 (2, j, p)
E ′ (2, j, p) = E (2, j, p) −q · E (1, j, p)

上記〔数式15〕における6つの式のうち、上から5番目(下から2番目)の式は、あるAタイプの音響フレームに着目したときに、その前半のN/2サンプルが重複するBタイプの音響フレームからの残響成分を除去するためのものである。また、上から6番目(下から1番目)の式は、あるBタイプの音響フレームに着目したときに、その前半のN/2サンプルが重複するAタイプの音響フレームからの残響成分を除去するためのものである。E´(1,j,p)≧0、E´(2,j,p)≧0とし、〔数式15〕の上から5番目、6番目の式に従った処理の結果、負の値となった場合には、0に設定する。   Of the six formulas in [Formula 15], the fifth formula from the top (second from the bottom) is the B type in which the N / 2 samples in the first half overlap when focusing on a certain type A acoustic frame. This is for removing the reverberation component from the acoustic frame. In addition, the sixth expression from the top (first from the bottom) removes the reverberation component from the A-type sound frame in which the N / 2 samples in the first half overlap when focusing on a certain B-type sound frame. Is for. E ′ (1, j, p) ≧ 0, E ′ (2, j, p) ≧ 0, and as a result of processing according to the fifth and sixth equations from the top of [Equation 15], If this happens, set it to 0.

上記〔数式15〕において、qは残響成分の大きさを示す係数であるが、この係数qは1未満の値を持つものであり、実験の結果、N=4096のときq=0.06、N=2048のときq=0.12、N=1024のときq=0.24、N=512のときq=0.48が最適である。   In the above [Expression 15], q is a coefficient indicating the magnitude of the reverberation component, but this coefficient q has a value less than 1, and as a result of experiment, when N = 4096, q = 0.06, When N = 2048, q = 0.12. When N = 1024, q = 0.24. When N = 512, q = 0.48 is optimal.

そして、残響成分を除去しない場合の各スペクトル集合の強度値E1、E2、E3、E4、E5、E6、E7、E8、除去した場合の強度値E1´、E2´、E3´、E4´、E5´、E6´、E7´、E8´を、算出した基本強度値E(1,j,p)、E(2,j,p)、E´(1,j,p)、E´(2,j,p)を用いて以下の〔数式16〕に基づいて算出する。   Then, the intensity values E1, E2, E3, E4, E5, E6, E7, E8 of each spectrum set when the reverberation component is not removed, and the intensity values E1 ′, E2 ′, E3 ′, E4 ′, E5 when removed. ′, E6 ′, E7 ′, E8 ′ are calculated from the calculated basic intensity values E (1, j, p), E (2, j, p), E ′ (1, j, p), E ′ (2, j, p) is used to calculate based on the following [Equation 16].

〔数式16〕
E1(p)=Σj=m,…,m+G-1E(1,j,p)
E2(p)=Σj=m,…,m+G-1E(2,j,p)
E3(p)=Σj=m+G,…,m+2G-1E(1,j,p)
E4(p)=Σj=m+G,…,m+2G-1E(2,j,p)
E5(p)=Σj=m+2G,…,m+2G+Gu-1E(1,j,p)
E6(p)=Σj=m+2G,…,m+2G+Gu-1E(2,j,p)
E7(p)=Σj=m+2G+Gu,…,m+2G+2Gu-1E(1,j,p)
E8(p)=Σj=m+2G+Gu,…,m+2G+2Gu-1E(2,j,p)
E1´(p)=Σj=m,…,m+G-1E´(1,j,p)
E2´(p)=Σj=m,…,m+G-1E´(2,j,p)
E3´(p)=Σj=m+G,…,m+2G-1E´(1,j,p)
E4´(p)=Σj=m+G,…,m+2G-1E´(2,j,p)
E5´(p)=Σj=m+2G,…,m+2G+Gu-1E´(1,j,p)
E6´(p)=Σj=m+2G,…,m+2G+Gu-1E´(2,j,p)
E7´(p)=Σj=m+2G+Gu,…,m+2G+2Gu-1E´(1,j,p)
E8´(p)=Σj=m+2G+Gu,…,m+2G+2Gu-1E´(2,j,p)
[Formula 16]
E1 (p) = Σ j = m,..., M + G-1 E (1, j, p)
E2 (p) = Σ j = m, ..., m + G-1 E (2, j, p)
E3 (p) = Σ j = m + G,..., M + 2G-1 E (1, j, p)
E4 (p) = Σ j = m + G,..., M + 2G-1 E (2, j, p)
E5 (p) = Σ j = m + 2G,..., M + 2G + Gu-1 E (1, j, p)
E6 (p) = Σ j = m + 2G,..., M + 2G + Gu-1 E (2, j, p)
E7 (p) = Σ j = m + 2G + Gu, ..., m + 2G + 2Gu-1 E (1, j, p)
E8 (p) = Σ j = m + 2G + Gu, ..., m + 2G + 2Gu-1 E (2, j, p)
E1 ′ (p) = Σ j = m,..., M + G-1 E ′ (1, j, p)
E2 ′ (p) = Σ j = m,..., M + G-1 E ′ (2, j, p)
E3 ′ (p) = Σ j = m + G,..., M + 2G-1 E ′ (1, j, p)
E4 ′ (p) = Σ j = m + G,..., M + 2G-1 E ′ (2, j, p)
E5 ′ (p) = Σ j = m + 2G,..., M + 2G + Gu−1 E ′ (1, j, p)
E6 ′ (p) = Σ j = m + 2G,..., M + 2G + Gu−1 E ′ (2, j, p)
E7 ′ (p) = Σ j = m + 2G + Gu,..., M + 2G + 2Gu−1 E ′ (1, j, p)
E8 ′ (p) = Σ j = m + 2G + Gu,..., M + 2G + 2Gu−1 E ′ (2, j, p)

結局〔数式15〕〔数式16〕により、各スペクトル集合の強度値E1、E2、E3、E4、E5、E6、E7、E8が算出されるとともに、当該各スペクトル集合に対応するタイプの別を問わない直前の音響フレームにおけるスペクトル集合の強度にqを乗じた値を減じることにより強度値E1´、E2´、E3´、E4´、E5´、E6´、E7´、E8´が算出されることになる。   Eventually, the intensity values E1, E2, E3, E4, E5, E6, E7, and E8 of each spectrum set are calculated by [Equation 15] and [Equation 16], and the type corresponding to each spectrum set is determined. Intensity values E1 ′, E2 ′, E3 ′, E4 ′, E5 ′, E6 ′, E7 ′, E8 ′ are calculated by subtracting the value obtained by multiplying the intensity of the spectrum set in the immediately preceding acoustic frame by q. become.

また、符号判定パラメータ算出手段140は、残響成分を除去せずに算出した強度値E1、E2、E3、E4、E5、E6、E7、E8を用いて、符号判定パラメータCを算出する。1音響フレームに1ビット埋め込む方式の場合、以下の〔数式17〕に従った処理を実行することにより、候補符号Bについて仮判定するとともに、符号判定パラメータCを算出する。   Also, the code determination parameter calculation unit 140 calculates the code determination parameter C using the intensity values E1, E2, E3, E4, E5, E6, E7, and E8 calculated without removing the reverberation component. In the case of a method of embedding 1 bit in one acoustic frame, a candidate code B is provisionally determined and a code determination parameter C is calculated by executing processing according to the following [Equation 17].

〔数式17〕
1)E1(p)・E5(p)>E2(p)・E6(p)かつE4(p)・E8(p)>E3(p)・E7(p)の場合
B=0と仮判定、
C=E1(p)・E5(p)・{E4(p)・E8(p)−E2(p)・E6(p)・E3(p)・E7(p)}/{E1(p)・E5(p)・E4(p)・E8(p)+E2(p)・E6(p)・E3(p)・E7(p)}
2)E2(p)・E6(p)>E1(p)・E5(p)かつE3(p)・E7(p)>E4(p)・E8(p)の場合
B=1と仮判定、
C={E2(p)・E6(p)・E3(p)・E7(p)−E1(p)・E5(p)・E4(p)・E8(p)}/{E1(p)・E5(p)・E4(p)・E8(p)+E2(p)・E6(p)・E3(p)・E7(p)}
3)E1(p)・E5(p)・E4(p)・E8(p)>E2(p)・E6(p)・E3(p)・E7(p)の場合
B=0と仮判定、
C={E1(p)・E5(p)・E4(p)・E8(p)−E2(p)・E6(p)・E3(p)・E7(p)}/{E1(p)・E5(p)・E4(p)・E8(p)+E2(p)・E6(p)・E3(p)・E7(p)}
4)上記1)〜3)以外の場合
B=1と仮判定、
C={E2(p)・E6(p)・E3(p)・E7(p)−E1(p)・E5(p)・E4(p)・E8(p)}/{E1(p)・E5(p)・E4(p)・E8(p)+E2(p)・E6(p)・E3(p)・E7(p)}
[Formula 17]
1) In the case of E1 (p) · E5 (p)> E2 (p) · E6 (p) and E4 (p) · E8 (p)> E3 (p) · E7 (p)
C = E1 (p) .E5 (p). {E4 (p) .E8 (p) -E2 (p) .E6 (p) .E3 (p) .E7 (p)} / {E1 (p). E5 (p), E4 (p), E8 (p) + E2 (p), E6 (p), E3 (p), E7 (p)}
2) When E2 (p) · E6 (p)> E1 (p) · E5 (p) and E3 (p) · E7 (p)> E4 (p) · E8 (p)
C = {E2 (p) .E6 (p) .E3 (p) .E7 (p) -E1 (p) .E5 (p) .E4 (p) .E8 (p)} / {E1 (p). E5 (p), E4 (p), E8 (p) + E2 (p), E6 (p), E3 (p), E7 (p)}
3) In the case of E1 (p), E5 (p), E4 (p), E8 (p)> E2 (p), E6 (p), E3 (p), E7 (p)
C = {E1 (p) .E5 (p) .E4 (p) .E8 (p) -E2 (p) .E6 (p) .E3 (p) .E7 (p)} / {E1 (p). E5 (p), E4 (p), E8 (p) + E2 (p), E6 (p), E3 (p), E7 (p)}
4) In cases other than the above 1) to 3) B = 1 and provisional determination,
C = {E2 (p) .E6 (p) .E3 (p) .E7 (p) -E1 (p) .E5 (p) .E4 (p) .E8 (p)} / {E1 (p). E5 (p), E4 (p), E8 (p) + E2 (p), E6 (p), E3 (p), E7 (p)}

また、符号判定パラメータ算出手段140は、残響成分を除去して算出した強度値E1´、E2´、E3´、E4´、E5´、E6´、E7´、E8´を用いて、補正符号判定パラメータC´を算出する。1音響フレームに1ビット埋め込む方式の場合、上記〔数式17〕において、E1(p)〜E8(p)をそれぞれE1´(p)〜E8´(p)に置き換えることにより、候補符号Bに代えて候補符号B´について仮判定するとともに、符号判定パラメータCに代えて補正符号判定パラメータC´を算出する。   In addition, the code determination parameter calculation unit 140 performs correction code determination using the intensity values E1 ′, E2 ′, E3 ′, E4 ′, E5 ′, E6 ′, E7 ′, and E8 ′ calculated by removing the reverberation component. The parameter C ′ is calculated. In the case of a method of embedding 1 bit in one acoustic frame, in the above [Equation 17], E1 (p) to E8 (p) are replaced with E1 ′ (p) to E8 ′ (p), respectively, thereby replacing the candidate code B. The candidate code B ′ is tentatively determined, and the correction code determination parameter C ′ is calculated instead of the code determination parameter C.

一方、符号判定パラメータ算出手段140は、1音響フレームに2ビット埋め込む方式の場合、2ビットの各ビットについて、それぞれ候補符号をB1、B2、符号判定パラメータをC1、C2とすると、以下の〔数式18〕に従った処理を実行することにより、候補符号B1について仮判定するとともに、符号判定パラメータC1を算出する。   On the other hand, in the case of a method of embedding 2 bits in one acoustic frame, the code determination parameter calculation unit 140 assumes that the candidate codes are B1 and B2 and the code determination parameters are C1 and C2, respectively. 18] is executed, the candidate code B1 is provisionally determined and the code determination parameter C1 is calculated.

〔数式18〕
1)E1(p)>E2(p)かつE4(p)>E3(p)の場合
B1=0と仮判定、
C1={E1(p)・E4(p)−E2(p)・E3(p)}/{E1(p)・E4(p)+E2(p)・E3(p)}
2)E2(p)>E1(p)かつE3(p)>E4(p)の場合
B1=1と仮判定、
C1={E2(p)・E3(p)−E1(p)・E4(p)}/{E1(p)・E4(p)+E2(p)・E3(p)}
3)E1(p)・E4(p)>E2(p)・E3(p)の場合
B1=0と仮判定、
C1={E1(p)・E4(p)−E2(p)・E3(p)}/{E1(p)・E4(p)+E2(p)・E3(p)}
4)上記1)〜3)以外の場合
B1=1と仮判定、
C1={E2(p)・E3(p)−E1(p)・E4(p)}/{E1(p)・E4(p)+E2(p)・E3(p)}
[Formula 18]
1) When E1 (p)> E2 (p) and E4 (p)> E3 (p) B1 = 0 and provisional determination
C1 = {E1 (p) · E4 (p) −E2 (p) · E3 (p)} / {E1 (p) · E4 (p) + E2 (p) · E3 (p)}
2) When E2 (p)> E1 (p) and E3 (p)> E4 (p)
C1 = {E2 (p) · E3 (p) −E1 (p) · E4 (p)} / {E1 (p) · E4 (p) + E2 (p) · E3 (p)}
3) In the case of E1 (p) · E4 (p)> E2 (p) · E3 (p) B1 = 0 is temporarily determined,
C1 = {E1 (p) · E4 (p) −E2 (p) · E3 (p)} / {E1 (p) · E4 (p) + E2 (p) · E3 (p)}
4) In cases other than the above 1) to 3) B1 = 1 and provisional determination,
C1 = {E2 (p) · E3 (p) −E1 (p) · E4 (p)} / {E1 (p) · E4 (p) + E2 (p) · E3 (p)}

また、以下の〔数式19〕に従った処理を実行することにより、候補符号B2について仮判定するとともに、符号判定パラメータC2を算出する。   Further, by executing the processing according to the following [Equation 19], the candidate code B2 is provisionally determined and the code determination parameter C2 is calculated.

〔数式19〕
1)E5(p)>E6(p)かつE8(p)>E7(p)の場合
B2=0と仮判定、
C2={E5(p)・E8(p)−E6(p)・E7(p)}/{E5(p)・E8(p)+E6(p)・E7(p)}
2)E6(p)>E5(p)かつE7(p)>E8(p)の場合
B2=1と仮判定、
C2={E6(p)・E7(p)−E5(p)・E8(p)}/{E5(p)・E8(p)+E6(p)・E7(p)}
3)E5(p)・E8(p)>E6(p)・E7(p)の場合
B2=0と仮判定、
C2={E5(p)・E8(p)−E6(p)・E7(p)}/{E5(p)・E8(p)+E6(p)・E7(p)}
4)上記1)〜3)以外の場合
B2=1と仮判定、
C2={E6(p)・E7(p)−E5(p)・E8(p)}/{E5(p)・E8(p)+E6(p)・E7(p)}
[Formula 19]
1) When E5 (p)> E6 (p) and E8 (p)> E7 (p) B2 = 0 and provisional determination
C2 = {E5 (p) .E8 (p) -E6 (p) .E7 (p)} / {E5 (p) .E8 (p) + E6 (p) .E7 (p)}
2) When E6 (p)> E5 (p) and E7 (p)> E8 (p)
C2 = {E6 (p) .E7 (p) -E5 (p) .E8 (p)} / {E5 (p) .E8 (p) + E6 (p) .E7 (p)}
3) In the case of E5 (p) · E8 (p)> E6 (p) · E7 (p) B2 = 0 is temporarily determined,
C2 = {E5 (p) .E8 (p) -E6 (p) .E7 (p)} / {E5 (p) .E8 (p) + E6 (p) .E7 (p)}
4) In cases other than the above 1) to 3) B2 = 1 and provisional determination,
C2 = {E6 (p) .E7 (p) -E5 (p) .E8 (p)} / {E5 (p) .E8 (p) + E6 (p) .E7 (p)}

また、符号判定パラメータ算出手段140は、残響成分を除去して算出した強度値E1´、E2´、E3´、E4´、E5´、E6´、E7´、E8´を用いて、補正符号判定パラメータC1´、C2´を算出する。1音響フレームに2ビット埋め込む方式の場合、上記〔数式18〕〔数式19〕において、E1(p)〜E8(p)をそれぞれE1´(p)〜E8´(p)に置き換えることにより、候補符号B1、B2に代えて候補符号B1´、B2´について仮判定するとともに、符号判定パラメータC1、C2に代えて補正符号判定パラメータC1´、C2´を算出する。   In addition, the code determination parameter calculation unit 140 performs correction code determination using the intensity values E1 ′, E2 ′, E3 ′, E4 ′, E5 ′, E6 ′, E7 ′, and E8 ′ calculated by removing the reverberation component. Parameters C1 ′ and C2 ′ are calculated. In the case of the method of embedding 2 bits in one acoustic frame, in the above [Equation 18] and [Equation 19], E1 (p) to E8 (p) are replaced with E1 ′ (p) to E8 ′ (p), respectively. The candidate codes B1 ′ and B2 ′ are provisionally determined instead of the codes B1 and B2, and correction code determination parameters C1 ′ and C2 ′ are calculated instead of the code determination parameters C1 and C2.

符号出力手段150は、1つの基準フレームに対応する音響フレーム(基準フレームおよび位相変更フレーム)の中から最適な位相であると判断されるものを判断し、その音響フレームの状態に対応する符号を出力する機能を有している。符号判定パラメータ算出手段140と符号出力手段150により符号化手段が構成される。識別情報抽出手段160は、符号出力手段150により出力された2値の配列をNhビット単位で抽出し、巡回符号表を参照することにより、Nwビットの基準符号に変換する機能を有している。音響フレーム保持手段170は、Aタイプ、Bタイプそれぞれについて連続する2個の基準フレームを保持可能なバッファメモリである。巡回符号表作成手段180は、上記変換テーブル作成装置と同様、Nwビットが取り得る2のNw乗個以下の基準符号に対して、互いにハミング距離が少なくとも3以上となるNh(>Nw)ビットのハミング符号を割り当てることにより、Nwビットの基準符号とNhビットのハミング符号が対応付けられた符号変換テーブルおよび巡回符号表を作成する機能を有している。位置関係記憶手段190は、左右スピーカを基準とする相対位置と基準符号を対応付けた位置関係テーブルを記憶したものである。位置出力手段200は、識別情報抽出手段160により得られた基準符号を用いて、位置関係記憶手段190内の位置関係テーブルを参照して、位置情報を取得し、出力する。具体的な出力には、液晶ディスプレイ等の表示機器を用いる。   The code output means 150 determines what is determined to be the optimum phase from the acoustic frames (reference frame and phase change frame) corresponding to one reference frame, and selects a code corresponding to the state of the acoustic frame. It has a function to output. The code determination parameter calculation unit 140 and the code output unit 150 constitute an encoding unit. The identification information extraction unit 160 has a function of extracting the binary array output by the code output unit 150 in units of Nh bits, and converting it into an Nw-bit reference code by referring to the cyclic code table. . The acoustic frame holding means 170 is a buffer memory capable of holding two consecutive reference frames for each of the A type and B type. Similar to the conversion table creation device, the cyclic code table creation means 180 has Nh (> Nw) bits whose hamming distance is at least 3 or more with respect to 2 Nw power reference codes that can be taken by Nw bits. By assigning a Hamming code, it has a function of creating a code conversion table and a cyclic code table in which an Nw-bit reference code and an Nh-bit Hamming code are associated with each other. The positional relationship storage unit 190 stores a positional relationship table in which a relative position with reference to the left and right speakers is associated with a reference code. The position output means 200 refers to the positional relationship table in the positional relationship storage means 190 using the reference code obtained by the identification information extraction means 160, and acquires and outputs position information. For specific output, a display device such as a liquid crystal display is used.

図14に示した各構成手段は、現実には情報処理機能を有する小型のコンピュータおよびその周辺機器等のハードウェアに専用のプログラムを搭載することにより実現される。特に、本発明の目的をより簡易に達成するためには、携帯電話機やPDA(PersonalDigital Assistant)等の演算処理機能(コンピュータとしての機能)を備えた携帯型端末装置をハードウェアとして用いることが望ましい。位置検出装置としての機能を備えた携帯型端末装置を携帯して左右のスピーカの間を移動させることにより、携帯型端末装置が備えたマイクロフォンにより取得した音に基づいて、4つのスピーカに囲まれた範囲内の相対的位置を検出することができる。   Each component shown in FIG. 14 is actually realized by mounting a dedicated program on hardware such as a small computer having an information processing function and its peripheral devices. In particular, in order to achieve the object of the present invention more easily, it is desirable to use as a hardware a portable terminal device having an arithmetic processing function (function as a computer) such as a mobile phone or a PDA (Personal Digital Assistant). . A portable terminal device having a function as a position detection device is carried and moved between the left and right speakers, so that it is surrounded by four speakers based on the sound acquired by the microphone included in the portable terminal device. The relative position within the range can be detected.

(3.2.位置検出装置の処理動作)
次に、図14に示した音響信号を利用した位置検出装置の処理動作について、図15のフローチャートに従って説明する。位置検出装置を起動すると、まず、本装置では、位相判定テーブルS(p)、位相決定ログ、位相確定フラグ、総和値累積テーブルTe(1、p)〜Te(8、p)、ビットカウンタを初期化する(S200)。位相判定テーブルS(p)は、位相を判定するためのテーブルであり、pは0〜5の整数値をとる。初期値はS(p)=0に設定されている。位相決定ログは、1つの基準フレームと5つの位相変更フレームの組ごとに、決定された位相すなわち位相番号pを記録していくものであり、初期状態では0が設定されている。位相確定フラグは、位相が確定しているかどうかを示すフラグであり、初期状態ではOffに設定されている。総和値累積テーブルTe(1、p)〜Te(8、p)は、過去(バイト周期×Nhフレーム)分の総和値E1〜E4、残響補正後の総和値E1´〜E4´を6通りの位相別に保存したものであり、初期状態ではTe(1、p)〜Te(8、p)=0に設定されている。ビットカウンタについては初期値として0を設定する。
(3.2. Processing operation of position detection device)
Next, the processing operation of the position detection apparatus using the acoustic signal shown in FIG. 14 will be described according to the flowchart of FIG. When the position detection device is activated, first, in this device, the phase determination table S (p), the phase determination log, the phase determination flag, the total value accumulation table Te (1, p) to Te (8, p), and the bit counter are set. Initialization is performed (S200). The phase determination table S (p) is a table for determining the phase, and p takes an integer value of 0 to 5. The initial value is set to S (p) = 0. The phase determination log records the determined phase, that is, the phase number p for each set of one reference frame and five phase change frames, and 0 is set in the initial state. The phase determination flag is a flag indicating whether or not the phase is fixed, and is set to Off in the initial state. The total value accumulation tables Te (1, p) to Te (8, p) include six types of total values E1 to E4 for the past (byte period × Nh frame) and total values E1 ′ to E4 ′ after reverberation correction. This is stored for each phase, and is set to Te (1, p) to Te (8, p) = 0 in the initial state. For the bit counter, 0 is set as an initial value.

続いて、巡回符号表作成手段180が、巡回符号表を作成する(S210)。巡回符号表とは、図6に示した符号変換テーブルにおいて、変換元の7ビット基準符号に対応する変換後の16ビットハフマン符号のビット列を1ビットずつ移動させた巡回ビットパターンを記録したものである。巡回符号表作成手段180は、まず、変換テーブル作成装置と同様、図7のフローチャートに従った処理により図6に示したような符号変換テーブルを作成した後、巡回符号表を作成する。具体的には、巡回符号表作成手段180は、図6に示したような符号変換テーブルにおいて、8ビット基準符号に対応付けられた16ビットハミング符号のビット列を1ビットずつ移動した巡回ビットパターンを作成し、8ビット基準符号に対応付けて記録する。例えば、図6の8ビット基準符号“0”には、16ビットハミング符号“0000,0000,0000,0001”が正規のビットパターンとして対応付けられているので、巡回符号表作成手段180は、1ビット移動した16ビット符号“0000,0000,0000,0010”(10進表記“2”)、2ビット移動した16ビット符号“0000,0000,0000,0100”(10進表記“4”)、…、15ビット移動した16ビット符号“1000,0000,0000,0000”(10進表記“32768”)までの15個のビットパターンを巡回ビットパターンとして作成する。このようにして、作成された巡回符号表の一例を図16に示す。ビット配列のビット数Nhを16、ハミング距離を3とした場合図16に示した巡回符号表を用いてビットパターンの照合を行うことになる。   Subsequently, the cyclic code table creating unit 180 creates a cyclic code table (S210). The cyclic code table is a code conversion table shown in FIG. 6 in which a cyclic bit pattern in which a bit string of a 16-bit Huffman code after conversion corresponding to a conversion source 7-bit reference code is moved bit by bit is recorded. is there. The cyclic code table creating means 180 first creates a cyclic code table after creating the code conversion table as shown in FIG. 6 by the processing according to the flowchart of FIG. Specifically, the cyclic code table creating unit 180 uses a cyclic bit pattern obtained by moving a bit string of a 16-bit Hamming code associated with an 8-bit reference code bit by bit in the code conversion table as shown in FIG. Created and recorded in association with 8-bit reference code. For example, since the 16-bit Hamming code “0000, 0000, 0000, 0001” is associated with the 8-bit reference code “0” in FIG. 6 as a normal bit pattern, the cyclic code table creating unit 180 has 1 Bit-shifted 16-bit code “0000, 0000, 0000,0010” (decimal notation “2”), 2-bit shifted 16-bit code “0000, 0000, 0000, 0100” (decimal notation “4”),... 15 bit patterns up to 16-bit code “1000, 0000, 0000, 0000” (decimal notation “32768”) shifted by 15 bits are generated as cyclic bit patterns. An example of the cyclic code table created in this way is shown in FIG. When the bit number Nh of the bit arrangement is 16 and the Hamming distance is 3, the bit pattern is collated using the cyclic code table shown in FIG.

図16の巡回符号表においては、いずれも10進表記で示してある。例えば、1行目の8ビット基準符号“0”に対しては、正規の16ビットハミング符号“1”と15個の巡回ビットパターン“2”“4” “8”“16” “32”“64” “128”“256” “512”“1024” “2048” “4096” “8192” “16384” “32768”が対応付けて記録される。   In the cyclic code table of FIG. 16, all are shown in decimal notation. For example, for the 8-bit reference code “0” in the first row, the regular 16-bit Hamming code “1” and 15 cyclic bit patterns “2” “4” “8” “16” “32” “ 64 ”“ 128 ”“ 256 ”“ 512 ”“ 1024 ”“ 2048 ”“ 4096 ”“ 8192 ”“ 16384 ”“ 32768 ”are recorded in association with each other.

このように、初期値が設定され、巡回符号表が作成された状態で、携帯端末に対して、位置検出装置としての起動の指示を行う。これは、例えば、位置検出装置を携帯電話機等の携帯端末で実現している場合は、所定のボタンを操作することにより実行できる。位置検出装置は、指示が入力されると、音響信号入力手段100が、流れている音楽を録音し、デジタル化してデジタル音響信号として入力する。具体的には、無指向性マイクロフォン(または指向性マイクロフォンの一方のチャンネル)から入力される音声を、A/D変換器によりデジタル化する処理を行うことになる。   In this manner, with the initial value set and the cyclic code table created, the mobile terminal is instructed to start as a position detection device. For example, this can be executed by operating a predetermined button when the position detection device is realized by a mobile terminal such as a mobile phone. In the position detection device, when an instruction is input, the acoustic signal input means 100 records the flowing music, digitizes it, and inputs it as a digital acoustic signal. More specifically, the audio input from the omnidirectional microphone (or one channel of the directional microphone) is digitized by the A / D converter.

続いて、基準フレーム獲得手段110が、音響信号入力手段100から入力された音響信号から、所定数のサンプルで構成される音響フレームを基準フレームとして抽出する(S201)。具体的には、Aタイプ、Bタイプについての基準フレームを抽出して音響フレーム保持手段170に読み込むことになる。基準フレーム獲得手段110が基準フレームとして読み込む1音響フレームのサンプル数は、図2に示した音響フレーム読込手段10で設定されたものと同一にする必要がある。したがって、本実施形態の場合、基準フレーム獲得手段110は、Aタイプ、Bタイプについてそれぞれ4096サンプルずつ、順次基準フレームとして読み込んでいくことになる。音響フレーム保持手段170には、各チャンネルについて、Aタイプ、Bタイプ2個ずつの基準フレーム、すなわち2.5Nサンプルが格納可能となっており、新しい基準フレームが読み込まれると、古い基準フレームを破棄するようになっている。したがって、音響フレーム保持手段170には、常に基準フレーム4個分(連続する10240サンプル)が格納されていることになる。   Subsequently, the reference frame acquisition unit 110 extracts an acoustic frame including a predetermined number of samples from the acoustic signal input from the acoustic signal input unit 100 as a reference frame (S201). Specifically, reference frames for A type and B type are extracted and read into the acoustic frame holding means 170. The number of samples of one sound frame read as the reference frame by the reference frame acquisition unit 110 needs to be the same as that set by the sound frame reading unit 10 shown in FIG. Therefore, in the present embodiment, the reference frame acquisition unit 110 sequentially reads 4096 samples for each of the A type and B type as reference frames. The acoustic frame holding unit 170 can store two reference frames of A type and B type for each channel, that is, 2.5N samples. When a new reference frame is read, the old reference frame is discarded. It is supposed to be. Therefore, the sound frame holding means 170 always stores four reference frames (continuous 10240 samples).

位置検出装置で処理する音響フレームは、先頭から途切れることなく隣接して設定される基準フレームと、この基準フレームと位相を変更した位相変更フレームとに分けることができる。基準フレームについては、Aタイプの音響フレームとBタイプの音響フレームが、2048サンプルずつ重複している場合、最初の基準フレームとしてサンプル番号1からサンプル番号4096までを設定したら、次の基準フレームは、サンプル番号2049からサンプル番号6144、さらに次の基準フレームは、サンプル番号4097からサンプル番号8192、さらに次の基準フレームは、サンプル番号6145からサンプル番号10240、というように途切れることなく設定される。そして、各基準フレームについて、1/6フレーム(約683サンプル)ずつ移動した5個の位相変更フレームを設定する。例えば、最初の基準フレームについては、サンプル番号683、1366、2049、2732、3413から始まる4096のサンプルで構成される5個の位相変更フレームが設定されることになる。続いて、周波数変換手段130、符号判定パラメータ算出手段140が、読み込んだ各音響フレームについて、位相を特定した後、埋め込まれている情報を判定し、対応する符号を出力する(S202)。出力される情報の形式は、識別情報が埋め込まれる場合に対応する値1、値2の2通りの形式となる。   The acoustic frame processed by the position detection device can be divided into a reference frame that is set adjacently without interruption from the beginning, and a phase change frame in which the phase is changed. As for the reference frame, when the A type sound frame and the B type sound frame overlap each other by 2048 samples, after setting sample number 1 to sample number 4096 as the first reference frame, the next reference frame is Sample number 2049 to sample number 6144, the next reference frame is set without interruption, such as sample number 4097 to sample number 8192, and the next reference frame is set to sample number 6145 to sample number 10240. Then, for each reference frame, five phase change frames moved by 1/6 frame (about 683 samples) are set. For example, for the first reference frame, five phase change frames configured by 4096 samples starting from sample numbers 683, 1366, 2049, 2732, and 3413 are set. Subsequently, the frequency conversion unit 130 and the code determination parameter calculation unit 140 specify the phase of each read sound frame, determine embedded information, and output a corresponding code (S202). The format of the information to be output has two formats of value 1 and value 2 corresponding to the case where identification information is embedded.

ここで、ステップS202の位相確定および符号判定の詳細を図17のフローチャートに従って説明する。まず、位相確定フラグがOnであるかOffであるかの確認を行う(S301)。位相確定フラグがOnである場合は、位相確定処理(S303〜S309)を行わず、符号判定処理のみを行う(S302)。ただし、初期状態では位相は確定しておらず、位相確定フラグがOffとなっているので、候補符号テーブルB(p)の初期化を行う(S303)。候補符号テーブルB(p)は、1つの基準フレームおよび5個の位相変更フレームを特定するp=0〜5の位相番号および、この6個の音響フレームの状態から得られる2値の符号を記録するものである。   Here, details of phase determination and code determination in step S202 will be described with reference to the flowchart of FIG. First, it is confirmed whether the phase determination flag is On or Off (S301). When the phase determination flag is On, the phase determination process (S303 to S309) is not performed, and only the code determination process is performed (S302). However, since the phase is not fixed in the initial state and the phase determination flag is Off, the candidate code table B (p) is initialized (S303). Candidate code table B (p) records one reference frame and five phase change frames, a phase number of p = 0 to 5 and a binary code obtained from the states of these six acoustic frames. To do.

続いて、符号判定パラメータ算出手段140は、符号判定処理を行う(S302)。ここで、符号判定処理の詳細を図18に示す。まず、周波数変換手段130が、読み込んだ各音響フレームに対して、周波数変換を行って各窓スペクトルを得る(S401)。具体的には、上記〔数式12〕〔数式13〕に従った処理を実行し、変換データの実部A(1,j,p)、虚部B(1,j,p)、実部A(2,j,p)、虚部B(2,j,p)を得る。   Subsequently, the code determination parameter calculation unit 140 performs a code determination process (S302). Details of the code determination process are shown in FIG. First, the frequency conversion means 130 performs frequency conversion on each read sound frame to obtain each window spectrum (S401). Specifically, the processing according to the above [Equation 12] and [Equation 13] is executed, and the real part A (1, j, p), the imaginary part B (1, j, p), and the real part A of the converted data are executed. (2, j, p) and imaginary part B (2, j, p) are obtained.

S401の処理については、実際には、Aタイプ音響フレームについて周波数変換を行った後、N/2サンプルだけシフトしてBタイプ音響フレームについて周波数変換を行う。これらの変換データA(1,j,p)、B(1,j,p)、A(2,j,p)、B(2,j,p)に対して、上記〔数式14〕に従った処理を実行し、振幅変換を行う(S402)。   Regarding the processing of S401, in practice, after frequency conversion is performed on the A type sound frame, the frequency conversion is performed on the B type sound frame after being shifted by N / 2 samples. For these conversion data A (1, j, p), B (1, j, p), A (2, j, p), B (2, j, p), the above [Formula 14] is followed. The process is executed to perform amplitude conversion (S402).

上記周波数変換手段130における処理により、周波数に対応した成分であるスペクトルで表現されたフレームスペクトルが得られる。続いて、符号判定パラメータ算出手段140は、符号判定パラメータC、C´を上述のようにして算出した後、符号判定パラメータC、C´を用いて、変更対象周波数帯の成分の状態がどのような状態であるか、すなわち、1ビットの値としてどのような値が埋め込まれていたかを判断する処理を行う(S403)。具体的には、上記〔数式15〕〜〔数式17〕に従った処理を実行して、符号判定パラメータC、C´を算出する。そして、この両者を比較して、C>C´であれば候補符号Bを候補符号テーブルB(p)に設定し、C≦C´であれば候補符号B´を候補符号テーブルB(p)に出力する。   By the processing in the frequency conversion means 130, a frame spectrum expressed by a spectrum that is a component corresponding to the frequency is obtained. Subsequently, after the code determination parameter calculation unit 140 calculates the code determination parameters C and C ′ as described above, the code determination parameters C and C ′ are used to determine the state of the component of the change target frequency band. In other words, a process of determining what value is embedded as a 1-bit value is performed (S403). Specifically, the code determination parameters C and C ′ are calculated by executing the processing according to the above [Formula 15] to [Formula 17]. Then, comparing these two, if C> C ′, the candidate code B is set in the candidate code table B (p), and if C ≦ C ′, the candidate code B ′ is set in the candidate code table B (p). Output to.

S403の具体的な処理手順としては、まず、上記〔数式15〕の1番目の式と2番目の式を利用して基本強度値E(1,j,p)、E(2,j,p)を算出した後、上記〔数式16〕の1番目から4番目までの式を利用してE1(p)、E2(p)、E3(p)、E4(p)を算出し、上記〔数式17〕に従って候補符号Bおよび符号判定パラメータCを算出する処理を行う。続いて、上記〔数式15〕の3番目から6番目までの式を利用して、残響補正処理を行って基本強度値E´(1,j,p)、E´(2,j,p)を算出する。そして、上記〔数式16〕の5番目から8番目までの式を利用してE1´(p)、E2´(p)、E3´(p)、E4´(p)を算出し、上記〔数式17〕に従って候補符号B´および補正符号判定パラメータC´を算出する処理を行う。   As a specific processing procedure of S403, first, the basic intensity values E (1, j, p), E (2, j, p) are utilized by using the first and second expressions of [Formula 15]. ), E1 (p), E2 (p), E3 (p), E4 (p) are calculated using the first to fourth formulas of [Formula 16]. 17], the candidate code B and the code determination parameter C are calculated. Subsequently, reverberation correction processing is performed using the third to sixth expressions of [Expression 15] to obtain basic intensity values E ′ (1, j, p), E ′ (2, j, p). Is calculated. Then, E1 ′ (p), E2 ′ (p), E3 ′ (p), E4 ′ (p) are calculated using the fifth to eighth expressions of the above [Expression 16], and the above [Expression 16]. 17] is performed to calculate the candidate code B ′ and the correction code determination parameter C ′.

また、上記判定の結果、位相pにおける候補符号テーブルB(p)に値1、値2のいずれかを出力した場合には、さらに、以下の〔数式20〕に従って位相判定テーブルS(p)の更新を行う(S404)。   As a result of the above determination, when either value 1 or value 2 is output to the candidate code table B (p) in the phase p, the phase determination table S (p) Update is performed (S404).

〔数式20〕
C>C´である場合、S(p)←S(p)+C
C≦C´である場合、S(p)←S(p)+C´
[Formula 20]
When C> C ′, S (p) ← S (p) + C
When C ≦ C ′, S (p) ← S (p) + C ′

ここで、図17のフローチャートに戻って、符号判定パラメータ算出手段140は、候補符号テーブルB(p)に、位相pにおいて符号判定処理(S302)で仮決定された符号を保存する(S304)。   Returning to the flowchart of FIG. 17, the code determination parameter calculation unit 140 stores the code temporarily determined in the code determination process (S302) in the phase p in the candidate code table B (p) (S304).

続いて、全ての位相番号pに対応する処理を終えたかどうかを判定する(S305)。これは、ある基準フレームに対して全ての位相変更フレームの処理を行ったかどうかを判定している。本実施形態では、pが0〜5までの値をとるので、6回分処理していない場合は、処理していた音響フレームから所定サンプル数ずらして、位相の異なる音響フレームを設定し、S302に戻って処理を繰り返す。なお、p=0の場合が基準フレームであり、p=1〜5の場合が位相変更フレームである。全ての位相番号pに対応する処理を終えた場合は、位相判定テーブルS(p)の値が最大となる位相番号pmaxに対応する位相が最適位相であると判定し、候補符号テーブルB(p)に記録されている符号B(pmax)を出力する(S306)。   Subsequently, it is determined whether or not the processing corresponding to all the phase numbers p has been completed (S305). This determines whether all phase change frames have been processed for a certain reference frame. In this embodiment, since p takes a value from 0 to 5, if the processing is not performed six times, an acoustic frame having a different phase is set by shifting a predetermined number of samples from the acoustic frame being processed. Return and repeat the process. The case where p = 0 is a reference frame, and the case where p = 1 to 5 is a phase change frame. When the processing corresponding to all the phase numbers p is completed, it is determined that the phase corresponding to the phase number pmax having the maximum value in the phase determination table S (p) is the optimum phase, and the candidate code table B (p The code B (pmax) recorded in () is output (S306).

続いて、位相決定ログの更新を行う(S307)。位相決定ログとは、1つの基準フレームと5つの位相変更フレームの組ごとに、決定された位相すなわち位相番号pを記録するものである。そして、位相決定ログを参照して、位相が過去所定回数同一であったかどうかを判断する(S308)。本実施形態では、この回数を10回としている。位相が過去所定回数同一であった場合には、位相確定フラグをOnに設定する(S309)。これにより、同一位相が所定回数続いた場合には、最適位相はpmaxとなる可能性が高いため、位相確定処理(S303〜S309)を行わず、位相番号p=pmaxに対してのみ符号判定処理(S302)を行うことになる。   Subsequently, the phase determination log is updated (S307). The phase determination log records the determined phase, that is, the phase number p for each set of one reference frame and five phase change frames. Then, referring to the phase determination log, it is determined whether or not the phase has been the same a predetermined number of times in the past (S308). In the present embodiment, this number is 10 times. If the phase has been the same a predetermined number of times in the past, the phase determination flag is set to On (S309). As a result, when the same phase continues for a predetermined number of times, the optimum phase is likely to be pmax. Therefore, the phase determination process (S303 to S309) is not performed, and the code determination process is performed only for the phase number p = pmax. (S302) is performed.

再び図15のフローチャートに戻って説明する。位相確定および符号出力が行なわれたら、出力された符号の値に対応する1ビットをバッファに保存する(S203)。次に、ビットカウンタを“1”だけカウントアップする(S204)。   Returning to the flowchart of FIG. When the phase is determined and the code is output, 1 bit corresponding to the output code value is stored in the buffer (S203). Next, the bit counter is incremented by “1” (S204).

次に、ビットカウンタが15以下であるか16以上であるかを判断する(S205)。ビットカウンタが15以下の場合は、S201に戻って、次のAタイプ、Bタイプの基準フレームを抽出する処理を行う。   Next, it is determined whether the bit counter is 15 or less or 16 or more (S205). If the bit counter is 15 or less, the process returns to S201 to perform processing for extracting the next A type and B type reference frames.

に、ビットカウンタが15以下であるか16以上であるかを判断する(S205)。ビットカウンタが15以下の場合は、S201に戻って、次のAタイプ、Bタイプの基準フレームを抽出する処理を行う。 In the following, the bit counter to determine whether it is either 16 or 15 or less (S205). If the bit counter is 15 or less, the process returns to S201 to perform processing for extracting the next A type and B type reference frames.

ットカウンタが16以上である場合は、バッファに保存された16ビットのビット配列と巡回符号表内のビットパターンとの照合を行う(S206)。照合の結果、一致するビットパターンが16ビットハミング符号または巡回ビットパターンとして存在する場合には、適合パターン有りと判断し、対応する基準符号8ビットを抽出して出力する(S208)。音響フレームから抽出された16ビットのビット列が巡回ビットパターンのいずれかであった場合、これらのビットパターンは埋め込み時に埋め込んでいるはずであるので、対応する16ビットハミング符号のビットパターンをずれた位置で読み込んでいると判断し、8ビット基準符号を抽出するのである。S206の照合の結果、一致するビットパターンが16ビットハミング符号、巡回ビットパターンのいずれにも存在しない場合には、適合パターン無しと判断し、S201に戻って、次の基準フレームを抽出する処理を行う。
If bi Ttokaunta is 16 or more, for matching the bit pattern in the cyclic code table and saved 16-bit bit sequence in the buffer (S206). If the matching bit pattern exists as a 16-bit Hamming code or a cyclic bit pattern as a result of the collation, it is determined that there is a matching pattern, and the corresponding 8 bits of the reference code are extracted and output (S208). When the 16-bit bit string extracted from the acoustic frame is one of the cyclic bit patterns, these bit patterns should be embedded at the time of embedding, and therefore the position where the bit pattern of the corresponding 16-bit Hamming code is shifted Therefore, the 8-bit reference code is extracted. If the matching bit pattern does not exist in either the 16-bit Hamming code or the cyclic bit pattern as a result of the verification in S206, it is determined that there is no matching pattern, and the process returns to S201 to extract the next reference frame. Do.

S208において、基準符号8ビットを抽出して出力した場合には、ビットカウンタを0に初期化する(S209)。そして、S201に戻って、次の基準フレームから抽出する処理を行う。本発明では、埋め込み時にNa回重複して同一ワードを埋め込んでいるが、埋め込み時の先頭ビットから16ビットが偶然にも抽出されない限り、通常(Na−1)回の同一ワードが抽出されることになる(1ワード分は前後の異なるワード間をまたがって抽出されるため、S206の照合の結果、通常エラーになる)。この場合、実際に情報として必要なのは1ワード分のみであるため、後続する(Na−2)ワード分の8ビット基準符号を読み飛ばすのである。もちろん、状況によっては、(Na−2)ワード以下の8ビット基準符号しか読み込まれない場合もあれば、全く読み込まれない場合もある。   If the 8 bits of the reference code are extracted and output in S208, the bit counter is initialized to 0 (S209). Then, the process returns to S201, and processing for extracting from the next reference frame is performed. In the present invention, the same word is embedded by overlapping Na times at the time of embedding, but normally (Na-1) times of the same word is extracted unless 16 bits are accidentally extracted from the first bit at the time of embedding. (Since one word is extracted across different words before and after, a normal error occurs as a result of collation in S206). In this case, since only one word is actually required as information, the 8-bit reference code for the following (Na-2) words is skipped. Of course, depending on the situation, only an 8-bit reference code of (Na-2) words or less may be read, or it may not be read at all.

図15に示す処理を各基準フレームに対して実行することにより、識別情報の1ワードが抽出されることになる。S201において全ての基準フレームが抽出されたと判断された場合には、処理を終了する。   By executing the process shown in FIG. 15 for each reference frame, one word of identification information is extracted. If it is determined in S201 that all reference frames have been extracted, the process ends.

上記S208の処理において、識別情報抽出手段160は、まず、符号出力手段150により出力された2値の配列をNhビット単位で抽出し、巡回符号表を参照することにより、Nwビットの基準符号に変換する。正しく処理が行われれば、この基準符号は、第1〜第5のいずれかの符号と同一となる。そして、位置出力手段200が、識別情報抽出手段160により得られた識別情報を用いて、位置関係記憶手段190内の位置関係テーブルを参照して、位置情報を取得し、出力する。位置関係記憶手段190内の位置関係テーブルの一例を図19に示す。位置関係テーブルには、検出位置と識別情報の対応関係が記録されている。識別情報としては、各ワードを第1符号〜第5符号のいずれかとした2ワード構成のものをあらかじめ記録しておく。抽出された識別情報で、この位置関係テーブルを参照することにより、検出位置の情報が得られるので、位置出力手段200はその検出位置を出力する。具体的には、図19に検出位置として示された“前左スピーカ付近”等の内容を表示装置(図示省略)の画面に表示出力する。   In the processing of S208, the identification information extraction unit 160 first extracts the binary array output by the code output unit 150 in units of Nh bits, and refers to the cyclic code table to obtain the Nw-bit reference code. Convert. If the process is performed correctly, this reference code is the same as any one of the first to fifth codes. Then, using the identification information obtained by the identification information extraction unit 160, the position output unit 200 refers to the positional relationship table in the positional relationship storage unit 190 to acquire and output the positional information. An example of the positional relationship table in the positional relationship storage means 190 is shown in FIG. The correspondence relationship between the detected position and the identification information is recorded in the positional relationship table. As the identification information, a two-word configuration in which each word is one of the first code to the fifth code is recorded in advance. By referring to this positional relationship table with the extracted identification information, information on the detected position can be obtained, so that the position output means 200 outputs the detected position. Specifically, contents such as “near the front left speaker” shown as the detection position in FIG. 19 are displayed and output on the screen of a display device (not shown).

(3.3.位相補正処理について)
上記のように、抽出時には、埋め込み時に埋め込んだ音響フレームに対応して、音響信号を読み込むことができるとは限らない。そこで、音響フレームの位相をずらして複数通り(本実施形態では6通り)で読み込み、その中で最適な位相を決定し、その位相で特定される音響フレームに対応する符号を出力することにしている。例えば、6通りで読み込む場合、先頭の音響フレームは、本来サンプル番号1〜4096のサンプルであるが、サンプル番号1、683、1366、2049、2732、3413から始まる4096のサンプルで構成される6個の各音響フレームに対して処理を行い、最適な音響フレームに対応する符号を出力することになる。なお、図16のフローチャートを用いて説明したように、本実施形態では、同一位相が所定回数連続した場合には、それ以降はその位相を確定したものとして処理を行う。
(3.3. About phase correction processing)
As described above, at the time of extraction, it is not always possible to read an acoustic signal corresponding to the acoustic frame embedded at the time of embedding. Therefore, the phase of the acoustic frame is shifted and read in a plurality of ways (six in this embodiment), the optimum phase is determined, and a code corresponding to the acoustic frame specified by the phase is output. Yes. For example, in the case of reading in six ways, the top acoustic frame is originally a sample of sample numbers 1 to 4096, but six pieces composed of 4096 samples starting from sample numbers 1, 683, 1366, 2049, 2732, and 3413 Are processed, and a code corresponding to the optimum acoustic frame is output. As described with reference to the flowchart of FIG. 16, in the present embodiment, when the same phase continues for a predetermined number of times, the processing is performed after that phase is determined.

(4.5.1chサラウンド再生に対応した例)
上記の例では、4チャンネルの音響信号を4つのスピーカから再生する場合について説明したが、本発明は、さらに多くのチャンネルに対応することが可能である。ここでは、一例として5.1chサラウンド再生に対応させる場合について説明する。5.1chサラウンド再生に対応させる場合、上記のような4つのスピーカに加えて、中央のスピーカであるFCスピーカと、低音強調用のスピーカであるLFスピーカを用意する。そして、FCスピーカから出力させるべきFCチャンネルの音響信号と、LFスピーカから出力させるべきLFチャンネルの音響信号それぞれの低周波成分に対して、上記説明のようにして、周波数成分の変更を行う。
(Example corresponding to 4.5.1ch surround playback)
In the above example, the case where a 4-channel sound signal is reproduced from four speakers has been described. However, the present invention can deal with more channels. Here, as an example, a case where 5.1ch surround reproduction is supported will be described. In order to support 5.1ch surround reproduction, in addition to the four speakers as described above, an FC speaker that is a central speaker and an LF speaker that is a speaker for emphasizing bass are prepared. Then, the frequency component is changed as described above for the low frequency components of the FC channel acoustic signal to be output from the FC speaker and the LF channel acoustic signal to be output from the LF speaker.

ここで、5.1chサラウンド再生の場合における本発明の適用について、4チャンネルの場合の図22と対比しながら説明する。図24は、5.1chサラウンド再生の場合の6個のスピーカと、各位置で検出される識別情報の関係を示す図である。FLスピーカ、FRスピーカ、BLスピーカ、BRスピーカに囲まれた9つのビット列(9種の識別情報)は、図22に示したものと同一であるが、図24では、所定周波数成分の強度を反映していない。図24では、各スピーカから発せられる音に埋め込まれた識別情報に所定周波数成分の強度を反映させたビット列を、FLスピーカ、FCスピーカ、LFスピーカ、FRスピーカについては、図面上側に、BLスピーカ、BRスピーカについては、図面下側に示している。   Here, application of the present invention in the case of 5.1ch surround reproduction will be described in comparison with FIG. 22 in the case of four channels. FIG. 24 is a diagram showing the relationship between six speakers in 5.1ch surround playback and identification information detected at each position. Nine bit strings (9 types of identification information) surrounded by the FL speaker, the FR speaker, the BL speaker, and the BR speaker are the same as those shown in FIG. 22, but in FIG. 24, the intensity of the predetermined frequency component is reflected. Not done. In FIG. 24, a bit string in which the intensity of a predetermined frequency component is reflected in identification information embedded in sound emitted from each speaker. For FL speakers, FC speakers, LF speakers, and FR speakers, a BL speaker, The BR speaker is shown at the bottom of the drawing.

5.1chサラウンド再生の場合であっても、FLスピーカ、FRスピーカ、BLスピーカ、BRスピーカから発せられる音の所定周波数成分は、4チャンネルの場合と全く同じである。この場合、FCスピーカ、LFスピーカからは、所定周波数成分の強度を小さくした状態で、共に“00001011”の識別情報が埋め込まれた音を発する。図22と比較すると、FCスピーカ、LFスピーカから音を発した場合でも、先の4つのスピーカに基づく識別情報の抽出精度に影響しないようにしている。5.1chサラウンド再生を、25種の識別情報に対応させる場合は、図22に示した例において、FCスピーカを、FLスピーカとFRスピーカの中間に配置し、LFスピーカを部屋のスペースに合わせて任意の位置に配置し、共に“00001001”の識別情報が埋め込まれた音を発する。図24では、LFスピーカをFLスピーカとFRスピーカの中間に配置させているが、LFスピーカ(重低音)は指向性がないため、どこに配置しても良いというのが5.1chサラウンド再生上の仕様である。   Even in the case of 5.1ch surround reproduction, the predetermined frequency components of the sound emitted from the FL speaker, FR speaker, BL speaker, and BR speaker are exactly the same as in the case of 4 channels. In this case, both the FC speaker and the LF speaker emit sound in which identification information “00001011” is embedded in a state where the intensity of the predetermined frequency component is reduced. Compared to FIG. 22, even when sound is emitted from the FC speaker and LF speaker, the extraction accuracy of identification information based on the previous four speakers is not affected. When 5.1ch surround playback is made to correspond to 25 types of identification information, in the example shown in FIG. 22, the FC speaker is arranged between the FL speaker and the FR speaker, and the LF speaker is matched to the space of the room. It is arranged at an arbitrary position, and both emit sound in which identification information “00000101” is embedded. In FIG. 24, the LF speaker is arranged between the FL speaker and the FR speaker. However, since the LF speaker (deep bass) has no directivity, it may be arranged anywhere in 5.1ch surround playback. It is a specification.

(5.信号成分が小さい場合にさらに確実に情報の埋め込みを行う手法)
ここまでの説明のように、本発明では、元の信号成分に無音に近い部分があっても、情報の埋め込みを可能とするものである。このままでも、もちろん十分であるが、本発明においては、より確実に情報を埋め込むような処理を付加することも可能である。具体的には、周波数変換を行う前に、音響信号に聴取困難な微弱な白色ノイズを重畳させる。
(5. Method of embedding information more reliably when the signal component is small)
As described so far, according to the present invention, information can be embedded even if the original signal component has a portion close to silence. Of course, this is sufficient, but in the present invention, it is possible to add a process for embedding information more reliably. Specifically, before performing the frequency conversion, weak white noise that is difficult to hear is superimposed on the acoustic signal.

この場合、図3に示した音響フレーム読込手段10は、所定数のサンプルを1音響フレームとして読み込んだ後、所定の振幅範囲で所定サンプル数単位で同一値を加算または減算する機能を有している。本実施形態では、左チャンネル信号Xl(i)、右チャンネル信号Xr(i)(i=0,…,N−1)に対して、−32〜+32の振幅範囲(Xl(i)、Xr(i)のとり得る値が−32768〜+32767の場合)で一様乱数Hを発生させ、K(本実施形態ではK=5)個のサンプル間は同一値Hを用いて以下の〔数式21〕に示すような処理を実行し、Xl(i)、Xr(i)の値を更新する。   In this case, the acoustic frame reading means 10 shown in FIG. 3 has a function of adding or subtracting the same value in units of a predetermined number of samples within a predetermined amplitude range after reading a predetermined number of samples as one acoustic frame. Yes. In this embodiment, with respect to the left channel signal Xl (i) and the right channel signal Xr (i) (i = 0,..., N−1), an amplitude range of −32 to +32 (Xl (i), Xr ( i) is a value between −32768 to +32767), and a uniform random number H is generated, and the same value H is used between K (K = 5 in the present embodiment) samples as follows: The process shown in FIG. 6 is executed to update the values of Xl (i) and Xr (i).

〔数式21〕
Xl(i)←Xl(i)+H
Xr(i)←Xr(i)−H
[Formula 21]
Xl (i) ← Xl (i) + H
Xr (i) ← Xr (i) -H

すなわち、上記〔数式21〕に従った処理をNサンプルに渡って実行することにより、1つの音響フレームに白色ノイズが発生されることになる。この白色ノイズの発生処理は、図9のフローチャートにおいては、S103、S104の音響フレーム抽出処理の直後に行われることになる。   That is, white noise is generated in one acoustic frame by executing the processing according to the above [Equation 21] over N samples. The white noise generation process is performed immediately after the acoustic frame extraction process of S103 and S104 in the flowchart of FIG.

上記のように、白色ノイズを発生させた場合であっても、抽出側の、音響信号を利用した位置検出装置の構成は図14と同一であり、処理動作は図15、図17、図18のフローチャートに従ったものと同一である。   As described above, even when white noise is generated, the configuration of the position detection device using the acoustic signal on the extraction side is the same as that shown in FIG. 14, and the processing operation is shown in FIGS. It is the same as that according to the flowchart.

(6.分解能の拡張)
上記実施形態では、各チャンネルにおいて一方向につき3種の符号(内1つは他のチャンネルと重複するため、全体で一方向の符号は5種となる。)に基づいて所定周波数範囲の成分強度を3段階に変更することにより、二次元の範囲において左右スピーカ付近を含む計25箇所における相対的位置を特定するようにした。また、各チャンネルにおいて一方向につき2種の符号(内1つは他のチャンネルと重複するため、全体で一方向の符号は3種となる。)に基づいて所定周波数範囲の成分強度を2段階に変更することにより、二次元の範囲において左右スピーカ付近を含む計9箇所における相対的位置を特定することができることについても説明した。本発明では、より多くの箇所における相対的位置を特定するため、各チャンネルにおいて、より多くの符号に基づいて所定周波数範囲の成分強度をより多くの段階に変更するようにしても良い。例えば、各チャンネルにおいて一方向につき4種の符号に基づいて所定周波数範囲の成分強度を4段階に変更することにより、二次元の範囲において各スピーカ付近を含む計49箇所における相対的位置を特定することができる。また、各チャンネルにおいて一方向につき5種の符号に基づいて所定周波数範囲の成分強度を5段階に変更することにより、二次元の範囲において各スピーカ付近を含む計81箇所における相対的位置を特定することができる。一般化すると、各チャンネルにおいて(n+1)/2種の符号に基づいて所定周波数範囲の成分強度を(n+1)/2段階に変更することにより、二次元の範囲において各スピーカ付近を含む計n2箇所における相対的位置を特定することができる。多くの箇所の相対的位置を特定することにより、位置検出の分解能が高まっていくことになる。
(6. Expansion of resolution)
In the above-described embodiment, the component intensities in a predetermined frequency range are based on three types of codes in one direction in each channel (one of which overlaps with other channels, so there are five types of codes in one direction as a whole). Is changed into three stages, so that the relative positions in a total of 25 locations including the vicinity of the left and right speakers in the two-dimensional range are specified. In addition, each channel has two levels of component intensity in a predetermined frequency range based on two types of codes per direction (of which one overlaps with other channels, so there are three types of codes in one direction as a whole). It has also been explained that the relative positions in a total of nine locations including the vicinity of the left and right speakers can be specified in the two-dimensional range by changing to. In the present invention, in order to specify the relative positions in more places, the component strength in the predetermined frequency range may be changed to more stages in each channel based on more codes. For example, by changing the component intensity in a predetermined frequency range in four steps based on four types of codes for each channel in each channel, the relative positions at a total of 49 locations including the vicinity of each speaker in the two-dimensional range are specified. be able to. Further, by changing the component intensity of the predetermined frequency range in five steps based on five types of codes for each direction in each channel, the relative positions at a total of 81 locations including the vicinity of each speaker in the two-dimensional range are specified. be able to. In general, by changing the component intensity of a predetermined frequency range to (n + 1) / 2 stages based on (n + 1) / 2 types of codes in each channel, a total of n 2 including the vicinity of each speaker in a two-dimensional range is obtained. The relative position in the place can be specified. By specifying the relative positions of many places, the resolution of position detection increases.

(7.周波数範囲の変形例)
本願では抽出精度を向上させるため、電話帯域全体に埋め込み領域を拡大する方法を採用したが、再生品質を向上させるため、下位の変更対象周波数帯の幅を上記実施形態より狭くすることも可能である。具体的には、変更対象周波数帯の下限F1を0.85kHzとする。この場合、上位周波数帯は1.7kHz〜3.4kHz、下位周波数帯は0.85kHz〜1.7kHzとなる。ただし、実験の結果、前記電話帯域全体に埋め込み領域を設定した方法と比較し、品質上の顕著な差は無く、むしろ抽出精度の低下のデメリットの方が大きく、結果的に優位性は見られなかった。また出願人は、電話帯域全体に埋め込み領域を設定する際、上記実施形態で示した方法ではなく、下位周波数帯を0.85kHz〜1.7kHzに狭くし、その下に、さらに独立した周波数帯0.34kHz〜0.85kHzを三重に設置する手法についても実験したが、比較の結果、下位周波数帯を0.34kHz〜1.7kHzの1本にまとめる方が雑音の抑圧効果が高く、感度も2倍程度に拡大されることがわかった。低音部は信号エネルギー成分が大きいため、わずかな拡大により感度が顕著に改善されたのだと思われる。結局、周波数方向に4つの周波数領域に分け、上位周波数帯と下位周波数帯の幅を近づけ、二重の音脈分凝を形成する手法が、人間の聴覚に対して、最もノイズを抑制できることがわかった。
(7. Modified examples of frequency range)
In this application, in order to improve the extraction accuracy, a method of expanding the embedding area in the entire telephone band is adopted. However, in order to improve the reproduction quality, it is also possible to make the width of the lower frequency band to be changed narrower than the above embodiment. is there. Specifically, the lower limit F1 of the change target frequency band is set to 0.85 kHz. In this case, the upper frequency band is 1.7 kHz to 3.4 kHz, and the lower frequency band is 0.85 kHz to 1.7 kHz. However, as a result of the experiment, there is no significant difference in quality compared to the method in which the embedded area is set over the entire telephone band, but rather the disadvantage of a decrease in extraction accuracy is greater, and as a result, superiority is seen. There wasn't. In addition, when setting the embedding area in the entire telephone band, the applicant narrows the lower frequency band to 0.85 kHz to 1.7 kHz instead of the method shown in the above embodiment, and further separates the frequency band below it. Experiments were also conducted on a method of installing 0.34 kHz to 0.85 kHz in triplicate, but as a result of comparison, it is more effective to suppress noise by combining the lower frequency bands into one of 0.34 kHz to 1.7 kHz, and the sensitivity is also high. It was found that it was magnified about twice. The bass part has a large signal energy component, so it seems that the sensitivity was significantly improved by a slight enlargement. In the end, the method that divides the frequency range into four frequency regions and makes the upper and lower frequency bands close to each other to form a double sound pulse concentration can suppress the noise most for human hearing. all right.

(8.その他)
以上、本発明の好適な実施形態について限定したが、本発明は上記実施形態に限定されず、種々の変形が可能である。例えば、上記実施形態では、1音響フレームのサンプル数N=4096としたが、N=2048、1024、512等を設定するようにしても良い。これにより、同一時間あたりの音響フレーム数が、2倍、4倍、8倍となり、全体として2〜8倍の情報の埋め込みが可能となる。
(8. Others)
As mentioned above, although it limited about the suitable embodiment of the present invention, the present invention is not limited to the above-mentioned embodiment, and various modifications are possible. For example, in the above embodiment, the number of samples of one acoustic frame is N = 4096, but N = 2048, 1024, 512, etc. may be set. As a result, the number of sound frames per same time is doubled, quadrupled, and quadrupled, and 2 to 8 times of information can be embedded as a whole.

また、上記実施形態では、音響信号を利用した位置検出装置を、携帯電話機等の携帯型端末装置単体で実現した場合を例にとって説明したが、他のコンピュータと連携して実現するようにしても良い。具体的には、携帯型端末装置と専用コンピュータを無線通信可能に接続し、音響信号入力手段100〜音響フレーム保持手段170の構成要素のうち、演算負荷の大きいものは、専用コンピュータで処理する。例えば、音響信号入力手段100、基準フレーム獲得手段110、位相変更フレーム設定手段120、識別情報抽出手段160、巡回符号表作成手段180、位置関係記憶手段190、位置出力手段200を携帯型端末装置に備え、周波数変換手段130、符号判定パラメータ算出手段140、符号出力手段150、音響フレーム保持手段170を専用コンピュータに備えるようにして、必要な情報を両者間で通信するようにする。これにより、携帯型端末装置の処理性能が低い場合であっても高速な処理を行うことが可能となる。   In the above embodiment, the position detection device using an acoustic signal has been described as an example of a mobile terminal device such as a mobile phone. However, the position detection device may be realized in cooperation with another computer. good. Specifically, the portable terminal device and the dedicated computer are connected so as to be capable of wireless communication, and among the components of the acoustic signal input unit 100 to the acoustic frame holding unit 170, those having a large calculation load are processed by the dedicated computer. For example, the acoustic signal input unit 100, the reference frame acquisition unit 110, the phase change frame setting unit 120, the identification information extraction unit 160, the cyclic code table creation unit 180, the positional relationship storage unit 190, and the position output unit 200 are included in the portable terminal device. The dedicated computer is provided with the frequency conversion unit 130, the code determination parameter calculation unit 140, the code output unit 150, and the sound frame holding unit 170 so that necessary information can be communicated between them. This makes it possible to perform high-speed processing even when the processing performance of the portable terminal device is low.

また、上記実施形態では、識別情報が埋め込まれる音響信号として、前左チャンネル、前右チャンネル、後左チャンネル、後右チャンネルの内容が異なる4チャンネルのステレオ音響信号を利用した場合を例にとって説明したが、元の音響信号自体は4つのチャンネルともに全く同じものであっても良い。すなわち、モノラル音響信号に対して、それぞれ異なる識別情報を埋め込んだもの(所定周波数範囲以外は全く同じ音響信号)をFLスピーカ、FRスピーカ、BLスピーカ、BRスピーカから再生するようにしても良い。   Further, in the above-described embodiment, a case where four-channel stereo sound signals having different contents of the front left channel, the front right channel, the rear left channel, and the rear right channel is used as an acoustic signal in which identification information is embedded has been described as an example. However, the original acoustic signal itself may be the same for all four channels. In other words, monophonic audio signals in which different identification information is embedded (exactly the same audio signals except for a predetermined frequency range) may be reproduced from the FL speaker, the FR speaker, the BL speaker, and the BR speaker.

また、周波数成分変更手段30による所定周波数成分の変更を、図5および〔数式9〕に従って実行するようにしたが、埋め込むべきビット値に応じた周波数成分の変更は、公知の様々な手法を用いることができ、例えば特許文献1に示したような手法を用いることも可能である。この場合、抽出側においても、当然その埋め込み手法に応じた手法で抽出が行われる。   Further, the change of the predetermined frequency component by the frequency component changing means 30 is executed according to FIG. 5 and [Equation 9], but various known methods are used to change the frequency component according to the bit value to be embedded. For example, it is possible to use a technique as shown in Patent Document 1. In this case, on the extraction side, the extraction is naturally performed by a method corresponding to the embedding method.

一次元の位置検出の基本概念を示す図である。It is a figure which shows the basic concept of a one-dimensional position detection. 一次元の位置検出の概念をより詳細に説明した図である。It is the figure explaining the concept of the one-dimensional position detection in detail. 音響信号に対する情報の埋め込み装置の機能ブロック図である。It is a functional block diagram of an information embedding device for an acoustic signal. 本発明で用いる時間方向窓関数を示す図である。It is a figure which shows the time direction window function used by this invention. 本発明の一実施形態における変更対象周波数帯の成分の変化の状態を示す図である。It is a figure which shows the state of a change of the component of the change object frequency band in one Embodiment of this invention. 8ビット符号と16ビット符号の符号変換テーブルの一例を示す図である。It is a figure which shows an example of the code conversion table of an 8-bit code and a 16-bit code. 符号変換テーブル作成の処理概要を示すフローチャートである。It is a flowchart which shows the process outline | summary of code conversion table preparation. 第1符号〜第5符号の組み合わせ例を示す図である。It is a figure which shows the example of a combination of a 1st code | symbol-a 5th code | symbol. 図3に示した装置の処理概要を示すフローチャートである。It is a flowchart which shows the process outline | summary of the apparatus shown in FIG. 振幅変換を用いない埋め込み処理を説明するための図である。It is a figure for demonstrating the embedding process which does not use amplitude conversion. 振幅変換を用いない抽出処理を説明するための図である。It is a figure for demonstrating the extraction process which does not use amplitude conversion. 振幅変換を用いた埋め込み処理を説明するための図である。It is a figure for demonstrating the embedding process using amplitude conversion. 振幅変換を用いた抽出処理を説明するための図である。It is a figure for demonstrating the extraction process using amplitude conversion. 本発明に係る音響信号を利用した位置検出装置の機能ブロック図である。It is a functional block diagram of the position detection apparatus using the acoustic signal which concerns on this invention. 図14に示した装置の処理概要を示すフローチャートである。It is a flowchart which shows the process outline | summary of the apparatus shown in FIG. 本発明で用いる巡回符号表の一例を示す図である。It is a figure which shows an example of the cyclic code table used by this invention. 図15のS202の位相確定および符号出力の詳細を示すフローチャートである。16 is a flowchart showing details of phase determination and code output in S202 of FIG. 図17のS302の符号判定処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the code | symbol determination process of S302 of FIG. 検出位置と抽出識別情報の関係を記録した位置関係テーブルの一例を示す図である。It is a figure which shows an example of the positional relationship table which recorded the relationship between a detection position and extraction identification information. 識別情報を埋め込む際に、強度“大” “中” “小”とするために所定周波数成分をどのように変化させるかを説明する図である。It is a figure explaining how a predetermined frequency component is changed in order to make intensity "large" "medium" "small" when embedding identification information. 本発明の基本概念の説明図である。It is explanatory drawing of the basic concept of this invention. 本発明の概念をより詳細に説明した図である。It is the figure explaining the concept of this invention in detail. 検出位置を増やした場合の、本発明の概念の詳細説明図である。It is detailed explanatory drawing of the concept of this invention at the time of increasing a detection position. 5.1chサラウンド再生の場合の、本発明の概念の詳細説明図である。It is a detailed explanatory view of the concept of the present invention in the case of 5.1ch surround playback.

10・・・音響フレーム読込手段
20・・・周波数変換手段
30・・・周波数成分変更手段
40・・・周波数逆変換手段
50・・・改変音響フレーム出力手段
60・・・記憶手段
61・・・音響信号記憶部
62・・・識別情報記憶部
63・・・改変音響信号記憶部
70・・・ビット配列作成手段
100・・・音響信号入力手段
110・・・基準フレーム獲得手段
120・・・位相変更フレーム設定手段
130・・・周波数変換手段
140・・・符号判定パラメータ算出手段
150・・・符号出力手段
160・・・識別情報抽出手段
170・・・音響フレーム保持手段
180・・・巡回符号表作成手段
190・・・位置関係記憶手段
200・・・位置出力手段
DESCRIPTION OF SYMBOLS 10 ... Acoustic frame reading means 20 ... Frequency conversion means 30 ... Frequency component change means 40 ... Frequency reverse conversion means 50 ... Modified acoustic frame output means 60 ... Storage means 61 ... Acoustic signal storage unit 62 ... identification information storage unit 63 ... modified acoustic signal storage unit 70 ... bit array creation means 100 ... acoustic signal input means 110 ... reference frame acquisition means 120 ... phase Change frame setting means 130 ... frequency conversion means 140 ... code determination parameter calculation means 150 ... code output means 160 ... identification information extraction means 170 ... acoustic frame holding means 180 ... cyclic code table Creation means 190 ... Position relation storage means 200 ... Position output means

Claims (8)

少なくとも4チャンネルの時系列のサンプル列で構成される音響信号に対して、前記音響信号が少なくとも4つのスピーカで再生される際に、それぞれのスピーカ近辺の4箇所、4つのスピーカの中間(n2−5)箇所(nは5以上の奇数)、および4つのスピーカの中央1箇所の計n2箇所の位置で互いに異なるn2種の識別情報が抽出可能になるように、互いに異なるn2種の識別情報をn種の前後識別情報とn種の左右識別情報の組み合わせとして聴取不能な状態で埋め込む装置であって、
前記音響信号より、所定数のサンプルを各チャンネルごとに読み込み、音響フレームを作成する音響フレーム読込手段と、
前記読み込んだ各チャンネルの音響フレームのうち、各々奇数番目、偶数番目の一方をAタイプ、他方をBタイプとし、前記Aタイプの音響フレームに対して第1窓関数を用いて周波数変換を行い、前記Bタイプの音響フレームに対して第2窓関数を用いて周波数変換を行い、前記第1窓関数に対応するスペクトルである第1窓スペクトル、前記第2窓関数に対応するスペクトルである第2窓スペクトルを得る周波数変換手段と、
前記生成された各窓スペクトルから所定の周波数範囲における互いに重複しない2個のスペクトル集合を、周波数が高い方のスペクトル集合の周波数幅が大きくなるように抽出し、更に各スペクトル集合を1/2の周波数幅に均等分割し、各窓スペクトルについての4個のスペクトル集合を、前記第1窓スペクトルから抽出したスペクトル集合を周波数が低い順に、1D1、1D2、1U1、1U2とし、前記第2窓スペクトルから抽出したスペクトル集合を周波数が低い順に、2D1、2D2、2U1、2U2とした場合に、そのチャンネルに埋め込むべき本来の前後または左右識別情報を構成するビット値に基づいて、1D1の強度値と2D2の強度値との積と、1D2の強度値と2D1の強度値との積のいずれか一方が他方より所定の程度以上に大きくなり、同時に1U1の強度値と2U2の強度値との積と、1U2の強度値と2U1の強度値との積のいずれか一方が他方より所定の程度以上に大きくなるように変更するものであり、
前後識別情報を用いる場合、前記強度値の大小関係を逆転させない範囲において、さらに強度値を変更させる程度を(n+1)/2段階に設定するとともに、他のスピーカとの間のほぼ中央で抽出させるべき前後識別情報のビット値が前記本来の前後識別情報のビット値と同一である場合に最大の程度になるようにし、本来の前後識別情報を抽出させる位置と隣接する位置において抽出させるべき前後識別情報のビット値が前記本来の前後識別情報のビット値と異なる場合に、最小の程度となるようにしており、
左右識別情報を用いる場合、前記強度値の大小関係を逆転させない範囲において、さらに強度値を変更させる程度を(n+1)/2段階に設定するとともに、他のスピーカとの間のほぼ中央で抽出させるべき左右識別情報のビット値が前記本来の左右識別情報のビット値と同一である場合に最大の程度になるようにし、本来の左右識別情報を抽出させる位置と隣接する位置において抽出させるべき左右識別情報のビット値が前記本来の左右識別情報のビット値と異なる場合に、最小の程度となるようにしている周波数成分変更手段と、
前記変更されたスペクトル集合を含む各窓スペクトルに対して周波数逆変換を行って、改変音響フレームを生成する周波数逆変換手段と、
前記生成された改変音響フレームを順次出力する改変音響フレーム出力手段と、
を有することを特徴とする音響信号に対する情報の埋め込み装置。
When the acoustic signal is reproduced by at least four speakers with respect to an acoustic signal composed of a time-series sample sequence of at least four channels, four locations in the vicinity of the respective speakers (n 2) -5) point (n is 5 or more odd number), and so different from n 2 kinds of identification information is extractable from each other at the location of the four central one location a total of n 2 places speakers, different n 2 or to each other A device that embeds the identification information of n types of front and rear identification information and n types of right and left identification information in an inaudible state,
From the acoustic signal, an acoustic frame reading means for reading a predetermined number of samples for each channel and creating an acoustic frame;
Among the read sound frames of each channel , odd-numbered and even-numbered one is A type and the other is B type, and frequency conversion is performed on the A type sound frame using a first window function, A frequency conversion is performed on the B-type acoustic frame using a second window function, and a first window spectrum that is a spectrum corresponding to the first window function and a second spectrum that corresponds to the second window function. A frequency conversion means for obtaining a window spectrum;
Two spectrum sets that do not overlap each other in a predetermined frequency range are extracted from the generated window spectra so that the frequency width of the higher frequency spectrum set becomes larger , and each spectrum set is reduced to 1/2. The spectrum set obtained by equally dividing the frequency spectrum into four spectrum sets for each window spectrum and extracting the spectrum set from the first window spectrum in order of increasing frequency is 1D1, 1D2, 1U1, 1U2, and from the second window spectrum. When the extracted spectrum set is 2D1, 2D2, 2U1, 2U2 in order of frequency , based on the bit values that constitute the original front / rear or left / right identification information to be embedded in the channel, the intensity value of 1D1 and 2D2 One of the product of the intensity value, the intensity value of 1D2 and the intensity value of 2D1 is predetermined from the other. Becomes larger than the degree, at the same time the product of the intensity values of the intensity values and 2U2 of 1U1, either the product of the intensity values of the intensity values and 2U1 of 1U2 is the size Kunar so than a predetermined degree than the other To change,
When using the front-rear identification information, the degree to which the intensity value is further changed is set to (n + 1) / 2 steps within the range in which the magnitude relationship of the intensity values is not reversed, and is extracted approximately at the center with other speakers. When the bit value of the power front and rear identification information is the same as the bit value of the original front and rear identification information, the front and rear identification should be extracted at a position adjacent to the position where the original front and rear identification information is extracted. When the bit value of the information is different from the bit value of the original front and rear identification information, it is set to a minimum degree,
When using the left / right identification information, the degree to which the intensity value is further changed is set to (n + 1) / 2 steps within the range in which the magnitude relationship of the intensity values is not reversed, and is extracted approximately at the center with other speakers. Left and right identification to be extracted at a position adjacent to the position where the original left and right identification information is extracted so that the bit value of the right and left identification information is the same as the bit value of the original left and right identification information When the bit value of the information is different from the bit value of the original left and right identification information, the frequency component changing means configured to be a minimum degree;
Frequency inverse transform means for performing frequency inverse transform on each window spectrum including the modified spectrum set to generate a modified acoustic frame;
Modified acoustic frame output means for sequentially outputting the generated modified acoustic frames;
An information embedding device for an acoustic signal, comprising:
請求項1において、
前記周波数成分変更手段は、1D1の強度値と2D2の強度値との積と、1D2の強度値と2D1の強度値との積と、1U1の強度値と2U2の強度値との積と、1U2の強度値と2U1の強度値との積のうち、大きくなるように変更する側のスペクトル集合に対しては、係数αを乗じた強度とし、小さくなるように変更する側のスペクトル集合に対しては、係数αより小さい係数βを乗じた強度とするものであり、前記強度値を変更させる(n+1)/2段階の程度に応じて係数α、係数βを決定するようにしていることを特徴とする音響信号に対する情報の埋め込み装置。
Oite to claim 1,
The frequency component changing means includes a product of an intensity value of 1D1 and an intensity value of 2D2, a product of an intensity value of 1D2 and an intensity value of 2D1, a product of an intensity value of 1U1 and an intensity value of 2U2, and 1U2. Of the product of the intensity value of 2 and the intensity value of 2U1, the spectrum set on the side to be changed to be larger is multiplied by the coefficient α, and the spectrum set on the side to be changed to be smaller. Is an intensity multiplied by a coefficient β smaller than the coefficient α, and the coefficient α and the coefficient β are determined according to the degree of (n + 1) / 2 stages in which the intensity value is changed. An information embedding device for an acoustic signal.
請求項において、
前記周波数成分変更手段は、前記強度の積を相対的に大きくなるように変更するスペクトル集合の強度の積を、前記強度の積を相対的に小さくなるように変更するスペクトル集合の強度の積で割った値γが、1より小さい場合に、前記係数αよりγの平方根を除した係数と、前記係数βにγの平方根を乗じた係数を、前記係数α、βに代えて用いるものであることを特徴とする音響信号に対する情報の埋め込み装置。
In claim 2 ,
The frequency component changing means is the product of the intensity of the spectrum set that changes the intensity product to be relatively large, and the product of the intensity of the spectrum set that changes the intensity product to be relatively small. When the divided value γ is smaller than 1, a coefficient obtained by dividing the coefficient α by the square root of γ and a coefficient obtained by multiplying the coefficient β by the square root of γ are used instead of the coefficients α and β. An information embedding device for an acoustic signal.
請求項1から請求項のいずれか一項において、
前記音響フレーム読込手段は、各チャンネルごとに、前記Aタイプの音響フレームと前記Bタイプの音響フレームを、所定数のサンプルを重複させて読み込むものであり、
前記改変音響フレーム出力手段は、前記生成された改変音響フレームを先行する改変音響フレームと各々連結させて出力するものであることを特徴とする音響信号に対する情報の埋め込み装置。
In any one of claims 1 to 3,
The acoustic frame reading means reads the A type acoustic frame and the B type acoustic frame by overlapping a predetermined number of samples for each channel,
The apparatus for embedding information in an acoustic signal, wherein the modified acoustic frame output means outputs the generated modified acoustic frame by connecting it to a preceding modified acoustic frame.
請求項1から請求項のいずれか一項において、
前記周波数成分変更手段は、前記所定周波数範囲を0.34kHz以上および3.4kHz以下として設定するものであることを特徴とする音響信号に対する情報の埋め込み装置。
In any one of claims 1 to 4,
The apparatus for embedding information in an acoustic signal, wherein the frequency component changing means sets the predetermined frequency range as 0.34 kHz or more and 3.4 kHz or less.
コンピュータを、請求項1から請求項のいずれか一項に記載の音響信号に対する情報の埋め込み装置として、機能させるためのプログラム。 The program for functioning a computer as an information embedding apparatus with respect to the acoustic signal as described in any one of Claims 1-5 . あらかじめ聴取不能な状態でn2種の識別情報が埋め込まれた音響信号から、前記音響信号を少なくとも4つのスピーカで再生し、それぞれのスピーカ近辺の4箇所、4つのスピーカの中間(n2−5)箇所、および4つのスピーカの中央1箇所の計n2箇所の位置を検出する装置であって、
各スピーカを基準とする相対位置と前記識別情報を対応付けた位置関係を記憶した位置関係記憶手段と、
前記音響信号が再生されている空間内の所定の位置で音響信号をモノラル入力し、所定区間をデジタル化して、所定数のサンプルで構成される音響フレームを獲得する音響フレーム獲得手段と、
前記読み込んだ音響フレームのうち、奇数番目、偶数番目の一方をAタイプ、他方をBタイプとし、前記Aタイプの音響フレームに対して第1窓関数を用いて周波数変換を行い、前記Bタイプの音響フレームに対して第2窓関数を用いて周波数変換を行い、前記第1窓関数に対応するスペクトルである第1窓スペクトル、前記第2窓関数に対応するスペクトルである第2窓スペクトルを得る周波数変換手段と、
前記生成された各窓スペクトルから所定の周波数範囲における互いに重複しない2個のスペクトル集合を、周波数が高い方のスペクトル集合の周波数幅が大きくなるように抽出し、更に各スペクトル集合を1/2の周波数幅に均等分割し、前記第1窓スペクトルから抽出した4個のスペクトル集合の強度値を周波数が低い順にE1、E3、E5、E7として算出し、前記第2窓スペクトルから抽出した4個のスペクトル集合の強度値を周波数が低い順にE2、E4、E6、E8として算出し、E1とE4の積と、E2とE3の積との大小関係、およびE5とE8の積と、E6とE7の積との大小関係に基づいて、埋め込まれていたビット値を抽出する符号化手段と、
前記抽出されたビット値をワード単位で所定の規則により変換して時系列に各々n種の前後識別情報と左右識別情報を抽出し、これらを結合して前記n2種の識別情報として抽出する識別情報抽出手段と、
前記識別情報抽出手段により得られた識別情報を用いて、前記位置関係記憶手段を参照して位置情報を取得し、当該取得した位置情報を出力する位置出力手段と、
を有することを特徴とする音響信号を利用した位置検出装置。
The acoustic signal is reproduced by at least four speakers from an acoustic signal in which n 2 types of identification information are embedded in a state incapable of being heard in advance, and four locations near each speaker (n 2 −5) ) And a device for detecting a total of n 2 positions of one center of the four speakers,
A positional relationship storage means for storing a positional relationship in which a relative position based on each speaker is associated with the identification information;
An acoustic frame acquisition means for monophonically inputting an acoustic signal at a predetermined position in a space where the acoustic signal is reproduced, digitizing a predetermined section, and acquiring an acoustic frame composed of a predetermined number of samples;
Of the read acoustic frames, odd-numbered and even-numbered ones are A type and the other is B type, and frequency conversion is performed on the A type acoustic frames using a first window function, and the B type Frequency conversion is performed on the acoustic frame using the second window function to obtain a first window spectrum that is a spectrum corresponding to the first window function and a second window spectrum that is a spectrum corresponding to the second window function. Frequency conversion means;
Two spectrum sets that do not overlap each other in a predetermined frequency range are extracted from the generated window spectra so that the frequency width of the higher frequency spectrum set becomes larger, and each spectrum set is reduced to 1/2. Equally divided into frequency widths, intensity values of four spectrum sets extracted from the first window spectrum are calculated as E1, E3, E5, and E7 in order of increasing frequency, and the four spectrum sets extracted from the second window spectrum The intensity values of the spectrum set are calculated as E2, E4, E6, and E8 in ascending frequency, and the magnitude relationship between the product of E1 and E4 and the product of E2 and E3, and the product of E5 and E8, and E6 and E7 Encoding means for extracting the embedded bit value based on the magnitude relationship with the product;
The extracted bit values are converted in word units according to a predetermined rule, and n kinds of front and rear identification information and left and right identification information are extracted in time series, and these are combined and extracted as the n 2 kinds of identification information. Identification information extraction means;
Using the identification information obtained by the identification information extracting means, referring to the positional relationship storage means, obtaining position information, and outputting the obtained position information;
A position detection device using an acoustic signal characterized by comprising:
コンピュータを、請求項に記載の音響信号を利用した位置検出装置として、機能させるためのプログラム。 The program for functioning a computer as a position detection apparatus using the acoustic signal of Claim 7 .
JP2009010271A 2009-01-20 2009-01-20 Information embedding device for acoustic signal and position detecting device using acoustic signal Expired - Fee Related JP5157931B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009010271A JP5157931B2 (en) 2009-01-20 2009-01-20 Information embedding device for acoustic signal and position detecting device using acoustic signal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009010271A JP5157931B2 (en) 2009-01-20 2009-01-20 Information embedding device for acoustic signal and position detecting device using acoustic signal

Publications (2)

Publication Number Publication Date
JP2010169443A JP2010169443A (en) 2010-08-05
JP5157931B2 true JP5157931B2 (en) 2013-03-06

Family

ID=42701744

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009010271A Expired - Fee Related JP5157931B2 (en) 2009-01-20 2009-01-20 Information embedding device for acoustic signal and position detecting device using acoustic signal

Country Status (1)

Country Link
JP (1) JP5157931B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5535808B2 (en) 2010-07-28 2014-07-02 富士フイルム株式会社 Astaxanthin-containing aqueous composition, cosmetic, and method for inhibiting astaxanthin degradation
EP2565667A1 (en) 2011-08-31 2013-03-06 Friedrich-Alexander-Universität Erlangen-Nürnberg Direction of arrival estimation using watermarked audio signals and microphone arrays
KR101337449B1 (en) 2012-04-12 2013-12-05 (주)아이스플럽 Method and system for location estimation of mobile ternal using sound system
HK1174195A2 (en) * 2013-01-18 2013-05-31 Sengital Ltd Positioning system and method based on ultrasound

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4867765B2 (en) * 2007-04-05 2012-02-01 大日本印刷株式会社 Information embedding device for sound signal and device for extracting information from sound signal
JP2010078728A (en) * 2008-09-24 2010-04-08 Dainippon Printing Co Ltd Device for embedding information in sound signal and device for extracting information from sound signal
JP5157863B2 (en) * 2008-12-08 2013-03-06 大日本印刷株式会社 Information embedding device for acoustic signal and position detecting device using acoustic signal

Also Published As

Publication number Publication date
JP2010169443A (en) 2010-08-05

Similar Documents

Publication Publication Date Title
JP4780375B2 (en) Device for embedding control code in acoustic signal, and control system for time-series driving device using acoustic signal
JP2009180893A (en) Content playback device controlled with acoustic signal
JP5157931B2 (en) Information embedding device for acoustic signal and position detecting device using acoustic signal
JP4867765B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP5157863B2 (en) Information embedding device for acoustic signal and position detecting device using acoustic signal
JP2006323182A (en) Embedding device for information into sound signal, extraction device of information from sound signal, and sound signal reproducing apparatus
JP5011849B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP4910920B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP4910959B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP5569033B2 (en) Information embedding device for acoustic signals
JP5310498B2 (en) Information embedding device for acoustic signals
JP5212715B2 (en) Device for extracting information from acoustic signals
JP4968468B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP5104200B2 (en) Network connection device
JP2010078728A (en) Device for embedding information in sound signal and device for extracting information from sound signal
JP4831335B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP4973417B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP5273366B2 (en) Content synchronized playback device
JP5104202B2 (en) Real-time information embedding device for acoustic signals
JP4831333B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP4910921B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP4876978B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP5906659B2 (en) Device for embedding interfering signals with respect to acoustic signals
JP5011855B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP5011872B2 (en) Information embedding device for sound signal and device for extracting information from sound signal

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111107

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120730

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120904

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121023

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121113

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121126

R150 Certificate of patent or registration of utility model

Ref document number: 5157931

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151221

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees