JP2008216581A - Device for extracting information from sound signal - Google Patents

Device for extracting information from sound signal Download PDF

Info

Publication number
JP2008216581A
JP2008216581A JP2007053137A JP2007053137A JP2008216581A JP 2008216581 A JP2008216581 A JP 2008216581A JP 2007053137 A JP2007053137 A JP 2007053137A JP 2007053137 A JP2007053137 A JP 2007053137A JP 2008216581 A JP2008216581 A JP 2008216581A
Authority
JP
Japan
Prior art keywords
frame
spectrum
bit
frequency
acoustic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2007053137A
Other languages
Japanese (ja)
Inventor
Toshio Motegi
敏雄 茂出木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2007053137A priority Critical patent/JP2008216581A/en
Publication of JP2008216581A publication Critical patent/JP2008216581A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a device for extracting information from a sound signal, by which an extracting accuracy can be enhanced, even when information is embedded in a comparatively high frequency section at an extracting side. <P>SOLUTION: When additional information which is embedded beforehand is extracted from the sound signal, a sound frame is obtained from a predetermined period of the sound signal, and a spectrum set is extracted from a predetermined frequency range of the sound frame. Spectral intensity is calculated, by applying correction by a correction function (αj)<SP>2</SP>and correction by a frequency direction window function F(j-m) on a spectral element corresponding to each frequency of each spectrum set; and based on each spectrum intensity, one or more embedded bit strings are extracted. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、CD・DVD等を用いた民生・業務用途における鑑賞用のパッケージ音楽分野、放送事業者等が商業目的で配信する放送・ネットワーク音楽配信分野における音楽著作権の保護(不正コピーの監視)および音楽属性情報の提供(楽曲タイトル検索サービス)分野、ミュージアム、イベント会場における展示説明ナレーションに連動した文字情報の提供サービス分野、放送番組やCD/DVDパッケージの音声信号からURLなどの情報を抽出し、携帯電話を用いて所定のコンテンツに関連するwebサイトにアクセスして詳細情報を抽出したり、アンケートに回答したりする非接触なインターネットのゲートウェイサービス分野に関する。   The present invention relates to the protection of music copyright (monitoring illegal copying) in the field of package music for viewing for consumer and business use using CDs and DVDs, and the field of broadcasting and network music distribution distributed for commercial purposes by broadcasters and the like. ) And music attribute information (music title search service) field, museum, event information service service field linked to exhibition explanation narration, URL and other information extracted from audio signals of broadcast programs and CD / DVD packages In addition, the present invention relates to a non-contact Internet gateway service field in which a mobile phone is used to access a web site related to a predetermined content and extract detailed information or answer a questionnaire.

従来、流れている音楽のタイトル等を知ることができる楽曲属性情報の提供サービスとして、放送された音楽に対して日時と地域を放送局に照会したり、携帯電話で流れている音楽断片を録音してデータベースに登録されているメロディーと照合したりするサービスが行われている。本出願人は、これを、さらに発展させ、音響信号の周波数成分の比率を属性情報のビット値に応じて変更することにより、属性情報(付加情報)を埋め込む手法を提案している(特許文献1、2参照)。
特開2006−235359号公報 特開2006−323246号公報
Conventionally, as a service for providing music attribute information that allows you to know the title of music that is playing, you can query the broadcast station for the date and time of the broadcasted music, and record music fragments that are played on mobile phones. In addition, there is a service that matches the melody registered in the database. The present applicant has further developed this and proposed a method of embedding attribute information (additional information) by changing the ratio of frequency components of an acoustic signal according to the bit value of the attribute information (Patent Literature). 1 and 2).
JP 2006-235359 A JP 2006-323246 A

上記特許文献1、2に記載の発明では、抽出側において、所定周波数範囲の周波数成分を抽出し、その強度に応じて、所定のビット値が埋め込まれていたかどうかを判断することになる。そこで、抽出側において、判断を容易にするためには、埋め込み側において、情報を埋め込むべき周波数範囲を拡大することが考えられるが、この場合、信号劣化が大きくなるだけで、抽出精度も悪化する。特に、比較的高音部においては、低音部に比べエネルギー分布が低いため、抽出精度が落ちるという問題がある。   In the inventions described in Patent Documents 1 and 2, on the extraction side, frequency components in a predetermined frequency range are extracted, and it is determined whether or not a predetermined bit value is embedded according to the intensity. Therefore, in order to facilitate the determination on the extraction side, it is conceivable to expand the frequency range in which information should be embedded on the embedding side, but in this case, only the signal deterioration increases and the extraction accuracy also deteriorates. . In particular, the relatively high sound part has a problem that the extraction accuracy is lowered because the energy distribution is lower than that of the low sound part.

また、音響信号を所定の区間に分割した音響フレームに対して、埋め込むべき周波数領域を複数に分割して、複数ビットを埋め込もうとする場合、高い方の周波数領域と低い方の周波数領域間で顕著な強度の差が生じるため、抽出側において、判断を誤り、抽出精度が落ちるという問題もある。   In addition, when an acoustic frame obtained by dividing an acoustic signal into predetermined sections is divided into a plurality of frequency regions to be embedded and a plurality of bits are to be embedded, between the higher frequency region and the lower frequency region As a result, a significant difference in intensity occurs, and there is a problem in that the extraction side makes a judgment error and the extraction accuracy decreases.

そこで、本発明は、抽出側において、比較的高音部に埋め込んだ場合であっても、抽出精度を高めることが可能な音響信号からの情報の抽出装置を提供することを課題とする。   Therefore, an object of the present invention is to provide an apparatus for extracting information from an acoustic signal that can improve the extraction accuracy even when the extraction side is embedded in a relatively high sound part.

上記課題を解決するため、本発明では、音響信号から、あらかじめ聴取不能な状態で埋め込まれた付加情報を抽出する装置であって、前記音響信号の所定区間をデジタル化して、所定数のサンプルで構成される音響フレームを獲得する音響フレーム獲得手段と、前記音響フレームに対して、時間方向の前部、後部の信号成分を主として抽出する第1窓関数、第3窓関数を用いてそれぞれ、周波数変換を行い、前記第1窓関数に対応するスペクトルである第1窓スペクトル、前記第3窓関数に対応するスペクトルである第3窓スペクトルを得る周波数変換手段と、前記得られた第1窓スペクトル、第3窓スペクトルの所定の周波数範囲から1以上のスペクトル集合を抽出し、各スペクトル集合の各周波数fに対応するスペクトル要素に対して(αf)βなる補正を施してスペクトル強度を算出し、その各スペクトル強度に基づいて、埋め込まれていた1以上のビット列を抽出する符号化手段と、前記出力されたビット列をワード単位で所定の規則により変換して付加情報を抽出する付加情報抽出手段を有する音響信号からの情報の抽出装置を提供する。 In order to solve the above problems, the present invention is an apparatus for extracting additional information embedded in an inaudible state in advance from an acoustic signal, and digitizing a predetermined section of the acoustic signal to obtain a predetermined number of samples. An acoustic frame acquisition means for acquiring a configured acoustic frame, and a frequency using a first window function and a third window function that mainly extract front and rear signal components in the time direction with respect to the acoustic frame, respectively. Frequency conversion means for performing conversion to obtain a first window spectrum that is a spectrum corresponding to the first window function, a third window spectrum that is a spectrum corresponding to the third window function, and the obtained first window spectrum , One or more spectral sets are extracted from a predetermined frequency range of the third window spectrum, and the spectral elements corresponding to the respective frequencies f of each spectral set are ( calculating a spectrum intensity subjected to f) beta comprising correction, based on their respective spectral strength, embedded encoding means for extracting one or more bit sequences had, the outputted a predetermined bit sequence in words rules An apparatus for extracting information from an acoustic signal having additional information extraction means for converting and extracting additional information is provided.

また、本発明では、さらに前記符号化手段が、前記スペクトル要素に対し、さらに前記スペクトル集合の周波数範囲における中央付近における値が大きくなるように周波数方向の値に応じて変化する窓関数F(f)を適用して補正を施すものである音響信号からの情報の抽出装置を提供する。   In the present invention, the encoding means further includes a window function F (f) that changes according to a value in a frequency direction so that a value near the center in the frequency range of the spectrum set further increases with respect to the spectrum element. ) To extract information from an acoustic signal that is corrected.

本発明によれば、音響信号の所定区間から得られる音響フレームの所定周波数範囲の強度を算出する際、スペクトル要素に対して(αf)βなる補正を施すようにしたので、低音部に比べエネルギー分布が低い高音部に埋め込んだ場合であっても、抽出精度の悪化を防止することが可能となる。 According to the present invention, when calculating the intensity of the predetermined frequency range of the acoustic frame obtained from the predetermined section of the acoustic signal, the correction of (αf) β is performed on the spectral element, so that the energy is lower than that of the bass part. Even if it is embedded in a high pitch part with a low distribution, it is possible to prevent the extraction accuracy from deteriorating.

また、本発明によれば、スペクトル要素に対し、さらに、スペクトル集合の周波数範囲における中央付近における値が大きくなるように周波数方向の値に応じて変化する窓関数F(f)を適用して補正を施すようにしたので、埋め込むべき周波数領域を複数に分割して、複数ビットを埋め込もうとする場合であっても、抽出精度に悪化を防止することが可能となる。   Further, according to the present invention, the spectral function is further corrected by applying the window function F (f) that changes in accordance with the value in the frequency direction so that the value in the vicinity of the center in the frequency range of the spectrum set increases. Therefore, even if the frequency region to be embedded is divided into a plurality of bits and a plurality of bits are to be embedded, it is possible to prevent the extraction accuracy from being deteriorated.

以下、本発明の実施形態について図面を参照して詳細に説明する。
(1.第1の実施形態)
まず、第1の実施形態について説明する。最初に第1の実施形態における埋め込み処理の前後における音響フレームの所定周波数成分の変化の状態について説明する。図1に、本実施形態による所定周波数成分の状態を1音響フレーム単位で示す。図1に示す各音響フレームにおいて、横軸は時間方向、縦軸は周波数方向を示している。また、網掛けされた部分は、周波数成分が存在している部分を示し、網掛けが濃いほど成分強度が強いことを示している。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
(1. First embodiment)
First, the first embodiment will be described. First, the change state of the predetermined frequency component of the acoustic frame before and after the embedding process in the first embodiment will be described. FIG. 1 shows a state of a predetermined frequency component according to this embodiment in units of one acoustic frame. In each acoustic frame shown in FIG. 1, the horizontal axis indicates the time direction, and the vertical axis indicates the frequency direction. A shaded portion indicates a portion where a frequency component exists, and the darker the shade, the stronger the component strength.

図1においては、縦軸の周波数方向において、周波数領域が3つに区分されているが、上から2番目の領域、すなわち、周波数F1以上F2以下の間が変更対象周波数帯であり、最上部すなわち周波数F2超、最下部すなわちF1未満は、変更対象でない周波数帯である。すなわち、本実施形態では、周波数F1以上F2以下を所定周波数範囲として、スペクトル集合の強度を変更することになる。図1(a)に示すように、変更対象周波数帯の前部におけるスペクトルをSP1、変更対象周波数帯の後部におけるスペクトルをSP3で表現することとする。   In FIG. 1, the frequency region is divided into three in the frequency direction of the vertical axis, but the second region from the top, that is, the frequency band from F1 to F2 is the frequency band to be changed, and the topmost part. That is, the frequency band above the frequency F2 and the lowermost part, that is, less than F1, is a frequency band that is not to be changed. That is, in the present embodiment, the intensity of the spectrum set is changed by setting the frequency F1 to F2 as a predetermined frequency range. As shown in FIG. 1A, the spectrum in the front part of the change target frequency band is expressed by SP1, and the spectrum in the rear part of the change target frequency band is expressed by SP3.

本実施形態で、符号1を埋め込む場合、図1(b)に示すように、L-chの信号の変更対象周波数帯の後部の成分を除去し、除去した成分と同等の成分をR-chの信号に加算する。また、L-chの信号の変更対象周波数帯の前部の成分強度を高め、R-chの信号の前部の各スペクトル集合の強度を弱めている。この状態を“状態1”と呼ぶことにする。符号2を埋め込む場合は、図1(c)に示すように、L-chの信号の変更対象周波数帯の前部の成分を除去し、除去した成分と同等の成分をR-chの信号に加算する。また、L-chの信号の変更対象周波数帯の後部の成分強度を高め、R-chの信号の後部の各スペクトル集合の強度を弱めている。この状態を“状態2”と呼ぶことにする。   In the present embodiment, when the code 1 is embedded, as shown in FIG. 1B, the rear component of the L-ch signal to be changed is removed, and a component equivalent to the removed component is R-ch. Is added to the signal. Further, the intensity of the component at the front of the frequency band to be changed of the L-ch signal is increased, and the intensity of each spectrum set at the front of the R-ch signal is reduced. This state is referred to as “state 1”. When embedding the code 2, as shown in FIG. 1 (c), the front component of the change target frequency band of the L-ch signal is removed, and a component equivalent to the removed component is converted to the R-ch signal. to add. Further, the intensity of the rear component of the frequency band to be changed of the L-ch signal is increased, and the intensity of each spectrum set at the rear of the R-ch signal is reduced. This state is referred to as “state 2”.

本実施形態では、図1(b)、(c)に示すような2つの状態に周波数成分を変更することにより、情報の埋め込みを行っている。2つの状態であるので1ビット分の情報量に相当する。   In this embodiment, information is embedded by changing the frequency component into two states as shown in FIGS. Since there are two states, this corresponds to an information amount of 1 bit.

本実施形態では、上記変更対象周波数帯F1〜F2を、“1.7kHz〜3.4kHz”または “3.4kHz〜6.8kHz”のいずれかに設定する。これは、以下のような理由による。   In the present embodiment, the change target frequency bands F1 to F2 are set to either “1.7 kHz to 3.4 kHz” or “3.4 kHz to 6.8 kHz”. This is due to the following reasons.

人間の音源定位感覚は高音部では増大傾向になるが、ソース音源のエネルギーは高音になるほど小さくなる特性があり、特に電話回線帯域(300Hz〜3.4kHz)を超えると倍音成分のみとなるため、結果的に聴取可能な音源定位変異は小さい。実験の結果、400Hz〜1.5kHzの領域では聴取可能な音源定位変異は増大していくが、1.5kHzを超えると減少傾向になり、更に4kHzを超えるとほとんどなくなる。これは、4kHz以上は音声の成分はほとんどなくなり、楽器音では基音が最高音域を超えることため倍音のみの成分となるためである。   The human sound source localization sensation tends to increase in the treble part, but the energy of the source sound source has a characteristic that it becomes smaller as the treble becomes higher, especially when it exceeds the telephone line bandwidth (300 Hz to 3.4 kHz), it becomes only the harmonic component. As a result, the audible sound source localization variation is small. As a result of the experiment, the audible sound source localization mutation increases in the region of 400 Hz to 1.5 kHz, but tends to decrease when the frequency exceeds 1.5 kHz, and almost disappears when the frequency exceeds 4 kHz. This is because there is almost no sound component above 4 kHz, and the fundamental tone of the instrument sound exceeds the highest range, so that only the overtone component is obtained.

そこで、どの周波数範囲に埋め込むべきかを具体的に検討する。音声通信として普及度の高い携帯電話機を受信端末として利用する場合、上限については、電話回線帯域および携帯電話機の上限である3.4kHzとする必要がある。そこで、下限については、上限の3.4kHzから1オクターブ下がった1.7kHzとすることとした。また、携帯電話機以外を受信端末として利用する場合には、可聴周波数の上限(22kHz)以下であれば3.4kHzより高い周波数領域を用いることができるが、10kHzを超える高音域では、圧縮・変調などの信号処理の影響を受け易く、スピーカによっては再生能力が低下するため、下限を電話回線帯域の上限である3.4kHzとし、上限を3.4kHzから1オクターブ上がった6.8kHzとすることとした。なお、“1.7kHz”“3.4kHz”“6.8kHz”という値は、代表的な値であり、必ずしも正確な値である必要はなく、そこから若干ずれた値であっても良い。なお、本明細書においては、“1.7kHz〜3.4kHz”を「電話高周波帯」、“3.4kHz〜6.8kHz”を「超電話周波帯」と呼ぶことにする。また、電話回線帯域の上限は上述のように3.4kHz近辺であるので、上記「電話高周波帯」、「超電話周波帯」はそれぞれ可聴周波数範囲で電話回線帯域の上限より若干低音側、若干高音側における所定の周波数帯に該当する。   Therefore, the frequency range to be embedded is specifically examined. When a mobile phone having a high degree of spread as voice communication is used as a receiving terminal, the upper limit needs to be 3.4 kHz which is the upper limit of the telephone line band and the mobile phone. Therefore, the lower limit is set to 1.7 kHz, which is one octave lower than the upper limit of 3.4 kHz. Further, when a device other than a mobile phone is used as a receiving terminal, a frequency region higher than 3.4 kHz can be used as long as it is below the upper limit of audible frequency (22 kHz), but in a high sound region exceeding 10 kHz, compression / modulation is possible. The lower limit is set to 3.4 kHz, which is the upper limit of the telephone line bandwidth, and the upper limit is set to 6.8 kHz, which is one octave higher than 3.4 kHz. It was. Note that the values “1.7 kHz”, “3.4 kHz”, and “6.8 kHz” are representative values, and are not necessarily accurate values, and may be slightly deviated from them. In the present specification, “1.7 kHz to 3.4 kHz” is referred to as “telephone high frequency band”, and “3.4 kHz to 6.8 kHz” is referred to as “super telephone frequency band”. Further, since the upper limit of the telephone line band is around 3.4 kHz as described above, the above “telephone high frequency band” and “super telephone frequency band” are slightly lower than the upper limit of the telephone line band in the audible frequency range. This corresponds to a predetermined frequency band on the high sound side.

(1.1.埋め込み装置の構成)
まず、音響信号に対する情報の埋め込み装置について説明する。図2は、本発明に係る音響信号に対する情報の埋め込み装置の構成を示す機能ブロック図である。図2において、10は音響フレーム読込手段、20は周波数変換手段、30は周波数成分変更手段、40は周波数逆変換手段、50は改変音響フレーム出力手段、60は記憶手段、61は音響信号記憶部、62は付加情報記憶部、63は改変音響信号記憶部、70はビット配列作成手段である。なお、図2に示す装置は、ステレオ音響信号、モノラル音響信号の両方に対応可能であるが、ここでは、ステレオ音響信号に対して処理を行う場合について説明していく。
(1.1. Configuration of embedded device)
First, an information embedding device for an acoustic signal will be described. FIG. 2 is a functional block diagram showing a configuration of an information embedding device for an acoustic signal according to the present invention. In FIG. 2, 10 is an acoustic frame reading means, 20 is a frequency converting means, 30 is a frequency component changing means, 40 is a frequency inverse converting means, 50 is a modified acoustic frame output means, 60 is a storage means, and 61 is an acoustic signal storage section. 62 is an additional information storage unit, 63 is a modified acoustic signal storage unit, and 70 is a bit array creation means. Note that the apparatus shown in FIG. 2 can handle both stereo sound signals and monaural sound signals, but here, a case where processing is performed on stereo sound signals will be described.

音響フレーム読込手段10は、付加情報の埋め込み対象とする元のステレオ音響信号の各チャンネルから所定数のサンプルを1フレームとして読み込む機能を有している。周波数変換手段20は、音響フレーム読込手段10が読み込んだ音響信号のフレームをフーリエ変換等により周波数変換してフレームスペクトルを生成する機能を有している。周波数成分変更手段30は、生成されたフレームスペクトルから所定の周波数範囲に相当するスペクトル集合を複数抽出し、付加情報記憶部62から抽出し、ビット配列作成手段70が作成したビット配列に基づいて、周波数強度データのスペクトル集合の状態を変更する機能を有している。周波数逆変換手段40は、変更された周波数強度データを含む複数のフレームスペクトルに対して周波数逆変換を行うことにより、改変音響フレームを生成する機能を有している。改変音響フレーム出力手段50は、生成された改変音響フレームを順次出力する機能を有している。   The sound frame reading means 10 has a function of reading a predetermined number of samples as one frame from each channel of the original stereo sound signal to be embedded with additional information. The frequency conversion means 20 has a function of generating a frame spectrum by frequency-converting the frame of the acoustic signal read by the acoustic frame reading means 10 by Fourier transformation or the like. The frequency component changing unit 30 extracts a plurality of spectrum sets corresponding to a predetermined frequency range from the generated frame spectrum, extracts them from the additional information storage unit 62, and based on the bit arrangement created by the bit arrangement creation unit 70, It has a function of changing the state of the spectrum set of frequency intensity data. The frequency inverse transform means 40 has a function of generating a modified acoustic frame by performing frequency inverse transform on a plurality of frame spectra including the changed frequency intensity data. The modified sound frame output means 50 has a function of sequentially outputting the generated modified sound frames.

記憶手段60は、付加情報を埋め込む対象とするステレオ音響信号を記憶した音響信号記憶部61と、ビット配列として構成され、ステレオ音響信号に埋め込まれる付加情報を記憶した付加情報記憶部62と、付加情報埋め込み後の改変音響信号を記憶する改変音響信号記憶部63を有しており、その他処理に必要な各種情報を記憶するものである。ビット配列作成手段70は、付加情報記憶部62から付加情報を抽出し、付加情報の各ワードに対して、1ビットの誤り検出ビット(パリティビット)を追加した後、さらに所定の規則により8ビットを追加したビット配列を作成する機能を有している。なお、付加情報とは、音響情報に付加して埋め込むべき情報であり、タイトルやアーティスト名等の属性情報、および属性情報以外の他の情報を含むものである。本実施形態では、付加情報のコード形式としてASCIIコードを採用するため、付加情報においては7ビットを1ワードとし、ビット配列作成手段70が作成するビット配列は、誤り検出ビットを付加した後、反転付加処理を施した16ビットを1ワードとする。図2に示した各構成手段は、現実にはコンピュータおよびその周辺機器等のハードウェアに専用のプログラムを搭載することにより実現される。すなわち、コンピュータが、専用のプログラムに従って各手段の内容を実行することになる。   The storage means 60 includes an acoustic signal storage unit 61 that stores a stereo acoustic signal to be embedded with additional information, an additional information storage unit 62 that is configured as a bit array and stores additional information embedded in the stereo acoustic signal, and an additional information It has a modified acoustic signal storage unit 63 for storing the modified acoustic signal after information is embedded, and stores various information necessary for other processing. The bit array creation unit 70 extracts additional information from the additional information storage unit 62, adds a 1-bit error detection bit (parity bit) to each word of the additional information, and then further adds 8 bits according to a predetermined rule. It has a function to create a bit array to which is added. The additional information is information that should be added to the sound information and embedded, and includes attribute information such as a title and artist name, and other information other than the attribute information. In the present embodiment, since the ASCII code is used as the code format of the additional information, 7 bits are set as one word in the additional information, and the bit array generated by the bit array generating means 70 is inverted after adding an error detection bit. The 16 bits subjected to the additional processing are defined as one word. Each component shown in FIG. 2 is actually realized by mounting a dedicated program on hardware such as a computer and its peripheral devices. That is, the computer executes the contents of each means according to a dedicated program.

(1.2.埋め込み装置の処理動作)
次に、図2に示した音響信号に対する情報の埋め込み装置の処理動作について説明する。ここでは、音響信号として、L(左)、R(右)の2チャンネルを有するステレオ音響信号に対して処理を行う場合について説明していく。音響フレーム読込手段10は、音響信号記憶部61に記憶されたステレオ音響信号の左右の各チャンネルから、それぞれ所定数のサンプルを1音響フレームとして読み込む。音響フレーム読込手段10が読み込む1音響フレームのサンプル数は、適宜設定することができるが、サンプリング周波数が44.1kHzの場合、4096サンプル程度とすることが望ましい。したがって、音響フレーム読込手段10は、左チャンネル、右チャンネルについてそれぞれ4096サンプルずつ、順次音響フレームとして読み込んでいくことになる。
(1.2. Processing operation of embedded device)
Next, the processing operation of the information embedding device for the acoustic signal shown in FIG. 2 will be described. Here, a case where processing is performed on a stereo sound signal having two channels of L (left) and R (right) as sound signals will be described. The sound frame reading means 10 reads a predetermined number of samples as one sound frame from each of the left and right channels of the stereo sound signal stored in the sound signal storage unit 61. The number of samples of one sound frame read by the sound frame reading means 10 can be set as appropriate, but is desirably about 4096 samples when the sampling frequency is 44.1 kHz. Therefore, the acoustic frame reading means 10 sequentially reads 4096 samples for each of the left channel and the right channel as acoustic frames.

音響フレームとしては、AタイプとBタイプが存在する。Aタイプの音響フレーム、Bタイプの音響フレームは、それぞれ同タイプの先行する音響フレームの最後のサンプルの次のサンプルを先頭サンプルとして設定される。そして、AタイプとBタイプの音響フレームは互いに所定数(本実施形態では2048)のサンプルを重複して設定される。例えば、Aタイプの音響フレームを先頭からA1、A2、A3…とし、Bタイプの音響フレームを先頭からB1、B2、B3…とすると、A1はサンプル1〜4096、A2はサンプル4097〜8192、A3はサンプル8193〜12288、B1はサンプル2049〜6144、B2はサンプル6145〜10240、B3はサンプル10241〜14336となる。なお、AタイプとBタイプは相対的なものであるので、どちらが先であっても良い。すなわち、上記とは逆にA1がサンプル2049〜6144、A2がサンプル6145〜10240、A3がサンプル10241〜14336、B1がサンプル1〜4096、B2がサンプル4097〜8192、B3がサンプル8193〜12288であっても良い。   There are A type and B type as acoustic frames. In the A-type acoustic frame and the B-type acoustic frame, the next sample after the last sample of the preceding acoustic frame of the same type is set as the first sample. The A-type and B-type sound frames are set by overlapping a predetermined number (2048 in this embodiment) of samples. For example, if the A type acoustic frame is A1, A2, A3... From the top and the B type acoustic frame is B1, B2, B3... From the top, A1 is samples 1 to 4096, A2 is samples 4097 to 8192, A3. Is samples 8193-12288, B1 is samples 2049-6144, B2 is samples 6145-10240, and B3 is samples 10241-14336. Since the A type and the B type are relative, either one may be first. That is, contrary to the above, A1 is samples 2049 to 6144, A2 is samples 6145 to 10240, A3 is samples 10241 to 14336, B1 is samples 1 to 4096, B2 is samples 4097 to 8192, and B3 is samples 8193 to 12288. May be.

周波数変換手段20は、音響フレーム読込手段10が読み込んだ音響フレームに対して、周波数変換を行って、その音響フレームのスペクトルであるフレームスペクトルを得る。具体的には、窓関数を利用して周波数変換を行う。周波数変換としては、フーリエ変換、ウェーブレット変換その他公知の種々の手法を用いることができる。本実施形態では、フーリエ変換を用いた場合を例にとって説明する。   The frequency conversion unit 20 performs frequency conversion on the sound frame read by the sound frame reading unit 10 to obtain a frame spectrum that is a spectrum of the sound frame. Specifically, frequency conversion is performed using a window function. As frequency conversion, Fourier transform, wavelet transform, and other various known methods can be used. In the present embodiment, a case where Fourier transform is used will be described as an example.

一般に、所定の信号に対してフーリエ変換を行う場合、信号を所定の長さに区切って行う必要があるが、この場合、所定長さの信号に対してそのままフーリエ変換を行うと、擬似高調波成分が発生する。そこで、一般にフーリエ変換を行う場合には、ハニング窓と呼ばれる窓関数を用いて、信号の値を変化させた後、変化後の値に対してフーリエ変換を実行する。   In general, when Fourier transform is performed on a predetermined signal, it is necessary to divide the signal into predetermined lengths. In this case, if Fourier transform is performed on a signal of a predetermined length as it is, a pseudo-harmonic wave is generated. Ingredients are generated. Therefore, in general, when performing Fourier transform, a signal value is changed using a window function called a Hanning window, and then Fourier transform is performed on the changed value.

本発明では、擬似高調波成分の発生を防止するためだけではなく、一つの音響フレームから、情報を埋め込むための複数の状態を作り出すため、複数の窓関数を用意し、一つの音響フレームに対して、各窓関数を利用してフーリエ変換を行い、複数のスペクトルを得る。複数の窓関数として、本実施形態では、図3(b)〜(d)に示したような第1窓関数W(1,i)、第2窓関数W(2,i)、第3窓関数W(3,i)を用意し、抽出側で認識し易いようにした。第1窓関数W(1,i)は、音響フレームの前部を抽出するためのものであり、図3(b)に示すように前部の所定のサンプル番号iの位置において、最大値1をとり、後部においては、最小値0をとるように設定されている。どのサンプル番号の場合に最大値をとるかについては、窓関数W(1,i)の設計によって異なってくるが、本実施形態では、後述する〔数式1〕で定義される。窓関数W(1,i)を乗じることにより、図3(a)に示すような音響フレームの信号波形は、図3(f)に示すように、前部に信号成分が残り、後部の信号成分が削除されたものとなり、これがフーリエ変換対象となる。   In the present invention, not only to prevent the generation of pseudo-harmonic components but also to create a plurality of states for embedding information from one acoustic frame, a plurality of window functions are prepared, Then, Fourier transform is performed using each window function to obtain a plurality of spectra. As a plurality of window functions, in the present embodiment, the first window function W (1, i), the second window function W (2, i), the third window as shown in FIGS. A function W (3, i) is prepared so that it can be easily recognized on the extraction side. The first window function W (1, i) is for extracting the front part of the acoustic frame, and has a maximum value of 1 at the position of a predetermined sample number i in the front part as shown in FIG. And the rear part is set to have a minimum value of 0. Which sample number takes the maximum value depends on the design of the window function W (1, i), but in this embodiment, it is defined by [Equation 1] described later. By multiplying the window function W (1, i), the signal waveform of the acoustic frame as shown in FIG. 3A has a signal component remaining in the front part as shown in FIG. The component is deleted, and this becomes a Fourier transform target.

また、第2窓関数W(2,i)は、音響フレームの中央部を抽出するためのものであり、図3(c)に示すように、中央部の所定のサンプル番号iの位置において、最大値1をとり、前部、後部においては、最小値0をとるように設定されている。どのサンプル番号の場合に最大値をとるかについては、窓関数W(2,i)の設計によって異なってくるが、本実施形態では、後述する〔数式2〕で定義される。窓関数W(2,i)を乗じることにより、図3(a)に示すような音響フレームの信号波形は、図3(g)に示すように、中央部に信号成分が残り、前部と後部の信号成分が除去されたものとなり、これがフーリエ変換対象となる。   The second window function W (2, i) is for extracting the central portion of the acoustic frame, and as shown in FIG. 3C, at the position of the predetermined sample number i in the central portion. The maximum value is 1, and the minimum value is set to 0 at the front and rear portions. Which sample number takes the maximum value depends on the design of the window function W (2, i), but in this embodiment, it is defined by [Expression 2] described later. By multiplying the window function W (2, i), the signal waveform of the acoustic frame as shown in FIG. 3A has a signal component remaining in the center as shown in FIG. The rear signal component is removed, and this is subjected to Fourier transform.

また、第3窓関数W(3,i)は、音響フレームの後部を抽出するためのものであり、図3(d)に示すように、前部においては最小値0をとり、後部の所定のサンプル番号iの位置において、最大値1をとるように設定されている。どのサンプル番号の場合に最大値をとるかについては、窓関数W(3,i)の設計によって異なってくるが、本実施形態では、後述する〔数式3〕で定義される。窓関数W(3,i)を乗じることにより、図3(a)に示すような音響フレームの信号波形は、図3(h)に示すように、前部の信号成分が除去され、後部に信号成分が残ったものとなり、これがフーリエ変換対象となる。このように前部、中央部、後部を抽出した後、フーリエ変換を実行するため、前部、中央部、後部に対応したスペクトルが得られることになる。1つの音響フレームにビット値を埋め込むためには、本来、前部と後部の2つに分けられれば良いのであるが、抽出側においては、必ずしも、信号を同期して読み込むことができるとは限らず、したがって、前部と後部をはっきりと区別するため、本実施形態では、埋め込み時に中央部の信号成分を常に削除し、前部と後部を時間的に分離することとしている(ただし、抽出時は前部と後部だけを解析すればよく、中央部は無視してよい)。本実施形態において用いる窓関数は、窓関数W(1,i)と窓関数W(3,i)が左右非対称であるため、抽出時において、埋め込まれていた情報の誤認識が起こりにくくなる。   The third window function W (3, i) is for extracting the rear part of the acoustic frame. As shown in FIG. 3D, the third window function W (3, i) takes a minimum value of 0 at the front part, The maximum value 1 is set at the position of the sample number i. Which sample number takes the maximum value depends on the design of the window function W (3, i), but in this embodiment, it is defined by [Equation 3] described later. By multiplying the window function W (3, i), the signal waveform of the acoustic frame as shown in FIG. 3A is removed from the front signal component as shown in FIG. The signal component remains and becomes a Fourier transform target. Thus, after extracting the front part, the central part, and the rear part, the Fourier transform is executed, so that spectra corresponding to the front part, the central part, and the rear part are obtained. In order to embed a bit value in one acoustic frame, the bit value is originally divided into two parts, a front part and a rear part. However, on the extraction side, it is not always possible to read a signal synchronously. Therefore, in order to clearly distinguish the front part and the rear part, in this embodiment, the signal component at the center part is always deleted at the time of embedding, and the front part and the rear part are separated in time (however, at the time of extraction) Only need to analyze the front and rear, and ignore the middle). In the window function used in the present embodiment, the window function W (1, i) and the window function W (3, i) are asymmetrical, so that erroneous recognition of embedded information is less likely to occur during extraction.

また、本実施形態では、音響フレームを重複させて読み込み、奇数フレーム(または偶数フレーム)については、窓関数W(1,i)、W(2,i)、W(3,i)を用い、偶数フレーム(または奇数フレーム)については、図3(e)に示したような第4窓関数W(4,i)を用いるようにした。   In the present embodiment, the acoustic frames are read in duplicate, and the window functions W (1, i), W (2, i), W (3, i) are used for the odd frames (or even frames), For even frames (or odd frames), the fourth window function W (4, i) as shown in FIG. 3 (e) is used.

なお、本発明においては、音響フレームは重複して読み込まれる。すなわち、奇数番目の音響フレームと偶数番目の音響フレームは、所定数のサンプルを重複して読み込む。上記のように、奇数フレームと偶数フレームでは、用いられる窓関数が異なるが、奇数フレームと偶数フレームは単に奇数か偶数かの違いだけであるため、どちらに対してどちらの処理を行っても良い。したがって、本明細書では、奇数フレーム、偶数フレームの一方をAタイプフレーム、他方をBタイプフレームと呼ぶことにする。本実施形態では、奇数フレームをAタイプフレーム、偶数フレームをBタイプフレームとして説明するが、逆に偶数フレームをAタイプフレーム、奇数フレームをBタイプフレームとしても良い。   In the present invention, sound frames are read in duplicate. That is, a predetermined number of samples are redundantly read in the odd-numbered sound frames and the even-numbered sound frames. As described above, the window function used is different between the odd frame and the even frame, but since either the odd frame or the even frame is simply the difference between the odd frame and the even frame, either process may be performed on either. . Therefore, in this specification, one of the odd-numbered frame and the even-numbered frame is referred to as an A-type frame, and the other is referred to as a B-type frame. In the present embodiment, an odd frame is described as an A type frame and an even frame is described as a B type frame. Conversely, an even frame may be an A type frame and an odd frame may be a B type frame.

本実施形態では、窓関数W(1,i)〜W(4,i)は、以下の〔数式1〕〜〔数式4〕で定義される。なお、図3において、横軸は時間軸(i)である。iは、後述するように、各音響フレーム内のN個のサンプルに付した通し番号であるため時刻tに比例している。また、図3(a)(f)(g)(h)(i)において縦軸は信号の振幅値(レベル)を示す。図3(b)〜(e)において縦軸は窓関数W(1,i)、W(2,i)、W(3,i)、W(4,i)の値を示しており、W(1,i)、W(2,i)、W(3,i)、W(4,i)の最大値はいずれも1である。   In the present embodiment, the window functions W (1, i) to W (4, i) are defined by the following [Equation 1] to [Equation 4]. In FIG. 3, the horizontal axis is the time axis (i). As described later, i is a serial number assigned to N samples in each acoustic frame, and is proportional to time t. 3A, 3F, 3G, 3H, and 3I, the vertical axis indicates the amplitude value (level) of the signal. 3B to 3E, the vertical axis indicates the values of the window functions W (1, i), W (2, i), W (3, i), and W (4, i). The maximum values of (1, i), W (2, i), W (3, i), and W (4, i) are all 1.

〔数式1〕
i≦3N/8のとき、W(1,i)=0.5−0.5cos(8πi/(3N))
3N/8<i≦N/2のとき、W(1,i)=0.5−0.5cos(8π(i−N/4)/N)
i>N/2のとき、W(1,i)=0.0
[Formula 1]
When i ≦ 3N / 8, W (1, i) = 0.5−0.5 cos (8πi / (3N))
When 3N / 8 <i ≦ N / 2, W (1, i) = 0.5−0.5 cos (8π (i−N / 4) / N)
When i> N / 2, W (1, i) = 0.0

〔数式2〕
i≦3N/8のとき、W(2,i)=0.0
3N/8<i≦N/2のとき、W(2,i)=0.5−0.5cos(8π(i−3N/8)/N)
N/2<i≦3N/4のとき、W(2,i)=0.5−0.5cos(4π(i−N/4)/N)
i>3N/4のとき、W(2,i)=0.0
[Formula 2]
When i ≦ 3N / 8, W (2, i) = 0.0
When 3N / 8 <i ≦ N / 2, W (2, i) = 0.5−0.5 cos (8π (i−3N / 8) / N)
When N / 2 <i ≦ 3N / 4, W (2, i) = 0.5−0.5 cos (4π (i−N / 4) / N)
When i> 3N / 4, W (2, i) = 0.0

〔数式3〕
i≦N/2のとき、W(3,i)=0.0
i>N/2のとき、W(3,i)=0.5−0.5cos(4π(i−N/2)/N)
[Formula 3]
When i ≦ N / 2, W (3, i) = 0.0
When i> N / 2, W (3, i) = 0.5−0.5 cos (4π (i−N / 2) / N)

〔数式4〕
i≦N/4のとき、W(4,i)=0.0
N/4<i≦N/2のとき、W(4,i)=0.5−0.5cos(4π(i−N/4)/N)
N/2<i≦7N/8のとき、W(4,i)=0.5−0.5cos(8π(i−N/8)/(3N))
i>7N/8のとき、W(4,i)=0.0
[Formula 4]
When i ≦ N / 4, W (4, i) = 0.0
When N / 4 <i ≦ N / 2, W (4, i) = 0.5−0.5 cos (4π (i−N / 4) / N)
When N / 2 <i ≦ 7N / 8, W (4, i) = 0.5−0.5 cos (8π (i−N / 8) / (3N))
When i> 7N / 8, W (4, i) = 0.0

なお、図3および上記〔数式1〕〜〔数式4〕から明らかなように、窓関数W(1,i)とW(3,i)は、互いに非対称な形状である。これは、後述する抽出側において、両者の識別を容易にするためである。また、窓関数W(1,i)、W(2,i)、W(3,i)は、iが所定の値のときに最大値1をとり、iがその他の値をとる場合には、iの値に応じて単調増加、または単調減少する窓関数を分割したものであるため、窓関数W(1,i)とW(3,i)が定まると、窓関数W(2,i)も必然的に定まる。このため、窓関数W(2,i)は左右非対称の形状となっている。   As is clear from FIG. 3 and [Formula 1] to [Formula 4], the window functions W (1, i) and W (3, i) have asymmetric shapes. This is for facilitating identification between the two on the extraction side described later. The window functions W (1, i), W (2, i), and W (3, i) have a maximum value of 1 when i is a predetermined value, and i takes other values. , I is a window function that monotonically increases or decreases according to the value of i, and therefore, when the window functions W (1, i) and W (3, i) are determined, the window function W (2, i ) Is inevitably determined. For this reason, the window function W (2, i) has a left-right asymmetric shape.

本発明においては、奇数フレームと偶数フレームを、所定サンプルずつ重複して読み込むため、情報の埋め込みを行った後、音響信号に復元する際に、窓関数を乗じた奇数フレームと、窓関数を乗じた偶数フレームの重複サンプルを加算した場合に、ほぼ元の値に戻るようにしなければならない。このため、窓関数W(4,i)の形状は、窓関数W(1,i)、W(2,i)、W(3,i)の値に応じて必然的に定まる。すなわち、奇数フレームと偶数フレームの重複部分において、窓関数W(1,i)、W(2,i)、W(3,i)、W(4,i)を加算すると、全区間固定値1になるように定義されている。   In the present invention, since odd frames and even frames are redundantly read by a predetermined number of samples, after embedding information and then restoring to an acoustic signal, the odd frame multiplied by the window function and the window function are multiplied. When overlapping samples of even frames are added, it is necessary to return almost to the original value. Therefore, the shape of the window function W (4, i) is inevitably determined according to the values of the window functions W (1, i), W (2, i), and W (3, i). That is, when the window functions W (1, i), W (2, i), W (3, i), and W (4, i) are added in the overlapping portion of the odd and even frames, the fixed value 1 for the entire section is obtained. Is defined to be

周波数変換手段20が、Aタイプの音響フレームに対してフーリエ変換を行う場合は、左チャンネル信号Xl(i)、右チャンネル信号Xr(i)(i=0,…,N−1)に対して、3つの窓関数W(1,i)、W(2,i)、W(3,i)を用いて、以下の〔数式5〕に従った処理を行い、左チャンネルに対応する変換データの実部Al(1,j)、Al(2,j)、Al(3,j)、虚部Bl(1,j)、Bl(2,j)、Bl(3,j)、右チャンネルに対応する変換データの実部Ar(1,j)、Ar(2,j)、Ar(3,j)、虚部Br(1,j)、Br(2,j)、Br(3,j)を得る。なお、窓関数W(1,i)、W(2,i)、W(3,i)は、それぞれ音響フレームの前部(先頭)付近、中央付近、後部付近において値が大きくなる関数となっている。   When the frequency conversion means 20 performs Fourier transform on the A type sound frame, the left channel signal Xl (i) and the right channel signal Xr (i) (i = 0,..., N−1). Using the three window functions W (1, i), W (2, i), W (3, i), processing according to the following [Equation 5] is performed, and the conversion data corresponding to the left channel is obtained. Real part Al (1, j), Al (2, j), Al (3, j), imaginary part Bl (1, j), Bl (2, j), Bl (3, j), corresponding to the right channel Real part Ar (1, j), Ar (2, j), Ar (3, j), imaginary part Br (1, j), Br (2, j), Br (3, j) obtain. Note that the window functions W (1, i), W (2, i), and W (3, i) are functions whose values increase near the front (front), near the center, and near the rear of the acoustic frame, respectively. ing.

〔数式5〕
Al(1,j)=Σi=0,…,N-1W(1,i)・Xl(i)・cos(2πij/N)
Bl(1,j)=Σi=0,…,N-1W(1,i)・Xl(i)・sin(2πij/N)
Al(2,j)=Σi=0,…,N-1W(2,i)・Xl(i)・cos(2πij/N)
Bl(2,j)=Σi=0,…,N-1W(2,i)・Xl(i)・sin(2πij/N)
Al(3,j)=Σi=0,…,N-1W(3,i)・Xl(i)・cos(2πij/N)
Bl(3,j)=Σi=0,…,N-1W(3,i)・Xl(i)・sin(2πij/N)
Ar(1,j)=Σi=0,…,N-1W(1,i)・Xr(i)・cos(2πij/N)
Br(1,j)=Σi=0,…,N-1W(1,i)・Xr(i)・sin(2πij/N)
Ar(2,j)=Σi=0,…,N-1W(2,i)・Xr(i)・cos(2πij/N)
Br(2,j)=Σi=0,…,N-1W(2,i)・Xr(i)・sin(2πij/N)
Ar(3,j)=Σi=0,…,N-1W(3,i)・Xr(i)・cos(2πij/N)
Br(3,j)=Σi=0,…,N-1W(3,i)・Xr(i)・sin(2πij/N)
[Formula 5]
Al (1, j) = Σi = 0,..., N-1 W (1, i) .Xl (i) .cos (2πij / N)
Bl (1, j) = Σi = 0,..., N-1 W (1, i) · Xl (i) · sin (2πij / N)
Al (2, j) = Σi = 0,..., N-1 W (2, i) · Xl (i) · cos (2πij / N)
Bl (2, j) = Σi = 0,..., N-1 W (2, i) · Xl (i) · sin (2πij / N)
Al (3, j) = Σi = 0,..., N-1 W (3, i) · Xl (i) · cos (2πij / N)
Bl (3, j) = Σi = 0,..., N-1 W (3, i) .Xl (i) .sin (2πij / N)
Ar (1, j) = Σi = 0,..., N-1 W (1, i) .Xr (i) .cos (2πij / N)
Br (1, j) = Σ i = 0,..., N-1 W (1, i) · Xr (i) · sin (2πij / N)
Ar (2, j) = Σi = 0,..., N-1 W (2, i) .Xr (i) .cos (2πij / N)
Br (2, j) = Σi = 0,..., N-1 W (2, i) .Xr (i) .sin (2πij / N)
Ar (3, j) = Σi = 0,..., N-1 W (3, i) · Xr (i) · cos (2πij / N)
Br (3, j) = Σi = 0,..., N-1 W (3, i) · Xr (i) · sin (2πij / N)

周波数変換手段20が、Bタイプの音響フレームに対してフーリエ変換を行う場合は、左チャンネル信号Xl(i)、右チャンネル信号Xr(i)(i=0,…,N−1)に対して、窓関数W(4,i)を用いて、以下の〔数式6〕に従った処理を行い、左チャンネルに対応する変換データの実部Al(4,j)、虚部Bl(4,j)、右チャンネルに対応する変換データの実部Ar(4,j)、虚部Br(4,j)を得る。   When the frequency conversion means 20 performs Fourier transform on the B type sound frame, the left channel signal Xl (i) and the right channel signal Xr (i) (i = 0,..., N−1). The window function W (4, i) is used to perform processing according to the following [Equation 6], and the real part Al (4, j) and imaginary part Bl (4, j) of the conversion data corresponding to the left channel ), Real part Ar (4, j) and imaginary part Br (4, j) of the conversion data corresponding to the right channel are obtained.

〔数式6〕
Al(4,j)=Σi=0,,N-1W(4,i)・Xl(i)・cos(2πij/N)
Bl(4,j)=Σi=0,,N-1W(4,i)・Xl(i)・sin(2πij/N)
Ar(4,j)=Σi=0,,N-1W(4,i)・Xr(i)・cos(2πij/N)
Br(4,j)=Σi=0,,N-1W(4,i)・Xr(i)・sin(2πij/N)
[Formula 6]
Al (4, j) = Σi = 0, ... , N−1 W (4, i) · Xl (i) · cos (2πij / N)
Bl (4, j) = Σi = 0, ... , N-1 W (4, i) · Xl (i) · sin (2πij / N)
Ar (4, j) = Σ i = 0, ... , N−1 W (4, i) · Xr (i) · cos (2πij / N)
Br (4, j) = Σi = 0, ... , N−1 W (4, i) · Xr (i) · sin (2πij / N)

上記〔数式5〕〔数式6〕において、iは、各音響フレーム内のN個のサンプルに付した通し番号であり、i=0,1,2,…N−1の整数値をとる。また、jは周波数の値について、値の小さなものから順に付した通し番号であり、iと同様にj=0,1,2,…N/2−1の整数値をとる。サンプリング周波数が44.1kHz、N=4096の場合、jの値が1つ異なると、周波数が10.8Hz異なることになる。   In the above [Formula 5] and [Formula 6], i is a serial number assigned to N samples in each acoustic frame, and takes an integer value of i = 0, 1, 2,. Further, j is a serial number assigned in order from the smallest value of the frequency value, and takes an integer value of j = 0, 1, 2,... N / 2-1 like i. When the sampling frequency is 44.1 kHz and N = 4096, if the value of j is different by one, the frequency will be different by 10.8 Hz.

上記〔数式5〕〔数式6〕に従った処理を実行することにより、各音響フレームの信号成分を周波数に対応した成分であるスペクトルで表現されたフレームスペクトルが得られる。続いて、周波数成分変更手段30が、生成されたフレームスペクトルから所定周波数範囲のスペクトル集合を抽出する。本実施形態では、F1以上F2以下の範囲のものを抽出する。   By executing the processing according to the above [Equation 5] and [Equation 6], a frame spectrum in which the signal component of each acoustic frame is represented by a spectrum corresponding to the frequency is obtained. Subsequently, the frequency component changing unit 30 extracts a spectrum set in a predetermined frequency range from the generated frame spectrum. In the present embodiment, a range between F1 and F2 is extracted.

周波数成分変更手段30は、Aタイプの音響フレームについて、ビット配列作成手段70が作成したビット配列に応じて、周波数成分の割合を変更する処理を行う。本発明では、ビット配列を1ビットずつ読み込み、1音響フレームに対して1ビットの情報を埋め込む。埋め込まれる1ビットの値は、“0” “1”の2通りがある。本実施形態では、これらを値1、値2と定義する。この際、“0”“1”の2通りのうち、いずれを値1、値2と定義しても良い。抽出側において、埋め込み側で埋め込まれた1ビットが特定できれば良いためである。したがって、この定義は、埋め込み側と抽出側で一致している必要がある。   The frequency component changing unit 30 performs a process of changing the ratio of the frequency components for the A type sound frame according to the bit arrangement created by the bit arrangement creating unit 70. In the present invention, the bit arrangement is read bit by bit, and 1-bit information is embedded in one acoustic frame. There are two 1-bit values to be embedded: “0” and “1”. In the present embodiment, these are defined as value 1 and value 2. At this time, either of “0” and “1” may be defined as value 1 and value 2. This is because it is sufficient that one bit embedded on the extraction side can be specified on the extraction side. Therefore, this definition must match between the embedding side and the extraction side.

埋め込むべき情報が“値1”である場合、以下の〔数式7〕に従った処理を実行することにより、周波数成分の状態を“状態1”、すなわち、図1(b)に示したような状態に変更する。   When the information to be embedded is “value 1”, the state of the frequency component is changed to “state 1”, that is, as shown in FIG. Change to state.

〔数式7〕
j=m〜M−1の各成分に対して
Al´(3,j)=0
Bl´(3,j)=0
E(3,j)={Al(3,j)2+Bl(3,j)2+Ar(3,j)2+Br(3,j)21/2
Ar´(3,j)=Ar(3,j)・E(3,j)/{Ar(3,j)2+Br(3,j)21/2
Br´(3,j)=Br(3,j)・E(3,j)/{Ar(3,j)2+Br(3,j)21/2
Al´(2,j)=0
Bl´(2,j)=0
E(2,j)={Al(2,j)2+Bl(2,j)2+Ar(2,j)2+Br(2,j)21/2
Ar´(2,j)=Ar(2,j)・E(2,j)/{Ar(2,j)2+Br(2,j)21/2
Br´(2,j)=Br(2,j)・E(2,j)/{Ar(2,j)2+Br(2,j)21/2
E(1,j)={Al(1,j)2+Bl(1,j)2+Ar(1,j)2+Br(1,j)21/2
Al´(1,j)=Al(1,j)・E(1,j)/{Al(1,j)2+Bl(1,j)21/2
Bl´(1,j)=Bl(1,j)・E(1,j)/{Al(1,j)2+Bl(1,j)21/2
Ar´(1,j)=0
Br´(1,j)=0
[Formula 7]
For each component of j = m to M−1, Al ′ (3, j) = 0
Bl ′ (3, j) = 0
E (3, j) = {Al (3, j) 2 + B1 (3, j) 2 + Ar (3, j) 2 + Br (3, j) 2 } 1/2
Ar ′ (3, j) = Ar (3, j) · E (3, j) / {Ar (3, j) 2 + Br (3, j) 2 } 1/2
Br ′ (3, j) = Br (3, j) · E (3, j) / {Ar (3, j) 2 + Br (3, j) 2 } 1/2
Al ′ (2, j) = 0
Bl ′ (2, j) = 0
E (2, j) = {Al (2, j) 2 + Bl (2, j) 2 + Ar (2, j) 2 + Br (2, j) 2 } 1/2
Ar ′ (2, j) = Ar (2, j) · E (2, j) / {Ar (2, j) 2 + Br (2, j) 2 } 1/2
Br ′ (2, j) = Br (2, j) · E (2, j) / {Ar (2, j) 2 + Br (2, j) 2 } 1/2
E (1, j) = {Al (1, j) 2 + Bl (1, j) 2 + Ar (1, j) 2 + Br (1, j) 2 } 1/2
Al ′ (1, j) = Al (1, j) · E (1, j) / {Al (1, j) 2 + Bl (1, j) 2 } 1/2
Bl ′ (1, j) = Bl (1, j) · E (1, j) / {Al (1, j) 2 + Bl (1, j) 2 } 1/2
Ar ′ (1, j) = 0
Br ′ (1, j) = 0

上記〔数式7〕において、mは変更対象周波数帯の下限の成分の番号、Mは変更対象周波数帯の上限の成分の番号である。例えば、変更対象周波数帯として、1.7kHz〜3.4kHzを設定する場合、m=160、M=320となる。   In the above [Equation 7], m is the number of the lower limit component of the change target frequency band, and M is the number of the upper limit component of the change target frequency band. For example, when 1.7 kHz to 3.4 kHz is set as the change target frequency band, m = 160 and M = 320.

上記〔数式7〕においては、j=m〜M−1において、Al´(3,j)、Bl´(3,j)を共に0としている。これは、図1(b)の上段に示すように、L-chにおいて、SP3内の各成分を0にすることを示しているが、“状態1”はSP1との差を明確にすることができれば十分であるため、必ずしも0にする必要はなく、小さな値であれば良い。   In the above [Expression 7], in j = m to M−1, both Al ′ (3, j) and Bl ′ (3, j) are set to 0. As shown in the upper part of FIG. 1B, this indicates that each component in SP3 is set to 0 in L-ch, but “state 1” makes the difference from SP1 clear. Therefore, it is not always necessary to set to 0, and a small value is sufficient.

埋め込むべき情報が“値2”である場合は、以下の〔数式8〕に従った処理を実行することにより、周波数成分の状態を“状態2” 、すなわち、図1(c)に示したような状態に変更する。   When the information to be embedded is “value 2”, the state of the frequency component is changed to “state 2”, that is, as shown in FIG. Change to the correct state.

〔数式8〕
j=m〜M−1の各成分に対して
Al´(1,j)=0
Bl´(1,j)=0
E(1,j)={Al(1,j)2+Bl(1,j)2+Ar(1,j)2+Br(1,j)21/2
Ar´(1,j)=Ar(1,j)・E(1,j)/{Ar(1,j)2+Br(1,j)21/2
Br´(1,j)=Br(1,j)・E(1,j)/{Ar(1,j)2+Br(1,j)21/2
Al´(2,j)=0
Bl´(2,j)=0
E(2,j)={Al(2,j)2+Bl(2,j)2+Ar(2,j)2+Br(2,j)21/2
Ar´(2,j)=Ar(2,j)・E(2,j)/{Ar(2,j)2+Br(2,j)21/2
Br´(2,j)=Br(2,j)・E(2,j)/{Ar(2,j)2+Br(2,j)21/2
E(3,j)={Al(3,j)2+Bl(3,j)2+Ar(3,j)2+Br(3,j)21/2
Al´(3,j)=Al(3,j)・E(3,j)/{Al(3,j)2+Bl(3,j)21/2
Bl´(3,j)=Bl(3,j)・E(3,j)/{Al(3,j)2+Bl(3,j)21/2
Ar´(3,j)=0
Br´(3,j)=0
[Formula 8]
For each component of j = m to M−1, Al ′ (1, j) = 0
Bl ′ (1, j) = 0
E (1, j) = {Al (1, j) 2 + Bl (1, j) 2 + Ar (1, j) 2 + Br (1, j) 2 } 1/2
Ar ′ (1, j) = Ar (1, j) · E (1, j) / {Ar (1, j) 2 + Br (1, j) 2 } 1/2
Br ′ (1, j) = Br (1, j) · E (1, j) / {Ar (1, j) 2 + Br (1, j) 2 } 1/2
Al ′ (2, j) = 0
Bl ′ (2, j) = 0
E (2, j) = {Al (2, j) 2 + Bl (2, j) 2 + Ar (2, j) 2 + Br (2, j) 2 } 1/2
Ar ′ (2, j) = Ar (2, j) · E (2, j) / {Ar (2, j) 2 + Br (2, j) 2 } 1/2
Br ′ (2, j) = Br (2, j) · E (2, j) / {Ar (2, j) 2 + Br (2, j) 2 } 1/2
E (3, j) = {Al (3, j) 2 + B1 (3, j) 2 + Ar (3, j) 2 + Br (3, j) 2 } 1/2
Al ′ (3, j) = Al (3, j) · E (3, j) / {Al (3, j) 2 + Bl (3, j) 2 } 1/2
Bl ′ (3, j) = B1 (3, j) · E (3, j) / {Al (3, j) 2 + Bl (3, j) 2 } 1/2
Ar ′ (3, j) = 0
Br ′ (3, j) = 0

上記〔数式8〕においては、j=m〜M−1において、Al´(1,j)、Bl´(1,j)を共に0としている。これは、図1(c)の上段に示すように、L-chにおいて、SP1内の各成分を0にすることを示しているが、“状態2”はSP3との差を明確にすることができれば十分であるため、必ずしも0にする必要はなく、小さな値であれば良い。   In the above [Formula 8], Al ′ (1, j) and Bl ′ (1, j) are both 0 in j = m to M−1. This indicates that each component in SP1 is set to 0 in L-ch as shown in the upper part of FIG. 1C, but “state 2” makes the difference from SP3 clear. Therefore, it is not always necessary to set to 0, and a small value is sufficient.

上記のように、Aタイプの音響フレームに対しては、埋め込むべきビット値に応じて、周波数成分の変更を行う必要があるため、周波数成分変更手段30は、上記〔数式7〕〔数式8〕に従った処理を実行する。ところが、Bタイプの音響フレームは、Aタイプの音響フレームのみの場合に生じる両端部分の不連続性を防止するために用いられるものであるので、ビット値に応じて周波数成分の変更を行う必要はない。そこで、周波数成分変更手段30は、Bタイプの音響フレームについては、以下の〔数式9〕に従った処理を実行し、常にその変更対象周波数帯の成分を除去する。   As described above, since it is necessary to change the frequency component for the A type sound frame according to the bit value to be embedded, the frequency component changing means 30 performs the above [Formula 7] and [Formula 8]. Execute the process according to. However, since the B type acoustic frame is used to prevent discontinuity at both end portions that occurs only in the case of the A type acoustic frame, it is necessary to change the frequency component according to the bit value. Absent. Therefore, the frequency component changing unit 30 executes a process according to the following [Formula 9] for the B type sound frame, and always removes the component of the frequency band to be changed.

〔数式9〕
j=m〜M−1の各成分に対して
Al´(4,j)=0
Bl´(4,j)=0
E(4,j)={Al(4,j)2+Bl(4,j)2+Ar(4,j)2+Br(4,j)21/2
Ar´(4,j)=Ar(4,j)・E(4,j)/{Ar(4,j)2+Br(4,j)21/2
Br´(4,j)=Br(4,j)・E(4,j)/{Ar(4,j)2+Br(4,j)21/2
[Formula 9]
For each component of j = m to M−1, Al ′ (4, j) = 0
Bl ′ (4, j) = 0
E (4, j) = {Al (4, j) 2 + Bl (4, j) 2 + Ar (4, j) 2 + Br (4, j) 2 } 1/2
Ar ′ (4, j) = Ar (4, j) · E (4, j) / {Ar (4, j) 2 + Br (4, j) 2 } 1/2
Br ′ (4, j) = Br (4, j) · E (4, j) / {Ar (4, j) 2 + Br (4, j) 2 } 1/2

周波数逆変換手段40は、上記のようにして、周波数成分の状態が変更されたフレームスペクトルを周波数逆変換して改変音響フレームを得る処理を行う。この周波数逆変換は、当然のことながら、周波数変換手段20が実行した手法に対応していることが必要となる。本実施形態では、周波数変換手段20において、フーリエ変換を施しているため、周波数逆変換手段40は、フーリエ逆変換を実行することになる。   As described above, the frequency inverse transform means 40 performs the process of obtaining the modified sound frame by performing the frequency inverse transform on the frame spectrum in which the state of the frequency component is changed. Naturally, the inverse frequency conversion needs to correspond to the method executed by the frequency conversion means 20. In the present embodiment, since the frequency transform unit 20 performs the Fourier transform, the frequency inverse transform unit 40 executes the Fourier inverse transform.

具体的には、Aタイプの音響フレームに対しては、周波数逆変換手段40は、上記〔数式7〕〔数式8〕のいずれかにより得られたスペクトルの左チャンネルの実部Al´(1,j)等、虚部Bl´(1,j)等、右チャンネルの実部Ar´(1,j)等、虚部Br´(1,j)等を用いて、以下の〔数式10〕に従った処理を行い、Xl´(i)、Xr´(i)を算出する。なお、上記〔数式7〕〔数式8〕において改変されていない周波数成分については、Al´(1,j)等として、元の周波数成分であるAl(1,j)等を用いる。   Specifically, for the A type sound frame, the frequency inverse transform means 40 performs the real part Al ′ (1,1) of the left channel of the spectrum obtained by any of the above [Formula 7] and [Formula 8]. j), imaginary part Bl ′ (1, j), etc., real part Ar ′ (1, j), etc. of the right channel, imaginary part Br ′ (1, j), etc. The process according to this is performed and Xl '(i) and Xr' (i) are calculated. For frequency components that are not modified in the above [Equation 7] and [Equation 8], the original frequency component Al (1, j) or the like is used as Al ′ (1, j) or the like.

〔数式10〕
Xl´(i)=1/N・{ΣjAl´(1,j)・cos(2πij/N)−ΣjBl´(1,j)・sin(2πij/N)}+1/N・{ΣjAl´(2,j)・cos(2πij/N)−ΣjBl´(2,j)・sin(2πij/N)}+1/N・{ΣjAl´(3,j)・cos(2πij/N)−ΣjBl´(3,j)・sin(2πij/N)}+Xlp(i+N/2)
Xr´(i)=1/N・{ΣjAr´(1,j)・cos(2πij/N)−ΣjBr´(1,j)・sin(2πij/N)}+1/N・{ΣjAr´(2,j)・cos(2πij/N)−ΣjBr´(2,j)・sin(2πij/N)}+1/N・{ΣjAr´(3,j)・cos(2πij/N)−ΣjBr´(3,j)・sin(2πij/N)}+Xrp(i+N/2)
[Formula 10]
Xl' (i) = 1 / N · {Σ j Al' (1, j) · cos (2πij / N) -Σ j Bl' (1, j) · sin (2πij / N)} + 1 / N · { Σ j Al ′ (2, j) · cos (2πij / N) −Σ j Bl ′ (2, j) · sin (2πij / N)} + 1 / N · {Σ j Al ′ (3, j) · cos (2πij / N) −Σ j Bl ′ (3, j) · sin (2πij / N)} + Xlp (i + N / 2)
Xr' (i) = 1 / N · {Σ j Ar' (1, j) · cos (2πij / N) -Σ j Br' (1, j) · sin (2πij / N)} + 1 / N · { Σ j Ar' (2, j) · cos (2πij / N) -Σ j Br' (2, j) · sin (2πij / N)} + 1 / N · {Σ j Ar' (3, j) · cos (2πij / N) -Σ j Br' (3, j) · sin (2πij / N)} + Xrp (i + N / 2)

上記〔数式10〕においては、式が繁雑になるのを防ぐため、Σj=0,,N-1をΣjとして示している。上記〔数式10〕における第1式の“+Xlp(i+N/2)”、第2式の“+Xrp(i+N/2)”の項は、直前に改変された改変音響フレームのデータXlp(i)、Xrp(i)が存在する場合に、時間軸上N/2サンプル分重複することを考慮して加算するためのものである。上記〔数式10〕によりAタイプの改変音響フレームの左チャンネルの各サンプルXl´(i)、右チャンネルの各サンプルXr´(i)、が得られることになる。 In the above [Expression 10], Σ j = 0, ... , N−1 is shown as Σ j in order to prevent the expression from becoming complicated. The terms “+ Xlp (i + N / 2)” in the first equation and “+ Xrp (i + N / 2)” in the second equation in the above [Equation 10] are the data Xlp (i) of the modified acoustic frame modified immediately before, When Xrp (i) exists, the addition is performed in consideration of the overlap of N / 2 samples on the time axis. By the above [Equation 10], each sample Xl ′ (i) of the left channel and each sample Xr ′ (i) of the right channel of the A type modified acoustic frame are obtained.

Bタイプの音響フレームに対しては、周波数逆変換手段40は、上記〔数式9〕により得られたスペクトルの左チャンネルの実部Al´(4,j)、虚部Bl´(4,j)、右チャンネルの実部Ar´(4,j)、虚部Br´(4,j)を用いて、以下の〔数式11〕に従った処理を行い、Xl´(i)、Xr´(i)を算出する。なお、上記〔数式9〕において改変されていない周波数成分については、以下の〔数式11〕においてはAl´(4,j)、Bl´(4,j)、Ar´(4,j)、Br´(4,j)として、元の値であるAl(4,j)、Bl(4,j)、Ar(4,j)、Br(4,j)を用いる。   For the B type acoustic frame, the frequency inverse transform means 40 performs real part Al ′ (4, j) and imaginary part Bl ′ (4, j) of the left channel of the spectrum obtained by the above [Equation 9]. , Using the real part Ar ′ (4, j) and the imaginary part Br ′ (4, j) of the right channel, the processing according to the following [Equation 11] is performed, and Xl ′ (i), Xr ′ (i ) Is calculated. For frequency components that are not modified in the above [Equation 9], in the following [Equation 11], Al ′ (4, j), Bl ′ (4, j), Ar ′ (4, j), Br The original values Al (4, j), Bl (4, j), Ar (4, j), and Br (4, j) are used as ′ (4, j).

〔数式11〕
Xl´(i)=1/N・{ΣjAl´(4,j)・cos(2πij/N)−ΣjBl´(4,j)・sin(2πij/N)}+Xlp(i+N/2)
Xr´(i)=1/N・{ΣjAr´(4,j)・cos(2πij/N)−ΣjBr´(4,j)・sin(2πij/N)}+Xrp(i+N/2)
[Formula 11]
Xl' (i) = 1 / N · {Σ j Al' (4, j) · cos (2πij / N) -Σ j Bl' (4, j) · sin (2πij / N)} + Xlp (i + N / 2 )
Xr' (i) = 1 / N · {Σ j Ar' (4, j) · cos (2πij / N) -Σ j Br' (4, j) · sin (2πij / N)} + Xrp (i + N / 2 )

上記〔数式11〕によりBタイプの改変音響フレームの左チャンネルの各サンプルXl´(i)、右チャンネルの各サンプルXr´(i)、が得られることになる。   By the above [Equation 11], each sample Xl ′ (i) of the left channel and each sample Xr ′ (i) of the right channel of the B type modified acoustic frame are obtained.

改変音響フレーム出力手段50は、周波数逆変換手段40の処理により得られたAタイプの改変音響フレーム、Bタイプの改変音響フレームを順次出力ファイルに出力する。   The modified sound frame output unit 50 sequentially outputs the A type modified sound frame and the B type modified sound frame obtained by the processing of the frequency inverse transform unit 40 to an output file.

次に、図2に示した音響信号に対する情報の埋め込み装置の処理の全体的な流れを、図5のフローチャートに従って説明する。図2に示した装置を構成する各構成要素は、連携して図5に従った処理を実行する。図5は、付加情報1ワード分の処理に対応したものとなっている。1ワードとしては、任意のビット数に設定することができるが、上述のように、本実施形態では誤り検出ビットを含めて1バイト(8ビット)に設定されている。また、情報の埋め込みは、Aタイプの音響フレームに対して行われるので、図5は、Aタイプの音響フレームについての説明となっている。Bタイプの音響フレームについては、Aタイプの音響フレームと並行して、音響フレーム読込手段10により読み込まれ、窓関数W(4,i)を利用して周波数変換手段20により周波数変換された後、周波数成分変更手段30により変更対象周波数帯の成分が除去され、周波数逆変換手段40により周波数逆変換された後、改変音響フレーム出力手段50により出力される。   Next, the overall flow of processing of the information embedding device for the acoustic signal shown in FIG. 2 will be described with reference to the flowchart of FIG. Each component which comprises the apparatus shown in FIG. 2 cooperates, and performs the process according to FIG. FIG. 5 corresponds to processing for one word of additional information. Although one word can be set to an arbitrary number of bits, as described above, in this embodiment, it is set to 1 byte (8 bits) including error detection bits. Further, since information embedding is performed on an A type acoustic frame, FIG. 5 illustrates the A type acoustic frame. The B type acoustic frame is read by the acoustic frame reading means 10 in parallel with the A type acoustic frame, and is frequency converted by the frequency converting means 20 using the window function W (4, i). The frequency component changing unit 30 removes the component of the change target frequency band, the frequency inverse converting unit 40 performs the frequency inverse conversion, and then the modified acoustic frame output unit 50 outputs the result.

図5においては、まず、ビット配列作成手段70は、付加情報記憶部62から抽出した付加情報に対して所定の処理を施し新たなビット配列を作成する(S101)。具体的には、まず、付加情報記憶部62から1ワード(7ビット)単位で抽出し、これに誤り検出ビットを1ビット付加して8ビットとする。そして、抽出した1ワード(7ビット)の各ビットを反転させて配置し、最後に誤り検出ビットと同じ値の1ビットを配置して16ビットのビット配列を作成する。この処理によるビット配列の変化の様子を図6に示す。図6(a)は、誤り検出ビット付加後のビット配列を示している。図6(a)において、第8ビットの“0”は誤り検出ビットである。このような場合、第1〜第7ビットの“1011110”を反転させた“0100001”を第9ビット〜第15ビットとし、第8ビットの“0”を複写して第16ビットとする新たなビット配列を作成する。この結果、図6(b)に示すような配列となる。   In FIG. 5, first, the bit array creation means 70 performs a predetermined process on the additional information extracted from the additional information storage unit 62 to create a new bit array (S101). Specifically, first, it is extracted in units of 1 word (7 bits) from the additional information storage unit 62, and 1 bit of error detection bits is added to this to make 8 bits. Then, the extracted bits of one word (7 bits) are inverted and arranged, and finally, one bit having the same value as the error detection bit is arranged to create a 16-bit bit array. FIG. 6 shows how the bit arrangement is changed by this processing. FIG. 6A shows the bit arrangement after adding the error detection bits. In FIG. 6A, the eighth bit “0” is an error detection bit. In such a case, “01100001” obtained by inverting “1011110” of the first to seventh bits is changed to the ninth bit to the fifteenth bit, and “0” of the eighth bit is copied to become the sixteenth bit. Create a bit array. As a result, the arrangement as shown in FIG.

この図6(b)に示す配列では、前半の8ビットと後半の8ビットにおける対応する各ビットの順序が同じであるので、抽出時において、どのビットについても8ビット離れたビットとの比較を行うことになる。すなわち、図6(b)に示すように、第1ビットは第9ビット(第1ビット反転)、第2ビットは第10ビット(第2ビット反転)との比較を行うことになる。この場合、抽出時に、誤って第2ビットを先頭と判断しても、第10ビットとの比較になり、適合性が保たれることが多い。すると、第2ビットを先頭とした誤ったビット配列を抽出してしまう可能性がある。   In the arrangement shown in FIG. 6B, the order of the corresponding bits in the first 8 bits and the latter 8 bits is the same. Therefore, at the time of extraction, any bit is compared with a bit 8 bits away. Will do. That is, as shown in FIG. 6B, the first bit is compared with the ninth bit (first bit inversion), and the second bit is compared with the tenth bit (second bit inversion). In this case, at the time of extraction, even if the second bit is erroneously determined to be the head, it is compared with the tenth bit, and compatibility is often maintained. Then, there is a possibility of extracting an incorrect bit arrangement starting from the second bit.

このような問題が発生するのを防ぐため、本実施形態では、さらに、16ビット中の後半8ビット内において、奇数番目のビットと偶数番目のビットの入れ替えを行う。この結果、図6(c)に示すような配列となる。そして、この16ビットが、音響信号に対する情報の埋め込み装置として用いられるコンピュータ内のレジスタに読み込まれることになる。このように、付加情報記憶部62においては、1ワードは7ビットであるが、埋め込み処理時は、この16ビットの配列で、付加情報内の1ワード分の処理を行う。このように作成されたビット配列のうち、前半のビット列を前半ビット列、後半のビット列を後半ビット列と呼ぶことにする。   In order to prevent such a problem from occurring, in the present embodiment, the odd-numbered bits and the even-numbered bits are further interchanged in the latter 8 bits of 16 bits. As a result, the arrangement as shown in FIG. These 16 bits are read into a register in a computer used as an information embedding device for an acoustic signal. Thus, in the additional information storage unit 62, one word is 7 bits, but at the time of embedding processing, processing for one word in the additional information is performed with this 16-bit array. In the bit array thus created, the first half bit string is referred to as the first half bit string, and the second half bit string is referred to as the second half bit string.

次に、周波数成分変更手段30が、レジスタに保持された16ビットから1ビットを読み込む処理を行う(S102)。続いて、音響フレーム読込手段10が、音響信号記憶部61に記憶されたステレオ音響信号の左右の各チャンネルから、それぞれ所定数のサンプルを1音響フレームとして読み込む(S103)。続いて、周波数変換手段20および周波数成分変更手段30が、音響フレームの周波数成分の状態を“状態1”、“状態2”のいずれかに変更する処理を行う(S104)。具体的には、読み込んだ音響フレームに対して、周波数変換を行って、その音響フレームのスペクトルであるフレームスペクトルを得る。すなわち、各音響フレームについて、3つの窓関数W(1,i)、W(2,i)、W(3,i)を用いて、上記〔数式5〕に従った処理を行うことになる。   Next, the frequency component changing unit 30 performs a process of reading 1 bit from 16 bits held in the register (S102). Subsequently, the acoustic frame reading means 10 reads a predetermined number of samples as one acoustic frame from each of the left and right channels of the stereo acoustic signal stored in the acoustic signal storage unit 61 (S103). Subsequently, the frequency converting unit 20 and the frequency component changing unit 30 perform processing for changing the state of the frequency component of the acoustic frame to either “state 1” or “state 2” (S104). Specifically, frequency conversion is performed on the read sound frame to obtain a frame spectrum that is a spectrum of the sound frame. That is, for each acoustic frame, processing according to the above [Equation 5] is performed using three window functions W (1, i), W (2, i), and W (3, i).

続いて、周波数成分変更手段30は、ビット配列作成手段70から受け取った値1、値2に応じて上記〔数式7〕〔数式8〕に従った処理を実行し、変更対象周波数帯の成分の状態を“状態1”、“状態2”のいずれかに変更する。   Subsequently, the frequency component changing unit 30 executes processing according to the above [Formula 7] and [Formula 8] according to the value 1 and the value 2 received from the bit array creating unit 70, and the component of the frequency band to be changed The state is changed to either “state 1” or “state 2”.

次に、周波数逆変換手段40が、上記S104の処理により各窓成分のスペクトル集合間の割合が変更されたフレームスペクトルを周波数逆変換して改変音響フレームを得る処理を行う(S105)。この周波数逆変換は、当然のことながら、周波数変換手段20がS104において実行した手法に対応していることが必要となる。本実施形態では、周波数変換手段20において、フーリエ逆変換を施しているため、周波数逆変換手段40は、フーリエ逆変換を実行することになる。具体的には、上記〔数式7〕〔数式8〕のいずれかにより得られたスペクトルの左チャンネルの実部Al´(1,j)等、虚部Bl´(1,j)等、右チャンネルの実部Ar´(1,j)等、虚部Br´(1,j)等を用いて、上記〔数式10〕に従った処理を行い、Xl´(i)、Xr´(i)を算出する。   Next, the frequency inverse transform means 40 performs the process of obtaining the modified acoustic frame by performing the frequency inverse transform on the frame spectrum in which the ratio between the spectrum sets of each window component is changed by the process of S104 (S105). As a matter of course, this frequency inverse transform needs to correspond to the method executed by the frequency converter 20 in S104. In the present embodiment, since the frequency transform unit 20 performs the inverse Fourier transform, the frequency inverse transform unit 40 performs the inverse Fourier transform. Specifically, the real channel Al ′ (1, j), etc., the imaginary part Bl ′ (1, j), etc. of the left channel of the spectrum obtained by any of the above [Equation 7] and [Equation 8], the right channel. Using the real part Ar ′ (1, j), etc., the imaginary part Br ′ (1, j), etc., the processing according to the above [Equation 10] is performed, and Xl ′ (i), Xr ′ (i) calculate.

改変音響フレーム出力手段50は、得られた改変音響フレームを順次出力ファイルに出力する。こうして1つの音響フレームに対する処理を終えたら、周波数成分変更手段30がビット配列中の次の1ビットを読み込む(S102)。以上のような処理を音響信号の両チャンネルの全サンプルに渡って実行していく。すなわち、所定数のサンプルを音響フレームとして読み込み、音響信号から読み込むべき音響フレームがなくなったら(S103)、処理を終了する。なお、S101において読み込んだ1ワード分のビット配列(16ビット)の各ビットに対応する処理を終えた場合、S102からS101に戻り、付加情報の次のワードを読み込んでビット配列を作成する処理を行うことになる。付加情報の全ワードに対して処理が終了した場合は、付加情報の先頭ワードに戻って処理を行う。この結果、全ての音響フレームに対して処理を行った全ての改変音響フレームが出力ファイルに記録されて、改変音響信号として得られる。得られた改変音響信号は、記憶手段60内の改変音響信号記憶部63に出力され、記憶される。   The modified sound frame output means 50 sequentially outputs the obtained modified sound frames to an output file. When the processing for one acoustic frame is completed in this way, the frequency component changing means 30 reads the next 1 bit in the bit array (S102). The above processing is executed over all samples of both channels of the acoustic signal. That is, a predetermined number of samples are read as sound frames, and when there are no more sound frames to be read from the sound signal (S103), the process ends. When the processing corresponding to each bit of the bit arrangement (16 bits) for one word read in S101 is completed, the processing returns from S102 to S101, and processing for creating the bit arrangement by reading the next word of the additional information. Will do. When the processing is completed for all the words of the additional information, the processing returns to the first word of the additional information. As a result, all modified acoustic frames that have been processed for all acoustic frames are recorded in the output file and obtained as modified acoustic signals. The obtained modified acoustic signal is output to and stored in the modified acoustic signal storage unit 63 in the storage unit 60.

なお、本実施形態では、付加情報を1ワード7ビットとし、誤り検出用の1ビットを付加した後、反転ビット等を加えて16ビットとして、付加情報1ワード分の処理をする場合について説明したが、抽出側と取り決めがある限り、付加情報の1ワードを任意のビット数単位で記録することが可能である。   In the present embodiment, the case has been described where the additional information is 7 bits per word, 1 bit for error detection is added, and then the inverted bit is added to 16 bits to process 1 word of additional information. However, as long as there is an agreement with the extraction side, one word of additional information can be recorded in an arbitrary number of bits.

上記のようにして得られた改変音響信号の左チャンネルのうち、付加情報が埋め込まれている部分については、変更対象周波数帯の成分は、上記状態1、状態2の2通りの分布しかないことになる。しかし、変更対象周波数帯の成分以外については、元の音響信号のままであるので、制作者の設定に基づいた種々な分布になる。また、上記の例で示したように、ステレオ音響信号を利用した場合には、左チャンネルにおいて変化させられた変更対象周波数帯の成分は、上記〔数式7〕〔数式8〕の処理からも明らかなように、必ず右チャンネルの変更対象周波数帯の成分に付加されている。したがって、右チャンネルが左チャンネルにおいて削除された成分を補っているため、両チャンネル全体として見ると、信号の劣化がない。   Of the left channel of the modified acoustic signal obtained as described above, with respect to the portion where the additional information is embedded, the component of the change target frequency band has only two distributions of the state 1 and the state 2 described above. become. However, since the components other than the component of the frequency band to be changed remain as the original acoustic signals, various distributions are made based on the setting of the producer. Further, as shown in the above example, when a stereo sound signal is used, the component of the frequency band to be changed that has been changed in the left channel is also apparent from the processing of [Expression 7] and [Expression 8]. In this way, it is always added to the component of the frequency band to be changed in the right channel. Therefore, since the right channel supplements the deleted component in the left channel, there is no signal degradation when viewed as both channels as a whole.

(1.3.音響信号からの情報の抽出装置)
次に、本発明に係る音響信号からの情報の抽出装置について説明する。図7は、本発明に係る音響信号からの情報の抽出装置の一実施形態を示す構成図である。図7において、100は音響信号入力手段、110は基準フレーム獲得手段、120は位相変更フレーム設定手段、130は周波数変換手段、140は符号判定パラメータ算出手段、150は符号出力手段、160は付加情報抽出手段、170は音響フレーム保持手段である。
(1.3. Apparatus for extracting information from acoustic signals)
Next, an apparatus for extracting information from an acoustic signal according to the present invention will be described. FIG. 7 is a block diagram showing an embodiment of an apparatus for extracting information from an acoustic signal according to the present invention. In FIG. 7, 100 is an acoustic signal input means, 110 is a reference frame acquisition means, 120 is a phase change frame setting means, 130 is a frequency conversion means, 140 is a code determination parameter calculation means, 150 is a code output means, and 160 is additional information. Extraction means 170 is an acoustic frame holding means.

音響信号入力手段100は、流れている音声をデジタル音響信号として取得し、入力する機能を有している。現実には、マイクロフォンおよびA/D変換器により実現される。マイクロフォンとしては、変更対象周波数帯の成分が検出可能なものであれば、モノラル無指向性のものであっても、ステレオ指向性のものであっても使用可能である。ステレオ指向性のものであっても一方のチャンネルだけ利用すれば良い。また、図2に示した装置で情報の埋め込みを行った場合には、特別精度の高いものでなく、一般的な精度のマイクロフォンを用いても情報の抽出が可能となる。基準フレーム獲得手段110は、入力されたデジタルのモノラル音響信号(あるいはステレオ音響信号の1チャンネル)から所定数のサンプルで構成される音響フレームを基準フレームとして読み込む機能を有している。位相変更フレーム設定手段120は、基準フレームと所定サンプルずつ移動させることにより位相を変更した音響フレームを位相変更フレームとして設定する機能を有している。周波数変換手段130は、図2に示した周波数変換手段20と同様の機能を有している。   The acoustic signal input unit 100 has a function of acquiring and inputting a flowing sound as a digital acoustic signal. In reality, it is realized by a microphone and an A / D converter. Any microphone can be used, regardless of whether it is monaural omnidirectional or stereo directional, as long as the component in the frequency band to be changed can be detected. Even if it is stereo-directional, only one channel needs to be used. In addition, when information is embedded by the apparatus shown in FIG. 2, the information can be extracted even if a microphone having a general accuracy is used instead of a high accuracy one. The reference frame acquisition unit 110 has a function of reading an audio frame composed of a predetermined number of samples as a reference frame from the input digital monaural audio signal (or one channel of a stereo audio signal). The phase change frame setting means 120 has a function of setting, as a phase change frame, an acoustic frame whose phase has been changed by moving the reference frame and a predetermined sample at a time. The frequency conversion means 130 has the same function as the frequency conversion means 20 shown in FIG.

符号判定パラメータ算出手段140は、生成されたスペクトルから所定の周波数範囲に相当するスペクトル集合を抽出し、各スペクトル集合の強度値EC1、EC2を以下の〔数式12〕に基づいて算出し、この強度値EC1、EC2を符号判定パラメータとし、この符号判定パラメータEC1、EC2の比率等に基づいて、所定の状態であると判断する機能を有している。 The code determination parameter calculation means 140 extracts a spectrum set corresponding to a predetermined frequency range from the generated spectrum, calculates intensity values E C1 and E C2 of each spectrum set based on the following [Equation 12], The intensity values E C1 and E C2 are used as code determination parameters, and a function of determining a predetermined state based on the ratio of the code determination parameters E C1 and E C2 is provided.

〔数式12〕
C1=Σj=m,…,M-1{Al(1,j)2+Bl(1,j)2}・F(j−m)・(αj)2
C2=Σj=m,…,M-1{Al(3,j)2+Bl(3,j)2}・F(j−m)・(αj)2
[Formula 12]
E C1 = Σ j = m,..., M−1 {Al (1, j) 2 + Bl (1, j) 2 } · F (j−m) · (αj) 2
E C2 = Σ j = m,..., M−1 {Al (3, j) 2 + Bl (3, j) 2 } · F (j−m) · (αj) 2

上記〔数式12〕において、(αj)2、F(j−m)は共に各jに対応するスペクトル要素を補正するために用いられる関数である。このうち、(αj)2は、一般的には(αf)βで表現される補正関数であり、β=2.0とした場合を示している。なお、jは周波数fに比例する値であるため、〔数式12〕においては、周波数fに代えてjが用いられる。ここで、音響信号の周波数とエネルギー分布の関係を図4に示す。図4に示すように、音響信号のエネルギー分布は、周波数fの2乗に比例して下がる傾向にある。このため、高周波成分について、情報が埋め込まれているかどうかの判断を行う際、低周波成分よりも信号強度が大きくなるように補正した方が、誤判断が生じ難くなる。そこで、本発明では、補正関(αf)βにより補正した強度値EC1、EC2を求めるのである。また、αは1以下の実数定数であり、本実施形態では、α=0.178・(512/N)である。F(j−m)は、以下の〔数式13〕で定義される周波数方向窓関数である。これらの関数は、各スペクトル要素に対して作用するが、スペクトル集合の強度の算出にあたり、上記〔数式12〕では、各スペクトル要素の強度の総和を求めるため、その総和に作用させる形式となっている。 In the above [Equation 12], (αj) 2 and F (j−m) are functions used for correcting the spectral elements corresponding to each j. Among these, (αj) 2 is a correction function generally expressed by (αf) β , and shows a case where β = 2.0. Since j is a value proportional to the frequency f, in [Equation 12], j is used instead of the frequency f. Here, the relationship between the frequency of the acoustic signal and the energy distribution is shown in FIG. As shown in FIG. 4, the energy distribution of the acoustic signal tends to decrease in proportion to the square of the frequency f. For this reason, when it is determined whether or not information is embedded in the high frequency component, it is more difficult to make an erroneous determination if the signal intensity is corrected to be larger than that of the low frequency component. Therefore, in the present invention, the intensity values E C1 and E C2 corrected by the correction function (αf) β are obtained. In addition, α is a real number constant of 1 or less, and in this embodiment, α = 0.178 · (512 / N). F (j−m) is a frequency direction window function defined by the following [Equation 13]. Although these functions act on each spectral element, in calculating the intensity of the spectrum set, the above [Equation 12] calculates the total sum of the intensities of each spectral element, so that it acts on the sum. Yes.

〔数式13〕
0≦j<P/8のときF(j)=0.5j2/(P/8)2
P/8≦j<P/4のときF(j)=1.0−0.5・(j−P/4)2/(P/8)2
P/4≦j<3P/4のときF(j)=1.0
3P/4≦j<7P/8のときF(j)=1.0−0.5・(j−3P/4)2/(P/8)2
7P/8≦j<PのときF(j)=0.5(P−j)2/(P/8)2
[Formula 13]
When 0 ≦ j <P / 8, F (j) = 0.5j 2 / (P / 8) 2
When P / 8 ≦ j <P / 4, F (j) = 1.0−0.5 · (j−P / 4) 2 / (P / 8) 2
When P / 4 ≦ j <3P / 4, F (j) = 1.0
When 3P / 4 ≦ j <7P / 8, F (j) = 1.0−0.5 · (j−3P / 4) 2 / (P / 8) 2
When 7P / 8 ≦ j <P, F (j) = 0.5 (P−j) 2 / (P / 8) 2

上記〔数式13〕において、Pは所定周波数帯の成分数を示し、P=M−mである。ここで、周波数方向窓関数F(j)、補正関数(αj)2のグラフを図16に示す。上記〔数式12〕においては、jがmからM−1のP個の各スペクトル要素に対して、周波数方向窓関数F(j)、補正関数(αj)2が乗じられることになる。また、周波数方向窓関数F(j)のさらに詳細なグラフを図17に示す。図17と上記〔数式13〕を対比するとわかるように、周波数方向窓関数F(j)は、jの値により5つに区分されており、特にj<P/8の場合とj≧7P/8のときに、値が小さくなる。このため、周波数方向窓関数F(j)は、特に、後述する第2の実施形態のように、所定周波数帯を周波数方向に複数に区分してスペクトル集合を抽出する場合に、低周波成分側のスペクトル集合と高周波成分側のスペクトル集合を明確に区別するのに役立つ。 In the above [Formula 13], P indicates the number of components in the predetermined frequency band, and P = M−m. Here, a graph of the frequency direction window function F (j) and the correction function (αj) 2 is shown in FIG. In the above [Equation 12], the frequency direction window function F (j) and the correction function (αj) 2 are multiplied for each of P spectral elements where j is from m to M−1. A more detailed graph of the frequency direction window function F (j) is shown in FIG. As can be seen by comparing FIG. 17 with the above [Equation 13], the frequency direction window function F (j) is divided into five according to the value of j, and particularly when j <P / 8 and j ≧ 7P /. When the value is 8, the value decreases. For this reason, the frequency direction window function F (j) is used when the spectrum set is extracted by dividing a predetermined frequency band into a plurality of frequencies in the frequency direction, as in the second embodiment described later. This is useful for clearly distinguishing between the spectral set of and the high frequency component side.

符号出力手段150は、1つの基準フレームに対応する音響フレーム(基準フレームおよび位相変更フレーム)の中から最適な位相であると判断されるものを判断し、その音響フレームの状態に対応する符号を出力する機能を有している。
符号判定パラメータ算出手段140と符号出力手段150により符号化手段が構成される。付加情報抽出手段160は、符号出力手段150により出力された2値の配列を、所定の規則により変換して意味のある付加情報として抽出する機能を有している。音響フレーム保持手段170は、連続する2個の基準フレームを保持可能なバッファメモリである。図7に示した各構成手段は、現実には情報処理機能を有する小型のコンピュータおよびその周辺機器等のハードウェアに専用のプログラムを搭載することにより実現される。特に、本発明の目的をより簡易に達成するためには、携帯電話機等の携帯型端末装置をハードウェアとして用いることが望ましい。なお、携帯電話機等の携帯型端末装置であっても、演算処理機能を有するものは、コンピュータの一種である。
The code output means 150 determines what is determined to be the optimum phase from the acoustic frames (reference frame and phase change frame) corresponding to one reference frame, and selects a code corresponding to the state of the acoustic frame. It has a function to output.
The code determination parameter calculation unit 140 and the code output unit 150 constitute an encoding unit. The additional information extraction unit 160 has a function of converting the binary array output by the code output unit 150 according to a predetermined rule and extracting it as meaningful additional information. The acoustic frame holding means 170 is a buffer memory that can hold two consecutive reference frames. Each component shown in FIG. 7 is actually realized by mounting a dedicated program on hardware such as a small computer having an information processing function and its peripheral devices. In particular, in order to more easily achieve the object of the present invention, it is desirable to use a portable terminal device such as a cellular phone as hardware. Note that even a portable terminal device such as a cellular phone is a type of computer having an arithmetic processing function.

(1.4.抽出装置の処理動作)
次に、図7に示した音響信号からの情報の抽出装置の処理動作について説明する。本発明に係る抽出装置は、パリティ検査によりエラーを検出した際、エラー訂正を行わない設定とすることもできるし、1ビットのエラー訂正をするものと設定することもできる。ここからは、エラー訂正を行わない設定における抽出装置の処理動作を、図8のフローチャートに従って説明する。まず、本装置では、位相判定テーブルS(p)、位相決定ログ、位相確定フラグ、ビットカウンタを初期化する(S200)。位相判定テーブルS(p)は、位相を判定するためのテーブルであり、pは0〜5の整数値をとる。初期値はS(p)=0に設定されている。位相決定ログは、1つの基準フレームと5つの位相変更フレームの組ごとに、決定された位相すなわち位相番号pを記録するものであり、初期状態では0が設定されている。位相確定フラグは、位相が確定しているかどうかを示すフラグであり、初期状態ではOffに設定されている。ビットカウンタについては初期値として0を設定する。
(1.4. Processing operation of extraction device)
Next, the processing operation of the apparatus for extracting information from the acoustic signal shown in FIG. 7 will be described. The extraction device according to the present invention can be set not to perform error correction when an error is detected by a parity check, or can be set to perform 1-bit error correction. Hereafter, the processing operation of the extraction apparatus in a setting in which error correction is not performed will be described according to the flowchart of FIG. First, in this apparatus, the phase determination table S (p), the phase determination log, the phase determination flag, and the bit counter are initialized (S200). The phase determination table S (p) is a table for determining the phase, and p takes an integer value of 0 to 5. The initial value is set to S (p) = 0. The phase determination log records the determined phase, that is, the phase number p for each set of one reference frame and five phase change frames, and 0 is set in the initial state. The phase determination flag is a flag indicating whether or not the phase is fixed, and is set to Off in the initial state. For the bit counter, 0 is set as an initial value.

このように、初期値が設定されている状態で、利用者が流れている音楽について、その楽曲名等の属性情報を知りたいと思った場合、まず、抽出装置に対して、抽出装置としての起動の指示を行う。これは、例えば、抽出装置を携帯電話機等の携帯端末で実現している場合は、所定のボタンを操作することにより実行できる。抽出装置は、指示が入力されると、音響信号入力手段100が、流れている音楽を録音し、デジタル化してデジタル音響信号として入力する。具体的には、無指向性マイクロフォン(または指向性マイクロフォンの一方のチャンネル)から入力される音声を、A/D変換器によりデジタル化する処理を行うことになる。   In this way, when the initial value is set and the user wants to know the attribute information such as the song name of the music that is flowing, first, the extraction device Instruct startup. For example, this can be executed by operating a predetermined button when the extraction device is realized by a mobile terminal such as a mobile phone. When an instruction is input to the extraction device, the acoustic signal input unit 100 records the flowing music, digitizes it, and inputs it as a digital acoustic signal. More specifically, the audio input from the omnidirectional microphone (or one channel of the directional microphone) is digitized by the A / D converter.

続いて、基準フレーム獲得手段110が、音響信号入力手段100から入力された音響信号から、所定数のサンプルで構成される音響フレームを基準フレームとして抽出する(S201)。具体的には、基準フレームを抽出して音響フレーム保持手段170に読み込むことになる。基準フレーム獲得手段110が基準フレームとして読み込む1音響フレームのサンプル数は、図2に示した音響フレーム読込手段10で設定されたものと同一にする必要がある。したがって、本実施形態の場合、基準フレーム獲得手段110は、4096サンプルずつ、順次基準フレームとして読み込んでいくことになる。音響フレーム保持手段170には、上述のように2個の基準フレームが格納可能となっており、新しい基準フレームが読み込まれると、古い基準フレームを破棄するようになっている。したがって、音響フレーム保持手段170には、常に基準フレーム2個分(連続する8192サンプル)が格納されていることになる。   Subsequently, the reference frame acquisition unit 110 extracts an acoustic frame including a predetermined number of samples from the acoustic signal input from the acoustic signal input unit 100 as a reference frame (S201). Specifically, the reference frame is extracted and read into the acoustic frame holding unit 170. The number of samples of one sound frame read as the reference frame by the reference frame acquisition unit 110 needs to be the same as that set by the sound frame reading unit 10 shown in FIG. Therefore, in the present embodiment, the reference frame acquisition unit 110 sequentially reads 4096 samples as reference frames. The acoustic frame holding means 170 can store two reference frames as described above, and when a new reference frame is read, the old reference frame is discarded. Therefore, the sound frame holding means 170 always stores two reference frames (continuous 8192 samples).

抽出装置で処理する音響フレームは、先頭から途切れることなく隣接して設定される基準フレームと、この基準フレームと位相を変更した位相変更フレームとに分けることができる。基準フレームについては、最初の基準フレームとしてサンプル番号1からサンプル番号4096までを設定したら、次の基準フレームは、サンプル番号4097からサンプル番号8192、さらに次の基準フレームは、サンプル番号8193からサンプル番号12288、というように途切れることなく設定される。そして、各基準フレームについて、1/6フレーム(約683サンプル)ずつ移動した5個の位相変更フレームを設定する。例えば、最初の基準フレームについては、サンプル番号683、1366、2049、2732、3413から始まる4096のサンプルで構成される5個の位相変更フレームが設定されることになる。続いて、周波数変換手段130、符号判定パラメータ算出手段140が、読み込んだ各音響フレームについて、位相を特定した後、埋め込まれている情報を判定し、対応する符号を出力する(S202)。出力される情報の形式は、付加情報が埋め込まれる場合に対応する値1、値2の2通りの形式となる。   The acoustic frame processed by the extraction device can be divided into a reference frame that is set adjacently without interruption from the beginning, and a phase change frame in which the phase is changed. For the reference frame, after setting sample number 1 to sample number 4096 as the first reference frame, the next reference frame is sample number 4097 to sample number 8192, and the next reference frame is sample number 8193 to sample number 12288. It is set without interruption. Then, for each reference frame, five phase change frames moved by 1/6 frame (about 683 samples) are set. For example, for the first reference frame, five phase change frames configured by 4096 samples starting from sample numbers 683, 1366, 2049, 2732, and 3413 are set. Subsequently, the frequency conversion unit 130 and the code determination parameter calculation unit 140 specify the phase of each read sound frame, determine embedded information, and output a corresponding code (S202). The format of the information to be output has two formats of value 1 and value 2 corresponding to the case where the additional information is embedded.

ここで、ステップS202の位相確定および符号判定の詳細を図9のフローチャートに従って説明する。まず、位相確定フラグがOnであるかOffであるかの確認を行う(S301)。位相確定フラグがOnである場合は、位相確定処理(S303〜S309)を行わず、符号判定処理のみを行う(S302)。ただし、初期状態では位相は確定しておらず、位相確定フラグがOffとなっているので、候補符号テーブルの初期化を行う(S303)。候補符号テーブルは、1つの基準フレームおよび5個の位相変更フレームを特定する0〜5の位相番号および、この6個の音響フレームの状態から得られる2値の符号を記録するものである。   Here, details of the phase determination and code determination in step S202 will be described with reference to the flowchart of FIG. First, it is confirmed whether the phase determination flag is On or Off (S301). When the phase determination flag is On, the phase determination process (S303 to S309) is not performed, and only the code determination process is performed (S302). However, since the phase is not fixed in the initial state and the phase determination flag is Off, the candidate code table is initialized (S303). The candidate code table records a phase number of 0 to 5 that specifies one reference frame and five phase change frames, and a binary code obtained from the states of the six acoustic frames.

続いて、符号判定パラメータ算出手段140は、符号判定処理を行う(S302)。ここで、符号判定処理の詳細を図10に示す。まず、周波数変換手段130が、読み込んだ各音響フレームに対して、周波数変換を行ってフレームスペクトルを得る(S401)。この処理は、図2に示した周波数変換手段20における処理と同様である。ただし、抽出に用いるのは、左チャンネルだけであるので、上記〔数式5〕に従った処理を行い、左チャンネルに対応する変換データの実部Al(1,j)等、虚部Bl(1,j)等を得る。   Subsequently, the code determination parameter calculation unit 140 performs a code determination process (S302). Here, the details of the code determination process are shown in FIG. First, the frequency conversion means 130 performs frequency conversion on each read sound frame to obtain a frame spectrum (S401). This process is the same as the process in the frequency conversion means 20 shown in FIG. However, since only the left channel is used for extraction, the processing according to [Formula 5] is performed, and the imaginary part Bl (1) such as the real part Al (1, j) of the conversion data corresponding to the left channel is performed. , J) etc.

上記周波数変換手段130における処理により、周波数に対応した成分であるスペクトルで表現されたフレームスペクトルが得られる。続いて、強度値EC1、強度値EC2を用いて、変更対象周波数帯の成分の状態がどのような状態であるか、すなわち、1ビットの値としてどのような値が埋め込まれていたかを判断する処理を行う(S402)。具体的には、まず、以下の判定処理を実行し、その結果、対応する状態であったと判断し、対応する値を出力する。 By the processing in the frequency conversion means 130, a frame spectrum expressed by a spectrum that is a component corresponding to the frequency is obtained. Subsequently, the intensity value E C1 and the intensity value E C2 are used to determine what state the component of the frequency band to be changed is, that is, what value was embedded as a 1-bit value. A determination process is performed (S402). Specifically, first, the following determination processing is executed, and as a result, it is determined that the corresponding state is obtained, and the corresponding value is output.

C1>EC2の場合、“状態1”であると判断し、値1を出力する。
C2≧EC1の場合、“状態2”であると判断し、値2を出力する。
If E C1 > E C2 , it is determined that the state is “1”, and a value of 1 is output.
When E C2 ≧ E C1 , it is determined that “state 2” is satisfied, and a value 2 is output.

符号判定パラメータ算出手段140は、各音響フレーム単位で、上記判定結果に応じて値1、値2のいずれかを設定する(S403)。   The code determination parameter calculation unit 140 sets either value 1 or value 2 according to the determination result for each acoustic frame (S403).

また、上記判定の結果、値1、値2のいずれかを設定した場合には、さらに、以下の〔数式14〕に従って位相判定テーブルS(p)の更新を行う(S404)。   If either of the values 1 and 2 is set as a result of the determination, the phase determination table S (p) is further updated according to the following [Equation 14] (S404).

〔数式14〕
“状態1”であると判断し、値1を出力した場合、S(p)←S(p)+EC1/EC2
“状態2”であると判断し、値2を出力した場合、S(p)←S(p)+EC2/EC1
[Formula 14]
When it is determined that the state is “1” and the value 1 is output, S (p) ← S (p) + E C1 / E C2
When it is determined that the state is “2” and the value 2 is output, S (p) ← S (p) + E C2 / E C1

ここで、図9のフローチャートに戻って、符号判定パラメータ算出手段140は、候補符号テーブルに、最適位相となる候補を保存する(S304)。具体的には、位相判定テーブルに記録されているS(p)の値が最大となる位相番号pの値、前記S403により設定された2値のいずれかの符号、その音響フレームについての上記〔数式12〕に従った処理を実行することにより算出した、周波数成分に対応するEC1、EC2のいずれかを最適位相の候補として候補符号テーブルに保存する。 Here, returning to the flowchart of FIG. 9, the code determination parameter calculation unit 140 stores a candidate for the optimum phase in the candidate code table (S304). Specifically, the value of the phase number p that maximizes the value of S (p) recorded in the phase determination table, the binary code set in S403, and the above [ One of E C1 and E C2 corresponding to the frequency component calculated by executing the processing according to Equation 12] is stored in the candidate code table as an optimal phase candidate.

続いて、全ての位相番号pに対応する処理を終えたかどうかを判定する(S305)。これは、ある基準フレームに対して全ての位相変更フレームの処理を行ったかどうかを判定している。本実施形態では、pが0〜5までの値をとるので、6回分処理していない場合は、処理していた音響フレームから所定サンプル数ずらして、位相の異なる音響フレームを設定し、S302に戻って処理を繰り返す。なお、p=0の場合が基準フレームであり、p=1〜5の場合が位相変更フレームである。全ての位相番号pに対応する処理を終えた場合は、候補保存テーブルに記録されている位相番号pに対応する位相が最適位相であると判定し、候補保存テーブルに記録されている符号を出力する(S306)。   Subsequently, it is determined whether or not the processing corresponding to all the phase numbers p has been completed (S305). This determines whether all phase change frames have been processed for a certain reference frame. In this embodiment, since p takes a value from 0 to 5, if the processing is not performed six times, an acoustic frame having a different phase is set by shifting a predetermined number of samples from the acoustic frame being processed. Return and repeat the process. The case where p = 0 is a reference frame, and the case where p = 1 to 5 is a phase change frame. When the processing corresponding to all the phase numbers p is completed, it is determined that the phase corresponding to the phase number p recorded in the candidate storage table is the optimum phase, and the code recorded in the candidate storage table is output. (S306).

続いて、位相決定ログの更新を行う(S307)。位相決定ログとは、1つの基準フレームと5つの位相変更フレームの組ごとに、決定された位相すなわち位相番号pを記録するものである。そして、位相決定ログを参照して、位相が過去所定回数同一であったかどうかを判断する(S308)。本実施形態では、この回数を10回としている。位相が過去所定回数同一であった場合には、位相確定フラグをOnに設定する(S309)。これにより、同一位相が所定回数続いた場合には、必ず位相確定フラグがOnとなっているため、位相確定処理(S303〜S309)を行わず、符号判定処理(S302)のみを行うことになる。   Subsequently, the phase determination log is updated (S307). The phase determination log records the determined phase, that is, the phase number p for each set of one reference frame and five phase change frames. Then, referring to the phase determination log, it is determined whether or not the phase has been the same a predetermined number of times in the past (S308). In the present embodiment, this number is 10 times. If the phase has been the same a predetermined number of times in the past, the phase determination flag is set to On (S309). As a result, when the same phase continues for a predetermined number of times, the phase determination flag is always On, so that the phase determination processing (S303 to S309) is not performed and only the code determination processing (S302) is performed. .

再び図8のフローチャートに戻って説明する。位相確定および符号出力が行なわれたら、出力された符号の値に対応する1ビットをバッファに保存する(S203)。次に、ビットカウンタを“1”だけカウントアップする(S204)。   Returning to the flowchart of FIG. When the phase is determined and the code is output, 1 bit corresponding to the output code value is stored in the buffer (S203). Next, the bit counter is incremented by “1” (S204).

次に、ビットカウンタが15以下であるか16以上であるかを判断する(S205)。ビットカウンタが15以下の場合は、S201に戻って、次の基準フレームを抽出する処理を行う。   Next, it is determined whether the bit counter is 15 or less or 16 or more (S205). If the bit counter is equal to or smaller than 15, the process returns to S201 to perform processing for extracting the next reference frame.

ビットカウンタが16以上である場合は、バッファに保存されたビット配列のうち前半8ビットと後半8ビットの適合性の判断を行う(S206)。すなわち、図6(c)に示したように、16ビット中先頭から1ビット目と10ビット目、2ビット目と9ビット目、3ビット目と12ビット目、4ビット目と11ビット目、5ビット目と14ビット目、6ビット目と13ビット目、7ビット目と16ビット目が互いに反転した値となっており、8ビット目と15ビット目が一致しているかどうかの判断を行う。これらを満たしていれば適合していると判断し、満たしていなければ不適合と判断する。判断の結果、不適合である場合には、S201に戻って、次の基準フレームを抽出する処理を行う。判断の結果、適合している場合には、16ビット中の前半8ビットについてパリティ検査を行う(S207)。具体的には、16ビット中の前半8ビットを抽出し、そのうち前7ビットでパリティ計算を行い、その結果と8ビット目と照合を行う。パリティ検査が不合格の場合は、S201に戻って、次の基準フレームを抽出する処理を行う。   When the bit counter is 16 or more, the compatibility of the first half 8 bits and the second half 8 bits in the bit arrangement stored in the buffer is determined (S206). That is, as shown in FIG. 6C, the first and tenth bits, the second and ninth bits, the third and twelfth bits, the fourth and eleventh bits, 5th and 14th bits, 6th and 13th bits, 7th and 16th bits are inverted values, and it is determined whether the 8th and 15th bits match. . If these conditions are satisfied, it is determined to be conforming, and if they are not satisfied, it is determined to be nonconforming. If the result of determination is incompatibility, processing returns to S201 and the next reference frame is extracted. As a result of the determination, if it matches, a parity check is performed on the first 8 bits of 16 bits (S207). Specifically, 8 bits in the first half of 16 bits are extracted, parity calculation is performed on the previous 7 bits, and the result is compared with the 8th bit. If the parity check fails, the process returns to S201 to perform processing for extracting the next reference frame.

パリティ検査が合格の場合は、付加情報抽出手段160が、前半8ビット中の前7ビットに1ビット付加して出力する(S208)。ここで、パリティ検査が合格の場合は、照合に用いた8ビット目が誤り検出ビットであった可能性が高いことになる。そうすると、その前の7ビットは元の付加情報における7ビットであると考えられる。このため、その先頭からの7ビットにビット0を付加することによりASCIIコードにおける1ワードとして出力するのである。逆にパリティ検査が不合格の場合は、照合に用いた8ビット目が誤り検出ビットでない可能性が高いことになる。そうすると、その時点で保持している7ビットは、元の付加情報における7ビットからずれたものであると考えられる。この場合は、先頭の1ビットを破棄して、S201からS204の処理により得られた新たな1ビットを得るための処理を行うのである。   If the parity check is successful, the additional information extraction unit 160 adds 1 bit to the previous 7 bits in the first 8 bits and outputs the result (S208). Here, if the parity check passes, there is a high possibility that the eighth bit used for collation is an error detection bit. Then, the previous 7 bits are considered to be 7 bits in the original additional information. Therefore, by adding bit 0 to the 7 bits from the head, it is output as one word in the ASCII code. On the other hand, if the parity check fails, there is a high possibility that the eighth bit used for collation is not an error detection bit. Then, it is considered that the 7 bits held at that time are shifted from the 7 bits in the original additional information. In this case, the first 1 bit is discarded, and processing for obtaining a new 1 bit obtained by the processing from S201 to S204 is performed.

このようにパリティ検査を行い、これに合格した場合は、その部分がワードの区切りである可能性が高いので、それが本当に区切りであれば、以降は16ビットずつ抽出すれば、全て正確にワード単位で抽出を行うことができる。逆に、パリティ検査に合格したとしても、それが偶然であり、実はワードの区切りではない場合も考えられる。このような場合は、次のパリティ検査の際に不合格となる可能性が高く、何回か繰り返しているうちに正しい区切りが正確に判断できることになる。S208において、前7ビットに1ビット付加して出力した場合には、ビットカウンタを0に初期化する(S209)。そして、S201に戻って、次の基準フレームを抽出する処理を行う。   If the parity check is performed in this way and the result is passed, there is a high possibility that the part is a word delimiter. Extraction can be done in units. On the other hand, even if the parity check is passed, it may be a coincidence and not actually a word break. In such a case, there is a high possibility that it will be rejected at the next parity check, and the correct delimiter can be accurately determined after repeating several times. In S208, when 1 bit is added to the previous 7 bits and output, the bit counter is initialized to 0 (S209). Then, the process returns to S201 to perform processing for extracting the next reference frame.

図8に示す処理を各基準フレームに対して実行することにより、付加情報が抽出されることになる。S201において全ての基準フレームが抽出されたと判断された場合には、処理を終了する。   By executing the processing shown in FIG. 8 for each reference frame, additional information is extracted. If it is determined in S201 that all reference frames have been extracted, the process ends.

上記S208の処理において、付加情報抽出手段160は、まず、符号出力手段150により出力された値を、所定の規則により変換して意味のある付加情報として抽出する。所定の規則としては、情報を埋め込む者が意図した情報が受け取った者に認識可能な状態とできるものであれば、さまざまな規則が採用できるが、本実施形態では、ASCIIコードを採用している。すなわち、付加情報抽出手段160は、符号判定パラメータ算出手段140が判定し、符号出力手段150から出力される符号から得られるビット値の配列を1バイト(8ビット)単位で認識し、これをASCIIコードに従って文字情報を認識する。このようにして得られた文字情報は、表示装置(図示省略)の画面に表示出力される。   In the process of S208, the additional information extraction unit 160 first converts the value output by the code output unit 150 according to a predetermined rule and extracts it as meaningful additional information. As the predetermined rule, various rules can be adopted as long as the information intended by the person who embeds the information can be recognized by the recipient. In this embodiment, the ASCII code is adopted. . That is, the additional information extraction unit 160 recognizes the bit value array obtained from the code determined by the code determination parameter calculation unit 140 and output from the code output unit 150 in units of 1 byte (8 bits), and recognizes this as ASCII. Recognizes character information according to the code. The character information thus obtained is displayed and output on a screen of a display device (not shown).

従って、埋め込み装置により音響信号に、その楽曲の曲名やアーチスト等の属性情報を文字情報として埋め込んでおけば、利用者は、その音楽が流れているのを聞いて、その曲名やアーチストを知りたいと思ったときに、抽出装置として機能する自身の携帯端末に所定の操作を行えば、自身の携帯端末の画面に曲名やアーチスト等の属性情報が文字情報として表示されることになる。   Therefore, if the embedding device embeds the attribute information such as the song title or artist in the sound signal as the character information, the user wants to know the song title or artist by listening to the music being played. If a predetermined operation is performed on the mobile terminal that functions as the extraction device, attribute information such as a song title and an artist is displayed as character information on the screen of the mobile terminal.

上記の例では、図8のフローチャートに従ってエラー訂正を行わない設定における抽出装置の処理動作を説明した。エラー訂正を行わない場合は、エラーが生じない場合にのみ、付加情報1ワードの出力が可能となる。例えば、図12(a)に示すような正常な配列(図6(c)の配列と同一)の場合、第1ビット〜第7ビットまでは、それぞれの反転ビットと照合を行い、第8ビットはその複写ビットと照合を行う。そして、その関係が適合している場合には、前半の第1ビット〜第8ビットにおいてパリティ検査を行う。図12(a)の例では、第1ビット〜第8ビットと第9ビット〜第16ビットが適合しており、前半の第1ビット〜第8ビットのパリティ検査も合格であるので、第1ビット〜第7ビットにビット0を付加することによりASCIIコードにおける1ワードとして出力する。   In the above example, the processing operation of the extraction apparatus in a setting in which error correction is not performed has been described according to the flowchart of FIG. When error correction is not performed, it is possible to output one word of additional information only when no error occurs. For example, in the case of a normal array as shown in FIG. 12 (a) (same as the array in FIG. 6 (c)), the first bit to the seventh bit are compared with the respective inverted bits, and the eighth bit Verifies the copy bit. If the relationship is suitable, a parity check is performed on the first to eighth bits of the first half. In the example of FIG. 12A, the first bit to the eighth bit and the ninth bit to the sixteenth bit are suitable, and the first half to the eighth bit parity check is also passed. By adding bit 0 to bit-7, it is output as one word in the ASCII code.

次に、1ビットのエラー訂正をする設定における抽出装置の処理動作を、図11のフローチャートに従って説明する。図11においては、図8と同一処理を行う部分が含まれている。そこで、図8と同一処理を行う部分については、同一符号を付して説明を省略する。図11の例においても、まず、初期化処理を行う(S200)。この初期化処理では、図8の例と同様、位相判定テーブルS(p)、位相決定ログ、位相確定フラグ、ビットカウンタを初期化するが、さらに、自動訂正モードをOFFにする設定を行う。   Next, the processing operation of the extraction apparatus in a setting for performing 1-bit error correction will be described with reference to the flowchart of FIG. 11 includes a portion that performs the same processing as in FIG. Therefore, portions that perform the same processing as in FIG. Also in the example of FIG. 11, first, initialization processing is performed (S200). In this initialization process, as in the example of FIG. 8, the phase determination table S (p), the phase determination log, the phase determination flag, and the bit counter are initialized, and further, the automatic correction mode is set to OFF.

続いて、図8と同様、所定数のサンプルで構成される音響フレームを基準フレームとして抽出した後(S201)、読み込んだ各音響フレームについて、位相を特定した後、埋め込まれている情報を判定し、対応する符号を出力する(S202)。なお、S202の処理については、図9、図10に示したようなものとなる。   Subsequently, as in FIG. 8, after extracting an acoustic frame composed of a predetermined number of samples as a reference frame (S201), after identifying the phase of each read acoustic frame, the embedded information is determined. The corresponding code is output (S202). Note that the processing of S202 is as shown in FIGS.

位相確定および符号出力が行なわれたら、出力された符号の値に対応する1ビットをバッファに保存して(S203)、ビットカウンタを“1”だけカウントアップする(S204)。そして、ビットカウンタが15以下であるか16以上であるかを判断し(S205)、ビットカウンタが15以下の場合は、S201に戻って、次の基準フレームを抽出する処理を行う。   When the phase is determined and the code is output, 1 bit corresponding to the output code value is stored in the buffer (S203), and the bit counter is incremented by "1" (S204). Then, it is determined whether the bit counter is 15 or less or 16 or more (S205). If the bit counter is 15 or less, the process returns to S201 to perform processing for extracting the next reference frame.

ビットカウンタが16以上である場合は、バッファに保存されたビット列のうち前半8ビットと後半8ビットの適合性の判断を行う(S206)。判断の結果、2ビット以上不適合の場合には、自動訂正モードをOFFに設定した後(S210)、S201に戻って、次の基準フレームを抽出する処理を行う。   When the bit counter is 16 or more, the compatibility of the first half 8 bits and the second half 8 bits in the bit string stored in the buffer is determined (S206). As a result of the determination, if it is not suitable for 2 bits or more, after the automatic correction mode is set to OFF (S210), the process returns to S201 to extract the next reference frame.

一方、判断の結果、1ビット以下の不適合の場合には、さらに、適合か1ビットのみ不適合かを判断する。適合している場合には、16ビット中の前半8ビットについてパリティ検査を行う(S207)。パリティ検査が合格の場合は、自動訂正モードをONに設定した後(S211)、付加情報抽出手段160が、前半8ビット中の前7ビットに1ビット付加して出力する(S208)。   On the other hand, if the result of determination is nonconformity of 1 bit or less, it is further determined whether it is compatible or only 1 bit is nonconforming. If it matches, parity check is performed on the first 8 bits of 16 bits (S207). If the parity check is acceptable, the automatic correction mode is set to ON (S211), and then the additional information extraction unit 160 adds 1 bit to the previous 7 bits in the first 8 bits and outputs (S208).

1ビットのみ不適合の場合は、自動訂正モードがONであるかOFFであるかの判断を行う(S212)。自動訂正モードがOFFである場合は、S201に戻って、次の基準フレームを抽出する処理を行う。自動訂正モードがONである場合は、16ビット中の前半8ビットについてパリティ検査を行う(S207)。パリティ検査が合格の場合は、付加情報抽出手段160が、前半8ビット中の前7ビットに1ビット付加して出力する(S208)。パリティ検査が不合格の場合は、前半の不適合ビットを反転訂正する(S213)。そして、付加情報抽出手段160が、前半8ビット中の前7ビットに1ビット付加して出力する(S208)。   If only one bit is unsuitable, it is determined whether the automatic correction mode is ON or OFF (S212). If the automatic correction mode is OFF, the process returns to S201 to perform processing for extracting the next reference frame. If the automatic correction mode is ON, a parity check is performed on the first 8 bits of 16 bits (S207). If the parity check is successful, the additional information extraction unit 160 adds 1 bit to the previous 7 bits in the first 8 bits and outputs the result (S208). If the parity check fails, the first non-conforming bit is inverted and corrected (S213). Then, the additional information extraction unit 160 adds 1 bit to the previous 7 bits in the first 8 bits and outputs the result (S208).

S208において、前7ビットに1ビット付加して出力した場合には、ビットカウンタを0に初期化する(S209)。そして、S201に戻って、次の基準フレームを抽出する処理を行う。   In S208, when 1 bit is added to the previous 7 bits and output, the bit counter is initialized to 0 (S209). Then, the process returns to S201 to perform processing for extracting the next reference frame.

図11の例のように、1ビットのエラー訂正をする設定の場合は、1ビットのエラーが生じた場合であっても、付加情報1ワードの出力が可能となる。例えば、図12(b)に示すように、第5ビット反転がエラーとなっている場合を考えてみる。この場合、第5ビットと第5ビット反転が同一の値であり、反転の関係となっておらず、不適合となる。しかし、前半のパリティ検査は合格となるので、前半の8ビット中、前7ビットに1ビットを付加して出力される。   As in the example of FIG. 11, in the case of setting for 1-bit error correction, even if a 1-bit error occurs, it is possible to output 1 word of additional information. For example, consider the case where the fifth bit inversion is an error, as shown in FIG. In this case, the fifth bit and the fifth bit inversion have the same value and are not in an inversion relationship, which is incompatible. However, since the parity check in the first half is passed, one bit is added to the first 7 bits out of the 8 bits in the first half and output.

次に、図13(a)に示すように、第5ビットがエラーとなっている場合を考えてみる。この場合、第5ビットと第5ビット反転が同一の値であり、反転の関係となっておらず、不適合となる。さらに、前半のパリティ検査は不合格となるので、前半の不適合ビットである第5ビットを反転訂正した後、訂正後の8ビット中、前7ビットに1ビットを付加して出力される。   Next, consider the case where the fifth bit is in error as shown in FIG. In this case, the fifth bit and the fifth bit inversion have the same value and are not in an inversion relationship, which is incompatible. Furthermore, since the parity check in the first half is rejected, the fifth bit which is the non-conforming bit in the first half is inverted and corrected, and then 1 bit is added to the previous 7 bits out of the 8 bits after the correction.

次に、図13(b)に示すように、第8ビット複写がエラーとなっている場合を考えてみる。この場合、第8ビットと第8ビット複写が異なる値であり、複写の関係となっておらず、不適合となる。しかし、前半のパリティ検査は合格となるので、前半の8ビット中、前7ビットに1ビットを付加して出力される。   Next, as shown in FIG. 13B, consider the case where the eighth bit copy has an error. In this case, the 8th bit and the 8th bit copy are different values and are not in a relationship of copying, which is incompatible. However, since the parity check in the first half is passed, one bit is added to the first 7 bits out of the 8 bits in the first half and output.

次に、図14(a)に示すように、第8ビットがエラーとなっている場合を考えてみる。この場合、第8ビットと第8ビット複写が異なる値であり、複写の関係となっておらず、不適合となる。さらに、前半のパリティ検査は不合格となるので、前半の不適合ビットである第8ビットを反転訂正した後、訂正後の8ビット中、前7ビットに1ビットを付加して出力される。   Next, consider the case where the eighth bit is in error as shown in FIG. In this case, the 8th bit and the 8th bit copy are different values and are not in a relationship of copying, which is incompatible. Further, since the parity check in the first half is rejected, the eighth bit, which is a non-conforming bit in the first half, is inverted and corrected, and then 1 bit is added to the previous 7 bits out of the 8 bits after the correction.

後半ビット列において奇数番目のビットと偶数番目のビットを入れ替えた場合は、図6(c)に示すように、前半ビット列の奇数番目のビットは9ビット離れたビットとの比較となり、前半ビット列の偶数番目のビットは7ビット離れたビットとの比較となる。すなわち、第1ビットは第10ビット(第1ビット反転)、第2ビットは第9ビット(第2ビット反転)との比較を行うことになる。この場合、抽出時に、誤って第2ビットを先頭と判断すると、第11ビットとの比較になり、これは第4ビット反転であるため、適合性が保たれない場合も多い。すると、第2ビットを先頭とした誤ったビット配列を抽出してしまう可能性が低くなる。このため、後半ビット列において奇数番目のビットと偶数番目のビットを入れ替えた場合、図6(b)のように前半ビット列と後半ビット列における対応する各ビットの順序が同じである場合に比べると、誤認識が低く、より精度の高い抽出を行うことが可能となる。   When the odd-numbered bits and the even-numbered bits are interchanged in the latter-half bit string, as shown in FIG. 6C, the odd-numbered bits in the first-half bit string are compared with the bits separated by 9 bits, and the even-numbered bits in the first-half bit string The th bit is compared with a bit 7 bits away. That is, the first bit is compared with the tenth bit (first bit inversion), and the second bit is compared with the ninth bit (second bit inversion). In this case, at the time of extraction, if the second bit is erroneously determined to be the head, it is compared with the eleventh bit. Since this is the fourth bit inversion, compatibility is often not maintained. Then, the possibility of extracting an incorrect bit arrangement starting from the second bit is reduced. For this reason, when the odd-numbered bits and the even-numbered bits are interchanged in the second half bit string, compared to the case where the order of the corresponding bits in the first half bit string and the second half bit string is the same as shown in FIG. The recognition is low and it becomes possible to perform extraction with higher accuracy.

(1.5.位相補正処理について)
上記のように、抽出時には、埋め込み時に埋め込んだ音響フレームに対応して、音響信号を読み込むことができるとは限らない。そこで、音響フレームの位相をずらして複数通り(本実施形態では6通り)で読み込み、その中で最適な位相を決定し、その位相で特定される音響フレームに対応する符号を出力することにしている。例えば、6通りで読み込む場合、先頭の音響フレームは、本来サンプル番号1〜4096のサンプルであるが、サンプル番号1、683、1366、2049、2732、3413から始まる4096のサンプルで構成される6個の各音響フレームに対して処理を行い、最適な音響フレームに対応する符号を出力することになる。なお、図9のフローチャートを用いて説明したように、本実施形態では、同一位相が所定回数連続した場合には、それ以降はその位相を確定したものとして処理を行う。
(1.5. About phase correction processing)
As described above, at the time of extraction, it is not always possible to read an acoustic signal corresponding to the acoustic frame embedded at the time of embedding. Therefore, the phase of the acoustic frame is shifted and read in a plurality of ways (six in this embodiment), the optimum phase is determined, and a code corresponding to the acoustic frame specified by the phase is output. Yes. For example, in the case of reading in six ways, the top acoustic frame is originally a sample of sample numbers 1 to 4096, but six pieces composed of 4096 samples starting from sample numbers 1, 683, 1366, 2049, 2732, and 3413 Are processed, and a code corresponding to the optimum acoustic frame is output. As described with reference to the flowchart of FIG. 9, in the present embodiment, when the same phase continues a predetermined number of times, the processing is performed after that phase is determined.

(1.6.モノラル音響信号の場合)
上記実施形態においては、埋め込み装置、抽出装置のいずれにおいても、左右のチャンネルを有するステレオ音響信号の左チャンネル信号に付加情報を埋め込む場合を例にとって説明したが、逆に右チャンネル信号に付加情報を埋め込むようにしても良い。本発明は、左右の特性には無関係だからである。また、1つのチャンネルしかないモノラル音響信号に対して処理を行う場合は、上記実施形態において、左チャンネル信号に対して行った処理を行うことになる。本発明は、1つのチャンネル信号に対して付加情報を埋め込み、また抽出を行うので、モノラル音響信号であってもステレオ音響信号であっても同様に行うことができる。
(1.6. Monaural sound signal)
In the above embodiment, the case where the additional information is embedded in the left channel signal of the stereo sound signal having the left and right channels in both the embedding device and the extraction device has been described as an example, but conversely, the additional information is added to the right channel signal. It may be embedded. This is because the present invention is not related to the left and right characteristics. Further, when processing is performed on a monaural sound signal having only one channel, the processing performed on the left channel signal is performed in the above embodiment. Since the present invention embeds and extracts additional information from one channel signal, it can be similarly performed for a monaural sound signal or a stereo sound signal.

(1.7.信号成分が小さくても情報の埋め込みを確実に行う手法)
ここまでの説明のように、本発明では、元の信号成分の状態如何にかかわらず、常に変更対象周波数帯の信号成分を変更するものであるが、その成分の大きさは、両チャンネルの信号強度より大きくなることはない。このため、元の信号成分が存在しないか、または小さすぎる場合には、抽出に必要な信号成分が得られないため、情報の抽出を適切に行うことができず抽出エラーとなる。そこで、以下、元の信号成分が小さくても、情報の抽出を適切に行えるように信号の埋め込みを可能とする手法について説明する。
(1.7. Method of reliably embedding information even if the signal component is small)
As described so far, in the present invention, the signal component of the frequency band to be changed is always changed regardless of the state of the original signal component, but the magnitude of the component is the signal of both channels. There is no greater than strength. For this reason, if the original signal component does not exist or is too small, the signal component necessary for extraction cannot be obtained, and information cannot be appropriately extracted, resulting in an extraction error. Therefore, hereinafter, a method for enabling signal embedding so that information can be appropriately extracted even when the original signal component is small will be described.

この場合、図2に示した埋め込み装置における情報の埋め込み処理も、図5のフローチャートに従って行われる。   In this case, the information embedding process in the embedding apparatus shown in FIG. 2 is also performed according to the flowchart of FIG.

したがって、S104における状態1、状態2に設定する処理としては、まず、以下の〔数式15〕に従って算出される固定値Vを、変更対象周波数帯の成分の強度として設定する。   Therefore, as a process for setting the state 1 and the state 2 in S104, first, the fixed value V calculated according to the following [Equation 15] is set as the intensity of the component of the change target frequency band.

〔数式15〕
V={0.5・Lev・C/P}1/2
[Formula 15]
V = {0.5 · Lev · C / P} 1/2

そして、状態1とする場合は、上記〔数式7〕におけるAl´(1,j)、Bl´(1,j)の算出を、以下の〔数式16〕に従った処理により実行する。   When the state 1 is set, the calculation of Al ′ (1, j) and Bl ′ (1, j) in the above [Formula 7] is executed by the processing according to the following [Formula 16].

〔数式16〕
j=m〜M−1の各成分に対して
Al´(1,j)=Al(1,j)・V/{Al(1,j)2+Bl(1,j)21/2
Bl´(1,j)=Bl(1,j)・V/{Al(1,j)2+Bl(1,j)21/2
[Formula 16]
For each component of j = m to M−1, Al ′ (1, j) = Al (1, j) · V / {Al (1, j) 2 + Bl (1, j) 2 } 1/2
Bl ′ (1, j) = Bl (1, j) · V / {Al (1, j) 2 + Bl (1, j) 2 } 1/2

状態2とする場合は、上記〔数式8〕におけるAl´(3,j)、Bl´(3,j)の算出を、以下の〔数式17〕に従った処理により実行する。   In the case of the state 2, the calculation of Al ′ (3, j) and Bl ′ (3, j) in the above [Equation 8] is executed by the processing according to the following [Equation 17].

〔数式17〕
j=m〜M−1の各成分に対して
Al´(3,j)=Al(3,j)・V/{Al(3,j)2+Bl(3,j)21/2
Bl´(3,j)=Bl(3,j)・V/{Al(3,j)2+Bl(3,j)21/2
[Formula 17]
For each component of j = m to M−1, Al ′ (3, j) = Al (3, j) · V / {Al (3, j) 2 + Bl (3, j) 2 } 1/2
Bl ′ (3, j) = Bl (3, j) · V / {Al (3, j) 2 + Bl (3, j) 2 } 1/2

上記のように、周波数成分が小さい場合に情報を埋め込んだ場合であっても、抽出側の、音響信号からの情報の抽出装置の構成は図7と同一であり、処理動作は図8〜図11のフローチャートに従ったものと同一である。   As described above, even when information is embedded when the frequency component is small, the configuration of the extraction device for extracting information from the acoustic signal on the extraction side is the same as that in FIG. 7, and the processing operation is shown in FIGS. 11 is the same as that according to the flowchart of FIG.

(2.第2の実施形態)
次に、第2の実施形態について説明する。第2の実施形態では、図15に示すように、音響フレームの変更対象周波数帯の成分を4つの状態に変更し、2ビットの情報を埋め込むことを特徴とする。
(2. Second Embodiment)
Next, a second embodiment will be described. As shown in FIG. 15, the second embodiment is characterized in that the components of the frequency band to be changed in the acoustic frame are changed to four states and 2-bit information is embedded.

図15に示す各音響フレームにおいても、図1と同様、横軸は時間方向、縦軸は周波数方向を示している。また、網掛けされた部分は、周波数成分が存在している部分を示し、網掛けが濃いほど成分強度が強いことを示している。図15においても、図1と同様、所定周波数範囲(変更対象周波数帯)はF1以上F2以下に設定されているが、図15においては、変更対象周波数帯がF1とF2の中間において2つに区分されている。したがって、図15に示すように、縦軸の周波数方向において、周波数領域が4つに区分されている。   Also in each acoustic frame shown in FIG. 15, the horizontal axis indicates the time direction and the vertical axis indicates the frequency direction, as in FIG. A shaded portion indicates a portion where a frequency component exists, and the darker the shade, the stronger the component strength. Also in FIG. 15, the predetermined frequency range (change target frequency band) is set to F1 or more and F2 or less as in FIG. 1, but in FIG. 15, the change target frequency band is two in the middle of F1 and F2. It is divided. Therefore, as shown in FIG. 15, the frequency domain is divided into four in the frequency direction of the vertical axis.

本実施形態で、符号1、符号2を埋め込む場合は、図15(b)(c)に示すように、図1(b)(c)に示した第1の実施形態と同様に処理が行われる。   In the present embodiment, when embedding reference numerals 1 and 2, as shown in FIGS. 15B and 15C, processing is performed in the same manner as in the first embodiment shown in FIGS. Is called.

符号3を埋め込む場合、図15(d)に示すように、L-chの信号の前部の上位周波数成分と後部の下位周波数成分を除去し、除去した成分と同等の成分をR-chの信号に加算する。また、L-chの信号の変更対象周波数帯の下位周波数成分と後部の上位周波数成分の強度を高め、R-chの信号の対応する各スペクトル集合の強度を弱めている。この状態を“状態3”と呼ぶことにする。符号4を埋め込む場合は、図15(e)に示すように、L-chの信号の変更対象周波数帯の前部の下位周波数成分と後部の上位周波数成分を除去し、除去した成分と同等の成分をR-chの信号に加算する。また、L-chの信号の変更対象周波数帯の前部の上位周波数成分と後部の下位周波数成分の強度を高め、R-chの信号の対応する各スペクトル集合の強度を弱めている。この状態を“状態4”と呼ぶことにする。   When the code 3 is embedded, as shown in FIG. 15D, the front upper frequency component and the rear lower frequency component of the L-ch signal are removed, and a component equivalent to the removed component is removed from the R-ch. Add to signal. Further, the intensity of the lower frequency component and rear upper frequency component of the change target frequency band of the L-ch signal is increased, and the intensity of each spectrum set corresponding to the R-ch signal is decreased. This state is referred to as “state 3”. When embedding the code 4, as shown in FIG. 15 (e), the lower frequency component in the front part and the higher frequency component in the rear part of the frequency band to be changed of the L-ch signal are removed, and it is equivalent to the removed component. The component is added to the R-ch signal. Further, the intensity of the upper frequency component in the front part and the lower frequency component in the rear part of the change target frequency band of the L-ch signal is increased, and the intensity of each spectrum set corresponding to the R-ch signal is weakened. This state is called “state 4”.

本発明では、図15(b)〜(e)に示すような4つの状態に変更対象周波数帯の成分を変更することにより、情報の埋め込みを行っている。4つの状態を埋め込むことができるので、2ビット分の情報量に相当する。   In the present invention, information is embedded by changing the components of the frequency band to be changed to four states as shown in FIGS. Since four states can be embedded, this corresponds to an information amount of 2 bits.

(2.1.埋め込み装置)
第2の実施形態においても、埋め込み装置の構成は図2に示したものと同様であるが、主に周波数成分変更手段30の内容が異なっている。具体的には、周波数成分変更手段30は、Aタイプの音響フレームについて、ビット配列作成手段70が作成したビット配列に応じて、変更対象周波数帯の成分の割合を変更する処理を行うが、第2の実施形態では、ビット配列を2ビットずつ読み込み、1音響フレームに対して2ビットの情報を埋め込む。埋め込まれる2ビットの値は、“00”“01”“10”“11”の4通りがある。本実施形態では、これらを値1〜値4と定義する。この際、“00”〜“11”の4通りのうち、いずれを値1〜値4と定義しても良い。抽出側において、埋め込み側で埋め込まれた2ビットの配列が特定できれば良いためである。したがって、この定義は、埋め込み側と抽出側で一致している必要がある。
(2.1. Embedded device)
Also in the second embodiment, the configuration of the embedding device is the same as that shown in FIG. 2, but the contents of the frequency component changing means 30 are mainly different. Specifically, the frequency component changing unit 30 performs a process for changing the ratio of the components of the change target frequency band according to the bit arrangement created by the bit arrangement creating unit 70 for the A type acoustic frame. In the second embodiment, the bit array is read two bits at a time, and 2-bit information is embedded in one acoustic frame. There are four embedded 2-bit values: “00”, “01”, “10”, and “11”. In the present embodiment, these are defined as value 1 to value 4. At this time, any one of four values “00” to “11” may be defined as a value 1 to a value 4. This is because the extraction side only needs to be able to specify the 2-bit array embedded on the embedding side. Therefore, this definition must match between the embedding side and the extraction side.

そして、周波数成分変更手段30は、この値1〜値4に応じて、周波数成分を状態1〜状態4のいずれかに変更する。   Then, the frequency component changing unit 30 changes the frequency component to any one of the state 1 to the state 4 according to the value 1 to the value 4.

埋め込むべき2ビットが“値1”である場合、第1の実施形態と同様、上記〔数式7〕に従った処理を実行することにより、変更対象周波数帯の成分の状態を“状態1”、すなわち、図15(b)に示したような状態に変更する。   When the two bits to be embedded are “value 1”, the state of the component of the frequency band to be changed is changed to “state 1” by executing the processing according to [Formula 7] as in the first embodiment. That is, the state is changed to the state shown in FIG.

埋め込むべき2ビットが“値2”である場合は、上記〔数式8〕に従った処理を実行することにより、変更対象周波数帯の成分の状態を“状態2” 、すなわち、図15(c)に示したような状態に変更する。   When the 2 bits to be embedded are “value 2”, the processing according to the above [Equation 8] is executed to change the state of the component of the frequency band to be changed to “state 2”, that is, FIG. Change to the state shown in.

埋め込むべき2ビットが“値3”である場合、以下の〔数式18〕に従った処理を実行することにより、変更対象周波数帯の成分の状態を“状態3” 、すなわち、図15(d)に示したような状態に変更する。   When 2 bits to be embedded are “value 3”, the state of the component of the frequency band to be changed is changed to “state 3”, that is, FIG. Change to the state shown in.

〔数式18〕
j=m〜m+P−1の各成分に対して
Al´(3,j)=0
Bl´(3,j)=0
E(3,j)={Al(3,j)2+Bl(3,j)2+Ar(3,j)2+Br(3,j)21/2
Ar´(3,j)=Ar(3,j)・E(3,j)/{Ar(3,j)2+Br(3,j)21/2
Br´(3,j)=Br(3,j)・E(3,j)/{Ar(3,j)2+Br(3,j)21/2
j=m+P〜M−1の各成分に対して
Al´(1,j)=0
Bl´(1,j)=0
E(1,j)={Al(1,j)2+Bl(1,j)2+Ar(1,j)2+Br(1,j)21/2
Ar´(1,j)=Ar(1,j)・E(1,j)/{Ar(1,j)2+Br(1,j)21/2
Br´(1,j)=Br(1,j)・E(1,j)/{Ar(1,j)2+Br(1,j)21/2
j=m〜m+P−1の各成分に対して
E(1,j)={Al(1,j)2+Bl(1,j)2+Ar(1,j)2+Br(1,j)21/2
Al´(1,j)=Al(1,j)・E(1,j)/{Al(1,j)2+Bl(1,j)21/2
Bl´(1,j)=Bl(1,j)・E(1,j)/{Al(1,j)2+Bl(1,j)21/2
Ar´(1,j)=0
Br´(1,j)=0
j=m+P〜M−1の各成分に対して
E(3,j)={Al(3,j)2+Bl(3,j)2+Ar(3,j)2+Br(3,j)21/2
Al´(3,j)=Al(3,j)・E(3,j)/{Al(3,j)2+Bl(3,j)21/2
Bl´(3,j)=Bl(3,j)・E(3,j)/{Al(3,j)2+Bl(3,j)21/2
Ar´(3,j)=0
Br´(3,j)=0
j=m〜M−1の各成分に対して
Al´(2,j)=0
Bl´(2,j)=0
E(2,j)={Al(2,j)2+Bl(2,j)2+Ar(2,j)2+Br(2,j)21/2
Ar´(2,j)=Ar(2,j)・E(2,j)/{Ar(2,j)2+Br(2,j)21/2
Br´(2,j)=Br(2,j)・E(2,j)/{Ar(2,j)2+Br(2,j)21/2
[Formula 18]
For each component of j = m to m + P−1, Al ′ (3, j) = 0
Bl ′ (3, j) = 0
E (3, j) = {Al (3, j) 2 + B1 (3, j) 2 + Ar (3, j) 2 + Br (3, j) 2 } 1/2
Ar ′ (3, j) = Ar (3, j) · E (3, j) / {Ar (3, j) 2 + Br (3, j) 2 } 1/2
Br ′ (3, j) = Br (3, j) · E (3, j) / {Ar (3, j) 2 + Br (3, j) 2 } 1/2
For each component of j = m + P to M−1, Al ′ (1, j) = 0
Bl ′ (1, j) = 0
E (1, j) = {Al (1, j) 2 + Bl (1, j) 2 + Ar (1, j) 2 + Br (1, j) 2 } 1/2
Ar ′ (1, j) = Ar (1, j) · E (1, j) / {Ar (1, j) 2 + Br (1, j) 2 } 1/2
Br ′ (1, j) = Br (1, j) · E (1, j) / {Ar (1, j) 2 + Br (1, j) 2 } 1/2
For each component of j = m to m + P−1, E (1, j) = {Al (1, j) 2 + Bl (1, j) 2 + Ar (1, j) 2 + Br (1, j) 2 } 1/2
Al ′ (1, j) = Al (1, j) · E (1, j) / {Al (1, j) 2 + Bl (1, j) 2 } 1/2
Bl ′ (1, j) = Bl (1, j) · E (1, j) / {Al (1, j) 2 + Bl (1, j) 2 } 1/2
Ar ′ (1, j) = 0
Br ′ (1, j) = 0
For each component of j = m + P to M−1, E (3, j) = {Al (3, j) 2 + Bl (3, j) 2 + Ar (3, j) 2 + Br (3, j) 2 } 1/2
Al ′ (3, j) = Al (3, j) · E (3, j) / {Al (3, j) 2 + Bl (3, j) 2 } 1/2
Bl ′ (3, j) = B1 (3, j) · E (3, j) / {Al (3, j) 2 + Bl (3, j) 2 } 1/2
Ar ′ (3, j) = 0
Br ′ (3, j) = 0
For each component of j = m to M−1, Al ′ (2, j) = 0
Bl ′ (2, j) = 0
E (2, j) = {Al (2, j) 2 + Bl (2, j) 2 + Ar (2, j) 2 + Br (2, j) 2 } 1/2
Ar ′ (2, j) = Ar (2, j) · E (2, j) / {Ar (2, j) 2 + Br (2, j) 2 } 1/2
Br ′ (2, j) = Br (2, j) · E (2, j) / {Ar (2, j) 2 + Br (2, j) 2 } 1/2

上記〔数式18〕において登場するPは、第1の実施形態と同様、所定周波数帯の成分数を示すが、その値は第1の実施形態と異なり、P=(M−m)/2である。上記〔数式18〕においては、j=m〜m+P−1においてAl´(3,j)、Bl´(3,j)を共に0とし、j=m+P〜M−1においてAl´(1,j)、Bl´(1,j)を共に0としている。これは、図15(d)の上段に示すように、L-chにおいて、SP3D、SP1U内の各成分を0にすることを示しているが、“状態3”はSP3U、SP1Dとの差を明確にすることができれば十分であるため、必ずしも0にする必要はなく、小さな値であれば良い。埋め込むべき2ビットが“値4”である場合、以下の〔数式19〕に従った処理を実行することにより、変更対象周波数帯の成分の状態を“状態4” 、すなわち、図15(e)に示したような状態に変更する。   P appearing in the above [Formula 18] indicates the number of components in the predetermined frequency band as in the first embodiment, but the value is P = (M−m) / 2 unlike the first embodiment. is there. In the above [Formula 18], Al ′ (3, j) and Bl ′ (3, j) are both 0 at j = m to m + P−1, and Al ′ (1, j at j = m + P to M−1. ), Bl ′ (1, j) are both 0. This indicates that each component in SP3D and SP1U is set to 0 in L-ch as shown in the upper part of FIG. 15D, but “state 3” indicates the difference from SP3U and SP1D. Since it is sufficient if it can be clarified, it is not always necessary to set it to 0, and a small value is sufficient. When 2 bits to be embedded are “value 4”, the state of the component of the frequency band to be changed is changed to “state 4” by executing the processing according to the following [Equation 19], that is, FIG. Change to the state shown in.

〔数式19〕
j=m〜m+P−1の各成分に対して
Al´(1,j)=0
Bl´(1,j)=0
E(1,j)={Al(1,j)2+Bl(1,j)2+Ar(1,j)2+Br(1,j)21/2
Ar´(1,j)=Ar(1,j)・E(1,j)/{Ar(1,j)2+Br(1,j)21/2
Br´(1,j)=Br(1,j)・E(1,j)/{Ar(1,j)2+Br(1,j)21/2
j=m+P〜M−1の各成分に対して
Al´(3,j)=0
Bl´(3,j)=0
E(3,j)={Al(3,j)2+Bl(3,j)2+Ar(3,j)2+Br(3,j)21/2
Ar´(3,j)=Ar(3,j)・E(3,j)/{Ar(3,j)2+Br(3,j)21/2
Br´(3,j)=Br(3,j)・E(3,j)/{Ar(3,j)2+Br(3,j)21/2
j=m〜m+P−1の各成分に対して
E(3,j)={Al(3,j)2+Bl(3,j)2+Ar(3,j)2+Br(3,j)21/2
Al´(3,j)=Al(3,j)・E(3,j)/{Al(3,j)2+Bl(3,j)21/2
Bl´(3,j)=Bl(3,j)・E(3,j)/{Al(3,j)2+Bl(3,j)21/2
Ar´(3,j)=0
Br´(3,j)=0
j=m+P〜M−1の各成分に対して
E(1,j)={Al(1,j)2+Bl(1,j)2+Ar(1,j)2+Br(1,j)21/2
Al´(1,j)=Al(1,j)・E(1,j)/{Al(1,j)2+Bl(1,j)21/2
Bl´(1,j)=Bl(1,j)・E(1,j)/{Al(1,j)2+Bl(1,j)21/2
Ar´(1,j)=0
Br´(1,j)=0
j=m〜M−1の各成分に対して
Al´(2,j)=0
Bl´(2,j)=0
E(2,j)={Al(2,j)2+Bl(2,j)2+Ar(2,j)2+Br(2,j)21/2
Ar´(2,j)=Ar(2,j)・E(2,j)/{Ar(2,j)2+Br(2,j)21/2
Br´(2,j)=Br(2,j)・E(2,j)/{Ar(2,j)2+Br(2,j)21/2
[Formula 19]
For each component of j = m to m + P−1, Al ′ (1, j) = 0
Bl ′ (1, j) = 0
E (1, j) = {Al (1, j) 2 + Bl (1, j) 2 + Ar (1, j) 2 + Br (1, j) 2 } 1/2
Ar ′ (1, j) = Ar (1, j) · E (1, j) / {Ar (1, j) 2 + Br (1, j) 2 } 1/2
Br ′ (1, j) = Br (1, j) · E (1, j) / {Ar (1, j) 2 + Br (1, j) 2 } 1/2
For each component of j = m + P to M−1, Al ′ (3, j) = 0
Bl ′ (3, j) = 0
E (3, j) = {Al (3, j) 2 + B1 (3, j) 2 + Ar (3, j) 2 + Br (3, j) 2 } 1/2
Ar ′ (3, j) = Ar (3, j) · E (3, j) / {Ar (3, j) 2 + Br (3, j) 2 } 1/2
Br ′ (3, j) = Br (3, j) · E (3, j) / {Ar (3, j) 2 + Br (3, j) 2 } 1/2
For each component of j = m to m + P-1, E (3, j) = {Al (3, j) 2 + B1 (3, j) 2 + Ar (3, j) 2 + Br (3, j) 2 } 1/2
Al ′ (3, j) = Al (3, j) · E (3, j) / {Al (3, j) 2 + Bl (3, j) 2 } 1/2
Bl ′ (3, j) = B1 (3, j) · E (3, j) / {Al (3, j) 2 + Bl (3, j) 2 } 1/2
Ar ′ (3, j) = 0
Br ′ (3, j) = 0
For each component of j = m + P to M−1, E (1, j) = {Al (1, j) 2 + Bl (1, j) 2 + Ar (1, j) 2 + Br (1, j) 2 } 1/2
Al ′ (1, j) = Al (1, j) · E (1, j) / {Al (1, j) 2 + Bl (1, j) 2 } 1/2
Bl ′ (1, j) = Bl (1, j) · E (1, j) / {Al (1, j) 2 + Bl (1, j) 2 } 1/2
Ar ′ (1, j) = 0
Br ′ (1, j) = 0
For each component of j = m to M−1, Al ′ (2, j) = 0
Bl ′ (2, j) = 0
E (2, j) = {Al (2, j) 2 + Bl (2, j) 2 + Ar (2, j) 2 + Br (2, j) 2 } 1/2
Ar ′ (2, j) = Ar (2, j) · E (2, j) / {Ar (2, j) 2 + Br (2, j) 2 } 1/2
Br ′ (2, j) = Br (2, j) · E (2, j) / {Ar (2, j) 2 + Br (2, j) 2 } 1/2

上記〔数式19〕においては、j=m〜m+P−1においてAl´(1,j)、Bl´(1,j)を共に0とし、j=m+P〜M−1においてAl´(3,j)、Bl´(3,j)を共に0としている。これは、図15(e)の上段に示すように、L-chにおいて、SP1D、SP3U内の各成分を0にすることを示しているが、“状態4”はSP3D、SP1Uとの差を明確にすることができれば十分であるため、必ずしも0にする必要はなく、小さな値であれば良い。   In the above [Equation 19], Al ′ (1, j) and Bl ′ (1, j) are both 0 at j = m to m + P−1, and Al ′ (3, j at j = m + P to M−1. ), Bl ′ (3, j) are both 0. This indicates that each component in SP1D and SP3U is set to 0 in L-ch as shown in the upper part of FIG. 15E, but “state 4” indicates a difference from SP3D and SP1U. Since it is sufficient if it can be clarified, it is not always necessary to set it to 0, and a small value is sufficient.

また、第2の実施形態においても第1の実施形態と同様、周波数成分変更手段30は、Bタイプの音響フレームについては、上記〔数式9〕に従った処理を実行し、常にその変更対象周波数帯の成分を除去する。周波数成分変更手段30により上記のような処理が行われたら、周波数逆変換手段40、改変音響フレーム出力手段50については、第1の実施形態と同様の処理が行われる。   Also in the second embodiment, as in the first embodiment, the frequency component changing means 30 executes the process according to the above [Equation 9] for the B type sound frame, and always changes the frequency to be changed. Remove strip components. When the processing as described above is performed by the frequency component changing unit 30, the frequency inverse converting unit 40 and the modified acoustic frame output unit 50 are subjected to the same processing as in the first embodiment.

第2の実施形態における音響信号に対する情報の埋め込み装置の処理の全体的な流れについては、第1の実施形態と基本的には同じであるが、図5のフローチャートにおいて、S102のレジスタからの読み込みが2ビット単位である点、S104で状態1〜状態4のいずれかに設定する点で異なっている。   The overall flow of the processing of the information embedding device for the acoustic signal in the second embodiment is basically the same as that in the first embodiment, but in the flowchart of FIG. 5, reading from the register in S102 is performed. Is in units of 2 bits, and is different in that it is set to any one of states 1 to 4 in S104.

(2.2.抽出装置)
第2の実施形態においても、抽出装置の構成は図7に示したものと同様であるが、主に符号判定パラメータ算出手段140の内容が異なっている。具体的には、符号判定パラメータ算出手段140は、生成されたフレームスペクトルから所定周波数範囲に相当する各周波数強度データを抽出し、各成分に対応した各周波数強度データの強度値EC1〜EC4を以下の〔数式20〕に基づいて算出し、この強度値EC1〜EC4を符号判定パラメータとし、この符号判定パラメータEC1〜EC4の比率等に基づいて、所定の状態であると判断する機能を有している。
(2.2. Extraction device)
Also in the second embodiment, the configuration of the extraction apparatus is the same as that shown in FIG. 7, but the contents of the sign determination parameter calculation means 140 are mainly different. Specifically, the code determination parameter calculation means 140 extracts each frequency intensity data corresponding to a predetermined frequency range from the generated frame spectrum, and the intensity values E C1 to E C4 of each frequency intensity data corresponding to each component. Is calculated based on the following [Equation 20], and the intensity values E C1 to E C4 are used as code determination parameters, and a predetermined state is determined based on the ratio of the code determination parameters E C1 to E C4. It has a function to do.

〔数式20〕
C1=Σj=m,…,m+P-1{Al(1,j)2+Bl(1,j)2}・F(j−m)・(αj)2
C2=Σj=m,…,m+P-1{Al(3,j)2+Bl(3,j)2}・F(j−m)・(αj)2
C3=Σj=m+P,…,M-1{Al(1,j)2+Bl(1,j)2}・F(j−m−P)・(αj)2
C4=Σj=m+P,…,M-1{Al(3,j)2+Bl(3,j)2}・F(j−m−P)・(αj)2
[Formula 20]
E C1 = Σ j = m,..., M + P-1 {Al (1, j) 2 + Bl (1, j) 2 } · F (j−m) · (αj) 2
E C2 = Σ j = m,..., M + P-1 {Al (3, j) 2 + Bl (3, j) 2 } · F (j−m) · (αj) 2
E C3 = Σ j = m + P,..., M−1 {Al (1, j) 2 + Bl (1, j) 2 } · F (j−m−P) · (αj) 2
E C4 = Σ j = m + P,..., M−1 {Al (3, j) 2 + Bl (3, j) 2 } · F (j−m−P) · (αj) 2

第2の実施形態における音響信号からの情報の抽出装置の処理の全体的な流れについては、第1の実施形態と基本的には同じであるが、図8のフローチャートにおいて、S202から値1〜値4が出力される点、S204においてビットカウンタに2だけ加算される点が異なっている。   The overall processing flow of the apparatus for extracting information from an acoustic signal in the second embodiment is basically the same as that in the first embodiment, but in the flowchart of FIG. The difference is that the value 4 is output and that 2 is added to the bit counter in S204.

また、ステップS202の位相確定および符号出力についても、第1の実施形態と同様、図9、図10のフローチャートに従って行われる。ただし、図10のS402〜S404の処理は、第1の実施形態とは異なっているので、以下に説明する。   Further, the phase determination and the code output in step S202 are performed according to the flowcharts of FIGS. 9 and 10 as in the first embodiment. However, the processing of S402 to S404 in FIG. 10 is different from that of the first embodiment, and will be described below.

第2の実施形態では、周波数成分の状態判定において、符号判定パラメータ算出手段140は、強度値EC1〜強度値EC4を用いて、周波数成分の状態がどのような状態であるか、すなわち、2ビットの値としてどのような値が埋め込まれていたかを判断する処理を行う(S402)。具体的には、以下の〔条件1〕〜〔条件4〕に従って判定処理を実行し、対応する状態であったと判断し、対応する2ビットの値を出力する。 In the second embodiment, in the frequency component state determination, the sign determination parameter calculation unit 140 uses the intensity value E C1 to the intensity value E C4 to determine the state of the frequency component, that is, A process of determining what value is embedded as a 2-bit value is performed (S402). Specifically, the determination processing is executed according to the following [Condition 1] to [Condition 4], it is determined that the corresponding state is satisfied, and the corresponding 2-bit value is output.

〔条件1〕
C1>EC2かつEC3>EC4の場合、“状態1”であると判断し、値1を出力する。
[Condition 1]
If E C1 > E C2 and E C3 > E C4 , it is determined that the state is “1” and a value of 1 is output.

〔条件2〕
C2>EC1かつEC4>EC3の場合、“状態2”であると判断し、値2を出力する。
[Condition 2]
If E C2 > E C1 and E C4 > E C3 , it is determined that the state is “2”, and a value of 2 is output.

〔条件3〕
C1>EC2かつEC4>EC3の場合、“状態3”であると判断し、値3を出力する。
[Condition 3]
If E C1 > E C2 and E C4 > E C3 , it is determined that “state 3”, and value 3 is output.

〔条件4〕
〔条件1〕〜〔条件3〕のいずれにも該当しない場合、“状態4”であると判断し、値4を出力する。
[Condition 4]
If none of [Condition 1] to [Condition 3] is satisfied, it is determined that the state is “state 4”, and a value of 4 is output.

そして、符号判定パラメータ算出手段140は、各音響フレーム単位で、上記判定結果に応じて値1〜値4のいずれかを設定する(S403)。   And the code | symbol determination parameter calculation means 140 sets either the value 1-the value 4 according to the said determination result for each acoustic frame unit (S403).

また、上記判定の結果、値1〜値4のいずれかを設定した場合には、さらに、以下の〔数式21〕に従って位相判定テーブルS(p)の更新を行う(S404)。   If any of the values 1 to 4 is set as a result of the determination, the phase determination table S (p) is further updated according to the following [Equation 21] (S404).

〔数式21〕
“状態1”であると判断し、値1を出力した場合、S(p)←S(p)+EC1+EC3
“状態2”であると判断し、値2を出力した場合、S(p)←S(p)+EC2+EC4
“状態3”であると判断し、値3を出力した場合、S(p)←S(p)+EC1+EC4
“状態4”であると判断し、値4を出力した場合、S(p)←S(p)+EC2+EC3
[Formula 21]
When it is determined that the state is “1” and the value 1 is output, S (p) ← S (p) + E C1 + E C3
When it is determined that the state is “2” and the value 2 is output, S (p) ← S (p) + E C2 + E C4
When it is determined that the state is “3” and the value 3 is output, S (p) ← S (p) + E C1 + E C4
When it is determined that the state is “state 4” and the value 4 is output, S (p) ← S (p) + E C2 + E C3

図9においては、符号判定パラメータ算出手段140は、候補符号テーブルに、最適位相となる候補を保存する(S304)。具体的には、位相判定テーブルに記録されているS(p)の値が最大となる位相番号pの値、前記S407、S408により判定された4値のいずれかの符号、その音響フレームについての上記〔数式20〕に従った処理を実行することにより算出した、変更対象周波数帯の成分に対応する各EC1〜EC4の値を最適位相の候補として候補符号テーブルに保存する。 In FIG. 9, the code determination parameter calculation unit 140 stores a candidate for the optimum phase in the candidate code table (S304). Specifically, the value of the phase number p that maximizes the value of S (p) recorded in the phase determination table, the code of any of the four values determined in S407 and S408, and the sound frame The values of E C1 to E C4 corresponding to the components of the frequency band to be changed, which are calculated by executing the process according to the above [Equation 20], are stored in the candidate code table as optimum phase candidates.

続いて、全ての位相番号pに対応する処理を終えたかどうかを判定する(S305)。これは、ある基準フレームに対して全ての位相変更フレームの処理を行ったかどうかを判定している。本実施形態では、pが0〜5までの値をとるので、6回分処理していない場合は、処理していた音響フレームから所定サンプル数ずらして、位相の異なる音響フレームを設定し、S302に戻って処理を繰り返す。なお、p=0の場合が基準フレームであり、p=1〜5の場合が位相変更フレームである。全ての位相番号pに対応する処理を終えた場合は、候補保存テーブルに記録されている位相番号pに対応する位相が最適位相であると判定し、候補保存テーブルに記録されている符号を出力する(S306)。   Subsequently, it is determined whether or not the processing corresponding to all the phase numbers p has been completed (S305). This determines whether all phase change frames have been processed for a certain reference frame. In this embodiment, since p takes a value from 0 to 5, if the processing is not performed six times, an acoustic frame having a different phase is set by shifting a predetermined number of samples from the acoustic frame being processed. Return and repeat the process. The case where p = 0 is a reference frame, and the case where p = 1 to 5 is a phase change frame. When the processing corresponding to all the phase numbers p is completed, it is determined that the phase corresponding to the phase number p recorded in the candidate storage table is the optimum phase, and the code recorded in the candidate storage table is output. (S306).

図8において、パリティ検査の結果、合格の場合には、付加情報抽出手段160が、前7ビットに1ビット付加して出力する(S208)。ここで、検査結果が合格の場合は、照合に用いた8ビット目が誤り検出ビットであった可能性が高いことになる。そうすると、その前の7ビットは元の付加情報における7ビットであると考えられる。このため、その先頭からの7ビットにビット0を付加することによりASCIIコードにおける1ワードとして出力するのである。逆に不合格である場合は、照合に用いた8ビット目が誤り検出ビットでない可能性が高いことになる。そうすると、その時点で保持している7ビットは、元の付加情報における7ビットからずれたものであると考えられる。この場合は、先頭の2ビットを破棄して、S201に戻って新たな2ビットを得るための処理を行う。   In FIG. 8, if the parity check results in pass, the additional information extraction unit 160 adds 1 bit to the previous 7 bits and outputs (S208). Here, if the inspection result is acceptable, there is a high possibility that the eighth bit used for collation was an error detection bit. Then, the previous 7 bits are considered to be 7 bits in the original additional information. Therefore, by adding bit 0 to the 7 bits from the head, it is output as one word in the ASCII code. On the other hand, if it is unacceptable, there is a high possibility that the eighth bit used for collation is not an error detection bit. Then, it is considered that the 7 bits held at that time are shifted from the 7 bits in the original additional information. In this case, the first 2 bits are discarded, and the process returns to S201 to obtain new 2 bits.

上記S208の処理において、付加情報抽出手段160は、付加情報抽出手段160は、符号判定パラメータ算出手段140が判定し、符号出力手段150から出力される符号から得られるビット値の配列を1バイト(8ビット)単位で認識し、これをASCIIコードに従って文字情報を認識し、表示装置(図示省略)の画面に表示出力する。   In the processing of S208, the additional information extraction unit 160 determines that the additional information extraction unit 160 determines the bit value array obtained from the code determined by the code determination parameter calculation unit 140 and output from the code output unit 150 by 1 byte ( It is recognized in units of 8 bits), character information is recognized according to the ASCII code, and displayed on a screen of a display device (not shown).

(2.3.信号成分が小さくても情報の埋め込みを確実に行う手法)
上記の処理は、変更対象周波数帯の信号成分がいずれの大きさであっても実行されるが、元の信号成分が存在しないか、または小さすぎる場合には、抽出に必要な信号成分が得られないため、情報の抽出を適切に行うことができず抽出エラーとなる。そこで、元の信号の変更対象周波数帯の成分が小さくても、情報の抽出を適切に行えるように信号の埋め込みを可能とする手法について説明する。
(2.3. Method for reliably embedding information even if the signal component is small)
The above processing is executed regardless of the magnitude of the signal component of the frequency band to be changed, but if the original signal component does not exist or is too small, the signal component necessary for extraction is obtained. Therefore, information cannot be properly extracted, resulting in an extraction error. Therefore, a method for enabling signal embedding so that information can be appropriately extracted even when the frequency band component of the original signal is small will be described.

この場合、図2に示した埋め込み装置における情報の埋め込み処理も、図5のフローチャートに従って行われる。   In this case, the information embedding process in the embedding apparatus shown in FIG. 2 is also performed according to the flowchart of FIG.

したがって、S104における状態1〜状態4に設定する処理としては、まず、上記〔数式15〕に従って算出される固定値Vを、変更対象周波数帯の成分の強度として設定する。   Therefore, as a process for setting the state 1 to the state 4 in S104, first, the fixed value V calculated according to the above [Equation 15] is set as the intensity of the component of the change target frequency band.

そして、状態1とする場合は、上記〔数式7〕におけるAl´(1,j)、Bl´(1,j)の算出を、上記〔数式16〕に従った処理により実行する。   When the state 1 is set, the calculation of Al ′ (1, j) and Bl ′ (1, j) in the above [Formula 7] is executed by the processing according to the above [Formula 16].

状態2とする場合は、上記〔数式8〕におけるAl´(3,j)、Bl´(3,j)の算出を、上記〔数式17〕に従った処理により実行する。   In the case of the state 2, the calculation of Al ′ (3, j) and Bl ′ (3, j) in the above [Equation 8] is executed by the processing according to the above [Equation 17].

状態3とする場合は、上記〔数式18〕におけるj=m〜m+P−1のAl´(1,j)、Bl´(1,j)の算出、j=m+P〜M−1のAl´(3,j)、Bl´(3,j)の算出を、以下の〔数式22〕に従った処理により実行する。   In the case of the state 3, the calculation of Al = (j), Bl ′ (1, j) of j = m to m + P−1 in the above [Formula 18], Al ′ of j = m + P to M−1 ( 3, j) and Bl ′ (3, j) are calculated by processing according to the following [Equation 22].

〔数式22〕
j=m〜m+P−1の各成分に対して
Al´(1,j)=Al(1,j)・V/{Al(1,j)2+Bl(1,j)21/2
Bl´(1,j)=Bl(1,j)・V/{Al(1,j)2+Bl(1,j)21/2
j=m+P〜M−1の各成分に対して
Al´(3,j)=Al(3,j)・V/{Al(3,j)2+Bl(3,j)21/2
Bl´(3,j)=Bl(3,j)・V/{Al(3,j)2+Bl(3,j)21/2
[Formula 22]
For each component of j = m to m + P−1, Al ′ (1, j) = Al (1, j) · V / {Al (1, j) 2 + Bl (1, j) 2 } 1/2
Bl ′ (1, j) = Bl (1, j) · V / {Al (1, j) 2 + Bl (1, j) 2 } 1/2
For each component of j = m + P to M−1, Al ′ (3, j) = Al (3, j) · V / {Al (3, j) 2 + Bl (3, j) 2 } 1/2
Bl ′ (3, j) = Bl (3, j) · V / {Al (3, j) 2 + Bl (3, j) 2 } 1/2

状態4とする場合は、上記〔数式19〕におけるj=m〜m+P−1のAl´(3,j)、Bl´(3,j)の算出、j=m+P〜M−1のAl´(1,j)、Bl´(1,j)の算出を、以下の〔数式23〕に従った処理により実行する。   In the case of the state 4, Al = (j) of j = m to m + P−1 and calculation of Bl ′ (3, j) in the above [Equation 19], Al ′ of j = m + P to M−1 ( 1, j), Bl ′ (1, j) are calculated by processing according to the following [Equation 23].

〔数式23〕
j=m〜m+P−1の各成分に対して
Al´(3,j)=Al(3,j)・V/{Al(3,j)2+Bl(3,j)21/2
Bl´(3,j)=Bl(3,j)・V/{Al(3,j)2+Bl(3,j)21/2
j=m+P〜M−1の各成分に対して
Al´(1,j)=Al(1,j)・V/{Al(1,j)2+Bl(1,j)21/2
Bl´(1,j)=Bl(1,j)・V/{Al(1,j)2+Bl(1,j)21/2
[Formula 23]
For each component of j = m to m + P−1, Al ′ (3, j) = Al (3, j) · V / {Al (3, j) 2 + Bl (3, j) 2 } 1/2
Bl ′ (3, j) = Bl (3, j) · V / {Al (3, j) 2 + Bl (3, j) 2 } 1/2
For each component of j = m + P to M−1, Al ′ (1, j) = Al (1, j) · V / {Al (1, j) 2 + Bl (1, j) 2 } 1/2
Bl ′ (1, j) = Bl (1, j) · V / {Al (1, j) 2 + Bl (1, j) 2 } 1/2

(3.その他)
以上、本発明の好適な実施形態について限定したが、本発明は上記実施形態に限定されず、種々の変形が可能である。例えば、上記実施形態では、1音響フレームのサンプル数N=4096としたが、N=2048、1024、512等を設定するようにしても良い。これにより、同一時間あたりの音響フレーム数が、2倍、4倍、8倍となり、全体として2〜8倍の情報の埋め込みが可能となる。
(3. Other)
As mentioned above, although it limited about the suitable embodiment of the present invention, the present invention is not limited to the above-mentioned embodiment, and various modifications are possible. For example, in the above embodiment, the number of samples of one acoustic frame is N = 4096, but N = 2048, 1024, 512, etc. may be set. As a result, the number of sound frames per same time is doubled, quadrupled, and quadrupled, and 2 to 8 times of information can be embedded as a whole.

また、上記実施形態では、後半ビット列の各ビットを隣接する奇数番目と偶数番目のビットの順序を入れ替えるようにしたが、必ずしもこのようにする必要はなく、抽出側との取り決めがなされていれば、他の何らかの規則で順序を入れ替えるようにしても良い。   In the above embodiment, the order of adjacent odd-numbered bits and even-numbered bits in each bit of the latter half bit string is changed. However, this is not always necessary, and if the arrangement with the extraction side is made. The order may be changed according to some other rule.

また、上記実施形態では、音響信号からの情報の抽出装置を、携帯電話機等の携帯型端末装置単体で実現した場合を例にとって説明したが、他のコンピュータと連携して実現するようにしても良い。具体的には、携帯型端末装置と専用コンピュータを無線通信可能に接続し、音響信号入力手段100〜音響フレーム保持手段170の構成要素のうち、演算負荷の大きいものは、専用コンピュータで処理する。例えば、音響信号入力手段100、基準フレーム獲得手段110、位相変更フレーム設定手段120、付加情報抽出手段160を携帯型端末装置に備え、周波数変換手段130、符号判定パラメータ算出手段140、符号出力手段150、音響フレーム保持手段170を専用コンピュータに備えるようにして、必要な情報を両者間で通信するようにする。これにより、携帯型端末装置の処理性能が低い場合であっても高速な処理を行うことが可能となる。   In the above-described embodiment, the case where the device for extracting information from the acoustic signal is realized by a single mobile terminal device such as a mobile phone has been described as an example. However, the device may be realized in cooperation with other computers. good. Specifically, the portable terminal device and the dedicated computer are connected so as to be capable of wireless communication, and among the components of the acoustic signal input unit 100 to the acoustic frame holding unit 170, those having a large calculation load are processed by the dedicated computer. For example, the portable terminal device includes the acoustic signal input unit 100, the reference frame acquisition unit 110, the phase change frame setting unit 120, and the additional information extraction unit 160, and the frequency conversion unit 130, the code determination parameter calculation unit 140, and the code output unit 150. The sound frame holding means 170 is provided in a dedicated computer so that necessary information is communicated between the two. This makes it possible to perform high-speed processing even when the processing performance of the portable terminal device is low.

第1の実施形態における変更対象周波数帯の成分の変化の状態を示す図である。It is a figure which shows the state of a change of the component of the change object frequency band in 1st Embodiment. 音響信号に対する情報の埋め込み装置の機能ブロック図である。It is a functional block diagram of an information embedding device for an acoustic signal. 本発明で用いる時間方向窓関数を示す図である。It is a figure which shows the time direction window function used by this invention. 音響信号の周波数とエネルギー分布の関係を示す図である。It is a figure which shows the relationship between the frequency of an acoustic signal, and energy distribution. 図2に示した装置の処理概要を示すフローチャートである。It is a flowchart which shows the process outline | summary of the apparatus shown in FIG. ビット配列の作成の様子を示す図である。It is a figure which shows the mode of preparation of a bit arrangement | sequence. 本発明に係る音響信号からの情報の抽出装置の機能ブロック図である。1 is a functional block diagram of an apparatus for extracting information from an acoustic signal according to the present invention. 図7に示した装置の、エラー訂正を行わない設定における処理概要を示すフローチャートである。It is a flowchart which shows the process outline | summary in the setting which does not perform error correction of the apparatus shown in FIG. 図8のS202の位相確定および符号出力の詳細を示すフローチャートである。It is a flowchart which shows the detail of the phase determination and code | symbol output of S202 of FIG. 図9のS302の符号判定処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the code | symbol determination process of S302 of FIG. 図7に示した装置の、1ビットのエラー訂正をする設定における処理概要を示すフローチャートである。It is a flowchart which shows the process outline | summary in the setting which performs the error correction of 1 bit of the apparatus shown in FIG. 付加情報1ワードに相当する16ビット配列の適合およびパリティ検査を説明するための図である。It is a figure for demonstrating the conformity and parity check of a 16-bit arrangement | sequence equivalent to 1 word of additional information. 付加情報1ワードに相当する16ビット配列の適合およびパリティ検査を説明するための図である。It is a figure for demonstrating the conformity and parity check of a 16-bit arrangement | sequence equivalent to 1 word of additional information. 付加情報1ワードに相当する16ビット配列の適合およびパリティ検査を説明するための図である。It is a figure for demonstrating the conformity and parity check of a 16-bit arrangement | sequence equivalent to 1 word of additional information. 第2の実施形態における周波数成分の変化の状態を示す図である。It is a figure which shows the state of the change of the frequency component in 2nd Embodiment. 本発明で用いる周波数方向窓関数F(j)、補正関数を示す図である。It is a figure which shows the frequency direction window function F (j) used by this invention, and a correction function. 本発明で用いる周波数方向窓関数F(j)の詳細を示す図である。It is a figure which shows the detail of the frequency direction window function F (j) used by this invention.

符号の説明Explanation of symbols

10・・・音響フレーム読込手段
20・・・周波数変換手段
30・・・周波数成分変更手段
40・・・周波数逆変換手段
50・・・改変音響フレーム出力手段
60・・・記憶手段
61・・・音響信号記憶部
62・・・付加情報記憶部
63・・・改変音響信号記憶部
70・・・ビット配列作成手段
100・・・音響信号入力手段
110・・・基準フレーム獲得手段
120・・・位相変更フレーム設定手段
130・・・周波数変換手段
140・・・符号判定パラメータ算出手段
150・・・符号出力手段
160・・・付加情報抽出手段
170・・・音響フレーム保持手段
DESCRIPTION OF SYMBOLS 10 ... Acoustic frame reading means 20 ... Frequency conversion means 30 ... Frequency component change means 40 ... Frequency reverse conversion means 50 ... Modified acoustic frame output means 60 ... Storage means 61 ... Acoustic signal storage unit 62 ... additional information storage unit 63 ... modified acoustic signal storage unit 70 ... bit array creation means 100 ... acoustic signal input means 110 ... reference frame acquisition means 120 ... phase Change frame setting means 130 ... frequency conversion means 140 ... code determination parameter calculation means 150 ... code output means 160 ... additional information extraction means 170 ... sound frame holding means

Claims (6)

音響信号から、あらかじめ聴取不能な状態で埋め込まれた付加情報を抽出する装置であって、
前記音響信号の所定区間をデジタル化して、所定数のサンプルで構成される音響フレームを獲得する音響フレーム獲得手段と、
前記音響フレームに対して、時間方向の前部、後部の信号成分を主として抽出する第1窓関数、第3窓関数を用いてそれぞれ、周波数変換を行い、前記第1窓関数に対応するスペクトルである第1窓スペクトル、前記第3窓関数に対応するスペクトルである第3窓スペクトルを得る周波数変換手段と、
前記得られた第1窓スペクトル、第3窓スペクトルの所定の周波数範囲から1以上のスペクトル集合を抽出し、各スペクトル集合の各周波数fに対応するスペクトル要素に対して(αf)βなる補正を施してスペクトル強度を算出し、その各スペクトル強度に基づいて、埋め込まれていた1以上のビット列を抽出する符号化手段と、
前記出力されたビット列をワード単位で所定の規則により変換して付加情報を抽出する付加情報抽出手段と、
を有することを特徴とする音響信号からの情報の抽出装置。
An apparatus for extracting additional information embedded in an inaudible state in advance from an acoustic signal,
An acoustic frame acquisition means for digitizing a predetermined section of the acoustic signal and acquiring an acoustic frame composed of a predetermined number of samples;
A frequency conversion is performed on the acoustic frame using a first window function and a third window function that mainly extract front and rear signal components in the time direction, and a spectrum corresponding to the first window function is obtained. A frequency converting means for obtaining a first window spectrum, a third window spectrum which is a spectrum corresponding to the third window function;
One or more spectrum sets are extracted from a predetermined frequency range of the obtained first window spectrum and third window spectrum, and correction of (αf) β is performed on the spectrum element corresponding to each frequency f of each spectrum set. And encoding means for extracting one or more embedded bit strings based on each spectrum intensity,
Additional information extracting means for extracting the additional information by converting the output bit string according to a predetermined rule in units of words;
An apparatus for extracting information from an acoustic signal, comprising:
請求項1において、
前記符号化手段は、β=2.0であることを特徴とする音響信号からの情報の抽出装置。
In claim 1,
An apparatus for extracting information from an acoustic signal, wherein the encoding means is β = 2.0.
請求項1または請求項2において、
前記符号化手段は、前記スペクトル要素に対し、さらに前記スペクトル集合の周波数範囲における中央付近における値が大きくなるように周波数方向の値に応じて変化する窓関数F(f)を適用して補正を施すものであることを特徴とする音響信号からの情報の抽出装置。
In claim 1 or claim 2,
The encoding means applies a correction to the spectral elements by applying a window function F (f) that changes according to a value in the frequency direction so that a value near the center in the frequency range of the spectrum set is increased. An apparatus for extracting information from an acoustic signal, characterized in that:
請求項1から請求項3のいずれかにおいて、
前記符号化手段は、前記生成された第1窓スペクトルから互いに重複しない2つの所定周波数範囲のスペクトル集合SP1UとSP1Dを抽出するとともに、前記第3窓スペクトルから互いに重複しない2つの所定周波数範囲のスペクトル集合SP3UとSP3Dを抽出し、各スペクトル集合の各周波数fに対応するスペクトル要素に対して前記補正を施してスペクトル強度を算出し、その各スペクトル強度に基づいて、埋め込まれていた2ビットを抽出するものであることを特徴とする音響信号からの情報の抽出装置。
In any one of Claims 1-3,
The encoding means extracts spectrum sets SP1U and SP1D of two predetermined frequency ranges that do not overlap with each other from the generated first window spectrum, and spectrums of two predetermined frequency ranges that do not overlap with each other from the third window spectrum. The sets SP3U and SP3D are extracted, the spectrum elements corresponding to each frequency f of each spectrum set are subjected to the above correction to calculate the spectrum intensity, and the embedded 2 bits are extracted based on each spectrum intensity. An apparatus for extracting information from an acoustic signal.
請求項1から請求項4のいずれかにおいて、
前記音響フレーム獲得手段は、前記音響信号から、所定数のサンプルで構成される音響フレームを基準フレームとして獲得する基準フレーム獲得手段と、前記基準フレームと所定サンプルずつ移動させることにより位相を変更して設定される複数の音響フレームを位相変更フレームとして設定する位相変更フレーム設定手段により構成され、
前記符号化手段は、前記抽出したスペクトル集合に基づいて、符号判定パラメータを算出する符号判定パラメータ算出手段と、基準フレームが異なる過去の同位相の音響フレームにおいて算出された符号判定パラメータに基づいて、前記基準フレームおよび複数の位相変更フレームのうち1つの音響フレームを位相が最適なものであると判断し、当該最適な位相の音響フレームについて判断された前記符号判定パラメータに基づいて、所定の符号を出力する符号出力手段を有するものであることを特徴とする音響信号からの情報の抽出装置。
In any one of Claims 1-4,
The acoustic frame acquisition means changes a phase by moving a reference frame and a predetermined sample from a reference frame acquisition means for acquiring an acoustic frame composed of a predetermined number of samples as a reference frame from the acoustic signal. It is constituted by phase change frame setting means for setting a plurality of set sound frames as phase change frames,
The encoding means is based on the code determination parameter calculation means for calculating a code determination parameter based on the extracted spectrum set, and on the code determination parameter calculated in a past in-phase acoustic frame having a different reference frame, It is determined that one of the reference frame and the plurality of phase change frames has an optimal phase, and a predetermined code is determined based on the code determination parameter determined for the acoustic frame having the optimal phase. An apparatus for extracting information from an acoustic signal, characterized by comprising code output means for outputting.
コンピュータを、請求項1から請求項5のいずれかに記載の音響信号からの情報の抽出装置として、機能させるためのプログラム。   A program for causing a computer to function as an apparatus for extracting information from an acoustic signal according to any one of claims 1 to 5.
JP2007053137A 2007-03-02 2007-03-02 Device for extracting information from sound signal Withdrawn JP2008216581A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007053137A JP2008216581A (en) 2007-03-02 2007-03-02 Device for extracting information from sound signal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007053137A JP2008216581A (en) 2007-03-02 2007-03-02 Device for extracting information from sound signal

Publications (1)

Publication Number Publication Date
JP2008216581A true JP2008216581A (en) 2008-09-18

Family

ID=39836702

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007053137A Withdrawn JP2008216581A (en) 2007-03-02 2007-03-02 Device for extracting information from sound signal

Country Status (1)

Country Link
JP (1) JP2008216581A (en)

Similar Documents

Publication Publication Date Title
JP4660275B2 (en) Information embedding apparatus and method for acoustic signal
JP4867765B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP2007292827A (en) Acoustic signal retrieving apparatus
JP2006323182A (en) Embedding device for information into sound signal, extraction device of information from sound signal, and sound signal reproducing apparatus
JP5011849B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP5082257B2 (en) Acoustic signal retrieval device
JP5003164B2 (en) Device for extracting information from acoustic signals
JP4910920B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP2008152154A (en) Device for embedding information on sound signal and device for extracting information from sound signal
JP4876978B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP4831335B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP2008139491A (en) Device for embedding information in sound signal and device for extracting information from sound signal
JP2008216581A (en) Device for extracting information from sound signal
JP4877007B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP4831333B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP4910959B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP2008129198A (en) Information embedding device for acoustic signal and information extracting device from acoustic signal
JP5011855B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP5011865B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP4713181B2 (en) Information embedding device for sound signal, device for extracting information from sound signal, and sound signal reproducing device
JP4713180B2 (en) Device for extracting information from acoustic signals
JP4968468B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP4910921B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP4831334B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP5011872B2 (en) Information embedding device for sound signal and device for extracting information from sound signal

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20100511