JP2008129198A - Information embedding device for acoustic signal and information extracting device from acoustic signal - Google Patents

Information embedding device for acoustic signal and information extracting device from acoustic signal Download PDF

Info

Publication number
JP2008129198A
JP2008129198A JP2006312005A JP2006312005A JP2008129198A JP 2008129198 A JP2008129198 A JP 2008129198A JP 2006312005 A JP2006312005 A JP 2006312005A JP 2006312005 A JP2006312005 A JP 2006312005A JP 2008129198 A JP2008129198 A JP 2008129198A
Authority
JP
Japan
Prior art keywords
spectrum
acoustic
frame
window function
window
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2006312005A
Other languages
Japanese (ja)
Inventor
Toshio Motegi
敏雄 茂出木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2006312005A priority Critical patent/JP2008129198A/en
Publication of JP2008129198A publication Critical patent/JP2008129198A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an information embedding device to an acoustic signal and an information extracting device from the acoustic signal, capable of expanding a receivable distance area by using a frequency band which suppresses degradation of reproducing quality, and which spreads further in distance than before. <P>SOLUTION: The acoustic signal is read by an acoustic frame unit of a predetermined size, and frequency conversion is performed by using a plurality of time direction windowing functions for each acoustic frame, and according to binary values of a bit sequence to be embedded, a state of a predetermined frequency band (1.7 to 3.4 kHz) is changed to " State 1" in which a front component strength is large, or "State 2" in which a rear component strength is large. At this time, in order to make the component strength large, the windowing function F which changes according to a value of a frequency direction so that the vale near a center of the predetermined frequency band may becomes large, is applied. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、CD・DVD等を用いた民生・業務用途における鑑賞用のパッケージ音楽分野、放送事業者等が商業目的で配信する放送・ネットワーク音楽配信分野における音楽著作権の保護(不正コピーの監視)および音楽属性情報の提供(楽曲タイトル検索サービス)分野、ミュージアム、イベント会場における展示説明ナレーションに連動した文字情報の提供サービス分野、放送番組やCD/DVDパッケージの音声信号からURLなどの情報を抽出し、携帯電話を用いて所定のコンテンツに関連するwebサイトにアクセスして詳細情報を抽出したり、アンケートに回答したりする非接触なインターネットのゲートウェイサービス分野に関する。   The present invention relates to the protection of music copyright (monitoring illegal copying) in the field of package music for viewing for consumer and business use using CDs and DVDs, and the field of broadcasting and network music distribution distributed for commercial purposes by broadcasters and the like. ) And music attribute information (music title search service) field, museum, event information service service field linked to exhibition explanation narration, URL and other information extracted from audio signals of broadcast programs and CD / DVD packages In addition, the present invention relates to a non-contact Internet gateway service field in which a mobile phone is used to access a web site related to a predetermined content and extract detailed information or answer a questionnaire.

最近、流れている音楽のタイトル等を知ることができる楽曲属性情報の提供サービスとして、放送された音楽に対して日時と地域を放送局に照会したり、携帯電話で流れている音楽断片を録音してデータベースに登録されているメロディーと照合したりするサービスが実用化されている(例えば、特許文献1、2参照)。   As a service to provide music attribute information that allows you to know the titles of music that has been played recently, you can query the broadcast station for the date and time of the broadcast music, and record music fragments that are being played on mobile phones. Services that collate with melodies registered in the database have been put into practical use (see, for example, Patent Documents 1 and 2).

特許文献1、2に記載の発明では、録音した音楽の断片と、データベースに登録されているメロディーと照合するため、データベースに登録される楽曲が増えると、処理負荷が増え、類似したメロディーを誤判定する可能性が増える。そこで、曲名やアーチスト情報などの楽曲属性情報を不可聴な電子透かしとして音響信号に埋め込む手法も提案されている(例えば、特許文献3〜6参照)。   In the inventions described in Patent Documents 1 and 2, since the recorded music fragments are checked against the melodies registered in the database, the processing load increases as the number of songs registered in the database increases, and similar melodies are mistaken. The possibility of judging increases. Therefore, a method of embedding music attribute information such as a song name and artist information as an inaudible digital watermark in an acoustic signal has also been proposed (see, for example, Patent Documents 3 to 6).

特許文献1〜6に記載の手法では、埋め込み可能な情報量が少なく、音質が少なからず劣化し、各種信号処理により透かし情報が消失し、またアナログコピーに対しては、透かし検出が困難であるという問題がある。そこで、本出願人は、低音域において人間の音源定位感覚が鈍いという特性を活用し、音響信号の低周波数領域における2つの低周波数帯の成分の比率を属性情報のビット値に応じて変更することにより、モノラル、ステレオのいずれの音響信号に対しても、属性情報(付加情報)を埋め込むことができる手法を提案した(特許文献7、8参照)。
特開2002−259421号公報 特開2003−157087号公報 特開平11−145840号公報 特開平11−219172号公報 特許第3321767号公報 特開2003−99077号公報 特開2006−243340号 特願2005−147743号
In the methods described in Patent Documents 1 to 6, the amount of information that can be embedded is small, the sound quality is deteriorated to some extent, watermark information is lost by various signal processing, and watermark detection is difficult for analog copies. There is a problem. Therefore, the applicant uses the characteristic that the human sound source localization is dull in the low sound range, and changes the ratio of the two low frequency band components in the low frequency region of the acoustic signal according to the bit value of the attribute information. Thus, a method has been proposed in which attribute information (additional information) can be embedded in both monaural and stereo sound signals (see Patent Documents 7 and 8).
JP 2002-259421 A Japanese Patent Laid-Open No. 2003-157087 JP-A-11-145840 JP-A-11-219172 Japanese Patent No. 3321767 JP 2003-99077 A JP 2006-243340 A Japanese Patent Application No. 2005-147743

しかしながら、上記特許文献7、8に記載の手法では、低周波領域を変更することにより情報を埋め込むため、以下のような問題がある。一つ目は、モノラル再生の場合には、打ち消す他チャンネル側の音が発生されないため、聴くに耐えない品質になるという問題である。二つ目は、低周波部分は、スピーカ再生能力が低く、また、低周波音波は空間伝搬上の減衰も大きいという問題である。三つ目は、低周波の場合、低音方向に対しては、スピーカ再生能やマイクロフォン感度の制約で下限を下げることができず、高音方向に対しては、ステレオ再生において音源移動が目立ってしまうため、上限を上げることができず、情報の埋め込みに利用できる周波数範囲が限られ、情報の埋め込み効率が悪いという問題である。   However, the methods described in Patent Documents 7 and 8 have the following problems because information is embedded by changing the low frequency region. The first problem is that, in the case of monaural reproduction, the sound on the other channel side to be canceled is not generated, so that the quality is unbearable for listening. The second problem is that the low-frequency portion has a low speaker reproduction capability, and the low-frequency sound wave has a large attenuation in spatial propagation. Third, in the case of low frequencies, the lower limit cannot be lowered due to restrictions on speaker playback capability and microphone sensitivity in the low sound direction, and the sound source movement is noticeable in stereo playback for the high sound direction. Therefore, the upper limit cannot be raised, the frequency range that can be used for information embedding is limited, and the information embedding efficiency is poor.

ところが、そこで所定周波数以上であって、人間の聴覚感度が若干落ちる周波数範囲を埋め込み範囲とすることが考えられるが、この場合、埋め込み範囲より下側の周波数範囲は、人間の聴覚感度が高い部分であるため、原音を維持することが望ましい。ところが、原音を維持した場合、その周波数成分が埋め込み領域にも影響するため、埋め込んだ情報が正しく抽出できないという問題がある。   However, it is conceivable that a frequency range that is equal to or higher than a predetermined frequency and in which the human auditory sensitivity slightly falls is set as the embedded range. In this case, the frequency range below the embedded range is a portion where the human auditory sensitivity is high. Therefore, it is desirable to maintain the original sound. However, when the original sound is maintained, the frequency component also affects the embedding area, so that there is a problem that the embedded information cannot be extracted correctly.

そこで、本発明は、再生品質の劣化を低減させ、従来より遠くに伝搬可能な周波数帯を使用することにより、受信可能な距離範囲を拡大することを可能とする音響信号に対する情報の埋め込み装置、音響信号からの情報の抽出装置を提供することを課題とする。   Accordingly, the present invention reduces the degradation of reproduction quality and uses a frequency band that can be propagated farther than before, thereby expanding the receivable distance range, and an information embedding device for an acoustic signal, An object is to provide an apparatus for extracting information from an acoustic signal.

上記課題を解決するため、本発明では、時系列のサンプル列で構成される音響信号に対して、付加情報を聴取不能な状態で埋め込む装置であって、前記音響信号より、所定数のサンプルを音響フレームとして読み込む音響フレーム読込手段と、前記音響フレームに対して第1窓関数、第2窓関数、第3窓関数を用いてそれぞれ周波数変換を行い、前記第1窓関数に対応するスペクトルである第1窓スペクトル、前記第2窓関数に対応するスペクトルである第2窓スペクトル、前記第3窓関数に対応するスペクトルである第3窓スペクトルを生成する周波数変換手段と、前記生成された各窓スペクトルから、電話回線帯域上限を上限または下限とする所定の周波数帯に対応するスペクトル集合を抽出し、前記埋め込むべき付加情報の情報配列の値に基づいて、前記抽出した3セットのスペクトル集合のうち、先頭の第1窓関数と後部の第3窓関数のスペクトル強度の割合を、前記スペクトル集合の周波数範囲における中央付近における値が大きくなるように周波数方向の値に応じて変化する窓関数Fを適用して、変更すると共に、中央の第2窓関数の成分を削除する周波数成分変更手段と、前記変更されたスペクトル強度を含む各窓スペクトルに対して周波数逆変換を行って、改変音響フレームを生成する周波数逆変換手段と、前記生成された改変音響フレームを順次出力する改変音響フレーム出力手段を有する音響信号に対する情報の埋め込み装置を提供する。   In order to solve the above-described problem, the present invention is an apparatus for embedding additional information in an inaudible state with respect to an acoustic signal composed of a time-series sample sequence, and a predetermined number of samples are embedded from the acoustic signal. A spectrum corresponding to the first window function by performing frequency conversion on the acoustic frame using a first window function, a second window function, and a third window function, and an acoustic frame reading means for reading as an acoustic frame. Frequency conversion means for generating a first window spectrum, a second window spectrum that is a spectrum corresponding to the second window function, a third window spectrum that is a spectrum corresponding to the third window function, and each of the generated windows A spectrum set corresponding to a predetermined frequency band having an upper limit or a lower limit of the telephone line band upper limit is extracted from the spectrum, and the information array of the additional information to be embedded is extracted. Based on the above, among the extracted three sets of spectrum sets, the ratio of the spectral intensities of the first window function at the front and the third window function at the rear is set so that the value near the center in the frequency range of the spectrum set becomes large. A frequency function changing means for applying and changing a window function F that changes in accordance with a value in the frequency direction, and deleting a component of the second window function at the center, and each window spectrum including the changed spectrum intensity A device for embedding information with respect to an acoustic signal is provided that includes frequency inverse transform means for performing frequency inverse transform to generate a modified acoustic frame and modified acoustic frame output means for sequentially outputting the generated modified acoustic frames. .

また、本発明では、音響信号から、あらかじめ聴取不能な状態で埋め込まれた付加情報を抽出する装置であって、前記音響信号の所定の区間をデジタル化して、所定数のサンプルで構成される音響フレームを獲得する音響フレーム獲得手段と、前記音響フレームに対して第1窓関数、第3窓関数を用いてそれぞれ周波数変換を行い、前記第1窓関数に対応するスペクトルである第1窓スペクトル、前記第3窓関数に対応するスペクトルである第3窓スペクトルを生成する周波数変換手段と、前記生成された各窓スペクトルから、電話回線帯域上限を上限または下限とする所定の周波数帯に対応するスペクトル集合を抽出し、各スペクトル集合ごとにスペクトル強度の総和値を、前記スペクトル集合の周波数範囲における中央付近における値が大きくなるように周波数方向の値に応じて変化する窓関数Fを適用して、算出し、その総和値のスペクトル集合間の割合に基づいて、所定の符号を出力する符号化手段と、前記出力された符号に対応する情報配列を、所定の規則により変換して付加情報を抽出する付加情報抽出手段を有する音響信号からの情報の抽出装置を提供する。   According to the present invention, there is provided an apparatus for extracting additional information embedded in an inaudible state in advance from an acoustic signal, wherein a predetermined section of the acoustic signal is digitized and an acoustic composed of a predetermined number of samples. An acoustic frame acquisition means for acquiring a frame; a first window spectrum that is a spectrum corresponding to the first window function by performing frequency conversion on the acoustic frame using a first window function and a third window function, respectively; Frequency conversion means for generating a third window spectrum, which is a spectrum corresponding to the third window function, and a spectrum corresponding to a predetermined frequency band whose upper limit or lower limit is a telephone line band upper limit from the generated window spectra. A set is extracted, and the sum of the spectral intensities for each spectrum set is calculated as a value near the center in the frequency range of the spectrum set. An encoding means for applying a window function F that changes in accordance with a value in the frequency direction so as to be determined, and outputting a predetermined code based on a ratio between the spectrum sets of the total value, and the output There is provided an apparatus for extracting information from an acoustic signal having additional information extraction means for extracting additional information by converting an information array corresponding to the generated code according to a predetermined rule.

本発明によれば、音響信号を所定区間に区分し、埋め込むべき付加情報の情報配列の値に基づいて、前記所定区間における電話回線帯域上限を上限または下限とする所定の周波数帯の先頭部分と後部部分のスペクトル強度の割合を、そのスペクトル集合の周波数範囲における中央付近における値が大きくなるように周波数方向の値に応じて変化する窓関数Fを適用して、変更するようにしたので、モノラル再生時における再生品質の劣化を低減させるとともに、受信可能な距離範囲を拡大することを可能とするという効果を奏する。   According to the present invention, the acoustic signal is divided into predetermined sections, and based on the value of the information array of the additional information to be embedded, the head portion of the predetermined frequency band having the upper limit or the lower limit of the telephone line band upper limit in the predetermined section Since the ratio of the spectral intensity of the rear part is changed by applying the window function F that changes according to the value in the frequency direction so that the value near the center in the frequency range of the spectrum set is increased, the monaural In addition to reducing the degradation in reproduction quality during reproduction, it is possible to expand the receivable distance range.

以下、本発明の実施形態について図面を参照して詳細に説明する。
(1.本発明の基本概念)
まず、本発明の基本概念について説明する。上述のように、本出願人は、特許文献7、8において、音響信号の低周波数領域における2つの低周波数帯の成分の比率を属性情報のビット値に応じて変更することにより、モノラル、ステレオのいずれの音響信号に対しても、付加情報を埋め込むことができる手法を提案し、特に特許文献8においては、時間方向に分割して、情報を埋め込む手法を提案している。このように、埋め込む情報に応じて、所定の周波数成分について、所定区間における前部と後部の強度を変化させる点については、本発明も特許文献8と同様である。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
(1. Basic concept of the present invention)
First, the basic concept of the present invention will be described. As described above, in the patent documents 7 and 8, the present applicant changes the ratio of two low-frequency band components in the low-frequency region of the acoustic signal according to the bit value of the attribute information, so that the monaural, stereo In any of these acoustic signals, a method capable of embedding additional information is proposed. In particular, Patent Document 8 proposes a method of embedding information by dividing it in the time direction. As described above, the present invention is similar to Patent Document 8 in that the strength of the front and rear portions in a predetermined section is changed for a predetermined frequency component in accordance with information to be embedded.

しかし、特許文献8で示した手法では、所定の周波数成分として200〜300Hz程度以下の低周波成分を利用しているため、上記課題として示したような問題が生じている。   However, in the method shown in Patent Document 8, since the low frequency component of about 200 to 300 Hz or less is used as the predetermined frequency component, the problem described as the above problem occurs.

人間の音源定位感覚は高音部では増大傾向になるが、ソース音源のエネルギーは高音になるほど小さくなる特性があり、特に電話回線帯域(300Hz〜3.4kHz)を超えると倍音成分のみとなるため、結果的に聴取可能な音源定位変異は小さい。実験の結果、400Hz〜1.5kHzの領域では聴取可能な音源定位変異は増大していくが、1.5kHzを超えると減少傾向になり、更に4kHzを超えるとほとんどなくなる。これは、4kHz以上は音声の成分はほとんどなくなり、楽器音では基音が最高音域を超えることため倍音のみの成分となるためである。   The human sound source localization sensation tends to increase in the treble part, but the energy of the source sound source has a characteristic that it becomes smaller as the treble becomes higher, especially when it exceeds the telephone line bandwidth (300 Hz to 3.4 kHz), it becomes only the harmonic component. As a result, the audible sound source localization variation is small. As a result of the experiment, the audible sound source localization mutation increases in the region of 400 Hz to 1.5 kHz, but tends to decrease when the frequency exceeds 1.5 kHz, and almost disappears when the frequency exceeds 4 kHz. This is because there is almost no sound component above 4 kHz, and the fundamental tone of the instrument sound exceeds the highest range, so that only the overtone component is obtained.

そこで、どの周波数範囲に埋め込むべきかを具体的に検討する。音声通信として普及度の高い携帯電話機を受信端末として利用する場合、上限については、電話回線帯域および携帯電話機の上限である3.4kHzとする必要がある。そこで、下限については、上限の3.4kHzから1オクターブ下がった1.7kHzとすることとした。また、携帯電話機以外を受信端末として利用する場合には、可聴周波数の上限(22kHz)以下であれば3.4kHzより高い周波数領域を用いることができるが、10kHzを超える高音域では、圧縮・変調などの信号処理の影響を受け易く、スピーカによっては再生能力が低下するため、下限を電話回線帯域の上限である3.4kHzとし、上限を3.4kHzから1オクターブ上がった6.8kHzとすることとした。なお、“1.7kHz”“3.4kHz”“6.8kHz”という値は、代表的な値であり、必ずしも正確な値である必要はなく、そこから若干ずれた値であっても良い。なお、本明細書においては、“1.7kHz〜3.4kHz”を「電話高周波帯」、“3.4kHz〜6.8kHz”を「超電話周波帯」と呼ぶことにする。また、電話回線帯域の上限は上述のように3.4kHz近辺であるので、上記「電話高周波帯」、「超電話周波帯」はそれぞれ可聴周波数範囲で電話回線帯域の上限より若干低音側、若干高音側における所定の周波数帯に該当する。   Therefore, the frequency range to be embedded is specifically examined. When a mobile phone having a high degree of spread as voice communication is used as a receiving terminal, the upper limit needs to be 3.4 kHz which is the upper limit of the telephone line band and the mobile phone. Therefore, the lower limit is set to 1.7 kHz, which is one octave lower than the upper limit of 3.4 kHz. Further, when a device other than a mobile phone is used as a receiving terminal, a frequency region higher than 3.4 kHz can be used as long as it is below the upper limit of audible frequency (22 kHz), but in a high sound region exceeding 10 kHz, compression / modulation is possible. The lower limit is set to 3.4 kHz, which is the upper limit of the telephone line bandwidth, and the upper limit is set to 6.8 kHz, which is one octave higher than 3.4 kHz. It was. Note that the values “1.7 kHz”, “3.4 kHz”, and “6.8 kHz” are representative values, and are not necessarily accurate values, and may be slightly deviated from them. In the present specification, “1.7 kHz to 3.4 kHz” is referred to as “telephone high frequency band”, and “3.4 kHz to 6.8 kHz” is referred to as “super telephone frequency band”. Further, since the upper limit of the telephone line band is around 3.4 kHz as described above, the above “telephone high frequency band” and “super telephone frequency band” are slightly lower than the upper limit of the telephone line band in the audible frequency range. This corresponds to a predetermined frequency band on the high sound side.

(2.音響信号に対する情報の埋め込み装置)
図1は、本発明に係る音響信号に対する情報の埋め込み装置の構成を示す機能ブロック図である。図1において、10は音響フレーム読込手段、20は周波数変換手段、30は周波数成分変更手段、40は周波数逆変換手段、50は改変音響フレーム出力手段、60は記憶手段、61は音響信号記憶部、62は付加情報記憶部、63は改変音響信号記憶部、70は付加情報読込手段である。なお、図1に示す装置は、ステレオ音響信号、モノラル音響信号の両方に対応可能であるが、ここでは、ステレオ音響信号に対して処理を行う場合について説明していく。
(2. Information embedding device for acoustic signals)
FIG. 1 is a functional block diagram showing the configuration of an information embedding device for an acoustic signal according to the present invention. In FIG. 1, 10 is an acoustic frame reading means, 20 is a frequency converting means, 30 is a frequency component changing means, 40 is a frequency inverse converting means, 50 is a modified acoustic frame output means, 60 is a storage means, and 61 is an acoustic signal storage section. 62 is an additional information storage unit, 63 is a modified acoustic signal storage unit, and 70 is an additional information reading means. The apparatus shown in FIG. 1 can deal with both a stereo sound signal and a monaural sound signal. Here, a case where processing is performed on a stereo sound signal will be described.

音響フレーム読込手段10は、付加情報の埋め込み対象とする元のステレオ音響信号の各チャンネルから所定数のサンプルを1フレームとして読み込む機能を有している。周波数変換手段20は、音響フレーム読込手段10が読み込んだ音響信号のフレームをフーリエ変換等により周波数変換してフレームスペクトルを生成する機能を有している。周波数成分変更手段30は、生成されたフレームスペクトルから電話回線帯域上限を上限または下限とする所定の周波数帯に相当するスペクトル集合を3セット抽出し、付加情報記憶部62から抽出した付加情報に基づいて、各スペクトル集合の強度を変更する機能を有している。周波数逆変換手段40は、強度が変更されたスペクトル集合を含むフレームスペクトルに対して周波数逆変換を行うことにより、改変音響フレームを生成する機能を有している。改変音響フレーム出力手段50は、生成された改変音響フレームを順次出力する機能を有している。記憶手段60は、付加情報を埋め込む対象とするステレオ音響信号を記憶した音響信号記憶部61と、ビット配列として構成され、ステレオ音響信号に埋め込まれる付加情報を記憶した付加情報記憶部62と、付加情報埋め込み後の改変音響信号を記憶する改変音響信号記憶部63を有しており、その他処理に必要な各種情報を記憶するものである。付加情報読込手段70は、付加情報記憶部62から付加情報を抽出し、抽出した付加情報に対して誤り検出ビットを1ビット付加して8ビットのビット配列を作成する機能を有している。なお、付加情報とは、音響情報に付加して埋め込むべき情報であり、タイトルやアーティスト名等の属性情報、および属性情報以外の他の情報を含むものである。図1に示した各構成手段は、現実にはコンピュータおよびその周辺機器等のハードウェアに専用のプログラムを搭載することにより実現される。すなわち、コンピュータが、専用のプログラムに従って各手段の内容を実行することになる。   The sound frame reading means 10 has a function of reading a predetermined number of samples as one frame from each channel of the original stereo sound signal to be embedded with additional information. The frequency conversion means 20 has a function of generating a frame spectrum by frequency-converting the frame of the acoustic signal read by the acoustic frame reading means 10 by Fourier transformation or the like. The frequency component changing means 30 extracts three sets of spectrum sets corresponding to a predetermined frequency band whose upper limit or lower limit is the telephone line band upper limit from the generated frame spectrum, and based on the additional information extracted from the additional information storage unit 62 Thus, it has a function of changing the intensity of each spectrum set. The frequency inverse transform means 40 has a function of generating a modified acoustic frame by performing frequency inverse transform on a frame spectrum including a spectrum set whose intensity has been changed. The modified sound frame output means 50 has a function of sequentially outputting the generated modified sound frames. The storage means 60 includes an acoustic signal storage unit 61 that stores a stereo acoustic signal to be embedded with additional information, an additional information storage unit 62 that is configured as a bit array and stores additional information embedded in the stereo acoustic signal, and an additional information It has a modified acoustic signal storage unit 63 for storing the modified acoustic signal after information is embedded, and stores various information necessary for other processing. The additional information reading means 70 has a function of extracting additional information from the additional information storage unit 62 and adding one bit of error detection bits to the extracted additional information to create an 8-bit bit array. The additional information is information that should be added to the sound information and embedded, and includes attribute information such as a title and artist name, and other information other than the attribute information. Each component shown in FIG. 1 is actually realized by installing a dedicated program in hardware such as a computer and its peripheral devices. That is, the computer executes the contents of each means according to a dedicated program.

(3.埋め込み装置の処理動作)
次に、図1に示した音響信号に対する情報の埋め込み装置の第1の実施形態における処理動作ついて説明する。ここでは、音響信号として、L(左)、R(右)の2チャンネルを有するステレオ音響信号に対して処理を行う場合について説明していく。音響フレーム読込手段10は、音響信号記憶部61に記憶されたステレオ音響信号の左右の各チャンネルから、それぞれ所定数のサンプルを1音響フレームとして読み込む。音響フレーム読込手段10が読み込む1音響フレームのサンプル数は、適宜設定することができるが、サンプリング周波数が44.1kHzの場合、4096サンプル程度とすることが望ましい。したがって、音響フレーム読込手段10は、左チャンネル、右チャンネルについてそれぞれ4096サンプルずつ、順次音響フレームとして読み込んでいくことになる。
(3. Processing operation of the embedding device)
Next, the processing operation in the first embodiment of the information embedding device for the acoustic signal shown in FIG. 1 will be described. Here, a case where processing is performed on a stereo sound signal having two channels of L (left) and R (right) as sound signals will be described. The sound frame reading means 10 reads a predetermined number of samples as one sound frame from each of the left and right channels of the stereo sound signal stored in the sound signal storage unit 61. The number of samples of one sound frame read by the sound frame reading means 10 can be set as appropriate, but is desirably about 4096 samples when the sampling frequency is 44.1 kHz. Therefore, the acoustic frame reading means 10 sequentially reads 4096 samples for each of the left channel and the right channel as acoustic frames.

音響フレームとしては、AタイプとBタイプが存在する。Aタイプの音響フレーム、Bタイプの音響フレームは、それぞれ同タイプの先行する音響フレームの最後のサンプルの次のサンプルを先頭サンプルとして設定される。そして、AタイプとBタイプの音響フレームは互いに所定数(本実施形態では2048)のサンプルを重複して設定される。例えば、Aタイプの音響フレームを先頭からA1、A2、A3…とし、Bタイプの音響フレームを先頭からB1、B2、B3…とすると、A1はサンプル1〜4096、A2はサンプル4097〜8192、A3はサンプル8193〜12288、B1はサンプル2049〜6144、B2はサンプル6145〜10240、B3はサンプル10241〜14336となる。なお、AタイプとBタイプは相対的なものであるので、どちらが先であっても良い。すなわち、上記とは逆にA1がサンプル2049〜6144、A2がサンプル6145〜10240、A3がサンプル10241〜14336、B1がサンプル1〜4096、B2がサンプル4097〜8192、B3がサンプル8193〜12288であっても良い。   There are A type and B type as acoustic frames. In the A-type acoustic frame and the B-type acoustic frame, the next sample after the last sample of the preceding acoustic frame of the same type is set as the first sample. The A-type and B-type sound frames are set by overlapping a predetermined number (2048 in this embodiment) of samples. For example, if the A type acoustic frame is A1, A2, A3... From the top and the B type acoustic frame is B1, B2, B3... From the top, A1 is samples 1 to 4096, A2 is samples 4097 to 8192, A3. Is samples 8193-12288, B1 is samples 2049-6144, B2 is samples 6145-10240, and B3 is samples 10241-14336. Since the A type and the B type are relative, either one may be first. That is, contrary to the above, A1 is samples 2049 to 6144, A2 is samples 6145 to 10240, A3 is samples 10241 to 14336, B1 is samples 1 to 4096, B2 is samples 4097 to 8192, and B3 is samples 8193 to 12288. May be.

周波数変換手段20は、音響フレーム読込手段10が読み込んだ音響フレームに対して、周波数変換を行って、その音響フレームのスペクトルであるフレームスペクトルを得る。具体的には、窓関数を利用して周波数変換を行う。周波数変換としては、フーリエ変換、ウェーブレット変換その他公知の種々の手法を用いることができる。本実施形態では、フーリエ変換を用いた場合を例にとって説明する。   The frequency conversion unit 20 performs frequency conversion on the sound frame read by the sound frame reading unit 10 to obtain a frame spectrum that is a spectrum of the sound frame. Specifically, frequency conversion is performed using a window function. As frequency conversion, Fourier transform, wavelet transform, and other various known methods can be used. In the present embodiment, a case where Fourier transform is used will be described as an example.

一般に、所定の信号に対してフーリエ変換を行う場合、信号を所定の長さに区切って行う必要があるが、この場合、所定長さの信号に対してそのままフーリエ変換を行うと、擬似高調波成分が発生する。そこで、一般にフーリエ変換を行う場合には、ハニング窓と呼ばれる窓関数を用いて、信号の値を変化させた後、変化後の値に対してフーリエ変換を実行する。   In general, when Fourier transform is performed on a predetermined signal, it is necessary to divide the signal into predetermined lengths. In this case, if Fourier transform is performed on a signal of a predetermined length as it is, a pseudo-harmonic wave is generated. Ingredients are generated. Therefore, in general, when performing Fourier transform, a signal value is changed using a window function called a Hanning window, and then Fourier transform is performed on the changed value.

本実施形態では、擬似高調波成分の発生を防止するためだけではなく、一つの音響フレームから、情報を埋め込むための複数の状態を作り出すため、複数の窓関数を用意し、一つの音響フレームに対して、各窓関数を利用してフーリエ変換を行い、複数のスペクトルを得る。複数の窓関数として、より良い効果を得るため、本実施形態では、図2(b)〜(d)に示したような第1窓関数W(1,i)、第2窓関数W(2,i)、第3窓関数W(3,i)を用意し、抽出側で認識し易いようにした。第1窓関数W(1,i)は、音響フレームの前部を抽出するためのものであり、図2(b)に示すように前部の所定のサンプル番号iの位置において、最大値1をとり、後部においては、最小値0をとるように設定されている。どのサンプル番号の場合に最大値をとるかについては、窓関数W(1,i)の設計によって異なってくるが、本実施形態では、後述する〔数式1〕で定義される。窓関数W(1,i)を乗じることにより、図2(a)に示すような音響フレームの信号波形は、図2(f)に示すように、前部に信号成分が残り、後部の信号成分が削除されたものとなり、これがフーリエ変換対象となる。   In this embodiment, not only to prevent the generation of the pseudo-harmonic component, but also to create a plurality of states for embedding information from one acoustic frame, a plurality of window functions are prepared, and one acoustic frame is provided. On the other hand, Fourier transform is performed using each window function to obtain a plurality of spectra. In order to obtain better effects as a plurality of window functions, in the present embodiment, the first window function W (1, i) and the second window function W (2) as shown in FIGS. , I) and a third window function W (3, i) are prepared so that the extraction side can easily recognize them. The first window function W (1, i) is for extracting the front part of the acoustic frame, and has a maximum value of 1 at the position of a predetermined sample number i in the front part as shown in FIG. And the rear part is set to have a minimum value of 0. Which sample number takes the maximum value depends on the design of the window function W (1, i), but in this embodiment, it is defined by [Equation 1] described later. By multiplying the window function W (1, i), the signal waveform of the acoustic frame as shown in FIG. 2 (a) has a signal component remaining in the front part as shown in FIG. The component is deleted, and this becomes a Fourier transform target.

また、第2窓関数W(2,i)は、音響フレームの中央部を抽出するためのものであり、図2(c)に示すように、中央部の所定のサンプル番号iの位置において、最大値1をとり、前部、後部においては、最小値0をとるように設定されている。どのサンプル番号の場合に最大値をとるかについては、窓関数W(2,i)の設計によって異なってくるが、本実施形態では、後述する〔数式2〕で定義される。窓関数W(2,i)を乗じることにより、図2(a)に示すような音響フレームの信号波形は、図2(g)に示すように、中央部に信号成分が残り、前部と後部の信号成分が除去されたものとなり、これがフーリエ変換対象となる。   The second window function W (2, i) is for extracting the central portion of the acoustic frame, and as shown in FIG. 2 (c), at the position of the predetermined sample number i in the central portion. The maximum value is 1, and the minimum value is set to 0 at the front and rear portions. Which sample number takes the maximum value depends on the design of the window function W (2, i), but in this embodiment, it is defined by [Expression 2] described later. By multiplying the window function W (2, i), the signal waveform of the acoustic frame as shown in FIG. 2A has a signal component remaining at the center as shown in FIG. The rear signal component is removed, and this is subjected to Fourier transform.

また、第3窓関数W(3,i)は、音響フレームの後部を抽出するためのものであり、図2(d)に示すように、前部においては最小値0をとり、後部の所定のサンプル番号iの位置において、最大値1をとるように設定されている。どのサンプル番号の場合に最大値をとるかについては、窓関数W(3,i)の設計によって異なってくるが、本実施形態では、後述する〔数式3〕で定義される。窓関数W(3,i)を乗じることにより、図2(a)に示すような音響フレームの信号波形は、図2(h)に示すように、前部の信号成分が除去され、後部に信号成分が残ったものとなり、これがフーリエ変換対象となる。このように前部、中央部、後部を抽出した後、フーリエ変換を実行するため、前部、中央部、後部に対応したスペクトルが得られることになる。1つの音響フレームにビット値を埋め込むためには、本来、前部と後部の2つに分けられれば良いのであるが、抽出側においては、必ずしも、信号を同期して読み込むことができるとは限らず、したがって、前部と後部をはっきりと区別するため、本発明では、埋め込み時に中央部の信号成分を常に除去し、前部と後部を時間的に分離することとしている(ただし、抽出時は前部と後部だけを解析すればよく、中央部は無視してよい)。本発明において用いる窓関数は、窓関数W(1,i)と窓関数W(3,i)が左右非対称であるため、抽出時において、埋め込まれていた情報の誤認識が起こりにくくなる。   The third window function W (3, i) is for extracting the rear part of the acoustic frame. As shown in FIG. 2 (d), the front part has a minimum value of 0 and a predetermined value in the rear part. The maximum value 1 is set at the position of the sample number i. Which sample number takes the maximum value depends on the design of the window function W (3, i), but in this embodiment, it is defined by [Equation 3] described later. By multiplying the window function W (3, i), the signal waveform of the acoustic frame as shown in FIG. 2 (a) is removed from the front signal component as shown in FIG. 2 (h). The signal component remains and becomes a Fourier transform target. Thus, after extracting the front part, the central part, and the rear part, the Fourier transform is executed, so that spectra corresponding to the front part, the central part, and the rear part are obtained. In order to embed a bit value in one acoustic frame, the bit value is originally divided into two parts, a front part and a rear part. However, on the extraction side, it is not always possible to read a signal synchronously. Therefore, in order to clearly distinguish the front part from the rear part, in the present invention, the signal component in the central part is always removed at the time of embedding, and the front part and the rear part are separated in time (however, at the time of extraction) You only need to analyze the front and rear, and ignore the middle). In the window function used in the present invention, the window function W (1, i) and the window function W (3, i) are asymmetrical, so that erroneous recognition of embedded information is less likely to occur during extraction.

また、本発明では、音響フレームを重複させて読み込み、奇数フレーム(または偶数フレーム)については、窓関数W(1,i)、W(2,i)、W(3,i)を用い、偶数フレーム(または奇数フレーム)については、図2(e)に示したような窓関数W(4,i)を用いるようにした。   In the present invention, acoustic frames are read in duplicate, and for odd frames (or even frames), window functions W (1, i), W (2, i), W (3, i) are used, and even frames are used. For frames (or odd frames), the window function W (4, i) as shown in FIG. 2 (e) is used.

なお、本実施形態においては、音響フレームは重複して読み込まれる。すなわち、奇数番目の音響フレームと偶数番目の音響フレームは、所定数のサンプルを重複して読み込む。上記のように、奇数フレームと偶数フレームでは、用いられる窓関数が異なるが、奇数フレームと偶数フレームは単に奇数か偶数かの違いだけであるため、どちらに対してどちらの処理を行っても良い。したがって、本明細書では、奇数フレーム、偶数フレームの一方をAタイプフレーム、他方をBタイプフレームと呼ぶことにする。本実施形態では、奇数フレームをAタイプフレーム、偶数フレームをBタイプフレームとして説明するが、逆に偶数フレームをAタイプフレーム、奇数フレームをBタイプフレームとしても良い。   In the present embodiment, the sound frame is read in duplicate. That is, a predetermined number of samples are redundantly read in the odd-numbered sound frames and the even-numbered sound frames. As described above, the window function used is different between the odd frame and the even frame, but since either the odd frame or the even frame is simply the difference between the odd frame and the even frame, either process may be performed on either. . Therefore, in this specification, one of the odd-numbered frame and the even-numbered frame is referred to as an A-type frame, and the other is referred to as a B-type frame. In the present embodiment, an odd frame is described as an A type frame and an even frame is described as a B type frame. Conversely, an even frame may be an A type frame and an odd frame may be a B type frame.

本実施形態では、窓関数W(1,i)〜W(4,i)は、以下の〔数式1〕〜〔数式4〕で定義される。なお、図2において、横軸は時間軸(i)である。iは、後述するように、各音響フレーム内のN個のサンプルに付した通し番号であるため時刻tに比例している。また、図2(a)(f)(g)(h)(i)において縦軸は信号の振幅値(レベル)を示す。図2(b)〜(e)において縦軸は窓関数W(1,i)、W(2,i)、W(3,i)、W(4,i)の値を示しており、W(1,i)、W(2,i)、W(3,i)、W(4,i)の最大値はいずれも1である。   In the present embodiment, the window functions W (1, i) to W (4, i) are defined by the following [Equation 1] to [Equation 4]. In FIG. 2, the horizontal axis is the time axis (i). As described later, i is a serial number assigned to N samples in each acoustic frame, and is proportional to time t. 2A, 2F, 2G, 2H, and 2I, the vertical axis indicates the amplitude value (level) of the signal. 2B to 2E, the vertical axis indicates the values of the window functions W (1, i), W (2, i), W (3, i), and W (4, i). The maximum values of (1, i), W (2, i), W (3, i), and W (4, i) are all 1.

〔数式1〕
i≦3N/8のとき、W(1,i)=0.5−0.5cos(8πi/(3N))
3N/8<i≦N/2のとき、W(1,i)=0.5−0.5cos(8π(i−N/4)/N)
i>N/2のとき、W(1,i)=0.0
[Formula 1]
When i ≦ 3N / 8, W (1, i) = 0.5−0.5 cos (8πi / (3N))
When 3N / 8 <i ≦ N / 2, W (1, i) = 0.5−0.5 cos (8π (i−N / 4) / N)
When i> N / 2, W (1, i) = 0.0

〔数式2〕
i≦3N/8のとき、W(2,i)=0.0
3N/8<i≦N/2のとき、W(2,i)=0.5−0.5cos(8π(i−3N/8)/N)
N/2<i≦3N/4のとき、W(2,i)=0.5−0.5cos(4π(i−N/4)/N)
i>3N/4のとき、W(2,i)=0.0
[Formula 2]
When i ≦ 3N / 8, W (2, i) = 0.0
When 3N / 8 <i ≦ N / 2, W (2, i) = 0.5−0.5 cos (8π (i−3N / 8) / N)
When N / 2 <i ≦ 3N / 4, W (2, i) = 0.5−0.5 cos (4π (i−N / 4) / N)
When i> 3N / 4, W (2, i) = 0.0

〔数式3〕
i≦N/2のとき、W(3,i)=0.0
i>N/2のとき、W(3,i)=0.5−0.5cos(4π(i−N/2)/N)
[Formula 3]
When i ≦ N / 2, W (3, i) = 0.0
When i> N / 2, W (3, i) = 0.5−0.5 cos (4π (i−N / 2) / N)

〔数式4〕
i≦N/4のとき、W(4,i)=0.0
N/4<i≦N/2のとき、W(4,i)=0.5−0.5cos(4π(i−N/4)/N)
N/2<i≦7N/8のとき、W(4,i)=0.5−0.5cos(8π(i−N/8)/(3N))
i>7N/8のとき、W(4,i)=0.0
[Formula 4]
When i ≦ N / 4, W (4, i) = 0.0
When N / 4 <i ≦ N / 2, W (4, i) = 0.5−0.5 cos (4π (i−N / 4) / N)
When N / 2 <i ≦ 7N / 8, W (4, i) = 0.5−0.5 cos (8π (i−N / 8) / (3N))
When i> 7N / 8, W (4, i) = 0.0

なお、図2および上記〔数式1〕〜〔数式4〕から明らかなように、窓関数W(1,i)とW(3,i)は、互いに非対称な形状である。これは、後述する抽出側において、両者の識別を容易にするためである。また、窓関数W(1,i)、W(2,i)、W(3,i)は、iが所定の値のときに最大値1をとり、iがその他の値をとる場合には、iの値に応じて単調増加、または単調減少する窓関数を分割したものであるため、窓関数W(1,i)とW(3,i)が定まると、窓関数W(2,i)も必然的に定まる。このため、窓関数W(2,i)は左右非対称の形状となっている。   As is clear from FIG. 2 and [Formula 1] to [Formula 4], the window functions W (1, i) and W (3, i) have asymmetric shapes. This is for facilitating identification between the two on the extraction side described later. The window functions W (1, i), W (2, i), and W (3, i) have a maximum value of 1 when i is a predetermined value, and i takes other values. , I is a window function that monotonically increases or decreases according to the value of i, and therefore, when the window functions W (1, i) and W (3, i) are determined, the window function W (2, i ) Is inevitably determined. For this reason, the window function W (2, i) has a left-right asymmetric shape.

本発明においては、奇数フレームと偶数フレームを、所定サンプルずつ重複して読み込むため、情報の埋め込みを行った後、音響信号に復元する際に、窓関数を乗じた奇数フレームと、窓関数を乗じた偶数フレームの重複サンプルを加算した場合に、ほぼ元の値に戻るようにしなければならない。このため、窓関数W(4,i)の形状は、窓関数W(1,i)、W(2,i)、W(3,i)の値に応じて必然的に定まる。すなわち、奇数フレームと偶数フレームの重複部分において、窓関数W(1,i)、W(2,i)、W(3,i)、W(4,i)を加算すると、全区間固定値1になるように定義されている。   In the present invention, since odd frames and even frames are redundantly read by a predetermined number of samples, after embedding information and then restoring to an acoustic signal, the odd frame multiplied by the window function and the window function are multiplied. When overlapping samples of even frames are added, it is necessary to return almost to the original value. Therefore, the shape of the window function W (4, i) is inevitably determined according to the values of the window functions W (1, i), W (2, i), and W (3, i). That is, when the window functions W (1, i), W (2, i), W (3, i), and W (4, i) are added in the overlapping portion of the odd and even frames, the fixed value 1 for the entire section is obtained. Is defined to be

周波数変換手段20が、Aタイプの音響フレームに対してフーリエ変換を行う場合は、左チャンネル信号Xl(i)、右チャンネル信号Xr(i)(i=0,…,N−1)に対して、3つの窓関数W(1,i)、W(2,i)、W(3,i)を用いて、以下の〔数式5〕に従った処理を行い、左チャンネルに対応する変換データの実部Al(1,j)、Al(2,j)、Al(3,j)、虚部Bl(1,j)、Bl(2,j)、Bl(3,j)、右チャンネルに対応する変換データの実部Ar(1,j)、Ar(2,j)、Ar(3,j)、虚部Br(1,j)、Br(2,j)、Br(3,j)を得る。なお、窓関数W(1,i)、W(2,i)、W(3,i)は、それぞれ音響フレームの前部(先頭)付近、中央付近、後部付近において値が大きくなる関数となっている。   When the frequency conversion means 20 performs Fourier transform on the A type sound frame, the left channel signal Xl (i) and the right channel signal Xr (i) (i = 0,..., N−1). Using the three window functions W (1, i), W (2, i), W (3, i), processing according to the following [Equation 5] is performed, and the conversion data corresponding to the left channel is obtained. Real part Al (1, j), Al (2, j), Al (3, j), imaginary part Bl (1, j), Bl (2, j), Bl (3, j), corresponding to the right channel Real part Ar (1, j), Ar (2, j), Ar (3, j), imaginary part Br (1, j), Br (2, j), Br (3, j) obtain. Note that the window functions W (1, i), W (2, i), and W (3, i) are functions whose values increase near the front (front), near the center, and near the rear of the acoustic frame, respectively. ing.

〔数式5〕
Al(1,j)=Σi=0,…,N-1W(1,i)・Xl(i)・cos(2πij/N)
Bl(1,j)=Σi=0,…,N-1W(1,i)・Xl(i)・sin(2πij/N)
Al(2,j)=Σi=0,…,N-1W(2,i)・Xl(i)・cos(2πij/N)
Bl(2,j)=Σi=0,…,N-1W(2,i)・Xl(i)・sin(2πij/N)
Al(3,j)=Σi=0,…,N-1W(3,i)・Xl(i)・cos(2πij/N)
Bl(3,j)=Σi=0,…,N-1W(3,i)・Xl(i)・sin(2πij/N)
Ar(1,j)=Σi=0,…,N-1W(1,i)・Xr(i)・cos(2πij/N)
Br(1,j)=Σi=0,…,N-1W(1,i)・Xr(i)・sin(2πij/N)
Ar(2,j)=Σi=0,…,N-1W(2,i)・Xr(i)・cos(2πij/N)
Br(2,j)=Σi=0,…,N-1W(2,i)・Xr(i)・sin(2πij/N)
Ar(3,j)=Σi=0,…,N-1W(3,i)・Xr(i)・cos(2πij/N)
Br(3,j)=Σi=0,…,N-1W(3,i)・Xr(i)・sin(2πij/N)
[Formula 5]
Al (1, j) = Σi = 0,..., N-1 W (1, i) .Xl (i) .cos (2πij / N)
Bl (1, j) = Σi = 0,..., N-1 W (1, i) · Xl (i) · sin (2πij / N)
Al (2, j) = Σi = 0,..., N-1 W (2, i) · Xl (i) · cos (2πij / N)
Bl (2, j) = Σi = 0,..., N-1 W (2, i) · Xl (i) · sin (2πij / N)
Al (3, j) = Σi = 0,..., N-1 W (3, i) · Xl (i) · cos (2πij / N)
Bl (3, j) = Σi = 0,..., N-1 W (3, i) .Xl (i) .sin (2πij / N)
Ar (1, j) = Σi = 0,..., N-1 W (1, i) .Xr (i) .cos (2πij / N)
Br (1, j) = Σ i = 0,..., N-1 W (1, i) · Xr (i) · sin (2πij / N)
Ar (2, j) = Σi = 0,..., N-1 W (2, i) .Xr (i) .cos (2πij / N)
Br (2, j) = Σi = 0,..., N-1 W (2, i) .Xr (i) .sin (2πij / N)
Ar (3, j) = Σi = 0,..., N-1 W (3, i) · Xr (i) · cos (2πij / N)
Br (3, j) = Σi = 0,..., N-1 W (3, i) · Xr (i) · sin (2πij / N)

周波数変換手段20が、Bタイプの音響フレームに対してフーリエ変換を行う場合は、左チャンネル信号Xl(i)、右チャンネル信号Xr(i)(i=0,…,N−1)に対して、窓関数W(4,i)を用いて、以下の〔数式6〕に従った処理を行い、左チャンネルに対応する変換データの実部Al(4,j)、虚部Bl(4,j)、右チャンネルに対応する変換データの実部Ar(4,j)、虚部Br(4,j)を得る。   When the frequency conversion means 20 performs Fourier transform on the B type sound frame, the left channel signal Xl (i) and the right channel signal Xr (i) (i = 0,..., N−1). The window function W (4, i) is used to perform processing according to the following [Equation 6], and the real part Al (4, j) and imaginary part Bl (4, j) of the conversion data corresponding to the left channel ), Real part Ar (4, j) and imaginary part Br (4, j) of the conversion data corresponding to the right channel are obtained.

〔数式6〕
Al(4,j)=Σi=0,…,N-1W(4,i)・Xl(i)・cos(2πij/N)
Bl(4,j)=Σi=0,…,N-1W(4,i)・Xl(i)・sin(2πij/N)
Ar(4,j)=Σi=0,…,N-1W(4,i)・Xr(i)・cos(2πij/N)
Br(4,j)=Σi=0,…,N-1W(4,i)・Xr(i)・sin(2πij/N)
[Formula 6]
Al (4, j) = Σi = 0,..., N-1 W (4, i) · Xl (i) · cos (2πij / N)
Bl (4, j) = Σi = 0,..., N-1 W (4, i) .Xl (i) .sin (2πij / N)
Ar (4, j) = Σi = 0,..., N-1 W (4, i) .Xr (i) .cos (2πij / N)
Br (4, j) = Σi = 0,..., N-1 W (4, i) · Xr (i) · sin (2πij / N)

上記〔数式5〕〔数式6〕において、iは、各音響フレーム内のN個のサンプルに付した通し番号であり、i=0,1,2,…N−1の整数値をとる。また、jは周波数の値について、値の小さなものから順に付した通し番号であり、iと同様にj=0,1,2,…N/2−1の整数値をとる。サンプリング周波数が44.1kHz、N=4096の場合、jの値が1つ異なると、周波数が10.8Hz異なることになる。   In the above [Formula 5] and [Formula 6], i is a serial number assigned to N samples in each acoustic frame, and takes an integer value of i = 0, 1, 2,. Further, j is a serial number assigned in order from the smallest value of the frequency value, and takes an integer value of j = 0, 1, 2,... N / 2-1 like i. When the sampling frequency is 44.1 kHz and N = 4096, if the value of j is different by one, the frequency will be different by 10.8 Hz.

上記〔数式5〕〔数式6〕に従った処理を実行することにより、各音響フレームの信号成分に窓関数を作用させた信号成分についてのスペクトルが得られる。続いて、周波数成分変更手段30が、生成されたスペクトルの所定の周波数領域から3つのスペクトル集合を抽出する。上記のように、本実施形態では、“1.7kHz〜3.4kHz”の「電話高周波帯」を抽出することになる。   By executing the processing according to the above [Equation 5] and [Equation 6], a spectrum of the signal component obtained by applying a window function to the signal component of each acoustic frame is obtained. Subsequently, the frequency component changing unit 30 extracts three spectrum sets from a predetermined frequency region of the generated spectrum. As described above, in this embodiment, the “telephone high frequency band” of “1.7 kHz to 3.4 kHz” is extracted.

ここで、図3に、本実施形態による周波数成分の状態を1音響フレーム単位で示す。図3に示す各音響フレームにおいて、横軸は時間方向、縦軸は周波数方向を示している。また、網掛けされた部分は、周波数成分が存在している(0より大)部分を示し、網掛けが濃いほど成分強度が強いことを示している。本実施形態では、電話高周波帯のうち時間的に前部の成分と後部の成分の分布により埋め込む符号の区別を行う。   Here, FIG. 3 shows the state of the frequency component according to the present embodiment in units of one acoustic frame. In each acoustic frame shown in FIG. 3, the horizontal axis indicates the time direction, and the vertical axis indicates the frequency direction. The shaded portion indicates a portion where the frequency component exists (greater than 0), and the darker the shaded portion, the stronger the component strength. In the present embodiment, the codes to be embedded are distinguished based on the distribution of the front and rear components in the telephone high frequency band.

本実施形態では、図3(a)に示すような原状態の周波数成分に対して、各音響フレームの電話高周波帯における成分の状態を変更することにより、3つの状態に設定する。具体的には、前部、後部ともに成分が除去された状態(以下、「状態0」という)、前部の強度が大きい状態(以下、「状態1」という)、後部の強度が大きい状態(以下、「状態2」という)のいずれかに変更する。このうち、状態0は書込みエラーが生じた場合に用いるため、状態1と状態2により、1音響フレームに2値(1ビット)の情報を埋め込むことが可能となる。   In the present embodiment, three states are set by changing the state of the component in the telephone high frequency band of each acoustic frame with respect to the frequency component in the original state as shown in FIG. Specifically, both the front and rear components are removed (hereinafter referred to as “state 0”), the front strength is high (hereinafter referred to as “state 1”), and the rear strength is high ( Hereinafter, the state is changed to any one of “state 2”. Among these, since state 0 is used when a writing error occurs, state 1 and state 2 enable binary (1 bit) information to be embedded in one acoustic frame.

状態0に設定する場合、L-chの信号の電話高周波帯の成分を全て除去し、除去した成分と同等の成分をR-chの信号の電話高周波帯に加算して図3(b)に示すような状態に変更する。状態1に設定する場合、L-chの信号の電話高周波帯の前部の各スペクトル集合の強度を高め、R-chの信号の電話高周波帯の前部の各スペクトル集合の強度を弱めている。また、L-chの信号の電話高周波帯の中央部と後部の各スペクトル集合の成分を除去し、除去した成分と同等の成分をR-chの信号の電話高周波帯に加算する。このようにして図3(c)に示すような状態に変更する。   When the state is set to 0, all the components of the telephone high frequency band of the L-ch signal are removed, and a component equivalent to the removed component is added to the telephone high frequency band of the R-ch signal, and the result is shown in FIG. Change to the state shown. When the state 1 is set, the intensity of each spectrum set in the front of the telephone high frequency band of the L-ch signal is increased, and the intensity of each spectrum set in the front of the telephone high frequency band of the R-ch signal is decreased. . In addition, the components of each spectrum set at the center and the rear of the telephone high frequency band of the L-ch signal are removed, and a component equivalent to the removed component is added to the telephone high frequency band of the R-ch signal. In this way, the state is changed to the state shown in FIG.

状態2に設定する場合、L-chの信号の電話高周波帯の前部と中央部の各スペクトル集合の成分を除去し、除去した成分と同等の成分をR-chの信号の電話高周波帯に加算する。また、L-chの信号の電話高周波帯の後部のスペクトル集合の強度を高め、R-chの信号の電話高周波帯の後部のスペクトル集合の強度を弱めている。このようにして図3(d)に示すような状態に変更する。   When setting to state 2, the component of each spectrum set in the front and center of the telephone high frequency band of the L-ch signal is removed, and a component equivalent to the removed component is changed to the telephone high frequency band of the R-ch signal. to add. Further, the intensity of the spectrum set at the rear of the telephone high frequency band of the L-ch signal is increased, and the intensity of the spectrum set at the rear of the telephone high frequency band of the R-ch signal is weakened. In this way, the state is changed to the state shown in FIG.

周波数成分変更手段30は、Aタイプの音響フレームについて、付加情報読込手段70が読み込んだビット値に応じて、スペクトル集合の強度を変更する処理を行う。本実施形態では、付加情報を1ビットずつ読み込み、2通りの値のいずれであるかを1音響フレームに対して埋め込む。周波数成分変更手段30は、読み込んだ値1、値2に応じて、電話高周波帯成分の状態を状態1、状態2のいずれかに変更する。具体的には、まず、周波数成分変更手段30は、上記〔数式5〕により求めた左チャンネルの実部Al(1,j)、Al(3,j)、虚部Bl(1,j)、Bl(3,j)、右チャンネルの実部Ar(1,j)、Ar(3,j)、虚部Br(1,j)、Br(3,j)を利用して、以下の〔数式7〕により、強度値E1、E2を算出する。 The frequency component changing unit 30 performs a process of changing the intensity of the spectrum set according to the bit value read by the additional information reading unit 70 for the A type acoustic frame. In the present embodiment, additional information is read bit by bit, and one of two values is embedded in one acoustic frame. The frequency component changing means 30 changes the state of the telephone high frequency band component to either state 1 or state 2 according to the read value 1 and value 2. Specifically, first, the frequency component changing means 30 performs real part Al (1, j), Al (3, j), imaginary part Bl (1, j) of the left channel obtained by the above [Equation 5], By using Bl (3, j), real part Ar (1, j), Ar (3, j), imaginary part Br (1, j), Br (3, j) of the right channel, 7], the intensity values E 1 and E 2 are calculated.

〔数式7〕
1=Σj=m,M-1{Al(1,j)2+Bl(1,j)2+Ar(1,j)2+Br(1,j)2}・F(j−m)・C
2=Σj=m,M-1{Al(3,j)2+Bl(3,j)2+Ar(3,j)2+Br(3,j)2}・F(j−m)・C
[Formula 7]
E 1 = Σ j = m, M-1 {Al (1, j) 2 + Bl (1, j) 2 + Ar (1, j) 2 + Br (1, j) 2 } · F (j−m) · C
E 2 = Σ j = m, M−1 {Al (3, j) 2 + Bl (3, j) 2 + Ar (3, j) 2 + Br (3, j) 2 } · F (j−m) · C

上記〔数式7〕中のF(j)は周波数方向の値に応じて変化する窓関数であり、以下の〔数式8〕で定義されるものである。   F (j) in the above [Equation 7] is a window function that changes according to the value in the frequency direction, and is defined by the following [Equation 8].

〔数式8〕
F(j)=1.0−(j−Pr)2/Pr2
[Formula 8]
F (j) = 1.0− (j−Pr) 2 / Pr 2

上記〔数式8〕において、Pr=P/2である。なお、P=M−mである。この窓関数F(j)が描く曲線を図4に示す。図4に示すように、窓関数F(j)は、電話高周波帯における周波数の中心部分に重みを大きくした関数となっている。実際に窓関数F(j)を適用する際には、電話高周波帯の下限であるmだけjの値を補正して適用することになる。   In the above [Formula 8], Pr = P / 2. Note that P = M−m. A curve drawn by the window function F (j) is shown in FIG. As shown in FIG. 4, the window function F (j) is a function in which the weight is increased at the center portion of the frequency in the telephone high frequency band. When the window function F (j) is actually applied, the value of j is corrected by m which is the lower limit of the telephone high frequency band.

また、上記〔数式7〕中のCは固定係数であり、周波数窓関数を利用することにより低減する強度を補正する。この固定係数Cは、以下の〔数式9〕で定義される。   Further, C in [Expression 7] is a fixed coefficient, and corrects the strength to be reduced by using the frequency window function. The fixed coefficient C is defined by the following [Equation 9].

〔数式9〕
C=1.0/Σj=0,P-1F(j)
[Formula 9]
C = 1.0 / Σ j = 0, P-1 F (j)

上記〔数式7〕において、mは電話高周波帯の下限の成分の番号、Mは電話高周波帯の上限のすぐ上の成分の番号である。本実施形態では、電話高周波帯を“1.7kHz〜3.4kHz”とするため、m=160、M=320に設定する。したがって、この場合、P=160となる。上記〔数式7〕により算出されたE1、E2は音響フレームの電話高周波帯における前部、後部のスペクトル集合の強度値を示すことになる。続いて、この強度値E1、E2がレベル下限値Lev以上であるかどうかの判定を行う。レベル下限値Levは、音響信号Xl(i)、Xr(i)の振幅最大値が1に正規化されており、M=320に設定されている場合、0.25に設定する。このLev=0.25という値は、経験的にアナログ変換への耐性が維持できるレベルであり、成分強度が小さい場合は適宜下げることになるが、その場合は、アナログ変換により検出精度も低下することになる。 In the above [Expression 7], m is the number of the lower limit component of the telephone high frequency band, and M is the number of the component immediately above the upper limit of the telephone high frequency band. In this embodiment, in order to set the telephone high frequency band to “1.7 kHz to 3.4 kHz”, m = 160 and M = 320 are set. Therefore, in this case, P = 160. E 1 and E 2 calculated by the above [Equation 7] indicate the intensity values of the front and rear spectrum sets in the telephone high frequency band of the acoustic frame. Subsequently, it is determined whether or not the intensity values E 1 and E 2 are equal to or higher than the level lower limit value Lev. The level lower limit value Lev is set to 0.25 when the maximum amplitude value of the acoustic signals Xl (i) and Xr (i) is normalized to 1 and M = 320. This value of Lev = 0.25 is a level at which the resistance to analog conversion can be maintained empirically, and if the component intensity is small, it will be reduced as appropriate, but in that case, the detection accuracy also decreases due to analog conversion. It will be.

強度値E1、E2がレベル下限値Lev以上であるかどうかを判断するのは、信号の強度が小さいと、信号を変化させても、その変化を抽出側で検出することができないためである。すなわち、電話高周波帯における各スペクトル成分を十分な大きさとすることができるかどうかを判断することになる。 The reason why it is determined whether the intensity values E 1 and E 2 are equal to or higher than the level lower limit value Lev is that if the signal intensity is small, even if the signal is changed, the change cannot be detected on the extraction side. is there. That is, it is determined whether or not each spectrum component in the telephone high frequency band can be made sufficiently large.

1がレベル下限値Levより大きく、埋め込むべき値が“値1”である場合、以下の〔数式10〕に従った処理を実行することにより、電話高周波帯の状態を“状態1”、すなわち、図3(c)に示したような状態に変更する。 When E 1 is larger than the level lower limit value Lev and the value to be embedded is “value 1”, the state according to the following [Equation 10] is executed to change the state of the telephone high frequency band to “state 1”, that is, Then, the state is changed as shown in FIG.

〔数式10〕
j=m〜M−1の各成分に対して
Al´(3,j)=0
Bl´(3,j)=0
E(3,j)={Al(3,j)2+Bl(3,j)2+Ar(3,j)2+Br(3,j)21/2
Ar´(3,j)=Ar(3,j)・E(3,j)/{Ar(3,j)2+Br(3,j)21/2
Br´(3,j)=Br(3,j)・E(3,j)/{Ar(3,j)2+Br(3,j)21/2
Al´(2,j)=0
Bl´(2,j)=0
E(2,j)={Al(2,j)2+Bl(2,j)2+Ar(2,j)2+Br(2,j)21/2
Ar´(2,j)=Ar(2,j)・E(2,j)/{Ar(2,j)2+Br(2,j)21/2
Br´(2,j)=Br(2,j)・E(2,j)/{Ar(2,j)2+Br(2,j)21/2
さらに、j=m〜M−1の各成分に対して、
E(1,j)={Al(1,j)2+Bl(1,j)2+Ar(1,j)2+Br(1,j)21/2
Al´(1,j)=F(j−m)・Al(1,j)・E(1,j)/{Al(1,j)2+Bl(1,j)21/2
Bl´(1,j)=F(j−m)・Bl(1,j)・E(1,j)/{Al(1,j)2+Bl(1,j)21/2
Ar´(1,j)=(1.0−F(j−m))・Al(1,j)・E(1,j)/{Al(1,j)2+Bl(1,j)21/2
Br´(1,j)=(1.0−F(j−m))・Bl(1,j)・E(1,j)/{Al(1,j)2+Bl(1,j)21/2
[Formula 10]
For each component of j = m to M−1, Al ′ (3, j) = 0
Bl ′ (3, j) = 0
E (3, j) = {Al (3, j) 2 + B1 (3, j) 2 + Ar (3, j) 2 + Br (3, j) 2 } 1/2
Ar ′ (3, j) = Ar (3, j) · E (3, j) / {Ar (3, j) 2 + Br (3, j) 2 } 1/2
Br ′ (3, j) = Br (3, j) · E (3, j) / {Ar (3, j) 2 + Br (3, j) 2 } 1/2
Al ′ (2, j) = 0
Bl ′ (2, j) = 0
E (2, j) = {Al (2, j) 2 + Bl (2, j) 2 + Ar (2, j) 2 + Br (2, j) 2 } 1/2
Ar ′ (2, j) = Ar (2, j) · E (2, j) / {Ar (2, j) 2 + Br (2, j) 2 } 1/2
Br ′ (2, j) = Br (2, j) · E (2, j) / {Ar (2, j) 2 + Br (2, j) 2 } 1/2
Furthermore, for each component of j = m to M−1,
E (1, j) = {Al (1, j) 2 + Bl (1, j) 2 + Ar (1, j) 2 + Br (1, j) 2 } 1/2
Al ′ (1, j) = F (j−m) · Al (1, j) · E (1, j) / {Al (1, j) 2 + Bl (1, j) 2 } 1/2
Bl ′ (1, j) = F (j−m) · B1 (1, j) · E (1, j) / {Al (1, j) 2 + B1 (1, j) 2 } 1/2
Ar ′ (1, j) = (1.0−F (j−m)) · Al (1, j) · E (1, j) / {Al (1, j) 2 + Bl (1, j) 2 } 1/2
Br ′ (1, j) = (1.0−F (j−m)) · B1 (1, j) · E (1, j) / {Al (1, j) 2 + B1 (1, j) 2 } 1/2

上記〔数式10〕においては、j=m〜M−1において、Al´(3,j)、Bl´(3,j)を共に0としている。これは、図3(c)の上段に示すように、L-chにおいて、電話高周波帯の後部の各成分を0にすることを示しているが、“状態1”は、電話高周波帯の前部との差を明確にすることができれば十分であるため、必ずしも0にする必要はなく、十分に小さな値であれば良い。   In the above [Expression 10], both of Al ′ (3, j) and Bl ′ (3, j) are set to 0 in j = m to M−1. As shown in the upper part of FIG. 3C, this indicates that each component at the rear part of the telephone high frequency band is set to 0 in L-ch. Since it is sufficient if the difference from the part can be clarified, it is not necessarily required to be 0, and a sufficiently small value may be used.

2がレベル下限値Levより大きく、埋め込むべき値が“値2”である場合、以下の〔数式11〕に従った処理を実行することにより、電話高周波帯の状態を“状態2”、すなわち、図3(d)に示したような状態に変更する。 When E 2 is larger than the level lower limit value Lev and the value to be embedded is “value 2”, the process according to the following [Equation 11] is executed to change the state of the telephone high frequency band to “state 2”, that is, Then, the state is changed to the state shown in FIG.

〔数式11〕
j=m〜M−1の各成分に対して、
Al´(1,j)=0
Bl´(1,j)=0
E(1,j)={Al(1,j)2+Bl(1,j)2+Ar(1,j)2+Br(1,j)21/2
Ar´(1,j)=Ar(1,j)・E(1,j)/{Ar(1,j)2+Br(1,j)21/2
Br´(1,j)=Br(1,j)・E(1,j)/{Ar(1,j)2+Br(1,j)21/2
Al´(2,j)=0
Bl´(2,j)=0
E(2,j)={Al(2,j)2+Bl(2,j)2+Ar(2,j)2+Br(2,j)21/2
Ar´(2,j)=Ar(2,j)・E(2,j)/{Ar(2,j)2+Br(2,j)21/2
Br´(2,j)=Br(2,j)・E(2,j)/{Ar(2,j)2+Br(2,j)21/2
さらに、j=m〜M−1の各成分に対して、
E(3,j)={Al(3,j)2+Bl(3,j)2+Ar(3,j)2+Br(3,j)21/2
Al´(3,j)=F(j−m)・Al(3,j)・E(3,j)/{Al(3,j)2+Bl(3,j)21/2
Bl´(3,j)=F(j−m)・Bl(3,j)・E(3,j)/{Al(3,j)2+Bl(3,j)21/2
Ar´(3,j)=(1.0−F(j−m))・Al(3,j)・E(3,j)/{Al(3,j)2+Bl(3,j)21/2
Br´(3,j)=(1.0−F(j−m))・Bl(3,j)・E(3,j)/{Al(3,j)2+Bl(3,j)21/2
[Formula 11]
For each component of j = m to M−1,
Al ′ (1, j) = 0
Bl ′ (1, j) = 0
E (1, j) = {Al (1, j) 2 + Bl (1, j) 2 + Ar (1, j) 2 + Br (1, j) 2 } 1/2
Ar ′ (1, j) = Ar (1, j) · E (1, j) / {Ar (1, j) 2 + Br (1, j) 2 } 1/2
Br ′ (1, j) = Br (1, j) · E (1, j) / {Ar (1, j) 2 + Br (1, j) 2 } 1/2
Al ′ (2, j) = 0
Bl ′ (2, j) = 0
E (2, j) = {Al (2, j) 2 + Bl (2, j) 2 + Ar (2, j) 2 + Br (2, j) 2 } 1/2
Ar ′ (2, j) = Ar (2, j) · E (2, j) / {Ar (2, j) 2 + Br (2, j) 2 } 1/2
Br ′ (2, j) = Br (2, j) · E (2, j) / {Ar (2, j) 2 + Br (2, j) 2 } 1/2
Furthermore, for each component of j = m to M−1,
E (3, j) = {Al (3, j) 2 + Bl (3, j) 2 + Ar (3, j) 2 + Br (3, j) 2 } 1/2
Al ′ (3, j) = F (j−m) · Al (3, j) · E (3, j) / {Al (3, j) 2 + Bl (3, j) 2 } 1/2
Bl ′ (3, j) = F (j−m) · Bl (3, j) · E (3, j) / {Al (3, j) 2 + Bl (3, j) 2 } 1/2
Ar ′ (3, j) = (1.0−F (j−m)) · Al (3, j) · E (3, j) / {Al (3, j) 2 + Bl (3, j) 2 } 1/2
Br ′ (3, j) = (1.0−F (j−m)) · B1 (3, j) · E (3, j) / {Al (3, j) 2 + Bl (3, j) 2 } 1/2

上記〔数式11〕においては、j=m〜M−1において、Al´(1,j)、Bl´(1,j)を共に0としている。これは、図3(d)の上段に示すように、L-chにおいて、電話高周波帯の前部の各成分を0にすることを示しているが、“状態2”は電話高周波帯の後部との差を明確にすることができれば十分であるため、必ずしも0にする必要はなく、十分に小さな値であれば良い。   In the above [Formula 11], both of Al ′ (1, j) and Bl ′ (1, j) are set to 0 in j = m to M−1. As shown in the upper part of FIG. 3D, this indicates that each component at the front part of the telephone high frequency band is set to 0 in L-ch, but “state 2” is the rear part of the telephone high frequency band. Since it is sufficient if the difference between the two can be clarified, it is not always necessary to set the value to 0, and may be a sufficiently small value.

値を埋め込む場合、埋め込まれる側の電話高周波帯の成分強度が小さすぎると、信号を変化させても、その変化を抽出側で検出することができない。そこで、このような場合には、情報が埋め込まれている音響フレームとの違いを明確にするため、以下の〔数式12〕に従った処理を実行し、その電話高周波帯の成分を除去する。これは、図3(b)に示すような “状態0”の状態である。   When embedding a value, if the component strength of the telephone high frequency band on the embedding side is too small, even if the signal is changed, the change cannot be detected on the extraction side. Therefore, in such a case, in order to clarify the difference from the acoustic frame in which the information is embedded, processing according to the following [Equation 12] is executed to remove the component of the telephone high frequency band. This is a “state 0” state as shown in FIG.

〔数式12〕
j=0〜M−1の各成分に対して
Al´(1,j)=0
Bl´(1,j)=0
Al´(2,j)=0
Bl´(2,j)=0
Al´(3,j)=0
Bl´(3,j)=0
E(1,j)={Al(1,j)2+Bl(1,j)2+Ar(1,j)2+Br(1,j)21/2
Ar´(1,j)=Ar(1,j)・E(1,j)/{Ar(1,j)2+Br(1,j)21/2
Br´(1,j)=Br(1,j)・E(1,j)/{Ar(1,j)2+Br(1,j)21/2
E(2,j)={Al(2,j)2+Bl(2,j)2+Ar(2,j)2+Br(2,j)21/2
Ar´(2,j)=Ar(2,j)・E(2,j)/{Ar(2,j)2+Br(2,j)21/2
Br´(2,j)=Br(2,j)・E(2,j)/{Ar(2,j)2+Br(2,j)21/2
E(3,j)={Al(3,j)2+Bl(3,j)2+Ar(3,j)2+Br(3,j)21/2
Ar´(3,j)=Ar(3,j)・E(3,j)/{Ar(3,j)2+Br(3,j)21/2
Br´(3,j)=Br(3,j)・E(3,j)/{Ar(3,j)2+Br(3,j)21/2
[Formula 12]
For each component of j = 0 to M−1, Al ′ (1, j) = 0
Bl ′ (1, j) = 0
Al ′ (2, j) = 0
Bl ′ (2, j) = 0
Al ′ (3, j) = 0
Bl ′ (3, j) = 0
E (1, j) = {Al (1, j) 2 + Bl (1, j) 2 + Ar (1, j) 2 + Br (1, j) 2 } 1/2
Ar ′ (1, j) = Ar (1, j) · E (1, j) / {Ar (1, j) 2 + Br (1, j) 2 } 1/2
Br ′ (1, j) = Br (1, j) · E (1, j) / {Ar (1, j) 2 + Br (1, j) 2 } 1/2
E (2, j) = {Al (2, j) 2 + Bl (2, j) 2 + Ar (2, j) 2 + Br (2, j) 2 } 1/2
Ar ′ (2, j) = Ar (2, j) · E (2, j) / {Ar (2, j) 2 + Br (2, j) 2 } 1/2
Br ′ (2, j) = Br (2, j) · E (2, j) / {Ar (2, j) 2 + Br (2, j) 2 } 1/2
E (3, j) = {Al (3, j) 2 + B1 (3, j) 2 + Ar (3, j) 2 + Br (3, j) 2 } 1/2
Ar ′ (3, j) = Ar (3, j) · E (3, j) / {Ar (3, j) 2 + Br (3, j) 2 } 1/2
Br ′ (3, j) = Br (3, j) · E (3, j) / {Ar (3, j) 2 + Br (3, j) 2 } 1/2

上記のように、Aタイプの音響フレームに対しては、埋め込むべきビット値に応じて、電話高周波帯の変更を行う必要があるため、周波数成分変更手段30は、上記〔数式10〕〔数式11〕〔数式12〕に従った処理を実行する。ところが、Bタイプの音響フレームは、Aタイプの音響フレームのみの場合に生じる両端部分の不連続性を防止するために用いられるものであるので、ビット値に応じて電話高周波帯成分の変更を行う必要はない。そこで、周波数成分変更手段30は、Bタイプの音響フレームについては、以下の〔数式13〕に従った処理を実行し、常に左信号の電話高周波帯成分を除去する。   As described above, since it is necessary to change the telephone high frequency band in accordance with the bit value to be embedded for the A type sound frame, the frequency component changing means 30 performs the above [Formula 10] [Formula 11]. The process according to [Formula 12] is executed. However, since the B type acoustic frame is used to prevent discontinuity at both ends when only the A type acoustic frame is used, the telephone high frequency band component is changed according to the bit value. There is no need. Therefore, the frequency component changing unit 30 executes processing according to the following [Equation 13] for the B type sound frame, and always removes the telephone high frequency band component of the left signal.

〔数式13〕
j=0〜M−1の各成分に対して
Al´(4,j)=0
Bl´(4,j)=0
E(4,j)={Al(4,j)2+Bl(4,j)2+Ar(4,j)2+Br(4,j)21/2
Ar´(4,j)=Ar(4,j)・E(4,j)/{Ar(4,j)2+Br(4,j)21/2
Br´(4,j)=Br(4,j)・E(4,j)/{Ar(4,j)2+Br(4,j)21/2
[Formula 13]
For each component of j = 0 to M−1, Al ′ (4, j) = 0
Bl ′ (4, j) = 0
E (4, j) = {Al (4, j) 2 + Bl (4, j) 2 + Ar (4, j) 2 + Br (4, j) 2 } 1/2
Ar ′ (4, j) = Ar (4, j) · E (4, j) / {Ar (4, j) 2 + Br (4, j) 2 } 1/2
Br ′ (4, j) = Br (4, j) · E (4, j) / {Ar (4, j) 2 + Br (4, j) 2 } 1/2

周波数逆変換手段40は、上記のようにして、電話高周波帯成分の状態が変更されたフレームスペクトルを周波数逆変換して改変音響フレームを得る処理を行う。この周波数逆変換は、当然のことながら、周波数変換手段20が実行した手法に対応していることが必要となる。本実施形態では、周波数変換手段20において、フーリエ変換を施しているため、周波数逆変換手段40は、フーリエ逆変換を実行することになる。   As described above, the frequency reverse conversion means 40 performs the process of performing frequency reverse conversion on the frame spectrum in which the state of the telephone high frequency band component is changed to obtain a modified acoustic frame. Naturally, the inverse frequency conversion needs to correspond to the method executed by the frequency conversion means 20. In the present embodiment, since the frequency transform unit 20 performs the Fourier transform, the frequency inverse transform unit 40 executes the Fourier inverse transform.

具体的には、Aタイプの音響フレームに対しては、周波数逆変換手段40は、上記〔数式10〕〔数式11〕〔数式12〕により得られたスペクトルの左チャンネルの実部Al´(1,j)等、虚部Bl´(1,j)等、右チャンネルの実部Ar´(1,j)等、虚部Br´(1,j)等を用いて、以下の〔数式14〕に従った処理を行い、Xl´(i)、Xr´(i)を算出する。なお、上記〔数式10〕〔数式11〕〔数式12〕において改変されていない周波数成分については、Al´(1,j)等として、元の周波数成分であるAl(1,j)等を用いる。   Specifically, for the A type acoustic frame, the frequency inverse transform means 40 performs the real part Al ′ (1) of the left channel of the spectrum obtained by the above [Formula 10] [Formula 11] [Formula 12]. ), J), imaginary part Bl ′ (1, j), etc., real part Ar ′ (1, j), etc. of the right channel, imaginary part Br ′ (1, j), etc. The processing according to the above is performed to calculate Xl ′ (i) and Xr ′ (i). For frequency components that are not modified in the above [Equation 10], [Equation 11], and [Equation 12], the original frequency component Al (1, j) or the like is used as Al ′ (1, j) or the like. .

〔数式14〕
Xl´(i)=1/N・{ΣjAl´(1,j)・cos(2πij/N)−ΣjBl´(1,j)・sin(2πij/N)}+1/N・{ΣjAl´(2,j)・cos(2πij/N)−ΣjBl´(2,j)・sin(2πij/N)}+1/N・{ΣjAl´(3,j)・cos(2πij/N)−ΣjBl´(3,j)・sin(2πij/N)}+Xlp(i+N/2)
Xr´(i)=1/N・{ΣjAr´(1,j)・cos(2πij/N)−ΣjBr´(1,j)・sin(2πij/N)}+1/N・{ΣjAr´(2,j)・cos(2πij/N)−ΣjBr´(2,j)・sin(2πij/N)}+1/N・{ΣjAr´(3,j)・cos(2πij/N)−ΣjBr´(3,j)・sin(2πij/N)}+Xrp(i+N/2)
[Formula 14]
Xl' (i) = 1 / N · {Σ j Al' (1, j) · cos (2πij / N) -Σ j Bl' (1, j) · sin (2πij / N)} + 1 / N · { Σ j Al ′ (2, j) · cos (2πij / N) −Σ j Bl ′ (2, j) · sin (2πij / N)} + 1 / N · {Σ j Al ′ (3, j) · cos (2πij / N) −Σ j Bl ′ (3, j) · sin (2πij / N)} + Xlp (i + N / 2)
Xr' (i) = 1 / N · {Σ j Ar' (1, j) · cos (2πij / N) -Σ j Br' (1, j) · sin (2πij / N)} + 1 / N · { Σ j Ar' (2, j) · cos (2πij / N) -Σ j Br' (2, j) · sin (2πij / N)} + 1 / N · {Σ j Ar' (3, j) · cos (2πij / N) -Σ j Br' (3, j) · sin (2πij / N)} + Xrp (i + N / 2)

上記〔数式14〕においては、式が繁雑になるのを防ぐため、Σj=0,,N-1をΣjとして示している。上記〔数式14〕における第1式の“+Xlp(i+N/2)”、第2式の“+Xrp(i+N/2)”の項は、直前に改変された改変音響フレームのデータXlp(i)、Xrp(i)が存在する場合に、時間軸上N/2サンプル分重複することを考慮して加算するためのものである。上記〔数式14〕によりAタイプの改変音響フレームの左チャンネルの各サンプルXl´(i)、右チャンネルの各サンプルXr´(i)、が得られることになる。 In the above [Expression 14], Σ j = 0, ... , N−1 is shown as Σ j in order to prevent the expression from becoming complicated. The terms “+ Xlp (i + N / 2)” in the first equation and “+ Xrp (i + N / 2)” in the second equation in the [Equation 14] are the data Xlp (i) of the modified acoustic frame modified immediately before, When Xrp (i) exists, the addition is performed in consideration of the overlap of N / 2 samples on the time axis. According to the above [Equation 14], each sample Xl ′ (i) of the left channel and each sample Xr ′ (i) of the right channel of the type A modified acoustic frame are obtained.

Bタイプの音響フレームに対しては、周波数逆変換手段40は、上記〔数式13〕により得られたスペクトルの左チャンネルの実部Al´(4,j)、虚部Bl´(4,j)、右チャンネルの実部Ar´(4,j)、虚部Br´(4,j)を用いて、以下の〔数式15〕に従った処理を行い、Xl´(i)、Xr´(i)を算出する。なお、上記〔数式13〕において改変されていない周波数成分については、以下の〔数式15〕においてはAl´(4,j)、Bl´(4,j)、Ar´(4,j)、Br´(4,j)として、元の値であるAl(4,j)、Bl(4,j)、Ar(4,j)、Br(4,j)を用いる。   For the B type acoustic frame, the frequency inverse transform means 40 performs real part Al ′ (4, j) and imaginary part Bl ′ (4, j) of the left channel of the spectrum obtained by the above [Equation 13]. , Using the real part Ar ′ (4, j) and the imaginary part Br ′ (4, j) of the right channel, the processing according to the following [Equation 15] is performed, and Xl ′ (i), Xr ′ (i ) Is calculated. For frequency components that are not modified in the above [Equation 13], in the following [Equation 15], Al ′ (4, j), Bl ′ (4, j), Ar ′ (4, j), Br The original values Al (4, j), Bl (4, j), Ar (4, j), and Br (4, j) are used as ′ (4, j).

〔数式15〕
Xl´(i)=1/N・{ΣjAl´(4,j)・cos(2πij/N)−ΣjBl´(4,j)・sin(2πij/N)}+Xlp(i+N/2)
Xr´(i)=1/N・{ΣjAr´(4,j)・cos(2πij/N)−ΣjBr´(4,j)・sin(2πij/N)}+Xrp(i+N/2)
[Formula 15]
Xl' (i) = 1 / N · {Σ j Al' (4, j) · cos (2πij / N) -Σ j Bl' (4, j) · sin (2πij / N)} + Xlp (i + N / 2 )
Xr' (i) = 1 / N · {Σ j Ar' (4, j) · cos (2πij / N) -Σ j Br' (4, j) · sin (2πij / N)} + Xrp (i + N / 2 )

上記〔数式15〕によりBタイプの改変音響フレームの左チャンネルの各サンプルXl´(i)、右チャンネルの各サンプルXr´(i)、が得られることになる。   By the above [Equation 15], each sample Xl ′ (i) of the left channel and each sample Xr ′ (i) of the right channel of the B type modified acoustic frame are obtained.

改変音響フレーム出力手段50は、周波数逆変換手段40の処理により得られたAタイプの改変音響フレーム、Bタイプの改変音響フレームを順次出力ファイルに出力する。   The modified sound frame output unit 50 sequentially outputs the A type modified sound frame and the B type modified sound frame obtained by the processing of the frequency inverse transform unit 40 to an output file.

次に、図1に示した音響信号に対する情報の埋め込み装置の処理の全体的な流れを、図5のフローチャートに従って説明する。図1に示した装置を構成する各構成要素は、連携して図5に従った処理を実行する。図5は、付加情報1ワード分の処理に対応したものとなっている。1ワードとしては、任意のビット数に設定することができるが、上述のように、本実施形態では誤り検出ビットを含めて1バイト(8ビット)に設定されている。また、情報の埋め込みは、Aタイプの音響フレームに対して行われるので、図5は、Aタイプの音響フレームについての説明となっている。Bタイプの音響フレームについては、Aタイプの音響フレームと並行して、音響フレーム読込手段10により読み込まれ、窓関数W(4,i)を利用して周波数変換手段20により周波数変換された後、周波数成分変更手段30により電話高周波帯成分が除去され、周波数逆変換手段40により周波数逆変換された後、改変音響フレーム出力手段50により出力される。   Next, the overall flow of processing of the information embedding device for the acoustic signal shown in FIG. 1 will be described with reference to the flowchart of FIG. Each component which comprises the apparatus shown in FIG. 1 cooperates, and performs the process according to FIG. FIG. 5 corresponds to processing for one word of additional information. Although one word can be set to an arbitrary number of bits, as described above, in this embodiment, it is set to 1 byte (8 bits) including error detection bits. Further, since information embedding is performed on an A type acoustic frame, FIG. 5 illustrates the A type acoustic frame. The B type acoustic frame is read by the acoustic frame reading means 10 in parallel with the A type acoustic frame, and is frequency converted by the frequency converting means 20 using the window function W (4, i). The telephone high frequency band component is removed by the frequency component changing unit 30, the frequency is inversely converted by the frequency inverse converting unit 40, and then output by the modified acoustic frame output unit 50.

図5においては、まず、付加情報読込手段70は、付加情報記憶部62から抽出した付加情報に対して誤り検出ビットを1ビット付加して8ビットのビット配列を作成し、これを1ワードとしてセットする(S101)。具体的には、音響信号に対する情報の埋め込み装置として用いられるコンピュータ内のレジスタに1ワード読み込むことになる。   In FIG. 5, first, the additional information reading means 70 adds one bit of error detection bits to the additional information extracted from the additional information storage unit 62 to create an 8-bit bit array, and uses this as one word. Set (S101). Specifically, one word is read into a register in a computer used as an information embedding device for an acoustic signal.

次に、周波数成分変更手段30が、レジスタに保持された1ワードから1ビットを読み込む処理を行う(S102)。   Next, the frequency component changing unit 30 performs a process of reading one bit from one word held in the register (S102).

続いて、音響フレーム読込手段10が、音響信号記憶部61に記憶されたステレオ音響信号の左右の各チャンネルから、それぞれ所定数のサンプルを1音響フレームとして読み込む(S103)。   Subsequently, the acoustic frame reading means 10 reads a predetermined number of samples as one acoustic frame from each of the left and right channels of the stereo acoustic signal stored in the acoustic signal storage unit 61 (S103).

続いて、周波数変換手段20および周波数成分変更手段30が、音響フレームの電話高周波帯成分の状態を“状態1”、“状態2”のいずれかに変更する処理を行う(S104)。具体的には、読み込んだ音響フレームに対して、周波数変換を行って、その音響フレームのスペクトルであるフレームスペクトルを得る。すなわち、各音響フレームについて、3つの窓関数W(1,i)、W(2,i)、W(3,i)を用いて、上記〔数式5〕に従った処理を行うことになる。   Subsequently, the frequency converting unit 20 and the frequency component changing unit 30 perform processing for changing the state of the telephone high frequency band component of the acoustic frame to either “state 1” or “state 2” (S104). Specifically, frequency conversion is performed on the read sound frame to obtain a frame spectrum that is a spectrum of the sound frame. That is, for each acoustic frame, processing according to the above [Equation 5] is performed using three window functions W (1, i), W (2, i), and W (3, i).

続いて、周波数成分変更手段30は、上記〔数式7〕によりE1〜E2を算出する。そして、付加情報読込手段70から受け取った各ビットのビット値である値1、値2に応じて上記〔数式10〕〔数式11〕に従った処理を実行し、電話高周波帯成分の状態を“状態1”、“状態2”のいずれかに変更する。 Subsequently, the frequency component changing unit 30 calculates E 1 to E 2 by the above [Equation 7]. Then, the processing according to the above [Formula 10] and [Formula 11] is executed according to the value 1 and the value 2 which are the bit values of each bit received from the additional information reading means 70, and the state of the telephone high frequency band component is changed to “ Change to either state 1 "or" state 2 ".

S104において、“状態1”、“状態2”のいずれにも変更することができない場合は、電話高周波帯成分を“状態0”とする処理を行う(S105)。具体的には、上記〔数式12〕に従った処理を実行することになる。“状態1”、“状態2”のいずれにも変更することができない場合とは、埋め込むべき値に対応する強度値E1、E2のいずれかが、レベル下限値Lev以下となっている場合である。例えば、値1を埋め込む場合、E1がレベル下限値Levより大きい必要があるため、E1がLev以下である場合は、S105に進むことになる。 If it is not possible to change to either “state 1” or “state 2” in S104, processing for setting the telephone high frequency band component to “state 0” is performed (S105). Specifically, the process according to the above [Equation 12] is executed. The case where the state cannot be changed to either “state 1” or “state 2” means that one of the intensity values E 1 and E 2 corresponding to the value to be embedded is equal to or lower than the level lower limit value Lev. It is. For example, when the value 1 is embedded, E 1 needs to be larger than the level lower limit value Lev. Therefore, if E 1 is less than or equal to Lev, the process proceeds to S105.

上記〔数式12〕に従った処理を実行することにより、左チャンネルのフレームスペクトルの電話高周波帯成分は、前部のスペクトル集合、後部のスペクトル集合ともに“0”で同一となる。なお、上記〔数式12〕においては、j=0〜M−1の各成分に対してAl´(j)=Bl´(j)=0としているが、抽出側において、“状態1”、“状態2”のいずれでもないことを認識可能とすることを目的としているため、十分小さな値であれば、必ずしも0とする必要はない。また、必ずしも前部と後部のスペクトル成分の値が同一である必要はなく、差が小さければ良い。   By executing the processing according to the above [Equation 12], the telephone high frequency band component of the frame spectrum of the left channel is the same as “0” in both the front spectrum set and the rear spectrum set. In the above [Equation 12], Al ′ (j) = Bl ′ (j) = 0 is set for each component of j = 0 to M−1, but “state 1”, “ The purpose is to make it possible to recognize that the state is not any of the states 2 ″. Therefore, if the value is sufficiently small, it is not necessarily set to 0. In addition, the values of the front and rear spectral components do not necessarily have to be the same, and it is sufficient that the difference is small.

次に、周波数逆変換手段40が、上記S104、S105の処理により各スペクトル集合間の強度割合が変更されたフレームスペクトルを周波数逆変換して改変音響フレームを得る処理を行う(S106)。この周波数逆変換は、当然のことながら、周波数変換手段20がS104において実行した手法に対応していることが必要となる。本実施形態では、周波数変換手段20において、フーリエ逆変換を施しているため、周波数逆変換手段40は、フーリエ逆変換を実行することになる。具体的には、上記〔数式10〕〔数式11〕〔数式12〕のいずれかにより得られたスペクトルの左チャンネルの実部Al´(1,j)等、虚部Bl´(1,j)等、右チャンネルの実部Ar´(1,j)等、虚部Br´(1,j)等を用いて、上記〔数式14〕に従った処理を行い、Xl´(i)、Xr´(i)を算出する。   Next, the frequency inverse transform means 40 performs the process of obtaining the modified acoustic frame by performing the frequency inverse transform on the frame spectrum in which the intensity ratio between the spectrum sets is changed by the processes of S104 and S105 (S106). As a matter of course, this frequency inverse transform needs to correspond to the method executed by the frequency converter 20 in S104. In the present embodiment, since the frequency transform unit 20 performs the inverse Fourier transform, the frequency inverse transform unit 40 performs the inverse Fourier transform. Specifically, the imaginary part Bl ′ (1, j), such as the real part Al ′ (1, j) of the left channel of the spectrum obtained by any one of the above [Formula 10], [Formula 11] and [Formula 12]. And the like, using the real part Ar ′ (1, j) of the right channel, the imaginary part Br ′ (1, j), etc., the processing according to the above [Equation 14] is performed, and Xl ′ (i), Xr ′ (I) is calculated.

改変音響フレーム出力手段50は、得られた改変音響フレームを順次出力ファイルに出力する。こうして1つの音響フレームに対する処理を終えたら、状態0に設定した場合には、音響フレーム読込手段10が、次の音響フレームを読み込む(S103)。一方、状態1、状態2のいずれかに設定した場合には、周波数成分変更手段30がビット配列中の次の1ビットを読み込む(S102)。以上のような処理を音響信号の両チャンネルの全サンプルに渡って実行していく。すなわち、所定数のサンプルを音響フレームとして読み込み、音響信号から読み込むべき音響フレームがなくなったら(S103)、処理を終了する。なお、S101において読み込んだ1ワードのデータの各ビットに対応する処理を終えた場合、S102からS101に戻り、付加情報の次のワードを読み込んでビット配列を作成する処理を行うことになる。付加情報の全ワードに対して処理が終了した場合は、付加情報の先頭ワードに戻って処理を行う。この結果、全ての音響フレームに対して処理を行った全ての改変音響フレームが出力ファイルに記録されて、改変音響信号として得られる。得られた改変音響信号は、記憶手段60内の改変音響信号記憶部63に出力され、記憶される。   The modified sound frame output means 50 sequentially outputs the obtained modified sound frames to an output file. When the processing for one acoustic frame is finished in this way, when the state is set to 0, the acoustic frame reading means 10 reads the next acoustic frame (S103). On the other hand, when either state 1 or state 2 is set, the frequency component changing unit 30 reads the next 1 bit in the bit array (S102). The above processing is executed over all samples of both channels of the acoustic signal. That is, a predetermined number of samples are read as sound frames, and when there are no more sound frames to be read from the sound signal (S103), the process ends. When the process corresponding to each bit of the data of one word read in S101 is completed, the process returns from S102 to S101, and the process of creating the bit array by reading the next word of the additional information is performed. When the processing is completed for all the words of the additional information, the processing returns to the first word of the additional information. As a result, all modified acoustic frames that have been processed for all acoustic frames are recorded in the output file and obtained as modified acoustic signals. The obtained modified acoustic signal is output to and stored in the modified acoustic signal storage unit 63 in the storage unit 60.

なお、本実施形態では、付加情報を1ワード7ビットとし、誤り検出用の1ビットを付加して1ワード8ビットとして処理する場合について説明したが、抽出側と取り決めがある限り、付加情報の1ワードを任意のビット数単位で記録することが可能である。   In this embodiment, the case has been described where the additional information is 7 bits per word, and 1 bit for error detection is added and processed as 8 bits per word. However, as long as there is an agreement with the extraction side, the additional information One word can be recorded in an arbitrary number of bits.

上記のようにして得られた改変音響信号の左チャンネルのうち、付加情報が埋め込まれている部分については、電話高周波帯成分は、上記状態0〜状態2の3通りの分布しかないことになる。しかし、電話高周波帯以外の周波数帯における成分については、元の音響信号のままであるので、制作者の設定に基づいた種々な分布になる。また、上記の例で示したように、ステレオ音響信号を利用した場合には、左チャンネルにおいて変化させられた電話高周波帯成分は、上記〔数式10〕〔数式11〕〔数式12〕の処理からも明らかなように、必ず右チャンネルの電話高周波帯成分に付加されている。したがって、右チャンネルが左チャンネルにおいて削除された成分を補っているため、両チャンネル全体として見ると、信号の劣化がない。   Of the left channel of the modified acoustic signal obtained as described above, in the portion where the additional information is embedded, the telephone high frequency band component has only three distributions of the state 0 to the state 2 described above. . However, the components in the frequency band other than the telephone high frequency band remain the original acoustic signal, and thus have various distributions based on the setting of the producer. Further, as shown in the above example, when a stereo sound signal is used, the telephone high frequency band component changed in the left channel is obtained from the processing of [Expression 10], [Expression 11], and [Expression 12]. As is obvious, it is always added to the telephone high frequency band component of the right channel. Therefore, since the right channel supplements the deleted component in the left channel, there is no signal degradation when viewed as both channels as a whole.

(4.音響信号からの情報の抽出装置)
次に、本発明に係る音響信号からの情報の抽出装置について説明する。図6は、本発明に係る音響信号からの情報の抽出装置の一実施形態を示す構成図である。図6において、100は音響信号入力手段、110は基準フレーム獲得手段、120は位相変更フレーム設定手段、130は周波数変換手段、140は符号判定パラメータ算出手段、150は符号出力手段、160は付加情報抽出手段、170は音響フレーム保持手段である。
(4. Device for extracting information from acoustic signals)
Next, an apparatus for extracting information from an acoustic signal according to the present invention will be described. FIG. 6 is a block diagram showing an embodiment of an apparatus for extracting information from an acoustic signal according to the present invention. In FIG. 6, 100 is an acoustic signal input unit, 110 is a reference frame acquisition unit, 120 is a phase change frame setting unit, 130 is a frequency conversion unit, 140 is a code determination parameter calculation unit, 150 is a code output unit, and 160 is additional information. Extraction means 170 is an acoustic frame holding means.

音響信号入力手段100は、流れている音声をデジタル音響信号として取得し、入力する機能を有している。現実には、マイクロフォンおよびA/D変換器により実現される。マイクロフォンとしては、電話高周波帯成分が検出可能なものであれば、モノラル無指向性のものであっても、ステレオ指向性のものであっても使用可能である。ステレオ指向性のものであっても一方のチャンネルだけ利用すれば良い。また、図2に示した装置で情報の埋め込みを行った場合には、特別精度の高いものでなく、一般的な精度のマイクロフォンを用いても情報の抽出が可能となる。基準フレーム獲得手段110は、入力されたデジタルのモノラル音響信号(あるいはステレオ音響信号の1チャンネル)から所定数のサンプルで構成される音響フレームを基準フレームとして読み込む機能を有している。位相変更フレーム設定手段120は、基準フレームと所定サンプルずつ移動させることにより位相を変更した音響フレームを位相変更フレームとして設定する機能を有している。周波数変換手段130は、図2に示した周波数変換手段20と同様の機能を有している。   The acoustic signal input unit 100 has a function of acquiring and inputting a flowing sound as a digital acoustic signal. In reality, it is realized by a microphone and an A / D converter. As the microphone, any microphone can be used as long as it can detect a high-frequency band component of a telephone, and it can be monaural omnidirectional or stereo directional. Even if it is stereo-directional, only one channel needs to be used. In addition, when information is embedded by the apparatus shown in FIG. 2, the information can be extracted even if a microphone having a general accuracy is used instead of a high accuracy one. The reference frame acquisition unit 110 has a function of reading an audio frame composed of a predetermined number of samples as a reference frame from the input digital monaural audio signal (or one channel of a stereo audio signal). The phase change frame setting means 120 has a function of setting, as a phase change frame, an acoustic frame whose phase has been changed by moving the reference frame and a predetermined sample at a time. The frequency conversion means 130 has the same function as the frequency conversion means 20 shown in FIG.

符号判定パラメータ算出手段140は、生成されたフレームスペクトルから電話高周波帯に相当する周波数成分を抽出し、各スペクトル集合に対応した強度値EC1、EC2を以下の〔数式16〕に基づいて算出し、この強度値EC1、EC2を符号判定パラメータとし、この符号判定パラメータEC1、EC2の比率等に基づいて、所定の状態であると判断する機能を有している。以下の〔数式16〕は上記〔数式7〕において右チャンネル成分を削除したもので、抽出時には右チャンネル成分を参照しないためである。 The code determination parameter calculation means 140 extracts frequency components corresponding to the telephone high frequency band from the generated frame spectrum, and calculates intensity values E C1 and E C2 corresponding to each spectrum set based on the following [Equation 16]. The intensity values E C1 and E C2 are used as code determination parameters, and a function of determining a predetermined state based on the ratio of the code determination parameters E C1 and E C2 is provided. The following [Formula 16] is obtained by deleting the right channel component in the above [Formula 7], and does not refer to the right channel component at the time of extraction.

〔数式16〕
C1=Σj=m,M-1{Al(1,j)2+Bl(1,j)2}・F(j−m)・C
C2=Σj=m,M-1{Al(3,j)2+Bl(3,j)2}・F(j−m)・C
[Formula 16]
E C1 = Σ j = m, M−1 {Al (1, j) 2 + Bl (1, j) 2 } · F (j−m) · C
E C2 = Σ j = m, M−1 {Al (3, j) 2 + Bl (3, j) 2 } · F (j−m) · C

符号出力手段150は、1つの基準フレームに対応する音響フレーム(基準フレームおよび位相変更フレーム)の中から最適な位相であると判断されるものを判断し、その音響フレームの状態に対応する符号を出力する機能を有している。符号判定パラメータ算出手段140と符号出力手段150により符号化手段が構成される。付加情報抽出手段160は、符号出力手段150により出力された3値の配列を、所定の規則により変換して意味のある付加情報として抽出する機能を有している。音響フレーム保持手段170は、連続する2個の基準フレームを保持可能なバッファメモリである。図6に示した各構成手段は、現実には情報処理機能を有する小型のコンピュータおよびその周辺機器等のハードウェアに専用のプログラムを搭載することにより実現される。特に、本発明の目的をより簡易に達成するためには、携帯型端末装置をハードウェアとして用いることが望ましい。   The code output means 150 determines what is determined to be the optimum phase from the acoustic frames (reference frame and phase change frame) corresponding to one reference frame, and selects a code corresponding to the state of the acoustic frame. It has a function to output. The code determination parameter calculation unit 140 and the code output unit 150 constitute an encoding unit. The additional information extraction unit 160 has a function of converting the ternary array output by the code output unit 150 according to a predetermined rule and extracting it as meaningful additional information. The acoustic frame holding means 170 is a buffer memory that can hold two consecutive reference frames. Each component shown in FIG. 6 is actually realized by mounting a dedicated program on hardware such as a small computer having an information processing function and its peripheral devices. In particular, in order to achieve the object of the present invention more easily, it is desirable to use a portable terminal device as hardware.

(5.抽出装置の処理動作)
次に、図6に示した音響信号からの情報の抽出装置の処理動作について図7のフローチャートに従って説明する。まず、本装置では、平均符号レベルHL1、HL2、位相判定テーブルS(p)、非符号カウンタNnを初期化する(S200)。これらについて説明する。平均符号レベルHL1、HL2は、値1、値2が埋め込まれていたと判断される音響フレーム(以下、有効フレームと呼ぶことにする)についての、上記〔数式16〕で算出される電話高周波帯成分の強度値EC1、EC2それぞれの平均値、すなわち、過去の有効フレームにおけるこれらの値の平均値で与えられるものであり、初期値は、0.1に設定されている。位相判定テーブルS(p)は、位相を判定するためのテーブルであり、pは0〜5の整数値をとる。初期値はS(p)=0に設定されている。非符号カウンタNnは、信号レベルが低く、非符号(埋め込みエラーを示す情報)であると判断されるフレーム数のカウンタであり、初期状態では、Nn=0に設定される。
(5. Processing operation of extraction device)
Next, the processing operation of the apparatus for extracting information from the acoustic signal shown in FIG. 6 will be described with reference to the flowchart of FIG. First, in this apparatus, the average code levels HL1 and HL2, the phase determination table S (p), and the non-code counter Nn are initialized (S200). These will be described. The average code levels HL1 and HL2 are telephone high-frequency band components calculated by the above [Equation 16] for an acoustic frame (hereinafter referred to as an effective frame) determined to be embedded with values 1 and 2. Intensity values E C1 and E C2 are average values, that is, given by the average value of these values in the past effective frame, and the initial value is set to 0.1. The phase determination table S (p) is a table for determining the phase, and p takes an integer value of 0 to 5. The initial value is set to S (p) = 0. The non-sign counter Nn is a counter for the number of frames that are determined to have a low signal level and non-sign (information indicating an embedding error), and is set to Nn = 0 in the initial state.

このように、初期値が設定されている状態で、利用者が流れている音楽について、その楽曲名等の属性情報を知りたいと思った場合、まず、抽出装置に対して、抽出装置としての起動の指示を行う。これは、例えば、抽出装置を携帯電話機等の携帯端末で実現している場合は、所定のボタンを操作することにより実行できる。抽出装置は、指示が入力されると、音響信号入力手段100が、流れている音楽を録音し、デジタル化してデジタル音響信号として入力する。具体的には、無指向性マイクロフォン(または指向性マイクロフォンの一方のチャンネル)から入力される音声を、A/D変換器によりデジタル化する処理を行うことになる。   In this way, when the initial value is set and the user wants to know the attribute information such as the song name of the music that is flowing, first, the extraction device Instruct startup. For example, this can be executed by operating a predetermined button when the extraction device is realized by a mobile terminal such as a mobile phone. When an instruction is input to the extraction device, the acoustic signal input unit 100 records the flowing music, digitizes it, and inputs it as a digital acoustic signal. More specifically, the audio input from the omnidirectional microphone (or one channel of the directional microphone) is digitized by the A / D converter.

続いて、基準フレーム獲得手段110が、音響信号入力手段100から入力された音響信号から、所定数のサンプルで構成される音響フレームを基準フレームとして抽出する(S201)。具体的には、基準フレームを抽出して音響フレーム保持手段170に読み込むことになる。基準フレーム獲得手段110が基準フレームとして読み込む1音響フレームのサンプル数は、図2に示した音響フレーム読込手段10で設定されたものと同一にする必要がある。したがって、本実施形態の場合、基準フレーム獲得手段110は、4096サンプルずつ、順次基準フレームとして読み込んでいくことになる。音響フレーム保持手段170には、上述のように2個の基準フレームが格納可能となっており、新しい基準フレームが読み込まれると、古い基準フレームを破棄するようになっている。したがって、音響フレーム保持手段170には、常に基準フレーム2個分(連続する8192サンプル)が格納されていることになる。   Subsequently, the reference frame acquisition unit 110 extracts an acoustic frame including a predetermined number of samples from the acoustic signal input from the acoustic signal input unit 100 as a reference frame (S201). Specifically, the reference frame is extracted and read into the acoustic frame holding unit 170. The number of samples of one sound frame read as the reference frame by the reference frame acquisition unit 110 needs to be the same as that set by the sound frame reading unit 10 shown in FIG. Therefore, in the present embodiment, the reference frame acquisition unit 110 sequentially reads 4096 samples as reference frames. The acoustic frame holding means 170 can store two reference frames as described above, and when a new reference frame is read, the old reference frame is discarded. Therefore, the sound frame holding means 170 always stores two reference frames (continuous 8192 samples).

埋め込み装置で処理する音響フレームは、先頭から途切れることなく隣接して設定される基準フレームと、この基準フレームと位相を変更した位相変更フレームとに分けることができる。基準フレームについては、最初の基準フレームとしてサンプル番号1からサンプル番号4096までを設定したら、次の基準フレームは、サンプル番号4097からサンプル番号8192、さらに次の基準フレームは、サンプル番号8193からサンプル番号12288、というように途切れることなく設定される。そして、各基準フレームについて、1/6フレーム(約683サンプル)ずつ移動した5個の位相変更フレームを設定する。例えば、最初の基準フレームについては、サンプル番号683、1366、2049、2732、3413から始まる4096のサンプルで構成される5個の位相変更フレームが設定されることになる。続いて、周波数変換手段130、符号判定パラメータ算出手段140が、読み込んだ各音響フレームから、埋め込まれている情報を判定し、対応する符号を出力する(S202)。出力される情報の形式は、付加情報が埋め込まれる場合に対応する値1、値2の2値、および値0の計3値の形式となる。   The acoustic frame processed by the embedding device can be divided into a reference frame that is set adjacently without interruption from the head, and a phase change frame in which the phase is changed. For the reference frame, after setting sample number 1 to sample number 4096 as the first reference frame, the next reference frame is sample number 4097 to sample number 8192, and the next reference frame is sample number 8193 to sample number 12288. It is set without interruption. Then, for each reference frame, five phase change frames moved by 1/6 frame (about 683 samples) are set. For example, for the first reference frame, five phase change frames configured by 4096 samples starting from sample numbers 683, 1366, 2049, 2732, and 3413 are set. Subsequently, the frequency conversion unit 130 and the code determination parameter calculation unit 140 determine embedded information from each read sound frame and output a corresponding code (S202). The format of the information to be output is a total ternary format of value 1, binary 2 and value 0 corresponding to the case where additional information is embedded.

ここで、ステップS202の符号判定処理の詳細を図8のフローチャートに従って説明する。まず、周波数変換手段130が、読み込んだ各音響フレームに対して、周波数変換を行ってフレームスペクトルを得る(S301)。この処理は、図2に示した周波数変換手段20における処理と同様である。ただし、抽出に用いるのは、左チャンネルだけであるので、上記〔数式5〕に従った処理を行い、左チャンネルに対応する変換データの実部Al(1,j)等、虚部Bl(1,j)等を得る。   Details of the code determination process in step S202 will be described with reference to the flowchart of FIG. First, the frequency conversion means 130 performs frequency conversion on each read sound frame to obtain a frame spectrum (S301). This process is the same as the process in the frequency conversion means 20 shown in FIG. However, since only the left channel is used for extraction, the processing according to [Formula 5] is performed, and the imaginary part Bl (1) such as the real part Al (1, j) of the conversion data corresponding to the left channel is performed. , J) etc.

上記周波数変換手段130における処理により、周波数に対応した成分であるスペクトルで表現されたフレームスペクトルが得られる。続いて、符号判定パラメータ算出手段140は、平均符号レベルHL1、HL2の算出を行う(S302)。具体的には、過去“状態1”であると判断された音響フレームについての強度値EC1の積算値であるv1を、過去“状態1”であると判断された音響フレームの数であるn1で除算することによりHL1を算出し、過去“状態2”であると判断された音響フレームについての強度値EC2の積算値であるv2を、過去“状態2”であると判断された音響フレームの数であるn2で除算することによりHL2を算出する。 By the processing in the frequency conversion means 130, a frame spectrum expressed by a spectrum that is a component corresponding to the frequency is obtained. Subsequently, the code determination parameter calculation unit 140 calculates the average code levels HL1 and HL2 (S302). Specifically, v1 that is an integrated value of the intensity values E C1 for the acoustic frames that have been determined to be in the “state 1” in the past is represented by n1 that is the number of acoustic frames that have been determined to be in the past “state 1”. HL1 is calculated by dividing by 2, and v2 which is the integrated value of the intensity value E C2 for the acoustic frame that has been determined to be in the past “state 2” is the acoustic frame that has been determined to be in the past “state 2”. HL2 is calculated by dividing by n2.

続いて、符号判定パラメータ算出手段140は、候補符号テーブルの初期化を行う(S303)。候補符号テーブルは、1つの基準フレームおよび5個の位相変更フレームを特定する0〜5の位相番号および、この6個の音響フレームの状態から得られる3値の符号を記録するものである。   Subsequently, the code determination parameter calculation unit 140 initializes the candidate code table (S303). The candidate code table records a phase number of 0 to 5 that specifies one reference frame and five phase change frames, and a ternary code obtained from the states of the six acoustic frames.

続いて、符号判定パラメータ算出手段140は、強度値EC1、強度値EC2を用いて、電話高周波帯成分の状態がどのような状態であるか、すなわち、1ビットの値としてどのような値が埋め込まれていたかを判断する処理を行う(S304)。具体的には、強度値EC1、EC2に対応する所定値としてそれぞれ平均符号レベルHL1、HL2に0.01を乗じた値を設定し、以下の条件に従って状態を判断し、対応する符号を出力する。 Subsequently, the code determination parameter calculation means 140 uses the intensity value E C1 and the intensity value E C2 to determine what the state of the telephone high frequency band component is, that is, what value as a 1-bit value. A process is performed to determine whether or not embedded (S304). Specifically, as the predetermined values corresponding to the intensity values E C1 and E C2 , values obtained by multiplying the average code levels HL1 and HL2 by 0.01 are determined according to the following conditions, and the corresponding codes are set. Output.

C1>0.01HL1 かつ EC1>2・EC2の場合、 値1を出力
C2>0.01HL2 かつ EC2>2・EC1の場合、 値2を出力
If E C1 > 0.01HL1 and E C1 > 2 · E C2 , the value 1 is output. If E C2 > 0.01HL2 and E C2 > 2 · E C1 , the value 2 is output.

符号判定パラメータ算出手段140は、各音響フレーム単位で、上記判定結果に応じて値1、値2のいずれかを出力する(S307)。上記いずれの条件も満たさない場合は、“状態0”であると判断し、値0を出力する(S308)。この“状態0”は、強度値E1、E2が下限値Lev以下であることにより、当該フレームに値1、値2の記録が行なわれなかったことを示す埋め込みエラーを示すものとなる。 The code determination parameter calculation means 140 outputs either value 1 or value 2 according to the determination result for each acoustic frame (S307). If none of the above conditions is satisfied, it is determined that the state is “0”, and a value of 0 is output (S308). This “state 0” indicates an embedding error indicating that the recording of the values 1 and 2 has not been performed in the frame because the intensity values E 1 and E 2 are equal to or lower than the lower limit value Lev.

また、上記判定の結果、値1、値2のいずれかを出力した場合には、さらに、以下の〔数式17〕に従って位相判定テーブルS(p)の更新を行う(S309)。   If either value 1 or value 2 is output as a result of the determination, the phase determination table S (p) is further updated according to the following [Equation 17] (S309).

〔数式17〕
“状態1”であると判断し、値1を出力した場合、S(p)←S(p)+EC1/EC2
“状態2”であると判断し、値2を出力した場合、S(p)←S(p)+EC2/EC1
[Formula 17]
When it is determined that the state is “1” and the value 1 is output, S (p) ← S (p) + E C1 / E C2
When it is determined that the state is “2” and the value 2 is output, S (p) ← S (p) + E C2 / E C1

続いて、符号判定パラメータ算出手段140は、候補符号テーブルに、最適位相となる候補を保存する(S310)。具体的には、位相判定テーブルに記録されているS(p)の値が最大となる位相番号pの値、前記S307、S308により判定された3値のいずれかの符号、その音響フレームについての上記〔数式16〕に従った処理を実行することにより算出した、電話高周波帯成分に対応するEC1、EC2のいずれかを最適位相の候補として候補符号テーブルに保存する。 Subsequently, the code determination parameter calculation unit 140 saves the candidate for the optimum phase in the candidate code table (S310). Specifically, the value of the phase number p that maximizes the value of S (p) recorded in the phase determination table, one of the three values determined in S307 and S308, and the sound frame One of E C1 and E C2 corresponding to the telephone high frequency band component calculated by executing the processing according to the above [Equation 16] is stored in the candidate code table as a candidate for the optimum phase.

続いて、全ての位相番号pに対応する処理を終えたかどうかを判定する(S311)。これは、ある基準フレームに対して全ての位相変更フレームの処理を行ったかどうかを判定している。本実施形態では、pが0〜5までの値をとるので、6回分処理していない場合は、処理していた音響フレームから所定サンプル数ずらして、位相の異なる音響フレームを設定し、S304に戻って処理を繰り返す。なお、p=0の場合が基準フレームであり、p=1〜5の場合が位相変更フレームである。全ての位相番号pに対応する処理を終えた場合は、候補保存テーブルに記録されている位相番号pに対応する位相が最適位相であると判定し、候補保存テーブルに記録されている符号を出力する(S312)。   Subsequently, it is determined whether or not the processing corresponding to all the phase numbers p has been completed (S311). This determines whether all phase change frames have been processed for a certain reference frame. In this embodiment, since p takes a value from 0 to 5, if the processing is not performed six times, an acoustic frame having a different phase is set by shifting a predetermined number of samples from the processed acoustic frame, and the process proceeds to S304. Return and repeat the process. The case where p = 0 is a reference frame, and the case where p = 1 to 5 is a phase change frame. When the processing corresponding to all the phase numbers p is completed, it is determined that the phase corresponding to the phase number p recorded in the candidate storage table is the optimum phase, and the code recorded in the candidate storage table is output. (S312).

再び図7のフローチャートに戻って説明する。S202による処理の結果、値1、値2に相当する符号が出力された場合には、平均符号レベルのパラメータの更新処理を行う(S203)。具体的には、平均符号レベルHL1、HL2算出の際の分子となる積算値v1、v2に、それぞれ強度値EC1、EC2を加算して積算値v1、v2を更新し、分母となるフレーム数n1、n2にそれぞれ1を加算してフレーム数n1、n2を更新することにより行う。n1、n2はあらかじめ設定したnmax(例えば100)を超えないように設定する。 Returning to the flowchart of FIG. As a result of the process in S202, when a code corresponding to value 1 and value 2 is output, an update process of the parameter of the average code level is performed (S203). More specifically, the intensity values E C1 and E C2 are added to the integrated values v1 and v2 which are numerators when the average code levels HL1 and HL2 are calculated, respectively, and the integrated values v1 and v2 are updated. This is done by adding 1 to the numbers n1 and n2 to update the frame numbers n1 and n2. n1 and n2 are set so as not to exceed preset n max (for example, 100).

続いて、非符号カウンタの初期化処理を行う(S204)。具体的には、上記S200の初期化処理における処理と同様、非符号カウンタNn=0と設定する。さらに、出力された値に対応する1ビットをバッファに保存する(S205)。次に、ビットカウンタを“1”だけカウントアップする(S206)。   Subsequently, initialization processing of a non-sign counter is performed (S204). Specifically, the non-sign counter Nn = 0 is set in the same manner as in the initialization process of S200. Further, 1 bit corresponding to the output value is stored in the buffer (S205). Next, the bit counter is incremented by “1” (S206).

次に、ビットカウンタが7以下であるか8以上であるかを判断する。ビットカウンタが7以下の場合は、S201に戻って、次の基準フレームを抽出する処理を行う。   Next, it is determined whether the bit counter is 7 or less or 8 or more. If the bit counter is 7 or less, the process returns to S201 to perform processing for extracting the next reference frame.

ビットカウンタが8以上である場合は、バッファに保存されたビット列のうち最後の8ビットを抽出し、そのうち前7ビットでパリティ計算を行う(S207)。そして、抽出した最後の8ビットのうち8ビット目と照合を行う。この結果、不一致の場合は、S201に戻って、次の基準フレームを抽出する処理を行う。   If the bit counter is 8 or more, the last 8 bits are extracted from the bit string stored in the buffer, and parity calculation is performed with the previous 7 bits (S207). And it collates with the 8th bit among the last 8 bits extracted. As a result, if they do not match, the process returns to S201 to perform processing for extracting the next reference frame.

照合の結果、一致する場合には、付加情報抽出手段160が、前7ビットに1ビット付加して出力する(S208)。ここで、照合結果が一致する場合は、照合に用いた8ビット目が誤り検出ビットであった可能性が高いことになる。そうすると、その前の7ビットは元の付加情報における7ビットであると考えられる。このため、その先頭からの7ビットにビット0を付加することによりASCIIコードにおける1ワードとして出力するのである。逆に不一致である場合は、照合に用いた8ビット目が誤り検出ビットでない可能性が高いことになる。そうすると、その時点で保持している7ビットは、元の付加情報における7ビットからずれたものであると考えられる。この場合は、先頭の1ビットを破棄して、S201からS206の処理により新たな1ビットを得るための処理を行うのである。   If they match as a result of the collation, the additional information extraction means 160 adds 1 bit to the previous 7 bits and outputs it (S208). Here, if the collation results match, there is a high possibility that the eighth bit used for collation was an error detection bit. Then, the previous 7 bits are considered to be 7 bits in the original additional information. Therefore, by adding bit 0 to the 7 bits from the head, it is output as one word in the ASCII code. On the other hand, if there is a mismatch, there is a high possibility that the eighth bit used for collation is not an error detection bit. Then, it is considered that the 7 bits held at that time are shifted from the 7 bits in the original additional information. In this case, the first 1 bit is discarded, and processing for obtaining a new 1 bit is performed by the processing from S201 to S206.

このようにパリティチェックを行い、これに合格した場合は、その部分がワードの区切りである可能性が高いので、それが本当に区切りであれば、以降は8ビットずつ抽出すれば、全て正確にワード単位で抽出を行うことができる。逆に、パリティチェックに合格したとしても、それが偶然であり、実はワードの区切りではない場合も考えられる。このような場合は、次のパリティチェックの際に不合格となる可能性が高く、何回か繰り返しているうちに正しい区切りが正確に判断できることになる。S208において、前7ビットに1ビット付加して出力した場合には、ビットカウンタを0に初期化する(S209)。そして、S201に戻って、次の基準フレームを抽出する処理を行う。   If parity check is performed in this way and the result passes, there is a high possibility that the part is a word delimiter. Extraction can be done in units. On the other hand, even if the parity check is passed, it may be a coincidence and not actually a word break. In such a case, there is a high possibility that the next parity check will be rejected, and the correct delimiter can be accurately determined after repeating several times. In S208, when 1 bit is added to the previous 7 bits and output, the bit counter is initialized to 0 (S209). Then, the process returns to S201 to perform processing for extracting the next reference frame.

S202による処理の結果、値0が出力された場合には、非符号カウンタのカウントアップ処理を行う(S210)。具体的には、非符号カウンタNnの値に1を加算する。そして、非符号カウンタNnの値がnmax以上である場合は、S200に戻って初期化処理を行う。非符号カウンタNnの値がnmax未満である場合は、S201に戻って符号抽出処理を継続する。図7に示す処理を各基準フレームに対して実行することにより、付加情報が抽出されることになる。S201において全ての基準フレームが抽出されたと判断された場合には、処理を終了する。 If the value 0 is output as a result of the process in S202, the non-sign counter is incremented (S210). Specifically, 1 is added to the value of the unsigned counter Nn. If the value of the non-sign counter Nn is equal to or greater than n max , the process returns to S200 and initialization processing is performed. If the value of the non-code counter Nn is less than n max , the process returns to S201 and the code extraction process is continued. By executing the processing shown in FIG. 7 for each reference frame, additional information is extracted. If it is determined in S201 that all reference frames have been extracted, the process ends.

上記S208の処理において、付加情報抽出手段160は、まず、符号出力手段150により出力された値を、所定の規則により変換して意味のある付加情報として抽出する。所定の規則としては、情報を埋め込む者が意図した情報が受け取った者に認識可能な状態とできるものであれば、さまざまな規則が採用できるが、本実施形態では、ASCIIコードを採用している。すなわち、付加情報抽出手段160は、符号判定パラメータ算出手段140が判定し、符号出力手段150から出力される符号から得られるビット値の配列を1バイト(8ビット)単位で認識し、これをASCIIコードに従って文字情報を認識する。このようにして得られた文字情報は、表示装置(図示省略)の画面に表示出力される。   In the process of S208, the additional information extraction unit 160 first converts the value output by the code output unit 150 according to a predetermined rule and extracts it as meaningful additional information. As the predetermined rule, various rules can be adopted as long as the information intended by the person who embeds the information can be recognized by the recipient. In this embodiment, the ASCII code is adopted. . That is, the additional information extraction unit 160 recognizes the bit value array obtained from the code determined by the code determination parameter calculation unit 140 and output from the code output unit 150 in units of 1 byte (8 bits), and recognizes this as ASCII. Recognizes character information according to the code. The character information thus obtained is displayed and output on a screen of a display device (not shown).

従って、埋め込み装置により音響信号に、その楽曲の曲名やアーチスト等の属性情報を文字情報として埋め込んでおけば、利用者は、その音楽が流れているのを聞いて、その曲名やアーチストを知りたいと思ったときに、抽出装置として機能する自身の携帯端末に所定の操作を行えば、自身の携帯端末の画面に曲名やアーチスト等の属性情報が文字情報として表示されることになる。   Therefore, if the embedding device embeds the attribute information such as the song title or artist in the sound signal as the character information, the user wants to know the song title or artist by listening to the music being played. If a predetermined operation is performed on the mobile terminal that functions as the extraction device, attribute information such as a song title and an artist is displayed as character information on the screen of the mobile terminal.

以上の処理においては、抽出装置において正確に付加情報を抽出するために、位相を補正する処理、無効フレームであることを判断するための下限閾値を補正する処理を行っている。次に、これらの補正処理について補足説明を行う。   In the above processing, in order to extract additional information accurately in the extraction device, processing for correcting the phase and processing for correcting the lower limit threshold value for determining that the frame is an invalid frame are performed. Next, supplementary explanation will be given for these correction processes.

(6.位相補正処理について)
上記のように、抽出時には、埋め込み時に埋め込んだ音響フレームに対応して、音響信号を読み込むことができるとは限らない。そこで、音響フレームの位相をずらして複数通り(本実施形態では6通り)で読み込み、その中で最適な位相を決定し、その位相で特定される音響フレームに対応する符号を出力することにしている。例えば、6通りで読み込む場合、先頭の音響フレームは、本来サンプル番号1〜4096のサンプルであるが、サンプル番号1、683、1366、2049、2732、3413から始まる4096のサンプルで構成される6個の各音響フレームに対して処理を行い、最適な音響フレームに対応する符号を出力することになる。この位相補正処理は、S303、S309、S310、S311、S312における処理を中心として行われることになる。
(6. About phase correction processing)
As described above, at the time of extraction, it is not always possible to read an acoustic signal corresponding to the acoustic frame embedded at the time of embedding. Therefore, the phase of the acoustic frame is shifted and read in a plurality of ways (six in this embodiment), the optimum phase is determined, and a code corresponding to the acoustic frame specified by the phase is output. Yes. For example, in the case of reading in six ways, the top acoustic frame is originally a sample of sample numbers 1 to 4096, but six pieces composed of 4096 samples starting from sample numbers 1, 683, 1366, 2049, 2732, and 3413 Are processed, and a code corresponding to the optimum acoustic frame is output. This phase correction process is performed centering on the processes in S303, S309, S310, S311, and S312.

(7.下限閾値補正処理について)
信号レベルが小さい場合には、前部、後部の強度の大小が判定できず、抽出側で誤判断することが多くなる。そこで、強度値EC1、EC2が所定の閾値以下のフレームについては、無効なフレームであると判断するようにしているが、この際の閾値を過去の有効フレームについての周波数強度の積算値を利用して補正する処理を行っている。このように閾値を変動させることにより、信号レベルが変動しても無効なフレームであるか、有効なフレームであるかを正確に判断することが可能となる。この下限閾値補正処理は、S302、S203における処理を中心として行われることになる。
(7. Lower limit correction process)
When the signal level is small, the magnitude of the intensity of the front part and the rear part cannot be determined, and misjudgment frequently occurs on the extraction side. For this reason, frames whose intensity values E C1 and E C2 are equal to or less than a predetermined threshold are determined to be invalid frames. The threshold at this time is used as an integrated value of frequency intensity for past effective frames. A correction process is performed using this. By varying the threshold value in this way, it is possible to accurately determine whether the frame is invalid or valid even if the signal level varies. This lower limit threshold correction process is performed centering on the processes in S302 and S203.

(8.モノラル音響信号の場合)
上記実施形態においては、埋め込み装置、抽出装置のいずれにおいても、左右のチャンネルを有するステレオ音響信号の左チャンネル信号に付加情報を埋め込む場合を例にとって説明したが、逆に右チャンネル信号に付加情報を埋め込むようにしても良い。本発明は、左右の特性には無関係だからである。また、1つのチャンネルしかないモノラル音響信号に対して処理を行う場合は、上記実施形態において、左チャンネル信号に対して行った処理を行うことになる。本発明は、1つのチャンネル信号に対して付加情報を埋め込み、また抽出を行うので、モノラル音響信号であってもステレオ音響信号であっても同様に行うことができる。
(8. In the case of monaural sound signal)
In the above embodiment, the case where the additional information is embedded in the left channel signal of the stereo sound signal having the left and right channels in both the embedding device and the extraction device has been described as an example, but conversely, the additional information is added to the right channel signal. It may be embedded. This is because the present invention is not related to the left and right characteristics. Further, when processing is performed on a monaural sound signal having only one channel, the processing performed on the left channel signal is performed in the above embodiment. Since the present invention embeds and extracts additional information from one channel signal, it can be similarly performed for a monaural sound signal or a stereo sound signal.

(9.信号成分が小さくても情報の埋め込みを可能とする手法)
ここまで、説明してきた処理においては、上記E1、E2が所定値より大きいことが必要となり、上記E1、E2が所定値以下の場合には、情報の埋め込みを行うことができない。そこで、以下、上記E1、E2が所定値以下であっても、信号の埋め込みを可能とする手法について説明する。
(9. Method that enables information to be embedded even if the signal component is small)
So far, in the processing described above E 1, E 2 is required to be larger than a predetermined value, the E 1, E 2 is the case of less than the predetermined value, it is impossible to embed information. Therefore, a method for enabling signal embedding even when E 1 and E 2 are not more than a predetermined value will be described below.

この場合、図1に示した埋め込み装置における情報の埋め込み処理は、図5のフローチャートに従って行われるが、強度値E1、E2がレベル下限値Lev以下となることがなくなるため、S104において周波数成分変更手段30がレベルの判定を行わない。これは、この処理では、信号レベルが小さくても強制的に情報を埋め込むこととしているため、情報の埋め込みが不可能な信号レベルが小さい部分が存在するかどうかを判断する必要がないからである。 In this case, the information embedding process in the embedding apparatus shown in FIG. 1 is performed according to the flowchart of FIG. 5. However, since the intensity values E 1 and E 2 do not become lower than the level lower limit value Lev, the frequency component in S104 The changing means 30 does not determine the level. This is because, in this process, information is forcibly embedded even if the signal level is low, so it is not necessary to determine whether there is a portion with a low signal level where information cannot be embedded. .

したがって、S104における状態1、状態2に設定する処理としては、まず、以下の〔数式18〕に従って算出される固定値Vを、電話高周波帯成分の強度として設定する。   Therefore, as processing for setting the state 1 and the state 2 in S104, first, the fixed value V calculated according to the following [Equation 18] is set as the strength of the telephone high frequency band component.

〔数式18〕
V={0.25・Lev/(M−m)}1/2
[Formula 18]
V = {0.25 · Lev / (M−m)} 1/2

そして、状態1とする場合は、上記〔数式10〕に従った処理を実行した後、以下の〔数式19〕に従った処理を実行する。   In the case of state 1, after executing the process according to the above [Equation 10], the process according to the following [Equation 19] is executed.

〔数式19〕
j=m〜M−1の各成分に対して
Al´(1,j)=F(j−m)・Al(1,j)・V/{Al(1,j)2+Bl(1,j)21/2
Bl´(1,j)=F(j−m)・Bl(1,j)・V/{Al(1,j)2+Bl(1,j)21/2
[Formula 19]
For each component of j = m to M−1, Al ′ (1, j) = F (j−m) · Al (1, j) · V / {Al (1, j) 2 + Bl (1, j 2 } 1/2
Bl ′ (1, j) = F (j−m) · B1 (1, j) · V / {Al (1, j) 2 + B1 (1, j) 2 } 1/2

状態2とする場合は、上記〔数式11〕に従った処理を実行した後、以下の〔数式20〕に従った処理を実行する。   In the case of the state 2, after executing the process according to the above [Expression 11], the process according to the following [Expression 20] is executed.

〔数式20〕
j=m〜M−1の各成分に対して
Al´(3,j)=F(j−m)・Al(3,j)・V/{Al(3,j)2+Bl(3,j)21/2
Bl´(3,j)=F(j−m)・Bl(3,j)・V/{Al(3,j)2+Bl(3,j)21/2
[Formula 20]
For each component of j = m to M−1, Al ′ (3, j) = F (j−m) · Al (3, j) · V / {Al (3, j) 2 + Bl (3, j 2 } 1/2
Bl ′ (3, j) = F (j−m) · B1 (3, j) · V / {Al (3, j) 2 + B1 (3, j) 2 } 1/2

〔数式19〕〔数式20〕により算出されたAl´、Bl´の値を、上記〔数式7〕におけるAl、Blに代えて用いると、E1、E2=Levとなるため、S104において、Levとの大小関係の判断を行う必要が不要となる。 [Equation 19] When the values of Al ′ and Bl ′ calculated by [Equation 20] are used instead of Al and Bl in the above [Equation 7], E 1 and E 2 = Lev. It is not necessary to determine the magnitude relationship with Lev.

上記のように、周波数成分が小さい場合に情報を埋め込んだ場合であっても、抽出側の、音響信号からの情報の抽出装置の構成は図6と同一であり、処理動作は図7のフローチャートに従ったものと同一である。   As described above, even when information is embedded when the frequency component is small, the configuration of the extraction device for extracting information from the acoustic signal on the extraction side is the same as that in FIG. 6, and the processing operation is the flowchart in FIG. Is the same as

上記の説明では、電話回線帯域上限を上限とする所定の周波数帯である“1.7kHz〜3.4kHz”相当の電話高周波帯に対して処理を施す場合を例にとって説明したが、音響信号からの情報の抽出装置として固定電話機または携帯電話機を利用せず、より広い周波数範囲の音声を発生、録音可能な機器を利用して音響信号からの情報の抽出装置を実現する場合には、電話回線帯域上限を上限とする所定の周波数帯である“3.4kHz〜6.8kHz”相当の超電話周波帯に対して処理を施すようにしても良い。この場合、上記〔数式7〕をはじめとする各数式で用いられるm、Mの値は、m=320、M=640に設定する。したがって、この場合、P=320となる。   In the above description, a case where processing is performed on a telephone high frequency band corresponding to “1.7 kHz to 3.4 kHz”, which is a predetermined frequency band whose upper limit is the upper limit of the telephone line band, has been described as an example. When using a device capable of generating and recording sound in a wider frequency range without using a fixed telephone or a mobile phone as an information extraction device, an information extraction device from an acoustic signal is realized using a telephone line. Processing may be performed on a super telephone frequency band corresponding to “3.4 kHz to 6.8 kHz”, which is a predetermined frequency band whose upper limit is the upper limit of the band. In this case, the values of m and M used in each equation including the above [Equation 7] are set to m = 320 and M = 640. Therefore, in this case, P = 320.

以上は全て、音響信号のサンプリング周波数が44.1kHz、音響フレームの長さNが4096である場合について説明したが、音響フレームの長さNは1/2K(Kは1以上の整数)の割合で縮小することができ、そうすると単位時間あたりの埋め込み可能な情報量(上記の説明の場合、10[bps])は2K倍に拡張させることができる。その際、音響信号のサンプリング周波数は44.1kHz固定にすると、電話高周波帯または超電話周波帯の下限mおよび上限Mも1/2K倍に縮小させるように設定する必要がある(Pも同様に1/2K倍に設定される)。具体的には、N=2048に設定すると、電話高周波帯の場合、m=80、M=160となり、超電話周波帯の場合、m=160、M=320となり、埋め込み可能な情報量は20[bps]となる。N=1024に設定すると、電話高周波帯の場合、m=40、M=80となり、超電話周波帯の場合、m=80、M=160となり、埋め込み可能な情報量は40[bps]となる。N=512に設定すると、電話高周波帯の場合、m=20、M=40となり、超電話周波帯の場合、m=40、M=80となり、埋め込み可能な情報量は80[bps]となる。更にN=256、N=128等の設定も理論上可能であるが、実験の結果、N=256以下では、埋め込み面積(時間×周波数幅)が小さ過ぎて計算誤差が発生し安定した抽出ができず、N=512が設定限界であった。 In all of the above, the case where the sampling frequency of the acoustic signal is 44.1 kHz and the length N of the acoustic frame is 4096 has been described, but the length N of the acoustic frame is 1/2 K (K is an integer of 1 or more). The amount of information that can be embedded per unit time (in the above description, 10 [bps]) can be expanded by 2 K times. At that time, if the sampling frequency of the acoustic signal is fixed to 44.1 kHz, the lower limit m and the upper limit M of the telephone high frequency band or super telephone frequency band must be set to be reduced to 1/2 K times (the same applies to P). 1/2 K times). Specifically, when N = 2048 is set, m = 80 and M = 160 in the case of the telephone high frequency band, and m = 160 and M = 320 in the case of the super telephone frequency band. [Bps]. When N = 1024, m = 40 and M = 80 in the case of the telephone high frequency band, and m = 80 and M = 160 in the super telephone frequency band, and the amount of information that can be embedded is 40 [bps]. . When N = 512 is set, m = 20 and M = 40 in the case of the telephone high frequency band, and m = 40 and M = 80 in the super telephone frequency band, and the amount of information that can be embedded is 80 [bps]. . Furthermore, it is theoretically possible to set N = 256, N = 128, etc. However, as a result of experiments, if N = 256 or less, the embedded area (time × frequency width) is too small and a calculation error occurs, so that stable extraction is possible. N = 512 was the setting limit.

本発明に係る音響信号に対する情報の埋め込み装置の機能ブロック図である。It is a functional block diagram of an information embedding device for an acoustic signal according to the present invention. 本発明で用いる時間軸方向窓関数を示す図である。It is a figure which shows the time-axis direction window function used by this invention. 図1に示した装置の処理による1音響フレームの成分変化の様子を示す図である。It is a figure which shows the mode of the component change of 1 acoustic frame by the process of the apparatus shown in FIG. 本発明で用いる周波数方向窓関数Fを示す図である。It is a figure which shows the frequency direction window function F used by this invention. 図1に示した装置の処理概要を示すフローチャートである。It is a flowchart which shows the process outline | summary of the apparatus shown in FIG. 本発明に係る音響信号からの情報の抽出装置の機能ブロック図である。1 is a functional block diagram of an apparatus for extracting information from an acoustic signal according to the present invention. 図6に示した装置の処理概要を示すフローチャートである。It is a flowchart which shows the process outline | summary of the apparatus shown in FIG. 図7のS202の符号判定処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the code | symbol determination process of S202 of FIG.

符号の説明Explanation of symbols

10・・・音響フレーム読込手段
20・・・周波数変換手段
30・・・周波数成分変更手段
40・・・周波数逆変換手段
50・・・改変音響フレーム出力手段
60・・・記憶手段
61・・・音響信号記憶部
62・・・付加情報記憶部
63・・・改変音響信号記憶部
70・・・付加情報読込手段
100・・・音響信号入力手段
110・・・基準フレーム獲得手段
120・・・位相変更フレーム設定手段
130・・・周波数変換手段
140・・・符号判定パラメータ算出手段
150・・・符号出力手段
160・・・付加情報抽出手段
170・・・音響フレーム保持手段
DESCRIPTION OF SYMBOLS 10 ... Acoustic frame reading means 20 ... Frequency conversion means 30 ... Frequency component change means 40 ... Frequency reverse conversion means 50 ... Modified acoustic frame output means 60 ... Storage means 61 ... Acoustic signal storage unit 62 ... additional information storage unit 63 ... modified acoustic signal storage unit 70 ... additional information reading means 100 ... acoustic signal input means 110 ... reference frame acquisition means 120 ... phase Change frame setting means 130 ... frequency conversion means 140 ... code determination parameter calculation means 150 ... code output means 160 ... additional information extraction means 170 ... sound frame holding means

Claims (11)

時系列のサンプル列で構成される音響信号に対して、付加情報を聴取不能な状態で埋め込む装置であって、
前記音響信号より、所定数のサンプルを音響フレームとして読み込む音響フレーム読込手段と、
前記音響フレームに対して第1窓関数、第2窓関数、第3窓関数を用いてそれぞれ周波数変換を行い、前記第1窓関数に対応するスペクトルである第1窓スペクトル、前記第2窓関数に対応するスペクトルである第2窓スペクトル、前記第3窓関数に対応するスペクトルである第3窓スペクトルを生成する周波数変換手段と、
前記生成された各窓スペクトルから、電話回線帯域上限を上限または下限とする所定の周波数帯に対応するスペクトル集合を抽出し、前記埋め込むべき付加情報の情報配列の値に基づいて、前記抽出した3セットのスペクトル集合のうち、先頭の第1窓関数と後部の第3窓関数のスペクトル強度の割合を、前記スペクトル集合の周波数範囲における中央付近における値が大きくなるように周波数方向の値に応じて変化する窓関数Fを適用して、変更すると共に、中央の第2窓関数の成分を削除する周波数成分変更手段と、
前記変更されたスペクトル強度を含む各窓スペクトルに対して周波数逆変換を行って、改変音響フレームを生成する周波数逆変換手段と、
前記生成された改変音響フレームを順次出力する改変音響フレーム出力手段と、
を有することを特徴とする音響信号に対する情報の埋め込み装置。
A device for embedding additional information in an inaudible state with respect to an acoustic signal composed of a time-series sample sequence,
From the acoustic signal, acoustic frame reading means for reading a predetermined number of samples as an acoustic frame;
The first window function, the second window function, and the second window function, which are spectrums corresponding to the first window function, by performing frequency conversion on the acoustic frame using a first window function, a second window function, and a third window function, respectively. Frequency conversion means for generating a second window spectrum that is a spectrum corresponding to, and a third window spectrum that is a spectrum corresponding to the third window function;
A spectrum set corresponding to a predetermined frequency band whose upper limit or lower limit is the telephone line band upper limit is extracted from each generated window spectrum, and the extracted 3 is extracted based on the value of the information array of the additional information to be embedded. Among the set of spectrum sets, the ratio of the spectrum intensity of the first window function at the front and the third window function at the rear is set according to the value in the frequency direction so that the value near the center in the frequency range of the spectrum set becomes large. A frequency component changing means for applying and changing the changing window function F and deleting the component of the central second window function;
Frequency inverse transform means for performing frequency inverse transform on each window spectrum including the changed spectrum intensity to generate a modified acoustic frame;
Modified acoustic frame output means for sequentially outputting the generated modified acoustic frames;
An information embedding device for an acoustic signal, comprising:
請求項1において、
前記周波数成分変更手段は、所定の固定値Vを、前記所定の周波数帯の強度として設定すると共に、前記固定値Vを利用して、前記第1窓関数と第3窓関数のスペクトルに所定の強度を与えることにより、前記第1窓関数と第3窓関数のスペクトル強度の割合を変更するものであることを特徴とする音響信号に対する情報の埋め込み装置。
In claim 1,
The frequency component changing means sets a predetermined fixed value V as the intensity of the predetermined frequency band, and uses the fixed value V to set a predetermined value in the spectrum of the first window function and the third window function. An apparatus for embedding information in an acoustic signal, wherein the ratio of spectral intensity of the first window function and the third window function is changed by giving intensity.
請求項1または請求項2において、
前記音響フレーム読込手段は、先行する音響フレームと所定数のサンプルを重複させて読み込み、読み込んだ音響フレーム全体に所定の窓関数を乗じて前記周波数変換手段に渡すものであり、
前記改変音響フレーム出力手段は、前記生成された改変音響フレームを先行する改変音響フレームと連結させて出力するものであることを特徴とする音響信号に対する情報の埋め込み装置。
In claim 1 or claim 2,
The acoustic frame reading means reads the preceding acoustic frame and a predetermined number of samples in an overlapping manner, multiplies the entire read acoustic frame by a predetermined window function and passes it to the frequency conversion means,
The apparatus for embedding information in an acoustic signal, wherein the modified acoustic frame output means outputs the generated modified acoustic frame by connecting it with a preceding modified acoustic frame.
請求項1から請求項3のいずれかにおいて、
前記電話回線帯域上限は3.4kHzであり、
前記周波数成分変更手段は、前記電話回線帯域上限を上限または下限とする所定の周波数帯のうち、電話回線帯域上限を上限とする所定の周波数帯を1.7kHz以上3.4kHz以下の範囲、電話回線帯域上限を下限とする所定の周波数帯を3.4kHz以上6.8kHz以下の範囲に設定するものであることを特徴とする音響信号に対する情報の埋め込み装置。
In any one of Claims 1-3,
The telephone line bandwidth upper limit is 3.4 kHz,
The frequency component changing means has a predetermined frequency band whose upper limit is the telephone line band upper limit among predetermined frequency bands whose upper limit or lower limit is the upper limit of the telephone line band. An apparatus for embedding information in an acoustic signal, wherein a predetermined frequency band having a lower limit of a line band upper limit is set in a range of 3.4 kHz to 6.8 kHz.
請求項1において、
前記音響信号が左右2チャンネルの時系列のサンプル列で構成されるステレオ音響信号であって、
前記音響フレーム読込手段は、各チャンネルに対応する音響フレームをそれぞれ読み込み、前記周波数変換手段は、各チャンネルの音響フレームに対して周波数変換を行い、各チャンネル別の第1窓スペクトル、第2窓スペクトル、第3窓スペクトルを生成するものであり、
前記周波数成分変更手段は、一方のチャンネルの窓スペクトルから抽出した所定の周波数帯に対応する3セットのスペクトル集合に対して、前記埋め込むべき付加情報の情報配列の値に基づいて、前記第1窓関数と第3窓関数のスペクトル強度の割合を変更すると共に、第2窓関数の成分を削除し、前記一方のチャンネルにおいて行われた変更により削除された成分を補足するよう他方のチャンネルのスペクトル集合間の強度割合を変更するものであり、
前記周波数逆変換手段は、各チャンネルについて、変更されたスペクトル強度を含むフレームスペクトルに対して周波数逆変換を行って改変音響フレームを生成し、前記改変音響フレーム出力手段は、各チャンネルについて、生成された改変音響フレームを順次出力するものであることを特徴とする音響信号に対する情報の埋め込み装置。
In claim 1,
The acoustic signal is a stereo acoustic signal composed of a time-series sample sequence of two left and right channels,
The sound frame reading means reads sound frames corresponding to the respective channels, and the frequency converting means performs frequency conversion on the sound frames of the respective channels, and the first window spectrum and the second window spectrum for each channel. , Generating a third window spectrum,
The frequency component changing means is configured to select the first window based on the value of the information array of the additional information to be embedded for three sets of spectrum sets corresponding to a predetermined frequency band extracted from the window spectrum of one channel. The spectral intensity of the other window to change the ratio of the spectral intensity of the function and the third window function, delete the component of the second window function, and supplement the component deleted by the change made in the one channel. Is to change the strength ratio between
The frequency inverse transform means generates a modified acoustic frame by performing frequency inverse transform on the frame spectrum including the changed spectrum intensity for each channel, and the modified acoustic frame output means is generated for each channel. A device for embedding information in an acoustic signal, wherein the modified acoustic frames are sequentially output.
時系列のサンプル列で構成される音響信号に対して、付加情報を聴取不能な状態で埋め込む方法であって、
前記音響信号より、所定数のサンプルを音響フレームとして読み込む音響フレーム読込段階と、
前記音響フレームに対して第1窓関数、第2窓関数、第3窓関数を用いてそれぞれ周波数変換を行い、前記第1窓関数に対応するスペクトルである第1窓スペクトル、前記第2窓関数に対応するスペクトルである第2窓スペクトル、前記第3窓関数に対応するスペクトルである第3窓スペクトルを生成する周波数変換段階と、
前記生成された各窓スペクトルから、電話回線帯域上限を上限または下限とする所定の周波数帯に対応するスペクトル集合を抽出し、前記埋め込むべき付加情報の情報配列の値に基づいて、前記抽出した3セットのスペクトル集合のうち、先頭の第1窓関数と後部の第3窓関数のスペクトル強度の割合を、前記スペクトル集合の周波数範囲における中央付近における値が大きくなるように周波数方向の値に応じて変化する窓関数Fを適用して、変更すると共に、中央の第2窓関数の成分を削除する周波数成分変更段階と、
前記変更されたスペクトル強度を含む各窓スペクトルに対して周波数逆変換を行って、改変音響フレームを生成する周波数逆変換段階と、
前記生成された改変音響フレームを順次出力する改変音響フレーム出力段階と、
を有することを特徴とする音響信号に対する情報の埋め込み方法。
A method of embedding additional information in an inaudible state for an acoustic signal composed of a time-series sample sequence,
From the acoustic signal, an acoustic frame reading stage for reading a predetermined number of samples as an acoustic frame;
The first window function, the second window function, and the second window function, which are spectrums corresponding to the first window function, by performing frequency conversion on the acoustic frame using a first window function, a second window function, and a third window function, respectively. A frequency conversion step of generating a second window spectrum that is a spectrum corresponding to, a third window spectrum that is a spectrum corresponding to the third window function;
A spectrum set corresponding to a predetermined frequency band whose upper limit or lower limit is the telephone line band upper limit is extracted from each generated window spectrum, and the extracted 3 is extracted based on the value of the information array of the additional information to be embedded. Among the set of spectrum sets, the ratio of the spectrum intensity of the first window function at the front and the third window function at the rear is set according to the value in the frequency direction so that the value near the center in the frequency range of the spectrum set becomes large. Applying and changing the changing window function F, and changing the frequency component to remove the component of the central second window function;
A frequency inverse transform step of performing a frequency inverse transform on each window spectrum including the changed spectrum intensity to generate a modified acoustic frame;
A modified sound frame output step of sequentially outputting the generated modified sound frames;
A method for embedding information in an acoustic signal, comprising:
コンピュータを、請求項1〜請求項5のいずれかに記載の音響信号に対する情報の埋め込み装置として機能させるためのプログラム。   The program for functioning a computer as an information embedding apparatus with respect to the acoustic signal in any one of Claims 1-5. 音響信号から、あらかじめ聴取不能な状態で埋め込まれた付加情報を抽出する装置であって、
前記音響信号の所定の区間をデジタル化して、所定数のサンプルで構成される音響フレームを獲得する音響フレーム獲得手段と、
前記音響フレームに対して第1窓関数、第3窓関数を用いてそれぞれ周波数変換を行い、前記第1窓関数に対応するスペクトルである第1窓スペクトル、前記第3窓関数に対応するスペクトルである第3窓スペクトルを生成する周波数変換手段と、
前記生成された各窓スペクトルから、電話回線帯域上限を上限または下限とする所定の周波数帯に対応するスペクトル集合を抽出し、各スペクトル集合ごとにスペクトル強度の総和値を、前記スペクトル集合の周波数範囲における中央付近における値が大きくなるように周波数方向の値に応じて変化する窓関数Fを適用して、算出し、その総和値のスペクトル集合間の割合に基づいて、所定の符号を出力する符号化手段と、
前記出力された符号に対応する情報配列を、所定の規則により変換して付加情報を抽出する付加情報抽出手段と、
を有することを特徴とする音響信号からの情報の抽出装置。
An apparatus for extracting additional information embedded in an inaudible state in advance from an acoustic signal,
An acoustic frame acquisition means for digitizing a predetermined section of the acoustic signal and acquiring an acoustic frame composed of a predetermined number of samples;
Frequency conversion is performed on the acoustic frame using a first window function and a third window function, respectively, and a first window spectrum and a spectrum corresponding to the third window function are spectra corresponding to the first window function. A frequency converting means for generating a third window spectrum;
A spectrum set corresponding to a predetermined frequency band whose upper limit or lower limit is a telephone line band upper limit is extracted from each generated window spectrum, and the total value of spectrum intensities for each spectrum set is obtained as a frequency range of the spectrum set. A code that calculates and applies a window function F that changes in accordance with the value in the frequency direction so that the value in the vicinity of the center of the signal becomes large, and outputs a predetermined code based on the ratio between the spectrum sets of the total value And
Additional information extracting means for extracting the additional information by converting the information array corresponding to the output code according to a predetermined rule;
An apparatus for extracting information from an acoustic signal, comprising:
請求項8において、
前記音響フレーム獲得手段は、前記音響信号から、所定数のサンプルで構成される音響フレームを基準フレームとして獲得する基準フレーム獲得手段と、前記基準フレームと所定サンプルずつ移動させることにより位相を変更して設定される複数の音響フレームを位相変更フレームとして設定する位相変更フレーム設定手段により構成され、
前記符号化手段は、前記抽出したスペクトル集合に基づいて、符号判定パラメータを算出する符号判定パラメータ算出手段と、基準フレームが異なる過去の同位相の音響フレームにおいて算出された符号判定パラメータに基づいて、前記基準フレームおよび複数の位相変更フレームのうち1つの音響フレームを位相が最適なものであると判断し、当該最適な位相の音響フレームについて判断された前記符号判定パラメータに基づいて、所定の符号を出力する符号出力手段を有するものであることを特徴とする音響信号からの情報の抽出装置。
In claim 8,
The acoustic frame acquisition means changes a phase by moving a reference frame and a predetermined sample from a reference frame acquisition means for acquiring an acoustic frame composed of a predetermined number of samples as a reference frame from the acoustic signal. It is constituted by phase change frame setting means for setting a plurality of set sound frames as phase change frames,
The encoding means is based on the code determination parameter calculation means for calculating a code determination parameter based on the extracted spectrum set, and on the code determination parameter calculated in a past in-phase acoustic frame having a different reference frame, It is determined that one of the reference frame and the plurality of phase change frames has an optimal phase, and a predetermined code is determined based on the code determination parameter determined for the acoustic frame having the optimal phase. An apparatus for extracting information from an acoustic signal, characterized by comprising code output means for outputting.
音響信号から、あらかじめ聴取不能な状態で埋め込まれた付加情報を抽出する方法であって、
前記音響信号の所定の区間をデジタル化して、所定数のサンプルで構成される音響フレームを獲得する音響フレーム獲得段階と、
前記音響フレームに対して第1窓関数、第3窓関数を用いてそれぞれ周波数変換を行い、前記第1窓関数に対応するスペクトルである第1窓スペクトル、前記第3窓関数に対応するスペクトルである第3窓スペクトルを生成する周波数変換段階と、
前記生成された各窓スペクトルから、電話回線帯域上限を上限または下限とする所定の周波数帯に対応するスペクトル集合を抽出し、各スペクトル集合ごとにスペクトル強度の総和値を、前記スペクトル集合の周波数範囲における中央付近における値が大きくなるように周波数方向の値に応じて変化する窓関数Fを適用して、算出し、その総和値のスペクトル集合間の割合に基づいて、所定の符号を出力する符号化段階と、
前記出力された符号に対応する情報配列を、所定の規則により変換して付加情報を抽出する付加情報抽出段階と、
を有することを特徴とする音響信号からの情報の抽出方法。
A method for extracting additional information embedded in an inaudible state in advance from an acoustic signal,
An acoustic frame acquisition step of digitizing a predetermined section of the acoustic signal to acquire an acoustic frame composed of a predetermined number of samples;
Frequency conversion is performed on the acoustic frame using a first window function and a third window function, respectively, and a first window spectrum and a spectrum corresponding to the third window function are spectra corresponding to the first window function. A frequency conversion stage for generating a third window spectrum;
A spectrum set corresponding to a predetermined frequency band whose upper limit or lower limit is a telephone line band upper limit is extracted from each generated window spectrum, and the total value of spectrum intensities for each spectrum set is obtained as a frequency range of the spectrum set. A code that calculates and applies a window function F that changes in accordance with the value in the frequency direction so that the value in the vicinity of the center of the signal becomes large, and outputs a predetermined code based on the ratio between the spectrum sets of the total value Conversion stage,
An additional information extraction step of extracting the additional information by converting the information array corresponding to the output code according to a predetermined rule;
A method for extracting information from an acoustic signal.
コンピュータを、請求項8または請求項9に記載の音響信号からの情報の抽出装置として機能させるためのプログラム。   A program for causing a computer to function as an apparatus for extracting information from an acoustic signal according to claim 8 or 9.
JP2006312005A 2006-11-17 2006-11-17 Information embedding device for acoustic signal and information extracting device from acoustic signal Withdrawn JP2008129198A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006312005A JP2008129198A (en) 2006-11-17 2006-11-17 Information embedding device for acoustic signal and information extracting device from acoustic signal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006312005A JP2008129198A (en) 2006-11-17 2006-11-17 Information embedding device for acoustic signal and information extracting device from acoustic signal

Publications (1)

Publication Number Publication Date
JP2008129198A true JP2008129198A (en) 2008-06-05

Family

ID=39555088

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006312005A Withdrawn JP2008129198A (en) 2006-11-17 2006-11-17 Information embedding device for acoustic signal and information extracting device from acoustic signal

Country Status (1)

Country Link
JP (1) JP2008129198A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010117605A (en) * 2008-11-13 2010-05-27 Dainippon Printing Co Ltd Content synchronous reproducing device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010117605A (en) * 2008-11-13 2010-05-27 Dainippon Printing Co Ltd Content synchronous reproducing device

Similar Documents

Publication Publication Date Title
JP4660275B2 (en) Information embedding apparatus and method for acoustic signal
JP4867765B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP2007121330A (en) Device for embedding information into sound signal
JP4629495B2 (en) Information embedding apparatus and method for acoustic signal
JP5011849B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP2007292827A (en) Acoustic signal retrieving apparatus
JP4770194B2 (en) Information embedding apparatus and method for acoustic signal
JP4531653B2 (en) Device for extracting information from acoustic signals
JP5082257B2 (en) Acoustic signal retrieval device
JP4910920B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP2007047223A (en) Information embedded system with respect to acoustic signal
JP2008129198A (en) Information embedding device for acoustic signal and information extracting device from acoustic signal
JP4831335B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP4713181B2 (en) Information embedding device for sound signal, device for extracting information from sound signal, and sound signal reproducing device
JP5011855B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP4876978B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP5003164B2 (en) Device for extracting information from acoustic signals
JP2008139491A (en) Device for embedding information in sound signal and device for extracting information from sound signal
JP4831333B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP4831334B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP4910921B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP4968468B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP5011865B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP4877007B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP5011872B2 (en) Information embedding device for sound signal and device for extracting information from sound signal

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20100202