JP2007292827A - Acoustic signal retrieving apparatus - Google Patents

Acoustic signal retrieving apparatus Download PDF

Info

Publication number
JP2007292827A
JP2007292827A JP2006117458A JP2006117458A JP2007292827A JP 2007292827 A JP2007292827 A JP 2007292827A JP 2006117458 A JP2006117458 A JP 2006117458A JP 2006117458 A JP2006117458 A JP 2006117458A JP 2007292827 A JP2007292827 A JP 2007292827A
Authority
JP
Japan
Prior art keywords
feature word
feature
acoustic signal
acoustic
registered
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2006117458A
Other languages
Japanese (ja)
Inventor
Toshio Motegi
敏雄 茂出木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2006117458A priority Critical patent/JP2007292827A/en
Publication of JP2007292827A publication Critical patent/JP2007292827A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an acoustic signal retrieving apparatus capable of accurately performing collating processing of a melody obtained by recording and a melody registered in a data base. <P>SOLUTION: For an acoustic signal obtained by recording, in a predetermined interval unit, a plurality of feature words in which a feature of the acoustic signal in the interval unit is expressed with a feature pattern and a weight value, are generated. The plurality of feature words are combined to make one set, and collating processing of the feature word within one set and a registered feature word registered in a related information data base (a) are performed from a heading feature word in one set, and a plurality of candidate records in which a non-match degree is lower than a predetermined degree are extracted (b), and related information corresponding to one candidate record which is narrowed down, is extracted. The non-matching degree is calculated by considering weighting on the number of non-matching bits of the feature patterns. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、CD・DVD等を用いた民生・業務用途における鑑賞用のパッケージ音楽分野、放送事業者等が商業目的で配信する放送・ネットワーク音楽配信分野における音楽著作権の保護(不正コピーの監視)および音楽属性情報の提供(楽曲タイトル検索サービス)分野に関する。   The present invention relates to the protection of music copyright (monitoring illegal copying) in the field of package music for viewing for consumer and business use using CDs and DVDs, and the field of broadcasting and network music distribution distributed for commercial purposes by broadcasters and the like. ) And the provision of music attribute information (music title search service).

最近、流れている音楽のタイトル等を知ることができる楽曲属性情報の提供サービスとして、放送された音楽に対して日時と地域を放送局に照会したり、携帯電話で流れている音楽断片を録音してデータベースに登録されているメロディーと照合したりするサービスが実用化されている(例えば、特許文献1、2参照)。
特表2004−536348号公報 特表2004−537760号公報 特願2006−49503号
As a service to provide music attribute information that allows you to know the titles of music that has been played recently, you can query the broadcast station for the date and time of the broadcast music, and record music fragments that are being played on mobile phones. Services that collate with melodies registered in the database have been put into practical use (see, for example, Patent Documents 1 and 2).
JP-T-2004-536348 JP-T-2004-537760 Japanese Patent Application No. 2006-49503

しかしながら、上記従来の手法では、データベースに登録されているメロディーと、録音したメロディーの照合精度を高めるため、流れているメロディーを長時間録音しなければならず、また、録音により取得したメロディーとデータベースに登録されているメロディーとの照合処理にも負荷がかかるという問題があった。   However, in the above conventional method, in order to improve the accuracy of matching the melodies registered in the database and the recorded melody, the flowing melody must be recorded for a long time, and the melody and database obtained by recording are recorded. There is also a problem that the verification process with the melody registered in is also burdened.

これを解決するため、本出願人は、上記特許文献3において、音響信号に対してスペクトル分解し、隣接フレーム間におけるスペクトル変位を複数のフレームに渡って累積した32ビットの特徴ワードを複数生成し、この特徴ワード単位でデータベースと照合し、ビット合致度の高い候補レコードを絞り込んでいくことにより、音響信号を検索する技術を提案した。   In order to solve this, the applicant of the present invention disclosed in Patent Document 3 described above that generates a plurality of 32-bit feature words obtained by performing spectral decomposition on an acoustic signal and accumulating spectral displacements between adjacent frames over a plurality of frames. We proposed a technique for searching for acoustic signals by collating the database with this feature word unit and narrowing down candidate records with a high degree of bit match.

しかしながら、上記特許文献3に記載の手法では、音量の絶対的な大小を反映させていないため、音量の小さい部分では、スペクトルが不安定になり、適合レコードと非適合レコードとのビット合致度に顕著な差が生じにくく、誤判定を起こし易いという問題がある。   However, since the method described in Patent Document 3 does not reflect the absolute volume, the spectrum becomes unstable at a low volume, and the bit matching degree between the conforming record and the non-conforming record is increased. There is a problem that a remarkable difference is difficult to occur and erroneous determination is likely to occur.

そこで、本発明は、録音により取得したメロディーとデータベースに登録されているメロディーとの照合処理をより正確に行うことが可能な音響信号検索装置を提供することを課題とする。   Therefore, an object of the present invention is to provide an acoustic signal search device that can more accurately perform a collation process between a melody obtained by recording and a melody registered in a database.

上記課題を解決するため、本発明第1の態様では、録音により得られた音響信号の特徴と、データベースに登録された音響信号の特徴との照合を行って、録音した音響信号に関連する情報を取得する装置であって、各音響信号について、その特徴パターンと重み値を表現した複数の特徴ワードと、当該音響信号の関連情報を登録した関連情報データベースと、音源より発信されている音声を音響信号として獲得する音響信号獲得手段と、前記音響信号に対して、所定の区間単位で、当該区間単位における音響信号の特徴パターンと重み値を表現した所定バイト数の特徴ワードを生成する特徴ワード生成手段と、前記特徴ワードを複数個で1セットとし、当該1セット内の特徴ワードと、前記関連情報データベースに登録されている登録特徴ワードとを照合する処理を、前記1セット内の先頭の特徴ワードから行って、前記生成された特徴ワードと前記登録特徴ワードの非合致度が所定より低い複数の候補レコードを抽出する処理を行い、1つの候補レコードに絞り込むデータベース照合手段と、前記絞り込まれた候補レコードに対応する関連情報を前記関連情報データベースから抽出する関連情報抽出手段を有する音響信号検索装置を提供する。   In order to solve the above-described problem, in the first aspect of the present invention, information related to a recorded sound signal is obtained by collating the characteristics of the sound signal obtained by recording with the characteristics of the sound signal registered in the database. For each acoustic signal, a plurality of feature words expressing the feature pattern and weight value, a related information database in which the relevant information of the acoustic signal is registered, and a sound transmitted from the sound source An acoustic signal acquisition means for acquiring an acoustic signal, and a feature word for generating a feature word having a predetermined number of bytes expressing a feature pattern and a weight value of the acoustic signal in the section unit for the acoustic signal in a predetermined section unit A plurality of feature words and a plurality of feature words are made into one set, the feature words in the set and the registered feature words registered in the related information database. And a process of extracting a plurality of candidate records in which the degree of non-matching between the generated feature word and the registered feature word is lower than a predetermined value. There is provided an acoustic signal search device having database collation means for narrowing down to one candidate record and related information extraction means for extracting related information corresponding to the narrowed candidate record from the related information database.

本発明第2の態様では、本発明第1の態様の音響信号検索装置における特徴ワード変換手段が、前記所定の区間の平均スペクトルに基づいて所定のビット数の特徴パターンを生成し、前記所定の区間の平均音量に基づいて所定のビット数の重み値を生成し、前記特徴パターンと重み値で構成される特徴ワードを生成するものであることを特徴とする。   In the second aspect of the present invention, the feature word conversion means in the acoustic signal search device of the first aspect of the present invention generates a feature pattern having a predetermined number of bits based on an average spectrum of the predetermined section, and A weight value of a predetermined number of bits is generated based on the average volume of the section, and a feature word composed of the feature pattern and the weight value is generated.

本発明第3の態様では、本発明第2の態様の音響信号検索装置における特徴ワード変換手段が、前記所定の区間の平均スペクトルを算出し、所定の周波数領域内を周波数方向に8K個のバンドに分割し、8K個のバンド全体で0と1の個数が均等になるように、前記各バンドのスペクトル成分に対して、0または1を与えることにより二値化を行い、前記8KバンドのスペクトルをKバイトの特徴ワードに変換するものとしたことを特徴とする。   In the third aspect of the present invention, the feature word conversion means in the acoustic signal search device of the second aspect of the present invention calculates an average spectrum of the predetermined section, and 8K bands in the frequency direction within the predetermined frequency region. And binarization is performed by giving 0 or 1 to the spectral components of each band so that the number of 0's and 1's is uniform in the entire 8K bands, and the spectrum of the 8K bands Is converted to a K-byte characteristic word.

本発明第4の態様では、本発明第3の態様の音響信号検索装置における特徴ワード変換手段が、8K個のバンドを複数のグループに分類し、各グループにおいて、0と1の個数が均等になるように、前記各バンドのスペクトル成分に対して、0または1を与えることにより二値化を行うものとしたことを特徴とする。   In the fourth aspect of the present invention, the feature word conversion means in the acoustic signal search device of the third aspect of the present invention classifies 8K bands into a plurality of groups, and the number of 0s and 1s is equal in each group. Thus, binarization is performed by giving 0 or 1 to the spectral component of each band.

本発明第5の態様では、本発明第2〜第4の態様の音響信号検索装置において、前記所定の区間はT個の音響フレームにより構成されるものであり、前記特徴ワード変換手段は、前記各音響フレームに対してフーリエ変換を行い、隣接音響フレームとの差分値を、前記T個の音響フレームに渡って加算したものを前記所定の区間の平均スペクトルとして算出するようにしたことを特徴とする。   According to a fifth aspect of the present invention, in the acoustic signal search device according to the second to fourth aspects of the present invention, the predetermined section is constituted by T acoustic frames, and the feature word conversion means Fourier transform is performed on each acoustic frame, and a difference value from adjacent acoustic frames is added over the T acoustic frames to calculate an average spectrum of the predetermined section. To do.

本発明第6の態様では、本発明第5の態様の音響信号検索装置において、前記特徴ワード変換手段は、前記各音響フレームに対してフーリエ変換を行った後、所定フレーム数単位でずらした各位置において平均スペクトルを算出することにより、複数の特徴ワードを生成し、前記データベース照合手段は、前記複数の特徴ワードを用いて候補レコードを抽出するようにしたことを特徴とする。   According to a sixth aspect of the present invention, in the acoustic signal search device according to the fifth aspect of the present invention, each of the feature word conversion means performs a Fourier transform on each of the acoustic frames, and then shifts each unit by a predetermined number of frames. A plurality of feature words are generated by calculating an average spectrum at the position, and the database collating means extracts candidate records using the plurality of feature words.

本発明第7の態様では、本発明第1の態様の音響信号検索装置において、前記データベース照合手段は、前記特徴ワード生成手段により生成された特徴ワードと、前記関連情報データベースに登録されている特徴パターンである登録特徴ワードとを照合する際に、前記生成された特徴ワードと前記登録特徴ワードに含まれる特徴パターンを比較して不一致ビット数を算出するとともに、前記生成された特徴ワードと前記登録特徴ワードに含まれる重み値を比較して大きい重み値を小さい重み値で除算した補正値を算出し、当該補正値を前記不一致ビット数に乗算した値を利用して非合致度を算出し、当該非合致度に基づいて候補レコードを抽出するものであることを特徴とする。   According to a seventh aspect of the present invention, in the acoustic signal search device according to the first aspect of the present invention, the database collating means is a characteristic word generated by the characteristic word generating means and a feature registered in the related information database. When comparing the registered feature word that is a pattern, the generated feature word and the feature pattern included in the registered feature word are compared to calculate the number of mismatch bits, and the generated feature word and the registered A weight value included in the feature word is compared to calculate a correction value obtained by dividing a large weight value by a small weight value, and a non-matching degree is calculated using a value obtained by multiplying the number of mismatch bits by the correction value, A candidate record is extracted based on the non-matching degree.

本発明第8の態様では、本発明第1の態様の音響信号検索装置において、前記データベース照合手段は、前記特徴ワード生成手段により生成された特徴ワードと、前記関連情報データベースに登録されている特徴パターンである登録特徴ワードとを照合する際に、前記生成された特徴ワードと前記登録特徴ワードに含まれる特徴パターンを各ビット単位で比較して、両者のビットが不一致である場合に、成分が大きいことを示す特徴ワードに含まれる重み値を加算する処理を行って非合致度を算出し、当該非合致度に基づいて候補レコードを抽出するものであることを特徴とする。   According to an eighth aspect of the present invention, in the acoustic signal search device according to the first aspect of the present invention, the database collating means is a feature word generated by the feature word generating means and a feature registered in the related information database. When matching the registered feature word that is a pattern, the generated feature word and the feature pattern included in the registered feature word are compared in units of bits, and if the two bits do not match, the component is It is characterized in that a non-matching degree is calculated by performing a process of adding a weight value included in a feature word indicating largeness, and a candidate record is extracted based on the non-matching degree.

本発明第9の態様では、本発明第1から第8の態様の音響信号検索装置において、前記関連情報は、ネットワーク上の所定のサイトにアクセスするためのアドレス情報であり、当該アドレス情報を用いてネットワーク上の所定のサイトにアクセスするネットワークアクセス手段をさらに有することを特徴とする。   According to a ninth aspect of the present invention, in the acoustic signal search device according to the first to eighth aspects of the present invention, the related information is address information for accessing a predetermined site on the network, and the address information is used. Network access means for accessing a predetermined site on the network.

本発明第10の態様では、本発明第1から第8の態様の音響信号検索装置において、前記関連情報データベースに登録されている特徴ワードは、付加情報が埋め込まれた音響信号について作成されたものであり、前記録音された音響信号は、付加情報が埋め込まれたものであり、前記音響信号から付加情報を抽出する付加情報抽出手段をさらに有するものであることを特徴とする。   According to a tenth aspect of the present invention, in the acoustic signal search device according to the first to eighth aspects of the present invention, the feature word registered in the related information database is created for an acoustic signal in which additional information is embedded. The recorded acoustic signal is embedded with additional information, and further includes additional information extracting means for extracting additional information from the acoustic signal.

本発明第1の態様によれば、音響信号に対して、所定の区間単位における音響信号の特徴パターンと重み値を表現した所定バイト数の特徴ワードに変換し、この特徴ワードを複数個で1セットとし、当該1セット内の特徴ワードと、関連情報データベースに登録されている登録特徴ワードとを照合する処理を、前記1セット内の先頭の特徴ワードから行って、生成された特徴ワードと登録特徴ワードの非合致度が所定より低い複数の候補レコードを抽出する処理を行い、1つの候補レコードに絞り込み、絞り込まれた候補レコードに対応する関連情報を抽出するようにしたので、録音により取得したメロディーとデータベースに登録されているメロディーとの照合処理をより正確に行うことが可能となるという効果を奏する。   According to the first aspect of the present invention, an acoustic signal is converted into a feature word having a predetermined number of bytes expressing a feature pattern and a weight value of the acoustic signal in a predetermined section unit. A set of feature words in the one set and the registered feature words registered in the related information database are collated from the first feature word in the one set, and the generated feature words are registered. Processed to extract a plurality of candidate records whose feature word non-matching degree is lower than a predetermined value, narrowed down to one candidate record, and extracted related information corresponding to the narrowed candidate records. There is an effect that it is possible to more accurately perform the matching process between the melody and the melody registered in the database.

本発明第2の態様によれば、音響信号の特徴を表現した特徴ワードを、所定の区間の平均スペクトルに基づいた所定のビット数の特徴パターンと、所定の区間の音量に基づいた所定のビット数の重み値で構成するようにしたので、無音部を照合対象から外す必要がなくなり、安定した照合を行うことが可能となるという効果を奏する。   According to the second aspect of the present invention, the feature word expressing the characteristics of the acoustic signal is obtained by converting the feature pattern having a predetermined number of bits based on the average spectrum of the predetermined section and the predetermined bits based on the volume of the predetermined section. Since it is configured with a number of weight values, there is no need to remove the silent part from the object of collation, and it is possible to perform stable collation.

本発明第3の態様によれば、音響信号の特徴を表現した特徴ワードを、所定の区間の平均スペクトルを算出し、所定の周波数領域内を周波数方向に8K個のバンドに分割し、8K個のバンド全体で0と1の個数が均等になるように、前記各バンドのスペクトル成分に対して、0または1を与えることにより二値化を行い、8KバンドのスペクトルをKバイトの特徴ワードとして得るようにしたので、特徴ワードが、コンピュータが処理し易い8ビットの倍数単位、すなわちバイト単位であるため、高速な照合が可能となるという効果を奏する。   According to the third aspect of the present invention, the feature word representing the feature of the acoustic signal is calculated as an average spectrum of a predetermined section, and the predetermined frequency region is divided into 8K bands in the frequency direction, thereby obtaining 8K pieces. The binarization is performed by giving 0 or 1 to the spectral components of each band so that the number of 0s and 1s in the entire band is equal, and the 8K band spectrum is used as a K-byte feature word. Since the feature word is a unit of multiples of 8 bits that can be easily processed by a computer, that is, a byte unit, there is an effect that collation can be performed at high speed.

本発明第4の態様によれば、特徴ワードの生成において、平均スペクトルを算出して8K個のバンドに分割した後、8K個のバンドを複数のグループに分類し、各グループにおいて、0と1の個数が均等になるように、前記各バンドのスペクトル成分に対して、0または1を与えることにより二値化を行うようにしたので、マイクロフォンを通すことによる周波数特性の影響を補正することが可能となるという効果を奏する。   According to the fourth aspect of the present invention, in the generation of the feature word, the average spectrum is calculated and divided into 8K bands, and then the 8K bands are classified into a plurality of groups. Since the binarization is performed by giving 0 or 1 to the spectral components of the respective bands so that the number of bands is equal, the influence of the frequency characteristics due to passing through the microphone can be corrected. There is an effect that it becomes possible.

本発明第5の態様によれば、特徴ワードの生成を、複数の音響フレームについてのスペクトルの差分の総和に基づいて行うようにしたので、音響信号の信号レベルが大きく変化するような箇所についても、信号レベルの大小に影響されない特徴ワードの生成が可能となるという効果を奏する。   According to the fifth aspect of the present invention, the feature word is generated on the basis of the sum of the spectral differences for a plurality of acoustic frames. Therefore, even for a portion where the signal level of the acoustic signal changes greatly. Thus, it is possible to generate a feature word that is not affected by the signal level.

本発明第6の態様によれば、各音響フレームに対してフーリエ変換を行った後、所定フレーム数単位でずらした各位置において平均スペクトルを算出することにより、複数の特徴ワードを生成し、生成した複数の特徴ワードを用いて候補レコードを抽出するようにしたので、録音した音響信号が位置ずれしていた場合であっても、精度の高い検索が可能となるという効果を奏する。   According to the sixth aspect of the present invention, after performing Fourier transform on each acoustic frame, a plurality of feature words are generated by calculating an average spectrum at each position shifted by a predetermined number of frames. Since the candidate records are extracted using the plurality of feature words, it is possible to perform a highly accurate search even when the recorded acoustic signal is misaligned.

本発明第7の態様によれば、特徴ワードの照合の際に、生成された特徴ワードと登録特徴ワードに含まれる特徴パターンを比較して不一致ビット数を算出するとともに、生成された特徴ワードと登録特徴ワードに含まれる重み値の比較に基づいた補正値を算出し、この補正値を不一致ビット数に乗算した値を利用して非合致度を算出するようにしたので、特に音楽等の時間的な伸縮が小さい音響データとの照合を行う場合に、精度の高い検索が可能となるという効果を奏する。   According to the seventh aspect of the present invention, when the feature word is collated, the generated feature word and the feature pattern included in the registered feature word are compared to calculate the number of mismatch bits, and the generated feature word Since the correction value based on the comparison of the weight values included in the registered feature word is calculated, and the non-matching degree is calculated using a value obtained by multiplying the correction value by the number of mismatch bits, especially the time for music, etc. When collating with acoustic data with a small general expansion and contraction, there is an effect that a highly accurate search becomes possible.

本発明第8の態様によれば、特徴ワードの照合の際に、生成された特徴ワードと登録特徴ワードに含まれる特徴パターンをビット単位で比較して、両者のビットが不一致である場合に、成分が大きいことを示す特徴ワードに含まれる重み値を加算する処理を行って非合致度を算出するようにしたので、特に自然音(動物の鳴き声等)等の時間的な伸縮が大きい音響データとの照合を行う場合に、精度の高い検索が可能となるという効果を奏する。   According to the eighth aspect of the present invention, when the feature word is collated, the feature pattern included in the registered feature word and the generated feature word are compared bit by bit, and when the two bits do not match, Since the disagreement level is calculated by adding the weight value included in the feature word indicating that the component is large, acoustic data that has a large temporal expansion and contraction, such as natural sounds (animal calls, etc.) When collating with, there is an effect that a highly accurate search becomes possible.

本発明第9の態様によれば、関連情報として、ネットワーク上の所定のサイトにアクセスするためのアドレス情報を登録しておき、当該アドレス情報を用いてネットワーク上の所定のサイトにアクセスするようにしたので、流れている音を録音して取得すると、対応するサイトの情報を得ることが可能となるという効果を奏する。   According to the ninth aspect of the present invention, as related information, address information for accessing a predetermined site on the network is registered, and the predetermined site on the network is accessed using the address information. As a result, recording and acquiring the sound that is playing has the effect of making it possible to obtain information on the corresponding site.

本発明第10の態様によれば、関連情報データベースに登録されている特徴ワードを、電子透かしの手法により付加情報を埋め込んだ音響信号から生成しておくとともに、再生する音響信号にも電子透かしの手法により付加情報を埋め込んでおき、再生された音響信号を録音して、埋め込まれた付加情報を抽出するようにしたので、特徴ワードと併せてより精度の高い検索を行うことが可能となるという効果を奏する。   According to the tenth aspect of the present invention, the feature word registered in the related information database is generated from the acoustic signal in which the additional information is embedded by the digital watermark technique, and the digital watermark is also applied to the reproduced acoustic signal. Since the additional information is embedded by the technique, the reproduced acoustic signal is recorded, and the embedded additional information is extracted, so that it is possible to perform a more accurate search together with the feature word. There is an effect.

以下、本発明の実施形態について図面を参照して詳細に説明する。
(1.関連情報データベースの準備)
まず、関連情報データベースに登録する特徴ワードの生成を、登録特徴ワード生成装置により行う。図1は、登録特徴ワード生成装置の構成を示す機能ブロック図である。図1において、10は音響フレーム読込手段、20は特徴ワード生成手段、30は特徴ワード登録手段、40は関連情報データベースである。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
(1. Preparation of related information database)
First, a feature word to be registered in the related information database is generated by a registered feature word generation device. FIG. 1 is a functional block diagram showing a configuration of a registered feature word generation device. In FIG. 1, 10 is an acoustic frame reading means, 20 is a feature word generation means, 30 is a feature word registration means, and 40 is a related information database.

音響フレーム読込手段10は、ある音を素材として記録したデジタルの音響信号から所定数のサンプルを音響フレームとして順次読み込む機能を有している。特徴ワード生成手段20は、読み込んだ音響フレームを利用して、周波数解析を行い、その素材についての音響信号の特徴を表現した特徴ワードを生成する機能を有している。この特徴ワードは、ある音響信号の特徴を少ないデータ量で表現したものであり、スペクトルの特徴を表した特徴パターンと、音量データにより構成される。特徴ワード登録手段30は、生成した特徴ワードを、元の音響信号が表す素材に関連する関連情報、および音響信号の素材を特定するためのIDと対応付けて登録特徴ワードとして関連情報データベース40に登録する機能を有している。ここで、素材とは、音響信号に記録されている楽曲や音声を示すものである。図1に示した各構成手段は、現実にはコンピュータおよびその周辺機器等のハードウェアに専用のプログラムを搭載することにより実現される。すなわち、コンピュータが、専用のプログラムに従って各手段の内容を実行することになる。   The sound frame reading means 10 has a function of sequentially reading a predetermined number of samples as sound frames from a digital sound signal recorded with a certain sound as a material. The feature word generation means 20 has a function of performing frequency analysis using the read sound frame and generating a feature word expressing the feature of the sound signal for the material. This feature word expresses a feature of a certain acoustic signal with a small amount of data, and is composed of a feature pattern that represents a spectrum feature and volume data. The feature word registering unit 30 associates the generated feature word with the related information related to the material represented by the original acoustic signal and the ID for specifying the material of the acoustic signal in the related information database 40 as a registered feature word. Has the function to register. Here, the material indicates music or sound recorded in the acoustic signal. Each component shown in FIG. 1 is actually realized by installing a dedicated program in hardware such as a computer and its peripheral devices. That is, the computer executes the contents of each means according to a dedicated program.

次に、図1に示した登録特徴ワード生成装置の処理動作について図2のフローチャートに従って説明する。まず、登録特徴ワード生成装置は、音響データファイルからデジタルの音響信号を読み込む。このデジタル音響信号は、アナログ音響信号に対して、PCM等の手法によりサンプリングを行うことにより得られたものである。登録特徴ワード生成装置では、音響フレーム読込手段10が、音響信号ファイルから、所定数のサンプルを1音響フレームとして読み込む。音響フレーム読込手段10が読み込む1音響フレームのサンプル数は、適宜設定することができるが、サンプリング周波数が44.1kHzの場合、4096サンプル程度とすることが望ましい。これは、約0.092秒に相当する。ただし、後述する周波数変換におけるハニング窓関数の利用により、値が減少するサンプルを考慮して、音響フレームは、所定数分のサンプルを重複させて読み込むことにしている。本実施形態では、音響フレームの区間長のちょうど半分となる2048サンプルを重複させている。したがって、先頭の音響フレームはサンプル1〜4096、2番目の音響フレームはサンプル2049〜6144、3番目の音響フレームはサンプル4097〜8192というように、順次読み込まれていくことになる。   Next, the processing operation of the registered feature word generation device shown in FIG. 1 will be described with reference to the flowchart of FIG. First, the registered feature word generation device reads a digital acoustic signal from an acoustic data file. This digital sound signal is obtained by sampling an analog sound signal by a technique such as PCM. In the registered feature word generation device, the acoustic frame reading means 10 reads a predetermined number of samples as one acoustic frame from the acoustic signal file. The number of samples of one sound frame read by the sound frame reading means 10 can be set as appropriate, but is desirably about 4096 samples when the sampling frequency is 44.1 kHz. This corresponds to about 0.092 seconds. However, in consideration of samples whose values decrease by using a Hanning window function in frequency conversion described later, the acoustic frame is read by overlapping a predetermined number of samples. In this embodiment, 2048 samples that are exactly half the section length of the acoustic frame are overlapped. Therefore, the first acoustic frame is sequentially read as samples 1 to 4096, the second acoustic frame is samples 2049 to 6144, and the third acoustic frame is samples 4097 to 8192.

続いて、周波数変換手段20は、読み込んだ各音響フレームに対して、周波数変換を行って、その音響フレームのスペクトルであるフレームスペクトルを得る(S101)。具体的には、音響フレーム読込手段10が読み込んだ音響フレームについて、窓関数を利用して周波数変換を行う。周波数変換としては、フーリエ変換、ウェーブレット変換その他公知の種々の手法を用いることができる。本実施形態では、フーリエ変換を用いた場合を例にとって説明する。   Subsequently, the frequency conversion means 20 performs frequency conversion on each read sound frame to obtain a frame spectrum that is a spectrum of the sound frame (S101). Specifically, frequency conversion is performed on the acoustic frame read by the acoustic frame reading means 10 using a window function. As frequency conversion, Fourier transform, wavelet transform, and other various known methods can be used. In the present embodiment, a case where Fourier transform is used will be described as an example.

ここで、本実施形態においてフーリエ変換に利用する窓関数について説明しておく。一般に、所定の信号に対してフーリエ変換を行う場合、信号を所定の長さに区切って行う必要があるが、この場合、所定長さの信号に対してそのままフーリエ変換を行うと、高域部に擬似成分が発生する。そこで、一般にフーリエ変換を行う場合には、ハニング窓と呼ばれる窓関数を用いて、信号の値を変化させた後、変化後の値に対してフーリエ変換を実行する。   Here, a window function used for Fourier transform in the present embodiment will be described. In general, when performing Fourier transform on a predetermined signal, it is necessary to divide the signal into predetermined lengths. In this case, if Fourier transform is performed on a signal having a predetermined length, A pseudo component is generated. Therefore, in general, when performing Fourier transform, a signal value is changed using a window function called a Hanning window, and then Fourier transform is performed on the changed value.

S101においてフーリエ変換を行う場合、具体的には、サンプルiにおける値X(i)(i=0,…,N−1)に対して、ハニング窓関数W(i)を用いて、以下の〔数式1〕の第1式、第2式に従った処理を行い、各周波数における実部A(j)、虚部B(j)を得る。   When performing the Fourier transform in S101, specifically, the Hanning window function W (i) is used for the value X (i) (i = 0,..., N−1) in the sample i, and the following [ The processing according to the first and second formulas of Formula 1] is performed to obtain the real part A (j) and the imaginary part B (j) at each frequency.

続いて、スペクトル成分の算出を行う(S102)。具体的には、以下の〔数式1〕第3式に従った処理を行い、各周波数における強度値E(j)を得る。   Subsequently, a spectral component is calculated (S102). Specifically, processing according to the following [Formula 1] third formula is performed to obtain an intensity value E (j) at each frequency.

〔数式1〕
A(j)=Σi=0,…,N-1W(i)・X(i)・cos(2πij/N)
B(j)=Σi=0,…,N-1W(i)・X(i)・sin(2πij/N)
E(j)=A(j)2+B(j)2
[Formula 1]
A (j) = Σ i = 0,..., N-1 W (i) · X (i) · cos (2πij / N)
B (j) = Σ i = 0,..., N-1 W (i) · X (i) · sin (2πij / N)
E (j) = A (j) 2 + B (j) 2

〔数式1〕において、iは、各音響フレーム内のN個のサンプルに付した通し番号であり、i=0,1,2,…N−1の整数値をとる。また、jは周波数の値について、値の小さなものから順に付した通し番号であり、j=0,1,2,…N/2−1の整数値をとる。サンプリング周波数が44.1kHz、N=4096の場合、jの値が1つ異なると、周波数が10.8Hz異なることになる。   In [Expression 1], i is a serial number assigned to N samples in each acoustic frame, and takes an integer value of i = 0, 1, 2,... N−1. Further, j is a serial number assigned in order from the smallest value of the frequency value, and takes an integer value of j = 0, 1, 2,... N / 2-1. When the sampling frequency is 44.1 kHz and N = 4096, if the value of j is different by one, the frequency will be different by 10.8 Hz.

続いて、スペクトル成分の間引き処理を行う(S103)。上記の周波数変換により、22kHz付近までのスペクトル成分が得られるが、本実施形態における特徴ワードの生成には、4kHz付近より低いものを用いる。これは、携帯電話の音声録音で対応できるレベルに対応させるためである。したがって、j=0〜2047の周波数成分のうち、4kHz付近より高いj=385〜2047については利用しない。また、音の特徴の抽出が困難なj=0〜32の低周波成分についても利用しない。すなわち、本実施形態では、j=33〜384の周波数成分を用いる。具体的には、以下の〔数式2〕に従った処理を実行し、11周波数成分単位のP(n)に間引くことになる。   Subsequently, thinning processing of spectral components is performed (S103). Although the spectral components up to around 22 kHz are obtained by the above frequency conversion, a characteristic word lower than that near 4 kHz is used for generation of the feature word in this embodiment. This is in order to correspond to a level that can be handled by voice recording of a mobile phone. Therefore, j = 385 to 2047 higher than the vicinity of 4 kHz among the frequency components of j = 0 to 2047 is not used. In addition, the low frequency components of j = 0 to 32 where it is difficult to extract sound features are not used. That is, in the present embodiment, j = 33 to 384 frequency components are used. Specifically, processing according to the following [Equation 2] is executed, and P (n) in units of 11 frequency components is thinned out.

〔数式2〕
P(0)=(E33+E34+…+E431/4
P(1)=(E44+E45+…+E541/4


P(31)=(E374+E375+…+E3841/4
[Formula 2]
P (0) = (E 33 + E 34 +... + E 43 ) 1/4
P (1) = (E 44 + E 45 + ... + E 54) 1/4
:
:
P (31) = (E 374 + E 375 +... + E 384 ) 1/4

上記〔数式2〕により、j=33〜384の352の周波数成分が、n=0〜31の32の周波数成分に間引かれることになる。上記処理は、各音響フレームについて行われ、各音響フレームについて、32個の周波数成分が得られることになる。   According to the above [Expression 2], 352 frequency components of j = 33 to 384 are thinned out to 32 frequency components of n = 0 to 31. The above process is performed for each acoustic frame, and 32 frequency components are obtained for each acoustic frame.

次に、各音響フレームについて、直前の音響フレームのスペクトル成分との差分を算出する(S104)。上記S101〜S103の処理は、各音響フレームに対して順次行われる。このS104におけるフレーム間の処理は、各音響フレームについてS103までの処理を行った結果得られたP(0)〜P(31)を利用するものである。具体的には、以下の〔数式3〕に従った処理を行い、差分Dn(t)を得る。   Next, for each acoustic frame, a difference from the spectral component of the immediately preceding acoustic frame is calculated (S104). The processes of S101 to S103 are sequentially performed on each acoustic frame. This inter-frame processing in S104 uses P (0) to P (31) obtained as a result of performing the processing up to S103 for each acoustic frame. Specifically, the process according to the following [Equation 3] is performed to obtain the difference Dn (t).

〔数式3〕
Dn(t)=|Pn(t)−Pn(t−1)|、n=0,…,31
[Formula 3]
Dn (t) = | Pn (t) −Pn (t−1) |, n = 0,..., 31

このように、隣接する音響フレーム間の差分を算出するのは、音響信号の信号レベルが大きく変化するような箇所についても、信号レベルの大小に影響されず、音響信号の特徴を反映した特徴ワードを生成するためである。   Thus, the difference between adjacent acoustic frames is calculated by a feature word that reflects the characteristics of the acoustic signal without being affected by the magnitude of the signal level, even in places where the signal level of the acoustic signal changes greatly. It is for producing | generating.

上記S101〜S104の処理を各音響フレームに対して順次行い、音響フレーム間の差分Dn(t)がT個(本実施形態では11個)得られたら、そのT個分の総和を求める(S106)。すなわち、以下の〔数式4〕に従った処理を行い、差分の総和Snを得る。   When the processing of S101 to S104 is sequentially performed on each acoustic frame and T differences (n in this embodiment) Dn (t) between the acoustic frames are obtained, the sum total of T is obtained (S106). ). That is, processing according to the following [Equation 4] is performed to obtain the sum Sn of the differences.

〔数式4〕
Sn=Σt=0,…,T-1Dn(t)
[Formula 4]
Sn = Σ t = 0,..., T-1 Dn (t)

続いて、上記〔数式4〕により得られたSnの二値化処理を行う(S107)。具体的には、まず、Sn配列をn≧14とn≦13の上下帯域で2分割し、n≦13の14個中値の大きい7個に1を与え、値の小さい7個に0を与えるとともに、n≧14の18個中値の大きい9個に1を与え、値の小さい9個に0を与える。ここで、単純に全32個のSn中値の大きい16個と、小さい16個に1と0を与えるのではなくて、32バンドを周波数が高い18バンドのグループと、周波数が高い14バンドのグループに分けてそれぞれそのグループ内で均等に1と0を与えるようにしたのは、後述する音響信号検索装置において、マイクロフォンを通すことによる周波数特性の影響を補正するためである。上下のバンドを18バンドと14バンドの位置で分けたのは、実験の結果、この位置で分けたとき検索精度が最も高かったためである。S107における処理により、各nについてのSnが1ビットで表現可能となる。そして、n=0をLSB、n=31をMSBとして32ビットの特徴パターンを得る。   Subsequently, the binarization process of Sn obtained by the above [Equation 4] is performed (S107). Specifically, first, the Sn array is divided into two in the upper and lower bands of n ≧ 14 and n ≦ 13, and 1 is given to 7 of 14 large values of n ≦ 13, and 0 is given to 7 of the smaller values. In addition, 1 is given to 9 of 18 large values of n ≧ 14, and 0 is given to 9 of the small values. Here, instead of simply giving 1 and 0 to the 32 large Sn medium values of 16 and 16 small ones, the group of 18 bands having a high frequency and the band of 14 bands having a high frequency The reason why 1 and 0 are equally given to each group is to correct the influence of the frequency characteristics caused by passing through the microphone in the acoustic signal search apparatus described later. The reason why the upper and lower bands are divided at the positions of the 18 band and the 14 band is that, as a result of the experiment, the search accuracy is the highest when divided at this position. By the processing in S107, Sn for each n can be expressed by 1 bit. Then, a 32-bit feature pattern is obtained with n = 0 as LSB and n = 31 as MSB.

次に、音量データの算出を行う(S108)。具体的には、以下の〔数式5〕を用いて音量データVolを算出する。   Next, the volume data is calculated (S108). Specifically, the volume data Vol is calculated using the following [Formula 5].

〔数式5〕
Vol=[Σt=0,…,T-1{Σn=0,…,31Pn(t)41/4]・64/T
[Formula 5]
Vol = [Σ t = 0, ..., T-1 {Σ n = 0, ..., 31 Pn (t) 4} 1/4] · 64 / T

上記〔数式5〕に示すように、間引き処理した全ての成分Pn(t)の値をT個の音響フレームについて加算する。これにより、T個の音響フレームについての平均音量である音量データVolが得られる。この音量データVolの値が、0〜255の範囲に収まらない場合は、この範囲に収まるように正規化する。このため、音量データVolは8ビットで表現されることとなる。音量データVolは、上記〔数式5〕に示す式で算出されるため、T個の音響フレームに渡る音量の累積であるため、各フレーム単位の音量ではなく、T個の音響フレームの平均音量を表現していることになる。   As shown in [Formula 5] above, the values of all the thinned components Pn (t) are added for T acoustic frames. As a result, volume data Vol that is the average volume for the T acoustic frames is obtained. When the value of the volume data Vol does not fall within the range of 0 to 255, normalization is performed so as to fall within this range. Therefore, the volume data Vol is represented by 8 bits. Since the volume data Vol is calculated by the equation shown in [Formula 5], the volume data Vol is an accumulation of volumes over the T acoustic frames. Therefore, the volume data Vol is not the volume of each frame unit but the average volume of the T acoustic frames. It is expressing.

上記S107、S108の処理は、順序を入れ替えて行うことも可能である。S107、S108による処理の結果、32ビットの特徴パターンと8ビットの音量データにより構成される40ビットの特徴ワードが得られる。   The processes of S107 and S108 can be performed by changing the order. As a result of the processing in S107 and S108, a 40-bit feature word composed of a 32-bit feature pattern and 8-bit volume data is obtained.

以上の処理を各音響フレームに対して実行することにより、その音響信号についての特徴ワードが多数生成されることになる。例えば、上記の例のように、サンプリング周波数44.1kHz、1音響フレームが4096サンプル、音響フレームを2048サンプルづつ重複させた場合、1特徴ワードは約0.506秒となり、1分の音響信号からは、約120個の特徴ワードが生成されることになる。   By executing the above processing for each acoustic frame, a large number of feature words for the acoustic signal are generated. For example, if the sampling frequency is 44.1 kHz, the sound frame is 4096 samples, and the sound frame is overlapped by 2048 samples as in the above example, one feature word is approximately 0.506 seconds, Will generate approximately 120 feature words.

上記のようにして、各音響信号について特徴ワードを生成したら、各音響信号について、その音響信号の素材についての関連情報、IDと特徴ワードとを対応付けて関連情報データベース40に登録する。関連情報としては、その素材に関連する情報であれば、どのようなものでも良いが、例えば、その素材が楽曲であれば、曲名や演奏者名、その素材がCM音声であれば、そのスポンサー企業の名前やURL等を用いることができる。   When a feature word is generated for each acoustic signal as described above, related information about the material of the acoustic signal, ID and feature word are associated with each acoustic signal and registered in the related information database 40. The related information may be any information as long as it is related to the material. For example, if the material is a song, the name of the song or the performer, and if the material is CM audio, the sponsor is used. A company name, URL, or the like can be used.

ここで、上記特徴ワードの生成処理を、図3の概念図を用いて説明する。図3(a)は、特徴ワードの生成対象とする音響信号の波形を示す図である。登録特徴ワード生成装置では、音響信号を音響フレーム単位で読み取っていくが、図3(b)に示すように、読取範囲を重複させて読み取らせる。そして、各音響フレームに対して、図3(c)に示すように32バンドに分離する。これは、上記S101〜S103に相当する。次に、図3(d)に示すように分離成分の差分処理、分離成分の総和処理を行う。分離成分の差分処理は上記S104に相当し、分離成分の総和処理は上記S108の各周波数成分(n=0〜31)の総和処理に相当する。次に、図3(e)に示すように32バンド差分成分の総和処理、および音量の総和処理を行う。32バンド差分成分の総和処理は、上記S106に相当し、音量の総和処理は上記S108の各音響フレーム(t=0〜T−1)の総和処理に相当する。次に、図3(f)に示すように32バンド総和成分の二値化処理、および音量の圧縮処理(上記〔数式5〕に基づき256段階に音量レベルを圧縮する処理)を行う。32バンド総和成分の二値化処理は上記S107に相当し、音量の圧縮処理は上記S108に相当する。図3に示すように、音響信号から順次音響フレームを読み込み、T個の音響フレーム単位で1つの特徴ワードを生成していく処理が行われることになる。   Here, the feature word generation processing will be described with reference to the conceptual diagram of FIG. FIG. 3A is a diagram illustrating a waveform of an acoustic signal that is a generation target of a feature word. In the registered feature word generation apparatus, the acoustic signal is read in units of acoustic frames, but as shown in FIG. Then, each acoustic frame is divided into 32 bands as shown in FIG. This corresponds to S101 to S103. Next, as shown in FIG. 3D, the difference processing of the separated components and the total processing of the separated components are performed. The separation component difference process corresponds to S104, and the separation component summation process corresponds to the summation process of each frequency component (n = 0 to 31) in S108. Next, as shown in FIG. 3E, a summation process of 32-band difference components and a summation process of volume are performed. The summation process of the 32-band difference component corresponds to S106, and the volume summation process corresponds to the summation process of each acoustic frame (t = 0 to T-1) in S108. Next, as shown in FIG. 3F, binarization processing of the 32-band sum component and compression processing of the sound volume (processing for compressing the sound volume level in 256 steps based on the above [Equation 5]) are performed. The binarization process of the 32-band sum component corresponds to S107, and the volume compression process corresponds to S108. As shown in FIG. 3, a process of sequentially reading sound frames from the sound signal and generating one feature word in units of T sound frames is performed.

(2.音響信号の検索)
次に、本発明に係る音響信号検索装置について説明する。図4は、本発明に係る音響信号検索装置の構成図である。図4において、50はマイクロフォン、11は音響フレーム読込手段、21は特徴ワード生成手段、60は特徴ワード照合手段、70は関連情報出力手段である。
(2. Search for acoustic signals)
Next, the acoustic signal search device according to the present invention will be described. FIG. 4 is a block diagram of an acoustic signal search device according to the present invention. In FIG. 4, 50 is a microphone, 11 is an acoustic frame reading means, 21 is a feature word generating means, 60 is a feature word collating means, and 70 is a related information output means.

マイクロフォン50は、携帯電話等で用いられている汎用的なマイクロフォンである。マイクロフォン50は、低周波成分や高周波成分を取り込む性能を持っている必要はなく、上記のような400Hz弱から4kHz強(j=33〜384に対応)に相当する周波数感度を有していれば良い。音響フレーム読込手段11は、音響フレーム読込手段10と同様、デジタルの音響信号から所定数のサンプルを音響フレームとして順次読み込む機能を有している。ただし、音響フレーム読込手段11は、マイクロフォン50で取り込んだアナログ音響信号をデジタル化する機能も有している。本実施形態では、マイクロフォン50と音響フレーム読込手段11で、音源より発信されている音声を音響信号として獲得する音響信号獲得手段としての役割を果たすことになる。   The microphone 50 is a general-purpose microphone used in a mobile phone or the like. The microphone 50 does not need to have the performance of taking in low-frequency components and high-frequency components, as long as it has a frequency sensitivity corresponding to the above 400 Hz to slightly above 4 kHz (corresponding to j = 33 to 384). good. Similar to the sound frame reading means 10, the sound frame reading means 11 has a function of sequentially reading a predetermined number of samples as sound frames from a digital sound signal. However, the acoustic frame reading means 11 also has a function of digitizing the analog acoustic signal captured by the microphone 50. In the present embodiment, the microphone 50 and the acoustic frame reading means 11 serve as acoustic signal acquisition means for acquiring the sound transmitted from the sound source as an acoustic signal.

特徴ワード生成手段21は、特徴ワード生成手段20と同様、読み込んだ音響フレームを利用して、周波数解析を行い、その素材についての音響信号の特徴を表現した特徴ワードを生成する機能を有している。ただし、後述するように、特徴ワード生成手段20よりも多くの特徴ワードを生成するようにしている。特徴ワード照合手段60は、生成した特徴ワードと、関連情報データベース40に登録されている登録特徴ワードとの照合を行う機能を有している。関連情報出力手段70は、特徴ワード照合手段60による照合の結果、録音により得られた音響信号の特徴に最も類似する素材についての関連情報を、関連情報データベース40から抽出して出力する機能を有している。図4に示した各構成手段は、現実には演算処理装置を備えた機器に専用のプログラムを搭載することにより実現される。好ましい例としては、演算処理機能を備えている携帯電話機が、専用のプログラムに従って各手段の内容を実行する場合が挙げられる。   Similar to the feature word generation unit 20, the feature word generation unit 21 has a function of performing frequency analysis using the read acoustic frame and generating a feature word expressing the characteristics of the acoustic signal for the material. Yes. However, as will be described later, more feature words are generated than the feature word generation means 20. The feature word collating unit 60 has a function of collating the generated feature word with the registered feature word registered in the related information database 40. The related information output means 70 has a function of extracting the related information about the material most similar to the feature of the acoustic signal obtained by recording as a result of the collation by the feature word collating means 60 from the related information database 40 and outputting it. is doing. Each component shown in FIG. 4 is actually realized by installing a dedicated program in a device including an arithmetic processing unit. As a preferred example, there is a case where a mobile phone having an arithmetic processing function executes the contents of each means according to a dedicated program.

続いて、図4に示した装置の処理動作について説明する。まず、利用者が流れている音についての関連情報を知りたいと思った場合、音響信号検索装置に対して起動の指示を行う。これは、例えば、音響信号検索装置を携帯電話機等の携帯端末で実現している場合は、所定のボタンを操作することにより実行できる。音響信号検索装置は、指示が入力されると、マイクロフォン50から流れている音楽を取り込み、録音してデジタル音響信号として入力する。具体的には、マイクロフォン50から入力される音声を、A/D変換器によりデジタル化する処理を行うことになる。   Next, the processing operation of the apparatus shown in FIG. 4 will be described. First, when the user wants to know related information about the sound that is flowing, the activation instruction is given to the acoustic signal search device. This can be executed by operating a predetermined button, for example, when the acoustic signal search device is realized by a mobile terminal such as a mobile phone. When an instruction is input, the sound signal search device takes in music flowing from the microphone 50, records it, and inputs it as a digital sound signal. More specifically, the voice input from the microphone 50 is digitized by an A / D converter.

次に、音響フレーム読込手段11が、マイクロフォン50から取り込んでデジタル化した音響信号から、それぞれ所定数のサンプルを1音響フレームとして読み込む。この処理は、登録特徴ワード生成装置が行ったのと同様に行われる。すなわち、1音響フレームのサンプル数は、サンプリング周波数が44.1kHzの場合、4096サンプルとする。また、音響フレームは、2048サンプルを重複させて読み込むことにしている。   Next, the acoustic frame reading means 11 reads a predetermined number of samples as one acoustic frame from the acoustic signal captured from the microphone 50 and digitized. This processing is performed in the same manner as that performed by the registered feature word generation device. That is, the number of samples in one acoustic frame is 4096 samples when the sampling frequency is 44.1 kHz. In addition, the sound frame is read by overlapping 2048 samples.

ここから特徴ワードの生成までの処理は、図5のフローチャートに従ったものとなる。図5のフローチャートは、登録特徴ワード生成装置についての図2のフローチャートとほぼ同様のものとなっている。特徴ワード生成手段21は、読み込んだ各音響フレームに対して、周波数変換を行って、その音響フレームのスペクトルであるフレームスペクトルを得る(S201)。登録特徴ワード生成装置と同様、周波数変換としては、フーリエ変換、ウェーブレット変換その他公知の種々の手法を用いることができるが、特徴ワード生成装置の処理と合わせる必要があるため、本実施形態では、フーリエ変換を用いる。   The processing from here to the generation of the feature word follows the flowchart of FIG. The flowchart of FIG. 5 is substantially the same as the flowchart of FIG. 2 for the registered feature word generation device. The feature word generation unit 21 performs frequency conversion on each read sound frame to obtain a frame spectrum that is a spectrum of the sound frame (S201). As with the registered feature word generation device, Fourier transform, wavelet transform, and other various known methods can be used as the frequency conversion. However, since it is necessary to match the processing of the feature word generation device, in this embodiment, the Fourier transform is performed. Use transformation.

さらに、S202〜S208において、上記〔数式2〕〜上記〔数式4〕に従った処理を行ってSnを得た後、32ビットの特徴パターンを生成するとともに、上記〔数式5〕に従った処理を行って8ビットの音量データVolを生成して、40ビットの特徴ワードを得る。ただし、音響信号検索装置では、登録特徴ワード生成装置に比べて5倍の特徴ワードを生成する。音響信号検索装置においては、流れている音声を録音して音響信号を取得するため、録音開始のタイミングにより、位置ずれが生じることがある。登録特徴ワード生成装置において生成した手法でも、11個の音響フレームを平均化して生成しているため、比較的位置ずれには強い。しかし、リズム変化が激しい音楽素材の場合、特徴ワードの生成単位である11音響フレームの、ほぼ半分である5音響フレーム程度ずれると、顕著に異なる特徴ワードが生成され、誤った情報が検索されてしまう。そのため、1解析単位である11音響フレームの範囲内で2フレームずつ遅らせて複数の特徴ワードを生成して、関連情報データベース40内の登録特徴ワードと照合するようにする。   Further, in S202 to S208, after performing Sn according to the above [Formula 2] to [Formula 4] to obtain Sn, a 32-bit feature pattern is generated and the process according to the above [Formula 5] is performed. To generate 8-bit volume data Vol and obtain a 40-bit feature word. However, the acoustic signal search device generates five times as many feature words as the registered feature word generation device. In the acoustic signal search device, since a sound that is flowing is recorded to acquire an acoustic signal, a positional shift may occur depending on the recording start timing. Even in the method generated by the registered feature word generation device, since 11 acoustic frames are generated by averaging, they are relatively resistant to displacement. However, in the case of a music material with a sharp rhythm change, if it deviates by about 5 sound frames, which is almost half of 11 sound frames that are the generation unit of feature words, a significantly different feature word is generated and erroneous information is searched. End up. Therefore, a plurality of feature words are generated by delaying by two frames within the range of 11 acoustic frames, which is one analysis unit, and collated with registered feature words in the related information database 40.

具体的には、登録特徴ワード生成装置では、フレーム1〜フレーム11までで1つの特徴ワードを生成するが、音響信号検索装置では、フレーム1〜フレーム11で特徴ワードを生成するとともに、2フレーム分、4フレーム分、6フレーム分、8フレーム分ずらしたフレーム群からも特徴ワードを生成する。すなわち、フレーム3〜フレーム13、フレーム5〜フレーム15、フレーム7〜フレーム17、フレーム9〜フレーム19においても特徴ワードを生成する。   Specifically, in the registered feature word generation device, one feature word is generated from frame 1 to frame 11, but in the acoustic signal search device, a feature word is generated from frame 1 to frame 11, and for two frames. A feature word is also generated from a frame group shifted by 4 frames, 6 frames, and 8 frames. That is, feature words are also generated in frames 3 to 13, frames 5 to 15, frames 7 to 17, and frames 9 to 19.

本実施形態では、利用者に3秒程度録音を行わせるようにしている。これは、あまり長すぎると、利用者が作業をわずらわしく感じるためであり、短すぎると、照合に必要な特徴ワードが生成できない可能性があるためである。上述のように、本実施形態の場合、1特徴ワードは約0.506秒であるため、3秒程度録音することにより、6個の特徴ワードが生成される。この6個の特徴ワードを1セットとする。ただし、上述のように、2、4、6、8フレームずらした特徴ワードを生成するため、全部で30個の特徴ワードが1セットとして生成されることになる。   In this embodiment, the user is allowed to record for about 3 seconds. This is because if the length is too long, the user feels troublesome work. If the length is too short, there is a possibility that a feature word necessary for collation may not be generated. As described above, in the case of the present embodiment, one feature word is about 0.506 seconds. Therefore, six feature words are generated by recording for about 3 seconds. These six feature words are set as one set. However, as described above, since feature words shifted by 2, 4, 6, and 8 frames are generated, a total of 30 feature words are generated as one set.

続いて、特徴ワード照合手段60が、特徴ワード生成手段21により生成された特徴ワードと、関連情報データベース40に登録された特徴ワードとの照合を行う。本発明では、照合の手法として2つの手法を用いることができる。いずれの手法においても特徴ワードを構成する特徴パターン同士のビットの照合を行い、その結果に対して、音量データを重みとして利用することにより非合致度を算出する。そして、この非合致度を用いて検索対象を絞り込んでいく。まず、第1の照合手法について説明する。   Subsequently, the feature word collating unit 60 collates the feature word generated by the feature word generating unit 21 with the feature word registered in the related information database 40. In the present invention, two methods can be used as a matching method. In any of the methods, bit matching between feature patterns constituting a feature word is performed, and the degree of non-match is calculated by using volume data as a weight for the result. Then, the search target is narrowed down using this non-matching degree. First, the first matching method will be described.

ここで、関連情報データベース40に登録された情報の一例を図6(a)に示す。図6(a)に示すように、関連情報データベース40には、音響素材を特定するIDである素材IDと、登録特徴ワードが対応付けて登録されている。実際には、音響素材に対応する関連情報も登録されているが、図6(a)においては省略している。各登録特徴ワードは、上述のように、特徴パターンと音量データで構成されている。ここでは、特徴パターンをSd, 音量データをVdで表現することにする。したがって、素材Aにおいては、登録特徴ワードA1は[Sd1,Vd1]、登録特徴ワードA2は[Sd2,Vd2]、登録特徴ワードA3は[Sd3,Vd3]で表現されることになる。これに対応して、特徴ワード生成手段21が生成した特徴ワードを構成する特徴パターンをSi, 音量データをViで表現することにする。したがって、先頭からの3個の特徴ワードは、[Si1,Vi1]、[Si2,Vi2]、[Si3,Vi3]で表現されることになる。   An example of information registered in the related information database 40 is shown in FIG. As shown in FIG. 6A, in the related information database 40, a material ID that is an ID for specifying an acoustic material and a registered feature word are registered in association with each other. Actually, related information corresponding to the acoustic material is also registered, but is omitted in FIG. Each registered feature word is composed of a feature pattern and volume data as described above. Here, the feature pattern is represented by Sd, and the volume data is represented by Vd. Therefore, in the material A, the registered feature word A1 is represented by [Sd1, Vd1], the registered feature word A2 is represented by [Sd2, Vd2], and the registered feature word A3 is represented by [Sd3, Vd3]. Correspondingly, the feature pattern constituting the feature word generated by the feature word generation means 21 is expressed by Si and the volume data is expressed by Vi. Accordingly, the three feature words from the top are represented by [Si1, Vi1], [Si2, Vi2], and [Si3, Vi3].

第1の照合手法の場合、特徴ワード照合手段60は、まず、生成された特徴ワードと、登録特徴ワードの音量バランスを合わせるため、両者の先頭の音量データVi1、Vd1を用いて、生成された特徴ワードの2番目、3番目の音量データVi2、Vi3を以下の〔数式6〕により補正する。   In the case of the first matching method, the feature word matching means 60 is first generated using the volume data Vi1 and Vd1 at the beginning of both to match the volume balance between the generated feature word and the registered feature word. The second and third volume data Vi2 and Vi3 of the feature word are corrected by the following [Equation 6].

〔数式6〕
Vi2´=Vi2・Vd1/Vi1
Vi3´=Vi3・Vd1/Vi1
[Formula 6]
Vi2´ = Vi2 ・ Vd1 / Vi1
Vi3´ = Vi3 ・ Vd1 / Vi1

続いて、生成された特徴ワードと、登録特徴ワードの特徴パターンを先頭から順に照合する。生成した特徴ワードの特徴パターンと、関連情報データベース40内の登録特徴ワードの特徴パターンはともに同様の規則で作成され、低周波成分をLSB、高周波成分をMSBとした32ビットの構成であるので、照合はこれらの各ビット値が一致するかどうかにより行うことができる。特にコンピュータが処理し易い8ビットの倍数単位であるため、高速な照合が可能である。ここで、特徴パターンSi1とSd1の不一致ビット数をD1とし、以下同様にD2、D3とする。そして、得られたD1 〜D3を、上記補正後の音量データと登録特徴ワードの音量データの関係を利用して、以下の〔数式7〕により補正する。   Subsequently, the generated feature word and the feature pattern of the registered feature word are collated in order from the top. Since the feature pattern of the generated feature word and the feature pattern of the registered feature word in the related information database 40 are both created according to the same rule and have a 32-bit configuration in which the low frequency component is LSB and the high frequency component is MSB, The collation can be performed depending on whether or not these bit values match. In particular, since it is an 8-bit multiple unit that is easy for a computer to process, high-speed collation is possible. Here, the number of mismatched bits between the feature patterns Si1 and Sd1 is D1, and hereinafter, D2 and D3 are similarly used. The obtained D1 to D3 are corrected by the following [Equation 7] using the relationship between the corrected volume data and the volume data of the registered feature word.

〔数式7〕
Vi2´>Vd2のとき、D2´=D2・Vi2´/Vd2
Vi2´<Vd2のとき、D2´=D2・Vd2 /Vi2´
Vi2´=Vd2のとき、D2´=D2
Vi3´>Vd3のとき、D3´=D3・Vi3´/Vd3
Vi3´<Vd3のとき、D3´=D3・Vd3 /Vi3´
Vi3´=Vd3のとき、D3´=D3
[Formula 7]
When Vi2´> Vd2, D2´ = D2 ・ Vi2´ / Vd2
When Vi2´ <Vd2, D2´ = D2 ・ Vd2 / Vi2´
When Vi2´ = Vd2, D2´ = D2
When Vi3´> Vd3, D3´ = D3 ・ Vi3´ / Vd3
When Vi3´ <Vd3, D3´ = D3 ・ Vd3 / Vi3´
When Vi3´ = Vd3, D3´ = D3

そして、補正により得られた値を利用して、D1+D2´+D3´を非合致度MA1として算出する。   Then, D1 + D2 ′ + D3 ′ is calculated as the non-matching degree MA1 using the value obtained by the correction.

上記の処理を、まず、ずらし0グループの前半3個の特徴ワード01〜03と、関連情報データベース40に登録された素材Aについての登録特徴ワードA1〜A3について行って非合致度MA1を得る。次に、登録特徴ワードを1個分ずつ移動させ、特徴ワード01〜03と登録特徴ワードA2〜A4との照合を行って非合致度MA1を算出する。同様にして、登録特徴ワードを1個分ずつ移動させて、特徴ワード01〜03との照合を行っていき、最小となった非合致度MA1を、素材Aについてのずらし0の場合の非合致度MA1とする。図6(b)の例では、この値は“15”となる。   The above processing is first performed for the first three feature words 01 to 03 of the shift 0 group and the registered feature words A1 to A3 for the material A registered in the related information database 40 to obtain the non-matching degree MA1. Next, the registered feature words are moved one by one, and the feature words 01 to 03 and the registered feature words A2 to A4 are collated to calculate the non-matching degree MA1. Similarly, the registered feature words are moved one by one and collated with the feature words 01 to 03, and the minimum non-matching degree MA1 is set to the non-matching in the case of the shift 0 for the material A. Degree MA1. In the example of FIG. 6B, this value is “15”.

続いて、ずらし2グループの3個の特徴ワード21〜23と、素材Aとの照合を行って非合致度MA1を得る。このようにして、ずらし4グループ、ずらし6グループ、ずらし8グループについても、素材Aとの非合致度MA1を得る。この結果、図6(b)の1行目に示すように、各ずらし量に対応した素材Aとの非合致度MA1が得られることになる。   Subsequently, the three feature words 21 to 23 of the two shift groups are collated with the material A to obtain the non-matching degree MA1. In this way, the non-matching degree MA1 with the material A is obtained for the shift 4 group, the shift 6 group, and the shift 8 group. As a result, as shown in the first line of FIG. 6B, a non-matching degree MA1 with the material A corresponding to each shift amount is obtained.

同様にして、特徴ワードと、他の素材の登録特徴ワードとの照合を行っていく。その結果、図6(b)の2行目、3行目に示すように、各ずらし量に対応した素材B、Cとの非合致度MA1が得られることになる。   Similarly, the feature word is collated with registered feature words of other materials. As a result, as shown in the second and third lines in FIG. 6B, a non-matching degree MA1 with the materials B and C corresponding to each shift amount is obtained.

そして、この非合致度MA1が、あらかじめ定めた閾値より小さい場合は、その非合致度MA1が記録された素材のレコードのみを候補レコードとして抽出し、4番目〜6番目の特徴ワードの照合対象とする。   If the non-matching degree MA1 is smaller than a predetermined threshold, only the record of the material in which the non-matching degree MA1 is recorded is extracted as a candidate record, and the fourth to sixth feature word collation targets are extracted. To do.

そして、この絞り込まれた素材に対して、後半の特徴ワード04〜06との照合を行っていき、非合致度MA1が最小となるものを適合音響素材として決定する。適合音響素材が決定されたら、関連情報出力手段70が、その関連情報を抽出し、音響信号検索装置が備える表示装置等に出力する。   Then, the narrowed material is collated with the latter feature words 04 to 06, and the material with the smallest non-matching degree MA1 is determined as the matching acoustic material. When the suitable acoustic material is determined, the related information output means 70 extracts the related information and outputs it to a display device or the like provided in the acoustic signal search device.

次に、第2の照合手法について説明する。第2の照合手法においても、登録特徴ワードの特徴パターンをSd, 音量データをVdで表現し、特徴ワード生成手段21が生成した特徴ワードの特徴パターンをSi, 音量データをViで表現することにする。第2の照合手法では、特徴パターンSdと特徴パターンSiの比較を行い、不一致ビットの数に応じて、音量データVd、Viによる重み付けを行う。具体的には、非合致度を初期状態として0に設定しておき、Sd側のビットが1で、Si側のビットが0の場合、非合致度MA2にVdを加算し、Sd側のビットが0で、Si側のビットが1の場合、非合致度MA2にViを加算する。このようにして、特徴パターンの32の各ビットについて照合することにより非合致度MA2が得られることになる。   Next, the second matching method will be described. In the second collation method, the feature pattern of the registered feature word is represented by Sd, the volume data is represented by Vd, the feature pattern of the feature word generated by the feature word generation means 21 is represented by Si, and the volume data is represented by Vi. To do. In the second matching method, the feature pattern Sd and the feature pattern Si are compared, and weighting is performed using the volume data Vd and Vi according to the number of mismatch bits. Specifically, when the non-matching degree is set to 0 as an initial state, when the bit on the Sd side is 1 and the bit on the Si side is 0, Vd is added to the non-matching degree MA2, and the bit on the Sd side Is 0 and the Si side bit is 1, Vi is added to the non-matching degree MA2. In this way, the non-matching degree MA2 is obtained by collating the 32 bits of the feature pattern.

照合の順番としては、まず、ずらし0グループの6個の特徴ワード01〜06のうち、先頭の特徴ワード01を抽出し、この特徴ワード01と、関連情報データベース40に登録された全ての特徴ワードとの照合を行う。   As the collation order, first, among the six feature words 01 to 06 of the shift 0 group, the first feature word 01 is extracted, and this feature word 01 and all the feature words registered in the related information database 40 are extracted. Is checked.

そして、非合致度MA2が最小となる場合の非合致度MA2の値を各素材ごとに記録していく、同様にずらし2グループ〜ずらし8グループの先頭の特徴ワード21〜特徴ワード81についてもデータベース内の登録特徴ワードとの照合を行い、非合致度MA2が最小となる場合のビット数を各素材ごとに記録していく。この結果、図6(b)と同様な、ずらしグループ別の非合致度MA2が得られることになる。   Then, the value of the non-matching degree MA2 when the non-matching degree MA2 is minimized is recorded for each material. Similarly, the first feature word 21 to the feature word 81 of the shifted 2 group to shifted 8 group are also stored in the database. The number of bits when the non-matching degree MA2 is minimized is recorded for each material. As a result, a non-matching degree MA2 for each shifted group similar to that shown in FIG. 6B is obtained.

そして、この非合致度MA2が、あらかじめ定めた閾値より小さい場合は、その非合致度MA2が記録された素材のレコードのみを候補レコードとして抽出し、2番目の特徴ワードの照合対象とする。   If the non-matching degree MA2 is smaller than a predetermined threshold, only the record of the material in which the non-matching degree MA2 is recorded is extracted as a candidate record, and is used as a target for collation of the second feature word.

次に、ずらし2グループから、2番目の特徴ワード02を抽出し、この特徴ワード02と、先頭の特徴ワードにより絞り込まれた候補レコードについての全ての登録特徴ワードとの照合を行う。そして、非合致度MA2が最小となる場合の非合致度MA2を各素材(候補レコード)ごとに記録していく、同様にずらし2グループ〜ずらし8グループの先頭の特徴ワード22〜特徴ワード82についても絞り込まれた素材の登録特徴ワードとの照合を行い、非合致度MA2が最小となる場合の非合致度MA2を各素材単位で記録していく。そして、この非合致度MA2が、あらかじめ定めた閾値より小さい場合は、その非合致度MA2が記録された素材のレコードのみを新たな候補レコードとして抽出し、3番目の特徴ワードの照合対象とする。   Next, the second feature word 02 is extracted from the two shifted groups, and this feature word 02 is collated with all registered feature words for candidate records narrowed down by the first feature word. The non-matching degree MA2 when the non-matching degree MA2 is minimized is recorded for each material (candidate record). Similarly, the first feature word 22 to the feature word 82 of the shifted 2 group to shifted 8 group are recorded. Also, collation with the registered feature word of the narrowed material is performed, and the non-matching degree MA2 when the non-matching degree MA2 is minimized is recorded for each material unit. If the non-matching degree MA2 is smaller than a predetermined threshold value, only the record of the material in which the non-matching degree MA2 is recorded is extracted as a new candidate record, and is used as the third feature word collation target. .

上記のようにして、6番目の特徴ワード06〜特徴ワード86と、絞り込まれた素材の登録特徴ワードとの照合までを行っていく。ただし、途中で素材が1つに絞り込まれた場合には、その素材を適合音響素材として決定する。適合音響素材が決定されたら、関連情報出力手段70が、その関連情報を抽出し、音響信号検索装置が備える表示装置等に出力する。   As described above, the sixth feature word 06 to feature word 86 are collated with the registered feature words of the narrowed material. However, when the material is narrowed down to one on the way, the material is determined as the compatible acoustic material. When the suitable acoustic material is determined, the related information output means 70 extracts the related information and outputs it to a display device or the like provided in the acoustic signal search device.

上記第1の照合手法と第2の照合手法について比較すると、第1の照合手法では、位置ずれがあったり、振幅変化に相違があると非合致度MA1が増大するようになっている。これについて具体的に説明する。音響フレームに位置ずれが生じると、特徴ワード内の特徴パターンと音量データも位置ずれの影響を受けることになる。すると、特徴パターンSi1とSd1、Si2とSd2、およびSi3とSd3の各不一致ビット数D1〜D3の値が大きくなる傾向となり、同時にVd2 とVi2´の比およびVd3 とVi3´の比が大きくなる傾向となり、その結果D2´、D3´も大きくなるためである。また、振幅変化に相違があると、不一致ビット数D1〜D3の値に変化が見られないものの、Vd2 とVi2´の比およびVd3 とVi3´の比が大きくなる傾向となり、D2´、D3´も大きくなる。   Comparing the first verification method and the second verification method, in the first verification method, the non-matching degree MA1 increases when there is a positional deviation or a difference in amplitude change. This will be specifically described. When a displacement occurs in the acoustic frame, the feature pattern and volume data in the feature word are also affected by the displacement. Then, the number of mismatched bits D1 to D3 of the feature patterns Si1 and Sd1, Si2 and Sd2, and Si3 and Sd3 tends to increase, and at the same time, the ratio of Vd2 and Vi2 ′ and the ratio of Vd3 and Vi3 ′ tend to increase. As a result, D2 ′ and D3 ′ are also increased. In addition, if there is a difference in amplitude change, the values of the mismatched bit numbers D1 to D3 do not change, but the ratio of Vd2 to Vi2 ′ and the ratio of Vd3 to Vi3 ′ tend to increase, and D2 ′, D3 ′ Also grows.

一方、第2の照合手法では、位置ずれがあったり、振幅変化に相違があっても非合致度MA2が増大しないようになっている。上述のように、非合致度MA2は、特徴パターンSiとSdの不一致ビットが存在した場合に、音量データVd、Viのいずれかを加算していくものであるため、振幅が大きくなければ大きな値にならない。位置ずれが生じ、特徴パターンSiとSdの不一致ビットが増大し、VdとViの差が大きくなっても、加算したVdまたはViの値そのものが小さければ、MA2は大きくならない。振幅変化に相違が生じ、VdとViの差が大きくなっても、同様に、加算したVdまたはViの値そのものが小さければ、MA2は大きくならない。逆に、加算したVdまたはViの値そのものが大きければMA2は大きくなるが、その際に特徴パターンSiとSdの不一致ビットが大きい場合、すなわち登録特徴ワードと不整合な場合を除きMA2は大きくならず、登録特徴ワードと整合する場合は、位置ずれがあったり、振幅変化に相違があっても非合致度MA2の値には比較的影響が少ない。   On the other hand, in the second collation method, the non-matching degree MA2 does not increase even if there is a positional deviation or a difference in amplitude change. As described above, the non-matching degree MA2 is obtained by adding one of the volume data Vd and Vi when there is a mismatching bit between the feature patterns Si and Sd. do not become. Even if the misalignment occurs, the mismatch bits between the feature patterns Si and Sd increase, and the difference between Vd and Vi increases, MA2 does not increase if the added Vd or Vi value itself is small. Even if the difference in amplitude changes and the difference between Vd and Vi increases, similarly, if the added Vd or Vi value itself is small, MA2 does not increase. On the contrary, if the added Vd or Vi value itself is large, MA2 becomes large, but MA2 becomes large except when the mismatch bits of the feature patterns Si and Sd are large, that is, when they do not match the registered feature word. In the case of matching with the registered feature word, the value of the non-matching degree MA2 is relatively less affected even if there is a positional shift or a difference in amplitude change.

このため、第1の照合手法は音楽等の時間的な伸縮が小さい音響データとの照合を行うのに適しており、第2の照合手法は、自然音(動物の鳴き声等)等の時間的な伸縮が大きい音響データとの照合を行うのに適している。   For this reason, the first matching method is suitable for matching with acoustic data such as music that has a small temporal expansion and contraction, and the second matching method is suitable for temporal analysis of natural sounds (such as animal calls). It is suitable for collation with acoustic data with large expansion and contraction.

以上のようにして、流れている音を録音することにより、流れている音に関連した情報を抽出することができる。検索装置を携帯電話機で実現した場合には、関連情報をその液晶画面に表示させることができる。   By recording the flowing sound as described above, information related to the flowing sound can be extracted. When the search device is realized by a mobile phone, related information can be displayed on the liquid crystal screen.

また、ネットワーク接続機能を有する携帯電話機では、URLを利用して他のコンピュータにアクセスすることが可能であるが、本発明の装置で取得する関連情報として、アドレス情報であるURLをデータベースに記録しておき、関連情報としてURLを取得した際に、上記ネットワーク接続機能を利用すれば、流れている音に対応したサイトにアクセスすることが可能となる。ここで、ネットワーク接続機能を有する音響信号検索装置の機能ブロック図を図7に示す。図7において、80はネットワークアクセス部、100はネットワーク、200はサイトである。   In addition, in a mobile phone having a network connection function, it is possible to access another computer using a URL. However, as related information acquired by the apparatus of the present invention, a URL that is address information is recorded in a database. In addition, when the URL is acquired as the related information, if the network connection function is used, it is possible to access a site corresponding to the sound being played. Here, a functional block diagram of an acoustic signal search apparatus having a network connection function is shown in FIG. In FIG. 7, 80 is a network access unit, 100 is a network, and 200 is a site.

ネットワークアクセス部80は、関連情報抽出手段70が関連情報として抽出したアドレス情報を用いて、そのアドレス情報に対応するサイト200に、ネットワーク100を介してアクセスする機能を有している。ネットワークアクセス部80は、アドレス情報を取得してネットワーク上のサイトにアクセスするWebブラウザにより実現される。図7に示した装置によれば、例えば、関連情報データベース40にライオンの鳴き声から作成した特徴ワードと、ライオンの情報を有するサイトのURLとを対応付けて記録しておき、利用者が動物園などでライオンの鳴き声を録音するだけで、携帯電話機からライオンの情報を有するサイト200にアクセスすることになる。   The network access unit 80 has a function of accessing the site 200 corresponding to the address information via the network 100 using the address information extracted by the related information extraction unit 70 as the related information. The network access unit 80 is realized by a Web browser that acquires address information and accesses a site on the network. According to the apparatus shown in FIG. 7, for example, the characteristic word created from the lion's call and the URL of the site having the lion's information are recorded in the related information database 40 in association with each other. By simply recording the cry of the lion, the site 200 having the lion information can be accessed from the mobile phone.

(3.電子透かしによる情報埋め込みとの組み合わせ)
本発明に係る音響信号検索装置は、付加情報を電子透かしとして音響信号に埋め込む手法と組み合わせることにより、関連情報抽出の精度を高めることを可能としている。ここで、電子透かしの埋め込みおよび抽出を組み合わせた場合の音響信号検索装置の機能ブロック図を図8に示す。図8においては、図7に示したものに、さらに音響信号再生装置500と埋込情報抽出部90を追加している。音響信号再生装置は、付加情報を埋め込んだ音響信号を再生するためのものである。これは、デジタル音響信号を再生可能な市販の音楽プレーヤを採用することができる。埋込情報抽出部90は、デジタル音響信号から、埋め込まれている付加情報を抽出する機能を有している。この埋込情報抽出部90の処理については、後述する。図8に示した装置によれば、埋め込み情報抽出部が付加情報を抽出するので、この付加情報を事前に関連情報データベース40にも登録しておくことにより、特徴ワードの照合により得られた情報をさらに絞り込んだ検索を行うことが可能となる。以下、音響信号再生装置500で再生する音響信号に付加情報を埋め込む手法と、埋込情報抽出部90における付加情報の抽出について説明する。
(3. Combination with information embedding by digital watermark)
The acoustic signal search apparatus according to the present invention can improve the accuracy of related information extraction by combining with a method of embedding additional information in an acoustic signal as a digital watermark. Here, FIG. 8 shows a functional block diagram of the acoustic signal search apparatus in the case of combining digital watermark embedding and extraction. In FIG. 8, an acoustic signal reproduction device 500 and an embedded information extraction unit 90 are further added to those shown in FIG. 7. The acoustic signal reproducing device is for reproducing an acoustic signal in which additional information is embedded. For this, a commercially available music player capable of reproducing a digital sound signal can be employed. The embedded information extraction unit 90 has a function of extracting embedded additional information from the digital sound signal. The processing of the embedded information extraction unit 90 will be described later. According to the apparatus shown in FIG. 8, since the embedded information extraction unit extracts the additional information, the information obtained by collating the feature words by registering the additional information in the related information database 40 in advance. It becomes possible to perform a search further narrowed down. Hereinafter, a method of embedding additional information in an acoustic signal reproduced by the acoustic signal reproduction device 500 and extraction of additional information in the embedded information extraction unit 90 will be described.

(3.1.音響信号への付加情報の埋め込み)
次に、音響信号への付加情報の埋め込みについて説明する。この付加情報が埋め込まれた音響信号は、音響信号再生装置500により再生される。図7は、音響信号に対する情報の埋込装置の構成を示す機能ブロック図である。図7において、310は音響フレーム読込手段、320は周波数変換手段、330は低周波成分変更手段、340は周波数逆変換手段、350は改変音響フレーム出力手段、360は記憶手段、361は音響信号記憶部、362は付加情報記憶部、363は改変音響信号記憶部、370は付加情報読込手段である。なお、図7に示す装置は、ステレオ音響信号、モノラル音響信号の両方に対応可能であるが、ここでは、ステレオ音響信号に対して処理を行う場合について説明していく。
(3.1. Embedding additional information in acoustic signals)
Next, embedding of additional information in an acoustic signal will be described. The acoustic signal in which the additional information is embedded is reproduced by the acoustic signal reproduction device 500. FIG. 7 is a functional block diagram showing a configuration of an information embedding device for an acoustic signal. In FIG. 7, 310 is an acoustic frame reading means, 320 is a frequency converting means, 330 is a low frequency component changing means, 340 is a frequency inverse converting means, 350 is a modified acoustic frame output means, 360 is a storing means, and 361 is an acoustic signal storage. 362 is an additional information storage unit, 363 is a modified acoustic signal storage unit, and 370 is an additional information reading means. Note that the apparatus shown in FIG. 7 can handle both a stereo sound signal and a monaural sound signal. Here, a case where processing is performed on a stereo sound signal will be described.

音響フレーム読込手段310は、付加情報の埋め込み対象とする元のステレオ音響信号の各チャンネルから所定数のサンプルを1フレームとして読み込む機能を有している。周波数変換手段320は、音響フレーム読込手段310が読み込んだ音響信号のフレームをフーリエ変換等により周波数変換してフレームスペクトルを生成する機能を有している。低周波成分変更手段330は、Aタイプの音響フレームについては、生成されたフレームスペクトルから3つの所定周波数範囲に相当するスペクトル集合を3セット抽出し、付加情報記憶部62から抽出した付加情報に基づいて、低周波強度データのスペクトル集合間の割合(比率)を変更し、Bタイプの音響フレームについては、生成されたフレームスペクトルの所定周波数範囲の低周波強度データを“0”にする機能を有している。周波数逆変換手段340は、変更された低周波強度データを含む複数のフレームスペクトルに対して周波数逆変換を行うことにより、改変音響フレームを生成する機能を有している。改変音響フレーム出力手段350は、生成された改変音響フレームを順次出力する機能を有している。記憶手段360は、付加情報を埋め込む対象とするステレオ音響信号を記憶した音響信号記憶部361と、ビット配列として構成され、ステレオ音響信号に埋め込まれる付加情報を記憶した付加情報記憶部62と、付加情報埋め込み後の改変音響信号を記憶する改変音響信号記憶部363を有しており、その他処理に必要な各種情報を記憶するものである。付加情報読込手段370は、付加情報記憶部62から付加情報を抽出する機能を有している。なお、付加情報とは、音響信号に付加するものとして埋め込む音響信号そのもの以外の情報であり、その内容は、IPアドレスやURL等の、ネットワーク上のコンピュータにアクセスするためのアドレス情報であるか、またはアドレス情報に変換するためのIDである。本実施形態では、IDを用いた場合について説明する。図7に示した各構成手段は、現実にはコンピュータおよびその周辺機器等のハードウェアに専用のプログラムを搭載することにより実現される。すなわち、コンピュータが、専用のプログラムに従って各手段の内容を実行することになる。   The sound frame reading means 310 has a function of reading a predetermined number of samples as one frame from each channel of the original stereo sound signal to be embedded with additional information. The frequency conversion means 320 has a function of generating a frame spectrum by frequency-converting the frame of the acoustic signal read by the acoustic frame reading means 310 by Fourier transformation or the like. The low frequency component changing unit 330 extracts three sets of spectrum sets corresponding to three predetermined frequency ranges from the generated frame spectrum for the A type sound frame, and based on the additional information extracted from the additional information storage unit 62. The ratio (ratio) between the spectrum sets of the low frequency intensity data is changed, and for the B type sound frame, the low frequency intensity data in the predetermined frequency range of the generated frame spectrum is set to “0”. is doing. The frequency inverse transform unit 340 has a function of generating a modified acoustic frame by performing frequency inverse transform on a plurality of frame spectra including the changed low frequency intensity data. The modified sound frame output unit 350 has a function of sequentially outputting the generated modified sound frames. The storage means 360 includes an acoustic signal storage unit 361 that stores a stereo acoustic signal to be embedded with additional information, an additional information storage unit 62 that is configured as a bit array and stores additional information embedded in the stereo acoustic signal, and an additional information It has a modified acoustic signal storage unit 363 that stores the modified acoustic signal after information is embedded, and stores various information necessary for other processing. The additional information reading unit 370 has a function of extracting additional information from the additional information storage unit 62. Note that the additional information is information other than the acoustic signal itself to be embedded as an additional to the acoustic signal, and whether the content is address information for accessing a computer on the network, such as an IP address or a URL, Or it is ID for converting into address information. In this embodiment, a case where an ID is used will be described. Each component shown in FIG. 7 is actually realized by mounting a dedicated program on hardware such as a computer and its peripheral devices. That is, the computer executes the contents of each means according to a dedicated program.

次に、図7に示した音響信号に対する情報の埋込装置の処理動作について図10のフローチャートに従って説明する。ここでは、音響信号として、L(左)、R(右)の2チャンネルを有するステレオ音響信号に対して処理を行う場合について説明していく。図10は、付加情報1ワード分の処理に対応したものとなっている。1ワードとしては、任意のビット数に設定することができるが、通常1バイトに設定する。まず、付加情報読込手段370は、付加情報記憶部62から付加情報を1ワード単位で読み込む(S301)。具体的には、音響信号に対する情報の埋め込み装置として用いられるコンピュータ内のレジスタに1ワード読み込むことになる。続いて、モードを区切りモードに設定する(S302)。モードは区切りモードと、ビットモード、継続識別モードの3種類が存在する。区切りモードは1ワード単位の区切りにおける処理を行うモードを示し、ビットモードは1ワードの各ビットの値に基づいた処理を行うモードを示している。付加情報記憶部62から1ワード読み込んだ場合には、その直後に必ず区切りモードに設定されることになる。継続識別モードは、低周波成分の信号レベルが小さい音響フレームが出現した場合に、区切り情報が埋め込まれた場合、次のビットが先頭から始まる新規なものか、中断されたために継続されたものであるかを識別するための情報を記録するモードを示している。   Next, the processing operation of the information embedding device for the acoustic signal shown in FIG. 7 will be described with reference to the flowchart of FIG. Here, a case where processing is performed on a stereo sound signal having two channels of L (left) and R (right) as sound signals will be described. FIG. 10 corresponds to processing for one word of additional information. One word can be set to an arbitrary number of bits, but is usually set to 1 byte. First, the additional information reading unit 370 reads additional information from the additional information storage unit 62 in units of one word (S301). Specifically, one word is read into a register in a computer used as an information embedding device for an acoustic signal. Subsequently, the mode is set to the separation mode (S302). There are three types of modes: separation mode, bit mode, and continuous identification mode. The delimiter mode indicates a mode for performing processing in a delimiter in units of one word, and the bit mode indicates a mode for performing processing based on the value of each bit of one word. When one word is read from the additional information storage unit 62, the delimiter mode is always set immediately after that. In the continuous identification mode, when an acoustic frame with a low low-frequency component signal level appears, if the delimiter information is embedded, it is a new one starting from the beginning or continued because it was interrupted. A mode for recording information for identifying whether or not there is present is shown.

続いて、音響フレーム読込手段310が、音響信号記憶部361に記憶されたステレオ音響信号の左右の各チャンネルから、それぞれ所定数のサンプルを1音響フレームとして読み込む(S304)。音響フレーム読込手段310が読み込む1音響フレームのサンプル数は、適宜設定することができるが、サンプリング周波数が44.1kHzの場合、4096サンプル程度とすることが望ましい。したがって、音響フレーム読込手段310は、左チャンネル、右チャンネルについてそれぞれ4096サンプルずつ、順次音響フレームとして読み込んでいくことになる。本発明においては、音響フレームとしてAタイプとBタイプが存在する。Aタイプの音響フレーム、Bタイプの音響フレームは、それぞれ同タイプの先行する音響フレームの最後のサンプルの次のサンプルを先頭サンプルとして設定される。そして、AタイプとBタイプの音響フレームは互いに所定数(本実施形態では2048)のサンプルを重複して設定される。例えば、Aタイプの音響フレームを先頭からA1、A2、A3…とし、Bタイプの音響フレームを先頭からB1、B2、B3…とすると、A1はサンプル1〜4096、A2はサンプル4097〜8192、A3はサンプル8193〜12288、B1はサンプル2049〜6144、B2はサンプル6145〜10240、B3はサンプル10241〜14336となる。なお、AタイプとBタイプは相対的なものであるので、どちらが先であっても良い。すなわち、上記とは逆にA1がサンプル2049〜6144、A2がサンプル6145〜10240、A3がサンプル10241〜14336、B1がサンプル1〜4096、B2がサンプル4097〜8192、B3がサンプル8193〜12288であっても良い。図10の例では、Bタイプ音響フレームを先に設定した場合を示している。   Subsequently, the acoustic frame reading means 310 reads a predetermined number of samples as one acoustic frame from each of the left and right channels of the stereo acoustic signal stored in the acoustic signal storage unit 361 (S304). The number of samples of one sound frame read by the sound frame reading means 310 can be set as appropriate, but is desirably about 4096 samples when the sampling frequency is 44.1 kHz. Therefore, the acoustic frame reading means 310 sequentially reads 4096 samples for each of the left channel and the right channel as acoustic frames. In the present invention, there are A type and B type as acoustic frames. In the A-type acoustic frame and the B-type acoustic frame, the next sample after the last sample of the preceding acoustic frame of the same type is set as the first sample. The A-type and B-type sound frames are set by overlapping a predetermined number (2048 in this embodiment) of samples. For example, if the A type acoustic frame is A1, A2, A3... From the top and the B type acoustic frame is B1, B2, B3... From the top, A1 is samples 1 to 4096, A2 is samples 4097 to 8192, A3. Is samples 8193-12288, B1 is samples 2049-6144, B2 is samples 6145-10240, and B3 is samples 10241-14336. Since the A type and the B type are relative, either one may be first. That is, contrary to the above, A1 is samples 2049 to 6144, A2 is samples 6145 to 10240, A3 is samples 10241 to 14336, B1 is samples 1 to 4096, B2 is samples 4097 to 8192, and B3 is samples 8193 to 12288. May be. In the example of FIG. 10, the case where the B type sound frame is set first is shown.

続いて、周波数変換手段320は、読み込んだBタイプの音響フレームに対して、周波数変換を行って、その音響フレームのスペクトルであるフレームスペクトルを得る(S305)。具体的には、S304で読み込んだBタイプの音響フレームについて、窓関数を利用して周波数変換を行う。周波数変換としては、フーリエ変換、ウェーブレット変換その他公知の種々の手法を用いることができる。本実施形態では、フーリエ変換を用いた場合を例にとって説明する。なお、後述するS309においては、同様にして、S308で読み込んだAタイプの音響フレームについて、窓関数を利用して周波数変換を行う。   Subsequently, the frequency conversion unit 320 performs frequency conversion on the read B-type sound frame to obtain a frame spectrum that is a spectrum of the sound frame (S305). Specifically, frequency conversion is performed on the B type acoustic frame read in S304 using a window function. As frequency conversion, Fourier transform, wavelet transform, and other various known methods can be used. In the present embodiment, a case where Fourier transform is used will be described as an example. In S309, which will be described later, similarly, frequency conversion is performed using the window function for the A type acoustic frame read in S308.

ここで、本実施形態においてフーリエ変換に利用する窓関数について説明しておく。一般に、所定の信号に対してフーリエ変換を行う場合、信号を所定の長さに区切って行う必要があるが、この場合、所定長さの信号に対してそのままフーリエ変換を行うと、高域部に擬似成分が発生する。そこで、一般にフーリエ変換を行う場合には、ハニング窓と呼ばれる窓関数を用いて、信号の値を変化させた後、変化後の値に対してフーリエ変換を実行する。本実施形態においては、Aタイプの音響フレームに対しては、ハニング窓関数に代えて図11(b)〜(d)に示したような窓関数W(1,i)、W(2,i)、W(3,i)を用いてフーリエ変換を行う。これにより、埋め込まれた情報が抽出側でより認識し易くなる。窓関数W(1,i)は、音響フレームの前部を抽出するためのものであり、図11(b)に示すように前部の所定のサンプル番号iの位置において、最大値1をとり、後部においては、最小値0をとるように設定されている。どのサンプル番号の場合に最大値をとるかについては、窓関数W(1,i)の設計によって異なってくるが、本実施形態では、後述する〔数式8〕で定義される。窓関数W(1,i)を乗じることにより、図11(a)に示すような音響フレームの信号波形は、図11(f)に示すように、前部に信号成分が残り、後部の信号成分が削除されたものとなり、これがフーリエ変換対象となる。   Here, a window function used for Fourier transform in the present embodiment will be described. In general, when performing Fourier transform on a predetermined signal, it is necessary to divide the signal into predetermined lengths. In this case, if Fourier transform is performed on a signal having a predetermined length, A pseudo component is generated. Therefore, in general, when performing Fourier transform, a signal value is changed using a window function called a Hanning window, and then Fourier transform is performed on the changed value. In the present embodiment, for A type acoustic frames, window functions W (1, i), W (2, i) as shown in FIGS. 11B to 11D are used instead of the Hanning window function. ), W (3, i) is used for Fourier transform. This makes it easier for the extraction side to recognize the embedded information. The window function W (1, i) is for extracting the front part of the acoustic frame, and takes a maximum value 1 at the position of a predetermined sample number i in the front part as shown in FIG. In the rear part, the minimum value is set to 0. Which sample number takes the maximum value depends on the design of the window function W (1, i), but in this embodiment, it is defined by [Equation 8] described later. By multiplying the window function W (1, i), the signal waveform of the acoustic frame as shown in FIG. 11A has a signal component remaining at the front part as shown in FIG. The component is deleted, and this becomes a Fourier transform target.

また、窓関数W(2,i)は、音響フレームの中央部を抽出するためのものであり、図11(c)に示すように、中央部の所定のサンプル番号iの位置において、最大値1をとり、前部、後部においては、最小値0をとるように設定されている。どのサンプル番号の場合に最大値をとるかについては、窓関数W(2,i)の設計によって異なってくるが、本実施形態では、後述する〔数式9〕で定義される。窓関数W(2,i)を乗じることにより、図11(a)に示すような音響フレームの信号波形は、図11(g)に示すように、中央部に信号成分が残り、前部と後部の信号成分が除去されたものとなり、これがフーリエ変換対象となる。   Further, the window function W (2, i) is for extracting the central portion of the acoustic frame. As shown in FIG. 11C, the maximum value is obtained at the position of the predetermined sample number i in the central portion. 1 is set, and the front and rear portions are set to have a minimum value of 0. Which sample number takes the maximum value varies depending on the design of the window function W (2, i), but in this embodiment, it is defined by [Equation 9] described later. By multiplying the window function W (2, i), the signal waveform of the acoustic frame as shown in FIG. 11A has a signal component remaining in the center as shown in FIG. The rear signal component is removed, and this is subjected to Fourier transform.

また、窓関数W(3,i)は、音響フレームの後部を抽出するためのものであり、図11(d)に示すように、前部においては最小値0をとり、後部の所定のサンプル番号iの位置において、最大値1をとるように設定されている。どのサンプル番号の場合に最大値をとるかについては、窓関数W(3,i)の設計によって異なってくるが、本実施形態では、後述する〔数式10〕で定義される。窓関数W(3,i)を乗じることにより、図11(a)に示すような音響フレームの信号波形は、図11(h)に示すように、前部の信号成分が除去され、後部に信号成分が残ったものとなり、これがフーリエ変換対象となる。このように前部、中央部、後部を抽出した後、フーリエ変換を実行するため、前部、中央部、後部に対応したスペクトルが得られることになる。1つの音響フレームにビット値を埋め込むためには、本来、前部と後部の2つに分けられれば良いのであるが、抽出側においては、必ずしも、信号を同期して読み込むことができるとは限らず、したがって、前部と後部をはっきりと区別するため、本実施形態では、埋め込み時に中央部の信号成分を常に削除し、前部と後部を時間的に分離することとしている(ただし、抽出時は前部と後部だけを解析すればよく、中央部は無視してよい)。本実施形態において用いる窓関数の最大の特徴は、窓関数W(1,i)と窓関数W(3,i)が左右非対称である点である。このため、特に、ビット反転が起こりにくくなる。   The window function W (3, i) is for extracting the rear part of the acoustic frame. As shown in FIG. 11D, the window function W (3, i) takes a minimum value of 0 at the front part, and a predetermined sample at the rear part. The maximum value 1 is set at the position of the number i. Which sample number takes the maximum value depends on the design of the window function W (3, i), but in this embodiment, it is defined by [Equation 10] described later. By multiplying the window function W (3, i), the signal waveform of the acoustic frame as shown in FIG. 11A is removed from the front signal component as shown in FIG. The signal component remains and becomes a Fourier transform target. Thus, after extracting the front part, the central part, and the rear part, the Fourier transform is executed, so that spectra corresponding to the front part, the central part, and the rear part are obtained. In order to embed a bit value in one acoustic frame, the bit value is originally divided into two parts, a front part and a rear part. However, on the extraction side, it is not always possible to read a signal synchronously. Therefore, in order to clearly distinguish the front part from the rear part, in this embodiment, the signal component at the center part is always deleted at the time of embedding, and the front part and the rear part are separated in time (however, at the time of extraction) Only need to analyze the front and rear, and ignore the middle). The greatest feature of the window function used in the present embodiment is that the window function W (1, i) and the window function W (3, i) are asymmetrical. For this reason, in particular, bit inversion hardly occurs.

また、本実施形態では、音響フレームを重複させて読み込み、奇数フレーム(または偶数フレーム)については、窓関数W(1,i)、W(2,i)、W(3,i)を用い、偶数フレーム(または奇数フレーム)については、図11(e)に示したような窓関数W(4,i)を用いるようにした。   In the present embodiment, the acoustic frames are read in duplicate, and the window functions W (1, i), W (2, i), W (3, i) are used for the odd frames (or even frames), For even frames (or odd frames), the window function W (4, i) as shown in FIG. 11 (e) is used.

なお、本実施形態においては、音響フレームは重複して読み込まれる。すなわち、奇数番目の音響フレームと偶数番目の音響フレームは、所定数のサンプルを重複して読み込む。上記のように、奇数フレームと偶数フレームでは、用いられる窓関数が異なるが、奇数フレームと偶数フレームは単に奇数か偶数かの違いだけであるため、どちらに対して処理をどちらの処理を行っても良い。したがって、本明細書では、奇数フレーム、偶数フレームの一方をAタイプフレーム、他方をBタイプフレームと呼ぶことにする。図10の例に従うと、奇数フレームをBタイプフレーム、偶数フレームをAタイプフレームとなるが、逆に偶数フレームをBタイプフレーム、奇数フレームをAタイプフレームとしても良い。   In the present embodiment, the sound frame is read in duplicate. That is, a predetermined number of samples are redundantly read in the odd-numbered sound frames and the even-numbered sound frames. As mentioned above, the window function used is different between odd frames and even frames, but because odd frames and even frames are simply the difference between odd and even, which one is processed for which? Also good. Therefore, in this specification, one of the odd-numbered frame and the even-numbered frame is referred to as an A-type frame, and the other is referred to as a B-type frame. According to the example of FIG. 10, odd frames are B type frames and even frames are A type frames. Conversely, even frames may be B type frames and odd frames may be A type frames.

本実施形態では、窓関数W(1,i)〜W(4,i)は、以下の〔数式8〕〜〔数式11〕で定義される。なお、図11において、横軸は時間軸(i)である。iは、後述するように、各音響フレーム内のN個のサンプルに付した通し番号であるため時刻tに比例している。また、図11(a)(f)(g)(h)(i)において縦軸は信号の振幅値(レベル)を示す。図11(b)〜(e)において縦軸は窓関数W(1,i)、W(2,i)、W(3,i)、W(4,i)の値を示しており、W(1,i)、W(2,i)、W(3,i)、W(4,i)の最大値はいずれも1である。   In the present embodiment, the window functions W (1, i) to W (4, i) are defined by the following [Equation 8] to [Equation 11]. In FIG. 11, the horizontal axis is the time axis (i). As described later, i is a serial number assigned to N samples in each acoustic frame, and is proportional to time t. 11A, 11F, 11G, 11H, and 11I, the vertical axis indicates the amplitude value (level) of the signal. 11B to 11E, the vertical axis indicates the values of the window functions W (1, i), W (2, i), W (3, i), and W (4, i). The maximum values of (1, i), W (2, i), W (3, i), and W (4, i) are all 1.

〔数式8〕
i≦3N/8のとき、W(1,i)=0.5−0.5cos(8πi/(3N))
3N/8<i≦N/2のとき、W(1,i)=0.5−0.5cos(8π(i−N/4)/N)
i>N/2のとき、W(1,i)=0.0
[Formula 8]
When i ≦ 3N / 8, W (1, i) = 0.5−0.5 cos (8πi / (3N))
When 3N / 8 <i ≦ N / 2, W (1, i) = 0.5−0.5 cos (8π (i−N / 4) / N)
When i> N / 2, W (1, i) = 0.0

〔数式9〕
i≦3N/8のとき、W(2,i)=0.0
3N/8<i≦N/2のとき、W(2,i)=0.5−0.5cos(4π(i−N/4)/N)
i>3N/4のとき、W(2,i)=0.0
[Formula 9]
When i ≦ 3N / 8, W (2, i) = 0.0
When 3N / 8 <i ≦ N / 2, W (2, i) = 0.5−0.5 cos (4π (i−N / 4) / N)
When i> 3N / 4, W (2, i) = 0.0

〔数式10〕
i≦N/2のとき、W(3,i)=0.0
i>N/2のとき、W(3,i)=0.5−0.5cos(4π(i−N/2)/N)
[Formula 10]
When i ≦ N / 2, W (3, i) = 0.0
When i> N / 2, W (3, i) = 0.5−0.5 cos (4π (i−N / 2) / N)

〔数式11〕
i≦N/4のとき、W(4,i)=0.0
N/4<i≦N/2のとき、W(4,i)=0.5−0.5cos(4π(i−N/4)/N)
N/2<i≦7N/8のとき、W(4,i)=0.5−0.5cos(8π(i−N/8)/(3N))
i>7N/8のとき、W(4,i)=0.0
[Formula 11]
When i ≦ N / 4, W (4, i) = 0.0
When N / 4 <i ≦ N / 2, W (4, i) = 0.5−0.5 cos (4π (i−N / 4) / N)
When N / 2 <i ≦ 7N / 8, W (4, i) = 0.5−0.5 cos (8π (i−N / 8) / (3N))
When i> 7N / 8, W (4, i) = 0.0

なお、図16および上記〔数式8〕〜〔数式11〕から明らかなように、窓関数W(1,i)とW(3,i)は、互いに非対称な形状である。これは、後述する抽出側において、両者の識別を容易にするためである。また、窓関数W(1,i)、W(2,i)、W(3,i)は、iが所定の値のときに最大値1をとり、iがその他の値をとる場合には、iの値に応じて単調増加、または単調減少する窓関数を分割したものであるため、窓関数W(1,i)とW(3,i)が定まると、窓関数W(2,i)も必然的に定まる。このため、窓関数W(2,i)は左右非対称の形状となっている。   As is clear from FIG. 16 and [Formula 8] to [Formula 11], the window functions W (1, i) and W (3, i) are asymmetrical to each other. This is for facilitating identification between the two on the extraction side described later. The window functions W (1, i), W (2, i), and W (3, i) have a maximum value of 1 when i is a predetermined value, and i takes other values. , I is a window function that monotonically increases or decreases according to the value of i, and therefore, when the window functions W (1, i) and W (3, i) are determined, the window function W (2, i ) Is inevitably determined. For this reason, the window function W (2, i) has a left-right asymmetric shape.

本実施形態においては、奇数フレームと偶数フレームを、所定サンプルずつ重複して読み込むため、情報の埋め込みを行った後、音響信号に復元する際に、窓関数を乗じた奇数フレームと、窓関数を乗じた偶数フレームの重複サンプルを加算した場合に、ほぼ元の値に戻るようにしなければならない。このため、窓関数W(4,i)の形状は、窓関数W(1,i)、W(2,i)、W(3,i)の値に応じて必然的に定まる。すなわち、奇数フレームと偶数フレームの重複部分において、窓関数W(1,i)、W(2,i)、W(3,i)、W(4,i)を加算すると、全区間固定値1になるように定義されている。以上が、本実施形態で用いる窓関数の概要である。   In this embodiment, since odd frames and even frames are read in duplicate by predetermined samples, after embedding information, when restoring to an acoustic signal, an odd frame multiplied by a window function and a window function are When overlapping samples of even frames multiplied are added, it must be returned to the original value. Therefore, the shape of the window function W (4, i) is inevitably determined according to the values of the window functions W (1, i), W (2, i), and W (3, i). That is, when the window functions W (1, i), W (2, i), W (3, i), and W (4, i) are added in the overlapping portion of the odd and even frames, the fixed value 1 for the entire section is obtained. Is defined to be The above is the outline of the window function used in this embodiment.

S305に戻って説明する。S305おいてフーリエ変換を行う場合、具体的には、左チャンネル信号Xl(i)、右チャンネル信号Xr(i)(i=0,…,N−1)に対して、窓関数W(4,i)を用いて、以下の〔数式12〕に従った処理を行い、左チャンネルに対応する変換データの実部Al(4,j)、虚部Bl(4,j)、右チャンネルに対応する変換データの実部Ar(4,j)、虚部Br(4,j)を得る。   Returning to S305, description will be made. When performing Fourier transform in S305, specifically, the window function W (4, 4) is applied to the left channel signal Xl (i) and the right channel signal Xr (i) (i = 0,..., N−1). i) is used to perform processing according to the following [Equation 12] and correspond to the real part Al (4, j), the imaginary part Bl (4, j), and the right channel of the conversion data corresponding to the left channel. Real part Ar (4, j) and imaginary part Br (4, j) of the conversion data are obtained.

〔数式12〕
Al(4,j)=Σi=0,…,N-1W(4,i)・Xl(i)・cos(2πij/N)
Bl(4,j)=Σi=0,…,N-1W(4,i)・Xl(i)・sin(2πij/N)
Ar(4,j)=Σi=0,…,N-1W(4,i)・Xr(i)・cos(2πij/N)
Br(4,j)=Σi=0,…,N-1W(4,i)・Xr(i)・sin(2πij/N)
[Formula 12]
Al (4, j) = Σi = 0,..., N-1 W (4, i) · Xl (i) · cos (2πij / N)
Bl (4, j) = Σi = 0,..., N-1 W (4, i) .Xl (i) .sin (2πij / N)
Ar (4, j) = Σi = 0,..., N-1 W (4, i) .Xr (i) .cos (2πij / N)
Br (4, j) = Σi = 0,..., N-1 W (4, i) · Xr (i) · sin (2πij / N)

〔数式12〕において、iは、各音響フレーム内のN個のサンプルに付した通し番号であり、i=0,1,2,…N−1の整数値をとる。また、jは周波数の値について、値の小さなものから順に付した通し番号であり、iと同様にj=0,1,2,…N−1の整数値をとる。サンプリング周波数が44.1kHz、N=4096の場合、jの値が1つ異なると、周波数が10.8Hz異なることになる。次に、低周波成分変更手段330は、窓4成分(第4窓関数による低周波スペクトルの各成分)の除去を行う(S306)。具体的には、窓4成分に対して、以下の〔数式13〕に従った処理を実行することになる。   In [Equation 12], i is a serial number assigned to N samples in each acoustic frame, and takes an integer value of i = 0, 1, 2,... N−1. Further, j is a serial number assigned in order from the smallest value of the frequency value, and takes an integer value of j = 0, 1, 2,... N−1 similarly to i. When the sampling frequency is 44.1 kHz and N = 4096, if the value of j is different by one, the frequency will be different by 10.8 Hz. Next, the low frequency component changing means 330 removes the window 4 components (low frequency spectrum components by the fourth window function) (S306). Specifically, the processing according to the following [Equation 13] is executed for the window 4 components.

上記〔数式12〕に従った処理を実行することにより、各音響フレームの信号成分を周波数に対応した成分であるスペクトルで表現されたフレームスペクトルが得られる。続いて、低周波成分変更手段330が、生成されたフレームスペクトルから3つの所定周波数範囲のスペクトル集合を抽出する。人間の聴覚は、200〜300Hz程度までの低周波成分については、方向性を感知しにくくなっていることが知られている(コロナ社1990年10月30日発行「音響工学講座1.基礎音響工学、日本音響学会編」p247図9・26参照)。したがって、本実施形態では、低周波成分を200Hz程度以下としている。周波数200Hz付近は、上記jが20に相当するので、上記〔数式12〕により算出された実部Al(4,j)、虚部Bl(4,j)、実部Ar(4,j)、虚部Br(4,j)、のうち、j≦20(=M)のものを抽出することになる。   By executing the processing according to the above [Equation 12], a frame spectrum in which the signal component of each acoustic frame is expressed by a spectrum corresponding to the frequency is obtained. Subsequently, the low frequency component changing unit 330 extracts a spectrum set of three predetermined frequency ranges from the generated frame spectrum. Human hearing is known to be less sensitive to directionality for low frequency components up to about 200-300 Hz (Corona Corp., issued October 30, 1990, "Sound Engineering Course 1. Basic Acoustics"). Engineering, Acoustical Society of Japan ”p.247 (see FIGS. 9 and 26). Therefore, in this embodiment, the low frequency component is about 200 Hz or less. In the vicinity of a frequency of 200 Hz, j corresponds to 20, so the real part Al (4, j), the imaginary part Bl (4, j), the real part Ar (4, j) calculated by the above [Equation 12], Among the imaginary parts Br (4, j), those with j ≦ 20 (= M) are extracted.

〔数式13〕
j=1〜Mの各成分に対して
Al´(4,j)=0
Bl´(4,j)=0
ステレオの場合、右信号に対応した以下も算出
E(4,j)={Al(4,j)2+Bl(4,j)2+Ar(4,j)2+Br(4,j)21/2
Ar´(4,j)=Ar(4,j)・E(4,j)/{Ar(4,j)2+Br(4,j)21/2
Br´(4,j)=Br(4,j)・E(4,j)/{Ar(4,j)2+Br(4,j)21/2
[Formula 13]
For each component of j = 1 to M, Al ′ (4, j) = 0
Bl ′ (4, j) = 0
In the case of stereo, the following corresponding to the right signal is also calculated. E (4, j) = {Al (4, j) 2 + B1 (4, j) 2 + Ar (4, j) 2 + Br (4, j) 2 } 1 / 2
Ar ′ (4, j) = Ar (4, j) · E (4, j) / {Ar (4, j) 2 + Br (4, j) 2 } 1/2
Br ′ (4, j) = Br (4, j) · E (4, j) / {Ar (4, j) 2 + Br (4, j) 2 } 1/2

次に、周波数逆変換手段340が、上記S306の処理により窓4成分が除去されたフレームスペクトルを周波数逆変換して改変音響フレームを得る処理を行う(S307)。この周波数逆変換は、当然のことながら、周波数変換手段320がS305において実行した手法に対応していることが必要となる。本実施形態では、周波数変換手段320において、フーリエ変換を施しているため、周波数逆変換手段340は、フーリエ逆変換を実行することになる。具体的には、上記〔数式13〕のいずれかにより得られたスペクトルの左チャンネルの実部Al´(4,j)、虚部Bl´(4,j)、右チャンネルの実部Ar´(4,j)、虚部Br´(4,j)を用いて、以下の〔数式14〕に従った処理を行い、Xl´(i)、Xr´(i)を算出する。なお、上記〔数式13〕において改変されていない周波数成分については、以下の〔数式14〕においてはAl´(4,j)、Bl´(4,j)、Ar´(4,j)、Br´(4,j)として、元の値であるAl(4,j)、Bl(4,j)、Ar(4,j)、Br(4,j)を用いる。   Next, the frequency inverse transform means 340 performs a process of obtaining a modified acoustic frame by performing frequency inverse transform on the frame spectrum from which the window 4 component has been removed by the process of S306 (S307). As a matter of course, the inverse frequency conversion needs to correspond to the method executed by the frequency conversion means 320 in S305. In the present embodiment, since the frequency transform unit 320 performs the Fourier transform, the frequency inverse transform unit 340 performs the Fourier inverse transform. Specifically, the real part Al ′ (4, j), the imaginary part Bl ′ (4, j) of the left channel of the spectrum obtained by any of the above [Equation 13], the real part Ar ′ ( 4, j) and imaginary part Br ′ (4, j) are used to perform processing according to the following [Equation 14] to calculate Xl ′ (i) and Xr ′ (i). For frequency components that are not modified in the above [Equation 13], in the following [Equation 14], Al ′ (4, j), Bl ′ (4, j), Ar ′ (4, j), Br The original values Al (4, j), Bl (4, j), Ar (4, j), and Br (4, j) are used as ′ (4, j).

〔数式14〕
Xl´(i)=1/N・{ΣjAl´(4,j)・cos(2πij/N)−ΣjBl´(4,j)・sin(2πij/N)}+Xlp(i+N/2)
Xr´(i)=1/N・{ΣjAr´(4,j)・cos(2πij/N)−ΣjBr´(4,j)・sin(2πij/N)}+Xrp(i+N/2)
[Formula 14]
Xl' (i) = 1 / N · {Σ j Al' (4, j) · cos (2πij / N) -Σ j Bl' (4, j) · sin (2πij / N)} + Xlp (i + N / 2 )
Xr' (i) = 1 / N · {Σ j Ar' (4, j) · cos (2πij / N) -Σ j Br' (4, j) · sin (2πij / N)} + Xrp (i + N / 2 )

上記〔数式14〕によりAタイプの改変音響フレームの左チャンネルの各サンプルXl´(i)、右チャンネルの各サンプルXr´(i)、が得られることになる。改変音響フレーム出力手段350は、得られた改変音響フレームを順次出力ファイルに出力する。続いて、音響フレーム読込手段310が、音響信号記憶部361に記憶されたステレオ音響信号の左右の各チャンネルから、それぞれ所定数のサンプルをAタイプの音響フレームとして読み込む(S308)。上述のように、Bタイプの音響フレームとAタイプの音響フレームは、2048サンプル重複したものとなっている。したがって、音響フレーム読込手段310は、S308においては、S304でBタイプ音響フレームを読み込んだ位置から2048サンプル分移動させて、音響フレームを読み込むことになる。   According to the above [Equation 14], each sample Xl ′ (i) of the left channel and each sample Xr ′ (i) of the right channel of the type A modified acoustic frame are obtained. The modified sound frame output unit 350 sequentially outputs the obtained modified sound frames to an output file. Subsequently, the acoustic frame reading means 310 reads a predetermined number of samples as A-type acoustic frames from the left and right channels of the stereo acoustic signal stored in the acoustic signal storage unit 361 (S308). As described above, the B type sound frame and the A type sound frame are overlapped by 2048 samples. Therefore, in S308, the acoustic frame reading means 310 moves the 2048 samples from the position where the B-type acoustic frame is read in S304, and reads the acoustic frame.

続いて、周波数変換手段320は、読み込んだAタイプの音響フレームに対して、周波数変換を行って、その音響フレームのスペクトルであるフレームスペクトルを得る(S309)。具体的には、各音響フレームについて、窓関数W(1,i)、W(2,i)、W(3,i)の3つの窓関数を用いて行う。周波数変換としては、フーリエ変換、ウェーブレット変換その他公知の種々の手法を用いることができるが、上記S305の場合と同様、本実施形態では、フーリエ変換を用いる。   Subsequently, the frequency conversion unit 320 performs frequency conversion on the read A-type sound frame to obtain a frame spectrum that is a spectrum of the sound frame (S309). Specifically, each acoustic frame is performed using three window functions of window functions W (1, i), W (2, i), and W (3, i). As the frequency conversion, Fourier transform, wavelet transform, and other various known methods can be used. In the present embodiment, Fourier transform is used as in the case of S305.

S309においてフーリエ変換を行う場合、具体的には、左チャンネル信号Xl(i)、右チャンネル信号Xr(i)(i=0,…,N−1)に対して、3つの窓関数W(1,i)、W(2,i)、W(3,i)を用いて、以下の〔数式15〕に従った処理を行い、左チャンネルに対応する変換データの実部Al(1,j)、Al(2,j)、Al(3,j)、虚部Bl(1,j)、Bl(2,j)、Bl(3,j)、右チャンネルに対応する変換データの実部Ar(1,j)、Ar(2,j)、Ar(3,j)、虚部Br(1,j)、Br(2,j)、Br(3,j)を得る。なお、窓関数W(1,i)、W(2,i)、W(3,i)は、それぞれ音響フレームの前部(先頭)付近、中央付近、後部付近において値が大きくなる関数となっている。   When performing the Fourier transform in S309, specifically, three window functions W (1) for the left channel signal Xl (i) and the right channel signal Xr (i) (i = 0,..., N−1). , I), W (2, i), and W (3, i), the processing according to the following [Formula 15] is performed, and the real part Al (1, j) of the conversion data corresponding to the left channel , Al (2, j), Al (3, j), imaginary part Bl (1, j), Bl (2, j), Bl (3, j), real part Ar () of the conversion data corresponding to the right channel 1, j), Ar (2, j), Ar (3, j), imaginary part Br (1, j), Br (2, j), Br (3, j) are obtained. Note that the window functions W (1, i), W (2, i), and W (3, i) are functions whose values increase near the front (front), near the center, and near the rear of the acoustic frame, respectively. ing.

〔数式15〕
Al(1,j)=Σi=0,…,N-1W(1,i)・Xl(i)・cos(2πij/N)
Bl(1,j)=Σi=0,…,N-1W(1,i)・Xl(i)・sin(2πij/N)
Al(2,j)=Σi=0,…,N-1W(2,i)・Xl(i)・cos(2πij/N)
Bl(2,j)=Σi=0,…,N-1W(2,i)・Xl(i)・sin(2πij/N)
Al(3,j)=Σi=0,…,N-1W(3,i)・Xl(i)・cos(2πij/N)
Bl(3,j)=Σi=0,…,N-1W(3,i)・Xl(i)・sin(2πij/N)
Ar(1,j)=Σi=0,…,N-1W(1,i)・Xr(i)・cos(2πij/N)
Br(1,j)=Σi=0,…,N-1W(1,i)・Xr(i)・sin(2πij/N)
Ar(2,j)=Σi=0,…,N-1W(2,i)・Xr(i)・cos(2πij/N)
Br(2,j)=Σi=0,…,N-1W(2,i)・Xr(i)・sin(2πij/N)
Ar(3,j)=Σi=0,…,N-1W(3,i)・Xr(i)・cos(2πij/N)
Br(3,j)=Σi=0,…,N-1W(3,i)・Xr(i)・sin(2πij/N)
[Formula 15]
Al (1, j) = Σi = 0,..., N-1 W (1, i) .Xl (i) .cos (2πij / N)
Bl (1, j) = Σi = 0,..., N-1 W (1, i) · Xl (i) · sin (2πij / N)
Al (2, j) = Σi = 0,..., N-1 W (2, i) · Xl (i) · cos (2πij / N)
Bl (2, j) = Σi = 0,..., N-1 W (2, i) · Xl (i) · sin (2πij / N)
Al (3, j) = Σi = 0,..., N-1 W (3, i) · Xl (i) · cos (2πij / N)
Bl (3, j) = Σi = 0,..., N-1 W (3, i) .Xl (i) .sin (2πij / N)
Ar (1, j) = Σi = 0,..., N-1 W (1, i) .Xr (i) .cos (2πij / N)
Br (1, j) = Σ i = 0,..., N-1 W (1, i) · Xr (i) · sin (2πij / N)
Ar (2, j) = Σi = 0,..., N-1 W (2, i) .Xr (i) .cos (2πij / N)
Br (2, j) = Σi = 0,..., N-1 W (2, i) .Xr (i) .sin (2πij / N)
Ar (3, j) = Σi = 0,..., N-1 W (3, i) · Xr (i) · cos (2πij / N)
Br (3, j) = Σi = 0,..., N-1 W (3, i) · Xr (i) · sin (2πij / N)

上記〔数式12〕と同様に、〔数式15〕において、iは、各音響フレーム内のN個のサンプルに付した通し番号であり、i=0,1,2,…N−1の整数値をとる。また、jは周波数の値について、値の小さなものから順に付した通し番号であり、iと同様にj=0,1,2,…N−1の整数値をとる。サンプリング周波数が44.1kHz、N=4096の場合、jの値が1つ異なると、周波数が10.8Hz異なることになる。   As in [Formula 12] above, in [Formula 15], i is a serial number assigned to N samples in each acoustic frame, and an integer value of i = 0, 1, 2,. Take. Further, j is a serial number assigned in order from the smallest value of the frequency value, and takes an integer value of j = 0, 1, 2,... N−1 similarly to i. When the sampling frequency is 44.1 kHz and N = 4096, if the value of j is different by one, the frequency will be different by 10.8 Hz.

上記〔数式15〕に従った処理を実行することにより、各音響フレームの信号成分を周波数に対応した成分であるスペクトルで表現されたフレームスペクトルが得られる。続いて、低周波成分変更手段330が、生成されたフレームスペクトルから3つの所定周波数範囲のスペクトル集合を抽出する。上述のように、人間の聴覚は、200〜300Hz程度までの低周波成分については、方向性を感知しにくくなっているため、ここでも、低周波成分を200Hz程度以下としている。周波数200Hz付近は、上記jが20に相当するので、上記〔数式15〕により算出された実部Al(1,j)、Al(2,j)、Al(3,j)、虚部Bl(1,j)、Bl(2,j)、Bl(3,j)、実部Ar(1,j)、Ar(2,j)、Ar(3,j)、虚部Br(1,j)、Br(2,j)、Br(3,j)のうち、j≦20(=M)のものを抽出することになる。   By executing the processing according to the above [Equation 15], a frame spectrum in which the signal component of each acoustic frame is represented by a spectrum corresponding to the frequency is obtained. Subsequently, the low frequency component changing unit 330 extracts a spectrum set of three predetermined frequency ranges from the generated frame spectrum. As described above, the human auditory sense makes it difficult to detect the directionality of the low frequency component up to about 200 to 300 Hz, so the low frequency component is set to about 200 Hz or less here as well. In the vicinity of a frequency of 200 Hz, j corresponds to 20, so the real part Al (1, j), Al (2, j), Al (3, j), and imaginary part Bl ( 1, j), Bl (2, j), Bl (3, j), real part Ar (1, j), Ar (2, j), Ar (3, j), imaginary part Br (1, j) , Br (2, j), Br (3, j), j ≦ 20 (= M) are extracted.

続いて、低周波成分変更手段330は、抽出した左チャンネルの実部Al(1,j)、Al(3,j)、虚部Bl(1,j)、Bl(3,j)、右チャンネルの実部Ar(1,j)、Ar(3,j)、虚部Br(1,j)、Br(3,j)を利用して、以下の〔数式16〕により、合算値E1、合算値E2を算出する。 Subsequently, the low frequency component changing means 330 extracts the real part Al (1, j), Al (3, j), imaginary part Bl (1, j), Bl (3, j) of the extracted left channel, and the right channel. Using the real part Ar (1, j), Ar (3, j), imaginary part Br (1, j), Br (3, j), the following equation (16) gives the combined value E 1 , to calculate the total value E 2.

〔数式16〕
1=Σj=1,…,M-3{Al(1,j)2+Bl(1,j)2+Ar(1,j)2+Br(1,j)2
2=Σj=1,…,M-3{Al(3,j)2+Bl(3,j)2+Ar(3,j)2+Br(3,j)2
[Formula 16]
E 1 = Σj = 1,..., M-3 {Al (1, j) 2 + Bl (1, j) 2 + Ar (1, j) 2 + Br (1, j) 2 }
E 2 = Σ j = 1,..., M-3 {Al (3, j) 2 + Bl (3, j) 2 + Ar (3, j) 2 + Br (3, j) 2 }

上記〔数式16〕により算出されたE1は音響フレーム前部付近のスペクトル集合の成分強度の合算値、E2は音響フレーム後部付近のスペクトル集合の成分強度の合算値を示すことになる。続いて、この合算値E1、E2がレベル下限値Lev以上であるかどうかの判定を行う。レベル下限値Levは、音響信号Xl(i)、Xr(i)の振幅最大値が1に正規化されており、M=20に設定されている場合、0.5に設定する。このLev=0.5という値は、経験的にアナログ変換への耐性が維持できるレベルであり、低周波成分が少ない場合は適宜下げることになるが、その場合は、アナログ変換により検出精度も低下することになる。 E 1 calculated by the above [Equation 16] represents the sum of the component intensities of the spectrum set near the front of the acoustic frame, and E 2 represents the sum of the component intensities of the spectrum set near the rear of the acoustic frame. Subsequently, it is determined whether or not the combined values E 1 and E 2 are equal to or higher than the level lower limit value Lev. The level lower limit value Lev is set to 0.5 when the maximum amplitude value of the acoustic signals Xl (i) and Xr (i) is normalized to 1 and M = 20. This value of Lev = 0.5 is a level at which the resistance to analog conversion can be maintained empirically, and when there are few low frequency components, it will be reduced as appropriate. In this case, the detection accuracy also decreases due to analog conversion. Will do.

合算値E1、E2がレベル下限値Lev以上であるかどうかを判断するのは、信号の強度が小さいと、信号を変化させても、その変化を抽出側で検出することができないためである。また、本実施形態では、第1の値(例えば“1”)と第2の値(例えば“0”)をとり得るビット値が“1”の場合、窓3成分(第3窓関数による低周波スペクトルの各成分)に、ビット値が“0”の場合、窓1成分(第1窓関数による低周波スペクトルの各成分)に、埋め込むこととしている。したがって、埋め込むビット値が“1”の場合は、合算値E1が下限値Lev未満であるとき、埋め込むビット値が“0”の場合は、合算値E2がレベル下限値Lev未満であるとき、アクセス情報のビット値に応じた記録をせず、先頭ビットから再度処理するため、読み込み位置を先頭ビットに戻し、モードを区切りモードに設定する(S310)。一方、埋め込むビット値が“1”で合算値E1がレベル下限値Lev以上であるか、埋め込むビット値が“0”で合算値E2がレベル下限値Lev以上であるときには、モードを判断することになる。 The reason why it is determined whether or not the combined values E 1 and E 2 are equal to or greater than the level lower limit value Lev is that if the signal strength is small, even if the signal is changed, the change cannot be detected on the extraction side. is there. In this embodiment, when the bit value that can take the first value (for example, “1”) and the second value (for example, “0”) is “1”, the window three components (low by the third window function). When the bit value is “0” in each component of the frequency spectrum, it is embedded in the window 1 component (each component of the low frequency spectrum by the first window function). Therefore, when the bit value to be embedded is “1”, the sum value E 1 is less than the lower limit value Lev, and when the bit value to be embedded is “0”, the sum value E 2 is less than the level lower limit value Lev. In order to process again from the first bit without recording according to the bit value of the access information, the reading position is returned to the first bit, and the mode is set to the delimiter mode (S310). On the other hand, when the bit value to be embedded is “1” and the total value E 1 is greater than or equal to the level lower limit value Lev, or when the bit value to be embedded is “0” and the total value E 2 is greater than or equal to the level lower limit value Lev, the mode is determined. It will be.

低周波成分変更手段330は、モードが区切りモードである場合、左(L)チャンネル信号において、窓1成分と窓3成分の低周波成分を均等(全て0となる場合も含む)とする処理を行う(S312)。具体的には、以下の〔数式17〕に従って、L側の双方を0に設定する処理を実行することになる。この場合、右(R)チャンネル信号の窓1成分と窓3成分は必ずしも均等ではない。   The low frequency component changing unit 330 performs processing for equalizing the low frequency components of the window 1 component and the window 3 component (including the case where all are 0) in the left (L) channel signal when the mode is the separation mode. It performs (S312). Specifically, according to the following [Equation 17], processing for setting both L side to 0 is executed. In this case, the window 1 component and the window 3 component of the right (R) channel signal are not necessarily equal.

〔数式17〕
j=1〜Mに対して、
Al´(1,j)=0
Bl´(1,j)=0
Al´(3,j)=0
Bl´(3,j)=0
ステレオの場合、右信号に対応した以下も算出
E(1,j)={Al(1,j)2+Bl(1,j)2+Ar(1,j)2+Br(1,j)21/2
Ar´(1,j)=Ar(1,j)・E(1,j)/{Ar(1,j)2+Br(1,j)21/2
Br´(1,j)=Br(1,j)・E(1,j)/{Ar(1,j)2+Br(1,j)21/2
E(3,j)={Al(3,j)2+Bl(3,j)2+Ar(3,j)2+Br(3,j)21/2
Ar´(3,j)=Ar(3,j)・E(3,j)/{Ar(3,j)2+Br(3,j)21/2
Br´(3,j)=Br(3,j)・E(3,j)/{Ar(3,j)2+Br(1,j)21/2
[Formula 17]
For j = 1 to M,
Al ′ (1, j) = 0
Bl ′ (1, j) = 0
Al ′ (3, j) = 0
Bl ′ (3, j) = 0
In the case of stereo, the following corresponding to the right signal is also calculated: E (1, j) = {Al (1, j) 2 + Bl (1, j) 2 + Ar (1, j) 2 + Br (1, j) 2 } 1 / 2
Ar ′ (1, j) = Ar (1, j) · E (1, j) / {Ar (1, j) 2 + Br (1, j) 2 } 1/2
Br ′ (1, j) = Br (1, j) · E (1, j) / {Ar (1, j) 2 + Br (1, j) 2 } 1/2
E (3, j) = {Al (3, j) 2 + B1 (3, j) 2 + Ar (3, j) 2 + Br (3, j) 2 } 1/2
Ar ′ (3, j) = Ar (3, j) · E (3, j) / {Ar (3, j) 2 + Br (3, j) 2 } 1/2
Br ′ (3, j) = Br (3, j) · E (3, j) / {Ar (3, j) 2 + Br (1, j) 2 } 1/2

上記〔数式17〕に従った処理を実行することにより、左チャンネルのフレームスペクトルの低周波数成分は、窓1成分と窓3成分共に“0” で同一となる。この窓1成分と窓3成分が均等のパターンは、付加情報の先頭位置(区切り)を示す情報となる。なお、上記〔数式17〕においては、窓1成分と窓3成分ともにAl´(j)=Bl´(j)=0としているが、抽出側で区切りであることが認識可能とすることを目的としているため、十分小さな値であれば、必ずしも0とする必要はない。また、必ずしも窓1成分と窓3成分において同一である必要はなく、差が小さければ良い。この意味で、ここでは「均等」という言葉を用いている。   By executing the processing according to the above [Equation 17], the low frequency component of the left channel frame spectrum is the same when both the window 1 component and the window 3 component are “0”. The pattern in which the window 1 component and the window 3 component are equal is information indicating the head position (separation) of the additional information. In the above [Equation 17], Al ′ (j) = Bl ′ (j) = 0 is set for both the window 1 component and the window 3 component. Therefore, if the value is sufficiently small, it is not always necessary to set it to zero. Further, the window 1 component and the window 3 component do not necessarily have to be the same, and it is sufficient that the difference is small. In this sense, the term “equal” is used here.

一方、低周波成分変更手段330は、モードがビットモード又は継続識別モードである場合、付加情報記憶部62から抽出した付加情報のビット配列のビット値に応じて、左チャンネル信号の窓1成分と窓3成分のスペクトル強度の割合を窓1成分が優位か、窓3成分が優位かのいずれかの状態に変更する処理を行う(S311)。ここで、「優位」とは、一方の窓成分のスペクトル集合におけるスペクトル強度が、他方の窓成分のスペクトル集合におけるスペクトル強度よりも大きいことを示す。そこで、S311においては、第1の値と第2の値をとり得るビット値に応じて以下の〔数式18〕、〔数式19〕のいずれかに従った処理を実行することにより、窓1成分のスペクトル強度と、窓3成分のスペクトル強度の大小関係を変更し、窓1成分が優位か、窓3成分が優位かのいずれかに変更する処理を行う。例えば、第1の値を1、第2の値を0とした場合、ビット値が1のとき、窓1成分に対して、以下の〔数式18〕に従った処理を実行する。   On the other hand, when the mode is the bit mode or the continuous identification mode, the low frequency component changing unit 330 determines the window 1 component of the left channel signal according to the bit value of the bit array of the additional information extracted from the additional information storage unit 62. Processing for changing the ratio of the spectral intensity of the window 3 component to either the window 1 component being dominant or the window 3 component being dominant (S311). Here, “dominant” indicates that the spectral intensity in the spectrum set of one window component is larger than the spectral intensity in the spectrum set of the other window component. Therefore, in S311, the window 1 component is obtained by executing the processing according to any of the following [Equation 18] and [Equation 19] according to the bit value that can take the first value and the second value. The magnitude relationship between the spectral intensity of the window 3 and the spectral intensity of the window 3 component is changed, and processing is performed to change the window 1 component to dominant or the window 3 component to dominant. For example, when the first value is 1 and the second value is 0, when the bit value is 1, the process according to the following [Equation 18] is executed for the window 1 component.

〔数式18〕
j=1〜Mに対して
Al´(1,j)=0
Bl´(1,j)=0
ステレオの場合、右信号に対応した以下も算出
E(1,j)={Al(1,j)2+Bl(1,j)2+Ar(1,j)2+Br(1,j)21/2
Ar´(1,j)=Ar(1,j)・E(1,j)/{Ar(1,j)2+Br(1,j)21/2
Br´(1,j)=Br(1,j)・E(1,j)/{Ar(1,j)2+Br(1,j)21/2
[Formula 18]
For j = 1 to M, Al ′ (1, j) = 0
Bl ′ (1, j) = 0
In the case of stereo, the following corresponding to the right signal is also calculated: E (1, j) = {Al (1, j) 2 + Bl (1, j) 2 + Ar (1, j) 2 + Br (1, j) 2 } 1 / 2
Ar ′ (1, j) = Ar (1, j) · E (1, j) / {Ar (1, j) 2 + Br (1, j) 2 } 1/2
Br ′ (1, j) = Br (1, j) · E (1, j) / {Ar (1, j) 2 + Br (1, j) 2 } 1/2

なお、この場合、窓3成分に対しては、以下の〔数式19〕に従った処理を実行する。   In this case, the processing according to the following [Equation 19] is executed for the three components of the window.

〔数式19〕
j=M−2、M−1、Mの3成分に対して
Al´(3,j)=0
Bl´(3,j)=0
ステレオの場合、右信号に対応した以下も算出
E(3,j)={Al(3,j)2+Bl(3,j)2+Ar(3,j)2+Br(3,j)21/2
Ar´(3,j)=Ar(3,j)・E(3,j)/{Ar(3,j)2+Br(3,j)21/2
Br´(3,j)=Br(3,j)・E(3,j)/{Ar(3,j)2+Br(3,j)21/2
更にステレオの場合、残存成分を強調させるため、次のように右チャンネル成分を左チャンネル成分に移動させる処理を行う。j=1〜M−3に対して
Ar´(3,j)=0
Br´(3,j)=0
Al´(3,j)=Al(3,j)・E(3,j)/{Al(3,j)2+Bl(3,j)21/2
Bl´(3,j)=Bl(3,j)・E(3,j)/{Al(3,j)2+Bl(3,j)21/2
[Formula 19]
For three components j = M−2, M−1 and M, Al ′ (3, j) = 0
Bl ′ (3, j) = 0
In the case of stereo, the following corresponding to the right signal is also calculated. E (3, j) = {Al (3, j) 2 + Bl (3, j) 2 + Ar (3, j) 2 + Br (3, j) 2 } 1 / 2
Ar ′ (3, j) = Ar (3, j) · E (3, j) / {Ar (3, j) 2 + Br (3, j) 2 } 1/2
Br ′ (3, j) = Br (3, j) · E (3, j) / {Ar (3, j) 2 + Br (3, j) 2 } 1/2
Further, in the case of stereo, processing for moving the right channel component to the left channel component is performed as follows in order to emphasize the remaining component. For j = 1 to M-3, Ar ′ (3, j) = 0
Br ′ (3, j) = 0
Al ′ (3, j) = Al (3, j) · E (3, j) / {Al (3, j) 2 + Bl (3, j) 2 } 1/2
Bl ′ (3, j) = B1 (3, j) · E (3, j) / {Al (3, j) 2 + Bl (3, j) 2 } 1/2

上記〔数式18〕〔数式19〕による処理を行った結果、窓3成分のj=M−2、M−1、Mにおいては、値が“0”となるが、他は所定値以上の信号成分が存在することになる。したがって、この場合、窓3成分が優位な状態にスペクトル強度の割合が変更されたことになる。続いて、ビット値が0のとき、窓3成分に対して、以下の〔数式20〕に従った処理を実行する。   As a result of performing the processing according to the above [Equation 18] and [Equation 19], the value becomes “0” when the three components of the window j = M−2, M−1, and M, but signals other than the predetermined value are obtained. Ingredients will be present. Therefore, in this case, the ratio of the spectral intensity is changed so that the window 3 component is dominant. Subsequently, when the bit value is 0, the processing according to the following [Equation 20] is executed for the window three components.

〔数式20〕
j=1〜Mの各成分に対して
Al´(3,j)=0
Bl´(3,j)=0
ステレオの場合、右信号に対応した以下も算出
E(3,j)={Al(3,j)2+Bl(3,j)2+Ar(3,j)2+Br(3,j)21/2
Ar´(3,j)=Ar(3,j)・E(3,j)/{Ar(3,j)2+Br(3,j)21/2
Br´(3,j)=Br(3,j)・E(3,j)/{Ar(3,j)2+Br(3,j)21/2
[Formula 20]
For each component of j = 1 to M, Al ′ (3, j) = 0
Bl ′ (3, j) = 0
In the case of stereo, the following corresponding to the right signal is also calculated. E (3, j) = {Al (3, j) 2 + Bl (3, j) 2 + Ar (3, j) 2 + Br (3, j) 2 } 1 / 2
Ar ′ (3, j) = Ar (3, j) · E (3, j) / {Ar (3, j) 2 + Br (3, j) 2 } 1/2
Br ′ (3, j) = Br (3, j) · E (3, j) / {Ar (3, j) 2 + Br (3, j) 2 } 1/2

なお、この場合、窓1成分に対しては、以下の〔数式21〕に従った処理を実行する。   In this case, the processing according to the following [Equation 21] is executed for one component of the window.

〔数式21〕
j=M−2、M−1、Mの3成分に対して
Al´(1,j)=0
Bl´(1,j)=0
ステレオの場合、右信号に対応した以下も算出
E(1,j)={Al(1,j)2+Bl(1,j)2+Ar(1,j)2+Br(1,j)21/2
Ar´(1,j)=Ar(1,j)・E(1,j)/{Ar(1,j)2+Br(1,j)21/2
Br´(1,j)=Br(1,j)・E(1,j)/{Ar(1,j)2+Br(1,j)21/2
更にステレオの場合、残存成分を強調させるため、次のように右チャンネル成分を左チャンネル成分に移動させる処理を行う。j=1〜M−3に対して
Ar´(1,j)=0
Br´(1,j)=0
Al´(1,j)=Al(1,j)・E(1,j)/{Al(1,j)2+Bl(1,j)21/2
Bl´(1,j)=Bl(1,j)・E(1,j)/{Al(1,j)2+Bl(1,j)21/2
[Formula 21]
For three components j = M−2, M−1 and M, Al ′ (1, j) = 0
Bl ′ (1, j) = 0
In the case of stereo, the following corresponding to the right signal is also calculated: E (1, j) = {Al (1, j) 2 + Bl (1, j) 2 + Ar (1, j) 2 + Br (1, j) 2 } 1 / 2
Ar ′ (1, j) = Ar (1, j) · E (1, j) / {Ar (1, j) 2 + Br (1, j) 2 } 1/2
Br ′ (1, j) = Br (1, j) · E (1, j) / {Ar (1, j) 2 + Br (1, j) 2 } 1/2
Further, in the case of stereo, processing for moving the right channel component to the left channel component is performed as follows in order to emphasize the remaining component. For j = 1 to M-3, Ar ′ (1, j) = 0
Br ′ (1, j) = 0
Al ′ (1, j) = Al (1, j) · E (1, j) / {Al (1, j) 2 + Bl (1, j) 2 } 1/2
Bl ′ (1, j) = Bl (1, j) · E (1, j) / {Al (1, j) 2 + Bl (1, j) 2 } 1/2

上記〔数式20〕〔数式21〕による処理を行った結果、窓1成分のj=M−2、M−1、Mにおいては、値が“0”となるが、他は所定値以上の信号成分が存在することになる。したがって、この場合、窓1成分が優位な状態にスペクトル強度の割合が変更されたことになる。   As a result of performing the processing according to the above [Equation 20] and [Equation 21], a value of “0” is obtained at j = M−2, M−1, and M of one component of the window, but signals other than the predetermined value are obtained at other times. Ingredients will be present. Therefore, in this case, the ratio of the spectrum intensity is changed so that the window 1 component is dominant.

上記〔数式18〕および〔数式19〕、又は〔数式20〕および〔数式21〕のいずれかに従った処理を実行することにより、付加情報のビット配列の各ビット値に応じて、左チャンネル信号の窓1成分が優位か、窓3成分が優位かのどちらかのパターンに変更されることになる。なお、S311においては、継続識別モードの場合は、新規であるときは〔数式18〕に従って低周波成分の窓1成分、窓3成分間の分布を窓3成分が優位な状態に変更し、継続であるときは〔数式19〕に従って低周波成分の窓1成分、窓3成分間の分布を窓1成分が優位な状態に変更することになる。   By executing the processing according to any one of [Equation 18] and [Equation 19], or [Equation 20] and [Equation 21], the left channel signal is generated in accordance with each bit value of the bit array of the additional information. Thus, the pattern is changed so that the window 1 component is dominant or the window 3 component is dominant. In S311, in the case of the continuation identification mode, if it is new, the distribution between the low frequency component window 1 component and the window 3 component is changed to a state in which the window 3 component is dominant according to [Equation 18], and is continued. In this case, the distribution of the low frequency component between the window 1 component and the window 3 component is changed to a state in which the window 1 component is dominant according to [Equation 19].

この場合、高周波帯と低周波数帯の間には、必ず信号成分が“0”の部分が存在し、これにより、高周波帯と低周波数帯の信号成分が混在することを防いでいる。結局、低周波成分変更手段330は、区切りモードの場合に〔数式17〕に基づく処理をS312において行い、ビットモード又は継続識別モードの場合に〔数式18〕〔数式19〕又は〔数式20〕〔数式21〕に基づく処理をS311において行うことになる。   In this case, there is always a portion where the signal component is “0” between the high frequency band and the low frequency band, thereby preventing the signal components of the high frequency band and the low frequency band from being mixed. Eventually, the low frequency component changing means 330 performs processing based on [Equation 17] in the separation mode in S312 and in the bit mode or the continuous identification mode, [Equation 18] [Equation 19] or [Equation 20] The processing based on Equation 21] is performed in S311.

上記S311、S312いずれの場合であっても、次に、低周波成分変更手段330は、窓2成分(第2窓関数による低周波スペクトルの各成分)の削除を行う(S313)。具体的には、窓2成分に対して、以下の〔数式22〕に従った処理を実行することになる。   In either case of S311, S312, next, the low frequency component changing means 330 deletes the window two components (each component of the low frequency spectrum by the second window function) (S313). Specifically, the processing according to the following [Formula 22] is executed for the two components of the window.

〔数式22〕
j=1〜Mの各成分に対して
Al´(2,j)=0
Bl´(2,j)=0
ステレオの場合、右信号に対応した以下も算出
E(2,j)={Al(2,j)2+Bl(2,j)2+Ar(2,j)2+Br(2,j)21/2
Ar´(2,j)=Ar(2,j)・E(2,j)/{Ar(2,j)2+Br(2,j)21/2
Br´(2,j)=Br(2,j)・E(2,j)/{Ar(2,j)2+Br(2,j)21/2
[Formula 22]
For each component of j = 1 to M, Al ′ (2, j) = 0
Bl ′ (2, j) = 0
In the case of stereo, the following corresponding to the right signal is also calculated: E (2, j) = {Al (2, j) 2 + Bl (2, j) 2 + Ar (2, j) 2 + Br (2, j) 2 } 1 / 2
Ar ′ (2, j) = Ar (2, j) · E (2, j) / {Ar (2, j) 2 + Br (2, j) 2 } 1/2
Br ′ (2, j) = Br (2, j) · E (2, j) / {Ar (2, j) 2 + Br (2, j) 2 } 1/2

次に、周波数逆変換手段340が、上記S311〜S313の処理により各窓成分のスペクトル集合間の割合が変更されたフレームスペクトルを周波数逆変換して改変音響フレームを得る処理を行う(S314)。この周波数逆変換は、当然のことながら、周波数変換手段320がS305において実行した手法に対応していることが必要となる。本実施形態では、周波数変換手段320において、フーリエ逆変換を施しているため、周波数逆変換手段340は、フーリエ逆変換を実行することになる。具体的には、上記〔数式17〕〜〔数式22〕のいずれかにより得られたスペクトルの左チャンネルの実部Al´(1,j)等、虚部Bl´(1,j)等、右チャンネルの実部Ar´(1,j)等、虚部Br´(1,j)等を用いて、以下の〔数式23〕に従った処理を行い、Xl´(i)、Xr´(i)を算出する。なお、上記〔数式17〕〜〔数式22〕において改変されていない周波数成分については、Al´(1,j)等として、元の周波数成分であるAl(1,j)等を用いる。   Next, the frequency inverse transform means 340 performs the process of obtaining the modified acoustic frame by performing the frequency inverse transform on the frame spectrum in which the ratio between the spectrum sets of each window component is changed by the processes of S311 to S313 (S314). As a matter of course, the inverse frequency conversion needs to correspond to the method executed by the frequency conversion means 320 in S305. In the present embodiment, since the inverse frequency Fourier transform is performed in the frequency transforming unit 320, the inverse frequency transforming unit 340 executes the inverse Fourier transform. Specifically, the real part Al ′ (1, j), etc., the imaginary part Bl ′ (1, j), etc. of the left channel of the spectrum obtained by any of the above [Equation 17] to [Equation 22], the right Using the real part Ar ′ (1, j) of the channel, the imaginary part Br ′ (1, j), etc., processing according to the following [Equation 23] is performed, and Xl ′ (i), Xr ′ (i ) Is calculated. For the frequency components that are not modified in the above [Equation 17] to [Equation 22], Al (1, j), which is the original frequency component, is used as Al ′ (1, j).

〔数式23〕
Xl´(i)=1/N・{ΣjAl´(1,j)・cos(2πij/N)−ΣjBl´(1,j)・sin(2πij/N)}+1/N・{ΣjAl´(2,j)・cos(2πij/N)−ΣjBl´(2,j)・sin(2πij/N)}+1/N・{ΣjAl´(3,j)・cos(2πij/N)−ΣjBl´(3,j)・sin(2πij/N)}+Xlp(i+N/2)
Xr´(i)=1/N・{ΣjAr´(1,j)・cos(2πij/N)−ΣjBr´(1,j)・sin(2πij/N)}+1/N・{ΣjAr´(2,j)・cos(2πij/N)−ΣjBr´(2,j)・sin(2πij/N)}+1/N・{ΣjAr´(3,j)・cos(2πij/N)−ΣjBr´(3,j)・sin(2πij/N)}+Xrp(i+N/2)
[Formula 23]
Xl' (i) = 1 / N · {Σ j Al' (1, j) · cos (2πij / N) -Σ j Bl' (1, j) · sin (2πij / N)} + 1 / N · { Σ j Al ′ (2, j) · cos (2πij / N) −Σ j Bl ′ (2, j) · sin (2πij / N)} + 1 / N · {Σ j Al ′ (3, j) · cos (2πij / N) −Σ j Bl ′ (3, j) · sin (2πij / N)} + Xlp (i + N / 2)
Xr' (i) = 1 / N · {Σ j Ar' (1, j) · cos (2πij / N) -Σ j Br' (1, j) · sin (2πij / N)} + 1 / N · { Σ j Ar' (2, j) · cos (2πij / N) -Σ j Br' (2, j) · sin (2πij / N)} + 1 / N · {Σ j Ar' (3, j) · cos (2πij / N) -Σ j Br' (3, j) · sin (2πij / N)} + Xrp (i + N / 2)

上記〔数式23〕においては、式が繁雑になるのを防ぐため、Σj=0,,N-1をΣjとして示している。上記〔数式23〕における第1式の“+Xlp(i+N/2)”、第2式の“+Xrp(i+N/2)”の項は、直前に改変された改変音響フレームのデータXlp(i)、Xrp(i)が存在する場合に、時間軸上N/2サンプル分重複することを考慮して加算するためのものである。上記〔数式23〕によりAタイプの改変音響フレームの左チャンネルの各サンプルXl´(i)、右チャンネルの各サンプルXr´(i)、が得られることになる。改変音響フレーム出力手段350は、得られた改変音響フレームを順次出力ファイルに出力する。こうして1つの音響フレームに対する処理を終えたら、モードの判定を行い(S316)、モードが区切りモードである場合は、モードを継続識別モードに設定した後(S317)、音響フレーム読込手段310が、Bタイプ音響フレームを読み込む(S304)。一方、モードがビットモード又は継続識別モードである場合は、モードをビットモードに設定した後(S318)、低周波成分変更手段330がアクセス情報のビット配列中の次のビットを読み込む(S303)。以上のような処理を音響信号の両チャンネルの全サンプルに渡って実行していく。すなわち、所定数のサンプルを音響フレームとして読み込み、音響信号から読み込むべき音響フレームがなくなったら(S304)、処理を終了する。なお、S301において読み込んだ1ワードのデータの各ビットに対応する処理を終えた場合、S303からS301に戻り、アクセス情報の次のワードを読み込み処理をすることになる。アクセス情報の全ワードに対して処理が終了した場合は、アクセス情報の先頭ワードに戻って処理を行う。この結果、全ての音響フレームに対して処理を行った全ての改変音響フレームが出力ファイルに記録されて、改変音響信号として得られる。得られた改変音響信号は、記憶手段360内の改変音響信号記憶部363に出力され、記憶される。 In the above [Equation 23], Σ j = 0, ... , N−1 is shown as Σ j in order to prevent the equation from becoming complicated. The terms “+ Xlp (i + N / 2)” in the first equation and “+ Xrp (i + N / 2)” in the second equation in the [Equation 23] are the data Xlp (i) of the modified acoustic frame modified immediately before, When Xrp (i) exists, the addition is performed in consideration of the overlap of N / 2 samples on the time axis. With the above [Equation 23], each sample Xl ′ (i) of the left channel and each sample Xr ′ (i) of the right channel of the A type modified acoustic frame are obtained. The modified sound frame output unit 350 sequentially outputs the obtained modified sound frames to an output file. When the processing for one acoustic frame is completed in this manner, the mode is determined (S316). If the mode is the separation mode, the mode is set to the continuous identification mode (S317), and then the acoustic frame reading means 310 is set to B A type acoustic frame is read (S304). On the other hand, when the mode is the bit mode or the continuous identification mode, after setting the mode to the bit mode (S318), the low frequency component changing unit 330 reads the next bit in the bit array of the access information (S303). The above processing is executed over all samples of both channels of the acoustic signal. That is, a predetermined number of samples are read as sound frames, and when there are no more sound frames to be read from the sound signal (S304), the process ends. When the processing corresponding to each bit of 1-word data read in S301 is completed, the process returns from S303 to S301, and the next word of the access information is read. When the processing is completed for all the words of the access information, the process returns to the first word of the access information. As a result, all modified acoustic frames that have been processed for all acoustic frames are recorded in the output file and obtained as modified acoustic signals. The obtained modified acoustic signal is output to and stored in the modified acoustic signal storage unit 363 in the storage unit 360.

以上の処理による左チャンネル信号の変化の様子を図12を用いて説明する。図12において、図面左右方向は、時間軸であり、サンプル数に比例する。また、図中多数存在する矩形は、改変音響フレームの窓1成分、窓3成分を示している。窓成分を示す矩形の横幅はサンプル数、縦幅は強度を示しているが、図12においては、横幅、縦幅とも正確に示したものではなく、窓1成分に対応する先頭部分に強い信号成分があるか、窓3成分に対応する後部部分に強い信号成分があるかということを示すものである。図12(a)は、上記〔数式16〕により算出された合算値E1、E2がレベル下限値Lev未満となる音響フレームが存在しない場合、すなわち、付加情報を埋め込むには、良好な信号である場合を示している。図12(b)は、上記〔数式16〕により算出された合算値E1、E2がレベル下限値Lev未満となる音響フレームが存在する場合、すなわち、付加情報を埋め込むには、良好でない信号である場合を示している。 The change of the left channel signal by the above processing will be described with reference to FIG. In FIG. 12, the horizontal direction in the drawing is a time axis and is proportional to the number of samples. In addition, a large number of rectangles in the figure indicate the window 1 component and the window 3 component of the modified acoustic frame. The horizontal width of the rectangle indicating the window component indicates the number of samples, and the vertical width indicates the intensity. However, in FIG. 12, neither the horizontal width nor the vertical width is accurately shown, and a strong signal is applied to the head portion corresponding to the window 1 component. It indicates whether there is a component and whether there is a strong signal component in the rear portion corresponding to the window 3 component. FIG. 12A shows a good signal when there is no acoustic frame in which the total values E 1 and E 2 calculated by the above [Equation 16] are less than the level lower limit value Lev, that is, for embedding additional information. The case is shown. FIG. 12 (b), the sum calculated by [Equation 16] E 1, if the E 2 audio frames is less than the level lower limit value Lev present, i.e., to embed the additional information, poor signal The case is shown.

例えば、付加情報として、1ワード目が「11011100」、2ワード目が「11000001」の2ワードのビット配列を埋め込むとする。まず、各ワードの先頭には、区切りを示す情報として、窓1成分、窓3成分が均等な状態に設定されることになる。これは、S302により区切りモードに設定され、S312において、上記〔数式17〕に従った処理を実行した結果得られる。続いて、付加情報の各ビットに対応した処理を行う前に、新規であるか継続であるかを示す情報を記録することになる。   For example, it is assumed that as additional information, a 2-word bit array in which the first word is “11011100” and the second word is “11000001” is embedded. First, at the beginning of each word, the window 1 component and the window 3 component are set to be equal as information indicating a break. This is obtained as a result of executing the processing according to the above [Equation 17] in S312 when the separation mode is set in S302. Subsequently, before the processing corresponding to each bit of the additional information is performed, information indicating whether the information is new or continued is recorded.

本実施形態では、レベル下限値Lev未満となる音響フレームが存在した場合であっても、その時点で処理したビットは有効とし、そこから継続して行うため、そのビットが新規であるか継続であるかの情報を記録しておく必要がある。そこで、区切りを示す情報を記録した後には、新規であるか継続であるかを示す情報を記録する。具体的には、区切りモードの状態で、モード判断を行うことにより(S316)、継続識別モードに設定され(S317)、付加情報のビットを読み込むことなく、Bタイプ音響フレームの抽出に戻る(S304)。そして、周波数変換後(S309)、新規である場合には、〔数式18〕に従った処理により、低周波成分である窓1成分、窓3成分間の分布を窓3成分が優位な状態に変更する(S311)。   In the present embodiment, even if there is an acoustic frame that is less than the level lower limit value Lev, since the bit processed at that time is valid and is continuously performed from there, whether the bit is new or continued. It is necessary to record some information. Therefore, after recording the information indicating the break, information indicating whether it is new or continued is recorded. Specifically, the mode determination is performed in the separation mode state (S316), the continuous identification mode is set (S317), and the process returns to the extraction of the B type sound frame without reading the bits of the additional information (S304). ). Then, after frequency conversion (S309), if it is new, the processing according to [Equation 18] makes the distribution between the window 1 component and the window 3 component, which are low frequency components, the window 3 component dominant. Change (S311).

このようにして、新規か継続かを示す情報を記録した後は、継続識別モードの状態でモード判断を行うため(S316)、ビットモードに設定され(S318)、レジスタから先頭のビットを読み込み(S303)、Bタイプ音響フレームの抽出を行う(S304)。図12(a)の例では、レベル下限値Lev未満となる音響フレームが存在しないため、1ワードが連続してS311により処理されることになる。これは、S303からS318を経由するループが8回(1ワード=1バイトの場合)連続して繰り返され、その間レベル下限値Lev未満であるとしてS310およびS312、S317を経由することがなかったことを示している。図12に示すように、付加情報のビット値が1の場合は、窓3成分に低周波成分が存在し、付加情報のビット値が0の場合は、窓1成分に低周波成分が存在する。上記〔数式18〕〜〔数式21〕からもわかるように、この場合は他方の窓成分の低周波成分は0となる。   After recording the information indicating whether it is new or continuation in this way, the mode determination is performed in the continuation identification mode (S316), so that the bit mode is set (S318), and the first bit is read from the register ( S303), the B type sound frame is extracted (S304). In the example of FIG. 12A, since there is no acoustic frame that is less than the level lower limit value Lev, one word is continuously processed in S311. This is because the loop from S303 to S318 was repeated continuously 8 times (in the case of 1 word = 1 byte), and during that time, it was not passed through S310, S312, and S317 because it was less than the level lower limit value Lev. Is shown. As shown in FIG. 12, when the bit value of the additional information is 1, a low frequency component exists in the window 3 component, and when the bit value of the additional information is 0, the low frequency component exists in the window 1 component. . As can be seen from the above [Formula 18] to [Formula 21], in this case, the low frequency component of the other window component is zero.

図12(b)の例では、上記〔数式16〕に従った処理の結果、レベル下限値Lev未満となる音響フレームが存在するので、この場合S310およびS312を経由して、上記〔数式17〕に従った処理を実行した結果、窓1成分と窓3成分が均等な状態に設定される。この場合、S310において、区切りモードに設定されるため、S317を経由して、新規か継続かを示す情報を記録することになる。図12(b)の例では、1ワード目の「11011100」を埋め込む場合に、最初は第1ビット目の「1」の1ビット処理した時点でレベル下限値Lev未満の音響フレームが出現しているため、区切りを示す情報を記録した後、継続を示す情報を記録し、継続して第2ビット目の「1」から処理をしている。そして、第2ビット目から第5ビット目の「1011」を処理した時点でレベル下限値Lev未満の音響フレームが出現しているため、区切りを示す情報を記録した後、継続を示す情報を記録し、継続して第6ビット目の「1」から処理をしている。   In the example of FIG. 12B, as a result of the processing according to the above [Equation 16], there is an acoustic frame that is less than the level lower limit value Lev. In this case, the above [Equation 17] passes through S310 and S312. As a result of executing the processing according to the above, the window 1 component and the window 3 component are set to be equal. In this case, since the separation mode is set in S310, information indicating whether it is new or continued is recorded via S317. In the example of FIG. 12B, when embedding “11011100” of the first word, an acoustic frame less than the level lower limit value Lev appears at the time when 1 bit of “1” of the first bit is first processed. Therefore, after the information indicating the break is recorded, the information indicating the continuation is recorded, and the processing is continued from “1” of the second bit. Then, since “1011” from the second bit to the fifth bit has been processed, an acoustic frame less than the level lower limit value Lev has appeared, so after recording the information indicating the break, the information indicating the continuation is recorded. Then, processing is continued from “1” of the sixth bit.

なお、図12の例では、付加情報の1ワードを1バイトとした場合について説明したが、新規か継続かを示す情報を記録するため、付加情報の1ワードを任意のビット数単位で記録することが可能である。   In the example of FIG. 12, the case where one word of the additional information is 1 byte has been described. However, in order to record information indicating whether it is new or continued, one word of the additional information is recorded in an arbitrary number of bits. It is possible.

上記のようにして得られた改変音響信号の左チャンネルのうち、付加情報が埋め込まれている部分については、低周波成分は、窓1成分と窓3成分が均等となっているか、あるいは窓1成分が優位か、窓3成分が優位かの3通りの分布しかないことになる。しかし、高周波成分については、元の音響信号のままであるので、制作者の設定に基づいた種々な分布になる。また、上記の例で示したように、ステレオ音響信号を利用した場合には、左チャンネルにおいて変化させられた低周波成分は、上記〔数式17〕〜〔数式22〕の処理からも明らかなように、必ず右チャンネルの低周波成分に付加されている。したがって、右チャンネルが左チャンネルにおいて削除された成分を補っているため、両チャンネル全体として見ると、信号の劣化がない。人間の聴覚は、高周波成分については、方向性を感知し易いが、低周波成分については、方向性を感知しにくくなっている。したがって、低周波成分が一方に偏っていても、聴いている人にとっては、通常の音響信号と変わりなく聴こえることになる。   Of the left channel of the modified acoustic signal obtained as described above, for the portion where the additional information is embedded, the low frequency component is equal to the window 1 component and the window 3 component, or the window 1 There are only three distributions: the component predominates or the window three component predominates. However, since the high frequency component remains the original acoustic signal, it has various distributions based on the setting of the producer. Further, as shown in the above example, when a stereo sound signal is used, the low frequency component changed in the left channel is apparent from the processing of [Expression 17] to [Expression 22]. In addition, it is always added to the low frequency component of the right channel. Therefore, since the right channel supplements the deleted component in the left channel, there is no signal degradation when viewed as both channels as a whole. Human auditory senses directionality with respect to high-frequency components, but it is difficult to sense directionality with respect to low-frequency components. Therefore, even if the low frequency component is biased to one side, it will be heard as if it is a normal acoustic signal for the listener.

したがって、上記のようにして付加情報が埋め込まれた音響信号を音響信号再生装置500において再生して、スピーカから音として発した音は、通常の音響信号と変わりなく聴こえるが、その音を取得した音響信号検索装置においては、付加情報の抽出が可能となる。   Therefore, the sound signal in which the additional information is embedded as described above is reproduced in the sound signal reproduction device 500, and the sound emitted as the sound from the speaker can be heard as the normal sound signal, but the sound is acquired. In the acoustic signal search device, additional information can be extracted.

(3.2.埋込情報抽出部90の詳細)
次に、上記埋込情報抽出部90の詳細について説明する。図13は、埋込情報抽出部90の詳細を示す図である。図13において、410は基準フレーム獲得手段、420は位相変更フレーム設定手段、430は周波数変換手段、440は符号判定パラメータ算出手段、450は符号出力手段、460は付加情報抽出手段、470は音響フレーム保持手段である。
(3.2 Details of Embedded Information Extraction Unit 90)
Next, details of the embedded information extraction unit 90 will be described. FIG. 13 is a diagram showing details of the embedded information extraction unit 90. In FIG. 13, reference numeral 410 is a reference frame acquisition unit, 420 is a phase change frame setting unit, 430 is a frequency conversion unit, 440 is a code determination parameter calculation unit, 450 is a code output unit, 460 is an additional information extraction unit, and 470 is an acoustic frame. Holding means.

基準フレーム獲得手段410は、入力されたデジタルのモノラル音響信号(あるいはステレオ音響信号の1チャンネル)から所定数のサンプルで構成される音響フレームを基準フレームとして読み込む機能を有している。位相変更フレーム設定手段420は、基準フレームと所定サンプルずつ移動させることにより位相を変更した音響フレームを位相変更フレームとして設定する機能を有している。周波数変換手段430は、図9に示した周波数変換手段320と同様の機能を有している。符号判定パラメータ算出手段440は、生成されたフレームスペクトルから所定の周波数以下に相当する各低周波強度データを抽出し、窓1成分、窓3成分ごとに各低周波強度データの合算値EC1、EC2を以下の〔数式24〕に基づいて算出し、この合算値EC1、EC2を符号判定パラメータとし、この符号判定パラメータEC1、EC2の比率に基づいて、所定の状態であると判断する機能を有している。以下の〔数式24〕は上記〔数式16〕において右チャンネル成分を削除したもので、抽出時には右チャンネル成分を参照しないためである。 The reference frame acquisition unit 410 has a function of reading an audio frame composed of a predetermined number of samples from the input digital monaural audio signal (or one channel of a stereo audio signal) as a reference frame. The phase change frame setting means 420 has a function of setting, as a phase change frame, an acoustic frame whose phase has been changed by moving the reference frame and predetermined samples. The frequency conversion means 430 has the same function as the frequency conversion means 320 shown in FIG. The code determination parameter calculation means 440 extracts each low frequency intensity data corresponding to a predetermined frequency or less from the generated frame spectrum, and adds a total value E C1 of each low frequency intensity data for each of the window 1 component and the window 3 component. E C2 is calculated based on the following [Equation 24], and the total value E C1 and E C2 are used as code determination parameters. Based on the ratio of the code determination parameters E C1 and E C2 , the predetermined state is obtained. Has the function to judge. The following [Equation 24] is obtained by deleting the right channel component in [Equation 16], and does not refer to the right channel component during extraction.

〔数式24〕
C1=Σj=1,…,M-3{Al(1,j)2+Bl(1,j)2
C2=Σj=1,…,M-3{Al(3,j)2+Bl(3,j)2
[Formula 24]
E C1 = Σ j = 1,..., M-3 {Al (1, j) 2 + Bl (1, j) 2 }
E C2 = Σ j = 1,..., M-3 {Al (3, j) 2 + Bl (3, j) 2 }

符号出力手段450は、1つの基準フレームに対応する音響フレーム(基準フレームおよび位相変更フレーム)の中から最適な位相であると判断されるものを判断し、その音響フレームの状態に対応する符号を出力する機能を有している。付加情報抽出手段460は、符号出力手段450により出力された符号の集合である3値配列を、所定の規則により変換して意味のある付加情報として抽出する機能を有している。音響フレーム保持手段470は、連続する2個の基準フレームを保持可能なバッファメモリである。   The code output means 450 determines which one of the sound frames (reference frame and phase change frame) corresponding to one reference frame is determined to have the optimum phase, and sets a code corresponding to the state of the sound frame. It has a function to output. The additional information extraction unit 460 has a function of converting the ternary array, which is a set of codes output by the code output unit 450, according to a predetermined rule and extracting it as meaningful additional information. The acoustic frame holding means 470 is a buffer memory that can hold two consecutive reference frames.

次に、図13に示した埋込情報抽出部90の処理動作について図14のフローチャートに従って説明する。まず、本装置では、平均符号レベルHL1、HL2、位相判定テーブルが初期化される。これらについて説明する。平均符号レベルHL1、HL2は、ビット値に対応する2値が埋め込まれていたと判断される音響フレーム(以下、有効フレームと呼ぶことにする)についての、上記〔数式24〕で算出される低周波成分の合算値EC1、EC2の平均値、すなわち、過去の有効フレームにおける合算値EC1、EC2の平均値で与えられるものであり、初期値は、上記埋め込み装置においても用いられるレベル下限値Levに設定されている。位相判定テーブルS(p)は、位相を判定するためのテーブルであり、pは0〜5の整数値をとる。初期値はS(p)=0に設定されている。 Next, the processing operation of the embedded information extraction unit 90 shown in FIG. 13 will be described with reference to the flowchart of FIG. First, in this apparatus, the average code levels HL1 and HL2 and the phase determination table are initialized. These will be described. The average code levels HL1 and HL2 are low frequencies calculated by the above [Equation 24] for an acoustic frame (hereinafter referred to as an effective frame) that is determined to have embedded a binary value corresponding to a bit value. sum the average value of E C1, E C2 components, i.e., which is given by the average value of the sum E C1, E C2 in previous valid frame, the initial value is, the level limit is also used in the above embedding device The value Lev is set. The phase determination table S (p) is a table for determining the phase, and p takes an integer value of 0 to 5. The initial value is set to S (p) = 0.

このように、初期値が設定されている状態で、基準フレーム獲得手段410が、デジタル化された音響信号から、所定数のサンプルで構成される音響フレームを基準フレームとして抽出する(S401)。具体的には、基準フレームを抽出して音響フレーム保持手段470に読み込むことになる。基準フレーム獲得手段410が基準フレームとして読み込む1音響フレームのサンプル数は、図9に示した音響フレーム読込手段310で設定されたものと同一にする必要がある。したがって、本実施形態の場合、基準フレーム獲得手段410は、4096サンプルずつ、順次基準フレームとして読み込んでいくことになる。音響フレーム保持手段470には、上述のように2個の基準フレームが格納可能となっており、新しい基準フレームが読み込まれると、古い基準フレームを破棄するようになっている。したがって、音響フレーム保持手段470には、常に基準フレーム2個分(連続する8192サンプル)が格納されていることになる。   As described above, in a state where the initial value is set, the reference frame acquisition unit 410 extracts an acoustic frame including a predetermined number of samples as a reference frame from the digitized acoustic signal (S401). Specifically, the reference frame is extracted and read into the acoustic frame holding unit 470. The number of samples of one acoustic frame read as the reference frame by the reference frame acquisition unit 410 needs to be the same as that set by the acoustic frame reading unit 310 shown in FIG. Therefore, in this embodiment, the reference frame acquisition unit 410 sequentially reads 4096 samples as reference frames. The acoustic frame holding means 470 can store two reference frames as described above, and when a new reference frame is read, the old reference frame is discarded. Therefore, the sound frame holding means 470 always stores two reference frames (continuous 8192 samples).

埋込情報抽出部90で処理する音響フレームは、先頭から途切れることなく隣接して設定される基準フレームと、この基準フレームと位相を変更した位相変更フレームとに分けることができる。基準フレームについては、最初の基準フレームをサンプル番号1からサンプル番号4096までを設定したら、次の基準フレームは、サンプル番号4097からサンプル番号8192、さらに次の基準フレームは、サンプル番号8193からサンプル番号12288、というように途切れることなく設定される。そして、各基準フレームについて、1/6フレーム(約683サンプル)ずつ移動した5個の位相変更フレームを設定する。例えば、最初の基準フレームについては、サンプル番号683、1366、2049、2732、3413から始まる4096のサンプルで構成される5個の位相変更フレームが設定されることになる。   The acoustic frame processed by the embedded information extraction unit 90 can be divided into a reference frame that is set adjacently without interruption from the head, and a phase change frame in which the phase is changed. For the reference frame, after setting the first reference frame from sample number 1 to sample number 4096, the next reference frame is sample number 4097 to sample number 8192, and the next reference frame is sample number 8193 to sample number 12288. It is set without interruption. Then, for each reference frame, five phase change frames moved by 1/6 frame (about 683 samples) are set. For example, for the first reference frame, five phase change frames configured by 4096 samples starting from sample numbers 683, 1366, 2049, 2732, and 3413 are set.

続いて、周波数変換手段430、符号判定パラメータ算出手段440が、読み込んだ各音響フレームから、埋め込まれている情報を判定し、対応する符号を出力する(S402)。出力される情報の形式は、埋め込み側のビット値に対応する2値、および区切りとして入力された値の3値の形式となる。   Subsequently, the frequency conversion unit 430 and the code determination parameter calculation unit 440 determine embedded information from each read sound frame and output a corresponding code (S402). The format of the information to be output is a binary format corresponding to the bit value on the embedding side and a ternary format of values input as delimiters.

ここで、ステップS402の符号判定処理の詳細を図15のフローチャートに従って説明する。まず、周波数変換手段430が、読み込んだ各音響フレームに対して、周波数変換を行ってフレームスペクトルを得る(S501)。この処理は、図9に示した周波数変換手段320における処理と同様である。ただし、抽出に用いるのは、左チャンネルだけであるので、上記〔数式15〕に従った処理を行い、左チャンネルに対応する変換データの実部Al(1,j)等、虚部Bl(1,j)等を得る。   Details of the code determination process in step S402 will be described with reference to the flowchart of FIG. First, the frequency conversion means 430 performs frequency conversion on each read sound frame to obtain a frame spectrum (S501). This process is the same as the process in the frequency conversion unit 320 shown in FIG. However, since only the left channel is used for extraction, the processing according to [Equation 15] is performed, and the imaginary part Bl (1) such as the real part Al (1, j) of the converted data corresponding to the left channel is performed. , J) etc.

上記周波数変換手段430における処理により、周波数に対応した成分であるスペクトルで表現されたフレームスペクトルが得られる。続いて、符号判定パラメータ算出手段440は、平均符号レベルHL1、HL2の算出を行う(S502)。具体的には、過去窓1成分が優位な状態と判断された音響フレームについての合算値EC1の積算値であるv1を、過去窓1成分が優位な状態と判断された音響フレームの数であるn1で除算することによりHL1を算出し、過去窓3成分が優位な状態と判断された音響フレームについての合算値EC2の積算値であるv2を、過去窓3成分が優位な状態と判断された音響フレームの数であるn2で除算することによりHL2を算出する。したがって、平均符号レベルHL1、HL2は、過去対応する窓成分が優位な状態と判断された音響フレームの低周波強度データの合算値の平均値となる。 By the processing in the frequency conversion means 430, a frame spectrum expressed by a spectrum that is a component corresponding to the frequency is obtained. Subsequently, the code determination parameter calculation unit 440 calculates the average code levels HL1 and HL2 (S502). Specifically, v1 which is the integrated value E C1 of the sound frames for which the past window 1 component is determined to be dominant is represented by the number of sound frames for which the past window 1 component is determined to be dominant. HL1 is calculated by dividing by a certain n1, and v2 that is an integrated value of the total value E C2 for the sound frame for which the past window 3 component is determined to be dominant is determined to be the state where the past window 3 component is dominant. HL2 is calculated by dividing by n2, which is the number of sound frames that have been performed. Therefore, the average code levels HL1 and HL2 are average values of the sum values of the low-frequency intensity data of the acoustic frames that have been determined to have a dominant window component corresponding to the past.

さらに、符号判定パラメータ算出手段440は、生成されたフレームスペクトルから所定の周波数範囲の各低周波強度データを抽出する。抽出すべき周波数範囲は、埋め込み装置と対応させる必要がある。したがって、ここでは、周波数が200Hz程度以下の低周波強度データを抽出することになり、埋め込み装置の場合と同様、上記〔数式15〕により算出された左チャンネルの実部Al(j)、虚部Bl(j)のうち、j≦20のものを抽出する。そして、符号判定パラメータ算出手段440は、上記〔数式24〕に従った処理を実行することにより、窓1成分の合算値EC1、窓3成分の合算値EC2を算出する。埋込情報抽出部90においては、これを符号判定パラメータとして用いる。 Further, the code determination parameter calculation means 440 extracts each low frequency intensity data in a predetermined frequency range from the generated frame spectrum. The frequency range to be extracted needs to correspond to the embedding device. Therefore, here, low frequency intensity data having a frequency of about 200 Hz or less is extracted, and the real part Al (j) and imaginary part of the left channel calculated by the above [Equation 15] as in the case of the embedding device. Of Bl (j), those with j ≦ 20 are extracted. The code determination parameter calculating means 440, by executing the processing according to the above [Equation 24], the window 1 component of the sum E C1, calculating a sum value E C2 of the window 3 components. The embedded information extraction unit 90 uses this as a code determination parameter.

続いて、符号判定パラメータ算出手段440は、候補符号テーブルの初期化を行う(S503)。候補符号テーブルは、1つの基準フレームおよび5個の位相変更フレームを特定する0〜5の位相番号および、この6個の音響フレームの状態から得られる3値の符号を記録するものである。   Subsequently, the code determination parameter calculation unit 440 initializes the candidate code table (S503). The candidate code table records a phase number of 0 to 5 that specifies one reference frame and five phase change frames, and a ternary code obtained from the states of the six acoustic frames.

続いて、符号判定パラメータ算出手段440は、窓1成分の合算値EC1、窓3成分の合算値EC2がそれぞれ所定値以下であるかどうかの判定を行う(S504)。具体的には、所定値としてそれぞれ平均符号レベルHL1、HL2の20分の1を設定する。合算値EC1が平均符号レベルHL1の20分の1以下であり、かつ、合算値EC2が平均符号レベルHL2の20分の1以下である場合、符号判定パラメータ算出手段440は、区切り情報であると判定する(S508)。 Subsequently, the code determination parameter calculating means 440 makes a determination window 1 component of the sum E C1, window 3 components sum E C2 of whether each is below a predetermined value (S504). Specifically, 1/20 of the average code levels HL1 and HL2 are set as predetermined values, respectively. When the sum value E C1 is equal to or less than 1/20 of the average code level HL1 and the sum value E C2 is equal to or less than 1/20 of the average code level HL2, the code determination parameter calculation unit 440 uses delimiter information. It is determined that there is (S508).

一方、符号判定パラメータ算出手段440は、上記算出された符号判定パラメータEC1、EC2の所定値との比較判定および相互の比較判定を以下の〔数式25〕に従って行い(S505)、比較結果に対応する符号を出力する。 On the other hand, the code determination parameter calculation means 440 performs the comparison determination with the predetermined values of the calculated code determination parameters E C1 and E C2 and the mutual comparison determination according to the following [Equation 25] (S505), and the comparison result is obtained. Output the corresponding code.

〔数式25〕
C2>(所定値)かつEC2/EC1>2の場合、窓3成分が優位な状態
C1>(所定値)かつEC1/EC2>2の場合、窓1成分が優位な状態
上記以外の場合、両窓成分が均等
[Formula 25]
When E C2 > (predetermined value) and E C2 / E C1 > 2, the window 3 component is dominant. When E C1 > (predetermined value) and E C1 / E C2 > 2, the window 1 component is dominant. Otherwise, both window components are equal

符号判定パラメータ算出手段440は、各音響フレーム単位で、上記判定結果に応じて3値の符号を出力する。すなわち、窓3成分が優位な状態と判定した場合には、第1のビット値(例えば“1”)を出力し(S506)、窓1成分が優位な状態と判定した場合には、第2のビット値(例えば“0”)を出力し(S507)、両窓成分が均等と判定した場合には、区切り情報を示す符号を出力する(S508)。なお、S505において、窓3成分が優位な状態と判定した場合は、EC1がHL1以上であるか、また、窓1成分が優位な状態と判定した場合は、EC2がHL2以上であるかを判定し、これらの条件を満たしていない場合は、区切り情報を示す符号を出力する(S508)。 The code determination parameter calculation means 440 outputs a ternary code according to the determination result for each acoustic frame. That is, when it is determined that the window 3 component is dominant, the first bit value (for example, “1”) is output (S506), and when it is determined that the window 1 component is dominant, the second bit value is output. A bit value (for example, “0”) is output (S507), and when it is determined that both window components are equal, a code indicating delimiter information is output (S508). In step S505, if it is determined that the window 3 component is in a dominant state, E C1 is HL1 or higher. If it is determined that the window 1 component is in a dominant state, is E C2 higher than HL2. If these conditions are not satisfied, a code indicating delimiter information is output (S508).

窓3成分が優位な状態と判定して、第1のビット値を出力した場合(S506)、又は窓1成分が優位な状態と判定して、第2のビット値を出力した場合(S507)は、さらに、以下の〔数式26〕に従って位相判定テーブルS(p)の更新を行う(S509)。   When it is determined that the window 3 component is dominant and the first bit value is output (S506), or when it is determined that the window 1 component is dominant and the second bit value is output (S507). Further, the phase determination table S (p) is updated according to the following [Equation 26] (S509).

〔数式26〕
窓3成分が優位な状態の場合、S(p)←S(p)+EC1/EC2
窓1成分が優位な状態の場合、S(p)←S(p)+EC2/EC1
[Formula 26]
When the three components of the window are dominant, S (p) ← S (p) + E C1 / E C2
When the window 1 component is dominant, S (p) ← S (p) + E C2 / E C1

続いて、符号判定パラメータ算出手段440は、候補符号テーブルに、最適位相となる候補を保存する(S410)。具体的には、位相判定テーブルに記録されているS(p)の値が最大となる位相番号pの値、前記S506〜S508により判定された3値のいずれかの符号、その音響フレームについての上記〔数式16〕に従った処理を実行することにより算出した、低周波数成分に対応する各EC1、EC2の値を最適位相の候補として候補符号テーブルに保存する。 Subsequently, the code determination parameter calculation unit 440 saves the candidate for the optimum phase in the candidate code table (S410). Specifically, the value of the phase number p that maximizes the value of S (p) recorded in the phase determination table, one of the three values determined in S506 to S508, and the sound frame The values of E C1 and E C2 corresponding to the low frequency component calculated by executing the process according to the above [Equation 16] are stored in the candidate code table as candidates for the optimum phase.

続いて、全ての位相番号pに対応する処理を終えたかどうかを判定する(S411)。これは、ある基準フレームに対して全ての位相変更フレームの処理を行ったかどうかを判定している。本実施形態では、pが0〜5までの値をとるので、6回分処理していない場合は、処理していた音響フレームから所定サンプル数ずらして、位相の異なる音響フレームを設定し、S504に戻って処理を繰り返す。なお、p=0の場合が基準フレームであり、p=1〜5の場合が位相変更フレームである。全ての位相番号pに対応する処理を終えた場合は、候補保存テーブルに記録されている位相番号pに対応する位相が最適位相であると判定し、候補保存テーブルに記録されている符号を出力する(S412)。   Subsequently, it is determined whether or not the processing corresponding to all the phase numbers p has been completed (S411). This determines whether all phase change frames have been processed for a certain reference frame. In the present embodiment, since p takes a value from 0 to 5, if the processing is not performed six times, an acoustic frame having a different phase is set by shifting a predetermined number of samples from the acoustic frame that has been processed. Return and repeat the process. The case where p = 0 is a reference frame, and the case where p = 1 to 5 is a phase change frame. When the processing corresponding to all the phase numbers p is completed, it is determined that the phase corresponding to the phase number p recorded in the candidate storage table is the optimum phase, and the code recorded in the candidate storage table is output. (S412).

再び図14のフローチャートに戻って説明する。S402による処理の結果、ビット値に相当する符号が出力された場合には、平均符号レベルのパラメータの更新を行う(S403)。具体的には、平均符号レベルHL1、HL2算出の際の分子となる積算値v1、v2にそれぞれ合算値EC1、EC2を加算して積算値v1、v2を更新し、分母となるフレーム数n1、n2にそれぞれ1を加算してフレーム数n1、n2を更新する。続いて、モードの判定を行う(S404)。モードは、区切りモードとビット出力モードの2つが用意されている。ビット出力モードである場合は、そのビット値をバッファに保存する(S409)。続いて、ビットカウンタをカウントアップする(S410)。一方、S404による判定の結果、区切りモードである場合には、さらに抽出された符号が、新規を意味するものか継続を意味するものかを判定する(S405)。この結果、新規である場合には、その直前で1ワードが終了していることを意味するので、バッファに記録された1ワード分のデータを、付加情報抽出手段460が出力する(S406)。そして、ビットカウンタを0に初期化する(S407)。さらに、モードをビット出力モードに設定する(S408)。S405において、継続と判定された場合には、バッファ内のビットに値を出力すべきであるので、ビット出力モードに設定する処理のみを行う。また、S402において、区切り情報に相当する符号が抽出された場合には、次の音響フレームから新規か継続かの情報を抽出するため、モードを区切りモードに設定する(S411)。図14に示す処理を各基準フレームに対して実行することにより、付加情報が抽出されることになる。S401において全ての基準フレームが抽出されたと判断された場合には、処理を終了する。 Returning to the flowchart of FIG. If the code corresponding to the bit value is output as a result of the process in S402, the average code level parameter is updated (S403). Specifically, the sum values E C1 and E C2 are added to the accumulated values v1 and v2 which are numerators when calculating the average code levels HL1 and HL2, respectively, and the accumulated values v1 and v2 are updated, and the number of frames serving as the denominator. The number of frames n1 and n2 is updated by adding 1 to n1 and n2, respectively. Subsequently, the mode is determined (S404). Two modes, a delimited mode and a bit output mode, are prepared. If it is in the bit output mode, the bit value is stored in the buffer (S409). Subsequently, the bit counter is counted up (S410). On the other hand, if the result of determination in S404 is that the mode is the separation mode, it is further determined whether the extracted code means new or continuation (S405). As a result, if it is new, it means that one word is completed immediately before, and the additional information extracting means 460 outputs the data for one word recorded in the buffer (S406). Then, the bit counter is initialized to 0 (S407). Further, the mode is set to the bit output mode (S408). If it is determined in S405 to continue, the value should be output to the bit in the buffer, so only the processing for setting the bit output mode is performed. If a code corresponding to the delimiter information is extracted in S402, the mode is set to the delimiter mode in order to extract new or continued information from the next sound frame (S411). By executing the processing shown in FIG. 14 for each reference frame, additional information is extracted. If it is determined in S401 that all the reference frames have been extracted, the process ends.

上記S406の処理において、付加情報抽出手段460は、まず、符号判定パラメータ算出手段440により出力された3値の符号のうち、窓3成分と窓1成分が均等であることを示す符号を区切り位置として、その次の符号を先頭とし、窓3成分が優位な状態、窓1成分が優位な状態であることを示す符号をビット値に対応させて、ビット配列を作成する。続いて、このビット配列を、所定の規則により変換して意味のある付加情報として抽出する。所定の規則としては、情報を埋め込む者が意図した情報が受け取った者に認識可能な状態とできるものであれば、さまざまな規則が適用できるが、本実施形態では、文字情報として認識するための規則としている。すなわち、付加情報抽出手段460は、符号判定パラメータ算出手段440が判定し、符号出力手段450から出力される符号を1バイト(8ビット)単位で認識し、これを設定されたコード体系に従って文字情報であるアクセス情報を認識する。本実施形態ではURLを認識することになる。   In the process of S406, the additional information extraction unit 460 first delimits a code indicating that the window 3 component and the window 1 component are equal among the ternary codes output by the code determination parameter calculation unit 440. Then, the next code is the head, and a bit array is created by associating a code indicating that the window 3 component is dominant and the window 1 component is dominant with the bit value. Subsequently, this bit arrangement is converted according to a predetermined rule and extracted as meaningful additional information. As the predetermined rule, various rules can be applied as long as the information intended by the person who embeds the information can be recognized by the person who has received it. As a rule. That is, the additional information extraction unit 460 recognizes the code output from the code output unit 450 in units of 1 byte (8 bits) as determined by the code determination parameter calculation unit 440, and character information according to the set code system. To recognize the access information. In this embodiment, the URL is recognized.

従って、埋め込み装置により音響信号に、その楽曲の曲名やアーチスト等に関連するwebサイトのURLを文字情報として埋め込んでおけば、利用者は、その音楽が流れているのを聞いて、その曲名やアーチストに関連する詳細な情報を知りたいと思ったときに、抽出装置として機能する自身の携帯端末に所定の操作を行えば、自身の携帯端末で、その楽曲やアーチストに関連するwebサイトのURLが取得できることになる。   Therefore, if the embedded device embeds the URL of the web site related to the song name or artist of the song as character information in the acoustic signal, the user can hear the music flowing and listen to the song name or When you want to know detailed information related to the artist, if you perform a specified operation on your mobile terminal that functions as an extraction device, the URL of the web site related to the song or artist on your mobile terminal Can be acquired.

ここで本実施形態に示すような窓関数窓関数W(1,i)、W(2,i)、W(3,i)、W(4,i)を用いることの利点について説明する。図16は、本実施形態の特徴を有しない窓関数を利用した場合の埋め込み直前と埋め込み後の低周波成分の状態を示す図であり、図17は、本発明による埋め込み直前と埋め込み後の低周波成分の状態を示す図である。埋め込み後の低周波成分の状態である図16(b)と図17(b)を比較すると、本実施形態では、そうでない場合と比べてAタイプ音響フレームにおいて広い範囲で値を有していることがわかる。そのため、S502において〔数式24〕を用いて算出される合算値EC1、EC2の値が大きくなり、S506、S507においてビット値が抽出される確率が高まる。 Here, advantages of using window function window functions W (1, i), W (2, i), W (3, i), and W (4, i) as shown in the present embodiment will be described. FIG. 16 is a diagram showing the state of low-frequency components immediately before and after embedding when a window function having no features of this embodiment is used, and FIG. It is a figure which shows the state of a frequency component. Comparing FIG. 16B and FIG. 17B showing the state of the low frequency component after embedding, the present embodiment has a value in a wider range in the A type acoustic frame than in the case where it is not so. I understand that. Therefore, the sum values E C1 and E C2 calculated using [Equation 24] in S502 are increased, and the probability that a bit value is extracted in S506 and S507 is increased.

以上の処理においては、埋込情報抽出部90において正確に付加情報を抽出するために、位相を補正する処理、窓3成分と窓1成分の強度のバランスを補正する処理、無効フレームであることを判断するための下限閾値を補正する処理を行っている。次に、これら3つの補正処理について補足説明を行う。   In the above processing, in order to accurately extract additional information in the embedded information extraction unit 90, processing for correcting the phase, processing for correcting the intensity balance between the window 3 component and the window 1 component, and an invalid frame The process which correct | amends the lower limit threshold value for judging this is performed. Next, supplementary explanation will be given for these three correction processes.

上記のように、抽出時には、埋め込み時に埋め込んだ音響フレームに対応して、音響信号を読み込むことができるとは限らない。そこで、音響フレームの位相をずらして複数通り(本実施形態では6通り)で読み込み、その中で最適な位相を決定し、その位相で特定される音響フレームに対応する符号を出力することにしている。例えば、6通りで読み込む場合、先頭の音響フレームは、本来サンプル番号1〜4096のサンプルであるが、サンプル番号1、683、1366、2049、2732、3413から始まる4096のサンプルで構成される6個の各音響フレームに対して処理を行い、最適な音響フレームに対応する符号を出力することになる。この位相補正処理は、S503、S509、S410、S411、S412における処理を中心として行われることになる。   As described above, at the time of extraction, it is not always possible to read an acoustic signal corresponding to the acoustic frame embedded at the time of embedding. Therefore, the phase of the acoustic frame is shifted and read in a plurality of ways (six in this embodiment), the optimum phase is determined, and a code corresponding to the acoustic frame specified by the phase is output. Yes. For example, in the case of reading in six ways, the top acoustic frame is originally a sample of sample numbers 1 to 4096, but six pieces composed of 4096 samples starting from sample numbers 1, 683, 1366, 2049, 2732, and 3413 Are processed, and a code corresponding to the optimum acoustic frame is output. This phase correction process is performed centering on the processes in S503, S509, S410, S411, and S412.

信号レベルが小さい場合には、窓成分の強度の大小が判定できず、抽出側で誤判断することが多くなる。そこで、合算値EC1およびEC2が所定の閾値以下のフレームについては、無効なフレームであると判断するようにしているが、この際の閾値を過去の有効フレームについての低周波強度の積算値を利用して補正する処理を行っている。このように閾値を変動させることにより、信号レベルが変動しても無効なフレームであるか、有効なフレームであるかを正確に判断することが可能となる。この下限閾値補正処理は、S502、S403における処理を中心として行われることになる。 When the signal level is low, the magnitude of the intensity of the window component cannot be determined, and erroneous determination is often made on the extraction side. Therefore, it is determined that the frames whose sum values E C1 and E C2 are equal to or less than the predetermined threshold are invalid frames. The threshold at this time is set as the integrated value of the low frequency intensity for the past effective frames. Correction processing is performed using. By varying the threshold value in this way, it is possible to accurately determine whether the frame is invalid or valid even if the signal level varies. This lower limit threshold correction process is performed centering on the processes in S502 and S403.

上記実施形態においては、埋め込み装置、埋込情報抽出部90のいずれにおいても、左右のチャンネルを有するステレオ音響信号の左チャンネル信号に付加情報を埋め込む場合を例にとって説明したが、逆に右チャンネル信号に付加情報を埋め込むようにしても良い。本発明は、左右の特性には無関係だからである。また、1つのチャンネルしかないモノラル音響信号に対して処理を行う場合は、上記実施形態において、左チャンネル信号に対して行った処理を行うことになる。本発明は、1つのチャンネル信号に対して付加情報を埋め込み、また抽出を行うので、モノラル音響信号であってもステレオ音響信号であっても同様に行うことができる。   In the above embodiment, the case where both the embedding device and the embedding information extraction unit 90 embed additional information in the left channel signal of a stereo sound signal having left and right channels has been described as an example. Additional information may be embedded in. This is because the present invention is not related to the left and right characteristics. Further, when processing is performed on a monaural sound signal having only one channel, the processing performed on the left channel signal is performed in the above embodiment. Since the present invention embeds and extracts additional information from one channel signal, it can be similarly performed for a monaural sound signal or a stereo sound signal.

図18にステレオ音響信号とモノラル音響信号に対して、本発明により付加情報を埋め込む場合の概念図を示す。図18(a)はステレオ音響信号の場合、図18(b)はモノラル音響信号の場合である。なお、図18の例では、音響フレーム1つ分の低周波成分を波形で表現しており、ビット値“0”を埋め込む場合を例に示している。   FIG. 18 is a conceptual diagram in the case where additional information is embedded in the stereo sound signal and the monaural sound signal according to the present invention. FIG. 18A shows a stereo sound signal, and FIG. 18B shows a monaural sound signal. In the example of FIG. 18, the low frequency component for one acoustic frame is represented by a waveform, and the bit value “0” is embedded as an example.

ステレオ音響信号の場合、埋め込みは左チャンネル(L−ch)信号に対して行われる。図18(a)に示すように、周波数変換後、信号分離し、さらに、ビット埋め込み処理を行う。具体的には、〔数式17〕〜〔数式22〕の処理の結果、ビット埋め込みがなされることになる。ここで、上述のように、“0”を埋め込む場合は〔数式20〕および〔数式21〕を用いる。したがって、ビット埋め込み処理後は、音響フレームの中央付近(窓2に相当)と後部付近(窓3に相当)は、低周波数帯の信号成分は0(図中、波形がないことで表現)となる。この際、〔数式20〕および〔数式21〕の内容から明らかなように、左チャンネル信号の削除された信号成分は、右チャンネル(R−ch)信号に加算される。したがって、図18(a)の下段に示すように、右チャンネル信号の低周波成分は大きくなる。ビット埋め込み処理後は、高周波成分を含めて信号合成された後、周波数逆変換され、改変音響信号が得られることになる。一方、上記〔数式18〕の最後の3つの式から明らかなように、左チャンネル信号の残っている信号成分に対応する右チャンネル(R−ch)信号の成分は、左チャンネル信号に加算される。したがって、図18(a)の上段に示すように、左チャンネル信号の窓1に相当する低周波成分は大きくなる。   In the case of a stereo sound signal, embedding is performed on the left channel (L-ch) signal. As shown in FIG. 18A, after frequency conversion, signal separation is performed, and bit embedding processing is performed. Specifically, bit embedding is performed as a result of the processing of [Equation 17] to [Equation 22]. Here, as described above, when “0” is embedded, [Equation 20] and [Equation 21] are used. Therefore, after bit embedding processing, the signal component in the low frequency band is 0 (represented by no waveform in the figure) near the center of the acoustic frame (corresponding to window 2) and near the rear (corresponding to window 3). Become. At this time, as is clear from the contents of [Equation 20] and [Equation 21], the signal component from which the left channel signal is deleted is added to the right channel (R-ch) signal. Therefore, as shown in the lower part of FIG. 18A, the low frequency component of the right channel signal is increased. After bit embedding processing, signal synthesis including high frequency components is performed, and then frequency inverse conversion is performed to obtain a modified acoustic signal. On the other hand, as is apparent from the last three equations of [Equation 18], the right channel (R-ch) signal component corresponding to the remaining signal component of the left channel signal is added to the left channel signal. . Therefore, as shown in the upper part of FIG. 18A, the low frequency component corresponding to the window 1 of the left channel signal becomes large.

モノラル音響信号の場合、図18(b)に示すように処理が行われるが、図18(a)の上段と比較するとわかるように、ステレオ音響信号の左チャンネルと同様の処理が行われることになる。   In the case of a monaural sound signal, processing is performed as shown in FIG. 18B, but as can be seen from the upper part of FIG. 18A, processing similar to that for the left channel of a stereo sound signal is performed. Become.

ここまで、説明してきた処理においては、窓1成分、窓3成分に所定の大きさ以上の信号成分が存在していることが必要となり、窓1成分、窓3成分が共に所定の大きさ以下の場合には、情報の埋め込みを行うことができない。そこで、以下、窓1成分、窓3成分が共に所定の大きさ以下であっても、信号の埋め込みを可能とする手法について説明する。   In the processing described so far, it is necessary that a signal component having a predetermined size or more exists in the window 1 component and the window 3 component, and both the window 1 component and the window 3 component are not more than a predetermined size. In this case, information cannot be embedded. Therefore, hereinafter, a method for enabling signal embedding even when the window 1 component and the window 3 component are both equal to or smaller than a predetermined size will be described.

この場合、図9に示した埋め込み装置における情報の埋め込み処理は、図19のフローチャートに従って行われる。図19のフローチャートにおいて、図10のフローチャートと異なる点は、S709における周波数変換処理において低周波成分変更手段330がレベルの判定を行わず、さらに、S310に相当する区切りモードへの設定処理が存在しない点である。これは、図19に従った処理では、信号レベルが小さくても強制的に情報を埋め込むこととしているため、情報の埋め込みが不可能な信号レベルが小さい部分が存在するかどうかを判断し、区切りモードに設定する必要がないからである。   In this case, the information embedding process in the embedding apparatus shown in FIG. 9 is performed according to the flowchart of FIG. The flowchart of FIG. 19 differs from the flowchart of FIG. 10 in that the low frequency component changing unit 330 does not determine the level in the frequency conversion process in S709, and there is no setting process for the separation mode corresponding to S310. Is a point. This is because, in the processing according to FIG. 19, information is forcibly embedded even if the signal level is low. Therefore, it is determined whether there is a portion with a low signal level where information cannot be embedded. This is because it is not necessary to set the mode.

したがって、S710における窓1成分、窓3成分のいずれかを優位な状態に設定する処理としては、まず、以下の〔数式27〕に従って算出される固定値Vを、低周波成分の強度として、上記合算値E1、E2に代えて設定する。 Therefore, as a process for setting one of the window 1 component and the window 3 component in S710 to be in an advantageous state, first, the fixed value V calculated according to the following [Equation 27] is used as the intensity of the low frequency component. It is set in place of the total values E 1 and E 2 .

〔数式27〕
V={0.5・Lev/(M−3)}1/2
[Formula 27]
V = {0.5 · Lev / (M−3)} 1/2

そして、第1の値を1、第2の値を0とした場合、ビット値が1のとき、上記〔数式18〕および〔数式19〕に従った処理を実行した後、以下の〔数式28〕に従った処理を実行する。   When the first value is 1 and the second value is 0, when the bit value is 1, the processing according to the above [Formula 18] and [Formula 19] is executed, and then the following [Formula 28 ] Is executed.

〔数式28〕
窓3成分に対して
Al´(3,j)=Al(3,j)・V/{Ar(3,j)2+Br(3,j)21/2
Bl´(3,j)=Bl(3,j)・V/{Ar(3,j)2+Br(3,j)21/2
[Formula 28]
For the three components of the window, Al ′ (3, j) = Al (3, j) · V / {Ar (3, j) 2 + Br (3, j) 2 } 1/2
Bl ′ (3, j) = Bl (3, j) · V / {Ar (3, j) 2 + Br (3, j) 2 } 1/2

ビット値が0の場合、上記〔数式20〕および〔数式21〕に従った処理を実行した後、以下の〔数式29〕に従った処理を実行する。   When the bit value is 0, the process according to the above [Expression 20] and [Expression 21] is executed, and then the process according to the following [Expression 29] is executed.

〔数式29〕
窓1成分に対して
Al´(1,j)=Al(1,j)・V/{Ar(1,j)2+Br(1,j)21/2
Bl´(1,j)=Bl(1,j)・V/{Ar(1,j)2+Br(1,j)21/2
[Formula 29]
For one component of window, Al ′ (1, j) = Al (1, j) · V / {Ar (1, j) 2 + Br (1, j) 2 } 1/2
Bl ′ (1, j) = Bl (1, j) · V / {Ar (1, j) 2 + Br (1, j) 2 } 1/2

S710における上記処理を行った後、窓2成分削除処理(S712)以降の処理は、図10に示したS313以降の処理と同様にして行われる。   After performing the above processing in S710, the processing after the window two component deletion processing (S712) is performed in the same manner as the processing after S313 shown in FIG.

上記のように、周波数成分が小さい場合に情報を埋め込んだ場合であっても、抽出側の、音響信号からの情報の抽出装置の構成は図13と同一であり、処理動作は図14のフローチャートに従ったものと同一である。   As described above, even when information is embedded when the frequency component is small, the configuration of the extraction device for extracting information from the acoustic signal on the extraction side is the same as that of FIG. 13, and the processing operation is the flowchart of FIG. Is the same as

図20にステレオ音響信号とモノラル音響信号に対して、信号成分が小さい場合に、付加情報を埋め込む場合の概念図を示す。図20(a)はステレオ音響信号の場合、図20(b)はモノラル音響信号の場合である。なお、図20の例では、図18の場合と同様に、音響フレーム1つ分の低周波成分を波形で表現しており、ビット値“0”を埋め込む場合を例に示している。   FIG. 20 shows a conceptual diagram when embedding additional information when the signal component is small with respect to the stereo sound signal and the monaural sound signal. FIG. 20A shows a stereo sound signal, and FIG. 20B shows a monaural sound signal. In the example of FIG. 20, as in the case of FIG. 18, a low frequency component for one acoustic frame is represented by a waveform and a bit value “0” is embedded as an example.

図20において、図18の場合と異なるのは、元の信号成分が小さい点である。図20(a)に示す例のように、信号分離後の段階では、窓1成分、窓3成分の値が小さい場合であっても、上記〔数式27〕〜〔数式29〕の処理に従ってビット埋め込みを行うことにより、図18と同様な信号成分を有することとなる。   In FIG. 20, the difference from the case of FIG. 18 is that the original signal component is small. As in the example shown in FIG. 20 (a), at the stage after signal separation, even if the values of the window 1 component and the window 3 component are small, the bits are processed according to the processing of [Equation 27] to [Equation 29]. By embedding, the same signal component as in FIG. 18 is obtained.

モノラル音響信号の場合、図20(b)に示すように処理が行われるが、図20(a)の上段と比較するとわかるように、ステレオ音響信号の左チャンネルと同様の処理が行われることになる。   In the case of a monaural sound signal, processing is performed as shown in FIG. 20B, but as can be seen from the upper part of FIG. 20A, processing similar to that for the left channel of a stereo sound signal is performed. Become.

登録特徴ワード生成装置の構成図である。It is a block diagram of a registration characteristic word production | generation apparatus. 図1に示した装置の処理動作を示すフローチャートである。It is a flowchart which shows the processing operation of the apparatus shown in FIG. 特徴ワードの生成処理の概念図である。It is a conceptual diagram of the production | generation process of a characteristic word. 本発明に係る音響信号検索装置の構成図である。It is a block diagram of the acoustic signal search device according to the present invention. 図2に示した装置の処理動作を示すフローチャートである。It is a flowchart which shows the processing operation of the apparatus shown in FIG. 関連情報データベース40に登録された情報および処理過程で生じる情報を示す図である。It is a figure which shows the information registered in the related information database 40, and the information which arises in a process. 関連情報としてサイトのアドレス情報を登録した場合を示す図である。It is a figure which shows the case where the address information of a site is registered as related information. 電子透かしによる付加情報の埋め込みおよび抽出との組み合わせの例を示す図である。It is a figure which shows the example of the combination with embedding and extraction of the additional information by a digital watermark. 音響信号に対する情報の埋込装置の機能ブロック図である。It is a functional block diagram of an information embedding device for an acoustic signal. 図9に示した装置の処理概要を示すフローチャートである。FIG. 10 is a flowchart showing an outline of processing of the apparatus shown in FIG. 9. FIG. 本発明で用いる窓関数を示す図である。It is a figure which shows the window function used by this invention. 図10に従った処理による低周波成分の変化の様子を示すである。FIG. 11 shows how the low frequency component changes due to the processing according to FIG. 10. 埋込情報抽出部90の詳細を示す機能ブロック図である。4 is a functional block diagram showing details of an embedded information extraction unit 90. FIG. 図13に示した装置の処理概要を示すフローチャートである。It is a flowchart which shows the process outline | summary of the apparatus shown in FIG. 図14のS402の符号判定処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the code | symbol determination process of S402 of FIG. 本実施形態の窓関数を用いない場合の、埋め込み前後の、音響信号の低周波部分を示す概念図である。It is a conceptual diagram which shows the low frequency part of the acoustic signal before and behind embedding when not using the window function of this embodiment. 本実施形態による埋め込み前後の、音響信号の低周波部分を示す概念図である。It is a conceptual diagram which shows the low frequency part of the acoustic signal before and behind embedding by this embodiment. 本発明による付加情報の埋め込み処理の概念図である。It is a conceptual diagram of the embedding process of the additional information by this invention. 図9に示した装置において、元の信号成分が小さくても情報の埋め込みを可能とする場合の処理概要を示すフローチャートである。FIG. 10 is a flowchart showing an outline of processing in the apparatus shown in FIG. 9 when information can be embedded even if the original signal component is small. 元の信号成分が小さい場合の、付加情報の埋め込み処理の概念図である。It is a conceptual diagram of an additional information embedding process when the original signal component is small.

符号の説明Explanation of symbols

10、11、310、410・・・音響フレーム読込手段
20、21・・・特徴ワード生成手段
30・・・特徴ワード登録手段
40・・・関連情報データベース
50・・・マイクロフォン
60・・・特徴ワード照合手段
70・・・関連情報出力手段
80・・・ネットワークアクセス部
90・・・埋込情報抽出部
100・・・ネットワーク
200・・・サイト
320・・・周波数変換手段
330・・・低周波成分変更手段
340・・・周波数逆変換手段
350・・・改変音響フレーム出力手段
360・・・記憶手段
361・・・音響信号記憶部
362・・・付加情報記憶部
363・・・改変音響信号記憶部
370・・・付加情報読込手段
410・・・基準フレーム獲得手段
420・・・位相変更フレーム設定手段
430・・・周波数変換手段
440・・・符号判定パラメータ算出手段
450・・・符号出力手段
460・・・付加情報抽出手段
470・・・音響フレーム保持手段
500・・・音響信号再生装置


10, 11, 310, 410 ... sound frame reading means 20, 21 ... feature word generating means 30 ... feature word registering means 40 ... related information database 50 ... microphone 60 ... feature word Matching means 70: Related information output means 80 ... Network access section 90 ... Embedded information extraction section 100 ... Network 200 ... Site 320 ... Frequency conversion means 330 ... Low frequency component Change means 340... Frequency inverse transform means 350... Modified acoustic frame output means 360... Storage means 361... Acoustic signal storage section 362 .. additional information storage section 363. 370 ... additional information reading means 410 ... reference frame acquisition means 420 ... phase change frame setting means 430 ... round Wave number conversion means 440 ... code determination parameter calculation means 450 ... code output means 460 ... additional information extraction means 470 ... acoustic frame holding means 500 ... acoustic signal reproduction device


Claims (11)

録音により得られた音響信号の特徴と、データベースに登録された音響信号の特徴との照合を行って、録音した音響信号に関連する情報を取得する装置であって、
各音響信号について、その特徴パターンと重み値を表現した複数の特徴ワードと、当該音響信号の関連情報を登録した関連情報データベースと、
音源より発信されている音声を音響信号として獲得する音響信号獲得手段と、
前記音響信号に対して、所定の区間単位で、当該区間単位における音響信号の特徴パターンと重み値を表現した所定バイト数の特徴ワードを生成する特徴ワード生成手段と、
前記特徴ワードを複数個で1セットとし、当該1セット内の特徴ワードと、前記関連情報データベースに登録されている登録特徴ワードとを照合する処理を、前記1セット内の先頭の特徴ワードから順次行って、前記生成された特徴ワードと前記登録特徴ワードの非合致度が所定より低い複数の候補レコードを抽出する処理を順次行い、1つの候補レコードに絞り込むデータベース照合手段と、
前記絞り込まれた候補レコードに対応する関連情報を前記関連情報データベースから抽出する関連情報抽出手段と、
を有することを特徴とする音響信号検索装置。
A device that obtains information related to a recorded sound signal by collating the characteristics of the sound signal obtained by recording with the features of the sound signal registered in the database,
For each acoustic signal, a plurality of feature words expressing the feature pattern and weight value, a related information database in which the relevant information of the acoustic signal is registered,
Acoustic signal acquisition means for acquiring the sound transmitted from the sound source as an acoustic signal;
A feature word generating unit that generates a feature word of a predetermined number of bytes expressing a feature pattern and a weight value of the acoustic signal in the unit of the section in a unit of the section for the acoustic signal;
A plurality of the feature words are set as one set, and the process of collating the feature words in the set with the registered feature words registered in the related information database is sequentially performed from the first feature word in the one set. A database collation unit that sequentially performs a process of extracting a plurality of candidate records in which the degree of mismatch between the generated feature word and the registered feature word is lower than a predetermined value, and narrows down to one candidate record;
Related information extracting means for extracting related information corresponding to the narrowed candidate records from the related information database;
An acoustic signal search device characterized by comprising:
請求項1において、
前記特徴ワード生成手段は、前記所定の区間の平均スペクトルに基づいて所定のビット数の特徴パターンを生成し、前記所定の区間の音量を所定のビット数の重み値として生成し、前記特徴パターンと重み値で構成される特徴ワードを生成するものであることを特徴とする音響信号検索装置。
In claim 1,
The feature word generation means generates a feature pattern of a predetermined number of bits based on an average spectrum of the predetermined section, generates a volume of the predetermined section as a weight value of a predetermined number of bits, and An acoustic signal search device for generating a feature word composed of weight values.
請求項2において、
前記特徴ワード生成手段は、前記特徴パターンとして、前記所定の区間の平均スペクトルを算出し、所定の周波数領域内を周波数方向に8K個のバンドに分割し、8K個のバンド全体で0と1の個数が均等になるように、前記各バンドのスペクトル成分に対して、0または1を与えることにより二値化を行い、前記8Kバンドのスペクトルに基づいてKバイトの特徴ワードを生成するものであることを特徴とする音響信号検索装置。
In claim 2,
The feature word generation means calculates an average spectrum of the predetermined section as the feature pattern, divides the inside of the predetermined frequency region into 8K bands in the frequency direction, and 0 and 1 in the entire 8K bands. In order to equalize the number, binarization is performed by giving 0 or 1 to the spectral components of each band, and a feature word of K bytes is generated based on the spectrum of the 8K band. An acoustic signal search device characterized by the above.
請求項3において、
前記特徴ワード生成手段は、前記8K個のバンドを複数のグループに分類し、各グループにおいて、0と1の個数が均等になるように、前記各バンドのスペクトル成分に対して、0または1を与えることにより二値化を行うものであることを特徴とする音響信号検索装置。
In claim 3,
The feature word generation means classifies the 8K bands into a plurality of groups, and sets 0 or 1 to the spectral components of each band so that the number of 0s and 1s is equal in each group. An acoustic signal search device characterized by binarization by giving.
請求項2から請求項4において、
前記所定の区間はT個の音響フレームにより構成されるものであり、
前記特徴ワード生成手段は、前記各音響フレームに対してフーリエ変換を行い、隣接音響フレームとの差分値を、前記T個の音響フレームに渡って加算したものを前記所定の区間の平均スペクトルとして算出するものであることを特徴とする音響信号検索装置。
In claims 2 to 4,
The predetermined section is composed of T acoustic frames,
The feature word generation means performs a Fourier transform on each of the sound frames, and calculates a difference value from adjacent sound frames as an average spectrum of the predetermined section obtained by adding the difference values over the T sound frames. An acoustic signal retrieval device characterized by comprising:
請求項5において、
前記特徴ワード変換手段は、前記各音響フレームに対してフーリエ変換を行った後、所定フレーム数単位でずらした各位置において平均スペクトルを算出することにより、複数の特徴ワードを生成し、
前記データベース照合手段は、前記複数の特徴ワードを用いて候補レコードを抽出するものであることを特徴とする音響信号検索装置。
In claim 5,
The feature word conversion means generates a plurality of feature words by calculating an average spectrum at each position shifted by a predetermined number of frames after performing a Fourier transform on each acoustic frame,
The database collating means extracts a candidate record using the plurality of feature words, and an acoustic signal search device characterized in that
請求項1において、
前記データベース照合手段は、前記特徴ワード生成手段により生成された特徴ワードと、前記関連情報データベースに登録されている特徴パターンである登録特徴ワードとを照合する際に、前記生成された特徴ワードと前記登録特徴ワードに含まれる特徴パターンを比較して不一致ビット数を算出するとともに、前記生成された特徴ワードと前記登録特徴ワードに含まれる重み値を比較して大きい重み値を小さい重み値で除算した補正値を算出し、当該補正値を前記不一致ビット数に乗算した値を利用して非合致度を算出し、当該非合致度に基づいて候補レコードを抽出するものであることを特徴とする音響信号検索装置。
In claim 1,
The database collating unit, when collating the feature word generated by the feature word generating unit with a registered feature word that is a feature pattern registered in the related information database, The feature pattern included in the registered feature word is compared to calculate the number of mismatch bits, and the generated feature word is compared with the weight value included in the registered feature word, and the large weight value is divided by the small weight value. A sound that calculates a correction value, calculates a non-matching degree using a value obtained by multiplying the number of non-matching bits by the correction value, and extracts candidate records based on the non-matching degree Signal search device.
請求項1において、
前記データベース照合手段は、前記特徴ワード生成手段により生成された特徴ワードと、前記関連情報データベースに登録されている特徴パターンである登録特徴ワードとを照合する際に、前記生成された特徴ワードと前記登録特徴ワードに含まれる特徴パターンを各ビット単位で比較して、両者のビットが不一致である場合に、成分が大きいことを示す特徴ワードに含まれる重み値を加算する処理を行って非合致度を算出し、当該非合致度に基づいて候補レコードを抽出するものであることを特徴とする音響信号検索装置。
In claim 1,
The database collating unit, when collating the feature word generated by the feature word generating unit with a registered feature word that is a feature pattern registered in the related information database, The feature pattern included in the registered feature word is compared bit by bit, and if the two bits do not match, the weight value included in the feature word indicating that the component is large is added and the degree of non-match And a candidate record is extracted based on the non-matching degree.
請求項1から請求項8において、
前記関連情報は、ネットワーク上の所定のサイトにアクセスするためのアドレス情報であり、
当該アドレス情報を用いてネットワーク上の所定のサイトにアクセスするネットワークアクセス手段をさらに有することを特徴とする音響信号検索装置。
In claims 1 to 8,
The related information is address information for accessing a predetermined site on the network,
An acoustic signal search apparatus further comprising network access means for accessing a predetermined site on the network using the address information.
請求項1から請求項8において、
前記関連情報データベースに登録されている特徴ワードは、付加情報が埋め込まれた音響信号について作成されたものであり、
前記録音された音響信号は、付加情報が埋め込まれたものであり、
前記音響信号から付加情報を抽出する付加情報抽出手段をさらに有するものであることを特徴とする音響信号検索装置。
In claims 1 to 8,
The feature word registered in the related information database is created for an acoustic signal in which additional information is embedded,
The recorded sound signal is embedded with additional information,
An acoustic signal search device further comprising additional information extraction means for extracting additional information from the acoustic signal.
請求項1から請求項8において、
前記音響信号獲得手段、前記特徴ワード生成手段、前記データベース照合手段、前記関連情報抽出手段を、単一の携帯電話機で実現するものであることを特徴とする音響信号検索装置。


In claims 1 to 8,
An acoustic signal search apparatus characterized in that the acoustic signal acquisition means, the feature word generation means, the database collation means, and the related information extraction means are realized by a single mobile phone.


JP2006117458A 2006-04-21 2006-04-21 Acoustic signal retrieving apparatus Withdrawn JP2007292827A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006117458A JP2007292827A (en) 2006-04-21 2006-04-21 Acoustic signal retrieving apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006117458A JP2007292827A (en) 2006-04-21 2006-04-21 Acoustic signal retrieving apparatus

Publications (1)

Publication Number Publication Date
JP2007292827A true JP2007292827A (en) 2007-11-08

Family

ID=38763537

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006117458A Withdrawn JP2007292827A (en) 2006-04-21 2006-04-21 Acoustic signal retrieving apparatus

Country Status (1)

Country Link
JP (1) JP2007292827A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010060836A (en) * 2008-09-03 2010-03-18 Sony Corp Music processing method, music processing apparatus and program
WO2011024572A1 (en) * 2009-08-28 2011-03-03 インターナショナル・ビジネス・マシーンズ・コーポレーション Audio feature extracting apparatus, audio feature extracting method, and audio feature extracting program
JP2011150015A (en) * 2010-01-19 2011-08-04 Dainippon Printing Co Ltd Registration device and retrieval device of sound data relevant information
JP2012058328A (en) * 2010-09-06 2012-03-22 Dainippon Printing Co Ltd Acoustic data related information retrieval device
WO2013062000A1 (en) * 2011-10-28 2013-05-02 楽天株式会社 Transmitter, receiver, transmission method, reception method, communication system, communication method, program, and computer-readable storage medium
JP2019020527A (en) * 2017-07-13 2019-02-07 株式会社メガチップス Electronic melody specific equipment, program, and electronic melody specific equipment
JP2019020528A (en) * 2017-07-13 2019-02-07 株式会社メガチップス Electronic melody specification device, program, and electronic melody specification method

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010060836A (en) * 2008-09-03 2010-03-18 Sony Corp Music processing method, music processing apparatus and program
US8548960B2 (en) 2008-09-03 2013-10-01 Sony Corporation Music processing method and apparatus to use music data or metadata of music data regardless of an offset discrepancy
US8468016B2 (en) 2009-08-28 2013-06-18 International Business Machines Corporation Speech feature extraction apparatus, speech feature extraction method, and speech feature extraction program
KR101332143B1 (en) 2009-08-28 2013-11-21 인터내셔널 비지네스 머신즈 코포레이션 Audio feature extracting apparatus, audio feature extracting method, and audio feature extracting program
GB2485926A (en) * 2009-08-28 2012-05-30 Ibm Audio feature extracting apparatus, audio feature extracting method, and audio feature extracting program
CN102483916A (en) * 2009-08-28 2012-05-30 国际商业机器公司 Audio feature extracting apparatus, audio feature extracting method, and audio feature extracting program
US8930185B2 (en) 2009-08-28 2015-01-06 International Business Machines Corporation Speech feature extraction apparatus, speech feature extraction method, and speech feature extraction program
GB2485926B (en) * 2009-08-28 2013-06-05 Ibm Speech feature extracting apparatus, speech feature extracting method, and speech feature extracting program
JP5315414B2 (en) * 2009-08-28 2013-10-16 インターナショナル・ビジネス・マシーンズ・コーポレーション Speech feature extraction device, speech feature extraction method, and speech feature extraction program
JP2013178575A (en) * 2009-08-28 2013-09-09 Internatl Business Mach Corp <Ibm> Speech feature extraction apparatus, speech feature extraction method, and speech feature extraction program
WO2011024572A1 (en) * 2009-08-28 2011-03-03 インターナショナル・ビジネス・マシーンズ・コーポレーション Audio feature extracting apparatus, audio feature extracting method, and audio feature extracting program
JP2011150015A (en) * 2010-01-19 2011-08-04 Dainippon Printing Co Ltd Registration device and retrieval device of sound data relevant information
JP2012058328A (en) * 2010-09-06 2012-03-22 Dainippon Printing Co Ltd Acoustic data related information retrieval device
WO2013062000A1 (en) * 2011-10-28 2013-05-02 楽天株式会社 Transmitter, receiver, transmission method, reception method, communication system, communication method, program, and computer-readable storage medium
JP2019020527A (en) * 2017-07-13 2019-02-07 株式会社メガチップス Electronic melody specific equipment, program, and electronic melody specific equipment
JP2019020528A (en) * 2017-07-13 2019-02-07 株式会社メガチップス Electronic melody specification device, program, and electronic melody specification method
JP7025145B2 (en) 2017-07-13 2022-02-24 株式会社メガチップス Electronic melody identification device, program, and electronic melody identification method
JP7025144B2 (en) 2017-07-13 2022-02-24 株式会社メガチップス Electronic melody identification device, program, and electronic melody identification method

Similar Documents

Publication Publication Date Title
JP4899416B2 (en) Network connection device
JP4660275B2 (en) Information embedding apparatus and method for acoustic signal
JP4839775B2 (en) Information embedding device, method, and program for acoustic signal
JP2007292827A (en) Acoustic signal retrieving apparatus
JP4629495B2 (en) Information embedding apparatus and method for acoustic signal
JP4867765B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP5082257B2 (en) Acoustic signal retrieval device
JP4770194B2 (en) Information embedding apparatus and method for acoustic signal
JP5011849B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP4531653B2 (en) Device for extracting information from acoustic signals
JP2006195061A (en) Information embedding device for acoustic signal, information extracting device from acoustic signal and acoustic signal reproducing device
JP4713181B2 (en) Information embedding device for sound signal, device for extracting information from sound signal, and sound signal reproducing device
JP2007047223A (en) Information embedded system with respect to acoustic signal
JP4713180B2 (en) Device for extracting information from acoustic signals
JP4831335B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP5011855B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP5699316B2 (en) Relevant information retrieval device for acoustic data
JP5003164B2 (en) Device for extracting information from acoustic signals
JP4760539B2 (en) Information embedding device for acoustic signals
JP4831334B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP5011865B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP4760540B2 (en) Information embedding device for acoustic signals
JP2008129198A (en) Information embedding device for acoustic signal and information extracting device from acoustic signal
JP2008139491A (en) Device for embedding information in sound signal and device for extracting information from sound signal
JP5011872B2 (en) Information embedding device for sound signal and device for extracting information from sound signal

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20090707