JP2007121626A - Network connection device and network connection system - Google Patents

Network connection device and network connection system Download PDF

Info

Publication number
JP2007121626A
JP2007121626A JP2005312755A JP2005312755A JP2007121626A JP 2007121626 A JP2007121626 A JP 2007121626A JP 2005312755 A JP2005312755 A JP 2005312755A JP 2005312755 A JP2005312755 A JP 2005312755A JP 2007121626 A JP2007121626 A JP 2007121626A
Authority
JP
Japan
Prior art keywords
window
spectrum
acoustic
window function
address information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005312755A
Other languages
Japanese (ja)
Other versions
JP4899416B2 (en
Inventor
Toshio Motegi
敏雄 茂出木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2005312755A priority Critical patent/JP4899416B2/en
Publication of JP2007121626A publication Critical patent/JP2007121626A/en
Application granted granted Critical
Publication of JP4899416B2 publication Critical patent/JP4899416B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a network connection device and a network connection system that can provide address information such as a URL etc., so as not to disturb a content main body and easily acquire address information of a terminal device such as a mobile phone. <P>SOLUTION: After a sound generated by a sound signal reproducing device 400 is acquired as a digital sound signal through a microphone 310, an address information extraction unit 320 extracts embedded address information from the sound signal and a network access unit 330 uses the extracted address information to access the corresponding site 601. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、放送番組やCD・DVDパッケージの音声信号からURLなどの情報を抽出し、携帯電話を用いて所定のコンテンツに関連するwebサイトにアクセスして詳細情報を抽出したり、アンケートに回答したりする非接触なインターネットへの接続技術に関する。   The present invention extracts information such as URLs from audio signals of broadcast programs and CD / DVD packages, uses a mobile phone to access a web site related to a predetermined content, extracts detailed information, or answers a questionnaire The present invention relates to a contactless Internet connection technology.

従来より、PCや携帯電話にURLを入力し、webサイトにアクセスすることが行われている。近年では、URLの入力を直接行わずに、印刷物上のQRコードや画像電子透かしでURLを埋め込んだり、TV動画像のフレームにQRコードを静止画として埋め込み、携帯電話のカメラでURLを抽出し、指定のwebサイトに誘導する技術が実現されている(例えば、特許文献1〜3参照)。
特開2000−267966号公報 特開2004−94398号公報 特開2005−176287号公報
Conventionally, a Web site is accessed by inputting a URL into a PC or a mobile phone. In recent years, URLs are not directly input, but URLs are embedded with QR codes or image digital watermarks on printed matter, or QR codes are embedded as still images in frames of TV moving images, and URLs are extracted with a mobile phone camera. A technology for guiding to a designated web site has been realized (see, for example, Patent Documents 1 to 3).
JP 2000-267966 A JP 2004-94398 A JP 2005-176287 A

しかしながら、上記従来の手法では、携帯電話で画像上のQRコードや電子透かしを抽出する場合、カメラのファインダーをコードが埋め込まれている領域に手作業で合わせる必要があり、操作に手間がかかるという問題がある。また、荘がメディアの場合、読み取り準備で手間取ると、コードが表示されている画面が切り替わってしまい、読み取りチャンスを逃してしまい易いという問題がある。また、QRコードの場合、レイアウト上目立ち易く、特に動画メディアの場合、画面サイズの割合に比べコードが占める面積が大きく、レイアウト上邪魔になるという問題がある。   However, in the above conventional method, when extracting a QR code or digital watermark on an image with a mobile phone, it is necessary to manually adjust the camera finder to the area where the code is embedded, which takes time and effort. There's a problem. In addition, when the villa is a medium, if it takes time to prepare for reading, there is a problem that the screen on which the code is displayed is switched, and it is easy to miss a reading opportunity. In addition, in the case of QR codes, the layout is conspicuous, and in the case of moving image media in particular, there is a problem that the area occupied by the code is larger than the ratio of the screen size, which obstructs the layout.

そこで、本発明は、URL等のアドレス情報をコンテンツ本体の邪魔にならないように設けることが可能であると共に、携帯電話機等の端末装置でのアドレス情報の取得を簡易に行うことが可能なネットワーク接続装置およびネットワーク接続システムを提供することを課題とする。   Therefore, the present invention can provide address information such as a URL so as not to interfere with the content body, and can easily acquire address information in a terminal device such as a mobile phone. It is an object to provide an apparatus and a network connection system.

上記課題を解決するため、本発明では、スピーカから発せられた音声を音響信号として取得し、当該音響信号から予め聴取不能な状態で埋め込まれた情報を抽出し、当該抽出した情報を用いてネットワーク上の所定のサイトにアクセスする装置として、前記音響信号の所定の区間をデジタル化して、所定数のサンプルで構成される音響フレームを獲得する音響フレーム獲得手段と、前記音響フレームに対して、周波数変換を行って各音響フレームについてのスペクトルを得る周波数変換手段と、前記生成されたスペクトルを利用して、少なくとも2セットのスペクトル集合を抽出し、各スペクトル集合ごとにスペクトル強度の総和値を算出し、その総和値のスペクトル集合間の割合に基づいて、所定の符号を出力する符号化手段と、前記出力された符号に対応する情報配列を、所定の規則により変換してアドレス情報を抽出するアドレス情報抽出手段と、当該アドレス情報を用いてネットワーク上の所定のサイトにアクセスするネットワークアクセス手段を有することを特徴とする音響信号を用いたネットワーク接続装置を提供する。   In order to solve the above-described problem, in the present invention, a sound emitted from a speaker is acquired as an acoustic signal, information embedded in an inaudible state in advance is extracted from the acoustic signal, and a network is extracted using the extracted information. As an apparatus for accessing the predetermined site above, an acoustic frame acquisition means for digitizing a predetermined section of the acoustic signal and acquiring an acoustic frame composed of a predetermined number of samples, and a frequency for the acoustic frame Using frequency conversion means for performing conversion to obtain a spectrum for each acoustic frame, and using the generated spectrum, at least two sets of spectrum sets are extracted, and a total value of spectrum intensities is calculated for each spectrum set. , A coding means for outputting a predetermined code based on a ratio between the spectrum sets of the total value, and the output An address information extracting means for converting the information array corresponding to the encoded code according to a predetermined rule and extracting address information; and a network access means for accessing a predetermined site on the network using the address information. A network connection device using a characteristic acoustic signal is provided.

本発明によれば、音響信号に埋め込まれたアドレス情報を抽出し、抽出したアドレス情報を利用して、ネットワーク上のサイトにアクセスするようにしたので、URLをコンテンツ本体の邪魔にならないように設けることが可能であると共に、携帯電話機等の端末装置でのアドレス情報の取得を簡易に行うことが可能となるという効果を奏する。   According to the present invention, the address information embedded in the audio signal is extracted, and the extracted address information is used to access the site on the network. Therefore, the URL is provided so as not to interfere with the content body. In addition, it is possible to easily obtain address information in a terminal device such as a mobile phone.

以下、本発明の実施形態について図面を参照して詳細に説明する。
(1.第1の実施形態)
まず、本発明第1の実施形態について説明する。図1は、本発明第1の実施形態に係るネットワーク接続装置の構成図である。図1において、300はネットワーク接続装置、310はマイクロフォン、320はアドレス情報抽出部、321は埋込情報抽出部、322はアドレス情報変換部、330はネットワークアクセス部、400は音響信号再生装置、500はネットワーク、601はサイトである。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
(1. First embodiment)
First, a first embodiment of the present invention will be described. FIG. 1 is a configuration diagram of a network connection apparatus according to the first embodiment of the present invention. In FIG. 1, 300 is a network connection device, 310 is a microphone, 320 is an address information extraction unit, 321 is an embedded information extraction unit, 322 is an address information conversion unit, 330 is a network access unit, 400 is an acoustic signal reproduction device, 500 Is a network, and 601 is a site.

本発明に係るネットワーク接続装置300は、マイクロフォン310、アドレス情報抽出部320、ネットワークアクセス部330を有しており、音響信号再生装置400により再生され、発せられた音を音響信号として取得し、この音響信号から抽出したアドレス情報を用いて、ネットワーク500上のサイト601にアクセスする機能を有している。ネットワーク接続装置300は、ネットワーク接続機能を有する携帯電話機に、本発明に特有の処理を実行するソフトウェアを搭載することにより実現される。   The network connection device 300 according to the present invention includes a microphone 310, an address information extraction unit 320, and a network access unit 330. The network connection device 300 acquires the sound reproduced and emitted by the acoustic signal reproduction device 400 as an acoustic signal. It has a function of accessing the site 601 on the network 500 using the address information extracted from the acoustic signal. The network connection device 300 is realized by mounting software that executes processing unique to the present invention on a mobile phone having a network connection function.

マイクロフォン310は、低周波成分が検出可能なマイクロフォンである。低周波成分が検出可能なものであれば、モノラル無指向性のものであっても、ステレオ指向性のものであっても良い。ステレオ指向性のものであっても一方のチャンネルだけ利用すれば良い。特に、後述する埋込装置で情報の埋め込みを行った音響信号を利用する場合には、特別精度の高いものでなく、一般的な精度のマイクロフォンを用いても情報の抽出が可能となる。   The microphone 310 is a microphone that can detect a low-frequency component. As long as the low frequency component can be detected, it may be monaural omnidirectional or stereo directional. Even if it is stereo-directional, only one channel needs to be used. In particular, when using an acoustic signal in which information is embedded by an embedding device to be described later, information can be extracted even if a microphone with a general accuracy is used instead of a highly accurate one.

アドレス情報抽出部320は、埋込情報抽出部321とアドレス情報変換部322を有しており、マイクロフォン310が取得した音響信号からアドレス情報を抽出する機能を有している。埋込情報抽出部321は、音響信号に埋め込まれている情報を抽出する機能を有している。アドレス情報変換部322は、自身が保有しているアドレステーブルを参照することにより、抽出された情報をアドレス情報に変換する機能を有している。   The address information extraction unit 320 includes an embedded information extraction unit 321 and an address information conversion unit 322, and has a function of extracting address information from the acoustic signal acquired by the microphone 310. The embedded information extraction unit 321 has a function of extracting information embedded in the acoustic signal. The address information conversion unit 322 has a function of converting the extracted information into address information by referring to the address table held by itself.

ネットワークアクセス部330は、アドレス情報抽出部320が抽出したアドレス情報を用いて、そのアドレス情報に対応するサイト601に、ネットワーク500を介してアクセスする機能を有している。ネットワークアクセス部330は、アドレス情報を取得してネットワーク上のサイトにアクセスするWebブラウザにより実現される。   The network access unit 330 has a function of accessing the site 601 corresponding to the address information via the network 500 using the address information extracted by the address information extraction unit 320. The network access unit 330 is realized by a Web browser that acquires address information and accesses a site on the network.

音響信号再生装置400は、情報が不可聴な状態で埋め込まれた音響信号を再生して、スピーカから音として発する機能を有しており、いわゆる汎用のテレビ受像機、ラジオ受信機、オーディオプレーヤ等で実現できる。ネットワーク500は、所定のプロトコルに従ってデータ通信を行うインターネット等のコンピュータネットワークである。サイト601は、ネットワーク500を介してPC、携帯電話機等からアクセス可能なコンピュータ上のWebサイトである。   The acoustic signal reproduction device 400 has a function of reproducing an acoustic signal embedded in a state where information is inaudible and generating sound from a speaker, such as a so-called general-purpose television receiver, radio receiver, audio player, etc. Can be realized. The network 500 is a computer network such as the Internet that performs data communication according to a predetermined protocol. The site 601 is a Web site on a computer that can be accessed from a PC, a mobile phone, or the like via the network 500.

続いて、図1に示した装置の処理動作について説明する。図2は、本発明第1の実施形態に係るネットワーク接続装置の処理動作を示すフローチャートである。まず、利用者が流れている音楽内に、アドレス情報が埋め込まれていることを知った場合、ネットワーク接続装置に対して起動の指示を行う。これは、例えば、ネットワーク接続装置を携帯電話機等の携帯端末で実現している場合は、所定のボタンを操作することにより実行できる。ネットワーク接続装置は、指示が入力されると、マイクロフォン310から流れている音楽を取り込み、アドレス情報抽出部320が録音してデジタル音響信号として入力する(S801)。具体的には、無指向性マイクロフォン(または指向性マイクロフォンの一方のチャンネル)であるマイクロフォン310から入力される音声を、A/D変換器によりデジタル化する処理を行うことになる。   Next, the processing operation of the apparatus shown in FIG. 1 will be described. FIG. 2 is a flowchart showing the processing operation of the network connection apparatus according to the first embodiment of the present invention. First, when the user knows that the address information is embedded in the music being played, the network connection device is instructed to start. For example, when the network connection device is realized by a mobile terminal such as a mobile phone, this can be executed by operating a predetermined button. When the instruction is input, the network connection device takes in the music flowing from the microphone 310, and the address information extraction unit 320 records it and inputs it as a digital sound signal (S801). Specifically, a process of digitizing audio input from the microphone 310 that is an omnidirectional microphone (or one channel of the directional microphone) by an A / D converter is performed.

続いて、埋込情報抽出部321が、取得した音響信号から、埋め込まれている付加情報を抽出する(S802)。この埋込情報抽出部321における抽出処理の詳細については、後述する。   Subsequently, the embedded information extraction unit 321 extracts embedded additional information from the acquired acoustic signal (S802). Details of the extraction processing in the embedded information extraction unit 321 will be described later.

次に、アドレス情報変換部322が、抽出された付加情報をアドレス情報に変換する(S803)。アドレス情報変換部322は、付加情報とアドレス情報を対応付けた変換テーブルを備えており、抽出した付加情報で変換テーブルを参照し、アドレス情報に変換する処理を行う。   Next, the address information conversion unit 322 converts the extracted additional information into address information (S803). The address information conversion unit 322 includes a conversion table in which the additional information and the address information are associated with each other. The address information conversion unit 322 refers to the conversion table with the extracted additional information and performs a process of converting into the address information.

続いて、ネットワークアクセス部330が、変換により得られたアドレス情報を利用して、対応するサイトへアクセスする(S804)。例えば、得られたアドレス情報がサイト601を示すものである場合、サイト601にアクセスし、サイト601が保有している情報を取得できることになる。   Subsequently, the network access unit 330 accesses the corresponding site using the address information obtained by the conversion (S804). For example, when the obtained address information indicates the site 601, the site 601 can be accessed and information held by the site 601 can be acquired.

(2.第2の実施形態)
次に、本発明第2の実施形態について説明する。図3は、本発明第2の実施形態に係るネットワーク接続装置の構成図である。図3中、第1の実施形態と同一機能を有するものについては、同一符号を付して説明を省略する。図3において、340はコンテンツ取得部、602は第2のサイトである。
(2. Second Embodiment)
Next, a second embodiment of the present invention will be described. FIG. 3 is a configuration diagram of a network connection apparatus according to the second embodiment of the present invention. In FIG. 3, those having the same functions as those of the first embodiment are denoted by the same reference numerals and description thereof is omitted. In FIG. 3, 340 is a content acquisition unit, and 602 is a second site.

コンテンツ取得部340は、アクセス先のサイトが、ダウンロード可能なコンテンツを保有する場合に、コンテンツを取得する機能を有している。そして、コンテンツ取得部340は、取得したコンテンツに音響信号が含まれている場合は、その音響信号を埋込情報抽出部321に渡す機能を有している。   The content acquisition unit 340 has a function of acquiring content when the access destination site has downloadable content. The content acquisition unit 340 has a function of passing the acoustic signal to the embedded information extraction unit 321 when the acquired content includes an acoustic signal.

続いて、図3に示した装置の処理動作について説明する。図4は、本発明第2の実施形態に係るネットワーク接続装置の処理動作を示すフローチャートである。図4においても、第1の実施形態と同一処理については、同一符号を付して説明を省略する。したがって、S801〜S804までは、第1の実施形態と同様の処理を行うことになる。第2の実施形態においては、サイト601にアクセスした後、サイト601にダウンロード可能なコンテンツが存在すれば、コンテンツ取得部340が、そのコンテンツを取得する(S805)。   Next, the processing operation of the apparatus shown in FIG. 3 will be described. FIG. 4 is a flowchart showing the processing operation of the network connection apparatus according to the second embodiment of the present invention. Also in FIG. 4, the same processes as those in the first embodiment are denoted by the same reference numerals and description thereof is omitted. Therefore, from S801 to S804, the same processing as in the first embodiment is performed. In the second embodiment, after accessing the site 601, if there is downloadable content in the site 601, the content acquisition unit 340 acquires the content (S805).

コンテンツ取得部340は、取得したコンテンツに音響信号が含まれるかどうかを判断する(S806)。取得したコンテンツに音響信号が含まれる場合は、コンテンツ取得部340は、その音響信号を埋込情報抽出部321に渡す。埋込情報抽出部321は、コンテンツ取得部340から音響信号を受け取ると、マイクロフォン310を通して取得した音響信号と同様にして、埋め込まれている付加情報を抽出する(S802)。そして、アドレス情報変換部322が、アドレス情報に変換した後(S803)、ネットワークアクセス部330が、そのアドレス情報を利用して、対応するサイトへアクセスする(S804)。例えば、得られたアドレス情報が第2のサイト602を示すものである場合、第2のサイト602にアクセスし、第2のサイト602が保有している情報を取得できることになる。   The content acquisition unit 340 determines whether the acquired content includes an acoustic signal (S806). When the acquired content includes an acoustic signal, the content acquisition unit 340 passes the acoustic signal to the embedded information extraction unit 321. When receiving the acoustic signal from the content acquisition unit 340, the embedded information extraction unit 321 extracts the embedded additional information in the same manner as the acoustic signal acquired through the microphone 310 (S802). Then, after the address information conversion unit 322 converts the address information (S803), the network access unit 330 accesses the corresponding site using the address information (S804). For example, when the obtained address information indicates the second site 602, it is possible to access the second site 602 and acquire the information held by the second site 602.

このようにして、ダウンロードしたコンテンツに音響信号が含まれ、音響信号からアクセス情報が抽出される限り、S802〜S806の処理が繰り返され、次々に異なるサイトにアクセスすることになる。S806において、ダウンロードしたコンテンツに音響信号が含まれない場合は、新たな処理を行わず、ネットワーク接続装置の画面には、接続先のサイトの情報が表示されたままの状態となる。   In this way, as long as the downloaded content includes the sound signal and the access information is extracted from the sound signal, the processes of S802 to S806 are repeated, and different sites are accessed one after another. In S806, if the downloaded content does not include an audio signal, new processing is not performed, and the information on the connection destination site is still displayed on the screen of the network connection device.

(3.第3の実施形態)
次に、本発明第3の実施形態に係るネットワーク接続システムについて説明する。図5は、本発明第3の実施形態に係るネットワーク接続システムの構成図である。図5中、上記第1、第2の実施形態に係るネットワーク接続装置と同一機能を有するものについては、同一符号を付して説明を省略する。図5において、301は端末装置、320aはアドレス情報抽出サーバ、350は音響信号取得部である。
(3. Third embodiment)
Next, a network connection system according to the third embodiment of the present invention will be described. FIG. 5 is a configuration diagram of a network connection system according to the third embodiment of the present invention. In FIG. 5, components having the same functions as those of the network connection devices according to the first and second embodiments are denoted by the same reference numerals and description thereof is omitted. In FIG. 5, 301 is a terminal device, 320a is an address information extraction server, and 350 is an acoustic signal acquisition unit.

図5に示すネットワーク接続システムは、基本的には、図3に示した第1の実施形態に係るネットワーク接続装置300の機能を、端末装置301とアドレス情報抽出サーバ320aに分散して備えたものとなっている。したがって、アドレス情報抽出サーバ320aは、図3に示したアドレス情報抽出部320と同様、埋込情報抽出部321とアドレス情報変換部322を有しており、ネットワーク500を介して、端末装置301から受信した音響信号からアドレス情報を抽出する機能を有している。ただし、アドレス情報抽出サーバ320aは、端末装置301と通信を行うため、ネットワークアクセス機能を有している。   The network connection system shown in FIG. 5 basically includes the functions of the network connection device 300 according to the first embodiment shown in FIG. 3 distributed in the terminal device 301 and the address information extraction server 320a. It has become. Therefore, the address information extraction server 320a has an embedded information extraction unit 321 and an address information conversion unit 322, similar to the address information extraction unit 320 shown in FIG. It has a function of extracting address information from the received acoustic signal. However, the address information extraction server 320a has a network access function to communicate with the terminal device 301.

音響信号取得部350は、マイクロフォン310が取得した音響信号をデジタル化する機能を有している。図3に示した第1の実施形態においては、アドレス情報抽出部320が行う機能である。   The acoustic signal acquisition unit 350 has a function of digitizing the acoustic signal acquired by the microphone 310. In the first embodiment shown in FIG. 3, this function is performed by the address information extraction unit 320.

続いて、図5に示したシステムの処理動作について説明する。図6は、本発明第3の実施形態に係るネットワーク接続システムの処理動作を示すフローチャートである。図6においても、第1の実施形態と同一処理については、同一符号を付して説明を省略する。したがって、S801、S802、S803、〜S804の各処理は、第1の実施形態と同様の処理を行うことになる。第3の実施形態においては、端末装置350が音響信号を取得した後(S801)、ネットワークアクセス部が、アドレス情報抽出サーバ320aに音響信号を送信する(S807)。アドレス情報抽出サーバ320aが音響信号を受信すると、埋込情報抽出部321が、取得した音響信号から、埋め込まれている付加情報を抽出する(S802)。次に、アドレス情報変換部322が、抽出された付加情報をアドレス情報に変換する(S803)。   Next, the processing operation of the system shown in FIG. 5 will be described. FIG. 6 is a flowchart showing the processing operation of the network connection system according to the third embodiment of the present invention. Also in FIG. 6, the same processes as those in the first embodiment are denoted by the same reference numerals and the description thereof is omitted. Therefore, each process of S801, S802, S803, to S804 is performed in the same manner as in the first embodiment. In the third embodiment, after the terminal device 350 acquires an acoustic signal (S801), the network access unit transmits the acoustic signal to the address information extraction server 320a (S807). When the address information extraction server 320a receives the acoustic signal, the embedded information extraction unit 321 extracts the embedded additional information from the acquired acoustic signal (S802). Next, the address information conversion unit 322 converts the extracted additional information into address information (S803).

続いて、アドレス情報抽出サーバ320aが、変換により得られたアドレス情報を、送信元の端末装置301へ送信する(S808)。端末装置301がアドレス情報を受信すると、ネットワークアクセス部330は、受信したアドレス情報を利用して、対応するサイトへアクセスする(S804)。   Subsequently, the address information extraction server 320a transmits the address information obtained by the conversion to the terminal device 301 that is the transmission source (S808). When the terminal device 301 receives the address information, the network access unit 330 accesses the corresponding site using the received address information (S804).

なお、上記第1〜第3の実施形態においては、アドレス情報抽出部320が、埋込情報抽出部321とアドレス情報変換部322を有する構成とし、音響信号に埋め込まれた付加情報を抽出した後、付加情報をアドレス情報に変換する構成としたが、音響信号にアドレス情報を埋め込んでおき、アドレス情報抽出部320が、埋込情報抽出部321と同等の機能を有し、直接アドレス情報を抽出するようにしても良い。ただし、URL等のアドレス情報は、比較的文字数が多いため、録音時間をより短くするために、より短い情報を付加情報として埋め込んでおき、アドレス情報変換部322がアドレス情報に変換する方が好ましい。例えば、URLだと数十バイトを要するが、付加情報として4〜5バイトの文字を埋め込んでおけば、わずかな時間で付加情報が埋め込まれた部分の音響信号の録音が可能となる。   In the first to third embodiments, the address information extraction unit 320 includes the embedded information extraction unit 321 and the address information conversion unit 322, and extracts additional information embedded in the acoustic signal. The additional information is converted into address information, but the address information is embedded in the acoustic signal, and the address information extraction unit 320 has the same function as the embedded information extraction unit 321 and directly extracts the address information. You may make it do. However, since address information such as URL has a relatively large number of characters, it is preferable to embed shorter information as additional information in order to shorten the recording time, and the address information conversion unit 322 converts it into address information. . For example, a URL requires several tens of bytes, but if 4 to 5 bytes of characters are embedded as additional information, it is possible to record an acoustic signal of a portion where the additional information is embedded in a short time.

(4.音響信号への付加情報の埋め込み)
次に、音響信号への付加情報の埋め込みについて説明する。この付加情報が埋め込まれた音響信号は、音響信号再生装置400により再生される。図7は、音響信号に対する情報の埋込装置の構成を示す機能ブロック図である。図7において、10は音響フレーム読込手段、20は周波数変換手段、30は低周波成分変更手段、40は周波数逆変換手段、50は改変音響フレーム出力手段、60は記憶手段、61は音響信号記憶部、62は付加情報記憶部、63は改変音響信号記憶部、70は付加情報読込手段である。なお、図7に示す装置は、ステレオ音響信号、モノラル音響信号の両方に対応可能であるが、ここでは、ステレオ音響信号に対して処理を行う場合について説明していく。
(4. Embedding additional information in acoustic signals)
Next, embedding of additional information in an acoustic signal will be described. The acoustic signal in which this additional information is embedded is reproduced by the acoustic signal reproduction device 400. FIG. 7 is a functional block diagram showing a configuration of an information embedding device for an acoustic signal. In FIG. 7, 10 is an acoustic frame reading means, 20 is a frequency converting means, 30 is a low frequency component changing means, 40 is a frequency inverse converting means, 50 is a modified acoustic frame output means, 60 is a storage means, and 61 is an acoustic signal storage. , 62 is an additional information storage unit, 63 is a modified acoustic signal storage unit, and 70 is an additional information reading means. Note that the apparatus shown in FIG. 7 can handle both a stereo sound signal and a monaural sound signal. Here, a case where processing is performed on a stereo sound signal will be described.

音響フレーム読込手段10は、付加情報の埋め込み対象とする元のステレオ音響信号の各チャンネルから所定数のサンプルを1フレームとして読み込む機能を有している。周波数変換手段20は、音響フレーム読込手段10が読み込んだ音響信号のフレームをフーリエ変換等により周波数変換してフレームスペクトルを生成する機能を有している。低周波成分変更手段30は、Aタイプの音響フレームについては、生成されたフレームスペクトルから3つの所定周波数範囲に相当するスペクトル集合を3セット抽出し、付加情報記憶部62から抽出した付加情報に基づいて、低周波強度データのスペクトル集合間の割合(比率)を変更し、Bタイプの音響フレームについては、生成されたフレームスペクトルの所定周波数範囲の低周波強度データを“0”にする機能を有している。周波数逆変換手段40は、変更された低周波強度データを含む複数のフレームスペクトルに対して周波数逆変換を行うことにより、改変音響フレームを生成する機能を有している。改変音響フレーム出力手段50は、生成された改変音響フレームを順次出力する機能を有している。記憶手段60は、付加情報を埋め込む対象とするステレオ音響信号を記憶した音響信号記憶部61と、ビット配列として構成され、ステレオ音響信号に埋め込まれる付加情報を記憶した付加情報記憶部62と、付加情報埋め込み後の改変音響信号を記憶する改変音響信号記憶部63を有しており、その他処理に必要な各種情報を記憶するものである。付加情報読込手段70は、付加情報記憶部62から付加情報を抽出する機能を有している。なお、付加情報とは、音響信号に付加するものとして埋め込む音響信号そのもの以外の情報であり、その内容は、IPアドレスやURL等の、ネットワーク上のコンピュータにアクセスするためのアドレス情報であるか、またはアドレス情報に変換するためのIDである。本実施形態では、IDを用いた場合について説明する。図7に示した各構成手段は、現実にはコンピュータおよびその周辺機器等のハードウェアに専用のプログラムを搭載することにより実現される。すなわち、コンピュータが、専用のプログラムに従って各手段の内容を実行することになる。   The sound frame reading means 10 has a function of reading a predetermined number of samples as one frame from each channel of the original stereo sound signal to be embedded with additional information. The frequency conversion means 20 has a function of generating a frame spectrum by frequency-converting the frame of the acoustic signal read by the acoustic frame reading means 10 by Fourier transformation or the like. The low frequency component changing unit 30 extracts three sets of spectrum sets corresponding to three predetermined frequency ranges from the generated frame spectrum for the A type sound frame, and based on the additional information extracted from the additional information storage unit 62. The ratio (ratio) between the spectrum sets of the low frequency intensity data is changed, and for the B type sound frame, the low frequency intensity data in the predetermined frequency range of the generated frame spectrum is set to “0”. is doing. The frequency reverse conversion means 40 has a function of generating a modified acoustic frame by performing frequency reverse conversion on a plurality of frame spectra including the changed low frequency intensity data. The modified sound frame output means 50 has a function of sequentially outputting the generated modified sound frames. The storage means 60 includes an acoustic signal storage unit 61 that stores a stereo acoustic signal to be embedded with additional information, an additional information storage unit 62 that is configured as a bit array and stores additional information embedded in the stereo acoustic signal, and an additional information It has a modified acoustic signal storage unit 63 for storing the modified acoustic signal after information is embedded, and stores various information necessary for other processing. The additional information reading means 70 has a function of extracting additional information from the additional information storage unit 62. Note that the additional information is information other than the acoustic signal itself to be embedded as an additional to the acoustic signal, and whether the content is address information for accessing a computer on the network, such as an IP address or a URL, Or it is ID for converting into address information. In this embodiment, a case where an ID is used will be described. Each component shown in FIG. 7 is actually realized by mounting a dedicated program on hardware such as a computer and its peripheral devices. That is, the computer executes the contents of each means according to a dedicated program.

次に、図7に示した音響信号に対する情報の埋込装置の処理動作について図8のフローチャートに従って説明する。ここでは、音響信号として、L(左)、R(右)の2チャンネルを有するステレオ音響信号に対して処理を行う場合について説明していく。図8は、付加情報1ワード分の処理に対応したものとなっている。1ワードとしては、任意のビット数に設定することができるが、通常1バイトに設定する。まず、付加情報読込手段70は、付加情報記憶部62から付加情報を1ワード単位で読み込む(S101)。具体的には、音響信号に対する情報の埋め込み装置として用いられるコンピュータ内のレジスタに1ワード読み込むことになる。続いて、モードを区切りモードに設定する(S102)。モードは区切りモードと、ビットモード、継続識別モードの3種類が存在する。区切りモードは1ワード単位の区切りにおける処理を行うモードを示し、ビットモードは1ワードの各ビットの値に基づいた処理を行うモードを示している。付加情報記憶部62から1ワード読み込んだ場合には、その直後に必ず区切りモードに設定されることになる。継続識別モードは、低周波成分の信号レベルが小さい音響フレームが出現した場合に、区切り情報が埋め込まれた場合、次のビットが先頭から始まる新規なものか、中断されたために継続されたものであるかを識別するための情報を記録するモードを示している。   Next, the processing operation of the information embedding device for the acoustic signal shown in FIG. 7 will be described with reference to the flowchart of FIG. Here, a case where processing is performed on a stereo sound signal having two channels of L (left) and R (right) as sound signals will be described. FIG. 8 corresponds to processing for one word of additional information. One word can be set to an arbitrary number of bits, but is usually set to 1 byte. First, the additional information reading means 70 reads additional information from the additional information storage unit 62 in units of one word (S101). Specifically, one word is read into a register in a computer used as an information embedding device for an acoustic signal. Subsequently, the mode is set to the separation mode (S102). There are three types of modes: separation mode, bit mode, and continuous identification mode. The delimiter mode indicates a mode for performing processing in a delimiter in units of one word, and the bit mode indicates a mode for performing processing based on the value of each bit of one word. When one word is read from the additional information storage unit 62, the delimiter mode is always set immediately after that. In the continuous identification mode, when an acoustic frame with a low low-frequency component signal level appears, if the delimiter information is embedded, it is a new one starting from the beginning or continued because it was interrupted. A mode for recording information for identifying whether or not there is present is shown.

続いて、音響フレーム読込手段10が、音響信号記憶部61に記憶されたステレオ音響信号の左右の各チャンネルから、それぞれ所定数のサンプルを1音響フレームとして読み込む(S104)。音響フレーム読込手段10が読み込む1音響フレームのサンプル数は、適宜設定することができるが、サンプリング周波数が44.1kHzの場合、4096サンプル程度とすることが望ましい。したがって、音響フレーム読込手段10は、左チャンネル、右チャンネルについてそれぞれ4096サンプルずつ、順次音響フレームとして読み込んでいくことになる。本発明においては、音響フレームとしてAタイプとBタイプが存在する。Aタイプの音響フレーム、Bタイプの音響フレームは、それぞれ同タイプの先行する音響フレームの最後のサンプルの次のサンプルを先頭サンプルとして設定される。そして、AタイプとBタイプの音響フレームは互いに所定数(本実施形態では2048)のサンプルを重複して設定される。例えば、Aタイプの音響フレームを先頭からA1、A2、A3…とし、Bタイプの音響フレームを先頭からB1、B2、B3…とすると、A1はサンプル1〜4096、A2はサンプル4097〜8192、A3はサンプル8193〜12288、B1はサンプル2049〜6144、B2はサンプル6145〜10240、B3はサンプル10241〜14336となる。なお、AタイプとBタイプは相対的なものであるので、どちらが先であっても良い。すなわち、上記とは逆にA1がサンプル2049〜6144、A2がサンプル6145〜10240、A3がサンプル10241〜14336、B1がサンプル1〜4096、B2がサンプル4097〜8192、B3がサンプル8193〜12288であっても良い。図8の例では、Bタイプ音響フレームを先に設定した場合を示している。   Subsequently, the acoustic frame reading means 10 reads a predetermined number of samples as one acoustic frame from each of the left and right channels of the stereo acoustic signal stored in the acoustic signal storage unit 61 (S104). The number of samples of one sound frame read by the sound frame reading means 10 can be set as appropriate, but is desirably about 4096 samples when the sampling frequency is 44.1 kHz. Therefore, the acoustic frame reading means 10 sequentially reads 4096 samples for each of the left channel and the right channel as acoustic frames. In the present invention, there are A type and B type as acoustic frames. In the A-type acoustic frame and the B-type acoustic frame, the next sample after the last sample of the preceding acoustic frame of the same type is set as the first sample. The A-type and B-type sound frames are set by overlapping a predetermined number (2048 in this embodiment) of samples. For example, if the A type acoustic frame is A1, A2, A3... From the top and the B type acoustic frame is B1, B2, B3... From the top, A1 is samples 1 to 4096, A2 is samples 4097 to 8192, A3. Is samples 8193-12288, B1 is samples 2049-6144, B2 is samples 6145-10240, and B3 is samples 10241-14336. Since the A type and the B type are relative, either one may be first. That is, contrary to the above, A1 is samples 2049 to 6144, A2 is samples 6145 to 10240, A3 is samples 10241 to 14336, B1 is samples 1 to 4096, B2 is samples 4097 to 8192, and B3 is samples 8193 to 12288. May be. In the example of FIG. 8, the case where the B type sound frame is set first is shown.

続いて、周波数変換手段20は、読み込んだBタイプの音響フレームに対して、周波数変換を行って、その音響フレームのスペクトルであるフレームスペクトルを得る(S105)。具体的には、S104で読み込んだBタイプの音響フレームについて、窓関数を利用して周波数変換を行う。周波数変換としては、フーリエ変換、ウェーブレット変換その他公知の種々の手法を用いることができる。本実施形態では、フーリエ変換を用いた場合を例にとって説明する。なお、後述するS109においては、同様にして、S108で読み込んだAタイプの音響フレームについて、窓関数を利用して周波数変換を行う。   Subsequently, the frequency conversion means 20 performs frequency conversion on the read B-type sound frame to obtain a frame spectrum that is a spectrum of the sound frame (S105). Specifically, frequency conversion is performed using the window function for the B type acoustic frame read in S104. As frequency conversion, Fourier transform, wavelet transform, and other various known methods can be used. In the present embodiment, a case where Fourier transform is used will be described as an example. In S109, which will be described later, similarly, frequency conversion is performed on the A type acoustic frame read in S108 by using a window function.

ここで、本実施形態においてフーリエ変換に利用する窓関数について説明しておく。一般に、所定の信号に対してフーリエ変換を行う場合、信号を所定の長さに区切って行う必要があるが、この場合、所定長さの信号に対してそのままフーリエ変換を行うと、区切り部分が不連続になる。そこで、一般にフーリエ変換を行う場合には、ハニング窓と呼ばれる窓関数を用いて、信号の値を変化させた後、変化後の値に対してフーリエ変換を実行する。本実施形態においては、Aタイプの音響フレームに対しては、ハニング窓関数に代えて図9(b)〜(d)に示したような窓関数W(1,i)、W(2,i)、W(3,i)を用いてフーリエ変換を行う。これにより、埋め込まれた情報が抽出側でより認識し易くなる。窓関数W(1,i)は、音響フレームの前部を抽出するためのものであり、図9(b)に示すように前部の所定のサンプル番号iの位置において、最大値1をとり、後部においては、最小値0をとるように設定されている。どのサンプル番号の場合に最大値をとるかについては、窓関数W(1,i)の設計によって異なってくるが、本実施形態では、後述する〔数式1〕で定義される。窓関数W(1,i)を乗じることにより、図9(a)に示すような音響フレームの信号波形は、図9(f)に示すように、前部に信号成分が残り、後部の信号成分が削除されたものとなり、これがフーリエ変換対象となる。   Here, a window function used for Fourier transform in the present embodiment will be described. In general, when Fourier transform is performed on a predetermined signal, it is necessary to divide the signal into a predetermined length. It becomes discontinuous. Therefore, in general, when performing Fourier transform, a signal value is changed using a window function called a Hanning window, and then Fourier transform is performed on the changed value. In the present embodiment, for A type acoustic frames, window functions W (1, i), W (2, i) as shown in FIGS. 9B to 9D are used instead of the Hanning window function. ), W (3, i) is used for Fourier transform. This makes it easier for the extraction side to recognize the embedded information. The window function W (1, i) is for extracting the front part of the acoustic frame, and takes a maximum value 1 at the position of a predetermined sample number i in the front part as shown in FIG. In the rear part, the minimum value is set to 0. Which sample number takes the maximum value depends on the design of the window function W (1, i), but in this embodiment, it is defined by [Equation 1] described later. By multiplying by the window function W (1, i), the signal waveform of the acoustic frame as shown in FIG. 9A has a signal component remaining in the front part as shown in FIG. The component is deleted, and this becomes a Fourier transform target.

また、窓関数W(2,i)は、音響フレームの中央部を抽出するためのものであり、図9(c)に示すように、中央部の所定のサンプル番号iの位置において、最大値1をとり、前部、後部においては、最小値0をとるように設定されている。どのサンプル番号の場合に最大値をとるかについては、窓関数W(2,i)の設計によって異なってくるが、本実施形態では、後述する〔数式2〕で定義される。窓関数W(2,i)を乗じることにより、図9(a)に示すような音響フレームの信号波形は、図9(g)に示すように、中央部に信号成分が残り、前部と後部の信号成分が除去されたものとなり、これがフーリエ変換対象となる。   Further, the window function W (2, i) is for extracting the central portion of the acoustic frame. As shown in FIG. 9C, the maximum value is obtained at the position of the predetermined sample number i in the central portion. 1 is set, and the front and rear portions are set to have a minimum value of 0. Which sample number takes the maximum value depends on the design of the window function W (2, i), but in this embodiment, it is defined by [Expression 2] described later. By multiplying the window function W (2, i), the signal waveform of the acoustic frame as shown in FIG. 9A has a signal component remaining in the center as shown in FIG. The rear signal component is removed, and this is subjected to Fourier transform.

また、窓関数W(3,i)は、音響フレームの後部を抽出するためのものであり、図9(d)に示すように、前部においては最小値0をとり、後部の所定のサンプル番号iの位置において、最大値1をとるように設定されている。どのサンプル番号の場合に最大値をとるかについては、窓関数W(3,i)の設計によって異なってくるが、本実施形態では、後述する〔数式3〕で定義される。窓関数W(3,i)を乗じることにより、図9(a)に示すような音響フレームの信号波形は、図9(h)に示すように、前部の信号成分が除去され、後部に信号成分が残ったものとなり、これがフーリエ変換対象となる。このように前部、中央部、後部を抽出した後、フーリエ変換を実行するため、前部、中央部、後部に対応したスペクトルが得られることになる。1つの音響フレームにビット値を埋め込むためには、本来、前部と後部の2つに分けられれば良いのであるが、抽出側においては、必ずしも、信号を同期して読み込むことができるとは限らず、したがって、前部と後部をはっきりと区別するため、本実施形態では、埋め込み時に中央部の信号成分を常に削除し、前部と後部を時間的に分離することとしている(ただし、抽出時は前部と後部だけを解析すればよく、中央部は無視してよい)。本実施形態において用いる窓関数の最大の特徴は、窓関数W(1,i)と窓関数W(3,i)が左右非対称である点である。このため、特に、ビット反転が起こりにくくなる。   The window function W (3, i) is for extracting the rear part of the acoustic frame. As shown in FIG. 9D, the window function W (3, i) takes a minimum value 0 in the front part and takes a predetermined sample in the rear part. The maximum value 1 is set at the position of the number i. Which sample number takes the maximum value depends on the design of the window function W (3, i), but in this embodiment, it is defined by [Equation 3] described later. By multiplying the window function W (3, i), the signal waveform of the acoustic frame as shown in FIG. 9A is removed from the front signal component as shown in FIG. The signal component remains and becomes a Fourier transform target. Thus, after extracting the front part, the central part, and the rear part, the Fourier transform is executed, so that spectra corresponding to the front part, the central part, and the rear part are obtained. In order to embed a bit value in one acoustic frame, the bit value is originally divided into two parts, a front part and a rear part. However, on the extraction side, it is not always possible to read a signal synchronously. Therefore, in order to clearly distinguish the front part from the rear part, in this embodiment, the signal component at the center part is always deleted at the time of embedding, and the front part and the rear part are separated in time (however, at the time of extraction) Only need to analyze the front and rear, and ignore the middle). The greatest feature of the window function used in the present embodiment is that the window function W (1, i) and the window function W (3, i) are asymmetrical. For this reason, in particular, bit inversion hardly occurs.

また、本実施形態では、音響フレームを重複させて読み込み、奇数フレーム(または偶数フレーム)については、窓関数W(1,i)、W(2,i)、W(3,i)を用い、偶数フレーム(または奇数フレーム)については、図9(e)に示したような窓関数W(4,i)を用いるようにした。   In the present embodiment, the acoustic frames are read in duplicate, and the window functions W (1, i), W (2, i), W (3, i) are used for the odd frames (or even frames), For even frames (or odd frames), the window function W (4, i) as shown in FIG. 9E is used.

なお、本実施形態においては、音響フレームは重複して読み込まれる。すなわち、奇数番目の音響フレームと偶数番目の音響フレームは、所定数のサンプルを重複して読み込む。上記のように、奇数フレームと偶数フレームでは、用いられる窓関数が異なるが、奇数フレームと偶数フレームは単に奇数か偶数かの違いだけであるため、どちらに対して処理をどちらの処理を行っても良い。したがって、本明細書では、奇数フレーム、偶数フレームの一方をAタイプフレーム、他方をBタイプフレームと呼ぶことにする。図8の例に従うと、奇数フレームをBタイプフレーム、偶数フレームをAタイプフレームとなるが、逆に偶数フレームをBタイプフレーム、奇数フレームをAタイプフレームとしても良い。   In the present embodiment, the sound frame is read in duplicate. That is, a predetermined number of samples are redundantly read in the odd-numbered sound frames and the even-numbered sound frames. As mentioned above, the window function used is different between odd frames and even frames, but because odd frames and even frames are simply the difference between odd and even, which one is processed for which? Also good. Therefore, in this specification, one of the odd-numbered frame and the even-numbered frame is referred to as an A-type frame, and the other is referred to as a B-type frame. According to the example of FIG. 8, odd frames are B type frames and even frames are A type frames. Conversely, even frames may be B type frames and odd frames may be A type frames.

本実施形態では、窓関数W(1,i)〜W(4,i)は、以下の〔数式1〕〜〔数式4〕で定義される。なお、図9において、横軸は時間軸(i)である。iは、後述するように、各音響フレーム内のN個のサンプルに付した通し番号であるため時刻tに比例している。また、図9(a)(f)(g)(h)(i)において縦軸は信号の振幅値(レベル)を示す。図9(b)〜(e)において縦軸は窓関数W(1,i)、W(2,i)、W(3,i)、W(4,i)の値を示しており、W(1,i)、W(2,i)、W(3,i)、W(4,i)の最大値はいずれも1である。   In the present embodiment, the window functions W (1, i) to W (4, i) are defined by the following [Equation 1] to [Equation 4]. In FIG. 9, the horizontal axis is the time axis (i). As described later, i is a serial number assigned to N samples in each acoustic frame, and is proportional to time t. 9A, 9F, 9G, 9H, and 9I, the vertical axis indicates the amplitude value (level) of the signal. 9B to 9E, the vertical axis indicates the values of the window functions W (1, i), W (2, i), W (3, i), and W (4, i). The maximum values of (1, i), W (2, i), W (3, i), and W (4, i) are all 1.

〔数式1〕
i≦3N/8のとき、W(1,i)=0.5−0.5cos(8πi/(3N))
3N/8<i≦N/2のとき、W(1,i)=0.5−0.5cos(8π(i−N/4)/N)
i>N/2のとき、W(1,i)=0.0
[Formula 1]
When i ≦ 3N / 8, W (1, i) = 0.5−0.5 cos (8πi / (3N))
When 3N / 8 <i ≦ N / 2, W (1, i) = 0.5−0.5 cos (8π (i−N / 4) / N)
When i> N / 2, W (1, i) = 0.0

〔数式2〕
i≦3N/8のとき、W(2,i)=0.0
3N/8<i≦N/2のとき、W(2,i)=0.5−0.5cos(4π(i−N/4)/N)
i>3N/4のとき、W(2,i)=0.0
[Formula 2]
When i ≦ 3N / 8, W (2, i) = 0.0
When 3N / 8 <i ≦ N / 2, W (2, i) = 0.5−0.5 cos (4π (i−N / 4) / N)
When i> 3N / 4, W (2, i) = 0.0

〔数式3〕
i≦N/2のとき、W(3,i)=0.0
i>N/2のとき、W(3,i)=0.5−0.5cos(4π(i−N/2)/N)
[Formula 3]
When i ≦ N / 2, W (3, i) = 0.0
When i> N / 2, W (3, i) = 0.5−0.5 cos (4π (i−N / 2) / N)

〔数式4〕
i≦N/4のとき、W(4,i)=0.0
N/4<i≦N/2のとき、W(4,i)=0.5−0.5cos(4π(i−N/4)/N)
N/2<i≦7N/8のとき、W(4,i)=0.5−0.5cos(8π(i−N/8)/(3N))
i>7N/8のとき、W(4,i)=0.0
[Formula 4]
When i ≦ N / 4, W (4, i) = 0.0
When N / 4 <i ≦ N / 2, W (4, i) = 0.5−0.5 cos (4π (i−N / 4) / N)
When N / 2 <i ≦ 7N / 8, W (4, i) = 0.5−0.5 cos (8π (i−N / 8) / (3N))
When i> 7N / 8, W (4, i) = 0.0

なお、図14および上記〔数式1〕〜〔数式4〕から明らかなように、窓関数W(1,i)とW(3,i)は、互いに非対称な形状である。これは、後述する抽出側において、両者の識別を容易にするためである。また、窓関数W(1,i)、W(2,i)、W(3,i)は、iが所定の値のときに最大値1をとり、iがその他の値をとる場合には、iの値に応じて単調増加、または単調減少する窓関数を分割したものであるため、窓関数W(1,i)とW(3,i)が定まると、窓関数W(2,i)も必然的に定まる。このため、窓関数W(2,i)は左右非対称の形状となっている。   As is clear from FIG. 14 and [Formula 1] to [Formula 4], the window functions W (1, i) and W (3, i) have asymmetric shapes. This is for facilitating identification between the two on the extraction side described later. The window functions W (1, i), W (2, i), and W (3, i) have a maximum value of 1 when i is a predetermined value, and i takes other values. , I is a window function that monotonically increases or decreases according to the value of i, and therefore, when the window functions W (1, i) and W (3, i) are determined, the window function W (2, i ) Is inevitably determined. For this reason, the window function W (2, i) has a left-right asymmetric shape.

本実施形態においては、奇数フレームと偶数フレームを、所定サンプルずつ重複して読み込むため、情報の埋め込みを行った後、音響信号に復元する際に、窓関数を乗じた奇数フレームと、窓関数を乗じた偶数フレームの重複サンプルを加算した場合に、ほぼ元の値に戻るようにしなければならない。このため、窓関数W(4,i)の形状は、窓関数W(1,i)、W(2,i)、W(3,i)の値に応じて必然的に定まる。すなわち、奇数フレームと偶数フレームの重複部分において、窓関数W(1,i)、W(2,i)、W(3,i)、W(4,i)を加算すると、全区間固定値1になるように定義されている。以上が、本実施形態で用いる窓関数の概要である。   In this embodiment, since odd frames and even frames are read in duplicate by predetermined samples, after embedding information, when restoring to an acoustic signal, an odd frame multiplied by a window function and a window function are When overlapping samples of even frames multiplied are added, it must be returned to the original value. Therefore, the shape of the window function W (4, i) is inevitably determined according to the values of the window functions W (1, i), W (2, i), and W (3, i). That is, when the window functions W (1, i), W (2, i), W (3, i), and W (4, i) are added in the overlapping portion of the odd and even frames, the fixed value 1 for the entire section is obtained. Is defined to be The above is the outline of the window function used in this embodiment.

S105に戻って説明する。S105おいてフーリエ変換を行う場合、具体的には、左チャンネル信号Xl(i)、右チャンネル信号Xr(i)(i=0,…,N−1)に対して、窓関数W(4,i)を用いて、以下の〔数式5〕に従った処理を行い、左チャンネルに対応する変換データの実部Al(4,j)、虚部Bl(4,j)、右チャンネルに対応する変換データの実部Ar(4,j)、虚部Br(4,j)を得る。   Returning to S105, description will be made. When performing the Fourier transform in S105, specifically, the window function W (4, 4) is applied to the left channel signal Xl (i) and the right channel signal Xr (i) (i = 0,..., N−1). i) is used to perform processing according to the following [Equation 5] and correspond to the real part Al (4, j), the imaginary part Bl (4, j), and the right channel of the conversion data corresponding to the left channel. Real part Ar (4, j) and imaginary part Br (4, j) of the conversion data are obtained.

〔数式5〕
Al(4,j)=Σi=0,…,N-1W(4,i)・Xl(i)・cos(2πij/N)
Bl(4,j)=Σi=0,…,N-1W(4,i)・Xl(i)・sin(2πij/N)
Ar(4,j)=Σi=0,…,N-1W(4,i)・Xr(i)・cos(2πij/N)
Br(4,j)=Σi=0,…,N-1W(4,i)・Xr(i)・sin(2πij/N)
[Formula 5]
Al (4, j) = Σi = 0,..., N-1 W (4, i) · Xl (i) · cos (2πij / N)
Bl (4, j) = Σi = 0,..., N-1 W (4, i) .Xl (i) .sin (2πij / N)
Ar (4, j) = Σi = 0,..., N-1 W (4, i) .Xr (i) .cos (2πij / N)
Br (4, j) = Σi = 0,..., N-1 W (4, i) · Xr (i) · sin (2πij / N)

〔数式5〕において、iは、各音響フレーム内のN個のサンプルに付した通し番号であり、i=0,1,2,…N−1の整数値をとる。また、jは周波数の値について、値の小さなものから順に付した通し番号であり、iと同様にj=0,1,2,…N−1の整数値をとる。サンプリング周波数が44.1kHz、N=4096の場合、jの値が1つ異なると、周波数が10.8Hz異なることになる。次に、低周波成分変更手段30は、窓4成分(第4窓関数による低周波スペクトルの各成分)の除去を行う(S106)。具体的には、窓4成分に対して、以下の〔数式6〕に従った処理を実行することになる。   In [Expression 5], i is a serial number assigned to N samples in each acoustic frame, and takes an integer value of i = 0, 1, 2,... N−1. Further, j is a serial number assigned in order from the smallest value of the frequency value, and takes an integer value of j = 0, 1, 2,... N−1 similarly to i. When the sampling frequency is 44.1 kHz and N = 4096, if the value of j is different by one, the frequency will be different by 10.8 Hz. Next, the low frequency component changing means 30 removes the window 4 components (the components of the low frequency spectrum by the fourth window function) (S106). Specifically, processing according to the following [Equation 6] is executed for the window 4 component.

上記〔数式5〕に従った処理を実行することにより、各音響フレームの信号成分を周波数に対応した成分であるスペクトルで表現されたフレームスペクトルが得られる。続いて、低周波成分変更手段30が、生成されたフレームスペクトルから3つの所定周波数範囲のスペクトル集合を抽出する。人間の聴覚は、200〜300Hz程度までの低周波成分については、方向性を感知しにくくなっていることが知られている(コロナ社1990年10月30日発行「音響工学講座1.基礎音響工学、日本音響学会編」p247図9・26参照)。したがって、本実施形態では、低周波成分を200Hz程度以下としている。周波数200Hz付近は、上記jが20に相当するので、上記〔数式5〕により算出された実部Al(4,j)、虚部Bl(4,j)、実部Ar(4,j)、虚部Br(4,j)、のうち、j≦20(=M)のものを抽出することになる。   By executing the processing according to the above [Equation 5], a frame spectrum in which the signal component of each acoustic frame is represented by a spectrum corresponding to the frequency is obtained. Subsequently, the low frequency component changing unit 30 extracts a spectrum set of three predetermined frequency ranges from the generated frame spectrum. Human hearing is known to be less sensitive to directionality for low frequency components up to about 200-300 Hz (Corona Corp., issued October 30, 1990, "Sound Engineering Course 1. Basic Acoustics"). Engineering, Acoustical Society of Japan ”p.247 (see FIGS. 9 and 26). Therefore, in this embodiment, the low frequency component is about 200 Hz or less. In the vicinity of a frequency of 200 Hz, j corresponds to 20, so the real part Al (4, j), the imaginary part Bl (4, j), the real part Ar (4, j) calculated by the above [Equation 5], Among the imaginary parts Br (4, j), those with j ≦ 20 (= M) are extracted.

〔数式6〕
j=1〜Mの各成分に対して
Al´(4,j)=0
Bl´(4,j)=0
ステレオの場合、右信号に対応した以下も算出
E(4,j)={Al(4,j)2+Bl(4,j)2+Ar(4,j)2+Br(4,j)21/2
Ar´(4,j)=Ar(4,j)・E(4,j)/{Ar(4,j)2+Br(4,j)21/2
Br´(4,j)=Br(4,j)・E(4,j)/{Ar(4,j)2+Br(4,j)21/2
[Formula 6]
For each component of j = 1 to M, Al ′ (4, j) = 0
Bl ′ (4, j) = 0
In the case of stereo, the following corresponding to the right signal is also calculated. E (4, j) = {Al (4, j) 2 + B1 (4, j) 2 + Ar (4, j) 2 + Br (4, j) 2 } 1 / 2
Ar ′ (4, j) = Ar (4, j) · E (4, j) / {Ar (4, j) 2 + Br (4, j) 2 } 1/2
Br ′ (4, j) = Br (4, j) · E (4, j) / {Ar (4, j) 2 + Br (4, j) 2 } 1/2

次に、周波数逆変換手段40が、上記S106の処理により窓4成分が除去されたフレームスペクトルを周波数逆変換して改変音響フレームを得る処理を行う(S107)。この周波数逆変換は、当然のことながら、周波数変換手段20がS105において実行した手法に対応していることが必要となる。本実施形態では、周波数変換手段20において、フーリエ変換を施しているため、周波数逆変換手段40は、フーリエ逆変換を実行することになる。具体的には、上記〔数式6〕のいずれかにより得られたスペクトルの左チャンネルの実部Al´(4,j)、虚部Bl´(4,j)、右チャンネルの実部Ar´(4,j)、虚部Br´(4,j)を用いて、以下の〔数式7〕に従った処理を行い、Xl´(i)、Xr´(i)を算出する。なお、上記〔数式6〕において改変されていない周波数成分については、以下の〔数式7〕においてはAl´(4,j)、Bl´(4,j)、Ar´(4,j)、Br´(4,j)として、元の値であるAl(4,j)、Bl(4,j)、Ar(4,j)、Br(4,j)を用いる。   Next, the frequency inverse transform means 40 performs a process of obtaining a modified acoustic frame by performing frequency inverse transform on the frame spectrum from which the window four components have been removed by the process of S106 (S107). As a matter of course, this frequency inverse transform needs to correspond to the method executed by the frequency transform unit 20 in S105. In the present embodiment, since the frequency transform unit 20 performs the Fourier transform, the frequency inverse transform unit 40 executes the Fourier inverse transform. Specifically, the real part Al ′ (4, j), the imaginary part Bl ′ (4, j) of the left channel of the spectrum obtained by any one of the above [Equation 6], the real part Ar ′ ( 4, j) and imaginary part Br ′ (4, j) are used to perform processing according to the following [Equation 7] to calculate Xl ′ (i) and Xr ′ (i). For frequency components that are not modified in the above [Equation 6], in the following [Equation 7], Al ′ (4, j), Bl ′ (4, j), Ar ′ (4, j), Br The original values Al (4, j), Bl (4, j), Ar (4, j), and Br (4, j) are used as ′ (4, j).

〔数式7〕
Xl´(i)=1/N・{ΣjAl´(4,j)・cos(2πij/N)−ΣjBl´(4,j)・sin(2πij/N)}+Xlp(i+N/2)
Xr´(i)=1/N・{ΣjAr´(4,j)・cos(2πij/N)−ΣjBr´(4,j)・sin(2πij/N)}+Xrp(i+N/2)
[Formula 7]
Xl' (i) = 1 / N · {Σ j Al' (4, j) · cos (2πij / N) -Σ j Bl' (4, j) · sin (2πij / N)} + Xlp (i + N / 2 )
Xr' (i) = 1 / N · {Σ j Ar' (4, j) · cos (2πij / N) -Σ j Br' (4, j) · sin (2πij / N)} + Xrp (i + N / 2 )

上記〔数式7〕によりAタイプの改変音響フレームの左チャンネルの各サンプルXl´(i)、右チャンネルの各サンプルXr´(i)、が得られることになる。改変音響フレーム出力手段50は、得られた改変音響フレームを順次出力ファイルに出力する。続いて、音響フレーム読込手段10が、音響信号記憶部61に記憶されたステレオ音響信号の左右の各チャンネルから、それぞれ所定数のサンプルをAタイプの音響フレームとして読み込む(S108)。上述のように、Bタイプの音響フレームとAタイプの音響フレームは、2048サンプル重複したものとなっている。したがって、音響フレーム読込手段10は、S108においては、S104でBタイプ音響フレームを読み込んだ位置から2048サンプル分移動させて、音響フレームを読み込むことになる。   By the above [Equation 7], each sample Xl ′ (i) of the left channel and each sample Xr ′ (i) of the right channel of the type A modified acoustic frame are obtained. The modified sound frame output means 50 sequentially outputs the obtained modified sound frames to an output file. Subsequently, the acoustic frame reading means 10 reads a predetermined number of samples as A-type acoustic frames from the left and right channels of the stereo acoustic signal stored in the acoustic signal storage unit 61 (S108). As described above, the B type sound frame and the A type sound frame are overlapped by 2048 samples. Therefore, in S108, the acoustic frame reading means 10 moves the 2048 samples from the position where the B-type acoustic frame was read in S104, and reads the acoustic frame.

続いて、周波数変換手段20は、読み込んだAタイプの音響フレームに対して、周波数変換を行って、その音響フレームのスペクトルであるフレームスペクトルを得る(S109)。具体的には、各音響フレームについて、窓関数W(1,i)、W(2,i)、W(3,i)の3つの窓関数を用いて行う。周波数変換としては、フーリエ変換、ウェーブレット変換その他公知の種々の手法を用いることができるが、上記S105の場合と同様、本実施形態では、フーリエ変換を用いる。   Subsequently, the frequency conversion means 20 performs frequency conversion on the read A-type sound frame to obtain a frame spectrum that is a spectrum of the sound frame (S109). Specifically, each acoustic frame is performed using three window functions of window functions W (1, i), W (2, i), and W (3, i). As the frequency conversion, Fourier transform, wavelet transform, and other various known methods can be used. In the present embodiment, Fourier transform is used as in the case of S105.

S109においてフーリエ変換を行う場合、具体的には、左チャンネル信号Xl(i)、右チャンネル信号Xr(i)(i=0,…,N−1)に対して、3つの窓関数W(1,i)、W(2,i)、W(3,i)を用いて、以下の〔数式8〕に従った処理を行い、左チャンネルに対応する変換データの実部Al(1,j)、Al(2,j)、Al(3,j)、虚部Bl(1,j)、Bl(2,j)、Bl(3,j)、右チャンネルに対応する変換データの実部Ar(1,j)、Ar(2,j)、Ar(3,j)、虚部Br(1,j)、Br(2,j)、Br(3,j)を得る。なお、窓関数W(1,i)、W(2,i)、W(3,i)は、それぞれ音響フレームの前部(先頭)付近、中央付近、後部付近において値が大きくなる関数となっている。   When performing Fourier transform in S109, specifically, three window functions W (1) for the left channel signal Xl (i) and the right channel signal Xr (i) (i = 0,..., N−1). , I), W (2, i), and W (3, i), the processing according to the following [Equation 8] is performed, and the real part Al (1, j) of the conversion data corresponding to the left channel , Al (2, j), Al (3, j), imaginary part Bl (1, j), Bl (2, j), Bl (3, j), real part Ar () of the conversion data corresponding to the right channel 1, j), Ar (2, j), Ar (3, j), imaginary part Br (1, j), Br (2, j), Br (3, j) are obtained. Note that the window functions W (1, i), W (2, i), and W (3, i) are functions whose values increase near the front (front), near the center, and near the rear of the acoustic frame, respectively. ing.

〔数式8〕
Al(1,j)=Σi=0,…,N-1W(1,i)・Xl(i)・cos(2πij/N)
Bl(1,j)=Σi=0,…,N-1W(1,i)・Xl(i)・sin(2πij/N)
Al(2,j)=Σi=0,…,N-1W(2,i)・Xl(i)・cos(2πij/N)
Bl(2,j)=Σi=0,…,N-1W(2,i)・Xl(i)・sin(2πij/N)
Al(3,j)=Σi=0,…,N-1W(3,i)・Xl(i)・cos(2πij/N)
Bl(3,j)=Σi=0,…,N-1W(3,i)・Xl(i)・sin(2πij/N)
Ar(1,j)=Σi=0,…,N-1W(1,i)・Xr(i)・cos(2πij/N)
Br(1,j)=Σi=0,…,N-1W(1,i)・Xr(i)・sin(2πij/N)
Ar(2,j)=Σi=0,…,N-1W(2,i)・Xr(i)・cos(2πij/N)
Br(2,j)=Σi=0,…,N-1W(2,i)・Xr(i)・sin(2πij/N)
Ar(3,j)=Σi=0,…,N-1W(3,i)・Xr(i)・cos(2πij/N)
Br(3,j)=Σi=0,…,N-1W(3,i)・Xr(i)・sin(2πij/N)
[Formula 8]
Al (1, j) = Σi = 0,..., N-1 W (1, i) .Xl (i) .cos (2πij / N)
Bl (1, j) = Σi = 0,..., N-1 W (1, i) · Xl (i) · sin (2πij / N)
Al (2, j) = Σi = 0,..., N-1 W (2, i) · Xl (i) · cos (2πij / N)
Bl (2, j) = Σi = 0,..., N-1 W (2, i) · Xl (i) · sin (2πij / N)
Al (3, j) = Σi = 0,..., N-1 W (3, i) · Xl (i) · cos (2πij / N)
Bl (3, j) = Σi = 0,..., N-1 W (3, i) .Xl (i) .sin (2πij / N)
Ar (1, j) = Σi = 0,..., N-1 W (1, i) .Xr (i) .cos (2πij / N)
Br (1, j) = Σ i = 0,..., N-1 W (1, i) · Xr (i) · sin (2πij / N)
Ar (2, j) = Σi = 0,..., N-1 W (2, i) .Xr (i) .cos (2πij / N)
Br (2, j) = Σi = 0,..., N-1 W (2, i) .Xr (i) .sin (2πij / N)
Ar (3, j) = Σi = 0,..., N-1 W (3, i) · Xr (i) · cos (2πij / N)
Br (3, j) = Σi = 0,..., N-1 W (3, i) · Xr (i) · sin (2πij / N)

上記〔数式5〕と同様に、〔数式8〕において、iは、各音響フレーム内のN個のサンプルに付した通し番号であり、i=0,1,2,…N−1の整数値をとる。また、jは周波数の値について、値の小さなものから順に付した通し番号であり、iと同様にj=0,1,2,…N−1の整数値をとる。サンプリング周波数が44.1kHz、N=4096の場合、jの値が1つ異なると、周波数が10.8Hz異なることになる。   As in [Formula 5], in [Formula 8], i is a serial number assigned to N samples in each acoustic frame, and an integer value of i = 0, 1, 2,... Take. Further, j is a serial number assigned in order from the smallest value of the frequency value, and takes an integer value of j = 0, 1, 2,... N−1 similarly to i. When the sampling frequency is 44.1 kHz and N = 4096, if the value of j is different by one, the frequency will be different by 10.8 Hz.

上記〔数式8〕に従った処理を実行することにより、各音響フレームの信号成分を周波数に対応した成分であるスペクトルで表現されたフレームスペクトルが得られる。続いて、低周波成分変更手段30が、生成されたフレームスペクトルから3つの所定周波数範囲のスペクトル集合を抽出する。上述のように、人間の聴覚は、200〜300Hz程度までの低周波成分については、方向性を感知しにくくなっているため、ここでも、低周波成分を200Hz程度以下としている。周波数200Hz付近は、上記jが20に相当するので、上記〔数式8〕により算出された実部Al(1,j)、Al(2,j)、Al(3,j)、虚部Bl(1,j)、Bl(2,j)、Bl(3,j)、実部Ar(1,j)、Ar(2,j)、Ar(3,j)、虚部Br(1,j)、Br(2,j)、Br(3,j)のうち、j≦20(=M)のものを抽出することになる。   By executing the processing according to the above [Equation 8], a frame spectrum in which the signal component of each acoustic frame is represented by a spectrum corresponding to the frequency is obtained. Subsequently, the low frequency component changing unit 30 extracts a spectrum set of three predetermined frequency ranges from the generated frame spectrum. As described above, the human auditory sense makes it difficult to detect the directionality of the low frequency component up to about 200 to 300 Hz, so the low frequency component is set to about 200 Hz or less here as well. In the vicinity of a frequency of 200 Hz, j corresponds to 20, so the real part Al (1, j), Al (2, j), Al (3, j), and imaginary part Bl ( 1, j), Bl (2, j), Bl (3, j), real part Ar (1, j), Ar (2, j), Ar (3, j), imaginary part Br (1, j) , Br (2, j), Br (3, j), j ≦ 20 (= M) are extracted.

続いて、低周波成分変更手段30は、抽出した左チャンネルの実部Al(1,j)、Al(3,j)、虚部Bl(1,j)、Bl(3,j)、右チャンネルの実部Ar(1,j)、Ar(3,j)、虚部Br(1,j)、Br(3,j)を利用して、以下の〔数式9〕により、合算値E1、合算値E2を算出する。 Subsequently, the low frequency component changing unit 30 extracts the real part Al (1, j), Al (3, j), the imaginary part Bl (1, j), Bl (3, j), and the right channel of the extracted left channel. of the real part Ar (1, j), Ar (3, j), the imaginary part Br (1, j), using the Br (3, j), the following [equation 9], sum E 1, to calculate the total value E 2.

〔数式9〕
1=Σj=1,…,M-3{Al(1,j)2+Bl(1,j)2+Ar(1,j)2+Br(1,j)2
2=Σj=1,…,M-3{Al(3,j)2+Bl(3,j)2+Ar(3,j)2+Br(3,j)2
[Formula 9]
E 1 = Σj = 1,..., M-3 {Al (1, j) 2 + Bl (1, j) 2 + Ar (1, j) 2 + Br (1, j) 2 }
E 2 = Σ j = 1,..., M-3 {Al (3, j) 2 + Bl (3, j) 2 + Ar (3, j) 2 + Br (3, j) 2 }

上記〔数式9〕により算出されたE1は音響フレーム前部付近のスペクトル集合の成分強度の合算値、E2は音響フレーム後部付近のスペクトル集合の成分強度の合算値を示すことになる。続いて、この合算値E1、E2がレベル下限値Lev以上であるかどうかの判定を行う。レベル下限値Levは、音響信号Xl(i)、Xr(i)の振幅最大値が1に正規化されており、M=20に設定されている場合、0.5に設定する。このLev=0.5という値は、経験的にアナログ変換への耐性が維持できるレベルであり、低周波成分が少ない場合は適宜下げることになるが、その場合は、アナログ変換により検出精度も低下することになる。 E 1 calculated by the above [Equation 9] represents the sum of the component intensities of the spectrum set near the front of the acoustic frame, and E 2 represents the sum of the component intensities of the spectrum set near the rear of the acoustic frame. Subsequently, it is determined whether or not the combined values E 1 and E 2 are equal to or higher than the level lower limit value Lev. The level lower limit value Lev is set to 0.5 when the maximum amplitude value of the acoustic signals Xl (i) and Xr (i) is normalized to 1 and M = 20. This value of Lev = 0.5 is a level at which the resistance to analog conversion can be maintained empirically, and when there are few low frequency components, it will be reduced as appropriate. In this case, the detection accuracy also decreases due to analog conversion. Will do.

合算値E1、E2がレベル下限値Lev以上であるかどうかを判断するのは、信号の強度が小さいと、信号を変化させても、その変化を抽出側で検出することができないためである。また、本実施形態では、第1の値(例えば“1”)と第2の値(例えば“0”)をとり得るビット値が“1”の場合、窓3成分(第3窓関数による低周波スペクトルの各成分)に、ビット値が“0”の場合、窓1成分(第1窓関数による低周波スペクトルの各成分)に、埋め込むこととしている。したがって、埋め込むビット値が“1”の場合は、合算値E1が下限値Lev未満であるとき、埋め込むビット値が“0”の場合は、合算値E2がレベル下限値Lev未満であるとき、アクセス情報のビット値に応じた記録をせず、先頭ビットから再度処理するため、読み込み位置を先頭ビットに戻し、モードを区切りモードに設定する(S110)。一方、埋め込むビット値が“1”で合算値E1がレベル下限値Lev以上であるか、埋め込むビット値が“0”で合算値E2がレベル下限値Lev以上であるときには、モードを判断することになる。 The reason why it is determined whether or not the combined values E 1 and E 2 are equal to or greater than the level lower limit value Lev is that if the signal strength is small, even if the signal is changed, the change cannot be detected on the extraction side. is there. In this embodiment, when the bit value that can take the first value (for example, “1”) and the second value (for example, “0”) is “1”, the window three components (low by the third window function). When the bit value is “0” in each component of the frequency spectrum, it is embedded in the window 1 component (each component of the low frequency spectrum by the first window function). Therefore, when the bit value to be embedded is “1”, the sum value E 1 is less than the lower limit value Lev, and when the bit value to be embedded is “0”, the sum value E 2 is less than the level lower limit value Lev. In order to process again from the first bit without recording according to the bit value of the access information, the reading position is returned to the first bit, and the mode is set to the delimiter mode (S110). On the other hand, when the bit value to be embedded is “1” and the total value E 1 is greater than or equal to the level lower limit value Lev, or when the bit value to be embedded is “0” and the total value E 2 is greater than or equal to the level lower limit value Lev, the mode is determined. It will be.

低周波成分変更手段30は、モードが区切りモードである場合、左(L)チャンネル信号において、窓1成分と窓3成分の低周波成分を均等(全て0となる場合も含む)とする処理を行う(S112)。具体的には、以下の〔数式10〕に従って、L側の双方を0に設定する処理を実行することになる。この場合、右(R)チャンネル信号の窓1成分と窓3成分は必ずしも均等ではない。   When the mode is the separation mode, the low-frequency component changing unit 30 performs processing for equalizing the low-frequency components of the window 1 component and the window 3 component (including the case where all are 0) in the left (L) channel signal. It performs (S112). Specifically, according to the following [Equation 10], processing for setting both L side to 0 is executed. In this case, the window 1 component and the window 3 component of the right (R) channel signal are not necessarily equal.

〔数式10〕
j=1〜Mに対して、
Al´(1,j)=0
Bl´(1,j)=0
Al´(3,j)=0
Bl´(3,j)=0
ステレオの場合、右信号に対応した以下も算出
E(1,j)={Al(1,j)2+Bl(1,j)2+Ar(1,j)2+Br(1,j)21/2
Ar´(1,j)=Ar(1,j)・E(1,j)/{Ar(1,j)2+Br(1,j)21/2
Br´(1,j)=Br(1,j)・E(1,j)/{Ar(1,j)2+Br(1,j)21/2
E(3,j)={Al(3,j)2+Bl(3,j)2+Ar(3,j)2+Br(3,j)21/2
Ar´(3,j)=Ar(3,j)・E(3,j)/{Ar(3,j)2+Br(3,j)21/2
Br´(3,j)=Br(3,j)・E(3,j)/{Ar(3,j)2+Br(1,j)21/2
[Formula 10]
For j = 1 to M,
Al ′ (1, j) = 0
Bl ′ (1, j) = 0
Al ′ (3, j) = 0
Bl ′ (3, j) = 0
In the case of stereo, the following corresponding to the right signal is also calculated: E (1, j) = {Al (1, j) 2 + Bl (1, j) 2 + Ar (1, j) 2 + Br (1, j) 2 } 1 / 2
Ar ′ (1, j) = Ar (1, j) · E (1, j) / {Ar (1, j) 2 + Br (1, j) 2 } 1/2
Br ′ (1, j) = Br (1, j) · E (1, j) / {Ar (1, j) 2 + Br (1, j) 2 } 1/2
E (3, j) = {Al (3, j) 2 + B1 (3, j) 2 + Ar (3, j) 2 + Br (3, j) 2 } 1/2
Ar ′ (3, j) = Ar (3, j) · E (3, j) / {Ar (3, j) 2 + Br (3, j) 2 } 1/2
Br ′ (3, j) = Br (3, j) · E (3, j) / {Ar (3, j) 2 + Br (1, j) 2 } 1/2

上記〔数式10〕に従った処理を実行することにより、左チャンネルのフレームスペクトルの低周波数成分は、窓1成分と窓3成分共に“0” で同一となる。この窓1成分と窓3成分が均等のパターンは、付加情報の先頭位置(区切り)を示す情報となる。なお、上記〔数式10〕においては、窓1成分と窓3成分ともにAl´(j)=Bl´(j)=0としているが、抽出側で区切りであることが認識可能とすることを目的としているため、十分小さな値であれば、必ずしも0とする必要はない。また、必ずしも窓1成分と窓3成分において同一である必要はなく、差が小さければ良い。この意味で、ここでは「均等」という言葉を用いている。   By executing the processing according to the above [Equation 10], the low frequency component of the frame spectrum of the left channel is the same when both the window 1 component and the window 3 component are “0”. The pattern in which the window 1 component and the window 3 component are equal is information indicating the head position (separation) of the additional information. In the above [Equation 10], Al '(j) = Bl' (j) = 0 is set for both the window 1 component and the window 3 component. Therefore, if the value is sufficiently small, it is not always necessary to set it to zero. Further, the window 1 component and the window 3 component do not necessarily have to be the same, and it is sufficient that the difference is small. In this sense, the term “equal” is used here.

一方、低周波成分変更手段30は、モードがビットモード又は継続識別モードである場合、付加情報記憶部62から抽出した付加情報のビット配列のビット値に応じて、左チャンネル信号の窓1成分と窓3成分のスペクトル強度の割合を窓1成分が優位か、窓3成分が優位かのいずれかの状態に変更する処理を行う(S111)。ここで、「優位」とは、一方の窓成分のスペクトル集合におけるスペクトル強度が、他方の窓成分のスペクトル集合におけるスペクトル強度よりも大きいことを示す。そこで、S111においては、第1の値と第2の値をとり得るビット値に応じて以下の〔数式11〕、〔数式12〕のいずれかに従った処理を実行することにより、窓1成分のスペクトル強度と、窓3成分のスペクトル強度の大小関係を変更し、窓1成分が優位か、窓3成分が優位かのいずれかに変更する処理を行う。例えば、第1の値を1、第2の値を0とした場合、ビット値が1のとき、窓1成分に対して、以下の〔数式11〕に従った処理を実行する。   On the other hand, when the mode is the bit mode or the continuous identification mode, the low frequency component changing means 30 determines the window 1 component of the left channel signal and the bit value of the bit array of the additional information extracted from the additional information storage unit 62. Processing for changing the ratio of the spectral intensity of the window 3 component to a state where the window 1 component is dominant or the window 3 component is dominant (S111). Here, “dominant” indicates that the spectral intensity in the spectrum set of one window component is larger than the spectral intensity in the spectrum set of the other window component. Therefore, in S111, the window 1 component is obtained by executing the processing according to any of the following [Formula 11] and [Formula 12] according to the bit values that can take the first value and the second value. The magnitude relationship between the spectral intensity of the window 3 and the spectral intensity of the window 3 component is changed, and processing is performed to change the window 1 component to dominant or the window 3 component to dominant. For example, when the first value is 1 and the second value is 0, when the bit value is 1, the processing according to the following [Equation 11] is performed on the window 1 component.

〔数式11〕
j=1〜Mに対して
Al´(1,j)=0
Bl´(1,j)=0
ステレオの場合、右信号に対応した以下も算出
E(1,j)={Al(1,j)2+Bl(1,j)2+Ar(1,j)2+Br(1,j)21/2
Ar´(1,j)=Ar(1,j)・E(1,j)/{Ar(1,j)2+Br(1,j)21/2
Br´(1,j)=Br(1,j)・E(1,j)/{Ar(1,j)2+Br(1,j)21/2
[Formula 11]
For j = 1 to M, Al ′ (1, j) = 0
Bl ′ (1, j) = 0
In the case of stereo, the following corresponding to the right signal is also calculated: E (1, j) = {Al (1, j) 2 + Bl (1, j) 2 + Ar (1, j) 2 + Br (1, j) 2 } 1 / 2
Ar ′ (1, j) = Ar (1, j) · E (1, j) / {Ar (1, j) 2 + Br (1, j) 2 } 1/2
Br ′ (1, j) = Br (1, j) · E (1, j) / {Ar (1, j) 2 + Br (1, j) 2 } 1/2

なお、この場合、窓3成分に対しては、以下の〔数式12〕に従った処理を実行する。   In this case, the processing according to the following [Equation 12] is executed for the three components of the window.

〔数式12〕
j=M−2、M−1、Mの3成分に対して
Al´(3,j)=0
Bl´(3,j)=0
ステレオの場合、右信号に対応した以下も算出
E(3,j)={Al(3,j)2+Bl(3,j)2+Ar(3,j)2+Br(3,j)21/2
Ar´(3,j)=Ar(3,j)・E(3,j)/{Ar(3,j)2+Br(3,j)21/2
Br´(3,j)=Br(3,j)・E(3,j)/{Ar(3,j)2+Br(3,j)21/2
更にステレオの場合、残存成分を強調させるため、次のように右チャンネル成分を左チャンネル成分に移動させる処理を行う。j=1〜M−3に対して
Ar´(3,j)=0
Br´(3,j)=0
Al´(3,j)=Al(3,j)・E(3,j)/{Al(3,j)2+Bl(3,j)21/2
Bl´(3,j)=Bl(3,j)・E(3,j)/{Al(3,j)2+Bl(3,j)21/2
[Formula 12]
For three components j = M−2, M−1 and M, Al ′ (3, j) = 0
Bl ′ (3, j) = 0
In the case of stereo, the following corresponding to the right signal is also calculated. E (3, j) = {Al (3, j) 2 + Bl (3, j) 2 + Ar (3, j) 2 + Br (3, j) 2 } 1 / 2
Ar ′ (3, j) = Ar (3, j) · E (3, j) / {Ar (3, j) 2 + Br (3, j) 2 } 1/2
Br ′ (3, j) = Br (3, j) · E (3, j) / {Ar (3, j) 2 + Br (3, j) 2 } 1/2
Further, in the case of stereo, processing for moving the right channel component to the left channel component is performed as follows in order to emphasize the remaining component. For j = 1 to M-3, Ar ′ (3, j) = 0
Br ′ (3, j) = 0
Al ′ (3, j) = Al (3, j) · E (3, j) / {Al (3, j) 2 + Bl (3, j) 2 } 1/2
Bl ′ (3, j) = B1 (3, j) · E (3, j) / {Al (3, j) 2 + Bl (3, j) 2 } 1/2

上記〔数式11〕〔数式12〕による処理を行った結果、窓3成分のj=M−2、M−1、Mにおいては、値が“0”となるが、他は所定値以上の信号成分が存在することになる。したがって、この場合、窓3成分が優位な状態にスペクトル強度の割合が変更されたことになる。続いて、ビット値が0のとき、窓3成分に対して、以下の〔数式13〕に従った処理を実行する。   As a result of performing the processing according to the above [Formula 11] and [Formula 12], a value of “0” is obtained when j = M−2, M−1, and M of the three components of the window, but signals other than the predetermined value are obtained. Ingredients will be present. Therefore, in this case, the ratio of the spectral intensity is changed so that the window 3 component is dominant. Subsequently, when the bit value is 0, the processing according to the following [Equation 13] is executed for the three window components.

〔数式13〕
j=1〜Mの各成分に対して
Al´(3,j)=0
Bl´(3,j)=0
ステレオの場合、右信号に対応した以下も算出
E(3,j)={Al(3,j)2+Bl(3,j)2+Ar(3,j)2+Br(3,j)21/2
Ar´(3,j)=Ar(3,j)・E(3,j)/{Ar(3,j)2+Br(3,j)21/2
Br´(3,j)=Br(3,j)・E(3,j)/{Ar(3,j)2+Br(3,j)21/2
[Formula 13]
For each component of j = 1 to M, Al ′ (3, j) = 0
Bl ′ (3, j) = 0
In the case of stereo, the following corresponding to the right signal is also calculated. E (3, j) = {Al (3, j) 2 + Bl (3, j) 2 + Ar (3, j) 2 + Br (3, j) 2 } 1 / 2
Ar ′ (3, j) = Ar (3, j) · E (3, j) / {Ar (3, j) 2 + Br (3, j) 2 } 1/2
Br ′ (3, j) = Br (3, j) · E (3, j) / {Ar (3, j) 2 + Br (3, j) 2 } 1/2

なお、この場合、窓1成分に対しては、以下の〔数式14〕に従った処理を実行する。   In this case, the processing according to the following [Equation 14] is executed for the window 1 component.

〔数式14〕
j=M−2、M−1、Mの3成分に対して
Al´(1,j)=0
Bl´(1,j)=0
ステレオの場合、右信号に対応した以下も算出
E(1,j)={Al(1,j)2+Bl(1,j)2+Ar(1,j)2+Br(1,j)21/2
Ar´(1,j)=Ar(1,j)・E(1,j)/{Ar(1,j)2+Br(1,j)21/2
Br´(1,j)=Br(1,j)・E(1,j)/{Ar(1,j)2+Br(1,j)21/2
更にステレオの場合、残存成分を強調させるため、次のように右チャンネル成分を左チャンネル成分に移動させる処理を行う。j=1〜M−3に対して
Ar´(1,j)=0
Br´(1,j)=0
Al´(1,j)=Al(1,j)・E(1,j)/{Al(1,j)2+Bl(1,j)21/2
Bl´(1,j)=Bl(1,j)・E(1,j)/{Al(1,j)2+Bl(1,j)21/2
[Formula 14]
For three components j = M−2, M−1 and M, Al ′ (1, j) = 0
Bl ′ (1, j) = 0
In the case of stereo, the following corresponding to the right signal is also calculated: E (1, j) = {Al (1, j) 2 + Bl (1, j) 2 + Ar (1, j) 2 + Br (1, j) 2 } 1 / 2
Ar ′ (1, j) = Ar (1, j) · E (1, j) / {Ar (1, j) 2 + Br (1, j) 2 } 1/2
Br ′ (1, j) = Br (1, j) · E (1, j) / {Ar (1, j) 2 + Br (1, j) 2 } 1/2
Further, in the case of stereo, processing for moving the right channel component to the left channel component is performed as follows in order to emphasize the remaining component. For j = 1 to M-3, Ar ′ (1, j) = 0
Br ′ (1, j) = 0
Al ′ (1, j) = Al (1, j) · E (1, j) / {Al (1, j) 2 + Bl (1, j) 2 } 1/2
Bl ′ (1, j) = Bl (1, j) · E (1, j) / {Al (1, j) 2 + Bl (1, j) 2 } 1/2

上記〔数式13〕〔数式14〕による処理を行った結果、窓1成分のj=M−2、M−1、Mにおいては、値が“0”となるが、他は所定値以上の信号成分が存在することになる。したがって、この場合、窓1成分が優位な状態にスペクトル強度の割合が変更されたことになる。   As a result of performing the processing according to the above [Equation 13] and [Equation 14], a value of “0” is obtained when j = M−2, M−1, and M of one component of the window, but signals other than the predetermined value are obtained in other cases. Ingredients will be present. Therefore, in this case, the ratio of the spectrum intensity is changed so that the window 1 component is dominant.

上記〔数式11〕および〔数式12〕、又は〔数式13〕および〔数式14〕のいずれかに従った処理を実行することにより、付加情報のビット配列の各ビット値に応じて、左チャンネル信号の窓1成分が優位か、窓3成分が優位かのどちらかのパターンに変更されることになる。なお、S111においては、継続識別モードの場合は、新規であるときは〔数式11〕に従って低周波成分の窓1成分、窓3成分間の分布を窓3成分が優位な状態に変更し、継続であるときは〔数式12〕に従って低周波成分の窓1成分、窓3成分間の分布を窓1成分が優位な状態に変更することになる。   By executing the processing according to any one of [Formula 11] and [Formula 12], or [Formula 13] and [Formula 14], the left channel signal is determined according to each bit value of the bit array of the additional information. Thus, the pattern is changed so that the window 1 component is dominant or the window 3 component is dominant. In S111, in the case of the continuous identification mode, if it is new, the distribution between the low frequency component window 1 component and the window 3 component is changed to a state in which the window 3 component predominates according to [Equation 11], and continues. In this case, according to [Equation 12], the distribution of the low frequency component between the window 1 component and the window 3 component is changed to a state in which the window 1 component is dominant.

この場合、高周波帯と低周波数帯の間には、必ず信号成分が“0”の部分が存在し、これにより、高周波帯と低周波数帯の信号成分が混在することを防いでいる。結局、低周波成分変更手段30は、区切りモードの場合に〔数式10〕に基づく処理をS112において行い、ビットモード又は継続識別モードの場合に〔数式11〕〔数式12〕又は〔数式13〕〔数式14〕に基づく処理をS111において行うことになる。   In this case, there is always a portion where the signal component is “0” between the high frequency band and the low frequency band, thereby preventing the signal components of the high frequency band and the low frequency band from being mixed. Eventually, the low frequency component changing means 30 performs processing based on [Equation 10] in the case of the separation mode in S112, and [Equation 11], [Equation 12] or [Equation 13] in the bit mode or the continuous identification mode. The processing based on Equation 14] is performed in S111.

上記S111、S112いずれの場合であっても、次に、低周波成分変更手段30は、窓2成分(第2窓関数による低周波スペクトルの各成分)の削除を行う(S113)。具体的には、窓2成分に対して、以下の〔数式15〕に従った処理を実行することになる。   In either case of S111 or S112, next, the low frequency component changing means 30 deletes the window two components (the components of the low frequency spectrum by the second window function) (S113). Specifically, the processing according to the following [Formula 15] is executed for the two components of the window.

〔数式15〕
j=1〜Mの各成分に対して
Al´(2,j)=0
Bl´(2,j)=0
ステレオの場合、右信号に対応した以下も算出
E(2,j)={Al(2,j)2+Bl(2,j)2+Ar(2,j)2+Br(2,j)21/2
Ar´(2,j)=Ar(2,j)・E(2,j)/{Ar(2,j)2+Br(2,j)21/2
Br´(2,j)=Br(2,j)・E(2,j)/{Ar(2,j)2+Br(2,j)21/2
[Formula 15]
For each component of j = 1 to M, Al ′ (2, j) = 0
Bl ′ (2, j) = 0
In the case of stereo, the following corresponding to the right signal is also calculated: E (2, j) = {Al (2, j) 2 + Bl (2, j) 2 + Ar (2, j) 2 + Br (2, j) 2 } 1 / 2
Ar ′ (2, j) = Ar (2, j) · E (2, j) / {Ar (2, j) 2 + Br (2, j) 2 } 1/2
Br ′ (2, j) = Br (2, j) · E (2, j) / {Ar (2, j) 2 + Br (2, j) 2 } 1/2

次に、周波数逆変換手段40が、上記S111〜S113の処理により各窓成分のスペクトル集合間の割合が変更されたフレームスペクトルを周波数逆変換して改変音響フレームを得る処理を行う(S114)。この周波数逆変換は、当然のことながら、周波数変換手段20がS105において実行した手法に対応していることが必要となる。本実施形態では、周波数変換手段20において、フーリエ逆変換を施しているため、周波数逆変換手段40は、フーリエ逆変換を実行することになる。具体的には、上記〔数式10〕〜〔数式15〕のいずれかにより得られたスペクトルの左チャンネルの実部Al´(1,j)等、虚部Bl´(1,j)等、右チャンネルの実部Ar´(1,j)等、虚部Br´(1,j)等を用いて、以下の〔数式16〕に従った処理を行い、Xl´(i)、Xr´(i)を算出する。なお、上記〔数式10〕〜〔数式15〕において改変されていない周波数成分については、Al´(1,j)等として、元の周波数成分であるAl(1,j)等を用いる。   Next, the frequency inverse transform means 40 performs a process of obtaining the modified acoustic frame by performing the frequency inverse transform on the frame spectrum in which the ratio between the spectrum sets of each window component is changed by the processes of S111 to S113 (S114). As a matter of course, this frequency inverse transform needs to correspond to the method executed by the frequency transform unit 20 in S105. In the present embodiment, since the frequency transform unit 20 performs the inverse Fourier transform, the frequency inverse transform unit 40 performs the inverse Fourier transform. Specifically, the real part Al ′ (1, j), etc., the imaginary part Bl ′ (1, j), etc., of the left channel of the spectrum obtained by any of the above [Formula 10] to [Formula 15], right Using the real part Ar ′ (1, j) of the channel, the imaginary part Br ′ (1, j), etc., processing according to the following [Equation 16] is performed, and Xl ′ (i), Xr ′ (i ) Is calculated. For the frequency components not modified in the above [Equation 10] to [Equation 15], Al (1, j) or the like that is the original frequency component is used as Al ′ (1, j) or the like.

〔数式16〕
Xl´(i)=1/N・{ΣjAl´(1,j)・cos(2πij/N)−ΣjBl´(1,j)・sin(2πij/N)}+1/N・{ΣjAl´(2,j)・cos(2πij/N)−ΣjBl´(2,j)・sin(2πij/N)}+1/N・{ΣjAl´(3,j)・cos(2πij/N)−ΣjBl´(3,j)・sin(2πij/N)}+Xlp(i+N/2)
Xr´(i)=1/N・{ΣjAr´(1,j)・cos(2πij/N)−ΣjBr´(1,j)・sin(2πij/N)}+1/N・{ΣjAr´(2,j)・cos(2πij/N)−ΣjBr´(2,j)・sin(2πij/N)}+1/N・{ΣjAr´(3,j)・cos(2πij/N)−ΣjBr´(3,j)・sin(2πij/N)}+Xrp(i+N/2)
[Formula 16]
Xl' (i) = 1 / N · {Σ j Al' (1, j) · cos (2πij / N) -Σ j Bl' (1, j) · sin (2πij / N)} + 1 / N · { Σ j Al ′ (2, j) · cos (2πij / N) −Σ j Bl ′ (2, j) · sin (2πij / N)} + 1 / N · {Σ j Al ′ (3, j) · cos (2πij / N) −Σ j Bl ′ (3, j) · sin (2πij / N)} + Xlp (i + N / 2)
Xr' (i) = 1 / N · {Σ j Ar' (1, j) · cos (2πij / N) -Σ j Br' (1, j) · sin (2πij / N)} + 1 / N · { Σ j Ar' (2, j) · cos (2πij / N) -Σ j Br' (2, j) · sin (2πij / N)} + 1 / N · {Σ j Ar' (3, j) · cos (2πij / N) -Σ j Br' (3, j) · sin (2πij / N)} + Xrp (i + N / 2)

上記〔数式16〕においては、式が繁雑になるのを防ぐため、Σj=0,,N-1をΣjとして示している。上記〔数式16〕における第1式の“+Xlp(i+N/2)”、第2式の“+Xrp(i+N/2)”の項は、直前に改変された改変音響フレームのデータXlp(i)、Xrp(i)が存在する場合に、時間軸上N/2サンプル分重複することを考慮して加算するためのものである。上記〔数式16〕によりAタイプの改変音響フレームの左チャンネルの各サンプルXl´(i)、右チャンネルの各サンプルXr´(i)、が得られることになる。改変音響フレーム出力手段50は、得られた改変音響フレームを順次出力ファイルに出力する。こうして1つの音響フレームに対する処理を終えたら、モードの判定を行い(S116)、モードが区切りモードである場合は、モードを継続識別モードに設定した後(S117)、音響フレーム読込手段10が、Bタイプ音響フレームを読み込む(S104)。一方、モードがビットモード又は継続識別モードである場合は、モードをビットモードに設定した後(S118)、低周波成分変更手段30がアクセス情報のビット配列中の次のビットを読み込む(S103)。以上のような処理を音響信号の両チャンネルの全サンプルに渡って実行していく。すなわち、所定数のサンプルを音響フレームとして読み込み、音響信号から読み込むべき音響フレームがなくなったら(S104)、処理を終了する。なお、S101において読み込んだ1ワードのデータの各ビットに対応する処理を終えた場合、S103からS101に戻り、アクセス情報の次のワードを読み込み処理をすることになる。アクセス情報の全ワードに対して処理が終了した場合は、アクセス情報の先頭ワードに戻って処理を行う。この結果、全ての音響フレームに対して処理を行った全ての改変音響フレームが出力ファイルに記録されて、改変音響信号として得られる。得られた改変音響信号は、記憶手段60内の改変音響信号記憶部63に出力され、記憶される。 In the above [Expression 16], Σ j = 0, ... , N−1 is shown as Σ j in order to prevent the expression from becoming complicated. The terms “+ Xlp (i + N / 2)” in the first equation and “+ Xrp (i + N / 2)” in the second equation in the above [Equation 16] are the data Xlp (i) of the modified acoustic frame modified immediately before, When Xrp (i) exists, the addition is performed in consideration of the overlap of N / 2 samples on the time axis. By the above [Equation 16], each sample Xl ′ (i) of the left channel and each sample Xr ′ (i) of the right channel of the A type modified acoustic frame are obtained. The modified sound frame output means 50 sequentially outputs the obtained modified sound frames to an output file. When the processing for one acoustic frame is completed in this way, the mode is determined (S116). If the mode is the separation mode, the mode is set to the continuous identification mode (S117), and then the acoustic frame reading means 10 A type acoustic frame is read (S104). On the other hand, when the mode is the bit mode or the continuous identification mode, after setting the mode to the bit mode (S118), the low frequency component changing means 30 reads the next bit in the bit array of the access information (S103). The above processing is executed over all samples of both channels of the acoustic signal. That is, a predetermined number of samples are read as sound frames, and when there are no more sound frames to be read from the sound signal (S104), the process ends. When the processing corresponding to each bit of 1-word data read in S101 is completed, the process returns from S103 to S101, and the next word of the access information is read. When the processing is completed for all the words of the access information, the process returns to the first word of the access information. As a result, all modified acoustic frames that have been processed for all acoustic frames are recorded in the output file and obtained as modified acoustic signals. The obtained modified acoustic signal is output to and stored in the modified acoustic signal storage unit 63 in the storage unit 60.

以上の処理による左チャンネル信号の変化の様子を図10を用いて説明する。図10において、図面左右方向は、時間軸であり、サンプル数に比例する。また、図中多数存在する矩形は、改変音響フレームの窓1成分、窓3成分を示している。窓成分を示す矩形の横幅はサンプル数、縦幅は強度を示しているが、図10においては、横幅、縦幅とも正確に示したものではなく、窓1成分に対応する先頭部分に強い信号成分があるか、窓3成分に対応する後部部分に強い信号成分があるかということを示すものである。図10(a)は、上記〔数式9〕により算出された合算値E1、E2がレベル下限値Lev未満となる音響フレームが存在しない場合、すなわち、付加情報を埋め込むには、良好な信号である場合を示している。図10(b)は、上記〔数式9〕により算出された合算値E1、E2がレベル下限値Lev未満となる音響フレームが存在する場合、すなわち、付加情報を埋め込むには、良好でない信号である場合を示している。 A change in the left channel signal by the above processing will be described with reference to FIG. In FIG. 10, the horizontal direction in the drawing is the time axis and is proportional to the number of samples. In addition, a large number of rectangles in the figure indicate the window 1 component and the window 3 component of the modified acoustic frame. The horizontal width of the rectangle indicating the window component indicates the number of samples, and the vertical width indicates the intensity. However, in FIG. 10, neither the horizontal width nor the vertical width is accurately shown, and a strong signal is applied to the head portion corresponding to the window 1 component. It indicates whether there is a component and whether there is a strong signal component in the rear portion corresponding to the window 3 component. FIG. 10A shows a good signal when there is no acoustic frame in which the total values E 1 and E 2 calculated by the above [Equation 9] are less than the level lower limit value Lev, that is, for embedding additional information. The case is shown. FIG. 10B shows a signal that is not good for embedding additional information when there is an acoustic frame in which the combined values E 1 and E 2 calculated by the above [Equation 9] are less than the level lower limit value Lev. The case is shown.

例えば、付加情報として、1ワード目が「11011100」、2ワード目が「11000001」の2ワードのビット配列を埋め込むとする。まず、各ワードの先頭には、区切りを示す情報として、窓1成分、窓3成分が均等な状態に設定されることになる。これは、S102により区切りモードに設定され、S112において、上記〔数式10〕に従った処理を実行した結果得られる。続いて、付加情報の各ビットに対応した処理を行う前に、新規であるか継続であるかを示す情報を記録することになる。   For example, it is assumed that as additional information, a 2-word bit array in which the first word is “11011100” and the second word is “11000001” is embedded. First, at the beginning of each word, the window 1 component and the window 3 component are set to be equal as information indicating a break. This is obtained as a result of executing the processing according to the above [Equation 10] in S112, which is set to the separation mode in S102. Subsequently, before the processing corresponding to each bit of the additional information is performed, information indicating whether the information is new or continued is recorded.

本実施形態では、レベル下限値Lev未満となる音響フレームが存在した場合であっても、その時点で処理したビットは有効とし、そこから継続して行うため、そのビットが新規であるか継続であるかの情報を記録しておく必要がある。そこで、区切りを示す情報を記録した後には、新規であるか継続であるかを示す情報を記録する。具体的には、区切りモードの状態で、モード判断を行うことにより(S116)、継続識別モードに設定され(S117)、付加情報のビットを読み込むことなく、Bタイプ音響フレームの抽出に戻る(S104)。そして、周波数変換後(S109)、新規である場合には、〔数式11〕に従った処理により、低周波成分である窓1成分、窓3成分間の分布を窓3成分が優位な状態に変更する(S111)。   In the present embodiment, even if there is an acoustic frame that is less than the level lower limit value Lev, since the bit processed at that time is valid and is continuously performed from there, whether the bit is new or continued. It is necessary to record some information. Therefore, after recording the information indicating the break, information indicating whether it is new or continued is recorded. Specifically, the mode determination is performed in the separation mode state (S116), the continuous identification mode is set (S117), and the process returns to the extraction of the B type sound frame without reading the bits of the additional information (S104). ). Then, after frequency conversion (S109), if new, the processing according to [Equation 11] makes the distribution between the window 1 component and the window 3 component, which are low frequency components, the window 3 component dominant. Change (S111).

このようにして、新規か継続かを示す情報を記録した後は、継続識別モードの状態でモード判断を行うため(S116)、ビットモードに設定され(S118)、レジスタから先頭のビットを読み込み(S103)、Bタイプ音響フレームの抽出を行う(S104)。図10(a)の例では、レベル下限値Lev未満となる音響フレームが存在しないため、1ワードが連続してS111により処理されることになる。これは、S103からS118を経由するループが8回(1ワード=1バイトの場合)連続して繰り返され、その間レベル下限値Lev未満であるとしてS110およびS112、S117を経由することがなかったことを示している。図10に示すように、付加情報のビット値が1の場合は、窓3成分に低周波成分が存在し、付加情報のビット値が0の場合は、窓1成分に低周波成分が存在する。上記〔数式11〕〜〔数式14〕からもわかるように、この場合は他方の窓成分の低周波成分は0となる。   After recording the information indicating whether it is new or continued in this way, the mode is determined in the continuous identification mode (S116), so the bit mode is set (S118) and the first bit is read from the register ( S103), the B type sound frame is extracted (S104). In the example of FIG. 10A, since there is no acoustic frame that is less than the level lower limit value Lev, one word is continuously processed in S111. This is because the loop from S103 to S118 was repeated continuously 8 times (in the case of 1 word = 1 byte), and during that time, it was not passed through S110, S112, and S117 because it was less than the level lower limit value Lev. Is shown. As shown in FIG. 10, when the bit value of the additional information is 1, a low frequency component exists in the window 3 component, and when the bit value of the additional information is 0, the low frequency component exists in the window 1 component. . As can be seen from the above [Formula 11] to [Formula 14], in this case, the low frequency component of the other window component is zero.

図10(b)の例では、上記〔数式9〕に従った処理の結果、レベル下限値Lev未満となる音響フレームが存在するので、この場合S110およびS112を経由して、上記〔数式10〕に従った処理を実行した結果、窓1成分と窓3成分が均等な状態に設定される。この場合、S110において、区切りモードに設定されるため、S117を経由して、新規か継続かを示す情報を記録することになる。図10(b)の例では、1ワード目の「11011100」を埋め込む場合に、最初は第1ビット目の「1」の1ビット処理した時点でレベル下限値Lev未満の音響フレームが出現しているため、区切りを示す情報を記録した後、継続を示す情報を記録し、継続して第2ビット目の「1」から処理をしている。そして、第2ビット目から第5ビット目の「1011」を処理した時点でレベル下限値Lev未満の音響フレームが出現しているため、区切りを示す情報を記録した後、継続を示す情報を記録し、継続して第6ビット目の「1」から処理をしている。   In the example of FIG. 10B, as a result of the processing according to the above [Equation 9], there is an acoustic frame that is less than the level lower limit value Lev. In this case, the above [Equation 10] passes through S110 and S112. As a result of executing the processing according to the above, the window 1 component and the window 3 component are set to be equal. In this case, since the separation mode is set in S110, information indicating whether it is new or continued is recorded via S117. In the example of FIG. 10B, when embedding “11011100” of the first word, an acoustic frame less than the level lower limit value Lev appears when 1 bit of “1” of the first bit is first processed. Therefore, after the information indicating the break is recorded, the information indicating the continuation is recorded, and the processing is continued from “1” of the second bit. Then, since “1011” from the second bit to the fifth bit has been processed, an acoustic frame less than the level lower limit value Lev has appeared, so after recording the information indicating the break, the information indicating the continuation is recorded. Then, processing is continued from “1” of the sixth bit.

なお、図10の例では、付加情報の1ワードを1バイトとした場合について説明したが、新規か継続かを示す情報を記録するため、付加情報の1ワードを任意のビット数単位で記録することが可能である。   In the example of FIG. 10, the case where one word of the additional information is 1 byte has been described. However, in order to record information indicating whether it is new or continued, one word of the additional information is recorded in an arbitrary number of bits. It is possible.

上記のようにして得られた改変音響信号の左チャンネルのうち、付加情報が埋め込まれている部分については、低周波成分は、窓1成分と窓3成分が均等となっているか、あるいは窓1成分が優位か、窓3成分が優位かの3通りの分布しかないことになる。しかし、高周波成分については、元の音響信号のままであるので、制作者の設定に基づいた種々な分布になる。また、上記の例で示したように、ステレオ音響信号を利用した場合には、左チャンネルにおいて変化させられた低周波成分は、上記〔数式10〕〜〔数式15〕の処理からも明らかなように、必ず右チャンネルの低周波成分に付加されている。したがって、右チャンネルが左チャンネルにおいて削除された成分を補っているため、両チャンネル全体として見ると、信号の劣化がない。人間の聴覚は、高周波成分については、方向性を感知し易いが、低周波成分については、方向性を感知しにくくなっている。したがって、低周波成分が一方に偏っていても、聴いている人にとっては、通常の音響信号と変わりなく聴こえることになる。   Of the left channel of the modified acoustic signal obtained as described above, for the portion where the additional information is embedded, the low frequency component is equal to the window 1 component and the window 3 component, or the window 1 There are only three distributions: the component predominates or the window three component predominates. However, since the high frequency component remains the original acoustic signal, it has various distributions based on the setting of the producer. Further, as shown in the above example, when a stereo sound signal is used, the low frequency component changed in the left channel is apparent from the processing of [Expression 10] to [Expression 15]. In addition, it is always added to the low frequency component of the right channel. Therefore, since the right channel supplements the deleted component in the left channel, there is no signal degradation when viewed as both channels as a whole. Human auditory senses directionality with respect to high-frequency components, but it is difficult to sense directionality with respect to low-frequency components. Therefore, even if the low frequency component is biased to one side, it will be heard as if it is a normal acoustic signal for the listener.

したがって、上記のようにして付加情報が埋め込まれた音響信号を音響信号再生装置400において再生して、スピーカから音として発した音は、通常の音響信号と変わりなく聴こえるが、その音を取得したネットワーク接続装置300においては、付加情報の抽出が可能となる。   Therefore, the sound signal in which the additional information is embedded as described above is reproduced by the sound signal reproduction device 400, and the sound emitted as the sound from the speaker can be heard as the normal sound signal, but the sound is acquired. In the network connection device 300, additional information can be extracted.

(5.埋込情報抽出部321の詳細)
次に、ネットワーク接続装置300、アドレス情報抽出サーバ320aが有する埋込情報抽出部321の詳細について説明する。図11は、埋込情報抽出部321の詳細を示す図である。図11において、110は基準フレーム獲得手段、120は位相変更フレーム設定手段、130は周波数変換手段、140は符号判定パラメータ算出手段、150は符号出力手段、160は付加情報抽出手段、170は音響フレーム保持手段である。
(5. Details of embedded information extraction unit 321)
Next, details of the embedded information extraction unit 321 included in the network connection device 300 and the address information extraction server 320a will be described. FIG. 11 is a diagram illustrating details of the embedded information extraction unit 321. In FIG. 11, 110 is a reference frame acquisition means, 120 is a phase change frame setting means, 130 is a frequency conversion means, 140 is a code determination parameter calculation means, 150 is a code output means, 160 is an additional information extraction means, and 170 is an acoustic frame. Holding means.

基準フレーム獲得手段110は、入力されたデジタルのモノラル音響信号(あるいはステレオ音響信号の1チャンネル)から所定数のサンプルで構成される音響フレームを基準フレームとして読み込む機能を有している。位相変更フレーム設定手段120は、基準フレームと所定サンプルずつ移動させることにより位相を変更した音響フレームを位相変更フレームとして設定する機能を有している。周波数変換手段130は、図7に示した周波数変換手段20と同様の機能を有している。符号判定パラメータ算出手段140は、生成されたフレームスペクトルから所定の周波数以下に相当する各低周波強度データを抽出し、窓1成分、窓3成分ごとに各低周波強度データの合算値EC1、EC2を以下の〔数式17〕に基づいて算出し、この合算値EC1、EC2を符号判定パラメータとし、この符号判定パラメータEC1、EC2の比率に基づいて、所定の状態であると判断する機能を有している。以下の〔数式17〕は上記〔数式9〕において右チャンネル成分を削除したもので、抽出時には右チャンネル成分を参照しないためである。 The reference frame acquisition unit 110 has a function of reading an audio frame composed of a predetermined number of samples as a reference frame from the input digital monaural audio signal (or one channel of a stereo audio signal). The phase change frame setting means 120 has a function of setting, as a phase change frame, an acoustic frame whose phase has been changed by moving the reference frame and a predetermined sample at a time. The frequency conversion means 130 has the same function as the frequency conversion means 20 shown in FIG. The code determination parameter calculation means 140 extracts each low frequency intensity data corresponding to a predetermined frequency or less from the generated frame spectrum, and adds a value E C1 of each low frequency intensity data for each of the window 1 component and the window 3 component. E C2 is calculated based on the following [Equation 17], and the total value E C1 and E C2 are used as code determination parameters. Based on the ratio of the code determination parameters E C1 and E C2 , the predetermined state is obtained. Has the function to judge. The following [Equation 17] is obtained by deleting the right channel component in the above [Equation 9], and does not refer to the right channel component at the time of extraction.

〔数式17〕
C1=Σj=1,…,M-3{Al(1,j)2+Bl(1,j)2
C2=Σj=1,…,M-3{Al(3,j)2+Bl(3,j)2
[Formula 17]
E C1 = Σ j = 1,..., M-3 {Al (1, j) 2 + Bl (1, j) 2 }
E C2 = Σ j = 1,..., M-3 {Al (3, j) 2 + Bl (3, j) 2 }

符号出力手段150は、1つの基準フレームに対応する音響フレーム(基準フレームおよび位相変更フレーム)の中から最適な位相であると判断されるものを判断し、その音響フレームの状態に対応する符号を出力する機能を有している。付加情報抽出手段160は、符号出力手段150により出力された符号の集合である3値配列を、所定の規則により変換して意味のある付加情報として抽出する機能を有している。音響フレーム保持手段170は、連続する2個の基準フレームを保持可能なバッファメモリである。   The code output means 150 determines what is determined to be the optimum phase from the acoustic frames (reference frame and phase change frame) corresponding to one reference frame, and selects a code corresponding to the state of the acoustic frame. It has a function to output. The additional information extraction unit 160 has a function of converting the ternary array, which is a set of codes output by the code output unit 150, according to a predetermined rule and extracting it as meaningful additional information. The acoustic frame holding means 170 is a buffer memory that can hold two consecutive reference frames.

次に、図11に示した埋込情報抽出部321の処理動作について図12のフローチャートに従って説明する。まず、本装置では、平均符号レベルHL1、HL2、位相判定テーブルが初期化される。これらについて説明する。平均符号レベルHL1、HL2は、ビット値に対応する2値が埋め込まれていたと判断される音響フレーム(以下、有効フレームと呼ぶことにする)についての、上記〔数式17〕で算出される低周波成分の合算値EC1、EC2の平均値、すなわち、過去の有効フレームにおける合算値EC1、EC2の平均値で与えられるものであり、初期値は、上記埋め込み装置においても用いられるレベル下限値Levに設定されている。位相判定テーブルS(p)は、位相を判定するためのテーブルであり、pは0〜5の整数値をとる。初期値はS(p)=0に設定されている。 Next, the processing operation of the embedded information extraction unit 321 shown in FIG. 11 will be described with reference to the flowchart of FIG. First, in this apparatus, the average code levels HL1 and HL2 and the phase determination table are initialized. These will be described. The average code levels HL1 and HL2 are low frequencies calculated by the above [Equation 17] for an acoustic frame (hereinafter referred to as an effective frame) that is determined to have a binary value corresponding to a bit value embedded therein. sum the average value of E C1, E C2 components, i.e., which is given by the average value of the sum E C1, E C2 in previous valid frame, the initial value is, the level limit is also used in the above embedding device The value Lev is set. The phase determination table S (p) is a table for determining the phase, and p takes an integer value of 0 to 5. The initial value is set to S (p) = 0.

このように、初期値が設定されている状態で、基準フレーム獲得手段110が、アドレス情報抽出部320がデジタル化した音響信号から、所定数のサンプルで構成される音響フレームを基準フレームとして抽出する(S201)。具体的には、基準フレームを抽出して音響フレーム保持手段170に読み込むことになる。基準フレーム獲得手段110が基準フレームとして読み込む1音響フレームのサンプル数は、図7に示した音響フレーム読込手段10で設定されたものと同一にする必要がある。したがって、本実施形態の場合、基準フレーム獲得手段110は、4096サンプルずつ、順次基準フレームとして読み込んでいくことになる。音響フレーム保持手段170には、上述のように2個の基準フレームが格納可能となっており、新しい基準フレームが読み込まれると、古い基準フレームを破棄するようになっている。したがって、音響フレーム保持手段170には、常に基準フレーム2個分(連続する8192サンプル)が格納されていることになる。   As described above, in a state where the initial value is set, the reference frame acquisition unit 110 extracts an audio frame composed of a predetermined number of samples as the reference frame from the audio signal digitized by the address information extraction unit 320. (S201). Specifically, the reference frame is extracted and read into the acoustic frame holding unit 170. The number of samples of one sound frame read as the reference frame by the reference frame acquisition unit 110 needs to be the same as that set by the sound frame reading unit 10 shown in FIG. Therefore, in the present embodiment, the reference frame acquisition unit 110 sequentially reads 4096 samples as reference frames. The acoustic frame holding means 170 can store two reference frames as described above, and when a new reference frame is read, the old reference frame is discarded. Therefore, the sound frame holding means 170 always stores two reference frames (continuous 8192 samples).

埋込情報抽出部321で処理する音響フレームは、先頭から途切れることなく隣接して設定される基準フレームと、この基準フレームと位相を変更した位相変更フレームとに分けることができる。基準フレームについては、最初の基準フレームをサンプル番号1からサンプル番号4096までを設定したら、次の基準フレームは、サンプル番号4097からサンプル番号8192、さらに次の基準フレームは、サンプル番号8193からサンプル番号12288、というように途切れることなく設定される。そして、各基準フレームについて、1/6フレーム(約683サンプル)ずつ移動した5個の位相変更フレームを設定する。例えば、最初の基準フレームについては、サンプル番号683、1366、2049、2732、3413から始まる4096のサンプルで構成される5個の位相変更フレームが設定されることになる。   The acoustic frame processed by the embedded information extraction unit 321 can be divided into a reference frame that is set adjacently without interruption from the beginning, and a phase change frame in which the phase has been changed. For the reference frame, after setting the first reference frame from sample number 1 to sample number 4096, the next reference frame is sample number 4097 to sample number 8192, and the next reference frame is sample number 8193 to sample number 12288. It is set without interruption. Then, for each reference frame, five phase change frames moved by 1/6 frame (about 683 samples) are set. For example, for the first reference frame, five phase change frames configured by 4096 samples starting from sample numbers 683, 1366, 2049, 2732, and 3413 are set.

続いて、周波数変換手段130、符号判定パラメータ算出手段140が、読み込んだ各音響フレームから、埋め込まれている情報を判定し、対応する符号を出力する(S202)。出力される情報の形式は、埋め込み側のビット値に対応する2値、および区切りとして入力された値の3値の形式となる。   Subsequently, the frequency conversion unit 130 and the code determination parameter calculation unit 140 determine embedded information from each read sound frame and output a corresponding code (S202). The format of the information to be output is a binary format corresponding to the bit value on the embedding side and a ternary format of values input as delimiters.

ここで、ステップS202の符号判定処理の詳細を図13のフローチャートに従って説明する。まず、周波数変換手段130が、読み込んだ各音響フレームに対して、周波数変換を行ってフレームスペクトルを得る(S401)。この処理は、図7に示した周波数変換手段20における処理と同様である。ただし、抽出に用いるのは、左チャンネルだけであるので、上記〔数式8〕に従った処理を行い、左チャンネルに対応する変換データの実部Al(1,j)等、虚部Bl(1,j)等を得る。   Details of the code determination process in step S202 will be described with reference to the flowchart of FIG. First, the frequency conversion means 130 performs frequency conversion on each read sound frame to obtain a frame spectrum (S401). This process is the same as the process in the frequency conversion means 20 shown in FIG. However, since only the left channel is used for extraction, the processing according to [Formula 8] is performed, and the imaginary part Bl (1) such as the real part Al (1, j) of the conversion data corresponding to the left channel is performed. , J) etc.

上記周波数変換手段130における処理により、周波数に対応した成分であるスペクトルで表現されたフレームスペクトルが得られる。続いて、符号判定パラメータ算出手段140は、平均符号レベルHL1、HL2の算出を行う(S402)。具体的には、過去窓1成分が優位な状態と判断された音響フレームについての合算値EC1の積算値であるv1を、過去窓1成分が優位な状態と判断された音響フレームの数であるn1で除算することによりHL1を算出し、過去窓3成分が優位な状態と判断された音響フレームについての合算値EC2の積算値であるv2を、過去窓3成分が優位な状態と判断された音響フレームの数であるn2で除算することによりHL2を算出する。したがって、平均符号レベルHL1、HL2は、過去対応する窓成分が優位な状態と判断された音響フレームの低周波強度データの合算値の平均値となる。 By the processing in the frequency conversion means 130, a frame spectrum expressed by a spectrum that is a component corresponding to the frequency is obtained. Subsequently, the code determination parameter calculation unit 140 calculates the average code levels HL1 and HL2 (S402). Specifically, v1 which is the integrated value E C1 of the sound frames for which the past window 1 component is determined to be dominant is represented by the number of sound frames for which the past window 1 component is determined to be dominant. HL1 is calculated by dividing by a certain n1, and v2 that is an integrated value of the total value E C2 for the sound frame for which the past window 3 component is determined to be dominant is determined to be the state where the past window 3 component is dominant. HL2 is calculated by dividing by n2, which is the number of sound frames that have been performed. Therefore, the average code levels HL1 and HL2 are average values of the sum values of the low-frequency intensity data of the acoustic frames that have been determined to have a dominant window component corresponding to the past.

さらに、符号判定パラメータ算出手段140は、生成されたフレームスペクトルから所定の周波数範囲の各低周波強度データを抽出する。抽出すべき周波数範囲は、埋め込み装置と対応させる必要がある。したがって、ここでは、周波数が200Hz程度以下の低周波強度データを抽出することになり、埋め込み装置の場合と同様、上記〔数式8〕により算出された左チャンネルの実部Al(j)、虚部Bl(j)のうち、j≦20のものを抽出する。そして、符号判定パラメータ算出手段140は、上記〔数式17〕に従った処理を実行することにより、窓1成分の合算値EC1、窓3成分の合算値EC2を算出する。埋込情報抽出部321においては、これを符号判定パラメータとして用いる。 Furthermore, the code determination parameter calculation unit 140 extracts each low frequency intensity data in a predetermined frequency range from the generated frame spectrum. The frequency range to be extracted needs to correspond to the embedding device. Therefore, here, low frequency intensity data having a frequency of about 200 Hz or less is extracted, and the real part Al (j) and imaginary part of the left channel calculated by the above [Equation 8] as in the case of the embedding device. Of Bl (j), those with j ≦ 20 are extracted. The code determination parameter calculating means 140, by executing the processing according to the above [Equation 17], the window 1 component of the sum E C1, calculating a sum value E C2 of the window 3 components. The embedded information extraction unit 321 uses this as a code determination parameter.

続いて、符号判定パラメータ算出手段140は、候補符号テーブルの初期化を行う(S403)。候補符号テーブルは、1つの基準フレームおよび5個の位相変更フレームを特定する0〜5の位相番号および、この6個の音響フレームの状態から得られる3値の符号を記録するものである。   Subsequently, the code determination parameter calculation unit 140 initializes the candidate code table (S403). The candidate code table records a phase number of 0 to 5 that specifies one reference frame and five phase change frames, and a ternary code obtained from the states of the six acoustic frames.

続いて、符号判定パラメータ算出手段140は、窓1成分の合算値EC1、窓3成分の合算値EC2がそれぞれ所定値以下であるかどうかの判定を行う(S404)。具体的には、所定値としてそれぞれ平均符号レベルHL1、HL2の20分の1を設定する。合算値EC1が平均符号レベルHL1の20分の1以下であり、かつ、合算値EC2が平均符号レベルHL2の20分の1以下である場合、符号判定パラメータ算出手段140は、区切り情報であると判定する(S408)。 Subsequently, the code determination parameter calculating means 140 makes a determination window 1 component of the sum E C1, window 3 components sum E C2 of whether each is below a predetermined value (S404). Specifically, 1/20 of the average code levels HL1 and HL2 are set as predetermined values, respectively. When the sum value E C1 is equal to or less than 1/20 of the average code level HL1 and the sum value E C2 is equal to or less than 1/20 of the average code level HL2, the code determination parameter calculation unit 140 uses the delimiter information. It is determined that there is (S408).

一方、符号判定パラメータ算出手段140は、上記算出された符号判定パラメータEC1、EC2の所定値との比較判定および相互の比較判定を以下の〔数式18〕に従って行い(S405)、比較結果に対応する符号を出力する。 On the other hand, the code determination parameter calculation means 140 performs the comparison determination with the predetermined values of the calculated code determination parameters E C1 and E C2 and the mutual comparison determination according to the following [Equation 18] (S405), and the comparison result is obtained. Output the corresponding code.

〔数式18〕
C2>(所定値)かつEC2/EC1>2の場合、窓3成分が優位な状態
C1>(所定値)かつEC1/EC2>2の場合、窓1成分が優位な状態
上記以外の場合、両窓成分が均等
[Formula 18]
When E C2 > (predetermined value) and E C2 / E C1 > 2, the window 3 component is dominant. When E C1 > (predetermined value) and E C1 / E C2 > 2, the window 1 component is dominant. Otherwise, both window components are equal

符号判定パラメータ算出手段140は、各音響フレーム単位で、上記判定結果に応じて3値の符号を出力する。すなわち、窓3成分が優位な状態と判定した場合には、第1のビット値(例えば“1”)を出力し(S406)、窓1成分が優位な状態と判定した場合には、第2のビット値(例えば“0”)を出力し(S407)、両窓成分が均等と判定した場合には、区切り情報を示す符号を出力する(S408)。なお、S405において、窓3成分が優位な状態と判定した場合は、EC1がHL1以上であるか、また、窓1成分が優位な状態と判定した場合は、EC2がHL2以上であるかを判定し、これらの条件を満たしていない場合は、区切り情報を示す符号を出力する(S408)。 The code determination parameter calculation unit 140 outputs a ternary code according to the determination result for each acoustic frame. That is, when it is determined that the window 3 component is dominant, the first bit value (for example, “1”) is output (S406). When it is determined that the window 1 component is dominant, the second bit value is output. The bit value (eg, “0”) is output (S407), and if it is determined that the two window components are equal, a code indicating delimiter information is output (S408). In S405, if it is determined that the window 3 component is in a dominant state, E C1 is HL1 or higher. If it is determined that the window 1 component is in a dominant state, is E C2 higher than HL2. If these conditions are not satisfied, a code indicating delimiter information is output (S408).

窓3成分が優位な状態と判定して、第1のビット値を出力した場合(S406)、又は窓1成分が優位な状態と判定して、第2のビット値を出力した場合(S407)は、さらに、以下の〔数式19〕に従って位相判定テーブルS(p)の更新を行う(S409)。   When it is determined that the window 3 component is dominant and the first bit value is output (S406), or when it is determined that the window 1 component is dominant and the second bit value is output (S407). Further, the phase determination table S (p) is updated according to the following [Equation 19] (S409).

〔数式19〕
窓3成分が優位な状態の場合、S(p)←S(p)+EC1/EC2
窓1成分が優位な状態の場合、S(p)←S(p)+EC2/EC1
[Formula 19]
When the three components of the window are dominant, S (p) ← S (p) + E C1 / E C2
When the window 1 component is dominant, S (p) ← S (p) + E C2 / E C1

続いて、符号判定パラメータ算出手段140は、候補符号テーブルに、最適位相となる候補を保存する(S410)。具体的には、位相判定テーブルに記録されているS(p)の値が最大となる位相番号pの値、前記S406〜S408により判定された3値のいずれかの符号、その音響フレームについての上記〔数式9〕に従った処理を実行することにより算出した、低周波数成分に対応する各EC1、EC2の値を最適位相の候補として候補符号テーブルに保存する。 Subsequently, the code determination parameter calculation unit 140 saves the candidate for the optimum phase in the candidate code table (S410). Specifically, the value of the phase number p that maximizes the value of S (p) recorded in the phase determination table, one of the three values determined in S406 to S408, and the sound frame The values of E C1 and E C2 corresponding to the low frequency component calculated by executing the process according to the above [Equation 9] are stored in the candidate code table as candidates for the optimum phase.

続いて、全ての位相番号pに対応する処理を終えたかどうかを判定する(S411)。これは、ある基準フレームに対して全ての位相変更フレームの処理を行ったかどうかを判定している。本実施形態では、pが0〜5までの値をとるので、6回分処理していない場合は、処理していた音響フレームから所定サンプル数ずらして、位相の異なる音響フレームを設定し、S404に戻って処理を繰り返す。なお、p=0の場合が基準フレームであり、p=1〜5の場合が位相変更フレームである。全ての位相番号pに対応する処理を終えた場合は、候補保存テーブルに記録されている位相番号pに対応する位相が最適位相であると判定し、候補保存テーブルに記録されている符号を出力する(S412)。   Subsequently, it is determined whether or not the processing corresponding to all the phase numbers p has been completed (S411). This determines whether all phase change frames have been processed for a certain reference frame. In the present embodiment, since p takes a value from 0 to 5, if the processing is not performed six times, an acoustic frame having a different phase is set by shifting a predetermined number of samples from the acoustic frame that has been processed. Return and repeat the process. The case where p = 0 is a reference frame, and the case where p = 1 to 5 is a phase change frame. When the processing corresponding to all the phase numbers p is completed, it is determined that the phase corresponding to the phase number p recorded in the candidate storage table is the optimum phase, and the code recorded in the candidate storage table is output. (S412).

再び図12のフローチャートに戻って説明する。S202による処理の結果、ビット値に相当する符号が出力された場合には、平均符号レベルのパラメータの更新を行う(S203)。具体的には、平均符号レベルHL1、HL2算出の際の分子となる積算値v1、v2にそれぞれ合算値EC1、EC2を加算して積算値v1、v2を更新し、分母となるフレーム数n1、n2にそれぞれ1を加算してフレーム数n1、n2を更新する。続いて、モードの判定を行う(S204)。モードは、区切りモードとビット出力モードの2つが用意されている。ビット出力モードである場合は、そのビット値をバッファに保存する(S209)。続いて、ビットカウンタをカウントアップする(S210)。一方、S204による判定の結果、区切りモードである場合には、さらに抽出された符号が、新規を意味するものか継続を意味するものかを判定する(S205)。この結果、新規である場合には、その直前で1ワードが終了していることを意味するので、バッファに記録された1ワード分のデータを、付加情報抽出手段160が出力する(S206)。そして、ビットカウンタを0に初期化する(S207)。さらに、モードをビット出力モードに設定する(S208)。S205において、継続と判定された場合には、バッファ内のビットに値を出力すべきであるので、ビット出力モードに設定する処理のみを行う。また、S202において、区切り情報に相当する符号が抽出された場合には、次の音響フレームから新規か継続かの情報を抽出するため、モードを区切りモードに設定する(S211)。図12に示す処理を各基準フレームに対して実行することにより、付加情報が抽出されることになる。S201において全ての基準フレームが抽出されたと判断された場合には、処理を終了する。 Returning to the flowchart of FIG. If the code corresponding to the bit value is output as a result of the process in S202, the parameter of the average code level is updated (S203). Specifically, the sum values E C1 and E C2 are added to the accumulated values v1 and v2 which are numerators when calculating the average code levels HL1 and HL2, respectively, and the accumulated values v1 and v2 are updated, and the number of frames serving as the denominator. The number of frames n1 and n2 is updated by adding 1 to n1 and n2, respectively. Subsequently, the mode is determined (S204). Two modes, a delimited mode and a bit output mode, are prepared. If it is in the bit output mode, the bit value is stored in the buffer (S209). Subsequently, the bit counter is counted up (S210). On the other hand, if the result of determination in S204 is that the mode is separation mode, it is further determined whether the extracted code means new or continuation (S205). As a result, if it is new, it means that one word has been completed immediately before that, and the additional information extracting means 160 outputs the data for one word recorded in the buffer (S206). Then, the bit counter is initialized to 0 (S207). Further, the mode is set to the bit output mode (S208). In S205, if it is determined to continue, the value should be output to the bit in the buffer, so only the processing for setting the bit output mode is performed. If a code corresponding to the delimiter information is extracted in S202, the mode is set to the delimiter mode in order to extract new or continued information from the next sound frame (S211). By executing the process shown in FIG. 12 for each reference frame, additional information is extracted. If it is determined in S201 that all reference frames have been extracted, the process ends.

上記S206の処理において、付加情報抽出手段160は、まず、符号判定パラメータ算出手段140により出力された3値の符号のうち、窓3成分と窓1成分が均等であることを示す符号を区切り位置として、その次の符号を先頭とし、窓3成分が優位な状態、窓1成分が優位な状態であることを示す符号をビット値に対応させて、ビット配列を作成する。続いて、このビット配列を、所定の規則により変換して意味のある付加情報として抽出する。所定の規則としては、情報を埋め込む者が意図した情報が受け取った者に認識可能な状態とできるものであれば、さまざまな規則が適用できるが、本実施形態では、文字情報として認識するための規則としている。すなわち、アクセス情報抽出手段160は、符号判定パラメータ算出手段140が判定し、符号出力手段150から出力される符号を1バイト(8ビット)単位で認識し、これを設定されたコード体系に従って文字情報であるアクセス情報を認識する。本実施形態ではURLを認識することになる。   In the process of S206, the additional information extraction unit 160 first delimits a code indicating that the window 3 component and the window 1 component are equal among the ternary codes output by the code determination parameter calculation unit 140. Then, the next code is the head, and a bit array is created by associating a code indicating that the window 3 component is dominant and the window 1 component is dominant with the bit value. Subsequently, this bit arrangement is converted according to a predetermined rule and extracted as meaningful additional information. As the predetermined rule, various rules can be applied as long as the information intended by the person who embeds the information can be recognized by the person who has received it. As a rule. That is, the access information extraction means 160 recognizes the code determined by the code determination parameter calculation means 140 and output from the code output means 150 in units of 1 byte (8 bits), and character information according to the set code system. To recognize the access information. In this embodiment, the URL is recognized.

従って、埋め込み装置により音響信号に、その楽曲の曲名やアーチスト等に関連するwebサイトのURLを文字情報として埋め込んでおけば、利用者は、その音楽が流れているのを聞いて、その曲名やアーチストに関連する詳細な情報を知りたいと思ったときに、抽出装置として機能する自身の携帯端末に所定の操作を行えば、自身の携帯端末で、その楽曲やアーチストに関連するwebサイトのURLが取得できることになる。   Therefore, if the embedded device embeds the URL of the web site related to the song name or artist of the song as character information in the acoustic signal, the user can hear the music flowing and listen to the song name or When you want to know detailed information related to the artist, if you perform a specified operation on your mobile terminal that functions as an extraction device, the URL of the web site related to the song or artist on your mobile terminal Can be acquired.

ここで本実施形態に示すような窓関数窓関数W(1,i)、W(2,i)、W(3,i)、W(4,i)を用いることの利点について説明する。図14は、本実施形態の特徴を有しない窓関数を利用した場合の埋め込み直前と埋め込み後の低周波成分の状態を示す図であり、図15は、本発明による埋め込み直前と埋め込み後の低周波成分の状態を示す図である。埋め込み後の低周波成分の状態である図14(b)と図15(b)を比較すると、本実施形態では、そうでない場合と比べてAタイプ音響フレームにおいて広い範囲で値を有していることがわかる。そのため、S402において〔数式17〕を用いて算出される合算値EC1、EC2の値が大きくなり、S406、S407においてビット値が抽出される確率が高まる。 Here, advantages of using window function window functions W (1, i), W (2, i), W (3, i), and W (4, i) as shown in the present embodiment will be described. FIG. 14 is a diagram showing the state of low-frequency components immediately before and after embedding when using a window function that does not have the characteristics of this embodiment, and FIG. It is a figure which shows the state of a frequency component. Comparing FIG. 14B and FIG. 15B, which are low-frequency component states after embedding, in this embodiment, the A-type sound frame has a value in a wider range than in other cases. I understand that. Therefore, the sum values E C1 and E C2 calculated using [Equation 17] in S402 are increased, and the probability that a bit value is extracted in S406 and S407 is increased.

以上の処理においては、埋込情報抽出部321において正確に付加情報を抽出するために、位相を補正する処理、窓3成分と窓1成分の強度のバランスを補正する処理、無効フレームであることを判断するための下限閾値を補正する処理を行っている。次に、これら3つの補正処理について補足説明を行う。   In the above processing, in order to accurately extract additional information in the embedded information extraction unit 321, processing for correcting the phase, processing for correcting the intensity balance between the window 3 component and the window 1 component, and an invalid frame The process which correct | amends the lower limit threshold value for judging this is performed. Next, supplementary explanation will be given for these three correction processes.

(5.2.位相補正処理について)
上記のように、抽出時には、埋め込み時に埋め込んだ音響フレームに対応して、音響信号を読み込むことができるとは限らない。そこで、音響フレームの位相をずらして複数通り(本実施形態では6通り)で読み込み、その中で最適な位相を決定し、その位相で特定される音響フレームに対応する符号を出力することにしている。例えば、6通りで読み込む場合、先頭の音響フレームは、本来サンプル番号1〜4096のサンプルであるが、サンプル番号1、683、1366、2049、2732、3413から始まる4096のサンプルで構成される6個の各音響フレームに対して処理を行い、最適な音響フレームに対応する符号を出力することになる。この位相補正処理は、S403、S409、S410、S411、S412における処理を中心として行われることになる。
(5.2. About phase correction processing)
As described above, at the time of extraction, it is not always possible to read an acoustic signal corresponding to the acoustic frame embedded at the time of embedding. Therefore, the phase of the acoustic frame is shifted and read in a plurality of ways (six in this embodiment), the optimum phase is determined, and a code corresponding to the acoustic frame specified by the phase is output. Yes. For example, in the case of reading in six ways, the top acoustic frame is originally a sample of sample numbers 1 to 4096, but six pieces composed of 4096 samples starting from sample numbers 1, 683, 1366, 2049, 2732, and 3413 Are processed, and a code corresponding to the optimum acoustic frame is output. This phase correction process is performed centering on the processes in S403, S409, S410, S411, and S412.

(5.3.下限閾値補正処理について)
信号レベルが小さい場合には、窓成分の強度の大小が判定できず、抽出側で誤判断することが多くなる。そこで、合算値EC1およびEC2が所定の閾値以下のフレームについては、無効なフレームであると判断するようにしているが、この際の閾値を過去の有効フレームについての低周波強度の積算値を利用して補正する処理を行っている。このように閾値を変動させることにより、信号レベルが変動しても無効なフレームであるか、有効なフレームであるかを正確に判断することが可能となる。この下限閾値補正処理は、S402、S203における処理を中心として行われることになる。
(5.3. About lower limit threshold correction processing)
When the signal level is low, the magnitude of the intensity of the window component cannot be determined, and erroneous determination is often made on the extraction side. Therefore, it is determined that the frames whose sum values E C1 and E C2 are equal to or less than the predetermined threshold are invalid frames. The threshold at this time is set as the integrated value of the low frequency intensity for the past effective frames. Correction processing is performed using. By varying the threshold value in this way, it is possible to accurately determine whether the frame is invalid or valid even if the signal level varies. This lower limit threshold correction process is performed centering on the processes in S402 and S203.

(6.モノラル音響信号の場合)
上記実施形態においては、埋め込み装置、埋込情報抽出部321のいずれにおいても、左右のチャンネルを有するステレオ音響信号の左チャンネル信号に付加情報を埋め込む場合を例にとって説明したが、逆に右チャンネル信号に付加情報を埋め込むようにしても良い。本発明は、左右の特性には無関係だからである。また、1つのチャンネルしかないモノラル音響信号に対して処理を行う場合は、上記実施形態において、左チャンネル信号に対して行った処理を行うことになる。本発明は、1つのチャンネル信号に対して付加情報を埋め込み、また抽出を行うので、モノラル音響信号であってもステレオ音響信号であっても同様に行うことができる。
(6. Monaural sound signal)
In the above embodiment, the case where both the embedding device and the embedding information extraction unit 321 embed additional information in the left channel signal of a stereo sound signal having left and right channels has been described as an example. Additional information may be embedded in. This is because the present invention is not related to the left and right characteristics. Further, when processing is performed on a monaural sound signal having only one channel, the processing performed on the left channel signal is performed in the above embodiment. Since the present invention embeds and extracts additional information from one channel signal, it can be similarly performed for a monaural sound signal or a stereo sound signal.

図16にステレオ音響信号とモノラル音響信号に対して、本発明により付加情報を埋め込む場合の概念図を示す。図16(a)はステレオ音響信号の場合、図16(b)はモノラル音響信号の場合である。なお、図16の例では、音響フレーム1つ分の低周波成分を波形で表現しており、ビット値“0”を埋め込む場合を例に示している。   FIG. 16 is a conceptual diagram in the case where additional information is embedded in the stereo sound signal and the monaural sound signal according to the present invention. FIG. 16A shows a stereo sound signal, and FIG. 16B shows a monaural sound signal. In the example of FIG. 16, the low frequency component for one acoustic frame is represented by a waveform, and the bit value “0” is embedded as an example.

ステレオ音響信号の場合、埋め込みは左チャンネル(L−ch)信号に対して行われる。図16(a)に示すように、周波数変換後、信号分離し、さらに、ビット埋め込み処理を行う。具体的には、〔数式10〕〜〔数式15〕の処理の結果、ビット埋め込みがなされることになる。ここで、上述のように、“0”を埋め込む場合は〔数式13〕および〔数式14〕を用いる。したがって、ビット埋め込み処理後は、音響フレームの中央付近(窓2に相当)と後部付近(窓3に相当)は、低周波数帯の信号成分は0(図中、波形がないことで表現)となる。この際、〔数式13〕および〔数式14〕の内容から明らかなように、左チャンネル信号の削除された信号成分は、右チャンネル(R−ch)信号に加算される。したがって、図16(a)の下段に示すように、右チャンネル信号の低周波成分は大きくなる。ビット埋め込み処理後は、高周波成分を含めて信号合成された後、周波数逆変換され、改変音響信号が得られることになる。一方、上記〔数式11〕の最後の3つの式から明らかなように、左チャンネル信号の残っている信号成分に対応する右チャンネル(R−ch)信号の成分は、左チャンネル信号に加算される。したがって、図16(a)の上段に示すように、左チャンネル信号の窓1に相当する低周波成分は大きくなる。   In the case of a stereo sound signal, embedding is performed on the left channel (L-ch) signal. As shown in FIG. 16A, after frequency conversion, signal separation is performed, and bit embedding processing is further performed. Specifically, bit embedding is performed as a result of the processing of [Equation 10] to [Equation 15]. Here, as described above, when “0” is embedded, [Equation 13] and [Equation 14] are used. Therefore, after bit embedding processing, the signal component in the low frequency band is 0 (represented by no waveform in the figure) near the center of the acoustic frame (corresponding to window 2) and near the rear (corresponding to window 3). Become. At this time, as is clear from the contents of [Equation 13] and [Equation 14], the signal component from which the left channel signal is deleted is added to the right channel (R-ch) signal. Therefore, as shown in the lower part of FIG. 16A, the low frequency component of the right channel signal is increased. After bit embedding processing, signal synthesis including high frequency components is performed, and then frequency inverse conversion is performed to obtain a modified acoustic signal. On the other hand, as is apparent from the last three equations of [Equation 11], the right channel (R-ch) signal component corresponding to the remaining signal component of the left channel signal is added to the left channel signal. . Therefore, as shown in the upper part of FIG. 16A, the low frequency component corresponding to the window 1 of the left channel signal becomes large.

モノラル音響信号の場合、図16(b)に示すように処理が行われるが、図16(a)の上段と比較するとわかるように、ステレオ音響信号の左チャンネルと同様の処理が行われることになる。   In the case of a monaural sound signal, processing is performed as shown in FIG. 16B. As can be seen from comparison with the upper part of FIG. 16A, processing similar to that for the left channel of a stereo sound signal is performed. Become.

(7.信号成分が小さくても情報の埋め込みを可能とする手法)
ここまで、説明してきた処理においては、窓1成分、窓3成分に所定の大きさ以上の信号成分が存在していることが必要となり、窓1成分、窓3成分が共に所定の大きさ以下の場合には、情報の埋め込みを行うことができない。そこで、以下、窓1成分、窓3成分が共に所定の大きさ以下であっても、信号の埋め込みを可能とする手法について説明する。
(7. A technique that enables information to be embedded even if the signal component is small)
In the processing described so far, it is necessary that a signal component having a predetermined size or more exists in the window 1 component and the window 3 component, and both the window 1 component and the window 3 component are not more than a predetermined size. In this case, information cannot be embedded. Therefore, hereinafter, a method for enabling signal embedding even when the window 1 component and the window 3 component are both equal to or smaller than a predetermined size will be described.

この場合、図7に示した埋め込み装置における情報の埋め込み処理は、図17のフローチャートに従って行われる。図17のフローチャートにおいて、図8のフローチャートと異なる点は、S709における周波数変換処理において低周波成分変更手段30がレベルの判定を行わず、さらに、S110に相当する区切りモードへの設定処理が存在しない点である。これは、図17に従った処理では、信号レベルが小さくても強制的に情報を埋め込むこととしているため、情報の埋め込みが不可能な信号レベルが小さい部分が存在するかどうかを判断し、区切りモードに設定する必要がないからである。   In this case, the information embedding process in the embedding apparatus shown in FIG. 7 is performed according to the flowchart of FIG. The flowchart of FIG. 17 differs from the flowchart of FIG. 8 in that the low frequency component changing unit 30 does not determine the level in the frequency conversion process in S709, and there is no setting process for the separation mode corresponding to S110. Is a point. This is because the processing according to FIG. 17 forcibly embeds information even if the signal level is low. Therefore, it is determined whether there is a portion with a low signal level where information cannot be embedded. This is because it is not necessary to set the mode.

したがって、S710における窓1成分、窓3成分のいずれかを優位な状態に設定する処理としては、まず、以下の〔数式20〕に従って算出される固定値Vを、低周波成分の強度として、上記合算値E1、E2に代えて設定する。 Therefore, as a process for setting one of the window 1 component and the window 3 component in S710 to be in an advantageous state, first, the fixed value V calculated according to the following [Equation 20] is used as the intensity of the low frequency component. It is set in place of the total values E 1 and E 2 .

〔数式20〕
V={0.5・Lev/(M−3)}1/2
[Formula 20]
V = {0.5 · Lev / (M−3)} 1/2

そして、第1の値を1、第2の値を0とした場合、ビット値が1のとき、上記〔数式11〕および〔数式12〕に従った処理を実行した後、以下の〔数式21〕に従った処理を実行する。   When the first value is 1 and the second value is 0, when the bit value is 1, the processing according to the above [Formula 11] and [Formula 12] is executed, and then the following [Formula 21 ] Is executed.

〔数式21〕
窓3成分に対して
Al´(3,j)=Al(3,j)・V/{Ar(3,j)2+Br(3,j)21/2
Bl´(3,j)=Bl(3,j)・V/{Ar(3,j)2+Br(3,j)21/2
[Formula 21]
For the three components of the window, Al ′ (3, j) = Al (3, j) · V / {Ar (3, j) 2 + Br (3, j) 2 } 1/2
Bl ′ (3, j) = Bl (3, j) · V / {Ar (3, j) 2 + Br (3, j) 2 } 1/2

ビット値が0の場合、上記〔数式13〕および〔数式14〕に従った処理を実行した後、以下の〔数式22〕に従った処理を実行する。   When the bit value is 0, the process according to the above [Formula 13] and [Formula 14] is executed, and then the process according to the following [Formula 22] is executed.

〔数式22〕
窓1成分に対して
Al´(1,j)=Al(1,j)・V/{Ar(1,j)2+Br(1,j)21/2
Bl´(1,j)=Bl(1,j)・V/{Ar(1,j)2+Br(1,j)21/2
[Formula 22]
For one component of window, Al ′ (1, j) = Al (1, j) · V / {Ar (1, j) 2 + Br (1, j) 2 } 1/2
Bl ′ (1, j) = Bl (1, j) · V / {Ar (1, j) 2 + Br (1, j) 2 } 1/2

S710における上記処理を行った後、窓2成分削除処理(S712)以降の処理は、図8に示したS113以降の処理と同様にして行われる。   After performing the above processing in S710, the processing after the window two component deletion processing (S712) is performed in the same manner as the processing after S113 shown in FIG.

上記のように、周波数成分が小さい場合に情報を埋め込んだ場合であっても、抽出側の、音響信号からの情報の抽出装置の構成は図11と同一であり、処理動作は図12のフローチャートに従ったものと同一である。   As described above, even when information is embedded when the frequency component is small, the configuration of the extraction device for extracting information from the acoustic signal on the extraction side is the same as that in FIG. 11, and the processing operation is the flowchart of FIG. Is the same as

図18にステレオ音響信号とモノラル音響信号に対して、信号成分が小さい場合に、付加情報を埋め込む場合の概念図を示す。図18(a)はステレオ音響信号の場合、図18(b)はモノラル音響信号の場合である。なお、図18の例では、図16の場合と同様に、音響フレーム1つ分の低周波成分を波形で表現しており、ビット値“0”を埋め込む場合を例に示している。   FIG. 18 shows a conceptual diagram when embedding additional information when the signal component is small with respect to the stereo sound signal and the monaural sound signal. FIG. 18A shows a stereo sound signal, and FIG. 18B shows a monaural sound signal. In the example of FIG. 18, as in the case of FIG. 16, a low-frequency component for one acoustic frame is represented by a waveform and a bit value “0” is embedded as an example.

図18において、図16の場合と異なるのは、元の信号成分が小さい点である。図18(a)に示す例のように、信号分離後の段階では、窓1成分、窓3成分の値が小さい場合であっても、上記〔数式20〕〜〔数式22〕の処理に従ってビット埋め込みを行うことにより、図16と同様な信号成分を有することとなる。   18 is different from the case of FIG. 16 in that the original signal component is small. As in the example shown in FIG. 18A, in the stage after the signal separation, even if the values of the window 1 component and the window 3 component are small, the bits are processed in accordance with the processing of [Expression 20] to [Expression 22]. By embedding, it has the same signal component as in FIG.

モノラル音響信号の場合、図18(b)に示すように処理が行われるが、図18(a)の上段と比較するとわかるように、ステレオ音響信号の左チャンネルと同様の処理が行われることになる。   In the case of a monaural sound signal, processing is performed as shown in FIG. 18B, but as can be seen from the upper part of FIG. 18A, processing similar to that for the left channel of a stereo sound signal is performed. Become.

本発明第1の実施形態に係るネットワーク接続装置の構成図である。It is a block diagram of the network connection apparatus which concerns on the 1st Embodiment of this invention. 本発明第1の実施形態に係るネットワーク接続装置の処理動作を示すフローチャートである。It is a flowchart which shows the processing operation of the network connection apparatus which concerns on the 1st Embodiment of this invention. 本発明第2の実施形態に係るネットワーク接続装置の構成図である。It is a block diagram of the network connection apparatus which concerns on the 2nd Embodiment of this invention. 本発明第2の実施形態に係るネットワーク接続装置の処理動作を示すフローチャートである。It is a flowchart which shows the processing operation of the network connection apparatus which concerns on the 2nd Embodiment of this invention. 本発明第3の実施形態に係るに係るネットワーク接続システムの構成図である。It is a block diagram of the network connection system which concerns on the 3rd Embodiment of this invention. 本発明第3の実施形態に係るネットワーク接続システムの処理動作を示すフローチャートである。It is a flowchart which shows the processing operation of the network connection system which concerns on the 3rd Embodiment of this invention. 音響信号に対する情報の埋込装置の機能ブロック図である。It is a functional block diagram of an information embedding device for an acoustic signal. 図7に示した装置の処理概要を示すフローチャートである。It is a flowchart which shows the process outline | summary of the apparatus shown in FIG. 本発明で用いる窓関数を示す図である。It is a figure which shows the window function used by this invention. 図8に従った処理による低周波成分の変化の様子を示すである。FIG. 9 shows how the low frequency component changes due to the processing according to FIG. 8. 埋込情報抽出部321の詳細を示す機能ブロック図である。5 is a functional block diagram showing details of an embedded information extraction unit 321. FIG. 図4に示した装置の処理概要を示すフローチャートである。5 is a flowchart showing an outline of processing of the apparatus shown in FIG. 4. 図12のS202の符号判定処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the code | symbol determination process of S202 of FIG. 本実施形態の窓関数を用いない場合の、埋め込み前後の、音響信号の低周波部分を示す概念図である。It is a conceptual diagram which shows the low frequency part of the acoustic signal before and behind embedding when not using the window function of this embodiment. 本実施形態による埋め込み前後の、音響信号の低周波部分を示す概念図である。It is a conceptual diagram which shows the low frequency part of the acoustic signal before and behind embedding by this embodiment. 本発明による付加情報の埋め込み処理の概念図である。It is a conceptual diagram of the embedding process of the additional information by this invention. 図7に示した装置において、元の信号成分が小さくても情報の埋め込みを可能とする場合の処理概要を示すフローチャートである。FIG. 8 is a flowchart showing an outline of processing in the apparatus shown in FIG. 7 when information can be embedded even if the original signal component is small. 元の信号成分が小さい場合の、付加情報の埋め込み処理の概念図である。It is a conceptual diagram of an additional information embedding process when the original signal component is small.

符号の説明Explanation of symbols

10・・・音響フレーム読込手段
20・・・周波数変換手段
30・・・低周波成分変更手段
40・・・周波数逆変換手段
50・・・改変音響フレーム出力手段
60・・・記憶手段
61・・・音響信号記憶部
62・・・付加情報記憶部
63・・・改変音響信号記憶部
70・・・付加情報読込手段
110・・・基準フレーム獲得手段
120・・・位相変更フレーム設定手段
130・・・周波数変換手段
140・・・符号判定パラメータ算出手段
150・・・符号出力手段
160・・・付加情報抽出手段
170・・・音響フレーム保持手段
300・・・ネットワーク接続装置
310・・・マイクロフォン
320・・・アドレス情報抽出部
320a・・・アドレス情報サーバ
321・・・埋込情報抽出部
322・・・アドレス情報変換部
330・・・ネットワークアクセス部
340・・・コンテンツ取得部
350・・・音響信号取得部
400・・・音響信号再生装置
500・・・ネットワーク
601・・・サイト
602・・・第2のサイト


DESCRIPTION OF SYMBOLS 10 ... Sound frame reading means 20 ... Frequency conversion means 30 ... Low frequency component change means 40 ... Frequency reverse conversion means 50 ... Modified sound frame output means 60 ... Storage means 61 ... -Acoustic signal storage unit 62 ... Additional information storage unit 63 ... Modified acoustic signal storage unit 70 ... Additional information reading means 110 ... Reference frame acquisition means 120 ... Phase change frame setting means 130 ... Frequency conversion means 140: Code determination parameter calculation means 150 ... Code output means 160 ... Additional information extraction means 170 ... Acoustic frame holding means 300 ... Network connection device 310 ... Microphone 320 .. Address information extraction unit 320a ... Address information server 321 ... Embedded information extraction unit 322 ... Address information conversion Unit 330 ... Network access unit 340 ... Content acquisition unit 350 ... Acoustic signal acquisition unit 400 ... Acoustic signal reproduction device 500 ... Network 601 ... Site 602 ... Second site


Claims (7)

スピーカから発せられた音声を音響信号として取得し、当該音響信号から予め聴取不能な状態で埋め込まれた情報を抽出し、当該抽出した情報を用いてネットワーク上の所定のサイトにアクセスする装置であって、
前記音響信号の所定の区間をデジタル化して、所定数のサンプルで構成される音響フレームを獲得する音響フレーム獲得手段と、
前記音響フレームに対して、周波数変換を行って各音響フレームについてのスペクトルを得る周波数変換手段と、
前記生成されたスペクトルを利用して、少なくとも2セットのスペクトル集合を抽出し、各スペクトル集合ごとにスペクトル強度の総和値を算出し、その総和値のスペクトル集合間の割合に基づいて、所定の符号を出力する符号化手段と、
前記出力された符号に対応する情報配列を、所定の規則により変換してアドレス情報を抽出するアドレス情報抽出手段と、
当該アドレス情報を用いてネットワーク上の所定のサイトにアクセスするネットワークアクセス手段と、
を有することを特徴とする音響信号を用いたネットワーク接続装置。
A device that obtains sound emitted from a speaker as an acoustic signal, extracts information embedded in an inaudible state in advance from the acoustic signal, and accesses a predetermined site on the network using the extracted information. And
An acoustic frame acquisition means for digitizing a predetermined section of the acoustic signal and acquiring an acoustic frame composed of a predetermined number of samples;
Frequency conversion means for performing frequency conversion on the acoustic frame to obtain a spectrum for each acoustic frame;
Using the generated spectrum, at least two sets of spectrum sets are extracted, a sum value of spectrum intensities is calculated for each spectrum set, and a predetermined code is calculated based on a ratio of the sum values between the spectrum sets. Encoding means for outputting
Address information extraction means for converting the information array corresponding to the output code according to a predetermined rule and extracting address information;
Network access means for accessing a predetermined site on the network using the address information;
A network connection device using an acoustic signal.
請求項1において、
前記周波数変換手段は、前記音響フレームに対して第1窓関数、第3窓関数を用いてそれぞれ周波数変換を行い、前記第1窓関数に対応するスペクトルである第1窓スペクトル、前記第3窓関数に対応するスペクトルである第3窓スペクトルを生成するものであり、
前記符号化手段は、生成された各窓スペクトルから、所定の低周波数帯に対応するスペクトル集合をそれぞれ抽出し、各スペクトル集合ごとにスペクトル強度の総和値を算出し、その総和値のスペクトル集合間の割合に基づいて、所定の符号を出力するものであることを特徴とする音響信号を用いたネットワーク接続装置。
In claim 1,
The frequency conversion means performs frequency conversion on the acoustic frame using a first window function and a third window function, respectively, and a first window spectrum and a third window which are spectra corresponding to the first window function. A third window spectrum that is a spectrum corresponding to the function,
The encoding means extracts each spectrum set corresponding to a predetermined low frequency band from each generated window spectrum, calculates a sum value of spectrum intensities for each spectrum set, and between the spectrum sets of the sum value A network connection device using an acoustic signal, which outputs a predetermined code based on the ratio of.
請求項1または請求項2において、
さらに、前記アクセスしたサイトから、音響信号を含むコンテンツを取得するコンテンツ取得手段を有し、
前記アドレス情報抽出手段が、前記取得したコンテンツに含まれる音響信号から第2のアドレス情報を抽出し、
前記ネットワークアクセス手段が、前記第2のアドレス情報を用いてネットワーク上の第2のサイトにアクセスするものであることを特徴とする音響信号を用いたネットワーク接続装置。
In claim 1 or claim 2,
Furthermore, it has content acquisition means for acquiring content including an acoustic signal from the accessed site,
The address information extracting means extracts second address information from an acoustic signal included in the acquired content;
The network connection device using an acoustic signal, wherein the network access means accesses the second site on the network using the second address information.
請求項1から請求項3のいずれかにおいて、
前記音響フレーム獲得手段、前記周波数変換手段、前記符号化手段、前記アドレス情報抽出手段、前記ネットワークアクセス手段は、単一の携帯電話機の内部に備えられていることを特徴とするネットワーク接続装置。
In any one of Claims 1-3,
The network connection apparatus, wherein the acoustic frame acquisition means, the frequency conversion means, the encoding means, the address information extraction means, and the network access means are provided inside a single mobile phone.
請求項1から請求項4のいずれかにおいて、前記アドレス情報抽出手段は、出力された符号に対応する情報配列を付加情報として抽出した後、変換テーブルを利用してアドレス情報に変換することにより、アドレス情報を得るものであることを特徴とするネットワーク接続装置。   In any one of Claims 1 to 4, the address information extraction unit extracts an information array corresponding to the output code as additional information, and then converts it into address information using a conversion table. A network connection device for obtaining address information. 端末装置とネットワーク上のサーバコンピュータが連携し、スピーカから発せられた音声を音響信号として取得し、当該音響信号から予め聴取不能な状態で埋め込まれた情報を抽出し、当該抽出した情報を用いてネットワーク上の所定のサイトにアクセスするシステムであって、
前記端末装置は、取得した音響信号を、前記サーバコンピュータに転送する転送手段と、前記サーバコンピュータから受信したアドレス情報を用いてネットワーク上の所定のサイトにアクセスするネットワークアクセス手段を有し、
前記サーバコンピュータは、前記端末装置から受信した前記音響信号の所定の区間をデジタル化して、所定数のサンプルで構成される音響フレームを獲得する音響フレーム獲得手段と、前記音響フレームに対して第1窓関数、第3窓関数を用いてそれぞれ周波数変換を行い、前記第1窓関数に対応するスペクトルである第1窓スペクトル、前記第3窓関数に対応するスペクトルである第3窓スペクトルを生成する周波数変換手段と、前記生成された各窓スペクトルから、所定の低周波数帯に対応するスペクトル集合をそれぞれ抽出し、各スペクトル集合ごとにスペクトル強度の総和値を算出し、その総和値のスペクトル集合間の割合に基づいて、所定の符号を出力する符号化手段と、前記出力された符号に対応する情報配列を、所定の規則により変換してアドレス情報を抽出するアドレス情報抽出手段と、当該抽出したアドレス情報を前記端末装置に送信するアドレス情報送信手段を有するものであることを特徴とする音響信号を用いたネットワーク接続システム。
The terminal device and the server computer on the network cooperate with each other, acquire the sound emitted from the speaker as an acoustic signal, extract information embedded in an inaudible state in advance from the acoustic signal, and use the extracted information A system for accessing a predetermined site on a network,
The terminal device has transfer means for transferring the acquired acoustic signal to the server computer, and network access means for accessing a predetermined site on the network using address information received from the server computer,
The server computer digitizes a predetermined section of the acoustic signal received from the terminal device to acquire an acoustic frame composed of a predetermined number of samples; and first to the acoustic frame Frequency conversion is performed using each of the window function and the third window function to generate a first window spectrum that is a spectrum corresponding to the first window function and a third window spectrum that is a spectrum corresponding to the third window function. A spectrum conversion unit and a spectrum set corresponding to a predetermined low frequency band are extracted from each of the generated window spectra, and a sum of spectrum intensities is calculated for each spectrum set. Based on the ratio, the encoding means for outputting a predetermined code and an information array corresponding to the output code according to a predetermined rule Networked system using an acoustic signal, characterized in that the address information extraction means for extracting the transformation to the address information, is the extracted address information having address information transmitting means for transmitting to the terminal device Ri.
時系列のサンプル列で構成される音響信号に対して、ネットワーク上の所定のサイトにアクセスするためのアドレス情報を聴取不能な状態で埋め込む装置であって、
前記音響信号より、所定数Nのサンプルを音響フレームとして互いにN未満の所定サンプル数に対応する時刻だけずれた2種類のAタイプ音響フレーム、Bタイプ音響フレームを読み込む音響フレーム読込手段と、
前記Aタイプ音響フレームに対しては第1窓関数、第2窓関数、第3窓関数を用いてそれぞれ周波数変換を行い、前記第1窓関数に対応するスペクトルである第1窓スペクトル、前記第2窓関数に対応するスペクトルである第2窓スペクトル、前記第3窓関数に対応するスペクトルである第3窓スペクトルを生成するとともに、前記Bタイプ音響フレームに対しては第4窓関数を用いて周波数変換を行い、前記第4窓関数に対応するスペクトルである第4窓スペクトルを生成する周波数変換手段と、
前記生成された各窓スペクトルから、所定の低周波数帯に対応する低周波スペクトルをそれぞれ抽出し、前記埋め込むべき付加情報の情報配列の値に基づいて、前記抽出した各低周波スペクトルのうち、先頭の第1窓関数と後部の第3窓関数による低周波スペクトル強度の割合を変更すると共に、第2窓関数と第4窓関数による低周波スペクトルの各成分を除去する低周波成分変更手段と、
前記変更された低周波スペクトルを含む各窓スペクトルに対して周波数逆変換を行って、改変音響フレームを生成する周波数逆変換手段と、
前記生成された改変音響フレームを順次出力する改変音響フレーム出力手段と、を有しており、
前記第1窓関数、第2窓関数、第3窓関数、第4窓関数を加算すると、全区間固定値1になるように設定したものであり、
前記第1窓関数と第2窓関数、前記第2窓関数と第3窓関数は、同一時刻において、双方が同時に0でない値をもつような箇所が存在するように設定され、
前記第1窓関数と第3窓関数は、一方が0でない値をもつ場合に他方は必ず0となるように設定されるとともに、各窓関数の両側が非対称な余弦関数をもつように設定されるものであることを特徴とする音響信号に対するアドレス情報の埋め込み装置。

A device that embeds address information for accessing a predetermined site on a network in an inaudible state for an acoustic signal composed of a time-series sample sequence,
An acoustic frame reading means for reading two types of A-type acoustic frames and B-type acoustic frames that are shifted by a time corresponding to a predetermined number of samples less than N from the acoustic signal, with a predetermined number of N samples as acoustic frames;
The A type acoustic frame is subjected to frequency conversion using a first window function, a second window function, and a third window function, respectively, and a first window spectrum, which is a spectrum corresponding to the first window function, A second window spectrum that is a spectrum corresponding to a two-window function and a third window spectrum that is a spectrum corresponding to the third window function are generated, and a fourth window function is used for the B-type acoustic frame. Frequency conversion means for performing frequency conversion and generating a fourth window spectrum that is a spectrum corresponding to the fourth window function;
A low frequency spectrum corresponding to a predetermined low frequency band is extracted from each of the generated window spectrums, and based on the value of the information array of the additional information to be embedded, Low frequency component changing means for changing the ratio of the low frequency spectrum intensity by the first window function and the rear third window function and removing each component of the low frequency spectrum by the second window function and the fourth window function,
Frequency inverse transform means for performing frequency inverse transform on each window spectrum including the modified low frequency spectrum to generate a modified acoustic frame;
Modified sound frame output means for sequentially outputting the generated modified sound frames,
When the first window function, the second window function, the third window function, and the fourth window function are added, the whole section is set to a fixed value of 1,
The first window function and the second window function, and the second window function and the third window function are set so that there are locations where both have non-zero values at the same time,
The first window function and the third window function are set so that when one has a non-zero value, the other is always 0, and both sides of each window function have an asymmetric cosine function. A device for embedding address information for an acoustic signal, characterized in that:

JP2005312755A 2005-10-27 2005-10-27 Network connection device Expired - Fee Related JP4899416B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005312755A JP4899416B2 (en) 2005-10-27 2005-10-27 Network connection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005312755A JP4899416B2 (en) 2005-10-27 2005-10-27 Network connection device

Publications (2)

Publication Number Publication Date
JP2007121626A true JP2007121626A (en) 2007-05-17
JP4899416B2 JP4899416B2 (en) 2012-03-21

Family

ID=38145544

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005312755A Expired - Fee Related JP4899416B2 (en) 2005-10-27 2005-10-27 Network connection device

Country Status (1)

Country Link
JP (1) JP4899416B2 (en)

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009025400A (en) * 2007-07-17 2009-02-05 Dainippon Printing Co Ltd Device for embedding information in sound signal and device for extracting information from sound signal
JP2009080220A (en) * 2007-09-26 2009-04-16 Dainippon Printing Co Ltd Information embedding device for audio signal and information extraction device from audio signal
JP2009103883A (en) * 2007-10-23 2009-05-14 Dainippon Printing Co Ltd Network connection device
JP2011248118A (en) * 2010-05-27 2011-12-08 Hidehiko Sakai Homepage guiding method and system using acoustic communication method
JP2012511787A (en) * 2008-12-10 2012-05-24 アマゾン テクノロジーズ インコーポレイテッド Sharing content
JP2012227631A (en) * 2011-04-18 2012-11-15 Yamaha Corp Information providing system and portable terminal device
JP2013005377A (en) * 2011-06-21 2013-01-07 Yamaha Corp Mobile terminal device and information provision system
JP2013009053A (en) * 2011-06-22 2013-01-10 Yamaha Corp Acoustic positioning system, portable terminal device and acoustic positioning program
JP2013065106A (en) * 2011-09-15 2013-04-11 Ricoh Co Ltd Information communication system, client apparatus, host apparatus, connection information reception program, and connection information transmission program
JP2013545333A (en) * 2010-10-01 2013-12-19 アシオ リミテッド Data communication system
JP2017212750A (en) * 2017-08-04 2017-11-30 ヤマハ株式会社 Reproduction system, terminal device, information providing method, operation method of terminal device, and program
US20180098164A1 (en) 2014-08-26 2018-04-05 Yamaha Corporation Reproduction system, terminal device, method thereof, and non-transitory storage medium, for providing information
US10360278B2 (en) 2010-06-15 2019-07-23 Nintendo Of America Inc. System and method for accessing online content
EP3495834A3 (en) * 2017-12-08 2019-10-23 Sonarax Technologies Ltd. Sound based authentication and distance measurement
US10691400B2 (en) 2014-07-29 2020-06-23 Yamaha Corporation Information management system and information management method
US10733386B2 (en) 2014-07-29 2020-08-04 Yamaha Corporation Terminal device, information providing system, information presentation method, and information providing method
US11410670B2 (en) 2016-10-13 2022-08-09 Sonos Experience Limited Method and system for acoustic communication of data
US11445007B2 (en) 2014-01-25 2022-09-13 Q Technologies, Inc. Systems and methods for content sharing using uniquely generated identifiers
US11671825B2 (en) 2017-03-23 2023-06-06 Sonos Experience Limited Method and system for authenticating a device
US11683103B2 (en) 2016-10-13 2023-06-20 Sonos Experience Limited Method and system for acoustic communication of data
US11682405B2 (en) 2017-06-15 2023-06-20 Sonos Experience Limited Method and system for triggering events
US11870501B2 (en) 2017-12-20 2024-01-09 Sonos Experience Limited Method and system for improved acoustic transmission of data

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011119993A2 (en) 2010-03-25 2011-09-29 Mehul Shah Systems and methods for providing access to resources through enhanced audio signals

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001320337A (en) * 2000-05-10 2001-11-16 Nippon Telegr & Teleph Corp <Ntt> Method and device for transmitting acoustic signal and storage medium
JP2002183779A (en) * 2000-12-08 2002-06-28 Dainippon Printing Co Ltd Entrance management system and entrance management method
JP2002314980A (en) * 2001-04-10 2002-10-25 Mitsubishi Electric Corp Content selling system and content purchasing unit
JP2003500702A (en) * 1999-05-25 2003-01-07 アービトロン インコーポレイテッド Decoding information in audible signals
JP2007121330A (en) * 2005-10-24 2007-05-17 Dainippon Printing Co Ltd Device for embedding information into sound signal

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003500702A (en) * 1999-05-25 2003-01-07 アービトロン インコーポレイテッド Decoding information in audible signals
JP2001320337A (en) * 2000-05-10 2001-11-16 Nippon Telegr & Teleph Corp <Ntt> Method and device for transmitting acoustic signal and storage medium
JP2002183779A (en) * 2000-12-08 2002-06-28 Dainippon Printing Co Ltd Entrance management system and entrance management method
JP2002314980A (en) * 2001-04-10 2002-10-25 Mitsubishi Electric Corp Content selling system and content purchasing unit
JP2007121330A (en) * 2005-10-24 2007-05-17 Dainippon Printing Co Ltd Device for embedding information into sound signal

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009025400A (en) * 2007-07-17 2009-02-05 Dainippon Printing Co Ltd Device for embedding information in sound signal and device for extracting information from sound signal
JP2009080220A (en) * 2007-09-26 2009-04-16 Dainippon Printing Co Ltd Information embedding device for audio signal and information extraction device from audio signal
JP2009103883A (en) * 2007-10-23 2009-05-14 Dainippon Printing Co Ltd Network connection device
US8972496B2 (en) 2008-12-10 2015-03-03 Amazon Technologies, Inc. Content sharing
JP2012511787A (en) * 2008-12-10 2012-05-24 アマゾン テクノロジーズ インコーポレイテッド Sharing content
US9826022B2 (en) 2008-12-10 2017-11-21 Amazon Technologies, Inc. Sound wave-based content sharing
JP2011248118A (en) * 2010-05-27 2011-12-08 Hidehiko Sakai Homepage guiding method and system using acoustic communication method
US10360278B2 (en) 2010-06-15 2019-07-23 Nintendo Of America Inc. System and method for accessing online content
US11157582B2 (en) 2010-10-01 2021-10-26 Sonos Experience Limited Data communication system
JP2013545333A (en) * 2010-10-01 2013-12-19 アシオ リミテッド Data communication system
US10025870B2 (en) 2010-10-01 2018-07-17 Asio Ltd Data communication system
JP2012227631A (en) * 2011-04-18 2012-11-15 Yamaha Corp Information providing system and portable terminal device
JP2013005377A (en) * 2011-06-21 2013-01-07 Yamaha Corp Mobile terminal device and information provision system
JP2013009053A (en) * 2011-06-22 2013-01-10 Yamaha Corp Acoustic positioning system, portable terminal device and acoustic positioning program
JP2013065106A (en) * 2011-09-15 2013-04-11 Ricoh Co Ltd Information communication system, client apparatus, host apparatus, connection information reception program, and connection information transmission program
US11445007B2 (en) 2014-01-25 2022-09-13 Q Technologies, Inc. Systems and methods for content sharing using uniquely generated identifiers
US10691400B2 (en) 2014-07-29 2020-06-23 Yamaha Corporation Information management system and information management method
US10733386B2 (en) 2014-07-29 2020-08-04 Yamaha Corporation Terminal device, information providing system, information presentation method, and information providing method
US10542360B2 (en) 2014-08-26 2020-01-21 Yamaha Corporation Reproduction system, terminal device, method thereof, and non-transitory storage medium, for providing information
US10433083B2 (en) 2014-08-26 2019-10-01 Yamaha Corporation Audio processing device and method of providing information
US20180098164A1 (en) 2014-08-26 2018-04-05 Yamaha Corporation Reproduction system, terminal device, method thereof, and non-transitory storage medium, for providing information
US11410670B2 (en) 2016-10-13 2022-08-09 Sonos Experience Limited Method and system for acoustic communication of data
US11683103B2 (en) 2016-10-13 2023-06-20 Sonos Experience Limited Method and system for acoustic communication of data
US11854569B2 (en) 2016-10-13 2023-12-26 Sonos Experience Limited Data communication system
US11671825B2 (en) 2017-03-23 2023-06-06 Sonos Experience Limited Method and system for authenticating a device
US11682405B2 (en) 2017-06-15 2023-06-20 Sonos Experience Limited Method and system for triggering events
JP2017212750A (en) * 2017-08-04 2017-11-30 ヤマハ株式会社 Reproduction system, terminal device, information providing method, operation method of terminal device, and program
EP3495834A3 (en) * 2017-12-08 2019-10-23 Sonarax Technologies Ltd. Sound based authentication and distance measurement
US11870501B2 (en) 2017-12-20 2024-01-09 Sonos Experience Limited Method and system for improved acoustic transmission of data

Also Published As

Publication number Publication date
JP4899416B2 (en) 2012-03-21

Similar Documents

Publication Publication Date Title
JP4899416B2 (en) Network connection device
JP4780375B2 (en) Device for embedding control code in acoustic signal, and control system for time-series driving device using acoustic signal
JP4839775B2 (en) Information embedding device, method, and program for acoustic signal
JP4660275B2 (en) Information embedding apparatus and method for acoustic signal
JP4611952B2 (en) Program recording apparatus and commercial detection method
JP4629495B2 (en) Information embedding apparatus and method for acoustic signal
JP2007292827A (en) Acoustic signal retrieving apparatus
JP5011849B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP4770194B2 (en) Information embedding apparatus and method for acoustic signal
JP5082257B2 (en) Acoustic signal retrieval device
JP2007048340A (en) Device for extracting information from acoustic signal
JP2006195061A (en) Information embedding device for acoustic signal, information extracting device from acoustic signal and acoustic signal reproducing device
JP4839721B2 (en) Information embedding device for acoustic signals
JP4713180B2 (en) Device for extracting information from acoustic signals
JP4713181B2 (en) Information embedding device for sound signal, device for extracting information from sound signal, and sound signal reproducing device
JP4831335B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP5011855B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP5104200B2 (en) Network connection device
JP4831333B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP4760539B2 (en) Information embedding device for acoustic signals
JP4831334B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP4760540B2 (en) Information embedding device for acoustic signals
JP2008152154A (en) Device for embedding information on sound signal and device for extracting information from sound signal
JP5011872B2 (en) Information embedding device for sound signal and device for extracting information from sound signal
JP5003164B2 (en) Device for extracting information from acoustic signals

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081017

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110418

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111206

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111219

R150 Certificate of patent or registration of utility model

Ref document number: 4899416

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150113

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees