JP2000242286A - Information embedding method - Google Patents

Information embedding method

Info

Publication number
JP2000242286A
JP2000242286A JP11045939A JP4593999A JP2000242286A JP 2000242286 A JP2000242286 A JP 2000242286A JP 11045939 A JP11045939 A JP 11045939A JP 4593999 A JP4593999 A JP 4593999A JP 2000242286 A JP2000242286 A JP 2000242286A
Authority
JP
Japan
Prior art keywords
data
processing
sound data
watermark information
watermark
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP11045939A
Other languages
Japanese (ja)
Inventor
Junichi Taguchi
順一 田口
Masaru Adachi
勝 足立
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP11045939A priority Critical patent/JP2000242286A/en
Publication of JP2000242286A publication Critical patent/JP2000242286A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To make to prevention of auditory change compatible with the resistance to sound processing by obtaining the change processing position of the value of contents which can not be sensed by a man or does not disturb contents reference by man, performing a processing such as deletion, addition, or no alteration at the change processing position, and embedding information. SOLUTION: A processing candidate point detection 4 is performed first to extract a flat area of source sound data 2 or a flat point right before abrupt variation and thus a processing candidate point is detected to generate processing candidate point data 5. Through watermark information embedding 6, watermark information data 3 are embedded in the sound source data 2 by deleting or adding data and watermark sound data 7 are outputted. A user processes the watermark sound data 7 having the watermark information embedded additionally (by copying, analog conversion, MPEG3 compression, cutting, etc.), to alter the data, thereby outputting inspected sound data 13.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、音データに著作権
や販売日、販売先などの各種情報を埋め込む電子透かし
方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a digital watermarking method for embedding various information such as a copyright, a sale date, and a sales destination in sound data.

【0002】[0002]

【従来の技術】音データのデータ値を変更し、その変更
の仕方により、著作権などの情報を埋め込む電子透かし
機能には、以下の事柄が要求される。
2. Description of the Related Art The following items are required for a digital watermark function for changing the data value of sound data and embedding information such as copyright depending on the manner of the change.

【0003】(1)音データの変更を人間が認知できな
い。または、利用上問題にならない程度と判断できる。
(1) A change in sound data cannot be recognized by a human. Alternatively, it can be determined that there is no problem in use.

【0004】(2)情報を埋め込んだ音データにMPE
G3圧縮やアナログ変換などの音データの変更を伴う処
理を施しても、埋め込んだ情報がなるべく消失せず、検
知できる。
(2) MPE is applied to sound data in which information is embedded.
Even if a process involving change of sound data such as G3 compression or analog conversion is performed, the embedded information can be detected without losing as much as possible.

【0005】従来の情報埋め込み技術では、日経エレク
トロニクス(1997年)684号153頁から168頁に述べられ
ているように、これらの要求を満たすために、変更の対
象となる値の種類に関して工夫していた。すなわち、変
更が目立ちにくく、かつ、消失しにくいような値に対し
て変更を加えていた。例えば、音データを周波数表現
し、その中域成分の係数に対して変更を加えていた。
In the conventional information embedding technology, as described in Nikkei Electronics (1997), No. 684, pp. 153 to 168, in order to satisfy these requirements, the type of value to be changed is devised. I was That is, a change is made to a value that is hardly noticeable and hardly disappears. For example, sound data is expressed in frequency, and a change is made to the coefficient of the middle frequency component.

【0006】[0006]

【発明が解決しようとする課題】従来の技術では、音声
データの周波数特性を用いて情報を埋め込みを行ってき
た。そのため、聴覚的変化の防止を優先する場合には、
値の変更を小さくする必要があり、音処理の耐性が小さ
かった。一方、音処理への耐性を優先する場合には、値
の変更を大きくする必要があり、聴覚的変化が生じた。
すなわち、聴覚的変化の防止と音処理への耐性を両立す
ることが困難であった。
In the prior art, information has been embedded using the frequency characteristics of audio data. Therefore, if priority is given to preventing auditory changes,
It was necessary to make the value change small, and the tolerance of sound processing was small. On the other hand, when priority is given to the tolerance to sound processing, it is necessary to increase the value change, which causes an auditory change.
That is, it has been difficult to achieve both the prevention of auditory changes and the resistance to sound processing.

【0007】以上から、本発明が解決しようとする課題
は、音データへの情報埋め込みにおいて、聴覚的変化の
防止と音処理への耐性の両立を可能とする方法を提供す
ることである。
As described above, an object of the present invention is to provide a method for embedding information in sound data, which makes it possible to prevent both auditory changes and tolerate sound processing.

【0008】[0008]

【課題を解決するための手段】音データの特徴として、
以下の性質を持つ。
Means for Solving the Problems As characteristics of sound data,
It has the following properties.

【0009】(1)平坦な領域において、データを削除
したり追加しても、ほとんど人間が認知できない。
(1) Even if data is deleted or added in a flat area, almost no human can recognize it.

【0010】(2)急激な変化の直前の平坦な領域にお
いて、データを削除したり追加しても、ほとんど人間が
認知できない。
(2) In a flat area immediately before a rapid change, even if data is deleted or added, almost no human can recognize it.

【0011】上記の性質を利用して、上記の課題を解決
することを着想した。すなわち、上記の課題は、音デー
タを入力する手段と、音データに埋め込む手段を有する
情報処理システムにおいて、上記の(1)、(2)の領
域を検出して、データの追加または削除することにより
情報を埋め込むことで解決できる。
It has been conceived to solve the above-mentioned problem by utilizing the above properties. That is, the above-mentioned problem is to detect the above-mentioned areas (1) and (2) and add or delete data in an information processing system having means for inputting sound data and means for embedding the sound data. Can be solved by embedding information.

【0012】[0012]

【発明の実施の形態】本発明の実施例は、音データに情
報を埋め込む部分と情報を埋め込まれた音データから情
報を取り出す部分に大別される。本発明の音声データに
情報を埋め込む部分の特色は、音データの平坦な領域あ
るいは急激な変化直前の平坦点を検出して、データの削
除あるいは追加を行って情報を埋め込むことにある。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiments of the present invention are broadly classified into a part for embedding information in sound data and a part for extracting information from sound data in which information is embedded. The feature of the portion of the present invention in which the information is embedded in the audio data is to detect a flat region of the sound data or a flat point immediately before a sudden change, and delete or add the data to embed the information.

【0013】以下、(1)章では、本発明の第1の実施
例について簡単に説明し、(2)章では、情報読取り出
し時に原データありの場合について第2の実施例として
述べ、(3)章では情報読取り出し時に原データなしの
場合について第3の実施例として述べる。
In the following, section (1) briefly describes the first embodiment of the present invention, and section (2) describes the case where original data is present at the time of reading and extracting information as the second embodiment. In the section 3), a case where there is no original data at the time of reading and extracting information will be described as a third embodiment.

【0014】(1)第1の実施例 以下、図1、図2、図3、図4の機能構成図を用いて、
本発明の実施例を述べる。この実施例では、音データを
対象とし、データを削除あるいは追加により情報を埋め
込むものとする。
(1) First Embodiment Hereinafter, referring to the functional configuration diagrams of FIGS. 1, 2, 3, and 4,
An embodiment of the present invention will be described. In this embodiment, sound data is targeted, and information is embedded by deleting or adding data.

【0015】図1は透かし情報埋め込み処理装置1を、
図2はユーザ追加処理装置11を、図3は原音データあ
りの場合の透かし情報検出処理装置21を、図4は原音
データなしの場合の透かし情報検出処理装置31をそれ
ぞれ示している。
FIG. 1 shows a watermark information embedding processing device 1.
2 shows the user addition processing device 11, FIG. 3 shows the watermark information detection processing device 21 when there is original sound data, and FIG. 4 shows the watermark information detection processing device 31 when there is no original sound data.

【0016】まず、図1、図2、図3、図4の機能構成
を説明する。原音データ2、透かし情報データ3、透か
し音データ7、被検査音データ13、検出透かし情報デ
ータ25は外部記憶装置で実現される。加工候補点検出
4、透かし情報埋め込み6、ユーザ追加処理12、スタ
ート位置検出22(原音データあり)、透かし情報検出
24(原音データあり)、スタート位置検出32(原音
データなし)、透かし情報検出34(原音データなし)
は計算機のCPUで実現される。加工候補点データ5、
スタート位置データ23(原音データあり)、スタート
位置データ33(原音データなし)はデータであり、計
算機の記憶装置で実現される。
First, the functional configuration of FIGS. 1, 2, 3 and 4 will be described. The original sound data 2, the watermark information data 3, the watermark sound data 7, the inspected sound data 13, and the detected watermark information data 25 are realized by an external storage device. Processing candidate point detection 4, watermark information embedding 6, user addition processing 12, start position detection 22 (with original sound data), watermark information detection 24 (with original sound data), start position detection 32 (without original sound data), watermark information detection 34 (No original sound data)
Is realized by the CPU of the computer. Processing candidate point data 5,
The start position data 23 (with original sound data) and the start position data 33 (without original sound data) are data, and are realized by a storage device of a computer.

【0017】次に、図1を用いて透かし情報埋め込み処
理について説明する。まず、加工候補点検出4により原
音データ2の平坦な領域あるいは急激な変化直前の平坦
点を抽出し加工候補点を検出して加工候補点データ5を
作成する。そして、透かし情報埋め込み6により加工候
補点データ5を用いて、データを削除あるいは追加して
透かし情報データ3を原音データ2に埋め込み透かし音
データ7を出力する。詳細は、(2)章と(3)章で説
明する。
Next, the watermark information embedding process will be described with reference to FIG. First, a flat area of the original sound data 2 or a flat point immediately before a rapid change is extracted by the processing candidate point detection 4, and processing candidate points are detected to generate processing candidate point data 5. Then, the watermark information embedding 6 is used to delete or add data using the processing candidate point data 5 to embed the watermark information data 3 in the original sound data 2 and output the watermark sound data 7. Details will be described in Chapters (2) and (3).

【0018】次に、図2を用いてユーザ追加処理につい
て説明する。これは、透かし情報が埋め込まれた透かし
音データ7をユーザがユーザ追加処理12(コピー・ア
ナログ変換・MPEG3圧縮処理・切り出し等)を行っ
てデータを改竄し被検査音データ13を出力する。
Next, the user adding process will be described with reference to FIG. In this method, a user performs user addition processing 12 (copy, analog conversion, MPEG3 compression processing, cutout, etc.) on watermark sound data 7 in which watermark information is embedded, falsifies the data, and outputs inspection sound data 13.

【0019】次に、図3を用いて原音データ2ありの場
合の透かし情報検出処理について説明する。まず、加工
候補点検出4により原音データ2の加工候補点データ5
を作成する。次に、スタート位置検出22により原音デ
ータ2と被検査音データ13と加工候補点データ5を用
いてスタート位置データ23を検出する。次に、透かし
情報検出24により原音データ2と被検査音データ13
と加工候補点データ5を用い検出透かし情報データ25
出力する。詳細は、(2)章で説明する。
Next, a description will be given of the watermark information detection processing in the case where there is the original sound data 2 with reference to FIG. First, processing candidate point data 5 of the original sound data 2 is obtained by processing candidate point detection 4.
Create Next, start position detection 23 detects start position data 23 using original sound data 2, sound data 13 to be inspected, and processing candidate point data 5. Next, the original sound data 2 and the inspected sound data 13 are detected by the watermark information detection 24.
Watermark information data 25 using the
Output. Details will be described in Chapter (2).

【0020】次に、図4を用いて原音データ2なしの場
合の透かし情報検出処理について説明する。まず、スタ
ート位置検出32により被検査音データ13を用いてス
タート位置データ33を検出する。次に、透かし情報検
出34によりスタート位置データ33と被検査音データ
13を用い検出透かし情報データ25出力する。詳細
は、と(3)章で説明する。
Next, a description will be given of the watermark information detection processing in the case where there is no original sound data 2 with reference to FIG. First, start position data 33 is detected by the start position detection 32 using the test sound data 13. Next, the watermark information detection 34 outputs the detected watermark information data 25 using the start position data 33 and the test sound data 13. Details will be described in (3).

【0021】(2)第2の実施例(情報読取り出し時に
原データありの場合) 以下、本発明の第2の実施例について、2節に分けて説
明する。(2−1)節では透かし埋め込み処理につい
て、(2−2)節では透かし情報検出処理について説明
する。
(2) Second Embodiment (When Original Data Exists at Reading and Retrieving Information) A second embodiment of the present invention will be described below in two sections. Section (2-1) describes the watermark embedding processing, and Section (2-2) describes the watermark information detection processing.

【0022】(2−1)透かし埋め込み処理 図5を用い、透かし埋め込み処理の実施例を説明する。
図5は透かし埋め込み処理のフロー図で、以下図5のフ
ロー図の番号をステップ番号として手順を説明する。
(2-1) Watermark Embedding Processing An embodiment of the watermark embedding processing will be described with reference to FIG.
FIG. 5 is a flowchart of the watermark embedding process. Hereinafter, the procedure will be described using the numbers of the flowchart of FIG. 5 as step numbers.

【0023】ステップ41:原音データの差分の絶対値
を算出し差分データを作成する。
Step 41: Calculate the absolute value of the difference between the original sound data and create the difference data.

【0024】ステップ42:差分データにより、加工候
補点を決定し加工候補点データ5を作成する。詳細は
(2−1−1)節で示す。
Step 42: Processing candidate points are determined based on the difference data, and processing candidate point data 5 is created. Details are shown in section (2-1-1).

【0025】ステップ43:原音データの加工候補点に
透かし情報にもとずいて、透かし情報を原音データに埋
め込み、透かし音データを作成する。詳細は(2−1−
2)節で示す。
Step 43: The watermark information is embedded in the original sound data on the basis of the watermark information at the processing candidate points of the original sound data to create watermark sound data. See (2-1-
See section 2).

【0026】(2−1−1)加工候補点データ作成法 図6と図7を用いて加工候補点データの作成法を説明す
る。図6は加工候補点データ作成処理のフロー図で、以
下図6のフロー図の番号をステップ番号として手順を説
明する。
(2-1-1) Method for Creating Processing Candidate Point Data A method for creating processing candidate point data will be described with reference to FIGS. FIG. 6 is a flow chart of the processing for creating the processing candidate point data. Hereinafter, the procedure will be described with the numbers in the flow chart of FIG. 6 as step numbers.

【0027】ただし、以下のパラメータについては、事
前に設定してあるものとする。
However, it is assumed that the following parameters are set in advance.

【0028】平坦点検出値62:平坦点66を検出する
ための音データ値 急変点検出値63:急変点67を検出するための音デー
タ値 平坦連続値64:平坦領域68を検出するための連続値 加工候補点間隔65:加工候補点72の間隔値 ステップ51:差分データ61から平坦点検出値62よ
り小さい点を平坦点66、急変点検出値63より大きい
点を急変点67として検出する。概平坦点66が平坦連
続値64より連続している場合に平坦領域68、概急変
点67が連続している場合に急変領域69として抽出す
る。
Flat point detection value 62: Sound data value for detecting flat point 66 Rapid change point detection value 63: Sound data value for detecting sudden change point 67 Flat continuous value 64: Detecting flat area 68 Continuous value Processing candidate point interval 65: Interval value of processing candidate point 72 Step 51: A point smaller than flat point detection value 62 is detected from difference data 61 as flat point 66, and a point larger than sudden change point detection value 63 is detected as sudden change point 67. . When the substantially flat point 66 is more continuous than the flat continuous value 64, the flat area 68 is extracted.

【0029】ステップ52:概平坦領域68の中央の平
坦点70と概平急変領域69の直前の平坦点71を加工
候補対象点として検出する。
Step 52: The flat point 70 at the center of the substantially flat area 68 and the flat point 71 immediately before the rapidly changing area 69 are detected as processing candidate points.

【0030】ステップ53:概加工候補対象点70と7
1から加工候補点間隔65以上間隔がある点を加工候補
点72として決定し加工候補点データ5を作成する。
Step 53: rough machining candidate target points 70 and 7
A point having an interval of 65 or more from 1 is determined as a candidate processing point 72, and processing candidate point data 5 is created.

【0031】(2−1−2)透かし情報埋め込み処理 図8と図9を用いて透かし情報埋め込み処理法を説明す
る。図8は透かし情報埋め込み処理のフロー図で、以下
図8のフロー図の番号をステップ番号として手順を説明
する。
(2-1-2) Watermark Information Embedding Processing The watermark information embedding processing method will be described with reference to FIGS. FIG. 8 is a flowchart of the watermark information embedding process. Hereinafter, the procedure will be described by using the numbers in the flowchart of FIG. 8 as step numbers.

【0032】ステップ81:Flagと転送位置を初期
化する。
Step 81: The Flag and the transfer position are initialized.

【0033】ステップ82:概加工候補点データ5より
加工候補点位置104を取り出す。
Step 82: A candidate processing point position 104 is extracted from the approximate candidate processing point data 5.

【0034】ステップ83:転送位置より加工候補点位
置104の前のまでの原音データ102を透かし音デー
タ103に転送する。
Step 83: The original sound data 102 from the transfer position to before the processing candidate point position 104 is transferred to the watermark sound data 103.

【0035】ステップ84:透かし情報データ101よ
り1ビット取り出す。透かし情報データ101の最後の
ビットになったら先頭にもどって取り出す。
Step 84: One bit is extracted from the watermark information data 101. When it becomes the last bit of the watermark information data 101, it returns to the beginning and extracts it.

【0036】ステップ85:ステップ84で取り出した
情報が0であればステップ88に飛び、0でなければス
テップ87に飛ぶ。
Step 85: If the information extracted in step 84 is 0, the process jumps to step 88; if not, the process jumps to step 87.

【0037】ステップ86:Flagが0であればステ
ップ89に飛び、0でなければステップ87に飛ぶ。。
Step 86: If Flag is 0, jump to step 89; if not, jump to step 87. .

【0038】ステップ87:Flagを0にし、加工候
補点位置104の原音データ102と加工候補点位置1
04より1つ前の原音データ102の平均値107を透
かし音データ103のデータ追加位置106に転送した
後、加工候補点位置104の原音データ102のデータ
105を透かし音データ103に転送する。この処理は
データの追加処理である。
Step 87: Flag is set to 0, original sound data 102 at processing candidate point position 104 and processing candidate point position 1
After transferring the average value 107 of the original sound data 102 which is one prior to 04 to the data addition position 106 of the watermark sound data 103, the data 105 of the original sound data 102 at the processing candidate point position 104 is transferred to the watermark sound data 103. This processing is data addition processing.

【0039】ステップ88:加工候補点位置104の原
音データ102のデータ105を転送する。これは、加
工処理なしである。
Step 88: The data 105 of the original sound data 102 at the processing candidate point position 104 is transferred. This is without any processing.

【0040】ステップ89:Flagを1にする。この
処理はデータの削減処理である。
Step 89: Flag is set to 1. This process is a data reduction process.

【0041】ステップ90:転送位置に加工候補点位置
104の1つ後の位置を設定する。
Step 90: The next position of the processing candidate point position 104 is set as the transfer position.

【0042】ステップ91:概加工候補点データ5に加
工候補点位置104が残っていれば、ステップ82に戻
る。
Step 91: If the processing candidate point position 104 remains in the rough processing candidate point data 5, the process returns to step 82.

【0043】ステップ92:転送位置から原音データ1
02の終了点までの原音データ102のデータを透かし
音データ103に転送する。
Step 92: Original sound data 1 from transfer position
The data of the original sound data 102 up to the end point 02 is transferred to the watermark sound data 103.

【0044】(2−2)透かし情報検出処理 図10を用い、透かし情報検出処理の実施例を説明す
る。図10は透かし情報検出処理のフロー図で、以下図
10のフロー図の番号をステップ番号として手順を説明
する。
(2-2) Watermark Information Detection Process An embodiment of the watermark information detection process will be described with reference to FIG. FIG. 10 is a flowchart of the watermark information detection process. Hereinafter, the procedure will be described using the numbers in the flowchart of FIG. 10 as step numbers.

【0045】ステップ111:原音データより加工候補
点データを作成する。作成方法は(2−1−1)と同
じ。
Step 111: Create processing candidate point data from the original sound data. The creation method is the same as (2-1-1).

【0046】ステップ112:原音データと被検査音デ
ータより、原音データと被検査音データのスタート位置
を検出する。この処理はカット処理されて被検査音デー
タを作成したとき必要でカット処理されていない場合
は、原音データと被検査音データの先頭位置がスタート
位置となる。詳細は(2−2−1)節で示す。
Step 112: From the original sound data and the test sound data, the starting positions of the original sound data and the test sound data are detected. This processing is necessary when the test sound data is created by the cut processing. If the cut processing is not performed, the start positions of the original sound data and the test sound data are the start positions. Details are shown in section (2-2-1).

【0047】ステップ113:原音データと被検査音デ
ータのスタート位置位置より検出透かし情報データを検
出する。詳細は(2−2−3)節で示す。
Step 113: The detected watermark information data is detected from the start positions of the original sound data and the sound data to be inspected. Details are given in section (2-2-3).

【0048】(2−2−1)スタート位置の検出法 図11と図12を用いてスタート位置検出法を説明す
る。図11はスタート位置検出処理のフロー図で、以下
図11のフロー図の番号をステップ番号として手順を説
明する。
(2-2-1) Start Position Detection Method A start position detection method will be described with reference to FIGS. FIG. 11 is a flowchart of the start position detecting process. Hereinafter, the procedure will be described by using the numbers in the flowchart of FIG. 11 as step numbers.

【0049】ただし、以下のパラメータについては、事
前に設定してあるものとする。
However, it is assumed that the following parameters are set in advance.

【0050】加工候補点スキップ数:加工候補点のスキ
ップ数 検出サーチ範囲値139:スタート位置のサーチ範囲 ステップ121:原音データ131と被検査音データ1
32を比較して概略スタート位置133を検出する。検
出は音を聞き比べて被検査音データ132の先頭と原音
データ131が一致する位置を検出する。
Number of processing candidate point skips: Number of processing candidate point skips Detection search range value 139: Search range of start position Step 121: Original sound data 131 and test sound data 1
32, the approximate start position 133 is detected. In the detection, a position where the head of the test sound data 132 matches the original sound data 131 is detected by comparing sounds.

【0051】ステップ122:原音データ131の概略
スタート位置133より加工候補点134を加工候補点
スキップ数だけ飛ばした原音サーチデータ135を抽出
する。
Step 122: Extract original sound search data 135 obtained by skipping the processing candidate point 134 by the processing candidate point skip number from the approximate start position 133 of the original sound data 131.

【0052】ステップ123:被検査音データ132の
先頭より検出サーチ範囲値139の範囲で原音サーチデ
ータ135を用いて類似度を算出し、類似度の大きい位
置を検出して原音スタート位置137と被検査音スター
ト位置138を検出する。類似度の算出法について詳細
は(2−2−2)節で示す節で示す。
Step 123: The similarity is calculated using the original sound search data 135 in the range of the detection search range value 139 from the head of the sound data 132 to be inspected, a position having a large similarity is detected, and the original sound start position 137 and the original sound start position 137 are detected. The inspection sound start position 138 is detected. Details of the method of calculating the similarity will be described in the section shown in section (2-2-2).

【0053】(2−2−2)類似度の算出法 類似度の算出は、以下に説明する類似度算出法のどれか
一つ用いて行う。
(2-2-2) Method of Calculating Similarity The calculation of similarity is performed using any one of the similarity calculation methods described below.

【0054】相関値法 原音データ131と被検査音データ132の相関値を算
出し、大きい値を類似度が大きいとする。
Correlation Value Method A correlation value between the original sound data 131 and the test sound data 132 is calculated, and a larger value is regarded as having a higher similarity.

【0055】差の2乗和法 原音データ131と被検査音データ132の差の2乗和
を算出し、小さい値を類似度が大きいとする。
Sum of squares method of difference The sum of squares of the difference between the original sound data 131 and the test sound data 132 is calculated, and a small value is regarded as a large similarity.

【0056】差の絶対値法 原音データ131と被検査音データ132の差の絶対値
の和を算出し、小さい値を類似度が大きいとする。
Absolute Value Method of Difference The sum of the absolute value of the difference between the original sound data 131 and the test sound data 132 is calculated, and a smaller value is regarded as having a higher similarity.

【0057】合わせ込み法 との方法において、原音データ131の変わりに原
音データ131から原音データ131の平均値を引いた
値と、被検査音データ132の変わりに被検査音データ
132から被検査音データ132の平均値を引いた値を
用いる。
In the matching method, the value obtained by subtracting the average value of the original sound data 131 from the original sound data 131 instead of the original sound data 131 and the sound to be inspected from the sound data to be inspected 132 instead of the sound data to be inspected 132 A value obtained by subtracting the average value of the data 132 is used.

【0058】(2−2−3)透かし情報データ検出法 図13と図14を用い、透かし情報データ検出処理の実
施例を説明する。図13は透かし情報データ検出処理の
フロー図で、以下図13のフロー図の番号をステップ番
号として手順を説明する。
(2-2-3) Watermark Information Data Detection Method An embodiment of the watermark information data detection processing will be described with reference to FIGS. FIG. 13 is a flowchart of the watermark information data detection process. The procedure will be described below using the numbers in the flowchart of FIG. 13 as step numbers.

【0059】ステップ141:原音データ161のスタ
ート位置169から次の加工候補点166までのデータ
長を検出する。
Step 141: The data length from the start position 169 of the original sound data 161 to the next processing candidate point 166 is detected.

【0060】ステップ142:原音検出位置に原音デー
タ161のスタート位置164と、被検査音位置に被検
査音データ162のスタート位置165をセットする。
Step 142: The start position 164 of the original sound data 161 is set at the original sound detection position, and the start position 165 of the test sound data 162 is set at the test sound position.

【0061】ステップ143:原音検出位置と被検査音
位置をステップ142で検出したデータ長+1だけ異動
する。
Step 143: The original sound detection position and the inspected sound position are shifted by the data length +1 detected in step 142.

【0062】ステップ144:原音検出位置から原音デ
ータ161の次の加工候補点166までのデータ長を検
出する。
Step 144: The data length from the original sound detection position to the next processing candidate point 166 of the original sound data 161 is detected.

【0063】ステップ145:原音検出位置からステッ
プ144で検出したデータ長−1の原音データ161を
原音チェックデータ167として抽出する。
Step 145: Extract original sound data 161 having a data length of -1 detected in step 144 from the original sound detection position as original sound check data 167.

【0064】ステップ146:被検査音位置および被検
査音位置−1および被検査音位置+1からの被検査音デ
ータ162と原音チェックデータ167の類似度をそれ
ぞれ算出する。なお、類似度の算出は(2−2−2)を
用いる。
Step 146: Calculate the similarity between the test sound data 162 and the original sound check data 167 from the test sound position, the test sound position -1 and the test sound position +1. Note that the calculation of the similarity uses (2-2-2).

【0065】ステップ147:被検査音位置からステッ
プ146で算出した類似度が一番大きい場合ステップ1
49に飛び、それ以外であればステップ148に飛ぶ。
Step 147: When the similarity calculated in step 146 from the position of the sound to be inspected is the largest Step 1
Jump to step 49, otherwise jump to step 148.

【0066】ステップ148:被検査音位置−1からス
テップ146で算出した類似度が一番大きい場合ステッ
プ150に飛び、それ以外であればステップ151に飛
ぶ。
Step 148: If the similarity calculated in step 146 from the test sound position -1 is the largest, the process jumps to step 150; otherwise, the process jumps to step 151.

【0067】ステップ149:透かし情報埋め込み処理
で加工候補点の処理が変更なしなので検出透かし情報デ
ータ163に0を出力する。また、原音検出位置をステ
ップ144で検出したデータ長異動する。また被検査音
位置をステップ144で検出したデータ長異動する。
Step 149: In the watermark information embedding processing, 0 is output to the detected watermark information data 163 because the processing of the processing candidate point is not changed. Further, the original sound detection position changes by the data length detected in step 144. Also, the position of the sound to be inspected changes by the data length detected in step 144.

【0068】ステップ150:透かし情報埋め込み処理
で加工候補点の処理がデータ削除点なので検出透かし情
報データ163に1を出力する。また、原音検出位置を
ステップ144で検出したデータ長異動する。また被検
査音位置をステップ144で検出したデータ長−1異動
する。
Step 150: 1 is output to the detected watermark information data 163 because the processing at the processing candidate point in the watermark information embedding processing is the data deletion point. Further, the original sound detection position changes by the data length detected in step 144. In addition, the position of the sound to be inspected changes by the data length detected in step 144-1.

【0069】ステップ151:透かし情報埋め込み処理
で加工候補点の処理がデータ追加データ点(追加データ
168を追加)なので検出透かし情報データ163に1
を出力する。また、原音検出位置をステップ144で検
出したデータ長異動する。また被検査音位置をステップ
144で検出したデータ長+1異動する。
Step 151: Since the processing of the processing candidate point in the watermark information embedding processing is a data additional data point (additional data 168 is added), one is added to the detected watermark information data 163.
Is output. Further, the original sound detection position changes by the data length detected in step 144. Further, the position of the sound to be inspected is shifted by the data length detected in step 144 + 1.

【0070】ステップ152:被検査音位置が被検査音
データ162をオーバーしていなければステップ144
に飛ぶ。
Step 152: If the position of the sound to be inspected does not exceed the sound data 162 to be inspected, step 144
Fly to.

【0071】ステップ152:検出透かし情報データ1
63を出力する。
Step 152: detected watermark information data 1
63 is output.

【0072】(3)第3の実施例(情報読取り出し時に
原データなしの場合) 音データ171の特徴として図15で示すように、中央
値172(1バイトデータの場合127)を0とした場
合、一定を切り出領域の総和を算出すると0に近い値に
なる。この特徴を利用し、原音データを区分データサイ
ズ173(例えば、44kHの音データで0.01秒で分割した
場合440データ)に分割し、その区分データ間の総和が
+またはーになるようにデータ削除やデータ追加するこ
とにより、透かし情報を埋め込むことができる。そし
て、透かし情報の検出は、区分データの区切り位置を検
出し、それ以後の区分データの総和が+またはーを判定
することにより実現可能である。
(3) Third Embodiment (In the case where there is no original data at the time of reading and extracting information) As shown in FIG. 15, the central value 172 (127 in the case of 1-byte data) is set to 0 as a feature of the sound data 171. In this case, when the sum of the cut-out areas is calculated to be constant, the sum is close to zero. Using this feature, the original sound data is divided into divided data size 173 (for example, 440 data when sound data of 44 kHz is divided in 0.01 seconds), and data is deleted such that the sum between the divided data becomes + or-. By adding data or data, watermark information can be embedded. The detection of the watermark information can be realized by detecting the division position of the divided data and determining whether the sum of the divided data thereafter is + or-.

【0073】以下、本発明の第3の実施例について、2
節に分けて説明する。(3−1)節では透かし埋め込み
処理について、(3−2)節では透かし情報検出処理に
ついて説明する。
Hereinafter, a third embodiment of the present invention will be described.
The explanation is divided into sections. Section (3-1) describes the watermark embedding processing, and section (3-2) describes the watermark information detection processing.

【0074】ただし、以下のパラメータについては、事
前に設定してあるものとする。
However, it is assumed that the following parameters are set in advance.

【0075】区分データサイズ:区分データのサイズ (3−1)透かし埋め込み処理 図16を用い、透かし埋め込み処理の実施例を説明す
る。図16は透かし埋め込み処理のフロー図で、以下図
16のフロー図の番号をステップ番号として手順を説明
する。
Partition Data Size: Partition Data Size (3-1) Watermark Embedding Processing An embodiment of the watermark embedding processing will be described with reference to FIG. FIG. 16 is a flowchart of the watermark embedding process. Hereinafter, the procedure will be described using the numbers in the flowchart of FIG. 16 as step numbers.

【0076】ステップ181:原音データの差分の絶対
値を算出し差分データを作成する。
Step 181: Calculate the absolute value of the difference between the original sound data and create the difference data.

【0077】ステップ182:原音データと差分データ
を区分データサイズに分割する。以下区分データサイズ
に分割したデータを区分データとする。
Step 182: The original sound data and the difference data are divided into divided data sizes. Hereinafter, the data divided into the division data sizes is referred to as division data.

【0078】ステップ183:差分データにより、区分
データ内の加工候補点を決定し加工候補点データを作成
する。ただし、データが+の加工候補点とデータがーの
加工候補点が同数になるようにする。詳細は(3−1−
1)節で示す。
Step 183: Based on the difference data, a processing candidate point in the section data is determined, and processing candidate point data is created. However, the number of processing candidate points with data "+" and the number of processing candidate points with data "-" are the same. For details, see (3-1-
See section 1).

【0079】ステップ184:透かし情報データより1
ビット取り出す。透かし情報データが最後のビットにな
ったら先頭にもどって取り出す。
Step 184: 1 from watermark information data
Take out the bits. When the watermark information data becomes the last bit, return to the beginning and extract it.

【0080】ステップ185:ステップ184で取り出
した情報が0であればステップ187に飛び、0でなけ
ればステップ186に飛ぶ。
Step 185: If the information extracted in step 184 is 0, the process jumps to step 187; otherwise, the process jumps to step 186.

【0081】ステップ186:区分データ内のデータの
総和が+になるように、加工候補点のデータが+ならば
データの追加処理、加工候補点のデータがーならばデー
タの削除処理を行う。詳細は(3−1−2)節で示す。
Step 186: If the data of the processing candidate point is +, data addition processing is performed, and if the data of the processing candidate point is-, data deletion processing is performed so that the sum of the data in the section data becomes +. Details are shown in section (3-1-2).

【0082】ステップ187:区分データ内のデータの
総和がーになるように、加工候補点のデータがーならば
データの追加処理、加工候補点のデータが+ならばデー
タの削除処理を行う。詳細は(3−1−2)節で示す。
Step 187: If the data of the processing candidate point is-, the data addition processing is performed, and if the data of the processing candidate point is +, the data deletion processing is performed so that the sum of the data in the section data becomes-. Details are shown in section (3-1-2).

【0083】ステップ188:ステップ186またはス
テップ187で処理した区分データを透かし音データに
出力する。
Step 188: The section data processed in step 186 or 187 is output as watermark sound data.

【0084】ステップ189:区分データが残っていれ
ばステップ183に飛ぶ。
Step 189: If the section data remains, the process jumps to step 183.

【0085】ステップ190:残りの原音データを透か
し音データに出力する。
Step 190: The remaining original sound data is output as watermark sound data.

【0086】(3−1−1)加工候補点データ作成法 図17と図19を用いて加工候補点データの作成法を説
明する。図17は加工候補点データ作成処理のフロー図
で、以下図17のフロー図の番号をステップ番号として
手順を説明する。
(3-1-1) Method for Creating Processing Candidate Point Data A method for creating processing candidate point data will be described with reference to FIGS. FIG. 17 is a flowchart of the processing for creating candidate processing point data. The procedure will be described below using the numbers in the flowchart of FIG. 17 as step numbers.

【0087】ただし、以下のパラメータについては、事
前に設定してあるものとする。
However, it is assumed that the following parameters are set in advance.

【0088】平坦点検出値212:平坦点215を検出
するための音データ値 急変点検出値213:急変点216を検出するための音
データ値 加工候補点間隔214:加工候補点を検出するための間
隔値 ステップ201:差分データ211から平坦点検出値2
12より小さい点を平坦点215、急変点検出値213
より大きい点を急変点216として検出する。概平坦点
215が加工候補点間隔214より連続している場合に
平坦領域217、概急変点216が連続している場合に
急変領域218として抽出する。
Flat point detection value 212: Sound data value for detecting flat point 215 Rapid change point detection value 213: Sound data value for detecting rapid change point 216 Processing candidate point interval 214: For detecting processing candidate point Step 201: Flat point detection value 2 from difference data 211
A point smaller than 12 is a flat point 215 and a sudden change point detection value 213.
A larger point is detected as a sudden change point 216. When the substantially flat point 215 is continuous from the processing candidate point interval 214, it is extracted as a flat area 217.

【0089】ステップ202:概平坦領域217を加工
候補点間隔214の間隔で分割し中央の平坦点219と
概平急変領域218の直前の平坦点220を加工候補対
象点として検出する。
Step 202: The roughly flat area 217 is divided at the processing candidate point interval 214, and the flat point 219 in the center and the flat point 220 immediately before the almost flat sudden change area 218 are detected as processing candidate target points.

【0090】ステップ203:データが+の加工候補対
象点の数とデータがーの加工候補対象点の数の小さい数
だけ、 データが+の加工候補対象点とーの加工候補対
象点を抽出して加工候補点データを作成する。
Step 203: Extract the processing candidate target points with + data and the processing candidate target points with-as small as the number of processing candidate target points with + data and the number of processing candidate target points with-data. To create machining candidate point data.

【0091】(3−1−2)透かし情報埋め込み処理 図20と図21と図22を用いて透かし情報埋め込み処
理法を説明する。図20は区分データ内で原音データ2
31上の加工候補点232をしめす。図21は区分デー
タ内で区分データ内の総和が+になるように、加工候補
点232のデータが+ならば加工候補点232のデータ
を追加し、加工候補点232のデータがーならば加工候
補点232のデータを削除し区分データを示す。図22
は区分データ内で区分データ内の総和がーになるよう
に、加工候補点232のデータがーならば加工候補点2
32のデータを追加し、加工候補点232のデータが+
ならば加工候補点232のデータを削除し区分データを
示す。このように、透かし情報データが0ならば図22
のように、また、透かし情報データが1ならば図21の
ようにように区分データ内を処理して、透かし情報の埋
め込み処理を行う。
(3-1-2) Watermark Information Embedding Processing The watermark information embedding method will be described with reference to FIGS. 20, 21 and 22. FIG. 20 shows original sound data 2 in the section data.
The processing candidate point 232 on 31 is shown. FIG. 21 shows that, if the data of the processing candidate point 232 is +, the data of the processing candidate point 232 is added so that the sum in the division data becomes +, and if the data of the processing candidate point 232 is-, the processing is performed. The data of the candidate point 232 is deleted to show the section data. FIG.
Is the processing candidate point 2 if the data of the processing candidate point 232 is-so that the sum in the section data becomes-
32 data is added, and the data of the machining candidate point 232 is +
If so, the data of the processing candidate point 232 is deleted to indicate the section data. Thus, if the watermark information data is 0, FIG.
If the watermark information data is 1, as shown in FIG. 21, the processing in the divided data is performed as shown in FIG. 21 to embed the watermark information.

【0092】(3−2)透かし情報検出処理 図23を用い、透かし埋め込み処理の実施例を説明す
る。図23は透かし埋め込み処理のフロー図で、以下図
23のフロー図の番号をステップ番号として手順を説明
する。
(3-2) Watermark Information Detection Processing An embodiment of the watermark embedding processing will be described with reference to FIG. FIG. 23 is a flowchart of the watermark embedding process. Hereinafter, the procedure will be described by using the numbers in the flowchart of FIG. 23 as step numbers.

【0093】ステップ241:区分データサイズの16分
の1づつずらした位置より、 被検査音データを評価し
スタート位置を検出する。詳細は(3−2−1)節で示
す。ただし、被検査音データが切り出し処理がなされて
いない場合は、スタート位置は被検査音データの先頭位
置である。
Step 241: The test sound data is evaluated from the position shifted by 1/16 of the section data size, and the start position is detected. Details are given in section (3-2-1). However, when the test sound data has not been cut out, the start position is the head position of the test sound data.

【0094】ステップ242:被検査音データをスター
ト位置より、区分データサイズにより分割し、区分デー
タ内のデータの総和が+かーかにより検出透かし情報を
抽出し情報データを検出する。詳細は(2−2−2)節
で示す。
Step 242: The test sound data is divided from the start position by the division data size, and the detection watermark information is extracted based on whether the sum of the data in the division data is plus or minus to detect the information data. Details are shown in section (2-2-2).

【0095】(3−2−1)スタート位置の検出法 図24を用いてスタート位置の検出法を説明する。ま
ず、透かし情報が区分データ内のデータ値の総和が+あ
るいはーになるように 埋め込んであり、区分データの
量が十分多ければ次のような仮定がなりたつ。ここで、
251は透かし情報設定時のスタート位置、252は情
報設定時とズレた場合のスタート位置、253は区分デ
ータサイズ、254は区分データ内のデータ値の平均値
とする。図24に示すように、符号が+−逆転している
場所では区分データ内のデータ値の総和は小さくり、ス
タート位置のズレが大きければより小さくなる。そこ
で、スタート位置をずらして区分データ内の総和の絶対
値を累積すれば、累計値のもっとも大きなスタート位置
が情報設定時のスタート位置にもっとも近いスタート位
置になる。
(3-2-1) Start Position Detection Method A start position detection method will be described with reference to FIG. First, the watermark information is embedded so that the sum of the data values in the segmented data becomes + or-. If the amount of segmented data is sufficiently large, the following assumption is made. here,
251 is a start position at the time of setting watermark information, 252 is a start position at the time of deviation from the information setting, 253 is a section data size, and 254 is an average value of data values in the section data. As shown in FIG. 24, the sum of the data values in the segmented data is small at a place where the sign is reversed in the +/− direction, and is smaller when the deviation of the start position is large. Therefore, by accumulating the absolute value of the sum in the divided data by shifting the start position, the start position having the largest cumulative value becomes the start position closest to the start position at the time of setting the information.

【0096】次に、図25のスタート位置の検出法処理
のフロー図をもちいて処理手順を、図25のフロー図の
番号をステップ番号として説明する。
Next, the processing procedure will be described with reference to the flowchart of the start position detecting method processing of FIG. 25, where the numbers in the flowchart of FIG. 25 are step numbers.

【0097】ステップ261:区分データサイズを16
等分して、スタート位置を設定する。
Step 261: Set partition data size to 16
Divide equally and set the start position.

【0098】ステップ262:ステップ261で設定し
たスタート位置より被検査音データを、区分データサイ
ズに分割する。
Step 262: The to-be-tested sound data is divided into divided data sizes from the start position set in step 261.

【0099】ステップ263:区分データ内のデータ値
の総和の絶対値を累計する。
Step 263: The absolute value of the sum of the data values in the section data is accumulated.

【0100】ステップ264:設定した全スタート位置
を終了していなければ、ステップ262に飛ぶ。
Step 264: If all set start positions have not been completed, the process jumps to step 262.

【0101】ステップ265:ステップ263で算出し
た累計値が最大のスタート位置をスタート位置データと
して出力する。
Step 265: The start position having the maximum total value calculated in step 263 is output as start position data.

【0102】(3−2−2)透かし情報データ検出法 図26と図18を用い、透かし情報データ検出処理の実
施例を説明する。図26は透かし情報データ検出処理の
フロー図で、以下図26のフロー図の番号をステップ番
号として手順を説明する。
(3-2-2) Watermark Information Data Detection Method An embodiment of the watermark information data detection processing will be described with reference to FIGS. 26 and 18. FIG. 26 is a flowchart of the watermark information data detection process. The procedure will be described below using the numbers in the flowchart of FIG. 26 as step numbers.

【0103】ステップ271:スタート位置データのス
タート位置284より、被検査音データを区分データサ
イズに分割する。
Step 271: From the start position 284 of the start position data, the to-be-inspected sound data is divided into divided data sizes.

【0104】ステップ272:区分データ281内のデ
ータ値の総和(平均値282)がーならばステップ27
4に飛ぶ。
Step 272: If the sum (average value 282) of the data values in the section data 281 is minus, then step 27
Fly to 4.

【0105】ステップ273:検出透かし情報データ2
83に0を出力する。
Step 273: Detection watermark information data 2
0 is output to 83.

【0106】ステップ274:検出透かし情報データ2
83に1を出力する。
Step 274: Detection watermark information data 2
Output 1 to 83.

【0107】ステップ275:区分データが終了でない
ならステップ272に飛ぶ。
Step 275: If the division data is not completed, the flow jumps to step 272.

【0108】ステップ276:検出透かし情報データ2
83を出力する。
Step 276: Detected watermark information data 2
83 is output.

【0109】[0109]

【発明の効果】本発明によれば、音データへの情報埋め
込みにおいて、劣化の防止と埋め込み情報の耐性の両立
が可能になる。
According to the present invention, in embedding information into sound data, it is possible to prevent deterioration and to attain both the durability of embedded information.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1実施例における透かし情報埋め込
み処理装置の機能構成図。
FIG. 1 is a functional configuration diagram of a watermark information embedding processing device according to a first embodiment of the present invention.

【図2】本発明の第1実施例におけるユーザー座追加処
理装置の機能構成図。
FIG. 2 is a functional configuration diagram of a user's account addition processing device according to the first embodiment of the present invention.

【図3】本発明の第1実施例における原音データありの
透かし情報検出処理装置の機能構成図。
FIG. 3 is a functional configuration diagram of a watermark information detection processing device with original sound data according to the first embodiment of the present invention.

【図4】本発明の第1実施例における原音データなしの
透かし情報検出処理装置の機能構成図。
FIG. 4 is a functional configuration diagram of a watermark information detection processing device without original sound data according to the first embodiment of the present invention.

【図5】本発明の第2実施例における透かし情報埋め込
み処理のフロー図。
FIG. 5 is a flowchart of watermark information embedding processing according to a second embodiment of the present invention.

【図6】加工候補点検出処理のフロー図。FIG. 6 is a flowchart of processing candidate point detection processing.

【図7】加工候補点検出処理の具体例。FIG. 7 is a specific example of processing candidate point detection processing.

【図8】透かし情報埋め込み作成方のフロー図。FIG. 8 is a flowchart of how to create watermark information.

【図9】透かし情報埋め込み処理の具体例。FIG. 9 shows a specific example of watermark information embedding processing.

【図10】本発明の第2実施例における透かし情報検出
処理のフロー図。
FIG. 10 is a flowchart of a watermark information detection process according to a second embodiment of the present invention.

【図11】スタート位置検出処理のフロー図。FIG. 11 is a flowchart of a start position detection process.

【図12】スタート位置検出処理の具体例。FIG. 12 is a specific example of a start position detection process.

【図13】透かし情報検出方のフロー図。FIG. 13 is a flowchart of a method for detecting watermark information.

【図14】透かし情報検出方のの具体例。FIG. 14 is a specific example of a method of detecting watermark information.

【図15】本発明の第3実施例における音データ特徴説
明図。
FIG. 15 is an explanatory diagram of sound data characteristics according to a third embodiment of the present invention.

【図16】本発明の第3実施例における透かし情報埋め
込み処理のフロー図。
FIG. 16 is a flowchart of watermark information embedding processing according to a third embodiment of the present invention.

【図17】加工候補点検出処理のフロー図。FIG. 17 is a flowchart of processing candidate point detection processing.

【図18】透かし情報検出方のの具体例。FIG. 18 is a specific example of a method of detecting watermark information.

【図19】加工候補点検出処理の具体例。FIG. 19 is a specific example of processing candidate point detection processing.

【図20】透かし情報埋め込み処理の具体例。FIG. 20 shows a specific example of watermark information embedding processing.

【図21】透かし情報埋め込み処理の具体例。FIG. 21 shows a specific example of watermark information embedding processing.

【図22】透かし情報埋め込み処理の具体例。FIG. 22 shows a specific example of watermark information embedding processing.

【図23】本発明の第3実施例における透かし情報検出
処理のフロー図。
FIG. 23 is a flowchart of watermark information detection processing according to a third embodiment of the present invention.

【図24】スタート位置検出処理の具体例。FIG. 24 is a specific example of a start position detection process.

【図25】スタート位置検出処理の具体例。FIG. 25 is a specific example of a start position detection process.

【図26】透かし情報検出方のフロー図。FIG. 26 is a flowchart of how to detect watermark information.

【符号の説明】[Explanation of symbols]

1…透かし情報埋め込み装置、2…原音データ、3…透
かし情報データ、4…加工候補点検出処理、5…加工候
補点データ、6…透かし情報埋め込み処理、7…透かし
音データ。
DESCRIPTION OF SYMBOLS 1 ... watermark information embedding apparatus, 2 ... original sound data, 3 ... watermark information data, 4 ... processing candidate point detection processing, 5 ... processing candidate point data, 6 ... watermark information embedding processing, 7 ... watermark sound data.

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】コンテンツを入力する手段と、コンテンツ
に情報を埋め込む手段を有する情報処理システムにおい
て、人間には知覚できない、あるいは、人間のコンテン
ツ参照の妨害にならないコンテンツの値の変更加工位置
を求め、上記変更加工位置に削除あるいは追加あるいは
無変更の処理をすることにより情報を埋め込むことを特
徴とする情報埋め込み方法。
In an information processing system having means for inputting content and means for embedding information in the content, a change processing position of a value of the content which cannot be perceived by a human or hinders a human from referring to the content is obtained. An information embedding method characterized in that information is embedded by performing processing of deletion, addition, or no change at the changed processing position.
JP11045939A 1999-02-24 1999-02-24 Information embedding method Pending JP2000242286A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11045939A JP2000242286A (en) 1999-02-24 1999-02-24 Information embedding method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11045939A JP2000242286A (en) 1999-02-24 1999-02-24 Information embedding method

Publications (1)

Publication Number Publication Date
JP2000242286A true JP2000242286A (en) 2000-09-08

Family

ID=12733257

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11045939A Pending JP2000242286A (en) 1999-02-24 1999-02-24 Information embedding method

Country Status (1)

Country Link
JP (1) JP2000242286A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7370204B2 (en) 2002-02-12 2008-05-06 Yamaha Corporation Watermark data embedding apparatus and extracting apparatus
CN104867495A (en) * 2013-08-28 2015-08-26 德州仪器公司 Sound Symbol Detection Of Context Sensing

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7370204B2 (en) 2002-02-12 2008-05-06 Yamaha Corporation Watermark data embedding apparatus and extracting apparatus
CN104867495A (en) * 2013-08-28 2015-08-26 德州仪器公司 Sound Symbol Detection Of Context Sensing

Similar Documents

Publication Publication Date Title
JP3897825B2 (en) Information signal water mark
US20050177738A1 (en) Watermark embedding and retrieval
Kalker Considerations on watermarking security
JP4519678B2 (en) Digital watermark detection method and apparatus, digital watermark embedding method and apparatus
US6975744B2 (en) Detection of multiple watermarks and improved watermark calibration signals
JP4337064B2 (en) Information processing apparatus, information processing method, and program
JP4346809B2 (en) Digital watermark information detection method
JP3570213B2 (en) Digital watermark image processing method
US20020172425A1 (en) Recognizer of text-based work
US20100063978A1 (en) Apparatus and method for inserting/extracting nonblind watermark using features of digital media data
US20020062442A1 (en) Watermarking technique for scaled image
KR20060124698A (en) Watermark detection
WO2008004181A2 (en) Methods and devices for managing a play-list of digital content
JP2000242286A (en) Information embedding method
JPH10340270A (en) Information filtering method, information filtering device, and recording medium
JP3623936B2 (en) Method for embedding watermark information in audio information and method for detecting watermark information from audio information in which watermark information is embedded
Imamura et al. Image content detection method using correlation coefficient between pixel value histograms
KR100739031B1 (en) Method of mpeg-7 meta data hiding and detection to retrieve multimedia for multimedia indexing retrieval system
WO2008060115A1 (en) Method of detecting watermark using sub-block and apparatus therefor
Zhu et al. Key-based melody segmentation for popular songs
JP2001358935A (en) Electronic information embedding device and computer- readable recording medium having electronic information embedding program recorded thereon
KR20020031653A (en) Method and apparatus for embedding watermarks in multi-channel digital audio data
KR100986404B1 (en) Method and apparatus for detecting duplicate posts in blog environment
KR100962247B1 (en) Method for detecting copy of video
WO2013011896A1 (en) Information processing apparatus, information processing method, and program