JPH11265181A - Watermark information embedding processor, watermark information embedding method, watermark information reading processor and watermark information reading method - Google Patents

Watermark information embedding processor, watermark information embedding method, watermark information reading processor and watermark information reading method

Info

Publication number
JPH11265181A
JPH11265181A JP10085046A JP8504698A JPH11265181A JP H11265181 A JPH11265181 A JP H11265181A JP 10085046 A JP10085046 A JP 10085046A JP 8504698 A JP8504698 A JP 8504698A JP H11265181 A JPH11265181 A JP H11265181A
Authority
JP
Japan
Prior art keywords
watermark information
embedding
watermark
information
volume
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10085046A
Other languages
Japanese (ja)
Inventor
Joji Naito
丈嗣 内藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Victor Company of Japan Ltd
Original Assignee
Victor Company of Japan Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Victor Company of Japan Ltd filed Critical Victor Company of Japan Ltd
Priority to JP10085046A priority Critical patent/JPH11265181A/en
Priority to CN 99104041 priority patent/CN1229228A/en
Publication of JPH11265181A publication Critical patent/JPH11265181A/en
Pending legal-status Critical Current

Links

Landscapes

  • Auxiliary Devices For Music (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

PROBLEM TO BE SOLVED: To make the removal of MIDI data without destruction difficult and to embed watermark information without damaging quality as MIDI data. SOLUTION: This embedding processor is composed of a sound volume density calculating means 5 for calculating the sound volume density of supplied MIDI data 1 per unit time for each musical scale, sync pattern selecting means 6 for selecting the pattern of small correlation 8 (sync pattern) in the sound volume density calculated by this sound volume density calculating means 5, watermark embedding position selecting means 10 for selecting a watermark information embedding position corresponding to the sound volume density as a relative position with the pattern selected by this sync pattern selecting means 6 as a reference, change event detecting means 7 for detecting an event corresponding to the watermark information embedding position selected by this watermark embedding position selecting means 10, and watermark information embedding means 9 for embedding watermark information 2 in the event detected by the change event detecting means 7.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】通信カラオケなどの演奏情報
として使用されるMIDIデータに対して、MIDIデ
ータの不正コピーや不正利用を防止するために、著作権
などの制作者に関する情報を透かし情報(digital wat
ermark)として記録する透かし情報埋め込み処理装置及
び透かし情報埋め込み方法と、その透かし情報を読み出
す透かし情報読み出し処理装置及び透かし情報読み出し
方法に関するものである。
BACKGROUND OF THE INVENTION For MIDI data used as performance information of a communication karaoke or the like, in order to prevent unauthorized copying or unauthorized use of MIDI data, information about a creator such as a copyright is watermarked (digital). wat
The present invention relates to a watermark information embedding apparatus and a watermark information embedding method for recording as a watermark information, and a watermark information reading processing apparatus and a watermark information reading method for reading the watermark information.

【0002】[0002]

【従来の技術】近年、画像データや音声データ等のコン
テンツデータがデジタル化され、CD−ROM等の蓄積
媒体に記録されて配付されたり、インターネットなどの
ネットワークにより送受信されるようになって、コンテ
ンツデータの不正コピーやコピーしたものを著作権者に
無許可で販売する等の不正利用が問題になっている。こ
のような不正利用を防止する手段として、コンテンツデ
ータに著作権などの制作者に関する情報を透かし情報
(digital watermark)として記録する電子透かし埋め
込み方法が研究開発されている。
2. Description of the Related Art In recent years, content data such as image data and audio data has been digitized, recorded on a storage medium such as a CD-ROM and distributed, or transmitted / received via a network such as the Internet. Unauthorized use, such as unauthorized copying of data or sale of the copied data to the copyright holder without permission, has become a problem. As a means for preventing such unauthorized use, a digital watermark embedding method of recording information about a creator such as copyright in content data as watermark information (digital watermark) has been researched and developed.

【0003】この電子透かしに必要な条件としては、
無理に取り去ろうとするとコンテンツデータが壊れてし
まうように透かし情報を埋め込むこと(コンテンツデー
タに著作権を示す透かし情報が残り続けること)、コ
ンテンツデータのどこに透かし情報が埋め込まれている
か分かりにくいこと、透かし情報を埋め込んでもコン
テンツデータはオリジナルの状態を留めておくこと等が
ある。これらの条件を満たす電子透かし技術としては、
画像データや音声データに存在する人間の知覚上重要で
ない部分(冗長部分)に透かし情報を雑音として埋め込
むことにより、全体のデータ量を変えずに透かし情報を
埋め込むものが考えられている。そして、これは大きく
分けて、画像データや音声データの標本値に透かし情報
を埋め込む方法と、周波数成分に埋め込む方法の2つが
ある。
The conditions required for this digital watermark are as follows:
Embedding the watermark information so that the content data will be broken if you try to forcibly remove it (the watermark information indicating the copyright remains in the content data), it is difficult to understand where the watermark information is embedded in the content data, Even when the watermark information is embedded, the original state of the content data may be kept. Digital watermarking technology that meets these conditions includes:
A method has been considered in which watermark information is embedded as noise in a portion (redundant portion) that is not important for human perception in image data and audio data, and the watermark information is embedded without changing the entire data amount. The methods are roughly classified into a method of embedding watermark information in sample values of image data and audio data, and a method of embedding watermark information in frequency components.

【0004】[0004]

【発明が解決しようとする課題】MIDIデータは、最
近では通信カラオケの演奏情報としても利用され、それ
自身が、音楽情報としても利用されている。したがっ
て、個々のMIDIデータに対しても著作権が発生して
おり、これを守る必要がある。また、最近では、業務用
だけでなく家庭用の通信カラオケとして、インターネッ
トなどで曲データ(MIDIデータ)を送信し、家庭内
のパソコン上で作動するソフトシンセサイザ等で演奏さ
せるものも出てきている。
The MIDI data has recently been used as performance information for communication karaoke, and has itself been used as music information. Therefore, a copyright is generated for each MIDI data, and it is necessary to protect the copyright. Recently, as communication karaoke not only for business use but also for home use, music data (MIDI data) is transmitted over the Internet or the like and played by a software synthesizer or the like that operates on a personal computer at home. .

【0005】そして、この家庭用の通信カラオケでは、
曲データ(MIDIデータ)を一旦受信した後では何度
でも繰り返し使用することができるようにするために、
ハードディスク等に蓄積することができる。このため曲
データ(MIDIデータ)を不正にコピーしたり、コピ
ーしたデータを権利者に無断で商業的に利用することも
可能な状態になっている。
[0005] In this home-use communication karaoke,
Once the song data (MIDI data) has been received, it can be used over and over again,
It can be stored on a hard disk or the like. For this reason, music data (MIDI data) can be illegally copied, and the copied data can be used commercially without the permission of the right holder.

【0006】そこで、MIDIデータに対しても透かし
情報を埋め込んで著作権を保護する必要性が認識されて
いるが、MIDIデータの性質上、上記したような画像
データや音声データのように周波数成分に埋め込むこと
はできず、また、標本値に個別に透かし情報を埋め込ん
でも十分な強度が得られなかった。そこで、本発明は、
MIDIデータに対して、MIDIデータを破壊せずに
取り除くことが困難で、またMIDIデータとしてのク
オリティを損なわないように透かし情報を埋め込むこと
を目的とする。
Therefore, it is recognized that it is necessary to protect the copyright by embedding watermark information in MIDI data. However, due to the nature of MIDI data, frequency components such as image data and audio data as described above are required. Cannot be embedded, and sufficient strength cannot be obtained even if watermark information is individually embedded in sample values. Therefore, the present invention
An object of the present invention is to embed watermark information in MIDI data so that it is difficult to remove the MIDI data without destroying the MIDI data, and that the quality of the MIDI data is not impaired.

【0007】[0007]

【課題を解決するための手段】標準的なMIDIデータ
には、音の発音し始めるタイミングを表わすノートオン
イベントや音の発音を停止するタイミングを表わすノー
トオフイベントが発生時刻情報及び音の強さを表すベロ
シティと共に記録されている。また音源の音量を各チャ
ンネルごとに設定するボリュームコントロールイベント
およびエクスプレッションコントロールイベント等のボ
リューム系のコントロールイベントにより音量のコント
ロールが可能となっている。そして、実際にシンセサイ
ザ等の音源を鳴らす際の各ノートの発音量はこれらベロ
シティ及びボリューム系のコントロールイベントのパラ
メータによって決定される。透かし情報が離散的に埋め
込まれたMIDIデータに対して、第3者がデータの一
部を切り取ったり転調したりするなどの編集を行うと、
権利者は透かし情報の埋め込み位置を特定するのが困難
になり、透かし情報を読み出せなくなる。
The standard MIDI data includes a note-on event indicating a timing at which a sound starts to be emitted and a note-off event indicating a timing at which the sound is stopped to be generated. Recorded with the velocity representing The volume can be controlled by volume control events such as a volume control event and an expression control event for setting the volume of the sound source for each channel. The sound volume of each note when actually sounding a sound source such as a synthesizer is determined by the parameters of these velocity and volume control events. When a third party edits the MIDI data in which the watermark information is discretely embedded, such as by cutting out or transposing a part of the data,
It becomes difficult for the right holder to specify the embedding position of the watermark information, and the right holder cannot read the watermark information.

【0008】そこで本発明の透かし情報埋め込み方法で
は、各音程ごとに単位時間あたりの音量密度を求め、こ
れから特徴ある(相関の小さい)一定の大きさのパター
ンを選出し、これをシンクパターンとする。そして、透
かし情報をこの音量密度に埋め込む際に、このシンクパ
ターンの先頭を基準点とする時間成分と音程成分からな
るベクトルで透かし情報埋め込み位置を確定させること
により、データの切り取りや転調などの処理を行っても
(シンクパターンが破壊されない限り)、透かしデータ
の埋め込み位置を探しだすことができる。ここで、音量
密度はMIDIデータに含まれる情報の中でも改ざんが
困難な情報であるので、シンクパターンの破壊はほとん
どないと考えて良い。
Therefore, in the watermark information embedding method of the present invention, the volume density per unit time is obtained for each interval, and a characteristic (small correlation) constant-size pattern is selected therefrom, which is used as a sync pattern. . Then, when embedding the watermark information into the volume density, the watermark information embedding position is determined by a vector including a time component and a pitch component with the head of the sync pattern as a reference point, thereby performing processing such as data cutting and modulation. (As long as the sync pattern is not destroyed), the embedding position of the watermark data can be found. Here, since the volume density is information that is difficult to falsify among the information included in the MIDI data, it can be considered that the sync pattern is hardly destroyed.

【0009】本発明は、上記課題を解決するための手段
として、以下に示す装置及び方法を提供しようとするも
のである。 1.供給されるMIDIデータに含まれる全てのノート
イベントのべロシティ情報とボリューム系のコントロー
ルイベント情報とを基にして各音程ごとに単位時間当た
りの音量密度を算出する音量密度算出手段と、この音量
密度算出手段にて算出された音量密度中の相関の小さい
パターンを選出するシンクパターン選出手段と、このシ
ンクパターン選出手段にて選出されたパターンを基準と
した相対位置として、前記音量密度に対する透かし情報
埋め込み位置を選出する透かし埋め込み位置選出手段
と、この透かし埋め込み位置選出手段で選出された透か
し情報埋め込み位置に対応するイベントを検出する変更
イベント検出手段と、透かし情報を前記変更イベント検
出手段で検出されたイベントに埋め込む透かし情報埋め
込み手段とを有することを特徴とする透かし情報埋め込
み処理装置。
The present invention aims to provide the following apparatus and method as means for solving the above problems. 1. Volume density calculating means for calculating the volume density per unit time for each interval based on the velocity information of all note events and the volume-related control event information contained in the supplied MIDI data; A sync pattern selecting unit for selecting a pattern having a small correlation in the volume density calculated by the volume density calculating unit; and a watermark for the volume density as a relative position based on the pattern selected by the sync pattern selecting unit. A watermark embedding position selecting means for selecting an information embedding position; a change event detecting means for detecting an event corresponding to the watermark information embedding position selected by the watermark embedding position selecting means; and a watermark information detected by the change event detecting means. Watermark information embedding means for embedding in a specified event. And a watermark information embedding processing device.

【0010】2.MIDIデータに含まれる全てのノー
トイベントのべロシティ情報とボリューム系のコントロ
ールイベント情報とを基にして各音程ごとに単位時間あ
たりの音量密度を算出し、この音量密度中の相関の小さ
いパターンを選出して、この選出されたパターンに基づ
いて、透かし情報をMIDIデータに埋め込むことを特
徴とする透かし情報埋め込み方法。
2. The volume density per unit time is calculated for each interval based on the velocity information of all note events and the volume-related control event information included in the MIDI data, and the correlation among the volume densities is calculated. A watermark information embedding method characterized by selecting a pattern having a small size, and embedding watermark information in MIDI data based on the selected pattern.

【0011】3.透かし情報が埋め込まれたMIDIデ
ータに含まれる全てのノートイベントのべロシティ情報
とボリューム系のコントロールイベント情報とを基にし
て各音程ごとに単位時間当たりの音量密度を算出する音
量密度算出手段と、この音量密度算出手段から供給され
る音量密度と、透かし情報を埋め込む前のMIDIデー
タから得たシンクパターンとの相関をとり、相関の最も
大きい部分をこの音量密度のシンクパターンとするシン
クパターン検出手段と、シンクパターンの先頭を基準点
とする透かし情報の埋め込み位置を示す透かし相対的埋
め込み位置情報によって透かし情報の位置を検出して読
み出すことにより、埋め込まれた透かし情報を出力する
透かし情報読み出し手段とを有することを特徴とする透
かし情報読み出し処理装置。
3. Volume for calculating volume density per unit time for each interval based on velocity information of all note events and volume-related control event information included in MIDI data in which watermark information is embedded. The density calculator calculates a correlation between the volume density supplied from the volume density calculator and a sync pattern obtained from MIDI data before embedding watermark information, and determines a portion having the largest correlation with a sync pattern of the volume density. The embedded watermark information is output by detecting and reading the position of the watermark information based on the sync pattern detecting means for detecting the watermark information and the watermark relative embedding position information indicating the embedding position of the watermark information with the head of the sync pattern as the reference point. Watermark information reading means having watermark information reading means. Equipment.

【0012】4.透かし情報が埋め込まれたMIDIデ
ータに含まれる全てのノートイベントのべロシティ情報
とボリューム系のコントロールイベント情報とを基にし
て各音程ごとに単位時間あたりの音量密度を求め、透か
し情報を埋め込む前のMIDIデータから得たシンクパ
ターンとの相関をとり、相関の最も大きい部分をこの音
量密度のシンクパターンとし、シンクパターンの先頭を
基準点とする透かし情報の埋め込み位置を示す透かし相
対的埋め込み位置情報によって、透かし情報の位置を検
出して読み出すことにより、透かし情報を出力すること
を特徴とする透かし情報読み出し方法。
4. Based on the velocity information of all note events included in the MIDI data in which the watermark information is embedded and the control event information of the volume system, the volume density per unit time is obtained for each interval, and before embedding the watermark information A correlation with a sync pattern obtained from MIDI data is obtained, a portion having the largest correlation is set as a sync pattern of this volume density, and watermark relative embedding position information indicating an embedding position of watermark information with the head of the sync pattern as a reference point. A watermark information reading method, wherein the watermark information is output by detecting and reading the position of the watermark information.

【0013】[0013]

【発明の実施の形態】以下、本発明の一実施の形態を図
面と共に説明する。図1は、本発明の透かし情報埋め込
み処理装置の一実施の形態を示すブロック図である。同
図に示す透かし情報埋め込み処理装置は、供給されるM
IDIデータ1の各音程ごとの単位時間当たりの音量密
度を算出する音量密度算出手段5と、この音量密度算出
手段5にて算出された音量密度中の相関の小さいパター
ン(シンクパターン)8を選出するシンクパターン選出
手段6と、このシンクパターン選出手段6にて選出され
たパターンを基準とした相対位置として、音量密度に対
する透かし情報埋め込み位置を選出する透かし埋め込み
位置選出手段10と、この透かし埋め込み位置選出手段
10で選出された透かし情報埋め込み位置に対応するイ
ベントを検出する変更イベント検出手段7と、透かし情
報2を変更イベント検出手段7で検出されたイベントに
埋め込む透かし情報埋め込み手段9とで構成されてい
る。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing an embodiment of a watermark information embedding processing apparatus according to the present invention. The watermark information embedding processing apparatus shown in FIG.
Volume density calculating means 5 for calculating the volume density per unit time of each interval of the IDI data 1 and a pattern (sink pattern) 8 having a small correlation in the volume density calculated by the volume density calculating means 5 are selected. Sync pattern selecting means 6, a watermark embedding position selecting means 10 for selecting a watermark information embedding position with respect to the volume density as a relative position based on the pattern selected by the sync pattern selecting means 6, and a watermark embedding position The change event detection means 7 detects an event corresponding to the watermark information embedding position selected by the selection means 10, and the watermark information embedding means 9 embeds the watermark information 2 in the event detected by the change event detection means 7. ing.

【0014】そして、演奏情報(曲データ)であるMI
DIデータ1は、まず音量密度算出手段5に供給されて
各音程ごとの単位時間当たりの音量密度が算出される。
この音量密度の算出は、ノートオンイベントとそれに対
応するノートオフイベントの間に一定の強さの信号が存
在すると考え、このノートイベントのベロシティをボリ
ュームコントロールイベントやエクスプレッションコン
トロールイベント等のボリューム系コントロールイベン
トの値で補正し、この補正した値をノートオフからノー
トオンまでの区間で積分することにより行われる。
[0014] The performance information (song data) MI
The DI data 1 is first supplied to the volume density calculating means 5 to calculate the volume density per unit time for each interval.
The calculation of the volume density is based on the assumption that there is a signal of a certain strength between the note-on event and the corresponding note-off event, and the velocity of this note event is calculated using a volume control event such as a volume control event or an expression control event. This is performed by integrating the corrected value in a section from note-off to note-on.

【0015】すなわち、全てのMIDIチャンネルの音
程を持つ音色(リズム音色など、音程を持たない音色を
除く)が指定されている全てのノートイベントのなか
で、同一のピッチ(音程)を有するノートイベントを単
位時間よりも少し広い幅を持つハミング窓関数を掛けな
がら全て積分し、それぞれの単位時間における音量密度
とする。
That is, note events having the same pitch (pitch) among all note events in which timbres having pitches of all MIDI channels (excluding timbres having no pitch such as rhythm timbres) are designated. Are all integrated while multiplying by a Hamming window function having a width slightly wider than the unit time to obtain a volume density at each unit time.

【0016】この音量密度算出手段5における音量密度
の算出処理手順を図3のフローチャートに示し、以下に
説明する。なお、同図中のframeLengthは単位時間窓の
長さ(一定値)で時間の単位はticks(ティックス)で
ある。また、powerTableは音色毎に決定されるべロシテ
ィとボリューム系コントロールイベントの値とから求め
られる音量テーブルの値、humming_windowはハミング窓
関数、powerDensityは音量密度、size_of_songは曲の長
さを表すものである。
FIG. 3 is a flowchart showing the processing procedure for calculating the volume density in the volume density calculating means 5 and will be described below. Note that frameLength in the figure is the length of a unit time window (constant value), and the unit of time is ticks (ticks). In addition, powerTable is a value of a volume table obtained from a velocity determined for each tone and a value of a volume control event, humming_window is a humming window function, powerDensity is a volume density, and size_of_song is a length of a song. .

【0017】同図に示す処理において、まず、初期化を
行う。ピッチ(音程)は、初期値を0にして127まで
1づつ加算していく。フレーム番号(単位時間枠の番
号)は、初期値を0にして(曲の長さ/単位時間の長
さ)まで1づつ加算していく。そして、各ピッチとフレ
ーム番号毎に決定される各音量密度の初期値を全て0に
設定しておく(ステップ21)。
In the process shown in FIG. 1, first, initialization is performed. For the pitch (pitch), the initial value is set to 0, and 127 is added one by one. The frame number (unit time frame number) is set to an initial value of 0, and is added one by one up to (length of music / length of unit time). Then, the initial values of the sound volume densities determined for each pitch and frame number are all set to 0 (step 21).

【0018】次に、指定されたピッチ及びフレーム番号
に含まれる全てのノートイベントのうちの始めの1つを
参照して(ステップ22)、ノートオンのタイミング
(曲の開始からの時刻がticksで表される)、ノートの
音程、ノートのベロシティをそれぞれの変数に代入する
(ステップ23)。そして、ノートオンのタイミングを
単位時間窓の長さで割ってフレーム番号を算出し(ステ
ップ24)、ノートのベロシティとボリューム系コント
ロールイベントの値で決定される音量テーブルの値を変
数powerに代入する(ステップ25)。さらに、この変
数powerにハミング窓をかけて音量密度に積算する(ス
テップ26)。このときのハミング窓の値は、曲全体に
対するtimeで与えられる時刻の割合に単位時間窓の長さ
をかけたものに対応させた値としてテーブルで用意され
ている。
Next, referring to the first one of all the note events included in the designated pitch and frame number (step 22), the note-on timing (the time from the start of the music is ticks. ), The pitch of the note, and the velocity of the note are substituted for the respective variables (step 23). Then, the frame number is calculated by dividing the note-on timing by the length of the unit time window (step 24), and the value of the volume table determined by the velocity of the note and the value of the volume control event is substituted for the variable power. (Step 25). Further, the variable power is multiplied by a hamming window and integrated into the volume density (step 26). The value of the humming window at this time is prepared in a table as a value corresponding to a value obtained by multiplying the ratio of the time given by “time” to the whole music by the length of the unit time window.

【0019】そして、timeで与えられる時刻を1ticks
加算して(ステップ27)、timeで与えられる時刻がノ
ートオフのタイミングになるまでステップ24以降を繰
り返す(ステップ28)。さらに、timeで与えられる時
刻がノートオフのタイミングになると次のノートイベン
トを参照して、ステップ22以降を繰り返す(ステップ
29)。このようにすることにより、音程及び単位時間
ごとの音量密度を求めることができる。なお、ステップ
27では、加算する時間幅は1に限らず、単位時間窓の
長さ以下であればいくつであっても良い。
Then, the time given by time is set to 1 ticks
The addition is performed (Step 27), and Step 24 and the subsequent steps are repeated until the time given by time becomes the note-off timing (Step 28). Further, when the time given by "time" becomes the note-off timing, the next note event is referred to, and step 22 and thereafter are repeated (step 29). In this way, the pitch and the volume density per unit time can be obtained. In step 27, the time width to be added is not limited to 1, and may be any number as long as it is equal to or less than the length of the unit time window.

【0020】また、区間の境界部分の重み付けを小さく
するハミング窓関数を掛けることにより、透かし情報を
読み出す際に単位時間の区間検出位置に誤差が生じた場
合でも、算出される音量密度には誤差の影響がほとんど
生じないようにしている。そして、このようにして算出
された音量密度は、MIDIデータの構造を変化させて
も、大きく変動しないパラメータであるので、透かし情
報を埋め込むのに適当であると考えられる。
Further, by applying a Hamming window function for reducing the weight of the boundary between the sections, even if an error occurs in the section detection position in a unit time when reading the watermark information, the calculated volume density has an error. The influence of is hardly caused. The volume density calculated in this manner is a parameter that does not greatly change even when the structure of the MIDI data is changed, and thus is considered suitable for embedding watermark information.

【0021】このようにして、音量密度算出手段5で算
出した音量密度は、図1に示すシンクパターン選出手段
6に供給される。ここでは、音量密度に相関関数をかけ
て、相関の小さい(エミュレーションの発生しにくそう
な)部分を探しだし、一定長さの時間方向および音程方
向に連続する音量密度の一部分を取り出し、これをシン
クパターン8とする。このシンクパターン8は曲が切断
された場合にも含まれるように1フレーズに1個以上取
出すのが望ましい。
The volume density calculated by the volume density calculating means 5 is supplied to the sync pattern selecting means 6 shown in FIG. Here, the correlation function is multiplied by the volume density to find a portion where the correlation is small (emulation is unlikely to occur), and a part of the volume density that is continuous in the time direction and the pitch direction of a fixed length is extracted. Is a sync pattern 8. It is desirable to extract one or more sync patterns 8 per phrase so that the sync patterns 8 are included even when the music is cut.

【0022】そして、このシンクパターン8は読み出し
時に使用するために権利者が保有すると共に、透かし埋
め込み位置選出手段10に出力される。透かし埋め込み
位置選出手段10は、音量密度算出手段5より供給され
る音量密度に対して透かし情報を埋め込む位置を選出
し、この位置をシンクパターン8からの相対位置として
求め、時間成分と音程成分とからなる透かし相対的埋め
込み位置情報4として出力する(権利者保有)と共に変
更イベント検出手段に出力する。変更イベント検出手段
7では、透かし相対的埋め込み位置情報4で示される埋
め込み位置に対応するべロシティまたはボリューム系コ
ントロールイベントを検出する。
The sync pattern 8 is held by the right holder for use at the time of reading, and is output to the watermark embedding position selecting means 10. The watermark embedding position selecting means 10 selects a position for embedding watermark information with respect to the volume density supplied from the volume density calculating means 5, obtains this position as a relative position from the sync pattern 8, and calculates a time component and a pitch component. The information is output as watermark relative embedding position information 4 (owned by the right holder) and output to the change event detecting means. The change event detecting means 7 detects a velocity or volume control event corresponding to the embedding position indicated by the watermark relative embedding position information 4.

【0023】さらに、透かし情報埋め込み手段9によ
り、入力されるMIDIデータ1に対して、変更イベン
ト検出手段7で指定するべロシティまたはボリューム系
コントロールイベントに、透かし情報が埋め込まれる。
この透かし情報の埋め込みでもっとも単純な例として
は、音量密度に透かし情報を直接加えるなどの方法があ
る。そして、透かし情報埋め込み時に、シンクパターン
の先頭を基準点とし、これから透かしデ−タの埋め込む
音量密度までの時間方向および音程方向の相対的距離
(ベクトル)を透かし相対埋め込み位置情報4として権
利者側で保管しておく。
Further, the watermark information embedding means 9 embeds watermark information in the velocity or volume control event designated by the change event detecting means 7 for the input MIDI data 1.
The simplest example of embedding the watermark information is a method of directly adding the watermark information to the volume density. At the time of embedding the watermark information, the relative distance (vector) in the time direction and the pitch direction from the head of the sync pattern as a reference point to the volume density at which the watermark data is to be embedded is set as watermark relative embedding position information 4 as the right holder's side. Keep in.

【0024】このようにして透かし情報が埋め込まれた
埋め込み後のMIDIデータ3は、一般に配付・利用さ
れる。そして、透かし相対的埋め込み位置情報4及びシ
ンクパターン8は、権利者が保有しているので、第3者
がMIDIデータの内容を破壊しないで、埋め込み後の
MIDIデータ3から透かし情報のみを取り出すことは
非常に困難である。
The embedded MIDI data 3 in which the watermark information is embedded as described above is generally distributed and used. Since the watermark relative embedding position information 4 and the sync pattern 8 are owned by the right holder, a third party can extract only the watermark information from the embedded MIDI data 3 without destroying the contents of the MIDI data. Is very difficult.

【0025】次に、このようにして作成された埋め込み
後のMIDIデータ3から透かし情報を読み出す透かし
情報読み出し処理装置について、図2と共に説明する。
同図に示す情報読み出し処理装置は、不正利用されてい
る可能性のあるMIDIデータから透かし情報を読み出
すために、権利者が使用するものである。
Next, a description will be given of a watermark information reading processing apparatus for reading watermark information from the embedded MIDI data 3 created as described above, with reference to FIG.
The information reading processing device shown in FIG. 1 is used by a right holder to read watermark information from MIDI data that may be illegally used.

【0026】まず、埋め込み後のMIDIデータ3は、
音量密度算出手段11に供給され、上記で説明した透か
し情報埋め込み処理装置の音量密度算出手段5と全く同
様にして音量密度(powerDensity)を算出する。そし
て、シンクパターン検出手段12により、音量密度と権
利者の保有するシンクパターン8との相関をとり、相関
の最も大きいまたはパターンの一致する所をこの音量密
度のシンクパターンと判断し、検出したシンクパターン
を透かし情報読み出し手段13に出力する。
First, the MIDI data 3 after embedding is
It is supplied to the volume density calculating means 11 and calculates the volume density (powerDensity) in exactly the same way as the volume density calculating means 5 of the watermark information embedding processing device described above. Then, the sync pattern detecting means 12 correlates the volume density with the sync pattern 8 held by the right holder, and determines a portion having the largest correlation or a pattern coincident with the sync pattern of this volume density, and detects the detected sync pattern. The pattern is output to the watermark information reading means 13.

【0027】透かし情報読み出し手段13では、供給さ
れるシンクパターン8の先頭を基準点として、透かし相
対的埋め込み位置情報4によって音量密度に埋め込まれ
ている透かし情報の位置を検出して読み出すことによ
り、埋め込まれた透かし情報を得ることができる。
The watermark information reading means 13 detects and reads the position of the watermark information embedded in the volume density by the watermark relative embedding position information 4 with the head of the supplied sync pattern 8 as a reference point. Embedded watermark information can be obtained.

【0028】[0028]

【発明の効果】本発明は、透かし情報の埋め込み位置が
音量密度に対して決められているので、再生時の音量を
破壊するようなデータ変更をしない限り、透かし情報を
変化させたり読み出せないように破壊することはできな
い。そして、再生時の音量を破壊するようなデータ変更
は、MIDIデータそのものを破壊することになるの
で、透かし情報を変化させることはきわめて困難とな
る。
According to the present invention, since the embedding position of the watermark information is determined with respect to the volume density, the watermark information cannot be changed or read out unless the data is changed so as to destroy the volume during reproduction. Can not be destroyed. Further, since a data change that destroys the volume during reproduction destroys the MIDI data itself, it is extremely difficult to change the watermark information.

【0029】また、シンクパターンや透かし相対的埋め
込み位置情報は、権利者のみが保有し、これがないと透
かし情報の埋め込み位置を特定することができないの
で、第3者が透かし情報の埋め込み位置を特定して、取
り除くことは実質的に不可能となる。さらに、データの
切り取りや転調などの処理を行っても、透かしデータの
埋め込み位置を探しだすことができるという効果があ
る。
Also, the sync pattern and the relative embedding position information of the watermark are held only by the right holder, and without this, the embedding position of the watermark information cannot be specified. And it is virtually impossible to remove. Further, there is an effect that the embedding position of the watermark data can be searched out even when processing such as data cutout or modulation is performed.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の透かし情報埋め込み処理装置の一実施
の形態を示すブロック図である。
FIG. 1 is a block diagram showing an embodiment of a watermark information embedding processing apparatus according to the present invention.

【図2】本発明の透かし情報読み出し処理装置の一実施
の形態を示すブロック図である。
FIG. 2 is a block diagram illustrating an embodiment of a watermark information reading processing device according to the present invention.

【図3】音量密度算出手段の処理手順を示すフローチャ
ート図である。
FIG. 3 is a flowchart illustrating a processing procedure of a sound volume density calculating unit.

【符号の説明】[Explanation of symbols]

1 MIDIデータ 2 透かし情報 3 埋め込み後のMIDIデータ 4 透かし相対的埋め込み位置情報 5,11 音量密度算出手段 6 シンクパターン選出手段 7 変更イベント検出手段 8 シンクパターン 9 透かし情報埋め込み手段 10 透かし埋め込み位置選出手段 12 シンクパターン検出手段 13 透かし情報読み出し手段 Reference Signs List 1 MIDI data 2 Watermark information 3 MIDI data after embedding 4 Watermark relative embedding position information 5, 11 Volume density calculating means 6 Sync pattern selecting means 7 Change event detecting means 8 Sync pattern 9 Watermark information embedding means 10 Watermark embedding position selecting means 12 sync pattern detecting means 13 watermark information reading means

─────────────────────────────────────────────────────
────────────────────────────────────────────────── ───

【手続補正書】[Procedure amendment]

【提出日】平成11年4月28日[Submission date] April 28, 1999

【手続補正1】[Procedure amendment 1]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0016[Correction target item name] 0016

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0016】この音量密度算出手段5における音量密度
の算出処理手順を図3のフローチャートに示し、以下に
説明する。なお、同図中のframeLengthは単位時間窓の
長さ(一定値)で時間の単位はticks(ティックス)で
ある。また、powerTableは音色毎に決定されるべロシテ
ィとボリューム系コントロールイベントの値とから求め
られる音量テーブルの値、hamming_windowはハミング窓
関数、powerDensityは音量密度、size_of_songは曲の長
さを表すものである。
FIG. 3 is a flowchart showing the processing procedure for calculating the volume density in the volume density calculating means 5 and will be described below. Note that frameLength in the figure is the length of a unit time window (constant value), and the unit of time is ticks (ticks). In addition, powerTable is a value of a volume table obtained from a velocity determined for each tone and a value of a volume control event, hamming_window is a hamming window function, powerDensity is a volume density, and size_of_song is a length of a song. .

【手続補正2】[Procedure amendment 2]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0017[Correction target item name] 0017

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0017】同図に示す処理において、まず、初期化を
行う。ピッチ(音程)及びフレーム番号(単位時間枠の
番号)の初期値を0にする(ステップ21)。そして、
各ピッチとフレーム番号毎に決定される各音量密度の初
期値を全て0に設定しておく(ステップ22)。
In the process shown in FIG. 1, first, initialization is performed. The initial values of the pitch (pitch) and the frame number (unit time frame number) are set to 0 (step 21). And
The initial value of each volume density determined for each pitch and frame number is all set to 0 (step 22).

【手続補正3】[Procedure amendment 3]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0018[Correction target item name] 0018

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0018】次に、フレーム番号に含まれる指定された
ピッチの音色を持つ全てのノートイベントを図示せぬバ
ッファ内に格納し(ステップ23)、その最初のノート
イベントを参照して(ステップ24)、ノートオンのタ
イミング(曲の開始からの時刻がticksで表される)、
ノートのベロシティをそれぞれの変数に代入する(ステ
ップ25)。そして、フレーム番号とフレーム長とをか
けたもの(フレームの先頭位置)とノートオンのタイミ
ング(time)とを比較し(ステップ26)、timeがフレ
ームの先頭位置よりも前のときは(ステップ26→n
o)、timeをフレームの先頭位置にあわせ(ステップ2
7)、ノートのベロシティとボリューム系コントロール
イベントの値で決定される音量テーブルの値を変数powe
rに代入する(ステップ28)。さらに、この変数power
をハミング窓関数をかけて音量密度に積算する(ステッ
プ29)。
Next, all the note events having the tone of the designated pitch included in the frame number are stored in a buffer (not shown) (step 23), and the first note event is referred to (step 24). , Note-on timing (time from the start of the song is represented by ticks),
The velocity of the note is assigned to each variable (step 25). Then, the value obtained by multiplying the frame number and the frame length (the head position of the frame) is compared with the note-on timing (time) (step 26). → n
o), adjust the time to the beginning of the frame (step 2)
7), the value of the volume table determined by the velocity of the note and the value of the volume control event is set to the variable powe.
Substitute for r (step 28). In addition, this variable power
Is multiplied by the humming window function to the sound volume density (step 29).

【手続補正4】[Procedure amendment 4]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0019[Correction target item name] 0019

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0019】そして、timeで与えられる時刻にあらかじ
め決められた積分の時間単位の長さを加算して(ステッ
プ70)、timeで与えられる時刻が次のフレームの先頭
位置になるか(ステップ71→no)、ノートオフのタイ
ミングになるまで(ステップ72→no)、ステップ28
以降を繰り返す(ステップ72→yes)。その後、time
で与えられる時刻がノートオフのタイミングになると、
バッファ内に格納されている次のノートイベントを参照
して、ステップ24以降を繰り返す(ステップ73→ye
s)。さらに、バッファ内に格納されているノートイベ
ントがなくなると(ステップ73→no)、次のフレーム
に移行して(ステップ74)、音程がpitchで与えられ
る値と等しいノートイベントを曲の最後まで探し終わる
まで、ステップ22以降を繰り返す(ステップ75→ye
s)。曲の最後まで同音程のノートを探し終わると(ス
テップ75→no)、次にバッファへの格納対象となるノ
ートイベントの音程の条件を半音あげて(ステップ7
6)、ピッチが128になるまでステップ22以降を繰
り返す(ステップ77)。このようにすることにより、
音程及び単位時間ごとの音量密度を求めることができ
る。そして、このようにして算出された音量密度は、M
IDIデータの構造を変化させても、大きく変動しない
パラメータ(データ変更されにくい領域)であるので、
透かし情報を埋め込むのに適当であると考えられる。
Then, a predetermined integration time unit length is added to the time given by the time (step 70), and the time given by the time becomes the head position of the next frame (step 71 → no), until the note-off timing is reached (step 72 → no), step 28
The subsequent steps are repeated (step 72 → yes). Then time
When the time given by becomes the note-off timing,
Step 24 and subsequent steps are repeated with reference to the next note event stored in the buffer (step 73 → yes).
s). Further, when there are no more note events stored in the buffer (step 73 → no), the process shifts to the next frame (step 74), and a note event whose pitch is equal to the value given by pitch is searched until the end of the music. Step 22 and subsequent steps are repeated until the processing is completed (step 75 → yes)
s). When the search for the note of the same pitch is completed until the end of the music (step 75 → no), the pitch condition of the note event to be stored in the buffer is raised by a semitone (step 7).
6) Step 22 and subsequent steps are repeated until the pitch becomes 128 (step 77). By doing this,
The pitch and volume density per unit time can be determined. Then, the volume density calculated in this way is M
Even if the structure of the IDI data is changed, it is a parameter that does not greatly change (a region in which data is hardly changed).
It is considered suitable for embedding watermark information.

【手続補正5】[Procedure amendment 5]

【補正対象書類名】図面[Document name to be amended] Drawing

【補正対象項目名】図3[Correction target item name] Figure 3

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【図3】 FIG. 3

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】供給されるMIDIデータに含まれる全て
のノートイベントのべロシティ情報とボリューム系のコ
ントロールイベント情報とを基にして各音程ごとに単位
時間当たりの音量密度を算出する音量密度算出手段と、 この音量密度算出手段にて算出された音量密度中の相関
の小さいパターンを選出するシンクパターン選出手段
と、 このシンクパターン選出手段にて選出されたパターンを
基準とした相対位置として、前記音量密度に対する透か
し情報埋め込み位置を選出する透かし埋め込み位置選出
手段と、 この透かし埋め込み位置選出手段で選出された透かし情
報埋め込み位置に対応するイベントを検出する変更イベ
ント検出手段と、 透かし情報を前記変更イベント検出手段で検出されたイ
ベントに埋め込む透かし情報埋め込み手段とを有するこ
とを特徴とする透かし情報埋め込み処理装置。
1. A sound volume density calculating means for calculating a sound volume density per unit time for each interval based on velocity information of all note events contained in supplied MIDI data and control event information of a volume system. And a sync pattern selecting means for selecting a pattern having a small correlation in the volume density calculated by the volume density calculating means; and the volume as a relative position based on the pattern selected by the sync pattern selecting means. Watermark embedding position selecting means for selecting a watermark information embedding position with respect to density; change event detecting means for detecting an event corresponding to the watermark information embedding position selected by the watermark embedding position selecting means; Watermark information embedding means for embedding in the event detected by the means And a watermark information embedding processing device.
【請求項2】MIDIデータに含まれる全てのノートイ
ベントのべロシティ情報とボリューム系のコントロール
イベント情報とを基にして各音程ごとに単位時間あたり
の音量密度を算出し、この音量密度中の相関の小さいパ
ターンを選出して、この選出されたパターンに基づい
て、透かし情報をMIDIデータに埋め込むことを特徴
とする透かし情報埋め込み方法。
2. A volume density per unit time is calculated for each pitch based on velocity information of all note events and volume-related control event information included in MIDI data, and a correlation among the volume densities is calculated. A watermark information embedding method characterized by selecting a pattern having a small size, and embedding watermark information in MIDI data based on the selected pattern.
【請求項3】透かし情報が埋め込まれたMIDIデータ
に含まれる全てのノートイベントのべロシティ情報とボ
リューム系のコントロールイベント情報とを基にして各
音程ごとに単位時間当たりの音量密度を算出する音量密
度算出手段と、 この音量密度算出手段から供給される音量密度と、透か
し情報を埋め込む前のMIDIデータから得たシンクパ
ターンとの相関をとり、相関の最も大きい部分をこの音
量密度のシンクパターンとするシンクパターン検出手段
と、 シンクパターンの先頭を基準点とする透かし情報の埋め
込み位置を示す透かし相対的埋め込み位置情報によって
透かし情報の位置を検出して読み出すことにより、埋め
込まれた透かし情報を出力する透かし情報読み出し手段
とを有することを特徴とする透かし情報読み出し処理装
置。
3. A volume for calculating a volume density per unit time for each interval based on velocity information of all note events and volume-related control event information included in MIDI data in which watermark information is embedded. A density calculator, and a correlation between the volume density supplied from the volume density calculator and a sync pattern obtained from the MIDI data before embedding the watermark information. The embedded watermark information is output by detecting and reading the position of the watermark information based on the watermark relative embedding position information indicating the embedding position of the watermark information with the head of the sync pattern as the reference point. Watermark information reading means having watermark information reading means. Apparatus.
【請求項4】透かし情報が埋め込まれたMIDIデータ
に含まれる全てのノートイベントのべロシティ情報とボ
リューム系のコントロールイベント情報とを基にして各
音程ごとに単位時間あたりの音量密度を求め、透かし情
報を埋め込む前のMIDIデータから得たシンクパター
ンとの相関をとり、相関の最も大きい部分をこの音量密
度のシンクパターンとし、 シンクパターンの先頭を基準点とする透かし情報の埋め
込み位置を示す透かし相対的埋め込み位置情報によっ
て、透かし情報の位置を検出して読み出すことにより、
透かし情報を出力することを特徴とする透かし情報読み
出し方法。
4. A sound density per unit time is determined for each interval based on velocity information of all note events and volume-related control event information included in MIDI data in which watermark information is embedded, and the watermark is obtained. A correlation with a sync pattern obtained from MIDI data before embedding information is obtained, a portion having the highest correlation is set as a sync pattern of this volume density, and a watermark relative indicating a watermark information embedding position with a head of the sync pattern as a reference point. By detecting and reading the position of the watermark information based on the target embedding position information,
A watermark information reading method, which outputs watermark information.
JP10085046A 1998-03-16 1998-03-16 Watermark information embedding processor, watermark information embedding method, watermark information reading processor and watermark information reading method Pending JPH11265181A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP10085046A JPH11265181A (en) 1998-03-16 1998-03-16 Watermark information embedding processor, watermark information embedding method, watermark information reading processor and watermark information reading method
CN 99104041 CN1229228A (en) 1998-03-16 1999-03-15 Processing device and method for embedded digital watermark information and processing device and method for reading

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10085046A JPH11265181A (en) 1998-03-16 1998-03-16 Watermark information embedding processor, watermark information embedding method, watermark information reading processor and watermark information reading method

Publications (1)

Publication Number Publication Date
JPH11265181A true JPH11265181A (en) 1999-09-28

Family

ID=13847744

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10085046A Pending JPH11265181A (en) 1998-03-16 1998-03-16 Watermark information embedding processor, watermark information embedding method, watermark information reading processor and watermark information reading method

Country Status (1)

Country Link
JP (1) JPH11265181A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6359573B1 (en) 1999-08-31 2002-03-19 Yamaha Corporation Method and system for embedding electronic watermark information in main information
CN100353444C (en) * 2004-05-28 2007-12-05 中山大学 Digital audio-frequency anti-distorting method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6359573B1 (en) 1999-08-31 2002-03-19 Yamaha Corporation Method and system for embedding electronic watermark information in main information
CN100353444C (en) * 2004-05-28 2007-12-05 中山大学 Digital audio-frequency anti-distorting method

Similar Documents

Publication Publication Date Title
US7660991B2 (en) Embedding, processing and detection of digital content, information and data
JP4186531B2 (en) Data embedding method, data extracting method, data embedding extracting method, and system
JP3178463B2 (en) Electronic information processing method and system, and recording medium
JP2001022366A (en) Method and device for embedding electronic watermark in waveform data
US7169999B2 (en) Digital signal processing method and apparatus thereof, control data generation method and apparatus thereof, and program recording medium
US20030177888A1 (en) Electronic musical apparatus with authorized modification of protected contents
Kirovski et al. Audio watermark robustness to desynchronization via beat detection
US7274789B2 (en) Information recording/reproducing apparatus with security measure
JPH11265181A (en) Watermark information embedding processor, watermark information embedding method, watermark information reading processor and watermark information reading method
JP4512371B2 (en) How to personalize and identify communications
EP1640985B1 (en) Audio watermarking
JPH11265179A (en) Watermark information embedding processor, watermark information embedding method, watermark information reading processor and watermark information reading method
JPH11265180A (en) Watermark information embedding processor, watermark information embedding method, watermark information reading processor and watermark information reading method
JP2002175089A (en) Information-adding method and added information read- out method
JPH1139796A (en) Electronic information processing system and method, and recording medium
US7370204B2 (en) Watermark data embedding apparatus and extracting apparatus
JP3658279B2 (en) Digital watermark creation method
JP2003162288A (en) Method for embedding watermark information in sound information and method for detecting the watermark information from the sound information having the watermark information embedded
JP2000132165A (en) Watermark information embedding device and watermark information embedding method, and computer-readable recording medium having recorded data embedded with watermark information thereon
JPH11327546A (en) Digital watermark processor and its method
US20030131713A1 (en) Electronic musical apparatus for blocking duplication of copyrighted music piece data
JP3835370B2 (en) Watermark data embedding device and computer program
JP4089162B2 (en) Electronic information processing method and apparatus, and recording medium
JPH11327547A (en) Watermark information processor and its method
JP3692902B2 (en) Watermark information embedding device, watermark information embedding method, watermark information reading device, and watermark information reading method