JP3565483B2 - Data display system, data display device and method thereof - Google Patents

Data display system, data display device and method thereof Download PDF

Info

Publication number
JP3565483B2
JP3565483B2 JP35402198A JP35402198A JP3565483B2 JP 3565483 B2 JP3565483 B2 JP 3565483B2 JP 35402198 A JP35402198 A JP 35402198A JP 35402198 A JP35402198 A JP 35402198A JP 3565483 B2 JP3565483 B2 JP 3565483B2
Authority
JP
Japan
Prior art keywords
image data
data
fragment
marking
mark
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP35402198A
Other languages
Japanese (ja)
Other versions
JP2000184177A (en
Inventor
田 英 正 牟
田 精 太 飯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Priority to JP35402198A priority Critical patent/JP3565483B2/en
Priority to TW088117627A priority patent/TW448397B/en
Priority to KR1019990050521A priority patent/KR20000047641A/en
Priority to CNB991247620A priority patent/CN1183440C/en
Publication of JP2000184177A publication Critical patent/JP2000184177A/en
Application granted granted Critical
Publication of JP3565483B2 publication Critical patent/JP3565483B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N1/32101Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N1/32144Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title embedded in the image data, i.e. enclosed or integrated in the image, e.g. watermark, super-imposed logo or stamp
    • H04N1/32149Methods relating to embedding, encoding, decoding, detection or retrieval operations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/913Television signal processing therefor for scrambling ; for copy protection
    • H04N2005/91307Television signal processing therefor for scrambling ; for copy protection by adding a copy protection signal to the video signal
    • H04N2005/91335Television signal processing therefor for scrambling ; for copy protection by adding a copy protection signal to the video signal the copy protection signal being a watermark

Description

【0001】
【産業上の利用分野】
本発明は、電子透かしが施された画像データから一度、電子透かしを取り除いて、電子透かしが施されていない状態の画像データを利用者に見せることができ、しかも、利用者の不正利用から画像データを保護することができるデータ表示システム、データ表示装置およびその方法に関する。
【0002】
【従来の技術】
デジタル化された画像データ等(デジタルコンテンツまたはコンテンツ)の不正複写、転用および再配布等を防止する手段として、デジタルコンテンツへ直接、付加情報を埋め込むマーキング技術がある。
【0003】
例えば、”Color correct digital watermarking of images”(文献1:USP 5,530,759)、および、”Method and apparatus for reducing quantization artifacts in a hierarchical image storage and retrieval system”(文献2:USP 5,568,570)は、可視付加情報をコンテンツに埋め込むマーキング技術を開示する。
【0004】
また、”Scrambling Digital Image Data for Copyright Protection”(文献3:SCIS96−9A)は、デジタルコンテンツを不正使用から保護するためのスクランブル技術を開示し、さらに、”NIKKEI ELECTRONICS, No.694, 7−14 (pp.17−18),1997”(文献4)は、このスクランブル技術と、非可視付加情報をコンテンツに生め込む電子透かし技術とを組み合わせた画像配送システムを開示する。
【0005】
ネットワークを介して、あるいは、CD−ROM等の記録媒体を介して利用者に供給されるデジタル画像コンテンツに、付加情報が埋め込まれていることを明示するためには、可視付加情報を用いるマーキング技術が、非可視付加情報を用いるマーキング技術よりも適している。
しかしながら、当然、可視付加情報が付された画像コンテンツは、その一部が付加情報により隠されてしまったり、画質が低下したりするので、利用者は、付加情報が除去されない限り、本来の画像コンテンツを見ることはできない。
【0006】
ここで、例えば、可視付加情報を画像コンテンツに埋め込んで付加情報が埋め込まれていることを明示しつつ配信し、供給者に画像コンテンツの対価を支払った正当な利用者にのみ、付加情報を除いたコンテンツの使用を許可したいような場合がある。
このような場合、利用者が一度、可視付加情報を除去したコンテンツを見て、納得してから対価を支払うようにすることが望ましい。
しかしながら、付加情報を除去したコンテンツが利用者の手に渡ってしまうと、利用者の不正利用を防ぐ手だてがなくなってしまう。
【0007】
また、可視付加情報なしに、非可視付加情報のみが付加された画像コンテンツは、利用者からは、一見、何らの付加情報も付加されていないように見える。
従って、非可視付加情報のみが付加された画像が広く流通してしまうと、一般利用者が、これをあたかも正当に使用が許諾されている画像コンテンツであるかのように扱うであろうことが予想される。
こうなった場合、画像コンテンツの保護の実行が図れなくなる可能性があるので、例え、非可視付加情報が付されていても、可視付加情報が除去された画像コンテンツが、正当な使用権限を有さない利用者の手に渡ることを防ぐことが望ましい。
【0008】
【発明が解決しようとする課題】
本発明は、上述した従来技術の問題点に鑑みてなされたものであり、ネットワークあるいはCD−ROM等の記録媒体で利用者に供給され、可視付加情報を用いたマーキング処理がなされた画像コンテンツを、可視付加情報を除去して利用者に表示することができるデータ表示システム、データ表示装置およびその方法を提供することを目的とする。
【0009】
また、本発明は、可視付加情報を除去した画像コンテンツの利用者による不正使用を防ぐことができるデータ表示装置およびその方法を提供することを目的とする。
また、本発明は、可視付加情報なしに非可視付加情報のみが付加された画像データが完全な形で、正当な使用権限を有さない利用者の手に渡りにくいようにしたデータ表示システム、データ表示装置およびその方法を提供することを目的とする。
【0010】
また、本発明は、可視付加情報を用いたマーキング処理がなされた画像コンテンツから可視付加情報を除去して利用者に示すことにより、利用者が本来の画像コンテンツを確認し、納得して、その対価を供給者に支払うことができるようにしたデータ表示システム、データ表示装置およびその方法を提供することを目的とする。
【0011】
【課題を達成するための手段】
[データ表示システム]
上記目的を達成するために、本発明にかかるデータ表示システムは、クライアント装置に対してデータを供給するサーバ装置と、サーバ装置から供給されたデータを表示するクライアント装置とを含むデータ表示システムであって、前記サーバ装置は、マーキング処理する前のデータ(オリジナルデータ)に対して、少なくとも感じ取れるマーク(可感マーク)を用いてマーキング処理を行い、可感マーキングデータを生成する可感マーキングデータ生成手段と、可感マーキングデータおよび前記オリジナルデータまたはこれらのいずれかを、前記クライアント装置に供給するデータ供給手段とを有し、前記クライアント装置は、供給された前記可感マーキングデータから、前記可感マークを除去する可感マーク除去手段と、前記可聴マークが除去された前記可感マーキングデータに対して、感じ取れないマーク(非可感マーク)を用いてマーキング処理を行い、非可感マーキングデータを生成する非可感マーキングデータ生成手段と、供給された前記オリジナルデータ、または、生成された前記非可感マーキングデータから、交互に表示した場合に、平均の表示値が、前記オリジナルデータまたは前記非可感マーキングデータに対応する値となる複数の断片データを生成する断片データ生成手段と、生成された前記複数の断片データを、平均の表示値が前記オリジナルデータまたは前記非可感マーキングデータに対応する値になるように、交互に表示するデータ表示手段とを有する。
【0012】
[データ表示装置]
また、本発明にかかるデータ表示装置は、マーキング処理する前のデータ(オリジナルデータ)、または、前記オリジナルデータを、少なくとも感じ取れるマーク(可感マーク)を用いてマーキング処理することにより得られる可感マーキングデータを表示するデータ表示装置であって、供給された前記可感マーキングデータから前記可感マークを除去する可感マーク除去手段と、前記オリジナルデータ、または、前記可聴マークが除去された前記可聴マーキングデータに対して、感じ取れないマーク(非可感マーク)を用いてマーキング処理を行い、非可感マーキングデータを生成する非可感マーキングデータ生成手段と、前記オリジナルデータまたは生成された前記非可感マーキングデータから、交互に表示した場合に、平均の表示値が、前記オリジナルデータまたは前記非可感マーキングデータに対応する値になる複数の断片データを生成する断片データ生成手段と、生成された前記複数の断片データを、平均の表示値が前記オリジナルデータまたは前記非可感マーキングデータに対応する値になるように交互に表示するデータ表示手段とを有する。
【0013】
好適には、前記可感データ除去手段と前記非可聴マーキングデータ生成手段とは、前記可感マーキングデータからの前記可感マークの除去と、前記非可感マークを用いたマーキング処理とを、一体不可分に行う。
【0014】
好適には、前記オリジナルデータは画像データであり、前記可感マークは、視覚的に感じ取れる可視マークであり、前記非可視マークは、視覚的に感じ取れない非可視マークであって、前記可感マーク除去手段は、供給された前記可感マーキングデータから前記可視マークを除去し、前記非可感マーキングデータ生成手段は、前記可視マークが除去された前記可感マーキングデータに対して、前記非可視データを用いてマーキング処理を行って前記非可感マーキングデータを生成し、前記断片データ生成手段は、前記非可感マーキングデータから、交互に表示した場合に、平均の表示値が、前記オリジナルデータまたは前記非可感マーキングデータに対応する値になる複数の断片データを生成し、前記データ表示手段は、生成された前記複数の断片データを、平均の表示値が前記非可感マーキングデータに対応する値になるように交互に表示する。
【0015】
好適には、前記断片データ生成手段は、前記複数の断片データを交互に表示した場合に、各断片画像データの画素それぞれに表示時間を乗算した値を、全表示時間で除算した値が、非可感マーキングデータと同じになるように、前記複数の断片データを生成する。
【0016】
好適には、前記データ表示手段は少なくとも、前記複数の断片画像データそれぞれの同一座標の画素の輝度に、それぞれの表示時間を乗算した値の総和が、オリジナルの画像データの同一座標の輝度に比例するように、前記複数の断片データを交互に表示する。
【0017】
[データ表示装置の作用]
本発明にかかるデータ表示装置は、例えば、音声データ、静止画像データおよび動画像データ等の、マーキング処理されていない状態のリジナルデータ、あるいは、オリジナルデータに、聴覚・視覚等、人間の感覚で感じ取れるマーク(可感マーク)を用いてマーキング処理することにより得られる可感マーキングデータを、可感マークを除去した状態で表示する。
以下、画像データに可視または非可視マークでマーキング処理する場合を具体例として、本発明にかかるデータ表示装置の作用を説明する。
【0018】
[可視マーク除去手段・非可視マーキングデータ生成手段]
可感マーク除去手段は、画像データの権利者等を示し、人間が視覚的に認識することができる可感マーク(可視マーク)が埋め込まれた状態で供給された画像データ(可視マーキングデータ)から、可視マークを除去する。
【0019】
非可視マーキングデータ生成手段は、画像データの不正使用を防止するために、可視マーク除去手段が可視マークを除去する処理と、一体不可分かつ同時並行的に、人間が視覚的に認識できない非可視マークを用いてマーキング処理を行い、視覚的にはオリジナルの画像データと同じに見え、オリジナル画像データの見本として使うことができる非可視マーキングデータを生成する。
【0020】
[断片データ生成手段]
断片データ生成手段は、上述のように生成され、著作権情報が入っているものの、見た目がオリジナル画像データと同じであり、一定の商品価値を有する非可視マーキングデータから、その一部が変更されているために、商品として利用できないが、交互に表示した場合に、オリジナルデータ(非可視マーキングデータ)と同じに見える複数の断片画像データを生成する。
【0021】
つまり、断片データ生成手段は、複数の断片データを交互に表示した場合に、各断片画像データの画素それぞれに表示時間を乗算した値を、全表示時間で除算した値が、オリジナルデータ(非可感マーキングデータ)と同じになるように、複数の断片データを生成する。
【0022】
[データ表示手段]
データ表示手段は、生成された複数の断片データを、所定の時間ずつ表示して、視覚的にオリジナルデータと同じに見えるように表示する。
つまり、データ表示手段は、断片画像データの画素それぞれに表示時間を乗算した値を、全表示時間で除算した値が、オリジナルデータ(非可感マーキングデータ)と同じになるように複数の断片画像データを表示する。
あるいは、データ表示手段は、少なくとも、複数の断片画像データそれぞれの同一座標の画素の輝度に、それぞれの表示時間を乗算した値の総和が、オリジナルの画像データの同一座標の輝度に比例するように、複数の断片データを交互に表示することにより、この目的を達成する。
【0023】
[データ表示方法]
また、本発明にかかるデータ表示方法は、マーキング処理する前のデータ(オリジナルデータ)に対して、少なくとも感じ取れるマーク(可感マーク)を用いてマーキング処理を行い、可感マーキングデータを生成し、可感マーキングデータおよび前記オリジナルデータまたはこれらのいずれかを供給し、供給された前記可感マーキングデータから前記可感マークを除去し、供給された前記オリジナルデータ、または、前記可感マークが除去された前記可感マーキングデータに対して、感じ取れないマーク(非可感マーク)を用いてマーキング処理を行い、非可感マーキングデータを生成し、前記オリジナルデータまたは生成された前記非可感マーキングデータから、交互に表示した場合に、平均の表示値が、前記オリジナルデータまたは前記非可感マーキングデータに対応する値となる複数の断片データを生成し、生成された前記複数の断片データを、平均の表示値が前記オリジナルデータまたは前記非可感マーキングデータに対応する値になるように、交互に表示する。
【0024】
[記録媒体]
また、本発明にかかる記録媒体は、マーキング処理する前のデータ(オリジナルデータ)、または、前記オリジナルデータを、少なくとも感じ取れるマーク(可感マーク)を用いてマーキング処理することにより得られる可感マーキングデータを表示するデータ表示装置において、供給された前記可感マーキングデータから前記可感マークを除去する可感マーク除去ステップと、前記オリジナルデータ、または、前記可聴マークが除去された前記可聴マーキングデータに対して、感じ取れないマーク(非可感マーク)を用いてマーキング処理を行い、非可感マーキングデータを生成する非可感マーキングデータ生成ステップと、前記オリジナルデータまたは生成された前記非可感マーキングデータから、交互に表示した場合に、平均の表示値が、前記オリジナルデータまたは前記非可感マーキングデータに対応する値になる複数の断片データを生成する断片データ生成ステップと、生成された前記複数の断片データを、平均の表示値が前記オリジナルデータまたは前記非可感マーキングデータに対応する値になるように交互に表示するデータ表示ステップとをコンピュータに実行させるプログラムを記録する。
【0025】
【発明の実施の形態】
以下、本発明の実施形態を説明する。
【0026】
[画像データ配信システム1の構成]
図1は、本発明にかかるデータ表示方法が適用される画像データ配信システム1の構成を示す図である。
図1に示すように、画像データ配信システム1は、サーバ装置10、通信ネットワーク12および1台以上のクライアント装置14から構成される。
クライアント装置14は、通信装置140、CPU150、入力装置152、表示装置154、メモリ156および外部記憶装置158から構成される。
つまり、クライアント装置14は、通常のコンピュータに通信装置140を付加した構成を採る。
【0027】
[データ表示ソフトウェア2の構成]
図2は、本発明にかかるデータ表示方法を実現する画像データ表示ソフトウェア2の構成を示す図である。
図2に示すように、画像データ表示ソフトウェア2は、画像記憶部200、マーキング処理部202、画像記憶部204、断片画像生成部206、および、第1〜第nの断片画像記憶部(#1〜#n)208−1〜208−n、断片画像選択部210および画像表示部212から構成される。
【0028】
画像データ表示ソフトウェア2は、例えば、画像データ配信システム1(図1)の記憶装置158に、光磁気デスク(MO)あるいはCD−ROM等の記録媒体160に記録された形で供給され、実行時に記憶装置158からメモリ156にロードされ、CPU150により実行される。
【0029】
[マーキング処理の概要]
画像データ配信システム1および画像データ表示ソフトウェア2の各構成部分の説明に先立ち、まず、画像データ配信システム1のサーバ装置10(図1)および画像データ表示ソフトウェア2(図2)のマーキング処理部202において行われる電子透かし埋め込み処理(以下、「本発明に応用される電子透かし埋め込み処理」を、記載の簡略化のために、単に「マーキング処理」とも記す)を説明する。
【0030】
このマーキング処理は、IBM(インターナショナル・ビジネス・マシーンズ・コーポレーション)の平成9年9月18日付け特許出願(特願平9−253761号)に記載されており、可視付加情報(以下、同様に、「付加情報」を「マーク」とも記す)を埋め込んだ画像データから、可視マークを除去する処理と、新たな非可視マークを埋め込む処理とを一体不可分に行うことを特徴としている。
【0031】
なお、以下、画像データに可視または非可視のマークを埋め込む場合を具体例に説明するが、このマーキング処理は、音声データに対して可聴データまたは非可聴データを埋め込む処理等、マーキング処理に用いるマークを変更することにより、画像データ以外のデータのマーキング処理に応用可能であることはいうまでもない。
【0032】
図3〜図5を参照して、マーキング処理の概要を説明する。
図3〜図5は、本発明にかかるデータ表示方法に用いられるマーキング処理の概要を示す第1〜3の図である。
図3の左側に示すように、マーキング処理の第1段階において、利用者に所有者等の情報を視覚的に明示する可視付加情報(以下、記載の簡略化のために、可視付加情報を、単に可視マークとも記す)が、オリジナル画像データに埋め込まれる。
なお、この際、可視マークが埋め込まれている部分以外に、所有者情報等を利用者から視覚的に見えない形で示す非可視マークが埋め込まれることもある。
【0033】
以上のように可視マークが埋め込まれた画像データが、例えば、印刷され、あるいは、表示される際に、マーキング処理の第2段階として、図3の右側に示すように、可視マークが除去され、ユーザー情報等の非可視マーク(電子指紋情報:fingerprint)が埋め込まれる。
【0034】
図4の下側に示すように、マーキング処理の第2段階において、可視マークを除去した後、非可視マークを埋め込むのではなく、可視マークの除去と非可視マークの埋め込みとを並行して行なうようにすると、画像データには可視マークと非可視マークとが混在することになる。
従って、仮に、利用者が、第2段階の処理中にメモリの内容を保存(スナップショット)してたとしても、可視マーク・非可視マークのいずれもが埋め込まれていないオリジナル画像データを入手することは不可能である。
【0035】
また、第2段階の処理中に、可視マークが埋め込こまれていた領域に非可視マークを埋め込むようにすると、図5に示すように、第2段階の処理の前後の画像データの差分を取って比較しても、新たに埋め込んだ非可視マークを推定することは困難になる。
さらに、可視マークの除去と並行した非可視マークの埋め込みと、可視マークが埋め込まれていた領域への非可視マーク埋め込みとを行うようにすると、可視マークの除去と非可視マークの埋込みとは、必然的に一体不可分となる。
【0036】
さらに、マーキング処理の第1段階において、可視マークを埋め込む際に、他の領域に非可視マークを埋め込むようにすると、第2段階において可視マークを除去する際に、さらに、ユーザー名等、電子指紋情報が埋め込まれることとなり、結果として、2種類の非可視マークが埋め込まれることになる。
このようにすると、第1の段階において埋め込まれた非可視マークは、例え共謀比較操作を行ったとしても除去できなくなる。
【0037】
このマーキング処理によると、可視マークの存在により、画像データの所有者・使用制限等を明示することができ、しかも、画像データの不正な商業的利用等を防止することができる。
また、例え、可視付加マークが除去された画像データが不正使用により流通した場合であっても、画像データに埋め込まれた非可視付加マークにより、権利の所在、および、その画像データの不正使用による流通の事実等を明確にすることができる。
【0038】
[サーバ10とマーキング処理部202との関係]
図6は、図1に示したサーバ装置10と図2に示したマーキング処理部202との処理を示す図である。
なお、図6においては、図示および説明の簡略化のために、サーバ装置10とマーキング処理部202との間にある通信ネットワーク12および通信装置140(図1)等は省略されている。
図7は、図1および図6に示したサーバ装置10(鍵生成部100)が生成する鍵を示す図である。
【0039】
[鍵生成]
図6に示すように、サーバ装置10は、鍵生成処理部100および可視マーク埋め込み処理部102を含む。
サーバ装置10において、鍵生成部100は、外部から入力される可視マークのドットパターン、および、可視マークを埋め込む操作入力に基づいて、画像コンテンツに対する可視マークの埋め込み、可視マークの除去、および、非可視マーク埋込みの各処理に用いられる鍵を生成し、可視マーク埋め込み処理部102に対して出力する。
【0040】
また、鍵生成部100は、クライアント装置14(マーキング処理部202)からの要求に応じて、通信ネットワーク12および通信装置140(図6において図示せず)を介してクライアント装置14(マーキング処理部202)に対して生成した鍵を伝送する。
なお、図7に示すように、鍵生成部100が生成する鍵は、可視マークを消去する処理を選択するキーワード、可視マークの埋め込み開始位置、可視マークのサイズ、および、可視マークのドットパターンの情報を含む。
【0041】
なお、鍵生成および可視マークの埋め込みは、サーバ装置10以外で行われ、鍵生成および可視マークの埋め込み処理がすでになされたデータがサーバ装置10に置かれる場合がある。
また、鍵情報は、可視マークが埋め込まれた画像データの末尾に付加される場合がある。
また、スタティックな画像データを扱う場合には、この限りではない。
【0042】
[可視マークの埋め込み]
図8は、図6に示した可視マーク埋め込み処理部102が画像コンテンツに対して可視マークを埋め込む処理を示す図である。
可視マーク埋め込み処理部102は、鍵に含まれるドットパターンd(i,j)の値(ONまたはOFF)に応じて、ドットパターンd(i,j)と対応するオリジナル画像コンテンツI(x,y)内のm×m画素構成の画素ブロックの画像構成要素(ピクセル値/DCT係数値)それぞれに、鍵生成部100から入力される鍵に含まれるランダム系列に従って異なった回数の可逆操作を組合せて行うことにより可視マークの埋め込み処理を行い(上記m×m画素構成の画素ブロックを操作対象ブロックとも記す)、マーキング処理部202に対して配信し、あるいは、ファイルとして保存する。
【0043】
上述のように、このマーキング方法によれば、可視マーク埋め込み処理部102において、オリジナル画像コンテンツに、可視マークと非可視マークとを埋め込むことも可能だが、以下、説明の簡略化のために、可視マーク埋め込み処理部102が可視マークのみを1回、オリジナル画像コンテンツに埋め込む場合を具体例として説明する。
【0044】
なお、図8の拡大図に示すように、オリジナル画像コンテンツI(x,y)の座標(x,y;座標の単位は画素)と、ドットパターンd(i,j)の座標(i,j)との対応付けは、例えば、可視データ埋め込み開始位置を(a,b)として、( x+a,y+b)=(mi,mj)のようになされる。
また、画像コンテンツがJPEG方式により圧縮符号化されたものである場合には、操作対象ブロックのサイズmの値は、8の倍数になるように選ばれる。
また、可視マーク埋め込み処理部102による操作対象ブロックへの可逆変換操作として、例えば、以下に示すスキャン順序交換処理〜排他的論理和演算処理を挙げることができる。
【0045】
[スキャン順序交換処理]
可視マーク埋め込み処理部102は、m×m画素構成の操作対象ブロック内の各ピクセル値あるいはDCT係数のスキャン順序をブロック内で交換処理する。つまり、可視マーク埋め込み処理部102は、操作対象ブロック内のピクセル値/DCT係数のスキャン順を、予め定められた順番で並べ変えることにより、可視マークを埋め込む。
【0046】
図9は、図6に示した可視マーク埋め込み処理部102が、m×m画素構成の操作対象ブロックのスキャン順序を交換する処理を例示する図である。
スキャンの順序を交換する方法としては、ランダムに1対1でスキャン位置をスクランブルする方法、あるいは、図9に例示するように、操作対象ブロックを、ある軸に沿って回転、折り返し、あるいは、並行移動してから通常の順番でスキャンを行う方法等がある。
【0047】
[数値交換処理]
オリジナル画像コンテンツがカラー画像である場合、画像を構成する画像コンポーネント(RGB,YUY等)の間では、通常、ピクセル値/DCT係数値が異なっている。このことを利用して、可視マーク埋め込み処理部102は、画像コンポーネント間で対応するピクセル値/DCT係数値を交換することにより、ピクセル値/DCT係数値を変換する。
【0048】
[線形変換処理]
可視マーク埋め込み処理部102は、操作対象ブロック内の各ピクセル値/DCT係数値を、逆関数の存在する関数で1対1に写像することにより変換する。ピクセル値/DCT係数値の変換方法としては、正則なm×mの行列を操作対象ブロックに掛け算する方法、つまり、m×m画素構成の操作対象ブロックBに、m行m列の正則行列Aを掛け合わせて線形変換し、変換ブロックABを得る方法を挙げることができる。
【0049】
なお、この場合、正則行列Aとして、行列式 det(A)が1となるものを選ぶとよい。このような正則行列Aの逆行列A−1の要素は全て整数となるで、変換ブロックABから操作対象ブロックBを得るために、逆行列A−1を変換ブロックABに掛け算しても、小数点を処理する丸め誤差は生じない。
【0050】
[数値付加処理]
可視マーク埋め込み処理部102は、操作対象ブロック内の複数のピクセル値/DCT係数B(x,y)を選択し、鍵中のキーワードにより生成されるランダム系列に従って算出される変分値ΔB(x,y)加算し、B(x,y)=B(x,y)+ΔB(x、y)とすることにより変換する。
【0051】
[排他的論理和演算処理]
鍵中のキーワードより生成されるランダム系列により、あるマスクを生成し、そのマスクと操作対象ブロック内のピクセル値/DCT係数値との排他的論理和演算を行うことにより、ピクセル値/DCT係数値を変更する。
【0052】
図10は、可視マーク埋め込み処理部102がオリジナル画像コンテンツに可視マークを埋め込む処理(S10)を示すフローチャートである。
図10に示すように、ステップ100(S100)において、可視マーク埋め込み処理部102は、オリジナル画像コンテンツとして入力されたJPEG方式により圧縮符号化されたJPEGデータを復号する。
【0053】
ステップ120(S120)において、可視マーク埋め込み処理部102は、S100の処理において復号された画像コンテンツ、可視マークのドットパターン、および、鍵生成部100から入力された鍵のキーワードから生成されるランダム系列(疑似乱数系列1)に応じて定められる方法基づいて、JPEGデータのDCT係数に含まれるDC/AC係数の操作(DC/AC Coefficient Modification)等を行い、可視マークを埋め込む。
【0054】
ステップ122(S122)において、可視マーク埋め込み処理部102は、S120における変換処理が、埋め込み手法により指定された回数、行われたか否かを判断し、指定された回数、行った場合には、変換処理した操作対象ブロックを出力し、これ以外の場合にはS120の処理に戻る。
【0055】
[可視マーク除去・非可視マーク埋め込み]
画像データ表示ソフトウェア2(図2)において、マーキング処理部202は、可視マーク埋め込み処理部102が可視マークを埋め込んだ画像コンテンツの操作対象ブロックに対し、鍵生成部100(図6)が生成し、可視マーク埋め込み処理部102が可視マーク埋め込みに用いたものと同一の鍵を用い、マーク埋め込み時と逆の処理を行って、可視マークを除去する。さらに、マーキング処理部202は、非可視マークを画像コンテンツに埋め込み、画像記憶部204(図2)に対して出力する。
【0056】
なお、マーキング処理部202は、上述のように、可視マーク埋め込み処理部102から送られてきた画像コンテンツにおいて、可視マークが埋め込まれていた領域に対してのみ、非可視マークを埋め込む。
また、可視マークの除去と非可視マークの埋め込みとを逐次的に行なうと、メモリのスナップショットにより、可視マークも非可視マークも埋め込まれていない状態でデジタルコンテンツのデータを得ることも可能であるため、マーキング処理部202は、上述のように、可視マークの除去と非可視マークとを同時並行的に行なう。
【0057】
マーキング処理部202が、可視マークを除去し、非可視マークを埋め込む処理を、さらに具体的に説明する。
まず、マーキング処理部202は、可視マーク埋め込み処理部102が、k回の可逆操作により可視マークを埋め込んだ操作対象ブロックB(k)の一部に対し、k−q 回(q<k)の逆変換処理を行い、操作対象ブロックB(K)から可視マークを部分的に除去する(薄める)。
【0058】
次に、マーキング処理部202は、可視マークが薄められた操作対象ブロックB(q)に対し、非可視マークの埋め込みを行なう。マーキング処理部202は、非可視マークの埋め込みを、埋め込む非可視マークのパターンPに、可視マーク埋め込み処理部102における可逆操作をq回行なったパターンP(m)を、可視マークが薄められている状態の操作対象ブロックB(m)に重ね書き上書きすることにより行なう。
【0059】
つまり、マーキング処理部202は、操作対象ブロックBに対してk−m回の逆変換処理が行われた後、可視マークが完全に除去される前に、あと、m回の逆変換処理を行うと、非可視マークのパターンPとなるパターンP(m)を埋め込んで、操作対象ブロックB’を操作対象ブロックBとパターンP(m)とを加算した値[B’(m)=B(m)+P(m)]とする。
【0060】
さらに、マーキング処理部202は、残りm回の逆変換処理を操作対象ブロックB’(m)に対して行い、オリジナル画像コンテンツの操作対象ブロックBに非可視マークのパターンPを埋め込んだ操作対象ブロックB’を得る。
なお、マーキング処理部202は、以上説明した可視マークの除去処理と非可視マークの埋め込み処理とを、操作対象ブロックごとに、鍵に含まれるランダム系列に従った異なるタイミング、つまり、操作対象ブロックごとに、値が異なるmで行う。
【0061】
図11は、図2に示したマーキング処理部202が、画像コンテンツに埋め込まれていた可視マークを除去し、非可視マークを埋め込む処理(S20)を示すフローチャートである。
図11に示すように、ステップ200(S200)において、マーキング処理部202は、可視マークが埋め込まれているJPEGデータをハフマン復号で復号する。
ステップ220(S220)において、マーキング処理部202は、可視マーク埋め込み処理部102が画像コンテンツの処理対象ブロックに埋め込んだ可視マークのk個の内、最初のk−m個、または、最後のm個を除去する。
【0062】
ステップ222(S222)において、マーキング処理部202は、処理対象ブロックに、m回の可逆変換が施された可視マークのパターンP(m)を埋込む。
ステップ224(S224)において、マーキング処理部202は、全ての可視マークを除去したか否かを判断し、全ての可視マークを除去した場合には処理を終了して、非可視マークを埋め込んだ処理対象ブロックを出力し、これ以外の場合にはS220の処理に戻る。
【0063】
なお、マーキング処理部202は、ステップ230(S230)において、鍵生成部100から送られてきた鍵のキーワードから擬似乱数系列2を生成し、生成した擬似乱数系列2に基づいて、可視マーク除去のタイミング(上記数値q)を選択する。
また、同様に、マーキング処理部202は、ステップ232(S232)において、鍵のキーワードから得られる擬似乱数系列3に基づいて非可視マークのパターンPを選択し、さらに、ステップ236(S236)において、非可視マークのパターンPをq回、可逆変換してパターンP(q)を生成して、S222の処理で用いる。
また、マーキング処理部202は、ステップ234(S234)において、鍵のキーワードから得られる疑似乱数系列1に基づいて、可視マークを消去するための逆変換方法を選択し、S220の処理で用いる。
【0064】
[サーバ10]
以下、再び図1を参照し、さらに図12および図13を参照して、画像データ配信システム1の各構成部分を説明する。
図12は、可視マークおよび非可視マークのいずれもが埋め込まれていないオリジナル画像データを例示する図である。
図13は、オリジナル画像データに可視マークを埋め込んだ可視マーキングデータを例示する図である。
【0065】
サーバ10は、図12に例示するマーキング処理されていないオリジナル画像データに対して、以上説明したようにマーキング処理を行い、可視マーク(例えば、図13に示す「IBM」の文字)を埋め込んで記憶し、あるいは、すでにマーキングされた画像データを記憶する。
さらに、サーバ10は、他の通信ノード(クライアント装置14あるいは図示しない他の端末装置等)からの第1の要求に応じて、要求した通信ノードに対してクライアント装置14を介して可視マークが埋め込まれた可視マーキング画像データを送信する。
【0066】
また、サーバ10は、利用者から対価が支払われた場合、この利用者の通信ノードに対して、可視マークを除去してファイルに保存するための鍵情報をクライアント装置14を介して送信する。
【0067】
[通信ネットワーク12]
通信ネットワーク12は、例えば、ISDN通信回線、データ専用回線、電話回線あるいはLAN等のデータ伝送が可能な通信回線であって、サーバ10とクライアント装置14との間で可視マーキング画像データおよび鍵情報を伝送する。
【0068】
[通信装置140]
通信装置140は、例えば、ISDN通信回線用のTA、データ専用回線終端装置、電話回線用モデムあるいはLANアダプタであって、CPU150の制御に従って動作し、CPU150から入力されるデータを通信ネットワーク12を介してサーバ10に対して送信し、また、サーバ10から通信ネットワーク12を介して伝送されてきたデータを受信し、CPU150に対して出力する。
【0069】
[CPU150]
CPU150は、CPUおよびその周辺回路等(図示せず)から構成され、記録媒体160等を介してクライアント装置14に供給されるOSおよびデータ表示ソフトウェア2をメモリ156にロードして実行し、クライアント装置14の各構成部分の制御、および、本発明にかかるデータ表示等の処理を行う。
また、CPU150は、入力装置152を介した利用者の操作に従って、生成した画像データを表示装置154に表示し、あるいは、外部記憶装置158を介して記録媒体160に記憶する。
【0070】
[入力装置152]
入力装置152は、キーボードおよびマウス等を含み、利用者の操作を受け入れて、CPU150に対して出力する。
【0071】
[表示装置154]
表示装置154は、CPU150から入力される画像データ(可視マーキング画像データ、非可視マーキング画像データおよびその他のGUI画像データ等)を、CRT表示装置あるいはLCD表示装置に表示する。
【0072】
[外部記憶装置158]
外部記憶装置158は、MO装置、CD装置(CDP)あるいはハードディスク装置(HDD)であって、CPU150の制御に従って動作し、記録媒体160を介して供給されるソフトウェアおよびその他のデータを再生してCPU150に対して出力する。
また、外部記憶装置158は、CPU150から入力される画像データ等を記録媒体160に対して記憶する。
【0073】
[画像記憶部200]
以下、図2を再びさらに参照して、データ表示ソフトウェア2の各構成部分を説明する。
画像記憶部200は、入力装置152を介した利用者の操作に従って、サーバ10に対して可視マーキング画像データ(あるいはオリジナル画像データ)の送信を要求し、この要求に応じてサーバ10から通信ネットワーク12を介して伝送されてきた可視マーキング画像データ(図13、あるいはオリジナル画像データ)を記憶して、表示装置154(図1)に表示し、あるいは、マーキング処理部202に対して出力する。
あるいは、画像記憶部200は、記録媒体160に記憶されてクライアント装置14に供給される可視マーキング画像データを外部記憶装置158から読み出して記憶し、マーキング処理部202に対して出力する。
【0074】
[マーキング処理部202]
マーキング処理部202は、上記説明のように、画像記憶部200から入力された可視マーキング画像(オリジナル画像データ)に対して、上述したマーキング処理の第2段階の処理を行い、可視マークを除去して非可視マークを埋め込み、利用者の目からは図12に示したオリジナル画像データと変わらなく見える非可視マーキングデータを生成し、画像記憶部204に対して出力する。
【0075】
[画像記憶部204]
画像記憶部204は、マーキング処理部202から入力された非可視マーキング画像データを記憶し、断片画像生成部206に対して出力する。
【0076】
[断片画像生成部206]
図14〜図16は、それぞれ、n=3とした場合に断片画像生成部206が生成する断片画像データ#1〜#3を例示する図である。
断片画像生成部206は、画像記憶部204から入力される非可視マーキング画像データのn種類の領域内の値を変更し、一枚一枚は図14〜図16に例示するように見えるが、人間の視覚の特性上、n枚を十分に短い時間間隔T(例えば、1/30〜1/60秒)で順番に、繰り返して表示装置154の画面に表示した場合に、非可視マーキング画像データ(オリジナル画像データ)と全く同じ画像に見える断片画像データ#1〜#nを生成し、断片画像記憶部208−1〜208−nに対して出力する。
断片画像データにおいては白輝度を3/4、黒輝度を0とし、オリジナル画像データ(非可視マーキング画像データ)において白輝度を1/2、黒輝度を1/4とすると、図14〜図16の全てにおいて、白輝度は1/2[=(3/4+3/4+0)/3]、黒輝度は1/4[=(3/4+0+0)/3]となる。
【0077】
つまり、断片画像生成部206は、非可視マーキング画像データから、一枚一枚をメモリ156をスナップショットして取り出しても、図14〜図16に示したように画像の一部に改変が加えられているために全く商品価値を有さないが、例えば、n枚(nは整数)を、下式1に示すように合成するとオリジナル画像データと見分けがつかず、オリジナル画像データ(図12)の見本として用いることができる断片画像データ#i(1≦i≦n)を生成し、生成した断片画像データ#iそれぞれを、断片画像記憶部208−1〜208−nに対して表示する。
【0078】
【数1】

Figure 0003565483
【0079】
つまり、式1に示すようにn枚の断片画像データ合成することは、各断片画像データの画素それぞれに、その表示時間を乗算した値を、全表示時間で除算した値が、オリジナル画像データ(非可視マーキング画像データ)と同じになるように、各断片画像データを合成することに相当する。
【0080】
図17をさらに参照して、断片画像生成部206おける断片画像データ#1〜#nの生成方法を説明する。
図17は、図2に示した断片画像生成部206が断片画像データ#1〜#nを生成する断片画像生成処理(S30)を示すフローチャートである。
【0081】
図17に示すように、ステップ300(S300)において、断片画像生成部206は、断片画素数nおよび断片画素データ#1〜#nを表示する時間間隔Tを、例えば乱数を用いて、処理ごとに異なった値になるように一定の範囲内、例えば、2〜5枚および1/50〜1/60秒の範囲で決定し、断片画像選択部210および画像表示部212等に設定する。
【0082】
ステップ302(S302)において、断片画像生成部206は、Y座標を示す変数Yに初期値(例えば1;単位は画素、画像領域の上端から下端に向けて増加する)を代入する。
【0083】
ステップ304(S304)において、断片画像生成部206は、X座標を示す変数Xに初期値(例えば1;単位は画素、画像領域の左端から右端に向けて増加する)を代入する。
【0084】
ステップ306(S306)において、断片画像生成部206は、座標(X,Y)の位置にある画素の非可視マーキング画像データを読み込む。
【0085】
ステップ308(S308)において、断片画像生成部206は、断片画素データの番号を示す変数Iに初期値(例えば1)を代入する。
【0086】
ステップ310(S310)において、断片画像生成部206は、S106の処理において読み出した座標(X,Y)の非可視マーキング画像データのR,G,Bデータそれぞれの値を読み出し、断片画像データ#iの座標(X,Y)の画素データを算出する。
具体的には、断片画像生成部206は、断片画素データ#iの座標(X,Y)の画素値R,G,Bを、例えば、i<nの場合には、R=R+d,G=G+d,B=B+d(ただし、d,d,dは−3〜+3の範囲内の乱数)とし、i=nの場合には、上記式1を満たす値とする。
【0087】
ステップ312(S312)において、断片画像生成部206は、断片画像記憶部208−iにおいて、断片画像データ#iの座標(X,Y)の画素データが記憶されるアドレスに、S110の処理により得られた断片画像データ#iの座標(X,Y)の画素データを記憶する。
【0088】
ステップ314(S314)において、断片画像生成部206は、変数iをインクリメントする(i=i+1)。
【0089】
ステップ316(S316)において、断片画像生成部206は、変数iが断片画像データの枚数nより大きいか否かを判断し、変数Iがnより大きい場合にはS318の処理に進み、これ以外の場合にはS310の処理に戻る。
S310〜S316の処理のループにより、全断片画像データを通して、同一座標の画素値R,G,Bが、上記式1を満たすようになる。
【0090】
ステップ318(S318)において、断片画像生成部206は、変数Xをインクリメントする(X=X+1)。
【0091】
ステップ320(S320)において、断片画像生成部206は、変数Xが画像幅より大きいか否かを判断し、変数Xが画像幅(断片画像データの右端)より大きい場合にはS322の処理に進み、これ以外の場合にはS306の処理に戻る。
S306〜S320の処理のループにより、左端から右端までX軸方向に、断片画像データが生成される。
【0092】
ステップ322(S322)において、断片画像生成部206は変数Yをインクリメントする(Y=Y+1)。
【0093】
ステップ324(S324)において、断片画像生成部206は、変数Yが画像高さより大きいか否かを判断し、変数Yが画像高さ(断片画像データの下端)よりも大きい場合にS104の処理に戻り、これ以外の場合には処理を終了する。このS304〜S324の処理のループにより、上端から下端までY軸方向に、断片画像データが生成される。
【0094】
[断片画像記憶部208−1〜208−n]
再び図2を参照する。
断片画像記憶部208−1〜208−nは、それぞれ断片画像生成部206から入力される断片画像データ#1〜#nを記憶し、断片画像選択部210の入力端子#1〜#nに対して出力する。
【0095】
[断片画像選択部210]
断片画像選択部210は、断片画像記憶部208−1〜208−nから入力される断片画像データ#1〜#nを、この順番に、時間間隔Tで繰り返し選択し、画像表示部212に対して出力する。
【0096】
[画像表示部212]
画像表示部212は、断片画像選択部210から入力される断片画像データそれぞれを、時間間隔Tで表示装置154に対して出力し、オリジナル画像データと視覚上見分けが付かない見本画像データとして利用者に示す。
【0097】
図18をさらに参照し、画像表示部212の画像表示処理をさらに説明する。図18は、図2に示した画像表示部212による画像表示処理(S40)を示すフローチャートである。
図18に示すように、ステップ400(S400)において、画像表示部212は、断片画像データの数を示す変数iに初期値(例えば1)を代入する。
【0098】
ステップ402(S402)において、画像表示部212は、断片画像記憶部208−iに記憶された断片画像データ#iの全ての画素値R,G,Bを読み出して表示装置154に対して出力し、表示する。
【0099】
ステップ404(S404)において、画像表示部212は、利用者により表示を中断するための操作が行われたか否かを判断し、表示を中断する場合には、断片画像データの表示を中止して処理を終了し、これ以外の場合にはS406の処理に進む。
【0100】
ステップ406(S406)において、画像表示部212は、S202の処理からの経過時間(断片画像データ#iの表示開始からの経過時間)Tを測定する。
【0101】
ステップ408(S408)において、画像表示部212は、経過時間Tが断片画像データTより大きい場合にはS410の処理に進み、これ以外の場合にはS404の処理に戻る。
【0102】
ステップ410(S410)において、画像表示部212は、変数iをインクリメントする(i=i+1)。
【0103】
ステップ412(S412)において、え412は、変数iが断片画像データの枚数nより大きいか否かを判断し、変数iが枚数nよりも大きい場合にはS400の処理に戻り、これ以外の場合にはS402の処理に戻る。
変数Tを用いた処理ループにより、各断片画像データの表示時間が制御され、また、変数iを用いた処理ループにより、断片画像データ全てが表示されるように処理が制御される。
【0104】
これらの2種類の処理ループにより、各断片画像データそれぞれの同一座標の画素の輝度に、それぞれの画素の表示時間を乗算した値の総和が、オリジナル画像データ(非可視マーキング画像データ)の同一座標の輝度に比例するように、断片画像データが合成される。
【0105】
[画像データ配信システム1の動作]
以下、さらに図19を参照して、サーバ10からクライアント装置14に対して画像データを配信する画像データ配信システム1の動作を説明する。
図19は、図1に示したサーバ10とクライアント装置14との間で送受信される信号を示す通信シーケンス図である。
なお、上述の通り、画像データは、クライアント装置14に対して、記録媒体160によっても供給されるが、この場合には、図19と同様な通信シーケンスを、CPU150と外部記憶装置158との間で行えばよい。
【0106】
[オリジナル画像データ伝送]
利用者が、オリジナル画像データを得るための対価を画像データの所有権者に支払うと、所有権者は、利用者に対してその旨を示すパスワードを支給する。
利用者が、クライアント装置14(図1)の入力装置152を操作し、オリジナル画像データを照会する操作を行うと、クライアント装置14のデータ表示ソフトウェア2は、図19に示すように、画像データ照会信号をサーバ10に対して送信する(SQ100)。
【0107】
サーバ10は、画像データ照会信号を受信すると、クライアント装置14(データ表示ソフトウェア2)に対して供給可能な画像データの一覧を示す画像データリストを送信する(SQ102)。
【0108】
クライアント装置14(データ表示ソフトウェア2)が、サーバ10から画像データリストを受信して表示装置154に表示すると、ユーザは、対価を支払った画像データを指定し、さらに、パスワードを入力し、画像データの送信を要求するための操作を行う。
この操作に応じて、クライアント装置14(データ表示ソフトウェア2)は、サーバ10に対して画像データ送信要求を送信する(SQ104)。
【0109】
画像データの指定およびパスワードを含む画像データ送信要求を受信すると、サーバ10は、画像データの指定とパスワードとをチェックし、これらが矛盾なく正当であることを確認し、オリジナル画像データを含む画像データパケット#1〜#mを、クライアント装置14に対して送信する(SQ106−1〜SQ106−m)。
【0110】
クライアント装置14(画像記憶部200)は、サーバ10からオリジナル画像データを受信して記憶し、表示装置154に表示して利用者に示し、さらに、利用者の操作に応じて、外部記憶装置158内の記録媒体160に記憶する。
【0111】
[可視マーキング画像データ伝送]
次に、サーバ10とクライアント装置14との間で可視マーキング画像データを伝送する際の動作を説明する。
【0112】
利用者が、画像データを照会する操作を行うと、クライアント装置14のデータ表示ソフトウェア2は、図19に示すように、画像データ照会信号をサーバ10に対して送信する(SQ100)。
サーバ10は、画像データ照会信号を受信すると、クライアント装置14(データ表示ソフトウェア2)に対して供給可能な画像データの一覧を示す画像データリストを送信する(SQ102)。
【0113】
クライアント装置14(データ表示ソフトウェア2)が、サーバ10から画像データリストを受信して表示装置154に表示すると、ユーザは、画像データを指定し、さらに、見本を要求するための操作を行う。
この操作に応じて、クライアント装置14(データ表示ソフトウェア2)は、サーバ10に対して画像データ送信要求を送信する(SQ104)。
【0114】
見本を要求する旨の画像データ送信要求を受信すると、サーバ10は、図12に例示したオリジナル画像データに対してマーキング処理を行い、図13に例示したような可視マーキング画像データを含む画像データパケット#1〜#mを、クライアント装置14に対して送信する(SQ106−1〜SQ106−m)。
【0115】
画像記憶部200は、サーバ10から送られてきた可視マーキング画像データ(図13)を記憶して、表示装置154(図1)に表示し、また、マーキング処理部202に対して出力する。
マーキング処理部202は、画像記憶部200から入力された可視マーキング画像から可視マークを除去し、さらに、非可視マークを埋め込んで、利用者の目からは図12に示したオリジナル画像データと変わらなく見える非可視マーキングデータを生成し、画像記憶部204に対して出力する。
【0116】
断片画像生成部206は、画像記憶部204から非可視マーキング画像データを読み出して図17に示した処理を行い、図14〜図16に例示したn種類の断片画像データ#1〜#nを生成し、断片画像記憶部208−1〜208−nに対して出力する。
【0117】
断片画像選択部210は、断片画像記憶部208−1〜208−nから、断片画像データ#1〜#nを、時間間隔Tで繰り返し選択して読み出し、画像表示部212に対して出力する。
画像表示部212は、断片画像選択部210から入力される断片画像データそれぞれに対して、図18に示した処理を行い、時間間隔Tで表示装置154に対して出力し、オリジナル画像データと視覚上見分けが付かない見本画像データとして利用者に示す。
【0118】
【発明の効果】
以上説明したように、本発明にかかるデータ表示システム、データ表示装置およびその方法によれば、ネットワークあるいはCD−ROM等の記録媒体で利用者に供給され、可視付加情報を用いたマーキング処理がなされた画像コンテンツを、可視付加情報を除去して利用者に表示することができる。
【0119】
また、本発明にかかるデータ表示システム、データ表示装置およびその方法によれば、可視付加情報を除去した画像コンテンツの利用者による不正使用を防ぐことができる。
また、本発明にかかるデータ表示システム、データ表示装置およびその方法によれば、可視付加情報なしに非可視付加情報のみが付加された画像データが完全な形で、正当な使用権限を有さない利用者の手に渡りにくいようにすることができる。
【0120】
また、本発明にかかるデータ表示システム、データ表示装置およびその方法によれば、可視付加情報を用いたマーキング処理がなされた画像コンテンツから可視付加情報を除去して利用者に示すことにより、利用者が本来の画像コンテンツを確認し、納得して、その対価を供給者に支払うことができるようにすることができる。
【図面の簡単な説明】
【図1】本発明にかかるデータ表示方法が適用される画像データ配信システムの構成を示す図である。
【図2】本発明にかかるデータ表示方法を実現する画像データ表示ソフトウェアの構成を示す図である。
【図3】本発明にかかるデータ表示方法に用いられるマーキング処理の概要を示す第1の図である。
【図4】本発明にかかるデータ表示方法に用いられるマーキング処理の概要を示す第2の図である。
【図5】本発明にかかるデータ表示方法に用いられるマーキング処理の概要を示す第3の図である。
【図6】図1に示したサーバ装置と図2に示したマーキング処理部との処理を示す図である。
【図7】図1および図6に示したサーバ装置(鍵生成部)が生成する鍵を示す図である。
【図8】図6に示した可視マーク埋め込み処理部が画像コンテンツに対して可視マークを埋め込む処理を示す図である。
【図9】図6に示した可視マーク埋め込み処理部が、m×m画素構成の操作対象ブロックのスキャン順序を交換する処理を例示する図である。
【図10】可視マーク埋め込み処理部がオリジナル画像コンテンツに可視マークを埋め込む処理(S10)を示すフローチャートである。
【図11】図2に示したマーキング処理部が、画像コンテンツに埋め込まれていた可視マークを除去し、非可視マークを埋め込む処理(S20)を示すフローチャートである。
【図12】可視マークおよび非可視マークのいずれも埋め込まれていないオリジナル画像データを例示する図である。
【図13】オリジナル画像データに可視マークを埋め込んだ可視マーキングデータを例示する図である。
【図14】n=3とした場合に断片画像生成部が生成する断片画像データを例示する第1の図である。
【図15】n=3とした場合に断片画像生成部が生成する断片画像データを例示する第2の図である。
【図16】n=3とした場合に断片画像生成部が生成する断片画像データを例示する第3の図である。
【図17】図2に示した断片画像生成部が断片画像データ#1〜#nを生成する断片画像生成処理(S30)を示すフローチャートである。
【図18】図2に示した画像表示部による画像表示処理(S40)を示すフローチャートである。
【図19】図1に示したサーバとクライアント装置との間で送受信される信号を示す通信シーケンス図である。
【符号の説明】
1・・・画像データ配信システム
10・・・サーバ
100・・・鍵生成部
102・・・可視マーク埋め込み部
12・・・通信ネットワーク
14・・・クライアント装置
140・・・通信装置
150・・・CPU
152・・・入力装置
154・・・表示装置
156・・・メモリ
158・・・外部記憶装置
160・・・記録媒体
2・・・データ表示ソフトウェア
200・・・画像記憶部
202・・・マーキング処理部
204・・・画像記憶部
206・・・断片画像生成部
208−1〜208−n・・・断片画像記憶部
210・・・断片画像選択部
212・・・画像表示部[0001]
[Industrial applications]
According to the present invention, a digital watermark is once removed from digitally watermarked image data, so that image data without a digital watermark can be shown to a user. The present invention relates to a data display system, a data display device, and a data display method capable of protecting data.
[0002]
[Prior art]
As a means for preventing unauthorized copying, diversion, and redistribution of digitized image data or the like (digital content or content), there is a marking technique for embedding additional information directly in digital content.
[0003]
For example, "Color correct digital watermarking of images," (Reference 1: USP 5,530,759), and "Method and apparel for the following quantification articulation altogether. 570) discloses a marking technique for embedding visible additional information in content.
[0004]
Further, "Scrambled Digital Image Data for Copyright Protection" (Reference 3: SCIS96-9A) discloses a scramble technique for protecting digital contents from unauthorized use, and further discloses "NIKKEI ELECTRONICS, No. 14, No. 69, No. 69, No. 69, and No. 69, No. 69. (Pp. 17-18), 1997 "(Document 4) discloses an image delivery system that combines this scramble technique and a digital watermark technique for producing invisible additional information into content.
[0005]
A marking technique using visible additional information to clearly indicate that additional information is embedded in digital image content supplied to a user via a network or via a recording medium such as a CD-ROM. However, it is more suitable than a marking technique using invisible additional information.
However, as a matter of course, the image content to which the visible additional information is added is partially hidden by the additional information or the image quality is degraded. You cannot see the content.
[0006]
Here, for example, the visible additional information is embedded in the image content and distributed while clearly indicating that the additional information is embedded, and the additional information is removed only to a legitimate user who paid the supplier for the image content. In some cases, you may want to allow the use of content that has been used.
In such a case, it is desirable that the user once looks at the content from which the visible additional information has been removed, and pays the price after being satisfied with the content.
However, if the content from which the additional information has been removed reaches the user's hand, there is no way to prevent the user from illegally using the content.
[0007]
At first glance, the image content to which only the non-visible additional information is added without the visible additional information appears to the user to have no additional information added.
Therefore, if an image to which only the invisible additional information is added is widely distributed, a general user may treat the image as if it were image content that is properly licensed. is expected.
In such a case, there is a possibility that the protection of the image content cannot be performed. Therefore, even if the invisible additional information is added, the image content from which the visible additional information is removed has a valid use right. It is desirable to prevent it from getting into the hands of users who do not.
[0008]
[Problems to be solved by the invention]
SUMMARY OF THE INVENTION The present invention has been made in view of the above-described problems of the related art, and provides an image content that has been supplied to a user through a network or a recording medium such as a CD-ROM and that has been subjected to marking processing using visible additional information. It is an object of the present invention to provide a data display system, a data display device, and a method thereof capable of removing visible additional information and displaying the data to a user.
[0009]
It is another object of the present invention to provide a data display device and a method thereof capable of preventing unauthorized use by a user of image content from which visible additional information has been removed.
Further, the present invention provides a data display system in which image data to which only non-visible additional information is added without visible additional information is not easily passed on to a user who does not have a valid use right in perfect form. It is an object of the present invention to provide a data display device and a method thereof.
[0010]
In addition, the present invention removes the visible additional information from the image content that has been subjected to the marking processing using the visible additional information and presents it to the user, so that the user can confirm the original image content, understand it, It is an object of the present invention to provide a data display system, a data display device, and a method thereof, in which consideration can be paid to a supplier.
[0011]
[Means for achieving the object]
[Data Display System]
In order to achieve the above object, a data display system according to the present invention is a data display system that includes a server device that supplies data to a client device and a client device that displays data supplied from the server device. The server device performs a marking process on data before the marking process (original data) using at least a perceivable mark (a sensible mark) to generate sensible marking data. And data supply means for supplying the sensible marking data and / or the original data to the client device. The client device reads the sensible mark from the supplied sensible marking data. Sensible mark removing means for removing the audible mark Performing a marking process on the removed sensible marking data using a mark that cannot be perceived (a non-visible mark) to generate non-visible marking data; Original data, or, from the generated insensitive marking data, when displayed alternately, the average display value, a plurality of fragment data becomes a value corresponding to the original data or the insensitive marking data A fragment data generating unit to generate, and a data display unit to alternately display the plurality of generated fragment data so that an average display value becomes a value corresponding to the original data or the insensitive marking data. Having.
[0012]
[Data display device]
In addition, the data display device according to the present invention can provide a sensible marking obtained by performing a marking process on the data before the marking process (original data) or the original data using at least a perceptible mark (a sensible mark). A data display device for displaying data, wherein the sensible mark removing means for removing the sensible mark from the supplied sensible marking data, and the audible marking from which the original data or the audible mark has been removed. Performing marking processing on the data using an invisible mark (insensitive mark) to generate insensitive marking data; and an insensitive marking data generating unit that generates the insensitive marking data. When the marking data is displayed alternately, the average display value is Fragment data generating means for generating a plurality of fragment data having a value corresponding to the original data or the insensitive marking data; and generating an average display value of the plurality of fragment data for the original data or the non-sensitive data. Data display means for alternately displaying a value corresponding to the sensible marking data.
[0013]
Preferably, the sensible data removing unit and the non-audible marking data generating unit integrally remove the sensible mark from the sensible marking data and a marking process using the non-insensitive mark. Do it inseparably.
[0014]
Preferably, the original data is image data, the sensible mark is a visible mark that can be visually perceived, and the invisible mark is a non-visible mark that cannot be visually perceived, and The removing unit removes the visible mark from the supplied sensible marking data, and the invisible marking data generating unit performs the invisible data on the sensible marking data from which the visible mark has been removed. The marking data is generated by performing the marking process using the invisible marking data, and the fragment data generating means, from the invisible marking data, when alternately displayed, the average display value is the original data or Generating a plurality of fragment data having a value corresponding to the insensitive marking data, wherein the data display means generates the plurality of fragment data; The fragment data, display values of the average is displayed alternately such that the value corresponding to the non-sensible marking data.
[0015]
Preferably, when the plurality of fragment data are displayed alternately, a value obtained by dividing a value obtained by multiplying each pixel of each fragment image data by a display time by a total display time is non-existent. The plurality of fragment data is generated so as to be the same as the sensible marking data.
[0016]
Preferably, the data display means is configured such that a sum of values obtained by multiplying at least the luminance of pixels at the same coordinates of each of the plurality of fragment image data by the respective display times is proportional to the luminance of the same coordinates of the original image data. In such a manner, the plurality of fragment data are displayed alternately.
[0017]
[Operation of data display device]
The data display device according to the present invention can be perceived by a human sense, such as hearing or visual sense, in original data, such as audio data, still image data, and moving image data, in an unmarked state, or in original data. The sensible marking data obtained by performing the marking process using the mark (the sensible mark) is displayed with the sensible mark removed.
Hereinafter, the operation of the data display device according to the present invention will be described with a specific example in which a marking process is performed on image data with a visible or invisible mark.
[0018]
[Visible mark removing means / invisible marking data generating means]
The sensible mark removing means indicates a right holder of the image data and the like. , Remove visible marks.
[0019]
The invisible marking data generating unit is inseparable and simultaneous with the process of removing the visible mark by the visible mark removing unit in order to prevent unauthorized use of the image data. To generate invisible marking data that looks visually the same as the original image data and can be used as a sample of the original image data.
[0020]
[Fragment data generation means]
The fragment data generating means is generated as described above, and includes copyright information, but has the same appearance as the original image data, and is partially changed from invisible marking data having a certain commercial value. Therefore, a plurality of pieces of fragment image data that look the same as the original data (invisible marking data) when they are displayed alternately, although they cannot be used as products, are generated.
[0021]
In other words, when a plurality of fragment data are displayed alternately, the fragment data generating means divides the value obtained by multiplying each pixel of each fragment image data by the display time by the total display time to obtain the original data (non-permissible). A plurality of fragment data are generated so as to be the same as the perceived marking data).
[0022]
[Data display means]
The data display means displays the plurality of pieces of generated fragment data at predetermined time intervals, and displays them so that they look visually the same as the original data.
In other words, the data display means sets a plurality of fragment image data such that a value obtained by multiplying each pixel of the fragment image data by the display time by the total display time becomes the same as the original data (insensitive marking data). Display data.
Alternatively, the data display means may be configured such that a sum of values obtained by multiplying at least the luminance of the pixel at the same coordinate of each of the plurality of fragment image data by the respective display times is proportional to the luminance of the same coordinate of the original image data. This object is achieved by alternately displaying a plurality of fragment data.
[0023]
[Data display method]
Further, in the data display method according to the present invention, the marking process is performed on the data (original data) before the marking process by using at least a perceptible mark (sensible mark) to generate sensible marking data. Sensible marking data and / or the original data is supplied, the sensible mark is removed from the supplied sensible marking data, and the supplied original data or the sensible mark is removed. For the sensible marking data, a marking process is performed by using a mark that cannot be sensed (insensitive mark) to generate insensitive marking data, and from the original data or the generated insensitive marking data, When displayed alternately, the average display value is the same as the original data or the previous data. Generating a plurality of fragment data having a value corresponding to the insensitive marking data, and generating an average display value of the plurality of fragment data corresponding to the original data or the insensitive marking data And so on.
[0024]
[recoding media]
Further, the recording medium according to the present invention is a recording medium before the marking process (original data), or sensible marking data obtained by performing a marking process on the original data using at least a perceptible mark (a sensible mark). In the data display device that displays, the sensible mark removal step of removing the sensible mark from the supplied sensible marking data, and the original data, or the audible marking data from which the audible mark has been removed A marking process using a mark that cannot be sensed (insensitive mark) to generate insensitive marking data; and a step of generating the insensitive marking data from the original data or the generated insensitive marking data. , When displayed alternately, the average display value A fragment data generating step of generating a plurality of fragment data having a value corresponding to the original data or the insensitive marking data; and generating an average display value of the plurality of fragment data, using the original data or the average data. And a data display step of causing the computer to alternately display data so as to have a value corresponding to the insensitive marking data.
[0025]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described.
[0026]
[Configuration of Image Data Distribution System 1]
FIG. 1 is a diagram showing a configuration of an image data distribution system 1 to which a data display method according to the present invention is applied.
As shown in FIG. 1, the image data distribution system 1 includes a server device 10, a communication network 12, and one or more client devices 14.
The client device 14 includes a communication device 140, a CPU 150, an input device 152, a display device 154, a memory 156, and an external storage device 158.
That is, the client device 14 has a configuration in which the communication device 140 is added to a normal computer.
[0027]
[Configuration of Data Display Software 2]
FIG. 2 is a diagram showing a configuration of the image data display software 2 for realizing the data display method according to the present invention.
As shown in FIG. 2, the image data display software 2 includes an image storage unit 200, a marking processing unit 202, an image storage unit 204, a fragment image generation unit 206, and first to n-th fragment image storage units (# 1 To #n) 208-1 to 208-n, a fragment image selection unit 210, and an image display unit 212.
[0028]
The image data display software 2 is supplied to the storage device 158 of the image data distribution system 1 (FIG. 1) in a form recorded on a recording medium 160 such as a magneto-optical disk (MO) or a CD-ROM. The data is loaded from the storage device 158 to the memory 156 and executed by the CPU 150.
[0029]
[Overview of marking process]
Before describing the components of the image data distribution system 1 and the image data display software 2, first, the server device 10 (FIG. 1) of the image data distribution system 1 and the marking processing unit 202 of the image data display software 2 (FIG. 2). (Hereinafter, the “digital watermark embedding process applied to the present invention” will be simply referred to as “marking process” for simplification of the description.)
[0030]
This marking process is described in a patent application (Japanese Patent Application No. 9-253761) filed on September 18, 1997 by IBM (International Business Machines Corporation), and additional visible information (hereinafter similarly referred to as It is characterized in that the process of removing a visible mark and the process of embedding a new invisible mark from image data in which “additional information” is also described as “mark” are inseparably performed.
[0031]
Hereinafter, a case where a visible or invisible mark is embedded in image data will be described as a specific example. However, this marking process is a process used to embed audible data or non-audible data in audio data. It is needless to say that the present invention can be applied to a marking process for data other than image data by changing.
[0032]
The outline of the marking process will be described with reference to FIGS.
3 to 5 are first to third views showing an outline of a marking process used in the data display method according to the present invention.
As shown on the left side of FIG. 3, in the first stage of the marking process, visible additional information (hereinafter, for simplicity of description, Is simply embedded in the original image data.
At this time, in addition to the portion where the visible mark is embedded, an invisible mark indicating owner information or the like in a form invisible to the user may be embedded.
[0033]
When the image data in which the visible mark is embedded as described above is printed or displayed, for example, as shown in the right side of FIG. An invisible mark (fingerprint information) such as user information is embedded.
[0034]
As shown in the lower part of FIG. 4, in the second stage of the marking process, after the visible mark is removed, the removal of the visible mark and the embedding of the invisible mark are performed in parallel instead of embedding the invisible mark. By doing so, the visible mark and the invisible mark are mixed in the image data.
Therefore, even if the user saves the contents of the memory (snapshot) during the processing of the second stage, the user obtains the original image data in which neither the visible mark nor the invisible mark is embedded. It is impossible.
[0035]
Further, when the invisible mark is embedded in the area where the visible mark is embedded during the processing of the second stage, the difference between the image data before and after the processing of the second stage is obtained as shown in FIG. Even if the comparison is made, it becomes difficult to estimate the newly embedded invisible mark.
Furthermore, if the invisible mark is embedded in parallel with the removal of the visible mark and the invisible mark is embedded in the area where the visible mark is embedded, the removal of the visible mark and the embedding of the invisible mark are performed as follows. Inevitably becomes inseparable.
[0036]
Furthermore, when the visible mark is embedded in the first stage of the marking process, the invisible mark is embedded in another area. When the visible mark is removed in the second stage, the electronic fingerprint such as the user name is further added. Information is embedded, and as a result, two types of invisible marks are embedded.
In this way, the invisible mark embedded in the first stage cannot be removed even if a collusion comparison operation is performed.
[0037]
According to this marking process, the presence of the visible mark makes it possible to clearly indicate the owner and use restrictions of the image data, and to prevent unauthorized commercial use of the image data.
Further, even if the image data from which the visible additional mark has been removed is circulated due to unauthorized use, the invisible additional mark embedded in the image data causes the right and the unauthorized use of the image data. The fact of distribution can be clarified.
[0038]
[Relationship between server 10 and marking processing unit 202]
FIG. 6 is a diagram showing processing of the server device 10 shown in FIG. 1 and the marking processing unit 202 shown in FIG.
6, the communication network 12 and the communication device 140 (FIG. 1) between the server device 10 and the marking processing unit 202 are omitted for the sake of simplicity of illustration and description.
FIG. 7 is a diagram illustrating keys generated by the server device 10 (key generation unit 100) illustrated in FIGS. 1 and 6.
[0039]
[Key generation]
As shown in FIG. 6, the server device 10 includes a key generation processing unit 100 and a visible mark embedding processing unit 102.
In the server device 10, the key generation unit 100 embeds the visible mark in the image content, removes the visible mark, and removes the visible mark based on the dot pattern of the visible mark input from the outside and the operation input for embedding the visible mark. A key used for each process of embedding the visible mark is generated and output to the visible mark embedding processing unit 102.
[0040]
In addition, in response to a request from the client device 14 (the marking processing unit 202), the key generation unit 100 transmits the client device 14 (the marking processing unit 202) via the communication network 12 and the communication device 140 (not shown in FIG. 6). ) Is transmitted.
As shown in FIG. 7, the key generated by the key generation unit 100 includes a keyword for selecting a process of erasing a visible mark, an embedding start position of the visible mark, a size of the visible mark, and a dot pattern of the visible mark. Contains information.
[0041]
The key generation and the embedding of the visible mark are performed by a device other than the server device 10, and the data on which the key generation and the embedding process of the visible mark have already been performed may be placed in the server device 10.
The key information may be added to the end of the image data in which the visible mark is embedded.
This is not always the case when static image data is handled.
[0042]
[Embed visible mark]
FIG. 8 is a diagram illustrating a process in which the visible mark embedding processing unit 102 illustrated in FIG. 6 embeds a visible mark in image content.
The visible mark embedding processing unit 102 sets the original image content I (x, y) corresponding to the dot pattern d (i, j) according to the value (ON or OFF) of the dot pattern d (i, j) included in the key. Each of the image components (pixel value / DCT coefficient value) of the pixel block having the m × m pixel configuration in ()) is combined with a different number of reversible operations according to the random sequence included in the key input from the key generation unit 100. By doing so, a visible mark embedding process is performed (the above-described pixel block having the m × m pixel configuration is also referred to as an operation target block), and the distributed block is distributed to the marking processing unit 202 or stored as a file.
[0043]
As described above, according to this marking method, the visible mark embedding processing unit 102 can embed the visible mark and the invisible mark in the original image content. A case where the mark embedding processing unit 102 embeds only the visible mark once in the original image content will be described as a specific example.
[0044]
As shown in the enlarged view of FIG. 8, the coordinates (x, y; the unit of the coordinates is pixels) of the original image content I (x, y) and the coordinates (i, j) of the dot pattern d (i, j). ), For example, assuming that the visible data embedding start position is (a, b), as (x + a, y + b) = (mi, mj).
If the image content has been compression-encoded by the JPEG method, the value of the size m of the operation target block is selected to be a multiple of eight.
Examples of the reversible conversion operation to the operation target block by the visible mark embedding processing unit 102 include a scan order exchange process to an exclusive OR operation process described below.
[0045]
[Scan order exchange processing]
The visible mark embedding processing unit 102 exchanges the scan order of each pixel value or DCT coefficient in the operation target block having the m × m pixel configuration in the block. That is, the visible mark embedding processing unit 102 embeds the visible mark by rearranging the scan order of the pixel value / DCT coefficient in the operation target block in a predetermined order.
[0046]
FIG. 9 is a diagram illustrating a process in which the visible mark embedding processing unit 102 illustrated in FIG. 6 exchanges the scan order of the operation target block having the m × m pixel configuration.
As a method of changing the scan order, a method of randomly scrambling the scan position in a one-to-one manner, or, as illustrated in FIG. 9, rotating, folding, or paralleling the operation target block along a certain axis. There is a method of performing scanning in a normal order after moving.
[0047]
[Numeric exchange process]
When the original image content is a color image, pixel values / DCT coefficient values are usually different between image components (RGB, YUY, etc.) constituting the image. Utilizing this, the visible mark embedding processing unit 102 converts the pixel value / DCT coefficient value by exchanging the corresponding pixel value / DCT coefficient value between the image components.
[0048]
[Linear conversion processing]
The visible mark embedding processing unit 102 converts each pixel value / DCT coefficient value in the operation target block by mapping one-to-one with a function having an inverse function. As a method of converting the pixel value / DCT coefficient value, a method of multiplying the operation target block by a regular m × m matrix, that is, the operation target block B having an m × m pixel configuration is provided with a regular matrix A having m rows and m columns. And perform a linear transformation to obtain a transformation block AB.
[0049]
In this case, it is preferable to select a regular matrix A in which the determinant det (A) is 1. Inverse matrix A of such a regular matrix A -1 Are all integers. In order to obtain the operation target block B from the transformation block AB, the inverse matrix A -1 Is multiplied by the conversion block AB, there is no rounding error for processing the decimal point.
[0050]
[Numerical value addition processing]
The visible mark embedding processor 102 selects a plurality of pixel values / DCT coefficients B (x, y) in the operation target block, and calculates a variation value ΔB (x) calculated according to a random sequence generated by a keyword in the key. , Y), and conversion is performed by setting B (x, y) = B (x, y) + ΔB (x, y).
[0051]
[Exclusive OR operation]
A mask is generated by a random sequence generated from a keyword in a key, and an exclusive OR operation of the mask and a pixel value / DCT coefficient value in the operation target block is performed, thereby obtaining a pixel value / DCT coefficient value. To change.
[0052]
FIG. 10 is a flowchart showing the process (S10) of embedding the visible mark in the original image content by the visible mark embedding processing unit 102.
As shown in FIG. 10, in step 100 (S100), the visible mark embedding processing unit 102 decodes JPEG data compression-encoded by the JPEG method input as original image content.
[0053]
In step 120 (S120), the visible mark embedding processing unit 102 generates a random sequence generated from the image content decrypted in the processing of S100, the dot pattern of the visible mark, and the key keyword input from the key generation unit 100. Based on a method determined according to (pseudo-random number sequence 1), a visible mark is embedded by performing operations (DC / AC Coefficient Modification) of DC / AC coefficients included in DCT coefficients of JPEG data.
[0054]
In step 122 (S122), the visible mark embedding processing unit 102 determines whether or not the conversion process in S120 has been performed the number of times specified by the embedding method. The processed operation target block is output, and otherwise, the process returns to S120.
[0055]
[Visible mark removal / invisible mark embedding]
In the image data display software 2 (FIG. 2), the marking processing unit 202 generates the operation target block of the image content in which the visible mark embedding processing unit 102 embeds the visible mark by the key generation unit 100 (FIG. 6). Using the same key as that used by the visible mark embedding processing unit 102 for embedding the visible mark, the visible mark is removed by performing a process reverse to that when the mark is embedded. Further, the marking processing unit 202 embeds the invisible mark in the image content, and outputs it to the image storage unit 204 (FIG. 2).
[0056]
Note that, as described above, the marking processing unit 202 embeds the invisible mark only in the area where the visible mark is embedded in the image content sent from the visible mark embedding processing unit 102.
In addition, if the removal of the visible mark and the embedding of the invisible mark are sequentially performed, it is possible to obtain digital content data in a state where neither the visible mark nor the invisible mark is embedded by a memory snapshot. Therefore, as described above, the marking processing unit 202 performs the removal of the visible mark and the invisible mark simultaneously and in parallel.
[0057]
The process in which the marking processing unit 202 removes the visible mark and embeds the invisible mark will be described more specifically.
First, the marking processing unit 202 performs kq (q <k) times on a part of the operation target block B (k) in which the visible mark embedding processing unit 102 embeds the visible mark through k reversible operations. Inverse conversion processing is performed to partially remove (thin) visible marks from the operation target block B (K).
[0058]
Next, the marking processing unit 202 embeds an invisible mark in the operation target block B (q) in which the visible mark has been diluted. The marking processing unit 202 embeds the invisible mark, and dilutes the pattern P (m) obtained by performing the reversible operation q times in the visible mark embedding processing unit 102 on the invisible mark pattern P to be embedded. This is performed by overwriting and overwriting the operation target block B (m) in the state.
[0059]
That is, the marking processing unit 202 performs m inverse conversion processes after performing the inverse conversion process km times on the operation target block B and before the visible mark is completely removed. And a value PB (m) = B (m) obtained by adding the operation target block B ′ to the operation target block B ′ and the pattern P (m) by embedding a pattern P (m) that becomes the pattern P of the invisible mark. ) + P (m)].
[0060]
Further, the marking processing unit 202 performs the remaining m inverse conversion processes on the operation target block B ′ (m), and the operation target block in which the invisible mark pattern P is embedded in the operation target block B of the original image content. Obtain B '.
The marking processing unit 202 performs the above-described process of removing the visible mark and embedding the invisible mark at different timings according to the random sequence included in the key for each operation target block, that is, for each operation target block. , With different values of m.
[0061]
FIG. 11 is a flowchart showing a process (S20) in which the marking processing unit 202 shown in FIG. 2 removes a visible mark embedded in the image content and embeds an invisible mark.
As shown in FIG. 11, in step 200 (S200), the marking processing unit 202 decodes the JPEG data in which the visible mark is embedded by Huffman decoding.
In step 220 (S220), the marking processing unit 202 determines whether the visible mark embedding processing unit 102 embeds the first km or the last m of the k visible marks embedded in the processing target block of the image content. Is removed.
[0062]
In step 222 (S222), the marking processing unit 202 embeds a visible mark pattern P (m) that has been subjected to m reversible conversions in the processing target block.
In step 224 (S224), the marking processing unit 202 determines whether or not all the visible marks have been removed. If all of the visible marks have been removed, the processing ends, and the processing in which the invisible mark is embedded is performed. The target block is output. Otherwise, the process returns to S220.
[0063]
In step 230 (S230), the marking processing unit 202 generates a pseudo-random number sequence 2 from the key keyword transmitted from the key generation unit 100, and based on the generated pseudo-random number sequence 2, removes the visible mark. The timing (the above numerical value q) is selected.
Similarly, in step 232 (S232), the marking processing unit 202 selects the invisible mark pattern P based on the pseudorandom number sequence 3 obtained from the key keyword, and further, in step 236 (S236) The pattern P of the invisible mark is reversibly transformed q times to generate a pattern P (q), which is used in the process of S222.
In step 234 (S234), the marking processing unit 202 selects an inverse conversion method for erasing the visible mark based on the pseudo-random number sequence 1 obtained from the key keyword, and uses the method in step S220.
[0064]
[Server 10]
Hereinafter, each component of the image data distribution system 1 will be described with reference to FIG. 1 again and further to FIG. 12 and FIG.
FIG. 12 is a diagram exemplifying original image data in which neither a visible mark nor an invisible mark is embedded.
FIG. 13 is a diagram illustrating visible marking data in which a visible mark is embedded in original image data.
[0065]
The server 10 performs the marking process as described above on the original image data that has not been subjected to the marking process illustrated in FIG. 12, and embeds and stores a visible mark (for example, the character “IBM” shown in FIG. 13). Alternatively, the image data already marked is stored.
Further, in response to a first request from another communication node (such as the client device 14 or another terminal device (not shown)), the server 10 embeds a visible mark in the requested communication node via the client device 14. The visible marking image data is transmitted.
[0066]
In addition, when the user has paid for the service, the server 10 transmits key information for removing the visible mark and saving the file to the communication node of the user via the client device 14.
[0067]
[Communication network 12]
The communication network 12 is, for example, a communication line capable of data transmission such as an ISDN communication line, a dedicated data line, a telephone line, or a LAN, and transmits visible marking image data and key information between the server 10 and the client device 14. Transmit.
[0068]
[Communication device 140]
The communication device 140 is, for example, a TA for an ISDN communication line, a dedicated data line terminating device, a telephone line modem or a LAN adapter, and operates under the control of the CPU 150 to transmit data input from the CPU 150 via the communication network 12. To the server 10, and also receives data transmitted from the server 10 via the communication network 12 and outputs the data to the CPU 150.
[0069]
[CPU 150]
The CPU 150 includes a CPU and its peripheral circuits (not shown), loads the OS and the data display software 2 supplied to the client device 14 via the recording medium 160 or the like into the memory 156 and executes the OS. 14 to control the components and perform processing such as data display according to the present invention.
In addition, the CPU 150 displays the generated image data on the display device 154 or stores the generated image data on the recording medium 160 via the external storage device 158 in accordance with the operation of the user via the input device 152.
[0070]
[Input device 152]
The input device 152 includes a keyboard, a mouse, and the like, accepts a user operation, and outputs the operation to the CPU 150.
[0071]
[Display device 154]
The display device 154 displays image data (visible marking image data, invisible marking image data, other GUI image data, and the like) input from the CPU 150 on a CRT display device or an LCD display device.
[0072]
[External storage device 158]
The external storage device 158 is an MO device, a CD device (CDP) or a hard disk device (HDD), operates under the control of the CPU 150, reproduces software and other data supplied via the recording medium 160, and reproduces the data. Output to
Further, the external storage device 158 stores image data and the like input from the CPU 150 in the recording medium 160.
[0073]
[Image storage unit 200]
Hereinafter, with reference to FIG. 2 again, each component of the data display software 2 will be described.
The image storage unit 200 requests the server 10 to transmit visible marking image data (or original image data) in accordance with a user operation via the input device 152, and in response to this request, the server 10 The visible marking image data (or the original image data shown in FIG. 13) transmitted through the storage device is stored and displayed on the display device 154 (FIG. 1) or output to the marking processing unit 202.
Alternatively, the image storage unit 200 reads and stores the visible marking image data stored in the recording medium 160 and supplied to the client device 14 from the external storage device 158, and outputs the data to the marking processing unit 202.
[0074]
[Marking processing unit 202]
As described above, the marking processing unit 202 performs the above-described second stage processing of the marking process on the visible marking image (original image data) input from the image storage unit 200 to remove the visible mark. An invisible mark is embedded to generate invisible marking data that looks the same as the original image data shown in FIG. 12 from the user's eyes, and outputs it to the image storage unit 204.
[0075]
[Image storage unit 204]
The image storage unit 204 stores the invisible marking image data input from the marking processing unit 202 and outputs the data to the fragment image generation unit 206.
[0076]
[Fragment image generation unit 206]
FIGS. 14 to 16 are diagrams illustrating fragment image data # 1 to # 3 generated by the fragment image generation unit 206 when n = 3, respectively.
The fragment image generation unit 206 changes the values in the n types of regions of the invisible marking image data input from the image storage unit 204, and each one looks as illustrated in FIG. 14 to FIG. Due to the characteristics of human visual perception, n images are taken in a sufficiently short time interval T i (For example, 1/30 to 1/60 seconds), when repeatedly displayed on the screen of the display device 154, fragment image data # 1 that looks exactly the same as the invisible marking image data (original image data) To #n are generated and output to the fragment image storage units 208-1 to 208-n.
If the white luminance is / and the black luminance is 0 in the fragment image data, and the white luminance is 、 and the black luminance is 1 / in the original image data (invisible marking image data), FIGS. , The white luminance is 1/2 [= (3/4 + 3/4 + 0) / 3] and the black luminance is 1/4 [= (3/4 + 0 + 0) / 3].
[0077]
In other words, even if the fragment image generation unit 206 takes out one by one from the invisible marking image data by snapshotting the memory 156, the fragment image generation unit 206 modifies a part of the image as shown in FIGS. However, for example, if n sheets (n is an integer) are combined as shown in the following equation 1, they cannot be distinguished from the original image data, and the original image data (FIG. 12) The fragment image data #i (1 ≦ i ≦ n) that can be used as a sample of the fragment image data #i is generated, and each of the generated fragment image data #i is displayed on the fragment image storage units 208-1 to 208-n.
[0078]
(Equation 1)
Figure 0003565483
[0079]
That is, combining n pieces of fragment image data as shown in Equation 1 means that the value obtained by multiplying each pixel of each piece of fragment image data by the display time and dividing by the total display time is the original image data ( This corresponds to synthesizing each piece of image data so as to be the same as invisible marking image data).
[0080]
The generation method of fragment image data # 1 to #n in fragment image generation section 206 will be described with reference to FIG.
FIG. 17 is a flowchart showing a fragment image generation process (S30) in which the fragment image generation unit 206 shown in FIG. 2 generates fragment image data # 1 to #n.
[0081]
As shown in FIG. 17, in step 300 (S300), the fragment image generation unit 206 determines the number n of fragment pixels and the time interval T for displaying fragment pixel data # 1 to #n. i Is determined within a certain range, for example, using random numbers, so as to have different values for each processing, for example, in the range of 2 to 5 sheets and 1/50 to 1/60 seconds, and the fragment image selection unit 210 and It is set on the image display unit 212 and the like.
[0082]
In step 302 (S302), the fragment image generation unit 206 assigns an initial value (for example, 1; the unit is a pixel, which increases from the upper end to the lower end of the image area) to a variable Y indicating the Y coordinate.
[0083]
In step 304 (S304), the fragment image generation unit 206 assigns an initial value (for example, 1; the unit is a pixel, which increases from the left end to the right end of the image area) to a variable X indicating the X coordinate.
[0084]
In step 306 (S306), the fragment image generation unit 206 reads the invisible marking image data of the pixel at the position of the coordinates (X, Y).
[0085]
In step 308 (S308), the fragment image generation unit 206 substitutes an initial value (for example, 1) for a variable I indicating the number of fragment pixel data.
[0086]
In step 310 (S310), the fragment image generation unit 206 reads the respective values of the R, G, and B data of the invisible marking image data at the coordinates (X, Y) read in the process of S106, and outputs fragment image data #i. Is calculated at the coordinates (X, Y).
Specifically, the fragment image generation unit 206 determines the pixel value R of the coordinates (X, Y) of the fragment pixel data #i. i , G i , B i For example, when i <n, R i = R o + D 1 , G i = G o + D 2 , B i = B o + D 3 (However, d 1 , D 2 , D 3 Is a random number within the range of −3 to +3), and when i = n, a value that satisfies Expression 1 is set.
[0087]
In step 312 (S312), the fragment image generation unit 206 obtains the address at which the pixel data of the coordinates (X, Y) of the fragment image data #i is stored in the fragment image storage unit 208-i by the processing of S110. The pixel data at the coordinates (X, Y) of the obtained fragment image data #i is stored.
[0088]
In step 314 (S314), the fragment image generation unit 206 increments the variable i (i = i + 1).
[0089]
In step 316 (S316), the fragment image generation unit 206 determines whether or not the variable i is larger than the number n of fragment image data. If the variable I is larger than n, the process proceeds to S318, and other processes are performed. In this case, the process returns to S310.
Through the processing loop of S310 to S316, the pixel values R of the same coordinates are passed through all the fragment image data. i , G i , B i Satisfies the above equation (1).
[0090]
In step 318 (S318), the fragment image generation unit 206 increments the variable X (X = X + 1).
[0091]
In step 320 (S320), the fragment image generation unit 206 determines whether or not the variable X is larger than the image width. If the variable X is larger than the image width (the right end of the fragment image data), the process proceeds to S322. Otherwise, the process returns to S306.
By the processing loop of S306 to S320, fragment image data is generated in the X-axis direction from the left end to the right end.
[0092]
In step 322 (S322), the fragment image generation unit 206 increments the variable Y (Y = Y + 1).
[0093]
In step 324 (S324), the fragment image generation unit 206 determines whether or not the variable Y is larger than the image height. If the variable Y is larger than the image height (the lower end of the fragment image data), Return, otherwise, end the process. By the loop of the processing from S304 to S324, fragment image data is generated in the Y-axis direction from the upper end to the lower end.
[0094]
[Fragment image storage units 208-1 to 208-n]
FIG. 2 is referred to again.
The fragment image storage units 208-1 to 208-n store the fragment image data # 1 to #n input from the fragment image generation unit 206, respectively, and input the fragment image data to the input terminals # 1 to #n of the fragment image selection unit 210. Output.
[0095]
[Fragment image selection unit 210]
The fragment image selection unit 210 converts the fragment image data # 1 to #n input from the fragment image storage units 208-1 to 208-n in this order for the time interval T i And repeatedly output to the image display unit 212.
[0096]
[Image Display Unit 212]
The image display unit 212 converts each of the fragment image data input from the fragment image selection unit 210 into a time interval T i And outputs it to the display device 154 and presents it to the user as sample image data that cannot be visually distinguished from the original image data.
[0097]
The image display processing of the image display unit 212 will be further described with reference to FIG. FIG. 18 is a flowchart showing the image display processing (S40) by the image display unit 212 shown in FIG.
As shown in FIG. 18, in step 400 (S400), the image display unit 212 substitutes an initial value (for example, 1) for a variable i indicating the number of fragment image data.
[0098]
In step 402 (S402), the image display unit 212 displays all the pixel values R of the fragment image data #i stored in the fragment image storage unit 208-i. i , G i , B i Is read out, output to the display device 154, and displayed.
[0099]
In step 404 (S404), the image display unit 212 determines whether or not an operation for interrupting the display has been performed by the user, and when the display is interrupted, stops displaying the fragment image data. The process ends, and otherwise, the process proceeds to S406.
[0100]
In step 406 (S406), the image display unit 212 measures the elapsed time T (the elapsed time from the start of displaying the fragment image data #i) T after the processing of S202.
[0101]
In step 408 (S408), the image display unit 212 displays the elapsed time T as the fragment image data T i If it is larger, the process proceeds to S410; otherwise, the process returns to S404.
[0102]
In step 410 (S410), the image display unit 212 increments the variable i (i = i + 1).
[0103]
In step 412 (S412), the controller 412 determines whether the variable i is larger than the number n of fragment image data. If the variable i is larger than the number n, the process returns to S400. Returns to the process of S402.
The display time of each fragment image data is controlled by the processing loop using the variable T, and the processing is controlled by the processing loop using the variable i so that all the fragment image data is displayed.
[0104]
With these two types of processing loops, the sum of the values obtained by multiplying the luminance of the pixel at the same coordinates of each piece of fragment image data by the display time of each pixel is the same as the coordinates of the original image data (invisible marking image data). The fragment image data is synthesized so as to be proportional to the luminance of.
[0105]
[Operation of Image Data Distribution System 1]
Hereinafter, the operation of the image data distribution system 1 that distributes image data from the server 10 to the client device 14 will be described with reference to FIG.
FIG. 19 is a communication sequence diagram showing signals transmitted and received between the server 10 and the client device 14 shown in FIG.
As described above, the image data is also supplied to the client device 14 by the recording medium 160. In this case, a communication sequence similar to that in FIG. 19 is performed between the CPU 150 and the external storage device 158. It should be done in.
[0106]
[Original image data transmission]
When the user pays the price for obtaining the original image data to the owner of the image data, the owner provides the user with a password indicating that.
When the user operates the input device 152 of the client device 14 (FIG. 1) to perform an operation for inquiring the original image data, the data display software 2 of the client device 14 displays the image data inquired as shown in FIG. A signal is transmitted to server 10 (SQ100).
[0107]
Upon receiving the image data inquiry signal, the server 10 transmits an image data list indicating a list of image data that can be supplied to the client device 14 (data display software 2) (SQ102).
[0108]
When the client device 14 (data display software 2) receives the image data list from the server 10 and displays the image data list on the display device 154, the user specifies the image data for which payment has been made, further inputs a password, and inputs the image data. Perform an operation to request transmission of the message.
In response to this operation, the client device 14 (data display software 2) transmits an image data transmission request to the server 10 (SQ104).
[0109]
When receiving the image data transmission request including the designation of the image data and the password, the server 10 checks the designation of the image data and the password, confirms that these are valid without contradiction, and checks the image data including the original image data. The packets # 1 to #m are transmitted to the client device 14 (SQ106-1 to SQ106-m).
[0110]
The client device 14 (image storage unit 200) receives and stores the original image data from the server 10, displays it on the display device 154 to show the user, and further, according to the operation of the user, the external storage device 158. Stored in the recording medium 160 in the inside.
[0111]
[Visible marking image data transmission]
Next, an operation of transmitting visible marking image data between the server 10 and the client device 14 will be described.
[0112]
When the user performs an operation to inquire image data, the data display software 2 of the client device 14 transmits an image data inquiry signal to the server 10 as shown in FIG. 19 (SQ100).
Upon receiving the image data inquiry signal, the server 10 transmits an image data list indicating a list of image data that can be supplied to the client device 14 (data display software 2) (SQ102).
[0113]
When the client device 14 (data display software 2) receives the image data list from the server 10 and displays it on the display device 154, the user specifies image data and performs an operation for requesting a sample.
In response to this operation, the client device 14 (data display software 2) transmits an image data transmission request to the server 10 (SQ104).
[0114]
Upon receiving the image data transmission request for requesting the sample, the server 10 performs a marking process on the original image data illustrated in FIG. 12, and the image data packet including the visible marking image data illustrated in FIG. # 1 to #m are transmitted to the client device 14 (SQ106-1 to SQ106-m).
[0115]
The image storage unit 200 stores the visible marking image data (FIG. 13) sent from the server 10, displays it on the display device 154 (FIG. 1), and outputs it to the marking processing unit 202.
The marking processing unit 202 removes the visible mark from the visible marking image input from the image storage unit 200, and further embeds an invisible mark, so that from the user's eyes, it is the same as the original image data shown in FIG. The visible invisible marking data is generated and output to the image storage unit 204.
[0116]
The fragment image generation unit 206 reads out the invisible marking image data from the image storage unit 204 and performs the processing illustrated in FIG. 17 to generate n types of fragment image data # 1 to #n illustrated in FIGS. Then, the data is output to the fragment image storage units 208-1 to 208-n.
[0117]
The fragment image selection unit 210 stores the fragment image data # 1 to #n from the fragment image storage units 208-1 to 208-n in the time interval T i To select and read repeatedly, and output to the image display unit 212.
The image display unit 212 performs the processing shown in FIG. 18 on each of the fragment image data input from the fragment image selection unit 210, i And outputs it to the display device 154 and presents it to the user as sample image data that cannot be visually distinguished from the original image data.
[0118]
【The invention's effect】
As described above, according to the data display system, the data display device, and the method thereof according to the present invention, the marking process is performed on the network or a recording medium such as a CD-ROM, and the marking process is performed using the visible additional information. The displayed image content can be displayed to the user with the visible additional information removed.
[0119]
Further, according to the data display system, the data display device, and the method thereof according to the present invention, it is possible to prevent the image content from which the visible additional information has been removed from being illegally used by the user.
Further, according to the data display system, the data display device and the method according to the present invention, the image data to which only the non-visible additional information is added without the visible additional information does not have a valid use right in a perfect form. It is possible to make it hard for the user to reach.
[0120]
Further, according to the data display system, the data display device, and the method thereof according to the present invention, the visible additional information is removed from the image content that has been subjected to the marking processing using the visible additional information, and the image content is displayed to the user. Can confirm and accept the original image content and pay the price to the supplier.
[Brief description of the drawings]
FIG. 1 is a diagram showing a configuration of an image data distribution system to which a data display method according to the present invention is applied.
FIG. 2 is a diagram showing a configuration of image data display software for realizing a data display method according to the present invention.
FIG. 3 is a first diagram showing an outline of a marking process used in the data display method according to the present invention.
FIG. 4 is a second diagram showing an outline of a marking process used in the data display method according to the present invention.
FIG. 5 is a third diagram showing an outline of a marking process used in the data display method according to the present invention.
FIG. 6 is a diagram illustrating a process performed by the server device illustrated in FIG. 1 and a marking processing unit illustrated in FIG. 2;
FIG. 7 is a diagram illustrating keys generated by the server device (key generation unit) illustrated in FIGS. 1 and 6;
FIG. 8 is a diagram illustrating a process of embedding a visible mark in image content by a visible mark embedding processing unit illustrated in FIG. 6;
9 is a diagram illustrating a process in which the visible mark embedding processing unit shown in FIG. 6 exchanges the scan order of the operation target block having the m × m pixel configuration.
FIG. 10 is a flowchart showing a process (S10) of embedding a visible mark in an original image content by a visible mark embedding processing unit.
FIG. 11 is a flowchart showing a process (S20) in which the marking processing unit shown in FIG. 2 removes a visible mark embedded in image content and embeds an invisible mark.
FIG. 12 is a diagram exemplifying original image data in which neither a visible mark nor an invisible mark is embedded.
FIG. 13 is a diagram illustrating visible marking data in which a visible mark is embedded in original image data.
FIG. 14 is a first diagram illustrating fragment image data generated by the fragment image generating unit when n = 3.
FIG. 15 is a second diagram illustrating fragment image data generated by the fragment image generating unit when n = 3.
FIG. 16 is a third diagram illustrating fragment image data generated by the fragment image generating unit when n = 3.
17 is a flowchart showing a fragment image generation process (S30) in which the fragment image generation unit shown in FIG. 2 generates fragment image data # 1 to #n.
FIG. 18 is a flowchart showing an image display process (S40) by the image display unit shown in FIG.
FIG. 19 is a communication sequence diagram showing signals transmitted and received between the server and the client device shown in FIG.
[Explanation of symbols]
1 ... Image data distribution system
10 ... Server
100: key generation unit
102: visible mark embedding part
12 ・ ・ ・ Communication network
14 Client device
140 communication device
150 ... CPU
152 ... input device
154... Display device
156 ・ ・ ・ Memory
158... External storage device
160 recording medium
2 ... Data display software
200 image storage unit
202 ・ ・ ・ Marking processing unit
204 ・ ・ ・ Image storage unit
206: Fragment image generation unit
208-1 to 208-n: Fragment image storage unit
210: fragment image selection unit
212 image display unit

Claims (3)

電子透かしにより情報が埋め込まれたオリジナルの画像データから複数の断片画像データを生成する手段と、
前記複数の断片画像データを交互に表示し、画像データの各画素が視覚的に前記オリジナルデータの同一座標の画素と同じに見えるように表示する表示手段
を有するデータ表示システムであって、
前記断片画像データは、複数の断片画像データを交互に表示した場合に各断片画像データの画素値それぞれに各断片画像データの表示時間を乗算した値を全断片画像データ表示時間で除算した値の各画素についての総和がオリジナルの画像データの同一座標の画素値と同じになるように生成することを特徴とする、データ表示システム。
Means for generating a plurality of fragment image data from original image data in which information is embedded by a digital watermark,
A data display system having display means for displaying the plurality of fragment image data alternately, and displaying each pixel of the image data so that the pixel looks visually the same as a pixel at the same coordinates of the original data.
The fragment image data is obtained by dividing a value obtained by multiplying each pixel value of each fragment image data by a display time of each fragment image data by a total fragment image data display time when a plurality of fragment image data are alternately displayed. A data display system, wherein a sum of each pixel is generated so as to be the same as a pixel value of the same coordinates in the original image data.
電子透かしにより情報が埋め込まれたオリジナルの画像データから複数の断片画像データを生成するステップと、
前記複数の断片画像データを交互に表示し、画像データの各画素が視覚的に前記オリジナルデータの同一座標の画素と同じに見えるように表示するステップ
を有するデータ表示方法であって、
前記断片画像データは、複数の断片画像データを交互に表示した場合に各断片画像データの画素値それぞれに各断片画像データの表示時間を乗算した値を全断片画像データ表示時間で除算した値の各画素についての総和がオリジナルの画像データの同一座標の画素値と同じになるように生成することを特徴とする、データ表示方法。
Generating a plurality of fragment image data from original image data in which information is embedded by digital watermarking;
A data display method comprising a step of displaying the plurality of fragment image data alternately, and displaying each pixel of the image data so as to visually look the same as a pixel at the same coordinate of the original data,
The fragment image data is obtained by dividing a value obtained by multiplying each pixel value of each fragment image data by a display time of each fragment image data by a total fragment image data display time when a plurality of fragment image data are alternately displayed. A data display method, wherein the sum of each pixel is generated so as to be the same as the pixel value of the same coordinates in the original image data.
画像データを表示装置に表示するためのプログラムを含む、コンピュータ読み取り可能な記録媒体であって、該プログラムが、
電子透かしにより情報が埋め込まれたオリジナルの画像データから複数の断片画像データを生成するステップであって、前記断片画像データは、複数の断片画像データを交互に表示した場合に各断片画像データの画素値それぞれに各断片画像データの表示時間を乗算した値を全断片画像データ表示時間で除算した値の各画素についての総和がオリジナルの画像データの同一座標の画素値と同じになるように生成するステップと、
前記複数の断片画像データを交互に表示し、画像データの各画素が視覚的に前記オリジナルデータの同一座標の画素と同じに見えるように表示するステップ
をコンピュータに実行させる記録媒体。
A computer-readable recording medium including a program for displaying image data on a display device, the program comprising:
Generating a plurality of fragment image data from the original image data in which the information is embedded by the digital watermark, wherein the fragment image data includes a pixel of each fragment image data when the plurality of fragment image data are alternately displayed. A value is obtained by multiplying the value obtained by multiplying the display time of each fragment image data by each value by the display time of all fragment image data so that the sum of each pixel is the same as the pixel value of the same coordinates in the original image data. Steps and
A recording medium for causing a computer to execute a step of displaying the plurality of fragment image data alternately and displaying each pixel of the image data so that each pixel looks visually the same as a pixel at the same coordinates of the original data.
JP35402198A 1998-12-14 1998-12-14 Data display system, data display device and method thereof Expired - Fee Related JP3565483B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP35402198A JP3565483B2 (en) 1998-12-14 1998-12-14 Data display system, data display device and method thereof
TW088117627A TW448397B (en) 1998-12-14 1999-10-12 Data displaying system, data displaying device, and method thereof
KR1019990050521A KR20000047641A (en) 1998-12-14 1999-11-15 Data displaying system, data displaying device, and method thereof
CNB991247620A CN1183440C (en) 1998-12-14 1999-12-09 Data display system, data display equipment and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP35402198A JP3565483B2 (en) 1998-12-14 1998-12-14 Data display system, data display device and method thereof

Publications (2)

Publication Number Publication Date
JP2000184177A JP2000184177A (en) 2000-06-30
JP3565483B2 true JP3565483B2 (en) 2004-09-15

Family

ID=18434785

Family Applications (1)

Application Number Title Priority Date Filing Date
JP35402198A Expired - Fee Related JP3565483B2 (en) 1998-12-14 1998-12-14 Data display system, data display device and method thereof

Country Status (4)

Country Link
JP (1) JP3565483B2 (en)
KR (1) KR20000047641A (en)
CN (1) CN1183440C (en)
TW (1) TW448397B (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1548635B1 (en) * 2002-09-26 2009-06-24 Kenji Yoshida Information reproduction/i/o method using dot pattern and information reproduction device
US7382969B2 (en) * 2003-02-19 2008-06-03 Sony Corporation Method and system for preventing the unauthorized copying of video content
JP3974572B2 (en) * 2003-11-28 2007-09-12 松下電器産業株式会社 Image display device, image data transfer method, and program
JP4129984B2 (en) 2004-10-07 2008-08-06 インターナショナル・ビジネス・マシーンズ・コーポレーション Content output apparatus, computer program for realizing the same, content distribution output system, and content output method
CN101004777B (en) 2006-01-21 2010-11-10 鸿富锦精密工业(深圳)有限公司 System and method for automatic loading digital relief watermark
JP4867874B2 (en) * 2007-09-12 2012-02-01 富士通株式会社 Image processing program, image processing apparatus, and image processing method
JP5299880B2 (en) * 2011-08-04 2013-09-25 桂子 竹田 Image display protection device and method thereof

Also Published As

Publication number Publication date
CN1183440C (en) 2005-01-05
TW448397B (en) 2001-08-01
KR20000047641A (en) 2000-07-25
JP2000184177A (en) 2000-06-30
CN1258884A (en) 2000-07-05

Similar Documents

Publication Publication Date Title
JP3587152B2 (en) Image transmission system and method, and recording medium
JP3269015B2 (en) Digital watermark system
JP4185335B2 (en) Data embedding in material
US6526155B1 (en) Systems and methods for producing visible watermarks by halftoning
US6560339B1 (en) Electronic watermarking method, digital information distribution system using such method, and storage medium storing program of such method
US6425081B1 (en) Electronic watermark system electronic information distribution system and image filing apparatus
EP0938807B1 (en) Imprinting id information into a digital content and reading out the same
JP3946909B2 (en) Method for combining a first digital image and a second digital image into one decoded digital image
JP3214555B2 (en) Digital watermark insertion device
US20070177761A1 (en) Watermark embedding functions adapted for transmission channels
US20030131237A1 (en) Method for applying a digital watermark to an output image from a computer program
US6912652B2 (en) Method and apparatus for imprinting ID information into a digital content and for reading out the same
US20070098214A1 (en) Image processing apparatus, image processing method, and storage medium
JP3565483B2 (en) Data display system, data display device and method thereof
JP3853541B2 (en) Data distribution method
GB2379295A (en) A system for distributing audio/video material to a potential buyer
JP3581048B2 (en) Contaminated content distribution system, contaminated content using apparatus, and contaminated content using method
JP2003216721A (en) Image processing system and image processing service method
JP2000350007A (en) Electronic watermarking method, electronic watermark device and recording medium
JP3373799B2 (en) Marking processing device, mark removal device, and methods thereof
JP2000358154A (en) Electric watermark capable of adjusting visibility of watermark
EP1359542A2 (en) Digitally distorting an image while preserving its visual integrity
JP4176257B2 (en) Digital watermark embedding method, restoration method and apparatus
Kim et al. Further progress in watermark evaluation testbed (WET)
JP3327708B2 (en) Display control system

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040512

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040604

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080618

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees