JP3628312B2 - Watermark information embedding device and watermark information detection device - Google Patents

Watermark information embedding device and watermark information detection device Download PDF

Info

Publication number
JP3628312B2
JP3628312B2 JP2002177086A JP2002177086A JP3628312B2 JP 3628312 B2 JP3628312 B2 JP 3628312B2 JP 2002177086 A JP2002177086 A JP 2002177086A JP 2002177086 A JP2002177086 A JP 2002177086A JP 3628312 B2 JP3628312 B2 JP 3628312B2
Authority
JP
Japan
Prior art keywords
watermark
pattern
image
information
embedding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002177086A
Other languages
Japanese (ja)
Other versions
JP2003101762A (en
Inventor
昌彦 須崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2002177086A priority Critical patent/JP3628312B2/en
Publication of JP2003101762A publication Critical patent/JP2003101762A/en
Priority to US10/462,764 priority patent/US7085399B2/en
Application granted granted Critical
Publication of JP3628312B2 publication Critical patent/JP3628312B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は,文書画像に対して文字以外の形式で秘密情報を付加する方法と,印刷された秘密情報入り文書から秘密情報を検出する技術に関するものである。
【0002】
【従来の技術】
画像や文書データなどにコピー・偽造防止のための情報や機密情報を人の目には見えない形で埋め込む「電子透かし」は,保存やデータの受け渡しがすべて電子媒体上で行われることを前提としており,透かしによって埋め込まれている情報の劣化や消失がないため確実に情報検出を行うことができる。これと同様に,紙媒体に印刷された文書に対しても,文書が不正に改ざんされたりコピーされることを防ぐために,文字以外の視覚的に目障りではない形式でかつ容易に改ざんが不可能であるような秘密情報を印刷文書に埋め込む方法が必要となっている。
【0003】
印刷物として最も広く利用される白黒の二値の文書に対する情報埋め込み方法としては,以下のような技術が知られている。
【0004】
[1]特開2001−78006「白黒2値文書画像への透かし情報埋め込み・検出方法及びその装置」
任意の文字列を囲む最小矩形をいくつかのブロックに分割し,それらを2つのグループ(グループ1,グループ2)に分ける(グループの数は3つ以上でも良い)。例えば信号が1の場合はグループ1のブロック中の特徴量を増やしグループ2の各ブロック中の特徴量を減らす。信号が0の場合は逆の操作を行う。ブロック中の特徴量は,文字領域の画素数や文字の太さ,ブロックを垂直にスキャンして最初に文字領域にぶつかる点までの距離などである。
【0005】
[2]特開2001−53954「情報埋め込み装置,情報読み出し装置,電子透かしシステム,情報埋め込み方法,情報読み出し方法及び記録媒体」
1つの文字を囲む最小矩形の幅と高さをその文字に対する特徴量として定め,2つ以上の文字間での特徴量の大小関係の分類パターンによりシンボルを表わすものとする。例えば3つの文字からは6つの特徴量が定義でき,これらの大小関係のパターンの組合わせを列挙し,これらの組合わせを2つのグルーブに分類し,それぞれにシンボルを与える。埋め込む情報が“0”であって,これを表わすために選択された文字の特徴量の組合わせパターンが“1”であった場合,6つの特徴量のうちいずれかを文字領域を膨らませるなどして変化させる。変化させるパターンは変化量が最小となるように選択する。
【0006】
[3]特開平9−179494「機密情報記録方法」
400dpi以上のプリンタで印刷されることを想定する。情報を数値化し,基準点マークと位置判別マークとの距離(ドット数)により情報の表現を行う。
【0007】
[4]特願平10−200743「文書処理装置」
万線スクリーン(細かい平行線で構成された特殊スクリーン)のスクリーン線を後方に移動させるかどうかにより情報を表現する。
【0008】
【発明が解決しようとする課題】
しかしながら,上記公知技術[1],[2]では,文書画像の文字を構成する画素や文字間隔・行間隔に対する変更を伴うためフォントやレイアウトの変更が発生する。加えて,上記公知技術[3],[4]においても,検出時には,スキャナ等の入力機器から読み取った入力画像の1画素単位の精密な検出処理が必要となるため,紙面の汚れや印刷時や読み取り時に雑音が付加された場合などには情報検出精度に大きな影響を与える。
【0009】
このように,上記公知技術[1]〜[4]では,印刷された文書をスキャナなどの入力装置によって再びコンピュータに入力して埋め込まれた秘密情報を検出する場合に,印刷書類の汚れや入力の際に発生する回転などの画像変形が原因で,入力画像に多くの雑音成分が含まれるため,正確に秘密情報を取り出すことが困難であるという問題点があった。
【0010】
本発明は,従来の透かし情報埋め込み/検出技術が有する上記問題点に鑑みてなされたものであり,本発明の目的は,正確に秘密情報を取り出すことの可能な,新規かつ改良された透かし情報埋め込み装置,及び,透かし情報検出装置を提供することである。
【0011】
【課題を解決するための手段】
上記課題を解決するため,本発明の第1の観点によれば,透かし情報埋め込み装置が提供される。本発明の透かし情報埋め込み装置は,画像にドットパターンを重ね合わせて透かし入り画像を作成する透かし入り画像合成部を備えている。
【0012】
そして,前記ドットパターンは複数種類有り,規則正しく配置され,その中の少なくとも一種類のドットパターンは特定の機密を表す機密情報が与えられることを特徴としている。
【0013】
また,ドットの配列によって波の方向及び/又は波長を変化させたドットパターンを複数用意し,1つの前記ドットパターンに対して1つのシンボルを与え,前記ドットパターンを組み合わせて配置することにより,前記機密情報が与えられるように構成してもよい。
【0014】
前記シンボルは,前記機密情報の一部を成す有効なシンボルと,前記機密情報とは無関係の無効なシンボルとからなるように構成してもよい。
【0015】
あるいは,ドットの配列によって波の方向及び/又は波長を変化させたドットパターンを複数用意し,1つの前記ドットパターンの配置の組み合わせに対して1つのシンボルを与え,前記ドットパターンの配置の組み合わせを組み合わせて配置することにより,前記機密情報が与えられるようにすることも可能である。
【0016】
さらに,前記透かし入り画像を紙に出力する出力デバイスを備え,前記機密情報は,前記出力デバイスが出力する紙上の任意の範囲内に,あるいは全面に,繰り返し埋め込むようにしてもよい。
【0017】
上記課題を解決するため,本発明の第2の観点によれば,透かし情報検出装置が提供される。本発明の透かし情報検出装置は,画像と複数種類のドットパターンが埋め込まれた透かし画像とが重ね合わされて作成された透かし入り画像から,前記透かし画像を検出する透かし検出部を備えている。
【0018】
そして,前記透かし検出部は,透かし画像と同じ複数種類のドットパターンを抽出するフィルタを備え,前記透かし入り画像に対し,マッチングを行うことにより,前記透かし画像を検出することを特徴としている。
【0019】
さらに,紙に印刷された透かし入り画像を読み取る入力デバイスを備え,前記透かし検出部は,前記入力デバイスで読み取った透かし入り画像に対し,マッチングを行うことにより,前記透かし画像を検出するようにしてもよい。
【0020】
また,前記透かし画像は,ドットの配列によって波の方向及び/又は波長を変化させたドットパターンを複数用意し,1つの前記ドットパターンに対して1つのシンボルを与え,前記ドットパターンを組み合わせて配置することにより,機密情報が与えられたものであり,前記フィルタは,前記ドットパターンと同じ波の方向と波長を持つ,前記ドットパターンと同数の二次元ウェーブレットフィルタからなるように構成してもよい。二次元ウェーブレットフィルタの一例として,ガボールフィルタを用いることができる。
【0021】
かかる場合,前記透かし入り画像中の任意の領域と前記複数の二次元ウェーブレットフィルタとのコンボリューション(たたみこみ積分)を計算し,コンボリューションが最大となる前記二次元ウェーブレットフィルタに対応する前記ドットパターンが前記領域に埋め込まれていると判断することが可能である。
【0022】
また,前記透かし入り画像中の任意の領域と任意の前記二次元ウェーブレットフィルタとのコンボリューションが一定の閾値を超えた場合,前記領域には該二次元ウェーブレットフィルタに対応する前記ドットパターンが埋め込まれていると判断することも可能である。
【0023】
また,前記機密情報が,前記入力デバイスに入力される紙上の任意の範囲内または全面に繰り返し埋め込まれている場合には,前記透かし入り画像中において同じ符号ビットに対応する位置におけるすべての信号検出フィルタとのコンボリューションを前記複数の二次元ウェーブレットフィルタごとに埋め込み時の繰り返し回数と同じだけ加算し,その加算値が最も大きい前記二次元ウェーブレットフィルタに対応する前記ドットパターンが埋め込まれているものと判断することが可能である。
【0024】
また,本発明の他の観点によれば,上記の透かし情報埋め込み装置の応用例として,以下の透かし情報埋め込み装置が提供される。この透かし埋め込み装置は,上記透かし情報埋め込み装置の構成要素に加え,さらに,前記複数種類のドットパターンをどのような埋め込みパターンで配置するかを選択するパターン判定部を備えたことを特徴とする。
【0025】
前記パターン判定部は,実際に前記ドットパターンを配置する前に,前記ドットパターンの埋め込みパターンをいくつか(例えば,2以上)変更して前記ドットパターンの仮配置を行い,前記画像と前記透かし画像とを重ね合わせても検出が可能な前記ドットパターンの数(以下,有効ドットパターン数と称する)に応じて,前記埋め込みパターンを選択することが可能である。
【0026】
より具体的には,前記仮配置を行った各埋め込みパターンについて,前記各ドットパターンの前記有効ドットパターン数の分散を算出し,分散が最も小さい前記埋め込みパターンを選択することが可能である。なお,分散の代わりに標準偏差を算出し,標準偏差が最も小さい前記埋め込みパターンを選択することも可能である。
【0027】
前記パターン判定部が選択した前記埋め込みパターンに関する情報は,前記透かし入り画像にヘッダ情報として埋め込むことが可能である。この際,その埋め込みパターンに関する情報を第三者に秘密にするために暗号化するようにすれば,埋め込みパターンを知っている者だけが埋め込まれた透かし情報を復元することが可能である。
【0028】
前記画像を領域分割し,各分割領域ごとに最適な前記埋め込みパターンを選択することも可能である。領域分割の一例として,前記画像に対して,OCR(Optical Character Reader:光学式文字読み取り装置)を用いて文字や表などの解析処理(特性認識処理)を行い,前記画像の特性に応じた領域分割を行うことが可能である。
【0029】
画像に対する特性認識処理の結果,ドットパターン(透かし情報)を実質的にほとんど埋め込めない領域(例えば,図の領域)があることが分かる場合がある。このような分割領域には,前記ドットパターンの配置を行わないことも可能である。そして,前記ドットパターンの配置を行わない分割領域に関する情報を,前記透かし入り画像にヘッダ情報として埋め込むようにすれば,透かし情報の検出時に,その分割領域からは透かし情報の検出を行わずに済み,検出効率の向上を図ることができる。
【0030】
【発明の実施の形態】
以下に添付図面を参照しながら,本発明にかかる透かし情報埋め込み装置,及び,透かし情報検出装置の好適な実施の形態について詳細に説明する。なお,本明細書及び図面において,実質的に同一の機能構成を有する構成要素については,同一の符号を付することにより重複説明を省略する。
【0031】
(第1の実施の形態)
図1は,本実施の形態にかかる透かし情報埋め込み装置及び透かし情報検出装置の構成を示す説明図である。
【0032】
(透かし情報埋め込み装置10)
透かし情報埋め込み装置10は,文書データと文書に埋め込む機密情報をもとに文書画像を構成し,紙媒体に印刷を行う装置である。透かし情報埋め込み装置10は,図1に示したように,文書画像形成部11と,透かし画像形成部12と,透かし入り文書画像合成部13と,出力デバイス14とにより構成されている。文書データ15は文書作成ツール等により作成されたデータである。機密情報16は紙媒体に文字以外の形式で埋め込む情報(文字列や画像,音声データ)などである。
【0033】
文書画像形成部11では,文書データ15を紙面に印刷した状態の画像が作成される。具体的には,文書画像中の白画素領域は何も印刷されない部分であり,黒画素領域は黒の塗料が塗布される部分である。なお,本実施の形態では,白い紙面に黒のインク(単色)で印刷を行うことを前提として説明するが,本発明はこれに限定されず,カラー(多色)で印刷を行う場合であっても,同様に本発明を適用可能である。
【0034】
透かし画像形成部12は,機密情報16をディジタル化して数値に変換したものをN元符号化(Nは2以上)し,符号語の各シンボルをあらかじめ用意した信号に割り当てる。信号は任意の大きさの矩形領域中にドットを配列することにより任意の方向と波長を持つ波を表現し,波の方向や波長に対してシンボルを割り当てたものである。透かし画像は,これらの信号がある規則に従って画像上に配置されたものである。
【0035】
透かし入り文書画像合成部13は,文書画像と透かし画像を重ね合わせて透かし入りの文書画像を作成する。また,出力デバイス14は,プリンタなどの出力装置であり,透かし入り文書画像を紙媒体に印刷する。したがって,文書画像形成部11,透かし画像形成部12,透かし入り文書画像合成部13はプリンタドライバの中の一つの機能として実現されていても良い。
【0036】
印刷文書20は,元の文書データ15に対して機密情報16を埋め込んで印刷されたものであり,物理的に保管・管理される。
【0037】
(透かし情報検出装置30)
透かし情報検出装置30は,紙媒体に印刷されている文書を画像として取り込み,埋め込まれている機密情報を復元する装置である。透かし情報検出装置30は,図1に示したように,入力デバイス31と,透かし検出部32とにより構成されている。
【0038】
入力デバイス31は,スキャナなどの入力装置であり,紙に印刷された文書20を多値階調のグレイ画像として計算機に取り込む。また,透かし検出部32は,入力画像に対してフィルタ処理を行い,埋め込まれた信号を検出する。検出された信号からシンボルを復元し,埋め込まれた機密情報を取り出す。
【0039】
以上のように構成される透かし情報埋め込み装置10及び透かし情報検出装置30の動作について説明する。まず,図1〜図11を参照しながら,透かし情報埋め込み装置10の動作について説明する。
【0040】
(文書画像形成部11)
文書データ15はフォント情報やレイアウト情報を含むデータであり,ワープロソフト等で作成されるものとする。文書画像形成部11は,この文書データ15を基に,文書が紙に印刷された状態の画像をページごとに作成する。この文書画像は白黒の二値画像であり,画像上で白い画素(値が1の画素)は背景であり,黒い画素(値が0の画素)は文字領域(インクが塗布される領域)であるものとする。
【0041】
(透かし画像形成部12)
機密情報16は文字,音声,画像などの各種データであり,透かし画像形成部ではこの情報から文書画像の背景として重ね合わせる透かし画像を作成する。
【0042】
図2は,透かし画像形成部12の処理の流れを示す流れ図である。
まず,機密情報16をN元符号に変換する(ステップS101)。Nは任意であるが,本実施の形態では説明を容易にするためN=2とする。従って,ステップS101で生成される符号は2元符号であり,0と1のビット列で表現されるものとする。このステップS101ではデータをそのまま符号化しても良いし,データを暗号化したものを符号化しても良い。
【0043】
次いで,符号語の各シンボルに対して透かし信号を割り当てる(ステップS102)。透かし信号とはドット(黒画素)の配列によって任意の波長と方向を持つ波を表現したものである。透かし信号については,さらに後述する。
【0044】
さらに,符号化されたデータのビット列に対応する信号ユニットを透かし画像上に配置する(ステップS103)。
【0045】
上記ステップS102において,符号語の各シンボルに対して割り当てる透かし信号について説明する。図3は透かし信号の一例を示す説明図である。
【0046】
透かし信号の幅と高さをそれぞれSw,Shとする。SwとShは異なっていても良いが,本実施の形態では説明を容易にするためSw=Shとする。長さの単位は画素数であり,図3の例ではSw=Sh=12である。これらの信号が紙面に印刷されたときの大きさは,透かし画像の解像度に依存しており,例えば透かし画像が600dpi(dot per inch:解像度の単位であり,1インチ当たりのドット数)の画像であるとしたならば,図3の透かし信号の幅と高さは,印刷文書上で12/600=0.02(インチ)となる。
【0047】
以下,幅と高さがSw,Shの矩形を1つの信号の単位として「信号ユニット」と称する。図3(1)は,ドット間の距離が水平軸に対してarctan(3)(arctanはtanの逆関数)の方向に密であり,波の伝搬方向はarctan(−1/3)である。以下,この信号ユニットをユニットAと称する。図3(2)はドット間の距離が水平軸に対してarctan(−3)の方向に密であり,波の伝搬方向はarctan(1/3)である。以下,この信号ユニットをユニットBと称する。
【0048】
図4は,図3(1)の画素値の変化をarctan(1/3)の方向から見た断面図である。図4において,ドットが配列されている部分が波の最小値の腹(振幅が最大となる点)となり,ドットが配列されていない部分は波の最大値の腹となっている。
【0049】
また,ドットが密に配列されている領域はそれぞれ1ユニットの中に2つ存在するため,この例では1ユニットあたりの周波数は2となる。波の伝播方向はドットが密に配列されている方向に垂直となるため,ユニットAの波は水平方向に対してarctan(−1/3),ユニットBの波はarctan(1/3)となる。なお,arctan(a)の方向とacrtan(b)の方向が垂直のとき,a×b=−1である。
【0050】
本実施の形態では,ユニットAで表現される透かし信号にシンボル0を割り当て,ユニットBで表現される透かし信号にシンボル1を割り当てる。また,これらをシンボルユニットと称する。
【0051】
透かし信号には図3(1),(2)で示されるもの以外にも,例えば図5(3)〜(5)で示されるようなドット配列が考えられる。図5(3)は,ドット間の距離が水平軸に対してarctan(1/3)の方向に密であり,波の伝搬方向はarctan(−3)である。以下,この信号ユニットをユニットCと称する。
図5(4)は,ドット間の距離が水平軸に対してarctan(−1/3)の方向に密であり,波の伝搬方向はarctan(3)である。以下,この信号ユニットをユニットDと称する。図5(5)は,ドット間の距離が水平軸に対してarctan(1)の方向に密であり,波の伝搬方向はarctan(−1)である。なお,図5(5)は,ドット間の距離が水平軸に対してarctan(−1)の方向に密であり,波の伝搬方向はarctan(1)であると考えることもできる。以下,この信号ユニットをユニットEと称する。
【0052】
このようにして,先に割り当てた組み合わせ以外にも,シンボル0とシンボル1を割り当てるユニットの組合わせのパターンが複数考えられるため,どの透かし信号がどのシンボルに割り当てられているかを秘密にして第三者(不正者)が埋め込まれた信号を簡単に解読できないようにすることもできる。
【0053】
さらに,図2に示したステップS102で,機密情報を4元符号で符号化した場合には,例えば,ユニットAに符号語のシンボル0を,ユニットBにシンボル1を,ユニットCにシンボル2を,ユニットDにシンボル3を割り当てることも可能である
【0054】
図3,図5に示した透かし信号の一例においては,1ユニット中のドットの数をすべて等しくしているため,これらのユニットを隙間なく並べることにより,透かし画像の見かけの濃淡が均一となる。したがって印刷された紙面上では,単一の濃度を持つグレー画像が背景として埋め込まれているように見える。
【0055】
このような効果を出すために,例えば,ユニットEを背景ユニット(シンボルが割り当てられていない信号ユニット)と定義し,これを隙間なく並べて透かし画像の背景とし,シンボルユニット(ユニットA,ユニットB)を透かし画像に埋め込む場合は,埋め込もうとする位置の背景ユニット(ユニットE)とシンボルユニット(ユニットA,ユニットB)とを入れ替える。
【0056】
図6(1)はユニットEを背景ユニットと定義し,これを隙間なく並べて透かし画像の背景とした場合を示す説明図である。図6(2)は図6(1)の背景画像の中にユニットAを埋め込んだ一例を示し,図6(3)は図6(1)の背景画像の中にユニットBを埋め込んだ一例を示している。本実施の形態では,背景ユニットを透かし画像の背景とする方法について説明するが,シンボルユニットのみを配置することによって透かし画像を生成しても良い。
【0057】
次いで,符号語の1シンボルを透かし画像に埋め込む方法について,図7を参照しながら説明する。
【0058】
図7は,透かし画像へのシンボル埋め込み方法の一例を示す説明図である。ここでは,例として「0101」というビット列を埋め込む場合について説明する。
【0059】
図7(1),(2)に示すように,同じシンボルユニットを繰り返し埋め込む。これは文書中の文字が埋め込んだシンボルユニットの上に重なった場合,信号検出時に検出されなくなることを防ぐためであり,シンボルユニットの繰り返し数と配置のパターン(以下,ユニットパターンと称する。)は任意である。
【0060】
すなわち,ユニットパターンの一例として,図7(1)のように繰り返し数を4(1つのユニットパターン中に4つのシンボルユニットが存在する)にしたり,図7(2)のように繰り返し数を2(1つのユニットパターン中に2つのシンボルユニットが存在する)にしたりすることができ,あるいは,繰り返し数を1(1つのユニットパターン中には1つのシンボルユニットだけが存在する)としてもよい。
【0061】
また,図7(1),(2)は1つのシンボルユニットに対して1つのシンボルが与えられているが,図7(3)のようにシンボルユニットの配置パターンに対してシンボルを与えても良い。
【0062】
1ページ分の透かし画像の中に何ビットの情報量を埋め込むことができるかは,信号ユニットの大きさ,ユニットパターンの大きさ,文書画像の大きさに依存する。文書画像の水平方向と垂直方向にいくつの信号を埋め込んだかは,既知として信号検出を行っても良いし,入力装置から入力された画像の大きさと信号ユニットの大きさから逆算しても良い。
【0063】
1ページ分の透かし画像の水平方向にPw個,垂直方向にPh個のユニットパターンが埋め込めるとすると,画像中の任意の位置のユニットパターンをU(x,y),x=1〜Pw,y=1〜Phと表現し,U(x,y)を「ユニットパターン行列」と称することにする。また,1ページに埋め込むことができるビット数を「埋め込みビット数」と称する。埋め込みビット数はPw×Phである。
【0064】
図8は,機密情報を透かし画像に埋め込む方法について示した流れ図である。
ここでは1枚(1ページ分)の透かし画像に,同じ情報を繰り返し埋め込む場合について説明する。同じ情報を繰り返し埋め込むことにより,透かし画像と文書画像を重ね合わせたときに1つのユニットパターン全体が塗りつぶされるなどして埋め込み情報が消失するような場合でも,埋め込んだ情報を取り出すことを可能とするためである。
【0065】
まず,機密情報16をN元符号に変換する(ステップS201)。図2のステップS101と同様である。以下では,符号化されたデータをデータ符号と称し,ユニットパターンの組合わせによりデータ符号を表現したものをデータ符号ユニットDuと称する。
【0066】
次いで,データ符号の符号長(ここではビット数)と埋め込みビット数から,1枚の画像にデータ符号ユニットを何度繰り返し埋め込むことができるかを計算する(ステップS202)。本実施の形態ではデータ符号の符号長データをユニットパターン行列の第1行に挿入するものとする。データ符号の符号長を固定長として符号長データは透かし画像には埋め込まないようにしても良い。
【0067】
データ符号ユニットを埋め込む回数Dnは,データ符号長をCnとして以下の式で計算される。
【0068】
【数1】

Figure 0003628312
【0069】
ここで剰余をRn(Rn=Cn−(Pw×(Ph−1)))とすると,ユニットパターン行列にはDn回のデータ符号ユニットおよびデータ符号の先頭Rnビット分に相当するユニットパターンを埋め込むことになる。ただし,剰余部分のRnビットは必ずしも埋め込まなくても良い。
【0070】
図9の説明では,ユニットパターン行列のサイズを9×11(11行9列),データ符号長を12(図中で0〜11の番号がついたものがデータ符号の各符号語を表わす)とする。
【0071】
次いで,ユニットパターン行列の第1行目に符号長データを埋め込む(ステップS203)。図9の例では符号長を9ビットのデータで表現して1度だけ埋め込んでいる例を説明しているが,ユニットパターン行列の幅Pwが十分大きい場合,データ符号と同様に符号長データを繰り返し埋め込むこともできる。
【0072】
さらに,ユニットパターン行列の第2行以降に,データ符号ユニットを繰り返し埋め込む(ステップS204)。図9で示すようにデータ符号のMSB(most significant bit)またはLSB(least significant bit)から順に行方向に埋め込む。図9の例ではデータ符号ユニットを7回,およびデータ符号の先頭6ビットを埋め込んでいる例を示している。
【0073】
データの埋め込み方法は図9のように行方向に連続になるように埋め込んでも良いし,列方向に連続になるように埋め込んでも良い。
【0074】
以上,透かし画像形成部12における,透かし画像について説明した。次いで,透かし情報埋め込み装置10の透かし入り文書画像合成部13について説明する。
【0075】
(透かし入り文書画像合成部13)
透かし入り文書画像合成部13では,文書画像形成部11で作成した文書画像と,透かし画像形成部で作成した透かし画像を重ね合わせる。透かし入り文書画像の各画素の値は,文書画像と透かし画像の対応する画素値の論理積演算(AND)によって計算する。すなわち,文書画像と透かし画像のどちらかが0(黒)であれば,透かし入り文書画像の画素値は0(黒),それ以外は1(白)となる。
【0076】
図10は,透かし入り文書画像の一例を示す説明図である。図11は,図10の一部を拡大して示した説明図である。ここで,ユニットパターンは図7(1)のパターンを用いている。透かし入り文書画像は,出力デバイス14により出力される。
【0077】
以上,透かし情報埋め込み装置10の動作について説明した。
次いで,図1,及び,図12〜図20を参照しながら,透かし情報検出装置30の動作について説明する。
【0078】
(透かし検出部32)
図12は,透かし検出部32の処理の流れを示す流れ図である。
まず,スキャナなどの入力デバイス31によって透かし入り文書画像を計算機のメモリ等に入力する(ステップS301)。この画像を入力画像と称する。入力画像は多値画像であり,以下では256階調のグレイ画像として説明する。また入力画像の解像度(入力デバイス31で読み込むときの解像度)は,上記透かし情報埋め込み装置10で作成した透かし入り文書画像と異なっていても良いが,ここでは上記透かし情報埋め込み装置10で作成した画像と同じ解像度であるとして説明する。また,入力画像は回転や伸縮などの補正が行われているものとする。
【0079】
次いで,入力画像の大きさと信号ユニットの大きさから,ユニットパターンがいくつ埋め込まれているかを計算する(ステップS302)。例えば入力画像の大きさがW(幅)×H(高さ)であるとして,信号ユニットの大きさをSw×Sh,ユニットパターンはUw×Uh個のユニットから構成されるとすると,入力画像中に埋め込まれているユニットパターンの数(N=Pw×Ph)は以下のように計算される。
【0080】
【数2】
Figure 0003628312
【0081】
ただし,透かし情報埋め込み装置10と透かし情報検出装置30で解像度が異なる場合には,それらの解像度の比によって入力画像中の信号ユニットの大きさを正規化した後,上記の計算を行う。
【0082】
次いで,ステップS302で計算したユニットパターン数をもとに入力画像に対してユニットパターンの区切り位置を設定する(ステップS303)。図13は入力画像(図13(1))と,ユニットパターンの区切り位置を設定した後の入力画像(図13(2))の一例を示している。
【0083】
次いで,ユニットパターンの区切りごとにシンボルユニットの検出を行い,ユニットパターン行列を復元する(ステップS304)。以下に,信号検出の詳細を説明する。
【0084】
図14は,入力画像中における,図3(1)に示したユニットAに対応する領域の一例を示した説明図である。図3では信号ユニットは二値画像であるが,ここでは多値画像である。二値画像を印刷した場合,インクのにじみなどが原因で濃淡が連続的に変化するため,図14のようにドットの周囲が白と黒の中間色になる。したがって図14を波の伝播方向と平行な方向から見た断面図は図15のようになる。図4が矩形波であるのに対し,図15は滑らかな波となる。
【0085】
また,実際には紙の厚さの局所的な変化や,印刷文書の汚れ,出力デバイスや画像入力デバイスの不安定性などの要因により,入力画像中には多くの雑音成分が付加されることになるが,ここでは雑音成分のない場合について説明する。しかしながら,ここで説明する方法を用いれば,雑音成分が付加された画像に対しても安定した信号検出を行うことができる。
【0086】
以下では入力画像から信号ユニットを検出するために,波の周波数と方向,および影響範囲を同時に定義できる二次元ウェーブレットフィルタを用いる。以下では,二次元ウェーブレットフィルタの一つであるガボールフィルタを用いる例を示すが,ガボールフィルタと同様な性質を持つフィルタであれば,必ずしもガボールフィルタである必要はなく,さらには信号ユニットと同じドットパターンを持つテンプレートを定義してパターンマッチングを行うなどの方法でも良い。
【0087】
以下にガボールフィルタG(x,y),x=0〜gw−1,y=0〜gh−1を示す。gw,ghはフィルタのサイズであり,ここでは上記透かし情報埋め込み装置10で埋め込んだ信号ユニットと同じ大きさである。
【0088】
【数3】
Figure 0003628312
【0089】
信号検出には透かし画像に埋め込んだシンボルユニットと周波数,波の方向,および大きさが等しいガボールフィルタを,埋め込んだ信号ユニットの種類と同じ数だけ用意する。ここでは図3のユニットAとユニットBに対応するガボールフィルタをフィルタA,フィルタBと称する。
【0090】
入力画像中の任意の位置でのフィルタ出力値はフィルタと画像間のコンボリューションにより計算する。ガボールフィルタの場合は実数フィルタと虚数フィルタ(虚数フィルタは実数フィルタと半波長分位相がずれたフィルタ)が存在するため,それらの2乗平均値をフィルタ出力値とする。例えば,フィルタAの実数フィルタと画像間のコンボリューションがRc,虚数フィルタとのコンボリューションがIcであったとすると,出力値F(A)は以下の式で計算する。
【0091】
【数4】
Figure 0003628312
【0092】
図16は,ステップS303によって区切られたユニットパターンU(x,y)中に埋め込まれているシンボルユニットがユニットAであるかユニットBであるかを判定する方法について説明する説明図である。
【0093】
ユニットパターンU(x,y)に対するシンボル判定ステップを以下のように行う。
(1)フィルタAの位置を移動しながら,ユニットパターンU(x,y)中のすべての位置についてF(A)を計算した結果の最大値をユニットパターンU(x,y)に対するフィルタAの出力値とし,これをFu(A,x,y)とする。
(2)ユニットパターンU(x,y)に対するフィルタBの出力値を(1)と同様に計算し,これをFu(B,x,y)とする。
(3)Fu(A,x,y)とFu(B,x,y)を比較し,Fu(A,x,y)≧Fu(B,x,y)であればユニットパターンU(x,y)に埋め込まれているシンボルユニットはユニットAであると判定し,Fu(A,x,y)<Fu(B,x,y)であればユニットパターンU(x,y)に埋め込まれているシンボルユニットはユニットBであると判定する。
【0094】
(1),(2)において,フィルタを移動するステップ幅は任意であり,ユニットパターン上の代表的な位置での出力値のみを計算してもよい。また,(3)でFu(A,x,y)とFu(B,x,y)の差の絶対値があらかじめ定めておいた閾値以下であった場合には判定不能としてもよい。
【0095】
また(1)において,フィルタをずらしながらコンボリューションを計算する過程で,F(A)の最大値があらかじめ定めた閾値を超えた場合に,ただちにU(x,y)に埋め込まれているシンボルユニットはユニットAであると判定して処理を中止しても良い。(2)においても同様に,F(B)の最大値があらかじめ定めた閾値を超えた場合に,ただちにU(x,y)に埋め込まれているシンボルユニットはユニットBであると判定しても良い。
【0096】
以上,信号検出(ステップS304)の詳細について説明した。再び,図12の流れ図に戻り,以降のステップS305について説明する。ステップS305では,ユニットパターン行列のシンボルを連結してデータ符号を再構成し,元の情報を復元する。
【0097】
図17は情報復元の一例を示す説明図である。情報復元のステップは以下の通りである。
(1)各ユニットパターンに埋め込まれているシンボルを検出する(図17▲1▼)。
(2)シンボルを連結してデータ符号を復元する(図17▲2▼)。
(3)データ符号を復号して埋め込まれた情報を取り出す(図17▲3▼)。
【0098】
図18〜図20はデータ符号の復元方法の一例を示す説明図である。復元方法は基本的に図8の逆の処理となる。
【0099】
まず,ユニットパターン行列の第1行から符号長データ部分を取り出して,埋め込まれたデータ符号の符号長を得る(ステップS401)。
【0100】
次いで,ユニットパターン行列のサイズとS401で得たデータ符号の符号長をもとに,データ符号ユニットを埋め込んだ回数Dnおよび剰余Rnを計算する(ステップS402)。
【0101】
次いで,ユニットパターン行列の2行目以降からステップS203と逆の方法でデータ符号ユニットを取り出す(ステップS403)。図19の例ではU(1,2)(2行1列)から順に12個のパターンユニットごとに分解する(U(1,2)〜U(3,3),U(4,3)〜U(6,4),・・・)。Dn=7,Rn=6であるため,12個のパターンユニット(データ符号ユニット)は7回取り出され,剰余として6個(データ符号ユニットの上位6個に相当する)のユニットパターン(U(4,11)〜U(9,11))が取り出される。
【0102】
次いで,ステップS403で取り出したデータ符号ユニットに対してビット確信度演算を行うことにより,埋め込んだデータ符号を再構成する(ステップS404)。以下,ビット確信度演算について説明する。
【0103】
図20のようにユニットパターン行列の2行1列目から最初に取り出されたデ−外符号ユニットをDu(1,1)〜Du(12,1)とし,順次Du(1,2)〜Du(12,2),・・・,と表記する。また,剰余部分はDu(1,8)〜Du(6,8)とする。ビット確信度演算は各データ符号ユニットの要素ごとに多数決を取るなどして,データ符号の各シンボルの値を決定することである。これにより,文字領域との重なりや紙面の汚れなどが原因で,任意のデータ符号ユニット中の任意のユニットから正しく信号検出を行えなかった場合(ビット反転エラーなど)でも,最終的に正しくデータ符号を復元することができる。
【0104】
具体的には例えばデータ符号の1ビット目は,Du(1,1),Du(1,2),・・・,Du(1,8)の信号検出結果が1である方が多い場合には1と判定し,0である方が多い場合には0と判定する。同様にデータ符号の2ビット目はDu(2,1),Du(2,2),・・・,Du(2,8)の信号検出結果による多数決によって判定し,データ符号の12ビット目はDu(12,1),Du(12,2),・・・,Du(12,7)(Du(12,8)は存在しないためDu(12,7)までとなる)の信号検出結果による多数決によって判定する。
【0105】
ビット確信度演算は,図16の信号検出フィルタの出力値を加算することによっても行うこともできる。これは,例えば図3(1)のユニットAに0のシンボルが割り当てられ,図3(2)のユニットBに1のシンボルが割り当てられているものとし,Du(m,n)に対するフィルタAによる出力値の最大値をDf(A,m,n),Du(m,n)に対するフィルタBによる出力値の最大値をDf(B,m,n)とすると,データ符号のMビット目は,
【0106】
【数5】
Figure 0003628312
【0107】
の場合は1と判定し,それ以外の場合は0と判定する。ただし,N<Rnの場合はDfの加算はn=1〜Rn+1までとなる。
【0108】
ここではデータ符号を繰り返し埋め込む場合について説明したが,データを符号化する際に誤り訂正符号などを用いることにより,データ符号ユニットの繰り返しを行わないような方法も実現できる。
【0109】
以上詳細に説明したように,本実施の形態によれば,以下のような優れた効果がある。
(1−1)ドットの配列の違いにより埋め込み情報を表現するため,元の文書のフォント,文字間や行間のピッチに対する変更を伴わない。
(1−2)シンボルを割り当てているドットパターンと,シンボルを割り当てていないドットパターンの濃度(一定区間内のドットの数)が等しいため,人の目には文書の背景に一様な濃度の網掛けがされているように見え,情報の存在が目立たない。
(1−3)シンボルを割り当てているドットパターンと割り当てていないドットパターンを秘密にしておくことで,埋め込まれている情報の解読が困難となる。
(1−4)情報を表わすパターンは細かいドットの集まりで,文書の背景として一面に埋め込まれているため,埋め込みアルゴリズムが公開されたとしても,印刷された文書に対する埋め込み情報の改ざんが困難となる。
(1−5)波(濃淡変化)の方向の違いにより埋め込み信号を検出するため(1画素単位の詳細な検出を行わないので),印刷文書に多少の汚れなどがあった場合でも,安定した情報検出を行うことができる。
(1−6)同じ情報を繰り返し埋め込み,検出時には繰り返し埋め込まれた情報のすべてを利用して情報復元を行うため,大きなフォントの文字によって信号部分が隠されたり,用紙が汚れていたりすることによる部分的な情報の欠落が発生しても,安定して埋め込んだ情報を取り出すことができる。
【0110】
(第2の実施の形態)
上記第1の実施の形態の文書出力部では,透かしとして印刷物に挿入するデータを誤り訂正符号などを用いて符号語(この符号語は暗号化されていてもよい)に変換する。例えば2元符号に変換した場合,0,1のビット列でデータが表現される。各シンボル(シンボル0,シンボル1)にはそれを表現するドットパターンが対応する。これが文書画像の背景として埋め込まれるが,1枚の紙に埋め込むことが可能な最大信号数に比べて符号語のビット数(ドットパターン配列の要素数)が小さい場合,ドットパターンの配列は,紙面上に繰り返し埋め込まれることになる。
【0111】
透かし信号は文書画像の背景として埋め込まれるため,信号を表わすドットパターンの一部,または全部が文書画像の文字領域と重なっている場所からは,信号検出時にドットパターンを検出できない。上記第1の実施の形態で説明しているように,信号検出時において,符号語の各ビットが0であるか1であるかの判定は,各ビットに対応する位置から検出されたドットパターンがどちらであるかの多数決などの方法による。従って,ドットパターンの検出が不可能となる位置(文字領域と重なった領域)が符号語のあるビットに集中したような場合に,そのビットは,図21に示したように,判定不可能になる。符号語に誤り訂正符号を用いたとしても,判定不可能なビットが誤り訂正能力を超えた場合には情報を復元できない。
【0112】
図22は,本実施の形態にかかる透かし情報埋め込み装置及び透かし情報検出装置の構成を示す説明図である。上記第1の実施の形態との相違点は,透かし情報埋め込み装置40に,埋め込みパターン判定部42が追加されたことである。埋め込みパターン判定部42は,紙面上にどのような順序で透かし信号を配置するかを決定する部分である。
【0113】
その他の構成要素については,上記第1の実施の形態と同様であるため重複説明を省略することとし,本実施の形態の動作について,上記第1の実施の形態への追加事項を中心に説明する。
【0114】
図23は,埋め込みパターン判定部42,および透かし画像形成部12の処理の流れを示している。破線で囲まれた領域(ステップS501〜S505)が埋め込みパターン判定部42に相当する部分である。
【0115】
埋め込みパターン判定部42の概要は,あらかじめNp種類の信号埋め込みパターンを用意しておき,実際に信号の配置を行う前に,仮にそれぞれの埋め込みパターンに従って埋め込んだ場合に,文字と重なる場所がどの程度の割合で特定のビットに集中するかどうかを判断し,文字と重なる部分が符号語のすべてのビットに最も広く散らばるような埋め込みパターンを選択することである。
【0116】
符号長をL,文書中に埋め込むことができる信号(ドットパターン)数のうち文字と重ならない信号数をNとしたとき,符号語の各ビットの有効埋め込み回数(文字と重ならずに埋め込むことができる回数)の平均値VはN/Lである。したがって,理想的には符号語のすべてのビットがV回ずつ文字と重ならない領域に配置することができる埋め込みパターンが最も良いパターンになる。前述したように,有効埋め込み回数に偏りがあると,少ない回数しか埋め込めなかったビットは,信号検出時に信号検出誤り,印刷後の紙面の汚れ,紙面上への新たな書き込みなどにより信号の読み取りが不可能になる可能性が高い。偏りが大きい場合には,汚れや書き込みによっても全く影響を受けないビットが存在する一方で,信号読み取り不可能なビットが数多く出現することになる。したがって,符号語のすべてのビットが有効埋め込み回数の平均値に近い値である,すなわち各ビットの有効埋め込み回数の分散(または標準偏差)が最も小さいパターンを選択すればよい。
【0117】
ステップS501では透かしとして印刷物に挿入するデータを誤り訂正符号などを用いて符号語(この符号語は暗号化されていてもよい)に変換する。例えば2元符号に変換した場合,0,1のビット列でデータが表現される。各シンボル(シンボル0,シンボル1)にはそれを表現するドットパターンが対応する。
【0118】
ステップS502〜S504ではNp種類の埋め込みパターンについて(ステップS502),埋め込もうとする符号語の各ビットが文字領域と重なる場合の数を,各ビット毎にカウントする(ステップS503)。
【0119】
図24は4種類の埋め込みパターンの例である(Np=4)。図24(a)は水平方向に連続して信号を埋め込み,(b)は垂直方向に連続,(c),(d)は斜め方向に連続して信号を埋め込んでいる。これ以外にも,渦巻き型に埋め込むなど,無数に考えられる。さらに,図25のように文書画像をいくつかのブロックに分割し,それぞれのブロックで異なる埋め込みパターンを用いても良い。
【0120】
図26は符号語の例とそれに基づいてドットパターンを配列した例である。このドットパターンを繰り返し文書画像の背景として配置する。
【0121】
図27(a)は図24(a)の埋め込みパターンに従って図26の符号語を配置した例を示している。ここでは図26のmビット目のドットパターンは12回埋め込まれている。図27(b)はドットパターンの前景に印刷文字を重ねあわせたものである。図のように,符号語のmビット目は1回目の配置では文字と重なっていないが,2回目の配置では文字と重なっている。図24の埋め込みパターンPに対して,符号語のmビット目が文字と重ならずに配置できた場合の数をN(P,m)と表記する。符号語の各ビットの有効埋め込み回数の総和T(P)はN(P,m)をm=1〜Lまで加算したものであり,平均有効埋め込み回数E(P)はT(P)/Lとなる。これより,有効埋め込み回数の分散は,
V(P)=E{E(P)−N(P,m))
で計算できる。
【0122】
すべての埋め込みパターンについてV(P)を計算し,ステップS505によりV(P)が最も小さくなる埋め込みパターンを当該の文書画像に対する埋め込みパターンであると確定する。
【0123】
ステップS506ではステップS505で確定した埋め込みパターンに従って透かし信号を配置し,文書画像と重ねあわせる。このとき図28で示すようにヘッダ情報領域にどの埋め込みパターンで埋め込んだかという情報を同時に埋め込む。ヘッダ情報領域は文書によらず一定の埋め込みパターンで情報が配置されているものとする。
【0124】
次いで,透かし検出部32について説明する。
図29は透かし検出部32の処理の流れを示している。
ステップS601では入力画像のうちヘッダ情報が埋め込まれている部分の信号を検出し,ヘッダ情報を復元する。
ステップS602ではステップS601で復元したヘッダ情報から信号埋め込みパターンを取り出す。
ステップS603ではステップS602で取り出した埋め込みパターンに従って,透かし信号を読み取る。
ステップS604では符号語の各ビット毎に多数決をとり,各ビットの値を確定し,符号を複合して情報を取り出す。
【0125】
なお,図23のステップS506では埋め込みパターンをヘッダ情報埋め込み領域に記録したが,埋め込みパターンが公開されており,かつ数種類に限定されるならば埋め込みパターンの記録をせずに,検出時にすべてのパターンで情報の復号を行って,正しく復号できた(復号エラーの起きない,または意味のある情報が取り出せた)情報を透かし情報として取り出すことも可能である。
【0126】
また,埋め込みパターンを秘密にする場合も埋め込みパターンの記録を行う必要はない。これは透かし情報が秘密の情報であった場合などに,埋め込みパターンをより複雑にして,どのようなパターンがあるかを公開せず,信号を埋め込んだパターンを秘密にしておくことで,より安全性を保つことを目的としている。このような目的で利用する場合は,必ずしもステップS502〜S505の処理を行う必要はない。
【0127】
また,埋め込みパターンのブロック分割(図25)についての補説すると,信号埋め込みパターンの1つとして文書画像をいくつかのブロックに分割し,それぞれのブロックで異なる埋め込みパターンを適用する場合に,ブロックの分割方法としては図25に示すように固定の大きさのブロックで分割する以外に,以下で説明するような方法を用いても良い。
【0128】
前提として,例えば横書きの文書に水平方向に連続した埋め込みパターン(図24(a))を採用した場合は,文字と重なる領域がある程度連続するため,符号長によっては,図21に示したような判定不可能の状況が起こりやすい。縦書きの文書に垂直方向(図24(b))に連続した埋め込みパターンを採用した場合も同様である。
【0129】
図30は縦書き,横書き,図などが混在した文書の例である。このような文書では図24のような文書全体に対して1つの埋め込みパターンを適用するよりも,いくつかのブロックに分割して,それぞれに異なる埋め込みパターンを適用する方が,符号語の各ビットの有効埋め込み回数の分散値がより小さく押さえられる。分割方法は先に説明したような固定の大きさのブロックに分割しても良いが,文書画像の特徴を解析して動的な分割を行った方が分散値低減の効果が大きくなる。
【0130】
図31(a)は図30の文書を縦書き,横書き等の特徴によって分割した例である。この分割はOCRの前処理として用いられる「OCRの表解析(特開平04−033079)」などの方法を用いてもよいし,図30の文書画像を縮小して,ある程度の大きさの文字領域のかたまりを抽出し,そのかたまりを1つのブロックとして分割しても良い。図31(a)の例では,領域1,領域2,領域4は横書きの文字列の領域,領域5は縦書きの文字列の領域,領域3は図の領域となっている。
【0131】
これらの各領域毎に図23のステップS502〜S505を行い,各領域の埋め込みパターンを決定する。図31(b)は領域毎に最適な埋め込みパターンが適用された例である。
【0132】
文書画像がどのように分割されたかという情報と,各領域に対する埋め込みパターンの情報は図28のヘッダ情報領域に記録しても良いし,秘密の情報としても良い。
【0133】
また,文書画像中の図領域には信号を埋め込むことが困難なため,図31(a)で領域分割した際に,図領域と判定された領域には信号を埋め込まず,図領域に信号を埋め込まなかったという情報をヘッダ情報領域に記録するようにしてもよい。図領域に信号を埋め込まないことによって,透かし検出時に元々信号がほとんど埋め込まれていない領域から信号検出を行うという処理を省略することができるため,処理時間の短縮や信号検出誤りを防ぐことができる。
【0134】
以上詳細に説明したように,本実施の形態によれば,以下のような優れた効果がある。
(2−1)紙の背景に微小なドットパターンによって視覚的に違和感のない方法で情報を埋め込む場合において,前景の文字領域とドットパターンの重なりによって検出付可能となる信号が,情報を表わす符号語の一部のビットに集中することがないので,信号検出時の検出誤りや,紙の汚れなどの劣化,紙に上書がなされた場合でも確実に情報を取り出すことができる。
(2−2)信号の埋め込みパターンを秘密にしておくことで,埋め込みパターンを知っているものだけが情報を取り出すことができるようになり,埋め込んだ情報を悪意を持つ第三者に盗み見られる危険性が減少する。
(2−3)文書画像を構成要素の特徴毎に領域分割し,分割された領域毎に最適な信号埋め込みパターンを適用することで,(2−1)の効果をより高めることができる。
(2−4)文書画像を構成要素の特徴毎に領域分割し,図領域など信号をほとんど埋め込むことができない部分には信号を埋め込まないことで,透かし検出時の処理時間を短縮し,また検出誤りを低減できる。
【0135】
以上,添付図面を参照しながら本発明にかかる透かし情報埋め込み装置,及び,透かし情報検出装置の好適な実施形態について説明したが,本発明はかかる例に限定されない。当業者であれば,特許請求の範囲に記載された技術的思想の範疇内において各種の変更例または修正例に想到し得ることは明らかであり,それらについても当然に本発明の技術的範囲に属するものと了解される。
【0136】
【発明の効果】
以上説明したように,本発明によれば,以下のような優れた効果がある。
(1−1)ドットの配列の違いにより埋め込み情報を表現するため,元の文書のフォント,文字間や行間のピッチに対する変更を伴わない。
(1−2)シンボルを割り当てているドットパターンと,シンボルを割り当てていないドットパターンの濃度(一定区間内のドットの数)が等しいため,人の目には文書の背景に一様な濃度の網掛けがされているように見え,情報の存在が目立たない。
(1−3)シンボルを割り当てているドットパターンと割り当てていないドットパターンを秘密にしておくことで,埋め込まれている情報の解読が困難となる。
(1−4)情報を表わすパターンは細かいドットの集まりで,文書の背景として一面に埋め込まれているため,埋め込みアルゴリズムが公開されたとしても,印刷された文書に対する埋め込み情報の改ざんが困難となる。
(1−5)波(濃淡変化)の方向の違いにより埋め込み信号を検出するため(1画素単位の詳細な検出を行わないので),印刷文書に多少の汚れなどがあった場合でも,安定した情報検出を行うことができる。
(1−6)同じ情報を繰り返し埋め込み,検出時には繰り返し埋め込まれた情報のすべてを利用して情報復元を行うため,大きなフォントの文字によって信号部分が隠されたり,用紙が汚れていたりすることによる部分的な情報の欠落が発生しても,安定して埋め込んだ情報を取り出すことができる。
【0137】
また,本発明によれば,以下のような優れた効果がある。
(2−1)紙の背景に微小なドットパターンによって視覚的に違和感のない方法で情報を埋め込む場合において,前景の文字領域とドットパターンの重なりによって検出付可能となる信号が,情報を表わす符号語の一部のビットに集中することがないので,信号検出時の検出誤りや,紙の汚れなどの劣化,紙に上書がなされた場合でも確実に情報を取り出すことができる。
(2−2)信号の埋め込みパターンを秘密にしておくことで,埋め込みパターンを知っているものだけが情報を取り出すことができるようになり,埋め込んだ情報を悪意を持つ第三者に盗み見られる危険性が減少する。
(2−3)文書画像を構成要素の特徴毎に領域分割し,分割された領域毎に最適な信号埋め込みパターンを適用することで,(2−1)の効果をより高めることができる。
(2−4)文書画像を構成要素の特徴毎に領域分割し,図領域など信号をほとんど埋め込むことができない部分には信号を埋め込まないことで,透かし検出時の処理時間を短縮し,また検出誤りを低減できる。
【図面の簡単な説明】
【図1】第1の実施の形態にかかる透かし情報埋め込み装置及び透かし情報検出装置の構成を示す説明図である。
【図2】透かし画像形成部12の処理の流れを示す流れ図である。
【図3】透かし信号の一例を示す説明図であり,(1)はユニットAを,(2)はユニットBを示している。
【図4】図3(1)の画素値の変化をarctan(1/3)の方向から見た断面図である。
【図5】透かし信号の一例を示す説明図であり,(3)はユニットCを,(4)はユニットDを,(5)はユニットEを示している。
【図6】背景画像の説明図であり,(1)はユニットEを背景ユニットと定義し,これを隙間なく並べた透かし画像の背景とした場合を示し,(2)は(1)の背景画像の中にユニットAを埋め込んだ一例を示し,(3)は(1)の背景画像の中にユニットBを埋め込んだ一例を示している。
【図7】透かし画像へのシンボル埋め込み方法の一例を示す説明図である。
【図8】機密情報を透かし画像に埋め込む方法について示した流れ図である。
【図9】透かし検出部32の処理の流れを示す流れ図である。
【図10】透かし入り文書画像の一例を示す説明図である。
【図11】図10の一部を拡大して示した説明図である。
【図12】透かし検出部32の処理の流れを示す流れ図である。
【図13】図13は入力画像(図13(1))と,ユニットパターンの区切り位置を設定した後の入力画像(図13(2))の一例を示している。
【図14】入力画像中におけるユニットAに対応する領域の一例を示した説明図である。
【図15】図14を波の伝播方向と平行な方向から見た断面図である。
【図16】ユニットパターンU(x,y)中に埋め込まれているシンボルユニットがユニットAであるかユニットBであるかを判定する方法について説明する説明図である。
【図17】情報復元の一例を示す説明図である
【図18】データ符号の復元方法の一例を示す説明図である。
【図19】データ符号の復元方法の一例を示す説明図である。
【図20】データ符号の復元方法の一例を示す説明図である。
【図21】ドットパターンの検出が不可能になる場合を示す説明図である。
【図22】第2の実施の形態にかかる透かし情報埋め込み装置及び透かし情報検出装置の構成を示す説明図である。
【図23】埋め込みパターン判定部42の処理の流れを示す流れ図である。
【図24】埋め込みパターンの例を示す説明図であり,(a)は水平方向,(b)は垂直方向,(c)は右上から左下への斜め方向,(d)は左上から右下への斜め方向を示している。
【図25】文書画像を領域分割した場合を示す説明図である。
【図26】符号語の例とそれに基づいてドットパターンを配列した例を示す説明図である。
【図27】図24(a)の埋め込みパターンに従って図6の符号語を配列した例を示す説明図である。
【図28】ヘッダ情報領域と透かし情報領域を示す説明図である。
【図29】透かし検出部32の処理の流れを示す流れ図である。
【図30】縦書き,横書き,図などが混在した文書の例を示す説明図である。
【図31】図30の文書を縦書き,横書き,図などの特徴によって分割した例を示す説明図である。
【符号の説明】
10 透かし情報埋め込み装置
11 文書画像形成部
12 透かし画像形成部
13 透かし入り文書画像合成部
14 出力デバイス
15 文書データ
16 機密情報
20 印刷文書
30 透かし情報検出装置
31 入力デバイス
32 透かし検出部
40 透かし情報埋め込み装置
42 埋め込みパターン判定部[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a method for adding confidential information to a document image in a format other than characters, and a technique for detecting confidential information from a printed document containing confidential information.
[0002]
[Prior art]
“Digital watermarking” that embeds information to prevent copying / counterfeiting and confidential information in images and document data in a form that is invisible to the human eye is based on the premise that all storage and data transfer are performed on electronic media. Since the information embedded by the watermark is not deteriorated or lost, the information can be reliably detected. Similarly, documents printed on paper media cannot be easily tampered with in a form that is not visually unsightly other than text to prevent unauthorized tampering and copying. There is a need for a method for embedding confidential information in a printed document.
[0003]
The following techniques are known as information embedding methods for black and white binary documents that are most widely used as printed materials.
[0004]
[1] Japanese Patent Laid-Open No. 2001-78006 “Method and apparatus for embedding / detecting watermark information in a monochrome binary document image”
A minimum rectangle surrounding an arbitrary character string is divided into several blocks and divided into two groups (group 1 and group 2) (the number of groups may be three or more). For example, when the signal is 1, the feature amount in the block of group 1 is increased and the feature amount in each block of group 2 is decreased. When the signal is 0, the reverse operation is performed. The feature amount in the block includes the number of pixels in the character area, the thickness of the character, and the distance to the point where the block first hits the character area.
[0005]
[2] JP 2001-53954 A "Information embedding device, information reading device, digital watermark system, information embedding method, information reading method, and recording medium"
The width and height of the minimum rectangle that encloses one character are defined as the feature amount for that character, and the symbol is represented by a classification pattern of the magnitude relationship of the feature amount between two or more characters. For example, six feature quantities can be defined from three characters, and combinations of patterns of these magnitude relationships are enumerated, these combinations are classified into two grooves, and a symbol is given to each. If the information to be embedded is “0” and the combination pattern of the feature amounts of the character selected to represent this is “1”, one of the six feature amounts is expanded in the character area, etc. To change. The pattern to be changed is selected so that the amount of change is minimized.
[0006]
[3] Japanese Patent Laid-Open No. 9-179494 “Confidential Information Recording Method”
Assume that printing is performed with a printer of 400 dpi or more. Information is digitized and information is expressed by the distance (number of dots) between the reference point mark and the position determination mark.
[0007]
[4] Japanese Patent Application No. 10-200743 “Document Processing Device”
Information is expressed by whether or not the screen lines of the line screen (special screen composed of fine parallel lines) are moved backward.
[0008]
[Problems to be solved by the invention]
However, in the known techniques [1] and [2], the font and layout are changed because the change is made to the pixels constituting the characters of the document image, the character spacing, and the line spacing. In addition, in the above known techniques [3] and [4], when detecting, precise detection processing for each pixel of an input image read from an input device such as a scanner is required. When noise is added at the time of reading, the information detection accuracy is greatly affected.
[0009]
As described above, in the known techniques [1] to [4], when the printed document is input to the computer again by an input device such as a scanner and the embedded confidential information is detected, the smear or input of the printed document is detected. There is a problem that it is difficult to accurately extract secret information because many noise components are included in the input image due to image deformation such as rotation that occurs during the process.
[0010]
The present invention has been made in view of the above-mentioned problems of the conventional watermark information embedding / detection technique, and an object of the present invention is to provide new and improved watermark information that can accurately extract secret information. To provide an embedding device and a watermark information detecting device.
[0011]
[Means for Solving the Problems]
In order to solve the above problems, according to a first aspect of the present invention, a watermark information embedding device is provided. The watermark information embedding device of the present invention includes: Dot pattern on image Superimpose Watermarked image Is provided with a watermarked image composition unit.
[0012]
And There are multiple types of dot patterns, It is regularly arranged, and at least one kind of dot pattern therein is characterized by being given confidential information representing a specific secret.
[0013]
In addition, by preparing a plurality of dot patterns in which the wave direction and / or wavelength is changed depending on the dot arrangement, giving one symbol to one dot pattern, and arranging the dot patterns in combination, You may comprise so that confidential information may be given.
[0014]
The symbol may be composed of a valid symbol that forms part of the confidential information and an invalid symbol that is irrelevant to the confidential information.
[0015]
Alternatively, a plurality of dot patterns whose wave directions and / or wavelengths are changed depending on the dot arrangement, one symbol is given to one dot pattern arrangement combination, and the dot pattern arrangement combination is changed. The confidential information can be given by arranging them in combination.
[0016]
In addition, Watermarked image The confidential information may be repeatedly embedded in an arbitrary range on the paper output by the output device or on the entire surface.
[0017]
In order to solve the above problem, according to a second aspect of the present invention, a watermark information detection apparatus is provided. The watermark information detection apparatus of the present invention is image And a watermark image in which multiple types of dot patterns are embedded. Watermarked image And a watermark detection unit for detecting the watermark image.
[0018]
The watermark detection unit includes a filter that extracts a plurality of types of dot patterns that are the same as a watermark image. Watermarked image On the other hand, the watermark image is detected by performing matching.
[0019]
In addition, printed on paper Watermarked image The watermark detection unit reads the input device. Watermarked image On the other hand, the watermark image may be detected by performing matching.
[0020]
In addition, the watermark image is prepared by preparing a plurality of dot patterns in which the wave direction and / or wavelength is changed according to the dot arrangement, giving one symbol to one dot pattern, and arranging the dot patterns in combination. Thus, confidential information is given, and the filter may be configured to include the same number of two-dimensional wavelet filters as the dot pattern having the same wave direction and wavelength as the dot pattern. . As an example of a two-dimensional wavelet filter, a Gabor filter can be used.
[0021]
In such a case, a convolution (convolution integration) between an arbitrary region in the watermarked image and the plurality of two-dimensional wavelet filters is calculated, and the dot pattern corresponding to the two-dimensional wavelet filter that maximizes the convolution is obtained. It is possible to determine that it is embedded in the area.
[0022]
In addition, when the convolution of an arbitrary region in the watermarked image and an arbitrary two-dimensional wavelet filter exceeds a certain threshold, the dot pattern corresponding to the two-dimensional wavelet filter is embedded in the region. It is also possible to judge that
[0023]
Further, when the confidential information is repeatedly embedded in an arbitrary range or on the entire surface of the paper input to the input device, all signal detection at positions corresponding to the same code bit in the watermarked image is performed. A convolution with a filter is added for each of the plurality of two-dimensional wavelet filters as many times as the number of repetitions at the time of embedding, and the dot pattern corresponding to the two-dimensional wavelet filter having the largest sum is embedded. It is possible to judge.
[0024]
According to another aspect of the present invention, the following watermark information embedding device is provided as an application example of the above-described watermark information embedding device. This watermark embedding device is characterized in that, in addition to the constituent elements of the watermark information embedding device, further includes a pattern determination unit that selects what kind of embedding pattern the plurality of types of dot patterns are arranged.
[0025]
The pattern determination unit changes the number of embedding patterns of the dot pattern (for example, 2 or more) and temporarily arranges the dot pattern before actually arranging the dot pattern, image The embedding pattern can be selected in accordance with the number of dot patterns that can be detected even if they are superimposed on the watermark image (hereinafter referred to as the number of effective dot patterns).
[0026]
More specifically, it is possible to calculate the variance of the number of effective dot patterns of each dot pattern for each of the embedded patterns subjected to the temporary arrangement, and select the embedded pattern having the smallest variance. It is also possible to calculate the standard deviation instead of the variance and select the embedding pattern having the smallest standard deviation.
[0027]
Information on the embedded pattern selected by the pattern determination unit is Watermarked image Can be embedded as header information. At this time, if the information related to the embedding pattern is encrypted in order to keep it secret to a third party, only the person who knows the embedding pattern can restore the embedded watermark information.
[0028]
Said image It is also possible to divide the area and select the optimum embedding pattern for each divided area. As an example of area division, image Then, an analysis process (characteristic recognition process) of characters and tables is performed using an OCR (Optical Character Reader). image It is possible to divide the area according to the characteristics.
[0029]
image As a result of the characteristic recognition process, there may be a case where there is an area (for example, an area shown in the figure) in which the dot pattern (watermark information) can be hardly embedded. It is possible not to arrange the dot pattern in such a divided area. Then, information on the divided areas where the dot pattern is not arranged is Watermarked image If it is embedded in the header information, it is not necessary to detect the watermark information from the divided area when detecting the watermark information, and the detection efficiency can be improved.
[0030]
DETAILED DESCRIPTION OF THE INVENTION
Exemplary embodiments of a watermark information embedding device and a watermark information detection device according to the present invention will be described below in detail with reference to the accompanying drawings. In the present specification and drawings, components having substantially the same functional configuration are denoted by the same reference numerals, and redundant description is omitted.
[0031]
(First embodiment)
FIG. 1 is an explanatory diagram showing the configuration of a watermark information embedding device and a watermark information detection device according to this embodiment.
[0032]
(Watermark information embedding device 10)
The watermark information embedding device 10 is a device that forms a document image based on document data and confidential information embedded in the document and prints it on a paper medium. As shown in FIG. 1, the watermark information embedding device 10 includes a document image forming unit 11, a watermark image forming unit 12, a watermarked document image synthesizing unit 13, and an output device 14. The document data 15 is data created by a document creation tool or the like. The confidential information 16 is information (character string, image, audio data) to be embedded in a paper medium in a format other than characters.
[0033]
In the document image forming unit 11, an image in a state where the document data 15 is printed on a paper surface is created. Specifically, the white pixel region in the document image is a portion where nothing is printed, and the black pixel region is a portion where black paint is applied. In this embodiment, the description will be made on the assumption that printing is performed on white paper with black ink (single color). However, the present invention is not limited to this, and printing is performed in color (multicolor). However, the present invention can be similarly applied.
[0034]
The watermark image forming unit 12 digitizes the confidential information 16 and converts it into a numerical value, performs N-ary coding (N is 2 or more), and assigns each symbol of the code word to a signal prepared in advance. A signal represents a wave having an arbitrary direction and wavelength by arranging dots in a rectangular area of an arbitrary size, and a symbol is assigned to the direction and wavelength of the wave. A watermark image is one in which these signals are arranged on the image according to a certain rule.
[0035]
The watermarked document image composition unit 13 creates a watermarked document image by superimposing the document image and the watermark image. The output device 14 is an output device such as a printer, and prints a watermarked document image on a paper medium. Therefore, the document image forming unit 11, the watermark image forming unit 12, and the watermarked document image synthesizing unit 13 may be realized as one function in the printer driver.
[0036]
The print document 20 is printed with the confidential information 16 embedded in the original document data 15 and is physically stored and managed.
[0037]
(Watermark information detection device 30)
The watermark information detection device 30 is a device that takes in a document printed on a paper medium as an image and restores embedded confidential information. As shown in FIG. 1, the watermark information detection apparatus 30 includes an input device 31 and a watermark detection unit 32.
[0038]
The input device 31 is an input device such as a scanner, and takes in the document 20 printed on paper as a multi-value gray image into a computer. The watermark detection unit 32 performs a filtering process on the input image to detect an embedded signal. The symbol is restored from the detected signal, and the embedded confidential information is extracted.
[0039]
Operations of the watermark information embedding device 10 and the watermark information detection device 30 configured as described above will be described. First, the operation of the watermark information embedding device 10 will be described with reference to FIGS.
[0040]
(Document Image Forming Unit 11)
The document data 15 is data including font information and layout information, and is created by word processing software or the like. Based on the document data 15, the document image forming unit 11 creates an image of a document printed on paper for each page. This document image is a black and white binary image. On the image, white pixels (pixels having a value of 1) are backgrounds, and black pixels (pixels having a value of 0) are character regions (regions to which ink is applied). It shall be.
[0041]
(Watermark image forming unit 12)
The confidential information 16 is various data such as characters, sounds, and images, and the watermark image forming unit creates a watermark image to be superimposed as the background of the document image from this information.
[0042]
FIG. 2 is a flowchart showing a process flow of the watermark image forming unit 12.
First, the confidential information 16 is converted into an N-element code (step S101). N is arbitrary, but in the present embodiment, N = 2 for ease of explanation. Accordingly, the code generated in step S101 is a binary code, and is expressed by a bit string of 0 and 1. In this step S101, the data may be encoded as it is, or the encrypted data may be encoded.
[0043]
Next, a watermark signal is assigned to each symbol of the codeword (step S102). The watermark signal represents a wave having an arbitrary wavelength and direction by an arrangement of dots (black pixels). The watermark signal will be further described later.
[0044]
Further, a signal unit corresponding to the bit string of the encoded data is arranged on the watermark image (step S103).
[0045]
The watermark signal assigned to each symbol of the code word in step S102 will be described. FIG. 3 is an explanatory diagram showing an example of a watermark signal.
[0046]
Let the width and height of the watermark signal be Sw and Sh, respectively. Sw and Sh may be different, but in the present embodiment, Sw = Sh is set for ease of explanation. The unit of length is the number of pixels. In the example of FIG. 3, Sw = Sh = 12. The size when these signals are printed on the paper surface depends on the resolution of the watermark image. For example, the watermark image is an image of 600 dpi (dot per inch: unit of resolution, number of dots per inch). 3, the width and height of the watermark signal in FIG. 3 is 12/600 = 0.02 (inch) on the printed document.
[0047]
Hereinafter, a rectangle having a width and a height of Sw and Sh is referred to as a “signal unit” as one signal unit. In FIG. 3 (1), the distance between dots is dense in the direction of arctan (3) (arctan is an inverse function of tan) with respect to the horizontal axis, and the wave propagation direction is arctan (−1/3). . Hereinafter, this signal unit is referred to as unit A. In FIG. 3B, the distance between dots is dense in the direction of arctan (−3) with respect to the horizontal axis, and the wave propagation direction is arctan (1/3). Hereinafter, this signal unit is referred to as unit B.
[0048]
FIG. 4 is a cross-sectional view of the change in the pixel value in FIG. 3A as viewed from the direction of arctan (1/3). In FIG. 4, the portion where the dots are arranged is the antinode of the minimum value of the wave (the point where the amplitude is maximum), and the portion where the dots are not arranged is the antinode of the maximum value of the wave.
[0049]
In addition, since there are two regions in each unit where dots are densely arranged, the frequency per unit is 2 in this example. Since the wave propagation direction is perpendicular to the direction in which the dots are densely arranged, the wave of unit A is arctan (-1/3) with respect to the horizontal direction, and the wave of unit B is arctan (1/3). Become. Note that a × b = −1 when the direction of arctan (a) and the direction of actan (b) are perpendicular.
[0050]
In the present embodiment, symbol 0 is assigned to the watermark signal expressed by unit A, and symbol 1 is assigned to the watermark signal expressed by unit B. These are called symbol units.
[0051]
In addition to the watermark signals shown in FIGS. 3 (1) and (2), for example, dot arrangements as shown in FIGS. 5 (3) to (5) are conceivable. In FIG. 5 (3), the distance between dots is dense in the direction of arctan (1/3) with respect to the horizontal axis, and the wave propagation direction is arctan (-3). Hereinafter, this signal unit is referred to as unit C.
In FIG. 5 (4), the distance between dots is dense in the direction of arctan (−1/3) with respect to the horizontal axis, and the wave propagation direction is arctan (3). Hereinafter, this signal unit is referred to as unit D. In FIG. 5 (5), the distance between dots is dense in the direction of arctan (1) with respect to the horizontal axis, and the wave propagation direction is arctan (−1). In FIG. 5 (5), it can be considered that the distance between the dots is dense in the direction of arctan (−1) with respect to the horizontal axis, and the wave propagation direction is arctan (1). Hereinafter, this signal unit is referred to as unit E.
[0052]
In this way, in addition to the combinations assigned previously, there can be a plurality of combinations of units to which symbols 0 and 1 are assigned. Therefore, it is possible to keep secret which watermark signal is assigned to which symbol. It is also possible to prevent a person (illegal person) from easily deciphering the embedded signal.
[0053]
Furthermore, when the confidential information is encoded with a quaternary code in step S102 shown in FIG. 2, for example, code A symbol 0 is assigned to unit A, symbol 1 is assigned to unit B, and symbol 2 is assigned to unit C. , It is also possible to assign symbol 3 to unit D
[0054]
In the example of the watermark signal shown in FIGS. 3 and 5, since the number of dots in one unit is all equal, by arranging these units without gaps, the apparent density of the watermark image becomes uniform. . Therefore, it appears that a gray image having a single density is embedded as a background on the printed paper.
[0055]
In order to produce such an effect, for example, unit E is defined as a background unit (signal unit to which no symbol is assigned), and this is arranged without any gap as a background of the watermark image, and symbol unit (unit A, unit B) Is embedded in the watermark image, the background unit (unit E) and the symbol unit (unit A, unit B) at the position to be embedded are exchanged.
[0056]
FIG. 6 (1) is an explanatory diagram showing a case where the unit E is defined as a background unit and arranged as a background of a watermark image without gaps. 6 (2) shows an example in which the unit A is embedded in the background image of FIG. 6 (1), and FIG. 6 (3) shows an example in which the unit B is embedded in the background image of FIG. 6 (1). Show. In the present embodiment, a method of using a background unit as the background of a watermark image will be described. However, a watermark image may be generated by arranging only symbol units.
[0057]
Next, a method for embedding one symbol of a code word in a watermark image will be described with reference to FIG.
[0058]
FIG. 7 is an explanatory diagram illustrating an example of a symbol embedding method in a watermark image. Here, a case where a bit string “0101” is embedded will be described as an example.
[0059]
As shown in FIGS. 7A and 7B, the same symbol unit is repeatedly embedded. This is to prevent the character unit in the document from being detected when a signal is detected when it is superimposed on the embedded symbol unit. The symbol unit repetition number and arrangement pattern (hereinafter referred to as a unit pattern) are used. Is optional.
[0060]
That is, as an example of the unit pattern, the repetition number is set to 4 (four symbol units exist in one unit pattern) as shown in FIG. 7 (1), or the repetition number is set to 2 as shown in FIG. 7 (2). (There are two symbol units in one unit pattern), or the number of repetitions may be one (only one symbol unit exists in one unit pattern).
[0061]
7 (1) and 7 (2), one symbol is given to one symbol unit. However, even if symbols are given to the symbol unit arrangement pattern as shown in FIG. 7 (3). good.
[0062]
The number of bits of information that can be embedded in a watermark image for one page depends on the size of the signal unit, the size of the unit pattern, and the size of the document image. The number of signals embedded in the horizontal and vertical directions of the document image may be detected as a known signal, or may be calculated backward from the size of the image input from the input device and the size of the signal unit.
[0063]
If Pw unit patterns in the horizontal direction and Ph units in the vertical direction can be embedded in a watermark image for one page, unit patterns at arbitrary positions in the image are represented by U (x, y), x = 1 to Pw, y = 1 to Ph, and U (x, y) is referred to as a “unit pattern matrix”. In addition, the number of bits that can be embedded in one page is referred to as the “number of embedded bits”. The number of embedded bits is Pw × Ph.
[0064]
FIG. 8 is a flowchart showing a method for embedding confidential information in a watermark image.
Here, a case where the same information is repeatedly embedded in one (one page) watermark image will be described. By repeatedly embedding the same information, it is possible to extract the embedded information even if the embedded information disappears due to, for example, the entire unit pattern being filled when the watermark image and the document image are overlaid. Because.
[0065]
First, the confidential information 16 is converted into an N-element code (step S201). This is the same as step S101 in FIG. Hereinafter, the encoded data is referred to as a data code, and the data code expressed by a combination of unit patterns is referred to as a data code unit Du.
[0066]
Next, based on the code length of the data code (here, the number of bits) and the number of embedded bits, how many times the data code unit can be embedded in one image is calculated (step S202). In the present embodiment, it is assumed that the code length data of the data code is inserted into the first row of the unit pattern matrix. The code length of the data code may be fixed, and the code length data may not be embedded in the watermark image.
[0067]
The number Dn of embedding the data code unit is calculated by the following equation with the data code length as Cn.
[0068]
[Expression 1]
Figure 0003628312
[0069]
Here, assuming that the remainder is Rn (Rn = Cn− (Pw × (Ph−1))), the unit pattern matrix is embedded with a data pattern unit of Dn times and a unit pattern corresponding to the first Rn bits of the data code. become. However, the Rn bit of the remainder part does not necessarily have to be embedded.
[0070]
In the description of FIG. 9, the size of the unit pattern matrix is 9 × 11 (11 rows and 9 columns), and the data code length is 12 (numbers 0 to 11 in the figure indicate the codewords of the data code). And
[0071]
Next, the code length data is embedded in the first row of the unit pattern matrix (step S203). In the example of FIG. 9, the code length is expressed by 9-bit data and has been embedded only once. However, if the unit pattern matrix width Pw is sufficiently large, It can be embedded repeatedly.
[0072]
Further, the data code unit is repeatedly embedded in the second and subsequent rows of the unit pattern matrix (step S204). As shown in FIG. 9, the MSB (most significant bit) or LSB (least significant bit) of the data code is sequentially embedded in the row direction. The example of FIG. 9 shows an example in which the data code unit is embedded seven times and the first 6 bits of the data code are embedded.
[0073]
The data embedding method may be embedded so as to be continuous in the row direction as shown in FIG. 9, or may be embedded so as to be continuous in the column direction.
[0074]
The watermark image in the watermark image forming unit 12 has been described above. Next, the watermarked document image composition unit 13 of the watermark information embedding device 10 will be described.
[0075]
(Watermarked document image composition unit 13)
The watermarked document image composition unit 13 superimposes the document image created by the document image forming unit 11 and the watermark image created by the watermark image forming unit. The value of each pixel of the watermarked document image is calculated by a logical product operation (AND) of the corresponding pixel values of the document image and the watermark image. That is, if either the document image or the watermark image is 0 (black), the pixel value of the watermarked document image is 0 (black), otherwise 1 (white).
[0076]
FIG. 10 is an explanatory diagram showing an example of a watermarked document image. FIG. 11 is an explanatory diagram showing a part of FIG. 10 in an enlarged manner. Here, the unit pattern shown in FIG. 7A is used. The watermarked document image is output by the output device 14.
[0077]
The operation of the watermark information embedding device 10 has been described above.
Next, the operation of the watermark information detection apparatus 30 will be described with reference to FIGS. 1 and 12 to 20.
[0078]
(Watermark detection unit 32)
FIG. 12 is a flowchart showing the process flow of the watermark detection unit 32.
First, a watermarked document image is input to a memory of a computer or the like by an input device 31 such as a scanner (step S301). This image is referred to as an input image. The input image is a multi-valued image, and will be described below as a gray image with 256 gradations. Further, the resolution of the input image (resolution when read by the input device 31) may be different from the watermarked document image created by the watermark information embedding device 10, but here the image created by the watermark information embedding device 10 is used. It is assumed that the resolution is the same. Also, it is assumed that the input image has been corrected for rotation, expansion and contraction.
[0079]
Next, the number of unit patterns embedded is calculated from the size of the input image and the size of the signal unit (step S302). For example, assuming that the size of the input image is W (width) × H (height), the size of the signal unit is Sw × Sh, and the unit pattern is composed of Uw × Uh units. The number of unit patterns embedded in (N = Pw × Ph) is calculated as follows.
[0080]
[Expression 2]
Figure 0003628312
[0081]
However, when the resolution is different between the watermark information embedding device 10 and the watermark information detection device 30, the above calculation is performed after normalizing the size of the signal unit in the input image based on the ratio of the resolutions.
[0082]
Next, a unit pattern separation position is set for the input image based on the number of unit patterns calculated in step S302 (step S303). FIG. 13 shows an example of the input image (FIG. 13 (1)) and the input image (FIG. 13 (2)) after setting the unit pattern separation positions.
[0083]
Next, a symbol unit is detected for each unit pattern delimiter, and a unit pattern matrix is restored (step S304). Details of signal detection will be described below.
[0084]
FIG. 14 is an explanatory diagram showing an example of an area corresponding to the unit A shown in FIG. 3A in the input image. In FIG. 3, the signal unit is a binary image, but here it is a multi-valued image. When a binary image is printed, since the density changes continuously due to ink bleeding or the like, the periphery of the dot becomes an intermediate color between white and black as shown in FIG. Therefore, a cross-sectional view of FIG. 14 viewed from a direction parallel to the wave propagation direction is as shown in FIG. 4 is a rectangular wave, whereas FIG. 15 is a smooth wave.
[0085]
Also, in reality, many noise components are added to the input image due to factors such as local changes in paper thickness, dirt on the printed document, and instability of the output device and image input device. However, the case where there is no noise component will be described here. However, if the method described here is used, stable signal detection can be performed even for an image to which a noise component is added.
[0086]
In the following, in order to detect the signal unit from the input image, a two-dimensional wavelet filter that can simultaneously define the frequency and direction of the wave and the influence range is used. In the following, an example using a Gabor filter, which is one of the two-dimensional wavelet filters, is shown. However, if it is a filter having the same properties as the Gabor filter, it is not necessarily a Gabor filter, and moreover, the same dot as the signal unit. A method of defining a template having a pattern and performing pattern matching may be used.
[0087]
The Gabor filter G (x, y), x = 0 to gw−1, and y = 0 to gh−1 are shown below. gw and gh are filter sizes, which are the same size as the signal unit embedded by the watermark information embedding apparatus 10 here.
[0088]
[Equation 3]
Figure 0003628312
[0089]
For signal detection, the same number of Gabor filters as the frequency of the symbol unit embedded in the watermark image, the frequency, the direction of the wave, and the size are prepared as many as the type of the embedded signal unit. Here, the Gabor filters corresponding to the units A and B in FIG.
[0090]
The filter output value at an arbitrary position in the input image is calculated by convolution between the filter and the image. In the case of a Gabor filter, there are a real number filter and an imaginary number filter (an imaginary number filter is a filter whose phase is shifted by a half wavelength from the real number filter), and the mean square value thereof is used as a filter output value. For example, if the convolution between the real filter and the image of the filter A is Rc and the convolution between the imaginary filter is Ic, the output value F (A) is calculated by the following equation.
[0091]
[Expression 4]
Figure 0003628312
[0092]
FIG. 16 is an explanatory diagram for explaining a method for determining whether the symbol unit embedded in the unit pattern U (x, y) delimited in step S303 is the unit A or the unit B.
[0093]
The symbol determination step for the unit pattern U (x, y) is performed as follows.
(1) While moving the position of the filter A, the maximum value of the result of calculating F (A) for all the positions in the unit pattern U (x, y) is the value of the filter A for the unit pattern U (x, y). The output value is set to Fu (A, x, y).
(2) The output value of the filter B for the unit pattern U (x, y) is calculated in the same manner as (1), and this is assumed to be Fu (B, x, y).
(3) Fu (A, x, y) and Fu (B, x, y) are compared, and if Fu (A, x, y) ≧ Fu (B, x, y), unit pattern U (x, y) The symbol unit embedded in y) is determined to be unit A, and if Fu (A, x, y) <Fu (B, x, y), it is embedded in the unit pattern U (x, y). It is determined that the existing symbol unit is unit B.
[0094]
In (1) and (2), the step width for moving the filter is arbitrary, and only the output value at a representative position on the unit pattern may be calculated. Further, when the absolute value of the difference between Fu (A, x, y) and Fu (B, x, y) is equal to or smaller than a predetermined threshold in (3), the determination may be impossible.
[0095]
In (1), when the convolution is calculated while shifting the filter, if the maximum value of F (A) exceeds a predetermined threshold value, the symbol unit immediately embedded in U (x, y) May be determined to be unit A and the process may be stopped. Similarly, in (2), if the maximum value of F (B) exceeds a predetermined threshold value, the symbol unit embedded in U (x, y) is immediately determined to be unit B. good.
[0096]
The details of the signal detection (step S304) have been described above. Returning to the flowchart of FIG. 12 again, the following step S305 will be described. In step S305, the symbols of the unit pattern matrix are concatenated to reconstruct the data code, and the original information is restored.
[0097]
FIG. 17 is an explanatory diagram showing an example of information restoration. The steps of information restoration are as follows.
(1) A symbol embedded in each unit pattern is detected ((1) in FIG. 17).
(2) The data code is restored by concatenating the symbols ((2) in FIG. 17).
(3) The embedded data is extracted by decoding the data code ((3) in FIG. 17).
[0098]
18 to 20 are explanatory diagrams illustrating an example of a data code restoration method. The restoration method is basically the reverse process of FIG.
[0099]
First, the code length data portion is extracted from the first row of the unit pattern matrix to obtain the code length of the embedded data code (step S401).
[0100]
Next, based on the size of the unit pattern matrix and the code length of the data code obtained in S401, the number Dn of data code units embedded and the remainder Rn are calculated (step S402).
[0101]
Next, data code units are extracted from the second and subsequent rows of the unit pattern matrix by the reverse method of step S203 (step S403). In the example of FIG. 19, 12 pattern units are sequentially decomposed from U (1, 2) (2 rows and 1 column) (U (1, 2) to U (3, 3), U (4, 3) to U (6, 4), ...). Since Dn = 7 and Rn = 6, 12 pattern units (data code units) are extracted 7 times, and 6 unit patterns (corresponding to the upper 6 data code units) (U (4 , 11) to U (9, 11)) are taken out.
[0102]
Next, the embedded data code is reconstructed by performing bit certainty calculation on the data code unit extracted in step S403 (step S404). Hereinafter, the bit certainty calculation will be described.
[0103]
As shown in FIG. 20, the first outer code unit extracted from the second row and first column of the unit pattern matrix is defined as Du (1,1) to Du (12,1), and Du (1,2) to Du in sequence. (12, 2),. Further, the surplus portion is assumed to be Du (1, 8) to Du (6, 8). The bit certainty calculation is to determine the value of each symbol of the data code by, for example, taking a majority vote for each element of each data code unit. As a result, even if signal detection cannot be performed correctly from any unit in any data encoding unit (such as a bit reversal error) due to overlap with the character area or dirt on the paper, the data encoding will eventually be performed correctly. Can be restored.
[0104]
Specifically, for example, the first bit of the data code is more often when the signal detection result of Du (1, 1), Du (1, 2),..., Du (1, 8) is 1. Is determined to be 1 and when there are more 0s, it is determined to be 0. Similarly, the second bit of the data code is determined by majority decision based on the signal detection result of Du (2, 1), Du (2, 2),..., Du (2, 8), and the 12th bit of the data code is Du (12,1), Du (12,2),..., Du (12,7) (Du (12,8) is not present, so it is up to Du (12,7)). Judgment by majority vote.
[0105]
The bit certainty calculation can also be performed by adding the output values of the signal detection filter of FIG. This is because, for example, a symbol of 0 is assigned to unit A in FIG. 3 (1), a symbol of 1 is assigned to unit B in FIG. 3 (2), and filter A for Du (m, n) is used. When the maximum value of the output value is Df (A, m, n) and the maximum value of the output value by the filter B for Du (m, n) is Df (B, m, n), the M bit of the data code is
[0106]
[Equation 5]
Figure 0003628312
[0107]
In the case of, it is determined as 1, and in other cases it is determined as 0. However, when N <Rn, the addition of Df is n = 1 to Rn + 1.
[0108]
Although the case where data codes are repeatedly embedded has been described here, a method that does not repeat data code units can be realized by using an error correction code or the like when encoding data.
[0109]
As described above in detail, according to the present embodiment, the following excellent effects are obtained.
(1-1) Since the embedded information is expressed by the difference in dot arrangement, the original document font, character spacing, and line spacing are not changed.
(1-2) Since the dot pattern to which symbols are assigned and the dot pattern to which symbols are not assigned have the same density (the number of dots in a certain interval), the human eye has a uniform density on the background of the document. It appears to be shaded and the presence of information is inconspicuous.
(1-3) Keeping the dot pattern to which symbols are assigned and the dot pattern to which symbols are not assigned in secret makes it difficult to decipher the embedded information.
(1-4) A pattern representing information is a collection of fine dots that are embedded as a background of a document, so that even if an embedding algorithm is disclosed, it is difficult to falsify embedded information in a printed document. .
(1-5) Since the embedded signal is detected based on the difference in the direction of the wave (change in shading) (because detailed detection is not performed in units of one pixel), the printed document is stable even if there is some dirt, etc. Information detection can be performed.
(1-6) Since the same information is repeatedly embedded and information is restored using all of the repeatedly embedded information at the time of detection, the signal portion is hidden by large font characters or the paper is dirty. Even if partial information loss occurs, the embedded information can be taken out stably.
[0110]
(Second Embodiment)
In the document output unit of the first embodiment, data to be inserted into the printed material as a watermark is converted into a code word (this code word may be encrypted) using an error correction code or the like. For example, when converted to a binary code, data is represented by a bit string of 0 and 1. Each symbol (symbol 0, symbol 1) corresponds to a dot pattern representing it. This is embedded as the background of the document image, but when the number of bits of the code word (number of elements of the dot pattern array) is smaller than the maximum number of signals that can be embedded on one sheet of paper, the dot pattern array It will be embedded repeatedly.
[0111]
Since the watermark signal is embedded as the background of the document image, the dot pattern cannot be detected at the time of signal detection from a place where part or all of the dot pattern representing the signal overlaps the character area of the document image. As described in the first embodiment, when a signal is detected, whether each bit of the code word is 0 or 1 is determined by a dot pattern detected from a position corresponding to each bit. It depends on the method such as majority vote. Accordingly, when the position where the dot pattern cannot be detected (the area overlapping the character area) is concentrated on a certain bit of the code word, the bit cannot be determined as shown in FIG. Become. Even if an error correction code is used for a code word, information cannot be restored if an undecidable bit exceeds the error correction capability.
[0112]
FIG. 22 is an explanatory diagram showing the configuration of the watermark information embedding device and the watermark information detection device according to this embodiment. The difference from the first embodiment is that an embedding pattern determination unit 42 is added to the watermark information embedding device 40. The embedding pattern determination unit 42 is a part that determines in what order the watermark signals are arranged on the paper.
[0113]
Since the other components are the same as those in the first embodiment, the redundant description will be omitted, and the operation of the present embodiment will be described focusing on the additions to the first embodiment. To do.
[0114]
FIG. 23 shows a processing flow of the embedding pattern determination unit 42 and the watermark image forming unit 12. A region surrounded by a broken line (steps S501 to S505) is a portion corresponding to the embedding pattern determination unit 42.
[0115]
The outline of the embedding pattern determination unit 42 is as follows. When Np types of signal embedding patterns are prepared in advance and embedded in accordance with the respective embedding patterns before actual signal placement, the extent to which the character overlaps is determined. It is determined whether or not to concentrate on a specific bit at a rate of, and an embedding pattern is selected so that a portion overlapping with a character is most widely dispersed in all bits of the code word.
[0116]
When the code length is L and the number of signals (dot patterns) that can be embedded in the document is N, the number of effective embeddings of each bit of the codeword (embedding without overlapping with characters) The average value V of the number of times that can be performed is N / L. Therefore, ideally, the embedding pattern that can be arranged in an area where all the bits of the code word do not overlap the character V times is the best pattern. As described above, if the number of effective embeddings is biased, bits that could be embedded only a small number of times will not be read due to signal detection errors during signal detection, dirt on the paper after printing, new writing on the paper, etc. It is likely to be impossible. If the bias is large, there are bits that are not affected at all by dirt and writing, but many bits that cannot be read out appear. Therefore, it is only necessary to select a pattern in which all the bits of the code word are close to the average value of the effective embedding frequency, that is, the variance (or standard deviation) of the effective embedding frequency of each bit is smallest.
[0117]
In step S501, data to be inserted into the printed material as a watermark is converted into a code word (this code word may be encrypted) using an error correction code or the like. For example, when converted to a binary code, data is represented by a bit string of 0 and 1. Each symbol (symbol 0, symbol 1) corresponds to a dot pattern representing it.
[0118]
In steps S502 to S504, for the Np types of embedding patterns (step S502), the number of cases where each bit of the code word to be embedded overlaps the character area is counted for each bit (step S503).
[0119]
FIG. 24 shows examples of four types of embedding patterns (Np = 4). In FIG. 24A, signals are continuously embedded in the horizontal direction, (b) is continuously embedded in the vertical direction, and (c) and (d) are embedded continuously in the oblique direction. There are countless other possibilities, such as embedding in a spiral shape. Further, as shown in FIG. 25, the document image may be divided into several blocks, and different embedding patterns may be used for each block.
[0120]
FIG. 26 shows an example of codewords and an example in which dot patterns are arranged based on them. This dot pattern is repeatedly arranged as the background of the document image.
[0121]
FIG. 27A shows an example in which the code words of FIG. 26 are arranged according to the embedding pattern of FIG. Here, the m-th dot pattern in FIG. 26 is embedded 12 times. FIG. 27B shows a print pattern superimposed on the dot pattern foreground. As shown in the figure, the m-th bit of the code word does not overlap the character in the first arrangement, but overlaps the character in the second arrangement. For the embedding pattern P in FIG. 24, the number when the m-th bit of the code word can be arranged without overlapping the character is represented as N (P, m). The total number T (P) of effective embedding times of each bit of the code word is obtained by adding N (P, m) from m = 1 to L, and the average effective embedding number E (P) is T (P) / L. It becomes. From this, the distribution of the effective embedding frequency is
V (P) = E {E (P) -N (P, m)) 2 }
It can be calculated with
[0122]
V (P) is calculated for all the embedding patterns, and the embedding pattern having the smallest V (P) is determined to be the embedding pattern for the document image in step S505.
[0123]
In step S506, a watermark signal is arranged according to the embedding pattern determined in step S505, and is superimposed on the document image. At this time, as shown in FIG. 28, information on which embedding pattern is embedded in the header information area is simultaneously embedded. It is assumed that information is arranged in the header information area with a fixed embedding pattern regardless of the document.
[0124]
Next, the watermark detection unit 32 will be described.
FIG. 29 shows the processing flow of the watermark detection unit 32.
In step S601, the signal of the portion where the header information is embedded in the input image is detected, and the header information is restored.
In step S602, a signal embedding pattern is extracted from the header information restored in step S601.
In step S603, the watermark signal is read according to the embedding pattern extracted in step S602.
In step S604, a majority vote is taken for each bit of the code word, the value of each bit is determined, and the code is combined to extract information.
[0125]
In step S506 of FIG. 23, the embedded pattern is recorded in the header information embedded area. However, if the embedded pattern is publicly available and is limited to several types, all patterns are detected at the time of detection without recording the embedded pattern. It is also possible to extract information that has been decoded correctly (no decoding error has occurred or meaningful information has been extracted) as watermark information.
[0126]
Even when the embedded pattern is kept secret, it is not necessary to record the embedded pattern. This is more secure by making the embedding pattern more complex and not revealing what the pattern is, and keeping the embedded signal pattern secret when the watermark information is secret information. The purpose is to keep sex. When used for such a purpose, it is not always necessary to perform the processing of steps S502 to S505.
[0127]
In addition, a supplementary explanation about block division (FIG. 25) of an embedding pattern is that when a document image is divided into several blocks as one of signal embedding patterns and different embedding patterns are applied to the respective blocks, As a division method, a method as described below may be used in addition to division with a fixed-size block as shown in FIG.
[0128]
As a premise, for example, when a horizontally embedded embedding pattern (FIG. 24 (a)) is adopted in a horizontally written document, an area overlapping with a character continues to some extent, so depending on the code length, as shown in FIG. Situations where it cannot be determined are likely to occur. The same applies to the case where an embedded pattern continuous in the vertical direction (FIG. 24B) is adopted for a vertically written document.
[0129]
FIG. 30 shows an example of a document in which vertical writing, horizontal writing, and drawings are mixed. In such a document, rather than applying one embedding pattern to the entire document as shown in FIG. 24, dividing each block into several blocks and applying a different embedding pattern to each block makes it possible to The variance of the effective number of embeddings is reduced. The division method may be divided into blocks having a fixed size as described above. However, the effect of reducing the variance value is greater if dynamic division is performed by analyzing the characteristics of the document image.
[0130]
FIG. 31A shows an example in which the document of FIG. 30 is divided according to features such as vertical writing and horizontal writing. This division may use a method such as “OCR table analysis (Japanese Patent Laid-Open No. 04-033079)” used as a pre-processing of OCR, or a character area of a certain size by reducing the document image of FIG. It is also possible to extract a lump and divide the lump as one block. In the example of FIG. 31A, areas 1, 2, and 4 are horizontally written character string areas, area 5 is a vertically written character string area, and area 3 is the area shown in the figure.
[0131]
For each of these areas, steps S502 to S505 in FIG. 23 are performed to determine an embedding pattern for each area. FIG. 31B shows an example in which an optimum embedding pattern is applied to each region.
[0132]
Information on how the document image is divided and information on the embedding pattern for each area may be recorded in the header information area of FIG. 28, or may be secret information.
[0133]
Further, since it is difficult to embed a signal in the figure area in the document image, when dividing the area in FIG. 31A, the signal is not embedded in the area determined as the figure area, and the signal is not embedded in the figure area. Information that it was not embedded may be recorded in the header information area. By not embedding the signal in the figure area, it is possible to omit the process of detecting the signal from the area where the signal is hardly embedded at the time of watermark detection, so that the processing time can be shortened and signal detection errors can be prevented. .
[0134]
As described above in detail, according to the present embodiment, the following excellent effects are obtained.
(2-1) When embedding information in a method that does not give a sense of incongruity with a minute dot pattern on a paper background, a signal that can be detected by the overlap of the foreground character area and the dot pattern is a code representing information. Since it does not concentrate on some bits of a word, it is possible to reliably extract information even when a signal error is detected, deterioration such as paper contamination, or overwriting on paper.
(2-2) By keeping the signal embedding pattern secret, only those who know the embedding pattern can retrieve the information, and the risk of the embedded information being stolen by a malicious third party Sex is reduced.
(2-3) The effect of (2-1) can be further enhanced by dividing the document image into regions for each component feature and applying an optimum signal embedding pattern for each divided region.
(2-4) The document image is divided into regions for each component feature, and the signal is not embedded in parts such as figure regions where signals cannot be embedded, thereby shortening the processing time during watermark detection and detection. Errors can be reduced.
[0135]
The preferred embodiments of the watermark information embedding device and the watermark information detection device according to the present invention have been described above with reference to the accompanying drawings, but the present invention is not limited to such examples. It will be obvious to those skilled in the art that various changes or modifications can be conceived within the scope of the technical idea described in the claims, and these are naturally within the technical scope of the present invention. It is understood that it belongs.
[0136]
【The invention's effect】
As described above, according to the present invention, the following excellent effects are obtained.
(1-1) Since the embedded information is expressed by the difference in dot arrangement, the original document font, character spacing, and line spacing are not changed.
(1-2) Since the dot pattern to which symbols are assigned and the dot pattern to which symbols are not assigned have the same density (the number of dots in a certain interval), the human eye has a uniform density on the background of the document. It appears to be shaded and the presence of information is inconspicuous.
(1-3) Keeping the dot pattern to which symbols are assigned and the dot pattern to which symbols are not assigned in secret makes it difficult to decipher the embedded information.
(1-4) A pattern representing information is a collection of fine dots that are embedded as a background of a document, so that even if an embedding algorithm is disclosed, it is difficult to falsify embedded information in a printed document. .
(1-5) Since the embedded signal is detected based on the difference in the direction of the wave (change in shading) (because detailed detection is not performed in units of one pixel), the printed document is stable even if there is some dirt, etc. Information detection can be performed.
(1-6) Since the same information is repeatedly embedded and information is restored using all of the repeatedly embedded information at the time of detection, the signal portion is hidden by large font characters or the paper is dirty. Even if partial information loss occurs, the embedded information can be taken out stably.
[0137]
In addition, according to the present invention, there are the following excellent effects.
(2-1) In the case where information is embedded in a method that does not give a sense of incongruity with a minute dot pattern on a paper background, a signal that can be detected by the overlap of the foreground character area and the dot pattern is a code representing information. Since it does not concentrate on some bits of a word, it is possible to reliably extract information even when a signal is detected, a detection error is deteriorated, a paper stain is deteriorated, or the paper is overwritten.
(2-2) By keeping the signal embedding pattern secret, only those who know the embedding pattern can retrieve the information, and the risk of the embedded information being stolen by a malicious third party Sex is reduced.
(2-3) The effect of (2-1) can be further enhanced by dividing the document image into regions for each component feature and applying an optimum signal embedding pattern for each divided region.
(2-4) The document image is divided into regions for each component feature, and the signal is not embedded in parts such as figure regions where signals cannot be embedded, thereby shortening the processing time during watermark detection and detection. Errors can be reduced.
[Brief description of the drawings]
FIG. 1 is an explanatory diagram illustrating a configuration of a watermark information embedding device and a watermark information detection device according to a first embodiment;
FIG. 2 is a flowchart showing a processing flow of a watermark image forming unit 12;
FIG. 3 is an explanatory diagram showing an example of a watermark signal, where (1) shows unit A and (2) shows unit B;
4 is a cross-sectional view of the change in pixel value in FIG. 3A as viewed from the direction of arctan (1/3).
FIGS. 5A and 5B are explanatory diagrams illustrating an example of a watermark signal. FIG. 5 illustrates a unit C, FIG. 5 illustrates a unit D, and FIG. 5 illustrates a unit E. FIG.
FIG. 6 is an explanatory diagram of a background image. (1) shows a case where unit E is defined as a background unit and this is used as the background of a watermark image arranged without gaps, and (2) shows the background of (1). An example in which the unit A is embedded in the image is shown, and (3) shows an example in which the unit B is embedded in the background image of (1).
FIG. 7 is an explanatory diagram illustrating an example of a symbol embedding method in a watermark image.
FIG. 8 is a flowchart showing a method of embedding confidential information in a watermark image.
FIG. 9 is a flowchart showing a process flow of the watermark detection unit 32;
FIG. 10 is an explanatory diagram illustrating an example of a watermarked document image.
FIG. 11 is an explanatory view showing a part of FIG. 10 in an enlarged manner.
12 is a flowchart showing a process flow of the watermark detection unit 32. FIG.
FIG. 13 shows an example of an input image (FIG. 13 (1)) and an input image (FIG. 13 (2)) after setting a unit pattern separation position.
FIG. 14 is an explanatory diagram showing an example of a region corresponding to unit A in an input image.
15 is a cross-sectional view of FIG. 14 viewed from a direction parallel to the wave propagation direction.
FIG. 16 is an explanatory diagram for explaining a method for determining whether a symbol unit embedded in a unit pattern U (x, y) is a unit A or a unit B;
FIG. 17 is an explanatory diagram showing an example of information restoration
FIG. 18 is an explanatory diagram showing an example of a data code restoration method;
FIG. 19 is an explanatory diagram illustrating an example of a data code restoration method;
FIG. 20 is an explanatory diagram illustrating an example of a data code restoration method;
FIG. 21 is an explanatory diagram showing a case where it becomes impossible to detect a dot pattern.
FIG. 22 is an explanatory diagram illustrating a configuration of a watermark information embedding device and a watermark information detection device according to a second embodiment;
FIG. 23 is a flowchart showing a processing flow of the embedding pattern determination unit.
FIGS. 24A and 24B are explanatory diagrams showing examples of embedding patterns, where FIG. 24A is a horizontal direction, FIG. 24B is a vertical direction, FIG. 24C is an oblique direction from upper right to lower left, and FIG. The diagonal direction is shown.
FIG. 25 is an explanatory diagram showing a case where a document image is divided into regions.
FIG. 26 is an explanatory diagram illustrating an example of codewords and an example in which dot patterns are arranged based on the codewords.
27 is an explanatory diagram showing an example in which the code words of FIG. 6 are arranged according to the embedding pattern of FIG.
FIG. 28 is an explanatory diagram showing a header information area and a watermark information area.
29 is a flowchart showing a process flow of the watermark detection unit 32. FIG.
FIG. 30 is an explanatory diagram illustrating an example of a document in which vertical writing, horizontal writing, drawings, and the like are mixed.
FIG. 31 is an explanatory diagram illustrating an example in which the document in FIG. 30 is divided according to features such as vertical writing, horizontal writing, and drawing.
[Explanation of symbols]
10 Watermark information embedding device
11 Document image forming section
12 Watermark image forming part
13 watermarked document image composition unit
14 Output device
15 Document data
16 Confidential information
20 Printed documents
30 Watermark information detection device
31 input devices
32 Watermark detection unit
40 Watermark information embedding device
42 Embedding pattern determination unit

Claims (20)

透かし情報埋め込み装置において,
画像にドットパターンを重ね合わせて透かし入り画像を作成する透かし入り画像合成部を備え,
前記ドットパターンは,所定の方向に所定の間隔でドットが配置され,前記ドットの輝度値を振幅とし,前記所定の方向と垂直な方向を伝播方向とするものであり,
前記ドットの方向及び/又は間隔を変化させたドットパターンを複数用意し,前記ドットパターンを組み合わせて配置することにより,特定の機密を表す機密情報が与えられることを特徴とする,透かし情報埋め込み装置。
In the watermark information embedding device,
It has a watermarked image composition unit that creates a watermarked image by overlaying dot patterns on the image,
In the dot pattern , dots are arranged at predetermined intervals in a predetermined direction, the luminance value of the dot is an amplitude, and a direction perpendicular to the predetermined direction is a propagation direction,
A watermark information embedding apparatus characterized in that a plurality of dot patterns with different dot directions and / or intervals are prepared, and confidential information representing a specific secret is given by arranging the dot patterns in combination. .
1つの前記ドットパターンに対して1つのシンボルを与えることを特徴とする,請求項1に記載の透かし情報埋め込み装置。2. The watermark information embedding device according to claim 1, wherein one symbol is given to one dot pattern. 複数の前記ドットパターンの配置の組み合わせに対して1つのシンボルを与えることを特徴とする,請求項1に記載の透かし情報埋め込み装置。2. The watermark information embedding apparatus according to claim 1, wherein one symbol is given to a combination of a plurality of dot pattern arrangements. 前記シンボルは,前記機密情報の一部を成すシンボルと,前記機密情報とは無関係のシンボルとからなることを特徴とする,請求項2または3に記載の透かし情報埋め込み装置。4. The watermark information embedding apparatus according to claim 2 , wherein the symbols include a symbol that forms part of the confidential information and a symbol that is not related to the confidential information. さらに,前記透かし入り画像を紙に出力する出力デバイスを備え,
前記機密情報は,前記出力デバイスが出力する紙上の任意の範囲内に繰り返し埋め込まれることを特徴とする,請求項1,2,3または4のいずれかに記載の透かし情報埋め込み装置。
And an output device for outputting the watermarked image on paper.
5. The watermark information embedding apparatus according to claim 1, wherein the confidential information is repeatedly embedded in an arbitrary range on paper output by the output device.
さらに,前記透かし入り画像を紙に出力する出力デバイスを備え,
前記機密情報は,前記出力デバイスが出力する紙上の一部または全面に繰り返し埋め込まれることを特徴とする,請求項1,2,3または4のいずれかに記載の透かし情報埋め込み装置。
And an output device for outputting the watermarked image on paper.
5. The watermark information embedding apparatus according to claim 1, wherein the confidential information is repeatedly embedded in a part or the entire surface of paper output by the output device.
透かし情報検出装置において,
画像と複数種類のドットパターンが埋め込まれた透かし画像とが重ね合わされて作成された透かし入り画像から,前記透かし画像を検出する透かし検出部を備え,
前記ドットパターンは,所定の方向に所定の間隔でドットが配置され,前記ドットの輝度値を振幅とし,前記所定の方向と垂直な方向を伝播方向とするものであり,
前記ドットの方向及び/又は間隔を変化させたドットパターンを複数用意し,前記ドットパターンを組み合わせて配置することにより,特定の機密を表す機密情報が与えられたものであり,
前記透かし検出部は,前記ドットパターンと同じ方向と間隔を持つ,前記ドットパターンと同数の二次元ウェーブレットフィルタを備え,前記透かし入り画像に対し,マッチングを行うことにより,前記透かし画像を検出することを特徴とする,透かし情報検出装置。
In the watermark information detection device,
A watermark detection unit for detecting the watermark image from a watermarked image created by superimposing an image and a watermark image in which a plurality of types of dot patterns are embedded;
In the dot pattern, dots are arranged at predetermined intervals in a predetermined direction, the luminance value of the dot is an amplitude, and a direction perpendicular to the predetermined direction is a propagation direction,
By preparing a plurality of dot patterns in which the direction and / or interval of the dots are changed and arranging the dot patterns in combination, confidential information indicating a specific confidentiality is given,
The watermark detection unit includes the same number of two-dimensional wavelet filters as the dot pattern having the same direction and interval as the dot pattern, and detects the watermark image by performing matching on the watermarked image. A watermark information detection device characterized by
さらに,紙に印刷された透かし入り画像を読み取る入力デバイスを備え,
前記透かし検出部は,前記入力デバイスで読み取った透かし入り画像に対し,マッチングを行うことにより,前記透かし画像を検出することを特徴とする,請求項7に記載の透かし情報検出装置。
In addition, it has an input device that reads watermarked images printed on paper.
8. The watermark information detection apparatus according to claim 7, wherein the watermark detection unit detects the watermark image by performing matching on the watermarked image read by the input device.
前記透かし入り画像中の任意の領域と前記複数の二次元ウェーブレットフィルタとのコンボリューションを計算し,コンボリューションが最大となる前記二次元ウェーブレットフィルタに対応する前記ドットパターンが前記領域に埋め込まれていると判断することを特徴とする,請求項7または8に記載の透かし情報検出装置。A convolution of an arbitrary region in the watermarked image and the plurality of two-dimensional wavelet filters is calculated, and the dot pattern corresponding to the two-dimensional wavelet filter maximizing the convolution is embedded in the region The watermark information detecting apparatus according to claim 7 or 8 , wherein the watermark information detecting apparatus is determined. 前記透かし入り画像中の任意の領域と任意の前記二次元ウェーブレットフィルタとのコンボリューションが一定の閾値を超えた場合,前記領域には該二次元ウェーブレットフィルタに対応する前記ドットパターンが埋め込まれていると判断することを特徴とする,請求項7または8に記載の透かし情報検出装置。When the convolution of an arbitrary area in the watermarked image and an arbitrary two-dimensional wavelet filter exceeds a certain threshold, the dot pattern corresponding to the two-dimensional wavelet filter is embedded in the area The watermark information detecting apparatus according to claim 7 or 8 , wherein the watermark information detecting apparatus is determined. 前記機密情報は,前記入力デバイスに入力される紙上の任意の範囲内または全面に繰り返し埋め込まれており,
前記透かし入り画像中において同じ符号ビットに対応する位置におけるすべての信号検出フィルタとのコンボリューションを前記複数の二次元ウェーブレットフィルタごとに埋め込み時の繰り返し回数と同じだけ加算し,その加算値が最も大きい前記二次元ウェーブレットフィルタに対応する前記ドットパターンが埋め込まれているものと判断することを特徴とする,請求項7または8に記載の透かし情報検出装置。
The confidential information is repeatedly embedded in an arbitrary range or on the entire surface of the paper input to the input device,
The convolution with all signal detection filters at the position corresponding to the same sign bit in the watermarked image is added for each of the plurality of two-dimensional wavelet filters by the number of repetitions at the time of embedding, and the added value is the largest. 9. The watermark information detecting apparatus according to claim 7 , wherein the dot pattern corresponding to the two-dimensional wavelet filter is determined to be embedded.
前記二次元ウェーブレットフィルタは,ガボールフィルタであることを特徴とする,請求項7,8,9,10または11のいずれかに記載の透かし情報検出装置。The watermark information detecting apparatus according to claim 7, 8, 9, 10, or 11 , wherein the two-dimensional wavelet filter is a Gabor filter. 前記複数種類のドットパターンをどのような埋め込みパターンで配置するかを選択するパターン判定部をさらに備えたことを特徴とする,請求項1,2,3,4または5のいずれかに記載の透かし情報埋め込み装置。Characterized by comprising the plural types of dot patterns what embedding further a pattern determination unit for selecting whether to place a pattern of watermark according to any one of claims 1, 2, 3, 4 or 5 Information embedding device. 前記パターン判定部は,
前記ドットパターンの埋め込みパターンを2以上変更して前記ドットパターンの仮配置を行い,
前記画像と前記透かし画像とを重ね合わせても検出が可能な前記ドットパターンの数(有効ドットパターン数)に応じて,前記埋め込みパターンを選択することを特徴とする,請求項13に記載の透かし情報埋め込み装置。
The pattern determination unit
Change the embedding pattern of the dot pattern by two or more, and temporarily arrange the dot pattern;
14. The watermark according to claim 13 , wherein the embedding pattern is selected according to the number of dot patterns (number of effective dot patterns) that can be detected even if the image and the watermark image are overlapped. Information embedding device.
前記パターン判定部は,
前記仮配置を行った2以上の各埋め込みパターンについて,前記各ドットパターンの前記有効ドットパターン数の分散を算出し,分散が最も小さい前記埋め込みパターンを選択することを特徴とする,請求項14に記載の透かし情報埋め込み装置。
The pattern determination unit
For two or more of each embedding pattern subjected to the temporary arrangement, wherein to calculate the effective dot pattern number of the variance of each dot pattern, variance and selects the smallest the embedding pattern, the claim 14 The watermark information embedding device described.
前記パターン判定部が選択した前記埋め込みパターンに関する情報は,前記透かし入り画像にヘッダ情報として埋め込まれることを特徴とする,請求項13,14または15のいずれかに記載の透かし情報埋め込み装置。 16. The watermark information embedding device according to claim 13 , wherein information on the embedding pattern selected by the pattern determination unit is embedded as header information in the watermarked image. 前記パターン判定部が選択した前記埋め込みパターンに関する情報は,暗号化されて前記透かし入り画像にヘッダ情報として埋め込まれることを特徴とする,請求項16に記載の透かし情報埋め込み装置。The watermark information embedding apparatus according to claim 16 , wherein the information on the embedding pattern selected by the pattern determination unit is encrypted and embedded as header information in the watermarked image. 前記パターン判定部は,
前記画像を領域分割し,各分割領域ごとに最適な前記埋め込みパターンを選択することを特徴とする,請求項13,14,15,16または17のいずれかに記載の透かし情報埋め込み装置。
The pattern determination unit
18. The watermark information embedding apparatus according to claim 13 , wherein the image is divided into regions, and the optimum embedding pattern is selected for each divided region.
前記パターン判定部は,
前記画像に対して特性認識処理を行い,前記画像の特性に応じた領域分割を行うことを特徴とする,請求項18に記載の透かし情報埋め込み装置。
The pattern determination unit
19. The watermark information embedding apparatus according to claim 18 , wherein characteristic recognition processing is performed on the image, and region division is performed according to the characteristic of the image.
前記パターン判定部は,前記画像に対する特性認識処理の結果,前記ドットパターンを実質的に配置できない分割領域には,前記ドットパターンの配置を行わず,
前記ドットパターンの配置を行わない分割領域に関する情報は,前記透かし入り画像にヘッダ情報として埋め込まれることを特徴とする,請求項19に記載の透かし情報埋め込み装置。
The pattern determination unit does not place the dot pattern in a divided region where the dot pattern cannot be substantially arranged as a result of the characteristic recognition process on the image,
20. The watermark information embedding apparatus according to claim 19 , wherein the information regarding the divided areas where the dot pattern is not arranged is embedded as header information in the watermarked image.
JP2002177086A 2001-07-18 2002-06-18 Watermark information embedding device and watermark information detection device Expired - Fee Related JP3628312B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2002177086A JP3628312B2 (en) 2001-07-18 2002-06-18 Watermark information embedding device and watermark information detection device
US10/462,764 US7085399B2 (en) 2002-06-18 2003-06-17 Watermark information embedding device and watermark information detection device

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2001217758 2001-07-18
JP2001-217758 2001-07-18
JP2002177086A JP3628312B2 (en) 2001-07-18 2002-06-18 Watermark information embedding device and watermark information detection device

Publications (2)

Publication Number Publication Date
JP2003101762A JP2003101762A (en) 2003-04-04
JP3628312B2 true JP3628312B2 (en) 2005-03-09

Family

ID=26618918

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002177086A Expired - Fee Related JP3628312B2 (en) 2001-07-18 2002-06-18 Watermark information embedding device and watermark information detection device

Country Status (1)

Country Link
JP (1) JP3628312B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2007049333A1 (en) * 2005-10-25 2009-04-30 富士通株式会社 Background pattern image generation method
US7616837B2 (en) 2005-11-24 2009-11-10 Canon Kabushiki Kaisha Image processing apparatus, image processing method, program, and storage medium
US7920715B2 (en) 2006-02-07 2011-04-05 Oki Data Corporation Apparatus and method for embedding electronic watermark
US8009860B2 (en) 2005-11-22 2011-08-30 Ricoh Company, Ltd. Image processing apparatus, method, program and recording medium for extracting embedded information
US8160294B2 (en) 2006-09-28 2012-04-17 Fujitsu Limited Electronic watermark embedment apparatus and electronic watermark detection apparatus
US8588460B2 (en) 2007-08-31 2013-11-19 Fujitsu Limited Electronic watermark embedding device, electronic watermark detecting device, and programs therefor

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101086802B1 (en) 2003-04-22 2011-11-25 가부시키가이샤 오끼 데이타 Watermark information embedding device and method, watermark information detecting device and method, watermarked document
EP1619874B1 (en) * 2003-04-25 2016-02-03 Oki Data Corporation Watermark information detection method
JP3784781B2 (en) 2003-05-20 2006-06-14 富士通株式会社 Image data processing apparatus, image data processing method, image data processing program, and image data processing system
EP1628466A4 (en) * 2003-05-28 2006-07-05 Oki Electric Ind Co Ltd Watermark information embedding device, image processing device, watermark information embedding method, and image processing method
JP2005012530A (en) 2003-06-19 2005-01-13 Ricoh Co Ltd Document preparation system against falsification verification, falsification verification system, and falsification prevention system
JP4037801B2 (en) * 2003-06-27 2008-01-23 沖電気工業株式会社 Entry document creation device and entry document
EP1509034B1 (en) 2003-08-21 2009-02-18 Ricoh Company, Ltd. Method, program, and apparatus for prohibiting a reproduction of an anti-copy document, and a medium storing the program
JP4269861B2 (en) * 2003-09-12 2009-05-27 沖電気工業株式会社 Printed material processing system, watermarked document printing device, watermarked document reading device, printed material processing method, information reading device, and information reading method
US8422043B2 (en) 2003-09-12 2013-04-16 Oki Data Corporation Watermarked document reading apparatus with improved error processing
US20050058476A1 (en) 2003-09-17 2005-03-17 Canon Kabushiki Kaisha Copy-forgery-inhibited pattern density parameter determination method, copy-forgery-inhibited pattern image generation method, and image processing apparatus
US8049933B2 (en) 2003-09-17 2011-11-01 Canon Kabushiki Kaisha Copy-forgery-inhibited pattern image generation method and image processing apparatus
JP2005150815A (en) * 2003-11-11 2005-06-09 Oki Electric Ind Co Ltd Watermark information embedding apparatus and method, watermark information detecting apparatus and method, and printed matter
JP2005236843A (en) * 2004-02-23 2005-09-02 Oki Electric Ind Co Ltd Document processing method and system
JP4785393B2 (en) * 2004-03-08 2011-10-05 株式会社リコー Image processing apparatus, image processing system, image processing method, and image processing program
JP3930502B2 (en) 2004-03-29 2007-06-13 沖電気工業株式会社 Quality adjustment system and watermark quality inspection device
JP2006157831A (en) * 2004-12-01 2006-06-15 Oki Electric Ind Co Ltd Tampering detector, watermarked image outputting device, watermarked image inputting device, watermarked image output method, and watermarked image input method
JP4831461B2 (en) * 2005-03-15 2011-12-07 富士ゼロックス株式会社 Document processing apparatus and method
JP4552754B2 (en) 2005-05-18 2010-09-29 コニカミノルタビジネステクノロジーズ株式会社 Information embedding device, method, program, and recording medium, and information detecting device, method, program, and computer-readable recording medium
JP4490335B2 (en) * 2005-06-10 2010-06-23 株式会社リコー Pattern superimposing apparatus, pattern superimposing method, pattern superimposing program, and recording medium on which pattern superimposing program is recorded
JP4290681B2 (en) 2005-06-30 2009-07-08 シャープ株式会社 Image processing apparatus, image processing method, image processing program, machine-readable recording medium recording image processing program, and printed matter
AU2005209707B2 (en) 2005-09-13 2008-08-14 Canon Kabushiki Kaisha Adaptive mark placement
JP2007125746A (en) 2005-11-02 2007-05-24 Oki Electric Ind Co Ltd Printer and printing method
US20070115510A1 (en) 2005-11-18 2007-05-24 International Business Machines Corporation Marking images of text with speckle patterns for theft deterrence
JP4819723B2 (en) 2006-03-16 2011-11-24 株式会社リコー Information extraction apparatus, information extraction method, information extraction program, and recording medium
JP4829715B2 (en) 2006-08-09 2011-12-07 キヤノン株式会社 Image processing apparatus, image processing method, image processing program, and storage medium
WO2008035401A1 (en) 2006-09-19 2008-03-27 Fujitsu Limited Electronic watermark embedding device and detection device
JP2008083941A (en) * 2006-09-27 2008-04-10 Fuji Xerox Co Ltd Information embedding device, information embedding program, inforamtion embedding system, information reader, infomration reading program and infomation reading system
JP4812591B2 (en) 2006-10-24 2011-11-09 株式会社リコー Information processing apparatus, information processing method, program, and recording medium
JP2008109510A (en) * 2006-10-26 2008-05-08 Kyocera Mita Corp Apparatus and method for transmitting image
JP4280768B2 (en) * 2006-12-20 2009-06-17 キヤノン株式会社 Image forming apparatus, image forming method, program, and storage medium
JP4975459B2 (en) 2007-01-30 2012-07-11 株式会社沖データ Copy management system, output device, copy device, and computer program
JP5014832B2 (en) * 2007-02-27 2012-08-29 株式会社沖データ Image processing apparatus, image processing method, and computer program
US8886567B2 (en) 2007-12-06 2014-11-11 Kyocera Mita Corporation Image processing apparatus, image forming apparatus, and computer-readable recording medium storing image processing program
JP4539733B2 (en) 2008-02-28 2010-09-08 富士ゼロックス株式会社 Image processing apparatus and image processing program
JP2009260728A (en) 2008-04-17 2009-11-05 Kyocera Mita Corp Image processing apparatus and motion control program
JP5586705B2 (en) 2012-07-05 2014-09-10 株式会社東芝 Apparatus and method for embedding data in object, and apparatus and method for extracting embedded data
JP7142256B2 (en) * 2018-11-19 2022-09-27 河村 尚登 Digital watermarking device and method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2007049333A1 (en) * 2005-10-25 2009-04-30 富士通株式会社 Background pattern image generation method
US8009860B2 (en) 2005-11-22 2011-08-30 Ricoh Company, Ltd. Image processing apparatus, method, program and recording medium for extracting embedded information
US7616837B2 (en) 2005-11-24 2009-11-10 Canon Kabushiki Kaisha Image processing apparatus, image processing method, program, and storage medium
US7920715B2 (en) 2006-02-07 2011-04-05 Oki Data Corporation Apparatus and method for embedding electronic watermark
US8160294B2 (en) 2006-09-28 2012-04-17 Fujitsu Limited Electronic watermark embedment apparatus and electronic watermark detection apparatus
US8588460B2 (en) 2007-08-31 2013-11-19 Fujitsu Limited Electronic watermark embedding device, electronic watermark detecting device, and programs therefor

Also Published As

Publication number Publication date
JP2003101762A (en) 2003-04-04

Similar Documents

Publication Publication Date Title
JP3628312B2 (en) Watermark information embedding device and watermark information detection device
JP4277800B2 (en) Watermark information detection method
JP3964684B2 (en) Digital watermark embedding device, digital watermark detection device, digital watermark embedding method, and digital watermark detection method
JP4603079B2 (en) Method and device for embedding a digital watermark in a text document and for detecting the digital watermark
US7039215B2 (en) Watermark information embedment device and watermark information detection device
JP4400565B2 (en) Watermark information embedding device and watermark information detection device
US20040052401A1 (en) Watermark information embedding device and watermark information detection device
WO2005094058A1 (en) Printing medium quality adjusting system, examining watermark medium output device, watermark quality examining device, adjusted watermark medium output device, printing medium quality adjusting method, and examining watermark medium
KR20070052332A (en) Image processing method and image processing device
JP2005150815A (en) Watermark information embedding apparatus and method, watermark information detecting apparatus and method, and printed matter
JP3980983B2 (en) Watermark information embedding method, watermark information detecting method, watermark information embedding device, and watermark information detecting device
JP2007088693A (en) Image processing system, tampering verification apparatus, tampering verification method, and computer program
JP4192887B2 (en) Tamper detection device, watermarked image output device, watermarked image input device, watermarked image output method, and watermarked image input method
JP4232676B2 (en) Information detection apparatus, image processing system, and information detection method
JP4096902B2 (en) Watermark information detection apparatus and watermark information detection method
JP4096803B2 (en) Image processing apparatus, image processing method, image processing program, and recording medium
JP4192906B2 (en) Watermark information detection apparatus and watermark information detection method
WO2006059681A1 (en) False alteration detector, watermarked image output device, watermarked image input device, watermarked image output method, and watermarked image input method

Legal Events

Date Code Title Description
A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20040428

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20040510

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040629

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040830

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20041130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20041207

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 3628312

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081217

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091217

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091217

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101217

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101217

Year of fee payment: 6

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101217

Year of fee payment: 6

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101217

Year of fee payment: 6

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101217

Year of fee payment: 6

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101217

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111217

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111217

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121217

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131217

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees