JP4038956B2 - Image generation system and image generation method - Google Patents

Image generation system and image generation method Download PDF

Info

Publication number
JP4038956B2
JP4038956B2 JP2000082513A JP2000082513A JP4038956B2 JP 4038956 B2 JP4038956 B2 JP 4038956B2 JP 2000082513 A JP2000082513 A JP 2000082513A JP 2000082513 A JP2000082513 A JP 2000082513A JP 4038956 B2 JP4038956 B2 JP 4038956B2
Authority
JP
Japan
Prior art keywords
image
share
pattern
embedded image
embedded
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000082513A
Other languages
Japanese (ja)
Other versions
JP2001274971A (en
Inventor
三紀郎 河原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toppan Inc
Original Assignee
Toppan Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toppan Inc filed Critical Toppan Inc
Priority to JP2000082513A priority Critical patent/JP4038956B2/en
Publication of JP2001274971A publication Critical patent/JP2001274971A/en
Application granted granted Critical
Publication of JP4038956B2 publication Critical patent/JP4038956B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、記録したい情報を含む画像を隠蔽する技術に関し、特に、その画像を分散することにより隠蔽することに好適に利用できるものである。
尚、本明細書では、記録したい情報を含む画像を「埋め込み画像」と呼び、情報が埋め込まれる画像を「被埋め込み画像」と呼び、「埋め込み画像」を分散した複数の画像を「シェアパターン」と呼び、「シェアパターン」を「被埋め込み画像」に埋め込んだ画像を「シェア画像」と呼び、「シェア画像」に基づいて得られた記録物を「シェア」と呼ぶことにする。さらに、「シェアパターン」の集まりを「シェアパターン群」と呼び、「シェア画像」の集まりを「シェア画像群」と呼び、「シェア」の集まりを「シェア群」と呼ぶ。また、埋め込み画像を人間に見えるようにする操作を「再生する」と表現するものとする。
【0002】
【従来の技術】
従来、情報を表現する画像を隠蔽する技術を、それを記載した文献を挙げて、以下に説明する。
【0003】
(1)加藤拓、今井秀樹:「視覚復号型秘密分散法の拡張構成方式」:電子情報通信学会論文誌A Vol.J79−A No.8 pp.1344−1351
この技術は、複数枚の白黒のランダムな画像を形成し、これらを重ねると有意な画像が再生されるというものである。2枚の画像だけでなく、3枚以上の画像を組み合わせて秘密を分散することが可能な手法である。複数の画像に秘密を分散すると、複数の画像の内1枚だけを入手しても、他の画像についての情報を一切知ることは不可能である。よって、複数枚を同時に入手することができるものだけが情報を再生できることになり、安全に秘密を分散保存することが可能となる。
【0004】
(2)特開平9−248935号公報
この技術は、ある主たる画像に別な付加的な画像を重畳して記録し、その画像とパターン画像を重ねることにより、付加的な画像が再生されるというものである。カラー画像中に、人間には知覚されにくい形で情報を記録できることを特徴にもつ。
【0005】
(3)松井甲子雄:「デジタル透かし」:画像電子学会誌第26巻第3号(1997)
この技術は、デジタルデータにデジタル透かしを入れて記録し、所定の復号処理を行なうことによって、デジタル透かしを読み取るというものである。特に静止画像にデジタル透かしを入れる方法としては、「画素空間利用型」、「周波数領域利用型」、「統計量利用型」などの方法が知られている。
【0006】
【発明が解決しようとする課題】
(1)の技術では、白黒のランダムな模様だけで構成されており、有意な画像を別の画像に重畳して記録/再生することができなかった。例えば、文字が描かれた有意な画像を、別の風景画などに重畳することが出来なかった。その為、表現力や見栄えがよくないなどの問題があった。
【0007】
(2)の技術は主たる画像を主に自然画像など冗長度の高いものを利用することを前提としており、小さな画像を並べたパターン画像など冗長度の低い画像に適応するのは難しかった。また、この技術は2枚の対となる画像を利用することのみを前提としており、3枚以上の画像を組み合わせて複雑な再生を可能にすることはできなかった。
【0008】
また、(1)と(2)の技術ともコピー機でコピーするとオリジナルのものとと同じ効果を得ることができてしまっていた。その他共通の課題として、記録する媒体としては、透明であることが必要であり、適応する媒体が限られていたことなどがある。
【0009】
(1)や(2)の技術とも、復号を簡便に行なえるという大きな特徴を有しながら、表現が乏しいことや適応媒体が限られることなどから、実際に商用利用されることがなかった。
【0010】
(3)の技術では、デジタルデータを対象としており、符号化/復号化ともコンピューターなどの演算装置が必要であり、簡単に情報を復号化することが不可能であった。また、演算装置が必要なことから、低コストにすることが困難であった。
【0011】
本発明は係る従来技術の欠点を解消し、様々な情報を複数に分散して記録し、かつ容易に再生できるようにすることを課題とする。
【0012】
【課題を解決するための手段】
本発明において上記の課題を達成するために、まず請求項1の発明では、埋め込み画像及びカラーのパターン画像である被埋め込み画像を画像データとして入力する手段と、埋め込み画像の各画素に1つ又は複数の補助画素を対応させることで、埋め込み画像を分散させたシェアパターンを生成する手段と、被埋め込み画像の画素を、シェアパターンの対応する1つ又は複数の補助画素に基づいて移動させることで、シェアパターンを被埋め込み画像に埋め込みシェア画像を生成する手段と、を具備することを特徴とする画像生成システムとしたものである。
0013
また請求項の発明では、請求項1記載の画像生成システムであって、付加情報を被埋め込み画像に埋め込む手段を具備することを特徴とする画像生成システムとしたものである。
0014
また請求項の発明では、埋め込み画像及びカラーのパターン画像である被埋め込み画像を画像データとして入力する工程と、埋め込み画像の各画素に1つ又は複数の補助画素を対応させることで、埋め込み画像を分散させたシェアパターンを生成する工程と、被埋め込み画像の画素を、シェアパターンの対応する1つ又は複数の補助画素に基づいて移動させることで、シェアパターンを被埋め込み画像に埋め込みシェア画像を生成する工程と、を含むことを特徴とする画像生成方法としたものである。
0015
また請求項の発明では、請求項3記載の画像生成方法であって、付加情報を被埋め込み画像に埋め込む工程を具備することを特徴とする画像生成方法としたものである。
0018
【発明の実施の形態】
(全体で共通の実施形態)
まず、画像生成システム、画像生成方法、記録物に係わる全体で共通の実施形態を説明する。
0019
図1に、本実施形態に係る画像生成システムの物理的な構成を示す。この画像生成システムはCPU101、画像メモリ102、画像入力部103、プログラムメモリ104、および画像記録部105よりなり、これらはすべてバス106により接続されている。CPU101、画像メモリ102、画像入力部103およびプログラムメモリ104によって画像処理部107が構成される。
0020
この画像生成システムの動作を簡単に説明すると、まず画像入力部103を通して埋め込み画像および被埋め込み画像を画像メモリ102の所定の領域にそれぞれ書き込む。そして、以下に示すアルゴリズムに基づき、これらの画像に計算処理を施してシェア画像を作成し、このシェア画像を画像記録部105で記録媒体に記録するか印刷などの形で記録することによりシェアを出力する。
0021
これらの一連の処理は、全てプログラムメモリ104内に格納されたプログラムに従ってCPUにより行われる。なお、処理には専用の装置を用いてもよいが、パーソナルコンピュータなどの汎用の計算機を用いてもよい。この場合、画像メモリ102とプログラムメモリ104は同一のメモリを領域を分けて利用するのが一般的である。
0022
これらの処理の流れの模式図を図19に示す。図19で、埋め込み画像はまずシェアパターンに分解され、被埋め込み画像にシェアパターンを重畳することでシェア画像が生成される。そして、シェア画像を記録物として出力することでシェアが生成される。
0023
次に、本システムの入力画像である埋め込み画像および被埋め込み画像の構成と、画像処理の内容や意味について詳細に説明する。
0024
入力画像は通常、計算機での表現に用いられるのと同様に、直交座標系の各格子点上で濃度の定義されたディジタル情報として表現される。ここでは、直交座標系の2軸をx軸、y軸とし、便宜上それぞれ横、縦と表現する。
0025
本実施形態では、基本的には、埋め込み画像としてグレイスケール画像やモノクロ2値画像を用いるが、カラー画像であっても構わない。画素(x,y)の濃度値をP(x,y)と表す。モノクロ2値画像の場合、黒い画素はP(x,y)=1で白い画素はP(x,y)=0となる。シェアパターンには、図2のように埋め込み画像の一画素に対して、補助画素が一個あるいは複数個存在している。
図2の例では、1画素に対して4つの補助画素が対応している。この補助画素はモノクロ2値画像であり、埋め込み画像P(x,y)に対応する補助画素をQ(x,y,r)と表す。ここで、rは補助画素番号で1以上の整数である。また、被埋め込み画像には、カラー画像やグレイスケール画像を用いる。
0026
しかしながら、本実施形態では、より一般的に、2値画像や、濃淡画像に拡張できる。2値画像とは、モノクロ2値画像における黒と白のペアを、例えば青と白、赤と白、青と黄色などの2色の組合わせに変えてもよいことを意味する。この場合、上のP(x,y)は、P(x,y)=1のときは第1の色の画素を意味し、P(x,y)=0のときは第2の色の画素を意味することになる。例えば、青と黄色のペアを用いるときは、P(x,y)=1は青の画素を意味し、P(x,y)=0は黄色の画素を意味する。
0027
同様に、濃淡画像では、P(x,y)で画素(x,y)における第1の色の濃度値を表現し、1−P(x,y)で画素(x,y)における第2の色の濃度値を表現する。例えば、白と黒のペアの代わりに、青と黄色のペアを用いるときは、
P(x,y)は画素(x,y)における青の濃度値を表現し、1−P(x,y)は画素(x,y)における黄色の濃度値を表現する。
この濃淡画像は、グレイスケール画像の素直な拡張になっている。なぜならば、グレイスケール画像では、P(x,y)は画素(x,y)における黒の濃度値を表現すると考えることができ、他方1−P(x,y)は画素(x、y)における白の濃度値を表現すると考えられるからである。
0028
2値画像や、濃淡画像を用いる場合、補助画素は2色からなる2値画像になる。例えば、青と黄色のペアを用いる2色からなる2値画像又は2色からなる濃淡画像の場合、補助画素も青と黄色のペアからなる2値画像になる。
0029
以下本明細書では簡便のために、主にモノクロ2値画像又はグレイスケール画像を用いる場合に記述するが、より一般に、モノクロ2値画像は2値画像に、グレイスケール画像は濃淡画像に拡張できる。
0030
次に、本実施形態における画像処理のアルゴリズムを、図3のフローチャートに従って説明する。
0031
第1ステップ(S1);埋め込み画像と被埋め込み画像の入力
まず、埋め込み画像と被埋め込み画像をデジタルデータとして入力する。画像が既にデジタルデータとなっている場合は、そのまま適当な画像フォーマットに変換する。画像が、ハードコピーや銀塩写真などの場合は、デジタルスキャナーで読み取りデジタルデータとして入力する。
0032
第2ステップ(S2);シェアパターンの生成
次に、埋め込み画像をもとに、例えば視覚復号型秘密分散法を用いて、シェアパターンを生成する。シェアパターンの組み合わせによって、埋め込み画像を再生することが可能である。また、シェアパターンのペアーの組換えで、埋め込み画像を複数枚にすることも可能である。シェアパターンの生成では、まず乱数を発生させる。乱数の発生手段としては、M系列などの疑似乱数を用いる。そして、その乱数に従ってシェアパターンの組み合わせの選択を行なう。組み合わせの選択方法は、各実施形態によって異なるので、各実施形態の説明で述べる。
0033
第3ステップ(S2);画像の重畳処理
次に、被埋め込み画像に、シェアパターンを埋め込み、最終的なシェア画像を生成する。この重畳処理は各実施形態によって異なり、各実施形態の説明で述べる。
0034
第4ステップ(S3);シェア画像の補正処理
次に、第4ステップでは、RGBの色成分で表現されたシェア画像を、画像記録部でYMCKの4色のインク量として印刷するために用いるインク量信号に変換する。この変換は、従来より色変換技術として広く知られている。なお、最初からYMCKベースで処理を行えば、第4ステップの処理は省くことができる。
また、シェア画像をインク量信号ではなく、媒体に穴をあけるなどして記録する場合には、この処理は不要である。
0035
以上の説明では、一連のシェア画像生成処理をソフトウエア処理で実現したが、ハードウエアで実現することも可能である。図4は、前述した一連のシェア画像生成をハードウエアで実現する画像生成システムの構成である。
0036
埋め込み画像と被埋め込み画像を格納する2つの画像メモリ、シェアパターンを生成するシェアパターン発生部、画像を重畳する画像重畳部、シェア画像の補正処理を行なう補正処理部、画像を記録する画像記録部が組み合わされて画像生成システムが構成される。
0037
まず、埋め込み画像はデジタルデータ化され画像メモリ1に格納される。同様に、被埋め込み画像もデジタルデータ化され画像メモリ2に格納される。次に、シェアパターン発生部において、乱数が発生され、画像メモリ1から入力される
埋め込み画像データをもとに乱数に従ってシェアパターンを生成する。シェアパターンの生成方法は、各実施形態によって異なり、各実施形態の詳細説明において述べる。画像重畳部では、画像メモリ2から被埋め込み画像が、シェアパターン発生部からシェアパターンが入力され、これらの画像を重畳してシェア画像が生成される。そして、次に画像補正部にシェア画像が流れ、RGBデータはYMCKのデータに変換される。最後に、シェア画像は画像記録部において媒体にハードコピーなどの形態で記録されることによりシェアを出力する。
0038
このようにハードウエアによっても、容易に前記の画像処理を実現することが可能である。ハードウエアを用いると、高速に画像処理を行なうことが可能であり、特に大量のシェアを発生する必要がある場合などに有効である。
0039
次に、上述のようにシェア画像を媒体に記録したシェアから、埋め込み画像を再生する再生装置について、具体的に説明する。
0040
図5は、再生装置の一構成例を示した図である。シェアを再生装置に装填して固定する。これにより、シェア同士が所定の位置関係に固定される。この固定されたシェアを観察することにより、シェアから埋め込み画像が合成され認識することができる。また、電球などの光源を再生装置の下部に配置することで、再生をより鮮明にすることが可能である。なお、再生装置は図5に示したような構成に限らず、シェアの位置関係を固定できればどのような構造でもよい。
0041
次に、再生装置によって埋め込み画像が再生される原理を簡単な例をとって説明する。例として、埋め込み画像としてモノクロ2値画像を、被埋め込み画像として無地の画像を利用する場合を述べる。
0042
再生時に記録されたシェア画像を重ね合わせると、被埋め込み画像中に埋め込み画像が重なった形で視覚的に見える。この例の場合、生成されたシェア画像もモノクロ2値画像になる。そして、各画素のシェア同士の重なり具合によって、図6のように人間の目にはその画素が白く見えたり黒く見たりする。よって、埋め込み画像の黒い画素については、再生時に黒く見えるようにシェアパターンを構成し、埋め込み画像の白い画素については、再生時に白く見えるようにシェアパターンを構成することによって、埋め込み画像を人間の目で再生することが可能になる。この時に、人間の目に容易に黒い部分と白い部分を区別できるように、2つの部分のコントラスト比を十分大きくとることが重要になる。なお、この例で黒と白のペアで説明したが、他の色の組み合わせ、例えば青と白、赤と白、青と黄色などの組み合わせでも同様の効果をえることが可能である。以降でも、基本的に黒と白のペアで説明するが、他の色の組み合わせも可能である。
0043
その他、再生をしやすくする工夫として、媒体に図7に示すような位置合わせの為の目印を付加しておくことで、再生時の位置合わせを容易にすることや、シェアの片面に弱い粘着材を塗布しておくことで、いったん重ね合わせた後、簡単に位置がずれないようにすること、などが考えられる。
また、図8に示すように、従来画素同士を連結して配置していたものを、画素を離して配置することにより、手ぶれなどによる影響を受けにくくする工夫も、再生をしやすくするものとして有効である。
0044
次から、各実施形態に応じて具体的な処理を示す。
0045
(第1の実施形態)
まず、第1の実施形態を説明する。本実施形態では、埋め込み画像としてグレイスケール画像を用いる。そして、被埋め込み画像には、カラー画像を用いる。本実施形態では、被埋め込み画像としてカラー画像を用いるので、図6の例において、再生時に、図6の黒い部分に色がつき、白い部分は無色、あるいは同一の色がつくことになる。視覚的には、無色あるいは同一の色の部分が他の部分の区別されて認識され、埋め込み画像を認識することが可能となる。
0046
次に、本実施形態における画像処理のアルゴリズムについて、図3のフローチャートに沿って詳細に説明する。
0047
第1ステップ(S1);(埋め込み画像と被埋め込み画像の入力)
埋め込み画像と被埋め込み画像をデジタルデータとして入力する。本実施形態では、埋め込み画像はグレイスケール画像として、被埋め込み画像としてカラー画像として入力する。埋め込み画像は、入力されると同時に、補助画素に分解される。一般に、階調が細かくなるに従って補助画素の画素数が増える。階調数を多くすることにより、より滑らかな画像を表現することが可能であるが、補助画素数が増えることにより補助画素の大きさが小さくなり、再生時の位置合わせが困難になる。よって、階調数を画像の質を落とさない程度に少なくし、補助画素の大きさとバランスをとることが重要になる。階調の調整法としては、「誤差拡散法」などの方法が知られている。
0048
第2ステップ(S2);シェアパターンの生成
次に、階調補正された埋め込み画像をもとに、例えば視覚復号型秘密分散法を用いて、シェアパターンを生成する。シェアパターンの組み合わせによって、埋め込み画像を再生することが可能になる。また、シェアパターンのペアーの組換えで、埋め込み画像を複数枚にすることも可能である。シェアパターンの生成では、まず乱数を発生させる。そして、その乱数に従ってシェアパターンの組み合わせの選択を行なう。これ以降、シェアパターンの組み合わせのことを「セット」と呼ぶことにする。図9の例のように、シェアパターンの組み合わせが4セットある場合は、1から4の乱数を発生させ、発生させた乱数に従ってセットを選択する。図9のように、2つのパターンが1セットの中に含まれていれば、埋め込み画像は2枚のシェアパターンに分散されることになる。セットの選択は、対応する埋め込み画像の画素が白の場合は、白のセットから選択し、画素が黒の場合は黒のセットから選択する。これを各画素について行ない、画面全体についてシェアパターンを生成する。本実施形態においては、埋め込み画像は階調補正されたグレイスケール画像であり、階調数に応じて補助画素数が決定される。図9の
例は、白と黒で、階調数が2の場合であり、階調数が増えるにしたがって、セット数も増加する。このステップにおいて、埋め込み画像は複数のシェアパターンに分散される。
0049
第3ステップ(S3);画像の重畳処理
次に、画像の重畳処理においては、被埋め込み画像にシェアパターンを埋め込み、最終的なシェア画像を生成する。埋め込みは、シェアパターンの各補助画素の黒い部分に対応する被埋め込み画像の画素を残し、シェアパターンの各補助画素の白い部分に対応する画素を削除して透明にすることで行われる。この時に、埋め込み画像がより残るようにすると、最終的なシェアの見栄えがよくなる。その為、第2ステップにおいてパターンをなるべく黒い部分が多くなるようにシェアパターンを工夫すると見栄えがよくなる。また、シェアパターンの白い部分に対応する画素の代わりに、ある特定の色を塗ると、シェアの見栄えが多少損なわれる代わりに埋め込み画像はより鮮明に再生される。
0050
第4ステップ(S4);シェア画像の補正処理
次に、第4ステップでは、RGBの色成分で表現されたシェア画像を、画像記録部でYMCKの4色のインク量に変換する。
0051
以上が、本実施形態における一連の画像処理であり、この処理の後、画像記録部でインク量信号に応じてシェア画像をハードコピーなどの記録物として記録することによりシェアを出力する。
0052
再生は、図5の再生装置を利用したり、人の手で各シェアを合わせることにより行われる。
【0053】
(第2の実施形態)
次に、請求項1の画像生成システム、及び請求項3の画像生成方法に係わる第2の実施形態を説明する。本実施形態では、被埋め込み画像として小さな画像や文字を並べたパターン画像を利用する。
0054
本実施形態では、埋め込み画像として、モノクロ2値画像を利用し、被埋め込み画像として、小さな画像や文字を並べたパターン画像を利用する。パターン画像は、画像の冗長度が低いため第1の実施形態の方法では埋め込み画像を鮮明に再現することが難しかった。これ以降、小さな画像や文字のことを小パターンと呼ぶことにする。
0055
本実施形態で記録されたシェア画像の性質について説明する。生成されたシェア画像は小さな画像や文字を並べたパターン画像であり、シェア同士の各小パターンの重なり具合によって、図10のロゴの場合のように人間の目には違って観察される。小パターンがぴったりと合わさった場合には、その部分は白っぽく見え、小パターンがずれて合わさった場合には、その部分は黒っぽくみえる。埋め
込み画像の白い部分をパターンがぴったりとあるように、黒い部分をパターンがずれるように構成することで、埋め込み画像を観測できる。
0056
次に、本実施形態における画像処理のアルゴリズムを、図3のフローチャートに従って詳細に説明する。
0057
第1ステップ(S1);埋め込み画像と被埋め込み画像の入力
埋め込み画像と被埋め込み画像をデジタルデータとして入力する。本実施形態においては、埋め込み画像はモノクロ2値画像として入力され、被埋め込み画像として実際には小パターンがカラー画像として入力される。被埋め込み画像は、この小パターンを縦横に並べたものして解釈される。
0058
第2ステップ(S2);シェアパターンの生成
第1の実施形態と同様に、埋め込み画像をもとに、シェアパターンを生成する。図10のロゴの場合の例では、補助画素数は埋め込み画像の各画素に対して1つであり、シェアパターンはロゴが右寄りか左寄りの2種類で表現される。よって、シェアパターンは右寄りを表す黒と、左寄りを表す白の2値で表現される。勿論、ロゴが上左寄り、上右寄り、下左寄り、下右寄りの4種類用意し、それに合わせて補助画素数を2つにすることも可能である。
0059
第3ステップ(S3);画像の重畳処理
次に、シェアパターンに合わせて小パターンを配置して、最終的なシェア画像を生成する。すなわち、シェアパターンの組み合わせがNセットある場合、シェアパターンに従ってNセットの内の1セットの組み合わせをそれぞれのシェアに書き込む。これを各画素に対して行ない、全画像画面に対して処理してシェア画像を生成する。図10のロゴの場合、シェアパターンは右寄りを表す黒と、左寄りを表す白の2セットである。シェアパターンが黒の部分には小パターンを右寄りに配置し、シェアパターンが白の部分には小パターンを左寄りに配置する。
0060
第4ステップ(S4);シェア画像の補正処理
第1の実施形態と同様に、RGBデータをYMCKのインク量に変換する。
0061
以上が、本実施形態における一連の画像処理であり、この処理の後、第1の実施形態と同様に画像記録部でシェア画像をハードコピーなどの記録物として記録することによりシェアを出力する。
0062
再生方法は、第1の実施形態と同様にして行われる。
0063
(第3の実施形態)
次に、第3の実施形態を説明する。本実施形態では、シェア画像をハードコピーとして記録する代わりに、媒体に穴をあける。
0064
本実施形態では、埋め込み画像として、モノクロ2値画像を利用し、被埋め込み画像は用いない。ただし、穴をあける媒体上に任意の画像を印刷することで、見栄えをよくすることが可能である。また、埋め込み画像としてグレイスケール画像も利用することが可能であるが、補助画素数が増えることより、補助画素の大きさが小さくなり、穴をあけたときの強度を保つことが難しくなったり、再生時にシェアを合わせるのが難しくなるなどの問題が出てくる。前述までの実施形態では、媒体として主に透明なシートが利用されていたが、本実施形態の場合、不透明なものを利用することが可能である。
0065
本実施形態でシェアパターンから生成記録されたシェアは、パターンにそって穴があけられている。シェア同士の各パターンの穴の重なり具合によって、人間の目に模様が観察される。パターンがぴったりと合わさった場合には、その部分は穴があいて見え、パターンがずれて合わさった場合には、その部分は穴がふさがった状態で見える。埋め込み画像の白い部分をパターンがぴったりとあうように、黒い部分をパターンがずれるように構成することで、埋め込み画像を観測できる。
0066
次に、本実施形態における画像処理のアルゴリズムについて図11のフローチャートに沿って詳細に説明する。
0067
第1ステップ(S1);埋め込み画像の入力
埋め込み画像を読み込む。埋め込み画像は、モノクロ2値画像として入力する。被埋め込み画像は、本実施形態では利用しない。
0068
第2ステップ(S2);シェアパターンの生成
第1の実施形態と同様に、埋め込み画像をもとに、例えば視覚復号型秘密分散法を用いて、シェアパターンを生成する。
0069
本実施形態においては、第3ステップ(画像の重畳処理)と第4ステップ(シェア画像の補正処理)は不要である。
0070
以上が、本実施形態における一連の画像処理であり、この処理の後、画像記録部でシェアパターンに従って媒体に穴をあけ記録することでシェアを出力する。
0071
次に、媒体に穴をあける方法を説明する。シェアパターンの黒あるいは白のパターンのどちらかを選択し、そのパターン部分に適当な大きさの穴をあける。図12の穴をあけた媒体1に示すように、穴をあけるときに枠を持たせて穴をあける。これは、枠を設けないで、パターンの画素の大きさ一杯に穴をあけると、図12の穴をあけた媒体2にあるようなパターンの場合、真ん中の黒い画素が抜け落ちてしまうからである。また、図12の穴をあけた媒体3に示すように角の部分を残すようにすると枠の強度を十分に保つことができる。媒体に穴をあける装置は、パンチャーで穴をあけたり、エッチング技術を利用することで細かな穴を生成することも可能である。
0072
本実施形態においても、第1の実施形態と同様な方法で埋め込み情報の再生を行う。
0073
従来は、媒体へのハードコピーによる手法だけであったが、本実施形態により、不透明な媒体にも適応することが可能になり、応用範囲を広げることが可能になった。
【0074】
(第4の実施形態)
次に、請求項2の画像システム、及び請求項4の画像生成方法に係わる第4の実施形態について説明する。この方法は、シェアパターンの中に埋め込み画像に関する情報以外に、任意のデジタル情報を埋め込むことを可能にするものである。これ以降、埋め込み画像に関する情報とは別に埋め込むデジタル情報を「付加情報」と呼ぶことにする。
0075
本実施形態は、大きく2種類に分類できる。白黒の2次元コードとして付加情報を埋め込むものと、デジタル透かしとして付加情報を埋め込むものの2つである。2次元コードとして付加情報を埋め込む場合は更に、冗長なシェアパターンを利用するものと、補助画素を更に分割して2次元コードを埋め込むものの2種類がある。
0076
(4−a付加情報を2次元コードとして埋め込む場合)
付加情報を白黒の2次元コードとして埋め込む場合、埋め込み画像としてモノクロ2値画像を利用し、被埋め込み画像は用いない。この場合に、埋め込み画像にモノクロ2値画像ではなく任意の画像を利用することもできるが、装置による付加情報の再生が難しくなる。
0077
まず、冗長なシェアパターンを利用する場合における画像処理のアルゴリズムを図13のフローチャートに沿って詳細に説明する。
0078
第1ステップ(S1);埋め込み画像の入力
埋め込み画像を入力する。埋め込み画像を読み込む。埋め込み画像は、モノクロ2値画像として入力する。被埋め込み画像は、本実施形態では利用しない。一方、付加情報についてはデジタル化し、画像とは別にメモリに記録しておく。
0079
第2ステップ(S2);シェアパターンの生成及び画像の重畳処理
冗長なシェアパターンを利用する場合、シェアパターンの生成と画像の重畳処理とは同時に行なわれる。すなわち、シェアパターンがそのまま最終的なシェア画像となる。視覚復号型秘密分散法を用いるシェアパターンの生成は、付加情報の前処理と、セットの選択の2段階で行われる。ただし、冗長なシェアパターンを利用する場合、セットが2種類あり、それぞれ「セット」と「小セット」と呼ぶことにする。図14は、セット数が3、小セット数が2の場合の例である。第1の実施形態などでは、本実施形態のセットの内1セットだけを利用して構成していたが、本実施形態では、セット数を冗長に3つ用意することで付加情報を埋め込むことが可能となっている。まず、付加情報の前処理では、シェアパターンの冗長度に合わせて情報を変換を行なう。図14の例では、セット数が3であり、1画素につき3種類を区別することができる。デジタル情報は一般に基数が2で記録されているが、この場合には付加情報を基数が3のデータに変換する。次に、乱数による小セットの選択と同時に付加情報との重畳を行なう。前処理された付加情報から選択するセット番号を取得し、乱数を発生させることでセット内の小セットの選択を行う。これによって、各画素のシェアパターンは一意に決定される。この各画素に対する一連の処理を全画素について行なう。
0080
本実施形態においては、シェア画像はモノクロ2値画像であり、第1の実施形態の第4ステップ(シェア画像の補正処理)のような画像変換処理は不要である。
0081
以上が、本実施形態における一連の画像処理であり、この処理の後、第1の実施形態と同様に画像記録部でシェア画像をハードコピーなどの記録物として記録することによりシェアを出力する。
0082
次に、補助画素を更に分割する場合の画像処理のアルゴリズムを、図15のフローチャートに従ってに説明する。冗長なシェアパターンを利用する場合との違いは、第2ステップと第3ステップにある。
0083
第1ステップ(S1);埋め込み画像の入力
冗長なシェアパターンを利用する場合と同様に、埋め込み画像をモノクロ2値画像として入力し、被埋め込み画像は利用しない。
0084
第2ステップ(S2);シェアパターンの生成
次に、埋め込み画像をもとに、視覚復号型秘密分散法を用いて、シェアパターンを生成する。第1の実施形態と同様に乱数を発生させてセットの選択を行なう。冗長なシェアパターンを利用する場合と異なり、セットと小セットを分けることなくシェアパターンを生成する。そして、シェアパターンの生成とは別に、付加情報を2次元コードとして、情報を白と黒の2次元のパターンにする。そして、この2次元のパターンをシェアパターンの黒い補助画素数に分割する。
【0085
第3ステップ(S3);画像の重畳処理
次に、第3ステップの(画像の重畳処理)において、第2ステップで生成されたシェアパターンと、シェアパターンとは別に生成された付加情報の2次元パターンを重畳して最終的なシェア画像を生成する。具体的には、第2ステップにおいてシェアパターンの黒い補助画素数に分割された2次元パターンを、シェアパターンの補助画素の黒い部分に埋め込むことでシェア画像が生成される。図16は、各補助画素の黒い部分に付加情報が追加されている様子を表している。
0086
補助画素を更に分割する場合も、第1の実施形態の第4ステップ(シェア画像の補正処理)にような画像変換処理は不要であり、一連の画像処理の後、第1の実施形態と同様に画像記録部でシェア画像をハードコピーなどの記録物として記録するによりシェアを出力する。
0087
(4−b付加情報をデジタル透かしとして埋め込む場合)
付加情報をデジタル透かしとして埋め込む場合、埋め込み画像としてグレイスケール画像を用い、被埋め込み画像にはカラー画像を用いる。
0088
本実施形態における画像処理のアルゴリズムは、基本的に第1の実施形態や第2の実施形態で述べた方法と同じであるが、被埋め込み画像の入力時に、同時にデジタル透かしを被埋め込み画像に埋め込む点が異なっている。
0089
デジタル透かしを入れる方法としては、「画素空間利用型」、「周波数領域利用型」、「統計量利用型」などの方法が知られており、文献(3)に述べられている。
0090
記録された情報の再生は、付加情報を2次元コードとして埋め込む場合も、デジタル透かしとして埋め込む場合も同じである。再生は、第1の実施形態と同様に人の目で再生する部分と、再生装置を利用する付加情報の再生部分に分けられる。人間の目での再生は、シェア同士の重ねあわせることで実行され、付加情報の再生は、再生装置を利用して行われる。
0091
付加情報の再生装置は、図17に示すように、シェアを読み取る画像入力部、入力した結果を処理する画像処理部、処理した結果を表示する結果出力部からなる。
0092
画像入力部は、バーコードスキャナーやフラットベット型スキャナーやドラム型スキャナーなどが利用できる。バーコードスキャナーを利用すると、手軽に入力することが可能であり、比較的安価に再生装置を構成することが可能である。画像処理部では、入力した画像を、シェアパターンと対応する情報との対応をとり、付加情報を復号する。そして、結果出力部では、ディスプレイによる表示や、プリンターによる印字などで結果を出力する。
0093
従来は、人の目で再生することが可能な情報の埋め込み方法と、デジタル透かしなど装置を利用する情報の埋め込み方法を融合することはできていなかったが、本実施形態では、両者の長所をうまく融合することが可能となっている。
0094
(第5の実施形態)
次に、第5の実施形態について説明する。今までの実施形態では、シェア同士の色の重なり具合によって埋め込み画像の再生をしていたが、本実施形態では色の重なりではなく網点の重なり具合によって埋め込み画像を再生するものである。従来よく知られているように、網点画像はその角度によってモアレ現象がおきる。網点の角度のパターンを調節することでモアレ現象を起こし、埋め込み画像を再生するものである。
0095
本実施形態では、埋め込み画像としてモノクロ2値画像を用いる。また、被埋め込み画像には、グレイスケール画像を用いる。埋め込み画像としてグレイスケール画像を用いることも可能であるが、鮮明に再生することが難しい。
0096
次に、本実施形態における画像処理のアルゴリズムを、図3に示すフローチャートに沿って詳細に説明する。
0097
第1ステップ(S1);埋め込み画像と被埋め込み画像の入力
埋め込み画像と被埋め込み画像の入力を行なう。
本実施形態では、埋め込み画像はモノクロ2値画像、被埋め込み画像としてグレイスケール画像として入力する。被埋め込み画像は、入力後全体的に画像が暗くなる処理を施す。これは、これ以降の処理において画像を網点化したときに、十分な画素値がないと明確なモアレ現象を起こすことができないためである。画像のコントラストをなるべく損なわないように、全体として画素値の底上げをし、シェア同士を重ねたときに人の目で十分に確認できるだけのモアレ現象を起こせるように調整する。
0098
第2ステップ(S2);シェアパターンの生成
次に、埋め込み画像をもとに、例えば視覚復号型秘密分散法を用いて、シェアパターンを生成する。シェアパターンのセットは、シェアを重ね合わせたときにモアレを起こすセットと、モアレを起こさないセットに分けられ、それぞれをシェアパターンとして黒い画素と白い画素で表現する。また、モアレの強度によってセット数を増やし、それに応じてシェアパターンの補助画素数を増やすことで、より豊かな表現をすることも可能である。
0099
第3ステップ(S3);画像の重畳処理
次に、シェアパターンと被埋め込み画像の重畳処理を行なう。実際には、シェアパターンに従って網点の角度を変え、被埋め込み画像の濃度値によって網点の密度を調節する。例えば、シェアパターンが黒い部分を網点の角度0に設定し、白い部分を網点の角度45度に設定する。図18に例示するように、シェア同士を重ねたとき、網点の角度が同じ場合はモアレ現象は発生せず、網点の角度が異なる場合はモアレ現象が発生して、埋め込み画像を認識することができる。尚、網点の密度が小さすぎると、十分なモアレが発生せず再生が難しくなるので、第3ステップで十分な密度を確保するように画像修正する必要がある。
0100
第4ステップ(S4);シェア画像の補正処理
このステップでは、第3ステップにおいて作成した画像をもとに、網点画像を出力するためのラスターデータに変換する。ラスターデータへの変換は、画像を網点化するラスタライズという処理で行われる。
0101
以上が、本実施形態における一連の画像処理であり、この処理の後、画像記録部において媒体に出力することでシェアを生成する。出力装置としては、イメージセッターなどのフィルム出力機や網点プリンターなどがある。
0102
本実施形態においても、第1の実施形態と同様な方法で埋め込み情報の再生を行う。
0103
従来技術では、コピー機などでコピーが困難なシェアを生成することは困難であったが、本実施形態のように網点を利用することにより、コピー機などでの容易な複製をできなくすることが可能になった。
0104
【発明の効果】
本発明によれば、従来不可能であった任意の画像や小さな画像を並べたパターン画像を用いたシェアを作成することができるようになり、表現力が豊かになった。また、媒体として、透明なシートだけでなく、不透明なものも利用できるようになった。また、シェアの再生を妨げることなく、付加情報を埋め込むことが可能になった。そして、網点を利用することで、コピー機での複写が困難になり偽造防止効果が高まり、かつより見栄えのよい再生が可能になった。
【図面の簡単な説明】
【図1】 本発明の画像生成システムの物理的な構成を示すブロック図。
【図2】 画素に対応する補助画素の1例を説明する説明図。
【図3】 本発明の画像生成システムによる基本的な画像処理の流れを示すフローチャート。
【図4】 本発明の画像生成システムを専用のハードウェアで実現したときの構成を示すブロック図。
【図5】 再生装置の一構成例を示す説明図。
【図6】 埋め込み画像が再生される原理を示す説明図。
【図7】 位置合わせ用の印を例示する説明図。
【図8】 画素の間隔を離して配置することを例示する説明図。
【図9】 シェアパターンの発生の例を示す説明図。
【図10】 小パターンがロゴの場合に埋め込み画像が再生される原理を示す説明図。
【図11】 第3の実施形態における画像処理の流れを示すフローチャート。
【図12】 媒体に穴を開ける方法を示す説明図。
【図13】 第4の実施形態のシェアパターンの冗長度を利用して付加情報を埋め込む場合における画像処理の流れを示すフローチャート。
【図14】 シェアパターンの冗長度を利用して付加情報を埋め込む方法を例示する説明図。
【図15】 第4の実施形態で補助画素を更に分割して2次元コードを埋め込む場合のフローチャート。
【図16】 第4の実施形態で補助画素の黒い部分に2次元コードを埋め込む方法を例示する説明図。
【図17】 付加情報の再生装置の構成を示すブロック図。
【図18】 モアレにより埋め込み画像が再生される原理を例示する説明図。
【図19】 本発明の画像生成システムによる画像の処理過程を示す説明図。
【符号の説明】
101…CPU
102…画像メモリ
103…画像入力部
104…プログラム
105…画像記録部
106…バス
107…画像処理部
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a technique for concealing an image including information to be recorded, and in particular, can be suitably used for concealing the image by dispersing the image.
In this specification, an image including information to be recorded is referred to as an “embedded image”, an image in which information is embedded is referred to as an “embedded image”, and a plurality of images in which the “embedded image” is distributed is referred to as a “share pattern”. An image in which the “share pattern” is embedded in the “embedded image” is referred to as a “share image”, and a recorded matter obtained based on the “share image” is referred to as a “share”. Further, a group of “share patterns” is called a “share pattern group”, a group of “share images” is called a “share image group”, and a group of “shares” is called a “share group”. In addition, an operation for making an embedded image visible to a human is expressed as “play”.
[0002]
[Prior art]
Conventionally, a technique for concealing an image representing information will be described below with reference to a document describing it.
[0003]
(1) Taku Kato, Hideki Imai: “Extended configuration method of the visual decryption secret sharing method”: IEICE Transactions A Vol. J79-A No. 8 pp. 1344-1351
According to this technique, a plurality of black and white random images are formed, and when these are superimposed, a significant image is reproduced. It is a technique that can disseminate secrets by combining not only two images but also three or more images. If secrets are distributed among multiple images, it is impossible to know any information about other images even if only one of the multiple images is obtained. Therefore, only those that can obtain a plurality of sheets at the same time can reproduce the information, and the secret can be safely distributed and stored.
[0004]
(2) Japanese Patent Laid-Open No. 9-248935
In this technique, another additional image is superimposed and recorded on a certain main image, and the additional image is reproduced by overlapping the image with the pattern image. It is characterized in that information can be recorded in a color image in a form that is difficult for humans to perceive.
[0005]
(3) Koko Matsui: “Digital Watermark”: Journal of the Institute of Image Electronics Engineers of Japan, Vol. 26, No. 3 (1997)
In this technique, a digital watermark is recorded in digital data, and the digital watermark is read by performing a predetermined decoding process. In particular, as a method of putting a digital watermark in a still image, methods such as “pixel space use type”, “frequency domain use type”, and “statistics use type” are known.
[0006]
[Problems to be solved by the invention]
In the technique (1), it is composed only of a black and white random pattern, and a significant image cannot be recorded / reproduced by being superimposed on another image. For example, a significant image in which characters are drawn cannot be superimposed on another landscape image. For this reason, there were problems such as poor expressiveness and appearance.
[0007]
The technique (2) is based on the premise that the main image is mainly a high-redundancy image such as a natural image, and it has been difficult to adapt to a low-redundancy image such as a pattern image in which small images are arranged. In addition, this technology is based on the premise that only two pairs of images are used, and it has not been possible to perform complex reproduction by combining three or more images.
[0008]
In addition, when the technologies (1) and (2) are copied with a copy machine, the same effect as the original one can be obtained. Another common problem is that the recording medium needs to be transparent, and the applicable media is limited.
[0009]
Both the techniques (1) and (2) have the great feature that decoding can be easily performed, but are not actually used commercially because of poor representation and limited adaptive media.
[0010]
The technique (3) is intended for digital data, and requires an arithmetic device such as a computer for encoding / decoding, and information cannot be easily decoded. In addition, since an arithmetic device is required, it has been difficult to reduce the cost.
[0011]
An object of the present invention is to eliminate the drawbacks of the related art and to record various information in a distributed manner and to easily reproduce the information.
[0012]
[Means for Solving the Problems]
In order to achieve the above object in the present invention, first, in the invention of claim 1, A means for inputting an embedded image and an embedded image as a color pattern image as image data, and generating one or a plurality of auxiliary pixels for each pixel of the embedded image, thereby generating a share pattern in which the embedded image is distributed. And means for generating an embedded share image in the embedded image by moving the pixel of the embedded image based on one or more auxiliary pixels corresponding to the share pattern. Image generation system characterized by It is what.
[ 0013 ]
And claims 2 In the invention of The image generation system according to claim 1, The present invention is an image generation system comprising means for embedding additional information in an embedded image.
[ 0014 ]
And claims 3 In the invention, the embedded image is dispersed by inputting the embedded image and the embedded image which is a color pattern image as image data, and by making one or a plurality of auxiliary pixels correspond to each pixel of the embedded image. Generating a share pattern; and generating a share pattern by embedding the share pattern in the embedded image by moving the pixels of the embedded image based on one or more auxiliary pixels corresponding to the share pattern; The image generating method is characterized by including the above.
[ 0015 ]
And claims 4 In the invention of The image generation method according to claim 3, wherein The image generation method includes a step of embedding additional information in an embedded image.
[ 0018 ]
DETAILED DESCRIPTION OF THE INVENTION
(Overall common embodiment)
First, a common embodiment relating to an image generation system, an image generation method, and a recorded material will be described.
[ 0019 ]
FIG. 1 shows a physical configuration of an image generation system according to the present embodiment. This image generation system includes a CPU 101, an image memory 102, an image input unit 103, a program memory 104, and an image recording unit 105, all of which are connected by a bus 106. The CPU 101, the image memory 102, the image input unit 103, and the program memory 104 constitute an image processing unit 107.
[ 0020 ]
The operation of this image generation system will be briefly described. First, the embedded image and the embedded image are written in predetermined areas of the image memory 102 through the image input unit 103. Then, based on the algorithm shown below, these images are subjected to calculation processing to create a share image, and this share image is recorded on a recording medium by the image recording unit 105 or recorded in a form such as printing. Output.
[ 0021 ]
All of these series of processes are performed by the CPU according to the program stored in the program memory 104. A dedicated device may be used for the processing, but a general-purpose computer such as a personal computer may be used. In this case, the image memory 102 and the program memory 104 generally use the same memory in divided areas.
[ 0022 ]
A schematic diagram of the flow of these processes is shown in FIG. In FIG. 19, the embedded image is first decomposed into a share pattern, and the share image is generated by superimposing the share pattern on the embedded image. Then, a share is generated by outputting the share image as a recorded material.
[ 0023 ]
Next, the configuration of the embedded image and the embedded image, which are input images of this system, and the contents and meaning of image processing will be described in detail.
[ 0024 ]
The input image is usually expressed as digital information having a defined density on each grid point in the Cartesian coordinate system in the same manner as used for expression in a computer. Here, the two axes of the orthogonal coordinate system are the x-axis and the y-axis, and are expressed as horizontal and vertical for convenience.
[ 0025 ]
In this embodiment, a gray scale image or a monochrome binary image is basically used as an embedded image, but a color image may be used. The density value of the pixel (x, y) is represented as P (x, y). In the case of a monochrome binary image, black pixels have P (x, y) = 1 and white pixels have P (x, y) = 0. In the share pattern, one or a plurality of auxiliary pixels exist for one pixel of the embedded image as shown in FIG.
In the example of FIG. 2, four auxiliary pixels correspond to one pixel. This auxiliary pixel is a monochrome binary image, and the auxiliary pixel corresponding to the embedded image P (x, y) is represented as Q (x, y, r). Here, r is an auxiliary pixel number and is an integer of 1 or more. A color image or a gray scale image is used as the embedded image.
[ 0026 ]
However, in the present embodiment, more generally, it can be expanded to a binary image or a grayscale image. A binary image means that a black and white pair in a monochrome binary image may be changed to a combination of two colors such as blue and white, red and white, and blue and yellow. In this case, the upper P (x, y) means a pixel of the first color when P (x, y) = 1, and the second color when P (x, y) = 0. It means pixel. For example, when using a pair of blue and yellow, P (x, y) = 1 means a blue pixel, and P (x, y) = 0 means a yellow pixel.
[ 0027 ]
Similarly, in the grayscale image, the density value of the first color at the pixel (x, y) is expressed by P (x, y), and the second value at the pixel (x, y) is expressed by 1-P (x, y). Expresses the density value of the color. For example, when using a blue and yellow pair instead of a white and black pair,
P (x, y) represents a blue density value in the pixel (x, y), and 1-P (x, y) represents a yellow density value in the pixel (x, y).
This gray image is a straightforward extension of the grayscale image. This is because in a grayscale image, P (x, y) can be considered to represent the black density value at pixel (x, y), while 1-P (x, y) is the pixel (x, y). This is because it is considered to express the density value of white at.
[ 0028 ]
When a binary image or a grayscale image is used, the auxiliary pixel is a binary image composed of two colors. For example, in the case of a binary image composed of two colors using a pair of blue and yellow or a grayscale image composed of two colors, the auxiliary pixel is also a binary image composed of a pair of blue and yellow.
[ 0029 ]
In the following description, for the sake of simplicity, description will be given mainly in the case where a monochrome binary image or a grayscale image is used. More generally, a monochrome binary image can be expanded to a binary image, and a grayscale image can be expanded to a grayscale image. .
[ 0030 ]
Next, an image processing algorithm in the present embodiment will be described with reference to the flowchart of FIG.
[ 0031 ]
First step (S1); input of embedded image and embedded image
First, an embedded image and an embedded image are input as digital data. If the image is already digital data, it is converted into an appropriate image format as it is. If the image is a hard copy or a silver halide photograph, it is read by a digital scanner and input as digital data.
[ 0032 ]
Second step (S2): Generation of share pattern
Next, based on the embedded image, a share pattern is generated using, for example, a visual decryption secret sharing method. An embedded image can be reproduced by a combination of share patterns. It is also possible to make a plurality of embedded images by recombination of a pair of share patterns. In generating a share pattern, first, a random number is generated. As a means for generating random numbers, pseudo-random numbers such as M series are used. Then, a combination of share patterns is selected according to the random number. Since the method for selecting a combination differs depending on each embodiment, it will be described in the description of each embodiment.
[ 0033 ]
Third step (S2); image superimposition processing
Next, a share pattern is embedded in the embedded image to generate a final share image. This superimposition process differs depending on each embodiment, and will be described in the description of each embodiment.
[ 0034 ]
Fourth step (S3): Shared image correction processing
Next, in a fourth step, the shared image expressed by the RGB color components is converted into an ink amount signal used for printing as the YMCK four-color ink amount in the image recording unit. This conversion has been widely known as a color conversion technique. If processing is performed on a YMCK basis from the beginning, the processing in the fourth step can be omitted.
Further, this process is not necessary when the shared image is recorded by making a hole in the medium instead of the ink amount signal.
[ 0035 ]
In the above description, a series of share image generation processing is realized by software processing, but can also be realized by hardware. FIG. 4 shows the configuration of an image generation system that implements the series of share image generation described above with hardware.
[ 0036 ]
Two image memories for storing an embedded image and an embedded image, a share pattern generating unit for generating a share pattern, an image superimposing unit for superimposing the image, a correction processing unit for correcting the share image, and an image recording unit for recording the image Are combined to form an image generation system.
[ 0037 ]
First, the embedded image is converted into digital data and stored in the image memory 1. Similarly, the embedded image is also converted into digital data and stored in the image memory 2. Next, a random number is generated and input from the image memory 1 in the share pattern generation unit
A share pattern is generated according to a random number based on the embedded image data. The method for generating the share pattern differs depending on each embodiment, and will be described in the detailed description of each embodiment. In the image superimposing unit, an embedded image is input from the image memory 2 and a share pattern is input from the share pattern generating unit, and these images are superimposed to generate a shared image. Then, the shared image flows to the image correction unit, and the RGB data is converted into YMCK data. Finally, the share image is recorded on the medium in the form of a hard copy in the image recording unit, thereby outputting the share.
[ 0038 ]
As described above, the image processing can be easily realized by hardware. When hardware is used, it is possible to perform image processing at high speed, which is particularly effective when a large amount of share needs to be generated.
[ 0039 ]
Next, a reproduction apparatus that reproduces an embedded image from a share in which the share image is recorded on the medium as described above will be specifically described.
[ 0040 ]
FIG. 5 is a diagram illustrating a configuration example of a playback device. Load the share into the playback device and fix it. Thereby, the shares are fixed to a predetermined positional relationship. By observing this fixed share, the embedded image can be synthesized and recognized from the share. Further, by arranging a light source such as a light bulb below the reproduction device, reproduction can be made clearer. Note that the playback device is not limited to the configuration shown in FIG. 5 and may have any structure as long as the share positional relationship can be fixed.
[ 0041 ]
Next, the principle that the embedded image is reproduced by the reproduction apparatus will be described by taking a simple example. As an example, a case will be described in which a monochrome binary image is used as an embedded image and a plain image is used as an embedded image.
[ 0042 ]
When the shared images recorded at the time of reproduction are superimposed, the embedded images are visually seen in the form of overlapping. In this example, the generated share image is also a monochrome binary image. Then, depending on the degree of overlap of the shares of each pixel, the pixel looks white or black to the human eye as shown in FIG. Therefore, by configuring the share pattern so that the black pixels of the embedded image appear black during playback, and configuring the share pattern so that the white pixels of the embedded image appear white during playback, the embedded image is It becomes possible to play with. At this time, it is important that the contrast ratio between the two portions be sufficiently large so that the human eye can easily distinguish between the black portion and the white portion. In this example, a black and white pair has been described, but the same effect can be obtained with other color combinations, for example, blue and white, red and white, and blue and yellow. In the following description, a black and white pair will basically be described, but other color combinations are possible.
[ 0043 ]
In addition, as a device that facilitates playback, a mark for positioning as shown in FIG. 7 is added to the medium to facilitate positioning during playback and weak adhesion to one side of the share. It is conceivable to apply the material in advance so that the position is not easily shifted after being overlapped.
In addition, as shown in FIG. 8, the conventional arrangement in which the pixels are connected to each other is arranged so that the pixels are separated from each other so that they are not easily affected by camera shake or the like. It is valid.
[ 0044 ]
Next, specific processing will be described according to each embodiment.
[ 0045 ]
(First embodiment)
First, the first embodiment will be described. In this embodiment, a gray scale image is used as the embedded image. A color image is used as the embedded image. In the present embodiment, since a color image is used as an embedded image, in the example of FIG. 6, during reproduction, the black portion of FIG. 6 is colored and the white portion is colorless or the same color. Visually, a colorless or identical color portion is recognized as distinguished from other portions, and an embedded image can be recognized.
[ 0046 ]
Next, an image processing algorithm in the present embodiment will be described in detail along the flowchart of FIG.
[ 0047 ]
First step (S1); (input of embedded image and embedded image)
An embedded image and an embedded image are input as digital data. In the present embodiment, the embedded image is input as a gray scale image and the embedded image is input as a color image. The embedded image is decomposed into auxiliary pixels simultaneously with the input. Generally, the number of auxiliary pixels increases as the gradation becomes finer. By increasing the number of gradations, it is possible to express a smoother image, but as the number of auxiliary pixels increases, the size of the auxiliary pixels becomes smaller and alignment during reproduction becomes difficult. Therefore, it is important to reduce the number of gradations to such an extent that the quality of the image is not deteriorated and to balance the size of the auxiliary pixels. As a gradation adjustment method, a method such as “error diffusion method” is known.
[ 0048 ]
Second step (S2); generation of share pattern
Next, based on the embedded image whose tone has been corrected, a share pattern is generated using, for example, a visual decryption type secret sharing method. An embedded image can be reproduced by a combination of share patterns. It is also possible to make a plurality of embedded images by recombination of a pair of share patterns. In generating a share pattern, first, a random number is generated. Then, a combination of share patterns is selected according to the random number. Hereinafter, the combination of share patterns is referred to as “set”. As in the example of FIG. 9, when there are four combinations of share patterns, random numbers 1 to 4 are generated, and a set is selected according to the generated random numbers. As shown in FIG. 9, if two patterns are included in one set, the embedded image is distributed into two share patterns. The set is selected from a white set when the pixel of the corresponding embedded image is white, and from a black set when the pixel is black. This is performed for each pixel, and a share pattern is generated for the entire screen. In the present embodiment, the embedded image is a grayscale image that has been subjected to gradation correction, and the number of auxiliary pixels is determined according to the number of gradations. Of FIG.
An example is the case of white and black, where the number of gradations is 2, and the number of sets increases as the number of gradations increases. In this step, the embedded image is distributed into a plurality of share patterns.
[ 0049 ]
Third step (S3); image superimposition processing
Next, in the image superimposing process, a share pattern is embedded in the embedded image to generate a final share image. The embedding is performed by leaving the pixels of the embedded image corresponding to the black portions of the auxiliary pixels of the share pattern and deleting the pixels corresponding to the white portions of the auxiliary pixels of the share pattern to make it transparent. At this time, if more embedded images remain, the final share looks better. Therefore, if the share pattern is devised so that the black portion of the pattern increases as much as possible in the second step, the appearance is improved. In addition, if a specific color is applied instead of the pixel corresponding to the white portion of the share pattern, the embedded image is reproduced more clearly, although the appearance of the share is somewhat impaired.
[ 0050 ]
Fourth step (S4); share image correction processing
Next, in a fourth step, the shared image expressed by the RGB color components is converted into YMCK four-color ink amounts by the image recording unit.
[ 0051 ]
The above is a series of image processing in the present embodiment, and after this processing, the image recording unit outputs the share by recording the share image as a recorded material such as a hard copy in accordance with the ink amount signal.
[ 0052 ]
The reproduction is performed by using the reproduction apparatus shown in FIG. 5 or by combining each share with a human hand.
[0053]
(Second Embodiment)
Next, the image generation system according to claim 1 And the image generation method of claim 3 A second embodiment will be described. In the present embodiment, a pattern image in which small images and characters are arranged is used as an embedded image.
[ 0054 ]
In the present embodiment, a monochrome binary image is used as an embedded image, and a pattern image in which small images and characters are arranged is used as an embedded image. Since the pattern image has low image redundancy, it is difficult to clearly reproduce the embedded image by the method of the first embodiment. Hereinafter, small images and characters are referred to as small patterns.
[ 0055 ]
The properties of the shared image recorded in this embodiment will be described. The generated share image is a pattern image in which small images and characters are arranged, and is observed differently by human eyes as in the case of the logo in FIG. When the small pattern fits perfectly, the part looks whitish, and when the small pattern is shifted and joined, the part looks dark. Padding
The embedded image can be observed by configuring the white portion of the embedded image so that the pattern is exactly the same and the black portion so that the pattern is shifted.
[ 0056 ]
Next, the image processing algorithm in this embodiment will be described in detail with reference to the flowchart of FIG.
[ 0057 ]
First step (S1); input of embedded image and embedded image
An embedded image and an embedded image are input as digital data. In this embodiment, the embedded image is input as a monochrome binary image, and a small pattern is actually input as a color image as an embedded image. The embedded image is interpreted by arranging the small patterns vertically and horizontally.
[ 0058 ]
Second step (S2); generation of share pattern
Similar to the first embodiment, a share pattern is generated based on the embedded image. In the example of the logo of FIG. 10, the number of auxiliary pixels is one for each pixel of the embedded image, and the share pattern is expressed by two types of logos on the right side or the left side. Therefore, the share pattern is represented by binary values of black representing the right side and white representing the left side. Of course, there are four types of logos, upper left, upper right, lower left, and lower right, and the number of auxiliary pixels can be set to two.
[ 0059 ]
Third step (S3); image superimposition processing
Next, a small pattern is arranged in accordance with the share pattern to generate a final share image. That is, when there are N sets of share pattern combinations, one set of N sets is written to each share according to the share pattern. This is performed for each pixel, and the entire image screen is processed to generate a shared image. In the case of the logo in FIG. 10, the share patterns are two sets of black representing the right side and white representing the left side. A small pattern is arranged on the right side in a black portion of the share pattern, and a small pattern is arranged on the left side in a portion where the share pattern is white.
[ 0060 ]
Fourth step (S4); share image correction processing
As in the first embodiment, RGB data is converted into YMCK ink amounts.
[ 0061 ]
The above is a series of image processing in the present embodiment. After this processing, the share is output by recording the share image as a recorded material such as a hard copy in the image recording unit as in the first embodiment.
[ 0062 ]
The reproduction method is performed in the same manner as in the first embodiment.
[ 0063 ]
(Third embodiment)
Next, a third embodiment will be described. In this embodiment, instead of recording the shared image as a hard copy, a hole is made in the medium.
[ 0064 ]
In this embodiment, a monochrome binary image is used as an embedded image, and an embedded image is not used. However, it is possible to improve the appearance by printing an arbitrary image on the medium for punching holes. In addition, it is possible to use a grayscale image as an embedded image, but since the number of auxiliary pixels increases, the size of the auxiliary pixels becomes smaller, and it becomes difficult to maintain the strength when a hole is made, Problems such as it becomes difficult to match the shares during playback. In the embodiments described above, a transparent sheet is mainly used as a medium. However, in the case of this embodiment, an opaque sheet can be used.
[ 0065 ]
In the present embodiment, the share generated and recorded from the share pattern is perforated along the pattern. Patterns are observed by the human eye depending on the degree of overlapping of the holes in each pattern. When the pattern fits perfectly, the part appears to have a hole, and when the pattern fits out of alignment, the part appears to be filled with a hole. By embedding the white portion of the embedded image so that the pattern exactly matches the black portion and shifting the pattern, the embedded image can be observed.
[ 0066 ]
Next, an image processing algorithm in the present embodiment will be described in detail with reference to the flowchart of FIG.
[ 0067 ]
First step (S1); input of embedded image
Read an embedded image. The embedded image is input as a monochrome binary image. The embedded image is not used in this embodiment.
[ 0068 ]
Second step (S2); generation of share pattern
Similar to the first embodiment, a share pattern is generated based on an embedded image using, for example, a visual decryption secret sharing method.
[ 0069 ]
In the present embodiment, the third step (image superimposition processing) and the fourth step (share image correction processing) are unnecessary.
[ 0070 ]
The above is a series of image processing in the present embodiment, and after this processing, the image recording unit outputs holes by punching holes in the medium according to the share pattern and recording.
[ 0071 ]
Next, a method for making a hole in the medium will be described. Select either the black or white pattern of the share pattern, and make a hole of an appropriate size in the pattern part. As shown in the medium 1 with a hole in FIG. 12, when making a hole, a hole is provided with a frame. This is because if the hole is made to the full size of the pixel of the pattern without providing a frame, the black pixel in the middle will fall out in the case of the pattern in the medium 2 with the hole in FIG. . Further, if the corner portion is left as shown in the medium 3 with the holes shown in FIG. 12, the strength of the frame can be sufficiently maintained. A device for making a hole in a medium can also make a fine hole by making a hole with a puncher or using an etching technique.
[ 0072 ]
Also in this embodiment, the embedded information is reproduced by the same method as in the first embodiment.
[ 0073 ]
Conventionally, only a method by hard copy to a medium has been used, but according to the present embodiment, it is possible to adapt to an opaque medium and to expand the application range.
[0074]
(Fourth embodiment)
Next, the image system according to claim 2 And the image generation method of claim 4 A related fourth embodiment will be described. This method makes it possible to embed arbitrary digital information in addition to information related to an embedded image in a share pattern. Hereinafter, digital information to be embedded separately from information related to the embedded image is referred to as “additional information”.
[ 0075 ]
This embodiment can be roughly classified into two types. There are two types: one that embeds additional information as a black and white two-dimensional code and one that embeds additional information as a digital watermark. When embedding additional information as a two-dimensional code, there are two types: one that uses a redundant share pattern and one that further divides auxiliary pixels and embeds a two-dimensional code.
[ 0076 ]
(When 4-a additional information is embedded as a two-dimensional code)
When the additional information is embedded as a black and white two-dimensional code, a monochrome binary image is used as an embedded image, and an embedded image is not used. In this case, it is possible to use an arbitrary image instead of the monochrome binary image as the embedded image, but it becomes difficult to reproduce the additional information by the apparatus.
[ 0077 ]
First, an image processing algorithm when a redundant share pattern is used will be described in detail with reference to the flowchart of FIG.
[ 0078 ]
First step (S1); input of embedded image
Enter an embedded image. Read an embedded image. The embedded image is input as a monochrome binary image. The embedded image is not used in this embodiment. On the other hand, the additional information is digitized and recorded in a memory separately from the image.
[ 0079 ]
Second step (S2); share pattern generation and image superimposition processing
When a redundant share pattern is used, share pattern generation and image superimposition processing are performed simultaneously. That is, the share pattern becomes the final share image as it is. The generation of the share pattern using the visual decryption secret sharing method is performed in two stages: preprocessing of additional information and selection of a set. However, when a redundant share pattern is used, there are two types of sets, which are called “set” and “small set”, respectively. FIG. 14 shows an example in which the number of sets is 3 and the number of small sets is 2. In the first embodiment, etc., only one set of the set of this embodiment is used, but in this embodiment, additional information can be embedded by preparing three sets of redundancy. It is possible. First, in the preprocessing of additional information, information is converted in accordance with the redundancy of the share pattern. In the example of FIG. 14, the number of sets is 3, and three types can be distinguished per pixel. Digital information is generally recorded with a radix of 2. In this case, additional information is converted into data with a radix of 3. Next, superimposition with additional information is performed simultaneously with selection of a small set by random numbers. A set number to be selected is acquired from the preprocessed additional information, and a small set in the set is selected by generating a random number. Thereby, the share pattern of each pixel is uniquely determined. A series of processing for each pixel is performed for all pixels.
[ 0080 ]
In this embodiment, the shared image is a monochrome binary image, and image conversion processing such as the fourth step (sharing image correction processing) of the first embodiment is not necessary.
[ 0081 ]
The above is a series of image processing in the present embodiment. After this processing, the share is output by recording the share image as a recorded material such as a hard copy in the image recording unit as in the first embodiment.
[ 0082 ]
Next, an image processing algorithm when the auxiliary pixel is further divided will be described with reference to the flowchart of FIG. The difference from the case of using a redundant share pattern is in the second step and the third step.
[ 0083 ]
First step (S1); input of embedded image
As in the case of using a redundant share pattern, the embedded image is input as a monochrome binary image, and the embedded image is not used.
[ 0084 ]
Second step (S2): Generation of share pattern
Next, a share pattern is generated based on the embedded image using a visual decryption secret sharing method. As in the first embodiment, a set is selected by generating a random number. Unlike the case where redundant share patterns are used, the share pattern is generated without dividing the set and the small set. In addition to the generation of the share pattern, the additional information is used as a two-dimensional code and the information is converted into a white and black two-dimensional pattern. Then, this two-dimensional pattern is divided into the number of black auxiliary pixels of the share pattern.
[0085] ]
Third step (S3); image superimposition processing
Next, in the third step (image superimposition processing), the share pattern generated in the second step and the two-dimensional pattern of additional information generated separately from the share pattern are superimposed to obtain the final share image. Generate. Specifically, the shared image is generated by embedding the two-dimensional pattern divided into the number of black auxiliary pixels of the share pattern in the black portion of the auxiliary pixels of the share pattern in the second step. FIG. 16 shows a state in which additional information is added to the black portion of each auxiliary pixel.
[ 0086 ]
Even when the auxiliary pixels are further divided, the image conversion processing as in the fourth step (sharing image correction processing) of the first embodiment is unnecessary, and after the series of image processing, the same as in the first embodiment. The share is output by recording the share image as a hard copy or other recorded matter in the image recording unit.
[ 0087 ]
(When embedding 4-b additional information as a digital watermark)
When embedding additional information as a digital watermark, a gray scale image is used as an embedded image, and a color image is used as an embedded image.
[ 0088 ]
The image processing algorithm in this embodiment is basically the same as the method described in the first embodiment and the second embodiment, but at the same time as embedding an image to be embedded, a digital watermark is simultaneously embedded in the embedded image. The point is different.
[ 0089 ]
As methods for putting a digital watermark, methods such as “pixel space use type”, “frequency domain use type”, and “statistics use type” are known, and are described in Document (3).
[ 0090 ]
The reproduction of the recorded information is the same whether the additional information is embedded as a two-dimensional code or embedded as a digital watermark. Similar to the first embodiment, the reproduction is divided into a part to be reproduced by human eyes and a reproduction part of additional information using the reproduction apparatus. The reproduction by the human eye is performed by overlapping the shares, and the additional information is reproduced by using a reproduction device.
[ 0091 ]
As shown in FIG. 17, the additional information reproducing apparatus includes an image input unit that reads a share, an image processing unit that processes an input result, and a result output unit that displays the processed result.
[ 0092 ]
For the image input unit, a barcode scanner, a flatbed scanner, a drum scanner, or the like can be used. When a bar code scanner is used, it is possible to input easily, and it is possible to configure a playback device at a relatively low cost. The image processing unit correlates the input image with the information corresponding to the share pattern, and decodes the additional information. The result output unit outputs the result by display on a display, printing by a printer, or the like.
[ 0093 ]
Conventionally, the information embedding method that can be reproduced by human eyes and the information embedding method using a device such as a digital watermark could not be merged, but this embodiment has the advantages of both. It is possible to fuse well.
[ 0094 ]
(Fifth embodiment)
Next, a fifth embodiment will be described. In the embodiments described so far, the embedded image is reproduced based on the color overlap between the shares. However, in this embodiment, the embedded image is reproduced based on the dot overlap instead of the color overlap. As is well known in the art, a moiré phenomenon occurs depending on the angle of a halftone image. The moire phenomenon is caused by adjusting the pattern of the angle of the halftone dots, and the embedded image is reproduced.
[ 0095 ]
In the present embodiment, a monochrome binary image is used as the embedded image. Further, a gray scale image is used as the embedded image. Although it is possible to use a gray scale image as an embedded image, it is difficult to reproduce clearly.
[ 0096 ]
Next, the algorithm of the image processing in this embodiment will be described in detail along the flowchart shown in FIG.
[ 0097 ]
First step (S1); input of embedded image and embedded image
An embedded image and an embedded image are input.
In the present embodiment, the embedded image is input as a monochrome binary image and a grayscale image as an embedded image. The embedded image is processed so that the image becomes dark overall after input. This is because a clear moire phenomenon cannot occur if there are not enough pixel values when the image is halftone in subsequent processing. In order not to impair the contrast of the image as much as possible, the pixel value is raised as a whole and adjusted so that a moire phenomenon that can be sufficiently confirmed by human eyes when the shares are overlapped is made.
[ 0098 ]
Second step (S2): Generation of share pattern
Next, based on the embedded image, a share pattern is generated using, for example, a visual decryption secret sharing method. The set of share patterns is divided into a set that causes moire when the shares are overlapped and a set that does not cause moire, and each is represented by a black pixel and a white pixel as a share pattern. Further, it is possible to express richer by increasing the number of sets according to the intensity of moire and increasing the number of auxiliary pixels of the share pattern accordingly.
[ 0099 ]
Third step (S3); image superimposition processing
Next, the share pattern and the embedded image are superimposed. In practice, the angle of the halftone dot is changed according to the share pattern, and the density of the halftone dot is adjusted according to the density value of the embedded image. For example, the black portion of the share pattern is set to a halftone dot angle of 0, and the white portion is set to a halftone dot angle of 45 degrees. As illustrated in FIG. 18, when the shares are overlapped, the moire phenomenon does not occur when the halftone dot angle is the same, and the moire phenomenon occurs when the halftone dot angle is different, thereby recognizing the embedded image. be able to. If the density of halftone dots is too small, sufficient moire does not occur and reproduction becomes difficult, so it is necessary to correct the image so as to ensure sufficient density in the third step.
[ 0100 ]
Fourth step (S4); share image correction processing
In this step, based on the image created in the third step, it is converted into raster data for outputting a halftone image. Conversion to raster data is performed by a process called rasterization for converting an image into halftone dots.
[ 0101 ]
The above is a series of image processing in the present embodiment, and after this processing, a share is generated by outputting to the medium in the image recording unit. Examples of the output device include a film output device such as an image setter and a halftone dot printer.
[ 0102 ]
Also in this embodiment, the embedded information is reproduced by the same method as in the first embodiment.
[ 0103 ]
In the prior art, it was difficult to generate a share that is difficult to copy with a copy machine or the like, but by using a halftone dot as in this embodiment, it is not possible to make an easy copy with a copy machine or the like. It became possible.
[ 0104 ]
【The invention's effect】
According to the present invention, it is possible to create a share using a pattern image in which an arbitrary image or a small image, which has been impossible in the past, can be created, and the expressiveness is enriched. As a medium, not only a transparent sheet but also an opaque one can be used. In addition, it is possible to embed additional information without hindering share reproduction. By using halftone dots, copying with a copying machine becomes difficult, the effect of preventing forgery is enhanced, and reproduction with better appearance becomes possible.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a physical configuration of an image generation system of the present invention.
FIG. 2 is an explanatory diagram illustrating an example of an auxiliary pixel corresponding to a pixel.
FIG. 3 is a flowchart showing a flow of basic image processing by the image generation system of the present invention.
FIG. 4 is a block diagram showing a configuration when the image generation system of the present invention is realized by dedicated hardware.
FIG. 5 is an explanatory diagram illustrating a configuration example of a playback device.
FIG. 6 is an explanatory diagram showing the principle of how an embedded image is played back.
FIG. 7 is an explanatory diagram illustrating a mark for alignment.
FIG. 8 is an explanatory diagram illustrating disposing pixels at an interval;
FIG. 9 is an explanatory diagram illustrating an example of occurrence of a share pattern.
FIG. 10 is an explanatory diagram showing the principle that an embedded image is reproduced when a small pattern is a logo.
FIG. 11 is a flowchart showing a flow of image processing in the third embodiment.
FIG. 12 is an explanatory diagram showing a method of making a hole in a medium.
FIG. 13 is a flowchart illustrating a flow of image processing when additional information is embedded using redundancy of a share pattern according to the fourth embodiment.
FIG. 14 is an explanatory diagram illustrating a method of embedding additional information using the redundancy of the share pattern.
FIG. 15 is a flowchart when the auxiliary pixel is further divided and a two-dimensional code is embedded in the fourth embodiment.
FIG. 16 is an explanatory diagram illustrating a method of embedding a two-dimensional code in a black portion of an auxiliary pixel in the fourth embodiment.
FIG. 17 is a block diagram showing the configuration of a reproduction apparatus for additional information.
FIG. 18 is an explanatory diagram illustrating the principle that an embedded image is reproduced by moire.
FIG. 19 is an explanatory diagram showing an image processing process by the image generation system of the present invention.
[Explanation of symbols]
101 ... CPU
102: Image memory
103: Image input unit
104 ... Program
105: Image recording unit
106 ... Bus
107: Image processing unit

Claims (4)

埋め込み画像及びカラーのパターン画像である被埋め込み画像を画像データとして入力する手段と、
埋め込み画像の各画素に1つ又は複数の補助画素を対応させることで、埋め込み画像を分散させたシェアパターンを生成する手段と、
被埋め込み画像の画素を、シェアパターンの対応する1つ又は複数の補助画素に基づいて移動させることで、シェアパターンを被埋め込み画像に埋め込みシェア画像を生成する手段と、
を具備することを特徴とする画像生成システム。
Means for inputting an embedded image and an embedded image as a color pattern image as image data;
Means for generating a share pattern in which embedded images are distributed by associating one or more auxiliary pixels with each pixel of the embedded image;
Means for generating a share image by embedding the share pattern in the embedded image by moving the pixels of the embedded image based on one or more auxiliary pixels corresponding to the share pattern;
An image generation system comprising:
請求項1記載の画像生成システムであって、付加情報を被埋め込み画像に埋め込む手段を具備することを特徴とする画像生成システム。  2. The image generation system according to claim 1, further comprising means for embedding additional information in an embedded image. 埋め込み画像及びカラーのパターン画像である被埋め込み画像を画像データとして入力する工程と、
埋め込み画像の各画素に1つ又は複数の補助画素を対応させることで、埋め込み画像を分散させたシェアパターンを生成する工程と、
被埋め込み画像の画素を、シェアパターンの対応する1つ又は複数の補助画素に基づいて移動させることで、シェアパターンを被埋め込み画像に埋め込みシェア画像を生成する工程と、
を含むことを特徴とする画像生成方法。
A step of inputting an embedded image and an embedded image as a color pattern image as image data;
Generating a share pattern in which embedded images are dispersed by associating one or more auxiliary pixels with each pixel of the embedded image;
Embedding the share pattern in the embedded image by moving the pixel of the embedded image based on one or more auxiliary pixels corresponding to the share pattern; and
An image generation method comprising:
請求項3記載の画像生成方法であって、付加情報を被埋め込み画像に埋め込む工程を具備することを特徴とする画像生成方法。  4. The image generation method according to claim 3, further comprising a step of embedding additional information in an embedded image.
JP2000082513A 2000-03-23 2000-03-23 Image generation system and image generation method Expired - Fee Related JP4038956B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000082513A JP4038956B2 (en) 2000-03-23 2000-03-23 Image generation system and image generation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000082513A JP4038956B2 (en) 2000-03-23 2000-03-23 Image generation system and image generation method

Publications (2)

Publication Number Publication Date
JP2001274971A JP2001274971A (en) 2001-10-05
JP4038956B2 true JP4038956B2 (en) 2008-01-30

Family

ID=18599307

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000082513A Expired - Fee Related JP4038956B2 (en) 2000-03-23 2000-03-23 Image generation system and image generation method

Country Status (1)

Country Link
JP (1) JP4038956B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105630894A (en) * 2015-12-18 2016-06-01 北京奇虎科技有限公司 Processing method and system of network link

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4495824B2 (en) 2000-03-21 2010-07-07 株式会社東芝 Information processing method
CA2435659A1 (en) 2002-07-23 2004-01-23 Kabushiki Kaisha Toshiba Image processing method
JP4227048B2 (en) 2003-04-25 2009-02-18 株式会社東芝 Image processing system
JP4510743B2 (en) * 2005-10-17 2010-07-28 Kddi株式会社 Tally image generating method and apparatus, tally image generating program, and secret image decoding method
JP4771482B2 (en) * 2007-03-05 2011-09-14 Kddi株式会社 Tally image generating apparatus and program
JP5445060B2 (en) * 2009-11-20 2014-03-19 大日本印刷株式会社 Secret sharing method of character information and printed material used therefor
CN103824097A (en) * 2014-02-20 2014-05-28 百度在线网络技术(北京)有限公司 Information cross-device processing method and system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105630894A (en) * 2015-12-18 2016-06-01 北京奇虎科技有限公司 Processing method and system of network link
CN105630894B (en) * 2015-12-18 2019-07-23 北京奇虎科技有限公司 A kind of processing method and system of network linking

Also Published As

Publication number Publication date
JP2001274971A (en) 2001-10-05

Similar Documents

Publication Publication Date Title
JP4495824B2 (en) Information processing method
AU748031C (en) Anti-counterfeiting method and apparatus using digital screening
US7599099B2 (en) Image processing apparatus and image processing method
JP4000970B2 (en) Image processing apparatus, image processing method, and image processing program
JP2002281286A (en) Process of forming authenticatable color document
KR100547794B1 (en) Image processing method
WO2007065224A1 (en) A method of forming a securitized image
JP4290681B2 (en) Image processing apparatus, image processing method, image processing program, machine-readable recording medium recording image processing program, and printed matter
JP4038956B2 (en) Image generation system and image generation method
JP4120328B2 (en) Image processing apparatus, image processing method, and image processing program
JP2007524281A (en) Method for encoding latent image
JP4345221B2 (en) Image generation system, recorded image, and image recording medium
JPH11355554A (en) Picture information processing method and forgery preventing method of certificate and the like
JP2007194934A (en) Image formation system, encoded data embedding system, printer, printed matter, image forming program, and recording medium
JP2000358154A (en) Electric watermark capable of adjusting visibility of watermark
JP2006303807A (en) Electronic watermark embedding apparatus, electronic watermark embedding method, program for allowing computer to realize method, machine-readable recording medium for recording program, and printed matter
JP5278217B2 (en) Image processing program, image processing method, and image processing apparatus
JP4262219B2 (en) Image processing apparatus and control method thereof
JP3747658B2 (en) Image output method, image output apparatus, and image output medium
JP3959890B2 (en) Printing system, printing information generating apparatus, printer, printing method, and recording medium
TW200406717A (en) Watermarking
JP4359742B2 (en) Image processing apparatus and image processing method
JP2006270433A (en) Image processing method
JP4245488B2 (en) Image processing method, image processing apparatus, program, and computer-readable recording medium
JP2006086903A (en) Image forming apparatus, image forming method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20031215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050902

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050927

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060926

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070403

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070522

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071016

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071029

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101116

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111116

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121116

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121116

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131116

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees