JP4192887B2 - Tamper detection device, watermarked image output device, watermarked image input device, watermarked image output method, and watermarked image input method - Google Patents
Tamper detection device, watermarked image output device, watermarked image input device, watermarked image output method, and watermarked image input method Download PDFInfo
- Publication number
- JP4192887B2 JP4192887B2 JP2004351883A JP2004351883A JP4192887B2 JP 4192887 B2 JP4192887 B2 JP 4192887B2 JP 2004351883 A JP2004351883 A JP 2004351883A JP 2004351883 A JP2004351883 A JP 2004351883A JP 4192887 B2 JP4192887 B2 JP 4192887B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- area
- input
- document
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Editing Of Facsimile Originals (AREA)
- Facsimile Image Signal Circuits (AREA)
- Image Processing (AREA)
Description
本発明は,文書画像などの画像の改ざん検出に関する。 The present invention relates to detection of falsification of an image such as a document image.
コピー用紙などの印刷媒体に印字データを印刷し,印刷物を生成すると,その印刷物に印刷されたテキストや画像などを見ることによって,印刷物に印刷された内容を把握することができる。 When print data is printed on a print medium such as copy paper and a printed matter is generated, the contents printed on the printed matter can be grasped by looking at texts and images printed on the printed matter.
一方,画像や文書データなどのディジタルデータにコピー・偽造防止のための情報や機密情報を目視できない形式で埋め込む「電子透かし」が存在している。その「電子透かし」を文書データ等に埋め込むことで,偽造等の不正行為を未然に防ぐための技術が存在する。 On the other hand, there exists “digital watermark” that embeds information for preventing copy / counterfeiting or confidential information in digital data such as images and document data in an invisible format. There is a technique for preventing illegal acts such as forgery by embedding the “digital watermark” in document data or the like.
上記「電子透かし」の技術を応用して,上記印刷媒体に印字データを印刷する際に,上記印字データの他に,上記印字データに対応した電子透かしを一緒に印刷すると,その印刷物を人の目で見ただけで,印刷物に印刷してある電子透かし情報から,印刷物に印字された文字が改変される等の印刷物の改ざんを発見できる(例えば,特許文献1参照)。なお,改ざんされているか否かの判定は印刷結果と電子透かしで印字されてものを比較することによって行われている。 When printing the print data on the print medium by applying the above-mentioned “digital watermark” technology, if the digital watermark corresponding to the print data is printed together with the print data, It is possible to discover falsification of the printed matter such as alteration of characters printed on the printed matter from the electronic watermark information printed on the printed matter, just by visual observation (see, for example, Patent Document 1). Note that whether or not tampering has occurred is determined by comparing the print result with that printed with a digital watermark.
しかしながら,印刷物に改ざんされたか否かを判定するために,電子透かしから取り出した印字内容と,印刷物に印刷されている印字内容とを目視によって比較する必要があった。 However, in order to determine whether or not the printed material has been tampered with, it is necessary to visually compare the printed content extracted from the digital watermark with the printed content printed on the printed material.
したがって,以下(1)及び(2)に示すような問題があった。(1)目視による判定であるため大量の印刷物の改ざんの有無を短時間で処理することは困難であった。(2)印字内容を1文字ずつ読み比べる必要があるため,人為的なミスによって改ざんの見逃しが起こる可能性があった。 Therefore, there are problems as shown in (1) and (2) below. (1) Since it is a visual determination, it has been difficult to process whether a large amount of printed material has been tampered with in a short time. (2) Since it is necessary to read and compare the printed contents one character at a time, there is a possibility that alterations may be missed due to human error.
本発明は,上記問題点に鑑みてなされたものであり,本発明の目的は,透かし情報を自動的に埋め込み,出力画像を生成し,その出力画像から埋め込まれた透かし情報を抽出し,出力画像の改ざんを自動的に検出することが可能な,新規かつ改良された改ざん検出装置,透かし入り画像出力装置,透かし入り画像入力装置,透かし入り画像出力方法,および透かし入り画像入力方法を提供することである。 The present invention has been made in view of the above problems, and an object of the present invention is to automatically embed watermark information, generate an output image, extract the embedded watermark information from the output image, and output it. Provided are a new and improved tamper detection device, watermarked image output device, watermarked image input device, watermarked image output method, and watermarked image input method capable of automatically detecting image tampering. That is.
上記課題を解決するため,本発明の第1の観点によれば,改ざん検出装置が提供される。上記改ざん検出装置は,画像を入力し,その入力された画像から1又は2以上の改ざんされたか否かを判定する領域の特定領域を切り出す処理を実行する画像加工部と;画像加工部により切り出された特定領域の位置及び/又は大きさに関する領域情報,または特定領域に対応する画像の部分画像のうち少なくとも一方を透かし情報として画像に埋め込み,出力画像を生成する透かし情報埋め込み部と;出力画像を入力し,その入力された出力画像に埋め込まれた透かし情報を抽出する透かし情報抽出部と;入力された出力画像を加工し,画像と略同一サイズの入力画像に変形する画像変形部と;画像に存在する特定領域の部分画像に少なくとも類似する擬似画像を生成する擬似画像生成部と;入力画像と擬似画像との差分からなる差分画像を生成し,該差分画像に差分領域が存在していた場合,入力画像の変形元となる出力画像が改ざんされたと判定する改ざん判定部とを備えることを特徴としている。 In order to solve the above-described problem, according to a first aspect of the present invention, a tamper detection device is provided. The tampering detection apparatus includes: an image processing unit that inputs an image and executes a process of cutting out a specific region of a region for determining whether one or more tampering has been performed from the input image; and the image processing unit A watermark information embedding unit that embeds at least one of region information relating to the position and / or size of the specified region or a partial image of an image corresponding to the specific region as watermark information and generates an output image; A watermark information extraction unit that extracts watermark information embedded in the input output image; an image transformation unit that processes the input output image and transforms the input image into an input image having substantially the same size as the image; A pseudo image generation unit that generates a pseudo image that is at least similar to a partial image of a specific region existing in the image; and a differential image that includes a difference between the input image and the pseudo image Generated, if the difference region in said difference image is present, is characterized by comprising a determining alteration determination unit and an output image to be deformed original input image has been tampered with.
本発明によれば,画像から特定領域に該当する部分画像のみを切出し,その部分画像や,特定領域に関する領域情報などを例えば電子署名等に相当する透かし情報として画像に埋め込む。透かし情報が埋め込まれた画像が出力画像として生成される。その出力画像に改ざんされたか否かを判定する際には,出力画像を入力し,補正や,出力画像の二値化,または出力画像の拡大/縮小する等の加工処理を実行することで入力画像を生成し,さらに上記透かし情報に基づき擬似画像を生成し,上記双方の画像の差分をとった差分画像に差分領域が存在していれば,改ざんされたと判定することができる。かかる構成によれば,改ざん検出を人の目に頼らなくとも自動的に装置が検出することができ,大量の出力画像を迅速的に,精度良く改ざん検出処理を実行することができる。また,画像に埋め込む,または画像から抽出する透かし情報は,改ざん検出処理の対象となる領域(特定領域)のみに関する画像又は領域情報等を埋め込むため,画像全領域の画像データよりもデータ量を軽減することが可能となり,改ざん検出処理の効率化,迅速化が図れる。なお,差分領域は,例えば上記入力画像と擬似画像の一対一対応する画像領域の画像が相違する場合に出現する領域である。 According to the present invention, only a partial image corresponding to a specific area is cut out from the image, and the partial image, area information regarding the specific area, and the like are embedded in the image as watermark information corresponding to, for example, an electronic signature. An image in which watermark information is embedded is generated as an output image. When judging whether or not the output image has been tampered with, the input image is input and input by executing processing such as correction, binarization of the output image, or enlargement / reduction of the output image. If an image is generated, a pseudo image is generated based on the watermark information, and a difference area exists in the difference image obtained by taking the difference between the two images, it can be determined that the image has been tampered with. According to such a configuration, the apparatus can automatically detect tampering detection without depending on human eyes, and a tamper detection process can be executed quickly and accurately for a large number of output images. Also, the watermark information embedded in or extracted from the image embeds the image or area information related to only the area (specific area) subject to the falsification detection process, so the data amount is reduced compared to the image data of the entire area of the image. This makes it possible to improve the efficiency and speed of the falsification detection process. The difference area is an area that appears when, for example, the image of the input image and the pseudo image corresponding to each other are different from each other.
上記課題を解決するために,本発明の別の観点によれば,透かし入り画像出力装置が提供される。上記透かし入り画像出力装置は,画像を入力し,その入力された画像から1又は2以上の改ざんされたか否かを判定する領域の特定領域を切り出す処理を実行する画像加工部と;画像加工部により切り出された特定領域の位置及び/又は大きさに関する領域情報,または特定領域に対応する画像の部分画像のうち少なくとも一方を透かし情報として画像に埋め込み,出力画像を生成する透かし情報埋め込み部とを備えることを特徴としている。 In order to solve the above problems, according to another aspect of the present invention, a watermarked image output apparatus is provided. The watermarked image output apparatus includes: an image processing unit that inputs an image and executes a process of cutting out a specific region of the region for determining whether or not one or more of the input image has been tampered with; A watermark information embedding unit that embeds at least one of region information relating to the position and / or size of the specific region cut out by the above, or a partial image of an image corresponding to the specific region as watermark information, and generates an output image. It is characterized by providing.
本発明によれば,画像から特定領域のみを切出してその特定領域に係る画像の部分画像や,特定領域の領域情報などを例えば電子署名等に相当する透かし情報として画像に埋め込む。上記埋め込まれた透かし情報は,改ざん検出処理の際に電子署名的な役割を果たし,透かし情報から生成される擬似画像と出力画像から生成される入力画像とを対比することで自動的に改ざん検出処理が実行される。かかる構成により,画像に透かし情報を埋め込むことで装置が自動的に改ざん検出をすることができる。また画像のうち改ざん検出処理を行う対象を絞り込むことで,画像に埋め込む透かし情報のデータ量を軽減することができる。 According to the present invention, only a specific region is cut out from an image, and a partial image of the image related to the specific region, region information of the specific region, and the like are embedded in the image as watermark information corresponding to, for example, an electronic signature. The embedded watermark information plays a role of electronic signature in the falsification detection process and automatically detects falsification by comparing the pseudo image generated from the watermark information with the input image generated from the output image. Processing is executed. With this configuration, the apparatus can automatically detect falsification by embedding watermark information in an image. Further, by narrowing down the target of the falsification detection process in the image, it is possible to reduce the data amount of the watermark information embedded in the image.
上記画像加工部は,特定領域を切り出す処理を実行し,さらにその切り出された特定領域に対応する画像の部分画像を所定の縮小率で縮小する縮小処理を実行し;透かし情報埋め込み部は,領域情報,特定領域に対応する画像の部分画像,該特定領域に対応する画像の部分画像が縮小された縮小画像,または該縮小画像の縮小率のうち少なくとも一方を透かし情報として埋め込むように構成してもよい。かかる構成により,画像に単に特定領域に関する透かし情報を埋め込むよりも,より一層データ量を圧縮し,軽減することができる。 The image processing unit executes a process of cutting out the specific area, and further executes a reduction process of reducing a partial image of the image corresponding to the cut out specific area at a predetermined reduction rate; Information, a partial image of the image corresponding to the specific area, a reduced image obtained by reducing the partial image of the image corresponding to the specific area, or a reduction ratio of the reduced image is embedded as watermark information. Also good. With this configuration, it is possible to further compress and reduce the amount of data compared to simply embedding watermark information relating to a specific area in an image.
上記画像加工部は,特定領域を切り出す処理を実行し,さらにその切り出された特定領域に対応する画像の部分画像を,該特定領域ごとの重要度に応じて定められる縮小率で縮小する縮小処理を実行するように構成してもよい。かかる構成により,改ざん検出する対象の特定領域のうち特に重要な領域については検出精度を向上させることができ,一方優先度が落ちる特定領域については縮小率を高める等することで処理効率を向上させることができる。 The image processing unit executes a process of cutting out the specific area, and further reduces the partial image of the image corresponding to the cut out specific area at a reduction rate determined according to the importance for each specific area. May be configured to execute. With this configuration, it is possible to improve the detection accuracy for particularly important areas among the specific areas to be detected for alteration, while improving the processing efficiency by increasing the reduction ratio for the specific areas where the priority is lowered. be able to.
画像加工部は,特定領域ごとに設定される重要度を,動的に変更するように構成してもよい。かかる構成によれば,特定領域内に存在するシンボル等によって重要度を動的に変更することで,予め重要度を定めずに改ざん処理を効率的に実施することができる。 The image processing unit may be configured to dynamically change the importance set for each specific area. According to such a configuration, the tampering process can be efficiently performed without determining the importance in advance by dynamically changing the importance according to the symbols or the like existing in the specific area.
上記特定領域は,文字,記号,または図形のうち少なくとも一つを含んだ文字領域であるように構成してもよい。なお,上記文字は1又は2文字以上であり,記号と図形も1又は2以上である。 The specific area may be configured to be a character area including at least one of a character, a symbol, or a figure. In addition, the said character is 1 or 2 characters or more, and a symbol and a figure are 1 or 2 or more.
画像加工部は,1又は2以上の縮小画像各々を一括し,一つの合成画像を生成するように構成してもよい。かかる構成により,画像に埋め込む透かし情報をより一層圧縮することができ,データ量を軽減することができる。 The image processing unit may be configured to batch one or more reduced images and generate one composite image. With this configuration, watermark information embedded in an image can be further compressed, and the amount of data can be reduced.
上記透かし入り画像出力装置は,画像に含まれる所定長さを有する直線及び/又は破線の領域を抽出する直線/破線処理部をさらに備え,上記透かし情報埋め込み部は,直線/破線処理部により抽出された直線及び/又は破線の領域の位置及び/又は大きさに関する直線領域情報を透かし情報として画像にさらに埋め込むように構成することができる。 The watermarked image output apparatus further includes a straight line / dashed line processing unit for extracting a straight line and / or broken line region having a predetermined length included in the image, and the watermark information embedding unit is extracted by the straight line / dashed line processing unit. The straight line area information regarding the position and / or size of the straight line and / or broken line area can be further embedded in the image as watermark information.
上記課題を解決するために,本発明の別の観点によれば,透かし入り画像入力装置が提供される。上記透かし入り画像入力装置は,画像のうち改ざんされたか否かを判定する1又は2以上の特定領域の位置及び/又は大きさに関する領域情報,または特定領域にかかる画像の部分画像のうち少なくとも一つが透かし情報として画像に埋め込まれることで生成された出力画像を入力し,その入力された出力画像に埋め込まれた該透かし情報を抽出する透かし情報抽出部と;入力された出力画像を加工し,画像と略同一サイズの入力画像に変形する画像変形部と;原画像の画像領域に存在する特定領域の画像に少なくとも類似する擬似画像を生成する擬似画像生成部と;入力画像と擬似画像との差分からなる差分画像を生成し,該差分画像に差分領域が存在していた場合,入力画像の変形元となる出力画像が改ざんされたと判定する改ざん判定部とを備えることを特徴としている。 In order to solve the above problems, according to another aspect of the present invention, a watermarked image input apparatus is provided. The watermarked image input device includes at least one of region information regarding the position and / or size of one or more specific regions for determining whether or not the image has been tampered with, or a partial image of an image related to the specific region. A watermark information extraction unit that inputs an output image generated by embedding one in the image as watermark information and extracts the watermark information embedded in the input output image; and processes the input output image; An image deforming unit that transforms an input image having substantially the same size as the image; a pseudo image generating unit that generates a pseudo image at least similar to an image in a specific region existing in the image region of the original image; and an input image and a pseudo image Tampering determination that generates a difference image consisting of differences and determines that the output image that is the source of deformation of the input image has been tampered with when a difference area exists in the difference image It is characterized in that it comprises and.
本発明によれば,出力画像を入力することで,画像に埋め込まれた透かし情報を抽出し,出力画像を補正や,出力画像の二値化,または出力画像の拡大/縮小する等の加工処理を実行することで入力画像を生成し,さらに上記透かし情報に基づき擬似画像を生成し,上記双方の画像の差分をとった差分画像に差分領域が存在していれば,改ざんされたと判定することができる。かかる構成によれば,改ざん検出を人の目に頼らなくとも自動的に装置が検出することができ,大量の出力画像を迅速的に,精度良く改ざん検出処理を実行することができる。また,画像から抽出する透かし情報は,改ざん検出処理の対象となる領域(特定領域)のみに関する画像又は領域情報等を埋め込むため画像全領域よりもデータ量を軽減することが可能となり,改ざん検出処理の効率化,迅速化が図れる。なお,差分領域は,例えば上記入力画像と擬似画像の一対一対応する画像の領域とが相違する場合に出現する領域である。 According to the present invention, by inputting an output image, watermark information embedded in the image is extracted, and processing such as correction of the output image, binarization of the output image, or enlargement / reduction of the output image is performed. To generate an input image, generate a pseudo image based on the watermark information, and if there is a difference area in the difference image obtained by taking the difference between the two images, determine that the image has been tampered with Can do. According to such a configuration, the apparatus can automatically detect tampering detection without depending on human eyes, and a tamper detection process can be executed quickly and accurately for a large number of output images. In addition, since the watermark information extracted from the image embeds the image or area information related to only the area (specific area) subject to the falsification detection process, the amount of data can be reduced compared to the whole area of the image. Can be made more efficient and faster. The difference area is an area that appears when, for example, the input image and the pseudo image have a one-to-one corresponding image area.
透かし情報抽出部は,領域情報,特定領域にかかる画像の部分画像,該特定領域にかかる画像の部分画像が縮小された縮小画像,または該縮小画像の縮小率のうち少なくとも一つが透かし情報として画像に埋め込まれることで生成された出力画像を入力し,その入力された出力画像に埋め込まれた該透かし情報を抽出するように構成してもよい。 The watermark information extraction unit includes at least one of area information, a partial image of an image relating to the specific area, a reduced image obtained by reducing a partial image of the image relating to the specific area, or a reduction ratio of the reduced image as watermark information. An output image generated by being embedded in the input image may be input, and the watermark information embedded in the input output image may be extracted.
上記擬似画像生成部が画像と略同一サイズの背景画像を生成し,透かし情報に特定領域に対応する画像の部分画像が含まれる場合そのまま該画像を背景画像に領域情報に従って配置し,または透かし情報に特定領域に対応する縮小画像が含まれる場合,縮小画像に縮小した縮小率の逆数の倍率でまず拡大し,該拡大した縮小画像を領域情報に従って配置し,擬似画像を生成することで該擬似画像は画像に類似させるように構成してもよい。 When the pseudo image generation unit generates a background image having substantially the same size as the image, and the watermark information includes a partial image of the image corresponding to the specific area, the image is directly arranged in the background image according to the area information, or the watermark information When a reduced image corresponding to a specific area is included in the image, the reduced image is first enlarged at a reciprocal of the reduced reduction rate, the enlarged reduced image is arranged according to the area information, and a pseudo image is generated. The image may be configured to be similar to the image.
擬似画像生成部が抽出された透かし情報に含む特定領域の位置及び/又は大きさに関する領域情報,特定領域にかかる画像,または特定領域にかかる画像が縮小された縮小画像のうち少なくとも一方に基づき擬似画像を生成することで,該擬似画像は画像に類似するように構成してもよい。 The pseudo image generation unit is simulated based on at least one of area information on the position and / or size of the specific area included in the extracted watermark information, an image on the specific area, or a reduced image obtained by reducing the image on the specific area. By generating an image, the pseudo image may be configured to be similar to the image.
特定領域は,文字,記号,または図形のうち少なくとも一つを含む文字領域であるように構成してもよい。なお,上記文字は1又は2文字以上であり,記号と図形も1又は2以上である。 The specific area may be configured to be a character area including at least one of a character, a symbol, or a figure. In addition, the said character is 1 or 2 characters or more, and a symbol and a figure are 1 or 2 or more.
上記画像変形部は,透かし情報に含まれる特定領域の位置及び/又は大きさに関する領域情報に基づき,入力された出力画像において特定領域と一致する領域を切り出し,その特定領域に対応する透かし情報に含んだ縮小率で切り出された領域の画像を縮小し,さらにその縮小率の逆数の倍率で該切り出された領域の画像を拡大した後,上記出力画像における元の位置に配置するように構成してもよい。かかる構成により,生成される擬似画像の作成条件と同じ条件にし,擬似画像の画質と入力画像の画質とをほぼ同じにすることによって,改ざん検出の精度を向上させ,より正確に改ざんされたか否かを判断することができる。 The image transformation unit cuts out an area that matches the specific area in the input output image based on the area information regarding the position and / or size of the specific area included in the watermark information, and converts the area into the watermark information corresponding to the specific area. The image of the clipped area is reduced at the included reduction ratio, and the image of the clipped area is enlarged at a magnification that is the reciprocal of the reduction ratio, and is then placed at the original position in the output image. May be. With such a configuration, it is possible to improve the accuracy of tamper detection by setting the same conditions as the generation conditions of the generated pseudo image and making the image quality of the pseudo image and the image quality of the input image substantially the same, and whether or not the tampering has been performed more accurately. Can be determined.
上記画像変形部は,特定領域ごとの重要度に応じて定められる縮小率で切り出された領域の画像を縮小し,さらにその縮小率の逆数の倍率で該切り出された領域の画像を拡大した後,出力画像における元の位置に配置するように構成してもよい。 The image transformation unit reduces the image of the clipped region at a reduction rate determined according to the importance for each specific region, and further enlarges the image of the clipped region at a magnification that is the inverse of the reduction rate. , It may be arranged at the original position in the output image.
透かし入り画像入力部に備わる透かし情報抽出部は,画像に含まれる所定長さを有する直線及び/又は破線の領域の位置及び/又は大きさに関する直線/破線領域情報を透かし情報として出力画像から抽出し;上記透かし入り画像入力装置は,さらに透かし情報に含まれる直線/破線領域情報に基づき,入力された出力画像に存在する直線及び/又は破線の領域を除去する直線/破線除去部を備えるように構成してもよい。 The watermark information extraction unit included in the watermarked image input unit extracts, as watermark information, straight line / broken line area information relating to the position and / or size of a straight line and / or broken line area having a predetermined length included in the image from the output image. The watermarked image input apparatus further includes a straight line / broken line removal unit for removing straight lines and / or broken line areas present in the input output image based on straight line / broken line area information included in the watermark information. You may comprise.
上記課題を解決するために,本発明の別の観点によれば,画像を入力し,その入力された画像から1又は2以上の改ざんされたか否かを判定する領域の特定領域を切り出す処理を実行する画像加工処理と;上記画像加工処理で切り出された特定領域の位置及び/又は大きさに関する領域情報,または特定領域に対応する画像の部分画像のうち少なくとも一方を透かし情報として画像に埋め込み,出力画像を生成する透かし情報埋め込み処理とを含むことを特徴としている。 In order to solve the above-described problem, according to another aspect of the present invention, an image is input, and a process of cutting out a specific area of an area for determining whether one or more tampering has been performed from the input image. Image processing to be executed; and embedding at least one of region information regarding the position and / or size of the specific region cut out by the image processing processing, or a partial image of the image corresponding to the specific region as watermark information, And a watermark information embedding process for generating an output image.
上記課題を解決するために,本発明の別の観点によれば,画像のうち改ざんされたか否かを判定する1又は2以上の特定領域の位置及び/又は大きさに関する領域情報,または特定領域にかかる画像の部分画像のうち少なくとも一つが透かし情報として画像に埋め込まれることで生成された出力画像を入力し,その入力された出力画像に埋め込まれた該透かし情報を抽出する透かし情報抽出処理と;入力された出力画像を加工し,画像と略同一サイズの入力画像に変形する画像変形処理と;画像に存在する特定領域の部分画像に少なくとも類似する擬似画像を生成する擬似画像生成処理と;入力画像と擬似画像との差分からなる差分画像を生成し,該差分画像に差分領域が存在していた場合,入力画像の変形元となる出力画像が改ざんされたと判定する改ざん判定処理とを含むことを特徴としている。 In order to solve the above-described problem, according to another aspect of the present invention, region information regarding the position and / or size of one or more specific regions for determining whether or not an image has been tampered with, or a specific region A watermark information extraction process for inputting an output image generated by embedding at least one of the partial images of the image as watermark information in the image and extracting the watermark information embedded in the input output image; An image transformation process that processes the input output image and transforms the input image into an input image having substantially the same size as the image; a pseudo image generation process that generates a pseudo image that is at least similar to a partial image of a specific area existing in the image; If a difference image is generated that consists of the difference between the input image and the pseudo image, and the difference area exists in the difference image, the output image that is the source of deformation of the input image has been altered. It is characterized by comprising a determining alteration determination process.
以上説明したように,本発明によれば,人間の目で改ざんの有無を検出せずに,改ざん検出装置が自動的に文書画像に改ざんが存在するか否かを自動的に検出することができる。また,人間の目ではなく装置によって改ざんを検出するため,文書画像に改ざんが存在するか否かの検出処理の精度を向上させることができる。一方で,改ざん検出をするために文書画像に透かし情報を埋め込むが,その透かし情報には,文書画像の全領域ではなく文書画像のうち改ざん防止を重点的に検査する領域だけに限定して,その領域に関する情報等を埋め込むため,データ量を軽減することができる。 As described above, according to the present invention, the falsification detection device can automatically detect whether or not falsification exists in a document image without detecting the presence or absence of falsification by human eyes. it can. In addition, since tampering is detected by an apparatus instead of human eyes, the accuracy of detection processing for determining whether or not tampering exists in a document image can be improved. On the other hand, watermark information is embedded in the document image in order to detect falsification, but the watermark information is limited to only the area of the document image that is to be examined for prevention of falsification, not the entire area of the document image. Since the information about the area is embedded, the amount of data can be reduced.
以下,本発明の好適な実施の形態について,添付図面を参照しながら詳細に説明する。なお,以下の説明及び添付図面において,略同一の機能及び構成を有する構成要素については,同一符号を付することにより,重複説明を省略する。 DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments of the invention will be described in detail with reference to the accompanying drawings. In the following description and the accompanying drawings, components having substantially the same functions and configurations are denoted by the same reference numerals, and redundant description is omitted.
なお,以下に説明する文書画像は,白黒(背景が白,文字が黒)の場合を前提に説明するが,かかる場合に限定されず,文書画像の背景と文字の色が相違していれば,如何なる背景と文字との色の組み合わせの場合も実施可能である。 The document image described below is described on the assumption that the document image is black and white (background is white, character is black). However, the present invention is not limited to this, and the document image background and character color are different. , Any background color combination can be implemented.
(第1の実施の形態について)
まず,図1を参照しながら,第1の実施の形態にかかる改ざん検出装置に備わる文書出力部10について説明する。図1は,第1の実施の形態にかかる文書出力部10の概略的な構成を示すブロック図である。
(About the first embodiment)
First, the
図1に示すように,文書出力部10は,文書画像(画像)11を入力として,透かし入りの出力文書画像14を出力する。なお,上記文書画像11は,ワープロソフトなどの文書作成ソフトで作成された文書データを画像化した画像データである。
As shown in FIG. 1, the
出力文書画像14は,文書画像11の特徴を透かし情報として埋め込んだ画像データであり,通常は上記出力文書画像14を紙などの印刷媒体に印刷して保存または配布するが,印刷せずに画像データのまま保存または配布してもよい。なお,上記出力文書画像14は,プリンタなどの出力装置に該当する出力デバイス(図示せず。)によって出力される。
The
文書出力部10には,文書画像11から文書画像11の特徴を示す指標となる特徴量を抽出してデータ化する文書特徴データ化部(画像加工部)12と,データ化された特徴量を透かし情報として文書画像11に埋め込む透かし情報合成部(透かし情報埋め込み部)13とが備わっている。
The
文書特徴データ化部12では,文書画像11中に存在する文字領域に対応する画像(部分画像)のみを取り出して,文字領域に対応する部分画像ごとに縮小し,縮小した上記文字領域を集めた画像(部分画像)を文書画像の特徴データとすることで,同じ縮小率でも文書画像11全体をそのまま縮小して特徴データとする場合と比較してデータ量を削減することができる。なお,以下の説明において,文書画像11に存在する文字領域は,例えば,単に大きさや範囲等を示す領域そのものを指す場合や,または文字領域の領域に対応する部分の文書画像(部分画像)を指す場合があるものとする。
The document feature
上記透かし情報合成部13は,文書画像11と透かし情報とを重ね合わせて透かし入りの文書画像を作成する。透かし情報合成部13は,透かし情報をディジタル化して数値に変換したものをN元符号化(Nは2以上)し,符号後の各シンボルを予め用意した信号に割当てる。信号は任意の大きさの矩形領域中にドットを配列することにより任意の方向と波長を持つ波を表現し,波の方向や波長に対してシンボルを割当てたものである。透かし入り文書画像は,これらの信号がある規則に従って画像上に配置されたものである。
The watermark
次に,図2を参照しながら,第1の実施の形態にかかる改ざん検出装置に備わる文書入力部20について説明する。なお,図2は,第1の実施の形態にかかる文書入力部の概略的な構成の一例を示すブロック図である。
Next, the
文書入力部20は,透かし入りが埋め込まれた出力文書画像14を直接または間接的に取り込むことで生成される入力文書画像21から改ざんの有無を判定し,その結果を改ざん検出結果26として出力する。
The
入力文書画像21は,上記出力文書画像14が印刷物の場合,当該印刷物をスキャナなどの入力デバイス(図示せず。)により計算機(改ざん検出装置)に取り込まれる。または,上記出力文書画像14がディジタルデータのままの場合,有線又は無線により入力デバイスから直接取り込まれる。つまり,入力文書画像21と出力文書画像14は同一である。
When the
図2に示すように,文書入力部20は,入力文書画像21から透かし情報を取り出す透かし情報抽出部22と,入力文書画像21から抽出した透かし情報を文書出力部10で埋め込んだ文書画像11の特徴を示す特徴情報に復元する擬似文書画像生成部23と,復元した特徴情報に基づき文書画像11の特徴と比較が行えるように入力文書画像21を変形する入力画像変形部(画像変形部)24と,および文書画像復元部23と入力画像変形部24で計算した画像を比較して改ざんを判定する改ざん検出部(改ざん判定部)25から構成される。なお,上記入力画像変形部24が入力文書画像21を変形するのは,入力文書画像21に改ざんの有無を判定するためである。
As shown in FIG. 2, the
次に,第1の実施の形態にかかる文書出力部10の処理の一連の動作について説明する。なお,以降の説明では,文書画像11において文書が横書きの場合について説明するが,かかる場合に限定されず,例えば,文書が縦書きの場合であっても実施可能である。上記文書が縦書きの場合,文書画像11を左右どちらかに90度回転させた後,文書が横書きの場合における処理と同一の処理を実行すること等により実施される。
Next, a series of operations of processing of the
まず,図3を参照しながら,文書特徴データ化部12の処理について説明する。なお,図3は,第1の実施の形態にかかる文書特徴データ化部の処理の概略の一例を示すフローチャートである。
First, the processing of the document feature
図3に示すように,文書特徴データ化部12は,まず,文書画像11から文字領域のみを抽出する文字領域抽出処理(S31)を実行する。
As shown in FIG. 3, the document feature
(文書画像11について)
ここで,図4を参照しながら,本実施の形態にかかる文書画像11について説明する。なお,図4は,本実施の形態にかかる文書画像の概略的な構成の一例を示す説明図である。
(About document image 11)
Here, the
文書画像11は,フォント情報やレイアウト情報を含むデータであり,文書作成ソフト等で作成されるものとする。文書画像11は,文書が紙に印刷された状態の画像としてページごとに作成することができる。この文書画像11は白黒の2値画像であり,画像上で白い画素(値が1の画素)は背景であり,黒い画素(値が0の画素)は文字領域(インクが塗布される領域)であるものとする。
The
図4に示すように,文書画像11は,機密性,完全性などを保持することが必要な証明書等の重要な文書を例示することができる。また,文書画像11に文書が印字されている個所各々が文字領域に該当する。文字領域は,本実施の形態では文字が黒のため黒画素領域であるとするが,かかる例に限定されない。
As shown in FIG. 4, the
(文字領域抽出処理(S31)について)
図5〜図8を参照しながら,上記文字領域抽出処理(S31)についてさらに具体的に説明する。なお,図5〜図8は,文字領域の抽出処理の概略を示す説明図である。
(Character area extraction processing (S31))
The character area extraction process (S31) will be described more specifically with reference to FIGS. 5 to 8 are explanatory diagrams showing an outline of the character region extraction processing.
上記文字領域抽出処理(S31)では,以下に示すStep1〜Step3に従って文字領域の抽出が行われる。
In the character region extraction process (S31), character regions are extracted according to the
(Step1)
まず,文書画像11の領域のうち文字領域(黒画素領域)に対応する画像(部分画像)に対して膨張処理を行う。膨張処理は一般的な画像処理の方法を用いる。図5は,図4に示す文書画像11の文字領域に対して膨張処理を行った結果の一例である。
(Step 1)
First, an expansion process is performed on an image (partial image) corresponding to a character area (black pixel area) in the area of the
(Step2)
文書特徴データ化部12は,図4に示す文書画像11の文字領域に対応する部分画像について膨張処理を行うと,その膨張処理を行った文字領域に対応する部分画像に対してラベル付けを行い,各文字領域を囲む最小矩形を抽出する。
(Step 2)
When the document feature
なお,上記ラベル付けは,連続的に集まった黒画素の集合を1つのグループとして定義付ける,いわゆる黒画素のグルーピング処理である。上記ラベル付けすることで,1文字または2文字からなる最小矩形からなる文字領域を抽出することができる。 The labeling is a so-called black pixel grouping process in which a set of continuously collected black pixels is defined as one group. By labeling, a character area consisting of a minimum rectangle consisting of one or two characters can be extracted.
文書特徴データ化部12が文書領域51に対して膨張処理を行い,ラベル付け処理を行うと,図6に示すように,文書特徴データ化部12は,1文字又は2文字程度の極力少ない文字数の最小矩形からなる文字領域を認識する。なお,図6は,図5に示す文書画像11の文字領域51について,ラベル付け処理の概略の一例を示す説明図である。
When the document feature
上記文書特徴データ化部12が,膨張処理を行うのは,上記ラベル付け処理を効率化するためであり,かかる膨張処理によって,ラベル付け処理の処理時間を短縮することができる。なお,計算速度が十分に速い改ざん検出装置の場合には,“Step1”を省略し,文書画像11に対して直接ラベル付けを行っても良い。
The document feature
(Step3)
次に,文書特徴データ化部12は,ラベル付けを行った最小矩形からなる文字領域の存在位置を把握し,その文字領域の左右に存在する最小矩形からなる文字領域同士の部分画像を結合させる。
(Step 3)
Next, the document feature
図6に示すように,例えば,文字領域51−1のうち,矩形A(最右端から3番目,真中の矩形)の左上頂点の座標値が(Xa0,Ya0),右下頂点の座標値が(Xa1,Ya1)であったとする。この矩形の左隣に存在する矩形Bの右下頂点の座標値が(Xb1,Yb1)であるとき,「Xa0−Xb1<Tw」を満たす場合には矩形Aと矩形Bを結合する。また,矩形Aの右隣に存在する矩形Cの左上頂点の座標値が(Xc0,Yc0)で,「Xc0−Xa1<Tw」を満たす場合には矩形Aと矩形Cを結合する。 As shown in FIG. 6, for example, in the character area 51-1, the coordinate value of the upper left vertex of the rectangle A (third from the rightmost, middle rectangle) is (X a0 , Y a0 ), and the coordinate of the lower right vertex. It is assumed that the value is (X a1 , Y a1 ). When the coordinate value of the lower right vertex of the rectangle B existing on the left side of this rectangle is (X b1 , Y b1 ), the rectangle A and the rectangle B are combined if “X a0 −X b1 <Tw” is satisfied. To do. Further, when the coordinate value of the upper left vertex of the rectangle C existing right next to the rectangle A is (X c0 , Y c0 ) and satisfies “X c0 -X a1 <Tw”, the rectangle A and the rectangle C are combined. .
その結果,文書特徴データ化部12は,図7に示す文字領域51−1や,文字領域51−2等のように,複数文字が含まれる文字領域51を抽出することができる。なお,上記結合処理の結果,文字領域51には,1文字だけの文字が含まれる場合もあり得る。かかる最小矩形を結合処理することで,例えば,文字領域に対応する部分画像の縮小など後続処理を繰り返し実行せずにある程度一括して効率的に行うことができる。なお,図7は,図6に示す最小矩形を結合する結合処理の結果を概略的に示す説明図である。
As a result, the document feature
さらに,文書特徴データ化部12は,上記Step1〜Step3からなる文字領域抽出処理(S31)を図6に示す文字領域51だけでなく,文書画像11に含まれるその他の文字領域についても実行する。
Further, the document feature
図8に示すように,文書特徴データ化部12が文字領域抽出処理(S31)を実行すると,文書画像11には,領域1〜領域9,・・・などの複数の文字領域が存在するのが分かる。なお,文書特徴データ化部12は,各文字領域の位置情報を例えば座標などによって管理している。図8は,文字領域抽出(S31)を実行した結果の文書画像11の概略的な構成を示す説明図である。
As shown in FIG. 8, when the document feature
(文字領域切り出し・縮小処理(S32)について)
次に,文書特徴データ化部12は,文字領域抽出処理(S31)で抽出した文字領域を文書画像11から切り出し,その切り出された文字領域各々を縮小する(S32)。
(Regarding character area cutout / reduction processing (S32))
Next, the document feature
図9を参照しながら,上記文字領域を切り出し・縮小する処理(S32)について説明する。なお,図9は,図8に示す領域1及び領域2の文字領域について切り出し・縮小処理(S32)する概略の一例を示す説明図である。
The process (S32) for cutting out and reducing the character area will be described with reference to FIG. Note that FIG. 9 is an explanatory diagram illustrating an example of an outline of the cutout / reduction processing (S32) for the character areas of the
図9に示すように,文書特徴データ化部12は,まず,図8に示す文書画像11のうち領域1と領域2の文字領域を切り出す。なお,切り出された領域1と領域2の文字領域からなる画像データは,図9に示す左側である。
As shown in FIG. 9, the document feature
次に,文書特徴データ化部12は,領域1と領域2の文字領域からなる文書画像(画像データ)各々を縮小する(図9に示す右側の文書画像)。したがって,縮小されるため領域1と領域2の画像データのデータ量は小さくなる。なお,縮小率は,予め所定率で一律固定の場合を例に挙げて説明するが,かかる例に限定されず,文字領域によって縮小率を動的に変更する等の場合でもよい。詳細については後程説明する。
Next, the document feature
上記領域1と領域2以外の文字領域抽出処理(S31)で抽出した全ての文字領域について,文書特徴データ化部12は,縮小処理を実行する(S32)。なお,上記縮小した文字領域を“縮小文字領域”と明記する。
The document feature
また,文書特徴データ化部12は,文字領域を抽出する際に,各文字領域の左上頂点の座標値に従って,識別番号を割り当てている。その割り当て方法については文書出力部10と文書入力部20の間では共通である。例えば,図8に示す識別番号は,領域1,領域2,…等のように“1”,“2”,…が識別番号となるが,その割当て方法は,文書画像11の左上を基準座標(0,0)としたうえで,文字領域の左上頂点のy座標値が小さいものを第1優先とし,その次にx座標値の小さいものを第2優先として昇順に識別番号を割り振っているが,かかる例に限定されない。
Further, when extracting the character area, the document feature
(縮小文字領域合成(S33)について)
次に,文字領域の切り出し・縮小処理(S32)が終了すると,文書特徴データ化部12は,上記縮小文字領域を組み合わせるように縮小文字領域各々を合成し,1つの画像(合成画像)を生成する。
(About reduced character area composition (S33))
Next, when the character area segmentation / reduction process (S32) is completed, the document feature
ここで,図10,図11を参照しながら,本実施の形態にかかる合成画像について説明する。なお,図10,図11は本実施の形態にかかる縮小文字領域の合成画像の概略的な構成の一例を示す説明図である。 Here, the composite image according to the present embodiment will be described with reference to FIGS. 10 and 11. 10 and 11 are explanatory diagrams showing an example of a schematic configuration of a reduced character region composite image according to the present embodiment.
文書特徴データ化部12は,複数の縮小文字領域を所定の順番に従って各縮小文字領域がシームレスに繋ぎ合わさるように配置していく。なお,縮小文字領域が単数の場合は,上記合成処理(S33)は実行されず省略されるものとする。
The document feature
文書特徴データ化部12による全ての縮小文字領域の配置が終了すると,その配置された複数の縮小文字領域を1つの画像データとする合成画像が文書特徴データ化部12によって生成される。
When the arrangement of all the reduced character areas by the document feature
図10に示す合成画像は,図8に示す領域1〜領域n(例えば,nは正の整数。)を縮小した縮小文字領域1〜縮小文字領域nを縮小文字領域1から昇順(1,2,3,…)に縦(垂直方向)にシームレスに配置することによって合成した場合の画像データである。
The composite image shown in FIG. 10 includes reduced
なお,図10に示す合成画像の場合,合成画像の幅は全ての縮小文字領域1〜縮小文字領域nのなかで最も幅の大きい縮小文字領域に左右される。また合成画像の高さは,全ての縮小文字領域の高さを合計した総和となる。
In the case of the composite image shown in FIG. 10, the width of the composite image depends on the reduced character region having the largest width among all the
また,上記図10に示した合成画像に限定されず,例えば,変形例として図11に示す合成画像を例示することができる。図11に示す合成画像は,図8に示す領域1〜領域nを縮小した縮小文字領域1〜縮小文字領域nを縮小文字領域1から昇順に合成画像の幅を所定値に固定した上で,縮小文字領域をシームレスに配置することによって合成した場合の画像データである。つまり,合成画像の幅に余りがあれば,その余りに次の縮小文字領域を配置することで,余白領域を減少させることができる。
Further, the present invention is not limited to the composite image shown in FIG. 10, and for example, the composite image shown in FIG. 11 can be exemplified as a modification. The composite image shown in FIG. 11 is obtained by fixing the width of the composite image to a predetermined value in ascending order from the reduced
図11に示す合成画像の合成処理として,縮小文字領域の面積の総和などから合成画像の幅Wsを予め決めておき,Wsを超えない限りは縮小文字領域を横に並べ,Wsを超える場合には合成画像の次段の左端に縮小文字領域を配置する等の方法により合成する処理を例示できる。 As the synthesis processing of the composite image shown in FIG. 11, previously determined width W s of the composite image from such total area of the reduced character region in advance, as long as it does not exceed the W s is arranged reduced character area next to the W s In the case of exceeding, a process of combining by a method such as arranging a reduced character area at the left end of the next stage of the combined image can be exemplified.
どのような合成処理のパターンを選択するかは,予め定めても良いし,合成画像のサイズ,あるいは合成画像を圧縮したときのサイズが最も小さくなるパターンを文書画像11ごとに計算して選択しても良い。この場合,どの合成パターンで結合したかは画像特徴データ以外のフィールドに記録する。
The type of composition processing pattern to be selected may be determined in advance, or a pattern for which the size of the composite image or the size when the composite image is compressed is calculated and selected for each
合成画像はそのまま文書画像11に埋め込んでも良いし,既知の画像圧縮方法によって圧縮した後に文書画像11に埋め込んでも良い。
The composite image may be embedded in the
(透かし情報合成部13の処理について)
透かし情報合成部13では改ざん検出用のデータ(改ざん検出データData)を文書画像11に透かし情報として埋め込む。なお,改ざん検出データDataとは以下に示すデータであるとする。
(Regarding the processing of the watermark information synthesis unit 13)
The watermark
Data0:文書画像11の大きさ,データサイズなどのヘッダ情報
Data1:合成画像の画像データあるいは合成画像を圧縮した画像データ
Data2:文字領域の位置情報(文字領域抽出処理(S31)により抽出したもの)
Data3:合成画像の作成方法ID(合成画像の作成方法を文書画像11ごとに変更する場合)
Data 0: Header information such as the size and data size of the
Data3: Composite image creation method ID (when the composite image creation method is changed for each document image 11)
なお,上記改ざん検出データData0,改ざん検出データData1,改ざん検出データData2は改ざん検出のために必須であるが,改ざん検出データData3については必要に応じて適宜埋め込む。図12に示すテーブルは,改ざん検出データData2に関するテーブルであって,文書画像11において文字領域が存在する位置を示す座標値と領域番号とが1対1対応したテーブルの一例である。改ざん検出データData2では文字領域矩形の左上頂点のx座標,y座標,右下頂点のx座標,y座標をそれぞれ記録する。なお,図12は,文書画像11に埋め込まれる改ざん検出データData2のテーブルの概略的な構成の一例を示す説明図である。
Note that the falsification detection data Data0, falsification detection data Data1, and falsification detection data Data2 are essential for falsification detection, but the falsification detection data Data3 is appropriately embedded as necessary. The table shown in FIG. 12 is an example of a table related to the falsification detection data Data2, and the coordinate value indicating the position where the character area exists in the
ここで,図13を参照しながら,透かし情報合成部13の透かし情報を埋め込むなどの処理について説明する。なお,図13は,透かし情報合成部13の処理の概略的な流れの一例を示すフローチャートである。
Here, a process of embedding watermark information of the watermark
図13に示すように,まず,改ざん検出データDataをN元符号に変換する(ステップS101)。Nは任意であるが,本実施形態では説明を容易にするためN=2とする。従って,ステップS101で生成される符号は2元符号であり,0と1のビット列で表現されるものとする。このステップS101ではデータをそのまま符号化しても良いし,データを暗号化したものを符号化しても良い。 As shown in FIG. 13, first, falsification detection data Data is converted into an N-element code (step S101). N is arbitrary, but in the present embodiment, N = 2 for ease of explanation. Accordingly, the code generated in step S101 is a binary code, and is expressed by a bit string of 0 and 1. In this step S101, the data may be encoded as it is, or the encrypted data may be encoded.
次に,符号語の各シンボルに対して透かし信号を割り当てる(ステップS102)。透かし信号とはドット(黒画素)の配列によって任意の波長と方向を持つ波を表現したものである。透かし信号については,さらに後述する。 Next, a watermark signal is assigned to each symbol of the code word (step S102). The watermark signal represents a wave having an arbitrary wavelength and direction by an arrangement of dots (black pixels). The watermark signal will be further described later.
さらに,符号化されたデータのビット列に対応する信号ユニットを文書画像11上に配置する(ステップS103)。 Further, a signal unit corresponding to the bit string of the encoded data is arranged on the document image 11 (step S103).
上記ステップS102において,符号語の各シンボルに対して割り当てる透かし信号について説明する。図14は透かし信号の一例を示す説明図である。 The watermark signal assigned to each symbol of the code word in step S102 will be described. FIG. 14 is an explanatory diagram showing an example of a watermark signal.
透かし信号の幅と高さをそれぞれSw,Shとする。SwとShは異なっていても良いが,本実施形態では説明を容易にするためSw=Shとする。長さの単位は画素数であり,図14の例ではSw=Sh=12である。これらの信号が紙面に印刷されたときの大きさは,透かし画像の解像度に依存しており,例えば透かし画像が600dpi(dot per inch:解像度の単位であり,1インチ当たりのドット数)の画像であるとしたならば,図14の透かし信号の幅と高さは,印刷文書上で12/600=0.02(インチ)となる。 Let the width and height of the watermark signal be Sw and Sh, respectively. Sw and Sh may be different, but in the present embodiment, Sw = Sh is set for ease of explanation. The unit of length is the number of pixels. In the example of FIG. 14, Sw = Sh = 12. The size when these signals are printed on the paper surface depends on the resolution of the watermark image. For example, the watermark image is an image of 600 dpi (dot per inch: unit of resolution, number of dots per inch). 14, the width and height of the watermark signal in FIG. 14 are 12/600 = 0.02 (inch) on the printed document.
以下,幅と高さがSw,Shの矩形を1つの信号の単位として「信号ユニット」と称する。図14(1)は,ドット間の距離が水平軸に対してarctan(3)(arctanはtanの逆関数)の方向に密であり,波の伝播方向はarctan(−1/3)である。以下,この信号ユニットをユニットAと称する。図14(2)はドット間の距離が水平軸に対してarctan(−3)の方向に密であり,波の伝播方向はarctan(1/3)である。以下,この信号ユニットをユニットBと称する。 Hereinafter, a rectangle having a width and a height of Sw and Sh is referred to as a “signal unit” as one signal unit. In FIG. 14A, the distance between dots is dense in the direction of arctan (3) (arctan is an inverse function of tan) with respect to the horizontal axis, and the wave propagation direction is arctan (−1/3). . Hereinafter, this signal unit is referred to as unit A. In FIG. 14B, the distance between dots is dense in the direction of arctan (−3) with respect to the horizontal axis, and the wave propagation direction is arctan (1/3). Hereinafter, this signal unit is referred to as unit B.
図15は,図14(1)の画素値の変化をarctan(1/3)の方向から見た断面図である。図15において,ドットが配列されている部分が波の最小値の腹(振幅が最大となる点)となり,ドットが配列されていない部分は波の最大値の腹となっている。 FIG. 15 is a cross-sectional view of the change in the pixel value in FIG. 14A as viewed from the direction of arctan (1/3). In FIG. 15, the portion where the dots are arranged is the antinode of the minimum value of the wave (the point where the amplitude is maximum), and the portion where the dots are not arranged is the antinode of the maximum value of the wave.
また,ドットが密に配列されている領域はそれぞれ1ユニットの中に2つ存在するため,この例では1ユニットあたりの周波数は2となる。波の伝播方向はドットが密に配列されている方向に垂直となるため,ユニットAの波は水平方向に対してarctan(−1/3),ユニットBの波はarctan(1/3)となる。なお,arctan(a)の方向とacrtan(b)の方向が垂直のとき,a×b=−1である。 In addition, since there are two regions in each unit where dots are densely arranged, the frequency per unit is 2 in this example. Since the wave propagation direction is perpendicular to the direction in which the dots are densely arranged, the wave of unit A is arctan (-1/3) with respect to the horizontal direction, and the wave of unit B is arctan (1/3). Become. Note that a × b = −1 when the direction of arctan (a) and the direction of actan (b) are perpendicular.
本実施形態では,ユニットAで表現される透かし信号にシンボル0を割り当て,ユニットBで表現される透かし信号にシンボル1を割り当てる。また,これらをシンボルユニットと称する。
In the present embodiment,
透かし信号には図14(1),(2)で示されるもの以外にも,例えば図16(3)〜(5)で示されるようなドット配列が考えられる。図16(3)は,ドット間の距離が水平軸に対してarctan(1/3)の方向に密であり,波の伝播方向はarctan(−3)である。以下,この信号ユニットをユニットCと称する。 In addition to the watermark signals shown in FIGS. 14 (1) and (2), for example, dot arrangements as shown in FIGS. 16 (3) to (5) are conceivable. In FIG. 16 (3), the distance between dots is dense in the direction of arctan (1/3) with respect to the horizontal axis, and the wave propagation direction is arctan (-3). Hereinafter, this signal unit is referred to as unit C.
図16(4)は,ドット間の距離が水平軸に対してarctan(−1/3)の方向に密であり,波の伝播方向はarctan(3)である。以下,この信号ユニットをユニットDと称する。図16(5)は,ドット間の距離が水平軸に対してarctan(1)の方向に密であり,波の伝播方向はarctan(−1)である。なお,図16(5)は,ドット間の距離が水平軸に対してarctan(−1)の方向に密であり,波の伝播方向はarctan(1)であると考えることもできる。以下,この信号ユニットをユニットEと称する。 In FIG. 16 (4), the distance between dots is dense in the direction of arctan (−1/3) with respect to the horizontal axis, and the wave propagation direction is arctan (3). Hereinafter, this signal unit is referred to as unit D. In FIG. 16 (5), the distance between dots is dense in the direction of arctan (1) with respect to the horizontal axis, and the wave propagation direction is arctan (−1). In FIG. 16 (5), it can be considered that the distance between dots is dense in the direction of arctan (−1) with respect to the horizontal axis, and the wave propagation direction is arctan (1). Hereinafter, this signal unit is referred to as unit E.
このようにして,先に割り当てた組み合わせ以外にも,シンボル0とシンボル1を割り当てるユニットの組み合わせのパターンが複数考えられるため,どの透かし信号がどのシンボルに割り当てられているかを秘密にして第三者(不正者)が埋め込まれた信号を簡単に解読できないようにすることもできる。
In this way, in addition to the combinations assigned previously, there can be a plurality of patterns of combinations of units to which
さらに,図13に示したステップS102で,改ざん検出データDataを4元符号で符号化した場合には,例えば,ユニットAに符号語のシンボル0を,ユニットBにシンボル1を,ユニットCにシンボル2を,ユニットDにシンボル3を割り当てることも可能である
Further, when the falsification detection data Data is encoded with a quaternary code in step S102 shown in FIG. 13, for example, the
図14,図16に示した透かし信号の一例においては,1ユニット中のドットの数をすべて等しくしているため,これらのユニットを隙間なく並べることにより,見かけの濃淡が均一となる。したがって印刷された紙面上では,単一の濃度を持つグレー画像が背景として埋め込まれているように見える。 In the example of the watermark signal shown in FIG. 14 and FIG. 16, since the number of dots in one unit is all equal, the apparent shading becomes uniform by arranging these units without gaps. Therefore, it appears that a gray image having a single density is embedded as a background on the printed paper.
このような効果を出すために,例えば,ユニットEを背景ユニット(シンボルが割り当てられていない信号ユニット)と定義し,これを隙間なく並べて文書画像11の背景とし,シンボルユニット(ユニットA,ユニットB)を文書画像11に埋め込む場合は,埋め込もうとする位置の背景ユニット(ユニットE)とシンボルユニット(ユニットA,ユニットB)とを入れ替える。
In order to produce such an effect, for example, the unit E is defined as a background unit (signal unit to which no symbol is assigned), and these are arranged without gaps as the background of the
図17(1)はユニットEを背景ユニットと定義し,これを隙間なく並べて文書画像11の背景とした場合を示す説明図である。図17(2)は図17(1)の背景画像の中にユニットAを埋め込んだ一例を示し,図17(3)は図17(1)の背景画像の中にユニットBを埋め込んだ一例を示している。本実施形態では,背景ユニットを文書画像11の背景とする方法について説明するが,シンボルユニットのみを配置することによって文書画像11の背景としても良い。
FIG. 17A is an explanatory diagram showing a case where the unit E is defined as a background unit and arranged as a background of the
次に,符号語の1シンボルを文書画像11に埋め込む方法について,図18を参照しながら説明する。
Next, a method of embedding one symbol of the code word in the
図18は,文書画像11へのシンボル埋め込み方法の一例を示す説明図である。ここでは,例として「0101」というビット列を埋め込む場合について説明する。
FIG. 18 is an explanatory diagram showing an example of a symbol embedding method in the
図18(1),(2)に示すように,同じシンボルユニットを繰り返し埋め込む。これは文書中の文字が埋め込んだシンボルユニットの上に重なった場合,信号検出時に検出されなくなることを防ぐためであり,シンボルユニットの繰り返し数と配置のパターン(以下,ユニットパターンと称する。)は任意である。 As shown in FIGS. 18A and 18B, the same symbol unit is repeatedly embedded. This is to prevent the character unit in the document from being detected when a signal is detected when it is superimposed on the embedded symbol unit. The symbol unit repetition number and arrangement pattern (hereinafter referred to as a unit pattern) are used. Is optional.
すなわち,ユニットパターンの一例として,図18(1)のように繰り返し数を4(1つのユニットパターン中に4つのシンボルユニットが存在する)にしたり,図18(2)のように繰り返し数を2(1つのユニットパターン中に2つのシンボルユニットが存在する)にしたりすることができ,あるいは,繰り返し数を1(1つのユニットパターン中には1つのシンボルユニットだけが存在する)としてもよい。 That is, as an example of the unit pattern, the number of repetitions is set to 4 (four symbol units exist in one unit pattern) as shown in FIG. 18 (1), or the number of repetitions is set to 2 as shown in FIG. 18 (2). (There are two symbol units in one unit pattern) or the number of repetitions may be one (only one symbol unit exists in one unit pattern).
また,図18(1),(2)は1つのシンボルユニットに対して1つのシンボルが与えられているが,図18(3)のようにシンボルユニットの配置パターンに対してシンボルを与えても良い。 In FIGS. 18A and 18B, one symbol is given to one symbol unit. However, even if symbols are given to the arrangement pattern of symbol units as shown in FIG. good.
1ページ分に何ビットの情報量を埋め込むことができるかは,信号ユニットの大きさ,ユニットパターンの大きさ,画像(または,原画像)の大きさに依存する。画像の水平方向と垂直方向にいくつの信号を埋め込んだかは,既知として信号検出を行っても良いし,入力装置から入力された画像の大きさと信号ユニットの大きさから逆算しても良い。 How many bits of information can be embedded in one page depends on the size of the signal unit, the size of the unit pattern, and the size of the image (or the original image). The number of signals embedded in the horizontal and vertical directions of the image may be detected as known, or may be calculated backward from the size of the image input from the input device and the size of the signal unit.
1ページ分の水平方向にPw個,垂直方向にPh個のユニットパターンが埋め込めるとすると,画像中の任意の位置のユニットパターンをU(x,y),x=1〜Pw,y=1〜Phと表現し,U(x,y)を「ユニットパターン行列」と称することにする。また,1ページに埋め込むことができるビット数を「埋め込みビット数」と称する。埋め込みビット数はPw×Phである。 If Pw unit patterns in the horizontal direction for one page and Ph unit patterns in the vertical direction can be embedded, unit patterns at arbitrary positions in the image are represented by U (x, y), x = 1 to Pw, y = 1. ~ Ph, and U (x, y) is referred to as a "unit pattern matrix". In addition, the number of bits that can be embedded in one page is referred to as the “number of embedded bits”. The number of embedded bits is Pw × Ph.
図19は,改ざん検出データDataを文書画像11に埋め込む方法について示したフローチャートである。ここでは,例えば印刷物として換算すると1枚(1ページ分)の文書画像11に,同じ情報を繰り返し埋め込む場合について説明する。同じ情報を繰り返し埋め込むことにより,文書画像11と改ざん検出データDataを重ね合わせたときに1つのユニットパターン全体が塗りつぶされるなどして埋め込み情報が消失するような場合でも,埋め込んだ情報を取り出すことを可能とするためである。
FIG. 19 is a flowchart showing a method for embedding the falsification detection data Data in the
まず,改ざん検出データDataをN元符号に変換する(ステップS201)。図13のステップS101と同様である。以下では,符号化されたデータをデータ符号と称し,ユニットパターンの組み合わせによりデータ符号を表現したものをデータ符号ユニットDuと称する。 First, the alteration detection data Data is converted into an N-element code (step S201). This is the same as step S101 in FIG. Hereinafter, the encoded data is referred to as a data code, and the data code expressed by a combination of unit patterns is referred to as a data code unit Du.
次いで,データ符号の符号長(ここではビット数)と埋め込みビット数から,1枚の画像にデータ符号ユニットを何度繰り返し埋め込むことができるかを計算する(ステップS202)。本実施形態ではデータ符号の符号長データをユニットパターン行列の第1行に挿入するものとする。データ符号の符号長を固定長として符号長データは埋め込まないようにしても良い。 Next, based on the code length of the data code (here, the number of bits) and the number of embedded bits, how many times the data code unit can be embedded in one image is calculated (step S202). In this embodiment, it is assumed that the code length data of the data code is inserted into the first row of the unit pattern matrix. The code length of the data code may be fixed and the code length data may not be embedded.
データ符号ユニットを埋め込む回数Dnは,データ符号長をCnとして以下の式で計算される。 The number Dn of embedding the data code unit is calculated by the following equation with the data code length as Cn.
ここで剰余をRn(Rn=Cn−(Pw×(Ph−1)))とすると,ユニットパターン行列にはDn回のデータ符号ユニットおよびデータ符号の先頭Rnビット分に相当するユニットパターンを埋め込むことになる。ただし,剰余部分のRnビットは必ずしも埋め込まなくても良い。 Here, assuming that the remainder is Rn (Rn = Cn− (Pw × (Ph−1))), the unit pattern matrix is embedded with a data pattern unit of Dn times and a unit pattern corresponding to the first Rn bits of the data code. become. However, the Rn bit of the remainder part does not necessarily have to be embedded.
図20の説明では,ユニットパターン行列のサイズを9×11(11行9列),データ符号長を12(図中で0〜11の番号がついたものがデータ符号の各符号語を表わす)とする。
In the description of FIG. 20, the unit pattern matrix size is 9 × 11 (11 rows and 9 columns), and the data code length is 12 (
次いで,ユニットパターン行列の第1行目に符号長データを埋め込む(ステップS203)。図20の例では符号長を9ビットのデータで表現して1度だけ埋め込んでいる例を説明しているが,ユニットパターン行列の幅Pwが十分大きい場合,データ符号と同様に符号長データを繰り返し埋め込むこともできる。 Next, the code length data is embedded in the first row of the unit pattern matrix (step S203). In the example of FIG. 20, the code length is expressed by 9-bit data and is described as being embedded only once. However, when the unit pattern matrix width Pw is sufficiently large, It can be embedded repeatedly.
さらに,ユニットパターン行列の第2行以降に,データ符号ユニットを繰り返し埋め込む(ステップS204)。図20で示すようにデータ符号のMSB(most significant bit)またはLSB(least significant bit)から順に行方向に埋め込む。図20の例ではデータ符号ユニットを7回,およびデータ符号の先頭6ビットを埋め込んでいる例を示している。 Further, the data code unit is repeatedly embedded in the second and subsequent rows of the unit pattern matrix (step S204). As shown in FIG. 20, data code MSB (most significant bit) or LSB (least significant bit) is embedded in the row direction in order. The example of FIG. 20 shows an example in which the data code unit is embedded seven times and the first 6 bits of the data code are embedded.
データの埋め込み方法は図20のように行方向に連続になるように埋め込んでも良いし,列方向に連続になるように埋め込んでも良い。 The data embedding method may be embedded so as to be continuous in the row direction as shown in FIG. 20 or may be embedded so as to be continuous in the column direction.
以上,透かし情報合成部15における,文書画像11と改ざん検出データDataの重ね合わせについて説明した。
The superposition of the
上述のように,透かし情報合成部15は,文書画像11と改ざん検出データDataを重ね合わせる。透かし入り文書画像の各画素の値は,文書画像11と改ざん検出データDataの対応する画素値の論理積演算(AND)によって計算する。すなわち,文書画像11と改ざん検出データDataのどちらかが0(黒)であれば,透かし入り原画像の画素値は0(黒),それ以外は1(白)となる。
As described above, the watermark information synthesis unit 15 superimposes the
図21は,透かし入り文書画像の一例を示す説明図である。図22は,図21の一部を拡大して示した説明図である。ここで,ユニットパターンは図18(1)のパターンを用いている。透かし入り文書画像11(出力文書画像14)は,例えば,透かし情報合成部15のインタフェース(図示せず。)により出力される。 FIG. 21 is an explanatory diagram showing an example of a watermarked document image. FIG. 22 is an explanatory view showing a part of FIG. 21 in an enlarged manner. Here, the unit pattern shown in FIG. 18A is used. The watermarked document image 11 (output document image 14) is output by, for example, an interface (not shown) of the watermark information synthesis unit 15.
(文書入力部20の動作について)
以降の説明では,出力文書画像14は紙等の印刷媒体に印刷された後に配布されるものとし,入力文書画像21はその出力文書画像14の透かし入りの印刷書面をスキャナ等の入力デバイスにより画像化したものとするが,かかる例に限定されず,出力文書画像14は印刷されないディジタルデータそのままの場合であってもよい。
(About the operation of the document input unit 20)
In the following description, it is assumed that the
具体的には,図23に示すように,出力文書画像14は紙等の印刷媒体に印刷された後に印刷物として配布されるものとし,入力文書画像21は透かし入り文書画像の印刷書面をスキャナ等の入力デバイスにより画像化したものとする。なお,図15に示す入力文書画像21は改ざんが行われているものとする。図23は,入力文書画像21の概略的な構成の一例を示す説明図である。
Specifically, as shown in FIG. 23, the
まず,文書入力部20に備わる透かし情報抽出部22は,後程詳しく説明するが,入力文書画像21から透かし情報(改ざん検出データData)を抽出し,改ざん検出データData(改ざん検出データData0,改ざん検出データData1,改ざん検出データData2,改ざん検出データData3)を復元する。なお,改ざん検出データData1が画像圧縮されている場合は解凍を行い,合成画像を復元する。また上記改ざん検出データData3は省略可能なデータであり,省略されていた場合は,予め文書出力部10と文書入力部20で共通の作成方法で処理を行う。改ざん検出データData2が量子化されている場合は,量子化誤差を含んだデータとなっているため,元の値に復元する。
First, the watermark
(透かし情報抽出部22の動作について)
次に,図24を参照しながら,透かし情報抽出部22の処理について説明する。図24は,透かし情報抽出部22の処理の概略的な流れの一例を示すフローチャートである。
(About the operation of the watermark information extraction unit 22)
Next, the processing of the watermark
図24に示すように,まず,スキャナなどの入力デバイス(図示せず。)によって透かし入り原画像を計算機のメモリ等に入力する(ステップS301)。この画像を入力画像と称する。入力画像は多値画像であり,以下では256階調のグレー画像として説明するが,かかる例に限定されず,フルカラー画像などの場合でもよい。また入力画像の解像度(スキャナ等の入力デバイス(図示せず。)で読み込むときの解像度)は,上記文書出力部10で作成した透かし入り文書画像(出力文書画像14)と異なっていても良いが,ここでは上記文書出力部10で作成した画像と同じ解像度であるとして説明する。また,1つのユニットパターンが1つのシンボルユニットから構成されている場合について説明する。
As shown in FIG. 24, first, a watermarked original image is input to a memory of a computer or the like by an input device (not shown) such as a scanner (step S301). This image is referred to as an input image. The input image is a multi-valued image and will be described below as a gray image with 256 gradations. However, the input image is not limited to this example, and may be a full-color image or the like. Further, the resolution of the input image (resolution when read by an input device such as a scanner (not shown)) may be different from the watermarked document image (output document image 14) created by the
<信号検出フィルタリング工程(ステップS310)>
ステップS310では,入力文書画像21全体に対してフィルタリング処理を行い,フィルタ出力値の計算とフィルタ出力値の比較を行う。フィルタ出力値の計算は,以下に示すガボールフィルタと称されるフィルタを用いて,入力文書画像21の全画素においてフィルタと画像間のコンボリューションにより計算する。
<Signal Detection Filtering Step (Step S310)>
In step S310, a filtering process is performed on the entire
以下にガボールフィルタG(x,y),x=0〜gw−1,y=0〜gh−1を示す。gw,ghはフィルタのサイズであり,ここでは上記透かし情報埋め込み装置10で埋め込んだ信号ユニットと同じ大きさである。
The Gabor filter G (x, y), x = 0 to gw−1, and y = 0 to gh−1 are shown below. gw and gh are filter sizes, which are the same size as the signal unit embedded by the watermark
入力画像中の任意の位置でのフィルタ出力値はフィルタと画像間のコンボリューションにより計算する。ガボールフィルタの場合は実数フィルタと虚数フィルタ(虚数フィルタは実数フィルタと半波長分位相がずれたフィルタ)が存在するため,それらの2乗平均値をフィルタ出力値とする。例えば,ある画素(x,y)における輝度値とフィルタAの実数フィルタとのコンボリューションがRc,虚数フィルタとのコンボリューションがIcであったとすると,フィルタ出力値F(A,x,y)は以下の式で計算する。 The filter output value at an arbitrary position in the input image is calculated by convolution between the filter and the image. In the case of a Gabor filter, there are a real number filter and an imaginary number filter (an imaginary number filter is a filter whose phase is shifted by a half wavelength from the real number filter), and the mean square value thereof is used as a filter output value. For example, if the convolution of the luminance value at a certain pixel (x, y) with the real filter of the filter A is Rc and the convolution with the imaginary filter is Ic, the filter output value F (A, x, y) is Calculate with the following formula.
上記のように各信号ユニットに対応するすべてのフィルタに対してフィルタ出力値を計算した後,各画素において上記のように計算したフィルタ出力値を比較し,その最大値F(x,y)をフィルタ出力値行列として記憶する。また,値が最大であるフィルタに対応する信号ユニットの番号をフィルタ種類行列として記憶する(図25)。具体的には,ある画素(x,y)において,F(A,x,y)>F(B,x,y)の場合には,フィルタ出力値行列の(x,y)の値としてF(A,x,y)を設定し,フィルタ種類行列の(x,y)の値として信号ユニットAを示す「0」を設定する(本実施形態では,信号ユニットA,Bの番号を「0」,「1」としている)。 After calculating the filter output values for all the filters corresponding to each signal unit as described above, the filter output values calculated as described above are compared in each pixel, and the maximum value F (x, y) is obtained. Store as a filter output value matrix. Further, the number of the signal unit corresponding to the filter having the maximum value is stored as a filter type matrix (FIG. 25). Specifically, in a certain pixel (x, y), when F (A, x, y)> F (B, x, y), F is set as the value of (x, y) in the filter output value matrix. (A, x, y) is set, and “0” indicating the signal unit A is set as the value of the filter type matrix (x, y) (in this embodiment, the numbers of the signal units A and B are set to “0”). ”And“ 1 ”).
なお,本実施形態ではフィルタの個数が2つであるが,フィルタの個数がそれより多い場合も,同様に複数のフィルタ出力値の最大値とその際のフィルタに対応する信号ユニット番号を記憶すればよい。 In the present embodiment, the number of filters is two. However, when the number of filters is larger than that, the maximum value of a plurality of filter output values and the signal unit number corresponding to the filter at that time are also stored. That's fine.
<信号位置探索工程(ステップS320)>
ステップS320では,ステップS310で得られたフィルタ出力値行列を用いて,信号ユニットの位置を決定する。具体的には,まず,信号ユニットの大きさがSh×Swで構成されていたとすると,格子点の垂直方向の間隔がSh,水平方向の間隔がSw,格子点の個数がNh×Nwの信号位置探索テンプレートを作成する(図26)。そのように作成したテンプレートの大きさは,Th(Sh*Nh)×Tw(Sw*Nw)となるが,Nh,Nwには信号ユニット位置を探索するために最適な値を用いればよい。
<Signal Location Search Step (Step S320)>
In step S320, the position of the signal unit is determined using the filter output value matrix obtained in step S310. Specifically, first, assuming that the size of the signal unit is Sh × Sw, a signal in which the vertical interval between grid points is Sh, the horizontal interval is Sw, and the number of grid points is Nh × Nw. A position search template is created (FIG. 26). The size of the template thus created is Th (Sh * Nh) × Tw (Sw * Nw), and optimum values for searching for the signal unit position may be used for Nh and Nw.
次に,フィルタ出力値行列をテンプレートの大きさごとに分割する。さらに,各分割領域で,隣接する領域の信号ユニットに重複しない範囲(水平方向±Sw/2,垂直方向±Sh/2,)でテンプレートをフィルタ出力値行列上で画素単位に移動させながら,テンプレート格子点上のフィルタ出力値行列値F(x,y)の総和Vを以下の式を用いて求め(図31),その総和が一番大きいテンプレートの格子点をその領域の信号ユニットの位置とする。 Next, the filter output value matrix is divided for each template size. Further, in each divided region, the template is moved in units of pixels on the filter output value matrix within a range (horizontal direction ± Sw / 2, vertical direction ± Sh / 2) that does not overlap with the signal units in the adjacent region. The sum V of the filter output value matrix values F (x, y) on the lattice points is obtained using the following equation (FIG. 31), and the lattice point of the template having the largest sum is determined as the position of the signal unit in the region. To do.
上記の例は,ステップS310で全画素に対して,フィルタ出力値を求めた場合であり,フィルタリングを行う際,ある一定間隔の画素に対してのみフィルタリングを行うこともできる。例えば,2画素おきにフィルタリングを行った場合は,上記の信号位置探索テンプレートの格子点の間隔も1/2とすればよい。 The above example is a case where the filter output value is obtained for all the pixels in step S310. When filtering is performed, it is possible to perform filtering only for pixels at a certain interval. For example, when filtering is performed every two pixels, the interval between the lattice points of the signal position search template may be halved.
<信号シンボル決定工程(ステップS330)>
ステップS330では,ステップS320で決定した信号ユニット位置のフィルタ種類行列の値(フィルタに対応した信号ユニット番号)を参照することで,信号ユニットがAかBを決定する。
<Signal Symbol Determination Step (Step S330)>
In step S330, the signal unit is determined to be A or B by referring to the value of the filter type matrix at the signal unit position determined in step S320 (signal unit number corresponding to the filter).
上記のようにして,決定した信号ユニットの判定結果をシンボル行列として記憶する。 The determination result of the determined signal unit is stored as a symbol matrix as described above.
<信号境界決定工程(ステップS340)>
ステップS320では,信号ユニットが埋め込まれているかにかかわらず,画像全面に対してフィルタリング処理を行っているので,どの部分に信号ユニットが埋め込まれていたかを決定する必要がある。そこで,ステップS340では,シンボル行列からあらかじめ信号ユニットを埋め込む際に決めておいたパターンを探索することで信号境界を求める。
<Signal Boundary Determination Step (Step S340)>
In step S320, since the filtering process is performed on the entire image regardless of whether the signal unit is embedded, it is necessary to determine in which part the signal unit is embedded. Therefore, in step S340, the signal boundary is obtained by searching for a pattern determined in advance when embedding the signal unit from the symbol matrix.
例えば信号ユニットが埋め込まれている境界には,必ず信号ユニットAを埋め込むとしておけば,ステップS330で決定したシンボル行列の横方向に信号ユニットAの数を計数し,中心から上下にそれぞれ,信号ユニットAの個数が一番多い位置を信号境界の上端/下端とする。図27の例では,シンボル行列における信号ユニットAは「黒」(値でいうと「0」)で表現されているので,シンボル行列の黒画素数を計数することで,信号ユニットAの数を計数することができ,その度数分布により,信号境界の上端/下端を求めることができる。左端/右端もユニットAの個数を計数する方向が異なるだけで,同じように求めることができる。 For example, if the signal unit A is necessarily embedded in the boundary where the signal unit is embedded, the number of the signal units A is counted in the horizontal direction of the symbol matrix determined in step S330, and the signal unit A is respectively measured vertically from the center. The position with the largest number of A is defined as the upper end / lower end of the signal boundary. In the example of FIG. 27, since the signal unit A in the symbol matrix is represented by “black” (in terms of value, “0”), the number of signal units A is calculated by counting the number of black pixels in the symbol matrix. Counting can be performed, and the upper / lower end of the signal boundary can be obtained from the frequency distribution. The left end / right end can also be obtained in the same way, except for the direction in which the number of units A is counted.
信号境界を求めるためには上記方法に限らず,シンボル行列から探索することができるパターンをあらかじめ埋め込み側と検出側で決めておくだけでよい。 In order to obtain the signal boundary, not only the above method but also a pattern that can be searched from the symbol matrix may be determined in advance on the embedding side and the detecting side.
再び,図24のフローチャートに戻り,以降のステップS305について説明する。ステップS305では,シンボル行列のうち,信号境界内部に相当する部分から元の情報を復元する。なお,本実施形態では,1つのユニットパターンは1つのシンボルユニットで構成されているので,ユニットパターン行列は,シンボル行列と等価になる。 Returning again to the flowchart of FIG. 24, the following step S305 will be described. In step S305, the original information is restored from the portion corresponding to the inside of the signal boundary in the symbol matrix. In the present embodiment, since one unit pattern is composed of one symbol unit, the unit pattern matrix is equivalent to the symbol matrix.
<情報復号工程(ステップS305)>
図28は情報復元の一例を示す説明図である。情報復元のステップは以下の通りである。
(1)各ユニットパターンに埋め込まれているシンボルを検出する(図28(1))。
(2)シンボルを連結してデータ符号を復元する(図28(2))。
(3)データ符号を復号して埋め込まれた情報を取り出す(図28(3))。
<Information Decoding Step (Step S305)>
FIG. 28 is an explanatory diagram showing an example of information restoration. The steps of information restoration are as follows.
(1) A symbol embedded in each unit pattern is detected (FIG. 28 (1)).
(2) The symbols are connected to restore the data code (FIG. 28 (2)).
(3) The data code is decoded to extract the embedded information ((3) in FIG. 28).
図29〜図31はデータ符号の復元方法の一例を示す説明図である。復元方法は基本的に図20の逆の処理となる。 29 to 31 are explanatory diagrams showing an example of a data code restoration method. The restoration method is basically the reverse process of FIG.
まず,ユニットパターン行列の第1行から符号長データ部分を取り出して,埋め込まれたデータ符号の符号長を得る(ステップS401)。 First, the code length data portion is extracted from the first row of the unit pattern matrix to obtain the code length of the embedded data code (step S401).
次いで,ユニットパターン行列のサイズとステップS401で得たデータ符号の符号長をもとに,データ符号ユニットを埋め込んだ回数Dnおよび剰余Rnを計算する(ステップS402)。 Next, based on the size of the unit pattern matrix and the code length of the data code obtained in step S401, the number Dn of data code units embedded and the remainder Rn are calculated (step S402).
次いで,ユニットパターン行列の2行目以降からステップS203と逆の方法でデータ符号ユニットを取り出す(ステップS403)。図30の例ではU(1,2)(2行1列)から順に12個のパターンユニットごとに分解する(U(1,2)〜U(3,3),U(4,3)〜U(6,4),・・・)。Dn=7,Rn=6であるため,12個のパターンユニット(データ符号ユニット)は7回取り出され,剰余として6個(データ符号ユニットの上位6個に相当する)のユニットパターン(U(4,11)〜U(9,11))が取り出される。 Next, data code units are extracted from the second and subsequent rows of the unit pattern matrix by the reverse method of step S203 (step S403). In the example of FIG. 30, 12 pattern units are sequentially decomposed from U (1, 2) (2 rows and 1 column) (U (1, 2) to U (3, 3), U (4, 3) to U (6, 4), ...). Since Dn = 7 and Rn = 6, 12 pattern units (data code units) are extracted 7 times, and 6 unit patterns (corresponding to the upper 6 data code units) (U (4 , 11) to U (9, 11)) are taken out.
次いで,ステップS403で取り出したデータ符号ユニットに対してビット確信度演算を行うことにより,埋め込んだデータ符号を再構成する(ステップS404)。以下,ビット確信度演算について説明する。 Next, the embedded data code is reconstructed by performing bit certainty calculation on the data code unit extracted in step S403 (step S404). Hereinafter, the bit certainty calculation will be described.
図31のようにユニットパターン行列の2行1列目から最初に取り出されたデ−外符号ユニットをDu(1,1)〜Du(12,1)とし,順次Du(1,2)〜Du(12,2),・・・,と表記する。また,剰余部分はDu(1,8)〜Du(6,8)とする。ビット確信度演算は各データ符号ユニットの要素ごとに多数決を取るなどして,データ符号の各シンボルの値を決定することである。これにより,例えば,文字領域との重なりや紙面の汚れなどが原因で,任意のデータ符号ユニット中の任意のユニットから正しく信号検出を行えなかった場合(ビット反転エラーなど)でも,最終的に正しくデータ符号を復元することができる。 As shown in FIG. 31, the first outer code units extracted from the second row and the first column of the unit pattern matrix are Du (1,1) to Du (12,1), and Du (1,2) to Du are sequentially added. (12, 2),. Further, the surplus portion is assumed to be Du (1, 8) to Du (6, 8). The bit certainty calculation is to determine the value of each symbol of the data code by, for example, taking a majority vote for each element of each data code unit. As a result, for example, even if signal detection cannot be performed correctly from any unit in any data encoding unit due to overlap with the character area or dirt on the paper surface, it will eventually be correctly The data code can be restored.
具体的には例えばデータ符号の1ビット目は,Du(1,1),Du(1,2),・・・,Du(1,8)の信号検出結果が1である方が多い場合には1と判定し,0である方が多い場合には0と判定する。同様にデータ符号の2ビット目はDu(2,1),Du(2,2),・・・,Du(2,8)の信号検出結果による多数決によって判定し,データ符号の12ビット目はDu(12,1),Du(12,2),・・・,Du(12,7)(Du(12,8)は存在しないためDu(12,7)までとなる)の信号検出結果による多数決によって判定する。 Specifically, for example, the first bit of the data code is more often when the signal detection result of Du (1, 1), Du (1, 2),..., Du (1, 8) is 1. Is determined to be 1 and when there are more 0s, it is determined to be 0. Similarly, the second bit of the data code is determined by majority decision based on the signal detection result of Du (2, 1), Du (2, 2),..., Du (2, 8), and the 12th bit of the data code is Du (12,1), Du (12,2),..., Du (12,7) (Du (12,8) is not present, so it is up to Du (12,7)). Judgment by majority vote.
ここではデータ符号を繰り返し埋め込む場合について説明したが,データを符号化する際に誤り訂正符号などを用いることにより,データ符号ユニットの繰り返しを行わないような方法も実現できる。 Although the case where data codes are repeatedly embedded has been described here, a method that does not repeat data code units can be realized by using an error correction code or the like when encoding data.
以上説明したように,入力文書画像21全面にフィルタリング処理を施し,信号位置探索テンプレートを用いて,フィルタ出力値の総和が最大になるように,信号ユニットの位置を求めることができるので,用紙のゆがみなどにより画像が伸縮していたりする場合にでも,信号ユニットの位置を正しく検出でき,透かし入り原画像(入力文書画像21)から正確に改ざん検出データDataを検出することができる。
As described above, since the filtering process is performed on the entire
(擬似文書画像生成部23の処理について)
次に,図32,図33を参照しながら,本実施の形態にかかる擬似文書画像生成部23の処理について説明する。なお,図32は,擬似文書画像生成部23の処理の概略を示すフローチャートである。図33は,擬似文書画像生成部23による擬似文書画像の生成処理の概略を示す説明図である。
(Processing of the pseudo document image generation unit 23)
Next, processing of the pseudo document
擬似文書画像生成部23の処理によって,透かし情報抽出部22で抽出された改ざん検出データDataに基づき,その改ざん検出データDataから文書画像11の画像特徴が再現された画像(擬似文書画像)を作成する。
Based on the falsification detection data Data extracted by the watermark
(縮小文字領域分離(S41)について)
図32に示すように,擬似文書画像生成部23は,上記説明した文書出力部10に備わる透かし情報合成部13による縮小文書領域合成(S33)の逆の処理手順によって,合成画像から各縮小文字領域を分離する(S41)。なお,図33に示すように,図32に示す上記縮小文字領域分離処理(S41)に対応する処理は,S61である。
(About reduced character area separation (S41))
As shown in FIG. 32, the pseudo document
(縮小文字領域拡大(S42)について)
擬似文書画像生成部23は,縮小文字領域を分離すると,その分離した縮小文字領域を拡大する(S42)。なお,上記拡大処理(S42)は,縮小文字領域ごとに拡大し,もとの文字領域サイズにもどす。例えば,文字領域が1/2に縮小されていた場合には,縮小文字領域を分離した後,その縮小文字領域を2倍に拡大する。また,図33に示すように,図32に示す上記拡大処理(S42)に対応する処理は,S62である。
(About reduced character area enlargement (S42))
When the reduced document area is separated, the pseudo document
(文字領域再構成(S43)について)
上記分離した後の縮小文字領域を拡大処理(S42)すると,擬似文書画像生成部23は,文書画像11と同じサイズの背景(白色からなる画像領域)のみのキャンバス画像(背景画像)を生成する。
(Character area reconstruction (S43))
When the reduced character area after the separation is enlarged (S42), the pseudo document
さらに,擬似文書画像生成部23は,改ざん検出データData2(各文字領域の位置情報など)を参照し,縮小文字領域を拡大した文字領域を上記キャンバス画像上に配置する(S43)。なお,図33に示すように,図32に示す文字領域再構成処理(S43)に対応する処理は,S63である。
Further, the pseudo document
なお,上記キャンバス画像と擬似文書画像のサイズは略同一であるが,これらは必ずしも文書画像11と同じである必要はない。キャンバス画像と擬似文書画像が文書画像11と同一ではない場合,縮小文字領域の拡大処理(S42)において拡大率を変更する。例えばキャンバス画像の幅が文書画像11の1/Swであり,高さが1/Shであった場合,文字領域が1/Nに縮小されていたとすると,双方の拡大率を求めると,幅は(1/Sw)/(1/N)倍,高さは(1/Sh)/(1/N)倍と各々求められる。
Although the canvas image and the pseudo document image have substantially the same size, they do not necessarily have to be the same as the
以上で,擬似文書画像生成部23によって,キャンバス画像に拡大処理(S42)後の文字領域全てが改ざん検出データData2に基づき配置される(S43)と,擬似文書画像が完成する。
As described above, the pseudo document
(入力画像変形部24の処理について)
上記擬似文書画像生成部23による擬似文書画像が生成されると,次に,入力画像変形部24による入力文書画像21の変形処理が行われる。当該変形処理は,入力文書画像21を,改ざん検出を行うための比較対象となる擬似文書画像と同一サイズの画像に補正し,さらに補正後の入力文書画像21を二値化する。なお,上記擬似文書画像と同一サイズに補正し,二値化後,改ざん検出の精度を向上させるため縮小処理(S32)の縮小率と同じ率だけ縮小し,さらに拡大処理(S42)の拡大率と同じ率だけ拡大を行う。つまり擬似文書画像が生成されるまでに経てきた処理と同じ条件にすることで,改ざんの有無の判定の正確性をより一層向上させることができるが,省略することも可能である。
(Regarding the processing of the input image transformation unit 24)
When the pseudo document image is generated by the pseudo document
ここで,図34を参照しながら,入力画像変形部24の処理について説明する。なお,図34は入力画像変形部24のフローチャートである。以下,このフローチャートに従って説明を行う。
Here, the processing of the input
<信号ユニットの位置検出(ステップS610)>
図35は第1の実施形態で検出された信号ユニット位置を入力画像(透かし入り原画像11)21上に表示したものである。図35において,信号ユニットをU(x,y),x=1〜Wu,y=1〜Huと表記する。U(1,y)〜U(Wu,y)は同じ行にある信号ユニット(図35の符号710)とし,U(x,1)〜U(x,Hu)は同じ列にある信号ユニット(図35の符号720)とする。U(1,y)〜U(Wu,y)およびU(x,1)〜U(x,Hu)などは,実際には同じ直線上には並んでおらず,微小に上下左右にずれている。
<Signal Unit Position Detection (Step S610)>
FIG. 35 shows the signal unit position detected in the first embodiment on the input image (
また信号ユニットU(x,y)の入力画像上の座標値Pを(Px(x,y),Py(x,y)),x=1〜Wu,y=1〜Huと表記する(図35の符号730,740,750,760)。ただし入力画像に対して縦横N画素おき(Nは自然数)にフィルタリングを行うものとする。このフィルタリングについては,第1の実施形態の<信号位置探索工程(ステップS320)>と同様に行う。Pは信号出力値行列における各信号ユニットの座標値を単純に縦横N倍した値である。 The coordinate value P on the input image of the signal unit U (x, y) is expressed as (Px (x, y), Py (x, y)), x = 1 to Wu, y = 1 to Hu (FIG. 35, 730, 740, 750, 760). However, the input image is filtered every N pixels vertically and horizontally (N is a natural number). This filtering is performed in the same manner as in the <signal position search step (step S320)> in the first embodiment. P is a value obtained by simply multiplying the coordinate value of each signal unit in the signal output value matrix N times vertically and horizontally.
<信号ユニット位置の直線近似(ステップS620)>
信号ユニットの位置を行方向,列方向に直線で近似する。図36は行方向の直線近似の例である。図36において,同じ行にある信号ユニットU(1,y)〜U(Wu,y)の位置を直線Lh(y)で近似している。近似直線は,各信号ユニットの位置と直線Lh(y)との距離の総和が最も小さくなるような直線である。このような直線は,例えば最小二乗法や主成分分析などの一般的手法によって求めることができる。行方向の直線近似はすべての行について行い,同様にして列方向の直線近似をすべての列について行う。
<Linear approximation of signal unit position (step S620)>
Approximate the position of the signal unit with a straight line in the row and column directions. FIG. 36 shows an example of linear approximation in the row direction. In FIG. 36, the positions of signal units U (1, y) to U (Wu, y) in the same row are approximated by a straight line Lh (y). The approximate straight line is a straight line that minimizes the sum of the distances between the position of each signal unit and the straight line Lh (y). Such a straight line can be obtained by a general method such as a least square method or principal component analysis. The straight line approximation in the row direction is performed for all the rows, and the straight line approximation in the column direction is similarly performed for all the columns.
図37は行方向,列方向に直線近似を行った結果の例である。図37において,信号ユニットをU(x,y),x=1〜Wu,y=1〜Huと表記する。Lh(y)はU(1,y)〜U(Wu,y)を近似した直線(図37の符号810)であり,Lv(x)はU(x,1)〜U(x,Hu)を近似した直線(図37の符号820)である。
FIG. 37 shows an example of a result obtained by performing linear approximation in the row direction and the column direction. In FIG. 37, the signal unit is represented as U (x, y), x = 1 to Wu, y = 1 to Hu. Lh (y) is a straight line (
<直線の均等化(ステップS630)>
ステップS620で近似した直線は,検出された信号ユニットの位置が,ある程度まとまってずれているなどの理由により,個別に見ると直線の傾きや位置が均等ではない。そこで,ステップS630では,個々の直線の傾きや位置を補正して均等化を行う。
<Straight line equalization (step S630)>
The straight lines approximated in step S620 are not uniform in slope or position when viewed individually, for example, because the positions of the detected signal units are shifted to some extent. Therefore, in step S630, equalization is performed by correcting the inclination and position of each straight line.
図38は行方向の近似直線Lh(y)の傾きを補正する例である。図38(a)は補正前であり,図38(b)は補正後である。図38(a)におけるLh(y)の傾きをTh(y)としたとき,Lh(y)の傾きはLh(y)の近傍の直線の傾きの平均値となるように補正する。具体的には,Th(y)=AVERAGE(Th(y−Nh)〜Th(y+Nh))とする。ただし,AVERAGE(A〜B)はA〜Bまでの平均値を計算する計算式とし,Nhは任意の自然数とする。y−Nh<1の場合はTh(y)=AVERAGE(Th(1)〜Th(y+Nh))とし,y+Nh>Huの場合はTh(y)=AVERAGE(Th(y−Nh)〜Th(Hu))とする。図38はNhを1としたときの例であり,図38(b)はLh(y)がLh(y−1)〜Lh(y+1)の直線の傾きの平均値によって補正されている例を示している。 FIG. 38 shows an example of correcting the inclination of the approximate straight line Lh (y) in the row direction. FIG. 38A shows a state before correction, and FIG. 38B shows a state after correction. When the slope of Lh (y) in FIG. 38A is Th (y), the slope of Lh (y) is corrected so as to be the average value of the slopes of straight lines in the vicinity of Lh (y). Specifically, Th (y) = AVERAGE (Th (y−Nh) to Th (y + Nh)). However, AVERAGE (A to B) is a calculation formula for calculating an average value from A to B, and Nh is an arbitrary natural number. When y−Nh <1, Th (y) = AVERAGE (Th (1) to Th (y + Nh)), and when y + Nh> Hu, Th (y) = AVERAGE (Th (y−Nh) to Th (Hu). )). FIG. 38 shows an example where Nh is 1, and FIG. 38B shows an example where Lh (y) is corrected by the average value of the slopes of the straight lines Lh (y−1) to Lh (y + 1). Show.
図39は行方向の近似直線Lh(y)の位置を補正する例である。図39(a)は補正前であり,図39(b)は補正後である。図39(a)について,垂直方向に任意の基準直線1130を設定し,この直線とLh(y)との交点のy座標をQ(y)としたとき,Q(y)がLh(y)の近傍の直線位置の平均となるように補正する。具体的には,Q(y)=AVERAGE(Q(y−Mh)〜Q(y+Mh))とする。ただしMhは任意の自然数とする。y−Mh<1またはy+Mh>Huの場合は変更を行わないものとする。図39はMhを1としたときの例であり,図39(b)はLh(y)がLh(y−1)とLh(y+1)の直線の位置の中点(平均)によって補正されている例を示している。なお,この処理は省略可能である。 FIG. 39 shows an example of correcting the position of the approximate straight line Lh (y) in the row direction. FIG. 39A is before correction, and FIG. 39B is after correction. In FIG. 39A, when an arbitrary reference straight line 1130 is set in the vertical direction and the y coordinate of the intersection of this straight line and Lh (y) is Q (y), Q (y) becomes Lh (y). It correct | amends so that it may become the average of the linear position of near. Specifically, Q (y) = AVERAGE (Q (y−Mh) to Q (y + Mh)). However, Mh is an arbitrary natural number. If y-Mh <1 or y + Mh> Hu, no change is made. FIG. 39 shows an example when Mh is 1, and FIG. 39B shows that Lh (y) is corrected by the midpoint (average) of the positions of the straight lines Lh (y−1) and Lh (y + 1). An example is shown. This process can be omitted.
<直線の交点計算(ステップS640)>
行方向の近似直線と列方向の近似直線の交点を計算する。図40は行方向の近似直線Lh(1)〜Lh(Hu)と,列方向の近似直線Lv(1)〜Lv(Wu)の交点を計算した例である。交点の計算は一般的な数学的手法で行う。ここで計算した交点を補正後の信号ユニット位置とする。すなわち,行方向の近似直線Lh(y)と列方向の近似直線Lv(x)の交点を,信号ユニットU(x,y)の補正後の位置(Rx(x,y),Ry(x,y))とする。例えば信号ユニットU(1,1)の補正後の位置は,Lh(1)とLv(1)の交点とする。
<Line intersection calculation (step S640)>
Calculate the intersection of the approximate line in the row direction and the approximate line in the column direction. FIG. 40 shows an example in which the intersection points of the approximate straight lines Lh (1) to Lh (Hu) in the row direction and the approximate straight lines Lv (1) to Lv (Wu) in the column direction are calculated. The intersection point is calculated by a general mathematical method. The intersection calculated here is used as the corrected signal unit position. That is, the intersection of the approximate straight line Lh (y) in the row direction and the approximate straight line Lv (x) in the column direction is set to the corrected position (Rx (x, y), Ry (x, y) of the signal unit U (x, y). y)). For example, the corrected position of the signal unit U (1, 1) is an intersection of Lh (1) and Lv (1).
<補正画像作成(ステップS650)>
ステップS640により計算した信号ユニット位置を参照して,入力画像から補正画像を作成する。ここでは透かし画像出力部10で出力した透かし入り原画像を印刷する際の解像度をDoutとし,文書入力部20に入力する入力文書画像21を取得する際の解像度をDinとする。また補正後の入力文書画像21の大きさは,擬似文書画像と同じサイズであるとする。
<Creation of corrected image (step S650)>
A corrected image is created from the input image with reference to the signal unit position calculated in step S640. Here, the resolution when printing the watermarked original image output by the watermark
透かし画像出力部10において信号ユニットの大きさが幅Sw,高さShであるとすると,入力文書画像21における信号ユニットは幅Tw=Sw×Din/Dout,高さはTh=Sh×Din/Doutとなる。したがって,信号ユニットの数が横方向にWu個,縦方向にHu個である場合には,補正後の入力文書画像21のサイズは幅Wm=Tw×Wu,高さHm=Th×Huとなる。また,補正後の入力文書画像21における任意の信号ユニットU(x,y)の位置を(Sx(x,y),Sy(x,y))とすると,信号ユニットが均等に並ぶように補正後の入力文書画像21を作るため,Sx=Tw×x,Sy=Th×yが成り立つ。なお,最も左上の信号ユニットU(1,1)の位置は(0,0)であり,これが補正後の入力文書画像21の原点となる。
Assuming that the size of the signal unit in the watermark
補正された画像上の任意の位置(Xm,Ym)の画素値Vmは,入力文書画像上の座標(Xi,Yi)の画素値Viにより求める。図41はこれらの座標の対応例であり,図41(a)は入力画像1310(入力文書画像21)を,図41(b)は補正画像1320(補正後の入力文書画像21)を示している。この図を用いて(Xm,Ym)と(Xi,Yi)の関係を説明する。 The pixel value Vm at an arbitrary position (Xm, Ym) on the corrected image is obtained from the pixel value Vi at the coordinates (Xi, Yi) on the input document image. FIG. 41 is a correspondence example of these coordinates. FIG. 41A shows the input image 1310 (input document image 21), and FIG. 41B shows the corrected image 1320 (corrected input document image 21). Yes. The relationship between (Xm, Ym) and (Xi, Yi) will be described using this figure.
図41(b)の補正画像1320において,(Xm,Ym)を中心としてみたときの左上,右上,左下の領域で,最も近い信号ユニットをそれぞれU(x,y)(座標値は(Sx(x,y),Sy(x,y)),1360),U(x+1,y)(1370),U(x,y+1)(1380)とし,それらとの距離をそれぞれE1,E2,E3とする(具体的には,xはXm/Tw+1を超えない最小の整数,yはXm/Tw+1を超えない最小の整数)。このとき,図41(a)の入力画像1310におけるU(x,y)(座標値は(Rx(x,y),Ry(x,y)),1330),U(x+1,y)(1340),U(x,y+1)(1350)と(Xi,Yi)との距離がそれぞれD1,D2,D3であって,D1〜D3の比D1:D2:D3がE1:E2:E3と等しいときに(Xm,Ym)の画素値Vmは,入力画像1310上の座標(Xi,Yi)の画素値Viにより求める。
In the corrected image 1320 of FIG. 41 (b), the closest signal units in the upper left, upper right, and lower left areas when viewed at (Xm, Ym) as the center are U (x, y) (coordinate values are (Sx ( x, y), Sy (x, y)), 1360), U (x + 1, y) (1370), U (x, y + 1) (1380), and their distances as E1, E2, E3, respectively. (Specifically, x is the smallest integer not exceeding Xm /
図42はこのような(Xi,Yi)の具体的な計算方法を示している。図42(a)の符号1430は(Xm,Ym)をU(x,y)とU(x+1,y)を結ぶ直線上に射影した点でFx=Xm−Sx(x,y)である。また,符号1440は(Xm,Ym)をU(x,y)とU(x,y+1)を結ぶ直線上に射影した点でFy=Ym−Sy(x,y)である。同様に,図42(b)の符号1450は(Xm,Ym)をU(x,y)とU(x+1,y)を結ぶ直線上に射影した点でGx=Xm−Sx(x,y)である。同様に,符号1460は(Xm,Ym)をU(x,y)とU(x,y+1)を結ぶ直線上に射影した点でGy=Ym−Sy(x,y)である。このとき,図42(a)の入力画像1410におけるFxは,Fx/(Rx(x+1,y)−Rx(x,y))=Ex/Twより,Fx=Ex/Tw×(Rx(x+1,y)−Rx(x,y))となる。同様に,Fy=Ey/Th×(Ry(x,y+1)−Ry(x,y))となる。これより,Xi=Fx+Rx(x,y),Yi=Fy+Ry(x,y)となる。
FIG. 42 shows a specific calculation method of such (Xi, Yi).
以上により,図42(b)の補正画像1420(補正後の入力文書画像21)上の任意の点(Xm,Ym)の画素値には,入力画像(入力文書画像21)上の点(Xi,Yi)の画素値をセットする。ただし,(Xi,Yi)は一般的に実数値であるため,入力画像上で(Xi,Yi)に最も近い座標における画素値とするか,その近傍4画素の画素値とそれらとの距離の比から画素値を計算する。 As described above, the pixel value of an arbitrary point (Xm, Ym) on the corrected image 1420 (corrected input document image 21) in FIG. 42B is set to the point (Xi) on the input image (input document image 21). , Yi) is set. However, since (Xi, Yi) is generally a real value, the pixel value at the coordinates closest to (Xi, Yi) on the input image is set, or the pixel values of the four neighboring pixels and the distance between them are set. Calculate the pixel value from the ratio.
以上,入力画像変形部24の動作について説明したが,さらに入力画像変形部24は上記入力文書画像21に対して補正及び二値化処理の後,その補正後の入力文書画像21を縮小し,縮小した分だけ逆に拡大処理を行う処理を実行する。
The operation of the input
ここで,上記入力画像変形部24により補正及び二値化され,さらに縮小・拡大された入力文書画像21を示すと,図43に図示の通りとなる。なお,図43は,補正及び二値化された入力文書画像をさらに縮小・拡大した場合の入力文書画像の概略的な構成の一例を示す説明図である。
Here, the
以上説明したように,本実施形態によれば,入力文書画像21に埋め込んだ信号の位置情報(改ざん検出データData2)を元に,印刷書面を取り込んだ画像を補正するため,印刷物から取り込んだ画像から印刷前の画像を歪みや伸び縮みなく復元できるので,それらの画像間の位置の対応付けを高精度で行うことができ,さらには高性能の改ざん検出を行うことができる。
As described above, according to the present embodiment, an image captured from a printed material is used to correct an image captured from a printed document based on position information (falsification detection data Data2) of a signal embedded in the
(改ざん検出部25の処理について)
入力画像変形部24によって,入力文書画像21の補正処理が終了すると,改ざん検出部25は,その補正後の入力文書画像21と上記擬似文書画像とを相互に比較することによって,当該入力文書画像21に改ざんが存在するか否かを判定する。
(About the processing of the falsification detection unit 25)
When the correction process of the
ここで,図44を参照しながら,第1の実施の形態にかかる改ざん検出部25の処理について説明する。なお,図44は第1の実施の形態にかかる改ざん検出部の処理の概略を示すフローチャートである。
Here, the processing of the
図44に示すように,まず,改ざん検出部25は,上記擬似文書画像と,補正や縮小・拡大処理後の入力文書画像21との差分を求め,差分画像を生成する(S51)。
As shown in FIG. 44, first, the
改ざん検出部25によって生成された上記差分画像を図示すると,図45に示すとおりとなる。なお,図45に示す差分画像は,図43に示した補正後に縮小・拡大処理した入力文書画像21と上記擬似文書画像との差分で生成された画像の一例である。画像中の黒い領域が差分である。例えば,文字の輪郭付近に多くの黒色の領域が存在するのが分かる。
The difference image generated by the
上記差分画像には,擬似文書画像と,補正・縮小・拡大済みの入力文書画像21との差分で,上記文字の輪郭付近に黒色領域(差分領域)が存在する場合の他に,例えば文字全体が黒色領域となっている場合等があり,上記の場合,その黒色領域は改ざんであると判断される。しかしながら,上記の場合であっても,入力画像変形部24の二値化の閾値が最適ではないなどの理由で,本来であれば改ざんではない部分まで改ざんであると判断するような差分領域が出現してしまう場合がある。
The difference image is a difference between the pseudo document image and the corrected / reduced / enlarged
そこで,上記のように誤って改ざんと判定する場合を回避するため,改ざん検出部25は,差分画像に対してノイズ除去処理(S52)を実行する。上記ノイズ除去処理は,例えば差分画像の差分領域についてラベル付け処理を実行し,同じラベルのついた(グループ化された)差分領域の画素数の和が閾値Tn以下であれば,そのグループ化された差分領域はノイズであると判断し,差分画像から差分領域を除去する。差分領域を除去する手段としては,例えば黒画素を白画素にすること等を例示できる。かかるノイズ除去によって,例えば改ざんではなく単に文字の輪郭部分に黒色領域が存在している場合などについて誤判定を防げる。
Therefore, in order to avoid the case where it is erroneously determined to be falsified as described above, the
ノイズ除去処理(S52)終了後,依然として差分領域として残った領域を改ざん検出部25は,その差分領域の部分は改ざんであると判定する(S53)。
After the noise removal process (S52), the
図45,図46に示すように,改ざん検出部25によって,改ざんであると判定された差分領域は,「学籍番号」の欄に記載された“11”の部分と,「心理学」の「成績」の欄に“A”と記載された部分の2箇所であることが分かる。つまり,上記“11”と“A”とが検出された改ざん領域(差分領域)である。
As shown in FIG. 45 and FIG. 46, the difference area determined to be falsified by the
以上,文書入力部20の一連の動作の説明を終了する。第1の実施の形態によれば,文書画像11のうち画像領域全体ではなく,文字領域だけを切り出し,各々の文字領域を一括してまとめた画像を透かし情報として文書画像11に埋め込むため,改ざん検出のための改ざん検出データData(透かし情報)のデータ量を削減することができる。したがって,文書画像に改ざん検出データDataを埋め込む処理等を迅速かつ効率化し,また,埋め込まれた改ざん検出データDataを抽出する処理等の迅速化,効率化が図れるとともに,透かし情報として少ないデータ量で高精度の改ざん検出を自動的に実行することができる。
This is the end of the description of the series of operations of the
(第2の実施の形態について)
第1の実施の形態では,文書画像11に存在する文字領域については一律同じ縮小率で文字領域の縮小等を行う場合について説明した。第2の実施の形態では,文書画像111には複数の文字領域が存在し,かつ文字領域ごとに記載内容等の重要度が異なることを前提とした場合について説明する。
(About the second embodiment)
In the first embodiment, a case has been described in which character areas existing in the
第2の実施の形態では,例えば,重要度が高い記載事項の文字領域については縮小率を小さくしてより細かな改ざんの有無の判定を行い,重要度が低い記載事項の文字領域については縮小率を大きくして大まかな改ざんの有無の判定を行う。 In the second embodiment, for example, a character area of a description item with high importance is reduced to determine whether or not there is a finer alteration by reducing the reduction rate, and a character area of description items with low importance is reduced. Increase the rate to determine whether there has been a rough tampering.
次に,図47を参照しながら,第2の実施の形態にかかる改ざん検出装置に備わる文書出力部110について説明する。図47は,第2の実施の形態にかかる文書出力部の概略的な構成の一例を示すブロック図である。なお,改ざん検出装置には,文書出力部110及び/又は文書入力部120が備わる。
Next, the
また,第2の実施の形態にかかる改ざん検出装置に備わる文書出力部110についての説明は,第1の実施の形態にかかる文書出力部10との相違する点について特に詳細に説明し,その他の点については,ほぼ同様の構成のため詳細な説明は省略する。
Further, the description of the
図47に示すように,第2の実施の形態にかかる文書出力部110と,第1の実施の形態にかかる文書出力部10との相違する部分は,文書出力部110に縮小率判定部115がさらに追加された点,文書出力部10に備わる文書特徴データ化部12ではなく,その代わりに第2の文書特徴データ化部(画像加工部)116がさらに追加された点である。
As shown in FIG. 47, the difference between the
上記縮小率判定部115は,各文字領域の重要度を参照し,文字領域から縮小文字画像に縮小する際の縮小率を決定する。
The reduction
次に,図48を参照しながら,第2の実施の形態にかかる改ざん検出装置に備わる文書入力部120について説明する。図48は,第2の実施の形態にかかる文書入力部の概略的な構成の一例を示すブロック図である。上記改ざん検出装置には,文書出力部110または文書入力部120のうち少なくとも一方が備わっている。
Next, the
なお,第2の実施の形態にかかる改ざん検出装置に備わる文書入力部120についての説明は,第1の実施の形態にかかる文書入力部20との相違する点について特に詳細に説明し,その他の点については,ほぼ同様の構成のため詳細な説明は省略する。
Note that the description of the
図48に示すように,第2の実施の形態にかかる文書入力部120と,第1の実施の形態にかかる文書入力部20との相違する部分は,文書入力部20に備わる擬似文書画像生成部23ではなく,その代わりとして第2の擬似文書画像生成部127が備わる点,文書入力部120に入力画像変形部24ではなく,第2の入力画像変形部(画像変形部)228が備わる点である。
As shown in FIG. 48, the difference between the
(第2の文書特徴データ化部116の動作について)
次に,図49を参照しながら,上記第2の文書特徴データ化部116の一連の動作について説明する。図49は,第2の実施の形態にかかる第2の文書特徴データ化部116の処理の概略を示すフローチャートである。
(Operation of the second document feature data conversion unit 116)
Next, a series of operations of the second document feature
図49に示すように,まず第2の文書特徴データ化部116は,文書画像111から文字領域を抽出する(S131)。なお,第2の実施の形態にかかる文字領域を抽出する文字領域抽出処理(S131)は,第1の実施の形態にかかる文字領域抽出処理(S31)と実質的に同様であるため詳細な説明は省略する。
As shown in FIG. 49, first, the second document feature
次に,第2の文書特徴データ化部116は,文書画像111に予め設定されている記載事項ブロック別の重要度を参照し,その記載事項ブロックの重要度に対応するように各文字領域の縮小率を設定する(S132)。
Next, the second document feature
ここで,図50を参照しながら,第2の実施の形態にかかる記載事項ブロック別の重要度について説明する。図50は,第2の実施の形態にかかる記載事項ブロックの重要度の概略的な構成の一例を示す説明図である。 Here, with reference to FIG. 50, the importance of each description item block according to the second embodiment will be described. FIG. 50 is an explanatory diagram illustrating an example of a schematic configuration of importance levels of the description item blocks according to the second embodiment.
図50に示すように,文書画像111には,1又は2以上の記載事項ブロック300(記載事項ブロック300a〜記載事項ブロック300c)が設定されている。上記記載事項ブロック300は,例えば,文書画像111を作成する利用者等によって,透かし情報を埋め込む前に,事前に記載事項ブロック300の位置・大きさが設定され,さらにその記載事項ブロック300の重要度が設定される。
As shown in FIG. 50, one or two or more description item blocks 300 (the
図50に示す文書画像111には,記載事項ブロック300aと,記載事項ブロック300bと,記載事項ブロック300cとが設定されている。さらに,重要度については,記載事項ブロック300aと記載事項ブロック300cの重要度が「中」程度に設定され,記載事項ブロック300bの重要度が「高」に設定されている。なお,記載事項ブロック300が未設定の領域については重要度が低くいため改ざんの検出を行う必要がないものとする。
In the
なお,第2の実施の形態にかかる重要度は「中」または「高」の2段階からなる場合を例に挙げて説明したが,かかる例に限定されず,例えば,重要度は,「中」,「高」,「最高」などの順に重要度が高くなる場合であっても実施可能である。 The importance according to the second embodiment has been described by taking the case of “medium” or “high” as an example, but is not limited to such an example. For example, the importance is “medium” Even if the importance increases in the order of "", "high", "highest", etc., it can be implemented.
図50に示す文書画像111では,抽出(S131)された文字領域のうち,記載事項ブロック300aおよび記載事項ブロック300cに属する文字領域については,縮小率を高くし(例えば,1/4に縮小する),記載事項300bに属する文字領域に対しては縮小率を低く(例えば1/2に縮小)する。
In the
なお,第2の実施の形態にかかる記載事項ブロック300の重要度は,透かし情報として埋め込む前に,予め重要度が設定されている場合を例に挙げて説明したが,かかる例に限定されず,例えば,重要度は,記載事項ブロック300内に存在する文字領域について抽出するたびに,文字認識し,キーワードDB(データベース)を改ざん検出装置が備えることで,そのキーワードDBに格納されたキーワードと文字領域に存在する文字とが一致した場合,重要度を「高」又は「最高」と動的に設定する場合等でも実施可能である。 The importance of the entry block 300 according to the second embodiment has been described by taking as an example the case where the importance is set in advance before embedding as watermark information. However, the importance is not limited to this example. For example, each time a character area existing in the entry block 300 is extracted, the importance is recognized, and the keyword DB (database) is provided in the falsification detection device, so that the keyword stored in the keyword DB This can be implemented even when the character existing in the character area matches and the importance is dynamically set to “high” or “highest”.
第2の文書特徴データ化部116が文字領域抽出処理(S131)を実行し,さらに記載事項ブロック300ごとに設定された重要度を参照すると,さらに第2の文書特徴データ化部116は,文字領域に対して領域の番号を割り振る。
When the second document feature
第2の文書特徴データ化部116が文字領域に番号を割振った結果の一例を,図51に示す。図51は,第2の実施の形態にかかる第2の文書特徴データ化部116による番号割振り処理の結果の一例を示す説明図である。
FIG. 51 shows an example of the result of assigning numbers to character areas by the second document feature
図51に示すように文字領域に番号が割り振られる対象としては,例えば,記載事項ブロック300が設定され,かつその記載事項ブロック300の重要度が「中」以上の記載事項ブロック300に属する文字領域に対して領域の番号が割り振られるが,かかる例に限定されない。 As shown in FIG. 51, for example, a description item block 300 is set as a target to which a number is assigned to a character region, and a character region belonging to the description item block 300 whose importance level is “medium” or higher. An area number is assigned to each, but the present invention is not limited to such an example.
また,図51に示すように,文字領域の領域に番号が割り振られる優先順位としては,まず,記載事項ブロック300の番号を第1優先(記載事項ブロック300の番号が若いのが優先。)とする。したがって,図50と図51に示すように,記載事項ブロック300aに属する文字領域から順に番号を割り振り,次に,記載事項ブロック300bに属する文字領域に番号を割り振り,最後に記載事項ブロック300cに属する文字領域に番号を割り振る。
As shown in FIG. 51, as the priority order in which numbers are assigned to character areas, first, the number of the description item block 300 is the first priority (the number of the description item block 300 is the lower priority). To do. Therefore, as shown in FIGS. 50 and 51, numbers are assigned in order from the character area belonging to the
次の優先順位としては,文字領域の矩形の左上頂点のy座標値を第2優先とする。なお,文書画像111の矩形の左上頂点を基準座標(0,0)とする。したがって,記載事項ブロック300に属する文字領域のうち矩形の左上頂点のy座標値が基準座標(0,0)に近い文字領域から番号が昇順に割り振られる。
As the next priority, the y-coordinate value of the upper left vertex of the rectangle of the character area is given the second priority. It is assumed that the upper left vertex of the rectangle of the
最後に,文字領域の領域に番号が割り振られる優先順位としては,x座標値を第3優先とする。したがって,記載事項ブロック300に属する文字領域のうち第2優先であるy座標値が同値の場合,x座標値が基準座標(0,0)に近い方から順に番号が昇順に割り振られる。 Finally, as a priority order in which numbers are assigned to the character area, the x coordinate value is the third priority. Therefore, when the y-coordinate value, which is the second priority among the character areas belonging to the entry block 300, is the same value, the x-coordinate values are assigned in ascending order from the closest to the reference coordinates (0, 0).
以上,番号の割り振り優先順位に従って,第2の文書特徴データ化部116が記載事項ブロック300に属する文字領域に対して番号を割り振ると,図51に図示の通りとなる。
As described above, when the second document feature
図51に示すように,文字領域である領域2〜領域5は,記載事項ブロック300aに属するため,第2の文書特徴データ化部116は,領域2〜領域5の縮小率を“4”(1/4に縮小)に設定し,領域8〜領域9は記載事項ブロック300cに属するため,第2の文書特徴データ化部116は,領域8〜領域9の縮小率を“4”(1/4に縮小)に設定し,最後に領域10〜領域11は記載事項ブロック300bに属するため,第2の文書特徴データ化部116は,領域10〜領域11の縮小率を“2”(1/2に縮小)に設定する。
As shown in FIG. 51, since the
各文字領域に対する縮小率が決定すると(S132),第2の文書特徴データ化部116は,文書画像111から文字領域を切り出し,その文字領域に対応する設定済の縮小率で上記文字領域を縮小する(S132)。
When the reduction ratio for each character area is determined (S132), the second document feature
図52を参照しながら,第2の文書特徴データ化部116による文字領域の切り出し処理,文字領域の縮小処理について具体的に説明する。図52は,文字領域の切り出し及び縮小処理(S132)の概略の一例を示す説明図である。
With reference to FIG. 52, the character region segmentation processing and the character region reduction processing by the second document feature
図52に示すように,記載事項ブロック300aに属す領域2は,縮小率が“4”であるため,上記領域2を切り出した後,第2の文書特徴データ化部116は,当該領域2を1/4に縮小している(S132)。なお,記載事項ブロック300aに属すその他の領域(領域3〜領域5)についても領域2と同様に処理される。
As shown in FIG. 52, since the
また,図52に示すように,記載事項ブロック300bに属す領域10,領域11は,縮小率が“2”であるため,上記領域10,領域11を切り出した後,第2の文書特徴データ化部116は,当該領域10,領域11を1/2に縮小している(S132)。なお,縮小された文字領域を縮小文字領域とする。
As shown in FIG. 52, since the reduction ratios of the
次に,第2の文書特徴データ化部116は,上記縮小文字領域を組合せるように縮小文字領域を各々配置し,1つの画像(合成画像)を生成する。なお,第1の実施の形態にかかる合成画像を生成する処理(S34)と第2の実施の形態にかかる合成画像を生成する処理(S134)は実質的に同じであるため詳細な処理説明は省略する。
Next, the second document feature
ここで,図53を参照しながら,第2の実施の形態にかかる合成画像について説明する。図53は,第2の実施の形態にかかる合成画像の概略的な構成の一例を示す説明図である。 Here, a synthesized image according to the second embodiment will be described with reference to FIG. FIG. 53 is an explanatory diagram illustrating an example of a schematic configuration of a composite image according to the second embodiment.
図53に示すように,合成画像には,縮小率が異なる1又は2以上の縮小文字領域が隙間のないように埋め込まれている。なお,図53に示す合成画像は,図10に示す合成画像と同様に,領域番号の小さい順に縮小文字領域が縦方向(垂直方向)に配置されることで生成される。図10に示す合成画像と図53に示す合成画像の相違点は,図53に示す合成画像は縮小率の異なる縮小文字領域が混在する点で相違する。その他については,図10に示す合成画像と実質的に同様である。 As shown in FIG. 53, in the composite image, one or two or more reduced character regions having different reduction ratios are embedded without any gaps. Note that the composite image shown in FIG. 53 is generated by arranging the reduced character areas in the vertical direction (vertical direction) in ascending order of the area numbers, similarly to the composite image shown in FIG. The difference between the composite image shown in FIG. 10 and the composite image shown in FIG. 53 is that the composite image shown in FIG. 53 is mixed with reduced character areas having different reduction ratios. Others are substantially the same as the synthesized image shown in FIG.
(透かし情報合成部113の処理について)
透かし情報合成部(透かし情報埋め込み部)113では改ざん検出用のデータ(改ざん検出データData)を文書画像111に透かし情報として埋め込む。なお,第2の実施の形態にかかる改ざん検出データDataとは以下に示すデータであるとする。
(Regarding the processing of the watermark information synthesis unit 113)
A watermark information synthesis unit (watermark information embedding unit) 113 embeds data for falsification detection (falsification detection data Data) as watermark information in the
Data100:文書画像111の大きさ,データサイズなどのヘッダ情報
Data101:合成画像の画像データあるいは合成画像を圧縮した画像データ
Data102:文字領域の位置情報(文字領域抽出処理(S131)により抽出したもの)および縮小率(又は,縮小レベル)
Data103:合成画像の作成方法ID(合成画像の作成方法を文書画像111ごとに変更する場合)
Data 100: Header information such as the size and data size of the
Data 103: Composite image creation method ID (when the composite image creation method is changed for each document image 111)
上記改ざん検出データData102は,図54に示すようなテーブル化されたデータ等を例示することができる。図54は,第2の実施の形態にかかる改ざん検出データData102の概略的な構成を示す説明図である。 The falsification detection data Data102 can be exemplified by tabulated data as shown in FIG. FIG. 54 is an explanatory diagram illustrating a schematic configuration of the falsification detection data Data 102 according to the second embodiment.
図54に示すように,例えば,「領域番号」が“1”など,「縮小レベル」が“0”の文字領域の場合,上記説明したように重要度が低い記載事項ブロック300に属する文字領域であるため,改ざん検出データData101には,当該文字領域の画像データが記録されていない。 As shown in FIG. 54, for example, in the case of a character area whose “area number” is “1” and whose “reduction level” is “0”, as described above, the character area belonging to the entry block 300 with low importance Therefore, the image data of the character area is not recorded in the falsification detection data Data101.
また一方で,図54に示すように,例えば,「領域番号」が“N”など,「縮小レベル」が“1”(例えば,縮小率が“2”等)の文字領域の場合,重要度が高い記載事項ブロック300に属する文字領域であるため,改ざん検出データData101に当該文字領域の画像データが記録される。 On the other hand, as shown in FIG. 54, for example, in the case of a character area whose “area number” is “N” and whose “reduction level” is “1” (for example, the reduction ratio is “2”, etc.) Therefore, the image data of the character area is recorded in the falsification detection data Data101.
同様に,図54に示すように,例えば,「領域番号」が“2”など,「縮小レベル」が“2”
(例えば,縮小率が“4”等)の文字領域の場合,重要度が中程度の記載事項ブロック300に属する文字領域であるため,改ざん検出データData101ni当該文字領域の画像データは記録される。
Similarly, as shown in FIG. 54, for example, “area number” is “2”, and “reduction level” is “2”.
In the case of a character area (for example, a reduction ratio of “4” or the like), since it is a character area belonging to the entry block 300 having a medium importance level, the falsification detection data Data101ni image data of the character area is recorded.
なお,上記記載事項ブロック300の重要度と縮小率との対応関係が,文書出力部110と文書入力部120の双方で共通であれば,改ざん検出データData102を,第1の実施の形態にかかる改ざん検出データData2と同じデータ構造に変更し,以下に示す改ざん検出データData104をさらに追加することも可能である。
If the correspondence between the importance level and the reduction ratio of the description item block 300 is common to both the
Data104:記載事項ブロック300の位置・大きさ等の情報及び重要度 Data 104: Information such as the position / size of the entry block 300 and the importance level
ここで,図55を参照しながら,上記改ざん検出データData104について説明する。図55は,第2の実施の形態にかかる改ざん検出データData104の概略的な構成の一例を示す説明図である。 Here, the falsification detection data Data104 will be described with reference to FIG. FIG. 55 is an explanatory diagram showing an example of a schematic configuration of the falsification detection data Data 104 according to the second embodiment.
図55に示すように,改ざん検出データData104は,記載事項ブロック300の番号を示す「記載事項」と,記載事項ブロック300の位置に関する情報である「Left」と,「Top」と,「Right」と,「Bottom」と,記載事項ブロック300に属す文字領域の重要度を表わすための「重要度」とから構成される。 As shown in FIG. 55, the falsification detection data Data 104 includes “description item” indicating the number of the descriptive item block 300, “Left”, “Top”, and “Right”, which are information regarding the position of the descriptive item block 300. And “Bottom”, and “Importance” for indicating the importance of the character area belonging to the entry block 300.
なお,第2の実施の形態にかかる透かし情報合成部113による文書画像111に改ざん検出データDataを埋め込む等の処理については,第1の実施の形態にかかる透かし情報合成部13による埋め込み処理とほぼ同様の構成であるため詳細な説明は省略する。
Note that processing such as embedding the falsification detection data Data into the
(文書入力部120の動作について)
以降の説明では,出力文書画像114は紙等の印刷媒体に印刷された後に配布されるものとし,入力文書画像121はその出力文書画像114の透かし入りの印刷書面をスキャナ等の入力デバイスにより画像化したものとするが,かかる例に限定されず,出力文書画像114は印刷されないディジタルデータそのままの場合であってもよい。
(About the operation of the document input unit 120)
In the following description, it is assumed that the
また,第2の実施の形態にかかる文書出力部110において文書画像111に埋め込まれる改ざん検出データDataとして改ざん検出データData102を用いる場合について説明する。
A case will be described in which the falsification detection data Data102 is used as the falsification detection data Data embedded in the
なお,第2の実施の形態にかかる文書入力部120の処理の説明は,第1の実施の形態にかかる文書入力部20の処理と相違する点について説明し,その他の点については,ほぼ同様な構成であるため省略する。
The processing of the
(第2の擬似文書画像生成部127の処理について)
第2の擬似文書画像部127の動作は,第1の実施の形態にかかる擬似文書画像部23の動作と実質的に同一であるが,第2の実施の形態では文字領域ごとに縮小率が異なるため,拡大率もそれに応じて文字領域ごとに変更する。なお,合成画像として改ざん検出データData101に記録されていない文字領域の画像データは,擬似文書画像にも反映されない。
(Processing of the second pseudo document image generation unit 127)
The operation of the second pseudo
図56に示すように,第2の擬似文書画像部127によって生成された擬似文書画像は,必ずしも文書画像111と完全一致ではなく,矢印に示すように,改ざん検出データData101に記録されていない文字領域は重要度が低いため,そのような文字領域についてはそもそも擬似文書画像に配置されない。
As shown in FIG. 56, the pseudo document image generated by the second pseudo
したがって,擬似文書画像に配置される文字領域は,例えば重要度が「中」以上のものについては,第2の擬似文書画像生成部127によって配置されて擬似文書画像が生成される。
Therefore, for example, if the character area arranged in the pseudo document image has an importance level of “medium” or higher, the pseudo document image is generated by being arranged by the second pseudo document
(第2の入力画像変形部128の動作について)
第2の入力画像変形部128は,第1の実施の形態にかかる入力画像変形部24で説明したように,二値化済みの入力文書画像121に対して,改ざん検出データData102に含む文字領域の位置を示す座標データを参照し,その位置・大きさに該当する文字領域を切り出した後,さらに改ざん検出データData102に含む「縮小レベル」を参照し,一旦その縮小率で文字領域を縮小し,縮小率の逆数で拡大を行った後,二値化済みの入力文書画像121の元の位置に配置する。
(About operation | movement of the 2nd input image deformation | transformation part 128)
As described in the input
ここで,図57を参照しながら,第2の入力画像変形部128の動作について説明する。なお,図57は,第2の入力画像変形部128の動作の概略を示す説明図である。
Here, the operation of the second input
図57に示すように,第2の入力画像変形部128は,入力文書画像121における領域2の文字領域を,改ざん検出データData102の位置情報(座標値)に従って切り出す(S131)。なお,その他の文字領域についても上記と同様に処理される。
As shown in FIG. 57, the second input
次に,第2の入力画像変形部128は,切り出された領域2に対応する改ざん検出データData102の「縮小レベル」を参照し,その縮小レベルが“2”であるため,上記領域2の文字領域を1/2に縮小する(S132)。なお,その他の文字領域についても上記と同様に処理される。
Next, the second input
次に,第2の入力画像変形部128は,縮小率“1/2”の逆数である“2”倍だけ,先程S132で縮小された領域2の文字領域を拡大処理する(S133)。
Next, the second input
次に,第2の入力画像変形部128は,上記拡大処理により拡大された領域2の文字領域を入力文書画像121の元の場所に配置する(S134)。なお,改ざん検出データData102に含まれる「縮小レベル」が“0”の文字領域については,第2の入力画像変形部128は,当該文字領域を背景色(図57の場合では白色)で塗りつぶす。
Next, the second input
なお,S134において,第2の入力画像変形部128は,改ざん検出データData102に含まれる「縮小レベル」が“0”の文字領域については背景色で塗りつぶす場合を例に挙げて説明したが,かかる例に限定されず,例えば,第2の入力画像変形部128は,予め入力文書画像121と同一サイズからなる背景画像(例えば白画素で構成された画像など)を生成し,その背景画像に上記拡大処理により拡大された領域2の文字領域を入力文書画像121の元の場所と同じ位置に貼り付ける場合等でも実施可能である。
In S134, the second input
また,文書出力部110で生成する改ざん検出データData104を用いる場合,第2の入力画像変形部128は,改ざん検出データData2に含まれる各文字領域の位置情報(座標値など)が改ざん検出データData104のどの記載事項ブロック300に属するかを判定し,その記載事項ブロック300の重要度を参照し,縮小率および拡大率を決定する。
When the falsification detection data Data 104 generated by the
第2の入力画像変形部128で入力文書画像121の文字領域を別々に縮小および拡大を行うのは,第2の実施の形態にかかる擬似文書画像の各文字領域が変形された状態を再現することで,改ざん検出の性能を向上させるためである。変形された状態とは,例えば,文字のつぶれ具合などを例示することができる。
The reason why the character area of the
また,各文字領域を例えば重要度などに応じて縮小率を変更すれば,重要な文字領域については詳細に改ざんされたか否かを検査することができ,重要度が低い文字領域については大まかな改ざん検出処理を施すことで改ざん検出処理の高速化を図ることができる。具体的には,1/4に縮小した入力文書画像121を4倍に拡大した画像よりも,1/2分に縮小した入力文書画像121を2倍に拡大した画像のほうが画像劣化が少ないため,詳細に改ざん検出処理を実行することができる。
For example, if the reduction ratio of each character area is changed according to the importance level, it is possible to inspect whether the important character area has been tampered with in detail. By performing the falsification detection process, the falsification detection process can be speeded up. Specifically, an image obtained by doubling the
以上から,第2の実施の形態にかかる改ざん検出処理では,文字領域別に縮小率を変更するため,文書が記載された内容の重要度に応じて,改ざんされたか否かを検出する検出精度を動的に又は静的に変更することができる。 From the above, in the falsification detection processing according to the second embodiment, since the reduction ratio is changed for each character area, the detection accuracy for detecting whether or not the document has been falsified is determined according to the importance of the contents described in the document. It can be changed dynamically or statically.
(第3の実施の形態について)
第1の実施の形態および第2の実施の形態では,文書画像(原画像)11および文書画像(原画像)111には,文書が記載された文字領域のみが存在する場合の改ざん検出処理について説明した。第3の実施の形態では,文書画像(原画像)211に文書と罫線が混在する場合の改ざん検出処理について説明する。
(About the third embodiment)
In the first embodiment and the second embodiment, the falsification detection process when the document image (original image) 11 and the document image (original image) 111 include only a character area in which the document is described. explained. In the third embodiment, falsification detection processing when a document image (original image) 211 contains a document and ruled lines will be described.
文書画像に罫線からなる画像領域が存在する場合,単純に罫線を画像データとして処理すると透かし情報として文書画像に埋め込むデータ量が大きくなってしまう。また,罫線を画像データではなく,罫線の存在位置を示す位置情報を座標値などで文書画像に埋め込み管理した場合,二重線や破線など罫線の線種を位置情報に記録する必要がある。しかしながら,文書画像から線種を自動的に判定するのは複雑な処理が必要で,そのため透かし情報を生成するための処理時間等が増大してしまう。 When an image region including ruled lines exists in the document image, if the ruled lines are simply processed as image data, the amount of data embedded in the document image as watermark information increases. In addition, if the ruled line is not image data but position information indicating the position of the ruled line is embedded and managed in the document image using coordinate values or the like, the line type of the ruled line such as a double line or a broken line needs to be recorded in the position information. However, automatically determining the line type from the document image requires complicated processing, which increases the processing time for generating watermark information.
そもそも罫線は機密情報などに該当する可能性が極めて低いと考えられ,罫線に対する微細な変更が改ざんに該当することは極めてまれである。そこで,第3の実施の形態では,上記罫線に関する事由を前提とし,罫線を除去した上で文書画像に透かし情報を埋め込み,さらに透かし情報を抽出して改ざん検出する際にも,罫線を除去した上で改ざん検出を行うようにする。以下,詳細に説明する。 In the first place, it is considered that the ruled line is very unlikely to correspond to confidential information, and it is very rare that a minute change to the ruled line corresponds to tampering. Therefore, in the third embodiment, on the premise of the reason for the ruled lines, the ruled lines are removed, the watermark information is embedded in the document image, and the ruled lines are also removed when the watermark information is extracted to detect falsification. Do tamper detection above. This will be described in detail below.
なお,第3の実施の形態にかかる罫線は,黒色の直線の場合を例に挙げて説明するが,かかる例に限定されず,例えば,黒色以外の赤色,緑色などの場合でもよく,直線以外の例えば破線などの場合であっても実施可能である。 The ruled lines according to the third embodiment will be described by taking the case of a black straight line as an example. However, the ruled line is not limited to this example. For example, the ruled line may be red, green, or the like other than black. Even in the case of a broken line, it can be implemented.
次に,図58を参照しながら,第3の実施の形態にかかる改ざん検出装置に備わる文書出力部210について説明する。図58は,第3の実施の形態にかかる文書出力部の概略的な構成を示すブロック図である。なお,改ざん検出装置には,文書出力部210及び/又は文書入力部220が備わる。
Next, the
また,第3の実施の形態にかかる改ざん検出装置に備わる文書出力部210についての説明は,第1の実施の形態にかかる文書出力部10との相違する点について特に詳細に説明し,その他の点については,ほぼ同様の構成のため詳細な説明は省略する。
Further, the description of the
図58に示すように,第3の実施の形態にかかる文書出力部210は,第1の実施の形態にかかる文書出力部10と比較して,罫線処理部(直線/破線処理部,直線/破線除去部)215がさらに追加されている点で異なる。上記罫線処理部215については後程詳述する。
As shown in FIG. 58, the
次に,図59を参照しながら,第3の実施の形態にかかる文書入力部220について説明する。図59は,第3の実施の形態にかかる文書入力部220の概略的な構成を示すブロック図である。
Next, a
なお,第3の実施の形態にかかる文書入力部220についての説明は,第1の実施の形態にかかる文書入力部20との相違する点について特に詳細に説明し,その他の点については,ほぼ同様の構成のため詳細な説明は省略する。
Note that the description of the
図59に示すように,第3の実施の形態にかかる文書入力部220は,第1の実施の形態にかかる文書入力部20と比較して,入力画像変形部24の代わりに第3の入力画像変形部(画像変形部)227を備える点で異なる。上記第3の入力画像変形部227については後程詳述する。
As illustrated in FIG. 59, the
(文書出力部210の動作について)
次に,図60を参照しながら,第3の実施の形態に係る文書出力部210に備わる罫線処理部215の動作について説明する。図60は,第3の実施の形態にかかる罫線処理部215の処理の概略を示すフローチャートである。なお,第3の実施の形態にかかる文書出力部210の動作の説明は,第1又は第2の実施の形態にかかる文書出力部との相違点について説明する。
(About the operation of the document output unit 210)
Next, the operation of the ruled
図60に示すように,罫線処理部215は,まず,文書画像211から罫線を抽出する罫線抽出処理(S231)を実行する。次に,罫線処理部215は,S231で抽出した罫線を除去する罫線除去処理(S232)を実行する。
As shown in FIG. 60, the ruled
ここで,図61を参照しながら,第3の実施の形態にかかる文書画像211について説明する。図61は,第3の実施の形態にかかる文書画像211の概略的な構成を示す説明図である。
Here, a
図61に示すように,第3の実施の形態にかかる文書画像211には1又は2以上の罫線が存在している。なお,第3の実施の形態に係る文書画像211は,図4等に示す第1の実施の形態にかかる文書画像11と比較して,罫線が存在する点で異なり,記載内容を含め,その他の点については同様である。
As shown in FIG. 61, the
図61に示すように,文書画像211の罫線には,水平方向の罫線(水平罫線241)と,垂直方向の罫線(垂直罫線242)と2種類の罫線がある。即ち,罫線処理部215は,かかる2種類の罫線を抽出(S231)または除去(S232)する。
As shown in FIG. 61, the ruled lines of the
(罫線抽出処理(S231),罫線除去処理(S232)について)
ここで,図62を参照しながら,上記罫線抽出処理(S231)と罫線除去処理(S232)について説明する。図62は,罫線抽出処理(S231)と罫線除去処理(S232)の概略を示すフローチャートである。
(Regarding ruled line extraction processing (S231) and ruled line removal processing (S232))
Here, the ruled line extraction process (S231) and the ruled line removal process (S232) will be described with reference to FIG. FIG. 62 is a flowchart showing an outline of ruled line extraction processing (S231) and ruled line removal processing (S232).
図62に示すように,罫線処理部215は,まず文書画像211をラスタースキャンし黒画素を検出する(S241)。
As shown in FIG. 62, the ruled
次に,罫線処理部215は,S241で検出した黒画素の位置から水平方向に連続して存在する黒画素を検索し,その黒画素の画素数をカウントする(S242)。
Next, the ruled
次に,罫線処理部215は,上記S242でカウントした画素数を判定する(S243)。罫線処理部215は,上記画素数が所定値L以上であれば統合処理(S244)を実行し,L以下であれば,S241で検索した連続する黒画素領域を削除(白画素に変更)する削除処理(S246)を実行する。
Next, the ruled
次に,罫線処理部215は,S242で検索した領域の上下の近傍にS242で検索した長さに等しい連続する黒画素領域が存在すれば,それらを同じ罫線とみなして統合する(S244)。
Next, if there are continuous black pixel areas equal to the length searched in S242 near the top and bottom of the area searched in S242, the ruled
最後に,罫線処理部215は, S244で統合された罫線情報(例えば,長さ,幅,位置などに関する情報)を記録し,検索した罫線を削除する(S246)。S246が終了すると,再び罫線処理部215は黒画素検出処理(S241)を実行する。
Finally, the ruled
以上で,水平罫線241を抽出(S231)及び除去(S232)する処理について説明は終了する。なお,垂直罫線242の場合は,図62に示すS242で垂直方向に連続した黒画素領域を検索するように変更し,S244で左右に同じ長さの線分があれば同じ罫線として統合するように変更することで,罫線処理部215は罫線抽出処理(S231)と罫線除去処理(S232)を実行する。
This is the end of the description of the process of extracting (S231) and removing (S232) the horizontal ruled line 241. In the case of the vertical ruled
また,第3の実施に形態にかかる罫線処理部215は,罫線抽出処理(S231)と罫線除去処理(S232)を実行することで,罫線を抽出および除去する場合を例に挙げて説明したが,かかる例に限定されず,例えば,罫線の抽出方法は,OCR等の文書構造解析で用いられる一般的な方法等を用いる場合でも実施可能である。
Also, the ruled
ここで,図61に示す文書画像211に対して罫線処理部215によって罫線抽出処理(S231)が実行されると,図63に示すように,図61に示す文書画像211のうち罫線領域のみを抽出することができる。
Here, when the ruled line extraction processing (S231) is executed by the ruled
また,罫線抽出処理(S231),罫線除去処理(S232)が実行されることで出力された上記罫線情報に基づいて罫線処理部215が罫線を白画素からなる背景画像に配置すると図61に示す文書画像211のうち罫線のみを再現することができる。なお,図63は,図61に示す文書画像211のうち罫線だけを表示した文書画像の概略的な構成を示す説明図である。
Also, FIG. 61 shows that the ruled
さらに,罫線処理部215が罫線抽出処理(S231),罫線除去処理(S232)を実行することによって,図61に示す文書画像211のうち水平罫線241及び垂直罫線242を除去した結果は,図64に図示の通りとなる。なお,図64は,図61に示す文書画像のうち罫線を除去した文書画像の概略的な構成の一例を示す説明図である。
Further, the ruled
また,上記図64に示す罫線が除去された文書画像211に対して文書特徴データ化部(画像加工部)212が文字領域の抽出処理等の処理を実行する。なお,第3の実施の形態にかかる文書特徴データ化部211の動作は,第1又は第2の実施の形態にかかる文書特徴データ化部12,116とほぼ同様の構成であるため詳細な説明は省略する。
Further, the document feature data conversion unit (image processing unit) 212 executes processing such as character region extraction processing on the
(透かし情報合成部213の動作について)
第3の実施の形態にかかる透かし情報合成部(透かし情報埋め込み部)213は,第1の実施の形態にかかる透かし情報合成部13と同様に改ざん検出データDataを透かし情報として文書画像211に埋め込む。
(About the operation of the watermark information synthesis unit 213)
The watermark information synthesis unit (watermark information embedding unit) 213 according to the third embodiment embeds the falsification detection data Data as watermark information in the
なお,第3の実施の形態にかかる改ざん検出データDataは,第1の実施の形態にかかる改ざん検出データDataに,以下に示すデータ(改ざん検出データData205)をさらに追加したものである。 Note that the falsification detection data Data according to the third embodiment is obtained by further adding the following data (falsification detection data Data205) to the falsification detection data Data according to the first embodiment.
Data205:罫線情報(抽出した罫線領域の位置,幅,長さ等に関するデータ) Data 205: Ruled line information (data regarding the position, width, length, etc. of the extracted ruled line area)
(入力画像変形部227の動作について)
次に,文書入力部220に備わる第3の入力画像変形部227の動作について説明する。第3の入力画像変形部227は,第1の実施の形態の入力画像変形部24で説明した二値化済みの入力文書画像に対して,上記改ざん検出データData205の罫線情報を参照して罫線の削除を行う。
(Regarding the operation of the input image transformation unit 227)
Next, the operation of the third input
第3の入力画像変形部227は,第1の実施の形態でも説明したが,出力文書画像214をスキャナ等の入力デバイス(図示せず。)からの入力文書画像から補正画像を作成し,さらに補正画像について画像領域に含まれる罫線領域を除去する。
As described in the first embodiment, the third input
なお,入力デバイス(図示せず。)によって取得された入力文書画像221を図示すると,図65のようになる。図65に示す入力文書画像221に対して第3の入力画像変形部227が補正画像を作成し,さらに罫線を除去する。図65は,入力デバイスで取得された入力文書画像221の概略的な構成を示す説明図である。
An
また,第3の入力画像変形部227が水平罫線241,垂直罫線242からなる罫線領域を除去すると,図66に図示の通りとなる。なお,図66は,図65に示す入力文書画像211を二値化など補正した画像から罫線を削除した入力文書画像の概略的な構成の一例を示す説明図である。
Further, when the third input
第3の入力画像変形部227の処理動作は,第1の実施の形態にかかる入力画像変形部24の動作と比較して罫線削除処理以外の処理ついては,実質的に同一なので詳細な説明は省略する。
The processing operation of the third input
また,第3の実施の形態にかかる文書画像211に罫線が存在する場合についての改ざん検出処理について説明してきたが,第1の実施の形態にかかる文書画像11または第2の実施の形態にかかる文書画像111に罫線が存在する場合であっても実施可能である。つまり,第3の実施の形態にかかる罫線処理部215による罫線抽出処理(S231)や,罫線除去処理(S232),さらには第3の入力画像変形部227による罫線除去処理を,第1の実施の形態または第2の実施の形態についても実質的に同様の処理を施すことによって実施することが可能となる。
In addition, the falsification detection process when there is a ruled line in the
なお,第3の実施の形態にかかる改ざん検出処理は,上記説明の通り,第1の実施の形態にかかる改ざん検出部(改ざん判定部)25による改ざん検出処理(S53)等と実質的に同様であるため詳細な説明は省略する。 As described above, the falsification detection process according to the third embodiment is substantially the same as the falsification detection process (S53) by the falsification detection unit (falsification determination unit) 25 according to the first embodiment. Therefore, detailed description is omitted.
以上,第3の実施の形態にかかる改ざん検出処理について説明したが,かかる構成により,文書画像中に罫線が存在していた場合でも,利用者による特段の処理又は作業を要することなく,改ざん検出装置が自動的に入力文書画像が改ざんされたか否かを自動的に判定することができる。また,罫線を特定する位置情報等を画像形式で文書画像に埋め込まずに,罫線に関する位置情報等を座標値等で透かし情報として文書画像に埋め込むため,上記透かし情報のデータ量を極端に増大させることを防止できる。 The falsification detection process according to the third embodiment has been described above. With this configuration, even when ruled lines exist in the document image, the falsification detection is performed without requiring special processing or work by the user. The apparatus can automatically determine whether the input document image has been tampered with automatically. Further, since the position information for specifying the ruled line is not embedded in the document image in the image format, the position information related to the ruled line is embedded as the watermark information with the coordinate value or the like in the document image, so that the data amount of the watermark information is extremely increased. Can be prevented.
以上,添付図面を参照しながら本発明の好適な実施形態について説明したが,本発明はかかる例に限定されない。当業者であれば,特許請求の範囲に記載された技術的思想の範疇内において各種の変更例または修正例を想定し得ることは明らかであり,それらについても当然に本発明の技術的範囲に属するものと了解される。 As mentioned above, although preferred embodiment of this invention was described referring an accompanying drawing, this invention is not limited to this example. It is obvious for those skilled in the art that various changes or modifications can be envisaged within the scope of the technical idea described in the claims, and these are naturally within the technical scope of the present invention. It is understood that it belongs.
上記実施形態においては,地紋等からなる透かし情報として改ざん検出データDataを文書画像に埋め込む場合を例にあげて説明したが,本発明はかかる例に限定されない。例えば,2次元バーコードとして改ざん検出データDataを文書画像に埋め込む場合等でも実施することができる。 In the above-described embodiment, the case where the falsification detection data Data is embedded in the document image as watermark information including a background pattern or the like has been described as an example. However, the present invention is not limited to such an example. For example, the present invention can be implemented even when the falsification detection data Data is embedded in a document image as a two-dimensional barcode.
本発明は,に適用可能である。 The present invention is applicable to.
10 文書出力部
11 文書画像
12 文書特徴データ化部
13 透かし情報合成部
14 出力文書画像
21 入力文書画像
22 透かし情報抽出部
23 擬似文書画像生成部
24 入力画像変形部
25 改ざん検出部
26 改ざん検出結果
DESCRIPTION OF
Claims (11)
前記画像加工部により切り出された特定領域の位置及び/又は大きさに関する領域情報,または前記特定領域に対応する画像の部分画像のうち少なくとも一方を透かし情報として前記画像に埋め込み,出力画像を生成する透かし情報埋め込み部と;
を備え,
前記画像加工部は,前記特定領域を切り出す処理を実行し,さらにその切り出された特定領域に対応する前記画像の部分画像を,該特定領域ごとの重要度に応じて定められる縮小率で縮小する縮小処理を実行することを特徴とする,透かし入り画像出力装置。 An image processing unit that inputs an image and executes a process of cutting out a specific region of the region for determining whether or not one or more tampering has been performed from the input image;
At least one of area information regarding the position and / or size of the specific area cut out by the image processing unit or a partial image of the image corresponding to the specific area is embedded in the image as watermark information to generate an output image A watermark information embedding unit;
With
The image processing unit executes a process of cutting out the specific area, and further reduces the partial image of the image corresponding to the cut out specific area at a reduction ratio determined according to the importance for each specific area. A watermarked image output apparatus characterized by executing a reduction process.
前記画像加工部により切り出された特定領域の位置及び/又は大きさに関する領域情報,または前記特定領域に対応する画像の部分画像のうち少なくとも一方を透かし情報として前記画像に埋め込み,出力画像を生成する透かし情報埋め込み部と;
を備え,
前記画像加工部は,1又は2以上の前記縮小画像各々を一括し,一つの合成画像を生成することを特徴とする,透かし入り画像出力装置。 An image processing unit that inputs an image and executes a process of cutting out a specific region of the region for determining whether or not one or more tampering has been performed from the input image;
At least one of area information regarding the position and / or size of the specific area cut out by the image processing unit or a partial image of the image corresponding to the specific area is embedded in the image as watermark information to generate an output image A watermark information embedding unit;
With
The watermark image output apparatus, wherein the image processing unit collects each of the one or more reduced images and generates one composite image.
前記透かし情報は,前記領域情報を含むとともに,前記特定領域に対応する前記画像の部分画像,または該特定領域に対応する画像の部分画像が縮小された縮小画像をさらに含み,該縮小画像の縮小率をさらに含むことを特徴とする,請求項1,2,または3項のうちいずれか1項に記載の透かし入り画像出力装置。 The image processing unit executes a process of cutting out the specific area, and further executes a reduction process of reducing a partial image of the image corresponding to the cut out specific area at a predetermined reduction rate;
The watermark information includes the area information and further includes a partial image of the image corresponding to the specific area or a reduced image obtained by reducing a partial image of the image corresponding to the specific area. The watermarked image output apparatus according to claim 1, further comprising a rate .
前記透かし情報埋め込み部は,前記直線/破線処理部により抽出された直線及び/又は破線の領域の位置及び/又は大きさに関する直線領域情報を透かし情報として前記画像にさらに埋め込むことを特徴とする,請求項1,2,または3項のうちいずれか1項に記載の透かし入り画像出力装置。 The watermarked image output apparatus further includes a straight line / broken line processing unit that extracts a straight line and / or broken line area having a predetermined length included in the image,
The watermark information embedding unit further embeds, as watermark information, straight line area information relating to the position and / or size of a straight line and / or broken line area extracted by the straight line / broken line processing unit, into the image. 4. The watermarked image output apparatus according to claim 1, 2, or 3 .
入力された前記出力画像を加工し,前記画像と略同一サイズの入力画像に変形する画像変形部と;
前記画像に存在する前記特定領域の部分画像に少なくとも類似する擬似画像を生成する擬似画像生成部と;
前記入力画像と前記擬似画像との差分からなる差分画像を生成し,該差分画像に差分領域が存在していた場合,前記入力画像の変形元となる出力画像が改ざんされたと判定する改ざん判定部と;
を備え,
前記擬似画像生成部が前記画像と略同一サイズの背景画像を生成し,前記透かし情報に前記特定領域に対応する画像の部分画像が含まれる場合そのまま該画像を前記背景画像に前記領域情報に従って配置し,または前記透かし情報に前記特定領域に対応する縮小画像が含まれる場合,前記縮小画像に縮小した縮小率の逆数の倍率でまず拡大し,該拡大した縮小画像を前記領域情報に従って配置し,前記擬似画像を生成することで該擬似画像は前記画像に類似することを特徴とする,透かし入り画像入力装置。 At least one of area information on the position and / or size of one or more specific areas for determining whether or not the image has been tampered with, or a partial image of the image relating to the specific area is used as watermark information. A watermark information extraction unit that inputs an output image generated by being embedded in the image and extracts the watermark information embedded in the input output image;
An image transformation unit that processes the input output image and transforms the input image into an input image having substantially the same size as the image;
A pseudo image generation unit that generates a pseudo image at least similar to a partial image of the specific region existing in the image;
A falsification determination unit that generates a difference image including a difference between the input image and the pseudo image and determines that an output image that is a deformation source of the input image has been falsified when a difference area exists in the difference image When;
With
When the pseudo image generation unit generates a background image having substantially the same size as the image, and the watermark information includes a partial image of the image corresponding to the specific area, the image is directly arranged in the background image according to the area information. Or when the watermark information includes a reduced image corresponding to the specific area, the image is first enlarged at a reciprocal of the reduction ratio reduced to the reduced image, and the enlarged reduced image is arranged according to the area information; A watermarked image input apparatus, wherein the pseudo image is similar to the image by generating the pseudo image.
入力された前記出力画像を加工し,前記画像と略同一サイズの入力画像に変形する画像変形部と;
前記画像に存在する前記特定領域の部分画像に少なくとも類似する擬似画像を生成する擬似画像生成部と;
前記入力画像と前記擬似画像との差分からなる差分画像を生成し,該差分画像に差分領域が存在していた場合,前記入力画像の変形元となる出力画像が改ざんされたと判定する改ざん判定部と;
を備え,
前記画像変形部は,前記透かし情報に含まれる前記特定領域の位置及び/又は大きさに関する領域情報に基づき,前記入力された出力画像において前記特定領域と一致する領域を切り出し,その特定領域に対応する前記透かし情報に含んだ縮小率で前記切り出された領域の部分画像を縮小し,さらにその縮小率の逆数の倍率で該切り出された領域の部分画像を拡大した後,前記出力画像における元の位置に配置することを特徴とする,透かし入り画像入力装置。 At least one of area information on the position and / or size of one or more specific areas for determining whether or not the image has been tampered with, or a partial image of the image relating to the specific area is used as watermark information. A watermark information extraction unit that inputs an output image generated by being embedded in the image and extracts the watermark information embedded in the input output image;
An image transformation unit that processes the input output image and transforms the input image into an input image having substantially the same size as the image;
A pseudo image generation unit that generates a pseudo image at least similar to a partial image of the specific region existing in the image;
A falsification determination unit that generates a difference image including a difference between the input image and the pseudo image and determines that an output image that is a deformation source of the input image has been falsified when a difference area exists in the difference image When;
With
The image transformation unit cuts out an area that matches the specific area in the input output image based on area information regarding the position and / or size of the specific area included in the watermark information, and corresponds to the specific area The partial image of the clipped area is reduced at a reduction ratio included in the watermark information, and the partial image of the clipped area is enlarged at a magnification that is the inverse of the reduction ratio. A watermarked image input device characterized by being arranged at a position.
入力された前記出力画像を加工し,前記画像と略同一サイズの入力画像に変形する画像変形部と;
前記画像に存在する前記特定領域の部分画像に少なくとも類似する擬似画像を生成する擬似画像生成部と;
前記入力画像と前記擬似画像との差分からなる差分画像を生成し,該差分画像に差分領域が存在していた場合,前記入力画像の変形元となる出力画像が改ざんされたと判定する改ざん判定部と;
を備え,
前記画像変形部は,前記特定領域ごとの重要度に応じて定められる縮小率で前記切り出された領域の部分画像を縮小し,さらにその縮小率の逆数の倍率で該切り出された領域の部分画像を拡大した後,前記出力画像における元の位置に配置することを特徴とする,透かし入り画像入力装置。 At least one of area information on the position and / or size of one or more specific areas for determining whether or not the image has been tampered with, or a partial image of the image relating to the specific area is used as watermark information. A watermark information extraction unit that inputs an output image generated by being embedded in the image and extracts the watermark information embedded in the input output image;
An image transformation unit that processes the input output image and transforms the input image into an input image having substantially the same size as the image;
A pseudo image generation unit that generates a pseudo image at least similar to a partial image of the specific region existing in the image;
A falsification determination unit that generates a difference image including a difference between the input image and the pseudo image and determines that an output image that is a deformation source of the input image has been falsified when a difference area exists in the difference image When;
With
The image deforming unit reduces the partial image of the clipped area at a reduction ratio determined according to the importance for each specific area, and further, the partial image of the clipped area at a magnification that is a reciprocal of the reduction ratio. After the image is enlarged, the watermarked image input device is arranged at the original position in the output image.
入力された前記出力画像を加工し,前記画像と略同一サイズの入力画像に変形する画像変形部と;
前記画像に存在する前記特定領域の部分画像に少なくとも類似する擬似画像を生成する擬似画像生成部と;
前記入力画像と前記擬似画像との差分からなる差分画像を生成し,該差分画像に差分領域が存在していた場合,前記入力画像の変形元となる出力画像が改ざんされたと判定する改ざん判定部と;
を備え,
前記透かし入り画像入力部に備わる透かし情報抽出部は,前記画像に含まれる所定長さを有する直線及び/又は破線の領域の位置及び/又は大きさに関する直線/破線領域情報を透かし情報として前記出力画像から抽出し;
前記透かし入り画像入力装置は,さらに前記透かし情報に含まれる前記直線/破線領域情報に基づき,前記入力された出力画像に存在する直線及び/又は破線の領域を除去する直線/破線除去部を備えることを特徴とする,透かし入り画像入力装置。 At least one of area information on the position and / or size of one or more specific areas for determining whether or not the image has been tampered with, or a partial image of the image relating to the specific area is used as watermark information. A watermark information extraction unit that inputs an output image generated by being embedded in the image and extracts the watermark information embedded in the input output image;
An image transformation unit that processes the input output image and transforms the input image into an input image having substantially the same size as the image;
A pseudo image generation unit that generates a pseudo image at least similar to a partial image of the specific region existing in the image;
A falsification determination unit that generates a difference image including a difference between the input image and the pseudo image and determines that an output image that is a deformation source of the input image has been falsified when a difference area exists in the difference image When;
With
The watermark information extraction unit included in the watermarked image input unit outputs, as watermark information, straight line / broken line area information regarding the position and / or size of a straight line and / or broken line area having a predetermined length included in the image. Extracted from the image;
The watermarked image input apparatus further includes a straight line / broken line removal unit that removes a straight line and / or broken line area present in the input output image based on the straight line / broken line area information included in the watermark information. A watermarked image input device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004351883A JP4192887B2 (en) | 2004-12-03 | 2004-12-03 | Tamper detection device, watermarked image output device, watermarked image input device, watermarked image output method, and watermarked image input method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004351883A JP4192887B2 (en) | 2004-12-03 | 2004-12-03 | Tamper detection device, watermarked image output device, watermarked image input device, watermarked image output method, and watermarked image input method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006165818A JP2006165818A (en) | 2006-06-22 |
JP4192887B2 true JP4192887B2 (en) | 2008-12-10 |
Family
ID=36667355
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004351883A Expired - Fee Related JP4192887B2 (en) | 2004-12-03 | 2004-12-03 | Tamper detection device, watermarked image output device, watermarked image input device, watermarked image output method, and watermarked image input method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4192887B2 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4871841B2 (en) | 2007-11-08 | 2012-02-08 | キヤノン株式会社 | PRINT CONTROL DEVICE, PRINT CONTROL METHOD, PROGRAM THEREOF, AND STORAGE MEDIUM |
JP4964221B2 (en) * | 2008-12-26 | 2012-06-27 | 三菱電機株式会社 | Tamper detection device and tamper detection method |
JP4964263B2 (en) * | 2009-03-10 | 2012-06-27 | 三菱電機株式会社 | Tamper detection information generation device, image generation device, and tamper detection device |
JP7180327B2 (en) * | 2018-11-30 | 2022-11-30 | 株式会社リコー | System, image forming apparatus, method and program |
CN112836696B (en) * | 2019-11-22 | 2024-08-02 | 北京搜狗科技发展有限公司 | Text data detection method and device and electronic equipment |
CN112132133B (en) * | 2020-06-16 | 2023-11-17 | 中国科学院计算技术研究所数字经济产业研究院 | Identification image data enhancement method and true-false intelligent identification method |
-
2004
- 2004-12-03 JP JP2004351883A patent/JP4192887B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2006165818A (en) | 2006-06-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4277800B2 (en) | Watermark information detection method | |
JP3628312B2 (en) | Watermark information embedding device and watermark information detection device | |
US7536026B2 (en) | Image processing apparatus and method | |
JP4035717B2 (en) | Image processing apparatus and image processing method | |
JP3964684B2 (en) | Digital watermark embedding device, digital watermark detection device, digital watermark embedding method, and digital watermark detection method | |
CN107248134B (en) | Method and device for hiding information in text document | |
WO2005094058A1 (en) | Printing medium quality adjusting system, examining watermark medium output device, watermark quality examining device, adjusted watermark medium output device, printing medium quality adjusting method, and examining watermark medium | |
KR101086802B1 (en) | Watermark information embedding device and method, watermark information detecting device and method, watermarked document | |
JP2007134987A (en) | Watermark information embedding device, watermark information embedding method, and computer program | |
KR20070052332A (en) | Image processing method and image processing device | |
JP2007282200A (en) | Information embedding apparatus, information embedding method, information embedding program, information extracting apparatus, information extracting method, information extracting program, and recording medium | |
JP4192887B2 (en) | Tamper detection device, watermarked image output device, watermarked image input device, watermarked image output method, and watermarked image input method | |
JP2005150815A (en) | Watermark information embedding apparatus and method, watermark information detecting apparatus and method, and printed matter | |
JP2004128845A (en) | Method and device for padding and detecting watermark information | |
JP2008085579A (en) | Device for embedding information, information reader, method for embedding information, method for reading information and computer program | |
JP4232676B2 (en) | Information detection apparatus, image processing system, and information detection method | |
JP4096902B2 (en) | Watermark information detection apparatus and watermark information detection method | |
WO2006059681A1 (en) | False alteration detector, watermarked image output device, watermarked image input device, watermarked image output method, and watermarked image input method | |
JP2010098743A (en) | Image processing device, image reading device, and image processing method | |
JPWO2004084539A1 (en) | Entry document creation device and creation method, entry content extraction device and extraction method, entry document | |
JP2005338902A (en) | Document data structure, document conversion device, document restoration device, document conversion method, document restoration method, document conversion program, document restoration program and recording medium | |
JP5009414B2 (en) | Background pattern superimposing apparatus and background pattern superimposing method | |
Arjun et al. | An approach to self-embedding document watermarking based on LZW algorithm | |
JP2006295391A (en) | Image processing apparatus and program, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070207 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080520 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080617 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080804 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080826 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080908 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111003 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111003 Year of fee payment: 3 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111003 Year of fee payment: 3 |
|
R371 | Transfer withdrawn |
Free format text: JAPANESE INTERMEDIATE CODE: R371 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111003 Year of fee payment: 3 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111003 Year of fee payment: 3 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111003 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121003 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121003 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131003 Year of fee payment: 5 |
|
LAPS | Cancellation because of no payment of annual fees |