JP5168185B2 - Image processing method, image processing apparatus, and watermark detection system - Google Patents

Image processing method, image processing apparatus, and watermark detection system Download PDF

Info

Publication number
JP5168185B2
JP5168185B2 JP2009039885A JP2009039885A JP5168185B2 JP 5168185 B2 JP5168185 B2 JP 5168185B2 JP 2009039885 A JP2009039885 A JP 2009039885A JP 2009039885 A JP2009039885 A JP 2009039885A JP 5168185 B2 JP5168185 B2 JP 5168185B2
Authority
JP
Japan
Prior art keywords
image
images
average
similarity
document
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009039885A
Other languages
Japanese (ja)
Other versions
JP2009232450A (en
Inventor
俊 孫
勇作 藤井
浩明 武部
克仁 藤本
聡 直井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of JP2009232450A publication Critical patent/JP2009232450A/en
Application granted granted Critical
Publication of JP5168185B2 publication Critical patent/JP5168185B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像処理分野に関し、特に複数枚の処理対象の画像から、その形状、色と位置等がこれら複数枚の文書画像のいずれにおいても同じである共通パターンを探し出すか、又は特定するのに用いられる技術に関する。   The present invention relates to the field of image processing, and in particular, searches for or specifies a common pattern whose shape, color, position, etc. are the same in any of the plurality of document images from a plurality of images to be processed. The technology used for

コンピュータ技術とデジタル技術が進むに伴い、複数枚の画像からそれらの間の共通パターンを探し出すことについての要求が多くなりつつある。例えば、文書に対する標識や著作権保護等の各種類の目的から、現在多くのMicrosoft(登録商標) Office Word文書或いはPowerPoint(登録商標)文書の背景に、いずれにも、数字、文字又は図形等の透かしが埋め込まれている。しかし、それに続き、電子文書を印刷して取得された紙文書に対して更なる処理が要求される。例えば、コピー又はスキャンするときに、しばしば、書類の完全性を確保するように、文書画像から透かしを抽出し、抽出された透かしに対して認証すること、及び/または、本文の部分だけを保持するように、文書画像から透かしを除去することなどが求められる。   As computer technology and digital technology advance, there is an increasing demand for finding a common pattern between a plurality of images. For example, for the purposes of various types such as signage and copyright protection for documents, numbers, letters, figures, etc. are used on the background of many Microsoft (registered trademark) Office Word documents or PowerPoint (registered trademark) documents. The watermark is embedded. However, subsequent processing is required for paper documents obtained by printing electronic documents. For example, when copying or scanning, often extract a watermark from a document image and authenticate against the extracted watermark and / or keep only the body part to ensure the integrity of the document Thus, it is required to remove the watermark from the document image.

また、デジタルカメラ、スキャナなどのデバイスにより、大きなサイズ有する対象或いは広い範囲を有するシーンを撮影又はスキャンするときに、当該対象又はシーンの画像を一度に取得することができないので、当該対象を連続的にスキャンしたり、当該シーンを多くの角度から連続的に撮影したりして、複数枚の画像を取得し、その複数枚の画像間の共通部分を探し出し、それに基づいて、取得した複数枚の画像に対するつなぎ合わせを行う必要がしばしば生じる。その他にも、複数枚の画像からそれらの間の共通パターンを探し出すことには、多くの応用の可能性がある。   In addition, when photographing or scanning a scene having a large size or a wide range with a device such as a digital camera or a scanner, images of the target or scene cannot be acquired at a time. Or scan the scene continuously from many angles to acquire multiple images, find common parts between the multiple images, and based on them, It is often necessary to stitch together images. In addition, finding a common pattern between a plurality of images has many potential applications.

このため、従来、画像から共通パターンを探し出す方法が多く提案されている。例えば、非特許文献1には、パターンの色の同一性に基づいて複数枚の文書画像から共通の機密パターンを抽出する方法が開示されている。ここでは、まず各文書画像に対して色を分類し、第一枚目の文書画像を基準画像として、一色ごとの分類において、それにその他の文書画像を合わせ、全ての画像を累積し、そして、共通パターンの色の同一性に基づいて重ね合わせ確率が最高の合成画像を共通パターンとして特定する。   For this reason, many methods for finding a common pattern from an image have been proposed. For example, Non-Patent Document 1 discloses a method of extracting a common confidential pattern from a plurality of document images based on the identity of pattern colors. Here, the colors are first classified for each document image, the first document image is used as a reference image, the other document images are combined with each other in the classification for each color, all the images are accumulated, and Based on the color identity of the common pattern, a composite image having the highest overlay probability is specified as the common pattern.

また、従来の技術においては、画像のつなぎ合わせを実現するのに用いられる多くの方法及びシステムも提案されている。例えば、特許文献1、及び特許文献2においては、それぞれ計算された2枚ずつの部分画像間の重複量に基づいて、複数枚の部分画像に対してつなぎ合わせ又は、合成を行うのに用いられる方法及び装置が開示されている。   In the prior art, many methods and systems that are used to realize the stitching of images have also been proposed. For example, in Patent Literature 1 and Patent Literature 2, it is used for joining or synthesizing a plurality of partial images based on the calculated amount of overlap between two partial images. A method and apparatus is disclosed.

しかし、従来提案されている各種方法及び装置においては、処理対象の複数枚の画像に対して2枚ずつの処理を行うか、又は、その中のいずれか1枚の画像を基準画像として2枚以上の画像に対して処理を行うが、何れにおいても処理対象の複数枚の画像間の関連性が考慮されていない。   However, in various conventionally proposed methods and apparatuses, two images are processed for each of a plurality of images to be processed, or two images are used as a reference image. Processing is performed on the above images, but in any case, the relevance between a plurality of images to be processed is not considered.

また、画像間の共通パターンがある程度劣化している場合が考慮されていない。実際には、処理対象の複数枚の画像には常に共通パターンが劣化している状況が出現する。例えば、文書画像に対するスキャン又はコピー等の処理を行う時の誤差により、各文書画像における、例えば透かしパターンのような共通パターンは、位置、角度及び/又はサイズに差異が発生する可能性があること、文書の本文部分に遮られて透かし画像に欠落が発生すること、つなぎ合わせようとする複数枚の画像の共通部分(即ち、共通パターン)は、遮断又は焦点のずれなどの原因によって、欠落或いは曇りが発生すること、及びこれらに類似する状況である。   Further, the case where the common pattern between images is deteriorated to some extent is not considered. Actually, a situation in which the common pattern always deteriorates appears in a plurality of images to be processed. For example, a common pattern such as a watermark pattern in each document image may have a difference in position, angle, and / or size due to an error when performing processing such as scanning or copying on the document image. The omission of the watermark image due to obstruction by the body part of the document, and the common part (that is, the common pattern) of the plurality of images to be stitched together is missing or defocused due to causes such as occlusion or defocusing. Clouding occurs and similar situations.

図1は、6枚の文書画像の中に透かしパターンが有る一例を示している。この図に示されるように、6枚の文書画像のいずれにも同じ透かしの内容が含まれているが、本文部分によって遮られているので、どの1枚の画像も完全な透かし文字列の「CONFIDENTIAL」を含んでいない。このように、共通パターンにある程度の劣化が発生した状況では、従来の各種の方法及び装置を利用しても、いずれも複数枚の画像から共通パターンを満足に探し出すことができない。   FIG. 1 shows an example in which a watermark pattern is present in six document images. As shown in this figure, the contents of the same watermark are included in all of the six document images, but since they are obstructed by the body part, any one image has the complete watermark character string “ CONFIDENTIAL ”is not included. Thus, in a situation where a certain degree of deterioration has occurred in the common pattern, none of the common patterns can be satisfactorily searched from a plurality of images even if various conventional methods and apparatuses are used.

従って、比較的正確に及び/又は満足に、処理対象の複数枚(3枚または3枚以上)の画像からそれらの中の共通パターンを探し出すか又は特定する技術、即ち、従来の技術における上述の欠陥を克服することができ、各種の原因によって共通パターンの劣化が発生している状況下でも、満足な結果を取得することができる技術が切に求められている。   Therefore, a technique for finding or identifying a common pattern in a plurality of (three or more) images to be processed relatively accurately and / or satisfactorily, that is, the above-described conventional technique. There is an urgent need for a technique that can overcome the defects and obtain a satisfactory result even in a situation where the deterioration of the common pattern occurs due to various causes.

米国特許第6690482号明細書US Pat. No. 6,690,482 米国特許第7145596号明細書US Pat. No. 7,145,596

藤井勇作、武部浩明、藤本克仁、直井聡, "文書間の色一様性に基づく文書画像群からの機密パターン抽出",信学会技報 SIS2006-81, pp.1-5, 2007Yusaku Fujii, Hiroaki Takebe, Katsuhito Fujimoto, Satoshi Naoi, "Secret pattern extraction from document images based on color uniformity between documents", IEICE Technical Report SIS2006-81, pp.1-5, 2007

以下の文中には、本願ではいくつかの面に関する基本的な理解を提供するために、簡潔な概要の記載が与えられているが、この概要の記載は一例と理解されるべきである。それは、本願のキーポイント又は重要な部分を特定するための意図ではなく、また、本願の範囲を限定するための意図でもない。その目的は、簡素化した形式によって本願に係るいくつかの概念を提供することだけであり、これを後に挙げる更なる詳細な記述の前書きとする。   In the following text, a brief summary description is provided in this application to provide a basic understanding of some aspects, but this summary description is to be understood as an example. It is not intended to identify key points or important parts of the present application, nor is it intended to limit the scope of the present application. Its purpose is merely to provide some concepts according to the present application in a simplified form which are the prelude to the more detailed description that is presented later.

従来の技術に存在している上述の問題に対して、本願に開示される技術の一つの目的は、3枚以上の複数枚の処理対象となる画像の中からそれらの共通パターンを探し出すか、又は特定するのに用いられる画像処理方法及び装置を提供することにある。それは、複数枚の処理対象の画像間の関連性を考慮することにより、共通パターンに劣化が発生した場合でも複数画像から共通パターンを比較的な確実、かつ正確に探し出すことができ、満足な結果を取得することができる。   One of the purposes of the technology disclosed in the present application for the above-described problems existing in the conventional technology is to search for a common pattern from among three or more images to be processed, Another object is to provide an image processing method and apparatus used for specifying. By considering the relationship between multiple images to be processed, it is possible to find the common pattern comparatively reliably and accurately from multiple images even when the common pattern is degraded. Can be obtained.

本願に開示される技術の他の目的は、3枚以上の複数枚の処理対象となる画像からその他の複数枚の画像とのマッチングをするのに最も優れた1枚の画像を基準画像として特定するのに用いられる方法及び装置を提供することにある。   Another object of the technology disclosed in the present application is to specify, as a reference image, one image that is the best for matching three or more images to be processed with other images. It is an object of the present invention to provide a method and apparatus used to do this.

本願に開示される技術の更なる他の目的は、3枚以上の複数枚の処理対象となる画像の平均類似度を計算するのに用いられる方法及び装置を提供することにある。   Still another object of the technique disclosed in the present application is to provide a method and an apparatus used for calculating an average similarity of three or more images to be processed.

本願に開示される技術のまた一つの目的は、プログラムのコードが記憶されているコンピュータ読み取り可能な記憶媒体を提供することにあり、当該プログラムのコードがコンピュータで実行されるときに、前記コンピュータに上述の方法のいずれか一つを実行させる。   Another object of the technology disclosed in the present application is to provide a computer-readable storage medium in which a program code is stored. When the program code is executed by a computer, the computer stores the program code in the computer. Any one of the methods described above is performed.

本願に開示される技術のまた更なる一つの目的は、3枚以上の複数枚の文書画像から透かしを抽出するのに用いられる透かし検出システムを提供することにある。   Still another object of the technology disclosed in the present application is to provide a watermark detection system used to extract a watermark from three or more document images.

上述の目的を達成するため、本願の開示する画像処理装置により用いられる画像処理方法は、一つの態様において、N枚の処理対象の画像から、当該N枚の画像での共通パターンを含む画像を特定する(ここで、Nは3以上の自然数である)。当該画像処理方法は、N枚の画像に対して画像の特徴抽出を行い、当該特徴抽出の結果に基づいてN枚の画像を前記C個の階層に分けるステップ(ここで、Cは2以上の自然数である)と、各階層におけるN枚の画像の平均類似度を計算するステップと、平均類似度が最大の階層におけるN枚の画像において平均予測誤差があらかじめ設定した閾値よりも小さい画像を基準画像とし、該基準画像を基にして当該階層におけるN枚の画像を合成した合成画像を共通パターンを含む画像として特定するステップと、を含んでいる。   In order to achieve the above object, an image processing method used by an image processing apparatus disclosed in the present application is, in one aspect, from N images to be processed, an image including a common pattern in the N images. (N is a natural number of 3 or more). In the image processing method, image feature extraction is performed on N images, and the N images are divided into the C layers based on the result of the feature extraction (where C is equal to or greater than 2). A natural number), a step of calculating an average similarity of N images in each layer, and an image having an average prediction error smaller than a preset threshold in N images in the layer having the highest average similarity And specifying a composite image obtained by combining N images in the hierarchy based on the reference image as an image including a common pattern.

また、本願の開示する画像処理装置は、一つの態様において、N枚の処理対象の画像から、当該N枚の画像での共通パターンを含む画像を特定する(ここで、Nは3以上の自然数である)。当該画像処理装置は、前記共通パターンの画像をC個の階層のいずれか1つの階層にほぼ集中させるため、N枚の画像に対して画像の特徴抽出を行い、当該特徴抽出の結果に基づいてN枚の画像を前記C個の階層に分ける画像特徴抽出部(ここで、Cは2以上の自然数である)と、各階層におけるN枚の画像の平均類似度を計算する平均類似度計算部と、平均類似度が最大の階層におけるN枚の画像において平均予測誤差があらかじめ設定した閾値よりも小さい画像を基準画像として特定する基準画像特定部と、基準画像を基にして当該階層におけるN枚の画像を合成して、合成した合成画像を共通パターンを含む画像として特定する画像合成部と、を備える。   In one embodiment, the image processing apparatus disclosed in the present application specifies an image including a common pattern in the N images from N images to be processed (where N is a natural number of 3 or more). Is). The image processing apparatus performs image feature extraction on N images in order to concentrate the image of the common pattern on any one of the C layers, and based on the result of the feature extraction An image feature extraction unit that divides N images into the C layers (where C is a natural number of 2 or more), and an average similarity calculation unit that calculates the average similarity of N images in each layer A reference image specifying unit that specifies, as a reference image, an image having an average prediction error smaller than a preset threshold value in N images in the layer having the highest average similarity, and N images in the layer based on the reference image And an image synthesis unit that identifies the synthesized image as an image including a common pattern.

また、本願の開示する透かし検出システムは、一つの態様において、N枚の処理対象の画像から、当該N枚の文書画像に埋め込まれた透かしを含む画像を特定する(ここで、Nは3以上の自然数である)。当該透かし検出システムは、N枚の文書画像に対して文書画像の特徴抽出を行い、当該特徴抽出の結果に基づいてN枚の文書画像を前記C個の階層に分ける画像特徴抽出部(ここで、Cは2以上の自然数である)と、各階層における前記N枚の文書画像の平均類似度を計算する平均類似度計算部と、平均類似度が最大の階層におけるN枚の画像において平均予測誤差があらかじめ設定した閾値よりも小さい文書画像を基準画像として特定する基準画像特定部と、基準画像を基にして当該階層におけるN枚の文書画像を合成して、合成した合成画像を共通パターンを含む画像として特定する画像合成部と、を備える。   In one aspect, the watermark detection system disclosed in the present application specifies an image including a watermark embedded in the N document images from N images to be processed (where N is 3 or more). Is a natural number). The watermark detection system performs document image feature extraction on N document images, and divides the N document images into the C hierarchies based on the feature extraction results (here, , C is a natural number of 2 or more), an average similarity calculation unit for calculating an average similarity of the N document images in each layer, and an average prediction in N images in the layer having the maximum average similarity A reference image specifying unit that specifies a document image whose error is smaller than a preset threshold as a reference image, and N document images in the hierarchy based on the reference image are combined, and the combined image is combined into a common pattern. An image compositing unit that identifies the image to include.

本願に開示する技術では、基準画像の特定及び/又は平均類似度の計算を行う過程において、複数枚の画像間の関連性が考慮されており、そのために、平均予測誤差と予測精度確率のパラメータ(具体的な意味及び計算方法は後で詳細的に説明する)が導入されている。これによって、図1に示す共通パターンに欠落があるか或いはぼやけている場合にも、共通パターンを正確、且つ確実に探し出すことができるようになる。   In the technique disclosed in the present application, in the process of specifying the reference image and / or calculating the average similarity, the relationship between a plurality of images is taken into account. For this reason, parameters of the average prediction error and the prediction accuracy probability are used. (The specific meaning and calculation method will be described in detail later). Accordingly, even when the common pattern shown in FIG. 1 is missing or blurred, the common pattern can be searched for accurately and reliably.

本願に開示する技術の他の長所は、本技術をグレイ階調画像に対する処理を行うのに用いることができるだけでなく、カラー画像に対する処理を行うのにも用いることができることにある。   Another advantage of the technique disclosed in the present application is that the present technique can be used not only for processing gray-level images but also for processing color images.

本願に開示する技術の他の長所は、必要に応じて、本技術による画像処理方法及び装置を、文書画像に対する透かし検出に用いるなど、複数枚の画像をつなぎ合わせるなどの多くの実際的な応用に用いることができることにある。   Another advantage of the technique disclosed in the present application is that it can be used in many practical applications such as stitching together a plurality of images, such as using an image processing method and apparatus according to the present technique for watermark detection on a document image. It can be used for.

図1は、透かしパターン入りの複数枚の処理対象の文書のグレイ階調画像の一例を示す図である。ここで、各文書画像には、同様の透かし文字列である「CONFIDENTIAL」が含まれる。FIG. 1 is a diagram illustrating an example of a gray-scale image of a plurality of documents to be processed including a watermark pattern. Here, each document image includes “CONFIDENTIAL” which is a similar watermark character string. 図2は、本実施例による画像処理方法及び装置を適用できるデータ処理システムの一例のブロック図を示している。FIG. 2 is a block diagram showing an example of a data processing system to which the image processing method and apparatus according to this embodiment can be applied. 図3は、一実施例における図1に示された複数枚の処理対象の文書のグレイ階調画像から、その中の共通パターン(例えば、共通の透かし文字列)を探し出す画像処理方法300のフローチャートを示している。FIG. 3 is a flowchart of an image processing method 300 for searching for a common pattern (for example, a common watermark character string) from the gray-scale images of a plurality of documents to be processed shown in FIG. Is shown. 図4は、図3に示した方法に従って図1に示す6枚の文書画像に対してエッジ検出を行った後、三つの階層に分けた場合に、共通パターンが所在する階層の6枚の文書エッジ画像を示す図である。FIG. 4 shows six documents in a hierarchy where a common pattern is located when edge detection is performed on the six document images shown in FIG. 1 according to the method shown in FIG. It is a figure which shows an edge image. 図5は、図4に示す6枚の画像に対して2枚ずつのマッチングを行って計算して取得された並進マッチングパラメータの値を示す図である。FIG. 5 is a diagram showing translation matching parameter values obtained by performing the matching for each of the six images shown in FIG. 図6は、図5に示す並進マッチングパラメータに基づいて計算して取得した、図4に示す画像1に対する予測並進マッチングパラメータの値を示す図である。FIG. 6 is a diagram illustrating predicted translation matching parameter values for the image 1 illustrated in FIG. 4 obtained by calculation based on the translation matching parameters illustrated in FIG. 図7は、図5及び図6に示される値に基づいて取得した、図4に示す画像1に対する並進予測誤差の値を示す図である。FIG. 7 is a diagram showing translation prediction error values for the image 1 shown in FIG. 4 acquired based on the values shown in FIGS. 5 and 6. 図8は、図3に示した方法に従って特定された基準画像に基づいて図4に示した文書のエッジ画像を合成して取得した合成文書エッジ画像を示す図である。FIG. 8 is a diagram showing a combined document edge image obtained by combining the edge image of the document shown in FIG. 4 based on the reference image specified according to the method shown in FIG. 図9は、図8に示した合成文書エッジ画像に対してノイズ除去処理(即ち、背景の除去)を行って取得されたエッジ画像を示す図である。FIG. 9 is a diagram showing an edge image obtained by performing noise removal processing (that is, background removal) on the synthesized document edge image shown in FIG. 図10は、従来の方法を用いて任意に選択した1枚の文書画像を基準画像にして取得した合成文書エッジ画像を示す図である。FIG. 10 is a diagram showing a composite document edge image acquired using one document image arbitrarily selected using a conventional method as a reference image. 図11は、図3に示した方法を用いて図1に示す6枚の文書画像に対してエッジ強度によって階層分けした後の、第一階層における2枚ずつの画像間の類似度の値、及び当該階層における各文書エッジ画像の予測精度確率値を示す図である。FIG. 11 shows a similarity value between two images in the first layer after layering the six document images shown in FIG. 1 by edge strength using the method shown in FIG. It is a figure which shows the prediction accuracy probability value of each document edge image in the said hierarchy. 図12は、第二の階層(当該階層は共通パターンを含む階層である)における2枚ずつの画像間の類似度の値、及び、当該階層における各画像の予測精度確率値を示す図である。FIG. 12 is a diagram illustrating a similarity value between two images in the second hierarchy (the hierarchy is a hierarchy including a common pattern) and a prediction accuracy probability value of each image in the hierarchy. . 図13は、他の実施例の画像処理方法1300を示す図である。それは図3に示される方法300の一変形例である。FIG. 13 is a diagram illustrating an image processing method 1300 according to another embodiment. It is a variation of the method 300 shown in FIG. 図14は、一実施例の画像処理装置1400の概念的なブロック図を示している。FIG. 14 is a conceptual block diagram of an image processing apparatus 1400 according to an embodiment.

以下に、本願に係る技術の見本となる実施例を図面に基づいて記述する。明瞭、簡便のため、明細書には実際の実施形態の全ての特徴が記述されているわけではない。しかし、以下のことが理解されるべきである。即ち、このような実際の実施例を開発する過程において、開発者の具体的な目標を実現するために、実施形態に特定される多くのことを決定しなければならない。そして、開発の仕事は非常に複雑であり、時間を費やす可能性があるのだが、ここに開示している内容を利用する当業者には、このような開発の仕事は型どおりの任務だけである。   In the following, an exemplary embodiment of the technology according to the present application will be described with reference to the drawings. For clarity and simplicity, the specification does not describe all features of actual embodiments. However, the following should be understood. That is, in the process of developing such an actual embodiment, in order to realize a specific goal of the developer, many things specified in the embodiment must be determined. And the development work is very complex and can be time consuming, but for those skilled in the art using the content disclosed here, such a development work is just a routine task. is there.

ここで、説明する必要があるのは、必要以上に詳述することによって本願に係る技術が不明瞭になるのを防ぐために、図面には、本願に係る技術による方案に密接な関係がある装置構成及び/または処理ステップだけを示しており、本願に係る技術にあまり関係のないその他の詳細は省略したことである。   Here, what needs to be described is an apparatus closely related to the plan according to the technology according to the present application in order to prevent the technology according to the present application from becoming obscured by detailed description more than necessary. Only the configuration and / or processing steps are shown, and other details not so relevant to the technology according to the present application are omitted.

当業者は、図面における要素は、単に簡便、明瞭に示したものであり、且つ、必ずしも比率どおりに描いたものではないことを理解すべきである。例えば、本願に係る技術の実施例の理解に寄与できるように、図面におけるある要素のサイズは、他の要素に対して拡大されている。   Those skilled in the art should understand that the elements in the drawings are merely for simplicity and clarity and are not necessarily drawn to scale. For example, the size of certain elements in the drawings has been expanded relative to other elements to contribute to an understanding of embodiments of the technology according to the present application.

簡便のため、以降、図1に示される6枚の文書画像(グレイ階調画像と仮定する)からその6枚の画像に共通する透かしパターン、即ち文字列の「CONFIDENTIAL」を探し出すことを例にして、本発明による画像処理方法及び装置について記述する。しかし、本発明は他の状況にも適用できるのは言うまでもない。   For the sake of simplicity, an example of searching for the watermark pattern common to the six images, that is, the character string “CONFIDENTIAL” from the six document images shown in FIG. An image processing method and apparatus according to the present invention will be described. However, it goes without saying that the present invention is applicable to other situations.

図2には、本実施例による画像処理方法及び装置を適用可能な一例であるデータ処理システム200のブロック図を示している。   FIG. 2 shows a block diagram of a data processing system 200 as an example to which the image processing method and apparatus according to the present embodiment can be applied.

図2に示すように、データ処理システム200は、システムバス206に接続されている複数のプロセッサ202と204を含む対称型マルチプロセッサ(SMP)システムであってもよい。しかし、選択として、シングルプロセッサシステム(図示しない)を採用してもよい。なお、メモリコントローラ/高速バッファー208も、システムバス206に接続されており、ローカルメモリ209とのインタフェースを提供するのに用いられる。I/Oバスブリッジ210が、システムバス206に接続されており、I/Oバス212とのインタフェースを提供している。メモリコントローラ/高速バッファー208とI/Oバスブリッジ210は、記述されているように一体に集積されてもよい。I/Oバス212に接続されているPCI(Peripheral Component Interconnect)バスブリッジ214が、PCIローカルバス216とのインタフェースを提供している。モデム218とネットワークアダプター220はPCIローカルバス216に接続することができる。典型的なPCIバスの実現方式は、四つのPCI拡張スロット或は挿入型コネクタをサポートすることができる。付加されたPCIバスブリッジ222と224が、付加されたPCIローカルバス226及び228のインタフェースを提供している。これによって、付加されたモデム又はネットワークアダプターをサポートすることができるようになっている。この方法に従って、データ処理システム200は多くの周辺の機器、例えばネットワークコンピュータに接続されている。メモリがマッピングするグラフィックアダプター230とハードディスク232は、図に記述しているように、直接に又は間接に、I/Oバス212に接続することができる。   As shown in FIG. 2, the data processing system 200 may be a symmetric multiprocessor (SMP) system that includes a plurality of processors 202 and 204 connected to a system bus 206. However, as a choice, a single processor system (not shown) may be employed. A memory controller / high-speed buffer 208 is also connected to the system bus 206 and is used to provide an interface with the local memory 209. An I / O bus bridge 210 is connected to the system bus 206 and provides an interface with the I / O bus 212. The memory controller / fast buffer 208 and the I / O bus bridge 210 may be integrated together as described. A Peripheral Component Interconnect (PCI) bus bridge 214 connected to the I / O bus 212 provides an interface with the PCI local bus 216. The modem 218 and the network adapter 220 can be connected to the PCI local bus 216. A typical PCI bus implementation can support four PCI expansion slots or insertable connectors. Added PCI bus bridges 222 and 224 provide interfaces for added PCI local buses 226 and 228. This makes it possible to support additional modems or network adapters. In accordance with this method, the data processing system 200 is connected to many peripheral devices, such as network computers. The graphics adapter 230 and hard disk 232 to which the memory maps can be connected directly or indirectly to the I / O bus 212 as described in the figure.

本願に係る技術による画像処理装置は、例えば、図2に示されるプロセサー202と204に集積することができ、もしくは、周辺の機器をI/Oバスを介して、データ処理システム200に接続することができる。   The image processing apparatus according to the technology according to the present application can be integrated in, for example, the processors 202 and 204 shown in FIG. 2, or peripheral devices are connected to the data processing system 200 via an I / O bus. Can do.

当業者は、図2に記述されるハードウエアを変更可能であることを理解すべきである。例えば、記述されているハードウエアの他に、又はそれらの代わりに、光ディスクドライブなどのような他の周辺の機器を使用することができる。図2に記述されている例は、本願に係る技術を適用することができるシステムの構成を制限するものではない。   Those skilled in the art should understand that the hardware described in FIG. 2 can be modified. For example, other peripheral equipment such as an optical disk drive or the like can be used in addition to or instead of the hardware described. The example described in FIG. 2 does not limit the configuration of a system to which the technology according to the present application can be applied.

図3は、本願に係る技術による一つの実施例におけるN枚(ここで、Nは3以上の自然数である)の処理対象の文書画像(例えば、図1に示している6枚の文書グレイ階調画像である)から、その中の共通パターンを探し出す(例えば、共通の透かし文字列)画像処理方法300のフローチャートを示している。   FIG. 3 shows N document images (for example, six document gray scales shown in FIG. 1) of N images (where N is a natural number of 3 or more) in one embodiment according to the technology of the present application. A flowchart of an image processing method 300 for finding a common pattern in the image (for example, a common watermark character string) is shown.

図3に示されているように、方法300は、ステップS305で開始されてから、ステップS310において、画像毎の特徴を抽出するように、全てのN枚の文書画像に対する処理を行う。従来の技術において、文書画像に対する特徴の抽出方法には多くのものを用いることができる。ここで使用する方法は、まずCANNY演算子を用いて全てのN枚の文書画像における全てのエッジを抽出してから、各エッジ点のエッジ強度の大きさを計算する。ここで、CANNY演算子は、グレイ階調画像に対する処理に適した常用のエッジ検出演算子であり、その更なる詳細は、J. F. Canny, "A computational approach to edge detection", IEEE trans. PAMI, 8(6), pp.679-698, 1986、を参照することができる。なお、その更なる多くの詳細は、http://www.pages.drexel.edu/~weg22/can_tut.htmlを参照することができる。   As shown in FIG. 3, the method 300 begins in step S305, and in step S310, processes all N document images so as to extract features for each image. In the prior art, many methods can be used for extracting features from a document image. In the method used here, first, all edges in all N document images are extracted using the CANNY operator, and then the magnitude of the edge strength of each edge point is calculated. Here, the CANNY operator is a common edge detection operator suitable for processing gray-scale images. For more details, see JF Canny, "A computational approach to edge detection", IEEE trans. PAMI, 8 (6), pp. 679-698, 1986. For more details, refer to http://www.pages.drexel.edu/~weg22/can_tut.html.

続いて、ステップS315において、ステップS310で計算して取得されたN枚の画像の全てのエッジ点のエッジ強度の大きさに基づいて、N枚の画像に対する階層分けを行う。仮に、N枚の画像をC個の階層に分けるとすると、各文書画像Ii(i=1、2、…、N)に対して、C枚の文書エッジ画像(それらは、それぞれ、第一から第Cまでの階層にある)を得ることができる。言い換えれば、N枚の画像をC個の階層に分けた後、合計で、N×C枚の文書のエッジ画像を取得することができ、そして、各階層のいずれも、N枚の文書のエッジ画像を有している。コピーや、スキャンなどの後続の処理によって、異なる文書画像のグレイ階調又は色収差などのパラメーターが変化して、互いに異なっていても、異なる文書画像の中の共通パターンのエッジ強度は一致している(ともに強められ、又はともに弱められる)。即ち、異なる文書画像の中の共通パターンのエッジ強度は相互に一致するものである。従って、N枚の画像に対する階層分けを行うと、共通パターンのエッジは、ほぼ同時にC個の階層の中のある一つの階層に現れるようになる。 Subsequently, in step S315, the hierarchization is performed on the N images based on the magnitudes of the edge strengths of all the edge points of the N images calculated and acquired in step S310. Assuming that N images are divided into C hierarchies, each document image I i (i = 1, 2,..., N) is divided into C document edge images (the first image is the first image). To C). In other words, after dividing N images into C layers, a total of N × C document edge images can be acquired, and each layer has an edge of N documents. Has an image. Subsequent processing such as copying or scanning changes the parameters such as gray level or chromatic aberration of different document images, and even if they are different from each other, the edge intensities of the common patterns in the different document images are the same. (Both strengthened or weakened together). That is, the edge strengths of common patterns in different document images match each other. Therefore, when layering N images, the edge of the common pattern appears in one of the C layers almost at the same time.

図4は、前記の方法に従って図1に示した6枚の文書画像に対して、特徴抽出(即ち、エッジ検出)を行ってからそれを三つの階層(即ち、C=3)に分けた場合に、共通パターンが所在する一つの階層における6枚の文書エッジ画像を示している。図4によって、図1に示した6枚の文書画像の中の共通パターン、即ち、共通の文字列の「CONFIDENTIAL」のエッジの何れも当該階層に現れることが分かる。   FIG. 4 shows a case where feature extraction (that is, edge detection) is performed on the six document images shown in FIG. 1 according to the above-described method and then divided into three layers (that is, C = 3). 6 shows six document edge images in one layer where the common pattern is located. FIG. 4 shows that any of the common patterns in the six document images shown in FIG. 1, that is, the “CONFIDENTIAL” edge of the common character string appears in the hierarchy.

図3に戻って参照すると、方法300は、ステップS320〜S345において、第一の階層から、各階層(lを用いて現在の処理中の階層を表す)におけるN枚の文書エッジ画像に対する処理を開始し、その中からその他のN−1枚の画像とのマッチングに最も優れる1枚の画像(信頼性が最高の画像と称してもよい)を基準画像として探し出す。そして、当該N−1枚の画像と基準画像とを合成して、合成エッジ画像を取得する。   Referring back to FIG. 3, in step S320 to S345, the method 300 performs processing on N document edge images in each layer (representing the currently processed layer using l) from the first layer. Starting from this, one image (which may be referred to as an image with the highest reliability) that is most excellent in matching with the other N-1 images is searched for as a reference image. Then, the N−1 images and the reference image are combined to obtain a combined edge image.

具体的には、図3に示すように、ステップS320において、第1(ここで1は0<1 <C+1の自然数である)の階層における各画像(Iiを用いて表す)に対して平均予測誤差

Figure 0005168185
を計算する。 Specifically, as shown in FIG. 3, in step S320, average prediction is performed for each image (represented using Ii) in the first hierarchy (where 1 is a natural number of 0 <1 <C + 1). error
Figure 0005168185
Calculate

平均予測誤差

Figure 0005168185
の計算過程は、以下の通りである。まず、N枚の文書エッジ画像に対して、2枚ずつのマッチングを行い、2枚ずつのマッチングパラメータを取得する。2枚ずつの画像間の差異は、並進、回転及び/又は拡大縮小変換から見積もることができると仮定する。このようにして、第i枚と第j枚の2枚の画像間のマッチングパラメータMij (Pt, Pr, Ps)を計算することができ、ここで、Pt, Prと Psは、それぞれ、並進、回転及び拡大縮小変換に対応するパラメータであり、iとjはいずれも1とNの間(二つの端点を含む)に介在している自然数であり、かつ、i≠jである。 Average prediction error
Figure 0005168185
The calculation process of is as follows. First, two document matching is performed on N document edge images, and two matching parameters are obtained. It is assumed that the difference between every two images can be estimated from translation, rotation and / or scaling conversion. In this way, the matching parameter M ij (P t , P r , P s ) between the i-th and j-th images can be calculated, where P t , P r and P s is a parameter corresponding to translation, rotation, and scaling conversion, i and j are natural numbers between 1 and N (including two endpoints), and i ≠ j.

ここで、2枚の画像間のマッチングパラメータは、従来の任意の一つの方法を用いて計算することができる。例えば、B. Srinivasa Reddy and B. N. Chatterji, "An FFT-Based Technique for Translation, Rotation and Scale-Invariant Image Registration", IEEE Transactions on Image Processing, Vol. 5, No. 8, 1996, pp. 1266-1271.に開示されている方法を用いて、マッチングパラメーターMijを計算することができる。 Here, the matching parameter between the two images can be calculated using any one conventional method. For example, B. Srinivasa Reddy and BN Chatterji, "An FFT-Based Technique for Translation, Rotation and Scale-Invariant Image Registration", IEEE Transactions on Image Processing, Vol. 5, No. 8, 1996, pp. 1266-1271. The matching parameter M ij can be calculated using the method disclosed in.

N枚の画像ついてみると、2枚ずつのマッチングを経て、N×(N−1)/2個のマッチングパラメータを計算することができる。もし、画像の2枚ずつのマッチングを経て、何れも正しいマッチングパラメータを計算することができれば、N×(N−1)/2個のマッチングパラメータには、冗長性があることは言うまでもない。各1枚の文書画像に対して、その他のN−1枚の画像と2枚のマッチングパラメータを計算することができ、そして、このN−1個のマッチングパラメータを用いて、その他のN−1枚の画像間のマッチングパラメータを予測することができる。例えば、第1枚と第2枚の画像間のマッチングパラメータM12と、第1枚と第3枚の画像間のマッチングパラメータM13とを用いて、第1枚の画像に対する第2枚と第3枚の画像間のマッチングパラメータM23の値(M23 1eを用いて表す)を予測することができる。即ち、第m枚と第i枚の画像間のマッチングパラメータMmi、及び第m枚と第j枚の画像間のマッチングパラメータMmjに基づいて、第m枚の画像に対する第i枚と第j枚の画像間のマッチングパラメータMijの値Mij meを予測することができる。ここで、mは1とNの間に介在する自然数(二つの端点を含む)であり、かつ、m≠i≠jである。 As for N images, N × (N−1) / 2 matching parameters can be calculated through matching of each two images. It goes without saying that N × (N−1) / 2 matching parameters are redundant if correct matching parameters can be calculated after matching two images. For each document image, the other N-1 images and two matching parameters can be calculated, and the N-1 matching parameters are used to calculate the other N-1 The matching parameter between the images can be predicted. For example, a matching parameter M 12 between the first sheet and the second images, the first sheet and by using the matching parameter M 13 between the three images, and a second sheet to the first sheet of image No. the value of the matching parameter M 23 between the three images (expressed using the M 23 1e) can be predicted. That is, based on the matching parameter M mi between the m-th image and the i-th image and the matching parameter M mj between the m-th image and the j-th image, the i-th and j-th images for the m-th image. The value M ij me of the matching parameter M ij between the images can be predicted. Here, m is a natural number (including two end points) interposed between 1 and N, and m ≠ i ≠ j.

実際には、図1に示すように、多くの文書画像の中での共通パターンは全て欠落している。従って、実際に計算された2枚ずつのマッチングパラメータと予測された2枚ずつのマッチングパラメータの間には一定の誤差がある。即ち、第i枚と第j枚の画像間の2枚ずつのマッチングを行って計算されたマッチングパラメータMijと、マッチングパラメータMmiとMmjに基づいて予測されたマッチングパラメータMij meとの間には、一定の誤差がある。以下に、この誤差を「第m枚の画像に対する第i枚と第j枚の画像間の予測誤差」と呼び、εij m(Pt, Pr, Ps)で表す。 In practice, as shown in FIG. 1, all common patterns in many document images are missing. Accordingly, there is a certain error between the actually calculated two matching parameters and the predicted two matching parameters. That is, a matching parameter M ij calculated by matching two images between the i-th image and the j-th image and a matching parameter M ij me predicted based on the matching parameters M mi and M mj . There is a certain error between them. Hereinafter, this error is referred to as “prediction error between the i-th image and the j-th image with respect to the m-th image” and is represented by ε ij m (P t , P r , P s ).

上述のように、各1枚の画像に対して、その他のN−1枚の画像間の予測誤差を取得することができるので、当該画像に対する並進、回転及び/又は拡大縮小における予測誤差マトリックスをそれぞれ取得することができるようになる。   As described above, the prediction error between the other N-1 images can be acquired for each one image, so that the prediction error matrix in translation, rotation, and / or scaling for the image can be obtained. Each will be able to get.

そして、各1枚の画像に対して、当該画像に対する並進、回転及び/又は拡大縮小のそれぞれに関する予測誤差マトリックスに基づいて、並進、回転及び拡大縮小の三つの要因を総合して考慮し、当該画像の平均予測誤差

Figure 0005168185
を計算する。ここで、従来の技術における任意の一つの知られている計算方法を用いて、1枚の画像の平均予測誤差
Figure 0005168185
を取得することができる(後でさらに詳細に説明する)。 Then, for each image, based on the prediction error matrix for each of translation, rotation, and / or scaling for the image, the three factors of translation, rotation, and scaling are considered together, Average prediction error of image
Figure 0005168185
Calculate Here, an average prediction error of one image using any one known calculation method in the prior art
Figure 0005168185
Can be obtained (discussed in more detail later).

図3に示すように、ステップS320で現在の階層の中の全てのN枚の画像の平均予測誤差を取得すると、方法300の処理フローはステップS325に進み、当該階層における平均予測誤差が最も小さい画像を基準画像として特定する。ここで、平均予測誤差が最も小さい画像は、N枚の画像の中で、その他のN−1枚の画像とのマッチングに最も優れる画像であり、即ち、信頼性が最高の画像である。   As shown in FIG. 3, when the average prediction error of all N images in the current layer is acquired in step S320, the process flow of the method 300 proceeds to step S325, where the average prediction error in the layer is the smallest. An image is specified as a reference image. Here, the image with the smallest average prediction error is the image that is most excellent in matching with other N-1 images among the N images, that is, the image with the highest reliability.

ここでN枚の画像における平均予測誤差の最も小さい画像(即ち、N枚画像において、他のN−1枚の画像とのマッチングに最も優れる画像であり、信頼性が最高の画像といってもよい)を、基準画像として特定しているが、その他の適当な画像(例えば、二番目にマッチングが優れる画像)を基準画像としても、同様に本発明の目的を実現することができることを当業者は理解すべきである。例えば、計算されたN枚の画像の平均予測誤差を小さい順に並べると、先頭の1/n(nは0より大きく、且つN以下の自然数であり、nの値は経験によって設定することができる)に並んでいる画像は、何れも、その他のN−1枚の画像とのマッチングに優れる1枚の画像であると認められ得る(又は、それを、信頼性がある画像と称してもよい)。或いは、経験によって予め平均予測誤差に対して一つの閾値を設定しておき、平均予測誤差が前記閾値より小さい画像は、いずれも、その他のN−1枚の画像とのマッチングに優れる画像(即ち、信頼性がある画像である)と認めることができ、これによって、前記の、その他のN−1枚の画像とのマッチングに優れる画像(即ち、信頼性がある画像)を基準画像として特定することになる。   Here, an image having the smallest average prediction error in N images (that is, an image having the highest matching with other N-1 images in N images and having the highest reliability) However, a person skilled in the art will recognize that the object of the present invention can be realized in the same manner by using another appropriate image (for example, an image having the second best matching) as the reference image. Should be understood. For example, when the calculated average prediction errors of N images are arranged in ascending order, the first 1 / n (n is a natural number greater than 0 and less than or equal to N, and the value of n can be set by experience. ) May be recognized as one image excellent in matching with other N-1 images (or may be referred to as a reliable image). ). Alternatively, one threshold value is set in advance for the average prediction error based on experience, and any image whose average prediction error is smaller than the threshold value is an image excellent in matching with the other N−1 images (that is, Thus, an image excellent in matching with the other N-1 images (that is, a reliable image) is specified as a reference image. It will be.

続いて、ステップS330においては、基準画像を基礎として、先に計算された基準画像とその他のN−1枚の画像との2枚ずつのマッチングパラメータを利用して、並進、回転及び/又は拡大縮小変換を行うことによって、基準画像と同じ位置、角度及び大きさを有する(即ち、その他のN−1枚の画像を基準画像に合わせる)ように、その他のN−1枚の画像を変換する。そして、合わせた後のN枚の画像を合成して、1枚の合成された文書エッジ画像を得る。   Subsequently, in step S330, translation, rotation, and / or enlargement is performed on the basis of the reference image using two matching parameters of the reference image calculated previously and the other N−1 images. By performing the reduction conversion, the other N−1 images are converted so as to have the same position, angle, and size as the reference image (that is, the other N−1 images are matched with the reference image). . Then, the combined N images are combined to obtain a combined document edge image.

ここで、従来の技術において知られている任意の方法を用いて、N枚の画像を合成する。例えば、比較的簡単な方法としては、変換して合わせた後のN枚の画像を、画素点毎に累積すると、各画素点における数値は、当該画素点における全ての重ね合わせた画像中のエッジ点の総数となる。そして、表示のために、取得された各画素点における0〜Nの数値を線形変換して、合成された画像を取得するものがある(例えば、0〜Nの数値を0〜255のグレイ階調の値に線形変換して、合成されたグレイ階調画像を得る)。なお、例えば、P. Shivakumara and G. Hemantha Kumar and D. S. Guru and P. Nagabhushan, "Sliding window based approach for document image mosaicing", Image Vision Comput., Vol. 24, No. 1, pp.94-100, 2006、及びAnthony Zappal and Andrew H. Gee and Michael Taylor, "Document mosaicing", Image Vision Comput., Vol. 17, No. 8, 1999, pp.589-595.に公開されている技術を用いて、合成を行ってもよい。   Here, N images are synthesized using an arbitrary method known in the prior art. For example, as a relatively simple method, when N images after conversion and combination are accumulated for each pixel point, the numerical value at each pixel point is the edge in all the superimposed images at that pixel point. The total number of points. Then, for display, there is one that obtains a synthesized image by linearly transforming the obtained numerical values of 0 to N at each pixel point (for example, the numerical value of 0 to N is converted to a gray scale of 0 to 255). Linearly converted to key values to obtain a composite gray-scale image). For example, P. Shivakumara and G. Hemantha Kumar and DS Guru and P. Nagabhushan, "Sliding window based approach for document image mosaicing", Image Vision Comput., Vol. 24, No. 1, pp.94-100, 2006 and Anthony Zappal and Andrew H. Gee and Michael Taylor, "Document mosaicing", Image Vision Comput., Vol. 17, No. 8, 1999, pp.589-595. Synthesis may be performed.

簡単のために、ここで、並進のみを例にして、図5〜7に基づいて、平均予測誤差の計算方法をさらに詳細に説明する。即ち、ここで各階層における全ての画像の2枚ずつのマッチングパラメータMij (Pt, Pr, Ps)中の回転パラメータPrと拡大縮小パラメータPsとは、いずれも0であるとすると、マッチングパラメータをMij (x, y)に簡素化することができる。ここで、xとyの値はそれぞれ、xとy方向における並進量を表す。 For the sake of simplicity, here, the calculation method of the average prediction error will be described in more detail with reference to FIGS. That is, here, the rotation parameter P r and the enlargement / reduction parameter P s in the matching parameters M ij (P t , P r , P s ) of every two images in each layer are both 0. Then, the matching parameter can be simplified to M ij (x, y). Here, the values of x and y represent translation amounts in the x and y directions, respectively.

図5には、図4に示している6枚のエッジ画像に対して2枚ずつのマッチングを行って計算して取得した並進のマッチングパラメータMij (x, y)の値が示されている。図6には、前記した方法に従って図5に示している並進のマッチングパラメータに基づいて計算して取得した、画像1に対する予測並進のマッチングパラメータの値が示されている。ここで

Figure 0005168185
図7には、図5と図6に示している値に基づいて取得した、画像1に対する並進予測誤差εij 1(x, y)の値が示されている。ここで
Figure 0005168185
図5〜7に示すように、(NA, NA)或いはN/Aは無効な値を表し、それらの値に対しては計算する必要がないことを示す。 FIG. 5 shows values of translation matching parameters M ij (x, y) obtained by performing calculation by performing matching for each of the six edge images shown in FIG. 4. . FIG. 6 shows values of predicted translation matching parameters for image 1 obtained by calculation based on the translation matching parameters shown in FIG. 5 according to the method described above. here
Figure 0005168185
FIG. 7 shows the value of the translation prediction error ε ij 1 (x, y) for the image 1 obtained based on the values shown in FIGS. 5 and 6. here
Figure 0005168185
As shown in FIGS. 5 to 7, (NA, NA) or N / A represents an invalid value and indicates that it is not necessary to calculate for these values.

以上に記載のように、任意の知られている方法を用いて、図7に示している並進予測誤差εij 1(x, y)に対して計算を行うことにより、画像1の平均予測誤差

Figure 0005168185
を求めることができる。ここで使用された比較的簡単な方法は、図7に示す、全ての有効な予測誤差値に対してxとy方向の総平均値を求めることである。具体的にいうと、図7に示したマトリックスにおいて、有効な20個の位置でのxとyの値をそれぞれ加算して得られた和sum(x)とsum(y)に対して、総平均値を求める。即ち
Figure 0005168185
従って、求められた画像1の平均予測誤差は1.05となる。このようにして、同様な方法に従って、全てのN枚の画像の平均予測誤差を取得することができる。 As described above, the average prediction error of the image 1 is calculated by calculating the translation prediction error ε ij 1 (x, y) shown in FIG. 7 using any known method.
Figure 0005168185
Can be requested. The relatively simple method used here is to obtain the total average value in the x and y directions for all valid prediction error values shown in FIG. More specifically, in the matrix shown in FIG. 7, the sums sum (x) and sum (y) obtained by adding the values of x and y at 20 valid positions are summed up. Find the average value. That is
Figure 0005168185
Therefore, the average prediction error of the obtained image 1 is 1.05. In this way, the average prediction error of all N images can be acquired according to a similar method.

以上、並進の変換のみを例として、図5〜7に基づいて、如何にして1枚の画像の平均予測誤差を計算するかを記述したが、当業者は、同時に並進、回転及び/又は拡大縮小を考慮する場合に、如何にして1枚の画像の平均予測誤差を計算するかを容易に想到することができる。例えば、比較的簡単な方法として、前記した方法に従って、それぞれ1枚の画像の平均並進予測誤差、平均回転予測誤差と平均拡大縮小予測誤差を計算してから、これらの三つの誤差値に対して加重平均を行い、当該画像の平均予測誤差を得るものがある。   As described above, taking only translation conversion as an example, based on FIGS. 5 to 7, how to calculate the average prediction error of one image has been described. However, those skilled in the art can translate, rotate and / or enlarge at the same time. When considering reduction, it is possible to easily conceive how to calculate the average prediction error of one image. For example, as a relatively simple method, the average translation prediction error, the average rotation prediction error, and the average enlargement / reduction prediction error of each image are calculated according to the above-described method, and then these three error values are calculated. Some perform a weighted average to obtain an average prediction error of the image.

図8には、前記の方法に従って特定された基準画像に基づいて、図4に示した文書のエッジ画像を合成して取得した合成文書エッジ画像が示されている。図8から、共通パターンの他に、当該合成文書エッジ画像の中には、常に若干のノイズが存在していることが分かる。   FIG. 8 shows a combined document edge image obtained by combining the edge image of the document shown in FIG. 4 based on the reference image specified according to the above method. FIG. 8 shows that in addition to the common pattern, there is always some noise in the synthesized document edge image.

図3に戻って参照すると、さらにノイズの影響を除去して理想の結果を得るために、図3に示すように、ステップS335においては、ステップS330で取得された合成文書エッジ画像に対して、ノイズ除去処理が行われる。   Referring back to FIG. 3, in order to further remove the influence of noise and obtain an ideal result, as shown in FIG. 3, in step S <b> 335, with respect to the synthesized document edge image acquired in step S <b> 330, Noise removal processing is performed.

例えば、以上に記載のように、変換後のN枚の画像に対して、画素点毎に累積することによって画像の合成を行う場合には、もし、合成文書エッジ画像中のいずれか1つの画素点の数値が一定の閾値Tより小さければ、当該画素点の位置における重ね合わせたエッジ点の数は充分ではないことが分かる。従って、当該画素点をノイズ点と認めて、当該点の数値を0(即ち、背景に設置する)にする。図9には、図8に示す共通のパターンが所在する階層における合成文書エッジ画像に対してノイズ除去処理(即ち、背景を除去する)を行ってから取得したエッジ画像が示されている。従来の技術において知られているその他のノイズ除去の方法を用いてもよいことはいうまでもない。   For example, as described above, when the images are synthesized by accumulating the converted N images for each pixel point, any one pixel in the synthesized document edge image is used. If the numerical value of the point is smaller than a certain threshold value T, it can be seen that the number of edge points superimposed at the position of the pixel point is not sufficient. Therefore, the pixel point is recognized as a noise point, and the numerical value of the point is set to 0 (that is, placed in the background). FIG. 9 shows an edge image obtained after performing noise removal processing (that is, removing the background) on the synthesized document edge image in the hierarchy where the common pattern shown in FIG. 8 is located. It goes without saying that other noise removal methods known in the prior art may be used.

図10には、非特許文献1に公開されている方法に従って、任意の1枚の文書画像(平均予測誤差が最も小さくない文書画像)を選択して基準画像とすることによって取得された、共通パターンを含む合成文書エッジ画像(ここで既にノイズ除去処理を行った)が示されている。図9及び10に示した画像を比較すると、図9における“C”、“N”と“F”などの幾つかの透かし文字は、従来の方法を用いて取得した結果(図10)よりさらに明晰になっていることが容易にわかる。   FIG. 10 shows a common image obtained by selecting any one document image (a document image with the smallest average prediction error) as a reference image according to the method disclosed in Non-Patent Document 1. A composite document edge image including a pattern (here, noise removal processing has already been performed) is shown. Comparing the images shown in FIGS. 9 and 10, some watermark characters such as “C”, “N” and “F” in FIG. 9 are more than the result obtained using the conventional method (FIG. 10). You can easily see that it is clear.

また、再度図3に戻って参考にすると、図に示すように、方法300の処理フローでは、ノイズ除去処理(即ち、ステップS335)を行ってからステップS340に進み、現在の階層の全ての画像の平均類似度が計算される。   Further, referring back to FIG. 3, as shown in the figure, in the processing flow of the method 300, the noise removal process (that is, step S <b> 335) is performed, and then the process proceeds to step S <b> 340. The average similarity is calculated.

上記に言及されたように、本発明には、複数枚の画像間の関連性が考慮されている。そのため、画像類似度を計算するときに、予測精度確率Pというパラメータが導入されており、画像の平均予測誤差の当該画像の類似度に対する影響を表すのに用いられる。   As mentioned above, the present invention takes into account the relevance between multiple images. Therefore, when calculating the image similarity, a parameter called a prediction accuracy probability P is introduced and used to represent the influence of the average prediction error of the image on the similarity of the image.

ここで使用された、予測精度確率Piを計算する比較的簡単な方法は、以下の式で示される。

Figure 0005168185
ここで、
Figure 0005168185
は第i枚の画像の平均予測誤差、
Figure 0005168185
は予め設定された最大の平均予測誤差値である。ここで、
Figure 0005168185
は、平均予測誤差のパラメータが、並進、回転及び/又は拡大縮小で取り得る値の範囲を表す。このように、計算された予測精度確率Piの値は0と1(二つの端点を含む)間に介在する。 The relatively simple method for calculating the prediction accuracy probability P i used here is expressed by the following equation.
Figure 0005168185
here,
Figure 0005168185
Is the average prediction error of the i-th image,
Figure 0005168185
Is a preset maximum average prediction error value. here,
Figure 0005168185
Represents the range of values that the average prediction error parameter can take in translation, rotation and / or scaling. Thus, the calculated value of the prediction accuracy probability P i is interposed between 0 and 1 (including two end points).

計算された予測精度確率Piを用いると、第i枚の文書画像の類似度は以下のように定義される。

Figure 0005168185
ここで、CONF2(i, j)は、第i枚の画像と第j枚の画像との類似度(この2枚の画像は既に並進、回転及び/又は拡大縮小変換して互いに合わせたものである)を表す。 Using the calculated prediction accuracy probability P i , the similarity of the i-th document image is defined as follows.
Figure 0005168185
Here, CONF2 (i, j) is the similarity between the i-th image and the j-th image (the two images have already been translated, rotated and / or scaled and matched to each other). Is).

理想状態では、画像の平均予測誤差は0となるので、式(4)によって、Pi=1となり、この時、本発明において計算された画像の類似度と従来の方法に従って取得された類似度とは、同じになるが、非理想状態では、画像の平均予測誤差は0ではないので、Pi < 1となり、従って、予測精度確率Piにより、第i枚の画像の平均予測誤差の当該画像の類似度に対する影響が表されることになる。 In the ideal state, since the average prediction error of the image is 0, P i = 1 according to the equation (4). At this time, the similarity between the image calculated in the present invention and the similarity obtained according to the conventional method is obtained. Is the same, but in the non-ideal state, the average prediction error of the image is not 0, and thus P i <1, and therefore, the prediction accuracy probability P i determines the average prediction error of the i-th image. The influence on the similarity of images is expressed.

2値の画像に対しては、2枚の画像(それらを既に互いに重ね合わせたと仮定する)間の類似度を計算する比較的簡単な方法は、以下とおりである。

Figure 0005168185
For binary images, a relatively simple method of calculating the similarity between two images (assuming they are already superimposed on each other) is as follows.
Figure 0005168185

本発明による方法300において、その他の任意の知られている方法を用いて2枚の画像間の類似度を計算してもよい。更に、必要に応じて上記式(5)を修正してもよい。   In the method 300 according to the invention, any other known method may be used to calculate the similarity between two images. Furthermore, the above equation (5) may be modified as necessary.

そして、現在の階層のすべての画像の平均類似度を以下のように定義することができる。

Figure 0005168185
Then, the average similarity of all the images in the current hierarchy can be defined as follows.
Figure 0005168185

また、再度図3を参照すると、ステップS340において現在の階層の平均類似度が計算されると、方法300の処理はステップS345に進み、ここでは、全てのC階層に対する処理が完成されたか否かが判断される。もし、ステップS345においてまだ全てのC階層に対する処理が完成されていないと判断されれば、l に1を加え、方法300の処理をステップS320に戻し、次の階層(即ち、第l+1階層)における全てのN枚の画像に対してステップS320からステップS340までの処理を繰り返す。   Referring again to FIG. 3, when the average similarity of the current hierarchy is calculated in step S340, the process of method 300 proceeds to step S345, where all the processes for C hierarchy have been completed or not. Is judged. If it is determined in step S345 that the processing for all the C hierarchies has not yet been completed, 1 is added to l, and the process of method 300 is returned to step S320, in the next hierarchy (ie, the (l + 1) th hierarchy). The processing from step S320 to step S340 is repeated for all N images.

以上に記載のように、画像特徴の抽出過程において、N枚の画像に対する階層分けを行って、各画像を異なる画像エッジ強度に従ってC個の階層に分ける。そして、透かしのような共通画像はC個の階層中の何れかの階層に集中するが、具体的に、どの階層であるかは、まだわからない。従って、各階層のそれぞれにおける全てのN枚の文書エッジ画像のいずれにも、ステップS320からステップS335までの処理を行い、そして、ステップS340に示すように、各階層のそれぞれに対して、当該階層の平均類似度を計算することになる。   As described above, in the image feature extraction process, N images are divided into layers, and each image is divided into C layers according to different image edge strengths. A common image such as a watermark is concentrated in any one of the C layers, but it is not yet known which layer is concrete. Therefore, the processing from step S320 to step S335 is performed on all of the N document edge images in each layer, and as shown in step S340, for each layer, the layer The average similarity is calculated.

図3に示すように、もしステップS345において、既に全てのC個の階層に対する処理が完成したと判断された場合は、方法300の処理フローは、ステップS350に進み、平均類似度が最大の階層を共通パターンが所在する階層として特定するので、平均類似度が最大の階層の合成文書エッジ画像(既にノイズ除去処理を行った)を、共通パターンを含むエッジ画像として特定することができ、共通パターンを探し出すか、又は特定することができるようになる。   As shown in FIG. 3, if it is determined in step S345 that the processing for all C hierarchies has already been completed, the process flow of method 300 proceeds to step S350, where the average similarity is the highest. Is identified as the layer where the common pattern is located, so that the synthesized document edge image (having already been subjected to noise removal processing) having the maximum average similarity can be identified as an edge image including the common pattern. Can be found or identified.

上で言及したように、方法300のステップS340において使用される類似度のアルゴリズムには、複数枚の画像間の関連性が考慮されている。即ち、予測誤差の類似度の精度に対する影響が考慮されている。従って、従来の方法に比べると、本願に係る技術における方法は、より正確な結果を取得することができる。例えば、上に記載したような、複数枚の画像から共通パターンを探し出す応用の場合には、複数枚の画像において、偶然に2枚の画像が非常に類似していると、これらの2枚の画像間の類似度がかなり高くなる。これによって、N枚の画像の平均類似度(予測誤差の類似度の精度に対する影響を考慮しない場合の)が大きくなる可能性がある。しかし、これらの2枚の画像が、その他のN−2枚の画像と良好にマッチングできないならば、それらの平均予測誤差はかなり高くなる。このように、本発明によれば、それらの予測精度確率を低減し、これらの2枚の画像の類似度CONFiを低減することができるので、それによってN枚の画像の平均類似度も低減することができる。 As noted above, the similarity algorithm used in step S340 of method 300 takes into account the relevance between multiple images. That is, the influence of the similarity of the prediction error on the accuracy is considered. Therefore, compared with the conventional method, the method according to the technique of the present application can obtain a more accurate result. For example, in the case of an application for searching for a common pattern from a plurality of images as described above, if two images are accidentally very similar to each other, The similarity between images is considerably high. This may increase the average similarity of N images (when the influence of the prediction error on the accuracy of the similarity is not considered). However, if these two images do not match well with the other N-2 images, their average prediction error is quite high. Thus, according to the present invention, the prediction accuracy probability can be reduced, and the similarity CONF i of these two images can be reduced, thereby reducing the average similarity of N images. can do.

例えば、図11には、図3に示している方法300を用いて、図1に示す6枚の文書画像に対して、エッジ強度に従って階層分けを行った後の第一の階層における2枚ずつの画像間の類似度の値、及び当該階層における各文書エッジ画像の予測精度確率の値が示されているが、図12には第二の階層(当該階層は、共通パターンを含む階層である)における2枚ずつの画像間の類似度の値、及び当該階層における各画像の予測精度確率の値が示されている。   For example, FIG. 11 shows two sheets in the first layer after the layering is performed on the six document images shown in FIG. 1 according to the edge strength using the method 300 shown in FIG. FIG. 12 shows a second hierarchy (the hierarchy is a hierarchy including a common pattern). FIG. 12 shows a similarity value between images and a prediction accuracy probability value of each document edge image in the hierarchy. ) Shows the value of the similarity between two images and the value of the prediction accuracy probability of each image in the hierarchy.

図11に示した状況では、予測精度確率を考慮しない場合には、和を求めてから、平均をすることによって取得された平均類似度の値は0.0484となる。しかし、予測精度確率の影響を考慮すれば、上記式(5)に従って、6枚の画像の類似度はそれぞれ0.0032、0.0178、0.0334、0.0207、0.0298、及び0.0246となる。このようにして、上記式(7)によれば、図11に示している第一の階層の平均類似度は0.0216となる。   In the situation shown in FIG. 11, when the prediction accuracy probability is not taken into consideration, the average similarity obtained by averaging after obtaining the sum is 0.0484. However, considering the influence of the prediction accuracy probability, the similarity of the six images is 0.0032, 0.0178, 0.0334, 0.0207, 0.0298, and 0.0246, respectively, according to the above equation (5). In this way, according to the above equation (7), the average similarity of the first hierarchy shown in FIG. 11 is 0.0216.

図12に示した状況では、もし予測精度確率を考慮しないならば、和を求めてから平均をすることによって取得された平均類似度は0.0364となる。しかし、予測精度確率の影響を考慮すれば、上記式(5)に従って、6枚の画像の類似度はそれぞれ0.0299、0.0347、0.0334、0.0271、0.0315、及び0.0326となる。このようにして、上記式(7)によれば、図12に示した第二の階層の平均類似度は0.0315となる。   In the situation shown in FIG. 12, if the prediction accuracy probability is not taken into consideration, the average similarity obtained by averaging after obtaining the sum is 0.0364. However, considering the influence of the prediction accuracy probability, the similarity of the six images is 0.0299, 0.0347, 0.0334, 0.0271, 0.0315, and 0.0326, respectively, according to the above equation (5). In this way, according to the above equation (7), the average similarity of the second hierarchy shown in FIG. 12 is 0.0315.

従って、もし予測精度確率を考慮せず、平均類似度の値に従って選択するなら、誤って図11で表された第一の階層がその中に共通パターンを含む階層であると認められることになる。しかし、予測精度確率を考慮すれば、共通パターンを含む階層(即ち、図12で表された第二の階層)における文書エッジ画像の平均類似度は共通パターンを含まない階層(図11で表された第一の階層)における文書エッジ画像の平均類似度より高くなる。即ち、予測精度確率が考慮された場合に計算された平均類似度が大きい階層を、その中に共通パターンを含む階層として正確に特定することができるので、正確な結果を取得することができる。   Therefore, if the selection is made according to the average similarity value without considering the prediction accuracy probability, the first hierarchy shown in FIG. 11 is erroneously recognized as a hierarchy including a common pattern therein. . However, if the prediction accuracy probability is considered, the average similarity of the document edge images in the hierarchy including the common pattern (that is, the second hierarchy shown in FIG. 12) is the hierarchy not including the common pattern (represented in FIG. 11). Higher than the average similarity of the document edge images in the first hierarchy). That is, since a hierarchy having a large average similarity calculated when the prediction accuracy probability is taken into consideration can be accurately specified as a hierarchy including a common pattern therein, an accurate result can be obtained.

以上、図3に示したフローチャートに基づいて、図1に示す6枚の文書グレイ階調画像を例として、本発明による画像処理方法を記述したが、当業者は、図3に示したフローチャートが単に例示的なものであり、実際の応用と具体的な要求に応じて、図3に示される方法のフローに対して相応する修正することができることは明らかなはずである。   As described above, the image processing method according to the present invention has been described based on the flowchart shown in FIG. 3 using the six document gray-scale images shown in FIG. 1 as an example. It should be clear that it is merely exemplary and that corresponding modifications to the flow of the method shown in FIG. 3 can be made depending on the actual application and specific requirements.

必要に応じて、図3に示した方法300における一部のステップの実行順序を調整し、又は、一部の処理ステップを省略或いは付加してもよい。例えば、図3には、平均類似度を計算する処理(即ち、ステップS340)が、画像に対する合成とノイズ除去の処理(即ち、ステップS330とS335)を実行した後に実行されるように示されているが、勿論、それらを並行して実行してもよい、又は順序を逆にして実行してもよい。   If necessary, the execution order of some steps in the method 300 shown in FIG. 3 may be adjusted, or some processing steps may be omitted or added. For example, FIG. 3 illustrates that the process of calculating the average similarity (ie, step S340) is performed after performing the image synthesis and noise removal processes (ie, steps S330 and S335). Of course, they may be performed in parallel or in reverse order.

図13には本発明による他の実施例の画像処理方法1300が示されている。それは図3に示される方法300の一変形例である。   FIG. 13 shows an image processing method 1300 according to another embodiment of the present invention. It is a variation of the method 300 shown in FIG.

図3と13に示される方法のフローチャートから、ステップS1305〜S1345における処理過程は、図3に示すステップS305〜S325、S340〜S345、S330〜S335における処理過程と類似していることが分かる。それらの違いは単に以下だけにある。即ち、図13に示すように、ステップS1340における画像合成処理とステップS1345におけるノイズ除去処理は、平均類似度の計算のステップS1330の後に実行される。このとき、全ての階層に対して処理を行う必要はなく、平均類似度が最大の階層(共通パターンが所在する階層)のみにおけるN枚の画像に対して、合成とノイズ除去処理が行われ、ステップS350は省略されることになる。これにより、図3に示される方法に比べて、計算量を減少することができる。重複を防ぐために、ここでは、再び図13に示した各ステップにおける具体的な処理過程は記述しない。   From the flowchart of the method shown in FIGS. 3 and 13, it can be seen that the processing steps in steps S1305 to S1345 are similar to the processing steps in steps S305 to S325, S340 to S345, and S330 to S335 shown in FIG. The differences are only in the following. That is, as shown in FIG. 13, the image composition processing in step S1340 and the noise removal processing in step S1345 are executed after step S1330 of calculating the average similarity. At this time, it is not necessary to perform processing for all the layers, and synthesis and noise removal processing are performed on N images only in the layer having the highest average similarity (the layer in which the common pattern is located). Step S350 is omitted. Thereby, the amount of calculation can be reduced as compared with the method shown in FIG. In order to prevent duplication, a specific processing process in each step shown in FIG. 13 is not described here again.

勿論、図3に示した方法300又は図13に示した方法1300に対して他の修正をしてもよく、例えば、図13に示したステップS1325は、ステップS1335とステップS1340との間で実行されてもよい。そして、当業者は、完全に相応するフローチャートを容易に描くことができるが、簡単のためここで一つ一つに詳述しない。   Of course, other modifications may be made to the method 300 shown in FIG. 3 or the method 1300 shown in FIG. 13, for example, step S1325 shown in FIG. 13 is executed between step S1335 and step S1340. May be. A person skilled in the art can easily draw a completely corresponding flow chart, but for simplicity it will not be described in detail here.

そして、上に言及した、画像特徴抽出処理と、エッジ検出処理と、画像に対する階層分けの処理と、2枚ずつの画像のマッチングパラメータを用いて画像の平均予測誤差を計算する処理と、複数枚の画像に対する合成の処理と、画像のノイズ除去の処理と、2枚ずつの画像の類似度を計算する処理と、予測精度確率を利用して1枚の画像のその他の画像との類似度を計算する処理等は、勿論、任意の一つの知られている技術を用いて行うことができ、以上に記述されたいずれかの具体的な方法には限定されない。   Then, the image feature extraction process, the edge detection process, the process of layering the image, the process of calculating the average prediction error of the image using the matching parameters of each image, Processing of image synthesis, image noise removal processing, processing for calculating the similarity between two images, and using the prediction accuracy probability, the similarity between one image and other images is calculated. The calculation processing and the like can of course be performed using any one of known techniques, and is not limited to any of the specific methods described above.

なお、以上、文書グレイ階調画像を例として本願に係る技術による画像処理方法に対して記述したが、勿論、当該方法は、文書画像に対する処理に限定されることはなく、任意のグレイ階調画像に対する処理に適用でき、またカラー画像に対する処理にも適用できる。例えば、複数枚のカラー画像から共通パターンを探し出す応用には、図3に示したステップS310の前に、カラー→グレイ変換によって複数枚のカラー画像をグレイ階調画像に変換してから、また、図3又は図13に示した方法を用いて処理を行う。あるいは、ステップS310又はステップS1310において直接にカラー画像から特徴抽出を行う。例えば、直接にカラー画像からエッジ情報を抽出してエッジ強度を計算する(例えば、趙景秀等によって発表された文書"カラー情報の区分度によるカラーエッジ検出", 計算机応用, 第8号, 2001.を参照することができる)。   In the above, the document gray gradation image is taken as an example to describe the image processing method according to the technique according to the present application. However, the method is not limited to the processing for the document image, and any gray gradation is possible. The present invention can be applied to image processing, and can also be applied to color image processing. For example, for an application for searching for a common pattern from a plurality of color images, before the step S310 shown in FIG. 3, after converting a plurality of color images into a gray gradation image by color → gray conversion, Processing is performed using the method shown in FIG. Alternatively, feature extraction is performed directly from the color image in step S310 or step S1310. For example, the edge information is directly extracted from the color image and the edge strength is calculated (for example, the document "Color edge detection by color information segmentation" published by Kagehide Hideki et al., Computer Application, No. 8, 2001. Can be referred).

また、以上ではエッジ情報を抽出してエッジ強度を計算することを例として、本願に係る技術による画像処理方法における、画像に対する特徴抽出と階層分けに関する処理を記述したが、勿論、本願に係る技術による画像処理方法は、これに限定されるものではなく、本願に係る技術は、様々な既知の画像特徴抽出方法及び特徴抽出結果によって画像に対して階層分けを行う方法を応用することができる。特徴抽出の結果によって共通パターン画像がほぼ同じ階層に分けられる方法であればよい。例えば、エッジ強度の大きさではなく、共通パターンの色(カラー画像に対する)又は、画素グレイ階調の値(グレイ階調画像に対する)に従って階層分けを行う場合には、同様に類似の結果を得ることができる。例えば、処理対象のカラー画像又はグレイ階調画像に対して特徴抽出を行った後に、共通パターンの色、或いは、グレイ階調の画素値が互いに一致性を有するという仮定に基づいて、色又はグレイ階調の画素値に従って階層分けを行うことによっても、共通パターンの画像をほぼ同一の階層に分けることができる。   In the above description, the processing related to image feature extraction and layering in the image processing method according to the technique according to the present application has been described using the example of extracting edge information and calculating the edge strength. However, the technique according to the present application is applicable to various known image feature extraction methods and methods for layering images according to feature extraction results. Any method may be used as long as the common pattern image is divided into almost the same hierarchy according to the result of feature extraction. For example, similar results are similarly obtained when layering is performed according to the color of a common pattern (for a color image) or the value of pixel gray gradation (for a gray gradation image) instead of the magnitude of edge strength. be able to. For example, after performing feature extraction on a color image or gray-scale image to be processed, the color or gray-scale is based on the assumption that the colors of the common pattern or the pixel values of the gray-scale are consistent with each other. By performing layering according to gradation pixel values, it is also possible to divide the image of the common pattern into almost the same layer.

そして、以上、本願に係る技術による方法を記述する際には、平均予測誤差と予測精度確率の概念が導入され、それらの計算方法も与えた。本願に開示された内容を利用する当業者であれば、必要に応じて上述の概念と計算方法を拡張することができるが、ここでは一つ一つについては詳述しない。   And when describing the method by the technique which concerns on this application above, the concept of an average prediction error and prediction accuracy probability was introduced, and those calculation methods were also given. A person skilled in the art who uses the contents disclosed in the present application can expand the above-described concept and calculation method as necessary, but each of them will not be described in detail here.

以上では、複数枚の文書画像から、例えば透かしという共通パターンを探し出す応用だけを記述したが、図3に示した画像処理方法300、又は図13に示した方法1300は複数枚の画像に対してつなぎ合わせを行う応用に適用してもよい。通常の場合には、つなぎ合わせようとする複数枚の画像同士は並進に加えて、サイズ(拡大縮小)と角度(回転)の変化が発生する可能性があり、さらに類似の透視変形又は湾曲変形という状況が発生する可能性がある。このような場合には、上記の方法300又は1300を用いて共通パターンを探し出す前には、前処理部分を必要とし、それによって、複数枚の画像の何れも、一致したサイズ、角度及び変形係数を有するか、或いは、複数枚の画像における共通パターンが、位置、サイズ、角度と変形係数などにより構成された高次元のパラメータ空間において一致するようにする。そして、つなぎ合わせようとする複数枚の画像における共通パターンを探し出すと、複数枚の画像中の共通する“一つの原点”が探し出されたことになる。そして、それによって、つなぎ合わせようとする複数枚の画像の相対的な位置を特定して、複数枚の画像に対してつなぎ合わせによる合成を行うことで、画像のつなぎ合わせを実現することができる。画像のつなぎ合わせの技術については、現在知られている方法は非常に多い。例えば、特許文献1或いは特許文献2に開示されている方法を用いてつなぎ合わせを行ってもよい。勿論、その他の方法を用いても良い、ここでは簡単のため一つ一つは詳述しない。   In the above description, only an application for searching for a common pattern such as a watermark from a plurality of document images has been described. However, the image processing method 300 shown in FIG. 3 or the method 1300 shown in FIG. You may apply to the application which connects. In a normal case, a plurality of images to be joined may change in size (enlargement / reduction) and angle (rotation) in addition to translation, and similar perspective deformation or curvature deformation This situation may occur. In such a case, before searching for a common pattern using the method 300 or 1300 described above, a pre-processing portion is required, so that any of the plurality of images has the same size, angle, and deformation coefficient. Or a common pattern in a plurality of images is made to coincide in a high-dimensional parameter space composed of position, size, angle, deformation coefficient, and the like. When a common pattern in a plurality of images to be joined is searched for, a common “one origin” in the plurality of images is found. Then, by specifying the relative positions of a plurality of images to be joined together and performing composition by joining the plurality of images, joining of the images can be realized. . There are a large number of currently known methods for image stitching techniques. For example, joining may be performed using the method disclosed in Patent Document 1 or Patent Document 2. Of course, other methods may be used. For simplicity, each one is not described in detail.

なお、当業者であれば、以上図3と13に基づいて記述された画像処理方法における一部の処理過程、例えば、複数枚の画像からその他の各画像と最も良くマッチングする1枚の画像を探し出して基準画像とするのに用いられる処理過程、複数枚の画像同士の関連性を考慮する場合に、複数枚の画像に対して平均類似度を計算するのに用いられる処理過程等は、勿論、必要に応じて本願実施例に示した画像処理以外にも各種応用に用いられ得ることがわかるはずである。   A person skilled in the art will be able to select a part of the process in the image processing method described based on FIGS. 3 and 13, for example, one image that best matches each of the other images from a plurality of images. Of course, the process used to find the reference image and the process used to calculate the average similarity for multiple images when considering the relevance between multiple images. It should be understood that the present invention can be used for various applications other than the image processing shown in the embodiments of the present application as necessary.

以下に図14に基づいて、本発明による一つの実施例の複数枚の処理対象の画像から共通パターンを探し出すか、又は特定するのに用いられる画像処理装置を記述する。   In the following, based on FIG. 14, an image processing apparatus used to search for or identify a common pattern from a plurality of images to be processed according to one embodiment of the present invention will be described.

図14には、本発明による一つの実施例の画像処理装置1400の概念的なブロック図が示されている。当該画像処理装置1400は、図3に示した方法300、又は図13に示した方法1300を利用することができる。図14に示すように、画像処理装置1400は画像特徴抽出ユニット1410と、基準画像特定ユニット1420と、平均類似度計算ユニット1430と、画像合成ユニット1440及びノイズ除去ユニット1450を含む。   FIG. 14 is a conceptual block diagram of an image processing apparatus 1400 according to one embodiment of the present invention. The image processing apparatus 1400 can use the method 300 shown in FIG. 3 or the method 1300 shown in FIG. As shown in FIG. 14, the image processing apparatus 1400 includes an image feature extraction unit 1410, a reference image specifying unit 1420, an average similarity calculation unit 1430, an image composition unit 1440 and a noise removal unit 1450.

ここで、画像特徴抽出ユニット1410は、受け取った複数枚(例えばN枚)の処理対象の画像(グレイ階調画像又はカラー画像であることができる)に対して階層分けを行うために、N枚の画像から、画像特徴を抽出するのに用いられる。例えば、以上に記述したように、画像特徴抽出ユニット1410は、エッジ検出演算子を利用して画像中の全てのエッジを抽出し、各エッジ点のエッジ強度の大きさを計算し、エッジ強度の大きさに基づいてN枚の画像をC個の階層に分けて、N×C枚の画像を取得する。   In this case, the image feature extraction unit 1410 performs N-level division on a plurality of received images (for example, N images) to be processed (can be gray-scale images or color images). It is used to extract image features from the images. For example, as described above, the image feature extraction unit 1410 extracts all edges in the image using an edge detection operator, calculates the edge strength of each edge point, and calculates the edge strength. N images are divided into C hierarchies based on the size, and N × C images are acquired.

基準画像特定ユニット1420は、画像特徴抽出ユニット1410により取得された各階層のそれぞれにおけるN枚の画像(例えば、エッジ画像)から、以上に記述された方法を用いて、1枚の適当な画像(残りのN−1枚の画像とのマッチングに最も優れる画像であり、具体的に例えば、平均予測誤差が最小の画像である)を、当該階層の基準画像として特定するのに用いられる。   The reference image specifying unit 1420 uses a method described above from N images (for example, edge images) in each layer acquired by the image feature extraction unit 1410 to obtain one appropriate image ( This is used to specify the image having the best matching with the remaining N-1 images, specifically, for example, the image with the smallest average prediction error) as the reference image of the hierarchy.

平均類似度計算ユニット1430は、以上に記述の方法に従って、予測誤差の類似度の精度に対する影響を考慮する場合に(例えば、各画像の平均予測誤差を利用して予測精度確率を計算する)、各階層における全ての画像の平均類似度を計算するのに用いられる。   The average similarity calculation unit 1430 considers the influence of the prediction error on the accuracy of the accuracy according to the method described above (for example, calculates the prediction accuracy probability using the average prediction error of each image). Used to calculate the average similarity of all images in each hierarchy.

画像合成ユニット1440は、一つの階層中の全ての画像に対して、基準画像を基礎とし、並進、回転及び/又は拡大縮小変換等を行うことによって、基準画像以外のN−1枚の画像を基準画像に合わせ、N枚の画像を合成するのに用いられる(例えば、エッジ画像の場合には、画素点毎にその数値を累積し、合成された画像の各画素点における数値は、当該点における全ての重ね合わせたエッジ点の総数である)。ここで、画像合成ユニット1440は、各階層のそれぞれの画像を合成しても良く、或いは、計算を簡素化するために、画像合成ユニット1440は、平均類似度計算ユニットの計算結果によって、平均類似度が最大の階層の画像のみを合成してもよい。   The image composition unit 1440 performs translation, rotation, and / or enlargement / reduction conversion on all the images in one layer on the basis of the reference image, thereby obtaining N−1 images other than the reference image. Used to synthesize N images according to the reference image (for example, in the case of an edge image, the numerical value is accumulated for each pixel point, and the numerical value at each pixel point of the synthesized image is Is the total number of all superimposed edge points in). Here, the image synthesizing unit 1440 may synthesize the respective images of the respective layers, or in order to simplify the calculation, the image synthesizing unit 1440 may calculate the average similarity according to the calculation result of the average similarity calculating unit. Only the image of the highest level may be synthesized.

ノイズ除去ユニット1450は、合成画像に存在する必要以上のノイズを除去するために、画像合成ユニット1440により合成された画像に対してノイズ除去処理を行うのに用いられる。   The noise removal unit 1450 is used to perform a noise removal process on the image synthesized by the image synthesis unit 1440 in order to remove more than necessary noise present in the synthesized image.

上で既に具体的な各処理過程について詳細に記述したことに鑑み、重複を回避するため、ここでは再度前記各ユニットの具体的な処理過程は詳述しない。   In view of the detailed description of the specific processing steps already described above, the specific processing steps of the units will not be described in detail again to avoid duplication.

ここで説明する必要があるのは、図14に示した画像処理装置1400の構成は、単に例示的なものであり、当業者は、必要に応じて図14に示している構成のブロック図を修正してもよいということである。例えば、画像合成ユニット1440の合成画像の品質が予め決めた要求を満たすことができれば、ノイズ除去ユニット1450を省略することができる。また、処理対象の複数枚の画像がカラー画像である場合には、画像特徴抽出ユニット1410の前にカラー−グレイ階調変換ユニットを付加しても良い。それは、カラー−グレイ階調変換によりN枚のカラー画像をN枚のグレイ階調画像に変換するのに用いられる。   What needs to be described here is that the configuration of the image processing apparatus 1400 shown in FIG. 14 is merely an example, and those skilled in the art can use the block diagram of the configuration shown in FIG. It may be corrected. For example, if the quality of the synthesized image of the image synthesis unit 1440 can satisfy a predetermined requirement, the noise removal unit 1450 can be omitted. When a plurality of images to be processed are color images, a color-gray gradation conversion unit may be added before the image feature extraction unit 1410. It is used to convert N color images into N gray tone images by color-gray tone conversion.

上に言及したように、本願に係る技術による画像処理方法300と1300及び画像処理装置1400は、図2に示した汎用のデータ処理システムに適用することができる。しかし、本願に係る技術による画像処理方法及び装置は、勿論、図2に示しているものと異なるシステム又はデバイスに用いられても良い。例えば、それらは、スキャナ、複写機または多機能一体機等のデバイスに適用することができる。そして、当該スキャナ、複写機または多機能一体機等のデバイスが、複数枚の文書画像からその中に埋め込まれた透かしを抽出することができるようにして、文書に対する管理を行い、会社内部の機密な文書をコピー又は複写することに対して監視、警報するのに用いることができる。   As mentioned above, the image processing methods 300 and 1300 and the image processing apparatus 1400 according to the technique according to the present application can be applied to the general-purpose data processing system shown in FIG. However, the image processing method and apparatus according to the technique according to the present application may of course be used for a system or device different from that shown in FIG. For example, they can be applied to devices such as scanners, copiers or multi-function integrated machines. Then, the device such as the scanner, the copier or the multi-function integrated device can extract the watermark embedded in a plurality of document images, manage the document, and manage the confidential information inside the company. It can be used to monitor and alert against copying or duplicating simple documents.

なお、勿論、本願に係る技術による前記の方法における各操作過程は、デバイスが読み取り可能な各種の記憶媒体に記憶された、コンピュータで実行可能なプログラムでも実現することができる。   Of course, each operation process in the method according to the technique according to the present application can also be realized by a computer-executable program stored in various storage media readable by the device.

そして、本願に係る技術の目的は、以下の方式によって達成することもできる。即ち、前記の実行可能なプログラムのコードを記憶している記憶媒体を、システム又はデバイスに直接又は間接に提供し、当該システム又はデバイスにおけるコンピュータ又は中央処理装置(CPU)が、前記のプログラムのコードを読み出し、実行する。   And the objective of the technique which concerns on this application can also be achieved with the following system. That is, a storage medium storing the code of the executable program is directly or indirectly provided to a system or device, and a computer or a central processing unit (CPU) in the system or device receives the code of the program. Is read and executed.

この場合に、当該システム又はデバイスはプログラムを実行する機能を有すれば、本願に係る技術の実施方式はプログラムに限定されず、そして、当該プログラムは任意の形式であってもよい。例えば、オブジェクトプログラム、インタプリタにより実行されるプログラム又は操作システムに提供するシナリオプログラム等である。   In this case, as long as the system or device has a function of executing the program, the implementation method of the technology according to the present application is not limited to the program, and the program may be in any format. For example, an object program, a program executed by an interpreter, or a scenario program provided to an operation system.

前記のこれらのデバイスに読み取り可能な記憶媒体は、各種メモリやメモリセル、半導体デバイス、例えば光、磁気及び光磁気ディスク等のディスクユニット、及びその他の情報を記憶するのに適する媒体等を含むが、それらに限定されるものではない。   The storage media readable by these devices include various memories, memory cells, semiconductor devices, for example, disk units such as optical, magnetic and magneto-optical disks, and other media suitable for storing information. However, it is not limited to them.

また、クライントコンピュータが、インターネットにおける相応するウェブサイトに接続して、本願に係る技術によるコンピュータのプログラムのコードをコンピュータにダウンロードし、インストールしてから当該プログラムを実行することによっても、本願に係る技術を実現することができる。   The technology according to the present application can also be obtained by connecting a client computer to a corresponding website on the Internet, downloading the computer program code according to the technology according to the present application to the computer, and executing the program after being installed. Can be realized.

最後に、説明する必要があるのは、本出願では、例えば第一や第二という関係用語は、ただ一つの実体又は操作を他の実体又は操作から区別するため用いられたものであり、これら実体又は操作間に如何なるこのような実際の関係又は順序があることを要求又は暗示するものではない。そして、“有する”、“含む”又は如何なる他の変形表現も、非排他的な「含む」をカバーしている。従って、一連の要素を含む過程、方法、物品又はデバイスは、それらの要素を含むだけではなく、明確に記載されていないその他の要素も含み、或いは、このような過程、方法、物品又はデバイスに固有の要素も含む。より多くの制限がない場合に、「一つの……を含む」の言葉で限定される要素は、前記の要素を含む過程、方法、物品又はデバイスに、更にその他の同様な要素が存在することを排除しないものである。   Finally, it is necessary to explain that in this application the terms first and second, for example, are used to distinguish one entity or operation from another entity or operation. It does not require or imply that there is any such actual relationship or order between entities or operations. And “have”, “include”, or any other variation, covers non-exclusive “include”. Thus, a process, method, article, or device that includes a series of elements includes not only those elements, but also other elements not explicitly described, or such processes, methods, articles, or devices Includes unique elements. In the absence of more restrictions, an element that is limited by the phrase “including one” is that there are other similar elements in the process, method, article or device that include the element. Are not excluded.

以上、本願に係る技術の実施例について図面に基づいて詳細に記述したが、理解すべきであるのは、上記の実施の形態は、本願に係る技術を説明するのみであり、本願に係る技術に対する制限にはならないということである。当業者であれば、本願に係る技術の主旨と範囲から逸脱しない範囲で、前記の実施の形態に対する各種の修正と変更を行うことができる。このため、本願に係る技術の範囲は、添付の特許請求の範囲及びその均等の意味によって限定されるだけである。   As mentioned above, although the Example of the technique which concerns on this application was described in detail based on drawing, it should be understood that said embodiment only demonstrates the technique which concerns on this application, and the technique which concerns on this application It is not a restriction on Those skilled in the art can make various modifications and changes to the above-described embodiment without departing from the spirit and scope of the technology according to the present application. Therefore, the scope of the technology according to the present application is limited only by the appended claims and their equivalent meanings.

(付記1)画像処理装置がN枚の処理対象の画像から、当該N枚の画像での共通パターンを含む画像を特定する(ここで、Nは3以上の自然数である)画像処理方法であって、
N枚の画像に対して画像の特徴抽出を行い、当該特徴抽出の結果に基づいてN枚の画像をC個の階層に分けることによりN×C枚の画像を得るステップ(ここで、Cは2以上の自然数である)と、
各階層における前記N枚の画像の平均類似度を計算するステップと、
前記平均類似度が最大の階層におけるN枚の画像において平均予測誤差があらかじめ設定した閾値よりも小さい画像を基準画像とし、該基準画像を基にして当該階層におけるN枚の画像を合成した合成画像を共通パターンを含む画像として特定するステップと、
を前記画像処理装置が実行することを特徴とする画像処理方法。
(Supplementary Note 1) An image processing method in which an image processing apparatus specifies an image including a common pattern in N images from N images to be processed (where N is a natural number of 3 or more). And
Image feature extraction is performed on N images, and N × C images are obtained by dividing the N images into C hierarchies based on the result of the feature extraction (where C is 2 or more natural numbers)
Calculating an average similarity of the N images in each hierarchy;
A composite image obtained by combining, as a reference image, an image having an average prediction error smaller than a preset threshold value in N images in the hierarchy having the maximum average similarity, and synthesizing N images in the hierarchy based on the reference image. Identifying as an image containing a common pattern;
Is executed by the image processing apparatus.

(付記2)前記階層におけるN枚の画像における各画像に対して、前記平均予測誤差を計算するステップをさらに含み、
前記平均予測誤差を計算するステップは、
当該画像と残りのN−1枚の画像との2枚ずつの画像間のマッチングパラメータに基づいて、当該画像に対する残りのN−1枚の画像の2枚ずつの画像間の予測マッチングパラメータを計算し、当該画像に対する予測マッチングパラメータマトリックスを取得するステップと、
当該画像に対する前記予測マッチングパラメータマトリックスに基づいて、当該画像の前記平均予測誤差を計算するステップと、
を含むことを特徴とする付記1に記載の画像処理方法。
(Supplementary note 2) The method further includes the step of calculating the average prediction error for each of the N images in the hierarchy,
Calculating the average prediction error comprises:
Based on matching parameters between two images of the image and the remaining N−1 images, a prediction matching parameter between two images of the remaining N−1 images for the image is calculated. Obtaining a predicted matching parameter matrix for the image;
Calculating the average prediction error of the image based on the prediction matching parameter matrix for the image;
The image processing method according to claim 1, further comprising:

(付記3)各階層におけるN枚の画像の前記平均類似度を計算するステップは、
各画像の前記平均予測誤差に基づいて、各画像の予測精度確率を計算するステップと、
各画像と残りのN−1枚の画像との2枚ずつの画像間の類似度に基づいて、各画像の前記予測精度確率を用いて各画像の類似度を計算するステップと、
各画像の類似度に基づいてN枚の画像の前記平均類似度を計算するステップと、
を含むことを特徴とする付記2に記載の画像処理方法。
(Supplementary Note 3) The step of calculating the average similarity of N images in each layer includes:
Calculating a prediction accuracy probability of each image based on the average prediction error of each image;
Calculating the degree of similarity of each image using the prediction accuracy probability of each image based on the degree of similarity between two images of each image and the remaining N−1 images;
Calculating the average similarity of N images based on the similarity of each image;
The image processing method according to claim 2, further comprising:

(付記4)画像の特徴抽出を行い、前記特徴抽出の結果に基づいて前記N枚の画像を前記C個の階層に分けることによりN×C枚の画像を得るステップは、
エッジ検出演算子を用いて当該N枚の画像におけるすべてのエッジを抽出するステップと、
各エッジ点におけるエッジ強度の大きさを計算するステップと、
計算された前記エッジ強度の大きさに基づいて当該N枚の画像を前記C個の階層に分けるステップと、
を含むことを特徴とする付記1〜3のいずれか1つに記載の画像処理方法。
(Supplementary Note 4) The step of performing feature extraction of an image and obtaining N × C images by dividing the N images into the C layers based on the result of the feature extraction includes:
Extracting all edges in the N images using an edge detection operator;
Calculating the magnitude of the edge strength at each edge point;
Dividing the N images into the C layers based on the calculated magnitude of the edge strength;
The image processing method according to any one of appendices 1 to 3, further comprising:

(付記5)前記N枚の処理対象の画像はグレイ階調画像であり、前記エッジ検出演算子はCANNY演算子であることを特徴とする付記4に記載の画像処理方法。 (Supplementary note 5) The image processing method according to supplementary note 4, wherein the N images to be processed are gray gradation images, and the edge detection operator is a CANNY operator.

(付記6)前記N枚の処理対象の画像はカラー画像であり、前記エッジ検出演算子はカラー画像からエッジ情報を抽出することを特徴とする付記4に記載の画像処理方法。 (Supplementary note 6) The image processing method according to supplementary note 4, wherein the N images to be processed are color images, and the edge detection operator extracts edge information from the color image.

(付記7)前記N枚の処理対象の画像はカラー画像であり、画像の特徴抽出を行う前に、カラー−グレイ階調変換によりN枚のグレイ階調画像を取得するステップをさらに含み、前記エッジ検出演算子はCANNY演算子であることを特徴とする付記4に記載の画像処理方法。 (Supplementary note 7) The N images to be processed are color images, and further include a step of obtaining N gray gradation images by color-gray gradation conversion before performing image feature extraction, The image processing method according to appendix 4, wherein the edge detection operator is a CANNY operator.

(付記8)前記合成画像を取得するステップをさらに含み、当該合成画像を取得するステップは、
前記階層における残りのN−1枚の画像と前記基準画像を合わせるステップと、
合わせたN枚の画像を画素点ごとに累積することにより、当該画素点における全ての重ね合わせたエッジ点の総数を計算し、合成されたエッジ画像を前記合成画像として当該総数に基づいて取得するステップと、
を含むことを特徴とする付記4に記載の画像処理方法。
(Supplementary Note 8) The method further includes the step of acquiring the composite image, and the step of acquiring the composite image includes:
Aligning the remaining N-1 images in the hierarchy with the reference image;
By accumulating the combined N images for each pixel point, the total number of all overlaid edge points at the pixel point is calculated, and the synthesized edge image is acquired as the synthesized image based on the total number. Steps,
The image processing method according to appendix 4, characterized by comprising:

(付記9)前記合成画像に対してノイズ除去を行うステップをさらに含み、前記合成画像を共通パターンを含む画像として特定するステップは、ノイズ除去後の前記合成画像を、共通パターンを含む画像として特定することを特徴とする付記1〜3のいずれか1つに記載の画像処理方法。 (Supplementary note 9) The method further includes the step of performing noise removal on the composite image, wherein the step of specifying the composite image as an image including a common pattern specifies the composite image after noise removal as an image including a common pattern. The image processing method according to any one of appendices 1 to 3, wherein:

(付記10)前記N枚の処理対象の画像は文書画像であり、前記共通パターンは文書画像中に埋め込まれた透かしであることを特徴とする付記1〜3のいずれか1つに記載の画像処理方法。 (Supplementary note 10) The image according to any one of supplementary notes 1 to 3, wherein the N images to be processed are document images, and the common pattern is a watermark embedded in the document image. Processing method.

(付記11)2枚ずつの画像間の前記マッチングパラメータは、並進、回転及び/又は拡大縮小変換に係るマッチングパラメータを含むことを特徴とする付記2又は3に記載の画像処理方法。 (Supplementary note 11) The image processing method according to Supplementary note 2 or 3, wherein the matching parameter between two images each includes a matching parameter relating to translation, rotation, and / or scaling conversion.

(付記12)N枚の処理対象の画像から、当該N枚の画像での共通パターンを含む画像を特定する(ここで、Nは3以上の自然数である)画像処理装置であって、
N枚の画像に対して画像の特徴抽出を行い、当該特徴抽出の結果に基づいてN枚の画像をC個の階層に分けることによりN×C枚の画像を得る画像特徴抽出部(ここで、Cは2以上の自然数である)と、
各階層における前記N枚の画像の平均類似度を計算する平均類似度計算部と、
前記平均類似度が最大の階層におけるN枚の画像において平均予測誤差があらかじめ設定した閾値よりも小さい画像を基準画像として特定する基準画像特定部と、
前記基準画像を基にして当該階層におけるN枚の画像を合成して、合成した合成画像を共通パターンを含む画像として特定する画像合成部と、
を備えたことを特徴とする画像処理装置。
(Supplementary Note 12) An image processing apparatus that identifies an image including a common pattern in N images to be processed (N is a natural number of 3 or more) from N images to be processed,
An image feature extraction unit (here, N × C images are obtained by performing image feature extraction on N images and dividing the N images into C layers based on the result of the feature extraction). , C is a natural number of 2 or more)
An average similarity calculator for calculating an average similarity of the N images in each layer;
A reference image specifying unit that specifies, as a reference image, an image having an average prediction error smaller than a preset threshold in N images in the hierarchy having the maximum average similarity;
An image combining unit that combines N images in the hierarchy based on the reference image, and identifies the combined image as an image including a common pattern;
An image processing apparatus comprising:

(付記13)前記基準画像特定部は、
前記1つの階層におけるN枚の画像における各画像と残りのN−1枚の画像との2枚ずつの画像間のマッチングパラメータに基づいて、各画像に対する残りのN−1枚の画像の2枚ずつの画像間の予測マッチングパラメータを計算し、各画像に対する予測マッチングパラメータマトリックスを取得する予測パラメータマトリックス取得部と、
各画像に対する前記予測マッチングパラメータマトリックスに基づいて、各画像の平均予測誤差を計算する平均予測誤差計算部と、
を含むことを特徴とする付記12に記載の画像処理装置。
(Supplementary Note 13) The reference image specifying unit includes:
Two of the remaining N-1 images for each image based on matching parameters between each of the N images in the one layer and the remaining N-1 images. A prediction parameter matrix acquisition unit that calculates a prediction matching parameter between each image and acquires a prediction matching parameter matrix for each image;
An average prediction error calculation unit that calculates an average prediction error of each image based on the prediction matching parameter matrix for each image;
The image processing apparatus according to appendix 12, characterized by comprising:

(付記14)前記平均類似度計算部は、
N枚の画像における各画像の前記平均予測誤差に基づいて、各画像の予測精度確率を計算する予測精度確率計算部と、
N枚の画像における各画像と残りのN−1枚の画像との2枚ずつの画像間の類似度に基づいて、各画像の前記予測精度確率を用いて各画像の類似度を計算する類似度計算部と、
を備え、
N枚の画像における各画像の前記類似度に基づいて、N枚の画像の前記平均類似度を計算することを特徴とする付記13に記載の画像処理装置。
(Supplementary Note 14) The average similarity calculator
A prediction accuracy probability calculation unit that calculates a prediction accuracy probability of each image based on the average prediction error of each image in N images;
Similarity that calculates the similarity of each image using the prediction accuracy probability of each image based on the similarity between each of the N images and the remaining N−1 images. A degree calculator,
With
14. The image processing apparatus according to appendix 13, wherein the average similarity of N images is calculated based on the similarity of each image in N images.

(付記15)前記画像特徴抽出部は、
エッジ検出演算子を用いて前記N枚の画像におけるすべてのエッジを抽出するエッジ抽出部と、
各エッジ点におけるエッジ強度の大きさを計算するエッジ強度計算部と、
を備え、
計算された前記エッジ強度の大きさに基づいてN枚の画像を前記C個の階層に分けることを特徴とする付記12〜14のいずれか1つに記載の画像処理装置。
(Supplementary Note 15) The image feature extraction unit
An edge extraction unit that extracts all edges in the N images using an edge detection operator;
An edge strength calculator that calculates the magnitude of the edge strength at each edge point;
With
The image processing apparatus according to any one of appendices 12 to 14, wherein the N images are divided into the C layers based on the calculated magnitude of the edge intensity.

(付記16)前記N枚の処理対象の画像はグレイ階調画像であり、前記エッジ検出演算子はCANNY演算子であることを特徴とする付記15に記載の画像処理装置。 (Supplementary note 16) The image processing apparatus according to supplementary note 15, wherein the N images to be processed are gray gradation images, and the edge detection operator is a CANNY operator.

(付記17)前記N枚の処理対象の画像はカラー画像であり、前記エッジ検出演算子はカラー画像から直接エッジ情報を抽出することを特徴とする付記15に記載の画像処理装置。 (Supplementary note 17) The image processing apparatus according to supplementary note 15, wherein the N images to be processed are color images, and the edge detection operator extracts edge information directly from the color image.

(付記18)前記N枚の処理対象の画像はカラー画像であり、
前記画像処理装置は、カラー−グレイ階調変換によりN枚のカラー画像をN枚のグレイ階調画像に変換するカラー−グレイ階調変換部をさらに備え、
前記エッジ検出演算子はCANNY演算子であることを特徴とする付記15に記載の画像処理装置。
(Supplementary Note 18) The N images to be processed are color images,
The image processing apparatus further includes a color-gray gradation conversion unit that converts N color images into N gray gradation images by color-gray gradation conversion,
The image processing apparatus according to appendix 15, wherein the edge detection operator is a CANNY operator.

(付記19)前記画像合成部は、当該階層における残りのN−1枚の画像と基準画像とを合わせ、合わせたN枚の画像を画素点ごとに累積することにより、当該画素点における全ての重ね合わせたエッジ点の総数を計算し、合成されたエッジ画像を前記合成画像として当該総数に基づいて取得することを特徴とする付記15に記載の画像処理装置。 (Supplementary Note 19) The image composition unit combines the remaining N−1 images and the reference image in the hierarchy, and accumulates the combined N images for each pixel point, whereby all the image points at the pixel point are accumulated. 16. The image processing apparatus according to appendix 15, wherein the total number of superimposed edge points is calculated, and a combined edge image is acquired as the combined image based on the total number.

(付記20)前記画像合成部によって合成された合成画像に対してノイズ除去処理を行うノイズ除去部をさらに備え、前記画像合成部は、ノイズ除去後の合成画像を前記共通パターンを含む画像として特定することを特徴とする付記12〜14のいずれか1つに記載の画像処理装置。 (Additional remark 20) It further has a noise removal part which performs a noise removal process with respect to the synthesized image synthesize | combined by the said image synthetic | combination part, The said image synthetic | combination part specifies the synthesized image after noise removal as an image containing the said common pattern The image processing device according to any one of appendices 12 to 14, characterized in that:

(付記21)前記N枚の処理対象の画像は、文書画像であり、前記共通パターンは文書画像中に埋め込まれた透かしであることを特徴とする付記12〜14のいずれか1つに記載の画像処理装置。 (Supplementary note 21) In any one of Supplementary notes 12 to 14, the N images to be processed are document images, and the common pattern is a watermark embedded in the document image. Image processing device.

(付記22)2枚ずつの画像間の前記マッチングパラメータは、並進、回転及び/又は拡大縮小変換に係るマッチングパラメータを含むことを特徴とする付記13又は14に記載の画像処理装置。 (Supplementary note 22) The image processing apparatus according to supplementary note 13 or 14, wherein the matching parameter between two images each includes a matching parameter relating to translation, rotation, and / or scaling conversion.

(付記23)N枚の処理対象の画像から、当該N枚の文書画像に埋め込まれた透かしを含む画像を特定する(ここで、Nは3以上の自然数である)透かし検出システムであって、
N枚の文書画像に対して文書画像の特徴抽出を行い、当該特徴抽出の結果に基づいてN枚の文書画像を前記C個の階層に分けることによりN×C枚の画像を得る画像特徴抽出部(ここで、Cは2以上の自然数である)と、
各階層における前記N枚の文書画像の平均類似度を計算する平均類似度計算部と、
前記平均類似度が最大の階層におけるN枚の画像において平均予測誤差があらかじめ設定した閾値よりも小さい文書画像を基準画像として特定する基準画像特定部と、
前記基準画像を基にして当該階層におけるN枚の文書画像を合成して、合成した合成画像を共通パターンを含む画像として特定する画像合成部と、
を備えたことを特徴とする透かし検出システム。
(Supplementary note 23) A watermark detection system for identifying an image including a watermark embedded in the N document images from N images to be processed (where N is a natural number of 3 or more),
Image feature extraction is performed on N document images, and N × C images are obtained by dividing the N document images into the C hierarchies based on the feature extraction result. Part (where C is a natural number of 2 or more),
An average similarity calculator for calculating an average similarity of the N document images in each layer;
A reference image specifying unit that specifies, as a reference image, a document image having an average prediction error smaller than a preset threshold in N images in the hierarchy having the maximum average similarity;
An image synthesis unit that synthesizes N document images in the hierarchy based on the reference image, and identifies the synthesized image as an image including a common pattern;
A watermark detection system comprising:

(付記24)前記透かし検出システムは、スキャナ、複写機、又は多機能一体機に集積されていることを特徴とする付記23に記載の透かし検出システム。 (Supplementary note 24) The watermark detection system according to supplementary note 23, wherein the watermark detection system is integrated in a scanner, a copier, or a multifunction integrated device.

200 データ処理システム
202 プロセッサ
204 プロセッサ
206 システムバス
208 メモリコントローラ/高速バッファー
209 ローカルメモリ
210 I/Oブリッジ
212 I/Oバス
214 PCIバスブリッジ
216 PCIバス
218 モデム
220 ネットワークアダプター
222 PCIバスブリッジ
224 PCIバスブリッジ
226 PCIバス
228 PCIバス
230 グラッフィックアダプター
232 ハードディスク
300 画像処理方法
1300 画像処理方法
1400 画像処理装置
1410 画像特徴抽出ユニット
1420 基準画像特定ユニット
1430 平均類似度計算ユニット
1440 画像合成ユニット
1450 ノイズ除去ユニット
200 Data Processing System 202 Processor 204 Processor 206 System Bus 208 Memory Controller / High Speed Buffer 209 Local Memory 210 I / O Bridge 212 I / O Bus 214 PCI Bus Bridge 216 PCI Bus 218 Modem 220 Network Adapter 222 PCI Bus Bridge 224 PCI Bus Bridge 226 PCI bus 228 PCI bus 230 graphics adapter 232 hard disk 300 image processing method 1300 image processing method 1400 image processing device 1410 image feature extraction unit 1420 reference image specifying unit 1430 average similarity calculation unit 1440 image synthesis unit 1450 noise removal unit

Claims (8)

画像処理装置がN枚の処理対象の画像から、当該N枚の画像での共通パターンを含む画像を特定する(ここで、Nは3以上の自然数である)画像処理方法であって、
N枚の画像に対して画像の特徴抽出を行い、当該特徴抽出の結果に基づいてN枚の画像を前記C個の階層に分けることによりN×C枚の画像を得るステップ(ここで、Cは2以上の自然数である)と、
各階層において当該画像と残りのN−1枚の画像との2枚ずつの画像間のマッチングパラメータに基づいて計算される平均予測誤差を計算するステップと、
各階層における前記N枚の画像の平均類似度を計算するステップと、
前記平均類似度が最大の階層におけるN枚の画像において前記平均予測誤差があらかじめ設定した閾値よりも小さい画像を基準画像とし、該基準画像を基にして当該階層におけるN枚の画像を合成した合成画像を共通パターンを含む画像として特定するステップと、
を前記画像処理装置が実行することを特徴とする画像処理方法。
An image processing method in which an image processing apparatus specifies an image including a common pattern in N images from N images to be processed (where N is a natural number of 3 or more),
Image feature extraction is performed on N images, and N × C images are obtained by dividing the N images into the C layers based on the result of the feature extraction (here, C × Is a natural number of 2 or more)
Calculating an average prediction error calculated based on matching parameters between two images of the image and the remaining N−1 images in each hierarchy;
Calculating an average similarity of the N images in each hierarchy;
The average degree of similarity is set to N pieces of said average prediction error is the reference image small images than a preset threshold in the image at the maximum hierarchy, were based on the reference image by combining the N images in the hierarchy synthesis Identifying the image as an image containing a common pattern;
Is executed by the image processing apparatus.
記平均予測誤差を計算するステップは、
当該画像と残りのN−1枚の画像との2枚ずつの画像間のマッチングパラメータに基づいて、当該画像に対する残りのN−1枚の画像の2枚ずつの画像間の予測マッチングパラメータを計算し、当該画像に対する予測マッチングパラメータマトリックスを取得するステップと、
当該画像に対する前記予測マッチングパラメータマトリックスに基づいて、当該画像の前記平均予測誤差を計算するステップと、
を含むことを特徴とする請求項1に記載の画像処理方法。
Calculating a pre-Symbol average prediction error,
Based on matching parameters between two images of the image and the remaining N−1 images, a prediction matching parameter between two images of the remaining N−1 images for the image is calculated. Obtaining a predicted matching parameter matrix for the image;
Calculating the average prediction error of the image based on the prediction matching parameter matrix for the image;
The image processing method according to claim 1, further comprising:
各階層におけるN枚の画像の前記平均類似度を計算するステップは、
各画像の前記平均予測誤差に基づいて、各画像の予測精度確率を計算するステップと、
各画像と残りのN−1枚の画像との2枚ずつの画像間の類似度に基づいて、各画像の前記予測精度確率を用いて各画像の類似度を計算するステップと、
各画像の類似度に基づいてN枚の画像の前記平均類似度を計算するステップと、
を含むことを特徴とする請求項2に記載の画像処理方法。
The step of calculating the average similarity of N images in each hierarchy includes:
Calculating a prediction accuracy probability of each image based on the average prediction error of each image;
Calculating the degree of similarity of each image using the prediction accuracy probability of each image based on the degree of similarity between two images of each image and the remaining N−1 images;
Calculating the average similarity of N images based on the similarity of each image;
The image processing method according to claim 2, further comprising:
画像の特徴抽出を行い、前記特徴抽出の結果に基づいて前記N枚の画像を前記C個の階層に分けることによりN×C枚の画像を得るステップは、
エッジ検出演算子を用いて当該N枚の画像におけるすべてのエッジを抽出するステップと、
各エッジ点におけるエッジ強度の大きさを計算するステップと、
計算された前記エッジ強度の大きさに基づいて当該N枚の画像を前記C個の階層に分けるステップと、
を含むことを特徴とする請求項1〜3のいずれか1つに記載の画像処理方法。
The step of performing feature extraction of an image and obtaining N × C images by dividing the N images into the C layers based on the result of the feature extraction includes:
Extracting all edges in the N images using an edge detection operator;
Calculating the magnitude of the edge strength at each edge point;
Dividing the N images into the C layers based on the calculated magnitude of the edge strength;
The image processing method according to claim 1, further comprising:
前記合成画像を取得するステップをさらに含み、当該合成画像を取得するステップは、
前記階層における残りのN−1枚の画像と前記基準画像を合わせるステップと、
合わせたN枚の画像を画素点ごとに累積することにより、当該画素点における全ての重ね合わせたエッジ点の総数を計算し、合成されたエッジ画像を前記合成画像として当該総数に基づいて取得するステップと、
を含むことを特徴とする請求項4に記載の画像処理方法。
The method further includes obtaining the composite image, and obtaining the composite image includes:
Aligning the remaining N-1 images in the hierarchy with the reference image;
By accumulating the combined N images for each pixel point, the total number of all overlaid edge points at the pixel point is calculated, and the synthesized edge image is acquired as the synthesized image based on the total number. Steps,
The image processing method according to claim 4, further comprising:
前記N枚の処理対象の画像は文書画像であり、前記共通パターンは文書画像中に埋め込まれた透かしであることを特徴とする請求項1〜3のいずれか1つに記載の画像処理方法。   The image processing method according to claim 1, wherein the N images to be processed are document images, and the common pattern is a watermark embedded in the document image. N枚の処理対象の画像から、当該N枚の画像での共通パターンを含む画像を特定する(ここで、Nは3以上の自然数である)画像処理装置であって、
N枚の画像に対して画像の特徴抽出を行い、当該特徴抽出の結果に基づいてN枚の画像を前記C個の階層に分けることによりN×C枚の画像を得る画像特徴抽出部(ここで、Cは2以上の自然数である)と、
各階層において当該画像と残りのN−1枚の画像との2枚ずつの画像間のマッチングパラメータに基づいて計算される平均予測誤差を計算するとともに、各階層における前記N枚の画像の平均類似度を計算する平均類似度計算部と、
前記平均類似度が最大の階層におけるN枚の画像において前記平均予測誤差があらかじめ設定した閾値よりも小さい画像を基準画像として特定する基準画像特定部と、
前記基準画像を基にして当該階層におけるN枚の画像を合成して、合成した合成画像を共通パターンを含む画像として特定する画像合成部と、
を備えたことを特徴とする画像処理装置。
An image processing apparatus that identifies an image including a common pattern in the N images (N is a natural number of 3 or more) from N images to be processed,
An image feature extraction unit (here, N × C images are obtained by performing image feature extraction on N images and dividing the N images into the C layers based on the result of the feature extraction) C is a natural number of 2 or more)
In each layer, an average prediction error calculated based on matching parameters between two images of the image and the remaining N−1 images is calculated, and the average similarity of the N images in each layer An average similarity calculator for calculating the degree,
A reference image selecting unit which the average degree of similarity to identifying images smaller than a threshold the average prediction error is preset in N images at the maximum hierarchy as a reference image,
An image combining unit that combines N images in the hierarchy based on the reference image, and identifies the combined image as an image including a common pattern;
An image processing apparatus comprising:
N枚の処理対象の画像から、当該N枚の文書画像に埋め込まれた透かしを含む画像を特定する(ここで、Nは3以上の自然数である)透かし検出システムであって、
N枚の文書画像に対して文書画像の特徴抽出を行い、当該特徴抽出の結果に基づいてN枚の文書画像を前記C個の階層に分けることによりN×C枚の画像を得る画像特徴抽出部(ここで、Cは2以上の自然数である)と、
各階層において当該画像と残りのN−1枚の画像との2枚ずつの画像間のマッチングパラメータに基づいて計算される平均予測誤差を計算するとともに、各階層における前記N枚の文書画像の平均類似度を計算する平均類似度計算部と、
前記平均類似度が最大の階層におけるN枚の画像において前記平均予測誤差があらかじめ設定した閾値よりも小さい文書画像を基準画像として特定する基準画像特定部と、
前記基準画像を基にして当該階層におけるN枚の文書画像を合成して、合成した合成画像を共通パターンを含む画像として特定する画像合成部と、
を備えたことを特徴とする透かし検出システム。
A watermark detection system that identifies an image including a watermark embedded in the N document images from N images to be processed (where N is a natural number of 3 or more),
Image feature extraction is performed on N document images, and N × C images are obtained by dividing the N document images into the C hierarchies based on the feature extraction result. Part (where C is a natural number of 2 or more),
An average prediction error calculated based on matching parameters between two images of the image and the remaining N−1 images in each layer is calculated, and an average of the N document images in each layer An average similarity calculator for calculating the similarity,
A reference image selecting unit which the average degree of similarity is to identify a small document image than a threshold the average prediction error is preset in N images at the maximum hierarchy as a reference image,
An image synthesis unit that synthesizes N document images in the hierarchy based on the reference image, and identifies the synthesized image as an image including a common pattern;
A watermark detection system comprising:
JP2009039885A 2008-03-24 2009-02-23 Image processing method, image processing apparatus, and watermark detection system Expired - Fee Related JP5168185B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN200810087720.0 2008-03-24
CN2008100877200A CN101546424B (en) 2008-03-24 2008-03-24 Method and device for processing image and watermark detection system

Publications (2)

Publication Number Publication Date
JP2009232450A JP2009232450A (en) 2009-10-08
JP5168185B2 true JP5168185B2 (en) 2013-03-21

Family

ID=41193545

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009039885A Expired - Fee Related JP5168185B2 (en) 2008-03-24 2009-02-23 Image processing method, image processing apparatus, and watermark detection system

Country Status (2)

Country Link
JP (1) JP5168185B2 (en)
CN (1) CN101546424B (en)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104427242B (en) * 2013-09-10 2018-08-31 联想(北京)有限公司 Image split-joint method, device and electronic equipment
WO2015138798A1 (en) 2014-03-13 2015-09-17 Verance Corporation Interactive content acquisition using embedded codes
US9805434B2 (en) * 2014-08-20 2017-10-31 Verance Corporation Content management based on dither-like watermark embedding
CN104954678A (en) * 2015-06-15 2015-09-30 联想(北京)有限公司 Image processing method, image processing device and electronic equipment
CN105868755A (en) * 2015-11-24 2016-08-17 乐视致新电子科技(天津)有限公司 Number separation method and apparatus
CN105869139A (en) * 2015-11-24 2016-08-17 乐视致新电子科技(天津)有限公司 Image processing method and apparatus
CN105868683A (en) * 2015-11-24 2016-08-17 乐视致新电子科技(天津)有限公司 Channel logo identification method and apparatus
CN105868681A (en) * 2015-11-24 2016-08-17 乐视致新电子科技(天津)有限公司 CCTV channel logo identification method and apparatus
CN105868680A (en) * 2015-11-24 2016-08-17 乐视致新电子科技(天津)有限公司 Channel logo classification method and apparatus
CN105868682A (en) * 2015-11-24 2016-08-17 乐视致新电子科技(天津)有限公司 Local channel logo identification method and apparatus
CN105869122A (en) * 2015-11-24 2016-08-17 乐视致新电子科技(天津)有限公司 Image processing method and apparatus
CN105761196B (en) * 2016-01-28 2019-06-11 西安电子科技大学 Color image reversible digital watermarking process based on three-dimensional prediction histogram of error
CN106845532B (en) * 2016-12-30 2018-07-20 深圳云天励飞技术有限公司 A kind of screening sample method
CN107770554B (en) * 2017-10-26 2020-08-18 胡明建 Design method for layering and compressing image by parallel displacement wavelet method
JP2019212138A (en) * 2018-06-07 2019-12-12 コニカミノルタ株式会社 Image processing device, image processing method and program
CN111128348B (en) * 2019-12-27 2024-03-26 上海联影智能医疗科技有限公司 Medical image processing method, medical image processing device, storage medium and computer equipment

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3154217B2 (en) * 1993-12-01 2001-04-09 沖電気工業株式会社 Moving target tracking device
JP3396950B2 (en) * 1994-03-31 2003-04-14 凸版印刷株式会社 Method and apparatus for measuring three-dimensional shape
JP3636809B2 (en) * 1996-03-12 2005-04-06 株式会社リコー Image processing method
JPH09326037A (en) * 1996-04-01 1997-12-16 Fujitsu Ltd Pattern forming device and recording medium storing program for pattern generation
JPH10164472A (en) * 1996-11-25 1998-06-19 Sega Enterp Ltd Image information processing method and electronic camera
US6148033A (en) * 1997-11-20 2000-11-14 Hitachi America, Ltd. Methods and apparatus for improving picture quality in reduced resolution video decoders
US6285995B1 (en) * 1998-06-22 2001-09-04 U.S. Philips Corporation Image retrieval system using a query image
JP3581265B2 (en) * 1999-01-06 2004-10-27 シャープ株式会社 Image processing method and apparatus
JP2001103279A (en) * 1999-09-30 2001-04-13 Minolta Co Ltd Image forming device
GB9929957D0 (en) * 1999-12-17 2000-02-09 Canon Kk Image processing apparatus
JP2002230585A (en) * 2001-02-06 2002-08-16 Canon Inc Method for displaying three-dimensional image and recording medium
US6782116B1 (en) * 2002-11-04 2004-08-24 Mediasec Technologies, Gmbh Apparatus and methods for improving detection of watermarks in content that has undergone a lossy transformation
JP4070558B2 (en) * 2002-09-26 2008-04-02 株式会社東芝 Image tracking apparatus and method
CN1771513A (en) * 2003-04-11 2006-05-10 皇家飞利浦电子股份有限公司 Method of detecting watermarks
JP4613558B2 (en) * 2003-09-16 2011-01-19 パナソニック電工株式会社 Human body detection device using images
JP4323334B2 (en) * 2004-01-20 2009-09-02 株式会社山武 Reference image selection device
JP4466260B2 (en) * 2004-07-30 2010-05-26 パナソニック電工株式会社 Image processing device
JP4739082B2 (en) * 2006-03-30 2011-08-03 キヤノン株式会社 Image processing method and image processing apparatus
JP2007041225A (en) * 2005-08-02 2007-02-15 Kawai Musical Instr Mfg Co Ltd Image composition device, method, program and electronic musical instrument
JP2007080136A (en) * 2005-09-16 2007-03-29 Seiko Epson Corp Specification of object represented within image
SG130972A1 (en) * 2005-09-23 2007-04-26 Sony Corp Techniques for embedding and detection of watermarks in images
JP2007192752A (en) * 2006-01-20 2007-08-02 Horon:Kk Method and apparatus for edge detection
JP2007257287A (en) * 2006-03-23 2007-10-04 Tokyo Institute Of Technology Image registration method
JP2007316966A (en) * 2006-05-26 2007-12-06 Fujitsu Ltd Mobile robot, control method thereof and program
JP2007317034A (en) * 2006-05-27 2007-12-06 Ricoh Co Ltd Image processing apparatus, image processing method, program, and recording medium

Also Published As

Publication number Publication date
CN101546424A (en) 2009-09-30
JP2009232450A (en) 2009-10-08
CN101546424B (en) 2012-07-25

Similar Documents

Publication Publication Date Title
JP5168185B2 (en) Image processing method, image processing apparatus, and watermark detection system
US11004182B2 (en) Systems and methods for image data processing to correct document deformations using machine-learning techniques
JP5488130B2 (en) Image processing method and image processing apparatus
JP5561100B2 (en) Hidden character restoration method and image processing apparatus
US8843493B1 (en) Document fingerprint
US20150228045A1 (en) Methods for embedding and extracting a watermark in a text document and devices thereof
JP2016220201A (en) Real time correlation mark images for low memory devices
US20200175300A1 (en) Method and system for optical character recognition of series of images
JP2009169925A (en) Image retrieval device and image retrieval method
US20130050765A1 (en) Method and apparatus for document authentication using image comparison on a block-by-block basis
AU2010238503B2 (en) Two dimensional information symbol
US20230325959A1 (en) Zoom agnostic watermark extraction
US20230325961A1 (en) Zoom agnostic watermark extraction
Van Beusekom et al. Document signature using intrinsic features for counterfeit detection
CN113628091A (en) Safety information extraction method and device for electronic display screen content reproduction scene
Alsimry et al. A new approach for finding duplicated words in scanned Arabic documents based on OCR and SURF.
Sangeetha et al. Improved exemplar based texture synthesis method for natural scene image completion
CN111445375A (en) Watermark embedding scheme and data processing method, device and equipment
US11909934B1 (en) Consolidation of bounding boxes generated from text type pattern localizer
US11909933B1 (en) One-shot neural network for stamp detection
US11741732B2 (en) Techniques for detecting text
JP7342518B2 (en) Image processing device and image processing program
US20240161463A1 (en) Computationally efficient document stamp detector
US20240161521A1 (en) Document security pattern re-identification using deep learning based candidate localization
Hadigheh et al. Splicing forgery detection based on neuro fuzzy fusion

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111006

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120817

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121002

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121102

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121127

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121210

LAPS Cancellation because of no payment of annual fees