JP4362537B2 - Image processing apparatus, image forming apparatus, image transmitting apparatus, image reading apparatus, image processing system, image processing method, image processing program, and recording medium thereof - Google Patents

Image processing apparatus, image forming apparatus, image transmitting apparatus, image reading apparatus, image processing system, image processing method, image processing program, and recording medium thereof Download PDF

Info

Publication number
JP4362537B2
JP4362537B2 JP2008110739A JP2008110739A JP4362537B2 JP 4362537 B2 JP4362537 B2 JP 4362537B2 JP 2008110739 A JP2008110739 A JP 2008110739A JP 2008110739 A JP2008110739 A JP 2008110739A JP 4362537 B2 JP4362537 B2 JP 4362537B2
Authority
JP
Japan
Prior art keywords
image
unit
partial
self
partial image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008110739A
Other languages
Japanese (ja)
Other versions
JP2009015819A (en
Inventor
真 早崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2008110739A priority Critical patent/JP4362537B2/en
Priority to CN2008100997414A priority patent/CN101320425B/en
Priority to US12/133,989 priority patent/US8184912B2/en
Publication of JP2009015819A publication Critical patent/JP2009015819A/en
Application granted granted Critical
Publication of JP4362537B2 publication Critical patent/JP4362537B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像データの特徴量を抽出する特徴量算出部を備えた画像処理装置、画像形成装置、画像送信装置、画像読取装置、画像処理システム、画像データの特徴量を抽出する画像処理方法、画像処理プログラムおよびその記録媒体に関するものである。   The present invention relates to an image processing apparatus, an image forming apparatus, an image transmission apparatus, an image reading apparatus, an image processing system, and an image processing method for extracting a feature quantity of image data. The present invention relates to an image processing program and its recording medium.

従来より、スキャナで原稿画像を読み取って得られた入力画像データと事前に登録されている登録画像とを比較して両者の類似度を判定する技術が種々提案されている。   Conventionally, various techniques for comparing the input image data obtained by reading a document image with a scanner and a registered image registered in advance and determining the similarity between the two have been proposed.

類似度の判定方法としては、例えば、文字画像を抽出してOCR(Optical Character Reader)などで画像から抽出したキーワードを用いてマッチングを行う方法や、画像に含まれる罫線の特徴を抽出してマッチングを行う方法などが提案されている。   As a method for determining the similarity, for example, a character image is extracted and matching is performed using a keyword extracted from the image using an OCR (Optical Character Reader) or the like, or a feature of a ruled line included in the image is extracted and matched. A method for performing the above has been proposed.

また、特許文献1には、入力画像から文字、文字列枠、枠などを認識し、枠情報に基づいて枠ごとのマッチングを行うことによって帳票画像などのフォーマット認識を行う技術が開示されている。   Patent Document 1 discloses a technique for recognizing a format of a form image or the like by recognizing a character, a character string frame, a frame or the like from an input image and performing matching for each frame based on the frame information. .

また、特許文献2には、英文文書における単語の重心、黒画素の連結成分の重心、漢字の閉鎖空間、画像中に繰り返し現れる特定部位などを特徴点として抽出し、抽出された各特徴点に対して局所的な特徴点の集合を決定し、決定された各集合から特徴点の部分集合を選択し、選択された各部分集合を特徴付ける量として部分集合中における特徴点の複数の組み合わせについて幾何学的変換に対する不変量をそれぞれ求め、求めた各不変量を特徴量とし、このように求めた特徴量に基づいて文書照合を行う技術が開示されている。
特開平8−255236号公報(公開日:平成8年10月1日) 国際公開第WO2006/092957A1号パンフレット(公開日:2006年9月8日) 特開平4−282968号公報(公開日:平成4年10月8日公開)
Patent Document 2 also extracts, as feature points, the centroid of words in English documents, the centroid of connected components of black pixels, the closed space of kanji, and specific parts that repeatedly appear in the image. In contrast, a set of local feature points is determined, a subset of feature points is selected from each determined set, and a plurality of combinations of feature points in the subset are determined as quantities that characterize each selected subset. A technique is disclosed in which invariants with respect to a scientific transformation are obtained, each obtained invariant is used as a feature quantity, and document matching is performed based on the thus obtained feature quantity.
JP-A-8-255236 (Publication date: October 1, 1996) International Publication No. WO2006 / 092957A1 (publication date: September 8, 2006) Japanese Laid-Open Patent Publication No. 4-282968 (Released on October 8, 1992)

しかしながら、上記特許文献1,2の技術では、入力画像データが画像読取装置の読取位置における所定の配置角度に対して傾斜して配置された状態で読み取られたデータである場合や、縮小,拡大等の処理が施されたデータである場合に、特徴点を精度よく抽出できないという問題がある。   However, in the techniques of Patent Documents 1 and 2, when the input image data is data read in a state where the input image data is inclined with respect to a predetermined arrangement angle at the reading position of the image reading apparatus, In the case of data that has been subjected to such processing, there is a problem that feature points cannot be extracted with high accuracy.

例えば、特許文献1の技術では、上記傾斜,拡大,縮小等の影響によって文字、文字列枠、枠などの認識結果が変動するので、フォーマット認識を精度よく行うことができない。   For example, in the technique of Patent Document 1, the recognition result of characters, character string frames, frames, and the like fluctuates due to the influence of the inclination, enlargement, reduction, etc., so that format recognition cannot be performed with high accuracy.

また、特許文献2の技術では、上記傾斜,拡大,縮小等の影響によって英文文書における単語の重心、黒画素の連結成分の重心、漢字の閉鎖空間、画像中に繰り返し現れる特定部位などの抽出結果が変動するため、文書照合結果の精度が低下してしまう。   Further, in the technique of Patent Document 2, the result of extraction of the centroid of a word in an English document, the centroid of a connected component of black pixels, a closed space of kanji, and a specific portion that repeatedly appears in an image due to the influence of the tilt, enlargement, reduction, etc. As a result, the accuracy of the document collation result decreases.

なお、手書き文字が含まれる画像(例えば所定のフォントで印刷された文書に対して手書きによる書き込みが成された画像など)から特徴点を抽出する場合、手書き文字は画像処理装置に登録されているフォントの形状に対する相違度が高く、もともと誤判定が生じやすい性質を有していることに加えて、上記特許文献1,2の技術では上記傾斜,拡大,縮小等によって判定精度が低下するので、特に誤判定が生じやすくなる。   When extracting feature points from an image including handwritten characters (for example, an image written by handwriting on a document printed with a predetermined font), the handwritten characters are registered in the image processing apparatus. Since the degree of difference with respect to the shape of the font is high and inherently prone to misjudgment, the techniques described in Patent Documents 1 and 2 reduce the accuracy of judgment due to the tilt, enlargement, reduction, etc. In particular, erroneous determination is likely to occur.

また、上記特許文献2の技術では、特徴点を抽出する際、画像データの2値化、およびラベリングを行った上で英文文書における単語の重心、黒画素の連結成分の重心、漢字の閉鎖空間、あるいは画像中に繰り返し現れる特定部位の抽出を行う必要があるので、処理が複雑で有り、またこれらの処理を行うための回路規模が大きくなるという問題がある。   Further, in the technique of Patent Document 2, when extracting feature points, binarization and labeling of image data is performed, and then a word centroid in an English document, a centroid of connected components of black pixels, and a closed space for kanji. Alternatively, since it is necessary to extract a specific portion that repeatedly appears in the image, the processing is complicated, and there is a problem that the circuit scale for performing these processing increases.

また、上記特許文献2の技術のように単語の重心や黒画素の連結成分の重心などを特徴点として抽出する場合、例えば、表が大部分を占め、文字が少ない原稿の入力画像データの場合などに、抽出される特徴点の数が少なくなるため、画像データの照合精度が低下してしまうという問題がある。   Also, when extracting the centroid of a word or the centroid of a connected component of black pixels as a feature point as in the technique of Patent Document 2, for example, in the case of input image data of a document that occupies most of the table and has few characters For example, since the number of feature points to be extracted is reduced, there is a problem that the accuracy of collating image data is lowered.

本発明は、上記の問題点に鑑みてなされたものであり、その目的は、画像読取装置の読取位置における所定の配置角度に対して傾斜して配置された状態で読み取られた画像データや、拡大,縮小等の処理が施された画像データから、上記傾斜,拡大,縮小等に関わらず当該画像データを適切に特定することのできる特徴点を抽出することにある。   The present invention has been made in view of the above-mentioned problems, and the object thereof is image data read in a state of being inclined with respect to a predetermined arrangement angle at the reading position of the image reading apparatus, The feature point is to extract feature points that can appropriately specify the image data regardless of the inclination, enlargement, reduction, or the like, from the image data that has been subjected to processing such as enlargement or reduction.

本発明の画像処理装置は、上記の課題を解決するために、入力画像データに含まれる特徴点を検出する特徴点検出部と、上記特徴点検出部が検出した特徴点同士の相対位置に基づいて上記入力画像データの特徴量を算出する特徴量算出部とを備えた画像処理装置であって、上記特徴点検出部は、上記入力画像データから注目画素を含む複数の画素からなる部分画像を抽出する部分画像抽出部と、上記部分画像を所定角度回転させた自己回転画像を生成する回転画像生成部と、上記部分画像と上記自己回転画像とを重ね合わせたときに上記部分画像に含まれる画像パターンと上記自己回転画像に含まれる画像パターンとが一致するか否かを判定する一致度判定部と、上記一致度判定部が一致すると判定した部分画像における注目画素、またはこの注目画素を含む複数の画素からなるブロックを上記特徴点として検出する検出部とを備えていることを特徴としている。   In order to solve the above problems, an image processing apparatus according to the present invention is based on a feature point detection unit that detects a feature point included in input image data and a relative position between the feature points detected by the feature point detection unit. A feature amount calculation unit that calculates a feature amount of the input image data, wherein the feature point detection unit extracts a partial image including a plurality of pixels including a target pixel from the input image data. Included in the partial image when the partial image extracting unit to extract, the rotated image generating unit that generates a self-rotating image obtained by rotating the partial image by a predetermined angle, and the partial image and the self-rotating image are superimposed The coincidence degree determination unit that determines whether or not the image pattern and the image pattern included in the self-rotation image match, and the target pixel in the partial image that is determined to match, The block consisting of a plurality of pixels including a target pixel is characterized by comprising a detection unit for detecting a point above features.

上記の構成によれば、部分画像抽出部が入力画像データから注目画素を含む複数の画素からなる部分画像を抽出し、回転画像生成部が部分画像を所定角度回転させた自己回転画像を生成し、一致度判定部が上記部分画像と上記自己回転画像とを重ね合わせたときに部分画像に含まれる画像パターンと自己回転画像に含まれる画像パターンとが一致するか否かを判定する。すなわち、部分画像に対してこの部分画像を所定角度回転させた状態で重ね合わせたときに、両画像に含まれる画像パターンが一致するか否かを判定する。そして、検出部が、一致度判定部によって一致すると判定された部分画像における注目画素、またはこの注目画素を含む複数の画素からなるブロックを特徴点として検出する。   According to the above configuration, the partial image extraction unit extracts a partial image including a plurality of pixels including the target pixel from the input image data, and the rotation image generation unit generates a self-rotation image obtained by rotating the partial image by a predetermined angle. The coincidence degree determination unit determines whether or not the image pattern included in the partial image matches the image pattern included in the self-rotated image when the partial image and the self-rotated image are superimposed. That is, it is determined whether or not the image patterns included in both images match when the partial images are superimposed on the partial images while being rotated by a predetermined angle. Then, the detection unit detects, as a feature point, a pixel of interest in the partial image determined to be coincident by the coincidence degree determination unit or a block including a plurality of pixels including the pixel of interest.

これにより、入力画像データが、画像読取装置の読取位置における所定の配置角度に対して傾斜して配置された状態で読み取られた画像データである場合や、拡大,縮小等の処理が施された画像データである場合であっても、上記傾斜,拡大,縮小等の影響を受けない画像パターンあるいは上記傾斜,拡大,縮小等の影響が小さい画像パターンを含む部分画像に対応する注目画素あるいはこの注目画素を含むブロックを特徴点として検出することができる。したがって、上記特徴点同士の相対位置に基づいて入力画像データの特徴量を算出することにより、上記傾斜,拡大,縮小等に関わらず入力画像データを精度よく特定することのできる特徴量を算出できる。   As a result, when the input image data is image data read in a state of being inclined with respect to a predetermined arrangement angle at the reading position of the image reading apparatus, or processing such as enlargement or reduction is performed. A pixel of interest corresponding to a partial image including an image pattern that is not affected by the inclination, enlargement, reduction, or the like or an image pattern that is less affected by the inclination, enlargement, reduction, etc. A block including pixels can be detected as a feature point. Therefore, by calculating the feature amount of the input image data based on the relative positions of the feature points, it is possible to calculate a feature amount that can accurately identify the input image data regardless of the inclination, enlargement, reduction, or the like. .

なお、上記の構成に加えて、登録画像の特徴量を記憶した記憶部および通信可能に接続された外部装置から登録画像の特徴量を取得する登録画像取得部のうちの少なくとも一方と、上記特徴量算出部が算出した入力画像データの特徴量と登録画像の特徴量とを比較して両画像の類似度を算出する類似度算出部とを備えている構成としてもよい。   In addition to the above configuration, at least one of a storage unit that stores the feature amount of the registered image and a registered image acquisition unit that acquires a feature amount of the registered image from a communicably connected external device, and the feature It is good also as a structure provided with the similarity calculation part which compares the feature-value of the input image data which the quantity calculation part calculated with the feature-value of a registration image, and calculates the similarity of both images.

上記の構成によれば、画像読取装置の読取位置における所定の配置角度に対して傾斜して配置された状態で読み取られた画像データである場合や、拡大,縮小等の処理が施された画像データである場合であっても、入力画像と登録画像との類似度を精度よく算出することができる。   According to the above configuration, when the image data is read in a state of being inclined with respect to a predetermined arrangement angle at the reading position of the image reading apparatus, or an image subjected to processing such as enlargement or reduction Even in the case of data, the similarity between the input image and the registered image can be calculated with high accuracy.

また、画像データの特徴量と画像データを識別するための識別情報とを記憶する記憶部と、上記特徴量算出部が上記入力画像データから算出した特徴量と、上記入力画像データを識別するための識別情報とを対応付けて上記記憶部に記憶させる登録処理部とを備えている構成としてもよい。   Further, a storage unit for storing a feature amount of image data and identification information for identifying the image data, a feature amount calculated from the input image data by the feature amount calculation unit, and the input image data are identified. It is good also as a structure provided with the registration process part which matches with this identification information and memorize | stores it in the said memory | storage part.

上記の構成によれば、画像読取装置の読取位置における所定の配置角度に対して傾斜して配置された状態で読み取られた画像データである場合や、拡大,縮小等の処理が施された画像データである場合であっても上記入力画像データを精度よく特定することのできる特徴量を算出し、この特徴量と上記入力画像データとを記憶部に記憶させておくことができる。   According to the above configuration, when the image data is read in a state of being inclined with respect to a predetermined arrangement angle at the reading position of the image reading apparatus, or an image subjected to processing such as enlargement or reduction Even in the case of data, it is possible to calculate a feature amount that can specify the input image data with high accuracy, and store the feature amount and the input image data in the storage unit.

また、上記部分画像に画像パターンが含まれているか否かを判定するパターン検知処理部を備え、上記回転画像生成部は、上記パターン検知処理部において画像パターンが含まれていると判定された部分画像について上記自己回転画像を生成する構成としてもよい。   A pattern detection processing unit configured to determine whether or not the partial image includes an image pattern; and the rotated image generation unit is a portion determined to include the image pattern in the pattern detection processing unit. The self-rotating image may be generated for the image.

上記の構成によれば、パターン検知処理部が各部分画像に画像パターンが含まれているか否かを判定し、回転画像生成部は画像パターンが含まれていると判定された部分画像について自己回転画像を生成する。これにより、画像パターンが含まれていない部分画像については自己回転画像の生成処理および一致度判定処理を省略することができるので、処理の簡略化を図ることができる。   According to the above configuration, the pattern detection processing unit determines whether or not each partial image includes an image pattern, and the rotated image generation unit self-rotates the partial image that is determined to include the image pattern. Generate an image. As a result, the self-rotated image generation process and the coincidence determination process can be omitted for partial images that do not include an image pattern, so that the process can be simplified.

また、上記回転画像生成部は、各部分画像について回転角度の異なる複数の自己回転画像を生成し、上記一致度判定部は、上記部分画像とこの部分画像を回転させて得られる各自己回転画像とが一致するか否かをそれぞれ判定し、上記検出部は、上記部分画像が少なくとも1つの自己回転画像と一致する場合に、この部分画像における注目画素、またはこの注目画素を含む複数の画素からなるブロックを上記特徴点として検出する構成としてもよい。   Further, the rotated image generation unit generates a plurality of self-rotated images having different rotation angles for each partial image, and the coincidence degree determination unit is configured to rotate each of the partial images and the partial images. And when the partial image matches at least one self-rotating image, the detection unit determines from the target pixel in the partial image or a plurality of pixels including the target pixel. A block may be detected as the feature point.

上記の構成によれば、各部分画像について自己回転画像を1つのみ生成する場合に比べて、より多くの特徴点を抽出することができる。また、少なくとも部分画像の抽出処理および一致度判定処理については各自己回転画像について共通のアルゴリズムあるいは処理回路で処理することができるので、アルゴリズムの複雑化や処理回路の回路規模の増大を伴うことなく、より多くの特徴点を抽出することができる。   According to said structure, compared with the case where only one self-rotation image is produced | generated about each partial image, more feature points can be extracted. In addition, at least the partial image extraction process and the matching degree determination process can be processed for each self-rotated image by a common algorithm or processing circuit, so that the algorithm is not complicated and the circuit scale of the processing circuit is not increased. More feature points can be extracted.

また、上記部分画像抽出部は、部分画像の抽出対象領域のサイズを異ならせることにより、複数種類の部分画像を抽出する構成としてもよい。   The partial image extraction unit may be configured to extract a plurality of types of partial images by changing the size of the extraction target area of the partial image.

部分画像の抽出対象領域のサイズが異なれば、部分画像の抽出結果も異なる。したがって、上記の構成によれば、部分画像の抽出対象領域のサイズが異なる複数種類の部分画像を抽出することで、抽出される特徴点の数を増加させることができる。これにより、より多くの特徴点に基づいて入力画像と登録画像との類似性を判定するこので、類似性判定の精度をさらに高めることができる。   If the size of the extraction target area of the partial image is different, the extraction result of the partial image is also different. Therefore, according to said structure, the number of the feature points extracted can be increased by extracting the multiple types of partial image from which the size of the extraction object area | region of a partial image differs. Thereby, since the similarity between the input image and the registered image is determined based on more feature points, the accuracy of the similarity determination can be further increased.

また、上記部分画像抽出部は、部分画像の抽出対象領域のサイズを第1サイズに設定して部分画像の抽出を行う第1抽出処理と、部分画像の抽出対象領域のサイズを上記第1サイズよりも大きい第2サイズに設定して部分画像の抽出を行う第2処理とを行い、上記第2処理を行う際、注目画素を中心とする第2サイズの抽出対象領域からこの注目画素を中心とする第1サイズの抽出対象領域を除外して部分画像の抽出を行う構成としてもよい。   The partial image extraction unit sets the size of the extraction target area of the partial image to the first size and extracts the partial image, and sets the size of the extraction target area of the partial image to the first size. A second process for extracting a partial image with a second size larger than the second size, and when performing the second process, the target pixel is centered from the second size extraction target area centered on the target pixel. It is good also as a structure which excludes the extraction object area | region of the 1st size to perform partial image extraction.

上記の構成によれば、抽出される特徴点の数をさらに増やすことができ、類似性判定の精度をさらに高めることができる。   According to said structure, the number of the feature points extracted can be increased further, and the precision of similarity determination can be raised further.

同じ入力画像データであっても異なる色成分に着目すれば部分画像の抽出結果も異なる。したがって、上記の構成によれば、複数の色成分について色成分毎に部分画像の抽出を行うことで、抽出される特徴点の数を増加させることができる。これにより、より多くの特徴点に基づいて入力画像と登録画像との類似性を判定するこので、類似性判定の精度をさらに高めることができる。   Even if it is the same input image data, if attention is paid to different color components, the extraction results of the partial images are different. Therefore, according to said structure, the number of the feature points extracted can be increased by extracting a partial image for every color component about a several color component. Thereby, since the similarity between the input image and the registered image is determined based on more feature points, the accuracy of the similarity determination can be further increased.

また、入力画像データに対して平滑化処理を施す平滑化処理部を備え、上記特徴点検出部は、上記平滑化処理が施された入力画像データに基づいて上記特徴点を検出する構成としてもよい。   The image processing apparatus may further include a smoothing processing unit that performs a smoothing process on the input image data, and the feature point detection unit may detect the feature point based on the input image data that has been subjected to the smoothing process. Good.

上記の構成によれば、平滑化処理が施された入力画像データに基づいて特徴点を検出することにより、網点やノイズ成分の影響によって不適切な特徴量が抽出されることを防止できる。   According to the above configuration, by detecting feature points based on input image data that has been subjected to smoothing processing, it is possible to prevent inappropriate feature amounts from being extracted due to the influence of halftone dots and noise components.

本発明の画像形成装置は、上記したいずれかの画像処理装置と、入力画像データに応じた画像を記録材上に形成する画像出力部とを備えている。また、本発明の画像送信装置は、上記したいずれかの画像処理装置と、入力画像データを通信可能に接続された他の装置に送信する送信装置とを備えている。また、本発明の画像読取装置は、原稿画像を読み取って入力画像データを取得するスキャナ装置と、上記したいずれかの画像処理装置とを備えている。   An image forming apparatus of the present invention includes any one of the above-described image processing apparatuses and an image output unit that forms an image corresponding to input image data on a recording material. An image transmission apparatus according to the present invention includes any one of the above-described image processing apparatuses and a transmission apparatus that transmits input image data to another apparatus that is communicably connected. The image reading apparatus of the present invention includes a scanner device that reads an original image and acquires input image data, and any one of the image processing devices described above.

上記の画像形成装置、画像送信装置、画像読取装置によれば、入力画像データが、画像読取装置の読取位置における所定の配置角度に対して傾斜して配置された状態で読み取られた画像データである場合や、拡大,縮小等の処理が施された画像データである場合であっても、上記傾斜,拡大,縮小等に関わらず入力画像データを精度よく特定することのできる特徴量を算出できる。   According to the image forming apparatus, the image transmitting apparatus, and the image reading apparatus, the input image data is image data that is read in a state where the input image data is inclined with respect to a predetermined arrangement angle at the reading position of the image reading apparatus. In some cases or even when the image data has been subjected to processing such as enlargement or reduction, it is possible to calculate a feature quantity that can accurately identify input image data regardless of the above-described inclination, enlargement, reduction, etc. .

本発明の画像処理システムは、上記の課題を解決するために、画像処理装置と、この画像処理装置に対して通信可能に接続されたサーバー装置とを備え、入力画像データに含まれる特徴点を検出する特徴点検出部と、上記特徴点検出部が検出した特徴点同士の相対位置に基づいて上記入力画像データの特徴量を算出する特徴量算出部とが上記画像処理装置または上記サーバー装置に備えられるか、あるいは上記画像処理装置と上記サーバー装置とに分散して備えられている画像処理システムであって、上記特徴点検出部は、上記入力画像データから注目画素を含む複数の画素からなる部分画像を抽出する部分画像抽出部と、上記部分画像を所定角度回転させた自己回転画像を生成する回転画像生成部と、上記部分画像と上記自己回転画像とを重ね合わせたときに上記部分画像に含まれる画像パターンと上記自己回転画像に含まれる画像パターンとが一致するか否かを判定する一致度判定部と、上記一致度判定部が一致すると判定した部分画像における注目画素、またはこの注目画素を含む複数の画素からなるブロックを上記特徴点として検出する検出部とを備えていることを特徴としている。   In order to solve the above-described problems, an image processing system of the present invention includes an image processing device and a server device connected to the image processing device so as to communicate with each other. A feature point detection unit to detect and a feature amount calculation unit to calculate a feature amount of the input image data based on the relative positions of the feature points detected by the feature point detection unit are included in the image processing apparatus or the server apparatus. An image processing system provided in a distributed manner in the image processing apparatus and the server apparatus, wherein the feature point detection unit includes a plurality of pixels including a target pixel from the input image data. A partial image extracting unit that extracts a partial image, a rotated image generating unit that generates a self-rotating image obtained by rotating the partial image by a predetermined angle, and the partial image and the self-rotating image. A portion that is determined to match between the matching degree determination unit that determines whether or not the image pattern included in the partial image matches the image pattern included in the self-rotating image, and the matching degree determination unit And a detection unit that detects a target pixel in the image or a block including a plurality of pixels including the target pixel as the feature point.

上記の構成によれば、部分画像抽出部が入力画像データから注目画素を含む複数の画素からなる部分画像を抽出し、回転画像生成部が部分画像を回転させた自己回転画像を生成し、一致度判定部が部分画像に含まれる画像パターンと自己回転画像に含まれる画像パターンとが一致するか否かを判定する。そして、検出部が、一致度判定部によって一致すると判定された部分画像における注目画素、またはこの注目画素を含む複数の画素からなるブロックを特徴点として検出する。   According to the above configuration, the partial image extraction unit extracts a partial image including a plurality of pixels including the target pixel from the input image data, and the rotation image generation unit generates a self-rotation image obtained by rotating the partial image, and matches The degree determination unit determines whether or not the image pattern included in the partial image matches the image pattern included in the self-rotating image. Then, the detection unit detects, as a feature point, a pixel of interest in the partial image determined to be coincident by the coincidence degree determination unit or a block including a plurality of pixels including the pixel of interest.

これにより、入力画像データが、画像読取装置の読取位置における所定の配置角度に対して傾斜して配置された状態で読み取られた画像データである場合や、拡大,縮小等の処理が施された画像データである場合であっても、上記傾斜,拡大,縮小等の影響を受けない画像パターンあるいは上記傾斜,拡大,縮小等の影響が小さい画像パターンを含む部分画像に対応する注目画素あるいはこの注目画素を含むブロックを特徴点として検出することができる。したがって、上記特徴点同士の相対位置に基づいて入力画像データの特徴量を算出することにより、上記傾斜,拡大,縮小等に関わらず入力画像データを精度よく特定することのできる特徴量を算出できる。   As a result, when the input image data is image data read in a state of being inclined with respect to a predetermined arrangement angle at the reading position of the image reading apparatus, or processing such as enlargement or reduction is performed. A pixel of interest corresponding to a partial image including an image pattern that is not affected by the inclination, enlargement, reduction, or the like or an image pattern that is less affected by the inclination, enlargement, reduction, etc. A block including pixels can be detected as a feature point. Therefore, by calculating the feature amount of the input image data based on the relative positions of the feature points, it is possible to calculate a feature amount that can accurately identify the input image data regardless of the inclination, enlargement, reduction, or the like. .

本発明の画像処理方法は、上記の課題を解決するために、入力画像データに含まれる特徴点を検出する特徴点検出工程と、上記特徴点検出工程で検出した特徴点同士の相対位置に基づいて上記入力画像データの特徴量を算出する特徴量算出工程とを含む画像処理方法であって、上記特徴点検出工程は、上記入力画像データから注目画素を含む複数の画素からなる部分画像を抽出する部分画像抽出工程と、上記部分画像を所定角度回転させた自己回転画像を生成する回転画像生成工程と、上記部分画像と上記自己回転画像とを重ね合わせたときに上記部分画像に含まれる画像パターンと上記自己回転画像に含まれる画像パターンとが一致するか否かを判定する一致度判定工程と、上記一致度判定工程において一致すると判定された部分画像における注目画素、またはこの注目画素を含む複数の画素からなるブロックを上記特徴点として検出する検出工程とを含むことを特徴としている。   In order to solve the above problems, an image processing method of the present invention is based on a feature point detection step for detecting feature points included in input image data and a relative position between the feature points detected in the feature point detection step. A feature amount calculation step of calculating a feature amount of the input image data, wherein the feature point detection step extracts a partial image including a plurality of pixels including a target pixel from the input image data. An image included in the partial image when the partial image is extracted, a rotated image generating step of generating a self-rotated image obtained by rotating the partial image by a predetermined angle, and the partial image and the self-rotated image A matching degree determining step for determining whether or not a pattern and an image pattern included in the self-rotating image match, and a partial image determined to match in the matching degree determining step. That is the pixel of interest, or a block consisting of a plurality of pixels including the pixel of interest characterized in that it comprises a detection step of detecting a point above features.

上記の方法によれば、部分画像抽出工程で入力画像データから注目画素を含む複数の画素からなる部分画像を抽出し、回転画像生成工程で部分画像を回転させた自己回転画像を生成し、一致度判定工程で部分画像に含まれる画像パターンと自己回転画像に含まれる画像パターンとが一致するか否かを判定する。そして、検出工程において、一致度判定工程で一致すると判定された部分画像における注目画素、またはこの注目画素を含む複数の画素からなるブロックを特徴点として検出する。   According to the above method, a partial image consisting of a plurality of pixels including the target pixel is extracted from the input image data in the partial image extraction step, and a self-rotation image obtained by rotating the partial image in the rotation image generation step is generated and matched. In the degree determination step, it is determined whether or not the image pattern included in the partial image matches the image pattern included in the self-rotating image. Then, in the detection step, the pixel of interest in the partial image determined to match in the coincidence degree determination step or a block composed of a plurality of pixels including the pixel of interest is detected as a feature point.

これにより、入力画像データが、画像読取装置の読取位置における所定の配置角度に対して傾斜して配置された状態で読み取られた画像データである場合や、拡大,縮小等の処理が施された画像データである場合であっても、上記傾斜,拡大,縮小等の影響を受けない画像パターンあるいは上記傾斜,拡大,縮小等の影響が小さい画像パターンを含む部分画像に対応する注目画素あるいはこの注目画素を含むブロックを特徴点として検出することができる。したがって、上記特徴点同士の相対位置に基づいて入力画像データの特徴量を算出することにより、上記傾斜,拡大,縮小等に関わらず入力画像データを精度よく特定することのできる特徴量を算出できる。   As a result, when the input image data is image data read in a state of being inclined with respect to a predetermined arrangement angle at the reading position of the image reading apparatus, or processing such as enlargement or reduction is performed. A pixel of interest corresponding to a partial image including an image pattern that is not affected by the inclination, enlargement, reduction, or the like or an image pattern that is less affected by the inclination, enlargement, reduction, etc. A block including pixels can be detected as a feature point. Therefore, by calculating the feature amount of the input image data based on the relative positions of the feature points, it is possible to calculate a feature amount that can accurately identify the input image data regardless of the inclination, enlargement, reduction, or the like. .

なお、上記画像処理装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記各部として動作させることにより、上記画像処理装置をコンピュータにて実現させる画像処理プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に含まれる。   The image processing apparatus may be realized by a computer. In this case, an image processing program for causing the image processing apparatus to be realized by the computer by causing the computer to operate as the respective units, and the program are recorded. Computer-readable recording media are also included in the scope of the present invention.

本発明の画像処理装置および画像処理システムは、入力画像データから注目画素を含む複数の画素からなる部分画像を抽出する部分画像抽出部と、部分画像を所定角度回転させた自己回転画像を生成する回転画像生成部と、上記部分画像と上記自己回転画像とを重ね合わせたときに部分画像に含まれる画像パターンと自己回転画像に含まれる画像パターンとが一致するか否かを判定する一致度判定部と、一致度判定部が一致すると判定した部分画像における注目画素、またはこの注目画素を含む複数の画素からなるブロックを特徴点として検出する検出部とを備えている。   An image processing apparatus and an image processing system according to the present invention generate a partial image extraction unit that extracts a partial image including a plurality of pixels including a target pixel from input image data, and a self-rotated image obtained by rotating the partial image by a predetermined angle. The degree of coincidence determination that determines whether or not the image pattern included in the partial image and the image pattern included in the self-rotating image match when the rotated image generation unit and the partial image and the self-rotating image overlap each other And a detection unit that detects, as a feature point, a pixel of interest in a partial image that is determined to be coincident by the coincidence degree determination unit or a block that includes a plurality of pixels including the pixel of interest.

また、本発明の画像処理方法は、入力画像データから注目画素を含む複数の画素からなる部分画像を抽出する部分画像抽出工程と、部分画像を所定角度回転させた自己回転画像を生成する回転画像生成工程と、上記部分画像と上記自己回転画像とを重ね合わせたときに部分画像に含まれる画像パターンと自己回転画像に含まれる画像パターンとが一致するか否かを判定する一致度判定工程と、一致度判定工程において一致すると判定された部分画像における注目画素、またはこの注目画素を含む複数の画素からなるブロックを特徴点として検出する検出工程とを含んでいる。   Further, the image processing method of the present invention includes a partial image extraction step for extracting a partial image including a plurality of pixels including a target pixel from input image data, and a rotated image for generating a self-rotated image obtained by rotating the partial image by a predetermined angle. A matching step for determining whether or not the image pattern included in the partial image and the image pattern included in the self-rotating image match when the generating step and the partial image and the self-rotating image are overlapped; And a detection step of detecting, as a feature point, a pixel of interest in a partial image determined to be coincident in the coincidence degree determination step, or a block composed of a plurality of pixels including the pixel of interest.

それゆえ、本発明の画像処理装置、画像処理システム、および画像処理方法によれば、入力画像データが、画像読取装置の読取位置における所定の配置角度に対して傾斜して配置された状態で読み取られた画像データである場合や、拡大,縮小等の処理が施された画像データである場合であっても、上記傾斜,拡大,縮小等に関わらず入力画像データを精度よく特定することのできる特徴量を算出できる。   Therefore, according to the image processing device, the image processing system, and the image processing method of the present invention, the input image data is read in a state in which the input image data is arranged at an inclination with respect to a predetermined arrangement angle at the reading position of the image reading device. The input image data can be accurately identified regardless of the above-described inclination, enlargement, reduction, etc., even when the image data is processed or when the image data has been subjected to processing such as enlargement, reduction, etc. A feature amount can be calculated.

〔実施形態1〕
本発明の一実施形態について説明する。なお、本実施形態では、本発明をデジタルカラー複合機(MFP:Multi-Function Printer)に適用する場合の一例について説明する。
Embodiment 1
An embodiment of the present invention will be described. In the present embodiment, an example in the case where the present invention is applied to a digital color multifunction peripheral (MFP) will be described.

(1−1. デジタルカラー複合機1の構成)
図2は、本実施形態にかかるデジタルカラー複合機(画像処理装置、画像形成装置、画像読取装置)1の概略構成を示すブロック図である。このデジタルカラー複合機1は、コピー機能、プリンタ機能、ファクシミリ送信機能、スキャナ機能、scan to e-mail機能等を有している。
(1-1. Configuration of Digital Color Multifunction Machine 1)
FIG. 2 is a block diagram showing a schematic configuration of a digital color multifunction peripheral (image processing apparatus, image forming apparatus, image reading apparatus) 1 according to the present embodiment. The digital color multifunction peripheral 1 has a copy function, a printer function, a facsimile transmission function, a scanner function, a scan to e-mail function, and the like.

図2に示すように、デジタルカラー複合機1は、カラー画像入力装置2、カラー画像処理装置3、カラー画像出力装置4、通信装置5、操作パネル6を備えている。   As shown in FIG. 2, the digital color MFP 1 includes a color image input device 2, a color image processing device 3, a color image output device 4, a communication device 5, and an operation panel 6.

カラー画像入力装置(画像読取装置)2は、例えばCCD(Charge Coupled Device )などの光学情報を電気信号に変換するデバイスを備えたスキャナ部(図示せず)より構成され、原稿からの反射光像を、RGB(R:赤・G:緑・B:青)のアナログ信号としてカラー画像処理装置3に出力する。   The color image input device (image reading device) 2 is composed of a scanner unit (not shown) having a device that converts optical information into an electrical signal, such as a CCD (Charge Coupled Device), for example, and a reflected light image from a document. Are output to the color image processing apparatus 3 as analog signals of RGB (R: red, G: green, B: blue).

カラー画像処理装置3は、A/D変換部11、シェーディング補正部12、文書照合処理部13、入力階調補正部14、領域分離処理部15、色補正部16、黒生成下色除去部17、空間フィルタ処理部18、出力階調補正部19、および階調再現処理部20を備えている。カラー画像入力装置2からカラー画像処理装置3に出力されたアナログ信号は、カラー画像処理装置3内を、A/D変換部11、シェーディング補正部12、文書照合処理部13、入力階調補正部14、領域分離処理部15、色補正部16、黒生成下色除去部17、空間フィルタ処理部18、出力階調補正部19、階調再現処理部20の順で送られ、CMYKのデジタルカラー信号としてカラー画像出力装置4に出力される。   The color image processing apparatus 3 includes an A / D conversion unit 11, a shading correction unit 12, a document matching processing unit 13, an input tone correction unit 14, a region separation processing unit 15, a color correction unit 16, and a black generation and under color removal unit 17. A spatial filter processing unit 18, an output tone correction unit 19, and a tone reproduction processing unit 20. An analog signal output from the color image input device 2 to the color image processing device 3 is converted into an A / D conversion unit 11, a shading correction unit 12, a document matching processing unit 13, and an input tone correction unit in the color image processing device 3. 14, the region separation processing unit 15, the color correction unit 16, the black generation and under color removal unit 17, the spatial filter processing unit 18, the output gradation correction unit 19, and the gradation reproduction processing unit 20 are sent in this order, and CMYK digital color The signal is output to the color image output device 4 as a signal.

A/D(アナログ/デジタル)変換部11は、RGBのアナログ信号をデジタル信号に変換するものである。   The A / D (analog / digital) converter 11 converts RGB analog signals into digital signals.

シェーディング補正部12は、A/D変換部11より送られてきたデジタルのRGB信号に対して、カラー画像入力装置2の照明系、結像系、撮像系で生じる各種の歪みを取り除く処理を施すものである。また、シェーディング補正部12は、カラーバランスの調整、および濃度信号などカラー画像処理装置3に採用されている画像処理システムの扱い易い信号に変換する処理を施す。   The shading correction unit 12 performs a process for removing various distortions generated in the illumination system, the imaging system, and the imaging system of the color image input apparatus 2 on the digital RGB signal sent from the A / D conversion unit 11. Is. Further, the shading correction unit 12 performs a process of converting color balance adjustment and a signal such as a density signal that can be easily handled by the image processing system employed in the color image processing apparatus 3.

文書照合処理部13は、入力された画像データから特徴点を抽出し、抽出した特徴点に基づいて特徴量を算出する。また、文書照合処理部13は、上記のように算出した特徴量を画像データと対応付けて後述するハッシュテーブルに記憶(登録)させる。また、文書照合処理部13は、入力画像データから上記のように算出した特徴量をハッシュテーブルに記憶されている登録画像の特徴量と比較することで入力画像と登録画像との類似性を判定する。また、文書照合処理部13は入力されたRGB信号をそのまま後段の入力階調補正部14へ出力する。なお、文書照合処理部13の詳細については後述する。   The document matching processing unit 13 extracts feature points from the input image data, and calculates feature amounts based on the extracted feature points. Further, the document matching processing unit 13 stores (registers) the feature amount calculated as described above in association with image data in a hash table described later. In addition, the document matching processing unit 13 determines the similarity between the input image and the registered image by comparing the feature amount calculated as described above from the input image data with the feature amount of the registered image stored in the hash table. To do. Further, the document matching processing unit 13 outputs the input RGB signal as it is to the input tone correction unit 14 at the subsequent stage. Details of the document collation processing unit 13 will be described later.

入力階調補正部14は、シェーディング補正部にて各種の歪みが取り除かれたRGB信号に対して、下地色(下地色の濃度成分:下地濃度)の除去やコントラストなどの画質調整処理を施す。   The input tone correction unit 14 performs image quality adjustment processing such as removal of background color (background color density component: background density) and contrast on the RGB signal from which various distortions have been removed by the shading correction unit.

領域分離処理部15は、RGB信号より、入力画像中の各画素を文字領域、網点領域、写真領域のいずれかに分離するものである。領域分離処理部15は、分離結果に基づき、画素がどの領域に属しているかを示す領域識別信号を、色補正部16、黒生成下色除去部17、空間フィルタ処理部18、および階調再現処理部20へと出力するとともに、入力階調補正部14より出力された入力信号をそのまま後段の色補正部16に出力する。   The region separation processing unit 15 separates each pixel in the input image into one of a character region, a halftone dot region, and a photo region from the RGB signal. Based on the separation result, the region separation processing unit 15 generates a region identification signal indicating which region the pixel belongs to, the color correction unit 16, the black generation and under color removal unit 17, the spatial filter processing unit 18, and the gradation reproduction. The output signal is output to the processing unit 20, and the input signal output from the input tone correction unit 14 is output to the subsequent color correction unit 16 as it is.

色補正部16は、色再現の忠実化実現のために、不要吸収成分を含むCMY(C:シアン・M:マゼンタ・Y:イエロー)色材の分光特性に基づいた色濁りを取り除く処理を行うものである。   The color correction unit 16 performs a process of removing color turbidity based on spectral characteristics of CMY (C: cyan, M: magenta, Y: yellow) color materials including unnecessary absorption components in order to realize faithful color reproduction. Is.

黒生成下色除去部17は、色補正後のCMYの3色信号から黒(K)信号を生成する黒生成、元のCMY信号から黒生成で得たK信号を差し引いて新たなCMY信号を生成する処理を行うものである。これにより、CMYの3色信号はCMYKの4色信号に変換される。   The black generation and under color removal unit 17 generates black (K) signals from the CMY three-color signals after color correction, and subtracts the K signals obtained by black generation from the original CMY signals to generate new CMY signals. The process to generate is performed. As a result, the CMY three-color signal is converted into a CMYK four-color signal.

空間フィルタ処理部18は、黒生成下色除去部17より入力されるCMYK信号の画像データに対して、領域識別信号を基にデジタルフィルタによる空間フィルタ処理を行い、空間周波数特性を補正する。これにより、出力画像のぼやけや粒状性劣化を軽減することができる。階調再現処理部20も、空間フィルタ処理部18と同様、CMYK信号の画像データに対して領域識別信号を基に所定の処理を施すものである。   The spatial filter processing unit 18 performs spatial filter processing using a digital filter on the image data of the CMYK signal input from the black generation and under color removal unit 17 to correct the spatial frequency characteristics. As a result, blurring of the output image and deterioration of graininess can be reduced. Similar to the spatial filter processing unit 18, the gradation reproduction processing unit 20 also performs predetermined processing on the image data of the CMYK signal based on the region identification signal.

例えば、領域分離処理部15にて文字に分離された領域は、特に黒文字あるいは色文字の再現性を高めるために、空間フィルタ処理部18による空間フィルタ処理における鮮鋭強調処理で高周波数の強調量が大きくされる。同時に、階調再現処理部20においては、高域周波数の再現に適した高解像度のスクリーンでの二値化または多値化処理が選択される。   For example, the region separated into characters by the region separation processing unit 15 has a high frequency enhancement amount in the sharp enhancement processing in the spatial filter processing by the spatial filter processing unit 18 in order to improve the reproducibility of black characters or color characters. Increased. At the same time, the tone reproduction processing unit 20 selects binarization or multi-value processing on a high-resolution screen suitable for high-frequency reproduction.

また、領域分離処理部15にて網点領域に分離された領域に関しては、空間フィルタ処理部18において、入力網点成分を除去するためのローパス・フィルタ処理が施される。そして、出力階調補正部19では、濃度信号などの信号をカラー画像出力装置4の特性値である網点面積率に変換する出力階調補正処理を行った後、階調再現処理部20で、最終的に画像を画素に分離してそれぞれの階調を再現できるように処理する階調再現処理(中間調生成)が施される。領域分離処理部15にて写真に分離された領域に関しては、階調再現性を重視したスクリーンでの二値化または多値化処理が行われる。   Further, with respect to the region separated into halftone dot regions by the region separation processing unit 15, the spatial filter processing unit 18 performs low-pass filter processing for removing the input halftone component. The output tone correction unit 19 performs an output tone correction process for converting a signal such as a density signal into a halftone dot area ratio that is a characteristic value of the color image output device 4. Then, gradation reproduction processing (halftone generation) is performed so that the image is finally separated into pixels and each gradation is reproduced. For the region separated into photographs by the region separation processing unit 15, binarization or multi-value processing is performed on the screen with an emphasis on gradation reproducibility.

上述した各処理が施された画像データは、いったん記憶装置(図示せず)に記憶され、所定のタイミングで読み出されてカラー画像出力装置4に入力される。   The image data subjected to the above-described processes is temporarily stored in a storage device (not shown), read out at a predetermined timing, and input to the color image output device 4.

カラー画像出力装置4は、カラー画像処理装置3から入力された画像データを記録材(例えば紙等)上に出力するものである。カラー画像出力装置4の構成は特に限定されるものではなく、例えば、電子写真方式やインクジェット方式を用いたカラー画像出力装置を用いることができる。   The color image output device 4 outputs the image data input from the color image processing device 3 onto a recording material (for example, paper). The configuration of the color image output device 4 is not particularly limited, and for example, a color image output device using an electrophotographic method or an inkjet method can be used.

通信装置5は、例えばモデムやネットワークカードより構成される。通信装置5は、ネットワークカード、LANケーブル等を介して、ネットワークに接続された他の装置(例えば、パーソナルコンピュータ、サーバー装置、他のデジタル複合機、ファクシミリ装置等)とデータ通信を行う。   The communication device 5 is composed of a modem or a network card, for example. The communication device 5 performs data communication with other devices (for example, personal computers, server devices, other digital multifunction peripherals, facsimile devices, etc.) connected to the network via a network card, a LAN cable, or the like.

なお、通信装置5は、画像データを送信する場合、相手先との送信手続きを行って送信可能な状態が確保されると、所定の形式で圧縮された画像データ(スキャナで読み込まれた画像データ)をメモリから読み出し、圧縮形式の変更など必要な処理を施して、通信回線を介して相手先に順次送信する。   When the image data is transmitted, the communication device 5 performs the transmission procedure with the other party and secures a state in which the image data can be transmitted. Then, the communication device 5 compresses the image data (image data read by the scanner) in a predetermined format. ) Is read from the memory, and necessary processing such as changing the compression format is performed, and then sequentially transmitted to the other party via the communication line.

また、通信装置5は、画像データを受信する場合、通信手続きを行うとともに、相手先から送信されてくる画像データを受信してカラー画像処理装置3に入力する。受信した画像データは、カラー画像処理装置3で伸張処理、回転処理、解像度変換処理、出力階調補正、階調再現処理などの所定の処理が施され、カラー画像出力装置4によって出力される。なお、受信した画像データを記憶装置(図示せず)に保存し、カラー画像処理装置3が必要に応じて読み出して上記所定の処理を施すようにしてもよい。   Further, when receiving the image data, the communication device 5 performs a communication procedure and receives the image data transmitted from the other party and inputs it to the color image processing device 3. The received image data is subjected to predetermined processing such as expansion processing, rotation processing, resolution conversion processing, output gradation correction, gradation reproduction processing, and the like by the color image processing apparatus 3 and is output by the color image output apparatus 4. The received image data may be stored in a storage device (not shown), and the color image processing device 3 may read it out as necessary to perform the predetermined processing.

操作パネル6は、例えば、液晶ディスプレイなどの表示部と設定ボタンなどより構成され(いずれも図示せず)、デジタルカラー複合機1の主制御部(図示せず)の指示に応じた情報を上記表示部に表示するとともに、上記設定ボタンを介してユーザから入力される情報を上記主制御部に伝達する。ユーザは、操作パネル6を介して入力画像データに対する処理要求(例えば処理モード(複写、印刷、送信、編集など)、処理枚数(複写枚数、印刷枚数)、入力画像データの送信先など)を入力することができる。上記主制御部は、例えばCPU(Central Processing Unit)等からなり、図示しないROM等に格納されたプログラムや各種データ、操作パネル6から入力される情報等に基づいて、デジタルカラー複合機1の各部の動作を制御する。   The operation panel 6 includes, for example, a display unit such as a liquid crystal display and setting buttons (none of which are shown), and information corresponding to an instruction from a main control unit (not shown) of the digital color multifunction peripheral 1 is described above. While displaying on a display part, the information input from a user via the said setting button is transmitted to the said main control part. The user inputs a processing request (for example, processing mode (copying, printing, transmission, editing, etc.), number of copies (number of copies, number of copies), destination of input image data, etc.) for the input image data via the operation panel 6. can do. The main control unit includes, for example, a CPU (Central Processing Unit) and the like, and is based on programs and various data stored in a ROM (not shown) and the like, information input from the operation panel 6, and the like. To control the operation.

(1−2. 文書照合処理部13の構成)
次に、文書照合処理部13の詳細について説明する。本実施形態にかかる文書照合処理部13は、入力画像データから複数の特徴点を抽出し、抽出した各特徴点に対して局所的な特徴点の集合を決定し、決定した各集合から特徴点の部分集合を選択し、選択した各部分集合を特徴付ける量として、部分集合中の特徴点に関する複数の組み合わせに基づいて、幾何学的変換に対する不変量をそれぞれ求め、求めた各不変量を組み合わせてハッシュ値(特徴量)を算出する。また、計算したハッシュ値に対応する登録画像に投票することにより、入力画像データに類似する登録画像の検索、当該登録画像に対する類似性の判定処理(類似あり/類似なしの判定)を行う。また、計算したハッシュ値と、このハッシュ値を抽出した画像とを対応付けてハッシュテーブルに記憶(登録)させる処理を行うこともできる。
(1-2. Configuration of Document Collation Processing Unit 13)
Next, details of the document matching processing unit 13 will be described. The document matching processing unit 13 according to the present embodiment extracts a plurality of feature points from input image data, determines a set of local feature points for each extracted feature point, and features points from the determined sets. As a quantity that characterizes each selected subset, an invariant for geometric transformation is obtained based on a plurality of combinations of feature points in the subset, and the obtained invariants are combined. A hash value (feature value) is calculated. In addition, by voting for a registered image corresponding to the calculated hash value, a registered image similar to the input image data is searched, and similarity determination processing (similarity / non-similarity determination) for the registered image is performed. It is also possible to perform processing for associating the calculated hash value with the image from which the hash value has been extracted and storing (registering) it in the hash table.

図1は、文書照合処理部13の概略構成を示すブロック図である。この図に示すように、文書照合処理部13は、前処理部30、特徴点算出部(特徴点検出部)31、特徴量算出部32、投票処理部33、類似度判定処理部34、登録処理部37、制御部7、メモリ8を備えている。   FIG. 1 is a block diagram illustrating a schematic configuration of the document matching processing unit 13. As shown in this figure, the document collation processing unit 13 includes a preprocessing unit 30, a feature point calculation unit (feature point detection unit) 31, a feature amount calculation unit 32, a voting processing unit 33, a similarity determination processing unit 34, and a registration. A processing unit 37, a control unit 7, and a memory 8 are provided.

制御部7は、文書照合処理部13の各部の動作を制御する。なお、制御部7は、デジタルカラー複合機1の各部の動作を制御するための主制御部に備えられていてもよく、主制御部とは別に備えられ、主制御部と協同して文書照合処理部13の動作を制御するものであってもよい。   The control unit 7 controls the operation of each unit of the document collation processing unit 13. The control unit 7 may be provided in a main control unit for controlling the operation of each unit of the digital color multifunction peripheral 1, and is provided separately from the main control unit. It may control the operation of the processing unit 13.

メモリ8には、登録画像を特定するためのインデックスと、登録画像から抽出した特徴量とを互いに対応付けて記憶するハッシュテーブル103が備えられている。また、メモリ8には、ハッシュテーブル103の他、文書照合処理部13の各部の処理に用いられる各種データ、処理結果等を記憶する記憶部(図示せず)を備えている。なお、ハッシュテーブル103の詳細については後述する。   The memory 8 includes a hash table 103 that stores an index for specifying a registered image and a feature amount extracted from the registered image in association with each other. In addition to the hash table 103, the memory 8 includes a storage unit (not shown) that stores various data used for processing of each unit of the document collation processing unit 13, processing results, and the like. Details of the hash table 103 will be described later.

図3は、前処理部30の概略構成を示すブロック図である。この図に示すように、前処理部30は、信号変換処理部(無彩化処理部)41、解像度変換部42、MTF処理部43を備えている。   FIG. 3 is a block diagram illustrating a schematic configuration of the preprocessing unit 30. As shown in this figure, the pre-processing unit 30 includes a signal conversion processing unit (achromatic processing unit) 41, a resolution conversion unit 42, and an MTF processing unit 43.

信号変換処理部41は、シェーディング補正部12から入力された画像データ(RGB信号)がカラー画像であった場合にこの画像データを無彩化して、明度信号もしくは輝度信号に変換するものである。   When the image data (RGB signal) input from the shading correction unit 12 is a color image, the signal conversion processing unit 41 achromatizes the image data and converts it into a lightness signal or a luminance signal.

例えば、信号変換処理部41は、下記式によりRGB信号を輝度信号Yに変換する。   For example, the signal conversion processing unit 41 converts the RGB signal into the luminance signal Y by the following equation.

Yi=0.30Ri+0.59Gi+0.11Bi
ここで、Yは各画素の輝度信号であり、R,G,Bは各画素のRGB信号における各色成分であり、添え字のiは画素毎に付与された値(iは1以上の整数)である。
Yi = 0.30Ri + 0.59Gi + 0.11Bi
Here, Y is a luminance signal of each pixel, R, G, and B are each color component in the RGB signal of each pixel, and the subscript i is a value assigned to each pixel (i is an integer of 1 or more). It is.

あるいは、RGB信号をCIE1976L***信号(CIE:Commission International de l'Eclairage、L*:明度、a*,b*:色度)に変換してもよい。 Alternatively, the RGB signal may be converted into a CIE 1976 L * a * b * signal (CIE: Commission International de l'Eclairage, L * : brightness, a * , b * : chromaticity).

解像度変換部42は、入力画像データを変倍処理する。例えば、解像度変換部42は、入力画像データがカラー画像入力装置2で光学的に変倍されている場合に、所定の解像度になるように入力画像データを再度変倍する。また、解像度変換部42が、後段の各処理部における処理量を軽減するために、カラー画像入力装置2で等倍時に読み込まれる解像度よりも解像度を落とすための解像度変換を行うようにしてもよい(例えば、600dpi(dot per inch)で読み込まれた画像データを300dpiに変換するなど)。   The resolution conversion unit 42 performs a scaling process on the input image data. For example, when the input image data is optically scaled by the color image input device 2, the resolution conversion unit 42 scales the input image data again so that the predetermined resolution is obtained. Further, the resolution conversion unit 42 may perform resolution conversion for lowering the resolution than the resolution read at the same magnification in the color image input device 2 in order to reduce the processing amount in each processing unit in the subsequent stage. (For example, image data read at 600 dpi (dot per inch) is converted to 300 dpi).

MTF(modulation transfer function)処理部43は、カラー画像入力装置2の空間周波数特性が機種ごとに異なることを吸収(調整)するために用いられる。CCDの出力する画像信号には、レンズやミラー等の光学部品、CCDの受光面のアパーチャ開口度、転送効率や残像、物理的な走査による積分効果及び走査むら等に起因しMTFの劣化が生じている。このMTFの劣化により、読み込まれた画像がぼやけたものとなっている。MTF処理部43は、適切なフィルタ処理(強調処理)を施すことにより、MTFの劣化により生じるぼやけを修復する処理を行う。また、後述する特徴点抽出処理に不要な高周波成分を抑制するためにも用いる。すなわち、混合フィルタ(図示せず)を用いて強調および平滑化処理を行う。なお、図4は、この混合フィルタにおけるフィルタ係数の一例を示している。   An MTF (modulation transfer function) processing unit 43 is used to absorb (adjust) that the spatial frequency characteristics of the color image input device 2 are different for each model. In the image signal output by the CCD, MTF degradation occurs due to optical parts such as lenses and mirrors, aperture aperture of the light receiving surface of the CCD, transfer efficiency and afterimage, integration effects due to physical scanning, and scanning unevenness. ing. Due to the deterioration of the MTF, the read image is blurred. The MTF processing unit 43 performs a process of repairing the blur caused by the deterioration of the MTF by performing an appropriate filter process (enhancement process). It is also used to suppress high-frequency components that are unnecessary for the feature point extraction process described later. That is, enhancement and smoothing processing is performed using a mixing filter (not shown). FIG. 4 shows an example of the filter coefficient in this mixed filter.

なお、前処理部30の構成は上記した構成に限るものではなく、例えば、上記各処理に加えて、あるいは上記各処理の一部または全部に代えて、エッジ部分を抽出する微分処理や、アンシャープマスクを用いたノイズ軽減処理、取り扱うデータ量を減らすための2値化処理などを行ってもよい。   Note that the configuration of the pre-processing unit 30 is not limited to the above-described configuration. For example, in addition to the above-described processes, or in place of some or all of the above-described processes, a differential process for extracting an edge portion or an Noise reduction processing using a sharp mask, binarization processing for reducing the amount of data to be handled, and the like may be performed.

図5は、特徴点算出部(特徴点検出部)31の概略構成を示すブロック図である。この図に示すように、特徴点算出部31は、パターン検知処理部45、回転画像生成部46、一致度算出部47、一致度判定部48を備えている。   FIG. 5 is a block diagram illustrating a schematic configuration of the feature point calculation unit (feature point detection unit) 31. As shown in this figure, the feature point calculation unit 31 includes a pattern detection processing unit 45, a rotated image generation unit 46, a coincidence degree calculation unit 47, and a coincidence degree determination unit 48.

パターン検知処理部45は、入力画像から注目画素を中心とするM×M画素(Mは3以上の整数)の部分画像を抽出し、部分画像中に有効なパターンが存在するか否かを判定するパターン検知処理を行う。また、パターン検知処理部45は、注目画素を1画素毎に順次ラスター走査することで上記パターン検知処理を各画素について行う。なお、画像の端部において部分画像に含まれる画素数がM×Mに満たない場合には、例えば不足画素分を補うように画像端部を折り返しコピーするなどの処理を行ってもよい。また、ここでは、部分画像のサイズをM×Mとしているが、これに限らず、例えばM×N画素(Nは3以上の整数であり、M≠Nの整数)の部分画像を抽出してもよい。ただし、M×M画素とすることにより、後述する自己回転角度が180°以外の場合であっても判定に用いる画素数と部分画像の画素数とを一致させることができるので、M×M画素とすることがより好ましい。   The pattern detection processing unit 45 extracts a partial image of M × M pixels (M is an integer of 3 or more) centered on the target pixel from the input image, and determines whether or not a valid pattern exists in the partial image. Perform pattern detection processing. The pattern detection processing unit 45 performs the pattern detection processing on each pixel by sequentially raster-scanning the target pixel for each pixel. When the number of pixels included in the partial image is less than M × M at the edge of the image, for example, processing such as folding back the image edge so as to compensate for the insufficient pixels may be performed. Here, the size of the partial image is M × M. However, the present invention is not limited to this. For example, a partial image of M × N pixels (N is an integer of 3 or more and M ≠ N) is extracted. Also good. However, by using M × M pixels, the number of pixels used for the determination and the number of pixels of the partial image can be matched even when the self-rotation angle described later is other than 180 °. More preferably.

ここで、パターン検知処理の詳細について説明する。本実施形態では、パターン検知処理部45は、まず、下記式により算出される画像データの煩雑性を示す分散値busyを算出する。なお、下記式(1)において、Nは部分画像の画素数、Iは各画素の信号値、iは各画素を特定するための値(iは1からNまでの整数)を表している。   Here, details of the pattern detection processing will be described. In the present embodiment, the pattern detection processing unit 45 first calculates a variance value busy indicating the complexity of the image data calculated by the following equation. In the following formula (1), N represents the number of pixels of the partial image, I represents the signal value of each pixel, and i represents a value for identifying each pixel (i is an integer from 1 to N).

Figure 0004362537
Figure 0004362537

そして、パターン検知処理部45は、上記のように算出した分散値busyと予め設定された閾値TH1との大小関係を比較することで、パターンの有無を判定する。例えば、busy≧TH1の場合に有効なパターン有りと判定し、busy<TH1の場合に有効なパターン無しと判定する。なお、閾値TH1は、パターンが適切に抽出されるように適宜設定すればよい。また、ここでは、分散値busyを用いる場合について説明したが、これに限らず、例えば、分散値以外の画像の煩雑性を示す指標を用いて判定してもよい。   Then, the pattern detection processing unit 45 determines the presence / absence of a pattern by comparing the magnitude relationship between the variance value busy calculated as described above and a preset threshold value TH1. For example, it is determined that there is an effective pattern when busy ≧ TH1, and it is determined that there is no effective pattern when busy <TH1. The threshold value TH1 may be set as appropriate so that the pattern is appropriately extracted. Although the case where the variance value busy is used has been described here, the present invention is not limited to this. For example, the determination may be made using an index indicating the complexity of the image other than the variance value.

回転画像生成部46は、パターン検知処理部45においてパターン有りと判定された部分画像を、この部分画像における中心座標(注目画素)を中心として所定角度(所定の自己回転角度)R°回転させた自己回転画像を生成する。   The rotation image generation unit 46 rotates the partial image determined to have a pattern by the pattern detection processing unit 45 by a predetermined angle (predetermined self-rotation angle) R ° around the center coordinate (target pixel) in the partial image. Generate a self-rotating image.

図6は、入力画像および回転画像生成部46によって生成された自己回転画像(90度回転画像、180度回転画像、120℃回転画像)の一例を示す説明図である。   FIG. 6 is an explanatory diagram illustrating an example of an input image and a self-rotation image (a 90-degree rotation image, a 180-degree rotation image, and a 120 ° C. rotation image) generated by the rotation image generation unit 46.

なお、画像を回転させるための手法は特に限定されるものではないが、例えば、回転行列を用いたアフィン変換などを用いることができる。また、90度の回転を行う場合、入力部分画像(I)のC列R行を(I)CRとすると、自己回転画像(90度自己回転画像)を(T)CR=(I)RM−C+1を演算することで生成してもよい。 Note that a method for rotating the image is not particularly limited, and for example, affine transformation using a rotation matrix can be used. Also, in the case of rotating 90 degrees, if the C column R row of the input partial image (I) is (I) CR , the self-rotated image (90-degree self-rotated image) is (T) CR = (I) RM- You may produce | generate by calculating C + 1 .

また、自己回転の前後で縦横の画素数が不一致となる場合(例えば120度回転させる場合)には、部分画像のサイズを、後述する一致度判定処理に用いる画像サイズよりも大きく設定しておき、自己回転後に一致度判定処理に用いる画像サイズになるように再度部分画像の抽出を行うようにしてもよい。   When the number of vertical and horizontal pixels does not match before and after self-rotation (for example, when rotating 120 degrees), the size of the partial image is set larger than the image size used for the matching degree determination process described later. Alternatively, the partial image may be extracted again so that the image size used in the matching degree determination process is obtained after the self-rotation.

例えば、図7(a)に示す破線のように入力画像から抽出する部分画像のサイズをデフォルトの画像サイズ(M×M)とする場合、この部分画像を120度自己回転させると図7(b)に示す破線部分のようになる。その結果、図7(c)に示した実線と破線(あるいは図7(b)に示した太線と破線)を比較すると明らかなように、最終的に切り出される部分画像(一致度判定に用いられる部分画像)において画像を含まない部分が生じる。   For example, when the size of the partial image extracted from the input image is set to the default image size (M × M) as shown by the broken line in FIG. 7A, if this partial image is self-rotated 120 degrees, FIG. ) As indicated by a broken line. As a result, as is clear when comparing the solid line and the broken line shown in FIG. 7C (or the thick line and the broken line shown in FIG. 7B), the partial image that is finally cut out (used to determine the degree of coincidence). In the partial image), a portion not including an image is generated.

これに対して、図7(a)に実線で示したように、入力画像から抽出する部分画像のサイズをデフォルトの画像サイズ(M×M)よりも大きいサイズ(例えばN×N(NはMより大きい整数))とする場合、この部分画像を120度自己回転させると図7(b)に示す実線部分のようになり、そこから一致度判定に用いる部分画像のサイズに応じた領域を切り出すことで、一致度判定に用いるための適切な部分画像を得ることができる。   On the other hand, as shown by a solid line in FIG. 7A, the size of the partial image extracted from the input image is larger than the default image size (M × M) (for example, N × N (N is M When the partial image is self-rotated by 120 degrees, the partial image becomes a solid line portion shown in FIG. 7B, and an area corresponding to the size of the partial image used for determining the degree of coincidence is cut out therefrom. As a result, it is possible to obtain an appropriate partial image for use in the coincidence determination.

一致度算出部47は、入力画像(入力部分画像)と自己回転画像との相関値(正規化相関値;一致度)Sを算出する。   The coincidence calculation unit 47 calculates a correlation value (normalized correlation value; coincidence) S between the input image (input partial image) and the self-rotated image.

ここで、相関値の算出方法および一致度の判定方法についてより具体的に説明する。一般に、N画素からなる2つの画像Input(I)とTarget(T)との相関値Sは、以下の式(2)で表される。なお、式(2)におけるA,B,Cは下記の式(3)〜式(5)で表される値である。   Here, the correlation value calculation method and the degree-of-match determination method will be described more specifically. In general, the correlation value S between two images Input (I) and Target (T) composed of N pixels is expressed by the following equation (2). In addition, A, B, and C in the formula (2) are values represented by the following formulas (3) to (5).

Figure 0004362537
Figure 0004362537

Figure 0004362537
Figure 0004362537

Figure 0004362537
Figure 0004362537

Figure 0004362537
Figure 0004362537

なお、本実施形態の場合、Input(I)とTarget(T)とは自己回転画像なので、B=Cであることは明らかである。したがって、相関値Sは、S=(A/B)×1000を演算すればよく、演算の簡略化を図ることができる。また、上記Bは、上記した分散値busyと同じであるので、算出済みの分散値busyの値を上記Bとして用いればよく、上記Bを再計算する必要はない。   In the present embodiment, Input (I) and Target (T) are self-rotating images, so it is clear that B = C. Therefore, the correlation value S may be calculated as S = (A / B) × 1000, and the calculation can be simplified. Further, since B is the same as the above-described variance value busy, the value of the already calculated variance value busy may be used as the B, and it is not necessary to recalculate B.

一致度判定部(検出部)48は、一致度算出部47が算出した相関値Sと予め設定された閾値TH_estとを比較することで入力画像と自己回転画像とが一致するか否かを判定する。すなわち、入力画像に含まれる部分画像とこの部分画像を所定角度回転させた自己回転画像とを重ね合わせたときに、部分画像に含まれる画像パターンと自己回転画像に含まれる画像パターンとが一致するか否か(重なり合うか否か)を判定する。具体的には、一致度算出部47は、S>TH_estの場合には両画像が一致すると判定し、この部分画像の中心画素(注目画素)を特徴点とする。一方、S≦TH_estの場合には両画像は一致しないと判定する。また、一致度判定部48は特徴点とした画素を示す情報を特徴量算出部32に出力する。あるいは、一致度判定部48は特徴点とした画素を示す情報をメモリ8に記憶させ、特徴量算出部32がメモリ8からこの情報を読み出すようにしてもよい。なお、閾値TH_estは、特徴点が適切に抽出されるように適宜設定しておけばよい。   The coincidence determination unit (detection unit) 48 determines whether or not the input image matches the self-rotation image by comparing the correlation value S calculated by the coincidence calculation unit 47 with a preset threshold TH_est. To do. That is, when the partial image included in the input image and the self-rotated image obtained by rotating the partial image by a predetermined angle are superimposed, the image pattern included in the partial image matches the image pattern included in the self-rotated image. Whether or not (overlapping or not) is determined. Specifically, the coincidence degree calculation unit 47 determines that both images match when S> TH_est, and uses the center pixel (target pixel) of this partial image as a feature point. On the other hand, if S ≦ TH_est, it is determined that the two images do not match. In addition, the coincidence degree determination unit 48 outputs information indicating the pixel as the feature point to the feature amount calculation unit 32. Alternatively, the degree-of-match determination unit 48 may store information indicating the pixel as the feature point in the memory 8, and the feature amount calculation unit 32 may read out this information from the memory 8. Note that the threshold value TH_est may be set as appropriate so that feature points are appropriately extracted.

特徴量算出部32は、特徴点抽出部32a、不変量算出部32b、ハッシュ値算出部32cを備えており、特徴点算出部31で算出された特徴点を用いて、原稿画像の回転、平行移動、拡大、縮小、平行移動等の幾何学的変形に対して不変な量である特徴量(ハッシュ値および/または不変量)を算出する。   The feature amount calculation unit 32 includes a feature point extraction unit 32a, an invariant calculation unit 32b, and a hash value calculation unit 32c. The feature point calculated by the feature point calculation unit 31 is used to rotate and parallelize a document image. A feature amount (hash value and / or invariant) that is an invariable amount with respect to geometric deformation such as movement, enlargement, reduction, and parallel movement is calculated.

特徴点抽出部32aは、図8に示すように、1つの特徴点を注目特徴点とし、この注目特徴点の周辺の特徴点を、注目特徴点からの距離が近いものから順に所定数(ここでは4点)だけ周辺特徴点として抽出する。図8の例では、特徴点aを注目特徴点とした場合には特徴点b,c,d,eの4点が周辺特徴点として抽出され、特徴点bを注目特徴点とした場合には特徴点a,c,e,fの4点が周辺特徴点として抽出される。   As shown in FIG. 8, the feature point extraction unit 32a sets one feature point as a target feature point, and sets a predetermined number of feature points in the vicinity of the target feature point in order from the closest distance from the target feature point (here 4 points) are extracted as peripheral feature points. In the example of FIG. 8, when the feature point a is the target feature point, the four feature points b, c, d, and e are extracted as the peripheral feature points, and when the feature point b is the target feature point, Four points of feature points a, c, e, and f are extracted as peripheral feature points.

また、特徴点抽出部32aは、上記のように抽出した周辺特徴点4点の中から選択しうる3点の組み合わせを抽出する。例えば、図9(a)〜図9(c)に示すように、図8に示した特徴点aを注目特徴点とした場合、周辺特徴点b,c,d,eのうちの3点の組み合わせ、すなわち、周辺特徴点b,c,d、周辺特徴点b,c,e、周辺特徴点b,d,eの各組み合わせが抽出される。   Further, the feature point extraction unit 32a extracts a combination of three points that can be selected from the four peripheral feature points extracted as described above. For example, as shown in FIGS. 9A to 9C, when the feature point a shown in FIG. 8 is the feature point of interest, three of the peripheral feature points b, c, d, and e are selected. Combinations, that is, combinations of peripheral feature points b, c, d, peripheral feature points b, c, e, and peripheral feature points b, d, e are extracted.

次に、不変量算出部32bは、抽出した各組み合わせについて、幾何学的変形に対する不変量(特徴量の1つ)Hijを算出する。ここで、iは注目特徴点を示す数(iは1以上の整数)であり、jは周辺特徴点3点の組み合わせを示す数(jは1以上の整数)である。本実施形態では、周辺特徴点同士を結ぶ線分の長さのうちの2つの比を不変量Hijとする。なお、上記線分の長さは、各周辺特徴点の座標値に基づいて算出すればよい。例えば、図9(a)の例では、特徴点cと特徴点dとを結ぶ線分の長さをA11、特徴点cと特徴点bとを結ぶ線分の長さをB11とすると、不変量H11はH11=A11/B11である。また、図9(b)の例では、特徴点cと特徴点bとを結ぶ線分の長さをA12、特徴点bと特徴点eとを結ぶ線分の長さをB12とすると、不変量H12はH12=A12/B12である。また、図9(c)の例では、特徴点dと特徴点bとを結ぶ線分の長さをA13、特徴点bと特徴点eとを結ぶ線分の長さをB13とすると、不変量H13はH13=A13/B13である。このようにして、図9(a)〜図9(c)の例では、不変量H11,H12,H13が算出される。なお、上記の例では、水平方向左側に位置する周辺特徴点と水平方向中央に位置する周辺特徴点とを結ぶ線分をAij、水平方向中央に位置する周辺特徴点と水平方向右側に位置する周辺特徴点とを結ぶ線分をBijとしたが、これに限らず、不変量Hijの算出に用いる線分は任意の方法で選定すればよい。   Next, the invariant calculation unit 32b calculates an invariant (one of feature quantities) Hij with respect to geometric deformation for each extracted combination. Here, i is a number indicating the feature point of interest (i is an integer equal to or greater than 1), and j is a number indicating a combination of three peripheral feature points (j is an integer equal to or greater than 1). In the present embodiment, the ratio of two of the lengths of the line segments connecting the peripheral feature points is set as the invariant Hij. The length of the line segment may be calculated based on the coordinate value of each peripheral feature point. For example, in the example of FIG. 9A, if the length of the line segment connecting the feature point c and the feature point d is A11 and the length of the line segment connecting the feature point c and the feature point b is B11, The variable H11 is H11 = A11 / B11. In the example of FIG. 9B, if the length of the line segment connecting the feature point c and the feature point b is A12 and the length of the line segment connecting the feature point b and the feature point e is B12, The variable H12 is H12 = A12 / B12. In the example of FIG. 9C, if the length of the line segment connecting the feature point d and the feature point b is A13 and the length of the line segment connecting the feature point b and the feature point e is B13, The variable H13 is H13 = A13 / B13. In this way, invariants H11, H12, and H13 are calculated in the examples of FIGS. 9A to 9C. In the above example, the line segment connecting the peripheral feature point located on the left side in the horizontal direction and the peripheral feature point located in the center in the horizontal direction is Aij, and the peripheral feature point located in the center in the horizontal direction is located on the right side in the horizontal direction. The line segment connecting the peripheral feature points is Bij. However, the present invention is not limited to this, and the line segment used for calculating the invariant Hij may be selected by an arbitrary method.

次に、ハッシュ値算出部32cは、(Hi1×10+Hi2×10+Hi3×10)/Dの余りの値をハッシュ値(特徴量の1つ)Hiとして算出し、メモリ8に記憶させる。なお、上記Dは余りが取り得る値の範囲をどの程度に設定するかに応じて予め設定される定数である。 Next, the hash value calculation unit 32c calculates a remainder value of (Hi1 × 10 2 + Hi2 × 10 1 + Hi3 × 10 0 ) / D as a hash value (one of feature quantities) Hi and stores it in the memory 8. . Note that D is a constant set in advance according to how much the range of values that the remainder can take is set.

なお、不変量Hijの算出方法は特に限定されるものではなく、例えば、注目特徴点の近傍5点の複比、近傍n点(nはn≧5の整数)から抽出した5点の複比、近傍n点から抽出したm点(mはm<nかるm≧5の整数)の配置およびm点から抽出した5点の複比に基づいて算出される値などを注目特徴点についての上記不変量Hijとしてもよい。なお、複比とは、直線上の4点または平面上の5点から求められる値であり、幾何学的変換の一種である射影変形に対する不変量として知られている。   Note that the method for calculating the invariant Hij is not particularly limited. For example, the cross ratio of five points in the vicinity of the feature point of interest, or the double ratio of five points extracted from the neighboring n points (n is an integer of n ≧ 5). The value calculated based on the arrangement of m points extracted from n points in the vicinity (m is an integer of m <n and m ≧ 5) and the cross ratio of the five points extracted from m points, etc. The invariant Hij may be used. The cross ratio is a value obtained from four points on a straight line or five points on a plane, and is known as an invariant with respect to projective deformation which is a kind of geometric transformation.

また、ハッシュ値Hiの算出するための式についても上記式、すなわち(Hi1×10+Hi2×10+Hi3×10)/Dの余りの値をハッシュ値Hiとして算出する構成に限るものではなく、他のハッシュ関数(例えば特許文献2に記載されているハッシュ関数のうちのいずれか)を用いてもよい。 Also, the formula for calculating the hash value Hi is not limited to the above formula, that is, the configuration in which the remainder of (Hi1 × 10 2 + Hi2 × 10 1 + Hi3 × 10 0 ) / D is calculated as the hash value Hi. Other hash functions (for example, any one of hash functions described in Patent Document 2) may be used.

また、特徴量算出部32の各部は、1つの注目特徴点に対する周辺特徴点の抽出およびハッシュ値Hiの算出が終わると、注目特徴点を他の特徴点に変更して周辺特徴点の抽出およびハッシュ値の算出を行い、全ての特徴点についてのハッシュ値を算出する。   Further, each part of the feature quantity calculation unit 32, after completing the extraction of the peripheral feature points for one target feature point and the calculation of the hash value Hi, changes the target feature point to another feature point, A hash value is calculated, and hash values for all feature points are calculated.

図8の例では、特徴点aを注目特徴点とした場合の周辺特徴点およびハッシュ値の抽出が終わると、次に特徴点bを注目特徴点とした場合の周辺特徴点およびハッシュ値の抽出を行う。図8の例では、特徴点bを注目特徴点とした場合、特徴点a,c,e,fの4点が周辺特徴点として抽出される。そして、図10(a)〜図10(c)に示すように、これら周辺特徴点a,c,e,fの中から選択される3点の組み合わせ(周辺特徴点a,e,f、周辺特徴点c,e,f、周辺特徴点a,c,f)を抽出し、各組み合わせについてハッシュ値Hiを算出し、メモリ8に記憶させる。そして、この処理を各特徴点について繰り返し、各特徴点を注目特徴点とした場合のハッシュ値をそれぞれ求めてメモリ8に記憶させる。   In the example of FIG. 8, when the extraction of the peripheral feature points and the hash value when the feature point a is the target feature point is finished, the peripheral feature points and the hash value are extracted when the feature point b is the target feature point. I do. In the example of FIG. 8, when the feature point b is the target feature point, four feature points a, c, e, and f are extracted as the peripheral feature points. Then, as shown in FIGS. 10A to 10C, a combination of three points selected from these peripheral feature points a, c, e, and f (peripheral feature points a, e, f, and peripheral points) Feature points c, e, f, peripheral feature points a, c, f) are extracted, and a hash value Hi is calculated for each combination and stored in the memory 8. Then, this process is repeated for each feature point, and a hash value when each feature point is a feature point of interest is obtained and stored in the memory 8.

なお、特徴点aを注目特徴点としたときの不変量の算出方法は上記の方法に限るものではない。例えば、図22(a)〜図22(d)に示すように、図8に示した特徴点aを注目特徴点とした場合、周辺特徴点b,c,d,eのうちの3点の組み合わせ、すなわち、周辺特徴点b,c,d、周辺特徴点b,c,e、周辺特徴点b,d,e、周辺特徴点c,d,eの各組み合わせを抽出し、抽出した各組み合わせについて、幾何学的変形に対する不変量(特徴量の1つ)Hijを算出するようにしても良い。   Note that the invariant calculation method when the feature point a is the feature point of interest is not limited to the above method. For example, as shown in FIGS. 22A to 22D, when the feature point a shown in FIG. 8 is the feature point of interest, three of the peripheral feature points b, c, d, and e are selected. Combinations, that is, peripheral feature points b, c, d, peripheral feature points b, c, e, peripheral feature points b, d, e, peripheral feature points c, d, e are extracted, and each extracted combination , An invariant (one of feature quantities) Hij with respect to geometric deformation may be calculated.

また、図8に示した特徴点bを注目特徴点とした場合、図23(a)〜図23(d)に示すように、特徴点a,c,e,fの4点の周辺特徴点の中から、ある3点の組み合わせ(周辺特徴点a,e,f、周辺特徴点a,c,e、周辺特徴点a,f,c、周辺特徴点e,f,c)を抽出し、各組み合わせについて幾何学的変形に対する不変量Hijを算出するようにしてもよい。なお、この場合、(Hi1×10+Hi2×10+Hi×10+Hi4×10)/Dの余りの値をハッシュ値として算出し、メモリ8に記憶させればよい。 Further, when the feature point b shown in FIG. 8 is set as the feature point of interest, as shown in FIGS. 23 (a) to 23 (d), four peripheral feature points of feature points a, c, e, and f are used. A combination of three points (peripheral feature points a, e, f, peripheral feature points a, c, e, peripheral feature points a, f, c, peripheral feature points e, f, c) from You may make it calculate the invariant Hij with respect to geometric deformation about each combination. In this case, the remainder of (Hi1 × 10 3 + Hi2 × 10 2 + Hi 3 × 10 1 + Hi4 × 10 0 ) / D may be calculated as a hash value and stored in the memory 8.

また、上記の例では、注目特徴点に最も近い周辺特徴点と2番目に近い周辺特徴点とを結ぶ線分をAij、注目特徴点に最も近い周辺特徴点と3番目に近い周辺特徴点とを結ぶ線分をBijとしたが、これに限らず、周辺特徴点間を結ぶ線分の長さを基準にして選定する等、不変量Hijの算出に用いる線分は任意の方法で選定すればよい。   In the above example, the line segment connecting the peripheral feature point closest to the target feature point and the second closest peripheral feature point is Aij, and the peripheral feature point closest to the target feature point and the third closest peripheral feature point are The line segment connecting the two is connected to Bij. However, the present invention is not limited to this, and the line segment used for calculating the invariant Hij may be selected by an arbitrary method such as selecting based on the length of the line segment connecting the neighboring feature points. That's fine.

なお、特徴量算出部32は、入力画像データを登録画像として登録する登録処理を行う場合には、上記のように算出した入力画像データの各特徴点についてのハッシュ値(特徴量)を登録処理部37に送る。また、特徴量算出部32は、入力画像データが既に登録されている登録画像の画像データであるかどうかの判定処理(類似性判定処理)を行う場合には、上記のように算出した入力画像データの各特徴点についてのハッシュ値を投票処理部33に送る。   Note that, when performing registration processing for registering input image data as a registered image, the feature amount calculation unit 32 performs registration processing for hash values (feature amounts) for each feature point of the input image data calculated as described above. Send to part 37. In addition, when performing a determination process (similarity determination process) on whether or not the input image data is image data of a registered image that has already been registered, the feature amount calculation unit 32 calculates the input image calculated as described above. A hash value for each feature point of the data is sent to the voting processing unit 33.

登録処理部37は、特徴量算出部32が算出した各特徴点についてのハッシュ値と、原稿(入力画像データ)を表すインデックス(原稿ID)とをメモリ8に設けられたハッシュテーブル103に順次登録していく(図11(a)参照)。ハッシュ値がすでに登録されている場合は、当該ハッシュ値に対応付けて原稿IDを登録する。原稿IDは重複することなく順次番号が割り当てられる。なお、ハッシュテーブル103に登録されている原稿の数が所定値(例えば、登録可能な原稿の数の80%)より多くなった場合、古い原稿IDを検索して順次消去するようにしてもよい。また、消去された原稿IDは、新たな入力画像データの原稿IDとして再度使用できるようにしてもよい。また、算出されたハッシュ値が同値である場合(図11(b)の例ではH1=H5)、これらを1つにまとめてハッシュテーブル103に登録してもよい。   The registration processing unit 37 sequentially registers a hash value for each feature point calculated by the feature amount calculation unit 32 and an index (document ID) representing a document (input image data) in the hash table 103 provided in the memory 8. (See FIG. 11A). If the hash value is already registered, the document ID is registered in association with the hash value. Document IDs are sequentially assigned numbers without duplication. When the number of documents registered in the hash table 103 exceeds a predetermined value (for example, 80% of the number of documents that can be registered), the old document ID may be searched and sequentially deleted. . The deleted document ID may be used again as the document ID of new input image data. Further, when the calculated hash values are the same value (H1 = H5 in the example of FIG. 11B), these may be combined and registered in the hash table 103.

投票処理部33は、入力画像データから算出した各特徴点のハッシュ値をハッシュテーブル103に登録されているハッシュ値と比較し、同じハッシュ値を有する登録画像に投票する。言い換えれば、登録画像毎に、登録画像が有するハッシュ値と同じハッシュ値が入力画像データから算出された回数をカウントし、カウント値をメモリ8に記憶させる。図12は、登録画像ID1,ID2,ID3に対する投票数の一例を示すグラフである。   The voting processing unit 33 compares the hash value of each feature point calculated from the input image data with the hash value registered in the hash table 103, and votes for registered images having the same hash value. In other words, for each registered image, the number of times the same hash value as the hash value of the registered image is calculated from the input image data is counted, and the count value is stored in the memory 8. FIG. 12 is a graph showing an example of the number of votes for registered images ID1, ID2, and ID3.

類似度判定処理部34は、メモリ8から投票処理部33の投票処理結果(各登録画像のインデックスおよび各登録画像に対する投票数;類似度)を読み出し、最大得票数および最大得票数を得た登録画像のインデックスを抽出する。そして、抽出された最大得票数を予め定められている閾値THaと比較して類似性(入力画像データが登録画像の画像データであるかどうか)を判定し、判定結果を示す判定信号を制御部7に送る。つまり、最大得票数が予め定められた閾値THa以上である場合には「類似性あり(入力画像データは登録画像の画像データである)」と判定し、閾値THa未満である場合には「類似性なし(入力画像データは登録画像の画像データではない)」と判定する。   The similarity determination processing unit 34 reads the voting result (the index of each registered image and the number of votes for each registered image; similarity) of the voting processing unit 33 from the memory 8 and obtains the maximum number of votes and the maximum number of votes obtained. Extract image index. Then, the extracted maximum number of votes is compared with a predetermined threshold THa to determine similarity (whether or not the input image data is image data of a registered image), and a determination signal indicating the determination result is sent to the control unit Send to 7. That is, when the maximum number of votes is greater than or equal to a predetermined threshold value THa, it is determined that there is similarity (the input image data is image data of a registered image). No determination is made (the input image data is not image data of a registered image) ”.

あるいは、類似度判定処理部34が、各登録画像に対する得票数を投票総数(入力画像データから抽出された特徴点の総数)で除算して正規化することで類似度を算出し、この類似度と予め定められている閾値THa(例えば投票総数の80%)との比較を行うことによって類似度を判定してもよい。   Alternatively, the similarity determination processing unit 34 calculates the similarity by dividing and normalizing the number of votes obtained for each registered image by the total number of votes (the total number of feature points extracted from the input image data). And the threshold value THa (for example, 80% of the total number of votes) may be compared to determine the similarity.

また、類似度判定処理部34が、各登録画像に対する得票数を、ハッシュ値の登録数が最も多い登録画像についてのハッシュ値の登録数(最大登録数)で除算して正規化することで類似度を算出し、この類似度と予め定められている閾値THa(例えば投票総数の80%)との比較を行うことによって類似性を判定してもよい。つまり、算出した類似度が閾値THa以上である場合には「類似性あり」と判定し、閾値THa未満である場合には「類似性なし」と判定すればよい。なお、この場合、入力画像データから抽出されるハッシュ値の総数は上記最大登録数よりも大きくなる場合があるため(特に原稿および/または登録画像の少なくとも一部に手書き部分がある場合など)、類似度の算出値は100%を超える場合も有り得る。   In addition, the similarity determination processing unit 34 normalizes the number of votes obtained for each registered image by dividing by the number of registered hash values (maximum registered number) for the registered image having the largest number of registered hash values. The degree of similarity may be determined by calculating the degree and comparing the degree of similarity with a predetermined threshold THa (for example, 80% of the total number of votes). That is, if the calculated similarity is equal to or higher than the threshold THa, it is determined as “similar”, and if it is lower than the threshold THa, it is determined as “no similarity”. In this case, the total number of hash values extracted from the input image data may be larger than the maximum registered number (particularly when at least a part of the original and / or registered image has a handwritten part). The calculated value of similarity may exceed 100%.

また、類似性を判定する際の閾値THaは、各登録画像について一定であってもよく、あるいは各登録画像の重要度等に応じて登録画像毎に設定されてもよい。登録画像の重要度は、例えば、紙幣、有価証券、極秘書類、社外秘の書類等については重要度を最大にし、秘密書類については重要度を紙幣等よりも低くするといったように、登録画像に応じて段階的に設定してもよい。この場合、メモリ8に、登録画像の重要度に応じた重み付け係数を当該登録画像のインデックスと関連付けて記憶させておき、類似度判定処理部34が、最大得票数を得た登録画像に対応する閾値THaを用いて類似性を判定するようにすればよい。   The threshold value THa for determining similarity may be constant for each registered image, or may be set for each registered image according to the importance of each registered image. The importance of the registered image depends on the registered image, for example, the importance is maximized for banknotes, securities, confidential documents, confidential documents, etc., and the importance is lower for banknotes, etc. May be set step by step. In this case, a weighting coefficient corresponding to the importance of the registered image is stored in the memory 8 in association with the index of the registered image, and the similarity determination processing unit 34 corresponds to the registered image that has obtained the maximum number of votes. The similarity may be determined using the threshold THa.

また、類似性を判定する際、閾値THaは一定にする一方、各登録画像に対する投票数(各登録画像の得票数)に各登録画像の重み係数を掛けて類似性を判定するようにしてもよい。この場合、メモリ8に、各登録画像の重要度に応じた重み付け係数を各登録画像のインデックスと関連付けて記憶させておき、類似度判定処理部34が、各登録画像の得票数に当該登録画像の重み付け係数を掛けた補正得票数を算出し、この補正得票数に基づいて類似性を判定するようにすればよい。例えば、最大補正得票数と閾値THaとを比較してもよく、最大補正得票数を投票総数で正規化したものを閾値THaと比較してもよく、最大補正得票数を最大登録数で正規化したものを閾値THaと比較してもよい。また、この場合、重み係数は、例えば、1より大きい値であって、かつ登録画像の重要度が高くなるにつれて大きい値になるように設定すればよい。   In determining similarity, the threshold THa is kept constant, while the similarity is determined by multiplying the number of votes for each registered image (the number of votes obtained for each registered image) by the weight coefficient of each registered image. Good. In this case, a weighting coefficient corresponding to the importance of each registered image is stored in the memory 8 in association with the index of each registered image, and the similarity determination processing unit 34 determines the number of registered images for each registered image. The number of corrected votes multiplied by the weighting coefficient is calculated, and the similarity may be determined based on the number of corrected votes. For example, the maximum correction vote number may be compared with the threshold value THa, the maximum correction vote number normalized with the total number of votes may be compared with the threshold value THa, and the maximum correction vote number is normalized with the maximum registration number. This may be compared with the threshold value THa. In this case, for example, the weighting factor may be set to a value larger than 1, and to a larger value as the importance of the registered image becomes higher.

また、本実施形態では、1つの特徴点(注目特徴点)に対して1つのハッシュ値を算出するものとしているが、これに限らず、1つの特徴点(注目特徴点)に対して複数のハッシュ値を算出するようにしてもよい。例えば、注目特徴点の周辺特徴点として6点を抽出し、この6点から5点を抽出した6通りの組み合わせそれぞれについて、5点から3点を抽出して不変量を求めてハッシュ値を算出する方法を用いてもよい。この場合には、1つの特徴点に対して6個のハッシュ値が算出されることになる。   In this embodiment, one hash value is calculated for one feature point (attention feature point). However, the present invention is not limited to this, and a plurality of one feature point (attention feature point) may be calculated. A hash value may be calculated. For example, 6 points are extracted as the peripheral feature points of the feature point of interest, and for each of the 6 combinations obtained by extracting 5 points from these 6 points, 3 points are extracted from 5 points to obtain an invariant and a hash value is calculated. You may use the method to do. In this case, six hash values are calculated for one feature point.

(1−3. デジタルカラー複合機1における処理)
次に、デジタルカラー複合機1における処理について、図13に示すフロー図を参照しながら説明する。
(1-3. Processing in Digital Color Multifunction Machine 1)
Next, processing in the digital color multifunction peripheral 1 will be described with reference to a flowchart shown in FIG.

まず、制御部7は、入力画像データ、および、操作パネル6あるいは通信装置5を介してユーザから入力される処理要求(指示入力)を取得する(S1、S2)。なお、入力画像データは、カラー画像入力装置2で原稿画像を読み取ることによって取得してもよく、通信装置5によって外部の装置から送信される入力画像データを取得してもよく、デジタルカラー複合機1に備えられるカードリーダー(図示せず)等を介して各種記録媒体から入力画像データを読み出して取得してもよい。   First, the control unit 7 acquires input image data and a processing request (instruction input) input from the user via the operation panel 6 or the communication device 5 (S1, S2). The input image data may be acquired by reading a document image with the color image input device 2, or input image data transmitted from an external device may be acquired with the communication device 5. The input image data may be read and acquired from various recording media via a card reader (not shown) provided in FIG.

次に、制御部7は、前処理部30に入力画像データに対する前処理(例えば、無彩化処理、解像度変換処理、MTF処理)を実行させ(S3)、特徴点算出部31に特徴点算出処理を実行させ(S4)、特徴量算出部32に特徴量を算出させる(S5)。なお、特徴点算出処理の詳細については後述する。   Next, the control unit 7 causes the preprocessing unit 30 to perform preprocessing (for example, achromatic processing, resolution conversion processing, and MTF processing) on the input image data (S3), and the feature point calculation unit 31 calculates feature points. The process is executed (S4), and the feature amount calculation unit 32 calculates the feature amount (S5). Details of the feature point calculation process will be described later.

次に、制御部7は、上記処理要求によって要求されている処理が登録処理であるか否かを判断する(S6)。そして、登録処理であると判断した場合、制御部7は、特徴量算出部32が算出した特徴量と原稿ID(登録画像のID)とを対応付けてハッシュテーブル103に登録させる(S7)。   Next, the control unit 7 determines whether or not the process requested by the process request is a registration process (S6). If it is determined that the registration process is being performed, the control unit 7 registers the feature amount calculated by the feature amount calculation unit 32 and the document ID (registered image ID) in the hash table 103 in association with each other (S7).

一方、登録処理ではないと判断した場合(類似性の判定処理であると判断した場合)、制御部7は、投票処理部33に投票処理を実行させ(S8)、類似度判定処理部34に類似性の判定処理を実行させる(S9)。   On the other hand, when determining that it is not a registration process (when determining that it is a similarity determination process), the control unit 7 causes the voting processing unit 33 to execute a voting process (S8), and causes the similarity determination processing unit 34 to perform the voting process. A similarity determination process is executed (S9).

そして、類似ありと判定した場合には、入力画像データに対する画像処理(例えば、複写、印刷、電子配信、ファクシミリ送信、ファイリング、画像データの補正,編集等の処理)の実行を禁止し(S10)、処理を終了する。また、類似なしと判定した場合には、入力画像データに対する画像処理の実行を許可し(S11)、処理を終了する。なお、本実施形態では、類似ありの場合に画像処理の実行を許可し、類似なしの場合に画像処理の実行を禁止する例について説明しているが、これに限るものではない。例えば、類似性の判定結果を所定の通知先への通知するようにしてもよい。また、類似性の判定結果に応じて入力画像データの記録の要否、入力画像データに対応する出力画像に所定の記号等を重畳させることの要否、ユーザ認証を行うことの要否、類似性判定結果の表示の要否などを判断するようにしてもよい。   If it is determined that there is similarity, execution of image processing (for example, processing such as copying, printing, electronic distribution, facsimile transmission, filing, image data correction, editing, etc.) on the input image data is prohibited (S10). The process is terminated. On the other hand, if it is determined that there is no similarity, the execution of the image processing on the input image data is permitted (S11), and the processing ends. In the present embodiment, an example is described in which execution of image processing is permitted when there is similarity, and execution of image processing is prohibited when there is no similarity, but this is not a limitation. For example, the similarity determination result may be notified to a predetermined notification destination. Further, it is necessary to record the input image data according to the similarity determination result, whether to superimpose a predetermined symbol or the like on the output image corresponding to the input image data, whether to perform user authentication, similarity It may be determined whether or not to display the sex determination result.

図14は、特徴点算出部31における特徴点算出処理(上記S4の処理)の流れを示すフロー図である。   FIG. 14 is a flowchart showing the flow of the feature point calculation process (the process of S4) in the feature point calculation unit 31.

この図に示すように、前処理部30から特徴点算出部31に入力画像データが入力されると、制御部7は、パターン検知処理部45に部分画像を抽出させ(例えばM×Mの部分画像を切り出させ)(S21)、パターン検知処理を実行させる(S22)。そして、制御部7は、パターン検知処理の結果に基づいて部分画像中に有効なパターンが存在するか否かを判断する(S23)。   As shown in this figure, when input image data is input from the preprocessing unit 30 to the feature point calculation unit 31, the control unit 7 causes the pattern detection processing unit 45 to extract partial images (for example, M × M partials). The image is cut out) (S21), and the pattern detection process is executed (S22). Then, the control unit 7 determines whether there is a valid pattern in the partial image based on the result of the pattern detection process (S23).

そして、有効なパターンが存在すると判断した場合、制御部7は、回転画像生成部46にS21で抽出した部分画像の自己回転画像を生成させる(S24)。次に、制御部7は、一致度算出部47に、S21で抽出した部分画像とS24で生成した自己回転画像との一致度を算出させる(S25)。さらに、制御部7は、一致度判定部48に、部分画像と自己回転画像とが一致するか否かを判定させる(S26)。   If it is determined that a valid pattern exists, the control unit 7 causes the rotated image generation unit 46 to generate a self-rotated image of the partial image extracted in S21 (S24). Next, the control unit 7 causes the coincidence calculating unit 47 to calculate the coincidence between the partial image extracted in S21 and the self-rotating image generated in S24 (S25). Further, the control unit 7 causes the coincidence degree determination unit 48 to determine whether or not the partial image and the self-rotation image match (S26).

そして、制御部7は、S26において部分画像と自己回転画像とが一致すると判定された場合、この部分画像における中心画素(注目画素)を特徴点としてメモリ8に登録する(S27)。あるいは、上記部分画像における中心画素(注目画素)を特徴点とすることを示す情報を特徴点算出部31に出力する。   If it is determined in S26 that the partial image matches the self-rotating image, the control unit 7 registers the central pixel (target pixel) in this partial image as a feature point in the memory 8 (S27). Alternatively, information indicating that the center pixel (target pixel) in the partial image is a feature point is output to the feature point calculation unit 31.

また、制御部7は、S27の処理の後、あるいはS23において有効なパターンが存在しないと判断した場合、あるいはS26において部分画像と自己回転画像とが一致しないと判定された場合、入力画像データにおける全画素に対してパターン検知処理を行ったか否かを判断する(S28)。すなわち、入力画像データにおける全画素をそれぞれ注目画素とする各部分画像について、パターン検知処理を行ったか否かを判断する。   In addition, when the control unit 7 determines that there is no effective pattern after the processing of S27, or in S23, or if it is determined in S26 that the partial image and the self-rotation image do not match, It is determined whether pattern detection processing has been performed for all pixels (S28). That is, it is determined whether or not the pattern detection process has been performed for each partial image in which all pixels in the input image data are pixels of interest.

そして、パターン検知処理を行っていない画素が残っている場合には、注目画素をラスター走査し、次の注目画素についてS22以降の処理を行う(S29)。一方、全画素についてパターン検知処理を行ったと判断した場合、制御部7は特徴点算出処理を終了する。   If there remains a pixel for which pattern detection processing has not been performed, the pixel of interest is raster-scanned, and the processing of S22 and subsequent steps is performed on the next pixel of interest (S29). On the other hand, when determining that the pattern detection process has been performed for all the pixels, the control unit 7 ends the feature point calculation process.

以上のように、本実施形態にかかるデジタルカラー複合機1の文書照合処理部13では、入力画像データから部分画像を抽出し、抽出した部分画像にパターンが含まれるか否かを判定し、パターンが含まれる場合には上記部分画像と、この部分画像を回転させた自己回転画像とが一致するか否かを判定する。そして、一致する場合に、この部分画像における注目画素を特徴点として抽出する。   As described above, the document collation processing unit 13 of the digital color multifunction peripheral 1 according to the present embodiment extracts a partial image from input image data, determines whether or not the extracted partial image includes a pattern, and determines the pattern. Is included, it is determined whether or not the partial image matches the self-rotated image obtained by rotating the partial image. If they match, the pixel of interest in this partial image is extracted as a feature point.

これにより、入力画像データが画像読取装置の読取位置における所定の配置角度に対して原稿が傾斜して配置された状態で読み取られたデータである場合や、拡大,縮小等の処理が施されたデータである場合であっても、上記傾斜,拡大,縮小等の影響を受けない(あるいは影響が小さい)部分画像の中心点(注目画素)を特徴点として抽出することができる。つまり、上記傾斜,拡大,縮小等にかかわらず、同じパターンの特徴点を精度よく抽出でき、算出された特徴点間の距離の比率は不変なものとなる。したがって、このように抽出した特徴点に基づいて算出される特徴量に基づいて画像の類似度を算出することにより、上記傾斜,拡大,縮小等にかかわらず入力画像と登録画像との類似性を精度よく判定できる。   As a result, when the input image data is data read in a state where the document is inclined with respect to a predetermined arrangement angle at the reading position of the image reading apparatus, or processing such as enlargement or reduction is performed. Even in the case of data, a center point (a pixel of interest) of a partial image that is not affected (or has a small effect) by the tilt, enlargement, reduction, or the like can be extracted as a feature point. That is, regardless of the inclination, enlargement, reduction, etc., feature points of the same pattern can be extracted with high accuracy, and the calculated ratio of the distances between feature points remains unchanged. Therefore, by calculating the similarity of the image based on the feature amount calculated based on the extracted feature point, the similarity between the input image and the registered image can be obtained regardless of the inclination, enlargement, reduction, or the like. It can be judged with high accuracy.

図15は、画像読取装置の読取位置における所定の配置角度に対して適切な角度で読み取られた入力画像データにおける部分画像、この部分画像を90度自己回転させた90度回転画像、画像読取装置の読取位置における所定の配置角度に対して30°傾斜した状態で読み取られた入力画像データにおける部分画像、およびこの部分画像を90度自己回転させた90度回転画像の一例を示す説明図である。この図に示すように、画像読取装置の読取位置における所定の配置角度に対して原稿が傾斜して配置された状態で読み取られた入力画像データの場合であっても、部分画像とこの部分画像の自己回転画像とが一致する部分画像の注目画素を特徴点とすることにより、上記傾斜の影響を受けることなく同じパターンの特徴点を精度よく抽出できる。   FIG. 15 shows a partial image in input image data read at an appropriate angle with respect to a predetermined arrangement angle at the reading position of the image reading apparatus, a 90-degree rotated image obtained by self-rotating the partial image by 90 degrees, and an image reading apparatus It is explanatory drawing which shows an example of the partial image in the input image data read in the state inclined 30 degrees with respect to the predetermined arrangement | positioning angle in the reading position of this, and the 90 degree rotation image which rotated this partial image 90 degree | times. . As shown in this figure, even in the case of input image data read in a state in which the document is inclined with respect to a predetermined arrangement angle at the reading position of the image reading apparatus, the partial image and the partial image By using the target pixel of the partial image that matches the self-rotated image as the feature point, the feature point of the same pattern can be accurately extracted without being affected by the inclination.

図16は、70%に縮小された入力画像データにおける部分画像、この部分画像を90度自己回転させた90度回転画像、150%に縮小された入力画像データにおける部分画像、この部分画像を90度自己回転させた90度回転画像、および変倍されていない入力画像における部分画像の一例を示す説明図である。この図に示すように、入力画像データに対して変倍処理(縮小あるいは拡大)が施されている場合であっても、部分画像とこの部分画像の自己回転画像とが一致する部分画像の注目画素を特徴点とすることにより、上記変倍処理の影響を受けることなく同じパターンの特徴点を精度よく抽出できる。   FIG. 16 shows a partial image in the input image data reduced to 70%, a 90-degree rotated image obtained by self-rotating the partial image by 90 degrees, a partial image in the input image data reduced to 150%, and the partial image in 90 degrees. It is explanatory drawing which shows an example of the partial image in the 90 degree rotation image which carried out self rotation, and the input image which has not been changed in magnification. As shown in this figure, even when scaling processing (reduction or enlargement) is performed on the input image data, attention is paid to the partial image in which the partial image and the self-rotation image of the partial image match. By using pixels as feature points, feature points of the same pattern can be accurately extracted without being affected by the scaling process.

また、本実施形態では、上記のように抽出された各特徴点に対して局所的な特徴点の集合を決定し、決定した各集合から特徴点の部分集合を選択し、選択した各部分集合を特徴付ける量として、部分集合中の特徴点に関する複数の組み合わせに基づいて、幾何学的変換に対する不変量をそれぞれ求め、求めた各不変量を組み合わせてハッシュ値(特徴量)を算出する。これにより、入力画像と登録画像との類似性をより精度よく判定できる。   In the present embodiment, a set of local feature points is determined for each feature point extracted as described above, a subset of feature points is selected from each determined set, and each selected subset Is obtained based on a plurality of combinations of feature points in the subset, and invariants for geometric transformation are obtained, and hash values (feature values) are calculated by combining the obtained invariants. Thereby, the similarity between the input image and the registered image can be determined with higher accuracy.

また、上記の構成によれば、部分画像を抽出し、抽出した部分画像とこの部分画像を回転させた自己回転画像とが一致するか否か(自己相関があるか否か)を判定するだけで特徴点を容易に抽出することができるので、特徴点算出部31の回路構成を簡略化し、ハード化を容易にすることができる。   Further, according to the above configuration, the partial image is extracted, and it is only determined whether or not the extracted partial image matches the self-rotated image obtained by rotating the partial image (whether there is an autocorrelation). Thus, the feature points can be easily extracted, so that the circuit configuration of the feature point calculation unit 31 can be simplified and hardware can be easily realized.

また、一般に、手書き文字は自己回転画像に対する一致度(自己相関)は高くならない。このため、例えば、入力画像中に手書きによる書き込みがある場合であっても、手書き文字によって不適切な特徴点が抽出されることを防止できる。したがって、上記の構成によれば、入力画像中に手書きによる書き込みがある場合であっても、当該入力画像の特徴点を適切に抽出することができる。   In general, handwritten characters do not have a high degree of matching (autocorrelation) with self-rotating images. For this reason, for example, even when handwritten writing is present in the input image, it is possible to prevent inappropriate feature points from being extracted by handwritten characters. Therefore, according to the above configuration, even if there is handwritten writing in the input image, it is possible to appropriately extract the feature points of the input image.

なお、本実施形態では、部分画像とこの部分画像の自己回転画像とが一致する場合に、この部分画像における注目画素を特徴点として抽出しているが、これに限るものではない。例えば、上記部分画像における、注目画素を含む複数の画素からなるブロックを特徴点として抽出してもよい。   In the present embodiment, when the partial image matches the self-rotated image of the partial image, the target pixel in the partial image is extracted as the feature point. However, the present invention is not limited to this. For example, a block composed of a plurality of pixels including the target pixel in the partial image may be extracted as a feature point.

また、本実施形態では、自己回転角度Rの一例として、90°,120°,180°の場合について説明したが、自己回転角度Rの設定方法は特に限定されるものではなく、任意に設定すればよい。   In the present embodiment, the case of 90 °, 120 °, and 180 ° has been described as an example of the self-rotation angle R. However, the method for setting the self-rotation angle R is not particularly limited, and may be set arbitrarily. That's fine.

また、本実施形態では、部分画像と、この部分画像を所定の自己回転角度Rで回転させた自己回転画像とが一致するか否かを判定することによって特徴点を抽出しているが、これに限るものではない。例えば、部分画像と、この部分画像を複数の自己回転角度で回転させた各自己回転画像との一致度をそれぞれ算出し、各自己回転画像に対する一致度の算出結果を用いて当該部分画像の中心画素を特徴点とするか否かを判定するようにしてもよい。   In this embodiment, feature points are extracted by determining whether or not a partial image matches a self-rotation image obtained by rotating the partial image at a predetermined self-rotation angle R. It is not limited to. For example, the degree of coincidence between the partial image and each self-rotated image obtained by rotating the partial image at a plurality of self-rotation angles is calculated, and the center of the partial image is calculated using the calculation result of the degree of coincidence with respect to each self-rotated image. You may make it determine whether a pixel is made into a feature point.

表1は、図6に示したパターンA〜Eについての、90度回転画像、180度回転画像、120度回転画像に対する一致度の判定結果を示している。   Table 1 shows the determination results of the degree of coincidence with respect to the patterns A to E shown in FIG. 6 with respect to the 90 ° rotated image, the 180 ° rotated image, and the 120 ° rotated image.

Figure 0004362537
Figure 0004362537

なお、表中に示した○は一致すると判定されるパターン、×は不一致と判定されるパターンを示している。 In the table, “◯” indicates a pattern determined to match, and “x” indicates a pattern determined not to match.

この表に示すように、一致度の判定結果は自己回転角度Rによって異なるので、複数の自己回転画像に対する一致度を算出することで、自己回転角度毎に異なるパターンを部分画像と自己回転画像とで一致するパターンとして抽出できる。   As shown in this table, the determination result of the degree of coincidence varies depending on the self-rotation angle R. Therefore, by calculating the degree of coincidence for a plurality of self-rotation images, a different pattern for each self-rotation angle is obtained between the partial image and the self-rotation image. Can be extracted as a matching pattern.

なお、例えば、複数の自己回転角度のそれぞれにおいて一致すると判定されたパターンの注目画素を特徴点とするようにしてもよく、複数の自己回転角度のうちのいずれか1つにおいて一致すると判定されたパターンの注目画素を特徴点とするようにしてもよく、複数の自己回転角度のうちの所定数以上の角度において一致すると判定されたパターンの注目画素を特徴点とするようにしてもよい。   Note that, for example, a target pixel of a pattern determined to match at each of a plurality of self-rotation angles may be used as a feature point, and is determined to match at any one of the plurality of self-rotation angles. The target pixel of the pattern may be used as the feature point, and the target pixel of the pattern determined to match at a predetermined number or more of the plurality of self-rotation angles may be used as the feature point.

このように、複数角度の自己回転画像に対する一致度の判定結果を用いて特徴点を抽出することにより、特徴点数を容易に増加させることができる。これにより、より多くの特徴点に基づいて入力画像と登録画像との類似性を判定することができるので、類似性判定の精度をさらに高めることができる。   As described above, the feature points are extracted by using the determination result of the degree of coincidence with respect to the self-rotated images at a plurality of angles, so that the number of feature points can be easily increased. Thereby, since the similarity between the input image and the registered image can be determined based on more feature points, the accuracy of the similarity determination can be further increased.

また、本実施形態では、制御部7は、パターン検知処理部45に部分画像を抽出させる際に、1つのM×Mという大きさの部分画像を切り出す場合を例示したが、部分画像の切り出し方法は1つに限るものではない。例えば、M×Mのサイズの部分画像に加えて、L×L(L>M)のサイズの部分画像にも着目し、同様の演算を行って特徴点としてもよい。   Further, in the present embodiment, the control unit 7 illustrated a case of cutting out one partial image having a size of M × M when the pattern detection processing unit 45 extracts a partial image. Is not limited to one. For example, in addition to a partial image of M × M size, attention is also paid to a partial image of size L × L (L> M), and the same calculation may be performed to obtain a feature point.

例えば、M=7、L=11とし、図24〜図26に示すパターンA〜Cの中心点を着目点として部分画像を抽出する場合を考える。なお、図24〜図26における破線で囲んだ枠領域が7×7のサイズの部分画像であり、実線で囲んだ枠領域が11×11のサイズの部分画像である。   For example, assume that M = 7 and L = 11, and a partial image is extracted with the central point of the patterns A to C shown in FIGS. Note that the frame region surrounded by a broken line in FIGS. 24 to 26 is a partial image having a size of 7 × 7, and the frame region surrounded by a solid line is a partial image having a size of 11 × 11.

上記各サイズの部分画像について、抽出した部分画像とこの部分画像を180度回転させた自己回転画像との一致度を考えると、パターンAの場合、7画素×7画素では一致するが、11画素×11画素では一致しない。また、パターンBの場合、7画素×7画素でも11画素×11画素でも一致しない。また、パターンCの場合、7画素×7画素でも11画素×11画素でも一致する。このように、同じパターンから抽出した部分画像でも、部分画像を切り出すサイズ(部分画像の画素サイズ)に応じて自己回転画像との一致/不一致が変化する。   In consideration of the degree of coincidence between the extracted partial image and the self-rotated image obtained by rotating the partial image by 180 degrees with respect to the partial images of the above sizes, in the case of the pattern A, 7 pixels × 7 pixels coincide, but 11 pixels × 11 pixels do not match. In the case of pattern B, neither 7 pixels × 7 pixels nor 11 pixels × 11 pixels match. In the case of the pattern C, both 7 pixels × 7 pixels and 11 pixels × 11 pixels match. In this way, even with partial images extracted from the same pattern, the match / mismatch with the self-rotating image changes according to the size of the partial image cut out (pixel size of the partial image).

また、パターンBの場合、7画素×7画素でも11画素×11画素でも一致しないが、11画素×11画素の部分画像において7画素×7画素の部分画像領域を演算対象から除外(マスク)して自己回転画像との一致を判定すれば、一致するという結果になる。   In the case of pattern B, although 7 pixels × 7 pixels and 11 pixels × 11 pixels do not match, the partial image area of 7 pixels × 7 pixels is excluded (masked) from the calculation target in the partial image of 11 pixels × 11 pixels. If the coincidence with the self-rotating image is determined, the coincidence results.

なお、除外の演算方法としては、対象画素数に注意して、上記式(3)〜(5)におけるシグマ記号ごとにマスク部分を引けばよい。上記式(3)について記せば、
7×7画素:画素数Nm(=49)
In addition, as a calculation method of exclusion, paying attention to the number of target pixels, a mask portion may be drawn for each sigma symbol in the above formulas (3) to (5). If it writes about the above-mentioned formula (3),
7 × 7 pixels: Number of pixels Nm (= 49)

Figure 0004362537
Figure 0004362537

11×11画素:画素数Nl(121) 11 × 11 pixels: Number of pixels Nl (121)

Figure 0004362537
Figure 0004362537

マスクされた画像:画素数Nk(121−49=72) Masked image: Number of pixels Nk (121-49 = 72)

Figure 0004362537
Figure 0004362537

となる。なお、Ak算出時に用いられているそれぞれシグマ演算値は、AmおよびAlを算出する際に求められているものであるため、新たに算出する必要はない。また、上記式(4)のBおよび上記式(5)のCも同様に算出可能である。 It becomes. Each sigma calculation value used at the time of calculating Ak is obtained when calculating Am and Al, and thus does not need to be newly calculated. Further, B in the above formula (4) and C in the above formula (5) can be calculated in the same manner.

表2は、上記のようにして得られた部分画像とそれを180度回転させた自己回転画像との一致/不一致を示している。なお、表中に示した○は一致すると判定されるパターン、×は不一致と判定されるパターンを示している。   Table 2 shows coincidence / non-coincidence between the partial image obtained as described above and a self-rotation image obtained by rotating the partial image by 180 degrees. In the table, “◯” indicates a pattern determined to match, and “x” indicates a pattern determined not to match.

Figure 0004362537
Figure 0004362537

表2に示したように、一致度の判定結果は部分画像の切り出しサイズやマスクの有無によって異なる。このため、複数の切り出し方法に対する一致度を算出することで、切り出し方法ごとに異なるパターンを部分画像と自己回転画像とで一致するパターンとして抽出することができる。   As shown in Table 2, the determination result of the degree of coincidence varies depending on the cut-out size of the partial image and the presence or absence of a mask. Therefore, by calculating the degree of coincidence for a plurality of clipping methods, a pattern that differs for each clipping method can be extracted as a pattern that matches the partial image and the self-rotating image.

なお、例えば、複数の切り出し方法のそれぞれにおいて一致すると判定されたパターンの注目画素を特徴点とするようにしてもよく、複数の切り出し方法のうちのいずれか1つにおいて一致すると判定されたパターンの注目画素を特徴点とするようにしてもよく、複数の切り出し方法のうちの所定数以上の方法において一致すると判定されたパターンの注目画素を特徴点とするようにしてもよい。   Note that, for example, a target pixel of a pattern determined to match in each of a plurality of clipping methods may be used as a feature point, and a pattern determined to match in any one of the plurality of clipping methods. The pixel of interest may be used as a feature point, and the pixel of interest of a pattern determined to match in a predetermined number or more of a plurality of clipping methods may be used as the feature point.

このように、複数の切り出し方法に対する一致度の判定結果を用いて特徴点を抽出することにより、抽出される特徴点の数を容易に増加させることができる。これにより、より多くの特徴点に基づいて入力画像と登録画像との類似性を判定することができるので、類似性判定の精度をさらに高めることができる。   As described above, by extracting feature points using the determination result of the degree of coincidence for a plurality of clipping methods, the number of extracted feature points can be easily increased. Thereby, since the similarity between the input image and the registered image can be determined based on more feature points, the accuracy of the similarity determination can be further increased.

また、本実施形態では、特徴点算出部31が、前処理部30から入力される多値画像の画像データに基づいて特徴点を抽出する場合の一例について説明したが、特徴点の抽出方法はこれに限るものではない。   In the present embodiment, an example in which the feature point calculation unit 31 extracts feature points based on the image data of the multi-value image input from the preprocessing unit 30 has been described. This is not a limitation.

例えば、前処理部30において2値化処理を行い、2値化した画像に基づいて特徴点を抽出するようにしてもよい。   For example, the preprocessing unit 30 may perform binarization processing and extract feature points based on the binarized image.

この場合、前処理部30は、無彩化された画像データ(輝度値(輝度信号)あるいは明度値(明度信号))を、予め定められた閾値と比較することで画像データを2値化する。   In this case, the preprocessing unit 30 binarizes the image data by comparing the achromatic image data (luminance value (luminance signal) or lightness value (lightness signal)) with a predetermined threshold value. .

そして、特徴点算出部31のパターン検知処理部45は、前処理部30で2値化された画像データから部分画像を抽出し、ON画素数(黒画素数)CountOnをカウントし、カウントした値が所定範囲内であるか否かによってパターンの有無を判定する。例えば、閾値TH2,TH3を予め設定しておき、TH2≦CountOn≦TH3の場合にはパターン有りと判定し、TH2>CountOnあるいはCountOn>TH3の場合にはパターン無しと判定する。なお、閾値TH2,TH3は、パターンが適切に抽出されるように適宜設定すればよい。   Then, the pattern detection processing unit 45 of the feature point calculation unit 31 extracts a partial image from the image data binarized by the preprocessing unit 30, counts the number of ON pixels (number of black pixels) CountOn, and the counted value The presence / absence of a pattern is determined depending on whether or not is within a predetermined range. For example, thresholds TH2 and TH3 are set in advance, and if TH2 ≦ CountOn ≦ TH3, it is determined that there is a pattern, and if TH2> CountOn or CountOn> TH3, it is determined that there is no pattern. Note that the thresholds TH2 and TH3 may be set as appropriate so that the pattern is appropriately extracted.

また、回転画像生成部46は、パターン検知処理部45においてパターン有りと判定された部分画像を所定の自己回転角度Rだけ回転させた自己回転画像を生成する。なお、この際、フロート演算を行って小数点以下を四捨五入するなどの処理を行ってから回転処理を行うようにしてもよい。   The rotated image generation unit 46 generates a self-rotated image obtained by rotating the partial image determined to have a pattern by the pattern detection processing unit 45 by a predetermined self-rotation angle R. At this time, the rotation process may be performed after performing a process such as rounding off the decimal point.

その後、一致度算出部47は、部分画像(回転させる前の画像)の画素値と自己回転画像の画素値との一致数Snをカウントする。   Thereafter, the degree-of-match calculation unit 47 counts the number of matches Sn between the pixel value of the partial image (image before rotation) and the pixel value of the self-rotation image.

図17(a)は部分画像の一例を示す説明図であり、図17(b)は図17(a)に示した部分画像を90°自己回転させた自己回転画像を示す説明図である。図17(a)および図17(b)の例では、部分画像と自己回転画像とで画素値が一致しているのは、図17(b)において黒で塗潰した画素(5行5列目および8行8列目)である。したがって、この例の場合、部分画像と自己回転画像とで画素値が一致する画素数は「Sn=2」となる。   FIG. 17A is an explanatory diagram illustrating an example of a partial image, and FIG. 17B is an explanatory diagram illustrating a self-rotated image obtained by self-rotating the partial image illustrated in FIG. 17A by 90 °. In the examples of FIGS. 17A and 17B, the pixel values of the partial image and the self-rotating image are the same as those of the pixels painted in black in FIG. 17B (5 rows and 5 columns). Eyes and 8th row, 8th column). Therefore, in this example, the number of pixels with the same pixel value between the partial image and the self-rotating image is “Sn = 2”.

その後、一致度判定部48は、一致度算出部47がカウントした一致数Snの値と、予め設定された閾値TH_est2とを比較することで、部分画像と自己回転画像とが一致するか否かを判定する。例えば、Sn>TH_est2の場合に両画像が一致すると判定し、Sn≦TH_est2の場合に両画像は一致しないと判定する。なお、閾値TH_est2は、特徴点が適切に抽出されるように適宜設定しておけばよい。   Thereafter, the coincidence degree determination unit 48 compares the value of the number of coincidences Sn counted by the coincidence degree calculation unit 47 with a preset threshold value TH_est2 to determine whether or not the partial image and the self-rotation image coincide with each other. Determine. For example, when Sn> TH_est2, it is determined that both images match, and when Sn ≦ TH_est2, it is determined that both images do not match. Note that the threshold value TH_est2 may be set as appropriate so that feature points are appropriately extracted.

また、部分画像と自己回転画像とにおける互いに対応する各画素についての画素値の差分の絶対値の総和である残差値Szを算出し、この残差値Szに基づいて特徴点を算出してもよい。   Further, a residual value Sz that is the sum of absolute values of pixel value differences for each pixel corresponding to each other in the partial image and the self-rotating image is calculated, and a feature point is calculated based on the residual value Sz. Also good.

この場合、パターン検知処理部45および回転画像生成部46の処理は上記した処理と同様である。一致度算出部47は、下記式に示すように、部分画像と自己回転画像とにおける互いに対応する各画素についての画素値の差分の絶対値の総和(残差値Sz)を算出する。なお、パターン検知処理部45に入力される画像データは、2値であっても多値であってもよい。   In this case, the processes of the pattern detection processing unit 45 and the rotated image generation unit 46 are the same as those described above. The coincidence calculation unit 47 calculates a sum of absolute values (residual values Sz) of pixel value differences for each pixel corresponding to each other in the partial image and the self-rotated image, as shown in the following equation. The image data input to the pattern detection processing unit 45 may be binary or multivalued.

Figure 0004362537
Figure 0004362537

その後、一致度判定部48は、一致度算出部47で算出された残差値Szと、予め設定された閾値TH_est3とを比較することで、部分画像と自己回転画像とが一致するか否かを判定する。なお、残差値Szを用いる場合、残差値Szの値が小さいほど両画像の一致度は高くなる。このため、例えば、Sz<TH_est3の場合に両画像が一致すると判定し、Sz≧TH_est3の場合に両画像は一致しないと判定する。なお、閾値TH_est3は、特徴点が適切に抽出されるように適宜設定しておけばよい。   Thereafter, the coincidence degree determination unit 48 compares the residual value Sz calculated by the coincidence degree calculation unit 47 with a preset threshold TH_est3 to determine whether or not the partial image and the self-rotation image match. Determine. Note that, when the residual value Sz is used, the degree of coincidence between both images increases as the residual value Sz decreases. Therefore, for example, when Sz <TH_est3, it is determined that both images match, and when Sz ≧ TH_est3, it is determined that both images do not match. Note that the threshold value TH_est3 may be set as appropriate so that feature points are appropriately extracted.

また、本実施形態では、入力画像データがとして1チャンネルの多値信号であり、この入力画像データを2値化した2値信号を用いて類似度判定を行う例について説明したが、入力画像データの構成はこれに限るものではない。例えば、入力画像データは、複数のチャンネル(例えばR,G,Bの3チャンネルあるいはC,M,Y,Kの4チャンネルなど)からなるカラー信号や、上記カラー信号に可視光外光源による信号を組み合わせたデータであってもよい。なお、この場合、前処理部30における信号変換処理部41の処理はスルー(処理を行わない)となる。信号変換処理部41における処理をスルーにするか否かは、例えば、画像形成装置3の操作パネル6を介して入力されるユーザによるカラー画像の選択指示(原稿種別の選択として、カラー画像と白黒画像があり、カラー画像が選択された場合)に応じて決定してもよく、あるいは、文書照合処理部13の前段に原稿画像(入力画像データ)がカラー画像であるか否かを判定する自動カラー選択部(図示せず)を設け、その判定結果に応じて決定するようにしてもよい。   In this embodiment, the input image data is a multi-channel signal of one channel, and an example in which similarity determination is performed using a binary signal obtained by binarizing the input image data has been described. The configuration of is not limited to this. For example, the input image data is a color signal composed of a plurality of channels (for example, three channels of R, G, and B or four channels of C, M, Y, and K), or a signal from a visible light source outside the color signal. It may be combined data. In this case, the processing of the signal conversion processing unit 41 in the preprocessing unit 30 is through (no processing is performed). Whether or not the processing in the signal conversion processing unit 41 is to be determined is, for example, whether a color image selection instruction input by the user via the operation panel 6 of the image forming apparatus 3 (color image and monochrome Automatic determination of whether or not the document image (input image data) is a color image in the preceding stage of the document collation processing unit 13. A color selection unit (not shown) may be provided and determined according to the determination result.

自動カラー選択の方法としては、例えば、例えば、特許文献3に記載されている方法を用いることができる。この方法は、カラー画素であるかモノクロ画素であるかを各画素について判別し、所定数以上の連続するカラー画素の存在が検知された場合にこの連続カラー画素分をカラーブロックと認識し、1ライン中に所定数以上のカラーブロックが存在していればそのラインをカラーラインとして計数する。そして、原稿中にカラーラインが所定数存在していればカラー画像であると判断し、そうでない場合はモノクロ画像であると判断するものである。   As a method for automatic color selection, for example, the method described in Patent Document 3 can be used. In this method, whether each pixel is a color pixel or a monochrome pixel is determined, and when the presence of a predetermined number or more of continuous color pixels is detected, this continuous color pixel is recognized as a color block. If there are more than a predetermined number of color blocks in the line, the line is counted as a color line. If a predetermined number of color lines are present in the document, it is determined that the image is a color image. Otherwise, it is determined that the image is a monochrome image.

例えば、カラー画像入力信号が一般的なR,G,Bの3チャンネル信号である場合、上記したように、各チャンネルを前処理部30において独立した多値信号として扱うか、あるいは2値化処理を行うことで、上述した実施形態と同様にチャンネルごとに特徴点を抽出することができる。   For example, when the color image input signal is a general three-channel signal of R, G, and B, as described above, each channel is handled as an independent multi-value signal in the pre-processing unit 30 or is binarized. As described above, feature points can be extracted for each channel as in the above-described embodiment.

図27(a)はカラー画像からなる入力画像データの一例を示す説明図であり、図27(b)〜図27(d)は図27(a)の画像データに対応するRチャンネル、Gチャンネル、Bチャンネルの多値画像データを示す説明図である。図27(b)〜図27(d)に示したように、抽出される特徴点の位置はチャンネル毎に異なる。すなわち、図27(a)に示したような3つの色の各マーク(A:黒色、B:緑色、C:赤色)についての各チャンネルの画像(図27(b)〜図27(d))に基づく特徴点の抽出結果は表3のようになる。なお、表中に示した○は特徴点として判定されるパターン、×は特徴点として判定されないパターンを示している。   FIG. 27A is an explanatory diagram showing an example of input image data made up of color images, and FIGS. 27B to 27D show the R channel and G channel corresponding to the image data of FIG. FIG. 6 is an explanatory diagram showing multi-value image data of B channel. As shown in FIGS. 27 (b) to 27 (d), the positions of the extracted feature points are different for each channel. That is, the images of the respective channels for the three color marks (A: black, B: green, C: red) as shown in FIG. 27A (FIGS. 27B to 27D). The extraction result of the feature points based on is as shown in Table 3. In the table, ◯ indicates a pattern determined as a feature point, and x indicates a pattern not determined as a feature point.

Figure 0004362537
Figure 0004362537

この表に示すように、特徴点の抽出対象となる部分画像はチャンネル毎に異なるので、これら各部分画像とその自己回転画像に基づいて抽出される特徴点もチャンネル毎に異なる。このため、複数のチャンネルを用いて特徴点の抽出を行うことで、チより多くの特徴点を抽出できる。   As shown in this table, since the partial images from which feature points are extracted differ for each channel, the feature points extracted based on these partial images and their self-rotated images also differ for each channel. Therefore, by extracting feature points using a plurality of channels, more feature points can be extracted than H.

なお、例えば、各チャンネルで抽出された特徴点をそれぞれ個別の特徴点とするようにしてもよく、複数のチャンネルのうちのいずれか1つにおいて部分画像と自己回転画像とが一致すると判定されたパターンの注目画素を特徴点とするようにしてもよく、複数のチャンネルのうちの所定数のチャンネルにおいて部分画像と自己回転画像とが一致すると判定されたパターンの注目画素をそれぞれ個別の特徴点とするようにしてもよい。   Note that, for example, the feature points extracted in each channel may be set as individual feature points, and it is determined that the partial image and the self-rotation image match in any one of the plurality of channels. The pixel of interest of the pattern may be used as the feature point, and the pixel of interest of the pattern determined to match the partial image and the self-rotated image in a predetermined number of channels among the plurality of channels is set as an individual feature point. You may make it do.

このように、複数チャンネルにおける部分画像と自己回転画像との一致度の判定結果を用いて特徴点を抽出することにより、特徴点の数あるいはそれに付随する情報を容易に増加させることができる。これにより、より多くの特徴点に基づいて入力画像と登録画像との類似性を判定することができるので、類似性判定の精度をさらに高めることができる。   In this way, by extracting feature points using the determination result of the degree of coincidence between partial images and self-rotating images in a plurality of channels, it is possible to easily increase the number of feature points or information associated therewith. Thereby, since the similarity between the input image and the registered image can be determined based on more feature points, the accuracy of the similarity determination can be further increased.

また、本実施形態では、本発明をデジタルカラー複合機1に適用する場合について説明したが、本発明の適用対象はこれに限るものではない。例えば、モノクロの複合機に適用してもよい。また、複合機に限らず、例えば単体のファクシミリ通信装置、複写機、画像読取装置などの画像処理装置に適用してもよい。   In the present embodiment, the case where the present invention is applied to the digital color multifunction peripheral 1 has been described. However, the application target of the present invention is not limited to this. For example, the present invention may be applied to a monochrome multifunction device. Further, the present invention is not limited to a multifunction machine, and may be applied to an image processing apparatus such as a single facsimile communication apparatus, a copying machine, and an image reading apparatus.

図18は、本発明をフラットベッドスキャナ(画像読取装置、画像処理装置)1’に適用した場合の構成例を示すブロック図である。   FIG. 18 is a block diagram showing a configuration example when the present invention is applied to a flatbed scanner (image reading apparatus, image processing apparatus) 1 ′.

この図に示すように、フラットベッドスキャナ1’は、カラー画像入力装置2とカラー画像処理装置3’とを備えている。カラー画像処理装置3’は、A/D変換部11、シェーディング補正部12、文書照合処理部13、制御部7(図18では図示せず)、メモリ8(図18では図示せず)から構成されており、これに、カラー画像入力装置2が接続され、全体として画像読取装置1’を構成している。なお、カラー画像入力装置(画像読取手段)2におけるA/D変換部11、シェーディング補正部12、文書照合処理部13、制御部7、メモリ8の機能は、上述したデジタルカラー複合機1と略同様であるのでここでは説明を省略する。   As shown in this figure, the flatbed scanner 1 'includes a color image input device 2 and a color image processing device 3'. The color image processing apparatus 3 ′ includes an A / D conversion unit 11, a shading correction unit 12, a document collation processing unit 13, a control unit 7 (not shown in FIG. 18), and a memory 8 (not shown in FIG. 18). The color image input device 2 is connected to the image reading device 1 ′ as a whole. The functions of the A / D conversion unit 11, the shading correction unit 12, the document collation processing unit 13, the control unit 7, and the memory 8 in the color image input device (image reading unit) 2 are substantially the same as those of the digital color multifunction peripheral 1 described above. Since it is the same, description is abbreviate | omitted here.

また、文書照合処理部13の機能を、画像処理装置と、この画像処理装置に通信可能に接続されたサーバー装置とからなる画像処理システムによって実現してもよい。図19は、画像処理装置(複合機(MFP)A,B,・・・、プリンタA,B,・・・、ファクシミリA,B,・・・、コンピュータA,B,・・・、デジタルカメラA,B,・・・、スキャナA,B,・・・)と、サーバー装置50とが通信可能に接続されてなる画像処理システム100の構成を示す説明図である。なお、画像処理システム100の構成はこれに限るものではなく、例えば、サーバー装置50と、複合機、プリンタ(画像形成装置)、ファクシミリ、コンピュータ、デジタルカメラ(画像読取装置)、スキャナ(画像読取装置)のうちのいずれか1つ以上とからなるものであってもよい。   Further, the function of the document collation processing unit 13 may be realized by an image processing system including an image processing device and a server device that is communicably connected to the image processing device. FIG. 19 shows image processing apparatuses (MFPs A, B,..., Printers A, B,..., Facsimiles A, B,..., Computers A, B,. (A, B,..., Scanners A, B,...) And a server apparatus 50 are explanatory diagrams showing the configuration of an image processing system 100 that is communicably connected. The configuration of the image processing system 100 is not limited to this. For example, the server device 50, a multifunction device, a printer (image forming device), a facsimile, a computer, a digital camera (image reading device), a scanner (image reading device). ) May be included.

上記スキャナは、原稿台、光走査部、CCD(charge coupled device)等を備えており、原稿台に載置された原稿画像を光走査部によって走査することで原稿画像を読み込んで画像データを生成する。また、上記デジタルカメラは、撮像レンズ、CCD等(画像入力装置)を備えており、原稿画像、人物や風景等を撮影して画像データを生成する。なお、上記スキャナおよびデジタルカメラは、画像を適切に再現するために所定の画像処理(例えば各種補正処理等)を施す機能を有していてもよい。上記プリンタは、コンピュータ、スキャナ、デジタルカメラによって生成された画像データに基づく画像をシート(記録用紙)に印刷する。また、上記ファクシミリは、画像入力装置より読み込まれた画像データに対して、2値化処理、解像度変換処理、回転等の処理を行って所定の形式に圧縮した画像データを相手先に送信したり、相手先から送信されてきた画像データを伸張して画像出力装置の性能に応じて回転処理や解像度変換処理、中間調処理を施し、ページ単位の画像として出力したりする。また、上記複合機は、スキャナ機能、ファクシミリ送信機能、印刷機能(複写機能、プリンタ機能)のうちの少なくとも2つ以上を有するものである。また、上記コンピュータは、スキャナやデジタルカメラにより読み込まれた画像データに対して編集を行ったり、アプリケーションソフトウェアを用いて文書の作成を行ったりする。   The scanner includes a document table, an optical scanning unit, a CCD (charge coupled device), etc., and scans the document image placed on the document table by the optical scanning unit to read the document image and generate image data. To do. The digital camera includes an imaging lens, a CCD, and the like (image input device), and shoots a document image, a person, a landscape, and the like to generate image data. The scanner and the digital camera may have a function of performing predetermined image processing (for example, various correction processes) in order to appropriately reproduce the image. The printer prints an image based on image data generated by a computer, a scanner, and a digital camera on a sheet (recording paper). Further, the facsimile performs processing such as binarization processing, resolution conversion processing, and rotation on the image data read from the image input device, and transmits the image data compressed to a predetermined format to the other party. Then, the image data transmitted from the other party is decompressed, subjected to rotation processing, resolution conversion processing, and halftone processing according to the performance of the image output apparatus, and output as a page unit image. The multifunction machine has at least two of a scanner function, a facsimile transmission function, and a printing function (copying function, printer function). The computer edits image data read by a scanner or a digital camera, or creates a document using application software.

画像処理システム100では、上述した文書照合処理部13の各部が、サーバー装置50と、サーバー装置50にネットワークを介して接続される画像処理装置とに分散して備えられている。そして、画像処理装置とサーバー装置50とが協同して文書照合処理部13の機能を実現するようになっている。   In the image processing system 100, each unit of the document collation processing unit 13 described above is distributed and provided in a server device 50 and an image processing device connected to the server device 50 via a network. The image processing apparatus and the server apparatus 50 cooperate to realize the function of the document collation processing unit 13.

図20は、文書照合処理部13が有する機能が、サーバー装置50とデジタルカラー複合機1とに分散して備えられている場合の一構成例を示すブロック図である。   FIG. 20 is a block diagram illustrating a configuration example in which the functions of the document collation processing unit 13 are provided in a distributed manner in the server device 50 and the digital color multifunction peripheral 1.

図20に示すように、デジタルカラー複合機1のカラー画像処理装置3は、前処理部30、特徴点算出部31および特徴量算出部32を備えた文書照合処理部13aと、文書照合処理部13aの動作を制御する制御部7aと、文書照合処理部13aの処理に必要な情報を記憶するメモリ8aと、外部の装置との通信を行う通信装置5とを備えている。また、サーバー装置50は、外部の装置との通信を行う通信装置51、投票処理部33、類似度判定処理部34、および登録処理部37を備えた文書照合処理部13bと、文書照合処理部13bを制御する制御部7bと、文書照合処理部13bの処理に必要な情報を記憶するメモリ8bとを備えている。なお、デジタルカラー複合機1に備えられる各機能ブロックとサーバー装置50に備えられる各機能ブロックとの間でデータの送受信が必要な場合には、制御部7aおよび制御部7bが通信装置5および51を制御して適宜データの送受信を行う。その他の機能については上述した構成と同様である。   As shown in FIG. 20, the color image processing apparatus 3 of the digital color multifunction peripheral 1 includes a document matching processing unit 13a including a preprocessing unit 30, a feature point calculating unit 31, and a feature amount calculating unit 32, and a document matching processing unit. A control unit 7a for controlling the operation of the document 13a, a memory 8a for storing information necessary for processing of the document collation processing unit 13a, and a communication device 5 for communicating with an external device are provided. The server device 50 includes a communication device 51 that performs communication with an external device, a voting processing unit 33, a similarity determination processing unit 34, and a document matching processing unit 13b that includes a registration processing unit 37, and a document matching processing unit. A control unit 7b for controlling 13b and a memory 8b for storing information necessary for processing of the document collation processing unit 13b. When data transmission / reception is required between each functional block provided in the digital color multifunction peripheral 1 and each functional block provided in the server device 50, the control unit 7a and the control unit 7b are connected to the communication devices 5 and 51, respectively. To transmit and receive data as appropriate. Other functions are the same as those described above.

また、図20の例では、特徴量算出部32の全部(特徴点抽出部32a、不変量算出部32b、ハッシュ値算出部32c)がデジタルカラー複合機1に備えられているが、これに限らず、例えば図21に示すように、特徴点抽出部32aおよび不変量算出部32bをデジタルカラー複合機1に備える一方、ハッシュ値算出部32cをサーバー装置50に備えた構成としてもよい。   In the example of FIG. 20, all of the feature amount calculation unit 32 (the feature point extraction unit 32a, the invariant calculation unit 32b, and the hash value calculation unit 32c) are provided in the digital color multifunction peripheral 1, but this is not limitative. For example, as illustrated in FIG. 21, the feature point extraction unit 32 a and the invariant calculation unit 32 b may be provided in the digital color multifunction peripheral 1, while the hash value calculation unit 32 c may be provided in the server device 50.

また、特徴量算出部32の各部をサーバー装置50に備えておき、特徴点算出部31の算出した特徴点に関するデータをデジタルカラー複合機1からサーバー装置50に送信し、サーバー装置50に備えられる特徴量算出部32がメモリ8bに格納されているハッシュテーブル103と受信した特徴点のデータとに基づいてハッシュ値を算出するようにしてもよい。また、特徴点算出部31および特徴量算出部32の各部をサーバー装置50に備えておき、デジタルカラー複合機1からサーバー装置50に入力画像データを送信し、サーバー装置50に備えられる特徴点算出部31および特徴量算出部32がサーバー装置50から受信した入力画像データとメモリ8bに格納されているハッシュテーブル103とに基づいてハッシュ値を算出するようにしてもよい。   Each unit of the feature amount calculation unit 32 is provided in the server device 50, and data related to the feature points calculated by the feature point calculation unit 31 is transmitted from the digital color multifunction peripheral 1 to the server device 50, and is provided in the server device 50. The feature amount calculation unit 32 may calculate a hash value based on the hash table 103 stored in the memory 8b and the received feature point data. Further, the feature point calculation unit 31 and the feature amount calculation unit 32 are provided in the server device 50, and input image data is transmitted from the digital color multifunction peripheral 1 to the server device 50 to calculate the feature points provided in the server device 50. The unit 31 and the feature amount calculation unit 32 may calculate the hash value based on the input image data received from the server device 50 and the hash table 103 stored in the memory 8b.

また、上記の説明では、類似性の判定処理を行う場合の例について説明したが、登録処理を行う場合には、サーバー装置50に備えられる登録処理部37が、デジタルカラー複合機1から受信した原稿IDとハッシュ値(あるいはサーバー装置50に備えられるハッシュ値算出部32cが算出したハッシュ値)とをメモリ8bに設けられたハッシュテーブル103に登録すればよい。なお、類似性判定処理を行うか登録処理を行うかは、デジタルカラー複合機1のユーザが操作パネル6を介して指定し、何れの処理を行うのかを示す信号をサーバー装置50に送信するようにしてもよく、サーバー装置50が類似性判定処理の結果、類似なしと判定した入力画像について登録処理を行うようにしてもよい。   Further, in the above description, an example in which the similarity determination process is performed has been described. However, in the case of performing the registration process, the registration processing unit 37 provided in the server device 50 has received from the digital color multifunction peripheral 1. The document ID and the hash value (or the hash value calculated by the hash value calculation unit 32c provided in the server device 50) may be registered in the hash table 103 provided in the memory 8b. Whether the similarity determination process or the registration process is performed is designated by the user of the digital color multifunction peripheral 1 via the operation panel 6, and a signal indicating which process is performed is transmitted to the server device 50. Alternatively, the registration process may be performed for the input image that the server device 50 has determined as not similar as a result of the similarity determination process.

なお、ハッシュ値算出部32cをサーバー装置50に備える場合、ハッシュテーブル103に格納されているハッシュ値の算出方法とは異なる方法で(別のハッシュ関数を用いて)ハッシュ値を算出し、算出したハッシュ値を採用してハッシュテーブル103を更新してもよい。これにより、例えば原稿画像の種類等に応じて特徴量(不変量)を参照した適切なハッシュ値をハッシュテーブル103に登録(更新)することができ、それを用いて投票処理を行えるので、照合精度(類似性の判定精度)を向上させることができる。   When the server device 50 includes the hash value calculation unit 32c, the hash value is calculated and calculated using a method different from the hash value calculation method stored in the hash table 103 (using another hash function). The hash table 103 may be updated using a hash value. As a result, for example, an appropriate hash value referring to a feature value (invariant) according to the type of document image or the like can be registered (updated) in the hash table 103, and voting processing can be performed using it. The accuracy (similarity determination accuracy) can be improved.

また、上記各実施形態において、デジタルカラー複合機1および/またはサーバー装置50に備えられる文書照合処理部および制御部を構成する各部(各ブロック)は、CPU等のプロセッサを用いてソフトウェアによって実現される。すなわち、デジタルカラー複合機1および/またはサーバー装置50は、各機能を実現する制御プログラムの命令を実行するCPU(central processing unit)、上記プログラムを格納したROM(read only memory)、上記プログラムを展開するRAM(random access memory)、上記プログラムおよび各種データを格納するメモリ等の記憶装置(記録媒体)などを備えている。そして、本発明の目的は、上述した機能を実現するソフトウェアであるデジタルカラー複合機1および/またはサーバー装置50の制御プログラムのプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)をコンピュータで読み取り可能に記録した記録媒体を、デジタルカラー複合機1および/またはサーバー装置50に供給し、そのコンピュータ(またはCPUやMPU)が記録媒体に記録されているプログラムコードを読み出し実行することによって達成される。   In each of the above embodiments, each unit (each block) constituting the document collation processing unit and the control unit provided in the digital color multifunction peripheral 1 and / or the server device 50 is realized by software using a processor such as a CPU. The That is, the digital color multifunction peripheral 1 and / or the server device 50 develops a central processing unit (CPU) that executes instructions of a control program that realizes each function, a read only memory (ROM) that stores the program, and the program. A random access memory (RAM), and a storage device (recording medium) such as a memory for storing the program and various data. An object of the present invention is to read the program code (execution format program, intermediate code program, source program) of the control program of the digital color multifunction peripheral 1 and / or the server device 50, which is software that realizes the functions described above, with a computer. This is achieved by supplying the recording medium recorded as possible to the digital color multifunction peripheral 1 and / or the server device 50, and reading out and executing the program code recorded on the recording medium by the computer (or CPU or MPU). .

上記記録媒体としては、例えば、磁気テープやカセットテープ等のテープ系、フロッピー(登録商標)ディスク/ハードディスク等の磁気ディスクやCD−ROM/MO/MD/DVD/CD−R等の光ディスクを含むディスク系、ICカード(メモリカードを含む)/光カード等のカード系、あるいはマスクROM/EPROM/EEPROM/フラッシュROM等の半導体メモリ系などを用いることができる。   Examples of the recording medium include a tape system such as a magnetic tape and a cassette tape, a magnetic disk such as a floppy (registered trademark) disk / hard disk, and an optical disk such as a CD-ROM / MO / MD / DVD / CD-R. Card system such as IC card, IC card (including memory card) / optical card, or semiconductor memory system such as mask ROM / EPROM / EEPROM / flash ROM.

また、デジタルカラー複合機1および/またはサーバー装置50を通信ネットワークと接続可能に構成し、通信ネットワークを介して上記プログラムコードを供給してもよい。この通信ネットワークとしては、特に限定されず、例えば、インターネット、イントラネット、エキストラネット、LAN、ISDN、VAN、CATV通信網、仮想専用網(virtual private network)、電話回線網、移動体通信網、衛星通信網等が利用可能である。また、通信ネットワークを構成する伝送媒体としては、特に限定されず、例えば、IEEE1394、USB、電力線搬送、ケーブルTV回線、電話線、ADSL回線等の有線でも、IrDAやリモコンのような赤外線、Bluetooth(登録商標)、802.11無線、HDR、携帯電話網、衛星回線、地上波デジタル網等の無線でも利用可能である。なお、本発明は、上記プログラムコードが電子的な伝送で具現化された、搬送波に埋め込まれたコンピュータデータ信号の形態でも実現され得る。   Further, the digital color multifunction peripheral 1 and / or the server device 50 may be configured to be connectable to a communication network, and the program code may be supplied via the communication network. The communication network is not particularly limited. For example, the Internet, intranet, extranet, LAN, ISDN, VAN, CATV communication network, virtual private network, telephone line network, mobile communication network, satellite communication. A net or the like is available. Further, the transmission medium constituting the communication network is not particularly limited. For example, even in the case of wired such as IEEE 1394, USB, power line carrier, cable TV line, telephone line, ADSL line, etc., infrared rays such as IrDA and remote control, Bluetooth ( (Registered trademark), 802.11 wireless, HDR, mobile phone network, satellite line, terrestrial digital network, and the like can also be used. The present invention can also be realized in the form of a computer data signal embedded in a carrier wave in which the program code is embodied by electronic transmission.

また、デジタルカラー複合機1および/またはサーバー装置50の各ブロックは、ソフトウェアを用いて実現されるものに限らず、ハードウェアロジックによって構成されるものであってもよく、処理の一部を行うハードウェアと当該ハードウェアの制御や残余の処理を行うソフトウェアを実行する演算手段とを組み合わせたものであってもよい。   In addition, each block of the digital color multifunction peripheral 1 and / or the server device 50 is not limited to being realized using software, and may be configured by hardware logic, and performs a part of the processing. A combination of hardware and arithmetic means for executing software for controlling the hardware and performing the remaining processing may be used.

本発明のコンピュータシステムは、フラットベッドスキャナ・フィルムスキャナ・デジタルカメラなどの画像入力装置、所定のプログラムがロードされることにより上記類似度算出処理や類似性判定処理など様々な処理が行われるコンピュータ、コンピュータの処理結果を表示するCRTディスプレイ・液晶ディスプレイなどの画像表示装置、およびコンピュータの処理結果を紙などに出力するプリンタ等の画像形成装置により構成されてもよい。さらには、ネットワークを介してサーバーなどに接続するための通信手段としてのネットワークカードやモデムなどが備えられていてもよい。   The computer system of the present invention includes an image input device such as a flatbed scanner, a film scanner, and a digital camera, a computer in which various processes such as the similarity calculation process and the similarity determination process are performed by loading a predetermined program, An image display device such as a CRT display or a liquid crystal display that displays the processing results of the computer, and an image forming device such as a printer that outputs the processing results of the computer to paper or the like may be used. Furthermore, a network card, a modem, or the like as communication means for connecting to a server or the like via a network may be provided.

本発明は上述した実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能である。すなわち、請求項に示した範囲で適宜変更した技術的手段を組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。   The present invention is not limited to the above-described embodiments, and various modifications can be made within the scope shown in the claims. That is, embodiments obtained by combining technical means appropriately modified within the scope of the claims are also included in the technical scope of the present invention.

本発明は、入力画像データに含まれる特徴点を算出し、算出した特徴点同士の相対位置に基づいて上記入力画像データの特徴量を算出する画像処理装置に適用できる。   The present invention can be applied to an image processing apparatus that calculates feature points included in input image data and calculates the feature amount of the input image data based on the relative positions of the calculated feature points.

本発明の一実施形態にかかる画像処理装置に備えられる文書照合処理部の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the document collation process part with which the image processing apparatus concerning one Embodiment of this invention is equipped. 本発明の一実施形態にかかる画像処理装置の概略構成を示すブロック図である。1 is a block diagram illustrating a schematic configuration of an image processing apparatus according to an embodiment of the present invention. 図1に示した文書照合処理部に備えられる前処理部の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the pre-processing part with which the document collation process part shown in FIG. 1 is equipped. 図3に示した前処理部のMTF処理部に備えられる混合フィルタのフィルタ係数の一例を示す説明図である。It is explanatory drawing which shows an example of the filter coefficient of the mixing filter with which the MTF process part of the pre-processing part shown in FIG. 3 is equipped. 図1に示した文書照合処理部に備えられる特徴点算出部の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the feature point calculation part with which the document collation process part shown in FIG. 1 is equipped. 図5に示した特徴点算出部に備えられる回転画像生成部によって生成される自己回転画像の一例を示す説明図である。It is explanatory drawing which shows an example of the self-rotation image produced | generated by the rotation image production | generation part with which the feature point calculation part shown in FIG. 5 is equipped. 図5に示した特徴点算出部において用いられる部分画像のサイズを示す説明図である。It is explanatory drawing which shows the size of the partial image used in the feature point calculation part shown in FIG. 図1に示した文書照合処理部に備えられる特徴量算出部によって特徴量を算出する際に抽出される注目特徴点および周辺特徴点の一例を示す説明図である。It is explanatory drawing which shows an example of the attention feature point and periphery feature point which are extracted when the feature-value calculation part with which the document collation process part shown in FIG. 1 is provided calculates a feature-value. (a)〜(c)は、図2に示した画像処理装置の特徴量算出部によって特徴量を算出する際に抽出される注目特徴点および周辺特徴点の組み合わせの一例を示す説明図である。(A)-(c) is explanatory drawing which shows an example of the combination of the attention feature point and surrounding feature point which are extracted when the feature-value calculation part of the image processing apparatus shown in FIG. 2 calculates a feature-value. . (a)〜(c)は、図2に示した画像処理装置の特徴量算出部によって特徴量を算出する際に抽出される注目特徴点および周辺特徴点の組み合わせの一例を示す説明図である。(A)-(c) is explanatory drawing which shows an example of the combination of the attention feature point and surrounding feature point which are extracted when the feature-value calculation part of the image processing apparatus shown in FIG. 2 calculates a feature-value. . (a)および(b)は、図1に示した文書照合処理部において、ハッシュテーブルに登録されるハッシュ値および入力画像データを表すインデックスの一例を示す説明図である。(A) And (b) is explanatory drawing which shows an example of the index showing the hash value registered into a hash table, and input image data in the document collation process part shown in FIG. 図1に示した文書照合処理部に備えられる投票処理部における、各登録画像に対する投票数の一例を示すグラフである。3 is a graph showing an example of the number of votes for each registered image in a voting processing unit provided in the document matching processing unit shown in FIG. 1. 図1に示した文書照合処理部における処理の流れを示すフロー図である。It is a flowchart which shows the flow of a process in the document collation process part shown in FIG. 図1に示した文書照合処理部に備えられる特徴点算出部における処理の流れを示すフロー図である。It is a flowchart which shows the flow of a process in the feature point calculation part with which the document collation process part shown in FIG. 1 is equipped. 画像読取装置の読取位置における所定の配置角度に対する原稿の傾斜角度と、上記原稿から読み取られ入力画像データに含まれる部分画像と、この部分画像を回転させた自己回転画像との関係の一例を示す説明図である。An example of the relationship between an inclination angle of a document with respect to a predetermined arrangement angle at a reading position of the image reading apparatus, a partial image read from the document and included in input image data, and a self-rotated image obtained by rotating the partial image is shown. It is explanatory drawing. 入力画像データに含まれる部分画像と、この入力画像データを変倍した画像データに含まれる部分画像と、この部分画像を回転させた自己回転画像との関係の一例を示す説明図である。It is explanatory drawing which shows an example of the relationship between the partial image contained in input image data, the partial image contained in the image data which scaled this input image data, and the self-rotation image which rotated this partial image. (a)は2値画像データから抽出された部分画像の一例を示す説明図であり、(b)は(a)に示した部分画像を回転させた自己回転画像の一例を示す説明図である。(A) is explanatory drawing which shows an example of the partial image extracted from binary image data, (b) is explanatory drawing which shows an example of the self-rotation image which rotated the partial image shown to (a). . 本発明の一実施形態にかかる画像処理装置の変形例を示すブロック図である。It is a block diagram which shows the modification of the image processing apparatus concerning one Embodiment of this invention. 本発明の一実施形態にかかる画像処理システムの構成を示す説明図である。It is explanatory drawing which shows the structure of the image processing system concerning one Embodiment of this invention. 本発明の一実施形態にかかる画像処理システムの一構成例を示すブロック図である。1 is a block diagram illustrating a configuration example of an image processing system according to an embodiment of the present invention. 本発明の一実施形態にかかる画像処理システムの他の構成例を示すブロック図である。It is a block diagram which shows the other structural example of the image processing system concerning one Embodiment of this invention. (a)〜(d)は、本発明の一実施形態にかかる画像処理装置の特徴量算出部によって特徴量を算出する際に抽出される注目特徴点および周辺特徴点の組み合わせの一例を示す説明図である。(A)-(d) is description which shows an example of the combination of the attention feature point and peripheral feature point which are extracted when the feature-value calculation part of the image processing apparatus concerning one Embodiment of this invention calculates a feature-value. FIG. (a)〜(d)は、本発明の一実施形態にかかる画像処理装置の特徴量算出部によって特徴量を算出する際に抽出される注目特徴点および周辺特徴点の組み合わせの一例を示す説明図である。(A)-(d) is description which shows an example of the combination of the attention feature point and peripheral feature point which are extracted when the feature-value calculation part of the image processing apparatus concerning one Embodiment of this invention calculates a feature-value. FIG. 部分画像の一例を示す説明図である。It is explanatory drawing which shows an example of a partial image. 部分画像の一例を示す説明図である。It is explanatory drawing which shows an example of a partial image. 部分画像の一例を示す説明図である。It is explanatory drawing which shows an example of a partial image. (a)はカラー画像からなる入力画像データの一例を示す説明図であり、(b)〜(d)は(a)の画像データに対応するRチャンネル、Gチャンネル、Bチャンネルの多値画像データを示す説明図である。(A) is explanatory drawing which shows an example of the input image data which consists of a color image, (b)-(d) is multi-value image data of R channel, G channel, and B channel corresponding to the image data of (a). It is explanatory drawing which shows.

符号の説明Explanation of symbols

1 デジタルカラー複合機(画像処理装置、画像形成装置、画像読取装置、画像処理装置)
1’ フラットベッドスキャナ(画像処理装置、画像読取装置)
2 カラー画像入力装置(入力データ取得部、画像入力装置)
3,3’ カラー画像処理装置(画像処理装置)
4 カラー画像出力装置(画像出力部)
5 通信装置(入力データ取得部、送信装置)
6 操作パネル(処理入力部)
7,7a,7b 制御部
8,8a,8b メモリ(記憶部)
13,13a,13b 文書照合処理部(類似度算出部)
30 前処理部
31 特徴点算出部(特徴点検出部)
32 特徴量算出部
32a 特徴点抽出部
32b 不変量算出部
32c ハッシュ値算出部
33 投票処理部(類似度算出部)
34 類似度判定処理部
37 登録処理部
45 パターン検知処理部(部分画像抽出部)
46 回転画像生成部
47 一致度算出部
48 一致度判定部(検出部)
50 サーバー装置
100 画像処理システム
103 ハッシュテーブル
1 Digital color MFP (image processing device, image forming device, image reading device, image processing device)
1 'Flatbed scanner (image processing device, image reading device)
2 Color image input device (input data acquisition unit, image input device)
3,3 'color image processing device (image processing device)
4 color image output device (image output unit)
5 Communication devices (input data acquisition unit, transmission device)
6 Operation panel (Processing input section)
7, 7a, 7b Control unit 8, 8a, 8b Memory (storage unit)
13, 13a, 13b Document collation processing unit (similarity calculation unit)
30 Pre-processing unit 31 Feature point calculation unit (feature point detection unit)
32 feature amount calculation unit 32a feature point extraction unit 32b invariant calculation unit 32c hash value calculation unit 33 voting processing unit (similarity calculation unit)
34 similarity determination processing unit 37 registration processing unit 45 pattern detection processing unit (partial image extraction unit)
46 Rotated Image Generation Unit 47 Matching Level Calculation Unit 48 Matching Level Determination Unit (Detection Unit)
50 Server apparatus 100 Image processing system 103 Hash table

Claims (16)

入力画像データに含まれる特徴点を検出する特徴点検出部と、上記特徴点検出部が検出した特徴点同士の相対位置に基づいて上記入力画像データの特徴量を算出する特徴量算出部とを備えた画像処理装置であって、
上記特徴点検出部は、
上記入力画像データから注目画素を中心とする複数の画素からなる部分画像を抽出する部分画像抽出部と、
上記注目画素を中心として上記部分画像を90度、180度、または120度回転させた自己回転画像を生成する回転画像生成部と、
上記部分画像と上記自己回転画像との相関値Sを算出する一致度算出部と、
上記相関値Sと予め設定された閾値とを比較することで上記部分画像と上記自己回転画像とが一致するか否かを判定する一致度判定部と、
上記一致度判定部が一致すると判定した部分画像における注目画素、またはこの注目画素を含む複数の画素からなるブロックを上記特徴点と検出する検出部とを備え
上記一致度算出部は、
上記部分画像をI、上記自己回転画像をT、上記部分画像および上記自己回転画像の画素数をN、上記部分画像および上記自己回転画像における各画素の画素番号をiとすると、
Figure 0004362537
に基づいて上記相関値Sを算出することを特徴とする画像処理装置。
A feature point detector that detects feature points included in the input image data, and a feature amount calculator that calculates the feature amount of the input image data based on the relative positions of the feature points detected by the feature point detector. An image processing apparatus comprising:
The feature point detector is
A partial image extraction unit that extracts a partial image including a plurality of pixels centered on the target pixel from the input image data;
A rotated image generating unit that generates a self-rotating image obtained by rotating the partial image around the target pixel by 90 degrees, 180 degrees, or 120 degrees ;
A degree of coincidence calculation unit for calculating a correlation value S between the partial image and the self-rotating image;
A coincidence determination unit determines whether the above partial image and the self-rotation image matches by comparing the correlation value S and a preset threshold,
A detection unit that detects a pixel of interest in a partial image determined to match by the matching degree determination unit or a block including a plurality of pixels including the pixel of interest as the feature point ;
The coincidence calculation unit
If the partial image is I, the self-rotating image is T, the number of pixels of the partial image and the self-rotating image is N, and the pixel number of each pixel in the partial image and the self-rotating image is i,
Figure 0004362537
The correlation value S is calculated based on the image processing apparatus.
登録画像の特徴量を記憶した記憶部および通信可能に接続された外部装置から登録画像の特徴量を取得する登録画像取得部のうちの少なくとも一方と、
上記特徴量算出部が算出した入力画像データの特徴量と登録画像の特徴量とを比較して両画像の類似度を算出する類似度算出部とを備えていることを特徴とする請求項1に記載の画像処理装置。
At least one of a storage unit that stores the feature amount of the registered image and a registered image acquisition unit that acquires the feature amount of the registered image from an external device that is communicably connected;
2. The image processing apparatus according to claim 1, further comprising: a similarity calculating unit that calculates a similarity between both images by comparing the feature amount of the input image data calculated by the feature amount calculating unit with the feature amount of the registered image. An image processing apparatus according to 1.
画像データの特徴量と画像データを識別するための識別情報とを記憶する記憶部と、
上記特徴量算出部が上記入力画像データから算出した特徴量と、上記入力画像データを識別するための識別情報とを対応付けて上記記憶部に記憶させる登録処理部とを備えていることを特徴とする請求項1または2に記載の画像処理装置。
A storage unit for storing the feature amount of the image data and identification information for identifying the image data;
The feature amount calculation unit includes a registration processing unit that associates a feature amount calculated from the input image data with identification information for identifying the input image data and stores the information in the storage unit. The image processing apparatus according to claim 1 or 2.
上記部分画像に画像パターンが含まれているか否かを判定するパターン検知処理部を備え、
上記回転画像生成部は、上記パターン検知処理部において画像パターンが含まれていると判定された部分画像について上記自己回転画像を生成することを特徴とする請求項1から3のいずれか1項に記載の画像処理装置。
A pattern detection processing unit for determining whether the partial image includes an image pattern;
The said rotation image production | generation part produces | generates the said self-rotation image about the partial image determined that the image pattern was contained in the said pattern detection process part, The any one of Claim 1 to 3 characterized by the above-mentioned. The image processing apparatus described.
上記回転画像生成部は、各部分画像について回転角度の異なる複数の自己回転画像を生成し、
上記一致度判定部は、上記部分画像とこの部分画像を回転させて得られる各自己回転画像とが一致するか否かをそれぞれ判定し、
上記検出部は、上記部分画像が少なくとも1つの自己回転画像と一致する場合に、この部分画像における注目画素、またはこの注目画素を含む複数の画素からなるブロックを上記特徴点として検出することを特徴とする請求項1から4のいずれか1項に記載の画像処理装置。
The rotation image generation unit generates a plurality of self-rotation images having different rotation angles for each partial image,
The degree-of-match determination unit determines whether or not the partial image and each self-rotated image obtained by rotating the partial image match,
When the partial image matches at least one self-rotating image, the detection unit detects a pixel of interest in the partial image or a block composed of a plurality of pixels including the pixel of interest as the feature point. The image processing apparatus according to any one of claims 1 to 4.
上記部分画像抽出部は、部分画像の抽出対象領域のサイズを異ならせることにより、複数種類の部分画像を抽出することを特徴とする請求項1から5のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the partial image extraction unit extracts a plurality of types of partial images by changing the sizes of the extraction target areas of the partial images. . 上記部分画像抽出部は、
部分画像の抽出対象領域のサイズを第1サイズに設定して部分画像の抽出を行う第1抽出処理と、
部分画像の抽出対象領域のサイズを上記第1サイズよりも大きい第2サイズに設定して部分画像の抽出を行う第2処理とを行い、
上記第2処理を行う際、注目画素を中心とする第2サイズの抽出対象領域からこの注目画素を中心とする第1サイズの抽出対象領域を除外して部分画像の抽出を行うことを特徴とする請求項6に記載の画像処理装置。
The partial image extraction unit
A first extraction process for extracting the partial image by setting the size of the extraction target area of the partial image to the first size;
Performing a second process of extracting a partial image by setting the size of the extraction target area of the partial image to a second size larger than the first size,
When performing the second process, a partial image is extracted by excluding the first size extraction target region centered on the target pixel from the second size extraction target region centered on the target pixel. The image processing apparatus according to claim 6.
上記部分画像抽出部は、
入力画像データにおける複数の色成分について色成分毎に部分画像の抽出を行うことを特徴とする請求項1から7のいずれか1項に記載の画像処理装置。
The partial image extraction unit
The image processing apparatus according to claim 1, wherein a partial image is extracted for each color component of a plurality of color components in the input image data.
入力画像データに対して平滑化処理を施す平滑化処理部を備え、
上記特徴点検出部は、上記平滑化処理が施された入力画像データに基づいて上記特徴点を検出することを特徴とする請求項1から8のいずれか1項に記載の画像処理装置。
A smoothing processing unit that performs a smoothing process on the input image data;
The image processing apparatus according to claim 1, wherein the feature point detection unit detects the feature point based on input image data that has been subjected to the smoothing process.
請求項1から9のいずれか1項に記載の画像処理装置と、入力画像データに応じた画像を記録材上に形成する画像出力部とを備えていることを特徴とする画像形成装置。   An image forming apparatus comprising: the image processing apparatus according to claim 1; and an image output unit that forms an image corresponding to input image data on a recording material. 請求項1から9のいずれか1項に記載の画像処理装置と、入力画像データを通信可能に接続された他の装置に送信する送信装置とを備えていることを特徴とする画像送信装置。   An image transmission apparatus comprising: the image processing apparatus according to claim 1; and a transmission apparatus that transmits input image data to another apparatus connected to be communicable. 原稿画像を読み取って入力画像データを取得する画像入力装置と、
請求項1から9のいずれか1項に記載の画像処理装置とを備えていることを特徴とする画像読取装置。
An image input device that reads a document image and obtains input image data;
An image reading apparatus comprising: the image processing apparatus according to claim 1.
画像処理装置と、この画像処理装置に対して通信可能に接続されたサーバー装置とを備え、入力画像データに含まれる特徴点を検出する特徴点検出部と、上記特徴点検出部が検出した特徴点同士の相対位置に基づいて上記入力画像データの特徴量を算出する特徴量算出部とが上記画像処理装置または上記サーバー装置に備えられるか、あるいは上記画像処理装置と上記サーバー装置とに分散して備えられている画像処理システムであって、
上記特徴点検出部は、
上記入力画像データから注目画素を中心とする複数の画素からなる部分画像を抽出する部分画像抽出部と、
上記注目画素を中心として上記部分画像を90度、180度、または120度回転させた自己回転画像を生成する回転画像生成部と、
上記部分画像と上記自己回転画像との相関値Sを算出する一致度算出部と、
上記相関値Sと予め設定された閾値とを比較することで上記部分画像上記自己回転画像とが一致するか否かを判定する一致度判定部と、
上記一致度判定部が一致すると判定した部分画像における注目画素、またはこの注目画素を含む複数の画素からなるブロックを上記特徴点として検出する検出部とを備え、
上記一致度算出部は、
上記部分画像をI、上記自己回転画像をT、上記部分画像および上記自己回転画像の画素数をN、上記部分画像および上記自己回転画像における各画素の画素番号をiとすると、
Figure 0004362537
に基づいて上記相関値Sを算出することを特徴とする画像処理システム。
An image processing device and a server device communicably connected to the image processing device, a feature point detection unit for detecting a feature point included in input image data, and a feature detected by the feature point detection unit A feature amount calculation unit that calculates a feature amount of the input image data based on the relative positions of the points is provided in the image processing device or the server device, or distributed between the image processing device and the server device. An image processing system provided with
The feature point detector is
A partial image extraction unit that extracts a partial image including a plurality of pixels centered on the target pixel from the input image data;
A rotated image generating unit that generates a self-rotating image obtained by rotating the partial image around the target pixel by 90 degrees, 180 degrees, or 120 degrees ;
A degree of coincidence calculation unit for calculating a correlation value S between the partial image and the self-rotating image;
A coincidence determination unit determines whether the above partial image and the self-rotation image matches by comparing the correlation value S and a preset threshold,
A detection unit that detects, as the feature point, a pixel of interest in a partial image that is determined to be coincident by the matching degree determination unit, or a block that includes a plurality of pixels including the pixel of interest.
The coincidence calculation unit
If the partial image is I, the self-rotating image is T, the number of pixels of the partial image and the self-rotating image is N, and the pixel number of each pixel in the partial image and the self-rotating image is i,
Figure 0004362537
The correlation value S is calculated based on the image processing system.
入力画像データに含まれる特徴点を検出する特徴点検出工程と、上記特徴点検出工程で検出した特徴点同士の相対位置に基づいて上記入力画像データの特徴量を算出する特徴量算出工程とを含む画像処理方法であって、
上記特徴点検出工程は、
上記入力画像データから注目画素を中心とする複数の画素からなる部分画像を抽出する部分画像抽出工程と、
上記部分画像を90度、180度、または120度回転させた自己回転画像を生成する回転画像生成工程と、
上記部分画像と上記自己回転画像との相関値Sを算出する一致度算出工程と、
上記相関値Sと予め設定された閾値とを比較することで上記部分画像上記自己回転画像とが一致するか否かを判定する一致度判定工程と、
上記一致度判定工程において一致すると判定された部分画像における注目画素、またはこの注目画素を含む複数の画素からなるブロックを上記特徴点として検出する検出工程とを含み、
上記一致度算出工程では、
上記部分画像をI、上記自己回転画像をT、上記部分画像および上記自己回転画像の画素数をN、上記部分画像および上記自己回転画像における各画素の画素番号をiとすると、
Figure 0004362537
に基づいて上記相関値Sを算出することを特徴とする画像処理方法。
A feature point detecting step for detecting a feature point included in the input image data, and a feature amount calculating step for calculating a feature amount of the input image data based on a relative position between the feature points detected in the feature point detecting step. An image processing method comprising:
The feature point detection step includes
A partial image extraction step of extracting a partial image composed of a plurality of pixels centered on the target pixel from the input image data;
A rotated image generation step of generating a self-rotated image obtained by rotating the partial image by 90 degrees, 180 degrees, or 120 degrees ;
A degree of coincidence calculation step of calculating a correlation value S between the partial image and the self-rotating image;
A coincidence determination step of determining whether the said partial image and the self-rotation image matches by comparing the correlation value S and a preset threshold,
Look including a detection step of detecting a block including a plurality of pixels including a target pixel or the pixel of interest, in the determination portion image to match in the match degree determining step as point above features,
In the coincidence calculation step,
If the partial image is I, the self-rotating image is T, the number of pixels of the partial image and the self-rotating image is N, and the pixel number of each pixel in the partial image and the self-rotating image is i,
Figure 0004362537
The correlation value S is calculated based on the image processing method.
請求項1から9のいずれか1項に記載の画像処理装置を動作させるプログラムであって、コンピュータを上記特徴点検出部として機能させるためのプログラム。   A program for operating the image processing apparatus according to any one of claims 1 to 9, wherein the program causes a computer to function as the feature point detection unit. 請求項15に記載のプログラムを記録したコンピュータ読み取り可能な記録媒体。   The computer-readable recording medium which recorded the program of Claim 15.
JP2008110739A 2007-06-06 2008-04-21 Image processing apparatus, image forming apparatus, image transmitting apparatus, image reading apparatus, image processing system, image processing method, image processing program, and recording medium thereof Active JP4362537B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2008110739A JP4362537B2 (en) 2007-06-06 2008-04-21 Image processing apparatus, image forming apparatus, image transmitting apparatus, image reading apparatus, image processing system, image processing method, image processing program, and recording medium thereof
CN2008100997414A CN101320425B (en) 2007-06-06 2008-06-04 Image processing apparatus, image forming apparatus, and image processing method
US12/133,989 US8184912B2 (en) 2007-06-06 2008-06-05 Image processing apparatus, image forming apparatus, image processing system, and image processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2007150969 2007-06-06
JP2008110739A JP4362537B2 (en) 2007-06-06 2008-04-21 Image processing apparatus, image forming apparatus, image transmitting apparatus, image reading apparatus, image processing system, image processing method, image processing program, and recording medium thereof

Publications (2)

Publication Number Publication Date
JP2009015819A JP2009015819A (en) 2009-01-22
JP4362537B2 true JP4362537B2 (en) 2009-11-11

Family

ID=40180466

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008110739A Active JP4362537B2 (en) 2007-06-06 2008-04-21 Image processing apparatus, image forming apparatus, image transmitting apparatus, image reading apparatus, image processing system, image processing method, image processing program, and recording medium thereof

Country Status (2)

Country Link
JP (1) JP4362537B2 (en)
CN (1) CN101320425B (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106504223B (en) * 2016-09-12 2019-06-14 北京小米移动软件有限公司 The reference angle determination method and device of picture
JP6923159B2 (en) * 2017-09-26 2021-08-18 株式会社エクォス・リサーチ Information processing device
TWI820194B (en) 2018-08-31 2023-11-01 日商索尼半導體解決方案公司 Electronic equipment and solid-state imaging devices
JP6638851B1 (en) * 2018-08-31 2020-01-29 ソニー株式会社 Imaging device, imaging system, imaging method, and imaging program
WO2020054067A1 (en) * 2018-09-14 2020-03-19 三菱電機株式会社 Image information processing device, image information processing method, and image information processing program
CN109727232B (en) * 2018-12-18 2023-03-31 上海出版印刷高等专科学校 Method and apparatus for detecting dot area ratio of printing plate
JP7381211B2 (en) * 2019-03-18 2023-11-15 セイコーエプソン株式会社 Image processing device and image processing method
CN112150464B (en) * 2020-10-23 2024-01-30 腾讯科技(深圳)有限公司 Image detection method and device, electronic equipment and storage medium

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5850466A (en) * 1995-02-22 1998-12-15 Cognex Corporation Golden template comparison for rotated and/or scaled images
CN100388319C (en) * 2006-07-25 2008-05-14 深圳大学 Multi-viewpoint attitude estimating and self-calibrating method for three-dimensional active vision sensor

Also Published As

Publication number Publication date
CN101320425B (en) 2012-05-16
CN101320425A (en) 2008-12-10
JP2009015819A (en) 2009-01-22

Similar Documents

Publication Publication Date Title
JP4362528B2 (en) Image collation apparatus, image collation method, image data output processing apparatus, program, and recording medium
JP4362538B2 (en) Image processing apparatus, image forming apparatus, image transmitting apparatus, image reading apparatus, image processing system, image processing method, image processing program, and recording medium thereof
JP4565015B2 (en) Image processing apparatus, image forming apparatus, image processing system, image processing program, and recording medium thereof
US7974474B2 (en) Method for matching images, image matching device, image data output apparatus, and recording medium
JP4469885B2 (en) Image collation apparatus, image collation method, image data output processing apparatus, program, and recording medium
US8351707B2 (en) Image processing apparatus, image forming apparatus, image processing system, and image processing method
JP4604100B2 (en) Image processing method, image processing apparatus, image forming apparatus, program, and storage medium
US8103108B2 (en) Image processing apparatus, image forming apparatus, image processing system, and image processing method
JP4362537B2 (en) Image processing apparatus, image forming apparatus, image transmitting apparatus, image reading apparatus, image processing system, image processing method, image processing program, and recording medium thereof
US20090028436A1 (en) Image processing apparatus, image forming apparatus and image reading apparatus including the same, and image processing method
JP4913094B2 (en) Image collation method, image collation apparatus, image data output processing apparatus, program, and storage medium
US8180159B2 (en) Image processing apparatus, image forming apparatus, image processing system, and image processing method
US8184912B2 (en) Image processing apparatus, image forming apparatus, image processing system, and image processing method
JP4378413B2 (en) Image processing apparatus, image forming apparatus, image reading apparatus, image processing system, image processing method, image processing program, and recording medium thereof
JP4486995B2 (en) Image processing system
JP4487000B2 (en) Image processing apparatus, image forming apparatus, image processing method, image processing system, image processing program, and recording medium thereof
JP2008269582A (en) Image processing apparatus, image forming apparatus, image transmitter, image reader, image processing system, image processing method, image processing program and the recording medium
JP4588771B2 (en) Image processing method, image processing apparatus, image forming apparatus, program, and storage medium
JP4487003B2 (en) Image data output processing apparatus, image data output processing method, program, and recording medium
JP4393556B2 (en) Image processing method, image processing apparatus, image reading apparatus, image forming apparatus, computer program, and computer-readable recording medium
JP4340714B2 (en) Document extraction method, document extraction apparatus, computer program, and recording medium
JP2010130634A (en) Image processing apparatus, image data output processing device, image processing method, program and recording medium therefor

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090511

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090519

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090623

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090721

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090817

R150 Certificate of patent or registration of utility model

Ref document number: 4362537

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120821

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120821

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130821

Year of fee payment: 4