JP2008192011A - Difference extracting device, image reader, difference extracting method, program and recording medium thereof - Google Patents

Difference extracting device, image reader, difference extracting method, program and recording medium thereof Download PDF

Info

Publication number
JP2008192011A
JP2008192011A JP2007027354A JP2007027354A JP2008192011A JP 2008192011 A JP2008192011 A JP 2008192011A JP 2007027354 A JP2007027354 A JP 2007027354A JP 2007027354 A JP2007027354 A JP 2007027354A JP 2008192011 A JP2008192011 A JP 2008192011A
Authority
JP
Japan
Prior art keywords
image data
image
difference
evaluation value
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007027354A
Other languages
Japanese (ja)
Inventor
Yumiko Kikuoka
由美子 菊岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2007027354A priority Critical patent/JP2008192011A/en
Publication of JP2008192011A publication Critical patent/JP2008192011A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a difference extracting device capable of extracting the differences among images. <P>SOLUTION: This device comprises an image division processing part 32 which divides first image data as image data of a first image and second image data as image data of a second image into a plurality of blocks, respectively such that the respective blocks of both the image data correspond to each other according to a region on each image, an evaluation value calculation part 33 which calculates an evaluation value indicating the degree of difference between the first image data and the second image data for the blocks corresponding to each other in both the image data, and a difference extraction part 34 which extracts the difference of both the image data by comparing the evaluation value and a threshold value. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、画像同士の相違箇所を抽出する相違箇所抽出装置に関するものである。   The present invention relates to a difference location extraction apparatus that extracts a difference location between images.

従来から、用紙上に画像を形成する画像形成装置の性能(特に出力性能)を評価するために、用紙上に形成した画像と、予め用意されているサンプル画像とを画像読取装置によって読み取り、両画像の画像データを比較して類似度(同一性あるいは相違性)を判定することが行われている。また、画像形成装置の性能評価以外にも、画像同士の類似度を判定する必要のある場面が多々ある。   Conventionally, in order to evaluate the performance (particularly output performance) of an image forming apparatus that forms an image on a sheet, an image formed on the sheet and a sample image prepared in advance are read by an image reading apparatus. The similarity (identity or difference) is determined by comparing image data of images. Besides the performance evaluation of the image forming apparatus, there are many scenes where it is necessary to determine the similarity between images.

ところで、画像同士の類似度の判定を人間の目視によって行う場合、評価者や判断時期等によって判断結果が変わることもあり、評価基準が不明瞭になりがちである。また、相違点の見逃し等の誤判定が発生する場合もある。   By the way, when determining the similarity between images by human eyes, the determination result may change depending on the evaluator, the determination time, etc., and the evaluation criteria tend to be unclear. In addition, an erroneous determination such as missing a difference may occur.

そこで、特許文献1には、一対のデジタル画像同士の類似度を、人間を介さずに判断するための類似度判断装置が提案されている。特許文献1の類似度判断装置は、1対のデジタル画像のそれぞれについて画像データとその度数との関係を示すヒストグラムを作成し、両画像のヒストグラムに基づいて両画像の類似度を示す評価データ(一方の画像に対して他方の画像がどれだけ近いかを示すSN比)を計算し、評価データに基づいて両画像の類似度を判定するようになっている。
特開2003−58886号公報(公開日:2003年2月28日)
Therefore, Patent Document 1 proposes a similarity determination device for determining the similarity between a pair of digital images without using a human. The similarity determination device of Patent Document 1 creates a histogram indicating the relationship between image data and the frequency for each of a pair of digital images, and evaluation data (similarity between both images based on the histograms of both images). The S / N ratio indicating how close the other image is to one image) is calculated, and the similarity between both images is determined based on the evaluation data.
Japanese Patent Laying-Open No. 2003-58886 (Publication date: February 28, 2003)

しかしながら、上記特許文献1の技術では、画像全体の類似度を判定することはできるものの、類似性の低い箇所(相違箇所)を特定することができないという問題がある。   However, although the technique disclosed in Patent Document 1 can determine the similarity of the entire image, there is a problem in that a portion with a low similarity (difference portion) cannot be specified.

本発明は、上記の問題点に鑑みてなされたものであり、その第1の目的は、画像同士の相違箇所を抽出することのできる相違箇所抽出装置、画像読取装置、相違箇所抽出方法、プログラムおよびその記録媒体を提供することにある。   The present invention has been made in view of the above-described problems, and a first object thereof is to provide a difference location extraction device, an image reading device, a difference location extraction method, and a program capable of extracting a difference location between images. And providing a recording medium thereof.

本発明の相違箇所抽出装置は、上記の課題を解決するために、第1画像の画像データである第1画像データと第2画像の画像データである第2画像データとを取得するデータ取得部を備え、第1画像データおよび第2画像データに基づいて第1画像と第2画像との相違箇所を抽出する相違箇所抽出装置であって、上記データ取得部が取得した第1画像データと第2画像データとを、第1画像データの各ブロックと第2画像データの各ブロックとが互いに対応するようにそれぞれ複数のブロックに分割する画像分割処理部と、上記両画像データにおける第1画像データと第2画像データの対応するブロック同士の相違の度合を示す評価値を算出する評価値算出部と、対応する上記ブロック同士の相違の度合を評価するための閾値を記憶した記憶手段と、上記評価値算出部の算出した評価値と上記記憶手段に記憶されている閾値とを比較し、上記評価値が示す相違の度合が閾値以上であるブロックあるいは閾値よりも大きいブロックを相違箇所として抽出する相違箇所抽出部とを備えていることを特徴としている。   In order to solve the above problem, the difference location extraction apparatus of the present invention acquires a first image data that is image data of a first image and a second image data that is image data of a second image. A difference location extraction apparatus that extracts a difference location between the first image and the second image based on the first image data and the second image data, the first image data acquired by the data acquisition unit and the first image data An image division processing unit that divides the two image data into a plurality of blocks such that each block of the first image data and each block of the second image data correspond to each other, and the first image data in both the image data And an evaluation value calculation unit that calculates an evaluation value indicating the degree of difference between corresponding blocks of the second image data and a memory that stores a threshold value for evaluating the degree of difference between the corresponding blocks The evaluation value calculated by the evaluation value calculation unit and the threshold value stored in the storage means are compared, and a block whose degree of difference indicated by the evaluation value is greater than or equal to the threshold value or a block larger than the threshold value is different. It is characterized by having a different part extracting unit that extracts as a part.

上記の構成によれば、画像分割処理部は、上記データ取得部の取得した第1画像データおよび第2画像データを、第1画像データの各ブロックと第2画像データの各ブロックとが互いに対応するようにそれぞれ複数のブロックに分割する。そして、評価値算出部は、両画像データにおける第1画像データと第2画像データの対応するブロック同士の相違の度合を示す評価値を算出し、相違箇所抽出部は、評価値算出部の算出した評価値と記憶手段に記憶されている閾値とを比較し、上記評価値が示す相違の度合が閾値以上であるブロックあるいは閾値よりも大きいブロックを相違箇所として抽出する。これにより、第1画像と第2画像との相違箇所(相違箇所を含むブロック)を抽出することができる。   According to the above configuration, the image division processing unit corresponds to the first image data and the second image data acquired by the data acquisition unit so that each block of the first image data and each block of the second image data correspond to each other. Each is divided into a plurality of blocks. Then, the evaluation value calculation unit calculates an evaluation value indicating the degree of difference between corresponding blocks of the first image data and the second image data in both image data, and the difference part extraction unit calculates the evaluation value calculation unit. The evaluated value is compared with the threshold value stored in the storage means, and a block whose degree of difference indicated by the evaluation value is equal to or greater than the threshold value or a block larger than the threshold value is extracted as a difference portion. Thereby, the difference part (block containing a difference part) of a 1st image and a 2nd image can be extracted.

また、上記評価値算出部は、上記両画像データに含まれる全ての色の色強度データに基づいて上記評価値を算出する構成であってもよい。ここで、上記両画像データに含まれる全ての色の色強度データとは、例えば、上記両画像データがRGBの色強度データを有する場合にはRGBの3色の色強度データを意味し、上記両画像データがCMYの色強度データを有する場合にはCMYの3色の色強度データを意味し、上記両画像データが色強度データとしてグレースケールを有する場合にはこのグレースケールを意味する。   Further, the evaluation value calculation unit may be configured to calculate the evaluation value based on color intensity data of all colors included in both the image data. Here, the color intensity data of all the colors included in both the image data means, for example, the color intensity data of three colors of RGB when the both image data have RGB color intensity data, When both image data have CMY color intensity data, it means CMY three color intensity data, and when both image data have a gray scale as color intensity data, it means this gray scale.

上記の構成によれば、両画像データに含まれる全ての色の色強度データに基づいて評価値を算出することで、第1画像データと第2画像データとの相違の度合を適切に判断することができる。   According to the above configuration, the degree of difference between the first image data and the second image data is appropriately determined by calculating evaluation values based on the color intensity data of all colors included in both image data. be able to.

また、上記評価値算出部は、一方の画像データを目標値としたときの、他方の画像データのSN比を上記評価値としてもよい。なお、上記SN比は、品質工学で用いられるSN比であり、一方の画像データを目標値としたときの、他方の画像データに含まれる有効成分(上記一方の画像データと略一致する成分)と無効成分(一方の画像データと相違する成分)との比率を示す指標である。   Further, the evaluation value calculation unit may use the SN ratio of the other image data when the one image data is a target value as the evaluation value. The SN ratio is an SN ratio used in quality engineering. When one image data is set as a target value, an effective component included in the other image data (a component that substantially matches the one image data). And an invalid component (a component different from one image data).

上記の構成によれば、一方の画像データに含まれる色強度データを目標値としたときの、他方の画像データに含まれる色強度データのSN比を評価値として各ブロックにおける第1画像データと第2画像データとの相違の度合を評価する。これにより、ノイズの影響を低減し、各ブロックの相違の度合を適切に評価できる。   According to the above configuration, when the color intensity data included in one image data is the target value, the SN ratio of the color intensity data included in the other image data is used as the evaluation value, and the first image data in each block The degree of difference from the second image data is evaluated. Thereby, the influence of noise can be reduced and the degree of difference between the blocks can be appropriately evaluated.

また、上記評価値算出部は、一方の画像データに含まれる色強度データをMc,d、他方の画像データに含まれる色強度データをyc,d(ただし、上記Mc,dおよび上記yc,dにおけるcは色の種類毎に1から順に付される自然数であり、dは画素毎に1から順に付される自然数)としたときの、yc,d−β×Mc,dの絶対値の最大値(ただし、上記βはyc,dの理想値がMc,dに比例するとしたときの比例定数)を上記評価値としてもよい。 In addition, the evaluation value calculation unit determines that the color intensity data included in one image data is M c, d , and the color intensity data included in the other image data is y c, d (where M c, d and the above c in y c, d is a natural number assigned sequentially from 1 for each color type, and d is a natural number assigned sequentially from 1 for each pixel), y c, d −β × M c, the maximum absolute value of d (provided that the β is y c, the ideal value of d is M c, constant of proportionality when to be proportional to d) may be used as the evaluation value.

上記の構成によれば、yc,d−β×Mc,dの絶対値の最大値を評価値として各ブロックにおける第1画像データと第2画像データとの相違の度合を評価する。これにより、ノイズの影響を低減し、各ブロックの相違の度合を適切に評価できる。 According to the above configuration, the degree of difference between the first image data and the second image data in each block is evaluated using the maximum absolute value of y c, d −β × M c, d as an evaluation value. Thereby, the influence of noise can be reduced and the degree of difference between the blocks can be appropriately evaluated.

また、各ブロックの第1画像データに含まれる各画素の色強度データ、および各ブロックの第2画像データに含まれる各画素の色強度データのそれぞれを、複数の画素からなるエリア毎に平均する平均化処理部を備え、上記評価値算出部は、エリア毎に平均した色強度データに基づいて上記評価値を算出する構成としてもよい。   Further, the color intensity data of each pixel included in the first image data of each block and the color intensity data of each pixel included in the second image data of each block are averaged for each area composed of a plurality of pixels. An averaging processing unit may be provided, and the evaluation value calculation unit may calculate the evaluation value based on color intensity data averaged for each area.

上記の構成によれば、エリア毎に平均した色強度データに基づいて評価値を算出することで、評価値の算出処理を簡略化することができる。また、画像読取時の位置ずれ、紙質のばらつき等に起因するノイズの影響を低減し、各ブロックの相違の度合を適切に評価できる。   According to the above configuration, the evaluation value calculation process can be simplified by calculating the evaluation value based on the color intensity data averaged for each area. In addition, it is possible to reduce the influence of noise caused by positional deviation at the time of image reading, paper quality variation, and the like, and appropriately evaluate the degree of difference between blocks.

また、上記第1画像データおよび/または第2画像データに枠画像の画像データを付加することによって画像サイズを変換する画像変換部を備え、上記評価値算出部は、サイズ変換後の画像データに基づいて上記評価値を算出する構成としてもよい。   The image conversion unit converts the image size by adding image data of a frame image to the first image data and / or the second image data, and the evaluation value calculation unit adds the image data after the size conversion to the image data after the size conversion. The evaluation value may be calculated based on the above.

上記の構成によれば、画像変換部が、第1画像データおよび/または第2画像データに枠画像の画像データを付加することで当該画像データの画像サイズを変換し、評価値算出部が、サイズ変換後の画像データに基づいて評価値を算出する。これにより、例えば、第1画像のサイズと第2画像のサイズとが異なる場合であっても、両画像の中央部に基づいて位置合わせすることができる。   According to the above configuration, the image conversion unit converts the image size of the image data by adding the image data of the frame image to the first image data and / or the second image data, and the evaluation value calculation unit An evaluation value is calculated based on the image data after size conversion. Thereby, for example, even when the size of the first image is different from the size of the second image, the alignment can be performed based on the central portion of both images.

また、各ブロックの第1画像データに含まれる各画素の色強度データ、および各ブロックの第2画像データに含まれる各画素の色強度データのそれぞれを、複数の画素からなるエリア毎に平均する平均化処理部を備え、上記画像分割部は、上記第1画像データを行方向および列方向にマトリクス状に配列された複数のブロックに分割し、上記平均化処理部は、上記各ブロックを上記行方向および上記列方向に配列された複数のエリアに分割して分割したエリア毎に色強度データを平均し、上記画像変換部は、上記行方向の画素数が上記行方向のブロック数と上記各エリアにおける上記行方向の画素数との積の倍数になり、上記列方向の画素数が上記列方向のブロック数と上記各エリアにおける上記列方向の画素数との積の倍数になるように上記枠画像を付加する構成としてもよい。   Further, the color intensity data of each pixel included in the first image data of each block and the color intensity data of each pixel included in the second image data of each block are averaged for each area composed of a plurality of pixels. An averaging processing unit, wherein the image dividing unit divides the first image data into a plurality of blocks arranged in a matrix in a row direction and a column direction, and the averaging processing unit divides the blocks into the blocks The color intensity data is averaged for each of the divided areas divided into a plurality of areas arranged in the row direction and the column direction, and the image conversion unit has the number of pixels in the row direction and the number of blocks in the row direction. It is a multiple of the product of the number of pixels in the row direction in each area, and the number of pixels in the column direction is a multiple of the product of the number of blocks in the column direction and the number of pixels in the column direction in each area. Up It may be configured to add a frame image.

上記の構成によれば、分割後の各ブロックのサイズを一致させることができるので、各ブロックにおける1画素あたりの情報量の重みを均一にすることができる。   According to said structure, since the size of each block after a division | segmentation can be matched, the weight of the information amount per pixel in each block can be made uniform.

また、上記相違箇所を告知する告知手段を備えている構成としてもよい。なお、上記告知手段は、相違箇所を特定可能な方法で告知するものであればよく、特に限定されるものではないが、例えば、相違箇所を表示する表示手段、相違箇所を用紙に印刷して出力する画像形成手段、相違箇所を音声によって告知する音声出力手段などを用いることができる。   Moreover, it is good also as a structure provided with the notification means to notify the said difference location. The notification means is not particularly limited as long as it can be used to notify the difference portion in a method that can identify the difference portion. For example, a display means for displaying the difference portion, and printing the difference portion on a sheet of paper. An image forming means for outputting, a sound output means for notifying different portions by sound, and the like can be used.

上記の構成によれば、相違箇所を告知する告知手段を備えているので、相違箇所をユーザに認識させることができる。   According to said structure, since the notification means which notifies a difference location is provided, a user can be made to recognize a difference location.

本発明の画像読取装置は、原稿画像を読み取って画像データを生成する原稿読取手段と、上記したいずれかの相違箇所抽出装置とを備えた画像読取装置であって、上記第1画像データおよび上記第2画像データの少なくとも一方が、上記原稿読取手段によって生成された画像データであることを特徴としている。   An image reading apparatus according to the present invention is an image reading apparatus including a document reading unit that reads a document image and generates image data, and any one of the above-described difference location extraction devices, and includes the first image data and the above-described first image data. At least one of the second image data is image data generated by the document reading means.

上記の構成によれば、原稿読取手段によって読み取った原稿画像と、この原稿画像とは異なる他の画像との相違箇所を抽出することができる。   According to the above configuration, it is possible to extract a difference between the document image read by the document reading unit and another image different from the document image.

本発明の相違箇所抽出方法は、上記の課題を解決するために、第1画像の画像データである第1画像データと第2画像の画像データである第2画像データとに基づいて第1画像と第2画像との相違箇所を抽出する相違箇所抽出方法であって、第1画像データおよび第2画像データを取得する取得工程と、上記取得工程で取得した第1画像データと第2画像データとを、第1画像データの各ブロックと第2画像データの各ブロックとが互いに対応するようにそれぞれ複数のブロックに分割する画像分割工程と、上記両画像データにおける第1画像データと第2画像データの対応するブロック同士の相違の度合を示す評価値を算出する評価値算出工程と、上記評価値算出工程で算出した評価値と記憶手段に予め記憶されている閾値とを比較し、上記評価値が示す相違の度合が閾値以上であるブロックあるいは閾値よりも大きいブロックを相違箇所として抽出する相違箇所抽出工程とを行うコンピュータによって相違箇所を抽出することを特徴としている。   In order to solve the above-described problem, the difference location extraction method of the present invention is based on first image data that is image data of a first image and second image data that is image data of a second image. Is a difference location extraction method for extracting a difference location between the first image data and the second image, an acquisition step of acquiring the first image data and the second image data, and the first image data and the second image data acquired in the acquisition step. Are divided into a plurality of blocks so that each block of the first image data and each block of the second image data correspond to each other, and the first image data and the second image in both the image data The evaluation value calculation step for calculating an evaluation value indicating the degree of difference between corresponding blocks of data, the evaluation value calculated in the evaluation value calculation step and a threshold value stored in advance in the storage means are compared, The computer for the different part extraction step of extracting a larger block than the block or a threshold degree is equal to or more than a threshold difference evaluation value indicates a different part is characterized by extracting a different part.

上記の方法によれば、取得工程において第1画像データおよび第2画像データを取得し、画像分割処理工程において、取得工程で取得した第1画像データと第2画像データとを第1画像データの各ブロックと第2画像データの各ブロックとが互いに対応するようにそれぞれ複数のブロックに分割する。そして、評価値算出部において、両画像データにおける第1画像データと第2画像データの対応するブロック同士の相違の度合を示す評価値を算出し、相違箇所抽出工程において、評価値算出工程で算出した評価値と記憶手段に予め記憶されている閾値とを比較し、上記評価値が示す相違の度合が閾値以上であるブロックあるいは閾値よりも大きいブロックを相違箇所として抽出する相違箇所抽出工程とを行うコンピュータによって相違箇所を抽出する。これにより、第1画像と第2画像との相違箇所(相違箇所を含むブロック)をコンピュータによって抽出することができる。   According to the above method, the first image data and the second image data are acquired in the acquisition step, and the first image data and the second image data acquired in the acquisition step are acquired in the image division processing step. Each block is divided into a plurality of blocks such that each block of the second image data corresponds to each other. Then, the evaluation value calculation unit calculates an evaluation value indicating the degree of difference between the corresponding blocks of the first image data and the second image data in both image data, and is calculated in the evaluation value calculation step in the difference portion extraction step. Comparing the evaluated value and a threshold value stored in advance in the storage means, and extracting a block where the degree of difference indicated by the evaluation value is equal to or greater than the threshold value or a block larger than the threshold value as a different point. The difference is extracted depending on the computer to be used. Thereby, the difference part (block containing a difference part) of a 1st image and a 2nd image can be extracted by a computer.

なお、上記相違箇所抽出装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記各部として動作させることにより、上記相違箇所抽出装置をコンピュータにて実現させるプログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に含まれる。   In addition, the said different location extraction apparatus may be implement | achieved by the computer, In this case, the program which implement | achieves the said different location extraction apparatus with a computer by operating a computer as said each part, and it recorded Computer-readable recording media are also included in the scope of the present invention.

以上のように、本発明の相違箇所抽出装置は、上記データ取得部が取得した第1画像データと第2画像データとを、第1画像データの各ブロックと第2画像データの各ブロックとが互いに対応するようにそれぞれ複数のブロックに分割する画像分割処理部と、上記両画像データにおける第1画像データと第2画像データの対応するブロック同士の相違の度合を示す評価値を算出する評価値算出部と、対応する上記ブロック同士の相違の度合を評価するための閾値を記憶した記憶手段と、上記評価値算出部の算出した評価値と上記記憶手段に記憶されている閾値とを比較し、上記評価値が示す相違の度合が閾値以上であるブロックあるいは閾値よりも大きいブロックを相違箇所として抽出する相違箇所抽出部とを備えている。   As described above, the difference location extraction apparatus according to the present invention is configured so that each block of the first image data and each block of the second image data are obtained by combining the first image data and the second image data acquired by the data acquisition unit. An image division processing unit that divides each block into a plurality of blocks so as to correspond to each other, and an evaluation value that calculates an evaluation value that indicates the degree of difference between corresponding blocks of the first image data and the second image data in both the image data The calculation unit, the storage unit storing a threshold value for evaluating the degree of difference between the corresponding blocks, and the evaluation value calculated by the evaluation value calculation unit and the threshold value stored in the storage unit are compared. And a difference location extraction unit that extracts a block whose degree of difference indicated by the evaluation value is greater than or equal to a threshold value or a block larger than the threshold value as a difference location.

それゆえ、第1画像と第2画像との相違箇所を抽出することができる。   Therefore, the difference between the first image and the second image can be extracted.

また、本発明の画像読取装置は、原稿画像を読み取って画像データを生成する原稿読取手段と、上記したいずれかの相違箇所抽出装置とを備えた画像読取装置であって、上記第1画像データおよび上記第2画像データの少なくとも一方が、上記原稿読取手段によって生成された画像データであることを特徴としている。   The image reading apparatus of the present invention is an image reading apparatus including an original reading unit that reads an original image and generates image data, and any one of the above-described difference location extraction apparatuses, and the first image data At least one of the second image data is image data generated by the document reading means.

それゆえ、原稿読取手段によって読み取った原稿画像と、この原稿画像とは異なる他の画像との相違箇所を抽出することができる。   Therefore, it is possible to extract a difference between the original image read by the original reading unit and another image different from the original image.

また、本発明の相違箇所抽出方法は、第1画像データおよび第2画像データを取得する取得工程と、上記取得工程で取得した第1画像データと第2画像データとを、第1画像データの各ブロックと第2画像データの各ブロックとが互いに対応するようにそれぞれ複数のブロックに分割する画像分割工程と、上記両画像データにおける第1画像データと第2画像データの対応するブロック同士の相違の度合を示す評価値を算出する評価値算出工程と、上記評価値算出工程で算出した評価値と記憶手段に予め記憶されている閾値とを比較し、上記評価値が示す相違の度合が閾値以上であるブロックあるいは閾値よりも大きいブロックを相違箇所として抽出する相違箇所抽出工程とを行うコンピュータによって相違箇所を抽出する。   The difference location extraction method of the present invention includes an acquisition step of acquiring the first image data and the second image data, and the first image data and the second image data acquired in the acquisition step of the first image data. An image dividing step for dividing each block and each block of the second image data so as to correspond to each other, and a difference between corresponding blocks of the first image data and the second image data in the both image data The evaluation value calculation step for calculating the evaluation value indicating the degree of the evaluation value, the evaluation value calculated in the evaluation value calculation step and the threshold value stored in advance in the storage means are compared, and the degree of difference indicated by the evaluation value is the threshold value. A difference part is extracted by the computer which performs the difference part extraction process which extracts the block larger than the above block or a threshold value as a difference part.

それゆえ、第1画像と第2画像との相違箇所をコンピュータによって抽出することができる。   Therefore, the difference between the first image and the second image can be extracted by the computer.

〔実施形態1〕
本発明の一実施形態について説明する。なお、本実施形態では、本発明の相違箇所抽出装置を備えたデジタルカラー複合機(MFP:Multi-Function Printer)の一例について説明する。ただし、これに限らず、本発明の相違箇所抽出装置は、画像データに応じた画像を紙や樹脂等のシート上に形成する画像形成装置、画像データに対して濃度補正,色補正,コントラスト補正などの各種補正を行う画像処理装置、画像を読み取って画像データを取得する画像読取装置などに備えられるものであってもよい。また、本発明の相違箇所抽出装置は、複合機、画像形成装置、画像処理装置、画像読取装置等に備えられる構成に限らず、相違箇所抽出装置単体として実現されるものであってもよい。
Embodiment 1
An embodiment of the present invention will be described. In the present embodiment, an example of a digital color multifunction peripheral (MFP) provided with the difference location extraction apparatus of the present invention will be described. However, the present invention is not limited to this, and the difference location extraction apparatus of the present invention is an image forming apparatus that forms an image according to image data on a sheet of paper, resin, etc., density correction, color correction, and contrast correction for the image data. It may be provided in an image processing apparatus that performs various corrections such as an image reading apparatus that reads an image and acquires image data. Further, the difference location extraction apparatus of the present invention is not limited to the configuration provided in the multifunction peripheral, the image forming apparatus, the image processing apparatus, the image reading apparatus, and the like, but may be realized as a difference location extraction apparatus alone.

(1−1. デジタルカラー複合機1の構成)
図2は、本実施形態にかかるデジタルカラー複合機(相違箇所抽出装置、画像処理装置、画像形成装置、画像読取装置)1の概略構成を示すブロック図である。このデジタルカラー複合機1は、コピー機能、プリンタ機能、ファクシミリ送信機能、スキャナ機能、scan to e-mail機能等を有している。
(1-1. Configuration of Digital Color Multifunction Machine 1)
FIG. 2 is a block diagram showing a schematic configuration of a digital color multifunction peripheral (difference extraction apparatus, image processing apparatus, image forming apparatus, image reading apparatus) 1 according to the present embodiment. The digital color multifunction peripheral 1 has a copy function, a printer function, a facsimile transmission function, a scanner function, a scan to e-mail function, and the like.

図2に示すように、デジタルカラー複合機1は、カラー画像入力装置2、カラー画像処理装置3、カラー画像出力装置4、通信装置5、操作パネル6、記憶部7を備えている。   As shown in FIG. 2, the digital color multifunction peripheral 1 includes a color image input device 2, a color image processing device 3, a color image output device 4, a communication device 5, an operation panel 6, and a storage unit 7.

カラー画像入力装置(画像読取装置、入力部、色強度取得部)2は、例えばCCD(Charge Coupled Device )などの光学情報を電気信号に変換するデバイスを備えたスキャナ部(図示せず)より構成され、原稿からの反射光像を、RGB(R:赤・G:緑・B:青)のアナログ信号としてカラー画像処理装置3に出力する。なお、カラー画像入力装置2は、カメラ撮影によって画像データを取得するものであってもよい。   A color image input device (image reading device, input unit, color intensity acquisition unit) 2 includes a scanner unit (not shown) including a device that converts optical information into an electrical signal such as a CCD (Charge Coupled Device). Then, the reflected light image from the original is output to the color image processing device 3 as an analog signal of RGB (R: red, G: green, B: blue). The color image input device 2 may acquire image data by camera shooting.

カラー画像処理装置(相違箇所抽出装置)3は、A/D変換部11、シェーディング補正部12、類似度判定部13、入力階調補正部14、領域分離処理部15、色補正部16、黒生成下色除去部17、空間フィルタ処理部18、出力階調補正部19、および階調再現処理部20を備えている。カラー画像入力装置2からカラー画像処理装置3に出力されたアナログ信号は、カラー画像処理装置3内を、A/D変換部11、シェーディング補正部12、類似度判定部13、入力階調補正部14、領域分離処理部15、色補正部16、黒生成下色除去部17、空間フィルタ処理部18、出力階調補正部19、階調再現処理部20の順で送られ、CMYKのデジタルカラー信号としてカラー画像出力装置4に出力される。なお、A/D変換部11から階調再現処理部20へ至るまでの途中で、アナログ信号あるいはデジタルカラー信号の記憶部7への書込み/読出しを適宜行ってもよい。   A color image processing apparatus (difference part extracting apparatus) 3 includes an A / D conversion unit 11, a shading correction unit 12, a similarity determination unit 13, an input tone correction unit 14, a region separation processing unit 15, a color correction unit 16, and a black color. A generation under color removal unit 17, a spatial filter processing unit 18, an output tone correction unit 19, and a tone reproduction processing unit 20 are provided. An analog signal output from the color image input device 2 to the color image processing device 3 is converted into an A / D conversion unit 11, a shading correction unit 12, a similarity determination unit 13, and an input tone correction unit in the color image processing device 3. 14, the region separation processing unit 15, the color correction unit 16, the black generation and under color removal unit 17, the spatial filter processing unit 18, the output gradation correction unit 19, and the gradation reproduction processing unit 20 are sent in this order, and CMYK digital color The signal is output to the color image output device 4 as a signal. In the middle from the A / D conversion unit 11 to the gradation reproduction processing unit 20, writing / reading of an analog signal or a digital color signal to the storage unit 7 may be appropriately performed.

A/D(アナログ/デジタル)変換部11は、RGBのアナログ信号をデジタル信号に変換するものである。   The A / D (analog / digital) converter 11 converts RGB analog signals into digital signals.

シェーディング補正部12は、A/D変換部11より送られてきたデジタルのRGB信号に対して、カラー画像入力装置2の照明系、結像系、撮像系で生じる各種の歪みを取り除く処理を施すものである。また、シェーディング補正部12は、カラーバランスの調整、および濃度信号などカラー画像処理装置3に採用されている画像処理システムの扱い易い信号に変換する処理を施す。   The shading correction unit 12 performs a process for removing various distortions generated in the illumination system, the imaging system, and the imaging system of the color image input apparatus 2 on the digital RGB signal sent from the A / D conversion unit 11. Is. Further, the shading correction unit 12 performs a process of converting color balance adjustment and a signal such as a density signal that can be easily handled by the image processing system employed in the color image processing apparatus 3.

類似度判定部(相違箇所抽出装置)13は、評価対象画像データ(第1画像データ)に対応する画像である評価対象画像(第1画像)とサンプル画像データ(第2画像)に対応する画像であるサンプル画像(第2画像)とに基づいて、評価対象画像とサンプル画像との相違箇所(低類似度箇所)を抽出する。これにより、評価対象画像とサンプル画像との相違箇所を、人間の主観を介さずに判断できるようになっている。なお、類似度判定部13は入力されたRGB信号をそのまま後段の入力階調補正部14へ出力する。類似度判定部13の詳細については後述する。   The similarity determination unit (difference part extraction device) 13 is an image corresponding to the evaluation target image (first image) and the sample image data (second image) corresponding to the evaluation target image data (first image data). Based on the sample image (second image), a difference portion (low similarity portion) between the evaluation target image and the sample image is extracted. As a result, the difference between the evaluation target image and the sample image can be determined without involving human subjectivity. The similarity determination unit 13 outputs the input RGB signal to the subsequent input tone correction unit 14 as it is. Details of the similarity determination unit 13 will be described later.

入力階調補正部14は、シェーディング補正部にて各種の歪みが取り除かれたRGB信号に対して、下地色(下地色の濃度成分:下地濃度)の除去やコントラストなどの画質調整処理を施す。   The input tone correction unit 14 performs image quality adjustment processing such as removal of background color (background color density component: background density) and contrast on the RGB signal from which various distortions have been removed by the shading correction unit.

領域分離処理部15は、RGB信号より、画像データ中の各画素を文字領域、網点領域、写真領域のいずれかに分離するものである。領域分離処理部15は、分離結果に基づき、画素がどの領域に属しているかを示す領域識別信号を、色補正部16、黒生成下色除去部17、空間フィルタ処理部18、および階調再現処理部20へと出力するとともに、入力階調補正部14より出力された入力信号をそのまま後段の色補正部16に出力する。   The region separation processing unit 15 separates each pixel in the image data into one of a character region, a halftone dot region, and a photo region from the RGB signal. Based on the separation result, the region separation processing unit 15 generates a region identification signal indicating which region the pixel belongs to, the color correction unit 16, the black generation and under color removal unit 17, the spatial filter processing unit 18, and the gradation reproduction. The output signal is output to the processing unit 20, and the input signal output from the input tone correction unit 14 is output to the subsequent color correction unit 16 as it is.

色補正部16は、色再現の忠実化実現のために、不要吸収成分を含むCMY(C:シアン・M:マゼンタ・Y:イエロー)色材の分光特性に基づいた色濁りを取り除く処理を行うものである。   The color correction unit 16 performs a process of removing color turbidity based on spectral characteristics of CMY (C: cyan, M: magenta, Y: yellow) color materials including unnecessary absorption components in order to realize faithful color reproduction. Is.

黒生成下色除去部17は、色補正後のCMYの3色信号から黒(K)信号を生成する黒生成、元のCMY信号から黒生成で得たK信号を差し引いて新たなCMY信号を生成する処理を行うものである。これにより、CMYの3色信号はCMYKの4色信号に変換される。   The black generation and under color removal unit 17 generates black (K) signals from the CMY three-color signals after color correction, and subtracts the K signals obtained by black generation from the original CMY signals to generate new CMY signals. The process to generate is performed. As a result, the CMY three-color signal is converted into a CMYK four-color signal.

空間フィルタ処理部18は、黒生成下色除去部17より入力されるCMYK信号の画像データに対して、領域識別信号を基にデジタルフィルタによる空間フィルタ処理を行い、空間周波数特性を補正する。これにより、出力画像のぼやけや粒状性劣化を軽減することができる。階調再現処理部20も、空間フィルタ処理部18と同様、CMYK信号の画像データに対して領域識別信号を基に所定の処理を施すものである。   The spatial filter processing unit 18 performs spatial filter processing using a digital filter on the image data of the CMYK signal input from the black generation and under color removal unit 17 to correct the spatial frequency characteristics. As a result, blurring of the output image and deterioration of graininess can be reduced. Similar to the spatial filter processing unit 18, the gradation reproduction processing unit 20 also performs predetermined processing on the image data of the CMYK signal based on the region identification signal.

例えば、領域分離処理部15にて文字に分離された領域は、特に黒文字あるいは色文字の再現性を高めるために、空間フィルタ処理部18による空間フィルタ処理における鮮鋭強調処理で高周波数の強調量が大きくされる。同時に、階調再現処理部20においては、高域周波数の再現に適した高解像度のスクリーンでの二値化または多値化処理が選択される。   For example, the region separated into characters by the region separation processing unit 15 has a high frequency enhancement amount in the sharp enhancement processing in the spatial filter processing by the spatial filter processing unit 18 in order to improve the reproducibility of black characters or color characters. Increased. At the same time, the tone reproduction processing unit 20 selects binarization or multi-value processing on a high-resolution screen suitable for high-frequency reproduction.

また、領域分離処理部15にて網点領域に分離された領域に関しては、空間フィルタ処理部18において、入力網点成分を除去するためのローパス・フィルタ処理が施される。そして、出力階調補正部19では、濃度信号などの信号をカラー画像出力装置4の特性値である網点面積率に変換する出力階調補正処理を行った後、階調再現処理部20で、最終的に画像を画素に分離してそれぞれの階調を再現できるように処理する階調再現処理(中間調生成)が施される。領域分離処理部15にて写真に分離された領域に関しては、階調再現性を重視したスクリーンでの二値化または多値化処理が行われる。   Further, with respect to the region separated into halftone dot regions by the region separation processing unit 15, the spatial filter processing unit 18 performs low-pass filter processing for removing the input halftone component. The output tone correction unit 19 performs an output tone correction process for converting a signal such as a density signal into a halftone dot area ratio that is a characteristic value of the color image output device 4. Then, gradation reproduction processing (halftone generation) is performed so that the image is finally separated into pixels and each gradation is reproduced. For the region separated into photographs by the region separation processing unit 15, binarization or multi-value processing is performed on the screen with an emphasis on gradation reproducibility.

上述した各処理が施された画像データは、いったん記憶装置(図示せず)に記憶され、所定のタイミングで読み出されてカラー画像出力装置4に入力される。   The image data subjected to the above-described processes is temporarily stored in a storage device (not shown), read out at a predetermined timing, and input to the color image output device 4.

カラー画像出力装置4は、カラー画像処理装置3から入力された画像データを記録材(例えば紙等)上に出力するものである。カラー画像出力装置4の構成は特に限定されるものではなく、例えば、電子写真方式やインクジェット方式を用いたカラー画像出力装置を用いることができる。   The color image output device 4 outputs the image data input from the color image processing device 3 onto a recording material (for example, paper). The configuration of the color image output device 4 is not particularly limited, and for example, a color image output device using an electrophotographic method or an inkjet method can be used.

通信装置(入力部、色強度取得部)5は、ネットワークを介して通信可能に接続された他の装置(例えば、パーソナルコンピュータ、サーバー装置、他のデジタル複合機等)とデータ通信を行う。   The communication device (input unit, color intensity acquisition unit) 5 performs data communication with other devices (for example, personal computers, server devices, other digital multi-function peripherals, etc.) that are communicably connected via a network.

操作パネル6は、例えば、液晶ディスプレイなどの表示部と設定ボタンなどより構成され(いずれも図示せず)、デジタルカラー複合機1の主制御部(図示せず)の指示に応じた情報を上記表示部に表示するとともに、上記設定ボタンを介してユーザから入力される情報を上記主制御部に伝達する。上記主制御部は、例えばCPU(Central Processing Unit)等からなり、図示しないROM等に格納されたプログラムや各種データ、操作パネル6から入力される情報等に基づいて、デジタルカラー複合機1の各部の動作を制御する。   The operation panel 6 includes, for example, a display unit such as a liquid crystal display and setting buttons (none of which are shown), and information corresponding to an instruction from a main control unit (not shown) of the digital color multifunction peripheral 1 is described above. While displaying on a display part, the information input from a user via the said setting button is transmitted to the said main control part. The main control unit includes, for example, a CPU (Central Processing Unit) and the like, and is based on programs and various data stored in a ROM (not shown) and the like, information input from the operation panel 6, and the like. To control the operation.

記憶部(記憶手段)7は、カラー画像処理装置3で用いられる各種情報を記憶するための記憶手段である。   The storage unit (storage means) 7 is a storage means for storing various information used in the color image processing apparatus 3.

(1−2.類似度判定部13の構成)
図1は、類似度判定部13の概略構成を示すブロック図である。この図に示すように、類似度判定部13は、色強度データ取得部31、画像分割処理部32、評価値算出部33、相違箇所抽出部34、相違箇所通知部35、類似度評価部36を備えている。
(1-2. Configuration of similarity determination unit 13)
FIG. 1 is a block diagram illustrating a schematic configuration of the similarity determination unit 13. As shown in this figure, the similarity determination unit 13 includes a color intensity data acquisition unit 31, an image division processing unit 32, an evaluation value calculation unit 33, a different part extraction unit 34, a different part notification unit 35, and a similarity evaluation unit 36. It has.

色強度データ取得部(データ取得手段)31は、シェーディング補正部12から入力されるR,G,Bのカラー画像データ(色強度データ)を取得する。なお、本実施形態では、類似度判定部13にR,G,Bのカラー画像データ(色強度データ)が入力されるものとしたが、これに限らず、例えば、C,M,Yのカラー画像データ(色強度データ)が入力される構成であってもよく、グレースケールなどのモノクロ画像データ(色強度データ)が入力される構成であってもよい。また、色強度データ取得部31が、外部から入力されるデータに基づいてR,G,Bのカラー画像データ、あるいはC,M,Yのカラー画像データ、あるいはグレースケールなどのモノクロ画像データを生成する構成としてもよい。   The color intensity data acquisition unit (data acquisition unit) 31 acquires R, G, B color image data (color intensity data) input from the shading correction unit 12. In this embodiment, R, G, B color image data (color intensity data) is input to the similarity determination unit 13, but the present invention is not limited to this. For example, C, M, Y color The configuration may be such that image data (color intensity data) is input, or monochrome image data (color intensity data) such as grayscale may be input. The color intensity data acquisition unit 31 generates R, G, B color image data, C, M, Y color image data, or monochrome image data such as gray scale based on data input from the outside. It is good also as composition to do.

また、色強度データ取得部31は、取得したデータを記憶部7に一端保存する。保存の形式は、色強度を保存できる形式であればよく、特に限定されないが、例えばBMP形式、TIFF形式などを用いることができる。   The color intensity data acquisition unit 31 once stores the acquired data in the storage unit 7. The storage format is not particularly limited as long as the color intensity can be stored. For example, a BMP format, a TIFF format, or the like can be used.

なお、本実施形態では、カラー画像入力装置(データ取得手段)2によって評価対象画像から読み取った評価対象画像データと、カラー画像入力装置2によってサンプル画像から読み取ったサンプル画像データとの相違箇所を抽出する場合の例について説明するが、これに限るものではない。例えば、評価対象画像データおよび/またはサンプル画像データを、通信装置5(データ取得手段)を介して通信によって取得してもよく、図示しないデータ読出装置(データ取得手段)によって各種記憶媒体から読み出すことで取得してもよい。   In the present embodiment, the difference between the evaluation target image data read from the evaluation target image by the color image input device (data acquisition unit) 2 and the sample image data read from the sample image by the color image input device 2 is extracted. An example will be described, but the present invention is not limited to this. For example, the evaluation target image data and / or sample image data may be acquired by communication via the communication device 5 (data acquisition means), and read from various storage media by a data reading device (data acquisition means) (not shown). You may get it at

画像分割処理部32は、評価対象画像データおよびサンプル画像データを、それぞれ各画像上の領域に応じて、評価対象画像データの各ブロックとサンプル画像データの各ブロックとが互いに対応するようにそれぞれ複数のブロックに分割する。例えば、図3に示すように、評価対象画像データおよびサンプル画像データを縦方向(列方向)tブロック×横方向(行方向)sブロックに分割する(s,tは少なくとも一方が2以上の整数であり、他方が1以上の整数。なお、s=tであってもよく、s≠tであってもよい)。また、画像分割処理部32は、評価対象画像データおよびサンプル画像データの縦方向および横方向の分割数を記憶部7に記憶させる。なお、縦方向および横方向の分割数は、予め設定されていてもよく、あるいは操作パネル6を介してユーザが指定してもよい。また、評価対象画像データおよびサンプル画像データの画像サイズ、分解能、画像の種類等に応じた分割数を予め記憶部7に記憶させておき、画像分割処理部32が評価対象画像データおよびサンプル画像データの画像サイズ、分解能、画像の種類等を判断し、判断結果に応じて適切な分割数を選択するようにしてもよい。   The image division processing unit 32 includes a plurality of pieces of evaluation target image data and sample image data so that each block of the evaluation target image data and each block of the sample image data correspond to each other according to the area on each image. Divide into blocks. For example, as shown in FIG. 3, the evaluation target image data and the sample image data are divided into vertical direction (column direction) t block × horizontal direction (row direction) s block (s and t are integers in which at least one is 2 or more. And the other is an integer greater than or equal to 1. Note that s = t may be satisfied, or s ≠ t may be satisfied). Further, the image division processing unit 32 causes the storage unit 7 to store the number of divisions in the vertical and horizontal directions of the evaluation object image data and the sample image data. The number of divisions in the vertical direction and the horizontal direction may be set in advance, or may be designated by the user via the operation panel 6. Further, the number of divisions corresponding to the image size, resolution, image type, and the like of the evaluation object image data and the sample image data is stored in the storage unit 7 in advance, and the image division processing unit 32 performs the evaluation object image data and the sample image data. The image size, resolution, image type, and the like may be determined, and an appropriate number of divisions may be selected according to the determination result.

評価値算出部33は、評価対象画像データおよびサンプル画像データの各ブロックの類似度(相違の度合)を評価するための評価値を算出し、算出結果を記憶部7に記憶させる。評価値の算出方法については後述する。   The evaluation value calculation unit 33 calculates an evaluation value for evaluating the similarity (degree of difference) of each block of the evaluation target image data and the sample image data, and stores the calculation result in the storage unit 7. A method for calculating the evaluation value will be described later.

相違箇所抽出部34は、評価値算出部33が算出した各ブロックの評価値と、記憶部7に予め記憶されている閾値TH1とを比較し、両画像の相違の度合が閾値TH1以上あるいは閾値TH1よりも大きいブロックを相違箇所(低類似度箇所)として抽出する。なお、上記評価値は、値が大きくなるほど相違の度合が大きくなる指標であってもよく、値が大きくなるほど相違の度合が小さくなる指標であってもよい。いずれの場合にも、評価値の特性に応じて、相違の度合が閾値TH1以上(あるいは閾値TH1よりも大きい)か否かを判断すればよい。   The difference part extraction unit 34 compares the evaluation value of each block calculated by the evaluation value calculation unit 33 with the threshold value TH1 stored in advance in the storage unit 7, and the degree of difference between the two images is greater than or equal to the threshold value TH1. A block larger than TH1 is extracted as a different part (low similarity part). The evaluation value may be an index that increases the degree of difference as the value increases, or may be an index that decreases the degree of difference as the value increases. In any case, it is only necessary to determine whether or not the degree of difference is greater than or equal to the threshold value TH1 (or greater than the threshold value TH1) according to the characteristics of the evaluation value.

相違箇所通知部35は、相違箇所抽出部34によって相違箇所として抽出されたブロックを特定する情報を操作パネル6の表示部に表示させる。例えば、相違箇所通知部35は、図4に示すように、評価対象画像を表示させるとともに、この画像上における相違箇所の色を反転させる(あるいは、強調表示したり、枠で囲んだりするなどしてもよい)。また、相違箇所を特定するテキスト情報(例えば、相違箇所が何行目、何列目のブロックであるか等)を表示してもよい。また、相違箇所を特定する情報(画像あるいはテキスト)を用紙に印刷して出力するようにしてもよく、図示しないスピーカ等から音声出力によって相違箇所を通知するようにしてもよい。なお、相違箇所通知部35が、相違箇所抽出部34の抽出した相違箇所を特定する情報をデジタルカラー複合機1の主制御部に送り、主制御部がデジタルカラー複合機1の各部を制御して操作パネル6にこの情報に基づく表示させたり、用紙に印刷させたり、音声出力するなどして通知するようにしてもよい。   The difference part notifying unit 35 causes the display unit of the operation panel 6 to display information for specifying the block extracted as the difference part by the difference part extracting unit 34. For example, as shown in FIG. 4, the difference part notifying unit 35 displays an evaluation target image and inverts the color of the difference part on the image (or highlights or surrounds it with a frame). May be) In addition, text information for identifying the difference portion (for example, what row and column in which the difference portion is a block) may be displayed. In addition, information (image or text) for specifying the difference portion may be printed on paper and output, or the difference portion may be notified by voice output from a speaker or the like (not shown). The difference notification unit 35 sends information specifying the difference extracted by the difference extraction unit 34 to the main control unit of the digital color multifunction peripheral 1, and the main control unit controls each part of the digital color multifunction peripheral 1. The notification may be displayed on the operation panel 6 based on this information, printed on paper, or output by voice.

類似度評価部36は、評価対象画像のサンプル画像に対する類似度(画像全体の類似度)を算出する。類似度の算出方法は特に限定されないが、例えば、類似度評価部36は、全ブロック数に対する評価値算出部33によって相違箇所として抽出されなかったブロックの数の割合を類似度として算出する。あるいは、各ブロックの評価値の平均値AVEと記憶部7に記憶されている閾値TH2とに基づいて類似度を算出してもよい(例えば、類似度=1−|(AVE−TH2)/TH2|としてもよい)。なお、評価対象画像データのサンプル画像データに対する類似度を評価する必要がない場合には類似度評価部36を省略してもよい。   The similarity evaluation unit 36 calculates the similarity of the evaluation target image to the sample image (similarity of the entire image). The similarity calculation method is not particularly limited. For example, the similarity evaluation unit 36 calculates, as the similarity, the ratio of the number of blocks that are not extracted as different portions by the evaluation value calculation unit 33 with respect to the total number of blocks. Alternatively, the similarity may be calculated based on the average value AVE of the evaluation values of each block and the threshold value TH2 stored in the storage unit 7 (for example, similarity = 1− | (AVE−TH2) / TH2 | May be used). Note that the similarity evaluation unit 36 may be omitted when it is not necessary to evaluate the similarity of the evaluation target image data to the sample image data.

(評価値算出方法の例1)
評価値算出部33は、以下に示す式(1)〜(10)に基づいてSN比ηを算出し、算出結果を上記評価値として記憶部7に記憶させる。
(Example 1 of evaluation value calculation method)
The evaluation value calculation unit 33 calculates the SN ratio η based on the following formulas (1) to (10), and stores the calculation result in the storage unit 7 as the evaluation value.

Figure 2008192011
Figure 2008192011

全自由度 f=k×m ・・・(2) Total degrees of freedom f T = k × m (2)

Figure 2008192011
Figure 2008192011

Figure 2008192011
Figure 2008192011

比例項の変動 Sβ=L/r ・・・(5)
比例項の自由度 fβ=1 ・・・(6)
誤差変動 S=S−Sβ ・・・(7)
誤差の自由度 f=f−fβ ・・・(8)
誤差分散 V=S/f ・・・(9)
SN比 η=10×log10((1/r)×(Sβ−V)/V)・・・(10)
なお、上記式(1)および式(4)におけるyは評価対象画像データに含まれる各画素の色強度データである。また、yc,dとしたときの添え字cは色の種類に応じて1から順に付された自然数である。例えば、RGBの3色の色強度データがある場合、Rの色強度データはc=1,Gの色強度データはc=2,Bの色強度データはc=3とする。また、上記式(1)および式(4)におけるmはcの最大値、すなわち色の種類数を表している。なお、本実施形態では、評価対象画像データにおける全色の色強度データを用いるものとする。したがって、例えば、RGBあるいはCMYの3色の色強度データである場合にはm=3であり、グレースケール等の1色の色強度データである場合にはm=1である。また、添え字dは画素を特定するための数値である。例えば、縦6×横8個の画像データの場合、一番上のライン(画素列)の左から右に向かって各画素に1〜8の通し番号が付与され、2番目のラインの左から右に向かって9〜16の通し番号が付与され、以降、最終ラインまで同様に通し番号が付与される。また、上記式(1)および式(4)におけるkはdの最大値、すなわち画素数(色強度データの数)を表している。例えば、縦6×横8個の画像データの場合、k=48である。したがって、例えば、Gの16番目の画素の強度データはy2,16となる。
Variation of proportional term S β = L 2 / r (5)
Degree of freedom of proportional term f β = 1 (6)
Error variation S e = S T -S β (7)
Degree of freedom of error f e = f T −f β (8)
Error variance V e = S e / f e (9)
SN ratio η = 10 × log 10 ((1 / r) × (S β −V e ) / V e ) (10)
In the above equations (1) and (4), y is the color intensity data of each pixel included in the evaluation target image data. Further, the subscript c when y c, d is a natural number assigned sequentially from 1 according to the type of color. For example, when there are three color intensity data of RGB, the color intensity data of R is c = 1, the color intensity data of G is c = 2, and the color intensity data of B is c = 3. In the above formulas (1) and (4), m represents the maximum value of c, that is, the number of types of colors. In this embodiment, it is assumed that color intensity data for all colors in the evaluation target image data is used. Therefore, for example, m = 3 in the case of color intensity data of three colors of RGB or CMY, and m = 1 in the case of color intensity data of one color such as gray scale. The subscript d is a numerical value for specifying a pixel. For example, in the case of 6 × 8 image data, a serial number of 1 to 8 is assigned to each pixel from the left to the right of the top line (pixel row), and the left to the right of the second line. A serial number of 9 to 16 is assigned toward the end, and thereafter, serial numbers are similarly assigned up to the last line. In the above formulas (1) and (4), k represents the maximum value of d, that is, the number of pixels (number of color intensity data). For example, in the case of 6 × 8 image data, k = 48. Therefore, for example, the intensity data of the 16th pixel of G is y 2,16 .

また、上記式(3)および式(4)におけるMはサンプル画像データに含まれる各画素の色強度データである。添え字については上記したyの添え字と同様である。   M in the above formulas (3) and (4) is color intensity data of each pixel included in the sample image data. The subscript is the same as the subscript y described above.

(評価値算出方法の例2)
上記した評価値算出方法における式(10)を下記の式(10’)に変更してもよい。
(Example 2 of evaluation value calculation method)
You may change Formula (10) in an above-described evaluation value calculation method into following formula (10 ').

SN比 η=10×log10((Sβ−V)/V) ・・・(10’)
(評価値算出方法の例3)
上記した評価値算出方法に代えて、以下の式(11)〜(26)に基づいてSN比ηを算出し、算出結果を上記評価値として記憶部7に記憶させるようにしてもよい。
SN ratio η = 10 × log 10 ((S β −V e ) / V e ) (10 ′)
(Example 3 of evaluation value calculation method)
Instead of the above-described evaluation value calculation method, the SN ratio η may be calculated based on the following formulas (11) to (26), and the calculation result may be stored in the storage unit 7 as the evaluation value.

Figure 2008192011
Figure 2008192011

全自由度 f=k×2×m ・・・(12) Total degrees of freedom f T = k × 2 × m (12)

Figure 2008192011
Figure 2008192011

Figure 2008192011
Figure 2008192011

Figure 2008192011
Figure 2008192011

比例項の変動 Sβ=(L+L/(2×r) ・・・(16)
比例項の自由度 fβ=1 ・・・(17)
比例定数の差による変動 SN×β=(L +L )/r−Sβ ・・・(18)
比例定数の差による自由度 fN×β=n−1=2−1=1) ・・・(19)
誤差変動 S=S−Sβ−SN×β ・・・(20)
誤差の自由度 f=f−fβ−fN×β ・・・(21)
総合誤差の変動 S=S−Sβ=SN×β+S ・・・(22)
総合誤差の自由度 f=f−fβ=fN×β+f ・・・(23)
誤差分散 V=S/f ・・・(24)
総合誤差の分散 V=S/f ・・・(25)
SN比 η=10×log10((Sβ−V)/V) ・・・(26)
(評価値算出方法の例4)
上記した評価値算出方法に代えて、yc,dの理想値をyc,d=β×Mc,d(βは比例定数)としたときの、yc,d−β×Mc,dの絶対値の最大値であるズレ値Zを算出し、算出結果を上記評価値としてもよい。
Variation of the proportional term S β = (L 1 + L 2) 2 / (2 × r) ··· (16)
Degree of freedom of proportional term f β = 1 (17)
Fluctuation due to difference in proportionality constant S N × β = (L 1 2 + L 2 2 ) / r−S β (18)
Degree of freedom due to difference of proportionality constant fN × β = n−1 = 2-1 = 1) (19)
Error variation S e = S T −S β −S N × β (20)
Degree of freedom of error f e = f T −f β −f N × β (21)
Fluctuation of total error S N = S T −S β = S N × β + S e (22)
Of the total error degree of freedom f N = f T -f β = f N × β + f e ··· (23)
Error variance V e = S e / f e (24)
Total error variance V N = S N / f N (25)
SN ratio η = 10 × log 10 (( S β -V e) / V N) ··· (26)
(Example 4 of evaluation value calculation method)
Instead of the above-described evaluation value calculation method, y c, d −β × M c, where y c, d is an ideal value y c, d = β × M c, d (where β is a proportional constant) . A deviation value Z that is the maximum absolute value of d may be calculated, and the calculation result may be used as the evaluation value.

例えば、以下の式(27)〜(30)に基づいてズレ値Zを算出し、算出結果を上記評価値として記憶部7に記憶させるようにしてもよい。   For example, the deviation value Z may be calculated based on the following equations (27) to (30), and the calculation result may be stored in the storage unit 7 as the evaluation value.

Figure 2008192011
Figure 2008192011

Figure 2008192011
Figure 2008192011

傾き β=L/r ・・・(29)
ズレ値 Z=|Zc,dmax=|yc,d−β×Mc,dmax・・・(30)
(評価値算出方法の例5)
上記した評価値算出方法に代えて、以下の式(31)〜(35)に基づいてズレ値Zを算出し、算出結果を上記評価値として記憶部7に記憶させるようにしてもよい。
Inclination β = L / r (29)
Deviation value Z = | Zc, d | max = | yc , d− β × Mc, d | max (30)
(Example 5 of evaluation value calculation method)
Instead of the evaluation value calculation method described above, the deviation value Z may be calculated based on the following equations (31) to (35), and the calculation result may be stored in the storage unit 7 as the evaluation value.

Figure 2008192011
Figure 2008192011

Figure 2008192011
Figure 2008192011

Figure 2008192011
Figure 2008192011

傾き β=(L+L)/(2×r) ・・・(34)
ズレ値 Z=|Zc,dmax=|yc,d-β×Mc,dmax ・・・(35)
(評価値算出の具体例)
次に、評価値算出処理の具体例について説明する。ここでは、評価対象画像データおよびサンプル画像データの1ブロックがそれぞれ以下に示す画像データ(R,G,Bの色強度データ)を有する4つの画素(ピクセル)からなる場合について説明する。
Inclination β = (L 1 + L 2 ) / (2 × r) (34)
Deviation value Z = | Z c, d | max = | y c, d −β × M c, d | max (35)
(Specific example of evaluation value calculation)
Next, a specific example of the evaluation value calculation process will be described. Here, a case will be described in which one block of the evaluation target image data and the sample image data is composed of four pixels (pixels) each having image data (R, G, B color intensity data) shown below.

サンプル画像の色強度データM
ピクセル1:R=146,G=33,B=172
ピクセル2:R=105,G=162,B=231
ピクセル3:R=94,G=248,B=55
ピクセル4:R=234,G=42,B=84
評価対象画像の色強度データy
ピクセル1:R=140,G=38,B=180
ピクセル2:R=95,G=188,B=241
ピクセル3:R=80,G=252,B=57
ピクセル4:R=230,G=48,B=86
まず、上記式(1)〜(10)によって算出されるSN比ηを評価値として算出する場合について説明する。
Sample image color intensity data M
Pixel 1: R = 146, G = 33, B = 172
Pixel 2: R = 105, G = 162, B = 231
Pixel 3: R = 94, G = 248, B = 55
Pixel 4: R = 234, G = 42, B = 84
Color intensity data y of the image to be evaluated
Pixel 1: R = 140, G = 38, B = 180
Pixel 2: R = 95, G = 188, B = 241
Pixel 3: R = 80, G = 252, B = 57
Pixel 4: R = 230, G = 48, B = 86
First, the case where SN ratio (eta) calculated by said Formula (1)-(10) is calculated as an evaluation value is demonstrated.

この場合、上記式(1)より、全変動S=y1,1 +y1,2 +y1,3 +y1,4 +y2,1 +y2,2 +y2,3 +y2,4 +y3,1 +y3,2 +y3,3 +y3,4 =140+95+80+230+38+188+252+48+180+241+57+86=291647であり、
上記式(2)より、全自由度f=4×3=12であり、
上記式(3)より、有効除数r=M1,1 +M1,2 +M1,3 +M1,4 +M2,1 +M2,2 +M2,3 +M2,4 +M3,1 +M3,2 +M3,3 +M3,4 =146+105+94+234+33+162+248+42+172+231+55+84=279560であり、
上記式(4)より、L=M1,1×y1,1+M1,2×y1,2+M1,3×y1,3+M1,4×y1,4+M2,1×y2,1+M2,2×y2,2+M2,3×y2,3+M2,4×y2,4+M3,1×y3,1+M3,2×y3,2+M3,3×y3,3+M3,4×y3,4=146×140+105×95+94×80+234×230+33×38+162×188+248×252+42×48+172×180+231×241+55×57+84×86=284967であり、
上記式(5)より、比例項の変動Sβ=L/r=284967/279560=290478.577であり、
上記式(6)より、比例項の自由度fβ=1であり、
上記式(7)より、誤差変動S=S−Sβ=291647−290478.577=1168.423であり、
上記式(8)より、誤差の自由度f=f−fβ=12−1=11であり、
上記式(9)より、誤差分散V=S/f=1168.423/11=106.22であるので、上記式(10)より、
SN比η=10×log10((1/r)×(Sβ−V)/V)=10×log10((1/279560)×(290478.577−106.22)/106.22)=−20.097となる。
In this case, from the above formula (1), the total variation S T = y 1,1 2 + y 1,2 2 + y 1,3 2 + y 1,4 2 + y 2,1 2 + y 2,2 2 + y 2,3 2 + Y 2,4 2 + y 3,1 2 + y 3,2 2 + y 3,3 2 + y 3,4 2 = 140 2 +95 2 +80 2 +230 2 +38 2 +188 2 +252 2 +48 2 +180 2 +241 2 +57 2 +86 2 = 291647,
From the above equation (2), the total degrees of freedom f T = 4 × 3 = 12.
From the above formula (3), the effective divisor r = M 1,1 2 + M 1,2 2 + M 1,3 2 + M 1,4 2 + M 2,1 2 + M 2,2 2 + M 2,3 2 + M 2,4 2 + M 3,1 2 + M 3,2 2 + M 3,3 2 + M 3,4 2 = 146 2 +105 2 +94 2 +234 2 +33 2 +162 2 +248 2 +42 2 +172 2 +231 2 +55 2 +84 2 = 279560 ,
From the above formula (4), L = M 1,1 × y 1,1 + M 1,2 × y 1,2 + M 1,3 × y 1,3 + M 1,4 × y 1,4 + M 2,1 × y 2,1 + M 2,2 xy 2,2 + M 2,3 xy 2,3 + M 2,4 xy 2,4 + M 3,1 xy 3,1 + M 3,2 xy 3,2 + M 3,3 × y 3,3 + M 3,4 × y 3,4 = 146 × 140 + 105 × 95 + 94 × 80 + 234 × 230 + 33 × 38 + 162 × 188 + 248 × 252 + 42 × 48 + 172 × 180 + 231 × 241 + 55 × 57 + 84 × 86 = 284967
From the above equation (5), the proportional term variation S β = L 2 / r = 284967 2 /279560=2904788.577,
From the above equation (6), the degree of freedom of proportional term f β = 1,
From the above equation (7), the error variation S e = S T −S β = 291647-290478.577 = 1168.423,
From the above formula (8), the degree of freedom of error f e = f T −f β = 12-1 = 11,
From the above equation (9), since error variance V e = S e / f e = 1168.423 / 11 = 106.22, from the above equation (10),
SN ratio η = 10 × log 10 ((1 / r) × (S β −V e ) / V e ) = 10 × log 10 ((1/279560) × (2904788.577-106.22) / 106. 22) = − 20.097.

したがって、このブロックについてのSN比(評価値)ηは−20.097である。   Therefore, the SN ratio (evaluation value) η for this block is −20.097.

次に、上記式(27)〜(30)によって算出されるズレ値Zを評価値として算出する場合について説明する。   Next, the case where the deviation value Z calculated by the above equations (27) to (30) is calculated as the evaluation value will be described.

上記式(27)より、有効除数r=M1,1 +M1,2 +M1,3 +M1,4 +M2,1 +M2,2 +M2,3 +M2,4 +M3,1 +M3,2 +M3,3 +M3,4 =146+105+94+234+33+162+248+42+172+231+55+84=279560であり、
上記式(28)より、L=M1,1×y1,1+M1,2×y1,2+M1,3×y1,3+M1,4×y1,4+M2,1×y2,1+M2,2×y2,2+M2,3×y2,3+M2,4×y2,4+M3,1×y3,1+M3,2×y3,2+M3,3×y3,3+M3,4×y3,4=146×140+105×95+94×80+234×230+33×38+162×188+248×252+42×48+172×180+231×241+55×57+84×86=284967であり、
上記式(29)より、β=L/r=284967/279560=1.019であるので、各画素についての各色の色強度のズレ値Zc,dは以下のようになる。
From the above formula (27), the effective divisor r = M 1,1 2 + M 1,2 2 + M 1,3 2 + M 1,4 2 + M 2,1 2 + M 2,2 2 + M 2,3 2 + M 2,4 2 + M 3,1 2 + M 3,2 2 + M 3,3 2 + M 3,4 2 = 146 2 +105 2 +94 2 +234 2 +33 2 +162 2 +248 2 +42 2 +172 2 +231 2 +55 2 +84 2 = 279560 ,
From the above equation (28), L = M 1,1 × y 1,1 + M 1,2 × y 1,2 + M 1,3 × y 1,3 + M 1,4 × y 1,4 + M 2,1 × y 2,1 + M 2,2 xy 2,2 + M 2,3 xy 2,3 + M 2,4 xy 2,4 + M 3,1 xy 3,1 + M 3,2 xy 3,2 + M 3,3 × y 3,3 + M 3,4 × y 3,4 = 146 × 140 + 105 × 95 + 94 × 80 + 234 × 230 + 33 × 38 + 162 × 188 + 248 × 252 + 42 × 48 + 172 × 180 + 231 × 241 + 55 × 57 + 84 × 86 = 284967
From the above equation (29), β = L / r = 284967/279560 = 1.019, so the color intensity deviation value Zc, d for each pixel is as follows.

1,1 = |Z1,1| = |140−1.019×146|=8.824
1,2 = |Z1,2| = |95−1.019×105| =12.031
1,3 = |Z1,3| = |80−1.019×94| =15.818
1,4 = |Z1,4| = |230−1.019×234|=8.526
2,1 = |Z2,1| = |38−1.019×33| =4.362
2,2 = |Z2,2| = |188−1.019×162|=22.867
2,3 = |Z2,3| = |252−1.019×248|=0.797
2,4 = |Z2,4| = |48−1.019×42| =5.188
3,1 = |Z3,1| = |180−1.019×172|=4.673
3,2 = |Z3,2| = |241−1.019×231|=5.532
3,3 = |Z3,3| = |57−1.019×55| =0.936
3,4 = |Z3,4| = |86−1.019×84| =0.375
したがって、上記式(30)より、ズレ値Z=|Zc,dmax=22.867となる。
Z 1,1 = | Z 1,1 | = | 140-1.019 × 146 | = 8.824
Z 1,2 = | Z 1,2 | = | 95-1.019 × 105 | = 12.031
Z 1,3 = | Z 1,3 | = | 80-1.019 × 94 | = 15.818
Z 1,4 = | Z 1,4 | = | 230-1.019 × 234 | = 8.526
Z 2,1 = | Z 2,1 | = | 38-1.019 × 33 | = 4.362
Z 2,2 = | Z 2,2 | = | 188-1.019 × 162 | = 22.867
Z 2,3 = | Z 2,3 | = | 252-1.019 × 248 | = 0.797
Z 2,4 = | Z 2,4 | = | 48-1.019 × 42 | = 5.188
Z 3,1 = | Z 3,1 | = | 180-1.019 × 172 | = 4.673
Z 3,2 = | Z 3,2 | = | 241-1.019 × 231 | = 5.532
Z 3,3 = | Z 3,3 | = | 57-1.019 × 55 | = 0.936
Z 3,4 = | Z 3,4 | = | 86−1.019 × 84 | = 0.375
Therefore, the deviation value Z = | Z c, d | max = 22.867 from the above equation (30).

(閾値TH1の設定方法の例1)
次に、相違箇所抽出部34が相違箇所を抽出する際に用いる上記閾値TH1の設定方法の一例について説明する。
(Example 1 of setting method of threshold value TH1)
Next, an example of a method for setting the threshold TH1 used when the different part extraction unit 34 extracts a different part will be described.

まず、サンプル画像データと、このサンプル画像データに対する相違箇所を含む評価対象画像データとを用意する。例えば、図5(a)に示すサンプル画像のデータと、図5(b)に示す評価対象画像のデータとを用意する。図5(a)および図5(b)の例では、右上(図中に示した縦4・横4の位置)のブロックが相違箇所を有する(類似度が低い)一方、その他のブロックについては相違箇所がない(類似度が高い)ようになっている。
なお、図5(a)中および図5(b)中に示した破線は、ブロックを説明するためのものであり、サンプル画像および評価対象画像に含まれるものではない。
First, sample image data and evaluation target image data including differences from the sample image data are prepared. For example, the sample image data shown in FIG. 5A and the evaluation target image data shown in FIG. 5B are prepared. In the example of FIGS. 5A and 5B, the block in the upper right (vertical 4 and horizontal 4 positions shown in the figure) has a different portion (low similarity), while other blocks are There are no differences (high similarity).
In addition, the broken line shown in FIG. 5A and FIG. 5B is for explaining the block, and is not included in the sample image and the evaluation target image.

次に、サンプル画像データおよび評価対象画像データを、所定数のブロック(ここでは縦4×横4)に分割する。そして、各ブロックについてS/N比、および/またはズレ値を算出する。   Next, the sample image data and the evaluation target image data are divided into a predetermined number of blocks (here, 4 × 4). Then, an S / N ratio and / or a deviation value is calculated for each block.

例えば、各ブロックについてのS/N比およびズレ値が下表に示す値であったとする。   For example, it is assumed that the S / N ratio and the deviation value for each block are the values shown in the table below.

Figure 2008192011
Figure 2008192011

S/N比については、S/N比が大きいほど類似度が高く、小さいほど類似度が低い。このため、相違箇所がある(類似度が低い)ブロックにおけるS/N比の最大値(表1の場合−22.54)と、相違箇所のない(類似度が高い)ブロックにおけるS/N比の最小値(表1の場合−20.44)との間に閾値を設定すればよい。   Regarding the S / N ratio, the greater the S / N ratio, the higher the similarity, and the smaller the S / N ratio, the lower the similarity. For this reason, the maximum value of the S / N ratio (in the case of Table 1, −22.54) in a block having a different portion (low similarity) and the S / N ratio in a block having no different portion (high similarity). A threshold value may be set between the minimum value (in the case of Table 1, −20.44).

なお、閾値を上記範囲内においてどのように設定するかについては、用途に応じて設定すればよい。例えば、相違箇所があるブロックが見逃される頻度(相違箇所があるブロックであるにもかかわらず相違箇所がないブロックであると誤判定される頻度)を低減したい場合には、閾値を相違箇所のないブロックにおけるS/N比の最小値(表1の場合−20.44)あるいはそれに近い値にすればよい。また、相違箇所があるブロックであるにもかかわらず相違箇所がないブロックであると誤判定される頻度を低減させたい場合には、閾値を相違箇所があるブロックにおけるS/N比の最大値(表1の場合−22.54)あるいはそれに近い値に設定すればよい。   In addition, what is necessary is just to set how a threshold value is set within the said range according to a use. For example, when it is desired to reduce the frequency at which a block with a different portion is overlooked (the frequency at which it is erroneously determined that the block has a different portion even though it is a block with a different portion), the threshold is set so that there is no different portion. The minimum value of the S / N ratio in the block (in the case of Table 1, 20.44) may be set to a value close thereto. In addition, when it is desired to reduce the frequency of erroneously determining that the block has a different portion even though the block has a different portion, the threshold value is set to the maximum value of the S / N ratio in the block having the different portion ( In the case of Table 1, it may be set to -22.54) or a value close thereto.

一方、ズレ値については、ズレ値が小さいほど類似度が高く、大きいほど類似度が低い。このため、相違箇所があるブロックにおけるズレ値の最小値(表1の場合24.2)と、相違箇所のないブロックにおけるズレ値の最大値(表1の場合22.3)との間に閾値を設定すればよい。   On the other hand, regarding the deviation value, the smaller the deviation value, the higher the similarity, and the larger the deviation value, the lower the similarity. For this reason, a threshold value is set between the minimum value of the deviation value in the block having the difference portion (24.2 in the case of Table 1) and the maximum value of the deviation value in the block having no difference portion (22.3 in the case of Table 1). Should be set.

なお、S/N比の場合と同様、閾値を上記範囲内においてどのように設定するかについては、用途に応じて設定すればよい。例えば、相違箇所があるブロックが見逃される頻度(相違箇所があるブロックであるにもかかわらず相違箇所がないブロックであると誤判定される頻度)を低減したい場合には、閾値を相違箇所のないブロックにおけるズレ値の最大値(表1の場合22.3)あるいはそれに近い値にすればよい。また、相違箇所があるブロックであるにもかかわらず相違箇所がないブロックであると誤判定される頻度を低減させたい場合には、閾値を相違箇所があるブロックにおけるズレ値の最小値あるいはそれに近い値に設定すればよい。   As in the case of the S / N ratio, how to set the threshold value within the above range may be set according to the application. For example, when it is desired to reduce the frequency at which a block with a different portion is overlooked (the frequency at which it is erroneously determined that the block has a different portion even though it is a block with a different portion), the threshold is set so that there is no different portion. The maximum deviation value in the block (22.3 in the case of Table 1) or a value close thereto may be used. Further, when it is desired to reduce the frequency of erroneously determining that the block has a different portion even though it is a block having a different portion, the threshold is set to the minimum value of the deviation value in the block having the different portion or close to it. Set it to a value.

また、閾値については、画像の種類毎に設定してもよい。例えば、文字のみからなる画像、写真または描画のみからなる画像、文字と写真または描画とを含む画像といったタイプ分けをしてタイプ毎に事前に閾値を用意し、記憶部7に記憶させておいてもよい。この場合、デジタルカラー複合機1に評価対象画像データのタイプ(画像の種別)を判定する判定部を設けておき、相違箇所抽出部34が記憶部7に記憶されている閾値の中から判定部によって判定された評価対象画像データのタイプに対応する閾値を選択し、選択した閾値を用いて相違箇所の抽出を行うようにすればよい。なお、評価対象画像データのタイプの判定方法は特に限定されるものではなく、例えば従来から公知の種々の方法を用いることができる。また、ブロック毎あるいは複数のブロックからなるブロック群毎にタイプ(画像の種類)の判定を行い、判定結果に応じた閾値を用いるようにしてもよい。   The threshold value may be set for each type of image. For example, a threshold value is prepared in advance for each type, such as an image consisting only of characters, an image consisting only of photographs or drawings, or an image including characters and photographs or drawings, and stored in the storage unit 7. Also good. In this case, the digital color multifunction peripheral 1 is provided with a determination unit that determines the type (image type) of the evaluation target image data, and the difference portion extraction unit 34 determines from the threshold values stored in the storage unit 7. The threshold value corresponding to the type of the evaluation target image data determined by the above is selected, and the difference portion may be extracted using the selected threshold value. The method for determining the type of image data to be evaluated is not particularly limited, and various conventionally known methods can be used, for example. Further, the type (image type) may be determined for each block or for each block group including a plurality of blocks, and a threshold value corresponding to the determination result may be used.

以上のように、本実施形態にかかるデジタルカラー複合機1では、画像分割処理部32が評価対象画像データおよびサンプル画像データを両画像データの各ブロックが互いに対応するようにそれぞれ複数のブロックに分割し、評価値算出部33が評価対象画像データおよびサンプル画像データの各ブロックについての評価値を算出し、相違箇所抽出部34が評価値算出部33の算出した各ブロックの評価値と記憶部7に予め記憶されている閾値TH1とを比較して相違箇所(相違ブロック)を抽出する。   As described above, in the digital color multifunction peripheral 1 according to the present embodiment, the image division processing unit 32 divides the evaluation target image data and the sample image data into a plurality of blocks so that each block of both image data corresponds to each other. Then, the evaluation value calculation unit 33 calculates an evaluation value for each block of the evaluation object image data and the sample image data, and the different part extraction unit 34 calculates the evaluation value of each block calculated by the evaluation value calculation unit 33 and the storage unit 7. Are compared with a threshold value TH1 stored in advance to extract a different portion (different block).

これにより、評価対象画像とサンプル画像との相違箇所を、人間の主観を介することなく抽出することができる。   Thereby, the difference part of an evaluation object image and a sample image can be extracted, without passing through a human subjectivity.

また、本実施形態では、評価対象画像データおよびサンプル画像データに含まれる全ての色(RGBの3色)の色強度データに基づいて評価値を算出する。これにより、相違箇所の判定を精度よく行うことができる。   In this embodiment, evaluation values are calculated based on the color intensity data of all colors (three colors of RGB) included in the evaluation target image data and the sample image data. Thereby, a difference part can be determined accurately.

また、本実施形態では、各ブロックについての評価値としてSN比ηまたはズレ値Zを用いている。これにより、相違箇所の判定精度に対するノイズの影響を低減して画像同士の類似度を高精度に判定することができる。   In the present embodiment, the SN ratio η or the deviation value Z is used as the evaluation value for each block. Thereby, the influence of the noise with respect to the determination precision of a different location can be reduced, and the similarity of images can be determined with high precision.

〔実施形態2〕
本発明の他の実施形態について説明する。なお、説明の便宜上、実施形態1と同様の機能を有する部材については同じ符号を付し、その説明を省略する。
[Embodiment 2]
Another embodiment of the present invention will be described. For convenience of explanation, members having the same functions as those in the first embodiment are denoted by the same reference numerals, and description thereof is omitted.

本実施形態にかかるデジタルカラー複合機1は、実施形態1における類似度判定部13に代えて、図6に示す類似度判定部13bを備えている。図6は、類似度判定部13bの概略構成を示すブロック図である。   The digital color MFP 1 according to the present embodiment includes a similarity determination unit 13b illustrated in FIG. 6 instead of the similarity determination unit 13 according to the first embodiment. FIG. 6 is a block diagram illustrating a schematic configuration of the similarity determination unit 13b.

この図に示すように、類似度判定部13bは、実施形態1における類似度判定部13に備えられる各部に加えて、平均化処理部37を備えている。   As shown in this figure, the similarity determination unit 13b includes an averaging processing unit 37 in addition to the units included in the similarity determination unit 13 in the first embodiment.

平均化処理部37は、色強度データ取得部31の取得した評価対象画像データおよびサンプル画像データにおける複数ピクセルからなる各エリアの色強度データを以下に示す式(36)および式(37)に基づいて平均化処理し、処理結果を記憶部7に記憶させる。なお、図7に示すように、1エリアは複数ピクセル(u×vピクセル;u,vは1以上の整数であり、u=vであってもよく、u≠vであってもよい。)からなり、1ブロックは複数エリア(m×nエリア;m,nは1以上の整数であり、m=nであってもよく、m≠nであってもよい)からなる。また、1エリアあたりのピクセル数(u,vの値)は、予め設定されていてもよく、操作パネル6を介してユーザが指定してもよい。また、サンプル画像データおよび評価対象画像データの画像サイズ、分解能、画像の種類等に応じたピクセル数を予め記憶部7に記憶させておき、画像分割処理部32がサンプル画像データおよび評価対象画像データの画像サイズ、分解能、画像の種類等を判断し、判断結果に応じて適切な分割数を選択するようにしてもよい。   The averaging processing unit 37 is based on the following expression (36) and expression (37) for the color intensity data of each area composed of a plurality of pixels in the evaluation object image data and the sample image data acquired by the color intensity data acquisition unit 31. Then, the averaging process is performed, and the processing result is stored in the storage unit 7. As shown in FIG. 7, one area is a plurality of pixels (u × v pixels; u and v are integers of 1 or more, u = v may be satisfied, and u ≠ v may be satisfied). Each block is composed of a plurality of areas (m × n areas; m and n are integers of 1 or more, m = n may be satisfied, and m ≠ n may be satisfied). Further, the number of pixels per area (values of u and v) may be set in advance, or may be designated by the user via the operation panel 6. In addition, the number of pixels corresponding to the image size, resolution, image type, and the like of the sample image data and the evaluation target image data is stored in the storage unit 7 in advance, and the image division processing unit 32 performs the sample image data and the evaluation target image data. The image size, resolution, image type, and the like may be determined, and an appropriate number of divisions may be selected according to the determination result.

M’c,(f,g)=(Mc,((f−1)×u+1,(g−1)×v+1)+・・・・・・+Mc,(f×u,g×v))/(u×v) ・・・(36)
y’c,(f,g)=(yc,((f−1)×u+1,(g−1)×v+1)+・・・・・・+yc(f×u,g×v))/(u×v) ・・・(37)
なお、上記式(36)におけるM’は、サンプル画像データを平均化処理することによって算出される1エリアの色強度データを示す。また、M’c,(f,g)としたときの添え字cは色の種類を表す。例えば、RGBの3色の色強度データがある場合、Rの色強度データはc=1,Gの色強度データはc=2,Bの色強度データはc=3とする。また、f,gは平均化処理後の各エリアの位置を表わす。例えば、平均化処理後に縦6・横8(左から6番目、上から8番目)となるエリアは、f=6、g=8となる。また、u,vは、上記式(36)におけるu,vは、それぞれ、1エリアに含まれる縦方向(列方向)のピクセル数および横方向(行方向)のピクセル数を示している。
M ′ c, (f, g) = (M c, ((f−1) × u + 1, (g−1) × v + 1) +... + M c, (f × u, g × v) ) / (U × v) (36)
y ′ c, (f, g) = (y c, ((f−1) × u + 1, (g−1) × v + 1) +... + y c (f × u, g × v) ) / (U × v) (37)
Note that M ′ in the equation (36) represents color intensity data of one area calculated by averaging the sample image data. The subscript c when M ′ c, (f, g) represents the type of color. For example, when there are three color intensity data of RGB, the color intensity data of R is c = 1, the color intensity data of G is c = 2, and the color intensity data of B is c = 3. F and g represent the positions of the respective areas after the averaging process. For example, an area that is 6 vertical and 8 horizontal (sixth from the left, eighth from the top) after the averaging processing is f = 6 and g = 8. In addition, u and v in Expression (36) indicate the number of pixels in the vertical direction (column direction) and the number of pixels in the horizontal direction (row direction), respectively, included in one area.

また、上記式(37)におけるy’は、評価対象画像データを平均化処理することによって算出される1エリアの色強度データを示す。添え字についてはM’と同様である。   In addition, y ′ in the above equation (37) indicates color intensity data of one area calculated by averaging the evaluation target image data. The subscript is the same as M '.

これにより、例えば、4×4ピクセルからなる1エリアを平均化処理して得られる縦6・横8のエリアにおける2種類目の色(G;緑)の色強度データは、
M’2,(6,8)=(M2,(21,29)+M2,(21,30)+M2,(21,31)+M2,(21,32)+M2,(22,29)+M2,(22,30)+M2,(22,31)+M2,(22,32)+M2,(23,29)+M2,(23,30)+M2,(23,31)+M2,(23,32)+M2,(24,29)+M2,(24,30)+M2,(24,31)+M2,(24,32))/(4×4)となる。
Thereby, for example, the color intensity data of the second color (G; green) in the vertical 6 and horizontal 8 areas obtained by averaging one area of 4 × 4 pixels is
M '2, (6,8) = (M 2, (21,29) + M 2, (21,30) + M 2, (21,31) + M 2, (21,32) + M 2, (22,29 ) + M 2, (22,30) + M 2, (22,31) + M 2, (22,32) + M 2, (23,29) + M 2, (23,30) + M 2, (23,31) + M 2, the (23,32) + M 2, ( 24,29) + M 2, (24,30) + M 2, (24,31) + M 2, (24,32)) / (4 × 4).

画像分割処理部32、評価値算出部33、相違箇所抽出部34、相違箇所通知部35、類似度評価部36は、実施形態1おいて色強度データM,yを用いて行った処理と同様の処理を、平均化処理部37の算出した各エリアの色強度データM’,y’を用いて行う。つまり、色強度データM,yに代えて色強度データM’,y’を用いて相違箇所の抽出を行う。   The image division processing unit 32, the evaluation value calculation unit 33, the different part extraction unit 34, the different part notification unit 35, and the similarity evaluation unit 36 are the same as the processes performed using the color intensity data M and y in the first embodiment. This process is performed using the color intensity data M ′, y ′ of each area calculated by the averaging processing unit 37. That is, a difference portion is extracted using the color intensity data M ′ and y ′ instead of the color intensity data M and y.

以上のように、本実施形態では、評価対象画像データおよびサンプル画像データにおける各ピクセルについての色強度データを、複数ピクセルからなるエリア毎に平均化処理して各エリアについての色強度データの平均値を算出する。そして、この各エリアについての平均値に基づいて各ブロックの評価値を算出し、相違箇所(相違ブロック)を抽出する。   As described above, in this embodiment, the color intensity data for each pixel in the evaluation object image data and the sample image data is averaged for each area composed of a plurality of pixels, and the average value of the color intensity data for each area is obtained. Is calculated. Then, an evaluation value of each block is calculated based on the average value for each area, and a different portion (different block) is extracted.

このように、平均化処理を行うことで、画像読取時の位置ズレ、紙質のばらつき等に起因するノイズが相違箇所の判定結果に影響を及ぼすことを低減できる。   In this way, by performing the averaging process, it is possible to reduce the influence of noise caused by positional deviation at the time of image reading, paper quality variation, and the like on the determination result of the different portion.

〔実施形態3〕
本発明のさらに他の実施形態について説明する。なお、なお、説明の便宜上、実施形態1,2と同様の機能を有する部材については同じ符号を付し、その説明を省略する。
[Embodiment 3]
Still another embodiment of the present invention will be described. For convenience of explanation, members having the same functions as those in the first and second embodiments are denoted by the same reference numerals and description thereof is omitted.

本実施形態にかかるデジタルカラー複合機1は、実施形態2における類似度判定部13bに代えて、図8に示す類似度判定部13cを備えている。図8は、類似度判定部13cの概略構成を示すブロック図である。   The digital color MFP 1 according to the present embodiment includes a similarity determination unit 13c illustrated in FIG. 8 instead of the similarity determination unit 13b according to the second embodiment. FIG. 8 is a block diagram illustrating a schematic configuration of the similarity determination unit 13c.

この図に示すように、類似度判定部13cは、実施形態2における類似度判定部13bに備えられる各部に加えて、データサイズ演算部38とデータサイズ処理部39とを備えている。   As shown in this figure, the similarity determination unit 13c includes a data size calculation unit 38 and a data size processing unit 39 in addition to the units included in the similarity determination unit 13b in the second embodiment.

データサイズ演算部(画像変換部)38は、画像分割処理部32において分割処理する際のブロック数(横方向の分割数sおよび縦方向の分割数t)、平均化処理部37において平均化処理する際の各エリアのピクセル数(縦方向のピクセル数uおよび横方向のピクセル数v)、評価対象画像データの高さ(縦方向の長さ)hおよび幅(横方向の長さ)w、およびサンプル画像データの高さh’および幅w’に基づいて、評価対象画像データおよびサンプル画像データの拡大サイズを決定する。   The data size calculation unit (image conversion unit) 38 includes the number of blocks (the horizontal division number s and the vertical division number t) when the image division processing unit 32 performs division processing, and the averaging processing unit 37 performs averaging processing. The number of pixels in each area (vertical number u and horizontal number v), height (vertical length) h and width (horizontal length) w of the evaluation target image data, Based on the height h ′ and width w ′ of the sample image data, the enlargement sizes of the evaluation object image data and the sample image data are determined.

具体的には、データサイズ演算部38は、横方向の分割数(ブロック数)sと、各エリアにおける横方向のピクセル数uとの積の倍数のうち、元データの幅wおよび幅w’を超える最小の値を拡大後の各画像データの幅Wとする。また、縦方向の分割数(ブロック数)tと、各エリアにおける縦方向のピクセル数vとの積の倍数のうち、元データの高さhおよび高さh’を超える最小の値を拡大後の各画像データの高さHとする。   Specifically, the data size calculation unit 38 calculates the width w and width w ′ of the original data out of multiples of the product of the number of divisions (number of blocks) s in the horizontal direction and the number of pixels u in the horizontal direction in each area. The minimum value exceeding the value is the width W of each image data after enlargement. Further, after expanding the minimum value exceeding the height h and the height h ′ of the original data among multiples of the product of the number of vertical divisions (number of blocks) t and the number of vertical pixels v in each area The height H of each of the image data.

なお、画像分割処理部32において分割処理する際のブロック数および平均化処理部37において平均化処理する際の各エリアのピクセル数は、予め設定されていてもよく、操作パネル6を介してユーザが指定してもよい。また、評価対象画像データおよびサンプル画像データの画像サイズ、分解能、画像の種類等に応じた値を予め記憶部7に記憶させておき、画像分割処理部32が評価対象画像データおよびサンプル画像データの画像サイズ、分解能、画像の種類等を判断し、判断結果に応じて適切な分割数を選択するようにしてもよい。   Note that the number of blocks when the division processing is performed in the image division processing unit 32 and the number of pixels in each area when the averaging processing is performed in the averaging processing unit 37 may be set in advance. May be specified. In addition, values corresponding to the image size, resolution, image type, and the like of the evaluation target image data and the sample image data are stored in the storage unit 7 in advance, and the image division processing unit 32 stores the evaluation target image data and the sample image data. The image size, resolution, image type, and the like may be determined, and an appropriate number of divisions may be selected according to the determination result.

データサイズ処理部(画像変換部)39は、データサイズ演算部38の演算結果に基づいて、評価対象画像データおよびサンプル画像データの拡大処理を行う。   The data size processing unit (image conversion unit) 39 performs an enlargement process on the evaluation target image data and the sample image data based on the calculation result of the data size calculation unit 38.

具体的には、図9に示すように、元データに対応する画像(高さh×幅wあるいは高さh’×幅w’)を中央に配置し、その上下左右に枠を付加することでデータサイズ演算部38の算出したサイズ(高さH×幅W)の拡大画像を作成する。なお、元データの上下にそれぞれ付加する枠の高さは、拡大後の高さHと元データの高さとの差を均等に分割した高さ(H−h)/2あるいは(H−h’)/2とする。同様に、元データの左右にそれぞれ付加する枠の幅は、拡大後の幅Wと元データの幅との差を均等に分割した幅(W−w)/2あるいは(W−w’)/2とする。   Specifically, as shown in FIG. 9, an image (height h × width w or height h ′ × width w ′) corresponding to the original data is arranged in the center, and frames are added to the top, bottom, left and right. Thus, an enlarged image of the size (height H × width W) calculated by the data size calculator 38 is created. Note that the heights of the frames added to the top and bottom of the original data are the height (Hh) / 2 or (Hh ′) obtained by equally dividing the difference between the height H after enlargement and the height of the original data. ) / 2. Similarly, the widths of the frames added to the left and right of the original data are the width (W−w) / 2 or (W−w ′) / that is obtained by equally dividing the difference between the expanded width W and the width of the original data. 2.

また、付加する枠における各ピクセルの色強度は、均一の色強度とする。例えば、各ピクセルが白(R,G,Bの色強度データの場合、R=G=B=255。グレースケールの場合、信号値=255。)または黒(R,G,Bの色強度データの場合、R=G=B=0。グレースケールの場合、信号値=0。)になるように各ピクセルの色強度を設定する。   Further, the color intensity of each pixel in the added frame is assumed to be uniform. For example, each pixel is white (R = G = B = 255 for R, G, B color intensity data; signal value = 255 for gray scale) or black (R, G, B color intensity data). In this case, the color intensity of each pixel is set so that R = G = B = 0. In the case of gray scale, the signal value = 0.

平均化処理部37、画像分割処理部32、評価値算出部33、相違箇所抽出部34、相違箇所通知部35、類似度評価部36は、データサイズ処理部39によって拡大処理された評価対象画像データとサンプル画像データとに対して実施形態2と同様の処理を行う。   The averaging processing unit 37, the image division processing unit 32, the evaluation value calculation unit 33, the different part extraction unit 34, the different part notification unit 35, and the similarity evaluation unit 36 are subjected to enlargement processing by the data size processing unit 39. The same processing as that in the second embodiment is performed on the data and the sample image data.

以上のように、本実施形態では、データサイズ演算部38が、横方向の分割数(ブロック数)sと各エリアにおける横方向のピクセル数uとの積の倍数のうち元データの幅を超える最小の値を拡大後の画像データの幅Wとし、縦方向の分割数(ブロック数)tと各エリアにおける縦方向のピクセル数vとの積の倍数のうち、元データの高さを超える最小の値を拡大後の画像データの高さHとするように評価対象画像データおよびサンプル画像データの拡大サイズを演算する。そして、データサイズ処理部39が、データサイズ演算部38の演算結果に基づいて、評価対象画像データおよびサンプル画像データの拡大処理を行う。そして、平均化処理部37、画像分割処理部32、評価値算出部33、相違箇所抽出部34、相違箇所通知部35、類似度評価部36は、データサイズ処理部39によって拡大処理された評価対象画像データとサンプル画像データとに対して平均化処理、画像分割処理、評価値算出処理、相違箇所抽出処理、相違箇所通知処理、類似度評価処理を行う。   As described above, in this embodiment, the data size calculation unit 38 exceeds the width of the original data among multiples of the product of the number of horizontal divisions (number of blocks) s and the number of horizontal pixels u in each area. The minimum value is the width W of the image data after enlargement, and is the minimum that exceeds the height of the original data among multiples of the product of the number of vertical divisions (number of blocks) t and the number of vertical pixels v in each area. The enlargement sizes of the evaluation object image data and the sample image data are calculated so that the value of is the height H of the enlarged image data. Then, the data size processing unit 39 performs an enlargement process on the evaluation target image data and the sample image data based on the calculation result of the data size calculation unit 38. Then, the averaging processing unit 37, the image division processing unit 32, the evaluation value calculation unit 33, the different part extraction unit 34, the different part notification unit 35, and the similarity evaluation unit 36 are expanded by the data size processing unit 39. An averaging process, an image division process, an evaluation value calculation process, a different part extraction process, a different part notification process, and a similarity evaluation process are performed on the target image data and the sample image data.

これにより、各ブロックのサイズを均一化することができるので、1エリアあたりの情報量の相違箇所抽出処理および類似度評価処理に対する重み(影響の度合)を均一化することができる。   As a result, the size of each block can be made uniform, so that the weights (degrees of influence) for the difference location extraction process and the similarity evaluation process of the information amount per area can be made uniform.

また、データサイズ処理部39は、元データに対応する画像(高さh×幅wあるいは高さh’×幅w’)を中央に配置し、その上下左右に枠を付加することでデータサイズ演算部38の算出したサイズ(高さH×幅W)の拡大画像を作成する。   In addition, the data size processing unit 39 arranges an image (height h × width w or height h ′ × width w ′) corresponding to the original data in the center, and adds a frame to the upper, lower, left, and right sides of the data size. An enlarged image having a size (height H × width W) calculated by the calculation unit 38 is created.

これにより、評価対象画像データのサイズとサンプル画像データのサイズとが微小に違う場合(例えば数ピクセル程度)であっても、画像の中心部に基づいて両画像の位置合わせを行うことができる。なお、平行移動による位置ズレがある場合、余白と思われる幅を上下左右削除してから枠を付加してもよい。これにより、平行移動による位置ズレがある場合であっても、画像の中心部に基づいて両画像の位置合わせを行うことができる。   Thus, even when the size of the evaluation target image data and the size of the sample image data are slightly different (for example, about several pixels), the two images can be aligned based on the center of the image. When there is a positional shift due to parallel movement, a frame may be added after deleting a width that seems to be a margin, up and down, left and right. Thereby, even if there is a positional shift due to parallel movement, the images can be aligned based on the center of the image.

また、平均化処理部37は、上記のように枠を付加した後の画像データに対して平均化処理を行う。これにより、枠付加前の画像の端部と枠部分とを含むエリアの色強度データが平均化されるので、枠付加後の両画像の間に微小なズレが残っていたとしても、この微小なズレの影響を緩和(ノイズの影響を低減)することができる。   In addition, the averaging processing unit 37 performs an averaging process on the image data after adding the frame as described above. As a result, the color intensity data of the area including the edge portion and the frame portion of the image before the frame addition is averaged, so even if a slight deviation remains between both images after the frame addition, It is possible to mitigate the effect of misalignment (reduce the influence of noise).

また、データサイズ演算部38は、上記の枠における各ピクセルの色強度を均一にする。これにより、枠の色強度がノイズとなって判定精度を低下させることを防止できる。   Further, the data size calculation unit 38 makes the color intensity of each pixel in the frame uniform. As a result, it can be prevented that the color intensity of the frame becomes noise and lowers the determination accuracy.

なお、上記各実施形態では、SN比ηのみまたはズレ値Zのみを評価値としているが、これに限らず、SN比ηとズレ値Zとの両方を評価値として用いてもよい。この場合、SN比ηについての閾値TH1ηと、ズレ値Zについての閾値TH1とを予め記憶部7に記憶させておき、相違箇所抽出部34が、評価対象画像データおよびサンプル画像データから算出されるSN比ηと上記閾値TH1ηとを比較するとともに、評価対象画像データおよびサンプル画像データから算出されるズレ値Zと上記TH1とを比較するようにすればよい。そして、例えば、η≦TH1ηまたはZ≧TH1であるブロック、あるいはη≦TH1ηかつZ≧TH1であるブロックを、相違箇所抽出部34が相違箇所であると判断するようにすればよい。また、SN比ηとズレ値Zとの両方を評価値として用いる場合であって、SN比ηおよびズレ値Zの算出過程において共通の演算内容(数式)が含まれる場合には、この共通の演算を共通の演算プロセスで行うようにしてもよい。これにより、演算処理の効率化、演算処理を行うためのプログラムにおけるアルゴリズムの簡略化あるいは演算処理を行う演算回路の簡略化を図ることができる。また、上記評価値は、上記したSN比およびズレ値に限るものではなく、両画像データの相違の度合を示すものであれば用いることができる。例えば、従来から公知の種々の方法によって算出される類似度あるいは相違度を用いてもよい。 In each of the above embodiments, only the SN ratio η or only the deviation value Z is used as the evaluation value. However, the present invention is not limited to this, and both the SN ratio η and the deviation value Z may be used as the evaluation value. Calculating this case, the threshold value TH1 eta for SN ratio eta, may be stored in advance in the memory unit 7 with the threshold TH1 Z about misalignment value Z, the different part extraction unit 34, from the evaluation target image data and the sample image data The SN ratio η and the threshold value TH1 η may be compared, and the deviation value Z calculated from the evaluation target image data and the sample image data may be compared with the TH1 Z. Then, for example, a block where η ≦ TH1 η or Z ≧ TH1 Z , or a block where η ≦ TH1 η and Z ≧ TH1 Z may be determined as a different point by the different point extraction unit 34. . Further, in the case where both the SN ratio η and the deviation value Z are used as evaluation values, and a common calculation content (formula) is included in the calculation process of the SN ratio η and the deviation value Z, this common The calculation may be performed by a common calculation process. Thereby, it is possible to improve the efficiency of the arithmetic processing, simplify the algorithm in the program for performing the arithmetic processing, or simplify the arithmetic circuit that performs the arithmetic processing. The evaluation value is not limited to the above-described SN ratio and deviation value, and any value can be used as long as it indicates the degree of difference between the two image data. For example, similarity or difference calculated by various conventionally known methods may be used.

また、上記各実施形態において、デジタルカラー複合機1(特にカラー画像処理装置3および主制御部)を構成する各部(各機能ブロック)は、CPU等のプロセッサを用いてソフトウェアによって実現される。すなわち、デジタルカラー複合機1は、各機能を実現する制御プログラムの命令を実行するCPU(central processing unit)、上記プログラムを格納したROM(read only memory)、上記プログラムを展開するRAM(random access memory)、上記プログラムおよび各種データを格納するメモリ等の記憶装置(記録媒体)などを備えている。そして、本発明の目的は、上述した機能を実現するソフトウェアであるデジタルカラー複合機1の制御プログラムのプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)をコンピュータで読み取り可能に記録した記録媒体を、デジタルカラー複合機1に供給し、そのコンピュータ(またはCPUやMPU)が記録媒体に記録されているプログラムコードを読み出し実行することによって達成される。   In each of the above embodiments, each unit (each functional block) constituting the digital color multifunction peripheral 1 (particularly the color image processing device 3 and the main control unit) is realized by software using a processor such as a CPU. That is, the digital color MFP 1 includes a CPU (central processing unit) that executes instructions of a control program that realizes each function, a ROM (read only memory) that stores the program, and a RAM (random access memory) that expands the program. ), A storage device (recording medium) such as a memory for storing the program and various data. An object of the present invention is a recording medium in which a program code (execution format program, intermediate code program, source program) of a control program of the digital color multifunction peripheral 1 which is software for realizing the above-described functions is recorded so as to be readable by a computer. Is achieved by the computer (or CPU or MPU) reading and executing the program code recorded on the recording medium.

上記記録媒体としては、例えば、磁気テープやカセットテープ等のテープ系、フロッピー(登録商標)ディスク/ハードディスク等の磁気ディスクやCD−ROM/MO/MD/DVD/CD−R等の光ディスクを含むディスク系、ICカード(メモリカードを含む)/光カード等のカード系、あるいはマスクROM/EPROM/EEPROM/フラッシュROM等の半導体メモリ系などを用いることができる。   Examples of the recording medium include tapes such as magnetic tapes and cassette tapes, magnetic disks such as floppy (registered trademark) disks / hard disks, and disks including optical disks such as CD-ROM / MO / MD / DVD / CD-R. Card system such as IC card, IC card (including memory card) / optical card, or semiconductor memory system such as mask ROM / EPROM / EEPROM / flash ROM.

また、デジタルカラー複合機1を通信ネットワークと接続可能に構成し、通信ネットワークを介して上記プログラムコードを供給してもよい。この通信ネットワークとしては、特に限定されず、例えば、インターネット、イントラネット、エキストラネット、LAN、ISDN、VAN、CATV通信網、仮想専用網(virtual private network)、電話回線網、移動体通信網、衛星通信網等が利用可能である。また、通信ネットワークを構成する伝送媒体としては、特に限定されず、例えば、IEEE1394、USB、電力線搬送、ケーブルTV回線、電話線、ADSL回線等の有線でも、IrDAやリモコンのような赤外線、Bluetooth(登録商標)、802.11無線、HDR、携帯電話網、衛星回線、地上波デジタル網等の無線でも利用可能である。なお、本発明は、上記プログラムコードが電子的な伝送で具現化された、搬送波に埋め込まれたコンピュータデータ信号の形態でも実現され得る。   Alternatively, the digital color multifunction peripheral 1 may be configured to be connectable to a communication network, and the program code may be supplied via the communication network. The communication network is not particularly limited. For example, the Internet, intranet, extranet, LAN, ISDN, VAN, CATV communication network, virtual private network, telephone line network, mobile communication network, satellite communication. A net or the like is available. Also, the transmission medium constituting the communication network is not particularly limited. For example, even in the case of wired such as IEEE 1394, USB, power line carrier, cable TV line, telephone line, ADSL line, etc., infrared rays such as IrDA and remote control, Bluetooth ( (Registered trademark), 802.11 wireless, HDR, mobile phone network, satellite line, terrestrial digital network, and the like can also be used. The present invention can also be realized in the form of a computer data signal embedded in a carrier wave in which the program code is embodied by electronic transmission.

また、デジタルカラー複合機1の各ブロックは、ソフトウェアを用いて実現されるものに限らず、ハードウェアロジックによって構成されるものであってもよく、処理の一部を行うハードウェアと当該ハードウェアの制御や残余の処理を行うソフトウェアを実行する演算手段とを組み合わせたものであってもよい。   In addition, each block of the digital color multi-function peripheral 1 is not limited to that realized by using software, but may be configured by hardware logic. Hardware that performs a part of the processing and the hardware It may be a combination of arithmetic means for executing software for performing the above control and residual processing.

本発明は上述した実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能である。すなわち、請求項に示した範囲で適宜変更した技術的手段を組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。   The present invention is not limited to the above-described embodiments, and various modifications can be made within the scope of the claims. That is, embodiments obtained by combining technical means appropriately changed within the scope of the claims are also included in the technical scope of the present invention.

図2に示す相違箇所抽出装置に備えられる類似度判定部の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the similarity determination part with which the difference location extraction apparatus shown in FIG. 2 is equipped. 本発明の一実施形態にかかる相違箇所抽出装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the difference location extraction apparatus concerning one Embodiment of this invention. 図2に示した相違箇所抽出装置おける、画像分割処理の説明図である。It is explanatory drawing of the image division process in the different location extraction apparatus shown in FIG. 図2に示した相違箇所抽出装置おける、相違箇所通知処理の説明図である。It is explanatory drawing of a difference location notification process in the difference location extraction apparatus shown in FIG. (a)はサンプル画像データ(サンプル画像)の一例を示す説明図であり、(b)は評価対象画像データ(評価対象画像)の一例を示す説明図である。(A) is explanatory drawing which shows an example of sample image data (sample image), (b) is explanatory drawing which shows an example of evaluation object image data (evaluation object image). 本発明の他の実施形態にかかる相違箇所抽出装置に備えられる類似度判定部の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the similarity determination part with which the difference location extraction apparatus concerning other embodiment of this invention is equipped. 図6に示した相違箇所抽出装置における、平均化処理の説明図である。It is explanatory drawing of the averaging process in the different location extraction apparatus shown in FIG. 本発明のさらに他の実施形態にかかる相違箇所抽出装置に備えられる類似度判定部の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the similarity determination part with which the difference location extraction apparatus concerning further another embodiment of this invention is equipped. 図8に示した相違箇所抽出装置における、データサイズ処理の説明図である。It is explanatory drawing of the data size process in the different location extraction apparatus shown in FIG.

符号の説明Explanation of symbols

1 デジタルカラー複合機(相違箇所抽出装置)
2 カラー画像入力装置(データ取得手段)
3 カラー画像処理装置(相違箇所抽出装置)
4 カラー画像出力装置(告知手段)
5 通信装置(データ取得手段)
6 操作パネル(表示部、告知手段)
7 記憶部(記憶手段)
13,13b,13c 類似度判定部(相違箇所抽出装置)
31 色強度データ取得部(データ取得手段)
32 画像分割処理部
33 評価値算出部
34 相違箇所抽出部
35 相違箇所通知部(告知手段)
36 類似度評価部
37 平均化処理部
38 データサイズ演算部(画像変換部)
39 データサイズ処理部(画像変換部)
1 Digital color MFP (Difference part extraction device)
2 Color image input device (data acquisition means)
3 Color image processing device (difference extraction device)
4 Color image output device (notification means)
5. Communication device (data acquisition means)
6 Operation panel (display section, notification means)
7 Storage unit (storage means)
13, 13b, 13c Similarity determination unit (difference part extraction device)
31 Color intensity data acquisition unit (data acquisition means)
32 Image segmentation processing unit 33 Evaluation value calculation unit 34 Difference location extraction unit 35 Difference location notification unit (notification means)
36 Similarity Evaluation Unit 37 Averaging Processing Unit 38 Data Size Calculation Unit (Image Conversion Unit)
39 Data size processor (image converter)

Claims (12)

第1画像の画像データである第1画像データと第2画像の画像データである第2画像データとを取得するデータ取得部を備え、第1画像データおよび第2画像データに基づいて第1画像と第2画像との相違箇所を抽出する相違箇所抽出装置であって、
上記データ取得部が取得した第1画像データと第2画像データとを、第1画像データの各ブロックと第2画像データの各ブロックとが互いに対応するようにそれぞれ複数のブロックに分割する画像分割処理部と、
上記両画像データにおける第1画像データと第2画像データの対応するブロック同士の相違の度合を示す評価値を算出する評価値算出部と、
対応する上記ブロック同士の相違の度合を評価するための閾値を記憶した記憶手段と、
上記評価値算出部の算出した評価値と上記記憶手段に記憶されている閾値とを比較し、上記評価値が示す相違の度合が閾値以上であるブロックあるいは閾値よりも大きいブロックを相違箇所として抽出する相違箇所抽出部とを備えていることを特徴とする相違箇所抽出装置。
A data acquisition unit that acquires first image data that is image data of the first image and second image data that is image data of the second image, and the first image based on the first image data and the second image data And a second difference image extracting device for extracting a difference between the second image and the second image,
Image division for dividing the first image data and the second image data acquired by the data acquisition unit into a plurality of blocks so that each block of the first image data and each block of the second image data correspond to each other A processing unit;
An evaluation value calculation unit for calculating an evaluation value indicating a degree of difference between corresponding blocks of the first image data and the second image data in both the image data;
Storage means for storing a threshold value for evaluating the degree of difference between the corresponding blocks;
The evaluation value calculated by the evaluation value calculation unit is compared with the threshold value stored in the storage unit, and a block whose degree of difference indicated by the evaluation value is equal to or greater than the threshold value or a block larger than the threshold value is extracted as a difference portion. And a different part extracting unit.
上記評価値算出部は、上記両画像データに含まれる全ての色の色強度データに基づいて上記評価値を算出することを特徴とする請求項1に記載の相違箇所抽出装置。   2. The difference location extracting apparatus according to claim 1, wherein the evaluation value calculation unit calculates the evaluation value based on color intensity data of all colors included in the two image data. 上記評価値算出部は、一方の画像データに含まれる色強度データを目標値としたときの、他方の画像データに含まれる色強度データのSN比を上記評価値とすることを特徴とする請求項1に記載の相違箇所抽出装置。   The evaluation value calculation unit uses an SN ratio of color intensity data included in the other image data when the color intensity data included in one image data is a target value as the evaluation value. Item 2. The difference point extraction device according to Item 1. 上記評価値算出部は、一方の画像データに含まれる色強度データをMc,d、他方の画像データに含まれる色強度データをyc,d(ただし、上記Mc,dおよび上記yc,dにおけるcは色の種類毎に1から順に付される自然数であり、dは画素毎に1から順に付される自然数)としたときの、yc,d−β×Mc,dの絶対値の最大値(ただし、上記βはyc,dの理想値をyc,d=β×Mc,dとしたときの比例定数)を上記評価値とすることを特徴とする請求項1に記載の相違箇所抽出装置。 The evaluation value calculation unit calculates the color intensity data included in one image data as M c, d , and the color intensity data included in the other image data as y c, d (however, the above M c, d and y c , d is a natural number assigned sequentially from 1 for each color type, and d is a natural number assigned sequentially from 1 for each pixel), and y c, d −β × M c, d the maximum absolute value of (where the beta is a proportional constant when the y c, the ideal value of d y c, d = β × M c, and d) claims, characterized in that the above evaluation value 1. The difference location extraction apparatus according to 1. 各ブロックの第1画像データに含まれる各画素の色強度データ、および各ブロックの第2画像データに含まれる各画素の色強度データのそれぞれを、複数の画素からなるエリア毎に平均する平均化処理部を備え、
上記評価値算出部は、エリア毎に平均した色強度データに基づいて上記評価値を算出することを特徴とする請求項1に記載の相違箇所抽出装置。
Averaging that averages the color intensity data of each pixel included in the first image data of each block and the color intensity data of each pixel included in the second image data of each block for each area composed of a plurality of pixels. With a processing unit,
The difference location extraction apparatus according to claim 1, wherein the evaluation value calculation unit calculates the evaluation value based on color intensity data averaged for each area.
上記第1画像データおよび/または第2画像データに枠画像の画像データを付加することによって画像サイズを変換する画像変換部を備え、
上記評価値算出部は、サイズ変換後の画像データに基づいて上記評価値を算出することを特徴とする請求項1に記載の相違箇所抽出装置。
An image conversion unit that converts an image size by adding image data of a frame image to the first image data and / or the second image data;
The difference location extraction apparatus according to claim 1, wherein the evaluation value calculation unit calculates the evaluation value based on image data after size conversion.
各ブロックの第1画像データに含まれる各画素の色強度データ、および各ブロックの第2画像データに含まれる各画素の色強度データのそれぞれを、複数の画素からなるエリア毎に平均する平均化処理部を備え、
上記画像分割部は、上記第1画像データを行方向および列方向にマトリクス状に配列された複数のブロックに分割し、
上記平均化処理部は、上記各ブロックを上記行方向および上記列方向に配列された複数のエリアに分割して分割したエリア毎に色強度データを平均し、
上記画像変換部は、上記行方向の画素数が上記行方向のブロック数と上記各エリアにおける上記行方向の画素数との積の倍数になり、上記列方向の画素数が上記列方向のブロック数と上記各エリアにおける上記列方向の画素数との積の倍数になるように上記枠画像を付加することを特徴とする請求項6に記載の相違箇所抽出装置。
Averaging that averages the color intensity data of each pixel included in the first image data of each block and the color intensity data of each pixel included in the second image data of each block for each area composed of a plurality of pixels. With a processing unit,
The image dividing unit divides the first image data into a plurality of blocks arranged in a matrix in the row direction and the column direction,
The averaging processing unit divides the blocks into a plurality of areas arranged in the row direction and the column direction and averages the color intensity data for each divided area,
In the image conversion unit, the number of pixels in the row direction is a multiple of the product of the number of blocks in the row direction and the number of pixels in the row direction in each area, and the number of pixels in the column direction is the number of blocks in the column direction. 7. The difference location extracting apparatus according to claim 6, wherein the frame image is added so as to be a multiple of a product of the number and the number of pixels in the column direction in each area.
上記相違箇所を告知する告知手段を備えていることを特徴とする請求項1に記載の相違箇所抽出装置。   The difference part extraction apparatus according to claim 1, further comprising notification means for notifying the difference part. 原稿画像を読み取って画像データを生成する原稿読取手段と、請求項1〜8のいずれか1項に記載の相違箇所抽出装置とを備えた画像読取装置であって、
上記第1画像データおよび上記第2画像データの少なくとも一方が、上記原稿読取手段によって生成された画像データであることを特徴とする画像読取装置。
An image reading apparatus comprising: an original reading unit that reads an original image to generate image data; and the difference location extracting apparatus according to any one of claims 1 to 8,
An image reading apparatus, wherein at least one of the first image data and the second image data is image data generated by the document reading means.
第1画像の画像データである第1画像データと第2画像の画像データである第2画像データとに基づいて第1画像と第2画像との相違箇所を抽出する相違箇所抽出方法であって、
第1画像データおよび第2画像データを取得する取得工程と、
上記取得工程で取得した第1画像データと第2画像データとを、第1画像データの各ブロックと第2画像データの各ブロックとが互いに対応するようにそれぞれ複数のブロックに分割する画像分割工程と、
上記両画像データにおける第1画像データと第2画像データの対応するブロック同士の相違の度合を示す評価値を算出する評価値算出工程と、
上記評価値算出工程で算出した評価値と記憶手段に予め記憶されている閾値とを比較し、上記評価値が示す相違の度合が閾値以上であるブロックあるいは閾値よりも大きいブロックを相違箇所として抽出する相違箇所抽出工程とを行うコンピュータによって相違箇所を抽出することを特徴とする相違箇所抽出方法。
A difference location extraction method for extracting a difference location between a first image and a second image based on first image data that is image data of a first image and second image data that is image data of a second image. ,
An acquisition step of acquiring the first image data and the second image data;
An image dividing step of dividing the first image data and the second image data acquired in the acquisition step into a plurality of blocks such that each block of the first image data and each block of the second image data correspond to each other. When,
An evaluation value calculating step of calculating an evaluation value indicating a degree of difference between corresponding blocks of the first image data and the second image data in both the image data;
The evaluation value calculated in the evaluation value calculation step is compared with a threshold value stored in advance in the storage means, and a block whose degree of difference indicated by the evaluation value is equal to or greater than the threshold value or a block larger than the threshold value is extracted as a difference portion. The difference part extraction method characterized by extracting a difference part with the computer which performs the difference part extraction process to perform.
請求項1〜8のいずれか1項に記載の相違箇所抽出装置を動作させるプログラムであって、コンピュータを上記各部として機能させるためのプログラム。   The program for operating the difference location extraction apparatus of any one of Claims 1-8, Comprising: The program for functioning a computer as said each part. 請求項10に記載のプログラムを記録したコンピュータ読み取り可能な記録媒体。   The computer-readable recording medium which recorded the program of Claim 10.
JP2007027354A 2007-02-06 2007-02-06 Difference extracting device, image reader, difference extracting method, program and recording medium thereof Pending JP2008192011A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007027354A JP2008192011A (en) 2007-02-06 2007-02-06 Difference extracting device, image reader, difference extracting method, program and recording medium thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007027354A JP2008192011A (en) 2007-02-06 2007-02-06 Difference extracting device, image reader, difference extracting method, program and recording medium thereof

Publications (1)

Publication Number Publication Date
JP2008192011A true JP2008192011A (en) 2008-08-21

Family

ID=39752042

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007027354A Pending JP2008192011A (en) 2007-02-06 2007-02-06 Difference extracting device, image reader, difference extracting method, program and recording medium thereof

Country Status (1)

Country Link
JP (1) JP2008192011A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010145102A (en) * 2008-12-16 2010-07-01 Shimadzu Corp X-ray inspection device
JP2013504112A (en) * 2009-09-04 2013-02-04 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Relevance visualization for content-based image retrieval
CN103186897A (en) * 2011-12-29 2013-07-03 北京大学 Method and device for obtaining image diversity factor result

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010145102A (en) * 2008-12-16 2010-07-01 Shimadzu Corp X-ray inspection device
JP2013504112A (en) * 2009-09-04 2013-02-04 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Relevance visualization for content-based image retrieval
US9495388B2 (en) 2009-09-04 2016-11-15 Koninkijke Philips N.V. Visualization of relevance for content-based image retrieval
CN103186897A (en) * 2011-12-29 2013-07-03 北京大学 Method and device for obtaining image diversity factor result
CN103186897B (en) * 2011-12-29 2017-03-08 北京大学 Obtain the method and device of image diversity factor result

Similar Documents

Publication Publication Date Title
JP4495197B2 (en) Image processing apparatus, image forming apparatus, image processing program, and recording medium for recording image processing program
JP4604100B2 (en) Image processing method, image processing apparatus, image forming apparatus, program, and storage medium
JP4197346B2 (en) Image processing apparatus, image processing method, image forming apparatus, image processing program, and recording medium
JP4362538B2 (en) Image processing apparatus, image forming apparatus, image transmitting apparatus, image reading apparatus, image processing system, image processing method, image processing program, and recording medium thereof
JP2009031876A (en) Image processor, image forming device and image reader therewith, image processing method, image processing program and recording medium recording image processing program
JP4402090B2 (en) Image forming apparatus, image forming method, program, and recording medium
JP4487000B2 (en) Image processing apparatus, image forming apparatus, image processing method, image processing system, image processing program, and recording medium thereof
JP4079814B2 (en) Image processing method, image processing apparatus, image forming apparatus, imaging apparatus, and computer program
JP2009015819A (en) Image processing apparatus, image forming apparatus, image transmitting apparatus, image reading apparatus, image processing system, image processing method, image processing program, and recording medium therefor
JP4731595B2 (en) Image processing apparatus, image forming apparatus, computer program, recording medium, and image processing method
JPWO2005112428A1 (en) Image processing method, image processing apparatus, image recording apparatus, and image processing program
JP2008192011A (en) Difference extracting device, image reader, difference extracting method, program and recording medium thereof
JP2007053439A (en) Isolated point discrimination apparatus, image processing apparatus, image reading apparatus, image forming apparatus, isolated point discrimination method, isolated point discrimination program, image processing program, and computer-readable recording medium
JP2009017208A (en) Image processing apparatus, image forming apparatus, image processing method, computer program, and computer readable recording medium
JP2006262404A (en) Device and method for estimating light source, image processor, and method for image processing
JP4522978B2 (en) Image processing apparatus, image processing method, image forming apparatus, image processing program, and recording medium
JP2005159576A (en) Image processing method, image processor, image forming apparatus, program, recording medium
JP4260774B2 (en) Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium
JP7123752B2 (en) Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium
JP2017135690A (en) Image processing device, image processing method, and program
JP2006229817A (en) Background detection method, program, recording medium, image processing apparatus, and image forming apparatus
JP2005072635A (en) Image processing apparatus, image forming apparatus, image reading apparatus, image processing method, image processing program, and computer-readable recording medium stored with the image processing program
JP4808282B2 (en) Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium for recording image processing program
JP2005267119A (en) Image processor, image forming device, image processing method, image processing program, and recording medium
JP2011015172A (en) Device for processing image, device for forming image, method and program for processing image, and recording medium recording program for processing image