JP2008192011A - Difference extracting device, image reader, difference extracting method, program and recording medium thereof - Google Patents
Difference extracting device, image reader, difference extracting method, program and recording medium thereof Download PDFInfo
- Publication number
- JP2008192011A JP2008192011A JP2007027354A JP2007027354A JP2008192011A JP 2008192011 A JP2008192011 A JP 2008192011A JP 2007027354 A JP2007027354 A JP 2007027354A JP 2007027354 A JP2007027354 A JP 2007027354A JP 2008192011 A JP2008192011 A JP 2008192011A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- image
- difference
- evaluation value
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明は、画像同士の相違箇所を抽出する相違箇所抽出装置に関するものである。 The present invention relates to a difference location extraction apparatus that extracts a difference location between images.
従来から、用紙上に画像を形成する画像形成装置の性能(特に出力性能)を評価するために、用紙上に形成した画像と、予め用意されているサンプル画像とを画像読取装置によって読み取り、両画像の画像データを比較して類似度(同一性あるいは相違性)を判定することが行われている。また、画像形成装置の性能評価以外にも、画像同士の類似度を判定する必要のある場面が多々ある。 Conventionally, in order to evaluate the performance (particularly output performance) of an image forming apparatus that forms an image on a sheet, an image formed on the sheet and a sample image prepared in advance are read by an image reading apparatus. The similarity (identity or difference) is determined by comparing image data of images. Besides the performance evaluation of the image forming apparatus, there are many scenes where it is necessary to determine the similarity between images.
ところで、画像同士の類似度の判定を人間の目視によって行う場合、評価者や判断時期等によって判断結果が変わることもあり、評価基準が不明瞭になりがちである。また、相違点の見逃し等の誤判定が発生する場合もある。 By the way, when determining the similarity between images by human eyes, the determination result may change depending on the evaluator, the determination time, etc., and the evaluation criteria tend to be unclear. In addition, an erroneous determination such as missing a difference may occur.
そこで、特許文献1には、一対のデジタル画像同士の類似度を、人間を介さずに判断するための類似度判断装置が提案されている。特許文献1の類似度判断装置は、1対のデジタル画像のそれぞれについて画像データとその度数との関係を示すヒストグラムを作成し、両画像のヒストグラムに基づいて両画像の類似度を示す評価データ(一方の画像に対して他方の画像がどれだけ近いかを示すSN比)を計算し、評価データに基づいて両画像の類似度を判定するようになっている。
しかしながら、上記特許文献1の技術では、画像全体の類似度を判定することはできるものの、類似性の低い箇所(相違箇所)を特定することができないという問題がある。
However, although the technique disclosed in
本発明は、上記の問題点に鑑みてなされたものであり、その第1の目的は、画像同士の相違箇所を抽出することのできる相違箇所抽出装置、画像読取装置、相違箇所抽出方法、プログラムおよびその記録媒体を提供することにある。 The present invention has been made in view of the above-described problems, and a first object thereof is to provide a difference location extraction device, an image reading device, a difference location extraction method, and a program capable of extracting a difference location between images. And providing a recording medium thereof.
本発明の相違箇所抽出装置は、上記の課題を解決するために、第1画像の画像データである第1画像データと第2画像の画像データである第2画像データとを取得するデータ取得部を備え、第1画像データおよび第2画像データに基づいて第1画像と第2画像との相違箇所を抽出する相違箇所抽出装置であって、上記データ取得部が取得した第1画像データと第2画像データとを、第1画像データの各ブロックと第2画像データの各ブロックとが互いに対応するようにそれぞれ複数のブロックに分割する画像分割処理部と、上記両画像データにおける第1画像データと第2画像データの対応するブロック同士の相違の度合を示す評価値を算出する評価値算出部と、対応する上記ブロック同士の相違の度合を評価するための閾値を記憶した記憶手段と、上記評価値算出部の算出した評価値と上記記憶手段に記憶されている閾値とを比較し、上記評価値が示す相違の度合が閾値以上であるブロックあるいは閾値よりも大きいブロックを相違箇所として抽出する相違箇所抽出部とを備えていることを特徴としている。 In order to solve the above problem, the difference location extraction apparatus of the present invention acquires a first image data that is image data of a first image and a second image data that is image data of a second image. A difference location extraction apparatus that extracts a difference location between the first image and the second image based on the first image data and the second image data, the first image data acquired by the data acquisition unit and the first image data An image division processing unit that divides the two image data into a plurality of blocks such that each block of the first image data and each block of the second image data correspond to each other, and the first image data in both the image data And an evaluation value calculation unit that calculates an evaluation value indicating the degree of difference between corresponding blocks of the second image data and a memory that stores a threshold value for evaluating the degree of difference between the corresponding blocks The evaluation value calculated by the evaluation value calculation unit and the threshold value stored in the storage means are compared, and a block whose degree of difference indicated by the evaluation value is greater than or equal to the threshold value or a block larger than the threshold value is different. It is characterized by having a different part extracting unit that extracts as a part.
上記の構成によれば、画像分割処理部は、上記データ取得部の取得した第1画像データおよび第2画像データを、第1画像データの各ブロックと第2画像データの各ブロックとが互いに対応するようにそれぞれ複数のブロックに分割する。そして、評価値算出部は、両画像データにおける第1画像データと第2画像データの対応するブロック同士の相違の度合を示す評価値を算出し、相違箇所抽出部は、評価値算出部の算出した評価値と記憶手段に記憶されている閾値とを比較し、上記評価値が示す相違の度合が閾値以上であるブロックあるいは閾値よりも大きいブロックを相違箇所として抽出する。これにより、第1画像と第2画像との相違箇所(相違箇所を含むブロック)を抽出することができる。 According to the above configuration, the image division processing unit corresponds to the first image data and the second image data acquired by the data acquisition unit so that each block of the first image data and each block of the second image data correspond to each other. Each is divided into a plurality of blocks. Then, the evaluation value calculation unit calculates an evaluation value indicating the degree of difference between corresponding blocks of the first image data and the second image data in both image data, and the difference part extraction unit calculates the evaluation value calculation unit. The evaluated value is compared with the threshold value stored in the storage means, and a block whose degree of difference indicated by the evaluation value is equal to or greater than the threshold value or a block larger than the threshold value is extracted as a difference portion. Thereby, the difference part (block containing a difference part) of a 1st image and a 2nd image can be extracted.
また、上記評価値算出部は、上記両画像データに含まれる全ての色の色強度データに基づいて上記評価値を算出する構成であってもよい。ここで、上記両画像データに含まれる全ての色の色強度データとは、例えば、上記両画像データがRGBの色強度データを有する場合にはRGBの3色の色強度データを意味し、上記両画像データがCMYの色強度データを有する場合にはCMYの3色の色強度データを意味し、上記両画像データが色強度データとしてグレースケールを有する場合にはこのグレースケールを意味する。 Further, the evaluation value calculation unit may be configured to calculate the evaluation value based on color intensity data of all colors included in both the image data. Here, the color intensity data of all the colors included in both the image data means, for example, the color intensity data of three colors of RGB when the both image data have RGB color intensity data, When both image data have CMY color intensity data, it means CMY three color intensity data, and when both image data have a gray scale as color intensity data, it means this gray scale.
上記の構成によれば、両画像データに含まれる全ての色の色強度データに基づいて評価値を算出することで、第1画像データと第2画像データとの相違の度合を適切に判断することができる。 According to the above configuration, the degree of difference between the first image data and the second image data is appropriately determined by calculating evaluation values based on the color intensity data of all colors included in both image data. be able to.
また、上記評価値算出部は、一方の画像データを目標値としたときの、他方の画像データのSN比を上記評価値としてもよい。なお、上記SN比は、品質工学で用いられるSN比であり、一方の画像データを目標値としたときの、他方の画像データに含まれる有効成分(上記一方の画像データと略一致する成分)と無効成分(一方の画像データと相違する成分)との比率を示す指標である。 Further, the evaluation value calculation unit may use the SN ratio of the other image data when the one image data is a target value as the evaluation value. The SN ratio is an SN ratio used in quality engineering. When one image data is set as a target value, an effective component included in the other image data (a component that substantially matches the one image data). And an invalid component (a component different from one image data).
上記の構成によれば、一方の画像データに含まれる色強度データを目標値としたときの、他方の画像データに含まれる色強度データのSN比を評価値として各ブロックにおける第1画像データと第2画像データとの相違の度合を評価する。これにより、ノイズの影響を低減し、各ブロックの相違の度合を適切に評価できる。 According to the above configuration, when the color intensity data included in one image data is the target value, the SN ratio of the color intensity data included in the other image data is used as the evaluation value, and the first image data in each block The degree of difference from the second image data is evaluated. Thereby, the influence of noise can be reduced and the degree of difference between the blocks can be appropriately evaluated.
また、上記評価値算出部は、一方の画像データに含まれる色強度データをMc,d、他方の画像データに含まれる色強度データをyc,d(ただし、上記Mc,dおよび上記yc,dにおけるcは色の種類毎に1から順に付される自然数であり、dは画素毎に1から順に付される自然数)としたときの、yc,d−β×Mc,dの絶対値の最大値(ただし、上記βはyc,dの理想値がMc,dに比例するとしたときの比例定数)を上記評価値としてもよい。 In addition, the evaluation value calculation unit determines that the color intensity data included in one image data is M c, d , and the color intensity data included in the other image data is y c, d (where M c, d and the above c in y c, d is a natural number assigned sequentially from 1 for each color type, and d is a natural number assigned sequentially from 1 for each pixel), y c, d −β × M c, the maximum absolute value of d (provided that the β is y c, the ideal value of d is M c, constant of proportionality when to be proportional to d) may be used as the evaluation value.
上記の構成によれば、yc,d−β×Mc,dの絶対値の最大値を評価値として各ブロックにおける第1画像データと第2画像データとの相違の度合を評価する。これにより、ノイズの影響を低減し、各ブロックの相違の度合を適切に評価できる。 According to the above configuration, the degree of difference between the first image data and the second image data in each block is evaluated using the maximum absolute value of y c, d −β × M c, d as an evaluation value. Thereby, the influence of noise can be reduced and the degree of difference between the blocks can be appropriately evaluated.
また、各ブロックの第1画像データに含まれる各画素の色強度データ、および各ブロックの第2画像データに含まれる各画素の色強度データのそれぞれを、複数の画素からなるエリア毎に平均する平均化処理部を備え、上記評価値算出部は、エリア毎に平均した色強度データに基づいて上記評価値を算出する構成としてもよい。 Further, the color intensity data of each pixel included in the first image data of each block and the color intensity data of each pixel included in the second image data of each block are averaged for each area composed of a plurality of pixels. An averaging processing unit may be provided, and the evaluation value calculation unit may calculate the evaluation value based on color intensity data averaged for each area.
上記の構成によれば、エリア毎に平均した色強度データに基づいて評価値を算出することで、評価値の算出処理を簡略化することができる。また、画像読取時の位置ずれ、紙質のばらつき等に起因するノイズの影響を低減し、各ブロックの相違の度合を適切に評価できる。 According to the above configuration, the evaluation value calculation process can be simplified by calculating the evaluation value based on the color intensity data averaged for each area. In addition, it is possible to reduce the influence of noise caused by positional deviation at the time of image reading, paper quality variation, and the like, and appropriately evaluate the degree of difference between blocks.
また、上記第1画像データおよび/または第2画像データに枠画像の画像データを付加することによって画像サイズを変換する画像変換部を備え、上記評価値算出部は、サイズ変換後の画像データに基づいて上記評価値を算出する構成としてもよい。 The image conversion unit converts the image size by adding image data of a frame image to the first image data and / or the second image data, and the evaluation value calculation unit adds the image data after the size conversion to the image data after the size conversion. The evaluation value may be calculated based on the above.
上記の構成によれば、画像変換部が、第1画像データおよび/または第2画像データに枠画像の画像データを付加することで当該画像データの画像サイズを変換し、評価値算出部が、サイズ変換後の画像データに基づいて評価値を算出する。これにより、例えば、第1画像のサイズと第2画像のサイズとが異なる場合であっても、両画像の中央部に基づいて位置合わせすることができる。 According to the above configuration, the image conversion unit converts the image size of the image data by adding the image data of the frame image to the first image data and / or the second image data, and the evaluation value calculation unit An evaluation value is calculated based on the image data after size conversion. Thereby, for example, even when the size of the first image is different from the size of the second image, the alignment can be performed based on the central portion of both images.
また、各ブロックの第1画像データに含まれる各画素の色強度データ、および各ブロックの第2画像データに含まれる各画素の色強度データのそれぞれを、複数の画素からなるエリア毎に平均する平均化処理部を備え、上記画像分割部は、上記第1画像データを行方向および列方向にマトリクス状に配列された複数のブロックに分割し、上記平均化処理部は、上記各ブロックを上記行方向および上記列方向に配列された複数のエリアに分割して分割したエリア毎に色強度データを平均し、上記画像変換部は、上記行方向の画素数が上記行方向のブロック数と上記各エリアにおける上記行方向の画素数との積の倍数になり、上記列方向の画素数が上記列方向のブロック数と上記各エリアにおける上記列方向の画素数との積の倍数になるように上記枠画像を付加する構成としてもよい。 Further, the color intensity data of each pixel included in the first image data of each block and the color intensity data of each pixel included in the second image data of each block are averaged for each area composed of a plurality of pixels. An averaging processing unit, wherein the image dividing unit divides the first image data into a plurality of blocks arranged in a matrix in a row direction and a column direction, and the averaging processing unit divides the blocks into the blocks The color intensity data is averaged for each of the divided areas divided into a plurality of areas arranged in the row direction and the column direction, and the image conversion unit has the number of pixels in the row direction and the number of blocks in the row direction. It is a multiple of the product of the number of pixels in the row direction in each area, and the number of pixels in the column direction is a multiple of the product of the number of blocks in the column direction and the number of pixels in the column direction in each area. Up It may be configured to add a frame image.
上記の構成によれば、分割後の各ブロックのサイズを一致させることができるので、各ブロックにおける1画素あたりの情報量の重みを均一にすることができる。 According to said structure, since the size of each block after a division | segmentation can be matched, the weight of the information amount per pixel in each block can be made uniform.
また、上記相違箇所を告知する告知手段を備えている構成としてもよい。なお、上記告知手段は、相違箇所を特定可能な方法で告知するものであればよく、特に限定されるものではないが、例えば、相違箇所を表示する表示手段、相違箇所を用紙に印刷して出力する画像形成手段、相違箇所を音声によって告知する音声出力手段などを用いることができる。 Moreover, it is good also as a structure provided with the notification means to notify the said difference location. The notification means is not particularly limited as long as it can be used to notify the difference portion in a method that can identify the difference portion. For example, a display means for displaying the difference portion, and printing the difference portion on a sheet of paper. An image forming means for outputting, a sound output means for notifying different portions by sound, and the like can be used.
上記の構成によれば、相違箇所を告知する告知手段を備えているので、相違箇所をユーザに認識させることができる。 According to said structure, since the notification means which notifies a difference location is provided, a user can be made to recognize a difference location.
本発明の画像読取装置は、原稿画像を読み取って画像データを生成する原稿読取手段と、上記したいずれかの相違箇所抽出装置とを備えた画像読取装置であって、上記第1画像データおよび上記第2画像データの少なくとも一方が、上記原稿読取手段によって生成された画像データであることを特徴としている。 An image reading apparatus according to the present invention is an image reading apparatus including a document reading unit that reads a document image and generates image data, and any one of the above-described difference location extraction devices, and includes the first image data and the above-described first image data. At least one of the second image data is image data generated by the document reading means.
上記の構成によれば、原稿読取手段によって読み取った原稿画像と、この原稿画像とは異なる他の画像との相違箇所を抽出することができる。 According to the above configuration, it is possible to extract a difference between the document image read by the document reading unit and another image different from the document image.
本発明の相違箇所抽出方法は、上記の課題を解決するために、第1画像の画像データである第1画像データと第2画像の画像データである第2画像データとに基づいて第1画像と第2画像との相違箇所を抽出する相違箇所抽出方法であって、第1画像データおよび第2画像データを取得する取得工程と、上記取得工程で取得した第1画像データと第2画像データとを、第1画像データの各ブロックと第2画像データの各ブロックとが互いに対応するようにそれぞれ複数のブロックに分割する画像分割工程と、上記両画像データにおける第1画像データと第2画像データの対応するブロック同士の相違の度合を示す評価値を算出する評価値算出工程と、上記評価値算出工程で算出した評価値と記憶手段に予め記憶されている閾値とを比較し、上記評価値が示す相違の度合が閾値以上であるブロックあるいは閾値よりも大きいブロックを相違箇所として抽出する相違箇所抽出工程とを行うコンピュータによって相違箇所を抽出することを特徴としている。 In order to solve the above-described problem, the difference location extraction method of the present invention is based on first image data that is image data of a first image and second image data that is image data of a second image. Is a difference location extraction method for extracting a difference location between the first image data and the second image, an acquisition step of acquiring the first image data and the second image data, and the first image data and the second image data acquired in the acquisition step. Are divided into a plurality of blocks so that each block of the first image data and each block of the second image data correspond to each other, and the first image data and the second image in both the image data The evaluation value calculation step for calculating an evaluation value indicating the degree of difference between corresponding blocks of data, the evaluation value calculated in the evaluation value calculation step and a threshold value stored in advance in the storage means are compared, The computer for the different part extraction step of extracting a larger block than the block or a threshold degree is equal to or more than a threshold difference evaluation value indicates a different part is characterized by extracting a different part.
上記の方法によれば、取得工程において第1画像データおよび第2画像データを取得し、画像分割処理工程において、取得工程で取得した第1画像データと第2画像データとを第1画像データの各ブロックと第2画像データの各ブロックとが互いに対応するようにそれぞれ複数のブロックに分割する。そして、評価値算出部において、両画像データにおける第1画像データと第2画像データの対応するブロック同士の相違の度合を示す評価値を算出し、相違箇所抽出工程において、評価値算出工程で算出した評価値と記憶手段に予め記憶されている閾値とを比較し、上記評価値が示す相違の度合が閾値以上であるブロックあるいは閾値よりも大きいブロックを相違箇所として抽出する相違箇所抽出工程とを行うコンピュータによって相違箇所を抽出する。これにより、第1画像と第2画像との相違箇所(相違箇所を含むブロック)をコンピュータによって抽出することができる。 According to the above method, the first image data and the second image data are acquired in the acquisition step, and the first image data and the second image data acquired in the acquisition step are acquired in the image division processing step. Each block is divided into a plurality of blocks such that each block of the second image data corresponds to each other. Then, the evaluation value calculation unit calculates an evaluation value indicating the degree of difference between the corresponding blocks of the first image data and the second image data in both image data, and is calculated in the evaluation value calculation step in the difference portion extraction step. Comparing the evaluated value and a threshold value stored in advance in the storage means, and extracting a block where the degree of difference indicated by the evaluation value is equal to or greater than the threshold value or a block larger than the threshold value as a different point. The difference is extracted depending on the computer to be used. Thereby, the difference part (block containing a difference part) of a 1st image and a 2nd image can be extracted by a computer.
なお、上記相違箇所抽出装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記各部として動作させることにより、上記相違箇所抽出装置をコンピュータにて実現させるプログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に含まれる。 In addition, the said different location extraction apparatus may be implement | achieved by the computer, In this case, the program which implement | achieves the said different location extraction apparatus with a computer by operating a computer as said each part, and it recorded Computer-readable recording media are also included in the scope of the present invention.
以上のように、本発明の相違箇所抽出装置は、上記データ取得部が取得した第1画像データと第2画像データとを、第1画像データの各ブロックと第2画像データの各ブロックとが互いに対応するようにそれぞれ複数のブロックに分割する画像分割処理部と、上記両画像データにおける第1画像データと第2画像データの対応するブロック同士の相違の度合を示す評価値を算出する評価値算出部と、対応する上記ブロック同士の相違の度合を評価するための閾値を記憶した記憶手段と、上記評価値算出部の算出した評価値と上記記憶手段に記憶されている閾値とを比較し、上記評価値が示す相違の度合が閾値以上であるブロックあるいは閾値よりも大きいブロックを相違箇所として抽出する相違箇所抽出部とを備えている。 As described above, the difference location extraction apparatus according to the present invention is configured so that each block of the first image data and each block of the second image data are obtained by combining the first image data and the second image data acquired by the data acquisition unit. An image division processing unit that divides each block into a plurality of blocks so as to correspond to each other, and an evaluation value that calculates an evaluation value that indicates the degree of difference between corresponding blocks of the first image data and the second image data in both the image data The calculation unit, the storage unit storing a threshold value for evaluating the degree of difference between the corresponding blocks, and the evaluation value calculated by the evaluation value calculation unit and the threshold value stored in the storage unit are compared. And a difference location extraction unit that extracts a block whose degree of difference indicated by the evaluation value is greater than or equal to a threshold value or a block larger than the threshold value as a difference location.
それゆえ、第1画像と第2画像との相違箇所を抽出することができる。 Therefore, the difference between the first image and the second image can be extracted.
また、本発明の画像読取装置は、原稿画像を読み取って画像データを生成する原稿読取手段と、上記したいずれかの相違箇所抽出装置とを備えた画像読取装置であって、上記第1画像データおよび上記第2画像データの少なくとも一方が、上記原稿読取手段によって生成された画像データであることを特徴としている。 The image reading apparatus of the present invention is an image reading apparatus including an original reading unit that reads an original image and generates image data, and any one of the above-described difference location extraction apparatuses, and the first image data At least one of the second image data is image data generated by the document reading means.
それゆえ、原稿読取手段によって読み取った原稿画像と、この原稿画像とは異なる他の画像との相違箇所を抽出することができる。 Therefore, it is possible to extract a difference between the original image read by the original reading unit and another image different from the original image.
また、本発明の相違箇所抽出方法は、第1画像データおよび第2画像データを取得する取得工程と、上記取得工程で取得した第1画像データと第2画像データとを、第1画像データの各ブロックと第2画像データの各ブロックとが互いに対応するようにそれぞれ複数のブロックに分割する画像分割工程と、上記両画像データにおける第1画像データと第2画像データの対応するブロック同士の相違の度合を示す評価値を算出する評価値算出工程と、上記評価値算出工程で算出した評価値と記憶手段に予め記憶されている閾値とを比較し、上記評価値が示す相違の度合が閾値以上であるブロックあるいは閾値よりも大きいブロックを相違箇所として抽出する相違箇所抽出工程とを行うコンピュータによって相違箇所を抽出する。 The difference location extraction method of the present invention includes an acquisition step of acquiring the first image data and the second image data, and the first image data and the second image data acquired in the acquisition step of the first image data. An image dividing step for dividing each block and each block of the second image data so as to correspond to each other, and a difference between corresponding blocks of the first image data and the second image data in the both image data The evaluation value calculation step for calculating the evaluation value indicating the degree of the evaluation value, the evaluation value calculated in the evaluation value calculation step and the threshold value stored in advance in the storage means are compared, and the degree of difference indicated by the evaluation value is the threshold value. A difference part is extracted by the computer which performs the difference part extraction process which extracts the block larger than the above block or a threshold value as a difference part.
それゆえ、第1画像と第2画像との相違箇所をコンピュータによって抽出することができる。 Therefore, the difference between the first image and the second image can be extracted by the computer.
〔実施形態1〕
本発明の一実施形態について説明する。なお、本実施形態では、本発明の相違箇所抽出装置を備えたデジタルカラー複合機(MFP:Multi-Function Printer)の一例について説明する。ただし、これに限らず、本発明の相違箇所抽出装置は、画像データに応じた画像を紙や樹脂等のシート上に形成する画像形成装置、画像データに対して濃度補正,色補正,コントラスト補正などの各種補正を行う画像処理装置、画像を読み取って画像データを取得する画像読取装置などに備えられるものであってもよい。また、本発明の相違箇所抽出装置は、複合機、画像形成装置、画像処理装置、画像読取装置等に備えられる構成に限らず、相違箇所抽出装置単体として実現されるものであってもよい。
An embodiment of the present invention will be described. In the present embodiment, an example of a digital color multifunction peripheral (MFP) provided with the difference location extraction apparatus of the present invention will be described. However, the present invention is not limited to this, and the difference location extraction apparatus of the present invention is an image forming apparatus that forms an image according to image data on a sheet of paper, resin, etc., density correction, color correction, and contrast correction for the image data. It may be provided in an image processing apparatus that performs various corrections such as an image reading apparatus that reads an image and acquires image data. Further, the difference location extraction apparatus of the present invention is not limited to the configuration provided in the multifunction peripheral, the image forming apparatus, the image processing apparatus, the image reading apparatus, and the like, but may be realized as a difference location extraction apparatus alone.
(1−1. デジタルカラー複合機1の構成)
図2は、本実施形態にかかるデジタルカラー複合機(相違箇所抽出装置、画像処理装置、画像形成装置、画像読取装置)1の概略構成を示すブロック図である。このデジタルカラー複合機1は、コピー機能、プリンタ機能、ファクシミリ送信機能、スキャナ機能、scan to e-mail機能等を有している。
(1-1. Configuration of Digital Color Multifunction Machine 1)
FIG. 2 is a block diagram showing a schematic configuration of a digital color multifunction peripheral (difference extraction apparatus, image processing apparatus, image forming apparatus, image reading apparatus) 1 according to the present embodiment. The digital color multifunction peripheral 1 has a copy function, a printer function, a facsimile transmission function, a scanner function, a scan to e-mail function, and the like.
図2に示すように、デジタルカラー複合機1は、カラー画像入力装置2、カラー画像処理装置3、カラー画像出力装置4、通信装置5、操作パネル6、記憶部7を備えている。
As shown in FIG. 2, the digital color multifunction peripheral 1 includes a color
カラー画像入力装置(画像読取装置、入力部、色強度取得部)2は、例えばCCD(Charge Coupled Device )などの光学情報を電気信号に変換するデバイスを備えたスキャナ部(図示せず)より構成され、原稿からの反射光像を、RGB(R:赤・G:緑・B:青)のアナログ信号としてカラー画像処理装置3に出力する。なお、カラー画像入力装置2は、カメラ撮影によって画像データを取得するものであってもよい。
A color image input device (image reading device, input unit, color intensity acquisition unit) 2 includes a scanner unit (not shown) including a device that converts optical information into an electrical signal such as a CCD (Charge Coupled Device). Then, the reflected light image from the original is output to the color
カラー画像処理装置(相違箇所抽出装置)3は、A/D変換部11、シェーディング補正部12、類似度判定部13、入力階調補正部14、領域分離処理部15、色補正部16、黒生成下色除去部17、空間フィルタ処理部18、出力階調補正部19、および階調再現処理部20を備えている。カラー画像入力装置2からカラー画像処理装置3に出力されたアナログ信号は、カラー画像処理装置3内を、A/D変換部11、シェーディング補正部12、類似度判定部13、入力階調補正部14、領域分離処理部15、色補正部16、黒生成下色除去部17、空間フィルタ処理部18、出力階調補正部19、階調再現処理部20の順で送られ、CMYKのデジタルカラー信号としてカラー画像出力装置4に出力される。なお、A/D変換部11から階調再現処理部20へ至るまでの途中で、アナログ信号あるいはデジタルカラー信号の記憶部7への書込み/読出しを適宜行ってもよい。
A color image processing apparatus (difference part extracting apparatus) 3 includes an A /
A/D(アナログ/デジタル)変換部11は、RGBのアナログ信号をデジタル信号に変換するものである。
The A / D (analog / digital)
シェーディング補正部12は、A/D変換部11より送られてきたデジタルのRGB信号に対して、カラー画像入力装置2の照明系、結像系、撮像系で生じる各種の歪みを取り除く処理を施すものである。また、シェーディング補正部12は、カラーバランスの調整、および濃度信号などカラー画像処理装置3に採用されている画像処理システムの扱い易い信号に変換する処理を施す。
The
類似度判定部(相違箇所抽出装置)13は、評価対象画像データ(第1画像データ)に対応する画像である評価対象画像(第1画像)とサンプル画像データ(第2画像)に対応する画像であるサンプル画像(第2画像)とに基づいて、評価対象画像とサンプル画像との相違箇所(低類似度箇所)を抽出する。これにより、評価対象画像とサンプル画像との相違箇所を、人間の主観を介さずに判断できるようになっている。なお、類似度判定部13は入力されたRGB信号をそのまま後段の入力階調補正部14へ出力する。類似度判定部13の詳細については後述する。
The similarity determination unit (difference part extraction device) 13 is an image corresponding to the evaluation target image (first image) and the sample image data (second image) corresponding to the evaluation target image data (first image data). Based on the sample image (second image), a difference portion (low similarity portion) between the evaluation target image and the sample image is extracted. As a result, the difference between the evaluation target image and the sample image can be determined without involving human subjectivity. The
入力階調補正部14は、シェーディング補正部にて各種の歪みが取り除かれたRGB信号に対して、下地色(下地色の濃度成分:下地濃度)の除去やコントラストなどの画質調整処理を施す。
The input
領域分離処理部15は、RGB信号より、画像データ中の各画素を文字領域、網点領域、写真領域のいずれかに分離するものである。領域分離処理部15は、分離結果に基づき、画素がどの領域に属しているかを示す領域識別信号を、色補正部16、黒生成下色除去部17、空間フィルタ処理部18、および階調再現処理部20へと出力するとともに、入力階調補正部14より出力された入力信号をそのまま後段の色補正部16に出力する。
The region
色補正部16は、色再現の忠実化実現のために、不要吸収成分を含むCMY(C:シアン・M:マゼンタ・Y:イエロー)色材の分光特性に基づいた色濁りを取り除く処理を行うものである。
The
黒生成下色除去部17は、色補正後のCMYの3色信号から黒(K)信号を生成する黒生成、元のCMY信号から黒生成で得たK信号を差し引いて新たなCMY信号を生成する処理を行うものである。これにより、CMYの3色信号はCMYKの4色信号に変換される。
The black generation and under
空間フィルタ処理部18は、黒生成下色除去部17より入力されるCMYK信号の画像データに対して、領域識別信号を基にデジタルフィルタによる空間フィルタ処理を行い、空間周波数特性を補正する。これにより、出力画像のぼやけや粒状性劣化を軽減することができる。階調再現処理部20も、空間フィルタ処理部18と同様、CMYK信号の画像データに対して領域識別信号を基に所定の処理を施すものである。
The spatial
例えば、領域分離処理部15にて文字に分離された領域は、特に黒文字あるいは色文字の再現性を高めるために、空間フィルタ処理部18による空間フィルタ処理における鮮鋭強調処理で高周波数の強調量が大きくされる。同時に、階調再現処理部20においては、高域周波数の再現に適した高解像度のスクリーンでの二値化または多値化処理が選択される。
For example, the region separated into characters by the region
また、領域分離処理部15にて網点領域に分離された領域に関しては、空間フィルタ処理部18において、入力網点成分を除去するためのローパス・フィルタ処理が施される。そして、出力階調補正部19では、濃度信号などの信号をカラー画像出力装置4の特性値である網点面積率に変換する出力階調補正処理を行った後、階調再現処理部20で、最終的に画像を画素に分離してそれぞれの階調を再現できるように処理する階調再現処理(中間調生成)が施される。領域分離処理部15にて写真に分離された領域に関しては、階調再現性を重視したスクリーンでの二値化または多値化処理が行われる。
Further, with respect to the region separated into halftone dot regions by the region
上述した各処理が施された画像データは、いったん記憶装置(図示せず)に記憶され、所定のタイミングで読み出されてカラー画像出力装置4に入力される。
The image data subjected to the above-described processes is temporarily stored in a storage device (not shown), read out at a predetermined timing, and input to the color
カラー画像出力装置4は、カラー画像処理装置3から入力された画像データを記録材(例えば紙等)上に出力するものである。カラー画像出力装置4の構成は特に限定されるものではなく、例えば、電子写真方式やインクジェット方式を用いたカラー画像出力装置を用いることができる。
The color
通信装置(入力部、色強度取得部)5は、ネットワークを介して通信可能に接続された他の装置(例えば、パーソナルコンピュータ、サーバー装置、他のデジタル複合機等)とデータ通信を行う。 The communication device (input unit, color intensity acquisition unit) 5 performs data communication with other devices (for example, personal computers, server devices, other digital multi-function peripherals, etc.) that are communicably connected via a network.
操作パネル6は、例えば、液晶ディスプレイなどの表示部と設定ボタンなどより構成され(いずれも図示せず)、デジタルカラー複合機1の主制御部(図示せず)の指示に応じた情報を上記表示部に表示するとともに、上記設定ボタンを介してユーザから入力される情報を上記主制御部に伝達する。上記主制御部は、例えばCPU(Central Processing Unit)等からなり、図示しないROM等に格納されたプログラムや各種データ、操作パネル6から入力される情報等に基づいて、デジタルカラー複合機1の各部の動作を制御する。
The
記憶部(記憶手段)7は、カラー画像処理装置3で用いられる各種情報を記憶するための記憶手段である。
The storage unit (storage means) 7 is a storage means for storing various information used in the color
(1−2.類似度判定部13の構成)
図1は、類似度判定部13の概略構成を示すブロック図である。この図に示すように、類似度判定部13は、色強度データ取得部31、画像分割処理部32、評価値算出部33、相違箇所抽出部34、相違箇所通知部35、類似度評価部36を備えている。
(1-2. Configuration of similarity determination unit 13)
FIG. 1 is a block diagram illustrating a schematic configuration of the
色強度データ取得部(データ取得手段)31は、シェーディング補正部12から入力されるR,G,Bのカラー画像データ(色強度データ)を取得する。なお、本実施形態では、類似度判定部13にR,G,Bのカラー画像データ(色強度データ)が入力されるものとしたが、これに限らず、例えば、C,M,Yのカラー画像データ(色強度データ)が入力される構成であってもよく、グレースケールなどのモノクロ画像データ(色強度データ)が入力される構成であってもよい。また、色強度データ取得部31が、外部から入力されるデータに基づいてR,G,Bのカラー画像データ、あるいはC,M,Yのカラー画像データ、あるいはグレースケールなどのモノクロ画像データを生成する構成としてもよい。
The color intensity data acquisition unit (data acquisition unit) 31 acquires R, G, B color image data (color intensity data) input from the
また、色強度データ取得部31は、取得したデータを記憶部7に一端保存する。保存の形式は、色強度を保存できる形式であればよく、特に限定されないが、例えばBMP形式、TIFF形式などを用いることができる。
The color intensity
なお、本実施形態では、カラー画像入力装置(データ取得手段)2によって評価対象画像から読み取った評価対象画像データと、カラー画像入力装置2によってサンプル画像から読み取ったサンプル画像データとの相違箇所を抽出する場合の例について説明するが、これに限るものではない。例えば、評価対象画像データおよび/またはサンプル画像データを、通信装置5(データ取得手段)を介して通信によって取得してもよく、図示しないデータ読出装置(データ取得手段)によって各種記憶媒体から読み出すことで取得してもよい。
In the present embodiment, the difference between the evaluation target image data read from the evaluation target image by the color image input device (data acquisition unit) 2 and the sample image data read from the sample image by the color
画像分割処理部32は、評価対象画像データおよびサンプル画像データを、それぞれ各画像上の領域に応じて、評価対象画像データの各ブロックとサンプル画像データの各ブロックとが互いに対応するようにそれぞれ複数のブロックに分割する。例えば、図3に示すように、評価対象画像データおよびサンプル画像データを縦方向(列方向)tブロック×横方向(行方向)sブロックに分割する(s,tは少なくとも一方が2以上の整数であり、他方が1以上の整数。なお、s=tであってもよく、s≠tであってもよい)。また、画像分割処理部32は、評価対象画像データおよびサンプル画像データの縦方向および横方向の分割数を記憶部7に記憶させる。なお、縦方向および横方向の分割数は、予め設定されていてもよく、あるいは操作パネル6を介してユーザが指定してもよい。また、評価対象画像データおよびサンプル画像データの画像サイズ、分解能、画像の種類等に応じた分割数を予め記憶部7に記憶させておき、画像分割処理部32が評価対象画像データおよびサンプル画像データの画像サイズ、分解能、画像の種類等を判断し、判断結果に応じて適切な分割数を選択するようにしてもよい。
The image
評価値算出部33は、評価対象画像データおよびサンプル画像データの各ブロックの類似度(相違の度合)を評価するための評価値を算出し、算出結果を記憶部7に記憶させる。評価値の算出方法については後述する。
The evaluation
相違箇所抽出部34は、評価値算出部33が算出した各ブロックの評価値と、記憶部7に予め記憶されている閾値TH1とを比較し、両画像の相違の度合が閾値TH1以上あるいは閾値TH1よりも大きいブロックを相違箇所(低類似度箇所)として抽出する。なお、上記評価値は、値が大きくなるほど相違の度合が大きくなる指標であってもよく、値が大きくなるほど相違の度合が小さくなる指標であってもよい。いずれの場合にも、評価値の特性に応じて、相違の度合が閾値TH1以上(あるいは閾値TH1よりも大きい)か否かを判断すればよい。
The difference
相違箇所通知部35は、相違箇所抽出部34によって相違箇所として抽出されたブロックを特定する情報を操作パネル6の表示部に表示させる。例えば、相違箇所通知部35は、図4に示すように、評価対象画像を表示させるとともに、この画像上における相違箇所の色を反転させる(あるいは、強調表示したり、枠で囲んだりするなどしてもよい)。また、相違箇所を特定するテキスト情報(例えば、相違箇所が何行目、何列目のブロックであるか等)を表示してもよい。また、相違箇所を特定する情報(画像あるいはテキスト)を用紙に印刷して出力するようにしてもよく、図示しないスピーカ等から音声出力によって相違箇所を通知するようにしてもよい。なお、相違箇所通知部35が、相違箇所抽出部34の抽出した相違箇所を特定する情報をデジタルカラー複合機1の主制御部に送り、主制御部がデジタルカラー複合機1の各部を制御して操作パネル6にこの情報に基づく表示させたり、用紙に印刷させたり、音声出力するなどして通知するようにしてもよい。
The difference
類似度評価部36は、評価対象画像のサンプル画像に対する類似度(画像全体の類似度)を算出する。類似度の算出方法は特に限定されないが、例えば、類似度評価部36は、全ブロック数に対する評価値算出部33によって相違箇所として抽出されなかったブロックの数の割合を類似度として算出する。あるいは、各ブロックの評価値の平均値AVEと記憶部7に記憶されている閾値TH2とに基づいて類似度を算出してもよい(例えば、類似度=1−|(AVE−TH2)/TH2|としてもよい)。なお、評価対象画像データのサンプル画像データに対する類似度を評価する必要がない場合には類似度評価部36を省略してもよい。
The
(評価値算出方法の例1)
評価値算出部33は、以下に示す式(1)〜(10)に基づいてSN比ηを算出し、算出結果を上記評価値として記憶部7に記憶させる。
(Example 1 of evaluation value calculation method)
The evaluation
全自由度 fT=k×m ・・・(2) Total degrees of freedom f T = k × m (2)
比例項の変動 Sβ=L2/r ・・・(5)
比例項の自由度 fβ=1 ・・・(6)
誤差変動 Se=ST−Sβ ・・・(7)
誤差の自由度 fe=fT−fβ ・・・(8)
誤差分散 Ve=Se/fe ・・・(9)
SN比 η=10×log10((1/r)×(Sβ−Ve)/Ve)・・・(10)
なお、上記式(1)および式(4)におけるyは評価対象画像データに含まれる各画素の色強度データである。また、yc,dとしたときの添え字cは色の種類に応じて1から順に付された自然数である。例えば、RGBの3色の色強度データがある場合、Rの色強度データはc=1,Gの色強度データはc=2,Bの色強度データはc=3とする。また、上記式(1)および式(4)におけるmはcの最大値、すなわち色の種類数を表している。なお、本実施形態では、評価対象画像データにおける全色の色強度データを用いるものとする。したがって、例えば、RGBあるいはCMYの3色の色強度データである場合にはm=3であり、グレースケール等の1色の色強度データである場合にはm=1である。また、添え字dは画素を特定するための数値である。例えば、縦6×横8個の画像データの場合、一番上のライン(画素列)の左から右に向かって各画素に1〜8の通し番号が付与され、2番目のラインの左から右に向かって9〜16の通し番号が付与され、以降、最終ラインまで同様に通し番号が付与される。また、上記式(1)および式(4)におけるkはdの最大値、すなわち画素数(色強度データの数)を表している。例えば、縦6×横8個の画像データの場合、k=48である。したがって、例えば、Gの16番目の画素の強度データはy2,16となる。
Variation of proportional term S β = L 2 / r (5)
Degree of freedom of proportional term f β = 1 (6)
Error variation S e = S T -S β (7)
Degree of freedom of error f e = f T −f β (8)
Error variance V e = S e / f e (9)
SN ratio η = 10 × log 10 ((1 / r) × (S β −V e ) / V e ) (10)
In the above equations (1) and (4), y is the color intensity data of each pixel included in the evaluation target image data. Further, the subscript c when y c, d is a natural number assigned sequentially from 1 according to the type of color. For example, when there are three color intensity data of RGB, the color intensity data of R is c = 1, the color intensity data of G is c = 2, and the color intensity data of B is c = 3. In the above formulas (1) and (4), m represents the maximum value of c, that is, the number of types of colors. In this embodiment, it is assumed that color intensity data for all colors in the evaluation target image data is used. Therefore, for example, m = 3 in the case of color intensity data of three colors of RGB or CMY, and m = 1 in the case of color intensity data of one color such as gray scale. The subscript d is a numerical value for specifying a pixel. For example, in the case of 6 × 8 image data, a serial number of 1 to 8 is assigned to each pixel from the left to the right of the top line (pixel row), and the left to the right of the second line. A serial number of 9 to 16 is assigned toward the end, and thereafter, serial numbers are similarly assigned up to the last line. In the above formulas (1) and (4), k represents the maximum value of d, that is, the number of pixels (number of color intensity data). For example, in the case of 6 × 8 image data, k = 48. Therefore, for example, the intensity data of the 16th pixel of G is y 2,16 .
また、上記式(3)および式(4)におけるMはサンプル画像データに含まれる各画素の色強度データである。添え字については上記したyの添え字と同様である。 M in the above formulas (3) and (4) is color intensity data of each pixel included in the sample image data. The subscript is the same as the subscript y described above.
(評価値算出方法の例2)
上記した評価値算出方法における式(10)を下記の式(10’)に変更してもよい。
(Example 2 of evaluation value calculation method)
You may change Formula (10) in an above-described evaluation value calculation method into following formula (10 ').
SN比 η=10×log10((Sβ−Ve)/Ve) ・・・(10’)
(評価値算出方法の例3)
上記した評価値算出方法に代えて、以下の式(11)〜(26)に基づいてSN比ηを算出し、算出結果を上記評価値として記憶部7に記憶させるようにしてもよい。
SN ratio η = 10 × log 10 ((S β −V e ) / V e ) (10 ′)
(Example 3 of evaluation value calculation method)
Instead of the above-described evaluation value calculation method, the SN ratio η may be calculated based on the following formulas (11) to (26), and the calculation result may be stored in the
全自由度 fT=k×2×m ・・・(12) Total degrees of freedom f T = k × 2 × m (12)
比例項の変動 Sβ=(L1+L2)2/(2×r) ・・・(16)
比例項の自由度 fβ=1 ・・・(17)
比例定数の差による変動 SN×β=(L1 2+L2 2)/r−Sβ ・・・(18)
比例定数の差による自由度 fN×β=n−1=2−1=1) ・・・(19)
誤差変動 Se=ST−Sβ−SN×β ・・・(20)
誤差の自由度 fe=fT−fβ−fN×β ・・・(21)
総合誤差の変動 SN=ST−Sβ=SN×β+Se ・・・(22)
総合誤差の自由度 fN=fT−fβ=fN×β+fe ・・・(23)
誤差分散 Ve=Se/fe ・・・(24)
総合誤差の分散 VN=SN/fN ・・・(25)
SN比 η=10×log10((Sβ−Ve)/VN) ・・・(26)
(評価値算出方法の例4)
上記した評価値算出方法に代えて、yc,dの理想値をyc,d=β×Mc,d(βは比例定数)としたときの、yc,d−β×Mc,dの絶対値の最大値であるズレ値Zを算出し、算出結果を上記評価値としてもよい。
Variation of the proportional term S β = (L 1 + L 2) 2 / (2 × r) ··· (16)
Degree of freedom of proportional term f β = 1 (17)
Fluctuation due to difference in proportionality constant S N × β = (L 1 2 + L 2 2 ) / r−S β (18)
Degree of freedom due to difference of proportionality constant fN × β = n−1 = 2-1 = 1) (19)
Error variation S e = S T −S β −S N × β (20)
Degree of freedom of error f e = f T −f β −f N × β (21)
Fluctuation of total error S N = S T −S β = S N × β + S e (22)
Of the total error degree of freedom f N = f T -f β = f N × β + f e ··· (23)
Error variance V e = S e / f e (24)
Total error variance V N = S N / f N (25)
SN ratio η = 10 × log 10 (( S β -V e) / V N) ··· (26)
(Example 4 of evaluation value calculation method)
Instead of the above-described evaluation value calculation method, y c, d −β × M c, where y c, d is an ideal value y c, d = β × M c, d (where β is a proportional constant) . A deviation value Z that is the maximum absolute value of d may be calculated, and the calculation result may be used as the evaluation value.
例えば、以下の式(27)〜(30)に基づいてズレ値Zを算出し、算出結果を上記評価値として記憶部7に記憶させるようにしてもよい。
For example, the deviation value Z may be calculated based on the following equations (27) to (30), and the calculation result may be stored in the
傾き β=L/r ・・・(29)
ズレ値 Z=|Zc,d|max=|yc,d−β×Mc,d|max・・・(30)
(評価値算出方法の例5)
上記した評価値算出方法に代えて、以下の式(31)〜(35)に基づいてズレ値Zを算出し、算出結果を上記評価値として記憶部7に記憶させるようにしてもよい。
Inclination β = L / r (29)
Deviation value Z = | Zc, d | max = | yc , d− β × Mc, d | max (30)
(Example 5 of evaluation value calculation method)
Instead of the evaluation value calculation method described above, the deviation value Z may be calculated based on the following equations (31) to (35), and the calculation result may be stored in the
傾き β=(L1+L2)/(2×r) ・・・(34)
ズレ値 Z=|Zc,d|max=|yc,d-β×Mc,d|max ・・・(35)
(評価値算出の具体例)
次に、評価値算出処理の具体例について説明する。ここでは、評価対象画像データおよびサンプル画像データの1ブロックがそれぞれ以下に示す画像データ(R,G,Bの色強度データ)を有する4つの画素(ピクセル)からなる場合について説明する。
Inclination β = (L 1 + L 2 ) / (2 × r) (34)
Deviation value Z = | Z c, d | max = | y c, d −β × M c, d | max (35)
(Specific example of evaluation value calculation)
Next, a specific example of the evaluation value calculation process will be described. Here, a case will be described in which one block of the evaluation target image data and the sample image data is composed of four pixels (pixels) each having image data (R, G, B color intensity data) shown below.
サンプル画像の色強度データM
ピクセル1:R=146,G=33,B=172
ピクセル2:R=105,G=162,B=231
ピクセル3:R=94,G=248,B=55
ピクセル4:R=234,G=42,B=84
評価対象画像の色強度データy
ピクセル1:R=140,G=38,B=180
ピクセル2:R=95,G=188,B=241
ピクセル3:R=80,G=252,B=57
ピクセル4:R=230,G=48,B=86
まず、上記式(1)〜(10)によって算出されるSN比ηを評価値として算出する場合について説明する。
Sample image color intensity data M
Pixel 1: R = 146, G = 33, B = 172
Pixel 2: R = 105, G = 162, B = 231
Pixel 3: R = 94, G = 248, B = 55
Pixel 4: R = 234, G = 42, B = 84
Color intensity data y of the image to be evaluated
Pixel 1: R = 140, G = 38, B = 180
Pixel 2: R = 95, G = 188, B = 241
Pixel 3: R = 80, G = 252, B = 57
Pixel 4: R = 230, G = 48, B = 86
First, the case where SN ratio (eta) calculated by said Formula (1)-(10) is calculated as an evaluation value is demonstrated.
この場合、上記式(1)より、全変動ST=y1,1 2+y1,2 2+y1,3 2+y1,4 2+y2,1 2+y2,2 2+y2,3 2+y2,4 2+y3,1 2+y3,2 2+y3,3 2+y3,4 2=1402+952+802+2302+382+1882+2522+482+1802+2412+572+862=291647であり、
上記式(2)より、全自由度fT=4×3=12であり、
上記式(3)より、有効除数r=M1,1 2+M1,2 2+M1,3 2+M1,4 2+M2,1 2+M2,2 2+M2,3 2+M2,4 2+M3,1 2+M3,2 2+M3,3 2+M3,4 2=1462+1052+942+2342+332+1622+2482+422+1722+2312+552+842=279560であり、
上記式(4)より、L=M1,1×y1,1+M1,2×y1,2+M1,3×y1,3+M1,4×y1,4+M2,1×y2,1+M2,2×y2,2+M2,3×y2,3+M2,4×y2,4+M3,1×y3,1+M3,2×y3,2+M3,3×y3,3+M3,4×y3,4=146×140+105×95+94×80+234×230+33×38+162×188+248×252+42×48+172×180+231×241+55×57+84×86=284967であり、
上記式(5)より、比例項の変動Sβ=L2/r=2849672/279560=290478.577であり、
上記式(6)より、比例項の自由度fβ=1であり、
上記式(7)より、誤差変動Se=ST−Sβ=291647−290478.577=1168.423であり、
上記式(8)より、誤差の自由度fe=fT−fβ=12−1=11であり、
上記式(9)より、誤差分散Ve=Se/fe=1168.423/11=106.22であるので、上記式(10)より、
SN比η=10×log10((1/r)×(Sβ−Ve)/Ve)=10×log10((1/279560)×(290478.577−106.22)/106.22)=−20.097となる。
In this case, from the above formula (1), the total variation S T = y 1,1 2 + y 1,2 2 + y 1,3 2 + y 1,4 2 + y 2,1 2 + y 2,2 2 + y 2,3 2 + Y 2,4 2 + y 3,1 2 + y 3,2 2 + y 3,3 2 + y 3,4 2 = 140 2 +95 2 +80 2 +230 2 +38 2 +188 2 +252 2 +48 2 +180 2 +241 2 +57 2 +86 2 = 291647,
From the above equation (2), the total degrees of freedom f T = 4 × 3 = 12.
From the above formula (3), the effective divisor r = M 1,1 2 + M 1,2 2 + M 1,3 2 + M 1,4 2 + M 2,1 2 + M 2,2 2 + M 2,3 2 + M 2,4 2 + M 3,1 2 + M 3,2 2 + M 3,3 2 + M 3,4 2 = 146 2 +105 2 +94 2 +234 2 +33 2 +162 2 +248 2 +42 2 +172 2 +231 2 +55 2 +84 2 = 279560 ,
From the above formula (4), L = M 1,1 × y 1,1 + M 1,2 × y 1,2 + M 1,3 × y 1,3 + M 1,4 × y 1,4 + M 2,1 × y 2,1 + M 2,2 xy 2,2 + M 2,3 xy 2,3 + M 2,4 xy 2,4 + M 3,1 xy 3,1 + M 3,2 xy 3,2 + M 3,3 × y 3,3 + M 3,4 × y 3,4 = 146 × 140 + 105 × 95 + 94 × 80 + 234 × 230 + 33 × 38 + 162 × 188 + 248 × 252 + 42 × 48 + 172 × 180 + 231 × 241 + 55 × 57 + 84 × 86 = 284967
From the above equation (5), the proportional term variation S β = L 2 / r = 284967 2 /279560=2904788.577,
From the above equation (6), the degree of freedom of proportional term f β = 1,
From the above equation (7), the error variation S e = S T −S β = 291647-290478.577 = 1168.423,
From the above formula (8), the degree of freedom of error f e = f T −f β = 12-1 = 11,
From the above equation (9), since error variance V e = S e / f e = 1168.423 / 11 = 106.22, from the above equation (10),
SN ratio η = 10 × log 10 ((1 / r) × (S β −V e ) / V e ) = 10 × log 10 ((1/279560) × (2904788.577-106.22) / 106. 22) = − 20.097.
したがって、このブロックについてのSN比(評価値)ηは−20.097である。 Therefore, the SN ratio (evaluation value) η for this block is −20.097.
次に、上記式(27)〜(30)によって算出されるズレ値Zを評価値として算出する場合について説明する。 Next, the case where the deviation value Z calculated by the above equations (27) to (30) is calculated as the evaluation value will be described.
上記式(27)より、有効除数r=M1,1 2+M1,2 2+M1,3 2+M1,4 2+M2,1 2+M2,2 2+M2,3 2+M2,4 2+M3,1 2+M3,2 2+M3,3 2+M3,4 2=1462+1052+942+2342+332+1622+2482+422+1722+2312+552+842=279560であり、
上記式(28)より、L=M1,1×y1,1+M1,2×y1,2+M1,3×y1,3+M1,4×y1,4+M2,1×y2,1+M2,2×y2,2+M2,3×y2,3+M2,4×y2,4+M3,1×y3,1+M3,2×y3,2+M3,3×y3,3+M3,4×y3,4=146×140+105×95+94×80+234×230+33×38+162×188+248×252+42×48+172×180+231×241+55×57+84×86=284967であり、
上記式(29)より、β=L/r=284967/279560=1.019であるので、各画素についての各色の色強度のズレ値Zc,dは以下のようになる。
From the above formula (27), the effective divisor r = M 1,1 2 + M 1,2 2 + M 1,3 2 + M 1,4 2 + M 2,1 2 + M 2,2 2 + M 2,3 2 + M 2,4 2 + M 3,1 2 + M 3,2 2 + M 3,3 2 + M 3,4 2 = 146 2 +105 2 +94 2 +234 2 +33 2 +162 2 +248 2 +42 2 +172 2 +231 2 +55 2 +84 2 = 279560 ,
From the above equation (28), L = M 1,1 × y 1,1 + M 1,2 × y 1,2 + M 1,3 × y 1,3 + M 1,4 × y 1,4 + M 2,1 × y 2,1 + M 2,2 xy 2,2 + M 2,3 xy 2,3 + M 2,4 xy 2,4 + M 3,1 xy 3,1 + M 3,2 xy 3,2 + M 3,3 × y 3,3 + M 3,4 × y 3,4 = 146 × 140 + 105 × 95 + 94 × 80 + 234 × 230 + 33 × 38 + 162 × 188 + 248 × 252 + 42 × 48 + 172 × 180 + 231 × 241 + 55 × 57 + 84 × 86 = 284967
From the above equation (29), β = L / r = 284967/279560 = 1.019, so the color intensity deviation value Zc, d for each pixel is as follows.
Z1,1 = |Z1,1| = |140−1.019×146|=8.824
Z1,2 = |Z1,2| = |95−1.019×105| =12.031
Z1,3 = |Z1,3| = |80−1.019×94| =15.818
Z1,4 = |Z1,4| = |230−1.019×234|=8.526
Z2,1 = |Z2,1| = |38−1.019×33| =4.362
Z2,2 = |Z2,2| = |188−1.019×162|=22.867
Z2,3 = |Z2,3| = |252−1.019×248|=0.797
Z2,4 = |Z2,4| = |48−1.019×42| =5.188
Z3,1 = |Z3,1| = |180−1.019×172|=4.673
Z3,2 = |Z3,2| = |241−1.019×231|=5.532
Z3,3 = |Z3,3| = |57−1.019×55| =0.936
Z3,4 = |Z3,4| = |86−1.019×84| =0.375
したがって、上記式(30)より、ズレ値Z=|Zc,d|max=22.867となる。
Z 1,1 = | Z 1,1 | = | 140-1.019 × 146 | = 8.824
Z 1,2 = | Z 1,2 | = | 95-1.019 × 105 | = 12.031
Z 1,3 = | Z 1,3 | = | 80-1.019 × 94 | = 15.818
Z 1,4 = | Z 1,4 | = | 230-1.019 × 234 | = 8.526
Z 2,1 = | Z 2,1 | = | 38-1.019 × 33 | = 4.362
Z 2,2 = | Z 2,2 | = | 188-1.019 × 162 | = 22.867
Z 2,3 = | Z 2,3 | = | 252-1.019 × 248 | = 0.797
Z 2,4 = | Z 2,4 | = | 48-1.019 × 42 | = 5.188
Z 3,1 = | Z 3,1 | = | 180-1.019 × 172 | = 4.673
Z 3,2 = | Z 3,2 | = | 241-1.019 × 231 | = 5.532
Z 3,3 = | Z 3,3 | = | 57-1.019 × 55 | = 0.936
Z 3,4 = | Z 3,4 | = | 86−1.019 × 84 | = 0.375
Therefore, the deviation value Z = | Z c, d | max = 22.867 from the above equation (30).
(閾値TH1の設定方法の例1)
次に、相違箇所抽出部34が相違箇所を抽出する際に用いる上記閾値TH1の設定方法の一例について説明する。
(Example 1 of setting method of threshold value TH1)
Next, an example of a method for setting the threshold TH1 used when the different
まず、サンプル画像データと、このサンプル画像データに対する相違箇所を含む評価対象画像データとを用意する。例えば、図5(a)に示すサンプル画像のデータと、図5(b)に示す評価対象画像のデータとを用意する。図5(a)および図5(b)の例では、右上(図中に示した縦4・横4の位置)のブロックが相違箇所を有する(類似度が低い)一方、その他のブロックについては相違箇所がない(類似度が高い)ようになっている。
なお、図5(a)中および図5(b)中に示した破線は、ブロックを説明するためのものであり、サンプル画像および評価対象画像に含まれるものではない。
First, sample image data and evaluation target image data including differences from the sample image data are prepared. For example, the sample image data shown in FIG. 5A and the evaluation target image data shown in FIG. 5B are prepared. In the example of FIGS. 5A and 5B, the block in the upper right (vertical 4 and horizontal 4 positions shown in the figure) has a different portion (low similarity), while other blocks are There are no differences (high similarity).
In addition, the broken line shown in FIG. 5A and FIG. 5B is for explaining the block, and is not included in the sample image and the evaluation target image.
次に、サンプル画像データおよび評価対象画像データを、所定数のブロック(ここでは縦4×横4)に分割する。そして、各ブロックについてS/N比、および/またはズレ値を算出する。 Next, the sample image data and the evaluation target image data are divided into a predetermined number of blocks (here, 4 × 4). Then, an S / N ratio and / or a deviation value is calculated for each block.
例えば、各ブロックについてのS/N比およびズレ値が下表に示す値であったとする。 For example, it is assumed that the S / N ratio and the deviation value for each block are the values shown in the table below.
S/N比については、S/N比が大きいほど類似度が高く、小さいほど類似度が低い。このため、相違箇所がある(類似度が低い)ブロックにおけるS/N比の最大値(表1の場合−22.54)と、相違箇所のない(類似度が高い)ブロックにおけるS/N比の最小値(表1の場合−20.44)との間に閾値を設定すればよい。 Regarding the S / N ratio, the greater the S / N ratio, the higher the similarity, and the smaller the S / N ratio, the lower the similarity. For this reason, the maximum value of the S / N ratio (in the case of Table 1, −22.54) in a block having a different portion (low similarity) and the S / N ratio in a block having no different portion (high similarity). A threshold value may be set between the minimum value (in the case of Table 1, −20.44).
なお、閾値を上記範囲内においてどのように設定するかについては、用途に応じて設定すればよい。例えば、相違箇所があるブロックが見逃される頻度(相違箇所があるブロックであるにもかかわらず相違箇所がないブロックであると誤判定される頻度)を低減したい場合には、閾値を相違箇所のないブロックにおけるS/N比の最小値(表1の場合−20.44)あるいはそれに近い値にすればよい。また、相違箇所があるブロックであるにもかかわらず相違箇所がないブロックであると誤判定される頻度を低減させたい場合には、閾値を相違箇所があるブロックにおけるS/N比の最大値(表1の場合−22.54)あるいはそれに近い値に設定すればよい。 In addition, what is necessary is just to set how a threshold value is set within the said range according to a use. For example, when it is desired to reduce the frequency at which a block with a different portion is overlooked (the frequency at which it is erroneously determined that the block has a different portion even though it is a block with a different portion), the threshold is set so that there is no different portion. The minimum value of the S / N ratio in the block (in the case of Table 1, 20.44) may be set to a value close thereto. In addition, when it is desired to reduce the frequency of erroneously determining that the block has a different portion even though the block has a different portion, the threshold value is set to the maximum value of the S / N ratio in the block having the different portion ( In the case of Table 1, it may be set to -22.54) or a value close thereto.
一方、ズレ値については、ズレ値が小さいほど類似度が高く、大きいほど類似度が低い。このため、相違箇所があるブロックにおけるズレ値の最小値(表1の場合24.2)と、相違箇所のないブロックにおけるズレ値の最大値(表1の場合22.3)との間に閾値を設定すればよい。 On the other hand, regarding the deviation value, the smaller the deviation value, the higher the similarity, and the larger the deviation value, the lower the similarity. For this reason, a threshold value is set between the minimum value of the deviation value in the block having the difference portion (24.2 in the case of Table 1) and the maximum value of the deviation value in the block having no difference portion (22.3 in the case of Table 1). Should be set.
なお、S/N比の場合と同様、閾値を上記範囲内においてどのように設定するかについては、用途に応じて設定すればよい。例えば、相違箇所があるブロックが見逃される頻度(相違箇所があるブロックであるにもかかわらず相違箇所がないブロックであると誤判定される頻度)を低減したい場合には、閾値を相違箇所のないブロックにおけるズレ値の最大値(表1の場合22.3)あるいはそれに近い値にすればよい。また、相違箇所があるブロックであるにもかかわらず相違箇所がないブロックであると誤判定される頻度を低減させたい場合には、閾値を相違箇所があるブロックにおけるズレ値の最小値あるいはそれに近い値に設定すればよい。 As in the case of the S / N ratio, how to set the threshold value within the above range may be set according to the application. For example, when it is desired to reduce the frequency at which a block with a different portion is overlooked (the frequency at which it is erroneously determined that the block has a different portion even though it is a block with a different portion), the threshold is set so that there is no different portion. The maximum deviation value in the block (22.3 in the case of Table 1) or a value close thereto may be used. Further, when it is desired to reduce the frequency of erroneously determining that the block has a different portion even though it is a block having a different portion, the threshold is set to the minimum value of the deviation value in the block having the different portion or close to it. Set it to a value.
また、閾値については、画像の種類毎に設定してもよい。例えば、文字のみからなる画像、写真または描画のみからなる画像、文字と写真または描画とを含む画像といったタイプ分けをしてタイプ毎に事前に閾値を用意し、記憶部7に記憶させておいてもよい。この場合、デジタルカラー複合機1に評価対象画像データのタイプ(画像の種別)を判定する判定部を設けておき、相違箇所抽出部34が記憶部7に記憶されている閾値の中から判定部によって判定された評価対象画像データのタイプに対応する閾値を選択し、選択した閾値を用いて相違箇所の抽出を行うようにすればよい。なお、評価対象画像データのタイプの判定方法は特に限定されるものではなく、例えば従来から公知の種々の方法を用いることができる。また、ブロック毎あるいは複数のブロックからなるブロック群毎にタイプ(画像の種類)の判定を行い、判定結果に応じた閾値を用いるようにしてもよい。
The threshold value may be set for each type of image. For example, a threshold value is prepared in advance for each type, such as an image consisting only of characters, an image consisting only of photographs or drawings, or an image including characters and photographs or drawings, and stored in the
以上のように、本実施形態にかかるデジタルカラー複合機1では、画像分割処理部32が評価対象画像データおよびサンプル画像データを両画像データの各ブロックが互いに対応するようにそれぞれ複数のブロックに分割し、評価値算出部33が評価対象画像データおよびサンプル画像データの各ブロックについての評価値を算出し、相違箇所抽出部34が評価値算出部33の算出した各ブロックの評価値と記憶部7に予め記憶されている閾値TH1とを比較して相違箇所(相違ブロック)を抽出する。
As described above, in the digital color multifunction peripheral 1 according to the present embodiment, the image
これにより、評価対象画像とサンプル画像との相違箇所を、人間の主観を介することなく抽出することができる。 Thereby, the difference part of an evaluation object image and a sample image can be extracted, without passing through a human subjectivity.
また、本実施形態では、評価対象画像データおよびサンプル画像データに含まれる全ての色(RGBの3色)の色強度データに基づいて評価値を算出する。これにより、相違箇所の判定を精度よく行うことができる。 In this embodiment, evaluation values are calculated based on the color intensity data of all colors (three colors of RGB) included in the evaluation target image data and the sample image data. Thereby, a difference part can be determined accurately.
また、本実施形態では、各ブロックについての評価値としてSN比ηまたはズレ値Zを用いている。これにより、相違箇所の判定精度に対するノイズの影響を低減して画像同士の類似度を高精度に判定することができる。 In the present embodiment, the SN ratio η or the deviation value Z is used as the evaluation value for each block. Thereby, the influence of the noise with respect to the determination precision of a different location can be reduced, and the similarity of images can be determined with high precision.
〔実施形態2〕
本発明の他の実施形態について説明する。なお、説明の便宜上、実施形態1と同様の機能を有する部材については同じ符号を付し、その説明を省略する。
[Embodiment 2]
Another embodiment of the present invention will be described. For convenience of explanation, members having the same functions as those in the first embodiment are denoted by the same reference numerals, and description thereof is omitted.
本実施形態にかかるデジタルカラー複合機1は、実施形態1における類似度判定部13に代えて、図6に示す類似度判定部13bを備えている。図6は、類似度判定部13bの概略構成を示すブロック図である。
The
この図に示すように、類似度判定部13bは、実施形態1における類似度判定部13に備えられる各部に加えて、平均化処理部37を備えている。
As shown in this figure, the
平均化処理部37は、色強度データ取得部31の取得した評価対象画像データおよびサンプル画像データにおける複数ピクセルからなる各エリアの色強度データを以下に示す式(36)および式(37)に基づいて平均化処理し、処理結果を記憶部7に記憶させる。なお、図7に示すように、1エリアは複数ピクセル(u×vピクセル;u,vは1以上の整数であり、u=vであってもよく、u≠vであってもよい。)からなり、1ブロックは複数エリア(m×nエリア;m,nは1以上の整数であり、m=nであってもよく、m≠nであってもよい)からなる。また、1エリアあたりのピクセル数(u,vの値)は、予め設定されていてもよく、操作パネル6を介してユーザが指定してもよい。また、サンプル画像データおよび評価対象画像データの画像サイズ、分解能、画像の種類等に応じたピクセル数を予め記憶部7に記憶させておき、画像分割処理部32がサンプル画像データおよび評価対象画像データの画像サイズ、分解能、画像の種類等を判断し、判断結果に応じて適切な分割数を選択するようにしてもよい。
The averaging
M’c,(f,g)=(Mc,((f−1)×u+1,(g−1)×v+1)+・・・・・・+Mc,(f×u,g×v))/(u×v) ・・・(36)
y’c,(f,g)=(yc,((f−1)×u+1,(g−1)×v+1)+・・・・・・+yc(f×u,g×v))/(u×v) ・・・(37)
なお、上記式(36)におけるM’は、サンプル画像データを平均化処理することによって算出される1エリアの色強度データを示す。また、M’c,(f,g)としたときの添え字cは色の種類を表す。例えば、RGBの3色の色強度データがある場合、Rの色強度データはc=1,Gの色強度データはc=2,Bの色強度データはc=3とする。また、f,gは平均化処理後の各エリアの位置を表わす。例えば、平均化処理後に縦6・横8(左から6番目、上から8番目)となるエリアは、f=6、g=8となる。また、u,vは、上記式(36)におけるu,vは、それぞれ、1エリアに含まれる縦方向(列方向)のピクセル数および横方向(行方向)のピクセル数を示している。
M ′ c, (f, g) = (M c, ((f−1) × u + 1, (g−1) × v + 1) +... + M c, (f × u, g × v) ) / (U × v) (36)
y ′ c, (f, g) = (y c, ((f−1) × u + 1, (g−1) × v + 1) +... + y c (f × u, g × v) ) / (U × v) (37)
Note that M ′ in the equation (36) represents color intensity data of one area calculated by averaging the sample image data. The subscript c when M ′ c, (f, g) represents the type of color. For example, when there are three color intensity data of RGB, the color intensity data of R is c = 1, the color intensity data of G is c = 2, and the color intensity data of B is c = 3. F and g represent the positions of the respective areas after the averaging process. For example, an area that is 6 vertical and 8 horizontal (sixth from the left, eighth from the top) after the averaging processing is f = 6 and g = 8. In addition, u and v in Expression (36) indicate the number of pixels in the vertical direction (column direction) and the number of pixels in the horizontal direction (row direction), respectively, included in one area.
また、上記式(37)におけるy’は、評価対象画像データを平均化処理することによって算出される1エリアの色強度データを示す。添え字についてはM’と同様である。 In addition, y ′ in the above equation (37) indicates color intensity data of one area calculated by averaging the evaluation target image data. The subscript is the same as M '.
これにより、例えば、4×4ピクセルからなる1エリアを平均化処理して得られる縦6・横8のエリアにおける2種類目の色(G;緑)の色強度データは、
M’2,(6,8)=(M2,(21,29)+M2,(21,30)+M2,(21,31)+M2,(21,32)+M2,(22,29)+M2,(22,30)+M2,(22,31)+M2,(22,32)+M2,(23,29)+M2,(23,30)+M2,(23,31)+M2,(23,32)+M2,(24,29)+M2,(24,30)+M2,(24,31)+M2,(24,32))/(4×4)となる。
Thereby, for example, the color intensity data of the second color (G; green) in the vertical 6 and horizontal 8 areas obtained by averaging one area of 4 × 4 pixels is
M '2, (6,8) = (
画像分割処理部32、評価値算出部33、相違箇所抽出部34、相違箇所通知部35、類似度評価部36は、実施形態1おいて色強度データM,yを用いて行った処理と同様の処理を、平均化処理部37の算出した各エリアの色強度データM’,y’を用いて行う。つまり、色強度データM,yに代えて色強度データM’,y’を用いて相違箇所の抽出を行う。
The image
以上のように、本実施形態では、評価対象画像データおよびサンプル画像データにおける各ピクセルについての色強度データを、複数ピクセルからなるエリア毎に平均化処理して各エリアについての色強度データの平均値を算出する。そして、この各エリアについての平均値に基づいて各ブロックの評価値を算出し、相違箇所(相違ブロック)を抽出する。 As described above, in this embodiment, the color intensity data for each pixel in the evaluation object image data and the sample image data is averaged for each area composed of a plurality of pixels, and the average value of the color intensity data for each area is obtained. Is calculated. Then, an evaluation value of each block is calculated based on the average value for each area, and a different portion (different block) is extracted.
このように、平均化処理を行うことで、画像読取時の位置ズレ、紙質のばらつき等に起因するノイズが相違箇所の判定結果に影響を及ぼすことを低減できる。 In this way, by performing the averaging process, it is possible to reduce the influence of noise caused by positional deviation at the time of image reading, paper quality variation, and the like on the determination result of the different portion.
〔実施形態3〕
本発明のさらに他の実施形態について説明する。なお、なお、説明の便宜上、実施形態1,2と同様の機能を有する部材については同じ符号を付し、その説明を省略する。
[Embodiment 3]
Still another embodiment of the present invention will be described. For convenience of explanation, members having the same functions as those in the first and second embodiments are denoted by the same reference numerals and description thereof is omitted.
本実施形態にかかるデジタルカラー複合機1は、実施形態2における類似度判定部13bに代えて、図8に示す類似度判定部13cを備えている。図8は、類似度判定部13cの概略構成を示すブロック図である。
The
この図に示すように、類似度判定部13cは、実施形態2における類似度判定部13bに備えられる各部に加えて、データサイズ演算部38とデータサイズ処理部39とを備えている。
As shown in this figure, the
データサイズ演算部(画像変換部)38は、画像分割処理部32において分割処理する際のブロック数(横方向の分割数sおよび縦方向の分割数t)、平均化処理部37において平均化処理する際の各エリアのピクセル数(縦方向のピクセル数uおよび横方向のピクセル数v)、評価対象画像データの高さ(縦方向の長さ)hおよび幅(横方向の長さ)w、およびサンプル画像データの高さh’および幅w’に基づいて、評価対象画像データおよびサンプル画像データの拡大サイズを決定する。
The data size calculation unit (image conversion unit) 38 includes the number of blocks (the horizontal division number s and the vertical division number t) when the image
具体的には、データサイズ演算部38は、横方向の分割数(ブロック数)sと、各エリアにおける横方向のピクセル数uとの積の倍数のうち、元データの幅wおよび幅w’を超える最小の値を拡大後の各画像データの幅Wとする。また、縦方向の分割数(ブロック数)tと、各エリアにおける縦方向のピクセル数vとの積の倍数のうち、元データの高さhおよび高さh’を超える最小の値を拡大後の各画像データの高さHとする。
Specifically, the data
なお、画像分割処理部32において分割処理する際のブロック数および平均化処理部37において平均化処理する際の各エリアのピクセル数は、予め設定されていてもよく、操作パネル6を介してユーザが指定してもよい。また、評価対象画像データおよびサンプル画像データの画像サイズ、分解能、画像の種類等に応じた値を予め記憶部7に記憶させておき、画像分割処理部32が評価対象画像データおよびサンプル画像データの画像サイズ、分解能、画像の種類等を判断し、判断結果に応じて適切な分割数を選択するようにしてもよい。
Note that the number of blocks when the division processing is performed in the image
データサイズ処理部(画像変換部)39は、データサイズ演算部38の演算結果に基づいて、評価対象画像データおよびサンプル画像データの拡大処理を行う。
The data size processing unit (image conversion unit) 39 performs an enlargement process on the evaluation target image data and the sample image data based on the calculation result of the data
具体的には、図9に示すように、元データに対応する画像(高さh×幅wあるいは高さh’×幅w’)を中央に配置し、その上下左右に枠を付加することでデータサイズ演算部38の算出したサイズ(高さH×幅W)の拡大画像を作成する。なお、元データの上下にそれぞれ付加する枠の高さは、拡大後の高さHと元データの高さとの差を均等に分割した高さ(H−h)/2あるいは(H−h’)/2とする。同様に、元データの左右にそれぞれ付加する枠の幅は、拡大後の幅Wと元データの幅との差を均等に分割した幅(W−w)/2あるいは(W−w’)/2とする。
Specifically, as shown in FIG. 9, an image (height h × width w or height h ′ × width w ′) corresponding to the original data is arranged in the center, and frames are added to the top, bottom, left and right. Thus, an enlarged image of the size (height H × width W) calculated by the
また、付加する枠における各ピクセルの色強度は、均一の色強度とする。例えば、各ピクセルが白(R,G,Bの色強度データの場合、R=G=B=255。グレースケールの場合、信号値=255。)または黒(R,G,Bの色強度データの場合、R=G=B=0。グレースケールの場合、信号値=0。)になるように各ピクセルの色強度を設定する。 Further, the color intensity of each pixel in the added frame is assumed to be uniform. For example, each pixel is white (R = G = B = 255 for R, G, B color intensity data; signal value = 255 for gray scale) or black (R, G, B color intensity data). In this case, the color intensity of each pixel is set so that R = G = B = 0. In the case of gray scale, the signal value = 0.
平均化処理部37、画像分割処理部32、評価値算出部33、相違箇所抽出部34、相違箇所通知部35、類似度評価部36は、データサイズ処理部39によって拡大処理された評価対象画像データとサンプル画像データとに対して実施形態2と同様の処理を行う。
The averaging
以上のように、本実施形態では、データサイズ演算部38が、横方向の分割数(ブロック数)sと各エリアにおける横方向のピクセル数uとの積の倍数のうち元データの幅を超える最小の値を拡大後の画像データの幅Wとし、縦方向の分割数(ブロック数)tと各エリアにおける縦方向のピクセル数vとの積の倍数のうち、元データの高さを超える最小の値を拡大後の画像データの高さHとするように評価対象画像データおよびサンプル画像データの拡大サイズを演算する。そして、データサイズ処理部39が、データサイズ演算部38の演算結果に基づいて、評価対象画像データおよびサンプル画像データの拡大処理を行う。そして、平均化処理部37、画像分割処理部32、評価値算出部33、相違箇所抽出部34、相違箇所通知部35、類似度評価部36は、データサイズ処理部39によって拡大処理された評価対象画像データとサンプル画像データとに対して平均化処理、画像分割処理、評価値算出処理、相違箇所抽出処理、相違箇所通知処理、類似度評価処理を行う。
As described above, in this embodiment, the data
これにより、各ブロックのサイズを均一化することができるので、1エリアあたりの情報量の相違箇所抽出処理および類似度評価処理に対する重み(影響の度合)を均一化することができる。 As a result, the size of each block can be made uniform, so that the weights (degrees of influence) for the difference location extraction process and the similarity evaluation process of the information amount per area can be made uniform.
また、データサイズ処理部39は、元データに対応する画像(高さh×幅wあるいは高さh’×幅w’)を中央に配置し、その上下左右に枠を付加することでデータサイズ演算部38の算出したサイズ(高さH×幅W)の拡大画像を作成する。
In addition, the data
これにより、評価対象画像データのサイズとサンプル画像データのサイズとが微小に違う場合(例えば数ピクセル程度)であっても、画像の中心部に基づいて両画像の位置合わせを行うことができる。なお、平行移動による位置ズレがある場合、余白と思われる幅を上下左右削除してから枠を付加してもよい。これにより、平行移動による位置ズレがある場合であっても、画像の中心部に基づいて両画像の位置合わせを行うことができる。 Thus, even when the size of the evaluation target image data and the size of the sample image data are slightly different (for example, about several pixels), the two images can be aligned based on the center of the image. When there is a positional shift due to parallel movement, a frame may be added after deleting a width that seems to be a margin, up and down, left and right. Thereby, even if there is a positional shift due to parallel movement, the images can be aligned based on the center of the image.
また、平均化処理部37は、上記のように枠を付加した後の画像データに対して平均化処理を行う。これにより、枠付加前の画像の端部と枠部分とを含むエリアの色強度データが平均化されるので、枠付加後の両画像の間に微小なズレが残っていたとしても、この微小なズレの影響を緩和(ノイズの影響を低減)することができる。
In addition, the averaging
また、データサイズ演算部38は、上記の枠における各ピクセルの色強度を均一にする。これにより、枠の色強度がノイズとなって判定精度を低下させることを防止できる。
Further, the data
なお、上記各実施形態では、SN比ηのみまたはズレ値Zのみを評価値としているが、これに限らず、SN比ηとズレ値Zとの両方を評価値として用いてもよい。この場合、SN比ηについての閾値TH1ηと、ズレ値Zについての閾値TH1Zとを予め記憶部7に記憶させておき、相違箇所抽出部34が、評価対象画像データおよびサンプル画像データから算出されるSN比ηと上記閾値TH1ηとを比較するとともに、評価対象画像データおよびサンプル画像データから算出されるズレ値Zと上記TH1Zとを比較するようにすればよい。そして、例えば、η≦TH1ηまたはZ≧TH1Zであるブロック、あるいはη≦TH1ηかつZ≧TH1Zであるブロックを、相違箇所抽出部34が相違箇所であると判断するようにすればよい。また、SN比ηとズレ値Zとの両方を評価値として用いる場合であって、SN比ηおよびズレ値Zの算出過程において共通の演算内容(数式)が含まれる場合には、この共通の演算を共通の演算プロセスで行うようにしてもよい。これにより、演算処理の効率化、演算処理を行うためのプログラムにおけるアルゴリズムの簡略化あるいは演算処理を行う演算回路の簡略化を図ることができる。また、上記評価値は、上記したSN比およびズレ値に限るものではなく、両画像データの相違の度合を示すものであれば用いることができる。例えば、従来から公知の種々の方法によって算出される類似度あるいは相違度を用いてもよい。
In each of the above embodiments, only the SN ratio η or only the deviation value Z is used as the evaluation value. However, the present invention is not limited to this, and both the SN ratio η and the deviation value Z may be used as the evaluation value. Calculating this case, the threshold value TH1 eta for SN ratio eta, may be stored in advance in the
また、上記各実施形態において、デジタルカラー複合機1(特にカラー画像処理装置3および主制御部)を構成する各部(各機能ブロック)は、CPU等のプロセッサを用いてソフトウェアによって実現される。すなわち、デジタルカラー複合機1は、各機能を実現する制御プログラムの命令を実行するCPU(central processing unit)、上記プログラムを格納したROM(read only memory)、上記プログラムを展開するRAM(random access memory)、上記プログラムおよび各種データを格納するメモリ等の記憶装置(記録媒体)などを備えている。そして、本発明の目的は、上述した機能を実現するソフトウェアであるデジタルカラー複合機1の制御プログラムのプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)をコンピュータで読み取り可能に記録した記録媒体を、デジタルカラー複合機1に供給し、そのコンピュータ(またはCPUやMPU)が記録媒体に記録されているプログラムコードを読み出し実行することによって達成される。
In each of the above embodiments, each unit (each functional block) constituting the digital color multifunction peripheral 1 (particularly the color
上記記録媒体としては、例えば、磁気テープやカセットテープ等のテープ系、フロッピー(登録商標)ディスク/ハードディスク等の磁気ディスクやCD−ROM/MO/MD/DVD/CD−R等の光ディスクを含むディスク系、ICカード(メモリカードを含む)/光カード等のカード系、あるいはマスクROM/EPROM/EEPROM/フラッシュROM等の半導体メモリ系などを用いることができる。 Examples of the recording medium include tapes such as magnetic tapes and cassette tapes, magnetic disks such as floppy (registered trademark) disks / hard disks, and disks including optical disks such as CD-ROM / MO / MD / DVD / CD-R. Card system such as IC card, IC card (including memory card) / optical card, or semiconductor memory system such as mask ROM / EPROM / EEPROM / flash ROM.
また、デジタルカラー複合機1を通信ネットワークと接続可能に構成し、通信ネットワークを介して上記プログラムコードを供給してもよい。この通信ネットワークとしては、特に限定されず、例えば、インターネット、イントラネット、エキストラネット、LAN、ISDN、VAN、CATV通信網、仮想専用網(virtual private network)、電話回線網、移動体通信網、衛星通信網等が利用可能である。また、通信ネットワークを構成する伝送媒体としては、特に限定されず、例えば、IEEE1394、USB、電力線搬送、ケーブルTV回線、電話線、ADSL回線等の有線でも、IrDAやリモコンのような赤外線、Bluetooth(登録商標)、802.11無線、HDR、携帯電話網、衛星回線、地上波デジタル網等の無線でも利用可能である。なお、本発明は、上記プログラムコードが電子的な伝送で具現化された、搬送波に埋め込まれたコンピュータデータ信号の形態でも実現され得る。 Alternatively, the digital color multifunction peripheral 1 may be configured to be connectable to a communication network, and the program code may be supplied via the communication network. The communication network is not particularly limited. For example, the Internet, intranet, extranet, LAN, ISDN, VAN, CATV communication network, virtual private network, telephone line network, mobile communication network, satellite communication. A net or the like is available. Also, the transmission medium constituting the communication network is not particularly limited. For example, even in the case of wired such as IEEE 1394, USB, power line carrier, cable TV line, telephone line, ADSL line, etc., infrared rays such as IrDA and remote control, Bluetooth ( (Registered trademark), 802.11 wireless, HDR, mobile phone network, satellite line, terrestrial digital network, and the like can also be used. The present invention can also be realized in the form of a computer data signal embedded in a carrier wave in which the program code is embodied by electronic transmission.
また、デジタルカラー複合機1の各ブロックは、ソフトウェアを用いて実現されるものに限らず、ハードウェアロジックによって構成されるものであってもよく、処理の一部を行うハードウェアと当該ハードウェアの制御や残余の処理を行うソフトウェアを実行する演算手段とを組み合わせたものであってもよい。 In addition, each block of the digital color multi-function peripheral 1 is not limited to that realized by using software, but may be configured by hardware logic. Hardware that performs a part of the processing and the hardware It may be a combination of arithmetic means for executing software for performing the above control and residual processing.
本発明は上述した実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能である。すなわち、請求項に示した範囲で適宜変更した技術的手段を組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。 The present invention is not limited to the above-described embodiments, and various modifications can be made within the scope of the claims. That is, embodiments obtained by combining technical means appropriately changed within the scope of the claims are also included in the technical scope of the present invention.
1 デジタルカラー複合機(相違箇所抽出装置)
2 カラー画像入力装置(データ取得手段)
3 カラー画像処理装置(相違箇所抽出装置)
4 カラー画像出力装置(告知手段)
5 通信装置(データ取得手段)
6 操作パネル(表示部、告知手段)
7 記憶部(記憶手段)
13,13b,13c 類似度判定部(相違箇所抽出装置)
31 色強度データ取得部(データ取得手段)
32 画像分割処理部
33 評価値算出部
34 相違箇所抽出部
35 相違箇所通知部(告知手段)
36 類似度評価部
37 平均化処理部
38 データサイズ演算部(画像変換部)
39 データサイズ処理部(画像変換部)
1 Digital color MFP (Difference part extraction device)
2 Color image input device (data acquisition means)
3 Color image processing device (difference extraction device)
4 Color image output device (notification means)
5. Communication device (data acquisition means)
6 Operation panel (display section, notification means)
7 Storage unit (storage means)
13, 13b, 13c Similarity determination unit (difference part extraction device)
31 Color intensity data acquisition unit (data acquisition means)
32 Image
36
39 Data size processor (image converter)
Claims (12)
上記データ取得部が取得した第1画像データと第2画像データとを、第1画像データの各ブロックと第2画像データの各ブロックとが互いに対応するようにそれぞれ複数のブロックに分割する画像分割処理部と、
上記両画像データにおける第1画像データと第2画像データの対応するブロック同士の相違の度合を示す評価値を算出する評価値算出部と、
対応する上記ブロック同士の相違の度合を評価するための閾値を記憶した記憶手段と、
上記評価値算出部の算出した評価値と上記記憶手段に記憶されている閾値とを比較し、上記評価値が示す相違の度合が閾値以上であるブロックあるいは閾値よりも大きいブロックを相違箇所として抽出する相違箇所抽出部とを備えていることを特徴とする相違箇所抽出装置。 A data acquisition unit that acquires first image data that is image data of the first image and second image data that is image data of the second image, and the first image based on the first image data and the second image data And a second difference image extracting device for extracting a difference between the second image and the second image,
Image division for dividing the first image data and the second image data acquired by the data acquisition unit into a plurality of blocks so that each block of the first image data and each block of the second image data correspond to each other A processing unit;
An evaluation value calculation unit for calculating an evaluation value indicating a degree of difference between corresponding blocks of the first image data and the second image data in both the image data;
Storage means for storing a threshold value for evaluating the degree of difference between the corresponding blocks;
The evaluation value calculated by the evaluation value calculation unit is compared with the threshold value stored in the storage unit, and a block whose degree of difference indicated by the evaluation value is equal to or greater than the threshold value or a block larger than the threshold value is extracted as a difference portion. And a different part extracting unit.
上記評価値算出部は、エリア毎に平均した色強度データに基づいて上記評価値を算出することを特徴とする請求項1に記載の相違箇所抽出装置。 Averaging that averages the color intensity data of each pixel included in the first image data of each block and the color intensity data of each pixel included in the second image data of each block for each area composed of a plurality of pixels. With a processing unit,
The difference location extraction apparatus according to claim 1, wherein the evaluation value calculation unit calculates the evaluation value based on color intensity data averaged for each area.
上記評価値算出部は、サイズ変換後の画像データに基づいて上記評価値を算出することを特徴とする請求項1に記載の相違箇所抽出装置。 An image conversion unit that converts an image size by adding image data of a frame image to the first image data and / or the second image data;
The difference location extraction apparatus according to claim 1, wherein the evaluation value calculation unit calculates the evaluation value based on image data after size conversion.
上記画像分割部は、上記第1画像データを行方向および列方向にマトリクス状に配列された複数のブロックに分割し、
上記平均化処理部は、上記各ブロックを上記行方向および上記列方向に配列された複数のエリアに分割して分割したエリア毎に色強度データを平均し、
上記画像変換部は、上記行方向の画素数が上記行方向のブロック数と上記各エリアにおける上記行方向の画素数との積の倍数になり、上記列方向の画素数が上記列方向のブロック数と上記各エリアにおける上記列方向の画素数との積の倍数になるように上記枠画像を付加することを特徴とする請求項6に記載の相違箇所抽出装置。 Averaging that averages the color intensity data of each pixel included in the first image data of each block and the color intensity data of each pixel included in the second image data of each block for each area composed of a plurality of pixels. With a processing unit,
The image dividing unit divides the first image data into a plurality of blocks arranged in a matrix in the row direction and the column direction,
The averaging processing unit divides the blocks into a plurality of areas arranged in the row direction and the column direction and averages the color intensity data for each divided area,
In the image conversion unit, the number of pixels in the row direction is a multiple of the product of the number of blocks in the row direction and the number of pixels in the row direction in each area, and the number of pixels in the column direction is the number of blocks in the column direction. 7. The difference location extracting apparatus according to claim 6, wherein the frame image is added so as to be a multiple of a product of the number and the number of pixels in the column direction in each area.
上記第1画像データおよび上記第2画像データの少なくとも一方が、上記原稿読取手段によって生成された画像データであることを特徴とする画像読取装置。 An image reading apparatus comprising: an original reading unit that reads an original image to generate image data; and the difference location extracting apparatus according to any one of claims 1 to 8,
An image reading apparatus, wherein at least one of the first image data and the second image data is image data generated by the document reading means.
第1画像データおよび第2画像データを取得する取得工程と、
上記取得工程で取得した第1画像データと第2画像データとを、第1画像データの各ブロックと第2画像データの各ブロックとが互いに対応するようにそれぞれ複数のブロックに分割する画像分割工程と、
上記両画像データにおける第1画像データと第2画像データの対応するブロック同士の相違の度合を示す評価値を算出する評価値算出工程と、
上記評価値算出工程で算出した評価値と記憶手段に予め記憶されている閾値とを比較し、上記評価値が示す相違の度合が閾値以上であるブロックあるいは閾値よりも大きいブロックを相違箇所として抽出する相違箇所抽出工程とを行うコンピュータによって相違箇所を抽出することを特徴とする相違箇所抽出方法。 A difference location extraction method for extracting a difference location between a first image and a second image based on first image data that is image data of a first image and second image data that is image data of a second image. ,
An acquisition step of acquiring the first image data and the second image data;
An image dividing step of dividing the first image data and the second image data acquired in the acquisition step into a plurality of blocks such that each block of the first image data and each block of the second image data correspond to each other. When,
An evaluation value calculating step of calculating an evaluation value indicating a degree of difference between corresponding blocks of the first image data and the second image data in both the image data;
The evaluation value calculated in the evaluation value calculation step is compared with a threshold value stored in advance in the storage means, and a block whose degree of difference indicated by the evaluation value is equal to or greater than the threshold value or a block larger than the threshold value is extracted as a difference portion. The difference part extraction method characterized by extracting a difference part with the computer which performs the difference part extraction process to perform.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007027354A JP2008192011A (en) | 2007-02-06 | 2007-02-06 | Difference extracting device, image reader, difference extracting method, program and recording medium thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007027354A JP2008192011A (en) | 2007-02-06 | 2007-02-06 | Difference extracting device, image reader, difference extracting method, program and recording medium thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008192011A true JP2008192011A (en) | 2008-08-21 |
Family
ID=39752042
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007027354A Pending JP2008192011A (en) | 2007-02-06 | 2007-02-06 | Difference extracting device, image reader, difference extracting method, program and recording medium thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008192011A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010145102A (en) * | 2008-12-16 | 2010-07-01 | Shimadzu Corp | X-ray inspection device |
JP2013504112A (en) * | 2009-09-04 | 2013-02-04 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Relevance visualization for content-based image retrieval |
CN103186897A (en) * | 2011-12-29 | 2013-07-03 | 北京大学 | Method and device for obtaining image diversity factor result |
-
2007
- 2007-02-06 JP JP2007027354A patent/JP2008192011A/en active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010145102A (en) * | 2008-12-16 | 2010-07-01 | Shimadzu Corp | X-ray inspection device |
JP2013504112A (en) * | 2009-09-04 | 2013-02-04 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Relevance visualization for content-based image retrieval |
US9495388B2 (en) | 2009-09-04 | 2016-11-15 | Koninkijke Philips N.V. | Visualization of relevance for content-based image retrieval |
CN103186897A (en) * | 2011-12-29 | 2013-07-03 | 北京大学 | Method and device for obtaining image diversity factor result |
CN103186897B (en) * | 2011-12-29 | 2017-03-08 | 北京大学 | Obtain the method and device of image diversity factor result |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4495197B2 (en) | Image processing apparatus, image forming apparatus, image processing program, and recording medium for recording image processing program | |
JP4604100B2 (en) | Image processing method, image processing apparatus, image forming apparatus, program, and storage medium | |
JP4197346B2 (en) | Image processing apparatus, image processing method, image forming apparatus, image processing program, and recording medium | |
JP4362538B2 (en) | Image processing apparatus, image forming apparatus, image transmitting apparatus, image reading apparatus, image processing system, image processing method, image processing program, and recording medium thereof | |
JP2009031876A (en) | Image processor, image forming device and image reader therewith, image processing method, image processing program and recording medium recording image processing program | |
JP4402090B2 (en) | Image forming apparatus, image forming method, program, and recording medium | |
JP4487000B2 (en) | Image processing apparatus, image forming apparatus, image processing method, image processing system, image processing program, and recording medium thereof | |
JP4079814B2 (en) | Image processing method, image processing apparatus, image forming apparatus, imaging apparatus, and computer program | |
JP2009015819A (en) | Image processing apparatus, image forming apparatus, image transmitting apparatus, image reading apparatus, image processing system, image processing method, image processing program, and recording medium therefor | |
JP4731595B2 (en) | Image processing apparatus, image forming apparatus, computer program, recording medium, and image processing method | |
JPWO2005112428A1 (en) | Image processing method, image processing apparatus, image recording apparatus, and image processing program | |
JP2008192011A (en) | Difference extracting device, image reader, difference extracting method, program and recording medium thereof | |
JP2007053439A (en) | Isolated point discrimination apparatus, image processing apparatus, image reading apparatus, image forming apparatus, isolated point discrimination method, isolated point discrimination program, image processing program, and computer-readable recording medium | |
JP2009017208A (en) | Image processing apparatus, image forming apparatus, image processing method, computer program, and computer readable recording medium | |
JP2006262404A (en) | Device and method for estimating light source, image processor, and method for image processing | |
JP4522978B2 (en) | Image processing apparatus, image processing method, image forming apparatus, image processing program, and recording medium | |
JP2005159576A (en) | Image processing method, image processor, image forming apparatus, program, recording medium | |
JP4260774B2 (en) | Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium | |
JP7123752B2 (en) | Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium | |
JP2017135690A (en) | Image processing device, image processing method, and program | |
JP2006229817A (en) | Background detection method, program, recording medium, image processing apparatus, and image forming apparatus | |
JP2005072635A (en) | Image processing apparatus, image forming apparatus, image reading apparatus, image processing method, image processing program, and computer-readable recording medium stored with the image processing program | |
JP4808282B2 (en) | Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium for recording image processing program | |
JP2005267119A (en) | Image processor, image forming device, image processing method, image processing program, and recording medium | |
JP2011015172A (en) | Device for processing image, device for forming image, method and program for processing image, and recording medium recording program for processing image |