JPH0773325A - Specified image detecting method - Google Patents

Specified image detecting method

Info

Publication number
JPH0773325A
JPH0773325A JP5221279A JP22127993A JPH0773325A JP H0773325 A JPH0773325 A JP H0773325A JP 5221279 A JP5221279 A JP 5221279A JP 22127993 A JP22127993 A JP 22127993A JP H0773325 A JPH0773325 A JP H0773325A
Authority
JP
Japan
Prior art keywords
chromaticity
feature amount
image
dictionary
specific image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP5221279A
Other languages
Japanese (ja)
Other versions
JP3344782B2 (en
Inventor
Hideaki Yamagata
秀明 山形
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP22127993A priority Critical patent/JP3344782B2/en
Publication of JPH0773325A publication Critical patent/JPH0773325A/en
Application granted granted Critical
Publication of JP3344782B2 publication Critical patent/JP3344782B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE:To accurately and easily detect an arbitrary number of specified images contained in a color image. CONSTITUTION:A histogram 103 for the chromaticity of R is prepared by calculating the R chromaticity from the feature amount of an input image such as RGB data, for example, and matching is performed with the respective constant-fold values (0-fold, 1-fold, 2-fold, 3-fold and 4-fold values) of the R chromaticity histogram in a dictionary 104. The multiple of the R chromaticity, of which degree of difference is minimum, (=the number of specified images) and that degree of difference are outputted. When the multiple to be outputted is '0', no specified image is contained in the input image.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、カラースキャナ等によ
り入力されたカラー画像中の特定画像を検出する技術に
関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a technique for detecting a specific image in a color image input by a color scanner or the like.

【0002】[0002]

【従来の技術】特定のカラー画像を検出する方法とし
て、予め特定した色の画素が出現するか否かをみる方法
(特開平4−180348号)や、予め特定した色が全
体として何画素出現したかをみる方法(特開平4−20
7465号)が知られている。
2. Description of the Related Art As a method of detecting a specific color image, a method of checking whether or not a pixel of a previously specified color appears (Japanese Patent Laid-Open No. 4-180348), and how many pixels of a previously specified color as a whole appear How to check whether or not it has been done
7465) is known.

【0003】[0003]

【発明が解決しようとする課題】上記特開平4−180
348号の方法のように、検出しようとする特定画像の
特徴量の辞書が示す色空間の広がりの中での色分布につ
いては、画像識別の際に問題としない方法では、色空間
中での広がりが同じ画像については、その内部での色の
分布が異なっても識別することができない。つまり、色
空間の広がりが同じであれば、広がりの中での色の分布
が異なる画像をも、特定の画像として誤検出するおそれ
がある。
DISCLOSURE OF THE INVENTION Problems to be Solved by the Invention
Like the method of No. 348, regarding the color distribution in the spread of the color space indicated by the dictionary of the feature amount of the specific image to be detected, a method that does not pose a problem in image identification is Images with the same spread cannot be identified even if they have different color distributions. That is, if the spread of the color space is the same, an image having a different color distribution in the spread may be erroneously detected as a specific image.

【0004】一方、上記特開平4−207465号の方
法のように、全体的な色空間上での広がり(例えば同号
公報の第4図及び第5図)の一致度をみる方法では、色
合いの違いを識別することは不可能である。また、処理
対象となる画像中に特定の画像が任意数混在するような
場合(例えば、特定の画像の原稿を任意枚数、カラース
キャナ等で同時に読み取ったような画像の場合)に対応
できない。
On the other hand, as in the method of the above-mentioned Japanese Patent Laid-Open No. 4-207465, in the method of observing the degree of coincidence of the spread in the entire color space (for example, FIGS. 4 and 5 of the same publication), the hue is It is impossible to identify the difference between. Further, it is not possible to deal with the case where an arbitrary number of specific images are mixed in the images to be processed (for example, when an arbitrary number of originals of a specific image are simultaneously read by a color scanner or the like).

【0005】よって、本発明の一つの目的は、特定のカ
ラー画像をより高い精度で検出するための方法を提供す
ることにある。
Accordingly, one object of the present invention is to provide a method for detecting a specific color image with higher accuracy.

【0006】本発明のもう一つの目的は、入力画像中に
存在する任意数の特定画像を高精度に検出するための方
法を提供することにある。
Another object of the present invention is to provide a method for highly accurately detecting an arbitrary number of specific images existing in an input image.

【0007】本発明の他の目的は、入力画像中に存在す
る特定画像を、その個数を含めて検出するための方法を
提供することにある。
Another object of the present invention is to provide a method for detecting a specific image existing in an input image including its number.

【0008】本発明のもう一つの目的は、カラースキャ
ナ等の画像読取装置より入力されたカラー画像中の特定
の画像を高精度に検出する方法を提供することにある。
Another object of the present invention is to provide a method for detecting a specific image in a color image input from an image reading device such as a color scanner with high accuracy.

【0009】[0009]

【課題を解決するための手段】本発明によれば、入力画
像データより求めた特徴量と、特定画像に対して予め辞
書として用意した特徴量の定数倍した特徴量のそれぞれ
とのマッチングを行なう。また、最もよくマッチした特
徴量の倍数を、特定画像の個数とする。
According to the present invention, the feature amount obtained from the input image data is matched with the feature amount which is a constant multiple of the feature amount prepared in advance as a dictionary for the specific image. . In addition, a multiple of the feature amount that best matches is set as the number of specific images.

【0010】特徴量として色度ヒストグラムが、好まし
くは、画素の明度の高低を反映した色度ヒストグラム
が、用いられる。
A chromaticity histogram is used as the characteristic amount, and preferably, a chromaticity histogram reflecting the level of lightness of pixels is used.

【0011】特徴量間のマッチング処理は、辞書として
の特徴量の値が0の次元を除外して行なう。また、特徴
量間のマッチングの際の次元毎の類似度の算出に、辞書
としての特徴量よりも入力画像データの特徴量が大きい
場合にはメンバシップ値を0以上とするメンバシップ関
数を用いる。
The matching process between the feature quantities is performed by excluding the dimension of which the value of the feature quantity as a dictionary is 0. In addition, when the feature amount of the input image data is larger than the feature amount as a dictionary, a membership function that sets the membership value to 0 or more is used to calculate the similarity for each dimension when matching between the feature amounts. .

【0012】[0012]

【作用】辞書として用意された特徴量の定数倍した各特
徴量と、入力画像データより求めた特徴量とのマッチン
グを行なうことにより、入力画像中に特定画像が一つだ
け含まれている場合を想定した辞書を用意しておくだけ
で、カラースキャナ等で特定画像の原稿を2枚以上、同
時に読み取った画像データのように、任意数の特定画像
が含まれている入力画像データ中の特定画像を検出する
ことができる。また、定数倍した特徴量の中で最もよく
マッチした(類似度が最大、または相違度が最小)特徴
量の倍数として、入力画像に含まれている特定画像の数
を簡単に判断できる。
In the case where the input image includes only one specific image by matching each feature amount obtained by multiplying the feature amount prepared as a dictionary with the feature amount obtained from the input image data. Just by preparing a dictionary that assumes, the specification of input image data that contains an arbitrary number of specific images, such as image data obtained by simultaneously reading two or more originals of specific images with a color scanner, etc. The image can be detected. In addition, the number of specific images included in the input image can be easily determined as a multiple of the feature amount that is best matched (maximum similarity or minimum dissimilarity) among the constant-multiplied feature amounts.

【0013】特徴量として色度のヒストグラムを用いる
ことにより、色空間中での広がりが重なっていても色分
布(色合い)の異なる画像を識別できるので、特定の色
の出現の有無のみをみる方法に比べて、細かなテキスチ
ャのあるような特定画像を精度よく検出することができ
る。また、カラースキャナ等で画像を読み取って入力す
る場合、色度のヒストグラムのほうが、色(R,G,
B)のヒストグラムに比べて、画像読取用光源の光量変
化の影響を受けにくい利益がある。
By using the chromaticity histogram as the feature quantity, images having different color distributions (hue) can be identified even if the spreads in the color space are overlapped. Therefore, it is possible to check only the appearance of a specific color. Compared with, it is possible to detect a specific image having a fine texture with high accuracy. Further, when an image is read by a color scanner or the like and input, the chromaticity histogram is better for the colors (R, G,
Compared with the histogram of B), there is an advantage that it is less affected by the change in the light amount of the image reading light source.

【0014】特徴量として色度ヒストグラムを用いた場
合、上記の如きメンバシップ関数を用いて特徴量間の次
元毎の類似度を算出することにより、入力画像データ中
のノイズの影響を減らすことができる。
When the chromaticity histogram is used as the feature quantity, the influence of noise in the input image data can be reduced by calculating the similarity for each dimension between the feature quantities using the membership function as described above. it can.

【0015】画像の明度の高い領域では、画像読取素子
として一般的なCCDイメージセンサの感度ばらつきが
大きいという性質があり、また、読取り時の背景の色合
いにより色相が影響されやすい。本発明によれば、明度
の低い画素に注目して画素の明度を反映させた色度ヒス
トグラムを用いることによって、上記の感度ばらつき
や、背景の影響を減らすことができるため、イメージス
キャナで原稿を読み取って入力した画像中の特定画像の
検出精度を上げることができる。
In a high lightness region of an image, a CCD image sensor, which is a general image reading element, has a large sensitivity variation, and the hue is easily influenced by the hue of the background during reading. According to the present invention, by using a chromaticity histogram that focuses on pixels with low brightness and reflects the brightness of the pixels, it is possible to reduce the above sensitivity variations and the influence of the background. It is possible to improve the detection accuracy of the specific image in the read and input image.

【0016】[0016]

【実施例】【Example】

<実施例1>本実施例では、画像識別のために1次元特
徴量であるRの色度ヒストグラムを用いる。本実施例に
係るシステム構成を図1に示す。
<Example 1> In this example, a chromaticity histogram of R, which is a one-dimensional feature amount, is used for image identification. A system configuration according to this embodiment is shown in FIG.

【0017】図1において、カラー画像入力装置(カラ
ースキャナ)100によって、カラー画像がRGBデー
タとして入力される。入力画像の例を図2に模式的に示
す。この入力画像において、A1,A2が検出したい特
定の画像の部分である。
In FIG. 1, a color image input device (color scanner) 100 inputs a color image as RGB data. An example of the input image is schematically shown in FIG. In this input image, A1 and A2 are specific image portions to be detected.

【0018】図1において、R色度算出部101では、
入力画像のRGBデータから、例えば次式 r=255×R/(R+G+B) によって各画素のRの色度rを算出し、算出したR色度
データを順次、マッチング部102へ入力する。
In FIG. 1, in the R chromaticity calculation unit 101,
From the RGB data of the input image, for example, the chromaticity r of R of each pixel is calculated by the following equation r = 255 × R / (R + G + B), and the calculated R chromaticity data is sequentially input to the matching unit 102.

【0019】マッチング部102において、入力された
R色度のヒストグラム(1次元の特徴量)103を作成
する。R色度算出部101で入力画像の全てのR色度の
算出処理を終了し、マッチング部102でのRの色度ヒ
ストグラム103の作成処理が終了すると、次にマッチ
ング部102はマッチング処理を開始する。ここでは図
3の(a)に示すようなR色度ヒストグラムが得られた
とする。
In the matching unit 102, a histogram (one-dimensional feature amount) 103 of the input R chromaticity is created. When the R chromaticity calculation unit 101 finishes the calculation process of all R chromaticity of the input image and the matching unit 102 finishes the creation process of the R chromaticity histogram 103, the matching unit 102 then starts the matching process. To do. Here, it is assumed that the R chromaticity histogram as shown in FIG. 3A is obtained.

【0020】マッチング処理では、まず、検出したい特
定画像の辞書104中の特徴量(R色度ヒストグラム)
の各次元の値を定数倍(ここでは0倍、1倍、2倍、3
倍、4倍)した特徴量を作成する。ここでは、辞書10
4中の特徴量が図3の(c)に示すようなものであった
とすると、図3の(b)乃至(f)に示すような特徴量
が作成されることになる。
In the matching process, first, the feature amount (R chromaticity histogram) in the dictionary 104 of the specific image to be detected.
The value of each dimension of is multiplied by a constant (here, 0 times, 1 times, 2 times, 3
2 times, 4 times) feature quantities are created. Here, the dictionary 10
If the feature quantity in 4 is as shown in (c) of FIG. 3, the feature quantities as shown in (b) to (f) of FIG. 3 are created.

【0021】そして、定数倍(0倍,1倍,2倍,3
倍,4倍)した特徴量のそれぞれについて、入力画像の
R色度ヒストグラム103との差分を計算し、それを各
倍数の特徴量との相違度とする。図3に示す例では、相
違度は<表1>のようになる。
Then, a constant multiple (0 times, 1 times, 2 times, 3
For each of the feature amounts multiplied by 4 and 4, the difference from the R chromaticity histogram 103 of the input image is calculated, and the difference is used as the degree of difference from the feature amount of each multiple. In the example shown in FIG. 3, the dissimilarity is as shown in Table 1.

【0022】[0022]

【表1】 [Table 1]

【0023】最後に、0倍から4倍までの各特徴量のう
ちで、入力画像のR色度ヒストグラムとの相違度が最も
小さい特徴量に対応する倍数と、その相違度を出力デー
タ105として出力する。図3の例では、<表1>から
分かるように倍数が2の特徴量との相違度20が最小で
ある。これは、検出したい特定の画像が入力画像中に2
個(図2のA1,A2)存在することを意味する。
Finally, among the feature amounts from 0 to 4 times, the multiple corresponding to the feature amount having the smallest difference from the R chromaticity histogram of the input image and the difference thereof are set as the output data 105. Output. In the example of FIG. 3, as can be seen from <Table 1>, the degree of difference 20 with the feature amount having a multiple of 2 is the minimum. This is because the specific image you want to detect is 2
This means that there are individual pieces (A1 and A2 in FIG. 2).

【0024】なお、0倍した特徴量との相違度が最小の
場合、検出したい特定の画像が入力画像に存在しなかっ
たこことになる。
When the degree of difference from the 0-fold feature amount is the minimum, the specific image to be detected does not exist in the input image.

【0025】<実施例2>本実施例のシステム構成は前
記実施例1と同様でよいので、図1を用いて説明する。
前記実施例1と同様に、カラー画像入力装置100で画
像を入力し、R色度算出部101で入力画像の各画素の
R色度を求め、マッチング部102でR色度のヒストグ
ラム(特徴量)103を作成するとともに、辞書104
中の特徴量の各次元値を0倍、1倍、2倍、3倍、4倍
した特徴量を計算する。
<Embodiment 2> Since the system configuration of this embodiment may be the same as that of the above-mentioned Embodiment 1, it will be described with reference to FIG.
Similar to the first embodiment, an image is input by the color image input device 100, the R chromaticity of each pixel of the input image is calculated by the R chromaticity calculation unit 101, and the histogram of the R chromaticity (feature amount) is calculated by the matching unit 102. ) 103 and creates a dictionary 104
The feature amount obtained by multiplying the respective dimension values of the inside feature amount by 0 times, 1 time, 2 times, 3 times, and 4 times is calculated.

【0026】前記実施例1と相違する点は、マッチング
部102でのマッチング処理において、入力画像の特徴
量と辞書特徴量の定数倍(0倍乃至4倍)の特徴量との
類似度(相違度)を、図4に示すようなメンバシップ関
数を用いて次元毎に計算し、全次元の類似度の平均値を
最終的な類似度として算出することである。
The difference from the first embodiment is that in the matching process in the matching unit 102, the similarity (difference) between the feature amount of the input image and the feature amount which is a constant multiple (0 to 4 times) of the dictionary feature amount. Is calculated for each dimension using a membership function as shown in FIG. 4, and the average value of the similarity of all dimensions is calculated as the final similarity.

【0027】入力画像の特徴量と、辞書中の特徴量の定
数倍特徴量が図3の(a)乃至(f)に示すとおりであ
るとした場合、次元毎の類似度とその平均値は<表2>
に示すとおりである。
If the feature quantity of the input image and the feature quantity in the dictionary are a multiple of the feature quantity as shown in FIGS. 3A to 3F, the similarity for each dimension and its average value are <Table 2>
As shown in.

【0028】[0028]

【表2】 [Table 2]

【0029】辞書中の特徴量を1倍した特徴量と入力画
像の特徴量との各次元の類似度について若干説明する。
第1次元では、辞書側の値が5、入力画像側の値が10
であるので、類似度=1−(10−5)/10=0.5
である。第2次元では辞書側の値が10、入力画像側の
値が20であるので、類似度=1−(20−10)/1
0=0である。第3次元では、辞書側の値が20、入力
画像側の値が50であるので、類似度=1−(50−2
0)/10であるが、入力側の値が辞書側の値より大き
い場合にはメンバシップ値が負をとらないようにメンバ
シップ関数が定められているので、類似度=0となる。
第4次元では、類似度=1−(10−0)/10=0で
ある。
The degree of similarity between the feature amount obtained by multiplying the feature amount in the dictionary by 1 and the feature amount of the input image in each dimension will be briefly described.
In the first dimension, the value on the dictionary side is 5, and the value on the input image side is 10.
Therefore, the degree of similarity = 1− (10−5) /10=0.5
Is. In the second dimension, the value on the dictionary side is 10 and the value on the input image side is 20, so the degree of similarity = 1− (20−10) / 1.
0 = 0. In the third dimension, the value on the dictionary side is 20 and the value on the input image side is 50, so the similarity = 1- (50-2
Although 0) / 10, the membership function is determined so that the membership value does not take a negative value when the value on the input side is larger than the value on the dictionary side, so the similarity is 0.
In the fourth dimension, the similarity is 1- (10-0) / 10 = 0.

【0030】辞書中の特徴量を4倍した特徴量と入力画
像の特徴量とのマッチングの場合について説明する。第
1次元では、辞書側の値が20、入力画像側の値が10
であるので、類似度=1−(20−10)/10=0と
なる。第2次元では、類似度=1−(40−20)/1
0=−1.0となる。第3次元の類似度=1−(80−
50)/10=−2.0となる。第4次元の類似度=1
−(0−10)/10=0となる。
A case of matching the feature amount obtained by multiplying the feature amount in the dictionary by four with the feature amount of the input image will be described. In the first dimension, the value on the dictionary side is 20, and the value on the input image side is 10.
Therefore, the similarity becomes 1− (20−10) / 10 = 0. In the second dimension, similarity = 1− (40−20) / 1
0 = -1.0. Third-dimensional similarity = 1− (80−
50) /10=−2.0. Fourth-dimensional similarity = 1
-(0-10) / 10 = 0.

【0031】以上のようにして算出した平均類似度が最
大の辞書特徴量の倍数と、その平均類似度を、マッチン
グ結果として出力する。図3に示した例では、<表2>
から明らかなように倍数2(検出したい特定の画像が入
力画像中に2箇所存在したことを意味する)と、類似度
0.5が出力される。
The multiple of the dictionary feature value having the maximum average similarity calculated as described above and the average similarity are output as the matching result. In the example shown in FIG. 3, <Table 2>
As is clear from the above, a multiple of 2 (meaning that there are two specific images to be detected in the input image) and a similarity of 0.5 is output.

【0032】なお、図4に示すメンバシップ関数のよう
な、入力画像の特徴量が、辞書中の特徴量の各倍数を掛
け合わせた特徴量より大きい場合に、メンバシップ値
(各次元の類似度)が負にならないメンバシップ関数を
用いることは、検出したい特定の画像が複数、同じ色空
間中に存在する場合に、色空間中で混在している部分の
画素数が乱れることによる一致度の低下を抑えることが
できる、という利益をもたらす。(なお、入力画像の特
徴量が辞書の特徴量より不足する場合は、検出したい画
像が存在しないことは明確であるので、メンバシップ値
が負の値をとることがある。) <実施例3>本実施例に係るシステム構成は前記実施例
1,2と同様でよい。画像入力からR色度ヒストグラム
の作成までの処理、マッチング処理での辞書中の特徴量
の定数倍の特徴量の作成までは前記実施例2と同一であ
る。
When the feature amount of the input image, such as the membership function shown in FIG. 4, is larger than the feature amount obtained by multiplying each multiple of the feature amount in the dictionary, the membership value (similarity of each dimension) is obtained. If a specific image to be detected exists in the same color space, the number of pixels in the mixed part in the color space is disturbed, and the membership function that does not become negative is used. The benefit is that the decline in (If the feature amount of the input image is less than the feature amount of the dictionary, it is clear that the image to be detected does not exist, so the membership value may take a negative value.) <Example 3 > The system configuration according to the present embodiment may be the same as in the first and second embodiments. The process from image input to the creation of the R chromaticity histogram and the creation of the feature amount that is a constant multiple of the feature amount in the dictionary in the matching process are the same as in the second embodiment.

【0033】マッチング処理において、図4に示したメ
ンバシップ関数を用いて、入力画像の特徴量と、辞書の
定数倍の特徴量との類似度を算出するることも前記実施
例2と同様であるが、実施例2と異なる点は、辞書中の
特徴量の値が0の次元については、類似度算出の際に無
視することである。例えば図3(b)乃至(f)に示す
特徴量の第4次元についてはマッチング処理を行なわな
い。したがって、図3の(a)に示した入力画像の特徴
量と、(b)乃至(f)に示した辞書中の特徴量の定数
倍の特徴量とについては、<表3>に示す類似度が得ら
れる。この無視した次元(この例では第4次元)は、類
似度の平均を計算する際にも無視することは当然であ
る。
In the matching process, the membership function shown in FIG. 4 is used to calculate the similarity between the feature amount of the input image and the feature amount that is a constant multiple of the dictionary, as in the second embodiment. However, the difference from the second embodiment is that the dimension of which the value of the feature amount in the dictionary is 0 is ignored in the similarity calculation. For example, the matching process is not performed for the fourth dimension of the feature amount shown in FIGS. 3B to 3F. Therefore, the feature amount of the input image shown in FIG. 3A and the feature amount which is a constant multiple of the feature amount in the dictionary shown in FIGS. 3B to 3F are similar to those shown in Table 3. You get a degree. It is natural that the ignored dimension (the fourth dimension in this example) is also ignored when calculating the average similarity.

【0034】[0034]

【表3】 [Table 3]

【0035】この例では、全次元の類似度平均が最大の
倍数2(検出画素個数)と、類似度0.667が出力デ
ータ105として出力される。
In this example, a multiple of 2 (the number of detected pixels) having the maximum average of the similarity in all dimensions and a similarity of 0.667 are output as the output data 105.

【0036】<実施例4>本実施例に係るシステム構成
を図5に示す。図5において、カラー画像入力装置(カ
ラースキャナ)500によりカラー画像をRGBデータ
として有効画像抽出部501へ入力する。
<Fourth Embodiment> FIG. 5 shows a system configuration according to the present embodiment. In FIG. 5, a color image input device (color scanner) 500 inputs a color image as RGB data to the effective image extraction unit 501.

【0037】有効画素抽出部501では、入力したRG
Bデータから、各画素の明度Lを次の式に従って算出す
る。 L=(R+G+B)/3 そして、有効画素抽出部501は、明度Lが、ある所定
の閾値Lthより小さい画素を有効画素と判断し、当該画
素のRGBデータをR色度算出部502及びG色度算出
部503へ入力する。しかし、明度が閾値Lth以上の画
素については、当該画素のRGBデータをR,G色算出
部502へは入力せず、Rの色度及びGの色度の値とし
て0を色度バッファ504へ出力する。
In the effective pixel extraction unit 501, the input RG
From the B data, the brightness L of each pixel is calculated according to the following formula. L = (R + G + B) / 3 Then, the effective pixel extraction unit 501 determines a pixel whose brightness L is smaller than a predetermined threshold value Lth as an effective pixel, and determines the RGB data of the pixel as the R chromaticity calculation unit 502 and the G color. Input to the degree calculation unit 503. However, for a pixel whose brightness is equal to or higher than the threshold value Lth, the RGB data of the pixel is not input to the R and G color calculation unit 502, and 0 is set to the chromaticity buffer 504 as the values of R chromaticity and G chromaticity. Output.

【0038】R色度算出部502は、有効画素抽出部5
01により入力した有効画素のRGBデータから、次式
によりRの色度rを算出し、それを色度バッファ504
へ出力する。 r=255R/(R+G+B)
The R chromaticity calculation unit 502 has an effective pixel extraction unit 5
The chromaticity r of R is calculated from the RGB data of the effective pixel input by 01 by the following equation, and the calculated chromaticity r is
Output to. r = 255R / (R + G + B)
.

【0039】G色度算出部503は、有効画素抽出部5
01より入力した有効画素のRGBデータから、次式に
よりGの色度gを算出し、それを色度バッファ504へ
出力する。 g=255G/(R+G+B) したがって、色度バッファ504内に入力画像の各画素
に対するR,G色度データが得られる。ただし、有効画
素以外の画素のR,G色度は全て0である。
The G chromaticity calculation unit 503 has an effective pixel extraction unit 5
The chromaticity g of G is calculated by the following equation from the RGB data of the effective pixel input from 01 and is output to the chromaticity buffer 504. g = 255G / (R + G + B) Therefore, R and G chromaticity data for each pixel of the input image is obtained in the chromaticity buffer 504. However, the R and G chromaticities of pixels other than the effective pixel are all 0.

【0040】周辺有効画素数算出部505は、色度バッ
ファ504内の色度データを参照することにより、有効
画素別色度ヒストグラム506を作成する。この有効画
素別色度ヒストグラム506は、有効画素有色度ヒスト
グラム506aと、有効画素無色度ヒストグラム506
bの二つからなる。各ヒストグラムは、図6に示すよう
な2次元ヒストグラムである。
The peripheral effective pixel number calculation unit 505 creates a chromaticity histogram for each effective pixel 506 by referring to the chromaticity data in the chromaticity buffer 504. The effective pixel chromaticity histogram 506 includes an effective pixel chromaticity histogram 506a and an effective pixel colorlessness histogram 506.
It consists of two of b. Each histogram is a two-dimensional histogram as shown in FIG.

【0041】周辺有効画素数算出部505は、色度バッ
ファ504内の色度データより、Rの色度、Gの色度の
少なくとも一方が0でない画素(注目画素と呼ぶ)を検
出して、その注目画素を中心とする円の円周上に、Rの
色度、Gの色度の少なくとも一方が0でない画素がいく
つ存在するか数え、その数だけ、有効画素有色度ヒスト
グラム506a上の注目画素のR,Gの色度に対応する
r,g座標の値をインクリメントする。また、注目画素
を中心とする円の円周上の画素のうち、Rの色度、Gの
色度のいずれも0の画素がいくつあるか数え、その数だ
け、有効画素無色度ヒストグラム506b上の注目画素
のR,Gの色度に対応するr,g座標の値をインクリメ
ントする。
From the chromaticity data in the chromaticity buffer 504, the peripheral effective pixel number calculation unit 505 detects a pixel in which at least one of R chromaticity and G chromaticity is not 0 (called a target pixel), Count the number of pixels in which at least one of R chromaticity and G chromaticity is not 0 on the circumference of a circle centered on the pixel of interest, and pay attention to that number on the effective pixel chromaticity histogram 506a. The values of the r and g coordinates corresponding to the R and G chromaticities of the pixel are incremented. In addition, among the pixels on the circumference of the circle centered on the pixel of interest, the number of pixels in which both the R chromaticity and the G chromaticity are 0 is counted, and the number of pixels is counted on the effective pixel colorlessness histogram 506b. The values of the r and g coordinates corresponding to the R and G chromaticities of the target pixel of are increased.

【0042】このようなヒストグラム作成の例を図6に
より説明する。図6の(a)は色度バッファ504の内
容の例を模式的に示している。黒(線)の部分が有効画
素に対応し、白地の部分が有効画素以外のr=0,g=
0の画素に対応する。Xは注目画素で、ここではr=9
5,g=88とされている。注目画素Xを中心とした円
の円周Y上に84個の画素が存在し、この84画素中の
15画素はrまたはgが0でない画素で、69画素は
r,gが共に0の画素であるとする。この場合、図6の
(b)に示すように有効画素有色度ヒストグラム506
a上のr=95,g=88の座標の値に15を加算し、
図6の(c)に示すように有効画素無色度ヒストグラム
506bのr=95,g=88の座標の値に69を加算
する。
An example of creating such a histogram will be described with reference to FIG. FIG. 6A schematically shows an example of the contents of the chromaticity buffer 504. The black (line) part corresponds to the effective pixel, and the white part is r = 0, g = other than the effective pixel.
Corresponds to 0 pixel. X is the pixel of interest, where r = 9
5, g = 88. There are 84 pixels on the circumference Y of the circle centered on the pixel of interest X. Of these 84 pixels, 15 pixels are pixels in which r or g is not 0, and 69 pixels are pixels in which both r and g are 0. Suppose In this case, the effective pixel chromaticity histogram 506 as shown in FIG.
Add 15 to the coordinate value of r = 95, g = 88 on a,
As shown in FIG. 6C, 69 is added to the coordinate values of r = 95 and g = 88 of the effective pixel colorlessness histogram 506b.

【0043】検出画像辞書508には、検出したい特定
の画像に対して同様に方法によって作成された特徴量
(有効画素別色度ヒストグラム)が特徴量として格納さ
れている。マッチング部507では、辞書508中の特
徴量の定数倍(0倍,1倍,2倍,3倍,4倍)の特徴
量と、入力画像の特徴量(有効画素別色度ヒストグラム
506)との間のマッチングを行なう。このマッチング
処理では、前記実施例1,2または3と同様の方法で
(本実施例と前記実施例1,2,3とでは特徴量が2次
元の特徴量と1次元の特徴量との違いはあるが)、対応
した値毎に相違度または類似度を算出し、その平均が最
小(相違度の場合)または最小(類似度)となった特徴
量の倍数とその平均相違度または平均類似度を出力デー
タ509として出力する。
The detected image dictionary 508 stores, as a characteristic amount, a characteristic amount (chromaticity histogram for each effective pixel) created by the same method for a specific image to be detected. In the matching unit 507, the feature amount that is a constant multiple (0 times, 1 time, 2 times, 3 times, 4 times) of the feature amount in the dictionary 508, and the feature amount of the input image (chromaticity histogram for each effective pixel 506) Match between. In this matching process, the same method as in the first, second or third embodiment is used (the difference between the two-dimensional feature amount and the one-dimensional feature amount in the present embodiment and the first, second or third embodiment). However, the dissimilarity or similarity is calculated for each corresponding value, and the multiple of the feature amount whose average is the minimum (in the case of dissimilarity) or the minimum (similarity) and its average dissimilarity or average similarity. The degree is output as output data 509.

【0044】本実施例における上述の如き特徴量抽出方
法によれば、少ない次元数で色の特徴量とテクスチャの
特徴量を抽出することができる。しかも、基本的に明度
の低い画素の色度ヒストグラムであるので、画像読取時
のCCDイメージセンサの感度ばらつきや背景の影響が
抑えられる。したがって、イメージスキャナ等によって
入力された画像中の特定の画像を極めて精度よく検出す
ることができる。
According to the feature amount extraction method as described above in this embodiment, the color feature amount and the texture feature amount can be extracted with a small number of dimensions. Moreover, since it is basically a chromaticity histogram of pixels with low lightness, variations in sensitivity of the CCD image sensor at the time of image reading and influence of the background can be suppressed. Therefore, it is possible to detect the specific image in the image input by the image scanner or the like with extremely high accuracy.

【0045】[0045]

【発明の効果】以上の説明から明らかなように、本発明
によれば、特定のカラー画像を精度よく検出することか
ぎできる。入力画像中に含まれる特定画像の数が任意で
あっても、特定画像が存在すること、さらには、その個
数を簡単に検出することができる。カラースキャナ等の
画像読取装置より入力されたカラー画像中の特定の画像
を精度よく検出することができる。等の効果を達成でき
る。
As is apparent from the above description, according to the present invention, it is possible to detect a specific color image with high accuracy. Even if the number of specific images included in the input image is arbitrary, it is possible to easily detect the existence of the specific images and further the number thereof. It is possible to accurately detect a specific image in a color image input from an image reading device such as a color scanner. It is possible to achieve such effects.

【図面の簡単な説明】[Brief description of drawings]

【図1】実施例1,2及び3に係るシステム構成の例を
示すブロック図である。
FIG. 1 is a block diagram showing an example of a system configuration according to Examples 1, 2, and 3.

【図2】実施例1,2及び3の説明のための入力画像の
例を示す図である。
FIG. 2 is a diagram showing an example of an input image for explaining Embodiments 1, 2, and 3.

【図3】(a)乃至(f) 実施例1,2及び3の説明
のための入力画像の特徴量の例と辞書中の特徴量を定数
倍した特徴量の例を示す図である。
FIGS. 3A to 3F are diagrams showing an example of a feature amount of an input image and an example of a feature amount obtained by multiplying a feature amount in a dictionary by a constant, for explaining the first, second, and third embodiments.

【図4】実施例2及び3における類似度算出のためのメ
ンバシップ関数の例を示す図である。
FIG. 4 is a diagram showing an example of a membership function for calculating the degree of similarity in the second and third embodiments.

【図5】実施例4に係るシステム構成の例を示すブロッ
ク図である。
FIG. 5 is a block diagram showing an example of a system configuration according to a fourth embodiment.

【図6】(a)乃至(c) 実施例4における入力画像
の特徴量抽出の説明のための図である。
6A to 6C are diagrams for explaining extraction of a feature amount of an input image according to the fourth embodiment.

【符号の説明】[Explanation of symbols]

100 カラー画像入力装置 101 R色度算出部 102 マッチング部 103 R色度ヒストグラム 104 検出画像辞書 105 出力データ 500 カラー画像入力装置 501 有効画素抽出部 502 R色度算出部 503 G色度算出部 504 色度バッファ 505 周辺有効画素数算出部 506 有効画素別色度ヒストグラム 506a 有効画素有色度ヒストグラム 506b 有効画素無色度ヒストグラム 507 マッチング部 508 検出画像辞書 509 出力データ 100 color image input device 101 R chromaticity calculation unit 102 matching unit 103 R chromaticity histogram 104 detected image dictionary 105 output data 500 color image input device 501 effective pixel extraction unit 502 R chromaticity calculation unit 503 G chromaticity calculation unit 504 colors Degree buffer 505 peripheral effective pixel number calculation unit 506 chromaticity histogram for each effective pixel 506a effective pixel chromaticity histogram 506b effective pixel colorlessness histogram 507 matching unit 508 detected image dictionary 509 output data

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 入力画像データより特定の画像を検出す
る方法であって、入力画像データより求めた特徴量と、
特定の画像に対して予め辞書として用意された特徴量を
定数倍した特徴量のそれぞれとのマッチングを行なうこ
とを特徴とする特定画像検出方法。
1. A method for detecting a specific image from input image data, comprising: a feature amount obtained from the input image data;
A specific image detecting method characterized in that matching is performed with a specific image obtained by multiplying a specific amount of a feature value prepared in advance as a dictionary with a specific image.
【請求項2】 辞書としての特徴量の各定数倍した特徴
量の中で、最もよくマッチした特徴量の倍数を、特定画
像の個数とすることを特定とする請求項1記載の特定画
像検出方法。
2. The specific image detection according to claim 1, wherein among the feature amounts obtained by multiplying the feature amount as a dictionary by each constant, a multiple of the feature amount that is best matched is specified as the number of the specific images. Method.
【請求項3】 辞書としての特徴量の値が0の次元は、
入力画像データの特徴量とのマッチングの対象から除外
することを特徴とする請求項1または2記載の特定画像
検出方法。
3. A dimension having a feature value of 0 as a dictionary is
3. The specific image detection method according to claim 1, wherein the specific image detection is excluded from the target of matching with the feature amount of the input image data.
【請求項4】 特徴量間のマッチングの際の次元毎の類
似度の算出に、辞書としての特徴量よりも入力画像デー
タの特徴量が大きい場合にはメンバシップ値を0以上と
するメンバシップ関数を用いることを特徴とする請求項
1、2または3記載の特定画像検出方法。
4. A membership in which a membership value is set to 0 or more when the feature amount of input image data is larger than the feature amount as a dictionary in calculating the similarity for each dimension when matching between feature amounts. The specific image detecting method according to claim 1, 2 or 3, wherein a function is used.
【請求項5】 特徴量として色度ヒストグラムを用いる
ことを特徴とする請求項1乃至4のいずれか1項に記載
の特定画像検出方法。
5. The specific image detection method according to claim 1, wherein a chromaticity histogram is used as the characteristic amount.
【請求項6】 特徴量として画素の明度の高低を反映さ
せた色度ヒストグラムを用いることを特徴とする請求項
1乃至4のいずれか1項に記載の特定画像検出方法。
6. The specific image detection method according to claim 1, wherein a chromaticity histogram reflecting the brightness of pixels is used as the characteristic amount.
【請求項7】 入力画像データより特定の画像を検出す
る方法であって、入力画像データより求めた色度ヒスト
グラムと、特定の画像に対して予め辞書として用意され
た色度ヒストグラムとのマッチングを行なうことを特徴
とする特定画像検出方法。
7. A method for detecting a specific image from input image data, which comprises matching a chromaticity histogram obtained from the input image data with a chromaticity histogram prepared in advance as a dictionary for the specific image. A method for detecting a specific image, which is characterized by performing.
【請求項8】 画素の明度の高低を反映した色度ヒスト
グラムを用いることを特徴とする請求項7記載の特定画
像検出方法。
8. The method for detecting a specific image according to claim 7, wherein a chromaticity histogram reflecting the brightness of pixels is used.
JP22127993A 1993-09-06 1993-09-06 Specific image detection method Expired - Fee Related JP3344782B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP22127993A JP3344782B2 (en) 1993-09-06 1993-09-06 Specific image detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP22127993A JP3344782B2 (en) 1993-09-06 1993-09-06 Specific image detection method

Publications (2)

Publication Number Publication Date
JPH0773325A true JPH0773325A (en) 1995-03-17
JP3344782B2 JP3344782B2 (en) 2002-11-18

Family

ID=16764296

Family Applications (1)

Application Number Title Priority Date Filing Date
JP22127993A Expired - Fee Related JP3344782B2 (en) 1993-09-06 1993-09-06 Specific image detection method

Country Status (1)

Country Link
JP (1) JP3344782B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6919924B1 (en) 1998-03-09 2005-07-19 Fuji Photo Film Co., Ltd. Image processing method and image processing apparatus
US8693743B1 (en) 2010-02-19 2014-04-08 Olive Tree Media, LLC Analysis and display of multiple biomarker co-expression in cells and tissues

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6919924B1 (en) 1998-03-09 2005-07-19 Fuji Photo Film Co., Ltd. Image processing method and image processing apparatus
US8693743B1 (en) 2010-02-19 2014-04-08 Olive Tree Media, LLC Analysis and display of multiple biomarker co-expression in cells and tissues

Also Published As

Publication number Publication date
JP3344782B2 (en) 2002-11-18

Similar Documents

Publication Publication Date Title
CN105339951B (en) Method for detecting document boundaries
US7657090B2 (en) Region detecting method and region detecting apparatus
US7539344B2 (en) Boundary detection method between areas having different features in image data
US6757426B2 (en) System and method for image processing by automatic color dropout
US6985631B2 (en) Systems and methods for automatically detecting a corner in a digitally captured image
US6711286B1 (en) Method for blond-hair-pixel removal in image skin-color detection
US20040042680A1 (en) System and method for enhancement of document images
US20080187220A1 (en) Device and method for fast computation of region based image features
US20050249430A1 (en) Image quality improving apparatus and method
CN109190617B (en) Image rectangle detection method and device and storage medium
EP1766554A1 (en) Identification of acquisition devices from digital images
CN108389215A (en) A kind of edge detection method, device, computer storage media and terminal
WO2019210707A1 (en) Image sharpness evaluation method, device and electronic device
CN107516111A (en) A kind of vending machine short supply detection method and device
US20050248664A1 (en) Identifying red eye in digital camera images
JPH0773325A (en) Specified image detecting method
US5825916A (en) Illuminant color detection
JP2003087562A (en) Image processor and image processing method
JP3508836B2 (en) Apparatus and method for detecting approximate position of two-dimensional code
de Melo et al. Improving feature point detection in high dynamic range images
JPH0773326A (en) Method for detecting specified image and preventing specified image from being copied
JPH07287736A (en) Article identifying system
US20240185562A1 (en) Method for detecting an object in a search image, method for generating a pattern vector, and use of a method for determining a position and/or orientation of a security element of a banknote
US7054486B2 (en) Image processing method, system, computer program and data carrier
JP3417621B2 (en) Specific image detection method and specific image detection device

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080830

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080830

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090830

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090830

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100830

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees