JP2006172381A - Image observation method and device for performing the same method - Google Patents

Image observation method and device for performing the same method Download PDF

Info

Publication number
JP2006172381A
JP2006172381A JP2004367597A JP2004367597A JP2006172381A JP 2006172381 A JP2006172381 A JP 2006172381A JP 2004367597 A JP2004367597 A JP 2004367597A JP 2004367597 A JP2004367597 A JP 2004367597A JP 2006172381 A JP2006172381 A JP 2006172381A
Authority
JP
Japan
Prior art keywords
image
target area
target
color distance
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004367597A
Other languages
Japanese (ja)
Inventor
Koichi Shimada
耕一 嶋田
Takehito Okumura
剛人 奥村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
DKK TOA Corp
Original Assignee
DKK TOA Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by DKK TOA Corp filed Critical DKK TOA Corp
Priority to JP2004367597A priority Critical patent/JP2006172381A/en
Publication of JP2006172381A publication Critical patent/JP2006172381A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a method and a device of observing an image which divides an object area of a color distance image into binary by a single color distance threshold. <P>SOLUTION: In this image observation method and the device, when an observation object area is extracted by dividing a surface image of an observation object into object areas with similar hue, structure for converting RGB signals of the surface image obtained by picking up the surface image into a numeric value called as a color distance to convert the surface image into the color distance image and dividing the object area of the color distance image into binary by a single set color distance threshold is adopted, though three thresholds are required in a conventional method for decomposing the RGB signals into a luminance signal and a chromaticity signal, performing the image processing of the luminance signal to divide the object area, a single color distance threshold suffices for a threshold, the color distance threshold creates color distance histogram in each object area frame and the color distance threshold suitable for the extraction and division processing of the object area is properly set using an inflection point of the histogram as a guidepost. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

この発明は、画像観測方法およびこの方法を実施する装置に関し、特に、観測目標物の表面画像を色相の類似した目標領域に分割して観測目標領域の抽出をするに際して、CCDカラーカメラで撮像して得られた表面画像のRGB信号を色距離と呼ばれる数値に変換して表面画像を色距離画像に変換し、この色距離画像の目標領域を設定された単一の色距離閾値で2値に区分する構成を採用する画像観測方法およびこの方法を実施する装置に関する。   The present invention relates to an image observation method and an apparatus for performing the method, and in particular, when extracting an observation target area by dividing a surface image of an observation target into target areas having similar hues, the image is captured by a CCD color camera. The RGB signal of the surface image obtained is converted into a numerical value called color distance to convert the surface image into a color distance image, and the target area of this color distance image is binarized with a set single color distance threshold. The present invention relates to an image observation method that employs a segmenting configuration and an apparatus that implements the method.

一般に、画像の観測において抽出したい図形パターンの観測目標領域は、特定の色、特定の形状に固定することができるのはまれであり、通常は、複数の色、複数の形状の目標領域の組み合わせであるものと予測される。この複数の目標領域を抽出してこれら複数の目標領域の組み合わせにより目標図形パターンを認識することができる。この目標領域の個数を多数とすれば、観測目標領域はより正確に目標図形パターンに近似するに到る。なお、一般に、カメラにより撮像され、電子的に2値化された画像中の人間の顔を自動的に見いだし、或いは顔の特徴を調べて顔の存在を確認する技術は特許文献1に開示されている。   In general, it is rare that the observation target area of a graphic pattern to be extracted in image observation can be fixed to a specific color or a specific shape, and usually a combination of target areas of multiple colors and multiple shapes. It is predicted that The target graphic pattern can be recognized by extracting the plurality of target areas and combining the plurality of target areas. If the number of target areas is large, the observation target area can be approximated more accurately to the target graphic pattern. In general, a technique for automatically finding a human face in an image that has been captured by a camera and electronically binarized, or checking the characteristics of the face to confirm the presence of the face is disclosed in Patent Document 1. ing.

観測目標物の表面を撮像したカラー画像を色相の類似した目標領域に分割するに際して、CCDカメラの対物レンズの前にR(赤)、G(緑)、B(青)の3種類のフィルタを配置し、これらを切り換えることにより、R(赤)、G(緑)、B(青)について、8ビットR輝度信号と、8ビットG輝度信号と、8ビットB輝度信号の3輝度信号を組み合わせた、RGB信号と呼ばれる3次元ベクトルの24ビット信号を、CCDカラーカメラから出力している。
CCDカラーカメラの24ビットのRGB信号出力は、次いで、R(赤)、G(緑)、B(青)の色別に分割して3枚のモノクロ画像に処理することが行われている。
特開2002−203239
When dividing a color image obtained by imaging the surface of an observation target into target areas having similar hues, three types of filters R (red), G (green), and B (blue) are placed in front of the objective lens of the CCD camera. By arranging and switching these, for R (red), G (green), and B (blue), an 8-bit R luminance signal, an 8-bit G luminance signal, and an 8-bit B luminance signal are combined. In addition, a 24-bit signal of a three-dimensional vector called an RGB signal is output from the CCD color camera.
The 24-bit RGB signal output of the CCD color camera is then divided into R (red), G (green), and B (blue) colors and processed into three monochrome images.
JP 2002-203239 A

ところで、カラー画像を目標領域に分割する仕方として、24ビットのRGB信号をYCrCb信号と呼ばれている輝度信号および色度信号に分解し、輝度信号を画像処理して領域分割する方法もある。しかし、この方法は、実質上、モノクロ画像として領域分割をしているに過ぎず、色情報は使用せず削除されることになる。即ち、元の画像はカラー画像でありながら、カラー画像の領域分割は、モノクロ画像に変換して2値化閾値を設定して白か黒かを判定することにより行われていた。この方法においては、カラー画像を領域分割しようとすると、閾値として3つの閾値を必要とし、各閾値に輝度&色相&彩度の意味を持たせた設定をすることはできないからである。   By the way, as a method of dividing a color image into target regions, there is a method in which a 24-bit RGB signal is decomposed into luminance signals and chromaticity signals called YCrCb signals, and the luminance signals are subjected to image processing and divided into regions. However, in this method, the area is substantially divided as a monochrome image, and the color information is not used and is deleted. That is, although the original image is a color image, the area division of the color image is performed by converting to a monochrome image and setting a binarization threshold value to determine whether it is white or black. This is because, in this method, when a color image is divided into regions, three threshold values are required as threshold values, and it is impossible to set each threshold value to have the meaning of luminance, hue, and saturation.

この発明は、RGB信号を色距離と呼ばれる数値に変換してカラー画像を色距離画像に変換し、色距離画像を単一の適正な色距離閾値を設定してこれにより2値化することにより目標領域を区分する構成を採用して、上述の問題を解消した画像観測方法およびこの方法を実施する装置を提供するものである。   The present invention converts RGB signals into numerical values called color distances to convert a color image into a color distance image, and binarizes the color distance image by setting a single appropriate color distance threshold. The present invention provides a method for observing an image and a device for implementing the method, in which a configuration for dividing a target area is adopted to solve the above-described problems.

請求項1:CCDカラーカメラで撮像して得られた表面画像のRGB信号を色距離に変換して目標領域を単一の色距離閾値で2値化して、観測目標物の表面画像の色相の類似した目標領域に分割する画像観測方法を構成した。
そして、請求項2:(S0) 画像をR、G、Bの3つの色別に撮像入力し、
(S1) RGB画像をカラーモニタに表示し、
(S2) 単色の目標領域1、2、3の複合体になる様に目標領域1、2、3を矩形枠で囲み、
(S3) 矩形枠で囲まれた領域の色をサンプリング画素を囲こみ、目標領域の基準色R000 値を設定し、
(S4) 撮像入力した画像を目標領域の基準色R000 との間の色距離画像に変換し、
(S5) 矩形枠で囲まれた領域画素の色距離をヒストグラムに表示し、
(S7) ヒストグラムの変曲点を目安にして目標領域分割に適した色距離閾値を設定し、
(S8) 矩形枠で囲まれた領域を色距離で2値化し、モニタに表示し、
(S9) モニタを参照して色距離閾値を調節して、S2〜S9を繰り返し、
(S10) 目標領域の面積を演算し、
(S11) 目標領域の重心位置を演算し、
(S12) 図形プロパティをグルーピングされる図形番号、グループ内相対位置、面積、面積比率、基準色R000 、色距離閾値、目標領域枠、を登録する、画像観測方法を構成した。
Claim 1: The RGB signal of a surface image obtained by imaging with a CCD color camera is converted into a color distance, and the target area is binarized with a single color distance threshold value, so that the hue of the surface image of the observation target is obtained. An image observation method to divide into similar target areas was constructed.
And (2): (S0) The image is imaged and input for each of the three colors R, G, B,
(S1) Display the RGB image on the color monitor,
(S2) The target areas 1, 2 and 3 are surrounded by a rectangular frame so as to be a composite of the monochromatic target areas 1, 2 and 3.
(S3) Surrounding the sampling pixel with the color of the area surrounded by the rectangular frame, setting the reference color R 0 G 0 B 0 value of the target area,
(S4) The captured image is converted into a color distance image between the target area and the reference color R 0 G 0 B 0 ,
(S5) Display the color distance of the region pixels surrounded by the rectangular frame on the histogram,
(S7) A color distance threshold suitable for target area division is set using the inflection point of the histogram as a guide,
(S8) The region surrounded by the rectangular frame is binarized by the color distance, displayed on the monitor,
(S9) Refer to the monitor to adjust the color distance threshold, repeat S2 to S9,
(S10) Calculate the area of the target area,
(S11) Calculate the gravity center position of the target area,
(S12) The image observation method is configured to register the figure number, the relative position in the group, the area, the area ratio, the reference color R 0 G 0 B 0 , the color distance threshold value, and the target area frame as grouping figure properties.

また、請求項3:(S0’) 画像をR、G、Bの3つの色別に撮像入力し、
(S1’) RGB画像をカラーモニタに表示し、
(S2’) 撮像入力した画像を目標領域の基準色R000 との間の色距離画像に変換し、
(S4’) 矩形枠で囲まれた領域を補正された色距離閾値で2値化し、
(S5’) 目標領域面積を演算し、
(S6’) 目標領域重心位置を演算し、
(S7’) 基準色R000 、面積、重心位置をプロパティとして目標領域レイヤを構成し、
(S8”) 目標領域レイヤを検索して登録図形グループの構成要素を重ね合わせ図形パターン領域レイヤを作成し、
(S9’) 図形パターン或いは目標領域レイヤと撮像入力したカラー画像を掛け合わせて目標図形パターンを抽出する、画像観測方法を構成した。
Claim 3: (S0 ') The image is input for each of three colors R, G, and B,
(S1 ′) Display the RGB image on the color monitor,
(S2 ′) The captured and input image is converted into a color distance image between the reference color R 0 G 0 B 0 of the target area,
(S4 ′) The region surrounded by the rectangular frame is binarized with the corrected color distance threshold,
(S5 ′) Calculate the target area,
(S6 ′) Calculate the target area centroid position,
(S7 ′) A target area layer is configured with the reference color R 0 G 0 B 0 , area, and barycentric position as properties,
(S8 ") Search for the target area layer, superimpose the components of the registered figure group, create a figure pattern area layer,
(S9 ′) An image observation method for extracting a target figure pattern by multiplying a figure pattern or a target area layer and a color image input by imaging is configured.

ここで、請求項4:撮像されたRGBカラー画像信号をR画像信号成分、G画像信号成分、B画像信号成分に分解して出力するCCDカラーカメラ100を具備し、
複数の目標領域1〜nにそれぞれ対応する設定値記憶部511〜51nを具備し、設定値記憶部511〜51nには目標領域それぞれのR000値、目標領域を区別するベース閾値、目標領域のサイズが格納され、
R画像信号成分、G画像信号成分、B画像信号成分が入力されると共に、対応する目標領域の設定値記憶部511〜51nからR000値が入力される各目標領域1〜nに対応する色距離演算回路521〜52nを具備し、これら色距離演算回路521〜52nにおいては各目標領域1〜nの各画素のRGB信号成分をR000基準値と比較して色距離の計算式により色距離を計算し、各目標領域の画像を色距離画像に変換し、
設定値記憶部511〜51nに設定記憶される目標領域サイズと色距離演算回路521〜52nから出力される色距離画像を入力してベース閾値の補正量を発生してこれをベース閾値に加算して補正された色距離閾値を生成するヒストグラム抽出フィルタ531ないし53nを目標領域1〜nに対応して具備し、
色距離画像を入力すると共に補正された色距離閾値を入力して目標領域の2値画像を生成する2値化回路541〜54nを目標領域1〜nに対応して具備し、
出力される2値画像およびR000値を記憶するレイヤ出力記憶部571〜57nを目標領域1〜nに対応して具備し、
目標領域の2値画像を入力して重心位置を計算する重心位置演算部551〜55nを目標領域1〜nに対応して具備し、
目標領域の2値画像を入力して面積を計算する面積演算部561〜nを目標領域1〜nに対応して具備し、
計算された重心位置および面積は直接出力される2値画像およびR000値と共に目標領域1〜n別のレイヤ構成で出力されてこれを記憶するレイヤ出力記憶部571〜57nを目標領域1〜nに対応して具備する画像観測装置を構成した。
Here, the present invention comprises a CCD color camera 100 that decomposes and outputs a captured RGB color image signal into an R image signal component, a G image signal component, and a B image signal component,
The set value storage units 511 to 51n respectively corresponding to the plurality of target regions 1 to n are provided, and the set value storage units 511 to 51n have R 0 G 0 B 0 values and target threshold values for distinguishing the target regions. , The size of the target area is stored,
The R image signal component, the G image signal component, and the B image signal component are input, and the target regions 1 to n to which the R 0 G 0 B 0 value is input from the corresponding target region setting value storage units 511 to 51n. The color distance calculation circuits 521 to 52n corresponding to the color distance calculation circuits 521 to 52n compare the RGB signal components of the pixels in the target regions 1 to n with the R 0 G 0 B 0 reference value. Calculate the color distance using the color distance formula, convert the image of each target area to a color distance image,
The target area size set and stored in the set value storage units 511 to 51n and the color distance image output from the color distance calculation circuits 521 to 52n are input to generate a correction amount for the base threshold value and add it to the base threshold value. Histogram correction filters 531 to 53n for generating corrected color distance thresholds corresponding to the target areas 1 to n,
A binarization circuit 541 to 54n that inputs a color distance image and inputs a corrected color distance threshold value to generate a binary image of the target area is provided corresponding to the target areas 1 to n.
Layer output storage units 571 to 57n for storing the output binary image and the R 0 G 0 B 0 value are provided corresponding to the target areas 1 to n,
A centroid position calculation unit 551 to 55n that inputs a binary image of the target area and calculates a centroid position corresponding to the target areas 1 to n,
Corresponding to the target areas 1 to n, area calculation units 561 to n that calculate the area by inputting a binary image of the target area,
The calculated barycentric position and area are output to the target region 1 to n in the layer configuration for each of the target regions 1 to n together with the directly output binary image and the R 0 G 0 B 0 value, and stored in the target layer output storage units 571 to 57n. An image observation apparatus provided corresponding to the regions 1 to n was configured.

RGB信号を輝度信号および色度信号に分解し、輝度信号を画像処理して目標領域分割を実施する従来の方法においては、分割に3個の閾値を必要としたのであるが、この発明に依れば、観測目標物の表面画像を色相の類似した目標領域に分割して観測目標領域の抽出をするに際して、CCDカラーカメラで撮像して得られた表面画像のRGB信号を色距離と呼ばれる数値に変換して表面画像を色距離画像に変換し、設定された色距離閾値でこの色距離画像を2値化して目標領域を抽出する構成を採用することにより、閾値としては単一の色距離閾値で事足りる。そして、この色距離閾値は、各目標領域枠内の色距離ヒストグラムを作成し、ヒストグラムの変曲点を目安にして目標領域の抽出分割処理に適した色距離閾値を適正に設定することができる。   In the conventional method in which the RGB signal is decomposed into the luminance signal and the chromaticity signal, and the luminance signal is image-processed to perform the target area division, three threshold values are required for the division. Then, when extracting the observation target area by dividing the surface image of the observation target into target areas having similar hues, the RGB signal of the surface image obtained by imaging with a CCD color camera is a numerical value called a color distance. And converting the surface image into a color distance image, binarizing the color distance image with the set color distance threshold value, and extracting the target area, thereby adopting a single color distance as the threshold value. A threshold is sufficient. The color distance threshold value can be set appropriately by creating a color distance histogram in each target area frame and using the inflection point of the histogram as a guideline and appropriately setting the color distance threshold value suitable for the target area extraction division process. .

発明を実施するための最良の形態を図の実施例を参照して説明する。
先ず、図1ないし図3を参照してこの発明による画像観測の概要を説明するに、1は画像観測装置の全体を示す参照符合である。画像観測装置1は、撮像装置10、目標領域抽出部20、観測画像モニタ・目標領域設定部30より成る。撮像装置10はCCDカラーカメラ100より成り、観測目標物を撮像する。目標領域抽出部20は、撮像装置10により観測目標物を撮像して出力される8ビットR(赤)輝度信号と、8ビットG(緑)輝度信号と、8ビットB(青)輝度信号の3輝度信号を組み合わせた3次元ベクトルの24ビット信号である、通常、RGB信号と呼ばれている信号を入力して目標領域抽処理をする部位である。観測画像モニタ・目標領域設定部30は目標領域設定処理をする部位である。目標領域設定処理は、目標領域抽処理をするに先だって実施される。目標領域設定と目標領域抽出を組み合わせて画像観測装置を構成することにより、RGBカラー画像を色差成分を損なうことなしに領域の区分をすることができる。目標領域設定および目標領域抽出は後で詳細に説明される。
The best mode for carrying out the invention will be described with reference to the embodiments shown in the drawings.
First, an outline of image observation according to the present invention will be described with reference to FIGS. 1 to 3. Reference numeral 1 denotes a reference numeral indicating the entire image observation apparatus. The image observation apparatus 1 includes an imaging device 10, a target area extraction unit 20, and an observation image monitor / target area setting unit 30. The imaging device 10 includes a CCD color camera 100 and images an observation target. The target region extraction unit 20 captures an 8-bit R (red) luminance signal, an 8-bit G (green) luminance signal, and an 8-bit B (blue) luminance signal output by imaging the observation target by the imaging device 10. This is a part where a target area extraction process is performed by inputting a signal called a RGB signal, which is a 24-bit signal of a three-dimensional vector obtained by combining three luminance signals. The observation image monitor / target area setting unit 30 is a part that performs target area setting processing. The target area setting process is performed prior to the target area extraction process. By configuring the image observation apparatus by combining the target area setting and the target area extraction, it is possible to classify the areas of the RGB color image without impairing the color difference component. Target area setting and target area extraction will be described in detail later.

図3を参照して目標領域について復習する。観測目標領域4は、観測目標物である子供を撮像した表面画像の内の観測抽出しようとする対象を意味する。観測目標領域4内には、複数の目標領域1、2、3が含まれる。そして、図2を参照するに、目標領域は一例として黄緑であり、その目標外領域である近傍領域は一例として灰色であるものとし、方形枠で囲まれた領域を色距離閾値を抽出する閾値設定領域、或いは目標領域枠として定義している。
ここで、色距離について説明する。観測画像をR(赤)、G(緑)、B(青)の3つのベクトルで観測し、目標領域における各画素毎について計算されるR000値に対する距離量:√[(R−R02+(G−G02+(B−B02]を色距離という。R000値とは、当該目標領域における色の基準となるサンプリング場所の基準値である。目標領域における或る画素のR、G、Bの3つのベクトルが、それぞれ、R0 、G0、B0 である場合、この画素の色距離は0であり、これはサンプリング場所の色と同じ色であることを意味する。
Review the target area with reference to FIG. The observation target area 4 means a target to be observed and extracted from a surface image obtained by imaging a child as an observation target. The observation target area 4 includes a plurality of target areas 1, 2, and 3. Then, referring to FIG. 2, the target area is yellow-green as an example, the neighboring area that is the non-target area is gray as an example, and the color distance threshold is extracted from the area surrounded by the rectangular frame. It is defined as a threshold setting area or a target area frame.
Here, the color distance will be described. The observed image is observed with three vectors of R (red), G (green), and B (blue), and the distance amount with respect to the R 0 G 0 B 0 value calculated for each pixel in the target region: √ [(R −R 0 ) 2 + (G−G 0 ) 2 + (B−B 0 ) 2 ] is called a color distance. The R 0 G 0 B 0 value is a reference value of a sampling location that is a color reference in the target area. If the three vectors R, G, B of a certain pixel in the target area are R 0 , G 0 , B 0 , respectively, the color distance of this pixel is 0, which is the same as the color at the sampling location Means color.

目標領域は、そもそも、色相の類似した領域の括られたものであるので、単一のRGB信号値で表示されるが、目標外領域は単一のRGB信号値で表示されるとは限らない。目標領域と目標外領域は、画素毎に色距離が計算され、カラー画像をこの色距離に基づいて色距離画像に変換する。そして、色距離画像に変換された両領域は、設定された色距離閾値を使用してこれを2値化することにより区分される。即ち、目標領域および目標外領域は、色距離閾値により2値化することにより、色距離閾値を超える部分は黒に変換表示される一方、この色距離閾値を超えない部分は白に変換表示される。   Since the target area is originally a group of similar hues, it is displayed with a single RGB signal value, but the non-target area is not always displayed with a single RGB signal value. . In the target area and the non-target area, the color distance is calculated for each pixel, and the color image is converted into a color distance image based on the color distance. Then, both regions converted into the color distance image are classified by binarizing them using a set color distance threshold. That is, by binarizing the target area and the non-target area with the color distance threshold, a portion exceeding the color distance threshold is converted to black and displayed, while a portion not exceeding the color distance threshold is converted to white and displayed. The

画像観測における以上の目標領域と目標外領域の区分、分割の詳細を図4、図5および図6を参照して具体的に説明する。図4は目標図形パターンの目標領域抽出を説明する図、図5は画像観測装置の実施例を説明する図である。図6は目標領域設定と目標領域抽出を総合した動作シーケンスを示す図であり、目標領域設定は左側の鎖線枠内の工程を順次に辿って実施し、目標領域抽出は右側の鎖線枠内の工程を順次に辿って実施する。
ここで、目標図形パターンの領域抽出における「領域」の定義は表1にまとめられている。
The details of the division and division of the target area and the non-target area in the image observation will be specifically described with reference to FIGS. 4, 5, and 6. FIG. 4 is a diagram for explaining target area extraction of a target graphic pattern, and FIG. 5 is a diagram for explaining an embodiment of the image observation apparatus. FIG. 6 is a diagram showing an operation sequence in which target area setting and target area extraction are integrated. The target area setting is performed by sequentially following the steps in the left chain line frame, and the target area extraction is performed in the right chain line frame. Follow the steps in sequence.
Here, the definition of “region” in region extraction of the target graphic pattern is summarized in Table 1.

Figure 2006172381
以下、目標領域の抽出を図4を参照して説明する。
目標領域1、2、3の見当をつけるには、目標図形パターンが含まれる図示される通りの画像をモニタ画面上に表示する。
観測目標領域4を構成する要素の候補として、図4において黄色の四角の枠で囲んだ目標領域1〜目標領域3を設定する。この設定は、具体的には、モニタ画面上においてマウスを操作することにより黄色の四角の枠で包囲設定する。
Figure 2006172381
Hereinafter, the extraction of the target area will be described with reference to FIG.
In order to register the target areas 1, 2, and 3, an image as shown in the figure including the target graphic pattern is displayed on the monitor screen.
As candidate elements constituting the observation target area 4, target areas 1 to 3 surrounded by a yellow square frame in FIG. 4 are set. Specifically, this setting is performed by setting a siege with a yellow square frame by operating the mouse on the monitor screen.

目標領域1〜目標領域3の意味は自転車のタイヤと赤い上着であり、その定義は黄色の領域と赤色の領域である。
これらの目標領域1〜目標領域3について、目標領域における色の基準となると思われるサンプリング場所をマウスを操作して設定し、これらサンプリング場所から目標領域1〜目標領域3毎に各基準R000値を読みとる。ここで、小さな正方形で示されるところがサンプリング場所を示す。画像入力のRGB値と基準R000値とにより各画素毎にノルム演算をして目標領域を目標領域別に色距離画像に変換し、レイヤ別に画像を作成する。ここで、レイヤ(或は階層)とは何かについて、その意味内容を説明すると次の通りである。
The meaning of the target area 1 to the target area 3 is a bicycle tire and a red outerwear, and the definitions are a yellow area and a red area.
For these target areas 1 to 3, sampling locations that are supposed to serve as color references in the target areas are set by operating the mouse, and each reference R 0 G is set for each of the target areas 1 to 3 from these sampling locations. 0 B Read 0 value. Here, a place indicated by a small square indicates a sampling place. A norm operation is performed for each pixel based on the RGB value of the image input and the reference R 0 G 0 B 0 value to convert the target area into a color distance image for each target area, and an image is created for each layer. Here, the meaning of the layer (or hierarchy) will be described as follows.

図9を参照するに、或る一つの設定された色距離を有する領域、即ち、赤、橙、黄、黄緑毎の画像を作成し、この画像を2値化した色距離2値化画像をレイヤ(或いは階層)1、2、3、4と称している。レイヤ1は赤の領域に対する色距離2値化画像であり、中心に存在する赤の領域のみに対応して画像が得られている。レイヤ2は橙の領域に対する色距離2値化画像であり、赤の領域の周囲を包囲する橙の領域のみに対応して画像が得られている。レイヤ3は黄の領域に対する色距離2値化画像であり、橙の領域の周囲を包囲する黄の領域のみに対応して画像が得られている。レイヤ4は黄緑の領域に対する色距離2値化画像であり、黄の領域の外側を包囲する黄緑の領域のみに対応して画像が得られている。   Referring to FIG. 9, an area having a certain set color distance, that is, an image for each of red, orange, yellow, and yellowish green is created, and this image is binarized. Are referred to as layers (or hierarchies) 1, 2, 3, and 4. Layer 1 is a color distance binarized image for the red region, and an image is obtained corresponding to only the red region existing in the center. The layer 2 is a color distance binarized image for the orange region, and an image is obtained corresponding to only the orange region surrounding the red region. Layer 3 is a color distance binarized image for the yellow region, and an image is obtained corresponding to only the yellow region surrounding the orange region. The layer 4 is a color distance binarized image with respect to the yellow-green region, and an image is obtained corresponding to only the yellow-green region surrounding the outside of the yellow region.

図10を参照するに、レイヤ1は黄の領域に対する色距離2値化画像であり、三角形の領域のみに対応して画像が得られている。レイヤ2は赤の領域に対する色距離2値化画像であり、丸の領域のみに対応して画像が得られている。レイヤ3は青の領域に対する色距離2値化画像であり、四角形の領域のみに対応して画像が得られている。レイヤ4は黄緑の領域に対する色距離2値化画像であり、黄、赤、青の領域の外側を包囲する黄緑の領域のみに対応して画像が得られている。
図10(a)において、色距離の相違する黄、赤、青、黄緑の各領域は、それぞれ抽出された領域画像としてレイヤ、階層別に色距離2値化画像化され、各レイヤ、階層別に抽出領域の数、位置、面積の関係、条件を後で説明される図7を参照して認識する。
Referring to FIG. 10, layer 1 is a color distance binarized image with respect to a yellow region, and an image is obtained corresponding to only a triangular region. Layer 2 is a color distance binarized image for the red region, and an image is obtained corresponding to only the circular region. Layer 3 is a color distance binarized image for a blue region, and an image is obtained corresponding to only a rectangular region. Layer 4 is a color distance binarized image for a yellow-green region, and an image is obtained corresponding to only the yellow-green region surrounding the outside of the yellow, red, and blue regions.
In FIG. 10A, the yellow, red, blue, and yellow-green regions having different color distances are binarized into color distances for each layer and layer as the extracted region images. The number, position, area relationship, and conditions of the extraction regions are recognized with reference to FIG.

色距離閾値を設定し、レイヤ別にこの色距離閾値による色距離画像の2値化と正規化により、目標領域を抽出する。即ち、目標領域および目標外領域を、色距離閾値により2値化し、正規化することにより、色距離閾値を超える部分は黒に表示する一方、色距離閾値を超えない部分を白に表示し、目標領域を抽出する。
目標領域は、重心位置、面積、基準R000 値の3つのパラメータで形状比較する。
レイヤ間をまたいで、目標領域間の相対位置、各目標領域の面積、各目標領域の基準R000 値を目標図形パターンと比較して目標図形パターンを抽出する。相対位置の例は図7に示されている。図7は目標図形パターンを目標領域のグループで抽出する条件の例を示す図である。目標図形パターンを目標領域のグループで抽出する条件を組み合わせて表2に示されるマッチングパターンを定義することができる。(S7)については後で更に具体的に説明される。
A color distance threshold is set, and a target area is extracted by binarization and normalization of the color distance image based on the color distance threshold for each layer. That is, by binarizing and normalizing the target area and the non-target area by the color distance threshold, a portion exceeding the color distance threshold is displayed in black, while a portion not exceeding the color distance threshold is displayed in white. Extract the target area.
The shape of the target area is compared using three parameters: the barycentric position, the area, and the reference R 0 G 0 B 0 value.
The target graphic pattern is extracted by comparing the relative position between the target areas, the area of each target area, and the reference R 0 G 0 B 0 value of each target area with the target graphic pattern across the layers. An example of the relative position is shown in FIG. FIG. 7 is a diagram showing an example of a condition for extracting a target graphic pattern by a group of target areas. The matching pattern shown in Table 2 can be defined by combining conditions for extracting a target graphic pattern by a group of target areas. (S7) will be described more specifically later.

Figure 2006172381
図4において、目標領域1、2の意味は自転車のタイヤであり、目標領域3の意味は赤い上着であり、その定義は黄色の領域と赤色の領域である。これら黄色の四角の枠で囲んだ目標領域1〜目標領域3を青枠で囲んで一つのグループの目標図形観測パターンとして抽出する。「横に並んだ目標領域1、2、更にその中間上部に配置する目標領域3」という定義の下で青枠で囲んで一つのグループの観測目標領域4としてグループ化することで、この定義を満足するか否かを判断して、目標領域1〜目標領域3を一括して抽出することができる。
Figure 2006172381
In FIG. 4, the meanings of the target areas 1 and 2 are bicycle tires, the meaning of the target area 3 is a red jacket, and the definitions are a yellow area and a red area. The target area 1 to the target area 3 surrounded by the yellow square frame are extracted as a target figure observation pattern of a group surrounded by a blue frame. By grouping it as an observation target area 4 of one group surrounded by a blue frame under the definition of "target areas 1 and 2 arranged side by side, and target area 3 arranged in the middle upper part", this definition It is possible to extract the target area 1 to the target area 3 collectively by determining whether or not the user is satisfied.

図5を参照して画像観測装置の実施例を説明する。これは、基準値が単一である目標領域を抽出するものであり、各目標領域のR000値、各目標領域を目標外領域と区別するベース閾値、目標領域のサイズを入力として抽出した目標領域のR000値、目標領域の2値画像、重心位置、面積を、目標領域別のレイヤ構成で出力する。以下、具体的に説明する。
100はCCDカラーカメラ、511〜51nは設定値記憶部、521〜52nは色距離演算回路、531〜53nはヒストグラム抽出フィルタ、541〜54nは2値化回路、551〜55nは重心位置演算回路、561〜56nは面積演算回路、571〜57nはレイヤ出力記憶部、58は抽出画像出力部である。
An embodiment of the image observation apparatus will be described with reference to FIG. This is to extract a target area with a single reference value, and input the R 0 G 0 B 0 value of each target area, the base threshold value for distinguishing each target area from the non-target area, and the size of the target area The R 0 G 0 B 0 value, the binary image of the target area, the barycentric position, and the area of the target area extracted as are output in a layer configuration for each target area. This will be specifically described below.
100 is a CCD color camera, 511 to 51n are set value storage units, 521 to 52n are color distance calculation circuits, 531 to 53n are histogram extraction filters, 541 to 54n are binarization circuits, 551 to 55n are gravity center position calculation circuits, Reference numerals 561 to 56n denote area calculation circuits, 571 to 57n denote layer output storage units, and 58 denotes an extracted image output unit.

CCDカラーカメラ100で撮像されたRGBカラー画像信号は、R画像信号成分、G画像信号成分、B画像信号成分に分解して出力される。目標領域1〜nには、対応する設定値記憶部511〜51nが具備されている。設定値記憶部511〜51nには、目標領域それぞれのR000値、目標領域を区別するベース閾値、目標領域のサイズ、が格納されている。
各目標領域1〜nに対応する色距離演算回路521〜52nには、R画像信号成分、G画像信号成分、B画像信号成分が入力されると共に、対応する目標領域の設定値記憶部511〜51nからR000値が入力される。これら色距離演算回路521〜52nにおいて、各目標領域1〜nの各画素のRGB信号成分をR000基準値と比較して先の色距離の計算式により色距離を計算し、各目標領域の画像を色距離画像に変換する。
An RGB color image signal captured by the CCD color camera 100 is decomposed into an R image signal component, a G image signal component, and a B image signal component and output. Corresponding set value storage units 511 to 51n are provided in the target areas 1 to n. The set value storage units 511 to 51n store the R 0 G 0 B 0 value of each target area, the base threshold value for distinguishing the target area, and the size of the target area.
The R image signal component, the G image signal component, and the B image signal component are input to the color distance calculation circuits 521 to 52n corresponding to the target regions 1 to n, and the corresponding target region setting value storage units 511 to 511 are used. The R 0 G 0 B 0 value is input from 51n. In these color distance calculation circuits 521 to 52n, the RGB signal components of each pixel in each target region 1 to n are compared with the R 0 G 0 B 0 reference value, and the color distance is calculated by the previous color distance calculation formula, The image of each target area is converted into a color distance image.

531ないし53nは目標領域1〜nにそれぞれ対応するヒストグラム抽出フィルタである。541〜54nは2値化回路である。
ところで、設定値記憶部511〜51nから供給されるベース閾値には、2値化回路541〜54nに入力されるに先立って、以下の処理が施される。目標領域設定に際して色距離閾値のベース値が設定される。閾値のベース値を設定するには、先ず、目標領域が主たる割合を占め、目標領域を内接する目標領域の枠を設定する。即ち、ベース閾値のかさ上げをする差分を演算するに使用する目標領域の枠のサイズを設定する。そして、目標領域枠内を色距離画像に変換して図8に示される色距離分布のヒストグラムをとり、ヒストグラムの極小値或いは変曲点を目標領域枠内全体のベース閾値として設定する。そして、各ヒストグラム抽出フィルタ531ないし53nは、設定値記憶部511〜51nに設定記憶される目標領域サイズと色距離演算回路521〜52nから出力される色距離画像を入力し、色距離閾値の補正量を発生する。RGBカラー画像の目標領域とそれ以外の領域の間の目標領域の差分値を補正量として発生し、これを設定値記憶部511〜51nから供給されるベース閾値に加算して補正された色距離閾値が生成され、目標領域を2値化して2値化回路541に入力されて、これにより目標領域とそれ以外の領域は分割、区別される。この通りにするのは、目標領域とそれ以外の目標外領域を2値化する色距離閾値は、これをそのベース値として目標領域に近い小さいところに設定しておき、目標領域とそれ以外の目標外領域が色距離において距離が大きい場合はその距離に相当する分だけ高く設定することにより、2値化を安定化することができることによる。
Reference numerals 531 to 53n denote histogram extraction filters respectively corresponding to the target areas 1 to n. Reference numerals 541 to 54n denote binarization circuits.
By the way, the base threshold supplied from the set value storage units 511 to 51n is subjected to the following processing prior to being input to the binarization circuits 541 to 54n. When setting the target area, a base value of the color distance threshold is set. In order to set the base value of the threshold, first, the target area occupies the main ratio, and a frame of the target area inscribed in the target area is set. That is, the size of the frame of the target area used for calculating the difference for raising the base threshold is set. Then, the inside of the target area frame is converted into a color distance image, the histogram of the color distance distribution shown in FIG. 8 is taken, and the minimum value or inflection point of the histogram is set as the base threshold value for the entire target area frame. Each of the histogram extraction filters 531 to 53n receives the target area size set and stored in the set value storage units 511 to 51n and the color distance image output from the color distance calculation circuits 521 to 52n, and corrects the color distance threshold. Generate quantity. A color distance corrected by generating a difference value of a target area between the target area of the RGB color image and other areas as a correction amount and adding this to the base threshold supplied from the set value storage units 511 to 51n A threshold value is generated, and the target area is binarized and input to the binarization circuit 541, whereby the target area and other areas are divided and distinguished. This is because the color distance threshold value for binarizing the target area and the other non-target areas is set as a small value close to the target area as a base value, and the target area and other areas This is because when the non-target area has a large distance in the color distance, the binarization can be stabilized by setting the distance higher corresponding to the distance.

2値化回路541〜54nにより生成された目標領域の2値画像は、対応するレイヤ出力記憶部571〜57nに出力してここに記憶される。そして、目標領域の2値画像は、対応する重心位置演算部551〜55nに供給され、重心位置が計算されて、対応するレイヤ出力記憶部571〜57nに出力してここに記憶される。また、目標領域の2値画像は、対応する面積演算部561〜nに供給され、面積が計算されて、対応するレイヤ出力記憶部571〜57nに出力してここに記憶される。レイヤ出力記憶部571〜57nには、更に、対応する設定値記憶部511〜51nからR000値が入力されている。以上の通り、2値化した目標領域の2値画像について、目標領域毎に面積と重心位置が計算され、計算された重心位置および面積は直接出力される2値画像およびR000値と共に、目標領域1〜n別のレイヤ構成で出力され、記憶される。 The binary image of the target area generated by the binarization circuits 541 to 54n is output to the corresponding layer output storage units 571 to 57n and stored therein. Then, the binary image of the target area is supplied to the corresponding centroid position calculation units 551 to 55n, the centroid position is calculated, output to the corresponding layer output storage units 571 to 57n, and stored therein. Further, the binary image of the target area is supplied to the corresponding area calculation units 561 to n, the area is calculated, output to the corresponding layer output storage units 571 to 57n, and stored therein. The layer output storage units 571 to 57n are further supplied with R 0 G 0 B 0 values from the corresponding set value storage units 511 to 51n. As described above, for the binary image of the binarized target area, the area and the centroid position are calculated for each target area, and the calculated centroid position and area are directly output as a binary image and R 0 G 0 B 0. Along with the value, it is output and stored in a layer configuration for each of the target areas 1 to n.

ここで、図8を参照するに、これは目標領域と目標外領域間の色距離ヒストグラムである。縦軸の「面積比」とは、目標領域の面積を矩形枠の面積で除算した値をいう。判然とした輪郭を有して色距離の小さい条件下においては、青色曲線により示される如く明確にピークが分離して閾値設定が容易であることが理解される。これに反して、境界がぼやけたものは明確な閾値を設定し難いことが理解される。この条件の下においては、閾値の値によって2値化画像の大きさが変化する。上述した通り、目標領域の周辺の色距離が一定ではない場合、色距離画像の目標領域の差分をベース閾値にかさ上げすることで目標領域の2値化を安定化することができる。   Here, referring to FIG. 8, this is a color distance histogram between the target area and the non-target area. The “area ratio” on the vertical axis is a value obtained by dividing the area of the target region by the area of the rectangular frame. It is understood that, under a condition having a clear outline and a small color distance, the peak is clearly separated as shown by the blue curve, and the threshold setting is easy. On the other hand, it is understood that it is difficult to set a clear threshold when the boundary is blurred. Under this condition, the size of the binarized image changes depending on the threshold value. As described above, when the color distance around the target area is not constant, the binarization of the target area can be stabilized by raising the difference of the target area of the color distance image to the base threshold value.

図6は目標領域設定と目標領域抽出を総合した動作シーケンスを示す図であり、目標領域設定は左側の鎖線枠内の工程を順次に辿って実施し、目標領域抽出は右側の鎖線枠内の工程を順次に辿って実施する。以下、図4および図6を参照して観測領域の目標領域設定の動作シーケンスを説明する。
(S0) CCDカラーカメラで観測対象のR画像、G画像、B画像の3画像より成る原画像を撮像入力する。
(S1) 目標領域を含むカラー原画像をモニタ画面に表示する。
FIG. 6 is a diagram showing an operation sequence in which target area setting and target area extraction are integrated. The target area setting is performed by sequentially following the steps in the left chain line frame, and the target area extraction is performed in the right chain line frame. Follow the steps in sequence. Hereinafter, an operation sequence for setting a target area of an observation area will be described with reference to FIGS. 4 and 6.
(S0) A CCD color camera picks up and inputs an original image composed of three images of an R image, a G image, and a B image to be observed.
(S1) The color original image including the target area is displayed on the monitor screen.

(S2) モニタ画面で各目標領域1、2、3を矩形枠で囲み、観測領域の図形パターンを単色の目標領域1、2、3の複合体に分割する。これを目標枠として設定する。
(S3) モニタ画面で各目標領域における色の基準となるサンプリング画素を囲み、基準となる画素のR000 値を設定する。
(S4) 各目標領域枠の各画素を画素毎にR000 値との間の色距離に変換し、各目標領域枠内を色距離画像に変換する。
(S5) 各目標領域枠内の色距離ヒストグラムを作成する。
(S2) The target areas 1, 2, and 3 are surrounded by a rectangular frame on the monitor screen, and the graphic pattern of the observation area is divided into a complex of single-color target areas 1, 2, and 3. This is set as the target frame.
(S3) On the monitor screen, the sampling pixel that is the reference for the color in each target area is enclosed, and the R 0 G 0 B 0 value of the reference pixel is set.
(S4) Each pixel in each target area frame is converted into a color distance between the R 0 G 0 B 0 values for each pixel, and the inside of each target area frame is converted into a color distance image.
(S5) A color distance histogram in each target area frame is created.

(S7) ヒストグラムの変曲点を目安にして目標領域抽出分割処理に適した色距離閾値を設定する。
(S8) 各目標領域枠内を色距離閾値と比較して2値化し、モニタに2値化画像を表示する。
(S9) モニタ画面を参照して、色距離閾値を調節して閾値が適正であるか否か妥当性を調べる。抽出された目標領域が目的とする領域を正確に抽出していない場合は、(S2)に戻り、目標領域枠の設定および色距離閾値の設定を再設定し、2値化画像が適正化されるまで以上の工程を繰り返す。
(S7) A color distance threshold suitable for the target area extraction division process is set using the inflection point of the histogram as a guide.
(S8) Each target area frame is binarized by comparing with the color distance threshold value, and the binarized image is displayed on the monitor.
(S9) Referring to the monitor screen, the color distance threshold is adjusted to check whether the threshold is appropriate. If the extracted target area does not accurately extract the target area, the process returns to (S2), the setting of the target area frame and the setting of the color distance threshold are reset, and the binarized image is optimized. Repeat the above steps until

(S10) 目標領域を正確に抽出している場合は、目標領域の面積を演算する。
(S11) 目標領域の重心位置を演算する。
(S12) 目標領域の登録をする。目標領域のR000 値、色距離閾値、目標領域枠、目標領域を登録する。図形登録プロパティは、グルーピングされる図形番号、グループ内の相対位置、面積、面積比率、設定図面上の絶対位置、目標領域のR000 値とする。
ここで、目標領域抽出処理を図6の右側の鎖線枠内の工程を順次に辿って説明する。
(S10) If the target area is accurately extracted, the area of the target area is calculated.
(S11) The gravity center position of the target area is calculated.
(S12) The target area is registered. The R 0 G 0 B 0 value, the color distance threshold value, the target area frame, and the target area of the target area are registered. The figure registration property includes the figure number to be grouped, the relative position in the group, the area, the area ratio, the absolute position on the set drawing, and the R 0 G 0 B 0 value of the target area.
Here, the target area extraction process will be described by sequentially following the steps in the chain line frame on the right side of FIG.

(S0’) CCDカラーカメラ100で観測対象のR画像、G画像、B画像の3画像より成る原画像を撮像入力する。
(S1’) 各目標領域枠内の画素毎にR000 値との間の色距離変換演算√[(R−R02+(G−G02+(B−B02]をする。
(S2’) 各目標領域の色距離画像を作成する。
(S3’) 目標領域のサイズで差分演算をして色距離閾値の補正画像を作成する。
(S4’) 目標領域の画素毎に補正された色距離閾値と比較して目標領域を2値化した2値化画像を作成する。
(S0 ′) The CCD color camera 100 captures and inputs an original image composed of three images, an R image, a G image, and a B image to be observed.
(S1 ′) Color distance conversion calculation between R 0 G 0 B 0 values for each pixel in each target area frame √ [(R−R 0 ) 2 + (G−G 0 ) 2 + (B−B 0 ) Perform 2 ].
(S2 ′) A color distance image of each target area is created.
(S3 ′) A difference image is calculated with the size of the target area to create a corrected image of the color distance threshold.
(S4 ′) A binarized image is created by binarizing the target area by comparing with the color distance threshold corrected for each pixel of the target area.

(S5’) 目標領域の2値化画像の面積を演算する。
(S6’) 目標領域の重心位置の演算をする。
(S7’) R000 値、面積、重心位置をプロパティとして、目標領域レイヤを構成する。
(S8’) 目標領域レイヤを検索して登録図形グループの構成要素を重ね合わせて図形パターン領域画像レイヤを作成する。
(S9’)図形パターン或いは目標領域レイヤとカラー画像を掛け合わせ、目標図形パターンを抽出する。
(S5 ′) The area of the binarized image of the target area is calculated.
(S6 ′) The gravity center position of the target area is calculated.
(S7 ′) The target region layer is configured using the R 0 G 0 B 0 value, area, and barycentric position as properties.
(S8 ′) The target area layer is searched and the constituent elements of the registered graphic group are overlapped to create a graphic pattern area image layer.
(S9 ') The figure pattern or the target area layer and the color image are multiplied to extract the target figure pattern.

図7は観測目標目標領域4を目標領域1、2、3のグループで抽出する条件の例を示す図である。観測目標領域4を目標領域1、2、3のグループで抽出する条件を組み合わせて表2に示されるマッチングパターンを定義する。図7において、条件1は、目標領域は3個で抽出領域も3個である。領域の数が同じである場合、表2のマッチングパターン1に従ってマッチングしているものと判断することができる。条件1、2、3を満足する、目標領域と抽出領域の数が同じであり、且つ、目標領域と抽出領域の各面積が等しく、且つ、目標領域相互の相対位置関係と抽出領域の相対位置関係が等しい場合、表2のマッチングパターン4に従ってマッチングしているものと判断することができる。   FIG. 7 is a diagram showing an example of conditions for extracting the observation target target area 4 in groups of the target areas 1, 2, and 3. The matching pattern shown in Table 2 is defined by combining the conditions for extracting the observation target region 4 by the group of the target regions 1, 2, and 3. In FIG. 7, Condition 1 is that there are three target areas and three extraction areas. If the number of regions is the same, it can be determined that matching is performed according to matching pattern 1 in Table 2. The number of target areas and extraction areas that satisfy the conditions 1, 2, and 3 are the same, the areas of the target area and the extraction areas are equal, and the relative positional relationship between the target areas and the relative position of the extraction areas When the relationship is equal, it can be determined that matching is performed according to the matching pattern 4 in Table 2.

この発明は、半導体材料等の欠陥測定分野、顕微鏡下の微生物測定分野において適用すると好適である。その他、環境モニタ、生産ラインの監視においても、効率の高い目標物領域抽出能力を発揮する。更に、煙、緑化、森林のCO2監視、酸性雨監視、その他の環境監視、食品の異物監視、形状および色による食品の測定監視、常時監視モニターをインテリジェント化してセキュリティー監視に適用することができる。 The present invention is preferably applied in the field of measuring defects of semiconductor materials and the like and the field of measuring microorganisms under a microscope. In addition, it also demonstrates highly efficient target area extraction capabilities in environmental monitoring and production line monitoring. In addition, smoke, greening, forest CO 2 monitoring, acid rain monitoring, other environmental monitoring, food foreign matter monitoring, food measurement monitoring by shape and color, and continuous monitoring monitoring can be made intelligent and applied to security monitoring. .

画像観測装置の概要を説明する図。The figure explaining the outline | summary of an image observation apparatus. 目標領域を説明する図。The figure explaining a target area | region. 複数の目標領域をまとめて一つの観測領域としてそのRGB信号を抽出する仕方について説明する図。The figure explaining how to extract the RGB signals as a single observation area by combining a plurality of target areas. 目標領域を含む目標領域枠を示す図。The figure which shows the target area frame containing a target area. 画像観測装置の実施例を説明する図。The figure explaining the Example of an image observation apparatus. 目標領域設定と目標領域抽出を総合した動作シーケンスを示す図。The figure which shows the operation | movement sequence which integrated target area | region setting and target area | region extraction. 目標図形パターンを目標領域のグループで抽出する条件の例を示す図。The figure which shows the example of the conditions which extract a target figure pattern in the group of a target area | region. 目標領域と目標外領域間の色距離ヒストグラム。Color distance histogram between target area and non-target area. レイヤを説明する図。The figure explaining a layer. 他のレイヤを説明する図。The figure explaining another layer.

符号の説明Explanation of symbols

100 CCDカラーカメラ
511〜51n 設定値記憶部
521〜52n 色距離演算回路
531〜53n ヒストグラム抽出フィルタ
541〜54n 2値化回路
551〜55n 重心位置演算回路
561〜56n 面積演算回路
571〜57n レイヤ出力記憶部
58 抽出画像出力部









DESCRIPTION OF SYMBOLS 100 CCD color camera 511-51n Setting value memory | storage part 521-52n Color distance arithmetic circuit 531-53n Histogram extraction filter 541-54n Binary circuit 551-55n Center of gravity position arithmetic circuit 561-56n Area arithmetic circuit 571-57n Layer output storage Part
58 Extracted image output unit









Claims (4)

CCDカラーカメラで撮像して得られた表面画像のRGB信号を色距離に変換して目標領域を単一の色距離閾値で2値化して、観測目標物の表面画像の色相の類似した目標領域に分割することを特徴とする画像観測方法。   The RGB signal of the surface image obtained by imaging with a CCD color camera is converted into a color distance, the target area is binarized with a single color distance threshold, and the target area having a similar hue on the surface image of the observation target An image observation method characterized by dividing the image into two. (S0) 画像をR、G、Bの3つの色別に撮像入力し、
(S1) RGB画像をカラーモニタに表示し、
(S2) 単色の目標領域1、2、3の複合体になる様に目標領域1、2、3を矩形枠で囲み、
(S3) 矩形枠で囲まれた領域の色をサンプリング画素を囲こみ、目標領域の基準色R000 値を設定し、
(S4) 撮像入力した画像を目標領域の基準色R000 との間の色距離画像に変換し、
(S5) 矩形枠で囲まれた領域画素の色距離をヒストグラムに表示し、
(S7) ヒストグラムの変曲点を目安にして目標領域分割に適した色距離閾値を設定し、
(S8) 矩形枠で囲まれた領域を色距離で2値化し、モニタに表示し、
(S9) モニタを参照して色距離閾値を調節して、S2〜S9を繰り返し、
(S10) 目標領域の面積を演算し、
(S11) 目標領域の重心位置を演算し、
(S12) 図形プロパティをグルーピングされる図形番号、グループ内相対位置、面積、面積比率、基準色R000 、色距離閾値、目標領域枠、を登録する、
ことを特徴とする画像観測方法。
(S0) An image is input for each of the three colors R, G, and B, and
(S1) Display the RGB image on the color monitor,
(S2) The target areas 1, 2 and 3 are surrounded by a rectangular frame so as to be a composite of the monochromatic target areas 1, 2 and 3.
(S3) Surrounding the sampling pixel with the color of the area surrounded by the rectangular frame, setting the reference color R 0 G 0 B 0 value of the target area,
(S4) The captured image is converted into a color distance image between the target area and the reference color R 0 G 0 B 0 ,
(S5) Display the color distance of the region pixels surrounded by the rectangular frame on the histogram,
(S7) A color distance threshold suitable for target area division is set using the inflection point of the histogram as a guide,
(S8) The region surrounded by the rectangular frame is binarized by the color distance, displayed on the monitor,
(S9) Refer to the monitor to adjust the color distance threshold, repeat S2 to S9,
(S10) Calculate the area of the target area,
(S11) Calculate the gravity center position of the target area,
(S12) Register the figure number, the relative position in the group, the area, the area ratio, the reference color R 0 G 0 B 0 , the color distance threshold value, and the target area frame that group the figure properties.
An image observation method characterized by that.
(S0’) 画像をR、G、Bの3つの色別に撮像入力し、
(S1’) RGB画像をカラーモニタに表示し、
(S2’) 撮像入力した画像を目標領域の基準色R000 との間の色距離画像に変換し、
(S4’) 矩形枠で囲まれた領域を補正された色距離閾値で2値化し、
(S5’) 目標領域面積を演算し、
(S6’) 目標領域重心位置を演算し、
(S7’) 基準色R000 、面積、重心位置をプロパティとして目標領域レイヤを構成し、
(S8”) 目標領域レイヤを検索して登録図形グループの構成要素を重ね合わせ図形パターン領域レイヤを作成し、
(S9’) 図形パターン或いは目標領域レイヤと撮像入力したカラー画像を掛け合わせて目標図形パターンを抽出する、
ことを特徴とする画像観測方法。
(S0 ′) The image is input for each of three colors R, G, and B, and
(S1 ′) Display the RGB image on the color monitor,
(S2 ′) The captured and input image is converted into a color distance image between the reference color R 0 G 0 B 0 of the target area,
(S4 ′) The region surrounded by the rectangular frame is binarized with the corrected color distance threshold,
(S5 ′) Calculate the target area,
(S6 ′) Calculate the target area centroid position,
(S7 ′) A target area layer is configured with the reference color R 0 G 0 B 0 , area, and barycentric position as properties,
(S8 ") Search for the target area layer, superimpose the components of the registered figure group, create a figure pattern area layer,
(S9 ′) The target graphic pattern is extracted by multiplying the graphic pattern or the target area layer and the color image captured and input,
An image observation method characterized by that.
撮像されたRGBカラー画像信号をR画像信号成分、G画像信号成分、B画像信号成分に分解して出力するCCDカラーカメラを具備し、
複数の目標領域1〜nにそれぞれ対応する設定値記憶部を具備し、設定値記憶部には目標領域それぞれのR000値、目標領域を区別するベース閾値、目標領域のサイズが格納され、
R画像信号成分、G画像信号成分、B画像信号成分が入力されると共に、対応する目標領域の設定値記憶部からR000値が入力される各目標領域1〜nに対応する色距離演算回路を具備し、これら色距離演算回路においては各目標領域1〜nの各画素のRGB信号成分をR000基準値と比較して色距離の計算式により色距離を計算し、各目標領域の画像を色距離画像に変換し、
設定値記憶部に設定記憶される目標領域サイズと色距離演算回路から出力される色距離画像を入力してベース閾値の補正量を発生してこれをベース閾値に加算して補正された色距離閾値を生成するヒストグラム抽出フィルタを目標領域1〜nに対応して具備し、
色距離画像を入力すると共に補正された色距離閾値を入力して目標領域の2値画像を生成する2値化回路を目標領域1〜nに対応して具備し、
出力される2値画像およびR000値を記憶するレイヤ出力記憶部を目標領域1〜nに対応して具備し、
目標領域の2値画像を入力して重心位置を計算する重心位置演算部を目標領域1〜nに対応して具備し、
目標領域の2値画像を入力して面積を計算する面積演算部を目標領域1〜nに対応して具備し、
計算された重心位置および面積は直接出力される2値画像およびR000値と共に目標領域1〜n別のレイヤ構成で出力されてこれを記憶するレイヤ出力記憶部を目標領域1〜nに対応して具備する、
ことを特徴とする画像観測装置。









A CCD color camera that decomposes and outputs the captured RGB color image signal into an R image signal component, a G image signal component, and a B image signal component;
A set value storage unit corresponding to each of the target areas 1 to n is provided, and the R 0 G 0 B 0 value of each target area, a base threshold value for distinguishing the target area, and the size of the target area are stored in the set value storage section. Stored,
The R image signal component, the G image signal component, and the B image signal component are input, and the R 0 G 0 B 0 value is input from the set value storage unit of the corresponding target region. A color distance calculation circuit is provided. In these color distance calculation circuits, the RGB signal component of each pixel in each target area 1 to n is compared with the R 0 G 0 B 0 reference value, and the color distance is calculated by the color distance calculation formula. Calculate, convert the image of each target area into a color distance image,
The target area size set and stored in the set value storage unit and the color distance image output from the color distance calculation circuit are input to generate a base threshold correction amount, which is added to the base threshold and corrected color distance A histogram extraction filter for generating a threshold is provided corresponding to the target areas 1 to n,
A binarization circuit that inputs a color distance image and inputs a corrected color distance threshold to generate a binary image of the target area is provided corresponding to the target areas 1 to n,
A layer output storage unit for storing the output binary image and the R 0 G 0 B 0 value is provided corresponding to the target areas 1 to n,
A centroid position calculation unit that inputs a binary image of the target area and calculates a centroid position corresponding to the target areas 1 to n,
Corresponding to the target areas 1 to n, an area calculation unit that calculates the area by inputting a binary image of the target area is provided.
The calculated barycentric position and area are output in a layer configuration for each of the target regions 1 to n together with the binary image and R 0 G 0 B 0 value that are directly output, and a layer output storage unit that stores this is output to the target regions 1 to 1 corresponding to n,
An image observation apparatus characterized by that.









JP2004367597A 2004-12-20 2004-12-20 Image observation method and device for performing the same method Pending JP2006172381A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004367597A JP2006172381A (en) 2004-12-20 2004-12-20 Image observation method and device for performing the same method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004367597A JP2006172381A (en) 2004-12-20 2004-12-20 Image observation method and device for performing the same method

Publications (1)

Publication Number Publication Date
JP2006172381A true JP2006172381A (en) 2006-06-29

Family

ID=36673040

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004367597A Pending JP2006172381A (en) 2004-12-20 2004-12-20 Image observation method and device for performing the same method

Country Status (1)

Country Link
JP (1) JP2006172381A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7813004B2 (en) 2006-06-26 2010-10-12 Seiko Epson Corporation Image forming apparatus, image forming method and program product
JP2022511916A (en) * 2018-12-12 2022-02-01 ソシエテ・デ・プロデュイ・ネスレ・エス・アー Beverage preparation machine that recognizes capsules
CN114918944A (en) * 2022-06-02 2022-08-19 哈尔滨理工大学 Family service robot grabbing detection method based on convolutional neural network fusion
US11978223B2 (en) 2021-04-26 2024-05-07 Samsung Electronics Co., Ltd. Electronic device including processing circuit for generating depth information using luminance data and method of generating depth information

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05128224A (en) * 1991-11-08 1993-05-25 Fujitsu Ltd Color extracting device for color picture and method therefor
JPH06162180A (en) * 1992-11-25 1994-06-10 Fujitsu Ltd Area extraction system
JP2000348173A (en) * 1999-06-04 2000-12-15 Matsushita Electric Ind Co Ltd Lip extraction method
JP2003115039A (en) * 2001-07-11 2003-04-18 Ricoh Co Ltd Document filing device, its method and program and storage medium

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05128224A (en) * 1991-11-08 1993-05-25 Fujitsu Ltd Color extracting device for color picture and method therefor
JPH06162180A (en) * 1992-11-25 1994-06-10 Fujitsu Ltd Area extraction system
JP2000348173A (en) * 1999-06-04 2000-12-15 Matsushita Electric Ind Co Ltd Lip extraction method
JP2003115039A (en) * 2001-07-11 2003-04-18 Ricoh Co Ltd Document filing device, its method and program and storage medium

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7813004B2 (en) 2006-06-26 2010-10-12 Seiko Epson Corporation Image forming apparatus, image forming method and program product
JP2022511916A (en) * 2018-12-12 2022-02-01 ソシエテ・デ・プロデュイ・ネスレ・エス・アー Beverage preparation machine that recognizes capsules
JP7475348B2 (en) 2018-12-12 2024-04-26 ソシエテ・デ・プロデュイ・ネスレ・エス・アー Capsule-recognizing beverage preparation machine
US11978223B2 (en) 2021-04-26 2024-05-07 Samsung Electronics Co., Ltd. Electronic device including processing circuit for generating depth information using luminance data and method of generating depth information
CN114918944A (en) * 2022-06-02 2022-08-19 哈尔滨理工大学 Family service robot grabbing detection method based on convolutional neural network fusion

Similar Documents

Publication Publication Date Title
Ganesan et al. Segmentation and edge detection of color images using CIELAB color space and edge detectors
CN103914708B (en) Food kind detection method based on machine vision and system
JP4435355B2 (en) Color image conversion method, conversion device, and recording medium
JP2006220648A (en) Substrate inspection device, method and device for setting inspection logic
KR20060048146A (en) Segmentation technique of a color image according to colors
CN102156881B (en) Method for detecting salvage target based on multi-scale image phase information
KR101428923B1 (en) System and Method for Automatic Extraction of Component Packaging Regions in PCB
CN111369529B (en) Article loss and leave-behind detection method and system
Toylan et al. A Real‐Time Apple Grading System Using Multicolor Space
CN106558044A (en) The resolution measuring method of image module
JP2006259885A (en) Method of recognizing signboard and sign using color image
JP2010008159A (en) Visual inspection processing method
JP4336755B2 (en) A signboard recognition method using color images
JP2006172381A (en) Image observation method and device for performing the same method
JP4354173B2 (en) Appearance inspection equipment for electronic circuit components
JP4190243B2 (en) Electronic circuit component visual inspection method, visual inspection apparatus, and electronic circuit component manufacturing method.
Wang et al. Specific color-pair edge detection using quaternion convolution
JP4195980B2 (en) Appearance inspection method and appearance inspection apparatus using color image
JPH07146937A (en) Pattern matching method
JP4090775B2 (en) Appearance inspection method and appearance inspection apparatus for electronic circuit components, and method for manufacturing electronic circuit components
US20170116746A1 (en) Method for segmenting a color image and digital microscope
JP4961370B2 (en) Inspection method and inspection apparatus
JP5509706B2 (en) Image processing apparatus and image processing method
JP4354174B2 (en) Manufacturing method for electronic circuit components
JP2008139101A (en) Method and apparatus for extracting region becoming judge target of crystallized state from electronic image of protein solution

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20061225

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071203

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100825

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100831

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101029

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101124

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110322