JP2007130329A - Appearance inspection method by image - Google Patents

Appearance inspection method by image Download PDF

Info

Publication number
JP2007130329A
JP2007130329A JP2005327962A JP2005327962A JP2007130329A JP 2007130329 A JP2007130329 A JP 2007130329A JP 2005327962 A JP2005327962 A JP 2005327962A JP 2005327962 A JP2005327962 A JP 2005327962A JP 2007130329 A JP2007130329 A JP 2007130329A
Authority
JP
Japan
Prior art keywords
feature
image
color
value
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005327962A
Other languages
Japanese (ja)
Other versions
JP4725298B2 (en
Inventor
Oscar Vanegas
オスカル バネガス
Ryosuke Mitaka
良介 三高
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Electric Works Co Ltd
Original Assignee
Matsushita Electric Works Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Works Ltd filed Critical Matsushita Electric Works Ltd
Priority to JP2005327962A priority Critical patent/JP4725298B2/en
Publication of JP2007130329A publication Critical patent/JP2007130329A/en
Application granted granted Critical
Publication of JP4725298B2 publication Critical patent/JP4725298B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Spectrometry And Color Measurement (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an appearance inspection method by an image which can extract a trait portion so as to be in agreement with feeling seen by a person. <P>SOLUTION: In a collar image which is acquired by photographing an inspected thing (S1), a color separation shaft, which passes through a background portion and a trait portion within color space, is established and a single channel image, which has a location on the color separation shaft when projecting each picture element on the color separation shaft in a pixel value, is formed (S2). Next, a connection domain comprising a picture element, where the difference of the pixel value between the adjoining picture elements is below a specified value, is formed (S3) in the single channel image. Then, a trait determination domain is formed by unifying the connection domain using the distribution of the internal and external pixel values in the connection domain which serves as the candidate of the trait portion (S4-S6). The trait portion is classified into the items of two or more skin troubles as classification by classifying the amount of traits determined from the trait determination domain (S7-S8). <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、被検査物の濃淡画像を用いて明度変化の大きい領域だけではなく明度変化の少ない領域からも被検査物の外観上の特徴部分を抽出できるようにし、人の皮膚、合成樹脂成形品、金属製品表面などに生じるシミや色ムラなどの検査を行う画像による外観検査方法に関するものである。   The present invention makes it possible to extract a characteristic part on the appearance of an inspected object from not only an area having a large change in brightness but also an area having a small change in brightness by using a grayscale image of the inspected object. The present invention relates to an appearance inspection method using an image for inspecting stains and color unevenness generated on the surface of products, metal products, and the like.

従来から、被検査物を撮像して得られる濃淡画像を用いて被検査物の外観上の特徴部分の候補を抽出し評価する外観検査装置が提供されている。検査対象である被検査物は、工業製品であることが多いが、最近では化粧品や美容施術などの効果を定量的に確認したり評価したりするために、人の皮膚を被検査物とする場合でも画像による外観検査の技術が採用されるようになってきている。   2. Description of the Related Art Conventionally, there has been provided an appearance inspection apparatus that extracts and evaluates candidates for characteristic portions on the appearance of an inspection object using a grayscale image obtained by imaging the inspection object. The inspection object to be inspected is often an industrial product, but recently the human skin is used as the inspection object in order to quantitatively confirm and evaluate the effects of cosmetics and cosmetic treatments. Even in this case, an image inspection technique using images has been adopted.

すなわち、従来では皮膚の状態を確認する方法として、本人に対する問診や専門家による目視や触診が一般的であって、定性的な評価が行われていた。また、皮膚のかさつきの程度などは計測する機器も提供されているが、シミ、シワ、毛穴の黒ずみ、色ムラのような皮膚の外観上の特徴部分(以下、「肌トラブル」という)については、主として目視に頼っているのが現状である。   That is, conventionally, as a method for confirming the state of the skin, an inquiry to the person himself / herself, visual inspection or palpation by an expert are common, and qualitative evaluation has been performed. In addition, although equipment for measuring the degree of skin roughness etc. is also provided, the features on the appearance of the skin such as spots, wrinkles, blackened pores and uneven color (hereinafter referred to as “skin trouble”) However, the current situation depends mainly on visual inspection.

上述した肌トラブル、すなわちシミ、シワ、毛穴の黒ずみ、色ムラについては、モノクロの濃淡画像では周囲よりも明度が低くなるから、工業用の外観検査装置と同様に、濃淡画像に対して照明ムラを除去する処理(以下、「シェーディング除去処理」という)を施した後に、濃淡画像を明度について2値化することが考えられている(たとえば、特許文献1参照)。この2値画像において特徴部分の候補となる画素の連結成分を抽出し、当該連結成分について各種の特徴量(面積、慣性主軸方向の長さ寸法、円形度、平均明度など)を評価することにより、肌トラブルか否かを判断するのである。また肌トラブルであれば種別を分類するとともに、各分類項目ごとに個数や面積のような発生量を定量的に求め、肌トラブルの領域の濃淡画像の明度を用いて肌トラブルの程度を定量的に求める。   As for the above-mentioned skin troubles, i.e., spots, wrinkles, pore darkening, and color unevenness, the brightness of a monochrome grayscale image is lower than that of the surroundings. It is conceivable to binarize a grayscale image with respect to brightness after performing a process for removing the image (hereinafter referred to as “shading removal process”) (see, for example, Patent Document 1). By extracting connected components of pixels that are candidates for feature parts in this binary image and evaluating various feature values (area, length in inertia principal axis direction, circularity, average brightness, etc.) for the connected components It is judged whether it is a skin trouble or not. In addition, if it is a skin trouble, the type is classified, and the amount of occurrence such as the number and area is obtained quantitatively for each classification item, and the degree of skin trouble is quantitatively determined using the brightness of the gray image of the skin trouble area. Ask for.

ここに、2値画像は明度に対する適宜のしきい値を用いて生成し、明度がしきい値よりも低い(つまり、暗い)部分の画素値を「1」、残りの画素値を「0」とした画像である。この2値画像において、特徴部分の候補となる画素の連結成分は、画素値が「1」である画素が8近傍に存在する画素を追跡することにより形成される。
特開平7−19839号公報
Here, the binary image is generated using an appropriate threshold value with respect to the lightness, the pixel value of the portion where the lightness is lower (that is, dark) than the threshold value is “1”, and the remaining pixel values are “0”. It is an image. In this binary image, a connected component of pixels that are candidates for feature portions is formed by tracking a pixel having a pixel value “1” in the vicinity of 8 pixels.
JP-A-7-19839

上述のように、濃淡画像にシェーディング除去処理を施した後に2値化した2値画像を用いて肌トラブルを抽出する場合には、2値画像を用いて連結成分を抽出しているから、2値化の際のしきい値の大きさに応じて連結成分の大きさが変化する。つまり、肌トラブルの範囲が、目視では1つの領域とみなせるにもかかわらず複数個の連結成分に分割されることがあり、逆に目視では複数の領域として認識されるにもかかわらず全体で1つの連結成分しか抽出されない場合が生じる。   As described above, when a skin trouble is extracted using a binary image that has been binarized after the shading removal process is performed on the grayscale image, the connected component is extracted using the binary image. The size of the connected component changes according to the threshold value at the time of the value conversion. That is, the range of skin troubles may be divided into a plurality of connected components even though it can be regarded as one region by visual inspection. There may be cases where only one connected component is extracted.

とくに、人の皮膚におけるシミやシワなどは周辺との明度差が小さい上に、明度がなだらかに変化していることが多く、2値化に用いるしきい値を設定できる範囲が狭いから、上述した問題が生じやすくなる。たとえば、目視では明度にムラのある1個の大きなシミがあると認識される場合に、しきい値の大きさによってはシミの内部で明度の低い複数の領域が抽出され、複数個の小さいシミがあるというように目視結果とは異なる判定結果が生じることになる。   In particular, spots and wrinkles on human skin have a small difference in brightness from the surroundings, and the brightness is often changing gently, and the range in which the threshold value used for binarization can be set is narrow. Problems are likely to occur. For example, when it is visually recognized that there is one large spot with uneven brightness, depending on the threshold value, a plurality of low brightness areas are extracted within the spot, and a plurality of small spots are extracted. As a result, a determination result different from the visual result is generated.

上述の問題を解決するには、2値化の際のしきい値を変更して画素値が「1」になる領域を増やすことが考えられるが、この場合、目視では近くに隣接している複数個の小さいシミと認識されるにもかかわらず、判定結果では大きい1個のシミとみなされる可能性が生じる。   In order to solve the above problem, it is conceivable to increase the region where the pixel value is “1” by changing the threshold value in binarization. Despite being recognized as a plurality of small spots, the determination result may be regarded as one large spot.

要するに、顔面における肌トラブルのように人に見られる特徴部分は、人の視認する感覚と一致するような判定結果を得ることが要求されるが、濃淡画素を明度に対する一定のしきい値で2値化するだけの単純な方法では、しきい値の選択が難しい上に、しきい値の設定可能な範囲が狭いから、しきい値の設定自体が難しく、人の視認する感覚と判定結果とを一致させることが困難であるという問題を有している。   In short, it is required that a characteristic portion seen by a person like a skin trouble on the face is obtained with a determination result that matches a sense visually recognized by the person. It is difficult to select a threshold value with a simple method that only involves value conversion, and the threshold setting range is narrow, so it is difficult to set the threshold value itself. Are difficult to match.

本発明は上記事由に鑑みて為されたものであり、その目的は、特徴部分の内部での明度の変化がなだらかであり、また特徴部分の内部の明度の分布にむらがあるような被検査物であっても、特徴部分を人の視認する感覚に一致するように抽出することができる画像による外観検査方法を提供することにある。   The present invention has been made in view of the above-mentioned reasons, and the object thereof is to be inspected such that the change in lightness inside the characteristic part is gentle and the lightness distribution inside the characteristic part is uneven. An object of the present invention is to provide an appearance inspection method using an image that can extract a feature portion so as to match a sense visually recognized by a person.

請求項1の発明は、被検査物を撮影して得られたシングルチャンネル画像について、隣接する画素間の画素値の差が第1の規定値以下になる画素からなる連結領域を生成した後、特徴部分の候補となる連結領域の内外の画素値の分布を用いて連結領域を統合することにより特徴判定領域を生成し、特徴判定領域から得られる特徴量について分類することにより特徴部分を複数の種別に分類することを特徴とする。   In the first aspect of the present invention, for a single channel image obtained by photographing an object to be inspected, after generating a connected region composed of pixels in which a difference in pixel value between adjacent pixels is equal to or less than a first specified value, A feature determination region is generated by integrating the connected regions using the distribution of pixel values inside and outside the connection region that is a candidate for the feature portion, and the feature portion is classified into a plurality of feature portions by classifying the feature amount obtained from the feature determination region. It is characterized by being classified into types.

この方法によれば、従来のように濃淡画像を2値化した2値画像により生成した連結成分を用いて判定するのではなく、画素値の差が第1の規定値以下になる画素からなる連結領域を生成しているので、明度差が小さい場合や明度がなだらかに変化するような場合であっても連結領域を設定することができる。しかも、その連結領域について画素値の内外の分布を用いて統合することにより特徴判定領域を生成するから、特徴部分の範囲を正確に抽出することができる。言い換えると、連結領域は画素値の類似度によって生成し、一方、連結領域を統合して特徴判定領域を生成する際には画素値の相違を利用するから、特徴部分について、周辺との明度差が小さい場合や明度がなだらかに変化する場合でも適正な範囲を特徴判定領域として抽出することができる。このように特徴判定領域を適正に抽出することができ、しかも定量的に判断されるから、判定結果の再現性を高めることができる。さらに、特徴量の分類方法を適正に与えておけば、人間が視認した感覚に一致する判定結果を得ることが可能になるから、専門家の判断と同程度の判断が誰にでも行えるようになる。   According to this method, instead of using a connected component generated by a binary image obtained by binarizing a grayscale image as in the prior art, the pixel value difference is equal to or less than the first specified value. Since the connected area is generated, the connected area can be set even when the brightness difference is small or when the brightness changes gently. In addition, since the feature determination region is generated by integrating the connected regions using the internal and external distributions of the pixel values, the range of the feature portion can be accurately extracted. In other words, the connected area is generated based on the similarity of the pixel values. On the other hand, when the feature determination area is generated by integrating the connected areas, the difference in the pixel value is used for the feature portion. An appropriate range can be extracted as a feature determination area even when the brightness is small or the brightness changes gently. As described above, the feature determination region can be appropriately extracted and quantitatively determined, so that the reproducibility of the determination result can be improved. Furthermore, if the classification method of the feature quantity is given appropriately, it will be possible to obtain a judgment result that matches the sense visually recognized by humans, so that anyone can make judgments similar to expert judgments. Become.

請求項2の発明は、被検査物である人体の皮膚を撮影して得られたシングルチャンネル画像について、隣接する画素間の画素値の差が第1の規定値以下になる画素からなる連結領域を生成した後、連結領域の内外の画素値の分布を用いて正常な肌である背景部分から肌トラブルの候補である特徴部分を分離するとともに特徴部分となる連結領域を統合した特徴判定領域を生成し、特徴判定領域から得られる特徴量について分類することにより肌トラブルを複数の種別に分類することを特徴とする。   The invention according to claim 2 is a connected region composed of pixels in which a difference in pixel value between adjacent pixels is equal to or less than a first specified value for a single channel image obtained by photographing a human skin as an object to be inspected. A feature determination region that separates feature portions that are candidates for skin trouble from a background portion that is normal skin using a distribution of pixel values inside and outside of the connected region and integrates the connected regions that are feature portions. The skin troubles are classified into a plurality of types by generating and classifying the feature amounts obtained from the feature determination area.

この方法によれば、請求項1と同様の作用が期待できる。とくに、人体の皮膚におけるシミ、シワ、毛穴の黒ずみ、色ムラのように、正常な皮膚との明度差が少ない部位や明度の変化が緩やかである肌トラブルについても、画素値の差が第1の規定値以下である画素群からなる連結領域を生成し、各連結領域について正常な皮膚の部分との画素値の差を評価して統合して特徴判定領域を生成することによって確実に抽出することができる。つまり、従来は人間の視認した感覚に一致する判定結果を得ることが困難であった肌トラブルに関して人間の視認した感覚に一致する判定結果を得ることが可能になる。しかも、肌トラブルについて定量的に判定されるから再現性のよい判定結果が得られる。   According to this method, the same effect as in the first aspect can be expected. In particular, the difference in pixel value is also the first for skin troubles where there is little lightness difference from normal skin, such as spots, wrinkles, darkening of pores, and color unevenness in human skin, and skin troubles where the lightness changes slowly. A connected region composed of a pixel group that is equal to or less than a prescribed value of the above is generated, and the difference between the pixel value of each connected region and a normal skin portion is evaluated and integrated to generate a feature determination region, which is reliably extracted. be able to. That is, it is possible to obtain a determination result that matches the sense visually recognized by humans with respect to skin troubles, which has conventionally been difficult to obtain a determination result that matches the sense visually recognized by humans. Moreover, since the skin trouble is quantitatively determined, a determination result with good reproducibility can be obtained.

請求項3の発明は、請求項1または請求項2の発明において、前記被検査物を撮影した画像はカラー画像であって、当該カラー画像にシェーディング除去処理を施した後、明度と色との少なくとも一方について設定した暫定的なしきい値を用いてカラー画像を2値化することにより暫定特徴部分と暫定背景部分とに分離し、暫定特徴部分と暫定背景部分と各画素集団を通るように色空間内で設定した色分離軸にカラー画像の各画素を投影することによって色分離軸上の位置を画素値に持つ画像を生成し、この画像を前記シングルチャンネル画像に用いることを特徴とする。   According to a third aspect of the present invention, in the first or second aspect of the present invention, the image obtained by photographing the object to be inspected is a color image, and after the shading removal process is performed on the color image, the brightness and the color A color image is binarized using a temporary threshold set for at least one to separate the temporary feature portion and the temporary background portion, and the color passes through the temporary feature portion, the temporary background portion, and each pixel group. By projecting each pixel of a color image onto a color separation axis set in space, an image having a pixel value at a position on the color separation axis is generated, and this image is used for the single channel image.

この方法によれば、特徴部分と背景部分との画素値の差が大きくなるシングルチャンネル画像を生成することができる。すなわち、暫定特徴部分と暫定背景部分とを通るように色分離軸を設定し、この色分離軸に画素を投影して色分離軸上の位置を画素値とすることにより、特徴部分と背景部分との画素値の差が大きくなるシングルチャンネル画像を生成することができ、このシングルチャンネル画像を用いて連結領域および特徴判定領域を生成することにより、特徴部分と背景部分との色差が少ない場合でも分離しやすくなる。また、色分離軸を設定することは背景部分の地色に関するキャリブレーションを行ったことに相当するから、背景部分の地色にかかわらず特徴部分を抽出するのが容易になる。   According to this method, it is possible to generate a single channel image in which the difference in pixel value between the feature portion and the background portion is large. That is, the color separation axis is set so as to pass through the provisional feature portion and the provisional background portion, the pixel is projected onto the color separation axis, and the position on the color separation axis is set as the pixel value, thereby the feature portion and the background portion. A single channel image with a large difference in pixel value can be generated. By using this single channel image to generate a connected region and a feature determination region, even when there is little color difference between the feature portion and the background portion It becomes easy to separate. Also, setting the color separation axis is equivalent to performing calibration related to the background color of the background portion, so that it becomes easy to extract a feature portion regardless of the background color of the background portion.

請求項4の発明は、請求項1ないし請求項3のいずれかの発明において、前記連結領域を統合することにより前記特徴判定領域を生成するにあたって、統合する候補の連結領域ごとに当該連結領域の内部の画素値の平均値と当該連結領域の周辺の背景部分の画素値の平均値との差を求め、この差が第2の規定値よりも大きいときに当該連結領域を特徴部分とし、この差が第2の規定値よりも小さいときに当該連結領域を背景部分として、特徴部分となる連結領域の集合を特徴判定領域として統合することを特徴とする。   According to a fourth aspect of the present invention, in the invention according to any one of the first to third aspects, when the feature determination area is generated by integrating the connected areas, the connected area of each connected area to be integrated is determined. The difference between the average value of the internal pixel values and the average value of the pixel values of the background portion around the connected area is obtained, and when the difference is larger than the second specified value, the connected area is defined as a feature part. When the difference is smaller than the second specified value, the connected region is integrated as a background portion, and a set of connected regions that are characteristic portions is integrated as a feature determination region.

この方法によれば、連結領域を特徴判定領域に統合する際に、画素値の平均値の差を用いるから、簡単かつ適正に連結領域を特徴部分と背景部分とに振り分けることができる。   According to this method, since the difference between the average values of the pixel values is used when integrating the connected area into the feature determination area, the connected area can be easily and appropriately allocated to the feature portion and the background portion.

請求項5の発明は、請求項4の発明において、前記特徴判定領域についてスケルトンを求め、互いに異なる2個の特徴判定領域のスケルトンの端点間を結ぶ線分の長さが第3の規定値以上であるときに、両特徴判定領域のスケルトン上の各画素と前記線分との距離の平均値に対する前記線分の長さの比が第4の規定値以上であり、かつ両特徴判定領域の色差が第5の規定値以下のときに両特徴判定領域を1個の特徴判定領域に統合することを特徴とする。   According to a fifth aspect of the present invention, in the fourth aspect of the present invention, a skeleton is obtained for the feature determination area, and the length of a line segment connecting between the skeleton end points of two different characteristic determination areas is equal to or greater than a third specified value. The ratio of the length of the line segment to the average value of the distance between each pixel on the skeleton of both feature determination areas and the line segment is equal to or greater than a fourth specified value, and Both feature determination areas are integrated into one feature determination area when the color difference is equal to or smaller than a fifth specified value.

この方法によれば、1個の特徴判定領域に統合されるべき部分が複数個の特徴判定領域に分断されている場合に、統合の可否を判定し可能なかぎり統合することができる。   According to this method, when a portion to be integrated into one feature determination region is divided into a plurality of feature determination regions, it is possible to determine whether integration is possible and to integrate as much as possible.

請求項6の発明は、請求項1ないし請求項5のいずれかの発明において、前記特徴判定領域から得られる複数種類の特徴量を入力とするニューラルネットワークにより複数の種別に分類するにあたり、特徴量を分類する基準値と当該基準値による分類結果と分類の修正結果とを対話的に入力した教示データが蓄積され、蓄積された教示データを用いてニューラルネットワークが教示されていることを特徴とする。   The invention according to claim 6 is characterized in that, in the invention according to any one of claims 1 to 5, when classification into a plurality of types by a neural network that receives a plurality of types of feature values obtained from the feature determination area, The teaching data obtained by interactively inputting the reference value for classifying the classification, the classification result based on the reference value, and the classification correction result are accumulated, and the neural network is taught using the accumulated teaching data. .

この方法では、ニューラルネットワークを用いて特徴部分の分類を行うから、複数の特徴量から適正な分類結果を得ることができる。しかも、ニューラルネットワークの教示データを対話的に入力することによって、目視による判断と特徴判定領域から抽出した特徴量を用いた判定結果とを一致させるように基準値を収束させることができ、調整の難しい基準値を比較的簡単に設定することができることになる。   In this method, since a feature portion is classified using a neural network, an appropriate classification result can be obtained from a plurality of feature amounts. Moreover, by interactively inputting the teaching data of the neural network, the reference value can be converged so that the judgment by visual observation and the judgment result using the feature amount extracted from the feature judgment area can be made to coincide with each other. Difficult reference values can be set relatively easily.

本発明の方法によれば、連結領域を画素値の類似度によって生成し、連結領域を統合して特徴判定領域を生成する際には画素値の相違を利用するから、特徴部分について、周辺との明度差が小さい場合や明度がなだらかに変化する場合でも適正な範囲を特徴判定領域として抽出することができ、この特徴判定領域の特徴量を用いて分類結果を得るから、判定結果の再現性を高めることができるという利点がある。また、特徴量の分類方法を適正に与えておけば、専門家の判断と同程度の判断が誰にでも行えるようになるという利点もある。   According to the method of the present invention, a connected region is generated based on the similarity of pixel values, and the difference between pixel values is used when generating a feature determination region by integrating the connected regions. Even if the brightness difference between the two is small or the brightness changes gently, the appropriate range can be extracted as the feature judgment area, and the classification result is obtained using the feature quantity of this feature judgment area. There is an advantage that can be increased. In addition, if a feature amount classification method is appropriately given, there is an advantage that anyone can make a judgment similar to that of an expert.

以下では、従来構成の説明に用いた人の顔面の皮膚を被検査物とし、肌トラブルであるシミ、シワ、毛穴の黒ずみ、色ムラを特徴部分として抽出し評価する場合を例として説明するが、銅貼り積層基板におけるシミの有無や、合成樹脂成形品におけるシミ、シワ、色ムラなどの検出にも本発明の技術思想を適用することが可能である。   In the following, a case will be described in which the skin of a person's face used in the description of the conventional configuration is an object to be inspected, and skin troubles such as spots, wrinkles, blackened pores, and color unevenness are extracted and evaluated as characteristic portions. The technical idea of the present invention can also be applied to detection of the presence or absence of spots on the copper-clad laminated substrate and spots, wrinkles, and color unevenness in synthetic resin molded products.

本実施形態では、図3に示すように、被検査物である人Hの顔を撮影するTVカメラからなる撮像装置11を備え、顔全体を均一に照明するために、いわゆるリングライトを照明装置16に用いている。この照明装置16は発光面が円環状に形成され、発光面に囲まれた中央孔を通して撮像装置11による撮影を行う。したがって、照明装置16は、撮像装置11の光軸をを中心とする全方位から被検査物に光を照射することにより、被検査物に影が生じないように無影照明を行う。本実施形態の照明装置16は、光源16aとして円環状に形成され高周波点灯する蛍光ランプを用い、光源16aの前方に被検査物よりも大きい拡散板16bを配置したものを用いている。また、発光輝度は、人Hが極端にまぶしさを感じることがなく、しかも皮脂によるテカリが生じない程度に設定してある。   In the present embodiment, as shown in FIG. 3, an imaging device 11 including a TV camera that captures the face of a person H who is an object to be inspected is provided, and a so-called ring light is used to illuminate the entire face uniformly. Used for. The illuminating device 16 has a light emitting surface formed in an annular shape, and performs imaging by the imaging device 11 through a central hole surrounded by the light emitting surface. Therefore, the illuminating device 16 performs shadowless illumination so that no shadow is generated on the inspection object by irradiating the inspection object with light from all directions around the optical axis of the imaging device 11. The illuminating device 16 of the present embodiment uses a fluorescent lamp that is formed in an annular shape and radiates at a high frequency as the light source 16a, and uses a diffuser plate 16b that is larger than the object to be inspected in front of the light source 16a. Further, the light emission luminance is set to such a level that the person H does not feel extremely dazzling and does not cause shine due to sebum.

撮像装置11はデジタル信号の濃淡画像を出力するように構成され、撮像装置11で被検査物を撮影することにより得られた濃淡画像は、フレームメモリからなる記憶装置12に格納される。本実施形態では、撮像装置11としてカラーTVカメラを想定しており、照明装置16の光源には演色性のよいものを用いる。記憶装置12にはハードディスク装置のような大容量記憶装置を併用してもよい。   The imaging device 11 is configured to output a grayscale image of a digital signal, and the grayscale image obtained by photographing the inspection object with the imaging device 11 is stored in a storage device 12 including a frame memory. In the present embodiment, a color TV camera is assumed as the imaging device 11, and a light source having a good color rendering property is used as the light source of the illumination device 16. The storage device 12 may be a mass storage device such as a hard disk device.

被検査物の特徴部分は、記憶装置12に格納された濃淡画像を用いて画像処理装置13において抽出される。画像処理装置13の処理内容については後述する。画像処理装置13には画像や解析結果を表示するための出力装置14と、画像処理装置13に指示を与えるための入力装置15が接続される。本実施形態では、出力装置14にはカラーモニタを用い、入力装置15にはマウスおよびキーボードを用いている。図3に記載した各装置のうち撮像装置11を除く部分はパーソナルコンピュータを用いるとともに、後述する機能を有するプログラムを実行することで実現する。   The characteristic portion of the inspection object is extracted by the image processing device 13 using the grayscale image stored in the storage device 12. The processing contents of the image processing device 13 will be described later. Connected to the image processing device 13 are an output device 14 for displaying images and analysis results, and an input device 15 for giving instructions to the image processing device 13. In this embodiment, a color monitor is used for the output device 14 and a mouse and a keyboard are used for the input device 15. 3 is realized by using a personal computer and executing a program having functions to be described later.

以下、画像処理装置13の動作を説明するにあたって、撮像装置11により得られた図4に示す濃淡画像が得られた場合を想定する。図4に示す例では、加齢による皮膚の弛みによるシワ4A、色素の沈着によるシミ4B、毛穴に詰まった皮脂汚れによる黒ずみ4C、点状に色素が沈着した色ムラ4Dが生じているものとする。   Hereinafter, in describing the operation of the image processing device 13, it is assumed that the grayscale image shown in FIG. 4 obtained by the imaging device 11 is obtained. In the example shown in FIG. 4, wrinkles 4A due to skin sag due to aging, stains 4B due to pigment deposition, black spots 4C due to sebum dirt clogged in pores, and color unevenness 4D with pigments deposited in spots. To do.

撮像装置11によって図4に示す濃淡画像を得るには、照明装置16を点灯し、撮像装置11により人Hの顔面を撮影する。撮像装置11で得られた濃淡画像は記憶装置12に転送される(図1のS1)。上述のように撮像装置11はカラーTVカメラであるから、濃淡画像はカラー画像であって、ここではRGB表色系に相当する画像信号が出力されるものを用いている(つまり、一般的な構成のカラーTVカメラを用いる)。   In order to obtain the grayscale image shown in FIG. 4 by the imaging device 11, the illumination device 16 is turned on, and the face of the person H is photographed by the imaging device 11. The grayscale image obtained by the imaging device 11 is transferred to the storage device 12 (S1 in FIG. 1). As described above, since the imaging device 11 is a color TV camera, the grayscale image is a color image, and an image signal that corresponds to the RGB color system is output here (that is, a general image is used). Use a color TV camera of the configuration).

RGB表色系のカラー画像は3枚のモノクロ画像により構成された3チャンネル画像であるが、本実施形態では、3チャンネル画像をシングルチャンネル画像に変換する処理を行う(図1のS2)。以下に説明する方法で生成したシングルチャンネル画像の画素値は明度を表していないが、各画素の色を色空間における一つの直線に投影したときの直線上での位置に相当する画素値を有している。濃淡画像は色空間において各画素の色を明度軸に投影したときの明度軸上での位置に相当する画素値を有しているものであり、以下に説明するシングルチャンネル画像の一例として扱うことができる。逆に言えば、以下に説明するシングルチャンネル画像も広義には濃淡画像であると言える。なお、本実施形態では、人の顔面を被検査物としており、検査項目は肌トラブルであって、目や鼻などは検査対象ではないので、図4に示すように適宜形状(図示例では多角形)のマスク4Pを用いて適用し、マスク4Pの内部の画像のみを検査対象とする。   The RGB color system color image is a three-channel image composed of three monochrome images. In this embodiment, a process of converting the three-channel image into a single-channel image is performed (S2 in FIG. 1). The pixel value of the single channel image generated by the method described below does not represent brightness, but has a pixel value corresponding to the position on the straight line when the color of each pixel is projected onto one straight line in the color space. is doing. The grayscale image has a pixel value corresponding to the position on the lightness axis when the color of each pixel is projected onto the lightness axis in the color space, and is treated as an example of a single channel image described below. Can do. Conversely, it can be said that the single channel image described below is also a grayscale image in a broad sense. In the present embodiment, the human face is the object to be inspected, the inspection item is skin trouble, and the eyes and nose are not inspection targets. Therefore, as shown in FIG. (Rectangular) mask 4P is used, and only the image inside the mask 4P is set as an inspection target.

3チャンネル画像からシングルチャンネル画像を生成する方法としては、カラー画像の各チャンネルの重み付き平均値を用いたり、RGB画像をL表色系のカラー画像に変換し明度を表すLチャンネル成分を用いたりすることができる。しかしながら、これらの方法では、肌トラブルによる明度の低下は捉えることができるとしても、色の変化をシングルチャンネル画像に十分に反映させることができない。とくに、L表色系のカラー画像のLチャンネルは色相および彩度の情報を持たないから、この方法で生成したシングルチャンネル画像では色の変化を検出することができない。 As a method of generating a single channel image from a three-channel image, a weighted average value of each channel of a color image is used, or an RGB image is converted into a color image of L * a * b * color system and L representing the brightness. * Channel components can be used. However, these methods cannot sufficiently reflect the color change in the single-channel image even though it is possible to capture a decrease in brightness due to skin trouble. In particular, since the L * channel of the color image of the L * a * b * color system does not have hue and saturation information, a single channel image generated by this method cannot detect a color change.

そこで、本実施形態では、被検査物である皮膚のうち特徴部分を除いた正常と考えられる部分(以下では、「背景部分」と呼ぶ)と、肌トラブルが発生していると考えられる特徴部分とを分離しやすくするように、色空間において背景部分と特徴部分とを通る直線を求める。以下では、この直線を「色分離軸」と呼ぶ。すなわち、背景部分と特徴部分との色空間内における画素値が少数の潜在変数の線形結合で表されると仮定し、潜在変数で表される直線を色分離軸として求めるのである。色分離軸は、因子分析モデルにおける基本式に相当する。   Therefore, in the present embodiment, a part considered to be normal (hereinafter referred to as “background part”) excluding the characteristic part of the skin as the object to be inspected, and a characteristic part considered to cause the skin trouble In order to make it easier to separate the two, a straight line passing through the background portion and the feature portion in the color space is obtained. Hereinafter, this straight line is referred to as a “color separation axis”. That is, assuming that the pixel value in the color space of the background portion and the feature portion is represented by a linear combination of a small number of latent variables, a straight line represented by the latent variables is obtained as a color separation axis. The color separation axis corresponds to a basic formula in the factor analysis model.

図1のステップS2において、RGB表色系のカラー画像をシングルチャンネル画像に変換する手順は、具体的には図2のようになる。すなわち、記憶装置12に格納されたRGB表色系のカラー画像を、まずL表色系のカラー画像に変換する(S11)。ところで、被検査物である顔面には凹凸があるから、無影で照明する照明装置16を用いても、カラー画像内には顔面の凹凸に応じて緩やかに明度の差が生じる(図4の斜線は明度が低い部位を表している)。 The procedure for converting an RGB color system color image into a single channel image in step S2 of FIG. 1 is specifically as shown in FIG. That is, the RGB color system color image stored in the storage device 12 is first converted to an L * a * b * color system color image (S11). By the way, since the face that is the object to be inspected has irregularities, even if the illumination device 16 that illuminates without shadow is used, a difference in brightness occurs gently in the color image according to the irregularities of the face (see FIG. 4). The shaded area represents the part with low lightness).

そこで、明度を表すLチャンネルに対しシェーディング除去処理を施して明度の変化を除去する(S12)。ここでのシェーディング除去処理には、低域成分を除去する空間周波数フィルタを用いる。この種の空間周波数フィルタとしては、たとえば、ラプラシアンガウシアンフィルタを用いる。図4のカラー画像に対して、ステップS12によってLチャンネルの画像から低域成分を除去した画像を図5に示す。 Therefore, shading removal processing is applied to the L * channel representing the lightness to remove the change in lightness (S12). In this shading removal process, a spatial frequency filter that removes low-frequency components is used. For example, a Laplacian Gaussian filter is used as this type of spatial frequency filter. FIG. 5 shows an image obtained by removing low-frequency components from the L * channel image in step S12 with respect to the color image of FIG.

上述した色分離軸を求めるには、まず図5に示す画像を用いて背景部分と特徴部分とを暫定的に分離する。つまり、Lチャンネルの画像にシェーディング除去処理を施した後に、暫定的にしきい値を設定して2値化を行う(S13)。この2値化では、明度の情報だけを用いているから、背景部分と特徴部分とを正確に分離できるわけではないが、図6のように、暫定的に背景部分(白色部分)の候補(「暫定背景部分」と呼ぶ)41と特徴部分(黒色部分)の候補(「暫定特徴部分」と呼ぶ)42とに分離することができる。なお、明度ではなく色の情報を用いて2値化したり、明度と色との両情報を用いて2値化することも可能である。 In order to obtain the color separation axis described above, first, the background portion and the feature portion are provisionally separated using the image shown in FIG. That is, after the shading removal process is performed on the image of the L * channel, the threshold value is temporarily set and binarization is performed (S13). In this binarization, since only the brightness information is used, the background portion and the feature portion cannot be accurately separated. However, as shown in FIG. It can be separated into a “provisional background portion” 41 and a feature portion (black portion) candidate (referred to as “provisional feature portion”) 42. It is also possible to binarize using color information instead of lightness, or binarize using both lightness and color information.

このようにして得られた暫定背景部分41と暫定特徴部分42とに属する各画素について、シェーディング除去処理後のLチャンネルの画素値と、aチャンネルおよびbチャンネルの画素値とで表される色を、L表色系の色空間にプロットする(S14)。L表色系の色空間にプロットされた画素は、背景部分および特徴部分の候補の色を有しているから、これらの色を用いれば色分離軸を求めることができる。 For each pixel belonging to the provisional background portion 41 and the provisional feature portion 42 thus obtained, the pixel value of the L * channel after the shading removal processing and the pixel value of the a * channel and b * channel are represented. Are plotted in the color space of the L * a * b * color system (S14). Since the pixels plotted in the color space of the L * a * b * color system have the background portion and the feature portion candidate colors, the color separation axis can be obtained by using these colors.

いま、ステップS14の処理により、L表色系の色空間において、図7に示すように画素がプロットされたとする。上述のようにして色空間にプロットされた画素は、背景部分の画素同士が色空間内で近接し、また特徴部分の画素同士が色空間内で近接すると考えられる。つまり、背景部分の画素集団51と特徴部分の画素集団52とを形成すると考えられる。そこで、色分離軸を設定するために、背景部分の画素集団51と特徴部分の画素集団52とについてそれぞれ色の平均値e51,e52を求める(S15)。色空間内において平均値e51,e52を通る直線を色分離軸53とすれば(S16)、各画素の色を色分離軸53に投影したときに、色分離軸53の上では背景部分の画素群と特徴部分の画素群とに分離されることになる。 Now, it is assumed that the pixels are plotted as shown in FIG. 7 in the color space of the L * a * b * color system by the process of step S14. The pixels plotted in the color space as described above are considered that the pixels in the background portion are close to each other in the color space, and the pixels in the characteristic portion are close to each other in the color space. That is, it is considered that the pixel group 51 of the background part and the pixel group 52 of the characteristic part are formed. Therefore, in order to set the color separation axis, average values e51 and e52 of colors are obtained for the pixel group 51 of the background portion and the pixel group 52 of the feature portion, respectively (S15). If the straight line passing through the average values e51 and e52 in the color space is taken as the color separation axis 53 (S16), when the color of each pixel is projected onto the color separation axis 53, the pixels of the background portion are projected on the color separation axis 53. It is separated into a group and a pixel group of the characteristic part.

そこで、色分離軸53を求めた後、ステップS12でシェーディング除去処理を施した画素をあらためて色分離軸53に投影し、色分離軸53の上に適宜に設定した基準点からの距離を画素値としてシングルチャンネル画像を生成する(S17)。すなわち、3チャンネル画像であるカラー画像からシングルチャンネル画像を生成することができる。このシングルチャンネル画像では、背景部分と特徴部分との画素値の差が大きくなるから、背景部分と特徴部分との分離が容易になる。ここに、色分離軸53の正方向は明度が増加する方向に設定しておく。   Therefore, after obtaining the color separation axis 53, the pixels subjected to the shading removal process in step S12 are newly projected onto the color separation axis 53, and the distance from the reference point appropriately set on the color separation axis 53 is set as the pixel value. A single channel image is generated (S17). That is, a single channel image can be generated from a color image that is a three-channel image. In this single channel image, the difference in pixel value between the background portion and the feature portion becomes large, so that the background portion and the feature portion can be easily separated. Here, the positive direction of the color separation axis 53 is set in a direction in which the brightness increases.

以下の処理は、上述の方法で求めたシングルチャンネル画像を用いて行う。シングルチャンネル画像を用いて特徴部分を抽出する過程は、色調の類似する画素をグループ化する処理する過程と、グループ化した領域の特徴量を評価する過程と、特徴量の評価結果から肌トラブルの種別を分類する過程とからなり、画素のグループ化の過程は、比較的少数の画素の集合である連結領域を生成する過程と、連結領域同士の統合の可否を判断して連結領域よりも大きい集合である特徴判定領域を生成する過程とからなり、特徴量を評価する過程では特徴判定領域について特徴量を評価する。肌トラブルを分類するにあたっては、本実施形態ではニューラルネットワーク(ニューロコンピュータ)を用いる。   The following processing is performed using the single channel image obtained by the above method. The process of extracting a feature using a single channel image includes the process of grouping pixels with similar tones, the process of evaluating the feature quantity of the grouped area, and the result of the evaluation of the feature quantity. The pixel grouping process is larger than the connected area by determining whether or not the connected areas can be integrated and the process of generating a connected area that is a set of a relatively small number of pixels. The process includes a process of generating a feature determination area that is a set. In the process of evaluating the feature quantity, the feature quantity is evaluated for the feature determination area. In classifying skin troubles, a neural network (neurocomputer) is used in this embodiment.

連結領域を生成する過程(図1のS3)では、上述した方法で生成したシングルチャンネル画像について、画素値を2値化せずに画素値をそのまま用いてグループ化する。つまり、従来技術では、濃淡画像に対して明度に関する適宜のしきい値を適用して2値化した2値画像を用い、この2値画像から連結成分を抽出し、連結成分について特徴量を評価していたが、本実施形態では、図8に示すように、着目する画素Piに対して8近傍の画素との画素値の差分を求め、8近傍の画素について画素値の差分が規定値以下である場合には当該画素を着目する画素Piと同じ連結領域の画素としてグループ化する。ここに、画素値の差分と比較する規定値は、撮像装置11の解像度と特徴部分の大きさとの関係に依存するが、本実施形態において特徴部分として抽出しようとしている肌トラブルのうち最小サイズであるのは毛穴であって、毛穴について評価しようとすれば画像内において10画素程度の領域が必要であるから、本実施形態では、特徴部分の候補について、1つの連結領域のサイズが10画素程度になるように設定している。つまり、色分離軸53に特徴部分を投影したときに、色分離軸53の上で10画素ずつ程度に分離できるようにグループ化の規定値を設定する。図8は、特徴部分の候補から4個の連結領域A1〜A4が得られた例を示している。   In the process of generating the connected region (S3 in FIG. 1), the single channel images generated by the above-described method are grouped using the pixel values as they are without binarizing the pixel values. In other words, in the prior art, a binary image obtained by binarizing a grayscale image by applying an appropriate threshold value for brightness is used, and a connected component is extracted from the binary image, and a feature amount of the connected component is evaluated. However, in the present embodiment, as shown in FIG. 8, the difference between the pixel values of the pixel of interest Pi and the pixels in the vicinity of 8 is obtained for the pixel of interest Pi, and the difference in pixel value of the pixels in the vicinity of 8 is equal to or less than the specified value. If it is, the pixel is grouped as a pixel in the same connected area as the pixel Pi of interest. Here, the specified value to be compared with the difference between the pixel values depends on the relationship between the resolution of the imaging device 11 and the size of the feature portion, but is the smallest size among the skin troubles to be extracted as the feature portion in the present embodiment. There are pores, and if an attempt is made to evaluate pores, an area of about 10 pixels is required in the image. Therefore, in this embodiment, for a candidate for a feature portion, the size of one connected area is about 10 pixels. It is set to become. In other words, when the characteristic portion is projected onto the color separation axis 53, the specified value for grouping is set so that it can be separated into about 10 pixels on the color separation axis 53. FIG. 8 shows an example in which four connected regions A1 to A4 are obtained from the feature portion candidates.

連結領域が生成されると、連結領域をさらに統合可能か否かが評価され、統合可能な連結領域をグループ化することにより特徴判定領域を生成する(S4〜S6)。図9は特徴判定領域B61〜B610が生成された状態を示している。図9において特徴判定領域B61〜B610の内部の線は、連結領域の境界線を表している。図9のうち、特徴判定領域B63は、目視でシミに相当する部位であり、この部位には図10のように5個の連結領域A631〜A635が含まれているものとする。つまり、面積の大きいシミには色ムラがあるので、目視で1個のシミとみなせる範囲であっても、複数個の連結領域A631〜A635に分割されるのである。ただし、目視では1個のシミとみなせるので、目視による結果と一致させるために、複数個の連結領域A631〜A635が統合可能か否かを評価する。   When the connected region is generated, it is evaluated whether or not the connected region can be further integrated, and the feature determining region is generated by grouping the connected regions that can be integrated (S4 to S6). FIG. 9 shows a state in which the feature determination areas B61 to B610 are generated. In FIG. 9, the lines inside the feature determination areas B61 to B610 represent the boundary lines of the connection areas. In FIG. 9, the feature determination area B63 is a part visually equivalent to a spot, and it is assumed that this part includes five connection areas A631 to A635 as shown in FIG. That is, since a stain having a large area has color unevenness, it is divided into a plurality of connection regions A631 to A635 even within a range that can be regarded as one stain visually. However, since it can be regarded as one spot visually, it is evaluated whether or not a plurality of connection regions A631 to A635 can be integrated in order to match the result visually.

連結領域を生成する際には互いの画素値の類似の程度を評価したが、特徴判定領域を生成する際には各連結領域と背景との相違の程度を評価する。つまり、図10の例では、各連結領域A631〜A635の内部の画素値と、統合するか否かを評価する連結領域A631〜A635の周辺における背景の画素値との差を評価する。   When generating a connected area, the degree of similarity between pixel values is evaluated, but when generating a feature determination area, the degree of difference between each connected area and the background is evaluated. That is, in the example of FIG. 10, the difference between the pixel values inside each of the connection regions A631 to A635 and the background pixel values around the connection regions A631 to A635 for evaluating whether or not to integrate them is evaluated.

具体的には、まず各連結領域A631〜A635について、それぞれ内部の画素の画素値の平均値(以下、「内部平均値」と呼ぶ)InA631〜InA635を求める。さらに、各連結領域A631〜A635ごとに、重心G1の位置を中心とする規定の半径rの円内に存在し、かついずれの連結領域A631〜A635にも属さない画素の画素値の平均画素(以下、「外部平均値」と呼ぶ)OutA631〜OutA635を求める。次に、各連結領域A631〜A635ごとに、内部平均値InA631〜InA635と外部平均値0utA631〜OutA635との差(コントラスト値)CA63n(=InA63n−OutA63n)(n=1〜5)を求め、このコントラスト値CA63nを規定値Tと比較する。一般に、特徴部分は背景部分よりも暗いので、上述の演算式で求めたコントラスト値CA63nに対する規定値Tの符号は負になる。半径rは、統合の可否を判定しようとする連結領域A631〜A653の全体が円の中に含まれるように設定し、通常は、連結領域A631〜A635の重心G1から輪郭線までの最大距離の3〜5倍に設定する。   Specifically, for each of the connection regions A631 to A635, first, average values of pixel values of internal pixels (hereinafter referred to as “internal average values”) InA631 to InA635 are obtained. Further, for each of the connection regions A631 to A635, an average pixel of pixel values of pixels that exist in a circle having a specified radius r centered on the position of the center of gravity G1 and do not belong to any of the connection regions A631 to A635 ( Hereinafter, OutA631 to OutA635 are referred to as “external average values”. Next, a difference (contrast value) CA63n (= InA63n−OutA63n) (n = 1 to 5) between the internal average value InA631 to InA635 and the external average value 0utA631 to OutA635 is obtained for each connection region A631 to A635, The contrast value CA63n is compared with the specified value T. In general, since the characteristic part is darker than the background part, the sign of the specified value T with respect to the contrast value CA63n obtained by the above arithmetic expression is negative. The radius r is set so that the whole of the connection areas A631 to A653 to be determined as to whether or not integration is possible is included in the circle, and usually the maximum distance from the center of gravity G1 of the connection areas A631 to A635 to the contour line. Set 3 to 5 times.

コントラスト値CA63nの絶対値が規定値Tの絶対値よりも大きいという条件を満たせば、特徴部分は背景部分と相違すると判断することができるから、このような条件を満たす連結領域A631〜A635を一つの特徴判定領域に統合する(図1のS4,S5)。つまり、図10の例において規定値T=−15に設定し、各連結領域A631〜A635について求めたコントラスト値CA631〜CA635がそれぞれ−17、−8、−24、−20、−13であるとすれば、連結領域A631、A633、A634が条件を満たしていることになる。つまり、互いに境界を接する連結領域A631、A633、A634を統合することにより特徴判定領域B63を生成する(図1のS6)。   If the condition that the absolute value of the contrast value CA63n is larger than the absolute value of the specified value T is satisfied, it can be determined that the characteristic part is different from the background part. These are integrated into one feature determination area (S4, S5 in FIG. 1). That is, the contrast value CA631 to CA635 obtained for each of the connection regions A631 to A635 is set to −17, −8, −24, −20, and −13 in the example of FIG. Then, the connection areas A631, A633, and A634 satisfy the conditions. That is, the feature determination region B63 is generated by integrating the connection regions A631, A633, and A634 that are in contact with each other (S6 in FIG. 1).

上述した処理では、境界を接している連結領域を統合することによって特徴判定領域を生成しているが、境界を接していない連結領域についても統合することが可能な場合がある。たとえば、肌トラブルのうちシワについては、分断されていることがあり、抽出された連結領域の境界が離れている場合がある。図11の例で示すと、特徴判定領域B62,B69は目視ではシワに相当する領域であり、特徴判定領域B62については連結領域が境界を接しているから上述した処理によって1個の特徴判定領域に統合されるが、特徴判定領域B69については1個の特徴判定領域に統合したいにもかかわらず、上述の処理では複数個(図示例では3個)の特徴判定領域B691〜B693が生成されることになる。   In the processing described above, the feature determination region is generated by integrating the connected regions that are in contact with the boundary. However, it may be possible to integrate the connected regions that are not in contact with the boundary. For example, wrinkles of skin troubles may be divided, and the boundaries of the extracted connected areas may be separated. In the example of FIG. 11, the feature determination regions B62 and B69 are regions that are visually equivalent to wrinkles, and the feature determination region B62 has one feature determination region by the above-described processing because the connected region touches the boundary. Although the feature determination region B69 is desired to be integrated into one feature determination region, a plurality of (three in the illustrated example) feature determination regions B691 to B693 are generated in the above-described processing. It will be.

そこで、以下では細長い特徴判定領域を1個に統合する処理について説明する。まず、上述した手順で連結領域を統合することにより得られた特徴判定領域B61〜B68,B691〜B693,B610について、それぞれスケルトン(骨格線ないし芯線)SKを抽出する。スケルトンSKは、特徴判定領域B61〜B68,B691〜B693,B610が円形に近い形状である場合よりも、シワに対応する領域のように細長い形状である場合のほうが長くなる。そこで、特徴判定領域B61〜B68,B691〜B693,B610の形状を評価することにより、特徴判定領域B61〜B68,B691〜B693,B610をさらに統合することができるか否かを判断する。   Therefore, hereinafter, a process of integrating the long and narrow feature determination areas into one will be described. First, skeletons (skeleton lines or core lines) SK are extracted from the feature determination areas B61 to B68, B691 to B693, and B610 obtained by integrating the connected areas in the above-described procedure. The skeleton SK is longer when the feature determination regions B61 to B68, B691 to B693, and B610 have a long and narrow shape such as a region corresponding to a wrinkle than the circular shape. Therefore, by evaluating the shapes of the feature determination regions B61 to B68, B691 to B693, and B610, it is determined whether or not the feature determination regions B61 to B68, B691 to B693, and B610 can be further integrated.

まず、スケルトンSKの両端点を結ぶ線分ps1−pe1を設定し、この線分ps1−pe1の長さLaを規定値TL1と比較する。長さLaが規定値TL1以上であれば特徴判定領域B61〜B68,B691〜B693,B610が細長い形状であると判断する。図示例では、特徴判定領域B62がこの条件を満たしているから、この特徴判定領域B62について、スケルトンSK上の各点と線分ps1−pe1との距離の平均値Lbを求める。ここで、特徴判定領域B62の直線性を評価するために平均値Lbに対する長さLaの比(=La/Lb)を求め、La/Lbを規定値TL2と比較する。La/Lbが規定値TL2以上であれば、この特徴判定領域B62をシワの候補とみなすことができる。   First, a line segment ps1-pe1 that connects both end points of the skeleton SK is set, and the length La of this line segment ps1-pe1 is compared with a specified value TL1. If the length La is equal to or greater than the specified value TL1, it is determined that the feature determination areas B61 to B68, B691 to B693, and B610 have an elongated shape. In the illustrated example, since the feature determination region B62 satisfies this condition, the average value Lb of the distance between each point on the skeleton SK and the line segment ps1-pe1 is obtained for the feature determination region B62. Here, in order to evaluate the linearity of the feature determination region B62, the ratio of the length La to the average value Lb (= La / Lb) is obtained, and La / Lb is compared with the specified value TL2. If La / Lb is equal to or greater than the specified value TL2, the feature determination area B62 can be regarded as a wrinkle candidate.

また、上述の手順ではシワの候補とみなされない場合であっても、図12に示すように、互いに異なる2個の特徴判定領域B691〜B693の端点同士を結ぶ線分ps2−pe2を設定し(無駄な判定を行わないためには、線分の長さに測定結果に基づく上限を設けておくのが望ましい)、この線分ps2−pe2の長さLcを規定値TL1と比較する。長さLcが規定値TL1以上になる場合には、両特徴判定領域B691〜B693のスケルトンSK上の各点と線分ps2−pe2との距離の平均値Ldを求める。平均値Ldに対する長さLcの比(=Lc/Ld)を求め、Lc/Ldが規定値TL2以上になるときには、1本のシワが2個の特徴判定領域B691〜B693に分断された可能性があるので、両特徴判定領域B691〜B693の色差を求める。つまり、シングルチャンネル画像において、両特徴判定領域B691〜B693の画素値の平均値をそれぞれ求め、画素値の平均値の差が規定値以内であれば両特徴判定領域B691〜B693を1個の特徴判定領域として統合する。   In addition, even if the above procedure is not regarded as a wrinkle candidate, as shown in FIG. 12, a line segment ps2-pe2 connecting two end points of two different feature determination regions B691 to B693 is set ( In order not to perform useless determination, it is desirable to set an upper limit based on the measurement result in the length of the line segment), and the length Lc of this line segment ps2-pe2 is compared with the specified value TL1. When the length Lc is equal to or greater than the specified value TL1, the average value Ld of the distances between the points on the skeleton SK of both feature determination regions B691 to B693 and the line segment ps2-pe2 is obtained. The ratio of the length Lc to the average value Ld (= Lc / Ld) is obtained, and when Lc / Ld is equal to or greater than the specified value TL2, one wrinkle may be divided into two feature determination regions B691 to B693 Therefore, the color difference between the feature determination areas B691 to B693 is obtained. That is, in a single channel image, the average value of the pixel values of both feature determination regions B691 to B693 is obtained, and if the difference between the average values of the pixel values is within a specified value, both feature determination regions B691 to B693 are one feature. Integrate as a judgment area.

上述の処理は、線分ps2−pe2の長さLcが最小である2個の特徴判定領域B691〜B693から始めて、順に線分ps2−pe2の長さLcが長くなる特徴判定領域B691〜B693の評価を行い、条件を満たす最大長さの線分ps2−pe2が得られるまで処理を繰り返す。この手順により、近い特徴判定領域B691〜B693から順に統合し、統合可能な範囲で最大になる特徴判定領域B69を得ることができる。図12では、上述した処理によって、3個の特徴判定領域B691〜B693を1個の特徴判定領域B69に統合した例を示している。   The above-described processing starts from the two feature determination regions B691 to B693 in which the length Lc of the line segment ps2-pe2 is the minimum, and the feature determination regions B691 to B693 in which the length Lc of the line segment ps2-pe2 increases in order. The evaluation is performed, and the process is repeated until the maximum length of the line segment ps2-pe2 that satisfies the condition is obtained. By this procedure, it is possible to obtain a feature determination region B69 that is integrated in order from the closest feature determination regions B691 to B693 and becomes the maximum within the range that can be integrated. FIG. 12 shows an example in which three feature determination regions B691 to B693 are integrated into one feature determination region B69 by the above-described processing.

画素のグループ化によって特徴判定領域B61〜B610が得られると、各特徴判定領域B61〜B610について特徴量の評価が行われ肌トラブルの種別が分類される(図1のS7)。肌トラブルの分類に際しては、同じ検査項目(シワ、シミ、毛穴の黒ずみ、色ムラ)について程度(大きさや濃さ)についても併せて分類してもよい(図1のS8)。たとえば、シワであれば、深さや大きさについて分類してもよい。   When the feature determination areas B61 to B610 are obtained by grouping the pixels, the feature amount is evaluated for each of the feature determination areas B61 to B610, and the type of skin trouble is classified (S7 in FIG. 1). When classifying skin troubles, the same inspection items (wrinkles, spots, darkening of pores, color unevenness) may also be classified in terms of degree (size and darkness) (S8 in FIG. 1). For example, if it is a wrinkle, you may classify | categorize about a depth and a magnitude | size.

肌トラブルの分類に際しては、まず特徴判定領域B61〜B610について、形状と画素値の分布とに関する特徴量を求める。特徴判定領域B61〜B610の形状の特徴量としては、たとえば、図13に示すように、重心G(画像内での座標位置(x,y))、面積A、周囲長P、慣性主軸方向D、慣性主軸方向Dに直交する方向の最大幅W、慣性主軸方向Dの最大長さL、円形度R=4πA/P(または、偏平度(=1−R))を用いる。また、画素値の分布の特徴量としては、画素値の平均値、標準偏差を用いる。また、平均色からの色差を用いてもよい。 When classifying skin troubles, first, feature amounts relating to the shape and distribution of pixel values are obtained for the feature determination regions B61 to B610. For example, as shown in FIG. 13, the feature amount of the shape of the feature determination regions B61 to B610 is the center of gravity G (coordinate position (x, y) in the image), area A, perimeter length P, and inertial principal axis direction D. The maximum width W in the direction orthogonal to the inertial principal axis direction D, the maximum length L in the inertial principal axis direction D, and the circularity R = 4πA / P 2 (or flatness (= 1−R)) are used. Further, the average value and standard deviation of the pixel values are used as the feature values of the pixel value distribution. Further, a color difference from the average color may be used.

特徴判定領域B61〜B610を肌トラブルの種別および程度について分類するには、表1のような基準を定め、特徴判定領域B61〜B610について求めた特徴量が、表1の基準に合致する場合に、表1の左端に記載した種別に分類することができる。ここに、1つの項目でも基準を満たさないものがあれば、肌トラブルの種別は「不明」として処理される。   In order to classify the feature determination areas B61 to B610 with respect to the type and degree of skin trouble, the criteria as shown in Table 1 are set, and the feature values obtained for the feature determination areas B61 to B610 match the criteria in Table 1. And can be classified into the types described at the left end of Table 1. If any item does not satisfy the criteria, the type of skin trouble is processed as “unknown”.

Figure 2007130329
一例として、特徴判定領域B61〜B610について求めた特徴量と、当該特徴量を表1の基準に適用して求めた肌トラブルの種別とを表2にまとめて示す。
Figure 2007130329
As an example, Table 2 collectively shows the feature amounts obtained for the feature determination areas B61 to B610 and the types of skin troubles obtained by applying the feature amounts to the criteria in Table 1.

Figure 2007130329
なお、表1、表2において、面積の単位は[mm]、周囲長、長さ、幅の単位はいずれも[mm]、方向の単位は[°]である。
Figure 2007130329
In Tables 1 and 2, the unit of area is [mm 2 ], the units of circumference, length, and width are all [mm], and the unit of direction is [°].

ところで、表1のような基準値があらかじめ設定されていれば、表2のように肌トラブルの種別を分類することは容易であるが、人の視覚的な印象と判定結果とを一致させるように基準値を定めることは容易ではなく、適切な基準値を定めるには相当数の測定結果の統計作業が必要である。   By the way, if the reference values as shown in Table 1 are set in advance, it is easy to classify the types of skin troubles as shown in Table 2. However, the visual impression of the person and the determination result should be matched. It is not easy to set a reference value for each, and statistical work on a considerable number of measurement results is required to set an appropriate reference value.

そこで、この分類にはニューラルネットワーク(ニューロコンピュータ)25を用いるのが望ましい。本実施形態で用いるニューラルネットワークは、図14に示すように、入力層Ly1と中間層Ly2と出力層Ly3とからなる3層のニューラルネットワークであって、入力層Ly1は上述した特徴量の個数のノードを有し、中間層Ly2のノード数は入力層Ly1よりも多く、出力層Ly3のノード数は肌トラブルの種別の分類数になっている。なお、肌トラブルの種別を分類する際には、シワ、シミ、毛穴の黒ずみ、色ムラに分類できない場合もあるから、出力層Ly3のノードには「不明」も含まれる。つまり、本実施形態で分類する肌トラブルの種別は4種類であるが出力層Ly3のノード数は5になる。   Therefore, it is desirable to use a neural network (neurocomputer) 25 for this classification. As shown in FIG. 14, the neural network used in the present embodiment is a three-layer neural network including an input layer Ly1, an intermediate layer Ly2, and an output layer Ly3. The input layer Ly1 has the number of features described above. The number of nodes in the intermediate layer Ly2 is larger than that in the input layer Ly1, and the number of nodes in the output layer Ly3 is the number of types of skin trouble types. Note that when classifying the type of skin trouble, it may not be possible to classify it into wrinkles, spots, darkening of pores, and color unevenness, so the node of the output layer Ly3 also includes “unknown”. That is, there are four types of skin troubles to be classified in the present embodiment, but the number of nodes in the output layer Ly3 is five.

このニューラルネットワークに特徴量を入力して肌トラブルの種別を分類するには、ニューラルネットワークに学習させる必要がある。ニューラルネットワークの学習にあたっては、図15に示す画面(ダイアログボックスの形で表示される)を出力装置14であるカラーモニタに表示し、入力装置15であるマウスおよびキーボードを用いて、必要事項を入力する。図15に示すように、画面は肌トラブルの種別ごとに表示される(図示例では肌トラブルがシワである場合を示している)。上述した各特徴量については、上限値と下限値とを入力するためのフィールド92,93がそれぞれ設けられる。また、その肌トラブルを検出するのに必要な特徴量を選択するために、各特徴量ごとにチェックボックス91が設けられ、チェックボックス91にチェックを入れている特徴量のみが当該肌トラブルの検出に用いられる。画面の下部には、「テスト」釦94、「教示データ登録」釦95、「ニューロ教示」釦96が表示される。   In order to classify the types of skin troubles by inputting feature values into this neural network, the neural network needs to be trained. In learning the neural network, the screen shown in FIG. 15 (displayed in the form of a dialog box) is displayed on the color monitor which is the output device 14, and necessary items are input using the mouse and keyboard which are the input devices 15. To do. As shown in FIG. 15, the screen is displayed for each type of skin trouble (in the illustrated example, the case where the skin trouble is wrinkled) is displayed. For each feature amount described above, fields 92 and 93 for inputting an upper limit value and a lower limit value are provided. In addition, in order to select a feature amount necessary to detect the skin trouble, a check box 91 is provided for each feature amount, and only the feature amount for which the check box 91 is checked detects the skin trouble. Used for. At the bottom of the screen, a “test” button 94, a “teach data registration” button 95, and a “neuro teaching” button 96 are displayed.

次に、ニューロコンピュータ25を学習させる操作について説明する。オペレータは、肌トラブルの種別ごとに、図15に示すような画面上で、分類に用いる特徴量を選択し選択した特徴量に対応するチェックボックス91にチェックを入れる(チェックボックス91のマウスクリックによりチェックは入切される)。また、特徴量の上限値と下限値とを入力するフィールド92,93に適宜の値を入力し、「テスト」釦94のマウスクリックを行う。このような操作によって、設定された特徴量の上限値と下限値を用いて、目視による肌トラブルの判定結果と特徴量の上限値および下限値とを用いた判定結果とが一致するように上限値および下限値を調整する。   Next, an operation for learning the neurocomputer 25 will be described. For each type of skin trouble, the operator selects a feature amount used for classification on the screen as shown in FIG. 15, and checks the check box 91 corresponding to the selected feature amount (by clicking the mouse on the check box 91). Check is turned on and off). Further, appropriate values are input in the fields 92 and 93 for inputting the upper limit value and the lower limit value of the feature amount, and the “test” button 94 is clicked with the mouse. By such an operation, the upper limit value and the lower limit value of the set feature value are used, and the upper limit value is set so that the determination result of the visual skin trouble matches the determination result using the upper limit value and the lower limit value of the feature value. Adjust the value and lower limit.

各肌トラブルの分類に用いる特徴量の種類が決まり、上限値および下限値の調整が終了すると、撮像装置11により撮影され出力装置14の画面に表示されている濃淡画像の中で判定結果が誤っていた箇所についてマウスクリックを行う。このマウスクリックによって、画面上には肌トラブルの種別が並んだプルダウンメニューが表示される。プルダウンメニューの中から正しい種別を選択すると、設定した各特徴量の上限値および下限値が肌トラブルの種別に対応付けられる。上述した作業の終了後に、「教示データ登録」釦95のマウスクリックを行うと、各特徴判定領域から得られた特徴量と判定結果の組のデータが保存される。この作業を多数人に行うことによって教示データが蓄積された後、「ニューロ教示」釦96のマウスクリックを行い、教示データを用いてニューラルネットワークの各ノードの重み付け計算を実行する。   When the type of feature amount used for classification of each skin trouble is determined and the adjustment of the upper limit value and the lower limit value is completed, the determination result is incorrect in the grayscale image captured by the imaging device 11 and displayed on the screen of the output device 14. Click with the mouse on the part that was on. By this mouse click, a pull-down menu in which skin trouble types are arranged is displayed on the screen. When the correct type is selected from the pull-down menu, the upper limit value and the lower limit value of each set feature amount are associated with the skin trouble type. When the “teach data registration” button 95 is clicked after the above-described operation is completed, data of a set of feature amounts and determination results obtained from each feature determination area is stored. After the teaching data is accumulated by performing this operation for a large number of people, a “neuro teaching” button 96 is clicked with a mouse, and weighting calculation of each node of the neural network is executed using the teaching data.

上述したように、出力装置14の画面上で適宜の上限値および下限値を入力することによって、特徴量を用いた判定結果が目視による結果に合致するように上限値および下限値を調整した後、調整した上限値および下限値が正しい結果になるように判定結果を調節して教示データを蓄積し、さらに、多数の教示データを用いてニューラルネットワークの重み係数を設定することで、ニューラルネットワークを肌トラブルの種別の分類に用いることができるようになる。つまり、ニューラルネットワークは入力層Ly1に入力される特徴判定領域の特徴量に対して、教示された判定結果に近い結果を出力層Ly3に出力するように学習されるから、以後は上限値および下限値を手動で設定することなく、人間の視観判定に近い判定結果が得られることになるのである。   As described above, after the upper limit value and the lower limit value are adjusted so that the determination result using the feature value matches the visual result by inputting appropriate upper limit value and lower limit value on the screen of the output device 14. The adjustment result is adjusted so that the adjusted upper limit value and lower limit value are correct, the teaching data is accumulated, and the weighting coefficient of the neural network is set by using a large number of teaching data. It can be used for classification of skin trouble types. That is, the neural network is learned to output a result close to the taught determination result to the output layer Ly3 with respect to the feature amount of the feature determination region input to the input layer Ly1, and thereafter, the upper limit value and the lower limit A determination result close to human visual determination can be obtained without manually setting the value.

なお、撮像装置11にはカラーTVカメラ以外に、デジタルカメラやモノクロTVカメラを用いることも可能であり、さらには、紫外線のような不可視光を撮影する特殊カメラを用いることも可能である。また、正弦波縞(強度分布が正弦波状に変化する縞状の光パターン)を被検査物(顔面)に投影し、被検査物の表面の凹凸による正弦波縞の変形状態から被検査物までの距離情報を求める位相シフト三次元計測装置などを用いることにより、画素値が高さ情報となるようなシングルチャンネル画像を取得するようにしてもよい。照明装置16は、撮像装置11が紫外線カメラである場合には紫外線光源を用い、撮像装置11が三次元計測装置である場合には信号源を備えるから必要ない。また、モノクロTVカメラ、紫外線カメラ、三次元計測装置を用いる場合には、もともとがシングルチャンネル画像であるから、図1のステップS2(つまり、図2のステップS11〜S17)におけるシングルチャンネル画像に変換する処理は不要である。肌トラブルのうちシワは三次元情報を持つから三次元計測装置はシワの検出の際にとくに有効である。   In addition to the color TV camera, a digital camera or a monochrome TV camera can be used for the imaging device 11, and a special camera that captures invisible light such as ultraviolet rays can be used. In addition, sine wave fringes (striped light patterns whose intensity distribution changes in a sine wave pattern) are projected onto the object to be inspected (from the deformation state of the sine wave fringes due to the unevenness of the surface of the object to be inspected) By using a phase shift three-dimensional measuring device for obtaining the distance information, a single channel image in which the pixel value becomes the height information may be acquired. The illuminating device 16 is not necessary because an ultraviolet light source is used when the imaging device 11 is an ultraviolet camera, and a signal source is provided when the imaging device 11 is a three-dimensional measuring device. Further, when a monochrome TV camera, an ultraviolet camera, or a three-dimensional measuring device is used, it is originally a single channel image, so that it is converted into a single channel image in step S2 in FIG. 1 (that is, steps S11 to S17 in FIG. 2). No processing is required. Of the skin troubles, wrinkles have three-dimensional information, so the three-dimensional measuring device is particularly effective in detecting wrinkles.

シングルチャンネル画像を生成する方法として、上述した方法に代えて、L表色系の色空間において、a面での背景部分の平均色を求めておき、各画素に関する色(a,b)と平均色との差(つまり、a面上の距離)を画素値に持つシングルチャンネル画像を生成してもよい。とくに、明度の変化があまりない色ムラを抽出するには、色分離軸を用いる方法を採用するよりも、この方法を採用するほうがよい。したがって、シミ、シワ、毛穴の黒ずみのように明度と色との両方の変化を伴う肌トラブルについては色分離軸を用いた処理によって判別し、明度の変動をあまり伴わない色ムラを抽出するには色分離軸を用いない処理によって判別するように、両者を併用してもよい。 As a method for generating a single channel image, instead of the method described above, in the color space of the L * a * b * color system, an average color of the background portion on the a * b * plane is obtained, and each pixel is related. A single channel image having the difference between the color (a * , b * ) and the average color (that is, the distance on the a * b * plane) as a pixel value may be generated. In particular, it is better to employ this method than to employ a method using a color separation axis in order to extract color unevenness with little change in brightness. Therefore, skin troubles that involve changes in both brightness and color, such as spots, wrinkles, and darkening of pores, are identified by processing using the color separation axis, and color unevenness that does not significantly change in brightness is extracted. May be used in combination, as determined by processing that does not use the color separation axis.

上述した実施形態において、連結領域をグループ化して特徴判定領域を生成する際に、内部平均値と外部平均値との差であるコントラスト値によって特徴判定領域とするか否かを判断しているが、撮像装置11で得られる濃淡画像の解像度が十分に高く、連結領域の画素数を統計的に意味を持つ程度に多くとることができる場合には、連結領域の内外における統計的な有意差の有無について母平均差の検定を行うようにしてもよい。また、同様に、分断された特徴判定領域を統合するか否かの判定の際に色差を用いているが、この場合も母平均差の検定を行うようにしてもよい。   In the above-described embodiment, when generating a feature determination region by grouping connected regions, it is determined whether or not to be a feature determination region based on a contrast value that is a difference between an internal average value and an external average value. If the resolution of the grayscale image obtained by the imaging device 11 is sufficiently high and the number of pixels in the connected area can be taken to a statistically significant level, a statistically significant difference between the inside and outside of the connected area You may make it perform the test of a population average difference about presence or absence. Similarly, the color difference is used when determining whether or not to divide the divided feature determination areas, but in this case as well, a test of the population average difference may be performed.

本発明の実施形態を示す動作説明図である。It is operation | movement explanatory drawing which shows embodiment of this invention. 同上においてシングルチャンネル画像の生成過程を示す動作説明図である。It is operation | movement explanatory drawing which shows the production | generation process of a single channel image in the same as the above. 同上の概略構成図である。It is a schematic block diagram same as the above. 同上における濃淡画像の例を示す図である。It is a figure which shows the example of the gray image in the same as the above. 同上におけるシェーディング除去処理後の画像の例を示す図である。It is a figure which shows the example of the image after the shading removal process in the same as the above. 同上における暫定しきい値による2値画像の例を示す図である。It is a figure which shows the example of the binary image by the temporary threshold value same as the above. 同上において色分離軸の設定概念を示す図である。It is a figure which shows the setting concept of a color separation axis | shaft in the same as the above. 同上における連結領域の概念を示す図である。It is a figure which shows the concept of the connection area | region in the same as the above. 同上における特徴判定領域の概念を示す図である。It is a figure which shows the concept of the feature determination area | region in the same as the above. 同上における特徴判定領域の生成例を示す図である。It is a figure which shows the example of a production | generation of the feature determination area | region in the same as the above. 同上における特徴判定領域の他の生成例を示す図である。It is a figure which shows the other example of a production | generation of the characteristic determination area | region in the same as the above. 同上における特徴判定領域のさらに他の生成例を示す図である。It is a figure which shows the other example of a production | generation of the feature determination area | region in the same as the above. 同上において特徴判定領域から求める形状の特徴量を示す図である。It is a figure which shows the feature-value of the shape calculated | required from the feature determination area | region in the same as the above. 同上に用いるニューラルネットワークの一例を示す図である。It is a figure which shows an example of the neural network used for the same as the above. 同上に用いるニューラルネットワークの教示に用いる画面例を示す図である。It is a figure which shows the example of a screen used for the teaching of the neural network used for the same as the above.

符号の説明Explanation of symbols

11 撮像装置
12 記憶装置
13 画像処理装置
14 出力装置
15 入力装置
16 照明装置
51,52 画素集団
53 色分離軸
A1〜A4 連結領域
B61〜B610 特徴判定領域
CA631〜CA635 コントラスト値
H 人体
SK スケルトン
DESCRIPTION OF SYMBOLS 11 Imaging device 12 Memory | storage device 13 Image processing apparatus 14 Output device 15 Input device 16 Illumination device 51,52 Pixel group 53 Color separation axis A1-A4 Connection area | region B61-B610 Feature determination area CA631-CA635 Contrast value H Human body SK Skeleton

Claims (6)

被検査物を撮影して得られたシングルチャンネル画像について、隣接する画素間の画素値の差が第1の規定値以下になる画素からなる連結領域を生成した後、特徴部分の候補となる連結領域の内外の画素値の分布を用いて連結領域を統合することにより特徴判定領域を生成し、特徴判定領域から得られる特徴量について分類することにより特徴部分を複数の種別に分類することを特徴とする画像による外観検査方法。   For a single channel image obtained by photographing an object to be inspected, after generating a connected region composed of pixels whose pixel value difference between adjacent pixels is equal to or less than a first specified value, a connected candidate for a feature portion A feature determination region is generated by integrating connected regions using distribution of pixel values inside and outside the region, and feature parts are classified into a plurality of types by classifying feature quantities obtained from the feature determination region. Appearance inspection method using images. 被検査物である人体の皮膚を撮影して得られたシングルチャンネル画像について、隣接する画素間の画素値の差が第1の規定値以下になる画素からなる連結領域を生成した後、連結領域の内外の画素値の分布を用いて正常な肌である背景部分から肌トラブルの候補である特徴部分を分離するとともに特徴部分となる連結領域を統合した特徴判定領域を生成し、特徴判定領域から得られる特徴量について分類することにより肌トラブルを複数の種別に分類することを特徴とする画像による外観検査方法。   For a single channel image obtained by photographing a human skin as an object to be inspected, after generating a connected region composed of pixels in which the difference in pixel value between adjacent pixels is equal to or less than a first specified value, the connected region A feature determination area is generated by separating a feature portion that is a candidate for skin trouble from a background portion that is normal skin using a distribution of pixel values inside and outside the image, and integrating a connected region that is a feature portion, and from the feature determination region An appearance inspection method using an image, wherein skin troubles are classified into a plurality of types by classifying the obtained feature values. 前記被検査物を撮影した画像はカラー画像であって、当該カラー画像にシェーディング除去処理を施した後、明度と色との少なくとも一方について設定した暫定的なしきい値を用いてカラー画像を2値化することにより暫定特徴部分と暫定背景部分とに分離し、暫定特徴部分と暫定背景部分と各画素集団を通るように色空間内で設定した色分離軸にカラー画像の各画素を投影することによって色分離軸上の位置を画素値に持つ画像を生成し、この画像を前記シングルチャンネル画像に用いることを特徴とする請求項1または請求項2記載の画像による外観検査方法。   The image obtained by photographing the object to be inspected is a color image, and after the shading removal process is performed on the color image, the color image is binarized using a temporary threshold set for at least one of brightness and color. To separate the provisional feature portion and the provisional background portion, and project each pixel of the color image on the color separation axis set in the color space so as to pass through the provisional feature portion, the provisional background portion, and each pixel group. The image inspection method according to claim 1 or 2, wherein an image having a pixel value at a position on the color separation axis is generated by the method and the image is used for the single channel image. 前記連結領域を統合することにより前記特徴判定領域を生成するにあたって、統合する候補の連結領域ごとに当該連結領域の内部の画素値の平均値と当該連結領域の周辺の背景部分の画素値の平均値との差を求め、この差が第2の規定値よりも大きいときに当該連結領域を特徴部分とし、この差が第2の規定値よりも小さいときに当該連結領域を背景部分として、特徴部分となる連結領域の集合を特徴判定領域として統合することを特徴とする請求項1ないし請求項3のいずれか1項に記載の画像による外観検査方法。   When generating the feature determination area by integrating the connected areas, for each candidate connected area to be integrated, an average value of pixel values inside the connected area and an average value of pixel values of the background portion around the connected area When the difference is larger than the second specified value, the connected area is used as a feature part. When the difference is smaller than the second specified value, the connected area is used as a background part. The visual inspection method using an image according to any one of claims 1 to 3, wherein a set of connected regions as a part is integrated as a feature determination region. 前記特徴判定領域についてスケルトンを求め、互いに異なる2個の特徴判定領域のスケルトンの端点間を結ぶ線分の長さが第3の規定値以上であるときに、両特徴判定領域のスケルトン上の各画素と前記線分との距離の平均値に対する前記線分の長さの比が第4の規定値以上であり、かつ両特徴判定領域の色差が第5の規定値以下のときに両特徴判定領域を1個の特徴判定領域に統合することを特徴とする請求項4記載の画像による外観検査方法。   A skeleton is obtained for the feature determination region, and when the length of a line segment connecting the end points of two skeletons of two different feature determination regions is equal to or greater than a third specified value, each of the skeletons of both feature determination regions Both feature determinations when the ratio of the length of the line segment to the average value of the distance between the pixel and the line segment is equal to or greater than a fourth specified value and the color difference between both feature determination regions is equal to or less than the fifth specified value 5. The method according to claim 4, wherein the regions are integrated into one feature determination region. 前記特徴判定領域から得られる複数種類の特徴量を入力とするニューラルネットワークにより複数の種別に分類するにあたり、特徴量を分類する基準値と当該基準値による分類結果と分類の修正結果とを対話的に入力した教示データが蓄積され、蓄積された教示データを用いてニューラルネットワークが教示されていることを特徴とする請求項1ないし請求項5のいずれか1項に記載の画像による外観検査方法。   When classifying into a plurality of types by a neural network that receives a plurality of types of feature values obtained from the feature determination area, a reference value for classifying feature values, a classification result based on the reference value, and a classification correction result are interactively displayed. 6. The visual inspection method using an image according to any one of claims 1 to 5, wherein the teaching data input to is stored and a neural network is taught using the stored teaching data.
JP2005327962A 2005-11-11 2005-11-11 Visual inspection method using images Expired - Fee Related JP4725298B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005327962A JP4725298B2 (en) 2005-11-11 2005-11-11 Visual inspection method using images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005327962A JP4725298B2 (en) 2005-11-11 2005-11-11 Visual inspection method using images

Publications (2)

Publication Number Publication Date
JP2007130329A true JP2007130329A (en) 2007-05-31
JP4725298B2 JP4725298B2 (en) 2011-07-13

Family

ID=38152471

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005327962A Expired - Fee Related JP4725298B2 (en) 2005-11-11 2005-11-11 Visual inspection method using images

Country Status (1)

Country Link
JP (1) JP4725298B2 (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010148713A (en) * 2008-12-25 2010-07-08 Kao Corp Image processor, image processing method, and program
JP2011240086A (en) * 2010-05-21 2011-12-01 Shiseido Co Ltd Analyzer for irregular color of skin, analysis method for irregular color of skin, and analysis program for irregular color of skin
JP2013090752A (en) * 2011-10-25 2013-05-16 Fujifilm Corp Spot classification method, spot classification device and spot classification program
WO2014027522A1 (en) * 2012-08-17 2014-02-20 ソニー株式会社 Image processing device, image processing method, program, and image processing system
WO2014136276A1 (en) * 2013-03-08 2014-09-12 株式会社島津製作所 Device for setting region of interest for analysis
JP2015099563A (en) * 2013-11-20 2015-05-28 キヤノン株式会社 Image processing apparatus, image processing method, and program
WO2016080266A1 (en) * 2014-11-19 2016-05-26 株式会社資生堂 Stain evaluation device, stain evaluation method, and program
JP2017111085A (en) * 2015-12-18 2017-06-22 株式会社流通システム設計 Food product inspection system and food product inspection method
JP2018060532A (en) * 2016-10-06 2018-04-12 御木本製薬株式会社 Skin evaluation method
JP2019512797A (en) * 2016-03-21 2019-05-16 ザ プロクター アンド ギャンブル カンパニー System and method for providing customized product recommendations
JP2019217253A (en) * 2018-06-14 2019-12-26 株式会社コーセー Method of evaluating transparent feeling of skin
KR20200103150A (en) * 2019-02-11 2020-09-02 (주) 인텍플러스 Visual inspection system
JP2022018132A (en) * 2020-07-15 2022-01-27 株式会社アイム Support method and support program for supporting evaluation of skin condition, and learned model generating method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000099734A (en) * 1998-09-24 2000-04-07 Toppan Printing Co Ltd Detector for image density unevenness
JP2003144393A (en) * 2001-11-12 2003-05-20 Shiseido Co Ltd Method for evaluating spot and freckle

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000099734A (en) * 1998-09-24 2000-04-07 Toppan Printing Co Ltd Detector for image density unevenness
JP2003144393A (en) * 2001-11-12 2003-05-20 Shiseido Co Ltd Method for evaluating spot and freckle

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010148713A (en) * 2008-12-25 2010-07-08 Kao Corp Image processor, image processing method, and program
JP2011240086A (en) * 2010-05-21 2011-12-01 Shiseido Co Ltd Analyzer for irregular color of skin, analysis method for irregular color of skin, and analysis program for irregular color of skin
JP2013090752A (en) * 2011-10-25 2013-05-16 Fujifilm Corp Spot classification method, spot classification device and spot classification program
US9697618B2 (en) 2012-08-17 2017-07-04 Sony Corporation Image processing apparatus, image processing method, program, and image processing system
WO2014027522A1 (en) * 2012-08-17 2014-02-20 ソニー株式会社 Image processing device, image processing method, program, and image processing system
JPWO2014027522A1 (en) * 2012-08-17 2016-07-25 ソニー株式会社 Image processing apparatus, image processing method, program, and image processing system
WO2014136276A1 (en) * 2013-03-08 2014-09-12 株式会社島津製作所 Device for setting region of interest for analysis
US9995922B2 (en) 2013-03-08 2018-06-12 Shimadzu Corporation Analysis target region setting apparatus
JP5983858B2 (en) * 2013-03-08 2016-09-06 株式会社島津製作所 Analysis area setting device
JPWO2014136276A1 (en) * 2013-03-08 2017-02-09 株式会社島津製作所 Analysis area setting device
JP2015099563A (en) * 2013-11-20 2015-05-28 キヤノン株式会社 Image processing apparatus, image processing method, and program
WO2016080266A1 (en) * 2014-11-19 2016-05-26 株式会社資生堂 Stain evaluation device, stain evaluation method, and program
JP2016096931A (en) * 2014-11-19 2016-05-30 株式会社 資生堂 Spot evaluation device, spot evaluation method, and spot evaluation program
TWI669660B (en) * 2014-11-19 2019-08-21 日商資生堂股份有限公司 Speckle evaluation device, speckle evaluation method and program
US11317851B2 (en) 2014-11-19 2022-05-03 Shiseido Company, Ltd. Skin spot evaluation apparatus, skin spot evaluation method and program
JP2017111085A (en) * 2015-12-18 2017-06-22 株式会社流通システム設計 Food product inspection system and food product inspection method
JP2019512797A (en) * 2016-03-21 2019-05-16 ザ プロクター アンド ギャンブル カンパニー System and method for providing customized product recommendations
JP2018060532A (en) * 2016-10-06 2018-04-12 御木本製薬株式会社 Skin evaluation method
JP7083478B2 (en) 2016-10-06 2022-06-13 御木本製薬株式会社 Skin evaluation method
JP2019217253A (en) * 2018-06-14 2019-12-26 株式会社コーセー Method of evaluating transparent feeling of skin
JP7307544B2 (en) 2018-06-14 2023-07-12 株式会社コーセー Method for evaluating skin clarity
KR20200103150A (en) * 2019-02-11 2020-09-02 (주) 인텍플러스 Visual inspection system
KR102208551B1 (en) 2019-02-11 2021-01-27 (주) 인텍플러스 Visual inspection system
JP2022018132A (en) * 2020-07-15 2022-01-27 株式会社アイム Support method and support program for supporting evaluation of skin condition, and learned model generating method

Also Published As

Publication number Publication date
JP4725298B2 (en) 2011-07-13

Similar Documents

Publication Publication Date Title
JP4725298B2 (en) Visual inspection method using images
JP6869490B2 (en) Defect inspection equipment, defect inspection methods, and their programs
JP5764238B2 (en) Steel pipe internal corrosion analysis apparatus and steel pipe internal corrosion analysis method
JP5546317B2 (en) Visual inspection device, visual inspection discriminator generation device, visual inspection discriminator generation method, and visual inspection discriminator generation computer program
Mathavan et al. Use of a self-organizing map for crack detection in highly textured pavement images
US8971663B2 (en) System and method for producing synthetic golden template image for vision system inspection of multi-layer patterns
JP2004294202A (en) Defect detection method and device of screen
WO2003021533A1 (en) Color image segmentation in an object recognition system
JP2007285754A (en) Flaw detection method and flaw detector
CN108921857A (en) A kind of video image focus area dividing method towards monitoring scene
US7020323B2 (en) Pattern defect inspection apparatus and method
JP2005165387A (en) Method and device for detecting stripe defective of picture and display device
JP7415286B2 (en) Color filter inspection equipment, inspection equipment, color filter inspection method and inspection method
JP4018092B2 (en) A device that automatically determines the cause of a given surface condition of an inspection object
JPH11306325A (en) Method and device for object detection
JP2004296592A (en) Defect classification equipment, defect classification method, and program
CN115861259A (en) Lead frame surface defect detection method and device based on template matching
Busin et al. Contribution of a color space selection to a flaw detection vision system
JPH06337922A (en) Method for evaluating pattern
JP2005165482A (en) Defect detecting method
KR20200125131A (en) Methdo and system for measuring image thickness based on artificial intelligence
JP4018089B2 (en) Method for generating data map for determining surface condition and determination method
KR102673687B1 (en) A method for analyzing a user&#39;s emotions by extracting sketch elements, monochromatic and color scheme adjectives, color elements, and emotional elements from an image, and then using these elements as a basis for the analysis
WO2021152924A1 (en) Image processing device and image processing method
Mohammadpour et al. Retinal blood vessel segmentation based on vessel branch width adaptation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080703

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100716

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110304

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110315

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110328

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140422

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees