JP4725298B2 - 画像による外観検査方法 - Google Patents

画像による外観検査方法 Download PDF

Info

Publication number
JP4725298B2
JP4725298B2 JP2005327962A JP2005327962A JP4725298B2 JP 4725298 B2 JP4725298 B2 JP 4725298B2 JP 2005327962 A JP2005327962 A JP 2005327962A JP 2005327962 A JP2005327962 A JP 2005327962A JP 4725298 B2 JP4725298 B2 JP 4725298B2
Authority
JP
Japan
Prior art keywords
feature
image
color
value
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005327962A
Other languages
English (en)
Other versions
JP2007130329A (ja
Inventor
オスカル バネガス
良介 三高
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Electric Works Co Ltd
Original Assignee
Panasonic Corp
Matsushita Electric Works Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Works Ltd filed Critical Panasonic Corp
Priority to JP2005327962A priority Critical patent/JP4725298B2/ja
Publication of JP2007130329A publication Critical patent/JP2007130329A/ja
Application granted granted Critical
Publication of JP4725298B2 publication Critical patent/JP4725298B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Spectrometry And Color Measurement (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Description

本発明は、被検査物の濃淡画像を用いて明度変化の大きい領域だけではなく明度変化の少ない領域からも被検査物の外観上の特徴部分を抽出できるようにし、人の皮膚、合成樹脂成形品、金属製品表面などに生じるシミや色ムラなどの検査を行う画像による外観検査方法に関するものである。
従来から、被検査物を撮像して得られる濃淡画像を用いて被検査物の外観上の特徴部分の候補を抽出し評価する外観検査装置が提供されている。検査対象である被検査物は、工業製品であることが多いが、最近では化粧品や美容施術などの効果を定量的に確認したり評価したりするために、人の皮膚を被検査物とする場合でも画像による外観検査の技術が採用されるようになってきている。
すなわち、従来では皮膚の状態を確認する方法として、本人に対する問診や専門家による目視や触診が一般的であって、定性的な評価が行われていた。また、皮膚のかさつきの程度などは計測する機器も提供されているが、シミ、シワ、毛穴の黒ずみ、色ムラのような皮膚の外観上の特徴部分(以下、「肌トラブル」という)については、主として目視に頼っているのが現状である。
上述した肌トラブル、すなわちシミ、シワ、毛穴の黒ずみ、色ムラについては、モノクロの濃淡画像では周囲よりも明度が低くなるから、工業用の外観検査装置と同様に、濃淡画像に対して照明ムラを除去する処理(以下、「シェーディング除去処理」という)を施した後に、濃淡画像を明度について2値化することが考えられている(たとえば、特許文献1参照)。この2値画像において特徴部分の候補となる画素の連結成分を抽出し、当該連結成分について各種の特徴量(面積、慣性主軸方向の長さ寸法、円形度、平均明度など)を評価することにより、肌トラブルか否かを判断するのである。また肌トラブルであれば種別を分類するとともに、各分類項目ごとに個数や面積のような発生量を定量的に求め、肌トラブルの領域の濃淡画像の明度を用いて肌トラブルの程度を定量的に求める。
ここに、2値画像は明度に対する適宜のしきい値を用いて生成し、明度がしきい値よりも低い(つまり、暗い)部分の画素値を「1」、残りの画素値を「0」とした画像である。この2値画像において、特徴部分の候補となる画素の連結成分は、画素値が「1」である画素が8近傍に存在する画素を追跡することにより形成される。
特開平7−19839号公報
上述のように、濃淡画像にシェーディング除去処理を施した後に2値化した2値画像を用いて肌トラブルを抽出する場合には、2値画像を用いて連結成分を抽出しているから、2値化の際のしきい値の大きさに応じて連結成分の大きさが変化する。つまり、肌トラブルの範囲が、目視では1つの領域とみなせるにもかかわらず複数個の連結成分に分割されることがあり、逆に目視では複数の領域として認識されるにもかかわらず全体で1つの連結成分しか抽出されない場合が生じる。
とくに、人の皮膚におけるシミやシワなどは周辺との明度差が小さい上に、明度がなだらかに変化していることが多く、2値化に用いるしきい値を設定できる範囲が狭いから、上述した問題が生じやすくなる。たとえば、目視では明度にムラのある1個の大きなシミがあると認識される場合に、しきい値の大きさによってはシミの内部で明度の低い複数の領域が抽出され、複数個の小さいシミがあるというように目視結果とは異なる判定結果が生じることになる。
上述の問題を解決するには、2値化の際のしきい値を変更して画素値が「1」になる領域を増やすことが考えられるが、この場合、目視では近くに隣接している複数個の小さいシミと認識されるにもかかわらず、判定結果では大きい1個のシミとみなされる可能性が生じる。
要するに、顔面における肌トラブルのように人に見られる特徴部分は、人の視認する感覚と一致するような判定結果を得ることが要求されるが、濃淡画素を明度に対する一定のしきい値で2値化するだけの単純な方法では、しきい値の選択が難しい上に、しきい値の設定可能な範囲が狭いから、しきい値の設定自体が難しく、人の視認する感覚と判定結果とを一致させることが困難であるという問題を有している。
本発明は上記事由に鑑みて為されたものであり、その目的は、特徴部分の内部での明度の変化がなだらかであり、また特徴部分の内部の明度の分布にむらがあるような被検査物であっても、特徴部分を人の視認する感覚に一致するように抽出することができる画像による外観検査方法を提供することにある。
請求項1の発明は、被検査物を撮影して得られたシングルチャンネル画像について、隣接する画素間の画素値の差が第1の規定値以下になる画素からなる連結領域を生成した後、特徴部分の候補となる連結領域の内外の画素値の分布を用いて連結領域を統合することにより特徴判定領域を生成し、特徴判定領域から得られる特徴量について分類することにより特徴部分を複数の種別に分類することを特徴とする。
この方法によれば、従来のように濃淡画像を2値化した2値画像により生成した連結成分を用いて判定するのではなく、画素値の差が第1の規定値以下になる画素からなる連結領域を生成しているので、明度差が小さい場合や明度がなだらかに変化するような場合であっても連結領域を設定することができる。しかも、その連結領域について画素値の内外の分布を用いて統合することにより特徴判定領域を生成するから、特徴部分の範囲を正確に抽出することができる。言い換えると、連結領域は画素値の類似度によって生成し、一方、連結領域を統合して特徴判定領域を生成する際には画素値の相違を利用するから、特徴部分について、周辺との明度差が小さい場合や明度がなだらかに変化する場合でも適正な範囲を特徴判定領域として抽出することができる。このように特徴判定領域を適正に抽出することができ、しかも定量的に判断されるから、判定結果の再現性を高めることができる。さらに、特徴量の分類方法を適正に与えておけば、人間が視認した感覚に一致する判定結果を得ることが可能になるから、専門家の判断と同程度の判断が誰にでも行えるようになる。
請求項2の発明は、被検査物である人体の皮膚を撮影して得られたシングルチャンネル画像について、隣接する画素間の画素値の差が第1の規定値以下になる画素からなる連結領域を生成した後、連結領域の内外の画素値の分布を用いて正常な肌である背景部分から肌トラブルの候補である特徴部分を分離するとともに特徴部分となる連結領域を統合した特徴判定領域を生成し、特徴判定領域から得られる特徴量について分類することにより肌トラブルを複数の種別に分類することを特徴とする。
この方法によれば、請求項1と同様の作用が期待できる。とくに、人体の皮膚におけるシミ、シワ、毛穴の黒ずみ、色ムラのように、正常な皮膚との明度差が少ない部位や明度の変化が緩やかである肌トラブルについても、画素値の差が第1の規定値以下である画素群からなる連結領域を生成し、各連結領域について正常な皮膚の部分との画素値の差を評価して統合して特徴判定領域を生成することによって確実に抽出することができる。つまり、従来は人間の視認した感覚に一致する判定結果を得ることが困難であった肌トラブルに関して人間の視認した感覚に一致する判定結果を得ることが可能になる。しかも、肌トラブルについて定量的に判定されるから再現性のよい判定結果が得られる。
請求項3の発明は、請求項1または請求項2の発明において、前記被検査物を撮影した画像はカラー画像であって、当該カラー画像にシェーディング除去処理を施した後、明度と色との少なくとも一方について設定した暫定的なしきい値を用いてカラー画像を2値化することにより暫定特徴部分と暫定背景部分とに分離し、暫定特徴部分と暫定背景部分と各画素集団を通るように色空間内で設定した色分離軸にカラー画像の各画素を投影することによって色分離軸上の位置を画素値に持つ画像を生成し、この画像を前記シングルチャンネル画像に用いることを特徴とする。
この方法によれば、特徴部分と背景部分との画素値の差が大きくなるシングルチャンネル画像を生成することができる。すなわち、暫定特徴部分と暫定背景部分とを通るように色分離軸を設定し、この色分離軸に画素を投影して色分離軸上の位置を画素値とすることにより、特徴部分と背景部分との画素値の差が大きくなるシングルチャンネル画像を生成することができ、このシングルチャンネル画像を用いて連結領域および特徴判定領域を生成することにより、特徴部分と背景部分との色差が少ない場合でも分離しやすくなる。また、色分離軸を設定することは背景部分の地色に関するキャリブレーションを行ったことに相当するから、背景部分の地色にかかわらず特徴部分を抽出するのが容易になる。
請求項4の発明は、請求項1ないし請求項3のいずれかの発明において、前記連結領域を統合することにより前記特徴判定領域を生成するにあたって、統合する候補の連結領域ごとに当該連結領域の内部の画素値の平均値と当該連結領域の周辺の背景部分の画素値の平均値との差を求め、この差が第2の規定値よりも大きいときに当該連結領域を特徴部分とし、この差が第2の規定値よりも小さいときに当該連結領域を背景部分として、特徴部分となる連結領域の集合を特徴判定領域として統合することを特徴とする。
この方法によれば、連結領域を特徴判定領域に統合する際に、画素値の平均値の差を用いるから、簡単かつ適正に連結領域を特徴部分と背景部分とに振り分けることができる。
請求項5の発明は、請求項4の発明において、前記特徴判定領域についてスケルトンを求め、互いに異なる2個の特徴判定領域のスケルトンの端点間を結ぶ線分の長さが第3の規定値以上であるときに、両特徴判定領域のスケルトン上の各画素と前記線分との距離の平均値に対する前記線分の長さの比が第4の規定値以上であり、かつ両特徴判定領域の色差が第5の規定値以下のときに両特徴判定領域を1個の特徴判定領域に統合することを特徴とする。
この方法によれば、1個の特徴判定領域に統合されるべき部分が複数個の特徴判定領域に分断されている場合に、統合の可否を判定し可能なかぎり統合することができる。
請求項6の発明は、請求項1ないし請求項5のいずれかの発明において、前記特徴判定領域から得られる複数種類の特徴量を入力とするニューラルネットワークにより複数の種別に分類するにあたり、特徴量を分類する基準値と当該基準値による分類結果と分類の修正結果とを対話的に入力した教示データが蓄積され、蓄積された教示データを用いてニューラルネットワークが教示されていることを特徴とする。
この方法では、ニューラルネットワークを用いて特徴部分の分類を行うから、複数の特徴量から適正な分類結果を得ることができる。しかも、ニューラルネットワークの教示データを対話的に入力することによって、目視による判断と特徴判定領域から抽出した特徴量を用いた判定結果とを一致させるように基準値を収束させることができ、調整の難しい基準値を比較的簡単に設定することができることになる。
本発明の方法によれば、連結領域を画素値の類似度によって生成し、連結領域を統合して特徴判定領域を生成する際には画素値の相違を利用するから、特徴部分について、周辺との明度差が小さい場合や明度がなだらかに変化する場合でも適正な範囲を特徴判定領域として抽出することができ、この特徴判定領域の特徴量を用いて分類結果を得るから、判定結果の再現性を高めることができるという利点がある。また、特徴量の分類方法を適正に与えておけば、専門家の判断と同程度の判断が誰にでも行えるようになるという利点もある。
以下では、従来構成の説明に用いた人の顔面の皮膚を被検査物とし、肌トラブルであるシミ、シワ、毛穴の黒ずみ、色ムラを特徴部分として抽出し評価する場合を例として説明するが、銅貼り積層基板におけるシミの有無や、合成樹脂成形品におけるシミ、シワ、色ムラなどの検出にも本発明の技術思想を適用することが可能である。
本実施形態では、図3に示すように、被検査物である人Hの顔を撮影するTVカメラからなる撮像装置11を備え、顔全体を均一に照明するために、いわゆるリングライトを照明装置16に用いている。この照明装置16は発光面が円環状に形成され、発光面に囲まれた中央孔を通して撮像装置11による撮影を行う。したがって、照明装置16は、撮像装置11の光軸をを中心とする全方位から被検査物に光を照射することにより、被検査物に影が生じないように無影照明を行う。本実施形態の照明装置16は、光源16aとして円環状に形成され高周波点灯する蛍光ランプを用い、光源16aの前方に被検査物よりも大きい拡散板16bを配置したものを用いている。また、発光輝度は、人Hが極端にまぶしさを感じることがなく、しかも皮脂によるテカリが生じない程度に設定してある。
撮像装置11はデジタル信号の濃淡画像を出力するように構成され、撮像装置11で被検査物を撮影することにより得られた濃淡画像は、フレームメモリからなる記憶装置12に格納される。本実施形態では、撮像装置11としてカラーTVカメラを想定しており、照明装置16の光源には演色性のよいものを用いる。記憶装置12にはハードディスク装置のような大容量記憶装置を併用してもよい。
被検査物の特徴部分は、記憶装置12に格納された濃淡画像を用いて画像処理装置13において抽出される。画像処理装置13の処理内容については後述する。画像処理装置13には画像や解析結果を表示するための出力装置14と、画像処理装置13に指示を与えるための入力装置15が接続される。本実施形態では、出力装置14にはカラーモニタを用い、入力装置15にはマウスおよびキーボードを用いている。図3に記載した各装置のうち撮像装置11を除く部分はパーソナルコンピュータを用いるとともに、後述する機能を有するプログラムを実行することで実現する。
以下、画像処理装置13の動作を説明するにあたって、撮像装置11により得られた図4に示す濃淡画像が得られた場合を想定する。図4に示す例では、加齢による皮膚の弛みによるシワ4A、色素の沈着によるシミ4B、毛穴に詰まった皮脂汚れによる黒ずみ4C、点状に色素が沈着した色ムラ4Dが生じているものとする。
撮像装置11によって図4に示す濃淡画像を得るには、照明装置16を点灯し、撮像装置11により人Hの顔面を撮影する。撮像装置11で得られた濃淡画像は記憶装置12に転送される(図1のS1)。上述のように撮像装置11はカラーTVカメラであるから、濃淡画像はカラー画像であって、ここではRGB表色系に相当する画像信号が出力されるものを用いている(つまり、一般的な構成のカラーTVカメラを用いる)。
RGB表色系のカラー画像は3枚のモノクロ画像により構成された3チャンネル画像であるが、本実施形態では、3チャンネル画像をシングルチャンネル画像に変換する処理を行う(図1のS2)。以下に説明する方法で生成したシングルチャンネル画像の画素値は明度を表していないが、各画素の色を色空間における一つの直線に投影したときの直線上での位置に相当する画素値を有している。濃淡画像は色空間において各画素の色を明度軸に投影したときの明度軸上での位置に相当する画素値を有しているものであり、以下に説明するシングルチャンネル画像の一例として扱うことができる。逆に言えば、以下に説明するシングルチャンネル画像も広義には濃淡画像であると言える。なお、本実施形態では、人の顔面を被検査物としており、検査項目は肌トラブルであって、目や鼻などは検査対象ではないので、図4に示すように適宜形状(図示例では多角形)のマスク4Pを用いて適用し、マスク4Pの内部の画像のみを検査対象とする。
3チャンネル画像からシングルチャンネル画像を生成する方法としては、カラー画像の各チャンネルの重み付き平均値を用いたり、RGB画像をL表色系のカラー画像に変換し明度を表すLチャンネル成分を用いたりすることができる。しかしながら、これらの方法では、肌トラブルによる明度の低下は捉えることができるとしても、色の変化をシングルチャンネル画像に十分に反映させることができない。とくに、L表色系のカラー画像のLチャンネルは色相および彩度の情報を持たないから、この方法で生成したシングルチャンネル画像では色の変化を検出することができない。
そこで、本実施形態では、被検査物である皮膚のうち特徴部分を除いた正常と考えられる部分(以下では、「背景部分」と呼ぶ)と、肌トラブルが発生していると考えられる特徴部分とを分離しやすくするように、色空間において背景部分と特徴部分とを通る直線を求める。以下では、この直線を「色分離軸」と呼ぶ。すなわち、背景部分と特徴部分との色空間内における画素値が少数の潜在変数の線形結合で表されると仮定し、潜在変数で表される直線を色分離軸として求めるのである。色分離軸は、因子分析モデルにおける基本式に相当する。
図1のステップS2において、RGB表色系のカラー画像をシングルチャンネル画像に変換する手順は、具体的には図2のようになる。すなわち、記憶装置12に格納されたRGB表色系のカラー画像を、まずL表色系のカラー画像に変換する(S11)。ところで、被検査物である顔面には凹凸があるから、無影で照明する照明装置16を用いても、カラー画像内には顔面の凹凸に応じて緩やかに明度の差が生じる(図4の斜線は明度が低い部位を表している)。
そこで、明度を表すLチャンネルに対しシェーディング除去処理を施して明度の変化を除去する(S12)。ここでのシェーディング除去処理には、低域成分を除去する空間周波数フィルタを用いる。この種の空間周波数フィルタとしては、たとえば、ラプラシアンガウシアンフィルタを用いる。図4のカラー画像に対して、ステップS12によってLチャンネルの画像から低域成分を除去した画像を図5に示す。
上述した色分離軸を求めるには、まず図5に示す画像を用いて背景部分と特徴部分とを暫定的に分離する。つまり、Lチャンネルの画像にシェーディング除去処理を施した後に、暫定的にしきい値を設定して2値化を行う(S13)。この2値化では、明度の情報だけを用いているから、背景部分と特徴部分とを正確に分離できるわけではないが、図6のように、暫定的に背景部分(白色部分)の候補(「暫定背景部分」と呼ぶ)41と特徴部分(黒色部分)の候補(「暫定特徴部分」と呼ぶ)42とに分離することができる。なお、明度ではなく色の情報を用いて2値化したり、明度と色との両情報を用いて2値化することも可能である。
このようにして得られた暫定背景部分41と暫定特徴部分42とに属する各画素について、シェーディング除去処理後のLチャンネルの画素値と、aチャンネルおよびbチャンネルの画素値とで表される色を、L表色系の色空間にプロットする(S14)。L表色系の色空間にプロットされた画素は、背景部分および特徴部分の候補の色を有しているから、これらの色を用いれば色分離軸を求めることができる。
いま、ステップS14の処理により、L表色系の色空間において、図7に示すように画素がプロットされたとする。上述のようにして色空間にプロットされた画素は、背景部分の画素同士が色空間内で近接し、また特徴部分の画素同士が色空間内で近接すると考えられる。つまり、背景部分の画素集団51と特徴部分の画素集団52とを形成すると考えられる。そこで、色分離軸を設定するために、背景部分の画素集団51と特徴部分の画素集団52とについてそれぞれ色の平均値e51,e52を求める(S15)。色空間内において平均値e51,e52を通る直線を色分離軸53とすれば(S16)、各画素の色を色分離軸53に投影したときに、色分離軸53の上では背景部分の画素群と特徴部分の画素群とに分離されることになる。
そこで、色分離軸53を求めた後、ステップS12でシェーディング除去処理を施した画素をあらためて色分離軸53に投影し、色分離軸53の上に適宜に設定した基準点からの距離を画素値としてシングルチャンネル画像を生成する(S17)。すなわち、3チャンネル画像であるカラー画像からシングルチャンネル画像を生成することができる。このシングルチャンネル画像では、背景部分と特徴部分との画素値の差が大きくなるから、背景部分と特徴部分との分離が容易になる。ここに、色分離軸53の正方向は明度が増加する方向に設定しておく。
以下の処理は、上述の方法で求めたシングルチャンネル画像を用いて行う。シングルチャンネル画像を用いて特徴部分を抽出する過程は、色調の類似する画素をグループ化する処理する過程と、グループ化した領域の特徴量を評価する過程と、特徴量の評価結果から肌トラブルの種別を分類する過程とからなり、画素のグループ化の過程は、比較的少数の画素の集合である連結領域を生成する過程と、連結領域同士の統合の可否を判断して連結領域よりも大きい集合である特徴判定領域を生成する過程とからなり、特徴量を評価する過程では特徴判定領域について特徴量を評価する。肌トラブルを分類するにあたっては、本実施形態ではニューラルネットワーク(ニューロコンピュータ)を用いる。
連結領域を生成する過程(図1のS3)では、上述した方法で生成したシングルチャンネル画像について、画素値を2値化せずに画素値をそのまま用いてグループ化する。つまり、従来技術では、濃淡画像に対して明度に関する適宜のしきい値を適用して2値化した2値画像を用い、この2値画像から連結成分を抽出し、連結成分について特徴量を評価していたが、本実施形態では、図8に示すように、着目する画素Piに対して8近傍の画素との画素値の差分を求め、8近傍の画素について画素値の差分が規定値以下である場合には当該画素を着目する画素Piと同じ連結領域の画素としてグループ化する。ここに、画素値の差分と比較する規定値は、撮像装置11の解像度と特徴部分の大きさとの関係に依存するが、本実施形態において特徴部分として抽出しようとしている肌トラブルのうち最小サイズであるのは毛穴であって、毛穴について評価しようとすれば画像内において10画素程度の領域が必要であるから、本実施形態では、特徴部分の候補について、1つの連結領域のサイズが10画素程度になるように設定している。つまり、色分離軸53に特徴部分を投影したときに、色分離軸53の上で10画素ずつ程度に分離できるようにグループ化の規定値を設定する。図8は、特徴部分の候補から4個の連結領域A1〜A4が得られた例を示している。
連結領域が生成されると、連結領域をさらに統合可能か否かが評価され、統合可能な連結領域をグループ化することにより特徴判定領域を生成する(S4〜S6)。図9は特徴判定領域B61〜B610が生成された状態を示している。図9において特徴判定領域B61〜B610の内部の線は、連結領域の境界線を表している。図9のうち、特徴判定領域B63は、目視でシミに相当する部位であり、この部位には図10のように5個の連結領域A631〜A635が含まれているものとする。つまり、面積の大きいシミには色ムラがあるので、目視で1個のシミとみなせる範囲であっても、複数個の連結領域A631〜A635に分割されるのである。ただし、目視では1個のシミとみなせるので、目視による結果と一致させるために、複数個の連結領域A631〜A635が統合可能か否かを評価する。
連結領域を生成する際には互いの画素値の類似の程度を評価したが、特徴判定領域を生成する際には各連結領域と背景との相違の程度を評価する。つまり、図10の例では、各連結領域A631〜A635の内部の画素値と、統合するか否かを評価する連結領域A631〜A635の周辺における背景の画素値との差を評価する。
具体的には、まず各連結領域A631〜A635について、それぞれ内部の画素の画素値の平均値(以下、「内部平均値」と呼ぶ)InA631〜InA635を求める。さらに、各連結領域A631〜A635ごとに、重心G1の位置を中心とする規定の半径rの円内に存在し、かついずれの連結領域A631〜A635にも属さない画素の画素値の平均画素(以下、「外部平均値」と呼ぶ)OutA631〜OutA635を求める。次に、各連結領域A631〜A635ごとに、内部平均値InA631〜InA635と外部平均値0utA631〜OutA635との差(コントラスト値)CA63n(=InA63n−OutA63n)(n=1〜5)を求め、このコントラスト値CA63nを規定値Tと比較する。一般に、特徴部分は背景部分よりも暗いので、上述の演算式で求めたコントラスト値CA63nに対する規定値Tの符号は負になる。半径rは、統合の可否を判定しようとする連結領域A631〜A653の全体が円の中に含まれるように設定し、通常は、連結領域A631〜A635の重心G1から輪郭線までの最大距離の3〜5倍に設定する。
コントラスト値CA63nの絶対値が規定値Tの絶対値よりも大きいという条件を満たせば、特徴部分は背景部分と相違すると判断することができるから、このような条件を満たす連結領域A631〜A635を一つの特徴判定領域に統合する(図1のS4,S5)。つまり、図10の例において規定値T=−15に設定し、各連結領域A631〜A635について求めたコントラスト値CA631〜CA635がそれぞれ−17、−8、−24、−20、−13であるとすれば、連結領域A631、A633、A634が条件を満たしていることになる。つまり、互いに境界を接する連結領域A631、A633、A634を統合することにより特徴判定領域B63を生成する(図1のS6)。
上述した処理では、境界を接している連結領域を統合することによって特徴判定領域を生成しているが、境界を接していない連結領域についても統合することが可能な場合がある。たとえば、肌トラブルのうちシワについては、分断されていることがあり、抽出された連結領域の境界が離れている場合がある。図11の例で示すと、特徴判定領域B62,B69は目視ではシワに相当する領域であり、特徴判定領域B62については連結領域が境界を接しているから上述した処理によって1個の特徴判定領域に統合されるが、特徴判定領域B69については1個の特徴判定領域に統合したいにもかかわらず、上述の処理では複数個(図示例では3個)の特徴判定領域B691〜B693が生成されることになる。
そこで、以下では細長い特徴判定領域を1個に統合する処理について説明する。まず、上述した手順で連結領域を統合することにより得られた特徴判定領域B61〜B68,B691〜B693,B610について、それぞれスケルトン(骨格線ないし芯線)SKを抽出する。スケルトンSKは、特徴判定領域B61〜B68,B691〜B693,B610が円形に近い形状である場合よりも、シワに対応する領域のように細長い形状である場合のほうが長くなる。そこで、特徴判定領域B61〜B68,B691〜B693,B610の形状を評価することにより、特徴判定領域B61〜B68,B691〜B693,B610をさらに統合することができるか否かを判断する。
まず、スケルトンSKの両端点を結ぶ線分ps1−pe1を設定し、この線分ps1−pe1の長さLaを規定値TL1と比較する。長さLaが規定値TL1以上であれば特徴判定領域B61〜B68,B691〜B693,B610が細長い形状であると判断する。図示例では、特徴判定領域B62がこの条件を満たしているから、この特徴判定領域B62について、スケルトンSK上の各点と線分ps1−pe1との距離の平均値Lbを求める。ここで、特徴判定領域B62の直線性を評価するために平均値Lbに対する長さLaの比(=La/Lb)を求め、La/Lbを規定値TL2と比較する。La/Lbが規定値TL2以上であれば、この特徴判定領域B62をシワの候補とみなすことができる。
また、上述の手順ではシワの候補とみなされない場合であっても、図12に示すように、互いに異なる2個の特徴判定領域B691〜B693の端点同士を結ぶ線分ps2−pe2を設定し(無駄な判定を行わないためには、線分の長さに測定結果に基づく上限を設けておくのが望ましい)、この線分ps2−pe2の長さLcを規定値TL1と比較する。長さLcが規定値TL1以上になる場合には、両特徴判定領域B691〜B693のスケルトンSK上の各点と線分ps2−pe2との距離の平均値Ldを求める。平均値Ldに対する長さLcの比(=Lc/Ld)を求め、Lc/Ldが規定値TL2以上になるときには、1本のシワが2個の特徴判定領域B691〜B693に分断された可能性があるので、両特徴判定領域B691〜B693の色差を求める。つまり、シングルチャンネル画像において、両特徴判定領域B691〜B693の画素値の平均値をそれぞれ求め、画素値の平均値の差が規定値以内であれば両特徴判定領域B691〜B693を1個の特徴判定領域として統合する。
上述の処理は、線分ps2−pe2の長さLcが最小である2個の特徴判定領域B691〜B693から始めて、順に線分ps2−pe2の長さLcが長くなる特徴判定領域B691〜B693の評価を行い、条件を満たす最大長さの線分ps2−pe2が得られるまで処理を繰り返す。この手順により、近い特徴判定領域B691〜B693から順に統合し、統合可能な範囲で最大になる特徴判定領域B69を得ることができる。図12では、上述した処理によって、3個の特徴判定領域B691〜B693を1個の特徴判定領域B69に統合した例を示している。
画素のグループ化によって特徴判定領域B61〜B610が得られると、各特徴判定領域B61〜B610について特徴量の評価が行われ肌トラブルの種別が分類される(図1のS7)。肌トラブルの分類に際しては、同じ検査項目(シワ、シミ、毛穴の黒ずみ、色ムラ)について程度(大きさや濃さ)についても併せて分類してもよい(図1のS8)。たとえば、シワであれば、深さや大きさについて分類してもよい。
肌トラブルの分類に際しては、まず特徴判定領域B61〜B610について、形状と画素値の分布とに関する特徴量を求める。特徴判定領域B61〜B610の形状の特徴量としては、たとえば、図13に示すように、重心G(画像内での座標位置(x,y))、面積A、周囲長P、慣性主軸方向D、慣性主軸方向Dに直交する方向の最大幅W、慣性主軸方向Dの最大長さL、円形度R=4πA/P(または、偏平度(=1−R))を用いる。また、画素値の分布の特徴量としては、画素値の平均値、標準偏差を用いる。また、平均色からの色差を用いてもよい。
特徴判定領域B61〜B610を肌トラブルの種別および程度について分類するには、表1のような基準を定め、特徴判定領域B61〜B610について求めた特徴量が、表1の基準に合致する場合に、表1の左端に記載した種別に分類することができる。ここに、1つの項目でも基準を満たさないものがあれば、肌トラブルの種別は「不明」として処理される。
Figure 0004725298
一例として、特徴判定領域B61〜B610について求めた特徴量と、当該特徴量を表1の基準に適用して求めた肌トラブルの種別とを表2にまとめて示す。
Figure 0004725298
なお、表1、表2において、面積の単位は[mm]、周囲長、長さ、幅の単位はいずれも[mm]、方向の単位は[°]である。
ところで、表1のような基準値があらかじめ設定されていれば、表2のように肌トラブルの種別を分類することは容易であるが、人の視覚的な印象と判定結果とを一致させるように基準値を定めることは容易ではなく、適切な基準値を定めるには相当数の測定結果の統計作業が必要である。
そこで、この分類にはニューラルネットワーク(ニューロコンピュータ)25を用いるのが望ましい。本実施形態で用いるニューラルネットワークは、図14に示すように、入力層Ly1と中間層Ly2と出力層Ly3とからなる3層のニューラルネットワークであって、入力層Ly1は上述した特徴量の個数のノードを有し、中間層Ly2のノード数は入力層Ly1よりも多く、出力層Ly3のノード数は肌トラブルの種別の分類数になっている。なお、肌トラブルの種別を分類する際には、シワ、シミ、毛穴の黒ずみ、色ムラに分類できない場合もあるから、出力層Ly3のノードには「不明」も含まれる。つまり、本実施形態で分類する肌トラブルの種別は4種類であるが出力層Ly3のノード数は5になる。
このニューラルネットワークに特徴量を入力して肌トラブルの種別を分類するには、ニューラルネットワークに学習させる必要がある。ニューラルネットワークの学習にあたっては、図15に示す画面(ダイアログボックスの形で表示される)を出力装置14であるカラーモニタに表示し、入力装置15であるマウスおよびキーボードを用いて、必要事項を入力する。図15に示すように、画面は肌トラブルの種別ごとに表示される(図示例では肌トラブルがシワである場合を示している)。上述した各特徴量については、上限値と下限値とを入力するためのフィールド92,93がそれぞれ設けられる。また、その肌トラブルを検出するのに必要な特徴量を選択するために、各特徴量ごとにチェックボックス91が設けられ、チェックボックス91にチェックを入れている特徴量のみが当該肌トラブルの検出に用いられる。画面の下部には、「テスト」釦94、「教示データ登録」釦95、「ニューロ教示」釦96が表示される。
次に、ニューロコンピュータ25を学習させる操作について説明する。オペレータは、肌トラブルの種別ごとに、図15に示すような画面上で、分類に用いる特徴量を選択し選択した特徴量に対応するチェックボックス91にチェックを入れる(チェックボックス91のマウスクリックによりチェックは入切される)。また、特徴量の上限値と下限値とを入力するフィールド92,93に適宜の値を入力し、「テスト」釦94のマウスクリックを行う。このような操作によって、設定された特徴量の上限値と下限値を用いて、目視による肌トラブルの判定結果と特徴量の上限値および下限値とを用いた判定結果とが一致するように上限値および下限値を調整する。
各肌トラブルの分類に用いる特徴量の種類が決まり、上限値および下限値の調整が終了すると、撮像装置11により撮影され出力装置14の画面に表示されている濃淡画像の中で判定結果が誤っていた箇所についてマウスクリックを行う。このマウスクリックによって、画面上には肌トラブルの種別が並んだプルダウンメニューが表示される。プルダウンメニューの中から正しい種別を選択すると、設定した各特徴量の上限値および下限値が肌トラブルの種別に対応付けられる。上述した作業の終了後に、「教示データ登録」釦95のマウスクリックを行うと、各特徴判定領域から得られた特徴量と判定結果の組のデータが保存される。この作業を多数人に行うことによって教示データが蓄積された後、「ニューロ教示」釦96のマウスクリックを行い、教示データを用いてニューラルネットワークの各ノードの重み付け計算を実行する。
上述したように、出力装置14の画面上で適宜の上限値および下限値を入力することによって、特徴量を用いた判定結果が目視による結果に合致するように上限値および下限値を調整した後、調整した上限値および下限値が正しい結果になるように判定結果を調節して教示データを蓄積し、さらに、多数の教示データを用いてニューラルネットワークの重み係数を設定することで、ニューラルネットワークを肌トラブルの種別の分類に用いることができるようになる。つまり、ニューラルネットワークは入力層Ly1に入力される特徴判定領域の特徴量に対して、教示された判定結果に近い結果を出力層Ly3に出力するように学習されるから、以後は上限値および下限値を手動で設定することなく、人間の視観判定に近い判定結果が得られることになるのである。
なお、撮像装置11にはカラーTVカメラ以外に、デジタルカメラやモノクロTVカメラを用いることも可能であり、さらには、紫外線のような不可視光を撮影する特殊カメラを用いることも可能である。また、正弦波縞(強度分布が正弦波状に変化する縞状の光パターン)を被検査物(顔面)に投影し、被検査物の表面の凹凸による正弦波縞の変形状態から被検査物までの距離情報を求める位相シフト三次元計測装置などを用いることにより、画素値が高さ情報となるようなシングルチャンネル画像を取得するようにしてもよい。照明装置16は、撮像装置11が紫外線カメラである場合には紫外線光源を用い、撮像装置11が三次元計測装置である場合には信号源を備えるから必要ない。また、モノクロTVカメラ、紫外線カメラ、三次元計測装置を用いる場合には、もともとがシングルチャンネル画像であるから、図1のステップS2(つまり、図2のステップS11〜S17)におけるシングルチャンネル画像に変換する処理は不要である。肌トラブルのうちシワは三次元情報を持つから三次元計測装置はシワの検出の際にとくに有効である。
シングルチャンネル画像を生成する方法として、上述した方法に代えて、L表色系の色空間において、a面での背景部分の平均色を求めておき、各画素に関する色(a,b)と平均色との差(つまり、a面上の距離)を画素値に持つシングルチャンネル画像を生成してもよい。とくに、明度の変化があまりない色ムラを抽出するには、色分離軸を用いる方法を採用するよりも、この方法を採用するほうがよい。したがって、シミ、シワ、毛穴の黒ずみのように明度と色との両方の変化を伴う肌トラブルについては色分離軸を用いた処理によって判別し、明度の変動をあまり伴わない色ムラを抽出するには色分離軸を用いない処理によって判別するように、両者を併用してもよい。
上述した実施形態において、連結領域をグループ化して特徴判定領域を生成する際に、内部平均値と外部平均値との差であるコントラスト値によって特徴判定領域とするか否かを判断しているが、撮像装置11で得られる濃淡画像の解像度が十分に高く、連結領域の画素数を統計的に意味を持つ程度に多くとることができる場合には、連結領域の内外における統計的な有意差の有無について母平均差の検定を行うようにしてもよい。また、同様に、分断された特徴判定領域を統合するか否かの判定の際に色差を用いているが、この場合も母平均差の検定を行うようにしてもよい。
本発明の実施形態を示す動作説明図である。 同上においてシングルチャンネル画像の生成過程を示す動作説明図である。 同上の概略構成図である。 同上における濃淡画像の例を示す図である。 同上におけるシェーディング除去処理後の画像の例を示す図である。 同上における暫定しきい値による2値画像の例を示す図である。 同上において色分離軸の設定概念を示す図である。 同上における連結領域の概念を示す図である。 同上における特徴判定領域の概念を示す図である。 同上における特徴判定領域の生成例を示す図である。 同上における特徴判定領域の他の生成例を示す図である。 同上における特徴判定領域のさらに他の生成例を示す図である。 同上において特徴判定領域から求める形状の特徴量を示す図である。 同上に用いるニューラルネットワークの一例を示す図である。 同上に用いるニューラルネットワークの教示に用いる画面例を示す図である。
符号の説明
11 撮像装置
12 記憶装置
13 画像処理装置
14 出力装置
15 入力装置
16 照明装置
51,52 画素集団
53 色分離軸
A1〜A4 連結領域
B61〜B610 特徴判定領域
CA631〜CA635 コントラスト値
H 人体
SK スケルトン

Claims (6)

  1. 被検査物を撮影して得られたシングルチャンネル画像について、隣接する画素間の画素値の差が第1の規定値以下になる画素からなる連結領域を生成した後、特徴部分の候補となる連結領域の内外の画素値の分布を用いて連結領域を統合することにより特徴判定領域を生成し、特徴判定領域から得られる特徴量について分類することにより特徴部分を複数の種別に分類することを特徴とする画像による外観検査方法。
  2. 被検査物である人体の皮膚を撮影して得られたシングルチャンネル画像について、隣接する画素間の画素値の差が第1の規定値以下になる画素からなる連結領域を生成した後、連結領域の内外の画素値の分布を用いて正常な肌である背景部分から肌トラブルの候補である特徴部分を分離するとともに特徴部分となる連結領域を統合した特徴判定領域を生成し、特徴判定領域から得られる特徴量について分類することにより肌トラブルを複数の種別に分類することを特徴とする画像による外観検査方法。
  3. 前記被検査物を撮影した画像はカラー画像であって、当該カラー画像にシェーディング除去処理を施した後、明度と色との少なくとも一方について設定した暫定的なしきい値を用いてカラー画像を2値化することにより暫定特徴部分と暫定背景部分とに分離し、暫定特徴部分と暫定背景部分と各画素集団を通るように色空間内で設定した色分離軸にカラー画像の各画素を投影することによって色分離軸上の位置を画素値に持つ画像を生成し、この画像を前記シングルチャンネル画像に用いることを特徴とする請求項1または請求項2記載の画像による外観検査方法。
  4. 前記連結領域を統合することにより前記特徴判定領域を生成するにあたって、統合する候補の連結領域ごとに当該連結領域の内部の画素値の平均値と当該連結領域の周辺の背景部分の画素値の平均値との差を求め、この差が第2の規定値よりも大きいときに当該連結領域を特徴部分とし、この差が第2の規定値よりも小さいときに当該連結領域を背景部分として、特徴部分となる連結領域の集合を特徴判定領域として統合することを特徴とする請求項1ないし請求項3のいずれか1項に記載の画像による外観検査方法。
  5. 前記特徴判定領域についてスケルトンを求め、互いに異なる2個の特徴判定領域のスケルトンの端点間を結ぶ線分の長さが第3の規定値以上であるときに、両特徴判定領域のスケルトン上の各画素と前記線分との距離の平均値に対する前記線分の長さの比が第4の規定値以上であり、かつ両特徴判定領域の色差が第5の規定値以下のときに両特徴判定領域を1個の特徴判定領域に統合することを特徴とする請求項4記載の画像による外観検査方法。
  6. 前記特徴判定領域から得られる複数種類の特徴量を入力とするニューラルネットワークにより複数の種別に分類するにあたり、特徴量を分類する基準値と当該基準値による分類結果と分類の修正結果とを対話的に入力した教示データが蓄積され、蓄積された教示データを用いてニューラルネットワークが教示されていることを特徴とする請求項1ないし請求項5のいずれか1項に記載の画像による外観検査方法。
JP2005327962A 2005-11-11 2005-11-11 画像による外観検査方法 Expired - Fee Related JP4725298B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005327962A JP4725298B2 (ja) 2005-11-11 2005-11-11 画像による外観検査方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005327962A JP4725298B2 (ja) 2005-11-11 2005-11-11 画像による外観検査方法

Publications (2)

Publication Number Publication Date
JP2007130329A JP2007130329A (ja) 2007-05-31
JP4725298B2 true JP4725298B2 (ja) 2011-07-13

Family

ID=38152471

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005327962A Expired - Fee Related JP4725298B2 (ja) 2005-11-11 2005-11-11 画像による外観検査方法

Country Status (1)

Country Link
JP (1) JP4725298B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11055762B2 (en) 2016-03-21 2021-07-06 The Procter & Gamble Company Systems and methods for providing customized product recommendations

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5469859B2 (ja) * 2008-12-25 2014-04-16 花王株式会社 画像処理装置及びプログラム
JP5426475B2 (ja) * 2010-05-21 2014-02-26 株式会社 資生堂 肌の色ムラ解析装置、肌の色ムラ解析方法、及び肌の色ムラ解析プログラム
JP5794889B2 (ja) * 2011-10-25 2015-10-14 富士フイルム株式会社 シミ種別分類装置の作動方法、シミ種別分類装置およびシミ種別分類プログラム
WO2014027522A1 (ja) * 2012-08-17 2014-02-20 ソニー株式会社 画像処理装置、画像処理方法、プログラムおよび画像処理システム
WO2014136276A1 (ja) * 2013-03-08 2014-09-12 株式会社島津製作所 分析対象領域設定装置
JP6341650B2 (ja) * 2013-11-20 2018-06-13 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP6138745B2 (ja) 2014-11-19 2017-05-31 株式会社 資生堂 シミ評価装置、及びシミ評価プログラム
JP6715001B2 (ja) * 2015-12-18 2020-07-01 株式会社流通システム設計 食品検査システム及び食品検査方法
JP7083478B2 (ja) * 2016-10-06 2022-06-13 御木本製薬株式会社 皮膚評価方法
JP7307544B2 (ja) * 2018-06-14 2023-07-12 株式会社コーセー 皮膚透明感を評価する方法
KR102208551B1 (ko) * 2019-02-11 2021-01-27 (주) 인텍플러스 외관 검사 시스템
JP6821852B1 (ja) * 2020-07-15 2021-01-27 株式会社アイム 肌状態の評価を支援するための支援方法、支援プログラムおよび学習済みモデル生成方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000099734A (ja) * 1998-09-24 2000-04-07 Toppan Printing Co Ltd 画像濃淡ムラ検出装置
JP3734741B2 (ja) * 2001-11-12 2006-01-11 株式会社資生堂 しみ・そばかす評価方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11055762B2 (en) 2016-03-21 2021-07-06 The Procter & Gamble Company Systems and methods for providing customized product recommendations

Also Published As

Publication number Publication date
JP2007130329A (ja) 2007-05-31

Similar Documents

Publication Publication Date Title
JP4725298B2 (ja) 画像による外観検査方法
JP6869490B2 (ja) 欠陥検査装置、欠陥検査方法、及びそのプログラム
CN102426649B (zh) 一种简单的高准确率的钢印数字自动识别方法
JP5647878B2 (ja) 鋼管内部腐食解析装置及び鋼管内部腐食解析方法
JP5351673B2 (ja) 外観検査装置、外観検査方法
Mathavan et al. Use of a self-organizing map for crack detection in highly textured pavement images
JP2004294202A (ja) 画面の欠陥検出方法及び装置
US8971663B2 (en) System and method for producing synthetic golden template image for vision system inspection of multi-layer patterns
WO2003021533A9 (en) Color image segmentation in an object recognition system
JP2009524884A (ja) 画像内の照明域を識別する方法及びシステム
CN103345755A (zh) 一种基于Harris算子的棋盘格角点亚像素提取方法
JP2011214903A (ja) 外観検査装置、外観検査用識別器の生成装置及び外観検査用識別器生成方法ならびに外観検査用識別器生成用コンピュータプログラム
CN106934794A (zh) 信息处理装置,信息处理方法和检查系统
CN108921857A (zh) 一种面向监视场景的视频图像焦点区域分割方法
JP2005165387A (ja) 画面のスジ欠陥検出方法及び装置並びに表示装置
US7020323B2 (en) Pattern defect inspection apparatus and method
JP7415286B2 (ja) カラーフィルタ検査装置、検査装置、カラーフィルタ検査方法および検査方法
JP4018092B2 (ja) 検査対象物の所定の表面状態の原因を自動的に求める装置
JPH11306325A (ja) 対象物検出装置及び対象物検出方法
CN115861259A (zh) 一种基于模板匹配的引线框架表面缺陷检测方法及装置
WO2009144330A1 (en) Method for detection of objectionable contents in still or animated digital images
JPH0993443A (ja) カラーモノクロ画像変換方法および被検査対象のエッジ位置検出方法
JP4115378B2 (ja) 欠陥検出方法
JP3253752B2 (ja) パターン評価方法
Busin et al. Contribution of a color space selection to a flaw detection vision system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080703

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100716

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110304

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110315

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110328

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140422

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees