JP2019061484A - 画像処理装置及びその制御方法及びプログラム - Google Patents

画像処理装置及びその制御方法及びプログラム Download PDF

Info

Publication number
JP2019061484A
JP2019061484A JP2017185321A JP2017185321A JP2019061484A JP 2019061484 A JP2019061484 A JP 2019061484A JP 2017185321 A JP2017185321 A JP 2017185321A JP 2017185321 A JP2017185321 A JP 2017185321A JP 2019061484 A JP2019061484 A JP 2019061484A
Authority
JP
Japan
Prior art keywords
image
area
target
image processing
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017185321A
Other languages
English (en)
Inventor
友貴 藤森
Tomoki Fujimori
友貴 藤森
裕輔 御手洗
Hirosuke Mitarai
裕輔 御手洗
将史 瀧本
Masafumi Takimoto
将史 瀧本
洋志 奥田
Hiroshi Okuda
洋志 奥田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017185321A priority Critical patent/JP2019061484A/ja
Priority to CN201811107048.7A priority patent/CN109584202A/zh
Priority to US16/139,553 priority patent/US10891508B2/en
Publication of JP2019061484A publication Critical patent/JP2019061484A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/89Investigating the presence of flaws or contamination in moving material, e.g. running paper or textiles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06T5/70
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/273Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion removing elements interfering with the pattern to be recognised
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8887Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges based on image processing techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Abstract

【課題】 画像における検出対象領域を良好に検出することを可能にする。【解決手段】 対象画像と、前記対象画像と画素値の成分の種類が異なる参照画像を入力する画像入力部と、対象画像から検出対象候補の領域を検出する検出部と、少なくとも前記参照画像を用い、前記検出対象候補の領域から少なくとも1つの特徴量を抽出する抽出部と、特徴量に基づいて、前記検出対象候補の領域を選定する選定部とを有する。【選択図】 図5

Description

本発明は、画像処理装置及びその制御方法及びプログラムに関するものである。
画像を用いた物品の検査においては、一般的に欠陥領域を強調することが望ましく、そのために画像を高感度で取得することが必要になる。ただし、感度を上げ過ぎると、今度はノイズ成分が大きくなり、画像中の欠陥領域とノイズが重畳する領域(以下、ノイズ領域)の区別が困難になる。そこで、画像を欠陥領域とノイズ領域を分類するマスク処理を行うことで、欠陥領域候補のみを残す技術が必要となる。
たとえば、高感度に撮影し画像を生成する手法として、位相シフト法があげられる。位相シフト法とは、投影強度を正弦波に変調した縞パターンを利用して、位相をずらしながら投影して計測する方法であり、全画素において計測値が得ることができ、比較的少数の画像から精度の高い計測ができるので、計測範囲の調整が容易で撮像システムに容易に応用することができる。位相シフト法では、一般に強度を示す振幅画像と、周波数成分を表す位相差画像が生成されるので、振幅画像と位相差画像のふたつの異なる画像を用いて、欠陥領域とノイズ成分を分けるような処理を行うことが考えられる。
特開2017−120672号公報 特開2005−102862号公報 特許4861605号公報
特許文献1に記載の手法では、距離画像から候補領域を検出して、候補領域と対応する輝度画像の領域から、対応関係を表す観測データ分布を算出し、モデルデータとの誤差を算出することにより、学習画像を生成する手法が開示されている。しかし、特許文献1に記載の手法は、単なる画像生成方法であり、学習データにおいて、領域が正常領域であるか、検出対象領域であるかを絞り込む判断しているわけではない
特許文献2に記載の手法では、距離画像から候補領域を検出して、閾値パラメータが異なる2種類のマンモグラフ画像から検出された異常陰影候補の特徴量により、異常陰影候補が陽性であるかどうかを判断しているが、この処理は異常検出方法であり、認識処理の前に用いる画像補正もしくは前処理として用いられていない。
特許文献3に記載の手法では、輝度画像からパターンマッチングにより領域検出を行い、検出した領域に対し背景と前景の領域の特徴量から逆光と順光レベルを算出し、逆光と順光レベルから、画像の補正のパラメータをかえ、領域によっては画像補正をおこなわないことを設定する画像補正方法である。この手法では、輝度画像のみによって、画像の補正方法を決定しているが、複数の異なる種類画像、例えば、輝度画像と距離画像を用いて、画像変換方法を決定しているわけではない。
本発明は、このような点に鑑みてなされたものであり、画像における検出対象領域を良好に検出する技術を提供しようとするものである。
この課題を解決するため、例えば本発明の画像処理装置は以下の構成を備える。すなわち、
対象画像と、前記対象画像と画素値の成分の種類が異なる参照画像を入力する画像入力手段と、
前記対象画像から検出対象候補の領域を検出する検出手段と、
少なくとも前記参照画像を用い、前記検出対象候補の領域から少なくとも1つの特徴量を抽出する抽出手段と、
前記特徴量に基づいて、前記検出対象候補の領域を選定する選定手段とを有する。
本発明によれば、画像における検出対象領域を良好に検出することが可能になる。
第1の実施形態における情報処理システムのシステム構成を示す図。 第1の実施形態における情報処理装置およびユーザインターフェースのハードウェア構成図。 第1の実施形態における情報処理装置およびユーザインターフェースの機能構成図。 第1の実施形態における画像処理部およびユーザインターフェースによる処理手順を示すフローチャート。 第1の実施形態における画像処理部およびユーザインターフェースによる情報処理の一例を示すフローチャート。 第1の実施形態におけるクラスタ領域の分類法を示す図。 第2の実施形態における画像処理部およびユーザインターフェースによるにおける処理手順を示すフローチャート。 第2の実施形態におけるパラメータ設定に係る表示画面を示す図。 第2の実施形態におけるパラメータ設定に係るもう1つの表示画面を示す図。 第3の実施形態における画像処理装置およびユーザインターフェースによる処理手順を示すフローチャート。 第3の実施形態における座標空間へのクラスタリング例を示す図。 第4の実施形態における画像処理装置およびユーザインターフェースによる情処理の一例を示すフローチャート。
以下添付図面に従って本発明に係る実施形態を詳細に説明する。
[第1の実施形態]
本実施形態では、検査ライン上を検査対象物が順に搬送されており、検査対象物を撮影した画像に基づいて検査対象物を検査し、検査結果を表示するタスクを例として説明する。
図1は、本実施形態における情報処理システムのシステム構成図である。本システムは、検査対象物を検査する情報処理装置101、検査対象物を撮影する画像撮影装置102を有する。ユーザインターフェース103は、情報処理装置101の検査結果や、ユーザに入力を促すための情報を表示するデータ表示機能と、ユーザがデータを入力する装置である。ユーザインターフェース103は、モニタと、キーボード、マウス、タッチパネル等から構成され、情報処理装置101から送信される検査結果を示す画像等を表示し、また、検査結果に対してユーザが判断した結果等を入力する。
検査対象物104は、本実施形態における検査対象物である。光源105は検査対象物104を照射する。画像撮像装置102は、光が照射された検査対象物103を撮影し、画像データとして情報処理装置101に供給する。
図2は、本実施形態の情報処理装置101およびユーザインターフェース103のハードウェア構成の一例を示す図である。
情報処理装置101は、CPU201、主記憶装置202、補助記憶装置203を含み、ユーザインターフェース103は、入力I/F204、出力I/F205を含む。CPU201、主記憶装置202、補助記憶装置203、入力I/F204、出力I/F205は、システムバス206を介して、相互に接続されている。
CPU201は、情報処理装置101の処理を制御する中央演算装置である。主記憶装置202は、CPU201のワークエリアとして機能したり、プログラム等を記憶したりする記憶装置であり、ROM、RAM等で構成される。補助記憶装置203は、後述するデータ、各種設定値、各種閾値等のデータ、各種プログラム等を記憶する記憶装置であり、代表的にはHDDである。
入力I/F204は、ユーザインターフェース103が入力を受け付ける際に利用されるインターフェースである。なお、CPU201は、入力I/F204を介して、画像撮影装置102からの撮影画像の受け付けも行う。
出力I/F205は、外部の装置にデータを出力する際に利用されるインターフェースである。CPU201は、出力I/F205を介して、ユーザインターフェース103へ検出結果の情報を出力して、不図示のモニタに表示する。CPU201が主記憶装置202又は補助記憶装置203に記憶されたプログラムに基づき処理を実行することによって、後述する図2の情報処理装置101およびユーザインターフェース103の機能及び、後述する図4、図5、図7、図10、及び図12のフローチャートの処理を実現する。
図3は、情報処理装置101およびユーザインターフェース103の機能構成の一例を示す図である。情報処理装置101は、画像処理部301、特徴量抽出部302、識別器判定部303を含む。これらは、情報処理装置101におけるCPU201は、主記憶装置202又は補助記憶装置203に記憶された検査プログラムを実行する実現するものでもある。
画像処理部301は、画像撮像装置102による撮影で得た、検査対象物104の画像データを入力し、画像処理により検出対象領域に近い画像のノイズ成分を取り除く処理を行う。なお、画像撮影装置102から動画データが入力される場合には、検査対象物104が所定の位置に到達した時点での静止画(フレーム)を取得する。
特徴量抽出部302は、画像処理部301によりノイズ成分を取り除いた画像の検査対象領域から特徴量を算出する。本実施形態で利用される特徴量については、図3のS302等の説明にて後述する。検査対象領域とは、画像撮影装置102による撮影で得られる画像内の領域であり、検査対象物104を含む。
識別器判定部303は、特徴量抽出部302で抽出された特徴量を基に正常モデル識別器を生成し、生成された正常モデル識別器と判定対象のデータから求めた特徴量を用いて、判定対象のデータの認識スコアを算出する。ここにおける正常モデル識別器とは、正常として既知の検査対象物104のみを用いて正常の範囲を定義するものであり、正常の範囲に含まれるか否か判定することにより、正常とそれ以外の異常データを識別する手法である。
以下、図4のフローチャートに従って、画像処理部301、特徴量抽出部302、識別器判定部303の処理内容を説明する。
・S401:画像入力
S401において、画像処理部301は、画像撮影装置102により撮影された検査対象物104の画像データを取得する。本実施形態の画像処理部301は、位相シフト法を利用して撮影した振幅画像(対象画像)と位相差画像(参照画像)とを取得する。このように、本実施形態では、性質の異なる2種類の画像、具体的には画素値の成分が異なる2種類の画像を取得する。また、画像処理部301は、画像撮影装置102からの振幅画像と位相差画像を一旦、補助記憶装置203に保存し、そこからそれらの画像データを順に取得してもよい。ここで、検査対象領域が画像上の一部である場合、画像内の検査対象領域のみを評価対象として取得する。
・S402:画像前処理
S402において、画像処理部301は、S401で取得した検査対象物104の振幅画像(対象画像)の画像データの検査対象領域に対し、画像前処理を行う。
画像処理部301は、画像前処理において、まず、振幅画像内の着目画素をその周辺画素の輝度に基づき二値化し、二値化結果に基づいてラベリング処理を行う。そして、画像処理部301は、各ラべリングされた領域に対応する位相差画像内の該当する領域の標準偏差成分の値をもって、欠陥候補領域とノイズ成分を分類する。そして、画像処理部301は、欠陥候補領域はマスキング処理を行わず欠陥領域として残す処理を行い、ノイズ成分領域には、マスキング処理を行いノイズ成分として消去する処理を行う。詳細については、図5のフローチャートを用いて後述する。
・S403:特徴量算出
S403において、特徴量抽出部302は、S402で取得したマスク処理後の対象画像の画像データの検査対象領域から、特徴量を抽出する。
複数の特徴量を用いる場合、例えば、対象画像の検査対象領域に対して、ハール・ウェーブレット(Haar Wavelet)変換をかけて、階層的な変換画像を生成する。ハール・ウェーブレット変換処理とは、画像データについて位置情報を保持したまま周波数変換する処理である。本実施形態における特徴量抽出部302は、S402で取得した画像データの特徴量を算出する処理として、ハール・ウェーブレット変換処理を用いる。
特徴量抽出部302は、一つの対象画像からハール・ウェーブレット変換処理を用いて生成した合計N種類(N階層)の画像に対して、それぞれ画素値の最大値、平均値、標準偏差を特徴量として算出する。つまり、特徴量抽出部302は、一つの対象画像から、計N種類の画像を生成し、生成した画像それぞれについて統計特徴量を3種類ずつ抽出する。結果的に、特徴量抽出部302は、1つの対象画像から合計で3N個の特徴量を抽出する。
このように、S403の処理により、特徴量抽出部302は、対象画像から複数の特徴量を抽出することができる。なお、対象画像の特徴量については、予め算出して補助記憶装置203に記憶しておいてもよい。
・S404:識別モデルの生成
S404において、識別器判定部303は、S403で算出した特徴量を用いて、後述の識別モデルの生成または更新を行う。
実施形態では、部分空間法のひとつである投影距離法を識別モデルの生成に用いる。投影距離とは、簡単に述べると、それぞれの特徴量を軸とする特徴空間における特徴ベクトルと、パターンの分布の分散が最大となる向きを持つ超平面(主平面)との最短距離である。ここで生成識別モデルを利用して、正常異常判別を行う。
・S405:テストデータに対する正常異常判定
S405において、識別器判定部303はS404で生成した識別モデルを利用して、対象画像データに対する正常異常判定を行う。具体的には対象画像データから特徴量抽出を行い、S403で生成または更新した識別モデルを用いて、正常異常判定を行う。ここでは対象画像データに対し投影距離を算出し、閾値処理をしたうえで、正常異常判定を行う。
図5は、画像処理部301およびユーザインターフェース103による情報処理の一例を示すフローチャートである。ここで、画像処理部301の処理(図4のS402)を同図を参照して説明する。
・S501:画像入力
S501において、画像処理部301は、画像撮影装置102により撮影された判定対象の画像データを取得する。本実施形態では、位相シフト法で撮影した振幅画像と位相差画像を取得する。ここで、検査対象領域が画像上の一部である場合、画像内の検査対象領域のみを評価対象として取得する。
・S502:候補検出
S502において、画像処理部301は、S501で取得した振幅画像データ(対象画像)の検査対象領域に対して二値化処理を行う。
二値化処理は、二値化しようとしている対象画素を、その対象画素の周辺画素群の平均輝度を基準(閾値)にして二値化を行う。具体的には、画像処理部301は、対象画素を中心とするh×h画素の領域における、対象画素を除くh×h−1個の画素の平均輝度を算出する。そして、画像処理部301は、算出した平均輝度に所定の値pを掛け合わせた値が、対象画素の輝度値より小さければ、対象画素に対して二値化結果“1”の値をセットする。逆に、平均輝度に所定の値pを掛け合わせた値が、対象画素より大きければ、対象画素に対して二値化結果“0”の値をセットする。画像処理部301は、このようにして、検査対象の領域のすべての画素を上記対象画素として処理することで、“1”または“0”の値を画素値とする二値化画像を得る。なお、対象画素が画像の端等に位置する場合、h×h画素の幾つか画像外になってしまうことになる。画像外の画素については平均輝度を求める対象から省くことにして、残った画素で平均値を求め、対象画素に対し閾値処理を行うことにより、1または0の値をセットする。また、所定の値pはあらかじめ設定しておくと述べたが、候補領域と候補領域以外の輝度値を算出し、分離度をみることによって、パラメータpを決定し、候補領域のマスクの値を設定してもよい。また、周辺画素群の広がりを規定する「h」は予め設定されているものとするが、ユーザが適宜設定できるようにしても構わない。
画像処理部301は、上記のようにして得た二値化画像に対し、ラベリング処理をおこなう。ラベリング処理は、二値化画像における画素値“1”が連続する領域について1つのラベルを付与する。ここで「連続」の定義としては、4連結もしくは8連結が考えられる。「4連結」は、二値化された“1”の着目画素の垂直方向、或いは、水平方向に隣接画素が“1”である場合、それらに同じラベルを付与するものである。「8連結」は、垂直、水平に加えて、斜め方向(4方向有る)に隣接する画素が“1”である場合に、それらに同じラベルを付与するものである。実施形態では、「4連結」を用いて、二値化画像に対し、ラベリング処理を行い領域を検出するものとするが、「8連結」であっても構わない。なお、二値化画像における画素値“1”が連続している一塊の領域を、以降「クラスタ領域」という。
・S503:特徴抽出
S503にて、画像処理部301は、S503のラベリング処理で得たクラスタ領域に対し、それぞれ面積や長さといった特徴量を算出する。「面積」はクラスタ領域における画素値“1”の画素数、「長さ」はクラスタ領域内の画素値“1”の中で最も離れた2画素間のユークリッド距離とする。
・S504:ノイズ除去
S504にて、画像処理部301は、S504で得た各クラスタ領域の特徴量を利用して、マスク処理を行うかどうかを決定する。
面積、長さといった領域内の特徴量を用いる場合は、面積や長さが、それぞれに設定された閾値以上であれば、欠陥領域であると判定できるため、マスク処理を行わないことを示す“0”の値を、対象クラスタ領域にセットする。また、面積や長さがそれぞれの閾値に満たない場合、ノイズ領域、欠陥領域のいずれの場合もあり得るので、暫定的にマスク候補であることを示す“1”を対象クラスタ領域に対してセットする。
なお、領域間距離を特徴量として用いる場合、領域間の距離が最も近いクラスタ間の最短距離を求め、所定未満であれば、マスク処理を行わない、0の値をセットする。逆に、クラスタ間の最短距離を求め所定以上であれば、マスク処理を行うため、1の値をセットする。
次に、画像処理部301は、マスク候補として設定されたクラスタ領域それぞれについて、位相差画像内の対応する領域の画素値の標準偏差を求める。そして、マスク候補として設定されたクラスタ領域それぞれを{面積,標準偏差}の2つ成分のベクトルで表現し、面積−標準偏差の座標空間にプロットしていく。
図6は、このプロット例を示している。図示では、振幅画像の領域の特徴量(面積)601をX軸に、位相差画像の領域の特徴量(標準偏差)602をY軸に示している。そして、これらX,Y軸で規定される座標空間に各クラスタ領域の特徴量をプロットし、座標空間を3つの領域に分ける。たとえば、異常種Aを示す領域603、異常種Bを示す領域604、正常領域を示す領域605に分けられる。
境界606は、x=cで表され、異常種Aを示す領域603と異常種Bを示す領域604とでわけられる。ここでパラメータcは、異常種Aを示す領域603と異常種Bを示す領域604を分けるようなパラメータであり、領域内のデータを確認した結果を用いて、パラメータcを決定する。
境界607は、y=ax+bで表され、正常を示す領域605と異常種Aを示す領域603で分けられる。ここにおけるパラメータa(傾き)とb(切片)は、正常を示す領域605と、異常種Aを示す領域603を分けるようなパラメータであり、領域内のデータを確認した結果を用いて、パラメータaとbを決定する。
画像処理部301は図6のようにプロットした3つの領域のうち、領域605(x≦c、且つ、y≧ax+bの領域)がノイズであるものと見なす。換言すれば、領域603、604は欠陥領域であるものと見なす。故に、画像処理部301は、暫定的にマスク候補であることを示す“1”をセットしたクラスタ領域のうち、領域603、604に属するクラスタ領域については、マスクしないことにするため“0”に設定する。
尚、本実施形態では、参照画像である位相差画像の候補領域から、特徴量として標準偏差を求めるようにしたが、本発明はこれに限るものではなく、例えば、平均値等のその他の統計値や、ヒストグラムといった多次元の特徴量を用いても構わない。
以上の処理を経て、画像処理部301は、各クラスタ領域について欠陥領域(マスクしない領域)、ノイズ領域(マスクする領域)を区別するためのマスクの選定(生成)が行う。
・S505:画像出力
S505にて、画像処理部301は、S504で生成したマスクを利用して、マスク処理おこなうことにより、欠陥候補領域とノイズ成分を分類し、ノイズ成分を打ち消した振幅画像を生成する。ここでは、マスクで0の値が入った領域に対しては、対象画像の画素値を変化させない。一方、マスクで1の値が入った領域(面積や距離がそれぞれの閾値以下であって、図6の「正常」として判定されたクラスタ領域)に対しては、対応する対象画像の領域の周辺輝度(例えば平均輝度)で埋め合わせ、領域を補完する処理を行う。これにより、検出対象候補領域とノイズ成分の領域を分類し、ノイズ成分を削除した正常異常判定に適した対象画像を生成することができる。なお、本実施形態では、マスクを使うことを前提としたが、マスクを使わずノイズ成分に対し、周辺輝度で埋める処理を行ってもよい。
尚、本実施形態では、参照画像である位相差画像の候補領域から、特徴量として標準偏差を求めるようにしたが、本発明はこれに限るものではなく、例えば、平均値等のその他の統計値や、ヒストグラムといった多次元の特徴量を用いても構わない。
以上、本実施形態では、振幅画像データから検出対象候補領域を算出し、検出対象候補領域の面積、もしくは長さの特徴量により検出対象候補領域を検出する。そして、対象画像とは性質の異なる参照画像を用い、対象画像の検出対象候補領域に対応する参照画像の領域の特徴量に基づき検出対象候補領域から検出候補領域を決定することにより、精度よく検出領域を検出することができる。
[第2の実施形態]
上記第1の実施形態における情報処理システムは、画像を周辺輝度により二値化処理し、領域ごとにラベリング処理を行ったうえで、異なる種類の画像の標準偏差成分の値をもって、欠陥候補領域とノイズ成分を分類した。そして、第1の実施形態では、欠陥候補領域はマスキング処理を行わず欠陥領域として残す処理を行い、ノイズ成分領域には、マスキング処理を行いノイズ成分として消去する処理を行った。
これに対し、本第2の実施形態の情報処理システムは、ユーザインターフェース103を用いて、画像を二値化するための閾値を決定し、欠陥候補領域とノイズ成分を分類するためのパラメータを決定する仕組みについて述べる。
・S702:候補検出
S702において、画像処理部301は、S701で取得した振幅画像データの検査対象領域を対象に初期の閾値を用いて二値化処理を行う。
二値化処理は、対象画素の周辺平均輝度を基準に二値化をおこなう。具体的には、対象画素を中心とするH×Hの領域を特定し、対象画素を除く検出したH×H−1個の画素の平均輝度を算出する。
ここで算出した平均輝度に初期の値pを掛け合わせた値が、対象画素の画素値より小さければ、対象画素に対して二値化結果“1”の値をセットする。換言すれば、対象画素の画素値が、平均輝度に初期の値pを掛け合わせた値以上の場合には、対象画素に対して二値化結果“1”の値をセットする。
逆に、平均輝度に所定の値pを掛け合わせた値が、対象画素の画素値以上の場合、二値化結果“0”の値をセットする。つまり、対象画素の画素値が、平均輝度に初期の値pを掛け合わせた値より小さい場合、対象画素に対して二値化結果“1”の値をセットする。
・S704:特徴量の関係に基づきユーザインターフェースでパラメータの確認
S704にて、画像処理部301は、ユーザインターフェース103を介して、ユーザに二値化パラメータpの調整を行わせる。ここで、平均輝度に掛け合わせる所定の値をpとして設定し、ユーザインターフェース103(実施形態ではスライダーバー)を用いて、パラメータpを調整させる。
図8は、ユーザインターフェース103に表示されるパラメータpを決定するための表示画面を示している。
図示における参照符号801は振幅画像であり、振幅画像に対し欠陥領域がどこにあるのかわかるように表示されている。参照符号802は、二値化処理で得た二値化画像であり、S502と同様に、対象画素を中心として、H×Hの領域を検出し、対象画素を除く検出したH×Hの領域に対し、平均輝度を算出する。ここで算出した平均輝度に閾値調整部を用いてセットされた値pを掛け合わせ、対象画素より小さければ、対象画素に対し、1の値をセットする。逆に、平均輝度に閾値調整部を用いてセットされた所定の値pを掛け合わせ、対象画素より大きければ、0の値をセットする。
参照符号803は、閾値調整部であり、ここで調整しセットされた値pにより、二値化画像802を生成するための閾値を決定し、二値化画像を生成する。ユーザは、閾値調整部803のツマミを左右にスライドする指示を与えることで、値pを変更でき、そのツマミ位置の値pに応じて2値化画像802が変化することになる。なお、図8の初期画面での閾値調整部803のツマミの位置は中央に位置し、その位置での値pは“1.0”である。
以上は第2の実施形態における二値化処理の閾値設定に係る説明である。
図9は、ユーザインターフェース103に表示される、図6における境界606(x=c)が示すパラメータcと、境界607(y=ax+b)のパラメータa,bを決定するための表示画面の例である。
振幅画像の領域の特徴量(面積)901は、マスク画像の領域ごとの特徴量(面積)を表しX軸であらわされている。また、位相差画像の領域の特徴量(標準偏差)902は、マスク画像の領域ごとに対応する位相差画像の領域の標準偏差を表し、Y軸であらわされる。そして、各領域の特徴量をプロットし、3つの領域にわける。たとえば、異常種Aを示す領域903、異常種Bを示す領域904、正常領域を示す領域905にわけられる。
境界906は、x=cであらわされ、異常種Aを示す領域903と異常種Bを示す領域904とでわけられる。ここにおけるパラメータcは、異常種Aを示す領域903と異常種Bを示す領域904を分けるようなパラメータであり、領域内のデータを確認した結果を用いて、パラメータcを決定する。
境界907は、y=ax+bであらわされ、正常を示す領域905と異常種Aを示す領域903で分けられる。ここにおけるパラメータa(傾き)とb(切片)は、正常を示す領域905と、異常種Aを示す領域903を分けるようなパラメータであり、領域内のデータを確認した結果を用いて、パラメータaとbを決定する。
画像909は、実際の画像であり、この画像の各領域がX軸901とY軸902でプロットされている。カーソル908は、領域を選択するための選択ツールであり、ここで選択された領域が画像909の領域910に対応している。
パラメータ設定部911は、境界906のパラメータcを設定するためのツールであり、パラメータ設定部911を調節することにより、異常種Aを示す領域903と異常種Bを示す領域904を分離できているかどうかを確認することができる。
パラメータ設定部912A,912Bは、境界907のパラメータaとbを設定するためのツールであり、パラメータ設定部912を調節することにより、正常を示す領域903と異常種Aを示す領域904を分離できているかどうかを確認することができる。
画像チェックボックス913、914は画像を選択するための候補を示すチェックボックスであり、特徴量チェックボックス917、918、919、920は、特徴量を選択するための候補を示すチェックボックスである。画像チェックボックス913と特徴量チェックボックス917にチェックが入っているので、X軸を示す特徴量901は、画像Aの特徴量Aであることを示している。
同様に、画像チェックボックス915、916は画像を選択するための候補を示すチェックボックスであり、特徴量チェックボックス921、922、923、924は、特徴量を選択するための候補を示すチェックボックスである。画像チェックボックス916と特徴量チェックボックス924にチェックが入っているので、Y軸を示す特徴量902は、画像Bの特徴量Dであることを示している。
ここでは、特徴量2つで正常であるか、欠陥種Aであるか、欠陥種Bであるかを検討したが、特徴量が3つ以上ある場合も発明の範疇とする。三つ以上ある場合は、画像や特徴量を選択するための、画像チェックボックスや特徴量チェックボックスをそれぞれ増やして対応し、特徴量の評価軸も3軸以上にして表示することにより、対応する。
以上、本第2の実施形態では、画像データから検出対象候補領域を検出する際に、ユーザインターフェース103を利用して、検出対象候補領域を検出できているかどうかを判断をユーザに委ね、パラメータを設定する。また、ユーザインターフェース103を利用して、検出対象候補領域とノイズ成分を分類するためのパラメータを設定し、検出対象候補領域とノイズ成分を分類する。これにより、検出対象候補領域だけ残し、ノイズ成分を取り除く処理を行う前処理を行うことができ、精度よく検出対象領域を検出することができる。
[第3の実施形態]
第1の実施形態の情報処理システムは、振幅画像を周辺輝度により二値化処理して、領域ごとにラベリング処理を行ってクラスタ領域を求めた。そして、ノイズか欠陥領域かの判断が不明なクラスタ領域については、その面積と位相差画像の標準偏差成分の関係をもって、欠陥候補領域とノイズ成分を分類した。そして、欠陥候補領域はマスキング処理を行わず欠陥領域として残す処理を行い、ノイズ成分領域には、マスキング処理を行いノイズ成分として消去する処理を行った。
これに対し、本第3の実施形態の情報処理システムは、領域ごとの面積の軸と位相差画像の標準偏差の軸による特徴空間からクラスタリングを行い、ノイズ成分領域、異常種A、異常種Bを分類し画像前処理を行う。
なお、図10のS1001、S1002、S1003、S1005の処理は、図5のS501、S502、S503、S505の処理それぞれと同じであるので、その説明は省略し、S1004について説明する。つまり、クラスタ領域の面積と距離による、第1段階での欠陥領域、ノイズ候補の判定は行わない。
・S1004:クラスタリングを利用したマスク生成
S1004にて、画像処理部301は、S1003のラベリング処理で得たクラスタ領域に対し、マスク処理を行うかどうかの判定を行う。
具体的には、画像処理部301は、異常種の数にあわせて分類する数を決定する。たとえば、正常領域と、異常種Aと、異常種Bがわかっている場合、クラスタリング結果が3になるように、最短距離法でクラスタリングを行う。
最短距離法とは、データ間のユークリッド距離をすべて算出したうえで、ユークリッド距離が小さい順に、データを連結していく手法である。そしてクラスタの数が所定の数になったところで連結をとめる。これにより、クラスタの数が所定の数になる学習データを得ることができる。
こうして得たデータを利用して、対象領域のユークリッド距離においてどのデータに最も近いかを判定する。そして、最も近いデータのラベルをあたえることにより、新しく入ってきた領域が、正常領域であるのか、異常種Aであるのか、異常種Bであるのかを決定する。そして、画像処理部301は、正常領域に当たるクラスタ領域をノイズ領域として決定し、異常種A、Bにプロットしたクラスタ領域を欠陥領域として決定する。
なお、ここでは、教師なしのクラスタリングで記述したが、領域のラベルがあらかじめ分かっていることを想定した教師付きクラスタリングや、領域のラベルが一部わかっている準教師付きクラスタリングを行ってもよい。
図11は、選択された特徴量による特徴空間で、データをクラスタリングした結果を示す。画像Xの特徴量Aと画像Yの特徴量Bに基づく特徴量間において、領域に対応するデータが3領域にクラスタリングされる。領域1101は、正常を示す領域に対応し、領域1102は、異常種Aを示す領域に対応し、領域1103は、異常種Bを示す領域に対応する。クラスタリング結果を利用して、対象領域がどの領域に対応するかを決定する。
このように、マスクに対しラベリングされた領域ごとにノイズ成分領域であるのか、検出対象領域であるのかを判定し、ノイズ領域には1を入力し、検出対象領域には0を入力することにより、マスクを生成する。
本実施形態では、本実施形態の情報処理システムは、領域ごとの面積と位相差画像の標準偏差成分の関係からクラスタリングにより、ノイズ成分領域、異常種A、異常種Bの3つに分類し、そのうえで、ノイズ成分を打ち消し周辺輝度で埋める処理を行い、検出対象領域は残すことにより前処理を行った。こうして得られた画像を利用して検出対象を強調した画像を生成することにより、精度よく検出領域を検出することができる。
[第4の実施形態]
第1の実施形態では、情報処理システムは、振幅画像を周辺輝度により二値化処理し、領域ごとにラベリング処理を行い、位相差画像の画素値(位相差)の標準偏差成分の値をもって、欠陥候補領域とノイズ成分を分類し、欠陥候補領域はマスキング処理を行わず欠陥領域として残す処理を行った。
これに対し、本第4の実施形態の情報処理システムは、画像データから顔領域を検出する際に、前処理として、所定の面積以上の実物の顔領域と、所定の面積以下の顔領域や実物ではなく印刷された顔等を分類し、所定の面積以上の実物の顔領域以外を除去した画像を生成することにより、より精度の高い学習用、評価用、グランドツルース入力用の画像を生成する。以下、図12を参照して説明する。
・S1201:画像入力
S1201において、画像処理部301は、画像撮影装置102により撮影された人物を表す輝度画像(対象画像)と、その人物に対する距離画像(参照画像)を取得する。
・S1202:顔領域の検出
S1202において、画像処理部301は、S1201で取得した判定対象の対象画像の画像データの検査対象領域を対象に顔領域の検出を行う。
対象画像に対し、テンプレートマッチングにより顔領域検出を行うことにより顔領域を検出し、肌色検出により、顔の輪郭を検出する。そして検出した顔の輪郭を利用して、マスクを生成する。顔の輪郭を利用して、顔領域内を1にして、顔領域以外の部分を0にしたマスクを生成する。
・S1203:距離画像を利用して顔領域の特徴量を算出
S1203において、画像処理部301は、S1202で検出した輝度画像の顔領域に対応する距離画像の領域において、距離値の標準偏差を算出する。
・S1204:ノイズ除去
S1204において、画像処理部301は、S1203で検出した輝度画像の顔領域の面積を算出する。算出した顔領域の実際の面積が所定値未満であるならば、マスクの顔部分に対し、1が入力される。算出した顔領域の面積が所定値以上であった場合、S1203において求めた標準偏差が所定値以下であれば、実物ではないと判定し、その領域に対し1が入力される。面積が所定値以上であり、且つ、標準偏差も所定値以上であった場合、非マスク領域として0が入力される。
・S1205:画像生成
S1205にて、画像処理部301は、S1204で生成したマスクを利用して、マスク処理おこなうことにより、所定の面積以上の実物の顔領域と、所定の面積以下の顔領域、及び、印刷物等の可能性が高い顔領域を分類し、所定の面積以上の実物の顔領域以外を消した画像を生成する。
ここでは、マスクで0の値が入った領域に対しては、人物画像の画素値を変化させず、マスクで1の値が入った領域に対しては、対応する人物画像の領域の周辺輝度で埋め合わせ、領域を補完する処理を行う。これにより、所定の面積以上の実物の顔領域と、所定の面積以下の顔領域、及び、印刷物等の可能性が高い顔領域を分類し、所定の面積以上の実物の顔領域以外を消した画像を生成することができる。
本実施形態では、画像データから顔領域候補を検出する際に、前処理として、所定の面積以上の実物の顔領域と、所定の面積以下の顔領域、及び、印刷物等の可能性が高い顔領域を分類し、所定の面積以上の実物の顔領域以外を消した画像を生成することにより、精度よく顔領域(検出領域)を検出することができる。
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
101…情報処理装置、102…画像撮影装置、103…ユーザインターフェース、104…検査対象物、105…光源

Claims (12)

  1. 対象画像と、前記対象画像と画素値の成分の種類が異なる参照画像を入力する画像入力手段と、
    前記対象画像から検出対象候補の領域を検出する検出手段と、
    少なくとも前記参照画像を用い、前記検出対象候補の領域から少なくとも1つの特徴量を抽出する抽出手段と、
    前記特徴量に基づいて、前記検出対象候補の領域を選定する選定手段と、
    を有することを特徴とする画像処理装置。
  2. 前記対象画像は位相シフト法により生成された振幅画像であり、前記参照画像は前記位相シフト法により生成された位相差画像であることを特徴とする請求項1に記載の画像処理装置。
  3. 前記対象画像は輝度画像であり、前記参照画像は距離画像であることを特徴とする請求項1に記載の画像処理装置。
  4. 前記検出手段は、輝度画像に対しテンプレートマッチングで行うことを特徴とする請求項1に記載の画像処理装置。
  5. 前記検出手段は、輝度画像に対し肌色検出で行うことを特徴とする請求項1に記載の画像処理装置。
  6. 前記検出手段は、前記振幅画像に対し閾値を用いた二値化処理を行い、前記振幅画像における前記閾値以上の画素が連続するクラスタ領域の面積、当該クラスタ領域における2画素間の最大となるユークリッド距離を検出することを特徴とする請求項2に記載の画像処理装置。
  7. 前記クラスタ領域を、前記面積、前記ユークリッド距離がそれぞれに対して設定された閾値以上を示す第1のクラスタ領域と、前記第1のクラスタ領域を除く第2のクラスタ領域に分類し、
    前記第2のクラスタ領域については、前記位相差画像における対応する領域の標準偏差に基づいて、更に2つ以上のクラスタ領域に分類する分類手段と
    を有することを特徴とする請求項6に記載の画像処理装置。
  8. 前記第2のクラスタ領域を前記2つ以上に分類するための境界をユーザの指示に応じて調整する調整手段を有することを特徴とする請求項7に記載の画像処理装置。
  9. 前記二値化処理で用いる前記閾値をユーザの指示に応じて調整する調整手段を有することを特徴とする請求項6乃至8のいずれか1項に記載の画像処理装置。
  10. 前記分類手段は、最短距離法に従って分類することを特徴とする請求項7に記載の画像処理装置。
  11. 対象画像と、前記対象画像と画素値の成分の種類が異なる参照画像を入力する画像入力工程と、
    前記対象画像から検出対象候補の領域を検出する検出工程と、
    少なくとも前記参照画像を用い、前記検出対象候補の領域から少なくとも1つの特徴量を抽出する抽出工程と、
    前記特徴量に基づいて、前記検出対象候補の領域を選定する選定工程と、
    を有することを特徴とする画像処理装置の制御方法。
  12. コンピュータが読み込み実行することで、前記コンピュータに、請求項11に記載の方法の各工程を実行させるためのプログラム。
JP2017185321A 2017-09-26 2017-09-26 画像処理装置及びその制御方法及びプログラム Pending JP2019061484A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017185321A JP2019061484A (ja) 2017-09-26 2017-09-26 画像処理装置及びその制御方法及びプログラム
CN201811107048.7A CN109584202A (zh) 2017-09-26 2018-09-21 图像处理装置、方法和非暂时性计算机可读存储介质
US16/139,553 US10891508B2 (en) 2017-09-26 2018-09-24 Image processing apparatus, method, and non-transitory computer-readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017185321A JP2019061484A (ja) 2017-09-26 2017-09-26 画像処理装置及びその制御方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2019061484A true JP2019061484A (ja) 2019-04-18

Family

ID=65807588

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017185321A Pending JP2019061484A (ja) 2017-09-26 2017-09-26 画像処理装置及びその制御方法及びプログラム

Country Status (3)

Country Link
US (1) US10891508B2 (ja)
JP (1) JP2019061484A (ja)
CN (1) CN109584202A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021039591A1 (ja) * 2019-08-23 2021-03-04

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7214432B2 (ja) * 2018-10-22 2023-01-30 キヤノン株式会社 画像処理方法、画像処理プログラム、記録媒体、画像処理装置、生産システム、物品の製造方法
US11049224B2 (en) * 2018-12-05 2021-06-29 Microsoft Technology Licensing, Llc Automated real-time high dynamic range content review system
JP7370759B2 (ja) * 2019-08-08 2023-10-30 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP7382240B2 (ja) * 2020-01-30 2023-11-16 富士フイルムヘルスケア株式会社 医用画像処理装置及び医用画像処理方法
CN111444976A (zh) * 2020-04-02 2020-07-24 Oppo广东移动通信有限公司 目标检测方法、装置、电子设备和可读存储介质
JP2021174098A (ja) * 2020-04-21 2021-11-01 キヤノン株式会社 画像処理装置、画像処理装置の制御方法およびプログラム
US11887347B2 (en) * 2020-08-06 2024-01-30 Canon U.S.A., Inc. Device-to-image registration method, apparatus, and storage medium
CN112150544B (zh) * 2020-09-24 2024-03-19 西门子(中国)有限公司 吊钩到位检测方法、装置和计算机可读介质
CN112579540A (zh) * 2020-11-03 2021-03-30 珠海越亚半导体股份有限公司 元器件贴装位置标识方法、贴装控制方法、设备和介质
CN116708752B (zh) * 2022-10-28 2024-02-27 荣耀终端有限公司 针对成像装置的成像效果测试方法、装置及系统

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7049617B2 (en) 2001-07-26 2006-05-23 Seiko Epson Corporation Thickness measurement in an exposure device for exposure of a film with a hologram mask, exposure method and semiconductor device manufacturing method
JP2003107022A (ja) * 2001-09-28 2003-04-09 Hitachi Ltd 欠陥検査装置及び検査方法
JP4483250B2 (ja) 2003-09-29 2010-06-16 コニカミノルタエムジー株式会社 画像診断支援装置、画像診断支援方法及びプログラム
JP2009290660A (ja) * 2008-05-30 2009-12-10 Seiko Epson Corp 画像処理装置、画像処理方法、画像処理プログラムおよび印刷装置
JP2010003118A (ja) * 2008-06-20 2010-01-07 Seiko Epson Corp 画像処理装置、画像処理方法および画像処理プログラム
JP5127592B2 (ja) * 2008-06-25 2013-01-23 キヤノン株式会社 画像処理装置および画像処理方法、プログラム並びに、コンピュータ読み取り可能な記録媒体
JP5253047B2 (ja) * 2008-09-01 2013-07-31 キヤノン株式会社 色処理装置およびその方法
US10330608B2 (en) * 2012-05-11 2019-06-25 Kla-Tencor Corporation Systems and methods for wafer surface feature detection, classification and quantification with wafer geometry metrology tools
JP5838138B2 (ja) * 2012-08-30 2015-12-24 株式会社日立ハイテクノロジーズ 欠陥観察システムおよび欠陥観察方法
JP6433268B2 (ja) * 2014-03-31 2018-12-05 国立大学法人 東京大学 検査システムおよび検査方法
JP6316068B2 (ja) * 2014-03-31 2018-04-25 国立大学法人 東京大学 検査システムおよび検査方法
JP6255125B2 (ja) 2017-04-07 2017-12-27 キヤノン株式会社 画像処理装置、画像処理システム、および画像処理方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021039591A1 (ja) * 2019-08-23 2021-03-04

Also Published As

Publication number Publication date
CN109584202A (zh) 2019-04-05
US10891508B2 (en) 2021-01-12
US20190095742A1 (en) 2019-03-28

Similar Documents

Publication Publication Date Title
JP2019061484A (ja) 画像処理装置及びその制御方法及びプログラム
JP5546317B2 (ja) 外観検査装置、外観検査用識別器の生成装置及び外観検査用識別器生成方法ならびに外観検査用識別器生成用コンピュータプログラム
US8675974B2 (en) Image processing apparatus and image processing method
EP3176751B1 (en) Information processing device, information processing method, computer-readable recording medium, and inspection system
CN113592845A (zh) 一种电池涂布的缺陷检测方法及装置、存储介质
JP2013167596A (ja) 欠陥検査装置、欠陥検査方法及びプログラム
JP2007334766A (ja) 異常領域検出装置および異常領域検出方法
US11449977B2 (en) Generating training data usable for examination of a semiconductor specimen
JP4728444B2 (ja) 異常領域検出装置および異常領域検出方法
CN112365497A (zh) 基于TridentNet和Cascade-RCNN结构的高速目标检测方法和系统
KR20210020065A (ko) 비전 시스템을 갖는 이미지에서 패턴을 찾고 분류하기 위한 시스템 및 방법
CN111242899A (zh) 基于图像的瑕疵检测方法及计算机可读存储介质
CN111965197A (zh) 一种基于多特征融合的缺陷分类方法
US20220292317A1 (en) Defect classification apparatus, method and program
KR101782364B1 (ko) 케이평균군집화를 통한 학습기반의 비전검사 방법
CN114170168A (zh) 显示模组缺陷检测方法、系统及计算机可读存储介质
Sulaiman et al. DEFECT INSPECTION SYSTEM FOR SHAPE-BASED MATCHING USING TWO CAMERAS.
JP2019215728A (ja) 情報処理装置、情報処理方法及びプログラム
CN115131355B (zh) 利用电子设备数据检测防水布异常的智能方法
JP2007018176A (ja) 学習装置、学習方法、学習プログラム、記録媒体、パターン認識装置およびパターン認識方法
KR101782366B1 (ko) 스케일 보정을 통한 표본 정규화가 수행되는 학습기반의 비전검사 방법
JP5592414B2 (ja) テンプレート評価装置、顕微鏡装置及びプログラム
CN114945801A (zh) 图案边缘检测方法、图案边缘检测装置、记录有用于让计算机执行图案边缘检测的程序的记录介质
CN117474916B (zh) 一种图像检测方法、电子设备及存储介质
WO2024034374A1 (ja) オブジェクト分類装置、オブジェクト分類方法及びオブジェクト分類システム