JP2018200530A - 画像分類プログラム、分類データ作成プログラム、及び、分類データ作成方法 - Google Patents
画像分類プログラム、分類データ作成プログラム、及び、分類データ作成方法 Download PDFInfo
- Publication number
- JP2018200530A JP2018200530A JP2017104449A JP2017104449A JP2018200530A JP 2018200530 A JP2018200530 A JP 2018200530A JP 2017104449 A JP2017104449 A JP 2017104449A JP 2017104449 A JP2017104449 A JP 2017104449A JP 2018200530 A JP2018200530 A JP 2018200530A
- Authority
- JP
- Japan
- Prior art keywords
- classification
- feature
- route
- combined output
- value group
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 claims abstract description 162
- 238000000605 extraction Methods 0.000 claims abstract description 159
- 238000000034 method Methods 0.000 claims description 138
- 230000008569 process Effects 0.000 claims description 122
- 239000000284 extract Substances 0.000 abstract description 8
- 239000010410 layer Substances 0.000 description 242
- 238000011176 pooling Methods 0.000 description 74
- 238000010168 coupling process Methods 0.000 description 60
- 230000008878 coupling Effects 0.000 description 57
- 238000005859 coupling reaction Methods 0.000 description 57
- 238000013527 convolutional neural network Methods 0.000 description 43
- 238000004364 calculation method Methods 0.000 description 25
- 230000006870 function Effects 0.000 description 23
- 238000007689 inspection Methods 0.000 description 17
- 230000007547 defect Effects 0.000 description 16
- 238000011156 evaluation Methods 0.000 description 12
- 238000003384 imaging method Methods 0.000 description 11
- 230000002950 deficient Effects 0.000 description 9
- 239000004820 Pressure-sensitive adhesive Substances 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 239000010408 film Substances 0.000 description 3
- 230000037303 wrinkles Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000000052 comparative effect Effects 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 239000000758 substrate Substances 0.000 description 2
- 238000013461 design Methods 0.000 description 1
- 230000012447 hatching Effects 0.000 description 1
- 238000012905 input function Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000012788 optical film Substances 0.000 description 1
- 238000006748 scratching Methods 0.000 description 1
- 230000002393 scratching effect Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
- G06N5/046—Forward inferencing; Production systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Biodiversity & Conservation Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
- Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
【解決手段】 入力された画像を分類するためのプログラムであって、コンピュータを、入力された画像データに対して特徴量抽出処理と全結合処理とを実行するように構築されるネットワークと、前記ネットワークにおける処理経路を抽出する経路抽出手段と、前記経路抽出手段で抽出した抽出経路と、分類と関連付けられた予め設定された複数の設定経路とを比較し、一致する経路に関連付けられた分類を、前記入力された画像の分類とする判断部として機能させる、画像分類プログラム。
【選択図】 図4
Description
この種の畳み込みニューラルネットワークは、例えば、特徴量抽出処理としてコンボリューション処理及びプーリング処理を交互に実行し、これらの後段にて全結合処理を実行するように構築される。
コンボリューション処理では、入力される画像データに対して学習済みの複数のフィルタを用いたコンボリューション(畳み込み)処理が行われ、これにより、画像データに含まれる特徴量が抽出される。コンボリューション処理に続くプーリング処理では、学習済みの複数のフィルタを用いて、コンボリューション処理によって得られる特徴量マップのうち近傍数画素の領域から最大値または平均値を特徴量として出力するプーリング処理が行われ、この処理により、特徴量の微小な変化が吸収される。
全結合処理では、コンボリューション処理及びプーリング処理によって抽出された特徴量に対して、学習済みの複数のユニットを用いた全結合処理が行われ、これにより、画像データに含まれる対象物が分類される。
すなわち、畳み込みニューラルネットは、比較的高い識別率を発揮し得る。しかし、欠陥品を良品と判定してしまう「見逃し」が発生しないような高い識別率(すなわち、「見逃し」の発生数量が極めてゼロに近いような識別率)を発揮できないと、精度面で、良品/欠陥品を判定するシステムに畳み込みニューラルネット適応させることは困難である。
また、欠陥品を良品と判定してしまった画像を、改めて欠陥品として判定させるには、学習段階にまで遡り、再度ネットワークを構築し、検証することが必要となるため、運用面でも、良品、欠陥品を判定するシステムに畳み込みニューラルネット適応させることは、困難である。
入力された画像を分類するためのプログラムであって、
コンピュータを、
入力された画像データに対して特徴量抽出処理と全結合処理とを実行するように構築されるネットワークと、
前記ネットワークにおける処理経路を抽出する経路抽出手段と、
前記経路抽出手段で抽出した抽出経路と、分類と関連付けられた予め設定された複数の設定経路とを比較し、一致する経路に関連付けられた分類を、前記入力された画像の分類とする判断部として機能させる。
これにより、十分に精度良く分類することが可能となる。
前記経路抽出手段は、前記ネットワークにおける前記特徴量抽出処理によって得られる複数の特徴値から少なくとも1つ選択される値と、前記全結合処理によって得られる複数の全結合出力値から少なくとも1つ選択される値とを結ぶ経路を抽出する手段であり、
前記選択される特徴値、及び、前記選択される全結合出力値の少なくとも一方には、最大値が含まれていることが好ましい。
前記経路抽出手段は、前記特徴量抽出処理によって得られる複数の特徴値を含む特徴値群と、前記全結合処理によって得られる複数の全結合出力値を含む全結合出力値群とから選択される値を結ぶ経路を抽出する手段であり、
前記特徴値群と前記全結合出力値群とのうち少なくともいずれか一方から少なくとも2つの値を選択し、
該2つの値には、選択元の値群に含まれる複数の値のうちの最大値が含まれていることが好ましい。
画像分類装置用の分類データを作成する分類データ作成プログラムであって、
コンピュータを、
入力された画像データに対して特徴量抽出処理と全結合処理とを実行するように構築されるネットワークと、
前記ネットワークにおける前記特徴量抽出処理によって得られる複数の特徴値を含む特徴値群から選択される特徴値と、前記全結合処理によって得られる複数の全結合出力値を含む全結合出力値群から選択される全結合出力値とであって、前記特徴値群と前記全結合出力値群とのうち少なくともいずれか一方から選択される値に、選択元の値群に含まれる複数の値のうちの最大値が含まれるように選択される特徴値と全結合出力値とを結ぶ経路を設定経路として抽出する設定経路抽出手段と、
抽出した設定経路と画像を分類するための分類とを関連付ける関連付け手段として機能させる。
これにより、十分に精度良く画像を分類することが可能な分類データが得られる。
従って、この分類データを用いることによって、十分に精度良く画像を分類することが可能となる。
画像分類装置用の分類データを作成する方法であって、
入力された画像データに対して特徴量抽出処理と全結合処理とを実行するネットワーク処理工程と、
前記ネットワーク処理工程における前記特徴量抽出処理によって得られる複数の特徴値を含む特徴値群から選択される特徴値と、前記全結合処理によって得られる複数の全結合出力値を含む全結合出力値群から選択される全結合出力値とであって、前記特徴値群と前記全結合出力値群とのうち少なくともいずれか一方から選択される値に、選択元の値群に含まれる複数の値のうちの最大値が含まれるように選択される特徴値と全結合出力値とを結ぶ経路を設定経路として抽出する設定経路抽出工程と、
抽出した設定経路と画像を分類するための分類とを関連付ける関連付け工程とを含む。
これにより、十分に精度良く画像を分類することが可能な分類データが得られる。
従って、この分類データを用いることによって、十分に精度良く画像を分類することが可能となる。
入力された画像を分類するためのプログラムであって、
コンピュータを、
入力された画像データに対して特徴量抽出処理と全結合処理とを実行するように構築されるネットワークと、
前記ネットワークにおける処理経路を抽出する経路抽出手段と、
前記経路抽出手段で抽出した抽出経路と、分類と関連付けられた予め設定された複数の設定経路とを比較し、一致する経路に関連付けられた分類を、前記入力された画像の分類とする判断部として機能させる。
入力される画像は、該画像中に分類の対象物が含まれていればよく、特に限定されない。
畳み込みニューラルネットワークは、2次元画像に対してフィルタによるコンボリューション(畳み込み)処理を少なくとも行うことによって、入力された画像データから特徴量を抽出する。
畳み込みニューラルネットワークにおいては、コンボリューション処理を実行する、特徴量の抽出に有効なフィルタの係数を、学習用画像(学習用画像群)などの学習用データ(教育用データ)を用いて学習させる。フィルタの係数は、教育用データを用いて、フィルタによるコンボリューション処理と、一定領域のコンボリューション処理結果をまとめるプーリング処理とを繰り返して学習することによって、得られる。
コンボリューション層Cは、前階層から入力される画像データに対して周知のコンボリューション処理を実行し、その処理結果(データ)を出力する。
コンボリューション層Cは、プーリング層Pの前段に、複数連続して備えられていてもよい。
次の第2層目(最後段の)コンボリューション層C1は、プーリング層P1から入力される処理結果(データ)をコンボリューション処理し、その処理結果をプーリング層P2に出力する。
プーリング層Pは、コンボリューション層Cによる処理結果(データ)に対して周知のプーリング処理を実行して、その処理結果(データ)を出力する。
第1層目(最前段)のプーリング層P1は、コンボリューション層C1から入力される処理結果(データ)をプーリング処理し、その処理結果(データ)をコンボリューション層C2に出力する。
次の第2層目(最後段)のプーリング層P2は、コンボリューション層C2から入力される処理結果(データ)をプーリング処理し、その処理結果(データ)を全結合層Fに出力する。
全結合層Fは、直前のプーリング層P(最後段のプーリング層P)による処理結果に対して周知の全結合処理を実行して、その処理結果(データ)を出力する。
第1層目(最前段)の全結合層F1は、プーリング層P2から入力される処理結果(データ)を全結合処理し、その処理結果(データ)を全結合層F2に出力する。
次の第2層目の全結合層F2は、全結合層F1から入力される処理結果(データ)を全結合処理し、その処理結果(データ)を全結合層F3に出力する。
次の第3層目(最後段)の全結合層F3は、その処理結果を、画像がどの分類に属するのかを分類し、識別結果として出力する。
これらコンボリューション処理及びプーリング処理によって、入力された画像データDに含まれる特徴量が抽出される。
また、第2層目のプーリング層P2による処理では、第2層目のコンボリューション層C2から入力される出力データC2(1)、C2(2)、・・・に対して、それぞれ所定の画素サイズごとに周知のプーリング処理を行い、処理結果P2(1)、P2(2)・・・を第2層目のプーリング層P2の出力データとする。これらコンボリューション処理及びプーリング処理によって、入力された画像データDに含まれる特徴量が、さらに抽出される。
第3層目の全結合層F3から出力される出力データF3(1)、F3(2)・・・は、所望の画像の分類結果(ここでは、クラス1、クラス2、クラス3の3つの分類)に対応する。
しかし、このように画像を処理すると、後述する実施例に示すように、十分に精度良く画像を分類することが困難となる。
畳み込みニューラルネットワークにおける処理経路を抽出する経路抽出手段と、
前記経路抽出手段で抽出した抽出経路と、分類と関連付けられた予め設定された複数の設定経路とを比較し、一致する経路に関連付けられた分類を、前記入力された画像の分類とする判断部として機能させる。
コンボリューション層C1は、3個のフィルタを有し、コンボリューション層C2は、8個のフィルタを有し、プーリング層P1は、8個のフィルタを有し、全結合層F1は、24個のユニットを有し、全結合層F2は、8個のユニットを有し、全結合層F3は、3個のユニットを有する。
これらコンボリューション層C、プーリング層P、及び全結合層Fによって、畳み込みニューラルネットワークCNNが構成されている。
なお、設定経路は、例えば、後述する設定経路抽出手段によって抽出される。
また、コンピュータを、経路抽出手段で抽出した抽出経路と、分類と関連付けられた予め設定された複数の設定経路とを比較し、一致する経路に関連付けられた分類を、前記入力された画像の分類とする判断部として機能させる。
前記選択される特徴値、及び、前記選択される全結合出力値の少なくとも一方には、最大値が含まれている。
特徴量抽出処理によって得られる複数の特徴値のうちの最大値と、全結合処理によって得られる複数の全結合出力値から少なくとも1つ選択される値とをそれぞれ結ぶ経路、
特徴量抽出処理によって得られる複数の特徴値から少なくとも1つ選択される値と、全結合処理によって得られる複数の全結合出力値のうちの最大値とをそれぞれ結ぶ経路、
等が挙げられる。
特徴量抽出処理によって得られる複数の特徴値のうちの最大値及び第2位の値と、全結合処理によって得られる複数の全結合出力値から少なくとも1つ選択される値とをそれぞれ結ぶ経路、
等も挙げられる。
特徴量抽出処理によって得られる複数の特徴値から少なくとも1つ選択される値と、全結合処理によって得られる複数の全結合出力値のうちの最大値及び第2位の値とをそれぞれ結ぶ経路、
等も挙げられる。
特徴量抽出処理によって得られる複数の特徴値を含む特徴値群から選択される最大値と、全結合処理によって得られる複数の全結合出力値を含む全結合出力値群から選択される最大値とを結ぶ経路、
特徴量抽出処理によって得られる複数の特徴値を含む特徴値群から選択される最大値と、全結合処理によって得られる複数の全結合出力値を含む全結合出力値群から選択される第2位の値とを結ぶ経路、
特徴量抽出処理によって得られる複数の特徴値を含む特徴値群から選択される第2位の値と、全結合処理によって得られる複数の全結合出力値を含む全結合出力値群から選択される最大値とを結ぶ経路、
特徴量抽出処理によって得られる複数の特徴値を含む特徴値群から選択される第2位の値と、全結合処理によって得られる複数の全結合出力値を含む全結合出力値群から選択される第2位の値とを結ぶ経路、
等が挙げられる。
特徴量抽出処理によって得られる複数の特徴値を含む特徴値群から選択される最大値及び第2位の値と、全結合処理によって得られる複数の全結合出力値を含む全結合出力値群から選択される最大値とをそれぞれ結ぶ経路、
特徴量抽出処理によって得られる複数の特徴値を含む特徴値群から選択される最大値及び第2位の値と、全結合処理によって得られる複数の全結合出力値を含む全結合出力値群から選択される第2位の値とをそれぞれ結ぶ経路、
等も挙げられる。
特徴量抽出処理によって得られる複数の特徴値を含む特徴値群から選択される最大値と、全結合処理によって得られる複数の全結合出力値を含む全結合出力値群から選択される最大値及び第2位の値とをそれぞれ結ぶ経路、
特徴量抽出処理によって得られる複数の特徴値を含む特徴値群から選択される第2位の値と、全結合処理によって得られる複数の全結合出力値を含む全結合出力値群から選択される最大値及び第2位の値とをそれぞれ結ぶ経路、
等も挙げられる。
より具体的には、経路抽出手段は、全結合層F1の複数のユニットによる処理によって得られる複数の全結合出力値を含む全結合出力値群(第1の全結合出力値群)と、全結合層F2の複数のユニットによる処理によって得られる複数の全結合出力値を含む全結合出力値群(第2の全結合出力値群)とから選択される値を結ぶ経路を抽出し、第1の全結合出力値群と第2の全結合出力値群のうち少なくともいずれか一方から少なくとも2つの値を選択し、該2つの値には、選択元の値群に含まれる複数の値のうちの最大値が含まれているように、経路を抽出する。
より具体的には、経路抽出手段は、全結合層F2の複数のユニットによる処理によって得られる複数の全結合出力値を含む全結合出力値群(第2の全結合出力値群)と、全結合層F3の複数のユニットによる処理によって得られる複数の全結合出力値を含む全結合出力値群(第3の全結合出力値群)とから選択される値を結ぶ経路を抽出し、第2の全結合出力値群と第3の全結合出力値群のうち少なくともいずれか一方から少なくとも2つの値を選択し、該2つの値には、選択元の値群に含まれる複数の値のうちの最大値が含まれているように、経路を抽出する。
しかし、コンボリューション層C1からプーリング層P1に至るまでの経路が、前述した図3及び図4のように、後段の経路によって決定されないような経路である場合には、経路抽出手段が、コンボリューション層C1とコンボリューション層C2との間、及び、コンボリューション層C2とプーリング層P1との間においても、上記と同様に、経路を抽出してもよい。
より具体的には、経路抽出手段は、コンボリューション層C1の複数のフィルタによる処理によって得られる複数の特徴値を含む特徴値群(第1の特徴値群)と、コンボリューション層C2の複数のフィルタによる処理によって得られる複数の特徴値を含む特徴値群(第2の特徴値群)とから選択される値を結ぶ経路を抽出し、第1の特徴値群と第2の特徴値群のうち少なくともいずれか一方から少なくとも2つの値を選択し、該2つの値には、選択元の値群に含まれる複数の値のうちの最大値が含まれているように、経路を抽出してもよい。
より具体的には、経路抽出手段は、コンボリューション層C2の複数のフィルタによる処理によって得られる複数の特徴値を含む特徴値群(第2の特徴値群)と、プーリング層P1の複数のフィルタによる処理によって得られる複数の特徴値を含む特徴値群(第3の特徴値群)とから選択される値を結ぶ経路を抽出し、第2の特徴値群と第3の特徴値群のうち少なくともいずれか一方から少なくとも2つの値を選択し、該2つの値には、選択元の値群に含まれる複数の値のうちの最大値が含まれているように、経路を抽出してもよい。
判断部は、経路抽出手段が抽出した経路と、複数の設定経路とを比較し、一致する経路に関連付けられた分類を、入力された画像の分類と判断する。
なお、経路抽出手段で抽出されなかった経路については、判断部は、対象となる分類に属さないと判断する。
特徴量演算部13と、経路抽出手段15と、判断部19とは、CPUといったコンピュータの制御部に格納され、記憶部17は、サーバ、ハードディスク等に格納される。
第3層目の全結合層F3から出力される出力データF3(1)、F3(2)・・・は、画像の分類結果(ここでは、クラス1、クラス2、クラス3の3つの分類)に対応する。
判断部19の処理結果は、表示装置20に出力される。
本発明に係る画像分類プログラムは、
入力された画像を分類するためのプログラムであって、
コンピュータを、
入力された画像データに対して特徴量抽出処理と全結合処理とを実行するように構築されるネットワークと、
前記ネットワークにおける処理経路を抽出する経路抽出手段と、
前記経路抽出手段で抽出した抽出経路と、分類と関連付けられた予め設定された複数の設定経路とを比較し、一致する経路に関連付けられた分類を、前記入力された画像の分類とする判断部として機能させる。
これにより、十分に精度良く分類することが可能となる。
前記経路抽出手段は、前記ネットワークにおける前記特徴量抽出処理によって得られる複数の特徴値から少なくとも1つ選択される値と、前記全結合処理によって得られる複数の全結合出力値から少なくとも1つ選択される値とを結ぶ経路を抽出する手段であり、
前記選択される特徴値、及び、前記選択される全結合出力値の少なくとも一方には、最大値が含まれている。
前記経路抽出手段は、前記特徴量抽出処理によって得られる複数の特徴値を含む特徴値群と、前記全結合処理によって得られる複数の全結合出力値を含む全結合出力値群とから選択される値を結ぶ経路を抽出する手段であり、
前記特徴値群と前記全結合出力値群とのうち少なくともいずれか一方から少なくとも2つの値を選択し、
該2つの値には、選択元の値群に含まれる複数の値のうちの最大値が含まれている。
例えば、画像分類システム10は、下記のように、検査装置に適用され得る。
前記被検査物50を、画像データDとして撮像可能な撮像部3と、
前記撮像部3によって撮像された前記画像データDに基づいて前記欠陥を分類する分類部40とを備え、
前記分類部40が、本実施形態の画像分類システムを10を備え、該画像分類システム10によって前記欠陥を分類するように構成されている。
撮像部3は、被検査物50を、画像データとして撮像可能であれば、特に限定されない。
撮像部3としては、例えば、カメラが挙げられる。
例えば、被検査物50がシートである場合には、シワ(凹凸)、ひきつれ、点状欠陥等が挙げられる。
例えば、被検査物50中の欠陥が、分類1(例えば、シートのシワ(凹凸))、分類2(例えば、シートのひきつれ)、分類3(例えば、点状欠陥)のいずれかに、分類される。
画像分類装置用の分類データを作成する分類データ作成プログラムであって、
コンピュータを、
入力された画像データに対して特徴量抽出処理と全結合処理とを実行するように構築されるネットワークと、
前記ネットワークにおける前記特徴量抽出処理によって得られる複数の特徴値を含む特徴値群から選択される特徴値と、前記全結合処理によって得られる複数の全結合出力値を含む全結合出力値群から選択される全結合出力値とであって、前記特徴値群と前記全結合出力値群とのうち少なくともいずれか一方から選択される値に、選択元の値群に含まれる複数の値のうちの最大値が含まれるように選択される特徴値と全結合出力値とを結ぶ経路を設定経路として抽出する設定経路抽出手段と、
抽出した設定経路と画像を分類するための分類とを関連付ける関連付け手段として機能させる。
特徴量抽出処理によって得られる複数の特徴値を含む特徴値群から選択される最大値と、全結合処理によって得られる複数の全結合出力値を含む全結合出力値群から選択される最大値とを結ぶ経路、
特徴量抽出処理によって得られる複数の特徴値を含む特徴値群から選択される最大値と、全結合処理によって得られる複数の全結合出力値を含む全結合出力値群から選択される第2位の値とを結ぶ経路、
特徴量抽出処理によって得られる複数の特徴値を含む特徴値群から選択される第2位の値と、全結合処理によって得られる複数の全結合出力値を含む全結合出力値群から選択される最大値とを結ぶ経路、
特徴量抽出処理によって得られる複数の特徴値を含む特徴値群から選択される第2位の値と、全結合処理によって得られる複数の全結合出力値を含む全結合出力値群から選択される第2位の値とを結ぶ経路、
等が挙げられる。
特徴量抽出処理によって得られる複数の特徴値を含む特徴値群から選択される最大値及び第2位の値と、全結合処理によって得られる複数の全結合出力値を含む全結合出力値群から選択される最大値とをそれぞれ結ぶ経路、
特徴量抽出処理によって得られる複数の特徴値を含む特徴値群から選択される最大値及び第2位の値と、全結合処理によって得られる複数の全結合出力値を含む全結合出力値群から選択される第2位の値とをそれぞれ結ぶ経路、
等も挙げられる。
特徴量抽出処理によって得られる複数の特徴値を含む特徴値群から選択される最大値と、全結合処理によって得られる複数の全結合出力値を含む全結合出力値群から選択される最大値及び第2位の値とをそれぞれ結ぶ経路、
特徴量抽出処理によって得られる複数の特徴値を含む特徴値群から選択される第2位の値と、全結合処理によって得られる複数の全結合出力値を含む全結合出力値群から選択される最大値及び第2位の値とをそれぞれ結ぶ経路、
等も挙げられる。
しかし、コンボリューション層C1からプーリング層P1に至るまでの設定経路が、前述した図3及び図4のように、後段の設定経路によって決定されないような経路である場合には、設定経路抽出手段が、コンボリューション層C1とコンボリューション層C2との間、及び、コンボリューション層C2とプーリング層P1との間においても、上記と同様に、設定経路を抽出してもよい。
関連付け手段によって、複数の設定経路は、それぞれ、例えば、分類1、分類2、分類3、・・・・といった複数の画像の分類のいずれかに予め関連付けられる。また、この関連付けによって、分類データが作成される。
特徴量演算部33と、設定経路抽出手段35と、関連付け部37とは、コンピュータのCPU等の制御部に格納され、記憶部は、サーバ、ハードディスク等に格納される。
本実施形態では、特徴量演算部33は、前述した特徴量演算部13と同様の機能を有し、同様の処理を実行する。
画像分類装置用の分類データを作成する分類データ作成プログラムであって、
コンピュータを、
入力された画像データに対して特徴量抽出処理と全結合処理とを実行するように構築されるネットワークと、
前記ネットワークにおける前記特徴量抽出処理によって得られる複数の特徴値を含む特徴値群から選択される特徴値と、前記全結合処理によって得られる複数の全結合出力値を含む全結合出力値群から選択される全結合出力値とであって、前記特徴値群と前記全結合出力値群とのうち少なくともいずれか一方から選択される値に、選択元の値群に含まれる複数の値のうちの最大値が含まれるように選択される特徴値と全結合出力値とを結ぶ経路を設定経路として抽出する設定経路抽出手段と、
抽出した設定経路と画像を分類するための分類とを関連付ける関連付け手段として機能させる。
これにより、十分に精度良く画像を分類することが可能な分類データが得られる。
従って、この分類データを用いることによって、十分に精度良く画像を分類することが可能となる。
画像分類装置用の分類データを作成する方法であって、
入力された画像データに対して特徴量抽出処理と全結合処理とを実行するネットワーク処理工程と、
前記ネットワーク処理工程における前記特徴量抽出処理によって得られる複数の特徴値を含む特徴値群から選択される特徴値と、前記全結合処理によって得られる複数の全結合出力値を含む全結合出力値群から選択される全結合出力値とであって、前記特徴値群と前記全結合出力値群とのうち少なくともいずれか一方から選択される値に、選択元の値群に含まれる複数の値のうちの最大値が含まれるように選択される特徴値と全結合出力値とを結ぶ経路を設定経路として抽出する設定経路抽出工程と、
抽出した設定経路と画像を分類するための分類とを関連付ける関連付け工程とを含む。
これにより、十分に精度良く画像を分類することが可能な分類データが得られる。
従って、この分類データを用いることによって、十分に精度良く画像を分類することが可能となる。
分類(Class)1:シワ(凹凸)
分類(Class)2:ひきつれ
分類(Class)3:点状欠陥
教育用データとしては、クラス1の欠陥を有する996枚の画像データ、クラス2の欠陥を有する1000枚の画像データ、クラス3の欠陥を有する144枚の画像データを用いた。
そして、教育用データとは別に準備した、分類1の欠陥を有する500枚の画像データ、分類2の欠陥を有する4802枚の画像データ、分類3の欠陥を有する298枚の画像データを評価用画像データとし、これら評価用画像データについて、構築した畳み込みニューラルネットワークを用いて分類を行い、分類精度を調べた。
構築した畳み込みニューラルネットワークにおいて、プーリング層P1によるプーリング処理から全結合層F3による全結合処理までの全て経路を通る経路で、各処理を実行し、最終的に全結合層F3による全結合処理を、分類(Class)1〜3の相関値(3つの合計が1となるような相関値)として出力した。
結果を表1に示す。
構築した畳み込みニューラルネットワークにおいて、分類1〜3の各教育用データを用いて特徴量抽出処理及び全結合処理をそれぞれ1回実行し、各分類の教育データを用いたときの特徴量抽出処理の特徴値の最大値と全結合処理の全結合出力値の最大値とを結ぶ経路を設定経路として抽出し、抽出された経路と、対応する各分類とをそれぞれ関連付けて分類データとした。
より具体的には、前述した図6に太線で示すように、各分類1〜3について、プーリング層P1による処理によって得られた複数の特徴値(特徴値群)のうちの最大値と、全結合層F1による処理によって得られた複数の全結合出力値(全結合出力値群)のうちの最大値とを結び、且つ、全結合層F1による処理によって得られた複数の全結合出力値(全結合出力値群)のうちの最大値と、全結合層F2による処理によって得られた複数の全結合出力値(全結合出力値群)のうちの最大値とを結ぶ経路を、設定経路として抽出した。
なお、図5では、コンボリューション層C1は、最初のコンボリューション層であるため、分類間での特徴量の差異はなく、また、コンボリューション層C1、コンボリューション層C2、プーリング層P1では、同じ経路を通ることが明らかであり、全結合層F3は、最終の層であるため、これら層C1、C2、P1、F3を結ぶ経路では、層P1、層F1、層F2を結ぶ経路が決定されれば、それに応じて経路が決定されることになる。
この点では、抽出された設定経路は、特徴抽出処理の全ての各処理の最大値を結ぶ経路に相当する。
このように最大値を結ぶ経路を、下記式(1)のように定義した。下記式(1)において、MAX ( )は、最大値となるフィルタ番号(処理番号)及びユニット番号(処理番号)を示す。
Route = [ Max (C1), Max (C2), Max (P1), Max (F1), Max (F2), Max (F3) ] (1)
例えば、図5の太線に示す経路は、Route [ 1, 2, 2, 3, 2, 1 ]であり、これは、層C1(1)、層C2(2)、層P1(1)、層F1(3)、層F2(2)、層F3(1)を通る経路であることを示す。
そして、画像分類システムに評価用画像データを入力し、特徴量抽出処理及び全結合処理を実行して、入力した評価用画像データが、分類1〜3のいずれに分類されるかを調べた。
結果を図13に示す。図13では、横軸にRouteのパターン、縦軸に度数を示す。
なお、図13の横軸のうち、F1層では、上段を10の位、下段を1の位として示した。
また、図13において、各層のフィルタ及びユニットでの処理結果の値がゼロの場合には、識別番号を「0」とした。すなわち、どのフィルタ及びユニットも活性化しておらず、このことは、いずれのフィルタ及びユニットを通っても差異がないことを意味する。
また、層P1から層F2に至る経路のうち、Route [ 2, 13, 3 ]、Route [ 4, 21, 3 ]、及びRoute [ 4, 21, 3 ]では、分類1と分類3が同じ経路を辿ることがわかった。
このように決定された分類データを記憶部に格納し、画像分類システムによって、評価用データについて、再度、特徴量抽出処理及び前記識別処理を実行して、入力した評価用画像データが、分類1〜3のいずれに分類されるかを調べた。
その結果、分類2に分類されるべき画像データ4802枚のうち、見逃した画像データは4枚であった。
さらに上記した層P1から層F2に至る経路の各最大値を結ぶ経路に加え、層P1から層F2のうち層F1、層F2については最大値を結び、層P1については第2位及び第3位の値をそれぞれ結ぶように上記層P1から層F2に至る経路も設定した。その結果、見逃した画像データはゼロとなった。そのときの分類精度は、98.88%であった。すなわち、比較例1と分類精度が同程度でありながらも、見逃しが発生することなく(見逃しがゼロで)分類を行うことが可能となった。
構築した畳み込みニューラルネットワークにおいて、分類1〜3の各教育用データを用いて特徴量抽出処理及び全結合処理をそれぞれ1回実行し、各分類の教育データを用いたときの特徴量抽出処理の最大値及び第2位の値と、全結合処理の最大値とをそれぞれ結ぶ経路を抽出し、抽出された経路と、対応する各分類とを関連付けて設定経路とした。
具体的には、前述した図7に太線で示すように、各分類1〜3について、プーリング層P1による処理によって得られた複数の特徴値(特徴値群)のうちの最大値及び第2位の値と、全結合層F1による処理によって得られた複数の全結合出力値(全結合出力値群)のうちの最大値とをそれぞれ結び、且つ、全結合層F1による処理によって得られた複数の全結合出力値(全結合出力値群)のうちの最大値と全結合層F2による処理によって得られた複数の全結合出力値(全結合出力値群)の最大値とを結ぶ経路を、設定経路として抽出した。
それ以外は、実施例1と同様にして、画像分類システムに評価用画像データを入力し、特徴量抽出処理及び全結合処理を実行して、入力した評価用画像データが、分類1〜3のいずれに分類されるかを調べた。
結果を図14に示す。
構築した畳み込みニューラルネットワークにおいて、分類1〜3の各教育用データを用いて特徴量抽出処理及び全結合処理をそれぞれ1回実行し、各分類の教育データを用いたときの特徴量抽出処理の特徴値の最大値と、全結合処理の全結合出力値の最大値及び第2位の値とを経路を抽出し、抽出された経路と、対応する各分類とを関連付けて設定経路とした。
具体的には、前述した図8に太線で示すように、各分類1〜3について、プーリング層P1による処理によって得られた複数の特徴値(特徴値群)のうちの最大値と全結合層F1による処理によって得られた複数の全結合出力値(全結合出力値群)のうちの最大値及び第2位の値とをそれぞれ結び、且つ、全結合層F1による処理によって得られた複数の全結合出力値(全結合出力値群)のうちの最大値及び第2位の値と全結合層F2による処理によって得られた複数の全結合出力値(全結合出力値群)のうちの最大値とをそれぞれ結ぶ経路を、設定経路として抽出した。
それ以外は、実施例1と同様にして、画像分類システムに評価用画像データを入力し、特徴量抽出処理及び全結合処理を実行して、入力した評価用画像データが、分類1〜3のいずれに分類されるかを調べた。
結果を図15に示す。
構築した畳み込みニューラルネットワークにおいて、分類1〜3の各教育用データを用いて特徴量抽出処理及び全結合処理をそれぞれ1回実行し、各分類の教育データを用いたときの特徴量抽出処理の特徴値の最大値と、全結合処理の全結合出力値の最大値及び第2位の値とをそれぞれ結ぶ経路を抽出し、抽出された経路と、対応する各分類とを関連付けて設定経路とした。
具体的には、前述した図9に太線で示すように、各分類1〜3について、プーリング層P1による処理によって得られた複数の特徴値(特徴値群)のうちの最大値と全結合層F1による処理によって得られた複数の全結合出力値(全結合出力値群)のうちの最大値とを結び、且つ、全結合層F1による処理によって得られた複数の全結合出力値(全結合出力値群)のうちの最大値と全結合層F2による処理によって得られた複数の全結合出力値(全結合出力値群)の最大値及び第2位の値とをそれぞれ結ぶ経路を、設定経路として抽出した。
それ以外は、実施例1と同様にして、画像分類システムに評価用画像データを入力し、特徴量抽出処理及び全結合処理を実行して、入力した評価用画像データが、分類1〜3のいずれに分類されるかを調べた。
結果を図16に示す。
Claims (5)
- 入力された画像を分類するためのプログラムであって、
コンピュータを、
入力された画像データに対して特徴量抽出処理と全結合処理とを実行するように構築されるネットワークと、
前記ネットワークにおける処理経路を抽出する経路抽出手段と、
前記経路抽出手段で抽出した抽出経路と、分類と関連付けられた予め設定された複数の設定経路とを比較し、一致する経路に関連付けられた分類を、前記入力された画像の分類とする判断部として機能させる、
画像分類プログラム。 - 前記経路抽出手段は、前記ネットワークにおける前記特徴量抽出処理によって得られる複数の特徴値から少なくとも1つ選択される値と、前記全結合処理によって得られる複数の全結合出力値から少なくとも1つ選択される値とを結ぶ経路を抽出する手段であり、
前記選択される特徴値、及び、前記選択される全結合出力値の少なくとも一方には、最大値が含まれている、
請求項1に記載の画像分類プログラム。 - 前記経路抽出手段は、前記特徴量抽出処理によって得られる複数の特徴値を含む特徴値群と、前記全結合処理によって得られる複数の全結合出力値を含む全結合出力値群とから選択される値を結ぶ経路を抽出する手段であり、
前記特徴値群と前記全結合出力値群とのうち少なくともいずれか一方から少なくとも2つの値を選択し、
該2つの値には、選択元の値群に含まれる複数の値のうちの最大値が含まれている、
請求項1または2に記載の画像分類プログラム。 - 画像分類装置用の分類データを作成する分類データ作成プログラムであって、
コンピュータを、
入力された画像データに対して特徴量抽出処理と全結合処理とを実行するように構築されるネットワークと、
前記ネットワークにおける前記特徴量抽出処理によって得られる複数の特徴値を含む特徴値群から選択される特徴値と、前記全結合処理によって得られる複数の全結合出力値を含む全結合出力値群から選択される全結合出力値とであって、前記特徴値群と前記全結合出力値群とのうち少なくともいずれか一方から選択される値に、選択元の値群に含まれる複数の値のうちの最大値が含まれるように選択される特徴値と全結合出力値とを結ぶ経路を設定経路として抽出する設定経路抽出手段と、
抽出した設定経路と画像を分類するための分類とを関連付ける関連付け手段として機能させる、
分類データ作成プログラム。 - 画像分類装置用の分類データを作成する方法であって、
入力された画像データに対して特徴量抽出処理と全結合処理とを実行するネットワーク処理工程と、
前記ネットワーク処理工程における前記特徴量抽出処理によって得られる複数の特徴値を含む特徴値群から選択される特徴値と、前記全結合処理によって得られる複数の全結合出力値を含む全結合出力値群から選択される全結合出力値とであって、前記特徴値群と前記全結合出力値群とのうち少なくともいずれか一方から選択される値に、選択元の値群に含まれる複数の値のうちの最大値が含まれるように選択される特徴値と全結合出力値とを結ぶ経路を設定経路として抽出する設定経路抽出工程と、
抽出した設定経路と画像を分類するための分類とを関連付ける関連付け工程とを含む、
分類データ作成方法。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017104449A JP6726641B2 (ja) | 2017-05-26 | 2017-05-26 | 画像分類プログラム、分類データ作成プログラム、及び、分類データ作成方法 |
CN201810449629.2A CN108932523B (zh) | 2017-05-26 | 2018-05-11 | 图像分类以及分类数据制作系统和方法、存储介质 |
KR1020180054177A KR20180129640A (ko) | 2017-05-26 | 2018-05-11 | 화상 분류 프로그램, 분류 데이터 작성 프로그램 및 분류 데이터 작성 방법 |
US15/985,950 US11410409B2 (en) | 2017-05-26 | 2018-05-22 | Image classification system and method, classification data creation system and method, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017104449A JP6726641B2 (ja) | 2017-05-26 | 2017-05-26 | 画像分類プログラム、分類データ作成プログラム、及び、分類データ作成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018200530A true JP2018200530A (ja) | 2018-12-20 |
JP6726641B2 JP6726641B2 (ja) | 2020-07-22 |
Family
ID=64401268
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017104449A Active JP6726641B2 (ja) | 2017-05-26 | 2017-05-26 | 画像分類プログラム、分類データ作成プログラム、及び、分類データ作成方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11410409B2 (ja) |
JP (1) | JP6726641B2 (ja) |
KR (1) | KR20180129640A (ja) |
CN (1) | CN108932523B (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220086033A (ko) * | 2020-12-16 | 2022-06-23 | 한국광기술원 | 광섬유의 융착접속 분석 장치 및 그 분석 방법 |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018033137A1 (zh) * | 2016-08-19 | 2018-02-22 | 北京市商汤科技开发有限公司 | 在视频图像中展示业务对象的方法、装置和电子设备 |
US10366302B2 (en) * | 2016-10-10 | 2019-07-30 | Gyrfalcon Technology Inc. | Hierarchical category classification scheme using multiple sets of fully-connected networks with a CNN based integrated circuit as feature extractor |
US10387740B2 (en) * | 2016-10-10 | 2019-08-20 | Gyrfalcon Technology Inc. | Object detection and recognition apparatus based on CNN based integrated circuits |
CN108875904A (zh) * | 2018-04-04 | 2018-11-23 | 北京迈格威科技有限公司 | 图像处理方法、图像处理装置和计算机可读存储介质 |
CN111091144B (zh) * | 2019-11-27 | 2023-06-27 | 云南电网有限责任公司电力科学研究院 | 基于深度伪孪生网络的图像特征点匹配方法及装置 |
US11694319B2 (en) | 2020-04-10 | 2023-07-04 | Samsung Display Co., Ltd. | Image-based defects identification and semi-supervised localization |
JP2022114332A (ja) * | 2021-01-26 | 2022-08-05 | 日東電工株式会社 | クラス判定システム、クラス判定方法及びクラス判定プログラム |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016033806A (ja) * | 2014-05-15 | 2016-03-10 | 株式会社リコー | 画像処理装置、画像処理方法及びプログラム |
JP2017062781A (ja) * | 2015-09-22 | 2017-03-30 | ゼロックス コーポレイションXerox Corporation | 深層cnnプーリング層を特徴として用いる、類似度に基づく重要な対象の検知 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012073421A1 (ja) * | 2010-11-29 | 2012-06-07 | パナソニック株式会社 | 画像分類装置、画像分類方法、プログラム、記録媒体、集積回路、モデル作成装置 |
JP6414458B2 (ja) | 2014-12-17 | 2018-10-31 | 株式会社デンソー | 演算処理装置 |
US9672445B2 (en) * | 2015-08-03 | 2017-06-06 | Yahoo! Inc. | Computerized method and system for automated determination of high quality digital content |
CN106227851B (zh) * | 2016-07-29 | 2019-10-01 | 汤一平 | 基于深度卷积神经网络的分层深度搜索的图像检索方法 |
CN106408015A (zh) * | 2016-09-13 | 2017-02-15 | 电子科技大学成都研究院 | 基于卷积神经网络的岔路口识别及深度估计方法 |
US10402628B2 (en) * | 2016-10-10 | 2019-09-03 | Gyrfalcon Technology Inc. | Image classification systems based on CNN based IC and light-weight classifier |
CN106529578A (zh) * | 2016-10-20 | 2017-03-22 | 中山大学 | 一种基于深度学习的车辆品牌型号精细识别方法与系统 |
US10229347B2 (en) * | 2017-05-14 | 2019-03-12 | International Business Machines Corporation | Systems and methods for identifying a target object in an image |
-
2017
- 2017-05-26 JP JP2017104449A patent/JP6726641B2/ja active Active
-
2018
- 2018-05-11 KR KR1020180054177A patent/KR20180129640A/ko not_active Application Discontinuation
- 2018-05-11 CN CN201810449629.2A patent/CN108932523B/zh active Active
- 2018-05-22 US US15/985,950 patent/US11410409B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016033806A (ja) * | 2014-05-15 | 2016-03-10 | 株式会社リコー | 画像処理装置、画像処理方法及びプログラム |
JP2017062781A (ja) * | 2015-09-22 | 2017-03-30 | ゼロックス コーポレイションXerox Corporation | 深層cnnプーリング層を特徴として用いる、類似度に基づく重要な対象の検知 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220086033A (ko) * | 2020-12-16 | 2022-06-23 | 한국광기술원 | 광섬유의 융착접속 분석 장치 및 그 분석 방법 |
KR102517633B1 (ko) * | 2020-12-16 | 2023-04-04 | 한국광기술원 | 광섬유의 융착접속 분석 장치 및 그 분석 방법 |
Also Published As
Publication number | Publication date |
---|---|
US11410409B2 (en) | 2022-08-09 |
CN108932523B (zh) | 2024-04-09 |
CN108932523A (zh) | 2018-12-04 |
US20180341829A1 (en) | 2018-11-29 |
JP6726641B2 (ja) | 2020-07-22 |
KR20180129640A (ko) | 2018-12-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6726641B2 (ja) | 画像分類プログラム、分類データ作成プログラム、及び、分類データ作成方法 | |
JP7087397B2 (ja) | 基板の欠陥検査装置、基板の欠陥検査方法及び記憶媒体 | |
US8331651B2 (en) | Method and apparatus for inspecting defect of pattern formed on semiconductor device | |
JP6710135B2 (ja) | 細胞画像の自動分析方法及びシステム | |
JP5546317B2 (ja) | 外観検査装置、外観検査用識別器の生成装置及び外観検査用識別器生成方法ならびに外観検査用識別器生成用コンピュータプログラム | |
JP4616864B2 (ja) | 外観検査方法及びその装置および画像処理評価システム | |
JP5953842B2 (ja) | 画像検査方法および検査領域設定方法 | |
Wang et al. | Outlier detection for scanned point clouds using majority voting | |
CN111382785B (zh) | 一种gan网络模型及实现样本自动清洗、辅助标记的方法 | |
CN101432863B (zh) | 故障源设备确定系统 | |
JP5929238B2 (ja) | 画像検査方法および画像検査装置 | |
CN112819748B (zh) | 一种带钢表面缺陷识别模型的训练方法及装置 | |
CN110349167A (zh) | 一种图像实例分割方法及装置 | |
CN113222913B (zh) | 一种电路板缺陷检测定位方法、装置和存储介质 | |
US20210004721A1 (en) | Inspection system, discrimination system, and learning data generation device | |
CN111415330A (zh) | 基于深度学习的铜箔外观缺陷检测方法 | |
CN107895371B (zh) | 基于峰值覆盖值和Gabor特征的纺织品瑕疵检测方法 | |
JP2023123387A (ja) | 欠陥検出方法およびシステム | |
CN114255212A (zh) | 一种基于cnn的fpc表面缺陷检测方法及其系统 | |
CN112200790A (zh) | 布料缺陷检测方法、设备和介质 | |
CN116978834A (zh) | 一种用于晶圆生产的智能监测预警系统 | |
JP2010071826A (ja) | 教師データ作成方法、並びに、画像分類方法および画像分類装置 | |
Gupta et al. | Deep learning model for defect analysis in industry using casting images | |
CN110033443B (zh) | 一种显示面板缺陷检测方法 | |
CN115953387A (zh) | 一种基于深度学习的射线图像焊缝缺陷检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20180713 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190522 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200327 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200526 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200612 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200629 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6726641 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |