JP2019159961A - 検査システム、画像識別システム、識別システム、識別器生成システム、及び学習データ生成装置 - Google Patents
検査システム、画像識別システム、識別システム、識別器生成システム、及び学習データ生成装置 Download PDFInfo
- Publication number
- JP2019159961A JP2019159961A JP2018047292A JP2018047292A JP2019159961A JP 2019159961 A JP2019159961 A JP 2019159961A JP 2018047292 A JP2018047292 A JP 2018047292A JP 2018047292 A JP2018047292 A JP 2018047292A JP 2019159961 A JP2019159961 A JP 2019159961A
- Authority
- JP
- Japan
- Prior art keywords
- data
- learning
- image data
- discriminator
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000007689 inspection Methods 0.000 title claims abstract description 95
- 238000010801 machine learning Methods 0.000 claims abstract description 153
- 238000000034 method Methods 0.000 claims description 190
- 230000008569 process Effects 0.000 claims description 141
- 238000012545 processing Methods 0.000 claims description 110
- 238000006243 chemical reaction Methods 0.000 claims description 93
- 230000015572 biosynthetic process Effects 0.000 claims description 8
- 238000003786 synthesis reaction Methods 0.000 claims description 8
- 230000000873 masking effect Effects 0.000 claims description 4
- 238000005516 engineering process Methods 0.000 abstract 1
- 238000013528 artificial neural network Methods 0.000 description 65
- 230000004048 modification Effects 0.000 description 47
- 238000012986 modification Methods 0.000 description 47
- 238000004891 communication Methods 0.000 description 44
- 230000010365 information processing Effects 0.000 description 42
- 210000002569 neuron Anatomy 0.000 description 35
- 230000007547 defect Effects 0.000 description 18
- 230000002950 deficient Effects 0.000 description 13
- 238000004519 manufacturing process Methods 0.000 description 11
- 238000011176 pooling Methods 0.000 description 11
- 238000003672 processing method Methods 0.000 description 7
- 230000008878 coupling Effects 0.000 description 6
- 238000010168 coupling process Methods 0.000 description 6
- 238000005859 coupling reaction Methods 0.000 description 6
- 230000002159 abnormal effect Effects 0.000 description 5
- 238000013527 convolutional neural network Methods 0.000 description 5
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 4
- 238000010304 firing Methods 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 239000007787 solid Substances 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 238000012546 transfer Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 230000008921 facial expression Effects 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 239000003990 capacitor Substances 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 239000000428 dust Substances 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000002787 reinforcement Effects 0.000 description 2
- 239000000126 substance Substances 0.000 description 2
- 239000000758 substrate Substances 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000004804 winding Methods 0.000 description 2
- 235000019687 Lamb Nutrition 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000036772 blood pressure Effects 0.000 description 1
- 238000004587 chromatography analysis Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000032258 transport Effects 0.000 description 1
- 238000011179 visual inspection Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
- G06N5/046—Forward inferencing; Production systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
- G06T7/001—Industrial image inspection using an image reference approach
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/06—Recognition of objects for industrial automation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Molecular Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Medical Informatics (AREA)
- Biophysics (AREA)
- Databases & Information Systems (AREA)
- Quality & Reliability (AREA)
- Biodiversity & Conservation Biology (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Description
まず、本発明の基本的な構成の一例について説明する。学習データを利用した機械学習により識別器を構築する場合、次のような問題が生じ得る。すなわち、識別器を構成する学習モデルの機械学習を行うためには、学習データとして利用するデータを用意することになる。この学習データの件数が少ないと、識別器により対象のデータから所定の特徴を識別する精度が不十分になってしまう。一方で、特徴を識別する精度を高めるために、十分な件数の学習データを用意するにはコストがかかってしまう。
[ハードウェア構成]
<学習データ生成装置>
次に、図2を用いて、本実施形態に係る学習データ生成装置1のハードウェア構成の一例について説明する。図2は、本実施形態に係る学習データ生成装置1のハードウェア構成の一例を模式的に例示する。
次に、図3を用いて、本実施形態に係る第1学習装置2のハードウェア構成の一例について説明する。図3は、本実施形態に係る第1学習装置2のハードウェア構成の一例を模式的に例示する。
次に、図4を用いて、本実施形態に係る第2学習装置3のハードウェア構成の一例について説明する。図4は、本実施形態に係る第2学習装置3のハードウェア構成の一例を模式的に例示する。
次に、図5を用いて、本実施形態に係る検査装置4のハードウェア構成の一例について説明する。図5は、本実施形態に係る検査装置4のハードウェア構成の一例を模式的に例示する。
<学習データ生成装置>
次に、図6を用いて、本実施形態に係る学習データ生成装置1のソフトウェア構成の一例を説明する。図6は、本実施形態に係る学習データ生成装置1のソフトウェア構成の一例を模式的に例示する。
次に、第1識別器51の構成について説明する。図6に示されるとおり、第1識別器51は、ニューラルネットワークにより構成されている。具体的には、第1識別器51には、いわゆる畳み込みニューラルネットワークにより構成されており、畳み込み層511、プーリング層512、全結合層513、及び出力層514を備えている。
次に、図7を用いて、本実施形態に係る第1学習装置2のソフトウェア構成の一例について説明する。図7は、本実施形態に係る第1学習装置2のソフトウェア構成の一例を模式的に例示する。
次に、図8を用いて、本実施形態に係る第2学習装置3のソフトウェア構成の一例について説明する。図8は、本実施形態に係る第2学習装置3のソフトウェア構成の一例を模式的に例示する。
次に、図9を用いて、本実施形態に係る検査装置4のソフトウェア構成の一例について説明する。図9は、本実施形態に係る検査装置4のソフトウェア構成の一例を模式的に例示する。
学習データ生成装置1、第1学習装置2、第2学習装置3、及び検査装置4の各ソフトウェアモジュールに関しては後述する動作例で詳細に説明する。なお、本実施形態では、学習データ生成装置1、第1学習装置2、第2学習装置3、及び検査装置4の各ソフトウェアモジュールがいずれも汎用のCPUによって実現される例について説明している。しかしながら、以上のソフトウェアモジュールの一部又は全部が、1又は複数の専用のプロセッサにより実現されてもよい。また、学習データ生成装置1、第1学習装置2、第2学習装置3、及び検査装置4それぞれのソフトウェア構成に関して、実施形態に応じて、適宜、ソフトウェアモジュールの省略、置換及び追加が行われてもよい。
[第1学習データ生成装置]
次に、図10を用いて、本実施形態に係る学習データ生成装置1の動作例について説明する。図10は、本実施形態に係る学習データ生成装置1の処理手順の一例を例示するフローチャートである。以下で説明する処理手順は、学習データ生成方法の一例である。ただし、以下で説明する処理手順は一例に過ぎず、各処理は可能な限り変更されてよい。また、以下で説明する処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が可能である。
ステップS101では、制御部11は、データ取得部111として動作し、第1画像データ122、及び第1画像データ122に写る製品の良否の判定に対する正解を示す第1正解データ123を取得する。
ステップS102では、制御部11は、第1生成部112として動作し、ステップS101で取得した第1画像データ122に所定の変換処理を適用する。これにより、制御部11は、それぞれ製品の写る複数件の第2画像データ125を第1画像データ122から生成する。
ステップS103では、制御部11は、判定部113として動作し、ステップS102で生成した各件の第2画像データ125を第1識別器51に入力することで当該第1識別器51から得られる出力に基づいて、各件の第2画像データ125を学習データとして採用するか否かを判定する。
ステップS104では、制御部11は、第2生成部114として動作し、製品の良否を判定する能力を習得するための機械学習に利用する学習データとして採用すると判定された第2画像データ125に第2正解データ126を付与する。
次に、図11を用いて、本実施形態に係る第1学習装置2の動作例について説明する。図11は、本実施形態に係る第1学習装置2の処理手順の一例を例示するフローチャートである。ただし、以下で説明する処理手順は一例に過ぎず、各処理は可能な限り変更されてよい。また、以下で説明する処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が可能である。
ステップS201では、制御部21は、第1学習データ取得部211として動作し、画像データ2221及び採否データ2222の組み合わせでそれぞれ構成された複数件の第1学習用データセット222を取得する。
ステップS202では、制御部21は、第1学習処理部212として動作し、取得した各件の第1学習用データセット222を利用した機械学習を実行する。本実施形態では、制御部21は、各件の第1学習用データセット222を用いて、画像データ2221を畳み込み層521に入力すると、採否データ2222により示される正解に対応する出力値を出力層524から出力するようにニューラルネットワーク52の機械学習を実行する。
ステップS203では、制御部21は、第1学習処理部212として動作し、機械学習により構築された学習後のニューラルネットワーク52(すなわち、第1識別器51)の構成、各ニューロン間の結合の重み、及び各ニューロンの閾値を示す情報を第1学習結果データ129として記憶部22に格納する。これにより、制御部21は、本動作例に係る処理を終了する。
次に、図12を用いて、本実施形態に係る第2学習装置3の動作例について説明する。図12は、本実施形態に係る第2学習装置3の処理手順の一例を例示するフローチャートである。ただし、以下で説明する処理手順は一例に過ぎず、各処理は可能な限り変更されてよい。また、以下で説明する処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が可能である。
ステップS301では、制御部31は、第2学習データ取得部311として動作し、画像データ3221及び正解データ3222の組み合わせでそれぞれ構成された複数件の第2学習用データセット322を取得する。
ステップS302では、制御部31は、第2学習処理部312として動作し、学習データ生成装置1により生成された学習用データセット127を含む複数件の第2学習用データセット322を利用した機械学習を実施する。本実施形態では、制御部31は、各件の第2学習用データセット322を用いて、画像データ3221を畳み込み層531に入力すると、正解データ3222により示される正解に対応する出力値を出力層534から出力するようにニューラルネットワーク53の機械学習を実行する。これにより、制御部31は、製品の良否を判定する能力を習得した学習済みの第2識別器54を構築する。
ステップS303では、制御部31は、第2学習処理部312として動作し、機械学習により構築された学習後のニューラルネットワーク53(すなわち、第2識別器54)の構成、各ニューロン間の結合の重み、及び各ニューロンの閾値を示す情報を第2学習結果データ323として記憶部32に格納する。これにより、制御部31は、本動作例に係る処理を終了する。
次に、図13を用いて、検査装置4の動作例について説明する。図13は、検査装置4の処理手順の一例を例示するフローチャートである。ただし、以下で説明する処理手順は一例に過ぎず、各処理は可能な限り変更されてよい。また、以下で説明する処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が可能である。
ステップS401では、制御部41は、対象データ取得部411として動作し、検査の対象となる製品Rの写る対象画像データ422を取得する。本実施形態では、検査装置4は、外部インタフェース44を介してカメラ81に接続されている。そのため、制御部41は、カメラ81から対象画像データ422を取得する。この対象画像データ422は、動画像データであってもよいし、静止画像データであってもよい。対象画像データ422を取得すると、制御部41は、次のステップS402に処理を進める。
ステップS402では、制御部41は、良否判定部412として動作し、第2識別器54を利用して、対象画像データ422に写る製品Rの良否を判定する。
ステップS403では、制御部41は、出力部413として動作し、ステップS402により製品Rの良否を判定した結果を出力する。
以上のとおり、本実施形態に係る学習データ生成装置1によれば、上記ステップS102の処理により、第1画像データ122に所定の変換処理を適用することで、学習データの候補となる第2画像データ125を量産することができる。加えて、学習データ生成装置1は、上記ステップS103の処理により、量産した複数件の第2画像データ125のうち、製品の良否を判定する能力を習得するための学習データとして不適切な第2画像データ125を機械学習に利用されないようにすることができる。そのため、本実施形態に係る学習データ生成装置1によれば、ステップS104により生成した学習用データセット127により第2学習用データセット322の件数を増加させることで、十分な件数の適切な第2学習用データセット322を低コストで用意することができる。これにより、第2学習装置3では、ステップS301〜S303の処理により、用意した十分な件数の第2学習用データセット322を利用した機械学習を実施することで、製品の良否を判定する精度の比較的に高い第2識別器54を構築することができる。したがって、本実施形態によれば、低コストで良否の判定精度の比較的に高い第2識別器54を生成することができる。
以上、本発明の実施の形態を詳細に説明してきたが、前述までの説明はあらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。例えば、以下のような変更が可能である。なお、以下では、上記実施形態と同様の構成要素に関しては同様の符号を用い、上記実施形態と同様の点については、適宜説明を省略した。以下の変形例は適宜組み合わせ可能である。
上記実施形態では、各識別器(51、54)は、畳み込みニューラルネットワークにより構成されている。しかしながら、各識別器(51、54)の構成は、このような例に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。例えば、各識別器(51、54)は、多層構造の全結合ニューラルネットワーク、再帰型ニューラルネットワーク等により構成されてよい。
上記実施形態では、各識別器(51、54)の学習モデルとして、ニューラルネットワークを採用している。しかしながら、各識別器(51、54)の学習モデルは、このような例に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。各識別器(51、54)の学習モデルとして、例えば、サポートベクタマシン、自己組織化マップ、強化学習により機械学習を行う学習モデル等が採用されてよい。
上記実施形態では、各学習結果データ(129、323)は、ニューラルネットワークの構成を示す情報を含んでいる。しかしながら、各学習結果データ(129、323)の構成は、このような例に限定されなくてもよく、学習済みの各識別器(51、54)の設定に利用可能であれば、実施の形態に応じて適宜決定されてよい。例えば、利用するニューラルネットワークの構成が各装置で共通化されている場合には、各学習結果データ(129、323)は、ニューラルネットワークの構成を示す情報を含んでいなくてもよい。
上記実施形態では、検査システム100は、第1識別器51を構成する第1学習装置2を含んでいる。しかしながら、第1識別器51は、検査システム100の外部の情報処理装置により構成されてよい。この場合、検査システム100において、第1学習装置2は省略されてもよい。
上記実施形態では、学習データ生成装置1の制御部11は、ステップS104において、第1正解データ123に基づいて、第2正解データ126の内容を設定している。しかしながら、第2正解データ126の内容を設定する方法は、このような例に限られなくてもよい。例えば、制御部11は、入力装置14を介して、オペレータによる第2正解データ126の内容の入力を受け付けてもよい。このとき、オペレータが、第2正解データ126の内容を決定するための参考として、制御部11は、出力装置15を介して、第2画像データ125及び第1正解データ123の少なくとも一方を出力してもよい。
上記実施形態では、第1識別器51は、画像データ2221及び採否データ2222の組み合わせにより構成された第1学習用データセット222を利用した機械学習により構築されている。しかしながら、第1識別器51を構築する方法は、このような例に限定されなくてもよい。
まず、図14を用いて、上記実施形態とは異なる方法で第1識別器を構築する第1学習装置2Aの構成の一例について説明する。図14は、本変形例に係る第1学習装置2Aのソフトウェア構成の一例を模式的に例示する。本変形例に係る第1学習装置2Aは、上記第1学習装置2と同様のハードウェア構成を有する。すなわち、第1学習装置2Aは、制御部21、記憶部22、通信インタフェース23、入力装置24、出力装置25、及びドライブ26が電気的に接続されたコンピュータである。
次に、図15を用いて、本変形例に係る第1学習装置2Aの動作例について説明する。図15は、本変形例に係る第1学習装置2Aの処理手順の一例を例示するフローチャートである。ただし、以下で説明する処理手順は一例に過ぎず、各処理は可能な限り変更されてよい。また、以下で説明する処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が可能である。
ステップS501では、制御部21は、第1学習データ取得部211Aとして動作し、複数件の画像データ2223により構成された画像データ群222Aを取得する。各件の画像データ2223は、上記第1画像データ122と同様の方法により取得されてよい。画像データ群222Aを取得すると、制御部21は、次のステップS502に処理を進める。
ステップS502では、制御部21は、生成モデル61の機械学習を行う。上記のとおり、生成モデル61は、ニューラルネットワークにより構成される。例えば、制御部21は、無意味なデータ(例えば、ノイズ)を入力データとして利用し、画像データ群222Aに含まれる画像データ2223を教師データとして利用して、生成モデル61の機械学習を行う。すなわち、制御部21は、ノイズを入力すると、画像データ2223に対応する画像データを出力するように生成モデル61の機械学習を実施する。機械学習の方法は、上記ステップS202と同様であってよい。これにより、生成モデル61は、画像データ群222Aに対して、画像データ2223に類似する画像データ611を生成するように構築される。生成モデル61の機械学習が完了すると、制御部21は、次のステップS503に処理を進める。
ステップS503では、制御部21は、識別モデル62の機械学習を行う。上記のとおり、識別モデル62は、ニューラルネットワークにより構成される。例えば、制御部21は、画像データ群222Aに含まれる画像データ2223と、その画像データ2223が画像データ群222Aの由来である(すなわち、真である)ことを示す正解データとの組み合わせで構成されたデータセットを生成する。また、制御部21は、生成モデル61により生成される画像データ611と、その画像データ611が生成モデル61由来である(すなわち、偽である)ことを示す正解データとの組み合わせで構成されたデータセットを生成する。
ステップS504では、制御部21は、ステップS502及びS503の機械学習の処理を繰り返すか否かを判定する。機械学習の処理を繰り返す基準は、実施の形態に応じて適宜決定されてよい。例えば、ステップS502及びS503の機械学習の実施する回数が設定されていてもよい。この場合、制御部21は、ステップS502及びS503の機械学習を実施した回数が設定回数に到達したか否かを判定する。ステップS502及びS503の機械学習を実施した回数が設定回数に到達していないと判定した場合には、制御部21は、ステップS502に処理を戻す。一方、ステップS502及びS503の機械学習を実施した回数が設定回数に到達したと判定した場合には、制御部21は、次のステップS505に処理を進める。
ステップS505では、制御部21は、第1学習処理部212Aとして動作し、ステップS502及びS503の処理を繰り返すことで構築されたネットワークのうち識別モデル62を第1識別器として保存する。すなわち、制御部21は、学習後の識別モデル62の構成、各ニューロン間の結合の重み、及び各ニューロンの閾値を示す情報を第1学習結果データ129として記憶部22に格納する。これにより、制御部21は、本動作例に係る処理を終了する。
上記実施形態では、製品Rの外観検査を行う他面に本発明を適用した例を示している。しかしながら、本発明の適用範囲は、このような外観検査の場面に限られなくてもよい。本発明は、画像データに写る被写体の特徴を識別するあらゆる場面に広く適用可能である。
次に、本変形例に係る画像識別システムの動作例について説明する。本変形例に係る画像識別システムは、上記検査システム100とほぼ同様の処理手順で動作する。
学習データ生成装置1の制御部11は、ステップS101では、データ取得部111として動作し、所定の被写体の写る第1画像データ、及び第1画像データに写る被写体の特徴の識別に対する正解を示す第1正解データを取得する。なお、ニューラルネットワーク以外の学習モデルを第2識別器54Bに採用し、機械学習として教師あり学習を実施しない等、第1正解データが不要である場合、第1正解データの取得は省略されてよい。
第1学習装置2の制御部21は、上記ステップS201〜S203の処理により、与えられた画像データを、被写体の特徴を識別する能力を習得するための機械学習の学習データとして採用するか否かを判定する能力を習得した学習済みの第1識別器を構築する。
第2学習装置3の制御部31は、上記ステップS301〜S303の処理により、対象の画像データに写る被写体の特徴を識別する能力を習得した学習済みの第2識別器54Bを構築する。
画像識別装置4Bの制御部41は、ステップS401では、対象データ取得部411として動作し、特徴を識別する対象となる被写体の写る対象画像データ422Bを取得する。本変形例では、制御部41は、カメラ81から対象画像データ422Bを取得する。
上記実施形態及び変形例では、画像データから何らかの特徴を識別する場面に本発明を提供した例を示している。しかしながら、本発明の適用可能な範囲は、このような画像データから特徴を識別する場面に限られなくてもよい。本発明は、画像データ以外のデータ又は複数種類のデータから何らかの特徴を識別する場面に広く適用可能である。
図18〜図22を用いて、データに含まれる特徴を識別する場面に本発明を適用した変形例について説明する。図18は、本変形例に係る学習データ生成装置1Cのソフトウェア構成の一例を模式的に例示する。図19は、本変形例に係る第1学習装置2Cのソフトウェア構成の一例を模式的に例示する。図20は、本変形例に係る第2学習装置3Cのソフトウェア構成の一例を模式的に例示する。図21及び図22は、本変形例に係る識別装置4Cのハードウェア構成及びソフトウェア構成の一例を模式的に例示する。本変形例に係る識別システムは、学習データ生成装置1C、第1学習装置2C、第2学習装置3C、及び識別装置4Cにより構成される。処理対象となるデータが、製品の写る画像データから何らかの特徴を含む他種のデータに置き換わる点を除き、本変形例に係る識別システムは、上記検査システム100と同様に構成されてよい。
本変形例に係る学習データ生成装置1Cは、上記学習データ生成装置1と同様のハードウェア構成を有する。すなわち、学習データ生成装置1Cは、制御部11、記憶部12、通信インタフェース13、入力装置14、出力装置15、及びドライブ16が電気的に接続されたコンピュータである。学習データ生成装置1Cの記憶部12は、第1学習結果データ129C等の各種情報を記憶する。
本変形例に係る第1学習装置2Cは、上記第1学習装置2と同様のハードウェア構成を有する。すなわち、第1学習装置2Cは、制御部21、記憶部22、通信インタフェース23、入力装置24、出力装置25、及びドライブ26が電気的に接続されたコンピュータである。第1学習装置2Cは、学習データ生成装置1Cで利用する、与えられたデータを学習データとして採用するか否かを判定するための機械学習を行った学習済みの第1識別器51Cを構築する。
本変形例に係る第2学習装置3Cは、上記第2学習装置3と同様のハードウェア構成を有する。すなわち、第2学習装置3Cは、制御部31、記憶部32、通信インタフェース33、入力装置34、出力装置35、及びドライブ36が電気的に接続されたコンピュータである。第2学習装置3Cは、学習データ生成装置1Cにより生成された学習データを利用した機械学習を実施することで、対象のデータから特徴を識別する能力を習得した学習済みの第2識別器54Cを構築する。
図21に示されるとおり、本変形例に係る識別装置4Cは、上記検査装置4と同様のハードウェア構成を有する。識別装置4Cの記憶部42は、識別プログラム421C、第2学習結果データ323C等の各種情報を記憶する。識別プログラム421Cは、上記検査装置4と同様の処理手順により、対象のデータに含まれる特徴を識別する情報処理を識別装置4Cに実行させるためのプログラムであり、当該情報処理の一連の命令を含む。第2学習結果データ323Cは、学習済みの第2識別器54Cの設定を行うためのデータである。
次に、本変形例に係る識別システムの動作例について説明する。本変形例に係る識別システムは、上記検査システム100とほぼ同様の処理手順で動作する。
学習データ生成装置1Cの制御部11は、ステップS101では、データ取得部111として動作し、所定の特徴を含む第1データ122C、及び第1データ122Cに含まれる特徴の識別に対する正解を示す第1正解データ123Cを取得する。第1データ122Cは、適宜取得されてよい。例えば、処理対象となるデータが音データである場合、マイクロフォンを用意し、識別する対象となる特徴を含みうる音データを用意したマイクロフォンにより録音する。これにより、第1データ122Cを取得することができる。なお、ニューラルネットワーク以外の学習モデルを第2識別器54Cに採用し、機械学習として教師あり学習を実施しない等、第1正解データ123Cが不要である場合、第1正解データ123Cの取得は省略されてよい。
第1学習装置2の制御部21は、上記ステップS201〜S203の処理により、与えられたデータを、特徴を識別する能力を習得するための機械学習の学習データとして採用するか否かを判定する能力を習得した学習済みの第1識別器51Cを構築する。
第2学習装置3Cの制御部31は、上記ステップS301〜S303の処理により、対象のデータに含まれる特徴を識別する能力を習得した学習済みの第2識別器54Cを構築する。
識別装置4Cの制御部41は、ステップS401では、対象データ取得部411として動作し、識別する対象となる特徴を含む対象データ422Cを取得する。本変形例では、制御部41は、外部インタフェース44を介して計測装置81Cから対象データ422Cを取得する。ただし、対象データ422Cを取得する経路は、このような例に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。
1…学習データ生成装置、
11…制御部、12…記憶部、13…通信インタフェース、
14…入力装置、15…出力装置、16…ドライブ、
111…データ取得部、112…第1生成部、
113…判定部、114…第2生成部、
121…生成プログラム、
122…第1画像データ、123…第1正解データ、
125…第2画像データ、126…第2正解データ、
127…学習用データセット、129…第1学習結果データ、
2…第1学習装置、
21…制御部、22…記憶部、23…通信インタフェース、
24…入力装置、25…出力装置、26…ドライブ、
211…第1学習データ取得部、
212…第1学習処理部、
221…採否学習プログラム、
222…第1学習用データセット、
2221…画像データ(第5画像データ)、
2222…採否データ(第3正解データ)、
3…第2学習装置、
31…制御部、32…記憶部、33…通信インタフェース、
34…入力装置、35…出力装置、36…ドライブ、
311…第2学習データ取得部、
312…第2学習処理部、
321…学習プログラム、
322…第2学習用データセット、
3221…画像データ、3222…正解データ、
323…第2学習結果データ、
4…検査装置、
41…制御部、42…記憶部、43…通信インタフェース、
44…外部インタフェース、45…入力装置、
46…出力装置、47…ドライブ、
411…対象データ取得部、412…良否判定部、
413…出力部、
421…検査プログラム、
51…第1識別器、
52…ニューラルネットワーク、
53…ニューラルネットワーク、
54…第2識別器、
511・521・531・541…畳み込み層、
512・522・532・542…プーリング層、
513・523・533・543…全結合層、
514・524・534・544…出力層、
2A…第1学習装置、
222A…画像データ群、
2223…画像データ(第3画像データ)、
61…生成モデル、611…画像データ(第4画像データ)、
62…識別モデル、
91・92・93・94…記憶媒体
Claims (13)
- 製品の良否を検査する検査システムであって、
前記製品の写る第1画像データ、及び前記第1画像データに写る前記製品の良否の判定に対する正解を示す第1正解データを取得するデータ取得部と、
前記第1画像データに所定の変換処理を適用することで、それぞれ前記製品の写る複数件の第2画像データを前記第1画像データから生成する第1生成部と、
与えられた画像データを学習データとして採用するか否かを判定するための機械学習を行った学習済みの第1識別器に各件の第2画像データを入力することで当該第1識別器から得られる出力に基づいて、各件の第2画像データを学習データとして採用するか否かを判定する判定部と、
学習データとして採用すると判定された第2画像データに、前記第1正解データに基づいて決定された、前記第2画像データに写る前記製品の良否の判定に対する正解を示す第2正解データを付与することで、当該第2画像データ及び当該第2正解データの対で構成された学習用データセットを生成する第2生成部と、
生成した前記学習用データセットを利用した機械学習を実施することで、前記製品の良否を判定する能力を習得した学習済みの第2識別器を構築する学習処理部と、
検査の対象となる前記製品の写る対象画像データを取得する対象データ取得部と、
取得した前記対象画像データを前記第2識別器に入力することで前記第2識別器から得られる出力に基づいて、前記対象画像データに写る前記製品の良否を判定する良否判定部と、
を備える、
検査システム。 - 前記第1生成部は、フォトメトリックな変換、ジオメトリックな変換、画像の合成、画像の置換及びこれらの組合せから選択された変換処理を前記第1画像データに適用することで、前記第1画像データから複数件の第2画像データを生成する、
請求項1に記載の検査システム。 - 前記第1識別器は、第3画像データから構成される画像データ群に対して、当該第3画像データに類似する第4画像データを生成するように機械学習する生成モデルと、入力された入力データが、前記生成モデル由来の前記第4画像データであるか、前記画像データ群由来の前記第3画像データであるかを識別するように機械学習する識別モデルとを含むネットワークであって、前記生成モデルは、前記識別モデルが識別を誤るような前記第3画像データに類似する前記第4画像データを生成するように機械学習を繰り返し、前記識別モデルは、繰り返し機械学習された前記生成モデルにより生成される前記第4画像データと前記第3学習データとを識別するように機械学習する、ネットワークのうちの前記識別モデルにより構成される、
請求項1又は2に記載の検査システム。 - 前記判定部は、第5画像データと、前記第5画像データを前記学習データとして採用するか否かの正解を示す第3正解データとを利用した機械学習により生成された学習済みの学習器を前記第1識別器として利用する、
請求項1又は2に記載の検査システム。 - 製品の写る第1画像データ、及び前記第1画像データに写る前記製品の良否の判定に対する正解を示す第1正解データを取得するデータ取得部と、
前記第1画像データに所定の変換処理を適用することで、それぞれ前記製品の写る複数件の第2画像データを前記第1画像データから生成する第1生成部と、
与えられた画像データを学習データとして採用するか否かを判定するための機械学習を行った学習済みの第1識別器に各件の第2画像データを入力することで当該第1識別器から得られる出力に基づいて、各件の第2画像データを学習データとして採用するか否かを判定する判定部と、
学習データとして採用すると判定された第2画像データに、前記第1正解データに基づいて決定された、前記第2画像データに写る前記製品の良否の判定に対する正解を示す第2正解データを付与することで、当該第2画像データ及び当該第2正解データの対で構成された学習用データセットを生成する第2生成部と、
生成した前記学習用データセットを利用した機械学習を実施することで、前記製品の良否を判定する能力を習得した学習済みの第2識別器を構築する学習処理部と、
を備える、
識別器生成システム。 - 製品の写る第1画像データ、及び前記第1画像データに写る前記製品の良否の判定に対する正解を示す第1正解データを取得するデータ取得部と、
前記第1画像データに所定の変換処理を適用することで、それぞれ前記製品の写る複数件の第2画像データを前記第1画像データから生成する第1生成部と、
与えられた画像データを学習データとして採用するか否かを判定するための機械学習を行った学習済みの第1識別器に各件の第2画像データを入力することで当該第1識別器から得られる出力に基づいて、各件の第2画像データを学習データとして採用するか否かを判定する判定部と、
学習データとして採用すると判定された第2画像データに、前記第1正解データに基づいて決定された、前記第2画像データに写る前記製品の良否の判定に対する正解を示す第2正解データを付与することで、当該第2画像データ及び当該第2正解データの対で構成された学習用データセットを生成する第2生成部と、
を備える、
学習データ生成装置。 - 所定の被写体の写る第1画像データを取得するデータ取得部と、
前記第1画像データに所定の変換処理を適用することで、それぞれ前記被写体の写る複数件の第2画像データを前記第1画像データから生成する第1生成部と、
与えられた画像データを学習データとして採用するか否かを判定するための機械学習を行った学習済みの第1識別器に各件の第2画像データを入力することで当該第1識別器から得られる出力に基づいて、各件の第2画像データを学習データとして採用するか否かを判定する判定部と、
学習データとして採用すると判定された第2画像データを収集することで、学習データとして採用すると判定された複数件の当該第2画像データにより構成された学習用データ群を生成する第2生成部と、
生成した前記学習用データ群を利用した機械学習を実施することで、前記被写体の特徴を識別する能力を習得した学習済みの第2識別器を構築する学習処理部と、
特徴を識別する対象となる前記被写体の写る対象画像データを取得する対象データ取得部と、
取得した前記対象画像データを前記第2識別器に入力することで前記第2識別器から得られる出力に基づいて、前記対象画像データに写る前記被写体の特徴を識別する識別部と、
を備える、
画像識別システム。 - 所定の被写体の写る第1画像データを取得するデータ取得部と、
前記第1画像データに所定の変換処理を適用することで、それぞれ前記被写体の写る複数件の第2画像データを前記第1画像データから生成する第1生成部と、
与えられた画像データを学習データとして採用するか否かを判定するための機械学習を行った学習済みの第1識別器に各件の第2画像データを入力することで当該第1識別器から得られる出力に基づいて、各件の第2画像データを学習データとして採用するか否かを判定する判定部と、
学習データとして採用すると判定された第2画像データを収集することで、学習データとして採用すると判定された複数件の当該第2画像データにより構成された学習用データ群を生成する第2生成部と、
生成した前記学習用データ群を利用した機械学習を実施することで、前記被写体の特徴を識別する能力を習得した学習済みの第2識別器を構築する学習処理部と、
を備える、
識別器生成システム。 - 所定の被写体の写る第1画像データを取得するデータ取得部と、
前記第1画像データに所定の変換処理を適用することで、それぞれ前記被写体の写る複数件の第2画像データを前記第1画像データから生成する第1生成部と、
与えられた画像データを学習データとして採用するか否かを判定するための機械学習を行った学習済みの第1識別器に各件の第2画像データを入力することで当該第1識別器から得られる出力に基づいて、各件の第2画像データを学習データとして採用するか否かを判定する判定部と、
学習データとして採用すると判定された第2画像データを収集することで、学習データとして採用すると判定された複数件の当該第2画像データにより構成された学習用データ群を生成する第2生成部と、
を備える、
学習データ生成装置。 - 所定の特徴を含む第1データを取得するデータ取得部と、
前記第1データに所定の変換処理を適用することで、前記第1データから複数件の第2データを生成する第1生成部と、
与えられたデータを学習データとして採用するか否かを判定するための機械学習を行った学習済みの第1識別器に各件の第2データを入力することで当該第1識別器から得られる出力に基づいて、各件の第2データを学習データとして採用するか否かを判定する判定部と、
学習データとして採用すると判定された第2データを収集することで、学習データとして採用すると判定された複数件の当該第2データにより構成された学習用データ群を生成する第2生成部と、
生成した学習用データ群を利用した機械学習を実施することで、前記特徴を識別する能力を習得した学習済みの第2識別器を構築する学習処理部と、
識別する対象となる特徴を含む対象データを取得する対象データ取得部と、
取得した前記対象データを前記第2識別器に入力することで前記第2識別器から得られる出力に基づいて、前記対象データに含まれる前記特徴を識別する識別部と、
を備える、
識別システム。 - 前記第1データは、音データであり、
前記第1生成部は、タイムストレッチ、ピッチシフト、マスキング、振幅の変換、音の合成及びこれらの組合せから選択された変換処理を前記第1データに適用することで、前記第1データから複数件の第2データを生成する、
請求項10に記載の識別システム。 - 所定の特徴を含む第1データを取得するデータ取得部と、
前記第1データに所定の変換処理を適用することで、前記第1データから複数件の第2データを生成する第1生成部と、
与えられたデータを学習データとして採用するか否かを判定するための機械学習を行った学習済みの第1識別器に各件の第2データを入力することで当該第1識別器から得られる出力に基づいて、各件の第2データを学習データとして採用するか否かを判定する判定部と、
学習データとして採用すると判定された第2データを収集することで、学習データとして採用すると判定された複数件の当該第2データにより構成された学習用データ群を生成する第2生成部と、
生成した学習用データ群を利用した機械学習を実施することで、前記特徴を識別する能力を習得した学習済みの第2識別器を構築する学習処理部と、
を備える、
識別器生成システム。 - 所定の特徴を含む第1データを取得するデータ取得部と、
前記第1データに所定の変換処理を適用することで、前記第1データから複数件の第2データを生成する第1生成部と、
与えられたデータを学習データとして採用するか否かを判定するための機械学習を行った学習済みの第1識別器に各件の第2データを入力することで当該第1識別器から得られる出力に基づいて、各件の第2データを学習データとして採用するか否かを判定する判定部と、
学習データとして採用すると判定された第2データを収集することで、学習データとして採用すると判定された複数件の当該第2データにより構成された学習用データ群を生成する第2生成部と、
を備える、
学習データ生成装置。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018047292A JP6766839B2 (ja) | 2018-03-14 | 2018-03-14 | 検査システム、画像識別システム、識別システム、識別器生成システム、及び学習データ生成装置 |
PCT/JP2019/010183 WO2019176993A1 (ja) | 2018-03-14 | 2019-03-13 | 検査システム、画像識別システム、識別システム、識別器生成システム、及び学習データ生成装置 |
EP19767411.2A EP3767551A4 (en) | 2018-03-14 | 2019-03-13 | INSPECTION SYSTEM, IMAGE RECOGNITION SYSTEM, RECOGNITION SYSTEM, DISCRIMINATOR GENERATION SYSTEM AND TRAINING DATA GENERATION DEVICE |
US16/976,081 US11715190B2 (en) | 2018-03-14 | 2019-03-13 | Inspection system, image discrimination system, discrimination system, discriminator generation system, and learning data generation device |
CN201980012730.4A CN111699499B (zh) | 2018-03-14 | 2019-03-13 | 检查、图像识别、识别器生成系统及学习数据生成装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018047292A JP6766839B2 (ja) | 2018-03-14 | 2018-03-14 | 検査システム、画像識別システム、識別システム、識別器生成システム、及び学習データ生成装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019159961A true JP2019159961A (ja) | 2019-09-19 |
JP6766839B2 JP6766839B2 (ja) | 2020-10-14 |
Family
ID=67907944
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018047292A Active JP6766839B2 (ja) | 2018-03-14 | 2018-03-14 | 検査システム、画像識別システム、識別システム、識別器生成システム、及び学習データ生成装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11715190B2 (ja) |
EP (1) | EP3767551A4 (ja) |
JP (1) | JP6766839B2 (ja) |
CN (1) | CN111699499B (ja) |
WO (1) | WO2019176993A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2021221030A1 (ja) * | 2020-04-27 | 2021-11-04 |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7349816B2 (ja) * | 2019-05-16 | 2023-09-25 | 株式会社キーエンス | 画像検査装置 |
JP7238610B2 (ja) * | 2019-06-04 | 2023-03-14 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置及びプログラム |
JP7334478B2 (ja) * | 2019-06-04 | 2023-08-29 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置及びプログラム |
JP7289448B2 (ja) * | 2019-06-11 | 2023-06-12 | 株式会社イシダ | 物品識別システム及び物品識別システムを備えた会計処理システム |
KR20190087351A (ko) * | 2019-07-05 | 2019-07-24 | 엘지전자 주식회사 | 머신 러닝 시스템, 방법 및 장치 |
JPWO2021075072A1 (ja) * | 2019-10-16 | 2021-04-22 | ||
JP7297705B2 (ja) * | 2020-03-18 | 2023-06-26 | 株式会社東芝 | 処理装置、処理方法、学習装置およびプログラム |
KR20220046925A (ko) * | 2020-10-08 | 2022-04-15 | 삼성에스디에스 주식회사 | 딥러닝 모델 성능 평가 장치 및 방법 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015191426A (ja) * | 2014-03-28 | 2015-11-02 | セコム株式会社 | 学習データ生成装置 |
JP2017168057A (ja) * | 2016-03-18 | 2017-09-21 | 株式会社Spectee | 画像分類装置、画像分類システム及び画像分類方法 |
JP2017211259A (ja) * | 2016-05-25 | 2017-11-30 | 株式会社シーイーシー | 検査装置、検査方法、及びプログラム |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011192032A (ja) * | 2010-03-15 | 2011-09-29 | Nippon Steel Corp | 疵学習装置、疵学習方法、及びコンピュータプログラム |
JP2012026982A (ja) * | 2010-07-27 | 2012-02-09 | Panasonic Electric Works Sunx Co Ltd | 検査装置 |
JP6208552B2 (ja) | 2013-11-14 | 2017-10-04 | 株式会社デンソーアイティーラボラトリ | 識別器、識別プログラム、及び識別方法 |
US10431428B2 (en) * | 2014-01-10 | 2019-10-01 | Reno Technologies, Inc. | System for providing variable capacitance |
CA2952576C (en) | 2014-06-20 | 2022-07-26 | Miovision Technologies Incorporated | Machine learning platform for performing large scale data analytics |
CN105938558B (zh) | 2015-03-06 | 2021-02-09 | 松下知识产权经营株式会社 | 学习方法 |
CN106548127B (zh) | 2015-09-18 | 2022-11-04 | 松下电器(美国)知识产权公司 | 图像识别方法 |
US10706327B2 (en) * | 2016-08-03 | 2020-07-07 | Canon Kabushiki Kaisha | Information processing apparatus, information processing method, and storage medium |
US11379688B2 (en) * | 2017-03-16 | 2022-07-05 | Packsize Llc | Systems and methods for keypoint detection with convolutional neural networks |
CN106991439A (zh) | 2017-03-28 | 2017-07-28 | 南京天数信息科技有限公司 | 基于深度学习与迁移学习的图像识别方法 |
CN107451661A (zh) * | 2017-06-29 | 2017-12-08 | 西安电子科技大学 | 一种基于虚拟图像数据集的神经网络迁移学习方法 |
CN107563389A (zh) | 2017-09-11 | 2018-01-09 | 合肥工业大学 | 一种基于深度学习的农作物病害识别方法 |
CN107729948A (zh) | 2017-10-31 | 2018-02-23 | 京东方科技集团股份有限公司 | 图像处理方法及装置、计算机产品和存储介质 |
JP6924413B2 (ja) * | 2017-12-25 | 2021-08-25 | オムロン株式会社 | データ生成装置、データ生成方法及びデータ生成プログラム |
-
2018
- 2018-03-14 JP JP2018047292A patent/JP6766839B2/ja active Active
-
2019
- 2019-03-13 CN CN201980012730.4A patent/CN111699499B/zh active Active
- 2019-03-13 US US16/976,081 patent/US11715190B2/en active Active
- 2019-03-13 WO PCT/JP2019/010183 patent/WO2019176993A1/ja unknown
- 2019-03-13 EP EP19767411.2A patent/EP3767551A4/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015191426A (ja) * | 2014-03-28 | 2015-11-02 | セコム株式会社 | 学習データ生成装置 |
JP2017168057A (ja) * | 2016-03-18 | 2017-09-21 | 株式会社Spectee | 画像分類装置、画像分類システム及び画像分類方法 |
JP2017211259A (ja) * | 2016-05-25 | 2017-11-30 | 株式会社シーイーシー | 検査装置、検査方法、及びプログラム |
Non-Patent Citations (3)
Title |
---|
SALAMON, JUSTIN ET AL., DEEP CONVOLUTIONAL NEURAL NETWORKS AND DATA AUGMENTATION FOR ENVIRONMENTAL SOUND CLASSIFICATION, vol. Version 2, JPN7019001561, 28 November 2016 (2016-11-28), pages 1 - 5, ISSN: 0004267405 * |
TRAN, TOAN ET AL., A BAYESIAN DATA AUGMENTATION APPROACH FOR LEARNING DEEP MODELS, JPN7019001563, 29 October 2017 (2017-10-29), pages 1 - 10, ISSN: 0004267407 * |
UM T., TERRY ET AL.: "Data Augmentation of Wearable Sensor Data for Parkinson's Disease Monitoring using Convolutional Neu", PROCEEDINGS OF THE 19TH ACM INTERNATIONAL CONFERENCE ON MULTIMODAL INTERACTION, JPN7019001562, 13 November 2017 (2017-11-13), pages 216 - 220, ISSN: 0004267406 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2021221030A1 (ja) * | 2020-04-27 | 2021-11-04 | ||
WO2021221030A1 (ja) * | 2020-04-27 | 2021-11-04 | 株式会社リョーワ | 良否判定システム、良否判定方法、サーバ及びプログラム |
JP7049028B2 (ja) | 2020-04-27 | 2022-04-06 | 株式会社リョーワ | 良否判定システム及び良否判定方法 |
Also Published As
Publication number | Publication date |
---|---|
EP3767551A4 (en) | 2022-05-11 |
CN111699499A (zh) | 2020-09-22 |
CN111699499B (zh) | 2023-09-29 |
JP6766839B2 (ja) | 2020-10-14 |
US20200402221A1 (en) | 2020-12-24 |
US11715190B2 (en) | 2023-08-01 |
EP3767551A1 (en) | 2021-01-20 |
WO2019176993A1 (ja) | 2019-09-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2019176993A1 (ja) | 検査システム、画像識別システム、識別システム、識別器生成システム、及び学習データ生成装置 | |
US11341626B2 (en) | Method and apparatus for outputting information | |
US10997711B2 (en) | Appearance inspection device | |
WO2019176990A1 (ja) | 検査装置、画像識別装置、識別装置、検査方法、及び検査プログラム | |
JP7059883B2 (ja) | 学習装置、画像生成装置、学習方法、及び学習プログラム | |
JP2018190140A (ja) | 学習装置、学習方法、及び学習プログラム | |
CN110009614A (zh) | 用于输出信息的方法和装置 | |
WO2019176989A1 (ja) | 検査システム、識別システム、及び学習データ生成装置 | |
CN113095370A (zh) | 图像识别方法、装置、电子设备及存储介质 | |
CN115439694A (zh) | 一种基于深度学习的高精度点云补全方法及装置 | |
WO2019176988A1 (ja) | 検査システム、識別システム、及び識別器評価装置 | |
CN114862832A (zh) | 缺陷检测模型的优化方法、装置、设备及存储介质 | |
CN114616573A (zh) | 学习辅助装置、学习装置、学习辅助方法和学习辅助程序 | |
JP7059889B2 (ja) | 学習装置、画像生成装置、学習方法、及び学習プログラム | |
JP2019086473A (ja) | 学習プログラム、検出プログラム、学習方法、検出方法、学習装置および検出装置 | |
JP7070308B2 (ja) | 推定器生成装置、検査装置、推定器生成方法、及び推定器生成プログラム | |
US20220253735A1 (en) | Method for simulation assisted data generation and deep learning intelligence creation in non-destructive evaluation systems | |
JP2021135603A (ja) | 判定装置、モデル生成装置、判定方法及び判定プログラム | |
WO2022196433A1 (ja) | モデル生成装置、分類装置、データ生成装置、モデル生成方法、及びモデル生成プログラム | |
CN113779011B (zh) | 基于机器学习的数据修复方法、装置及计算机设备 | |
WO2023166776A1 (ja) | 外観分析システム、外観分析方法、及びプログラム | |
CN118038105A (zh) | 确定图像类别以及确定置信度阈值的方法和装置 | |
KR20220170658A (ko) | 합성곱 신경망 모델을 이용한 비전 불량 예측 방법 및 이를 수행하는 전자 장치 | |
CN117121052A (zh) | 图像判定装置、图像判定方法以及程序 | |
CN118038104A (zh) | 确定目标模型的方法、确定图像类别的方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200305 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200526 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200715 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200818 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200831 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6766839 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |