CN112907502B - 神经网络模型的训练装置和训练方法 - Google Patents
神经网络模型的训练装置和训练方法 Download PDFInfo
- Publication number
- CN112907502B CN112907502B CN201911389318.2A CN201911389318A CN112907502B CN 112907502 B CN112907502 B CN 112907502B CN 201911389318 A CN201911389318 A CN 201911389318A CN 112907502 B CN112907502 B CN 112907502B
- Authority
- CN
- China
- Prior art keywords
- neural network
- constraint
- solder mask
- training
- models
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012549 training Methods 0.000 title claims abstract description 131
- 238000003062 neural network model Methods 0.000 title claims abstract description 103
- 238000000034 method Methods 0.000 title claims abstract description 28
- 238000013473 artificial intelligence Methods 0.000 claims abstract description 18
- 229910000679 solder Inorganic materials 0.000 claims description 50
- 238000013528 artificial neural network Methods 0.000 claims description 27
- 230000002950 deficient Effects 0.000 claims description 16
- 238000013480 data collection Methods 0.000 claims description 15
- PCHJSUWPFVWCPO-UHFFFAOYSA-N gold Chemical compound [Au] PCHJSUWPFVWCPO-UHFFFAOYSA-N 0.000 claims description 12
- 229910052737 gold Inorganic materials 0.000 claims description 12
- 239000010931 gold Substances 0.000 claims description 12
- 238000007747 plating Methods 0.000 claims description 12
- 238000003860 storage Methods 0.000 claims description 11
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 claims description 7
- 229910052802 copper Inorganic materials 0.000 claims description 7
- 239000010949 copper Substances 0.000 claims description 7
- 230000003647 oxidation Effects 0.000 claims description 7
- 238000007254 oxidation reaction Methods 0.000 claims description 7
- 239000012535 impurity Substances 0.000 claims description 6
- 230000004044 response Effects 0.000 claims description 5
- 238000013135 deep learning Methods 0.000 claims description 4
- 239000002245 particle Substances 0.000 claims description 4
- 238000011161 development Methods 0.000 claims description 3
- 238000002845 discoloration Methods 0.000 claims description 3
- 238000004519 manufacturing process Methods 0.000 claims description 3
- 230000000306 recurrent effect Effects 0.000 claims description 3
- 239000004065 semiconductor Substances 0.000 claims description 3
- ATJFFYVFTNAWJD-UHFFFAOYSA-N Tin Chemical compound [Sn] ATJFFYVFTNAWJD-UHFFFAOYSA-N 0.000 claims 4
- 230000007547 defect Effects 0.000 description 16
- 238000009826 distribution Methods 0.000 description 5
- 238000007689 inspection Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000012216 screening Methods 0.000 description 4
- 230000003321 amplification Effects 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 238000003199 nucleic acid amplification method Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000011109 contamination Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000007598 dipping method Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000005476 soldering Methods 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013434 data augmentation Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 239000003755 preservative agent Substances 0.000 description 1
- 230000002335 preservative effect Effects 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 238000011179 visual inspection Methods 0.000 description 1
- 238000003466 welding Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/84—Systems specially adapted for particular applications
- G01N21/88—Investigating the presence of flaws or contamination
- G01N21/95—Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
- G01N21/956—Inspecting patterns on the surface of objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
- G06T7/001—Industrial image inspection using an image reference approach
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/84—Systems specially adapted for particular applications
- G01N21/88—Investigating the presence of flaws or contamination
- G01N21/8851—Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
- G01N2021/8883—Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges involving the calculation of gauges, generating models
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/84—Systems specially adapted for particular applications
- G01N21/88—Investigating the presence of flaws or contamination
- G01N21/95—Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
- G01N21/956—Inspecting patterns on the surface of objects
- G01N2021/95638—Inspecting patterns on the surface of objects for PCB's
- G01N2021/95646—Soldering
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N2201/00—Features of devices classified in G01N21/00
- G01N2201/12—Circuits of general importance; Signal processing
- G01N2201/129—Using chemometrical methods
- G01N2201/1296—Using chemometrical methods using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30141—Printed circuit board [PCB]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30148—Semiconductor; IC; Wafer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30152—Solder
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Quality & Reliability (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Chemical & Material Sciences (AREA)
- Analytical Chemistry (AREA)
- Biochemistry (AREA)
- Immunology (AREA)
- Pathology (AREA)
- Image Analysis (AREA)
Abstract
本公开提供了一种神经网络模型的训练装置和训练方法,其中训练方法包括:取得数据集合;根据数据集合完成多次人工智能模型训练以产生分别对应于多次人工智能模型训练的多个模型;根据第一限制条件从多个模型中选出第一模型集合;以及根据第二限制条件从第一模型集合中选出神经网络模型。
Description
技术领域
本公开是有关于一种神经网络模型的训练装置和训练方法。
背景技术
在产业应用人工智能进行自动光学检测(automated optical inspection,AOI)时,往往会因为训练数据中的瑕疵影像数量远小于正常影像数量而导致所训练出的神经网络的效能不佳。另一方面,当存在多个类别的瑕疵时,每种瑕疵影像的数量分布极不均衡也会导致所训练出的神经网络无法准确地辨识出各个类别的瑕疵。
现行神经网络的训练方法往往只依照单一限制条件来筛选适当的模型,例如,根据对应于验证数据集合(validation set)的最小错误率(error rate)来决定最佳的神经网络模型。这种训练方法并无法有效地解决上述之议题。据此,提出一种能从众多神经网络模型中筛选出最适当之神经网络模型的方法,是本领域人员致力的目标之一。
发明内容
本公开提出一种神经网络的训练装置和训练方法,可在训练数据集合中各类瑕疵影像的数量分布极不均衡时,通过多重限制条件筛选出最适合(例如:对各类别瑕疵之辨识的平均效能为最佳的)之模型以作为最终被使用的神经网络模型。
本公开的神经网络模型的训练装置,包括处理器、储存媒体以及收发器。储存媒体储存多个模块。处理器耦接储存媒体和收发器,并且存取和执行多个模块,其中多个模块包括数据收集模块以及训练模块。数据收集模块通过收发器取得数据集合。训练模块根据数据集合完成多次人工智能模型训练以产生分别对应于多次人工智能模型训练的多个模型,根据第一限制条件从多个模型中选出第一模型集合,并且根据第二限制条件从第一模型集合中选出神经网络模型。
本公开的神经网络模型的训练方法,包括:取得数据集合;根据数据集合完成多次人工智能模型训练以产生分别对应于多次人工智能模型训练的多个模型;根据第一限制条件从多个模型中选出第一模型集合;以及根据第二限制条件从第一模型集合中选出神经网络模型。
基于上述,当数据集各类影像的数量分布极不均衡时,通过本公开提出的多重限制条件筛选方法所筛选出的模型的辨识效能将比仅依照单一限制条件筛选而得到模型的辨识效能为佳。
附图说明
图1为根据本公开的一实施例绘示神经网络模型的训练装置的示意图。
图2为根据本公开的一实施例绘示神经网络模型的训练方法的流程图。
附图标记说明
100:训练装置
110:处理器
120:储存媒体
121:数据收集模块
122:训练模块
130:收发器
140:图形用户界面
S201、S202、S203、S204:步骤
具体实施方式
为使本公开的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本公开进一步详细说明。
现将详细参考本公开的实施例,并在图式中说明所述实施例的实例。另外,凡可能之处,在图式及实施方式中使用相同标号的组件/构件代表相同或类似部分。
本公开提出一种神经网络的训练装置和训练方法,可在训练数据集合中各类瑕疵影像的数量分布极不均衡时,通过多重限制条件筛选出最适合(例如:对各类别瑕疵的辨识的平均效能为最佳的)的模型以作为最终被使用的神经网络模型。
图1为根据本公开的一实施例绘示神经网络模型的训练装置100的示意图。训练装置100可包括处理器110、储存媒体120以及收发器130。在一实施例中,训练装置100还包括图形用户界面140。
处理器110耦接储存媒体120和收发器130,并可用于存取和执行储存于储存媒体120中的多个模块。处理器110例如是中央处理单元(central processing unit,CPU),或是其他可程序化之一般用途或特殊用途的微控制单元(micro control unit,MCU)、微处理器(microprocessor)、数字信号处理器(digital signal processor,DSP)、可程序化控制器、特殊应用集成电路(application specific integrated circuit,ASIC)、图形处理器(graphics processing unit,GPU)、算数逻辑单元(arithmetic logic unit,ALU)、复杂可程序逻辑装置(complex programmable logic device,CPLD)、现场可程序化逻辑门阵列(field programmable gate array,FPGA)或其他类似组件或上述组件的组合。
储存媒体120例如是任何型态的固定式或可移动式的随机存取内存(randomaccess memory,RAM)、只读存储器(read-only memory,ROM)、闪存(flash memory)、硬盘(hard disk drive,HDD)、缓存器(register)、固态硬盘(solid state drive,SSD)或类似组件或上述组件的组合,而用于储存可由处理器110执行的多个模块或各种应用程序。在本实施例中,储存媒体120可储存包括数据收集模块121以及训练模块122等多个模块,其功能将于后续说明。
收发器130以无线或有线的方式传送及接收讯号。收发器130还可以执行例如低噪声放大、阻抗匹配、混频、向上或向下频率转换、滤波、放大以及类似的操作。
图形用户界面140是自用户接收操作并且产生对应于所述操作的命令的输入设备。在产生命令后,图形用户界面140可传送命令至处理器110。
在本实施例中,数据收集模块121可通过收发器130取得用以训练神经网络模型的数据集合。在取得数据集合后,训练模块122可根据数据集合完成多次人工智能模型训练,其中一次人工智能模型训练例如是代表训练人工智能模型的过程中的一次迭代(iteration)。具体来说,训练模块122可将数据集合作为训练数据,以根据神经网络算法(或机器学习算法)和训练数据完成一次又一次的迭代,从而使得每一次迭代的输出往一目标函数逐渐收敛。当每完成一次迭代时,训练模块122将可产生对应于该次迭代的模型。举例来说,若训练模块122将由数据收集模块121取得的数据集合作为训练数据并根据训练数据以及神经网络算法完成了10^6次的迭代,则训练模块122将会产生分别对应于每一次迭代的10^6个模型。训练模块122可从这些模型(即:10^6个模型)之中选出效能最佳(例如:具有最小的错误率)的模型以作为神经网络模型。在一实施例中,训练模块122可通过收发器130将该神经网络模型输出以供用户利用该神经网络模型进行对象辨识。
举例来说,训练模块122所输出的神经网络模型可用以辨识印刷电路板(printedwire board,PCB)或半导体制造晶圆(例如:动态随机存取内存(dynamic random accessmemory,DRAM))的外观瑕疵。据此,作为训练数据的数据集合可例如是由自动光学检测(automated optical inspection,AOI)设备取得的待检测之DRAM或晶圆之外观的影像数据,或是由自动外观检测(automated visual inspection,AVI)设备取得的印刷电路板之外观的影像数据,本公开不限于此。另一方面,上述的神经网络模型包括例如是自编码(autoencoder)神经网络、深度学习(deep learning)神经网络、深度残差学习(deepresidual learning)神经网络、受限玻尔兹曼机(Boltzmann machine,RBM)神经网络、递归神经网络(recursive neural network)或多层感知器(multilayer perceptron,MLP)神经网络等,本公开不限于此。
训练模块122可通过多个限制条件来从分别对应于每一次迭代的多个模型之中选出特定模型以作为神经网络模型。在一实施例中,训练模块122可根据两种限制条件(以下称之为“限制条件A”和“限制条件B”)来选择作为神经网络模型的模型。具体来说,训练模块122可根据限制条件A(或称之为“第一限制条件”)从分别对应于每一次迭代的多个模型之中选出第一模型集合,其中第一模型集合包括一或多个符合限制条件A的第一模型。接着,训练模块122可根据限制条件B从第一模型集合中选出符合限制条件A和限制条件B(或称之为“第二限制条件”)的特定模型以作为最终被使用的神经网络模型,其中上述的限制条件A和限制条件B例如关联于下列的至少其中之一:真阴性率(true negative rate,TNR)、真阳性率(true positive rate,TPR)、伪阴性率(false negative rate,FNR)、伪阳性率(falsepositive rate,FPR)、最小错误率(minimum error rate)、平均错误率(average errorrate)、召回率(recall rate)或准确性(accuracy),但本公开不限于此。举例来说,限制条件A和限制条件B可关联于与混淆矩阵(confusion matrix)相关的任一种指标。
由于符合限制条件A的模型可能有多个,因此,由训练模块122根据限制条件A选出的第一模型集合包括多个符合限制条件A的第一模型。为了找出最佳的模型以作为最终被使用的神经网络模型,在一实施例中,训练模块122可根据限制条件B而从第一模型集合(即:符合限制条件A的模型的集合)中选出对应于目标条件的特定模型以作为最终被使用的神经网络模型。举例来说,假设目标函数为TNR,则训练模块122可从第一模型集合中选出具有最大的TNR的特定模型以作为最终被使用的神经网络模型。
在另一实施例中,训练模块122可根据限制条件B而从第一模型集合(即:符合限制条件A的模型的集合)中选出与符合限制条件B的最后一次的迭代相对应的模型以作为最终被使用的神经网络模型。举例来说,假设第一模型集合包括对应于第10^4次迭代的模型X、对应于第10^5次迭代的模型Y以及对应于第10^6次迭代的模型Z,则训练模块122可响应于模型Z对应于最后一次的迭代而选择模型Z以作为最终使用的神经网络模型。
训练装置100还可以根据超过两种限制条件来训练神经网络模型。在一实施例中,训练模块122可根据三种限制条件(以下称之为“限制条件X”、“限制条件Y”和“限制条件Z”)来选择作为神经网络模型的模型。具体来说,训练模块122可根据限制条件X(或称之为“第一限制条件”)从分别对应于每一次迭代的多个模型之中选出第一模型集合,其中第一模型集合包括一或多个符合限制条件X的第一模型。接着,训练模块122可根据限制条件Y(或称之为“第三限制条件”)从第一模型集合中选出第二模型集合,其中第二模型集合包括一或多个符合限制条件X和限制条件Y的第二模型。最后,训练模块122可根据限制条件Z(或称之为“第二限制条件”)从第二模型集合中选出符合限制条件X、限制条件Y和限制条件Z的特定模型以作为最终被使用的神经网络模型。
训练模块122用来筛选模型所使用的限制条件类别和限制条件数量可根据使用者的需求而调整,本公开不限于此。
在一实施例中,数据收集模块121通过收发器130取得关联于PCB的外观的影像数据集合,并且训练模块122根据影像数据集合来训练出可用于辨识PCB之焊接瑕疵的神经网络模型。表1显示上述的关联于PCB的外观的影像数据集合中的焊接瑕疵样本和正常样本的数量。
表1
由表1可知,PCB外观的影像数据集合中对应于焊接瑕疵的样本远少于正常的样本。如此,若根据传统的神经网络训练方法,即以单一限制条件来训练神经网络模型,所训练出的神经网络模型的效能可能不均衡。举例来说,表2和表3显示基于单一种限制条件“最小错误率”而根据表1的训练数据所训练出的神经网络模型的效能。当用户使用如表1所示的验证数据来验证该神经网络模型时,该神经网络模型的效能如表2所示。当用户使用如表1所示的测试数据来测试该神经网络模型时,则该神经网络模型的效能如表3所示。
表2
表3
一般来说,TNR的值越高代表神经网络模型的效能越高,并且FNR的值越低代表神经网络模型的效能越高。如表2和表3所示,基于单一限制条件“最小错误率”以及表1的训练数据所训练的神经网络模型的TNR可能达到100%,但相对地,该神经网络模型的FNR可能达到40%。换句话说,该神经网络模型的TNR表现极佳,但该神经网络模型的FNR表现极差。因此,该神经网络模型对TNR和FNR的表现并不均衡。
在一实施例中,若瑕疵样本(例如:焊接瑕疵样本)和正常样本的数量分布差异过大,即,瑕疵样本的数量远少于正常样本的数量,则数据收集模块121可对由数据收集模块121所收集的数据集合(包括瑕疵样本和正常样本)中的瑕疵样本进行前处理,例如:过采样(over-sampling)、数据合成、SMOTE(synthetic minority oversampling technique)、随机抽样或数据扩增等方式增加训练数据量,以根据过采样后的瑕疵样本和正常样本产生更新的数据集合。具体来说,数据收集模块121可响应于瑕疵样本和正常样本的比率小于阈值而对瑕疵样本的训练数据进行过采样,从而产生更新的数据集合。训练模块122可根据更新的数据集合训练神经网络模型。表4和表5显示对表1的焊接瑕疵样本进行过采样后,基于单一种限制条件“最小错误率”而根据如表1所示的训练数据所训练出的神经网络模型的效能。
表4
表5
如表4和表5所示,过采样的技术虽然有效地降低了FNR,但却使得总体准确率(overall accuracy)下降并使得总体错误率(overall error rate)升高。
为了改善神经网络模型的整体效能(例如包括:总体准确率、总体错误率、FNR和TNR),本公开提出的训练装置100可选择性地对数据集合中的瑕疵样本进行前处理,所述前处理例如包括:过采样、数据合成、SMOTE、随机抽样或数据扩增。而后,训练装置100可根据多个限制条件选择出能改善整体效能的神经网络模型。在本实施例中,所述多个限制条件可包括限制条件α(或称之为“第一限制条件”)和限制条件β(或称之为“第三限制条件”)。在一实施例中,所述多个限制条件还可包括限制条件γ(或称之为“第二限制条件”)。
限制条件α为“TNR大于95%”,并且限制条件β为“FNR的值为最小”。举例来说,训练模块122可根据限制条件α从分别对应于每一次迭代的多个模型中选出第一模型集合,其中第一模型集合是由TNR大于95%的多个模型所组成。接着,训练模块122可根据限制条件β从第一模型集合(即:该些符合限制条件A的多个模型)中选出具有最小的FNR的模型以作为最终被使用的神经网络模型。
由于符合限制条件α和限制条件β的模型可能有多个,因此,由训练模块122根据限制条件β从第一模型集合选出的第二模型集合可包括多个符合限制条件α(即:TNR大于95%)以及限制条件β(即:具有最小的FNR)的第二模型。为了找出最佳的模型以作为最终被使用的神经网络模型,训练模块122可进一步地根据另一个限制条件来对第二模型集合中的模型进行筛选以找出最终被使用的神经网络模型。在一实施例中,训练模块122可根据限制条件γ或一目标条件而从第二模型集合(即:符合限制条件α和限制条件β的模型的集合)中选出对应于限制条件γ或目标条件的特定模型以作为最终被使用的神经网络模型。举例来说,假设目标条件为TNR,则训练模块122可从第二模型集合中选出具有最大的TNR的特定模型以作为最终被使用的神经网络模型,且该神经网络模型的效能可如表6和表7所示。
表6
表7
如表6和表7所示,基于多个限制条件(即:限制条件α“TNR大于95%”、限制条件β“具有最小的FNR”以及限制条件γ“具有最大的TNR”)所取得的神经网络模型的TNR虽然稍微减少了(相较于表2和表3而言),但该神经网络模型的FNR却显著地下降,且总体准确率和总体错误率的表现也十分的优异。换言之,本公开的训练装置100所训练出的神经网络模型可通过牺牲极少的TNR来达到最佳的FNR、总体准确率和总体错误率。
在另一实施例中,训练模块122可根据限制条件γ而从第二模型集合(即:符合限制条件α和限制条件β的模型的集合)中选出与符合限制条件γ的迭代中的的最后一次迭代相对应的模型以作为最终被使用的神经网络模型。举例来说,假设第二模型集合包括对应于第10^4次迭代的模型I、对应于第10^5次迭代的模型J以及对应于第10^6次迭代的模型K,则训练模块可响应于模型K对应于最后一次的迭代而选择模型K以作为最终使用的神经网络模型。
在一实施例中,数据收集模块121通过收发器130取得关联于PCB之外观的影像数据集合,并且训练模块122根据影像数据集合来训练出可用于辨识PCB之外观瑕疵类别的神经网络模型。表8显示上述的关联于PCB之外观的影像数据集合中的各类型瑕疵之样本的数量,其中所述各类型瑕疵可关联于例如防焊(solder mask,S/M)杂质(inclusion)、防焊刮伤(scratch of S/M)、防焊污染(pollution of S/M)、防焊露铜(copper exposure ofS/M)、防焊油墨不均(uneven printing ofS/M)、防焊跳印(skip printing ofS/M)、显影不良(poor developing)、防焊板损(board damage ofS/M)、防焊沾锡(wetting of S/M)、焊垫有机保焊膜(organic solderability preservative,OSP)杂质、焊垫有机保焊膜氧化(oxidation of S/M OSP)、焊垫镀金层污染(pollution ofPAD gold plating)、焊垫镀金层氧化(oxidation of PAD gold plating)、焊垫镀金层露铜(cooper exposure of PADgold plating)、文字模糊(blur text)或焊垫沾锡(wetting of PAD),但本公开不限于此。
表8
表9显示对表8中样本数量较少的瑕疵类别进行过采样后,基于单一种限制条件“最小错误率”而根据表8的训练数据所训练出的神经网络模型的效能。如表9所示,对应表9的神经网络模型的平均误差偏高(超过5%),且错误率超过10%的瑕疵类别的数量偏多(超过4种瑕疵类别)。
表9
为了改善神经网络模型的整体效能(例如:降低平均误差和错误率超过10%的瑕疵类别的数量),本公开提出的训练装置100可选择性地对数据集合中的瑕疵样本进行过采样。而后,训练装置100可根据多个限制条件选择出能改善整体效能的神经网络模型。在本实施例中,所述多个限制条件包括限制条件α和限制条件β,其中限制条件α为“总体准确率大于95%”,并且限制条件β为“平均误差为最小”。举例来说,训练模块122可根据限制条件α从分别对应于每一次迭代的多个模型中选出第一模型集合,其中第一模型集合是由总体准确率大于95%的多个模型所组成。接着,训练模块122可根据限制条件β从第一模型集合(即:该些符合限制条件α的多个模型)中选出具有最小的平均误差的模型以作为最终被使用的神经网络模型。由于符合限制条件β的模型可能有多个,因此,由训练模块122根据限制条件β从第一模型集合选出第二模型集合可包括多个符合限制条件α(即:总体准确率大于95%)以及限制条件β(即:具有最小的平均误差)的模型。
为了找出最佳的特定模型,训练模块122可进一步地根据限制条件γ来对第二模型集合中的模型进行筛选。在一实施例中,训练模块122可根据限制条件γ而从第二模型集合中选出对应于目标条件的特定模型以作为最终被使用的神经网络模型。举例来说,假设目标条件为总体准确率,则训练模块122可从第二模型集合中选出具有最大的总体准确率的特定模型以作为最终被使用的神经网络模型,且该神经网络模型的效能如表10所示。由表10可知,“平均误差”和“错误率超过10%的瑕疵类别的数量”等指标都被改善了。
表10
在一实施例中,数据收集模块121通过收发器130取得关联于DRAM之外观的影像数据集合,并且训练模块122根据影像数据集合来训练出可用于辨识DRAM之外观瑕疵类别的神经网络模型。表11、表12和表13显示上述的关联于DRAM之外观的影像数据集合中的各类型瑕疵的样本的数量,其中所述各类型瑕疵可关联于例如刮伤(scratch)、箭影(arrow)、微粒(particle)或变色(discolor),但本公开不限于此。
表11
表12
表13
表14显示基于单一种限制条件“最小错误率”而根据表13的训练数据所训练出的神经网络模型的效能。如表14所示,对应表13的神经网络模型在辨识刮伤或箭影时的错误率都偏高。
表14
为了改善神经网络模型的整体效能(例如:辨识刮伤或箭影的错误率),本公开提出的训练装置100可选择性地对数据集合中的瑕疵样本进行过采样。而后,训练装置100可根据多个限制条件选择出能改善整体效能的神经网络模型。由于对DRAM的5种瑕疵而言,刮伤和箭影是最影响DRAM质量的瑕疵类别,因此在设定神经网络模型的筛选限制条件时,训练模块121可将限制条件(或目标条件)设为与特定类别的瑕疵(例如:刮伤或箭影)有关,且单一个限制条件可关联于多个瑕疵类别。
在本实施例中,限制条件α为“总体准确率大于95%”,并且限制条件β为“刮伤和箭影的错误率为最小”。举例来说,训练模块122可根据限制条件α从分别对应于每一次迭代的多个模型中选出第一模型集合,其中第一模型集合是由总体准确率大于95%的多个模型所组成。接着,训练模块122可根据限制条件β从第一模型集合(即:该些符合限制条件β的多个模型)中选出具有最小的刮伤错误率和箭影错误率的模型以作为最终被使用的神经网络模型。由于符合限制条件β的模型可能有多个,因此,由训练模块122根据限制条件β从第一模型集合选出第二模型集合可包括符合限制条件α(即:总体准确率大于95%)以及限制条件β(即:具有最小的刮伤错误率和箭影错误率)的多个模型。为了找出最佳的特定模型,训练模块122可进一步地根据限制条件γ来对第二模型集合中的模型进行筛选。
在一实施例中,训练模块122可根据限制条件γ而从第二模型集合中选出对应于目标条件的特定模型以作为最终被使用的神经网络模型。举例来说,假设目标函数为总体准确率,则训练模块122可从第二模型集合中选出具有最大的总体准确率的特定模型以作为最终被使用的神经网络模型,且该神经网络模型的效能如表15所示。
表15
如表14和表15所示,相较于根据单一种限制条件所训练出的神经网络模型,根据多种限制条件所训练出的神经网络模型显著地改善了总体错误率、对刮伤类别的错误率以及对箭影类别的错误率。
图2为根据本公开的一实施例绘示神经网络模型的训练方法的流程图,其中该训练方法可由如图1所示的训练装置100实施。在步骤S201,取得数据集合。在步骤S202,根据数据集合完成多次人工智能模型训练以产生分别对应于多次人工智能模型训练的多个模型。在步骤S203,根据第一限制条件从多个模型中选出第一模型集合。在步骤S204,根据第二限制条件从第一模型集合中选出神经网络模型。
在一实施例中,本公开中提到的任何限制条件可由外部电子装置所产生。处理器110可通过收发器130以从外部电子装置取得限制条件。
在一实施例中,本公开中提到的任何限制条件可由用户的操作而产生。举例来说,用户可在图形用户界面140上进行操作,并且图形用户界面140可产生与所述操作相对应的限制条件。在产生限制条件后,图形用户界面140可将所述限制条件传送至处理器110。
综上所述,本公开的训练装置可利用多种限制条件来从分别对应于多个迭代的多个模型之中,选出能满足应用需求及改善辨识效能的各种指标(例如:与混淆矩阵相关的任一种指针)的模型以作为最终被使用的神经网络模型。
以上所述的具体实施例,对本公开的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本公开的具体实施例而已,并不用于限制本公开,凡在本公开的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本公开的保护范围之内。
Claims (16)
1.一种神经网络模型的训练装置,包括:
收发器;
储存媒体,储存多个模块;以及
处理器,耦接所述储存媒体和所述收发器,并且存取和执行所述多个模块,其中所述多个模块包括:
数据收集模块,通过所述收发器接收瑕疵样本和正常样本,并且对所述瑕疵样本进行过采样以根据过采样后的所述瑕疵样本和所述正常样本产生数据集合,所述数据收集模块响应于所述瑕疵样本和所述正常样本的比率小于阈值而对所述瑕疵样本进行过采样;以及
训练模块,根据所述数据集合完成多次人工智能模型训练以产生分别对应于所述多次人工智能模型训练的多个模型,根据第一限制条件从所述多个模型中选出第一模型集合,并且根据第二限制条件从所述第一模型集合中选出所述神经网络模型;其中,所述第一限制条件和所述第二限制条件分别关联于下列的至少其中之一:真阴性率、真阳性率、伪阴性率、伪阳性率、最小错误率、平均错误率、召回率或准确率。
2.根据权利要求1所述的训练装置,其中所述训练模块根据第三限制条件从所述第一模型集合中选出第二模型集合,并且根据所述第二限制条件从所述第二模型集合中选出所述神经网络模型。
3.根据权利要求1所述的训练装置,其中所述训练模块根据所述第二限制条件从所述第一模型集合中选出对应于目标条件的所述神经网络模型。
4.根据权利要求1所述的训练装置,其中所述训练模块根据所述第二限制条件从所述第一模型集合中选出与符合所述第二限制条件的人工智能模型训练的多次迭代中的最后一次迭代相对应的所述神经网络模型。
5.根据权利要求1所述的训练装置,其中所述神经网络模型包括自编码神经网络、深度学习神经网络、深度残差学习神经网络、受限玻尔兹曼机神经网络、递归神经网络或多层感知机神经网络。
6.根据权利要求1所述的训练装置,其中所述数据集合关联于印刷电路板的外观,并且所述瑕疵样本关联于下列的至少其中之一:防焊杂质、防焊刮伤、防焊污染、防焊露铜、防焊油墨不均、防焊跳印、显影不良、防焊板损、防焊沾锡、焊垫有机保焊膜杂质、焊垫有机保焊膜氧化、焊垫镀金层污染、焊垫镀金层氧化、焊垫镀金层露铜、文字模糊、焊垫沾锡或正常。
7.根据权利要求1所述的训练装置,其中所述数据集合关联于半导体制造晶圆的外观,并且所述瑕疵样本关联于下列的至少其中之一:刮伤、箭影、微粒、变色或正常。
8.根据权利要求1所述的训练装置,还包括:
图形用户界面,耦接所述处理器,其中所述处理器通过所述图形用户界面取得所述第一限制条件以及所述第二限制条件。
9.一种神经网络模型的训练方法,包括:
接收瑕疵样本和正常样本,并且对所述瑕疵样本进行过采样以根据过采样后的所述瑕疵样本和所述正常样本产生数据集合,数据收集模块响应于所述瑕疵样本和所述正常样本的比率小于阈值而对所述瑕疵样本进行过采样;
根据所述数据集合完成多次人工智能模型训练以产生分别对应于所述多次人工智能模型训练的多个模型;
根据第一限制条件从所述多个模型中选出第一模型集合;以及
根据第二限制条件从所述第一模型集合中选出所述神经网络模型;其中,所述第一限制条件和所述第二限制条件分别关联于下列的至少其中之一:真阴性率、真阳性率、伪阴性率、伪阳性率、最小错误率、平均错误率、召回率或准确率。
10.根据权利要求9所述的训练方法,其中根据所述第二限制条件从所述第一模型集合中选出所述第一模型以作为所述神经网络模型的步骤包括:
根据第三限制条件从所述第一模型集合中选出第二模型集合,并且根据所述第二限制条件从所述第二模型集合中选出所述神经网络模型。
11.根据权利要求9所述的训练方法,其中根据所述第二限制条件从所述第一模型集合中选出所述神经网络模型的步骤包括:
根据所述第二限制条件从所述第一模型集合中选出对应于目标条件的所述神经网络模型。
12.根据权利要求9所述的训练方法,其中根据所述第二限制条件从所述第一模型集合中选出所述神经网络模型的步骤包括:
根据所述第二限制条件从所述第一模型集合中选出与符合所述第二限制条件的人工智能模型训练的多次迭代中的最后一次迭代相对应的所述神经网络模型。
13.根据权利要求9所述的训练方法,其中所述神经网络模型包括自编码神经网络、深度学习神经网络、深度残差学习神经网络、受限玻尔兹曼机神经网络、递归神经网络或多层感知机神经网络。
14.根据权利要求9所述的训练方法,其中所述数据集合关联于印刷电路板的外观,并且所述瑕疵样本关联于下列的至少其中之一:防焊杂质、防焊刮伤、防焊污染、防焊露铜、防焊油墨不均、防焊跳印、显影不良、防焊板损、防焊沾锡、焊垫有机保焊膜杂质、焊垫有机保焊膜氧化、焊垫镀金层污染、焊垫镀金层氧化、焊垫镀金层露铜、文字模糊、焊垫沾锡或正常。
15.根据权利要求9所述的训练方法,其中所述数据集合关联于半导体制造晶圆的外观,并且所述瑕疵样本关联于下列的至少其中之一:刮伤、箭影、微粒、变色或正常。
16.根据权利要求9所述的训练方法,还包括:
通过图形用户界面取得所述第一限制条件以及所述第二限制条件。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW108144234 | 2019-12-04 | ||
TW108144234A TWI732370B (zh) | 2019-12-04 | 2019-12-04 | 神經網路模型的訓練裝置和訓練方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112907502A CN112907502A (zh) | 2021-06-04 |
CN112907502B true CN112907502B (zh) | 2024-06-04 |
Family
ID=76110884
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911389318.2A Active CN112907502B (zh) | 2019-12-04 | 2019-12-27 | 神经网络模型的训练装置和训练方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11636336B2 (zh) |
CN (1) | CN112907502B (zh) |
TW (1) | TWI732370B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11580450B2 (en) * | 2020-01-16 | 2023-02-14 | Palo Alto Research Center Incorporated | System and method for efficiently managing large datasets for training an AI model |
US11687808B2 (en) * | 2020-09-03 | 2023-06-27 | International Business Machines Corporation | Artificial intelligence explaining for natural language processing |
US20220324060A1 (en) * | 2021-04-12 | 2022-10-13 | Branson Ultrasonics Corporation | Using Analytics And Algorithms To Predict Weld Quality |
CN113284141A (zh) * | 2021-07-09 | 2021-08-20 | 武汉精创电子技术有限公司 | 用于缺陷检测的模型确定方法、装置和设备 |
US20230195071A1 (en) * | 2021-12-17 | 2023-06-22 | Applied Materials, Inc. | Methods and mechanisms for generating a data collection plan for a semiconductor manufacturing system |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102647292A (zh) * | 2012-03-20 | 2012-08-22 | 北京大学 | 一种基于半监督神经网络模型的入侵检测方法 |
CN108171256A (zh) * | 2017-11-27 | 2018-06-15 | 深圳市深网视界科技有限公司 | 人脸图像质评模型构建、筛选、识别方法及设备和介质 |
CN110188331A (zh) * | 2019-06-03 | 2019-08-30 | 腾讯科技(深圳)有限公司 | 模型训练方法、对话系统评价方法、装置、设备及存储介质 |
CN110363293A (zh) * | 2018-03-26 | 2019-10-22 | 腾讯科技(深圳)有限公司 | 神经网络模型的训练、延时摄影视频的生成方法及设备 |
Family Cites Families (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030033587A1 (en) * | 2001-09-05 | 2003-02-13 | Bruce Ferguson | System and method for on-line training of a non-linear model for use in electronic commerce |
US7152051B1 (en) * | 2002-09-30 | 2006-12-19 | Michael Lamport Commons | Intelligent control with hierarchical stacked neural networks |
WO2007147166A2 (en) | 2006-06-16 | 2007-12-21 | Quantum Leap Research, Inc. | Consilence of data-mining |
US8065244B2 (en) | 2007-03-14 | 2011-11-22 | Halliburton Energy Services, Inc. | Neural-network based surrogate model construction methods and applications thereof |
WO2009020687A2 (en) | 2007-05-18 | 2009-02-12 | Henry Ford Health System | Mri estimation of contrast agent concentration using a neural network approach |
US8214308B2 (en) | 2007-10-23 | 2012-07-03 | Sas Institute Inc. | Computer-implemented systems and methods for updating predictive models |
US20110231256A1 (en) | 2009-07-25 | 2011-09-22 | Kindsight, Inc. | Automated building of a model for behavioral targeting |
US10169715B2 (en) | 2014-06-30 | 2019-01-01 | Amazon Technologies, Inc. | Feature processing tradeoff management |
CN105205504B (zh) | 2015-10-04 | 2018-09-18 | 北京航空航天大学 | 一种基于数据驱动的图像关注区域质量评价指标学习方法 |
US10831444B2 (en) * | 2016-04-04 | 2020-11-10 | Technion Research & Development Foundation Limited | Quantized neural network training and inference |
WO2018053604A1 (en) | 2016-09-26 | 2018-03-29 | The University Of Queensland | A method and apparatus for automatic disease state diagnosis |
AU2017362569B2 (en) | 2016-11-18 | 2020-08-06 | Nant Holdings Ip, Llc | Methods and systems for predicting DNA accessibility in the pan-cancer genome |
CN111095308A (zh) | 2017-05-14 | 2020-05-01 | 数字推理系统有限公司 | 用于快速构建、管理和共享机器学习模型的系统和方法 |
US11720813B2 (en) * | 2017-09-29 | 2023-08-08 | Oracle International Corporation | Machine learning platform for dynamic model selection |
US11270187B2 (en) | 2017-11-07 | 2022-03-08 | Samsung Electronics Co., Ltd | Method and apparatus for learning low-precision neural network that combines weight quantization and activation quantization |
TWI649699B (zh) | 2017-11-28 | 2019-02-01 | 長庚醫療財團法人林口長庚紀念醫院 | A method for predicting the function of daily life of disabled person |
US10915631B2 (en) | 2017-12-28 | 2021-02-09 | Intel Corporation | Deep learning on execution trace data for exploit detection |
US20190205744A1 (en) * | 2017-12-29 | 2019-07-04 | Micron Technology, Inc. | Distributed Architecture for Enhancing Artificial Neural Network |
US10417528B2 (en) | 2018-02-18 | 2019-09-17 | Sas Institute Inc. | Analytic system for machine learning prediction model selection |
US10599951B2 (en) * | 2018-03-28 | 2020-03-24 | Kla-Tencor Corp. | Training a neural network for defect detection in low resolution images |
CN108595558B (zh) | 2018-04-12 | 2022-03-15 | 福建工程学院 | 一种数据均衡策略和多特征融合的图像标注方法 |
CN108712809B (zh) * | 2018-05-18 | 2019-12-03 | 浙江工业大学 | 一种基于神经网络的光环境智能控制方法 |
TWI667575B (zh) * | 2018-06-29 | 2019-08-01 | 由田新技股份有限公司 | 利用人工智慧的瑕疵檢測系統及其方法 |
US20200034665A1 (en) * | 2018-07-30 | 2020-01-30 | DataRobot, Inc. | Determining validity of machine learning algorithms for datasets |
CN109376615B (zh) | 2018-09-29 | 2020-12-18 | 苏州科达科技股份有限公司 | 用于提升深度学习网络预测性能的方法、装置及存储介质 |
CN110162799B (zh) * | 2018-11-28 | 2023-08-04 | 腾讯科技(深圳)有限公司 | 模型训练方法、机器翻译方法以及相关装置和设备 |
US12014530B2 (en) * | 2018-12-21 | 2024-06-18 | Hitachi High-Tech Corporation | Image recognition device and method |
US10963753B2 (en) * | 2019-01-28 | 2021-03-30 | Applied Materials, Inc. | Automated image measurement for process development and optimization |
US10963990B2 (en) * | 2019-01-28 | 2021-03-30 | Applied Materials, Inc. | Automated image measurement for process development and optimization |
US20220198336A1 (en) * | 2019-04-03 | 2022-06-23 | Telefonaktiebolaget Lm Ericsson (Publ) | Technique for Facilitating Use of Machine Learning Models |
CN110134947B (zh) | 2019-04-17 | 2021-03-26 | 中国科学院计算技术研究所 | 一种基于不平衡多源数据的情感分类方法及系统 |
US20210019662A1 (en) * | 2019-07-16 | 2021-01-21 | AIble Inc. | Analyzing Performance of Models Trained with Varying Constraints |
US11610076B2 (en) * | 2019-08-07 | 2023-03-21 | Applied Materials, Inc. | Automatic and adaptive fault detection and classification limits |
US11200659B2 (en) * | 2019-11-18 | 2021-12-14 | Stmicroelectronics (Rousset) Sas | Neural network training device, system and method |
-
2019
- 2019-12-04 TW TW108144234A patent/TWI732370B/zh active
- 2019-12-27 CN CN201911389318.2A patent/CN112907502B/zh active Active
- 2019-12-29 US US16/729,453 patent/US11636336B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102647292A (zh) * | 2012-03-20 | 2012-08-22 | 北京大学 | 一种基于半监督神经网络模型的入侵检测方法 |
CN108171256A (zh) * | 2017-11-27 | 2018-06-15 | 深圳市深网视界科技有限公司 | 人脸图像质评模型构建、筛选、识别方法及设备和介质 |
CN110363293A (zh) * | 2018-03-26 | 2019-10-22 | 腾讯科技(深圳)有限公司 | 神经网络模型的训练、延时摄影视频的生成方法及设备 |
CN110188331A (zh) * | 2019-06-03 | 2019-08-30 | 腾讯科技(深圳)有限公司 | 模型训练方法、对话系统评价方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN112907502A (zh) | 2021-06-04 |
TW202123100A (zh) | 2021-06-16 |
US11636336B2 (en) | 2023-04-25 |
TWI732370B (zh) | 2021-07-01 |
US20210174200A1 (en) | 2021-06-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112907502B (zh) | 神经网络模型的训练装置和训练方法 | |
US11748551B2 (en) | Optical mode optimization for wafer inspection | |
CN110992317B (zh) | 一种基于语义分割的pcb板缺陷检测方法 | |
CN110658198B (zh) | 光学检测方法、光学检测装置及光学检测系统 | |
CN110675370A (zh) | 一种基于深度学习的焊接模拟器虚拟焊缝缺陷检测方法 | |
CN109146847B (zh) | 一种基于半监督学习的晶圆图批量分析方法 | |
CN107004123A (zh) | 迭代式缺陷滤除工艺 | |
CN112651966A (zh) | 一种基于acyolov4_csp的印刷电路板微小缺陷检测方法 | |
CN110717881A (zh) | 晶圆缺陷识别方法、装置、存储介质和终端设备 | |
CN113628179B (zh) | 一种pcb表面缺陷实时检测方法、装置及可读介质 | |
CN111126433A (zh) | 一种工厂pcb板缺陷检测中正负样本数据平衡方法 | |
JPWO2019216303A1 (ja) | 検査装置、検査方法、学習方法、及びプログラム | |
CN114418980A (zh) | 印刷线路板缺陷识别的深度学习方法、系统、设备及介质 | |
TW201947453A (zh) | 自體免疫抗體免疫螢光影像型態識別方法 | |
TWI732296B (zh) | 依據標準值建立檢測模型以確認焊接狀態之系統及方法 | |
TW200537347A (en) | Combining multiple independent sources of information for classification of devices under test | |
CN117372402A (zh) | 一种焊缝缺陷检测方法、装置、计算机设备及存储介质 | |
JP7317647B2 (ja) | 学習装置、検査装置、学習方法および検査方法 | |
CN113052244B (zh) | 一种分类模型训练方法和一种分类模型训练装置 | |
CN113487550A (zh) | 一种基于改进激活函数的目标检测方法及装置 | |
WO2022031903A1 (en) | Deep learning model for noise reduction in low snr imaging conditions | |
CN108764314B (zh) | 一种结构化数据分类方法、装置、电子设备及存储介质 | |
CN113034432A (zh) | 一种产品缺陷检测方法、系统、装置及存储介质 | |
CN117194963B (zh) | 工业fdc质量根因分析方法、设备及存储介质 | |
CN117314909B (zh) | 基于人工智能的电路板缺陷检测方法、装置、设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |