CN114627076A - 一种联合主动学习和深度学习技术的工业检测方法 - Google Patents

一种联合主动学习和深度学习技术的工业检测方法 Download PDF

Info

Publication number
CN114627076A
CN114627076A CN202210251729.0A CN202210251729A CN114627076A CN 114627076 A CN114627076 A CN 114627076A CN 202210251729 A CN202210251729 A CN 202210251729A CN 114627076 A CN114627076 A CN 114627076A
Authority
CN
China
Prior art keywords
model
sample
active learning
detection method
yolov5
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210251729.0A
Other languages
English (en)
Inventor
杨进一
陈宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xiamen Weiya Intelligence Technology Co ltd
Original Assignee
Xiamen Weiya Intelligence Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xiamen Weiya Intelligence Technology Co ltd filed Critical Xiamen Weiya Intelligence Technology Co ltd
Priority to CN202210251729.0A priority Critical patent/CN114627076A/zh
Publication of CN114627076A publication Critical patent/CN114627076A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2155Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种联合主动学习和深度学习技术的工业检测方法,包括以下步骤:S1,构建主动学习模型,建立无标签数据池、有标签数据集;S2,进行样本选择,选择出无标签数据池中不确定性和多样性较高的样本并标注,完成有标签数据集的重构;S3,搭建yolov5目标检测模型;所述yolov5目标检测模型是在yolov5基础模型的骨干网络中嵌入注意力模块SA;S4,采用重构的有标签数据集对yolov5目标检测模型进行模型训练,在验证集上经过模型评估合格后,即获得yolov5网络模型,并实现模型上线部署。本发明模型训练过程中采用主动学习技术查询无标注数据集,择优挑选“最有价值”的样本,从而降低人工标注数量和成本。

Description

一种联合主动学习和深度学习技术的工业检测方法
技术领域
本发明属于工业缺陷检测领域,涉及计算机视觉技术在工业缺陷检测领域的应用,涉及图像数据标注选择和目标检测模型改进,尤其是一种联合主动学习和深度学习技术的工业检测方法。
背景技术
目前工业自动化缺陷检测产线存在的问题包括两方面:数据问题与模型自身检测性能问题。一方面,数据问题与深度学习技术出现对立现象,具体表现为:监督式的深度学习模型目前仍需要大量的数据样本,而工业自动化流水线的有缺陷数据标注需要专家经验,且标注量大、耗时费力,因此表现出有标注样本获取代价非常昂贵。另一方面,当前工业缺陷检测存在检出性能与节拍的对立,往往性能好的模型二阶段目标检测模型,其推理速度要慢于一阶段的目标检测模型,而一阶段的目标检测模型虽然速度较快,但是其检测精度受限。
如YOLOV5网络中具备的切图模块Focus、SPP特征金字塔模块、多尺度检测头输出等策略,可以有效地对目标对象高层和底层特征的表达,且网络中多处使用1*1卷积算子因此YOLOV5网络参数量较少,网络表现较为轻量。尽管YOLOV5网络结构在目标检测特征提取上表现良好,但由于其受限于卷积层的局部特征影响,难以有效抽取影像中的空间上下文信息,缺乏全局特征表达能力,因此在工业缺陷检测上仍存在部分精度上限。
因此目标检测网络在工业视觉检测存在精度和速度难以取舍,深度学习算法在工业缺陷自动检测上落地应用难,工业缺陷数据标注耗时、效率低,数据标注代价昂贵。
发明内容
本发明提供一种联合主动学习和深度学习技术的工业检测方法,以至少解决现有技术中工业缺陷数据标注量大、耗时、效率低,目标检测网络在工业视觉检测存在精度和速度难以取舍的问题。
本发明提供了一种联合主动学习和深度学习技术的工业检测方法,包括以下步骤:
S1,构建主动学习模型,建立无标签数据池、有标签数据集;
S2,进行样本选择,选择出无标签数据池中不确定性和多样性较高的样本并标注,完成有标签数据集的重构;
S3,搭建yolov5目标检测模型;所述yolov5目标检测模型是在yolov5基础模型的骨干网络中嵌入注意力模块;
S4,采用重构的有标签数据集对yolov5目标检测模型进行模型训练,经过在有标签的验证集上做模型评估后满足要求后,停止迭代训练,即获得yolov5网络模型,最终完成模型上线部署。
进一步地,所述注意力模块为SA注意力模块,将通道信息分成子模块。
更进一步地,所述SA注意力模块通过Shuffle Unit同时构建空间注意力和通道注意力。
更进一步地,所述SA模块放入骨干网络中除第一个残差组件以外的残差组件后面。
进一步地,所述样本选择,基于不确定性的启发式采样方法,查询出当前学习模型最难以确定其类别标签的样本。
更进一步地,所述主动学习模型采用熵率作为样本信息含量的依据。
更进一步地,所述熵率计算公式如下:
Figure BDA0003546949140000021
p(yj|xi)=1/(1+dxp(tij))
其中,p(y_j|x_i)表示任意一个样本x_i属于第j类的后验概率,m为类别数目,t_ij表示神经网络的分类头输出,熵率E越大表示样本的分类模糊度越大,其信息越丰富,对分类模型的性能提升越大。
更进一步地,样本选择还基于余弦角距离的样本间相似性度量准则。
更进一步地,所述余弦角距离度量公式如下:
Figure BDA0003546949140000022
式中,X=[x1,x2,......,xn-1,xn],Y=[y1,y2,......,yn-1,yn]分别为具有n维特征向量的样本,其两个向量间的余弦夹角值cos<X,Y>直接反映两向量间的相似性程度,且cos<X,Y>值的大小与相似程度成负相关关系。
更进一步地,所述样本选择为等权结合熵值和余弦相似度,按照等权的结果对无标签数据池中所有样本进行从小到大排序,基于排序结果选择前若干个样本进行标注。
本发明相对于现有技术,在模型训练过程中采用主动学习技术查询无标注数据集,择优挑选“最有价值”的样本,从而降低人工标注数量和成本;同时基于YOLOV5模型添加注意力模块,模型改进,提高检测模型的全局上下文语义信息表达能力,有效提升模型的检测性能,实现较低的漏杀和过杀目标。
附图说明
图1为本发明流程图;
图2为本发明改进的主动学习流程图;
图3为本发明中Shuffe Attention模块示意图;
图4为本发明添加SA模块的YOLOV5网络示意图
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。
本实施例公开的联合主动学习和深度学习技术的工业检测方法,如图1所示,所述方法包括以下步骤:
S1,构建主动学习模型,建立无标签数据池、有标签数据集;
S2,进行样本选择,选择出无标签数据池中不确定性和多样性较高的样本并标注,完成有标签数据集的重构;
S3,搭建yolov5目标检测模型;所述yolov5目标检测模型是在yolov5基础模型的骨干网络中嵌入注意力模块;
S4,采用重构的有标签数据集对yolov5目标检测模型进行模型训练,获得yolov5网络模型。
具体的,首先数据粗清洗,在大量无标签数据集合中剔除部分无目标区域的废图、切割划分过大的图像、不同色调的图像间彼此迁移增强;通过粗清洗后的数据,人工划分训练集合和验证集合,可选的训练与验证集合占比约为7:3。|
本实施例分别从数据标注和模型性能优化两方面出发,在数据标注方面引入主动学习技术,查询策略兼顾样本的不确定性和多样性。优选具有衡量模型性能的强代表性能力,“有价值”的样本,大大降低样本标注数量,降低人工标注成本,迅速提升模型性能。在检测模型优化方面,在yolov5基础模型的骨干网络中嵌入注意力模块,基于改进的YOLOV5模型可有效兼顾检测精度和检测速度。
优选的,所述样本选择,基于不确定性的启发式采样方法,查询出当前学习模型最难以确定其类别标签的样本。
其中,所述主动学习模型采用熵率作为样本信息含量的依据。
其中,样本选择还基于余弦角距离的样本间相似性度量准则。
具体的,主动学习的核心步骤是样本查询函数的设计,本发明提出的主动学习技术是基于不确定性的启发式采样方法,该方法的主要目的是查询出当前学习模型最难以确定其类别标签的样本,这样的样本被认为是最具模糊度以及最具信息量。
由于深度神经网络经过了软最大化SoftMax后验概率输出,因此本发明中的主动学习技术采用熵率作为样本信息含量的依据;尽管不确定采样策略选取的样本信息量大,但因每次挑选的多个样本距离分类面都较近,这些样本之间存在大量的信息冗余,对分类器模型的改善作用有限,同时不必要地增加了人工标注成本。为此,本实施例在度量样本模糊度方法的基础上,进一步改进样本选择策略,提出基于余弦角距离的样本间相似性度量准则。
如图2所示,本实施例先通过均值聚类算法对整个训练数据集进行聚类,取每个簇中距离质心最近的样本组成初始训练样本;然后根据目标检测模型度量无标签数据池中的样本信息熵及余弦距离,挖掘各未标记样本的不确定性和多样性中较高的样本,交给人工标注,完成有标签样本集的重构,最后基于此重构后的有标签样本集进行目标检测模型的训练,迭代以上样本查询、样本集合重构和模型训练步骤,直至模型性能达到工业生产线上的稳定生产要求。
本实施例中由于采用主动学习,根据既定准则或查询条件,识别模型在迭代训练过程中,从未标注样本集中选择最能提高模型性能的样本,主动反馈交由人工标注,因此迭代训练获得性能优异的分类或检测模型,可克服现有技术采用的监督式分类或目标检测模型训练样本获取代价昂贵的缺陷。
优选的,所述熵率计算公式如下:
Figure BDA0003546949140000041
p(yj|xi)=1/(1+exp(tij))
上式中,p(yj|xi)表示任意一个样本xi属于第j类的后验概率,m为类别数目,tij表示神经网络的分类头输出。熵率E越大表示样本的分类模糊度越大,其信息越丰富,对分类模型的性能提升越大。
优选的,所述余弦角距离度量公式如下:
Figure BDA0003546949140000042
式中,
Figure BDA0003546949140000043
分别为具有n维特征向量的样本,其两个向量间的余弦夹角值cos<X,Y>可直接反映两向量间的相似性程度,且cos<X,Y>值的大小与相似程度成负相关关系。
优选的,所述样本选择为等权结合熵值和余弦相似度,按照等权的结果对无标签数据池中所有样本进行从小到大排序,基于排序结果选择前num个样本进行标注。
本实施例综合考虑不确定性和多样性的主动学习过程如下:
输入:初始有标签训练集L,无标签样本池U,迭代样本数量num,验证集Val,模型迭代停止条件C
输出:已训练好的目标检测模型M
过程如下:
重复:
S11:利用L训练建立/更新检测模型M;
S12:用模型M预测得到U中各样本的后验概率,基于信息熵的启发方法计算出U中各样本的熵值大小E;
S13:利用上式中的余弦角距离计算方法,计算出U中各样本间的相似性程度D;
S14:等权结合熵值E和余弦相似度D,按照等权的结果对U中所有样本进行从小到大排序;
S15:基于S4排序结果选择前num个样本构成集合S,交给领域专家标注获取标签label,连同样本和标签构成数据集合V={S,label};
S16:更新训练集L和无标签样本池U:L=L∪V,U=U\V;
S17:评估Val,直到满足设置的迭代停止条件C时则停止,输出最终目标检测模型M。
优选的,所述注意力模块为SA注意力模块,将通道信息分成子模块。
如图3所示,本实施例提出一种改进的YOLOV5检测模型,在该网络模型中,引入即插即用的空间注意力机制Shuffe Attention模块。
SA的设计思想结合组卷积、空间注意力机制、通道注意力机制、ShuffleNetV2。该模块首先将tensor划分为g个组,每个组内部使用SA Unit进行处理。SA内部分为空间注意力机制以及通道注意力机制。SA Unit通过Concate的方式将组内部的信息进行融合。最后使用Channel Shuffle操作对组进行重排,不同组之间进行信息流通。因此该注意力模块可以有侧重点的关注有用的特征信息,抑制不重要的特征。
本实施例中组卷积是为了降低计算量;空间注意力机制使用GN实现;通道注意力机制类似SENet;ShuffleNetV2是使用Channel Shuffle融合不同组之间的信息。
优选的,所述SA注意力模块通过Shuffle Unit同时构建空间注意力和通道注意力。
具体的如图4所示,本实施例将Shuffe Attention模块嵌入到原始的骨干网络中,将其放在骨干中除第一个残差组件外的其它残差组件后面。主要是考虑到SA模块在通道数较多时其作用更加明显。可选的,本发明将SA模块放入骨干网络中的后三个残差组件,其余yolov5模型部分不做任何改变,在训练时可直接加载预训练的模型参数。
本实施例中使用SA模块将通道信息分成子模块。SA模块通过Shuffle Unit同时构建空间注意力和通道注意力。对于每个注意力子模块,在所有的位置设计了一种注意力机制mask来减小可能的噪声并强调正确的语义特征区域。通过以上方法改进yolov5网络,可以有效提取图像中的目标位置和空间上下文信息,从而明显提升目标的识别能力。在不引入过多参数的情况下,本实施例选取YOLOV5作为基准模型,并基于该模型添加通道和空间注意力机制,整体网络不仅轻量,而且提升目标检测网络的精度,提升工业缺陷的检出能力和泛化性能。
本发明在工业自动化缺陷检测中,从样本选择和特征工程两个角度出发,提出了一种联合主动学习和深度学习技术的检测方法。在样本选择方面,利用主动学习技术在训练模型的过程中择优挑选更具代表性和多样性的样本,有效降低人工标注的高昂时间和经济成本。在特征工程方面,以性能良好的yolov5为基础模型做改进,在骨干网络中嵌入SA注意力模块,在无明显参数量增加的情况下,有效提升了模型的空间上下文表达能力,使得缺陷检出率得到明显提高,误检率明显下降。
在一些实施例中,提供了一种计算机设备,包括存储器和处理器,存储器存储有计算机程序,计算机程序被处理器执行时,使得处理器执行上述产品缺陷检测数据处理方法的步骤。
在一些实施例中,提供了一种计算机可读存储介质,存储有计算机程序,计算机程序被处理器执行时,使得处理器执行上述产品缺陷检测数据处理方法的步骤。
应该理解的是,虽然本申请各实施例的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,各实施例中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
最后应当说明的是,以上实施例仅用以说明本发明的技术方案而非对其限制,尽管参照上述实施例对本发明进行了详细的说明,所属领域的普通技术人员应当理解,技术人员阅读本申请说明书后依然可以对本发明的具体实施方式进行修改或者等同替换,但这些修改或变更均未脱离本发明申请待批权利要求保护范围之内。

Claims (10)

1.一种联合主动学习和深度学习技术的工业检测方法,其特征在于,所述方法包括以下步骤:
S1,构建主动学习模型,建立无标签数据池、有标签数据集;
S2,进行样本选择,选择出无标签数据池中不确定性和多样性较高的样本并标注,完成有标签数据集的重构;
S3,搭建yolov5目标检测模型;所述yolov5目标检测模型是在yolov5基础模型的骨干网络中嵌入注意力模块;
S4,采用重构的有标签数据集对yolov5目标检测模型进行模型训练,获得yolov5网络模型。
2.根据权利要求1所述一种联合主动学习和深度学习技术的工业检测方法,其特征在于,所述注意力模块为SA注意力模块,将通道信息分成子模块。
3.根据权利要求2所述一种联合主动学习和深度学习技术的工业检测方法,其特征在于,所述SA注意力模块通过Shuffle Unit同时构建空间注意力和通道注意力。
4.根据权利要求3所述一种联合主动学习和深度学习技术的工业检测方法,其特征在于,所述SA模块放入骨干网络中除第一个残差组件以外的残差组件后面。
5.根据权利要求1所述一种联合主动学习和深度学习技术的工业检测方法,其特征在于,所述样本选择,基于不确定性的启发式采样方法,查询出当前学习模型最难以确定其类别标签的样本。
6.根据权利要求5所述一种联合主动学习和深度学习技术的工业检测方法,其特征在于,所述主动学习模型采用熵率作为样本信息含量的依据。
7.根据权利要求6所述一种联合主动学习和深度学习技术的工业检测方法,其特征在于,所述熵率计算公式如下:
Figure FDA0003546949130000011
p(yj|xi)=1/(1+exp(tij))
其中,p(y_j|x_i)表示任意一个样本x_i属于第j类的后验概率,m为类别数目,t_ij表示神经网络的分类头输出,熵率E越大表示样本的分类模糊度越大,其信息越丰富,对分类模型的性能提升越大。
8.根据权利要求7所述一种联合主动学习和深度学习技术的工业检测方法,其特征在于,样本选择还基于余弦角距离的样本间相似性度量准则。
9.根据权利要求8所述一种联合主动学习和深度学习技术的工业检测方法,其特征在于,所述余弦角距离度量公式如下:
Figure FDA0003546949130000021
式中,X=[x1,x2,......,xn-1,xn],Y=[y1,y2,......,yn-1,yn]分别为具有n维特征向量的样本,其两个向量间的余弦夹角值cos<X,Y>直接反映两向量间的相似性程度,且cos<X,Y>值的大小与相似程度成负相关关系。
10.根据权利要求9所述一种联合主动学习和深度学习技术的工业检测方法,其特征在于,所述样本选择为等权结合熵值和余弦相似度,按照等权的结果对无标签数据池中所有样本进行从小到大排序,基于排序结果选择前若干个样本进行标注。
CN202210251729.0A 2022-03-15 2022-03-15 一种联合主动学习和深度学习技术的工业检测方法 Pending CN114627076A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210251729.0A CN114627076A (zh) 2022-03-15 2022-03-15 一种联合主动学习和深度学习技术的工业检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210251729.0A CN114627076A (zh) 2022-03-15 2022-03-15 一种联合主动学习和深度学习技术的工业检测方法

Publications (1)

Publication Number Publication Date
CN114627076A true CN114627076A (zh) 2022-06-14

Family

ID=81901895

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210251729.0A Pending CN114627076A (zh) 2022-03-15 2022-03-15 一种联合主动学习和深度学习技术的工业检测方法

Country Status (1)

Country Link
CN (1) CN114627076A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116246756A (zh) * 2023-01-06 2023-06-09 北京医准智能科技有限公司 模型更新方法、装置、电子设备及介质

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116246756A (zh) * 2023-01-06 2023-06-09 北京医准智能科技有限公司 模型更新方法、装置、电子设备及介质
CN116246756B (zh) * 2023-01-06 2023-12-22 浙江医准智能科技有限公司 模型更新方法、装置、电子设备及介质

Similar Documents

Publication Publication Date Title
CN107885764B (zh) 基于多任务深度学习快速哈希车辆检索方法
CN110717534B (zh) 一种基于网络监督的目标分类和定位方法
CN112767997A (zh) 一种基于多尺度卷积注意力神经网络的蛋白质二级结构预测方法
CN107330074B (zh) 基于深度学习和哈希编码的图像检索方法
CN113190699A (zh) 一种基于类别级语义哈希的遥感图像检索方法及装置
CN110008899B (zh) 一种可见光遥感图像候选目标提取与分类方法
CN112699953A (zh) 基于多信息路径聚合的特征金字塔神经网络架构搜索方法
CN113159115B (zh) 基于神经架构搜索的车辆细粒度识别方法、系统和装置
CN113095229B (zh) 一种无监督域自适应行人重识别系统及方法
CN115422369B (zh) 基于改进TextRank的知识图谱补全方法和装置
CN112766170A (zh) 基于簇类无人机图像的自适应分割检测方法及装置
CN114627076A (zh) 一种联合主动学习和深度学习技术的工业检测方法
CN114997366A (zh) 基于图神经网络的蛋白质结构模型质量评估方法
CN116028878A (zh) 面向图像分类的多样化查询主动学习方法及装置
CN114298290A (zh) 一种基于自监督学习的神经网络编码方法及编码器
CN111079840B (zh) 基于卷积神经网络和概念格的图像语义完备标注方法
CN117475229A (zh) 一种应用于开放世界的目标检测模型构建和训练方法
CN117079051A (zh) 一种金相智能识别方法、装置及介质
CN115937616A (zh) 图像分类模型的训练方法、系统及移动终端
CN116662566A (zh) 一种基于对比学习机制的异质信息网络链路预测方法
CN116612382A (zh) 一种城市遥感图像目标检测方法和装置
CN113408546B (zh) 基于相互全局上下文注意力机制的单样本目标检测方法
CN115661540A (zh) 基于自适应图卷积的电力运检多标签图像识别方法及系统
Li et al. Building Manufacturing Deep Learning Models with Minimal and Imbalanced Training Data Using Domain Adaptation and Data Augmentation
CN115063628A (zh) 一种基于视觉语义分割的水果采摘预测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information
CB02 Change of applicant information

Address after: 361000 room 201a, Jinfeng Building, information photoelectric Park, Xiamen Torch hi tech Zone, Xiamen City, Fujian Province

Applicant after: Xiamen Weiya Intelligent Technology Co.,Ltd.

Address before: 361000 room 201a, Jinfeng Building, information photoelectric Park, Xiamen Torch hi tech Zone, Xiamen City, Fujian Province

Applicant before: XIAMEN WEIYA INTELLIGENCE TECHNOLOGY Co.,Ltd.