CN113420737A - 一种基于卷积神经网络的3d打印图形识别方法 - Google Patents
一种基于卷积神经网络的3d打印图形识别方法 Download PDFInfo
- Publication number
- CN113420737A CN113420737A CN202110969293.4A CN202110969293A CN113420737A CN 113420737 A CN113420737 A CN 113420737A CN 202110969293 A CN202110969293 A CN 202110969293A CN 113420737 A CN113420737 A CN 113420737A
- Authority
- CN
- China
- Prior art keywords
- feature extraction
- extraction model
- model
- label
- prediction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于卷积神经网络的3D打印图形识别方法,将同一对象的两个不同拍摄角度的图片分别输入第一特征提取模型、第二特征提取模型中并提取图像特征,并得到对应的预测标签,将得到的两个预测标签以及图片的原始预设标签分别输入到判别模型中得到识别结果;所述判别模型的损失值包括第一特征提取模型输出的预测标签与原始预设标签、第二特征提取模型输出的预测标签与原始预设标签以及第一特征提取模型输出的预测标签与第二特征提取模型输出的预测标签之间的损失值。本发明通过第一特征提取模型、第二特征提取模型有效提高了判别模型的精度,具有较好的实用性。
Description
技术领域
本发明属于3D打印的技术领域,具体涉及一种基于卷积神经网络的3D打印图形识别方法。
背景技术
上世纪八十年代,3D打印技术诞生了,并不仅限于传统的“去除”加工方法,而且3D打印是一种自下而上的制造方式,也称为增材制造技术,其实现了数学模型的建立。3D打印技术自诞生之日起就受到人们的广泛关注,因此获得了快速发展。近几十年来,3D打印技术已成为人们关注的焦点。3D打印技术在工业设计,建筑,汽车,航空航天,牙科,教育领域等都有应用,但是其应用和开发仍然受到因素的限制,除了仪器设备和印刷程序参数外,制件的外形检测也是影响3D打印产品质量的关键因素。
随着公司3D打印零件的增多,零件进行自动匹配变得越发重要,但是现有的零件匹配方式是获得某一零件的扫描数模后去跟全部数模进行一一比对,耗时很长。现有技术中无论是采用蓝光、光栅、3D反求技术等形式均是直接将整个数模与实际建模模型进行对比。这种对比方法数模处理量大。传统的对比方式相当于将理论数模与实际数模进行对比,而3D数模是由百万甚至千万个点构成的。这种数模对数模的对比方式相当于百万级的点与百万级的点分别比较,数据处理量极大,处理速度极慢。
发明内容
本发明的目的在于提供一种基于卷积神经网络的3D打印图形识别方法,旨在解决上述问题。本发明对图像提取特征,再以特定的特征来判断他所属的类别,例如可以根据图像的特征将对象划分到结构件、钣金件、管类零件中的任一种分类中。
本发明主要通过以下技术方案实现:
一种基于卷积神经网络的3D打印图形识别方法,包括以下步骤:
步骤S100:获取零件的拍摄图片;
步骤S200:构建网络模型,所述网络模型包括第一特征提取模型、第二特征提取模型、判别模型;
步骤S300:训练网络模型:将同一对象的两个不同拍摄角度的图片分别输入第一特征提取模型、第二特征提取模型中并提取图像特征,并得到对应的预测标签,将得到的两个预测标签以及图片的原始预设标签分别输入到判别模型中得到识别结果;所述判别模型的损失值包括第一特征提取模型输出的预测标签与原始预设标签、第二特征提取模型输出的预测标签与原始预设标签以及第一特征提取模型输出的预测标签与第二特征提取模型输出的预测标签之间的损失值;
将第一特征提取模型、第二特征提取模型提取的图像特征分别输入到判别模型中并得到两个图片的相似度差异,基于相似度差异与预设标签反向传播更新判别模型;
步骤S400:将待测图片输入步骤S300中训练之后的网络模型的第一特征提取模型或第二特征提取模型进行图像识别。
为了更好地实现本发明,进一步地,假设步骤S300中输入图像为{X1,X2},则对应标签为{Y1,Y2};第一特征提取模型旨在得到最为逼真的特征值,因此,需要在向量空间中使得输入图像X1对应的特征与标签值之间的差异最小,所述第一特征提取模型的损失函数采用交叉熵损失函数,计算公式为:
其中:
Y为标签集合;
A为第一特征提取模型;
A(X1)、A(Y1)表示第一特征提取模型前向传播预测得到的结果;
公式(1)中的L为第一特征提取模型的计算结果与标签在拉格朗日空间中的距离;
第二特征提取模型旨在得到最为逼真的特征值,因此,需要在向量空间中使得输入图像X2对应的特征与标签值之间的差异最小;所述第二特征提取模型的损失函数采用交叉熵损失函数,计算公式为:
其中:
B为第二特征提取模型;
B(X2)、B(Y2)表示第二特征提取模型前向传播预测得到的结果;
公式(2)中的L为第二特征提取模型的计算结果与标签在拉格朗日空间中的距离。
为了更好地实现本发明,进一步地,所述判别模型旨在最大程度地区分第一特征提取模型、第二特征提取模型的特征之间的差距,判别模型的输出结果是X1、X2、Y1、Y2对应的期望值:
X1对应期望值为:
X2对应期望值为:
Y1对应期望值为:
Y2对应期望值为:
判别模型的损失函数计算如下:
使得第一特征提取模型、第二特征提取模型的计算的差异最大:
使得第一特征提取模型与标签之间的差距和第一特征提取模型特征值之间的计算差异最大:
使得第二特征提取模型与标签之间的差距和第二特征提取模型特征值之间的计算差异最大:
因此,判别模型的损失函数为:
其中:
K1、K2、K3分别为第一特征提取模型、第二特征提取模型、判别模型的权重,
所述K1分别大于K3、K2。
为了更好地实现本发明,进一步地,所述K1优化的步骤如下:
步骤A1:确定K1的初始值,对应的判别模型对若干图像的期望值矩阵为p;
步骤A2:在0~1的范围内随机确定一个优化后的权重系数K1*;期望值矩阵p随之更新为p*;
步骤A3:若p*<p,说明此次搜索未能找到优化的K1;则将0~1之间存在k1优化值的概率D更新为:
D*=a/(1-b·D);
其中,D的初始取值为0.1;
a,b分别为预设超参数;
步骤A4:选择新的K1值,带入步骤A1中,直至获取到的K1使得p*大于p或者是D*大于某一预设阈值即可。
为了更好地实现本发明,进一步地,所述K2、K3优化的方法与K1的相同。
为了更好地实现本发明,进一步地,所述步骤S200中,所述第一特征提取模型、第二特征提取模型的结构完全相同,所述第一特征提取模型、第二特征提取模型分别采用CNN卷积神经网络模型。
为了更好地实现本发明,进一步地,所述第一特征提取模型、第二特征提取模型的损失函数为均方误差损失函数、交叉熵损失函数、指数损失函数中的任意一种。
为了更好地实现本发明,进一步地,所述步骤S300中,同一对象的两个不同的图片的清晰度、亮度、拍摄区域中的任意一项或者多项不同。
本发明在使用过程中,同一对象的两个不同图片分别输入第一特征提取模型、第二特征提取模型,然后提取图片的特征X1、X2,进行神经网络的前向传播,得到对应的预测标签Y1、Y2。将预测标签Y1、Y2以及图片原始的预设标签全部都输入到判别模型,并进行三个损失值的加和计算,然后取最小值。其中三个损失值分别为第一图片预测标签Y1与预设标签、第二图片预测标签Y2与预设标签以及第一图片预测标签Y1与第二图片预测标签Y2的损失值。
本发明的有益效果:
(1)本发明通过第一特征提取模型、第二特征提取模型有效提高了判别模型的精度,判别模型的损失函数与传统的CNN模型不同,分别是第一图片与真实值的差异、第二图片与真实值的差异以及第一图片与第二图片之间的差异,通过这样的设置,本发明所得的判别模型不仅可以对输入的图片与预测值进行对比,以得到判别结果;也可以对输入的两个图像进行判别和对比,以得到判别结果,其判别精度更高。
(2)本发明优化权重参数的方法可以自动调节各个权重的大小,从而实现权重的自动调节;同时,与穷举法、暴力搜索算法、网格搜索算法等算法相比,本发明一个或多个实施例涉及的实施例中所列举的权重优化算法基于某一方向进行搜索,并在搜索到满足条件的参数后就停止搜索,减少了参数搜索带来的计算量。
(3)所述K1分别大于K3、K2的优点为:使得整个损失函数中maxL1(A,B)这一项所占比重最大,从而使得模型训练收敛时所得的判别模型可以更加准确地区分第一图片与第二图片之间的差异。
附图说明
图1为本发明的原理框图。
具体实施方式
实施例1:
一种基于卷积神经网络的3D打印图形识别方法,包括以下步骤:
步骤S100:获取零件的拍摄图片;
步骤S200:构建网络模型,所述网络模型包括第一特征提取模型、第二特征提取模型、判别模型;
步骤S300:训练网络模型:如图1所示,将同一对象的两个不同拍摄角度的图片分别输入第一特征提取模型、第二特征提取模型中并提取图像特征,并得到对应的预测标签,将得到的两个预测标签以及图片的原始预设标签分别输入到判别模型中得到识别结果;所述判别模型的损失值包括第一特征提取模型输出的预测标签与原始预设标签、第二特征提取模型输出的预测标签与原始预设标签以及第一特征提取模型输出的预测标签与第二特征提取模型输出的预测标签之间的损失值;
将第一特征提取模型、第二特征提取模型提取的图像特征分别输入到判别模型中并得到两个图片的相似度差异,基于相似度差异与预设标签反向传播更新判别模型;
步骤S400:将待测图片输入步骤S300中训练之后的网络模型的第一特征提取模型或第二特征提取模型进行图像识别。
进一步地,所述步骤S300中,同一对象的两个不同的图片的清晰度、亮度、拍摄区域中的任意一项或者多项不同。
本发明通过第一特征提取模型、第二特征提取模型有效提高了判别模型的精度,判别模型的损失函数与传统的CNN模型不同,分别是第一图片与真实值的差异、第二图片与真实值的差异以及第一图片与第二图片之间的差异,通过这样的设置,本发明所得的判别模型不仅可以对输入的图片与预测值进行对比,以得到判别结果;也可以对输入的两个图像进行判别和对比,以得到判别结果,其判别精度更高。
实施例2:
本实施例是在实施例1的基础上进行优化,假设步骤S300中输入图像为{X1,X2},则对应标签为{Y1,Y2};第一特征提取模型旨在得到最为逼真的特征值,因此,需要在向量空间中使得输入图像X1对应的特征与标签值之间的差异最小,所述第一特征提取模型的损失函数采用交叉熵损失函数,计算公式为:
其中:
Y为标签集合;
A为第一特征提取模型;
A(X1)、A(Y1)表示第一特征提取模型前向传播预测得到的结果;
公式(1)中的指数L为第一特征提取模型的计算结果与标签在拉格朗日空间中的距离;
第二特征提取模型旨在得到最为逼真的特征值,因此,需要在向量空间中使得输入图像X2对应的特征与标签值之间的差异最小;所述第二特征提取模型的损失函数采用交叉熵损失函数,计算公式为:
其中:
B为第二特征提取模型;
B(X2)、B(Y2)表示第二特征提取模型前向传播预测得到的结果;
公式(2)中的指数L为第二特征提取模型的计算结果与标签在拉格朗日空间中的距离。
进一步地,所述判别模型旨在最大程度地区分第一特征提取模型、第二特征提取模型的特征之间的差距,判别模型的输出结果是X1、X2、Y1、Y2对应的期望值:
X1对应期望值为:
X2对应期望值为:
Y1对应期望值为:
Y2对应期望值为:
判别模型的损失函数计算如下:
使得第一特征提取模型、第二特征提取模型的计算的差异最大:
使得第一特征提取模型与标签之间的差距和第一特征提取模型特征值之间的计算差异最大:
使得第二特征提取模型与标签之间的差距和第二特征提取模型特征值之间的计算差异最大:
因此,判别模型的损失函数为:
其中:
K1、K2、K3分别为第一特征提取模型、第二特征提取模型、判别模型的权重,
所述K1分别大于K3、K2。
本实施例的其他部分与实施例1相同,故不再赘述。
实施例3:
本实施例是在实施例2的基础上进行优化,所述K1优化的步骤如下:
步骤A1:确定K1的初始值,对应的判别模型对若干图像的期望值矩阵为p;
步骤A2:在0~1的范围内随机确定一个优化后的权重系数K1*;期望值矩阵p随之更新为p*;
步骤A3:若p*<p,说明此次搜索未能找到优化的K1;则将0~1之间存在k1优化值的概率D更新为:
D*=a/(1-b·D);
其中,D的初始取值为0.1;
a,b分别为预设超参数;
步骤A4:选择新的K1值,带入步骤A1中,直至获取到的K1使得p*大于p或者是D*大于某一预设阈值即可。
进一步地,所述K2、K3优化的方法与K1的相同。所述K1分别大于K3、K2的优点为:使得整个损失函数中maxL1(A,B)这一项所占比重最大,从而使得模型训练收敛时所得的判别模型可以更加准确地区分第一图片与第二图片之间的差异。
本发明优化权重参数的方法可以自动调节各个权重的大小,从而实现权重的自动调节;同时,与穷举法、暴力搜索算法、网格搜索算法等算法相比,本发明一个或多个实施例涉及的实施例中所列举的权重优化算法基于某一方向进行搜索,并在搜索到满足条件的参数后就停止搜索,减少了参数搜索带来的计算量。
本实施例的其他部分与上述实施例2相同,故不再赘述。
实施例4:
本实施例是在实施例1-3任一个的基础上进行优化,所述步骤S200中,所述第一特征提取模型、第二特征提取模型的结构完全相同,所述第一特征提取模型、第二特征提取模型分别采用CNN卷积神经网络模型。
进一步地,所述第一特征提取模型、第二特征提取模型的损失函数为均方误差损失函数、交叉熵损失函数、指数损失函数中的任意一种。
本实施例的其他部分与上述实施例1-3任一个相同,故不再赘述。
以上所述,仅是本发明的较佳实施例,并非对本发明做任何形式上的限制,凡是依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化,均落入本发明的保护范围之内。
Claims (8)
1.一种基于卷积神经网络的3D打印图形识别方法,其特征在于,包括以下步骤:
步骤S100:获取零件的拍摄图片;
步骤S200:构建网络模型,所述网络模型包括第一特征提取模型、第二特征提取模型、判别模型;
步骤S300:训练网络模型:将同一对象的两个不同拍摄角度的图片分别输入第一特征提取模型、第二特征提取模型中并提取图像特征,并得到对应的预测标签,将得到的两个预测标签以及图片的原始预设标签分别输入到判别模型中得到识别结果;所述判别模型的损失值包括第一特征提取模型输出的预测标签与原始预设标签、第二特征提取模型输出的预测标签与原始预设标签以及第一特征提取模型输出的预测标签与第二特征提取模型输出的预测标签之间的损失值;
将第一特征提取模型、第二特征提取模型提取的图像特征分别输入到判别模型中并得到两个图片的相似度差异,基于相似度差异与预设标签反向传播更新判别模型;
步骤S400:将待测图片输入步骤S300中训练之后的网络模型的第一特征提取模型或第二特征提取模型进行图像识别。
2.根据权利要求1所述的一种基于卷积神经网络的3D打印图形识别方法,其特征在于,假设步骤S300中输入图像为{X1,X2},则对应的预测标签为{Y1,Y2};第一特征提取模型旨在得到最为逼真的特征值,因此,需要在向量空间中使得输入图像X1对应的特征与标签值之间的差异最小,所述第一特征提取模型的损失函数采用交叉熵损失函数,计算公式为:
其中:
Y为标签集合;
A为第一特征提取模型;
A(X1)、A(Y1)表示第一特征提取模型前向传播预测得到的结果;
公式(1)中的L为第一特征提取模型的计算结果与标签在拉格朗日空间中的距离;
第二特征提取模型旨在得到最为逼真的特征值,因此,需要在向量空间中使得输入图像X2对应的特征与标签值之间的差异最小;所述第二特征提取模型的损失函数采用交叉熵损失函数,计算公式为:
其中:
B为第二特征提取模型;
B(X2)、B(Y2)表示第二特征提取模型前向传播预测得到的结果;
公式(2)中的L为第二特征提取模型的计算结果与标签在拉格朗日空间中的距离。
3.根据权利要求2所述的一种基于卷积神经网络的3D打印图形识别方法,其特征在于,所述判别模型旨在最大程度地区分第一特征提取模型、第二特征提取模型的特征之间的差距,判别模型的输出结果是X1、X2、Y1、Y2对应的期望值:
X1对应期望值为:
X2对应期望值为:
Y1对应期望值为:
Y2对应期望值为:
判别模型的损失函数计算如下:
使得第一特征提取模型、第二特征提取模型的计算的差异最大:
使得第一特征提取模型与标签之间的差距和第一特征提取模型特征值之间的计算差异最大:
使得第二特征提取模型与标签之间的差距和第二特征提取模型特征值之间的计算差异最大:
因此,判别模型的损失函数为:
其中:
K1、K2、K3分别为第一特征提取模型、第二特征提取模型、判别模型的权重,
所述K1分别大于K3、K2。
4.根据权利要求3所述的一种基于卷积神经网络的3D打印图形识别方法,其特征在于,所述K1优化的步骤如下:
步骤A1:确定K1的初始值,对应的判别模型对若干图像的期望值矩阵为p;
步骤A2:在0~1的范围内随机确定一个优化后的权重系数K1*;期望值矩阵p随之更新为p*;
步骤A3:若p*<p,说明此次搜索未能找到优化的K1;则将0~1之间存在k1优化值的概率D更新为:
D*=a/(1-b·D)
其中,D的初始取值为0.1;
a,b分别为预设超参数;
步骤A4:选择新的K1值,带入步骤A1中,直至获取到的K1使得p*大于p或者是D*大于某一预设阈值即可。
5.根据权利要求4所述的一种基于卷积神经网络的3D打印图形识别方法,其特征在于,所述K2、K3优化的方法与K1的相同。
6.根据权利要求1所述的一种基于卷积神经网络的3D打印图形识别方法,其特征在于,所述步骤S200中,所述第一特征提取模型、第二特征提取模型的结构完全相同,所述第一特征提取模型、第二特征提取模型分别采用CNN卷积神经网络模型。
7.根据权利要求6所述的一种基于卷积神经网络的3D打印图形识别方法,其特征在于,所述第一特征提取模型、第二特征提取模型的损失函数为均方误差损失函数、交叉熵损失函数、指数损失函数中的任意一种。
8.根据权利要求1所述的一种基于卷积神经网络的3D打印图形识别方法,其特征在于,所述步骤S300中,同一对象的两个不同的图片的清晰度、亮度、拍摄区域中的任意一项或者多项不同。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110969293.4A CN113420737B (zh) | 2021-08-23 | 2021-08-23 | 一种基于卷积神经网络的3d打印图形识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110969293.4A CN113420737B (zh) | 2021-08-23 | 2021-08-23 | 一种基于卷积神经网络的3d打印图形识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113420737A true CN113420737A (zh) | 2021-09-21 |
CN113420737B CN113420737B (zh) | 2022-01-25 |
Family
ID=77719259
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110969293.4A Active CN113420737B (zh) | 2021-08-23 | 2021-08-23 | 一种基于卷积神经网络的3d打印图形识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113420737B (zh) |
Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106570477A (zh) * | 2016-10-28 | 2017-04-19 | 中国科学院自动化研究所 | 基于深度学习的车型识别模型构建方法及车型识别方法 |
CN108197669A (zh) * | 2018-01-31 | 2018-06-22 | 北京陌上花科技有限公司 | 卷积神经网络的特征训练方法及装置 |
CN109086753A (zh) * | 2018-10-08 | 2018-12-25 | 新疆大学 | 基于双通道卷积神经网络的交通标志识别方法、装置 |
CN109543526A (zh) * | 2018-10-19 | 2019-03-29 | 谢飞 | 基于深度差异性特征的真假面瘫识别系统 |
CN109711366A (zh) * | 2018-12-29 | 2019-05-03 | 浙江大学 | 一种基于群组信息损失函数的行人重识别方法 |
CN110084610A (zh) * | 2019-04-23 | 2019-08-02 | 东华大学 | 一种基于孪生神经网络的网络交易欺诈检测系统 |
CN110163082A (zh) * | 2019-04-02 | 2019-08-23 | 腾讯科技(深圳)有限公司 | 一种图像识别网络模型训练方法、图像识别方法及装置 |
CN110308151A (zh) * | 2019-07-22 | 2019-10-08 | 重庆大学 | 一种基于机器视觉的金属工件表面缺陷识别方法及装置 |
KR20200052441A (ko) * | 2018-10-29 | 2020-05-15 | 삼성전자주식회사 | 뉴럴 네트워크를 이용하여 3d 미세구조를 생성하는 방법 및 장치 |
CN111429418A (zh) * | 2020-03-19 | 2020-07-17 | 天津理工大学 | 一种基于YOLO v3神经网络的工业零件检测方法 |
CN111652121A (zh) * | 2020-06-01 | 2020-09-11 | 腾讯科技(深圳)有限公司 | 一种表情迁移模型的训练方法、表情迁移的方法及装置 |
CN112037520A (zh) * | 2020-11-05 | 2020-12-04 | 杭州科技职业技术学院 | 道路监控方法、系统和电子设备 |
CN112395971A (zh) * | 2020-11-16 | 2021-02-23 | 公安部第三研究所 | 基于StarGAN的不同量化光照及角度条件下人脸测试图像生成方法、应用及存储介质 |
US20210089824A1 (en) * | 2019-09-24 | 2021-03-25 | Beijing Sensetime Technology Development Co., Ltd. | Image processing method, image processing device, and storage medium |
CN112580445A (zh) * | 2020-12-03 | 2021-03-30 | 电子科技大学 | 基于生成对抗网络的人体步态图像视角转化方法 |
CN112598658A (zh) * | 2020-12-29 | 2021-04-02 | 哈尔滨工业大学芜湖机器人产业技术研究院 | 基于轻量级孪生卷积神经网络的病识别方法 |
CN112633222A (zh) * | 2020-12-30 | 2021-04-09 | 民航成都电子技术有限责任公司 | 基于对抗网络的步态识别方法、装置、设备及介质 |
-
2021
- 2021-08-23 CN CN202110969293.4A patent/CN113420737B/zh active Active
Patent Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106570477A (zh) * | 2016-10-28 | 2017-04-19 | 中国科学院自动化研究所 | 基于深度学习的车型识别模型构建方法及车型识别方法 |
CN108197669A (zh) * | 2018-01-31 | 2018-06-22 | 北京陌上花科技有限公司 | 卷积神经网络的特征训练方法及装置 |
CN109086753A (zh) * | 2018-10-08 | 2018-12-25 | 新疆大学 | 基于双通道卷积神经网络的交通标志识别方法、装置 |
CN109543526A (zh) * | 2018-10-19 | 2019-03-29 | 谢飞 | 基于深度差异性特征的真假面瘫识别系统 |
KR20200052441A (ko) * | 2018-10-29 | 2020-05-15 | 삼성전자주식회사 | 뉴럴 네트워크를 이용하여 3d 미세구조를 생성하는 방법 및 장치 |
CN109711366A (zh) * | 2018-12-29 | 2019-05-03 | 浙江大学 | 一种基于群组信息损失函数的行人重识别方法 |
CN110163082A (zh) * | 2019-04-02 | 2019-08-23 | 腾讯科技(深圳)有限公司 | 一种图像识别网络模型训练方法、图像识别方法及装置 |
CN110084610A (zh) * | 2019-04-23 | 2019-08-02 | 东华大学 | 一种基于孪生神经网络的网络交易欺诈检测系统 |
CN110308151A (zh) * | 2019-07-22 | 2019-10-08 | 重庆大学 | 一种基于机器视觉的金属工件表面缺陷识别方法及装置 |
US20210089824A1 (en) * | 2019-09-24 | 2021-03-25 | Beijing Sensetime Technology Development Co., Ltd. | Image processing method, image processing device, and storage medium |
CN111429418A (zh) * | 2020-03-19 | 2020-07-17 | 天津理工大学 | 一种基于YOLO v3神经网络的工业零件检测方法 |
CN111652121A (zh) * | 2020-06-01 | 2020-09-11 | 腾讯科技(深圳)有限公司 | 一种表情迁移模型的训练方法、表情迁移的方法及装置 |
CN112037520A (zh) * | 2020-11-05 | 2020-12-04 | 杭州科技职业技术学院 | 道路监控方法、系统和电子设备 |
CN112395971A (zh) * | 2020-11-16 | 2021-02-23 | 公安部第三研究所 | 基于StarGAN的不同量化光照及角度条件下人脸测试图像生成方法、应用及存储介质 |
CN112580445A (zh) * | 2020-12-03 | 2021-03-30 | 电子科技大学 | 基于生成对抗网络的人体步态图像视角转化方法 |
CN112598658A (zh) * | 2020-12-29 | 2021-04-02 | 哈尔滨工业大学芜湖机器人产业技术研究院 | 基于轻量级孪生卷积神经网络的病识别方法 |
CN112633222A (zh) * | 2020-12-30 | 2021-04-09 | 民航成都电子技术有限责任公司 | 基于对抗网络的步态识别方法、装置、设备及介质 |
Non-Patent Citations (5)
Title |
---|
BENYAMIN GHOJOGH等: "Fisher Discriminant Triplet and Contrastive Losses for Training Siamese Networks", 《ARXIV》 * |
CHENG ZHANG等: "Siamese neural network based gait recognition for human identification", 《2016 IEEE INTERNATIONAL CONFERENCE ON ACOUSTICS, SPEECH AND SIGNAL PROCESSING (ICASSP)》 * |
张安琪: "基于孪生卷积神经网络与三元组损失函数的图像识别模型", 《电子制作》 * |
张静等: "智能装配中基于YOLO v3的工业零件识别算法研究", 《光电子 激光》 * |
王科俊等: "多视角步态识别综述", 《自动化学报》 * |
Also Published As
Publication number | Publication date |
---|---|
CN113420737B (zh) | 2022-01-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110930454B (zh) | 一种基于边界框外关键点定位的六自由度位姿估计算法 | |
CN111191583B (zh) | 基于卷积神经网络的空间目标识别系统及方法 | |
CN109800692B (zh) | 一种基于预训练卷积神经网络的视觉slam回环检测方法 | |
CN109711366B (zh) | 一种基于群组信息损失函数的行人重识别方法 | |
CN109033978B (zh) | 一种基于纠错策略的cnn-svm混合模型手势识别方法 | |
NL2025689B1 (en) | Crop pest detection method based on f-ssd-iv3 | |
CN111652317B (zh) | 基于贝叶斯深度学习的超参数图像分割方法 | |
CN110097060B (zh) | 一种面向树干图像的开集识别方法 | |
CN110543581A (zh) | 基于非局部图卷积网络的多视图三维模型检索方法 | |
CN110992365B (zh) | 一种基于图像语义分割的损失函数及其设计方法 | |
CN114898151A (zh) | 一种基于深度学习与支持向量机融合的图像分类方法 | |
CN114357221B (zh) | 一种基于图像分类的自监督主动学习方法 | |
CN112364747B (zh) | 一种有限样本下的目标检测方法 | |
CN115019083A (zh) | 基于少样本学习的词嵌入图神经网络的细粒度图分类方法 | |
CN117542067B (zh) | 一种基于视觉识别的区域标注表单识别方法 | |
CN114627424A (zh) | 一种基于视角转化的步态识别方法和系统 | |
CN114170460A (zh) | 一种基于多模态融合的艺术品分类方法及系统 | |
CN117611963A (zh) | 基于多尺度扩展残差网络的小目标检测方法及系统 | |
CN113420737B (zh) | 一种基于卷积神经网络的3d打印图形识别方法 | |
CN114898464B (zh) | 一种基于机器视觉的轻量化精准手指语智能算法识别方法 | |
CN114758285B (zh) | 基于锚自由和长时注意力感知的视频交互动作检测方法 | |
CN115100694A (zh) | 一种基于自监督神经网络的指纹快速检索方法 | |
CN112487927B (zh) | 一种基于物体关联注意力的室内场景识别实现方法及系统 | |
CN115049611A (zh) | 一种基于改进yolov5的连铸坯裂纹缺陷识别方法 | |
CN111488882B (zh) | 一种用于工业零件测量的高精度图像语义分割方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |