CN117690007B - 高频工件图像识别方法 - Google Patents
高频工件图像识别方法 Download PDFInfo
- Publication number
- CN117690007B CN117690007B CN202410137087.0A CN202410137087A CN117690007B CN 117690007 B CN117690007 B CN 117690007B CN 202410137087 A CN202410137087 A CN 202410137087A CN 117690007 B CN117690007 B CN 117690007B
- Authority
- CN
- China
- Prior art keywords
- workpiece
- image
- channel
- global
- module
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 17
- 238000001514 detection method Methods 0.000 claims abstract description 15
- 230000004927 fusion Effects 0.000 claims abstract description 13
- 238000010586 diagram Methods 0.000 claims abstract description 7
- 239000013598 vector Substances 0.000 claims description 12
- 230000007246 mechanism Effects 0.000 claims description 7
- 238000011176 pooling Methods 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 claims description 4
- 238000005520 cutting process Methods 0.000 claims description 3
- 238000012935 Averaging Methods 0.000 claims 1
- 238000005286 illumination Methods 0.000 abstract description 14
- 230000008859 change Effects 0.000 abstract description 8
- 238000013527 convolutional neural network Methods 0.000 abstract description 6
- 238000003384 imaging method Methods 0.000 abstract 1
- 238000002474 experimental method Methods 0.000 description 11
- 238000012545 processing Methods 0.000 description 5
- 238000013135 deep learning Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000002679 ablation Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000009776 industrial production Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- HPTJABJPZMULFH-UHFFFAOYSA-N 12-[(Cyclohexylcarbamoyl)amino]dodecanoic acid Chemical compound OC(=O)CCCCCCCCCCCNC(=O)NC1CCCCC1 HPTJABJPZMULFH-UHFFFAOYSA-N 0.000 description 1
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 206010063385 Intellectualisation Diseases 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000001627 detrimental effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000013102 re-test Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种高频工件图像识别方法,包括通道注意力模块、弱监督区域检测模块和分支融合模块,所述的方法包括:将工件全局图像载入通道注意力模块得到输出特征,接着通过主干网络ResNet50生成多层特征图和识别结果;在弱监督区域检测模块中根据全局图像和多层特征图截取工件局部图像,再导入另一个分支的通道注意力模块和卷积神经网络获得识别结果;利用分支融合模块融合两个分支的识别结果,得到最终的识别结果;本发明对光照变化有更强的适应性,并且显著提高了识别的准确率。
Description
技术领域
本发明涉及工件识别技术领域,特别是一种高频工件图像识别方法。
背景技术
高频工件作为航空航天设备的重要组成零件,通过在加工流程中引入图像识别技术,不仅可以实现图像处理在工业生产中的实际应用,还可以促进高频工件的加工自动化与制造智能化。高频工件的识别面临以下问题与挑战:1)工件的结构复杂而且类型多样;2)不同种类的工件之间差异较小;3)工件的摆放姿态和光照变化较大。
图像识别技术在工业领域中有着广泛的应用,国内外学者提出了多种相关算法和技术手段。现有算法虽然在一定程度上能够克服光照变化对识别结果的影响,但其研究的机械零件结构相对简单、种类较少、不同类型工件之间的差别较大,因此无法有效适用于高频工件的实际加工生产。
发明内容
为了解决复杂光照下高频工件较难区分的问题,实现加工工序智能化,本发明的目的是提供一种高频工件图像识别方法,本发明对光照变化有更强的适应性,并且显著提高了识别的准确率。
为实现上述目的,本发明采用的技术方案是:一种高频工件图像识别方法,采用通道注意力模块、弱监督区域检测模块和分支融合模块实现,所述的方法包括以下步骤:
步骤1、将工件全局图像载入通道注意力模块得到输出特征,接着通过主干网络ResNet50生成多层特征图/>和识别结果/>;
步骤2、在弱监督区域检测模块中,根据全局图像和多层特征图/>截取工件局部图像/>,再导入另一个分支的通道注意力模块和ResNet50网络获得识别结果/>;
步骤3、利用分支融合模块融合两个分支的识别结果,得最终的识别结果。
作为本发明的进一步改进,在步骤1中,将工件全局图像载入通道注意力模块得到输出特征具体包括:
对工件的全局图像分别采用全局平均池化和全局标准差池化,将每个二维颜色特征通道压缩成通道表示符/>和/>;
;
其中,为输入特征图,/>和/>分别表示图像的特征通道数、高度和宽度。
将和/>分别载入不同的一维卷积,通过给每个特征通道添加能够不断学习的注意力权重/>和/>,建立通道间有效的联系,以获得通道相关性:
;
其中,和/>为一维卷积操作,/>为sigmoid函数。
将注意力权重加权到输入特征图上,重新定义在通道维度上的原始特征,得到增强的输出特征:
;
其中,为逐通道乘法。
作为本发明的进一步改进,步骤2中,在弱监督区域检测模块中根据全局图像和多层特征图/>截取工件局部图像/>具体包括:
由主干网络ResNet50生成全局输入图像的多层特征图,然后把所有通道的特征图相加得到能量图/>,并将/>的所有元素归一化到[0,1]:
;
其中,和/>分别为/>中最大和最小元素的值,为缩放能量图。
采用双线性插值将上采样到能量图/>;
;
将聚集成两个一维结构化能量向量:
;
其中,和/>分别为沿着空间宽度和高度方向的一维结构化能量向量。
包含宽度向量中不同元素能量如下:
;
其中,为宽度向量中所有元素的能量和,/>为沿空间宽度从到/>的区域能量。
设置阈值并定义全局图像中的关键区域为占据面积最小且满足如下条件:
;
利用边界搜索机制自动寻找该区域的宽度边界坐标和高度边界坐标;采用裁剪机制根据整个边界坐标/>在原始图像中的位置截取有效的工件信息和有价值的背景信息,同时去除噪声区域,得到工件局部图像/>。
作为本发明的进一步改进,在步骤3中,识别结果的计算公式如下:
;
其中,为全局图像输入网络的识别结果,/>为局部图像输入网络的识别结果,和/>为权衡不同分支识别结果的平衡因子。
本发明的有益效果是:
本发明首先通过引入通道注意力模块增强了网络的特征提取能力,降低了因光照变化对高频工件识别结果的影响;然后针对工件类间差异小的特点,采用弱监督区域检测模块搜索和定位有区别的局部图像;最后结合分支融合模块使网络有效地权衡工件的全局特征和局部特征;实验结果表明,与原始的ResNet50网络相比,本发明对高频工件识别准确率提高了14.5%,具有更强的特征提取能力;此外,与多种图像识别算法相比,本发明对高频工件识别准确率均有一定程度的提升,实验结果证明了本发明的有效性。
附图说明
图1为本发明实施例的框架流程图;
图2为本发明实施例中不同光照条件下的高频工件图像示意图;
图3为本发明实施例中利用加权块使网络专注于有效通道学习的示意图。
具体实施方式
下面结合附图对本发明的实施例进行详细说明。
实施例
本实施例所提出的自适应光照变化的高频工件图像识别算法框架如图1所示,算法主要由三个模块组成:通道注意力模块、弱监督区域检测模块和分支融合模块。首先将工件全局图像载入通道注意力模块得到输出特征,接着通过主干网络ResNet50生成多层特征图/>和识别结果/>;然后在弱监督区域检测模块中根据全局图像/>和多层特征图截取工件局部图像/>,再导入另一个分支的通道注意力模块和卷积神经网络获得识别结果/>;最后利用分支融合模块融合两个分支的识别结果,得到最终的识别结果/>。
下面对本实施例作进一步说明:
通道注意力模块:
工业生产中采集工件图像时受到光照不均和光照变化较大等因素的影响,获取的图片会出现光斑、阴影和光线不足等现象,如图2所示。如果直接将工件图像输入网络提取特征,无法获得有效的图像特征,难以准确识别高频工件的类别。为克服上述干扰信息对工件识别的影响,本实施例采用通道注意力模块增强工件图像的特征。
采集到的工件图像为RGB三通道彩色图像,有的颜色通道含有受光照变化影响较大的信息,而有的颜色通道含有对光照变化不敏感的信息。通道注意力模块的实质是在原始图像中显式地建立颜色特征通道之间的相互依赖关系,然后通过学习的方式自动获取每个颜色特征通道的重要程度。依照其重要程度增加对有用颜色特征通道的关注,抑制对当前图像识别任务不利的颜色特征通道,最小化光照变化的影响。本实施例利用加权块使网络专注于有效通道的学习,如图3所示。
本实施例对工件的全局图像分别采用全局平均池化和全局标准差池化,将每个二维颜色特征通道压缩成通道表示符/>和/>。这两个通道表示符在一定程度上代表着特征通道上的全局信息,其计算公式为:
;
其中,为输入特征图,/>和/>分别表示图像的特征通道数、高度和宽度。
和/>以不同的方式捕获全局信息,提高了全局信息的表征能力。首先将二者分别载入不同的一维卷积,通过给每个特征通道添加能够不断学习的注意力权重和/>,建立通道间有效的联系,以获得通道相关性:
;
其中,和/>为一维卷积操作,/>为sigmoid函数。
将注意力权重加权到输入特征图上,重新定义在通道维度上的原始特征,得到增强的输出特征:
(5);
其中,为逐通道乘法。
弱监督区域检测模块:
由于高频工件种类繁多,类间差异较小,相似工件之间的差异经常出现在特定的局部区域。因此,本实施例采用弱监督区域检测模块定位工件图像中有显著性差别的区域,以提升识别性能,该模块包括边界搜索和裁剪两种机制。
首先,由主干网络ResNet50生成全局输入图像的多层特征图,然后把所有通道的特征图相加得到能量图/>。为消除负元素的干扰,将/>的所有元素归一化到[0,1];
;
其中,和/>分别为/>中最大和最小的元素的值,为缩放能量图。
为了更精确地定位,采用双线性插值将上采样到/>大小的能量图/>:
(7);
在二维空间实现搜索较为复杂,所以将聚集成两个一维结构化能量向量:
(8);
其中,和/>分别为沿着空间宽度和高度方向的一维结构化能量向量。
宽度向量中不同元素的能量:
(9);
其中,为宽度向量中所有元素的能量和,/>为沿空间宽度从到/>的区域能量。
设置阈值并定义全局图像中的关键区域为占据面积最小且满足如下条件:
;
利用边界搜索机制自动寻找该区域的宽度边界坐标和高度边界坐标。采用裁剪机制根据整个边界坐标/>在原始图像中的位置截取有效的工件信息和有价值的背景信息,同时去除噪声区域,得到工件局部图像/>。
分支融合模块:
通过弱监督区域检测模块能够获得有价值的局部图像,但忽略了全局图像在识别分类任务中的作用。为避免网络只关注图像的局部信息,本实施例采用分支融合模块。
本实施例所提算法中,两个通道注意力模块不共享参数,以提取不同尺度的工件特征。由于不同分支网络对同一类工件有不同的识别效果,采用分支融合模块兼顾两个分支的识别结果以进一步提高识别的准确率,融合的识别分数的计算公式如下:
(11);
其中,为全局图像输入网络的识别结果,/>为局部图像输入网络的识别结果,和/>为权衡不同分支识别结果的平衡因子。
下面通过实验对本实施例作进一步说明:
实验数据集:从来自某军工院所生产的高频工件中挑选20000张高频工件图像组成实验数据集。该数据集含有20类工件,每类工件有1000张图像,图像尺寸为3822×2702像素。按7:3的比例随机将数据集分成训练集和验证集。
实验设置:实验所用的计算机配置CPU为Intel(R) Core(TM) i5-10400F、GPU为NVIDIA GeForce GTX 1660 SUPER,运行内存为16GB,Windows10系统。本实施例采用Python3.6,PyTorch1.2深度学习框架,CUDA 10.2深度学习网络加速库。本实施例使用ImageNet上的预训练权重初始化网络,选择Adam作为优化器,采用交叉熵损失作为损失函数,batch size设定为32,迭代次数设置为50次,迭代的学习率初始化为0.0001,每迭代20次除以10。
识别性能对比实验:为了验证本实施例提出的高频工件图像识别算法的识别效果,将其与多种算法进行对比实验。对比算法包括:ResNet50;基于深度学习的主轴承盖零件识别算法,记为MFF-CNN;基于改进卷积神经网络的零件识别算法,记为AP-Xception。实验结果如表1所示。
表1 不同算法的工件识别结果
算法 | 准确率/% |
ResNet50 | 80.3 |
MFF-CNN | 90.4 |
AP-Xception | 91.2 |
本实施例算法 | 94.8 |
从表1的实验结果中可以看出,本实施例算法的图像识别性能明显优于其它对比算法,相比于ResNet50、MFF-CNN和改进的AP-Xception,本实施例算法分别将准确率提高了14.5%、4.6%和3.8%。
模型参数选择实验:本实施例所提算法的裁剪范围阈值,决定了从工件全局图像中提取有效区域的大小,进一步影响着工件识别的准确率。此外,式(11)中的参数/>和较大程度影响着网络对不同分支的侧重。
如果裁剪范围阈值太小,会导致工件特征丢失过多;如果裁剪范围阈值太大,将会使得网络无法聚焦于重要的局部特征。因此,截取的区域应该被限制在一个合理的范围之内。为了确定最佳的阈值,实验中先将平衡因子和/>分别设置为0.6和0.4,再测试时高频工件的识别准确率,实验结果如表2所示。
从表2中可以看出,随着裁剪范围阈值的增大,准确率先不断提升然后不断下降。当阈值为0.70时,本实施例算法达到了最佳性能。因此,本实施例选取/>作为最终的裁剪范围阈值。
表2 阈值的大小对识别结果的影响
为了评估平衡因子值和/>对识别结果的影响,实验中分别测试了/>为0.70,/>和/>取不同值时算法对高频工件的识别准确率,实验结果如表3所示。
表3 平衡因子和/>的大小对识别结果的影响
从表3中可以看出,当时,高频工件识别取得了最高的准确率。随着/>的减小和/>的增大,工件识别的效果逐渐降低,这是因为裁剪的局部图像包含的信息较少,过于依赖该部分会造成网络无法获得较好结果。当/>较小/>较大时,容易忽视截取的关键区域从而导致准确率降低。因此,本实施例选取/>作为平衡不同分支网络的参数。
消融实验:为了验证算法各个模块对网络性能的影响,在保留ResNet50网络的基础上,通过控制变量去掉各项改进设计消融实验,实验结果如表4所示。
表4 不同模块对网络性能的影响
注:×表示没有采用该模块,√表示采用该模块。
从表4的实验结果中可以看出,首先在主干网络ResNet50的基础上加入通道注意力模块后,准确率提升了11.9%,这表明网络具有对不同颜色通道特征信息的感知能力,克服了光照变化的影响,更有效地提取到了高频工件图像的特征;然后加入弱监督区域检测模块,准确率进一步提升了1.5%,这表明网络的特征学习专注于有区别的有效区域,能够提升识别的准确率;最后采用分支融合模块,准确率进一步提升了1.1%,这表明结合全局信息和局部信息能够提升高频工件的识别性能。
以上所述实施例仅表达了本发明的具体实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。
Claims (3)
1.一种高频工件图像识别方法,其特征在于,包括通道注意力模块、弱监督区域检测模块和分支融合模块,所述的方法包括以下步骤:
步骤1、将工件全局图像I1载入通道注意力模块得到输出特征,接着通过主干网络ResNet50生成多层特征图Mg和识别结果P1;
步骤2、在弱监督区域检测模块中,根据全局图像I1和多层特征图Mg截取工件局部图像I2,再导入另一个分支的通道注意力模块和ResNet50网络获得识别结果P2;
步骤3、利用分支融合模块融合两个分支的识别结果,得最终的识别结果P;
步骤2中,在弱监督区域检测模块中根据全局图像I1和多层特征图Mg截取工件局部图像I2具体包括:
由主干网络ResNet50生成全局输入图像的多层特征图Mg,然后把所有通道的特征图相加得到能量图ME,并将ME的所有元素归一化到[0,1]:
其中,max(ME)和min(ME)分别为ME(i)中最大和最小的元素的值,为缩放能量图。
采用双线性插值将上采样到能量图/>
将聚集成两个一维结构化能量向量:
其中,Vw和Vh分别为沿着空间宽度和高度方向的一维结构化能量向量。
包含宽度向量中不同元素能量如下:
其中,E[0:W]为宽度向量中所有元素的能量和,E[x1:x2]为沿空间宽度从x1到x2的区域能量;
设置阈值γ并定义全局图像中的关键区域为占据面积最小且满足如下条件:
利用边界搜索机制自动寻找该区域的宽度边界坐标[x1:x2]和高度边界坐标[y1:y2];采用裁剪机制根据整个边界坐标[x1,x2,y1,y2]在原始图像中的位置截取有效的工件信息和有价值的背景信息,同时去除噪声区域,得到工件局部图像I2。
2.根据权利要求1所述的高频工件图像识别方法,其特征在于,在步骤1中,将工件全局图像I1载入通道注意力模块得到输出特征具体包括:
对工件的全局图像I1分别采用全局平均池化和全局标准差池化,将每个二维颜色特征通道压缩成通道表示符zm和zs:
其中,为输入特征图,C、H和W分别表示图像的特征通道数、高度和宽度;
将zm和zs分别载入不同的一维卷积,通过给每个特征通道添加能够不断学习的注意力权重和/>建立通道间有效的联系,以获得较为准确的通道相关性:
gm=σ(Fm(zm))
gs=σ(Fs(zs))
其中,Fm(·)和Fs(·)为一维卷积操作,σ(·)为sigmoid函数。
将注意力权重加权到输入特征图上,重新定义在通道维度上的原始特征,得到增强的输出特征
其中,为逐通道乘法。
3.根据权利要求2所述的高频工件图像识别方法,其特征在于,在步骤3中,识别结果P的计算公式如下:
P=μP1+λP2
其中,P1为全局图像输入网络的识别结果,P2为局部图像输入网络的识别结果,μ和λ为权衡不同分支识别结果的平衡因子。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410137087.0A CN117690007B (zh) | 2024-02-01 | 2024-02-01 | 高频工件图像识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410137087.0A CN117690007B (zh) | 2024-02-01 | 2024-02-01 | 高频工件图像识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117690007A CN117690007A (zh) | 2024-03-12 |
CN117690007B true CN117690007B (zh) | 2024-04-19 |
Family
ID=90137445
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410137087.0A Active CN117690007B (zh) | 2024-02-01 | 2024-02-01 | 高频工件图像识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117690007B (zh) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022027987A1 (zh) * | 2020-08-04 | 2022-02-10 | 杰创智能科技股份有限公司 | 一种图像识别模型的训练方法及图像识别方法 |
CN114419732A (zh) * | 2022-01-11 | 2022-04-29 | 江南大学 | 基于注意力机制优化的HRNet人体姿态识别方法 |
CN114429646A (zh) * | 2022-01-17 | 2022-05-03 | 西安电子科技大学 | 基于深度自注意力变换网络的步态识别方法 |
CN115294038A (zh) * | 2022-07-25 | 2022-11-04 | 河北工业大学 | 一种基于联合优化与混合注意力特征融合的缺陷检测方法 |
CN115375692A (zh) * | 2022-10-27 | 2022-11-22 | 北京矩视智能科技有限公司 | 基于边界引导的工件表面缺陷分割方法、装置及设备 |
CN115439930A (zh) * | 2022-08-22 | 2022-12-06 | 重庆邮电大学 | 一种基于时空维度筛选的多特征融合步态识别方法 |
KR102569598B1 (ko) * | 2023-04-05 | 2023-08-23 | 주식회사 아이브 | 멀티 유사도 및 어텐션 네트워크를 이용한 퓨-샷 러닝을 수행하는 장치 및 방법 |
CN117315765A (zh) * | 2022-06-21 | 2023-12-29 | 天津大学 | 一种增强时空特征的动作识别方法 |
-
2024
- 2024-02-01 CN CN202410137087.0A patent/CN117690007B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022027987A1 (zh) * | 2020-08-04 | 2022-02-10 | 杰创智能科技股份有限公司 | 一种图像识别模型的训练方法及图像识别方法 |
CN114419732A (zh) * | 2022-01-11 | 2022-04-29 | 江南大学 | 基于注意力机制优化的HRNet人体姿态识别方法 |
CN114429646A (zh) * | 2022-01-17 | 2022-05-03 | 西安电子科技大学 | 基于深度自注意力变换网络的步态识别方法 |
CN117315765A (zh) * | 2022-06-21 | 2023-12-29 | 天津大学 | 一种增强时空特征的动作识别方法 |
CN115294038A (zh) * | 2022-07-25 | 2022-11-04 | 河北工业大学 | 一种基于联合优化与混合注意力特征融合的缺陷检测方法 |
CN115439930A (zh) * | 2022-08-22 | 2022-12-06 | 重庆邮电大学 | 一种基于时空维度筛选的多特征融合步态识别方法 |
CN115375692A (zh) * | 2022-10-27 | 2022-11-22 | 北京矩视智能科技有限公司 | 基于边界引导的工件表面缺陷分割方法、装置及设备 |
KR102569598B1 (ko) * | 2023-04-05 | 2023-08-23 | 주식회사 아이브 | 멀티 유사도 및 어텐션 네트워크를 이용한 퓨-샷 러닝을 수행하는 장치 및 방법 |
Non-Patent Citations (5)
Title |
---|
Looking closer at the scene:multiscale representation learning for remote sensing image scene classification;Qi Wang等;IEEE Transactions on Neural Networks and Learning Systems》;20201217;第33卷(第4期);1414-1428 * |
Remote sensing image scene classification based on global-local dual-branch structure model;Kejie Xu等;《IEEE Geoscience and Remote Sensing Letters》;20210507;第19卷;1-5 * |
基于深度学习的乳腺组织病理图像分类研究;马世豪;《万方数据》;20221123;1-69 * |
基于深度特征表达的高空间分辨率遥感影像场景分类研究;徐科杰;《万方数据》;20231101;1-154 * |
联合损失监督的高频工件深度学习识别算法;欧阳等;《机械制造与自动化》;20230220;第52卷(第01期);30-33+47 * |
Also Published As
Publication number | Publication date |
---|---|
CN117690007A (zh) | 2024-03-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110222787B (zh) | 多尺度目标检测方法、装置、计算机设备及存储介质 | |
CN110532897B (zh) | 零部件图像识别的方法和装置 | |
CN111640157B (zh) | 一种基于神经网络的棋盘格角点检测方法及其应用 | |
CN110322453B (zh) | 基于位置注意力和辅助网络的3d点云语义分割方法 | |
CN109903331B (zh) | 一种基于rgb-d相机的卷积神经网络目标检测方法 | |
CN102147857A (zh) | 利用改进霍夫变换进行类圆形检测的图像处理方法 | |
CN116309757B (zh) | 基于机器视觉的双目立体匹配方法 | |
CN113888461A (zh) | 基于深度学习的小五金件缺陷检测方法、系统及设备 | |
CN111369605A (zh) | 一种基于边缘特征的红外与可见光图像的配准方法和系统 | |
JP2019536164A (ja) | 画像処理装置、画像処理方法および画像処理プログラム | |
CN111105452A (zh) | 基于双目视觉的高低分辨率融合立体匹配方法 | |
KR101018299B1 (ko) | 영상에서 복수의 물체를 감지하는 방법 및 장치 | |
CN114299363A (zh) | 图像处理模型的训练方法、图像分类方法及装置 | |
CN117495891B (zh) | 点云边缘检测方法、装置和电子设备 | |
CN117474918B (zh) | 异常检测方法和装置、电子设备以及存储介质 | |
CN103093226A (zh) | 一种用于图像特征处理的ratmic描述子的构造方法 | |
CN117690007B (zh) | 高频工件图像识别方法 | |
CN113191281A (zh) | 基于感兴趣区域及自适应半径的orb特征提取方法 | |
CN112435283A (zh) | 图像的配准方法、电子设备以及计算机可读存储介质 | |
CN117011655A (zh) | 基于自适应区域选择特征融合方法、目标跟踪方法及系统 | |
CN116486452A (zh) | 人脸识别方法和系统 | |
CN116110113A (zh) | 一种基于深度学习的虹膜识别方法 | |
CN109815975A (zh) | 一种基于机器人的目标分类方法及相关装置 | |
CN111009004B (zh) | 一种加速图像匹配的硬件优化方法 | |
CN113743443A (zh) | 一种图像证据分类和识别方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |