CN116630950A - 一种高精度识别轮辋焊缝的方法 - Google Patents
一种高精度识别轮辋焊缝的方法 Download PDFInfo
- Publication number
- CN116630950A CN116630950A CN202310912754.3A CN202310912754A CN116630950A CN 116630950 A CN116630950 A CN 116630950A CN 202310912754 A CN202310912754 A CN 202310912754A CN 116630950 A CN116630950 A CN 116630950A
- Authority
- CN
- China
- Prior art keywords
- rim
- model
- training
- target detection
- weld
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 24
- 238000001514 detection method Methods 0.000 claims abstract description 47
- 238000012549 training Methods 0.000 claims abstract description 28
- 238000011161 development Methods 0.000 claims abstract description 24
- 230000007246 mechanism Effects 0.000 claims abstract description 20
- 230000000694 effects Effects 0.000 claims abstract description 4
- 239000011159 matrix material Substances 0.000 claims description 21
- 238000006243 chemical reaction Methods 0.000 claims description 6
- 230000009466 transformation Effects 0.000 claims description 6
- 238000012795 verification Methods 0.000 claims description 6
- 238000005286 illumination Methods 0.000 claims description 4
- 230000008569 process Effects 0.000 claims description 4
- 238000000605 extraction Methods 0.000 claims description 3
- 238000003466 welding Methods 0.000 abstract description 13
- 238000002372 labelling Methods 0.000 abstract 1
- 239000013598 vector Substances 0.000 description 17
- 238000007792 addition Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000012216 screening Methods 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000009189 diving Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/776—Validation; Performance evaluation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本发明提出了一种高精度识别轮辋焊缝的方法,涉及轮辋焊缝定位技术领域。本发明提出L1_SelfAttention模块,该模块是基于L1范数的自注意力机制,将该模块引入到基于Transformer的目标检测算法中,提高轮辋焊缝的识别效率。使用工业摄像头采集轮辋数据集,并标注数据集,将数据集分为训练集和预测集。使用改进的基于Transformer的目标检测算法DETR进行模型训练,通过多轮训练提高模型的效果,并进行模型转化,将模型部署到具有开发功能的开发板上,开发板连接摄像头,实时对轮辋焊缝进行识别和定位,相较人工识别定位轮辋焊缝,算法识别能达到较高的准确率和效率,并缩短检测时间,节省人力资源。
Description
技术领域
本发明涉及轮辋焊缝定位技术领域,具体为一种高精度识别轮辋焊缝的方法。
背景技术
在车轮生产线中,传统的轮辋缺陷由人工进行筛选,这就导致了筛选效率低和出错率高的问题。随着计算机视觉技术的不断更迭,目标检测在工业领域应用的方面也越来越广,使用目标检测方法能够对轮辋焊缝进行高效的定位,以便后续对焊缝进行气密性检测,节省人力资源的同时提高了焊缝识别效率。
Transformer的引入为目标检测带来了新的思路。传统的目标检测算法侧重于从图像中提取局部特征,Transformer则凭借其出色的自注意力机制可以捕捉图像像素的全局上下文信息,且不需要使用滑动窗口或选择性搜索,这使得Transformer在目标检测任务中具有更好的感知能力和语义理解能力,而自注意力机制使用到了大量的乘法,这就导致处理图像时需要耗费大量的内存与时间。
发明内容
本发明提供一种高精度识别轮辋焊缝的方法,采用基于Transformer的目标检测算法进行识别,优化Transformer自注意力机制,高效识别轮辋焊缝,以便完成后续轮辋的气密性检测工作,为实现上述目的,本发明提供如下技术方案:一种高精度识别轮辋焊缝的方法,包括以下步骤:
S1、使用工业摄像头采集轮辋图像数据集,对数据集进行标注,将数据集划分为训练集和预测集;
S2、设计高效的L1_SelfAttention模块,将该模块引入到基于Transformer的目标检测算法中,提高识别效率。该模块是基于L1范数的自注意力机制,使用加法替换自注意力机制中大量的乘法;
S3、将数据集输入到改进的基于Transformer的目标检测算法中进行训练,通过多轮训练优化模型的效果;
S4、进行模型转化,并将其部署到具有开发功能的开发板上,开发板连接摄像头,实时对轮辋焊缝进行识别和定位。
优选的,步骤S1中使用工业摄像头采集轮辋图像数据集,对数据集进行标注,将数据集划分为训练集和预测集,其特征在于,包括将轮辋放置于可旋转的转台上,工业摄像头置于转台上方采集视频,后期对视频进行抽帧操作,抽取不同位置焊缝的轮辋图片组成数据集,随后使用python程序按照比例将数据集随机划分到训练集和预测集中,为保证检测的精确度和鲁棒性,要在不同光照下采集多种类型的轮辋图片。
优选的,步骤S2中设计高效的L1_SelfAttention模块,将该模块引入到基于Transformer的目标检测算法中,提高识别效率。该模块是基于L1范数的自注意力机制,使用加法替换自注意力机制中大量的乘法,其特征在于,包括:
S21、输入图像序列经过线性变换得到查询矩阵(Query)、键矩阵(Key)和值矩阵(Value),三者维度都是[B,N,C];
S22、在传统的Transformer中,查询矩阵(Query)、键矩阵(Key)通过矩阵乘法进行计算,在L1_SelfAttention模块,使用加法运算,作替换掉自注意力机制中大量复杂的乘法操作;
S23、查询向量,计算其与对应键向量的L1范数距离。使用L1范数距离计算
两者的相似度分数: ,表示Query与Key之间的L1范数运
算。使用L1范数来度量查询向量与键向量之间的距离(自注意力分数),L1范数是指两个向
量中对应元素差值的绝对值之和;
S24、查询向量在维度上,依次求与键向量在维度上向量的L1距
离,即对两个向量的对应元素差值取绝对值后求和;
S25、对应注意力机制公式为;
S26、上式中表示使用L1距离来近似表示查询矩阵(Query)与键矩阵
(Key)之间的相似程度,L1距离越小说明两个矩阵越相似,而相似度分数越大表示两个矩阵
越相似,则对求得的L1距离进行求反操作。
优选的,步骤S3中将数据集输入到改进的目标检测算法中进行训练,通过多轮训练提高模型的识别准确性,其特征在于,包括根据在验证集上的表现和调优结果,不断迭代训练过程,直到模型在验证集上达到满意的性能水平,通过多轮训练,可以逐步提高改进的目标检测算法的识别准确性,并得到一个在目标检测任务上表现较好的模型。
优选的,步骤S4中进行模型转化,并将其部署到具有开发功能的开发板上,开发板连接摄像头,实时对轮辋焊缝进行识别和定位。其特征在于,包括将训练好的目标检测模型转化为适合部署在开发板上的ONNX(通用的开放式神经网络交换格式)格式,开发相应应用程序,使其能够从摄像头获取视频流,并将视频流输入目标检测模型进行实时目标检测和定位。根据模型的输出结果,在视频流中绘制边界框(Bounding Box)来标识出焊缝的位置。对部署在开发板上的应用程序进行测试和验证,确保目标检测和定位的准确性和稳定性。
与现有技术相比,本发明的有益效果如下:
一种高精度识别轮辋焊缝的方法,本方法提出L1_SelfAttention模块,基于L1范数的自注意力机制,并将其引入到基于Transformer的目标检测算法中,提高了对轮辋焊缝的检测效率和准确率。本方法为保证检测的精确度和鲁棒性,在不同光照下采集了多种类型的轮辋图片。本方法改进的目标检测算法中的自注意力机制去除了大量的乘法操作,因为与廉价的加法运算相比,乘法运算的计算复杂度要高得多。通过多轮的训练,可以逐步提高改进的目标检测算法的识别准确性,并得到一个在目标检测任务上表现较好的模型,相比于人工识别定位轮辋焊缝,算法识别可以达到较高的准确率和效率,并缩短检测时间,节省人力资源。
附图说明
图1为本发明实施例提供的一种高精度识别轮辋焊缝流程图;
图2为本申请实施例提供的L1_SelfAttention模块中Query与Key计算规则;
图3为本发明实施例提供的轮辋焊缝的识别的系统硬件结构图;
图4、图5为本申请实施例提供的改进后的算法模型对轮辋焊缝的识别效果示意图;
具体实施方式
下面将结合本发明的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明提供一种高精度识别轮辋焊缝的方法方案:一种高精度识别轮辋焊缝的方法,本方法实施场景描述如下,将轮辋放置于可旋转转台上,工业摄像头置于轮辋正上方,并俯拍轮辋,通过转台旋转多次采集数据集视频得到不同位置焊缝的轮辋图片,图3为本发明实施例提供的轮辋焊缝的识别的系统硬件结构图,只有对焊缝进行精准的定位并控制转台旋转将焊缝转动至指定位置才可进行后续检查轮辋气密性,识别焊缝位置流程如图1所示,包括以下步骤:
S1、使用工业摄像头采集轮辋图像数据集,对数据集进行标注,将数据集划分为训练集和预测集;将轮辋放置于可旋转的转台上,工业摄像头置于转台上方采集视频,后期对视频进行抽帧操作,抽取不同位置焊缝的轮辋图片组成数据集,随后使用python程序按照7:3的比例将数据集随机分到训练集和预测集中,为保证检测的精确度和鲁棒性,要在不同光照下采集多种类型的轮辋图片。采集视频尺寸为1080×960,对其抽帧筛选出其中存在焊缝的轮辋图像,共得到5300张图片,并对筛选出的图像进行人工标记划分,使用标注工具Labelimg将焊缝标注出来;
S2、设计高效的L1_SelfAttention模块,将该模块引入到基于Transformer的目标检测算法DETR中,提高识别效率。该模块是基于L1范数的自注意力机制,使用加法替换自注意力机制中大量的乘法;
S21、输入图像序列经过线性变换得到查询矩阵(Query)、键矩阵(Key)和值矩阵(Value),三者维度都是[B,N,C];
S22、对于查询向量,计算其与对应键向量的L1范数距离。使用L1距离计算
两者的相似度分数: ,表示Query与Key之间的L1范数运
算。使用L1范数来度量查询向量与键向量之间的距离。L1范数是指两个向量中对应元素差
值的绝对值之和,负号用于将距离转换为相似度分数,score维度与Q和K保持一致;
S23、查询向量在维度上,依次求与K在维度上向量的L1范数距离,即
对两个向量的对应元素差值取绝对值后求和,具体运算规则如图2所示,,
S24、对应注意力机制公式为;
S25、上式中表示使用L1范数距离来近似表示查询矩阵(Query)与键矩
阵(Key)之间的相似程度,L1距离越小说明两个矩阵越相似,而相似度分数越大表示两个矩
阵越相似,则对求得的L1距离进行求反操作;
S3、将数据集输入到改进的目标检测算法中进行训练,通过多轮训练提高模型的识别准确性,其特征在于,包括根据在验证集上的表现和调优结果,不断迭代训练过程,直到模型在验证集上达到满意的性能水平,通过多轮训练,可以逐步提高改进的目标检测算法的识别准确性,并得到一个在目标检测任务上表现较好的模型;
S4、进行模型转化,并将其部署到具有开发功能的开发板上,开发板连接摄像头,实时对轮辋焊缝进行识别和定位。其特征在于,包括将训练好的目标检测模型转化为适合部署在RK3568开发板上的ONNX格式,摄像头连接RK3568开发板并置于轮辋上方俯拍轮辋,开发相应应用程序,使其能够从摄像头获取视频流,并将视频流输入目标检测模型进行实时目标检测和定位。根据模型的输出结果,实时在视频流中显示焊缝位置,请参照图4、图5,本申请实施例提供的改进后的算法模型对轮辋焊缝的识别效果示意图。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。
Claims (2)
1.一种高精度识别轮辋焊缝的方法,应用于轮辋焊缝定位技术领域,其特征在于,包括:S1、使用工业摄像头采集轮辋图像数据集,对数据集进行标注,将数据集分为训练集和预测集;S2、设计高效的L1_SelfAttention模块,将该模块引入到基于Transformer的目标检测算法中,提高识别效率,该模块是基于L1范数的自注意力机制,使用加法替换自注意力机制中大量的乘法;S3、将数据集输入到改进的基于Transformer的目标检测算法中进行训练,通过多轮训练优化模型的效果;S4、进行模型转化,并将其部署到具有开发功能的开发板上,开发板连接摄像头,实时对轮辋焊缝进行识别和定位;步骤S2中所述的设计高效的L1_SelfAttention模块,将该模块引入到基于Transformer的目标检测算法DETR中,提高识别效率,该模块是基于L1范数的自注意力机制,使用加法替换自注意力机制中大量的乘法,对应注意力机制公式为,上式中/>表示使用L1范数距离来近似表示查询矩阵(Query)与键矩阵(Key)之间的相似程度,L1距离越小说明两个矩阵越相似,而相似度分数越大表示两个矩阵越相似,则对求得的L1距离进行求反操作。
2.根据权利要求1所述的一种高精度识别轮辋焊缝的方法,步骤S1中所述使用工业摄像头采集轮辋图像数据集,对数据集进行标注,将数据集分为训练集和预测集,具体为将轮辋放置于可旋转的转台上,工业摄像头置于转台上方采集视频,后期对视频进行抽帧操作,抽取不同位置焊缝的轮辋图片组成数据集,使用python程序按照比例将数据集随机分到训练集和预测集中,为保证检测的精确度和鲁棒性,要在不同光照下采集多种类型的轮辋图片;步骤S3所述将数据集输入到改进的目标检测算法中进行训练,通过多轮训练提高模型的识别准确性,主要根据在验证集上的表现和调优结果,不断迭代训练过程,直到模型在验证集上达到满意的性能水平,通过多轮训练,可以逐步提高改进的目标检测算法的识别准确性,并得到一个在目标检测任务上表现较好的模型;部署S4所述进行模型转化,并将其部署到具有开发功能的开发板上,开发板连接摄像头,实时对轮辋焊缝进行识别和定位,将训练好的目标检测模型转化为适合部署在开发板上的格式,开发相应应用程序,使其能够从摄像头获取视频流,并将视频流输入目标检测模型进行实时目标检测和定位,根据模型的输出结果,实时在视频流中显示焊缝位置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310912754.3A CN116630950A (zh) | 2023-07-25 | 2023-07-25 | 一种高精度识别轮辋焊缝的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310912754.3A CN116630950A (zh) | 2023-07-25 | 2023-07-25 | 一种高精度识别轮辋焊缝的方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116630950A true CN116630950A (zh) | 2023-08-22 |
Family
ID=87636921
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310912754.3A Pending CN116630950A (zh) | 2023-07-25 | 2023-07-25 | 一种高精度识别轮辋焊缝的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116630950A (zh) |
Citations (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20070120648A (ko) * | 2006-06-20 | 2007-12-26 | 엘지전자 주식회사 | 복수의 모니터가 연결된 디지털 비디오 레코더 |
EP3629294A1 (en) * | 2018-09-27 | 2020-04-01 | Siemens Healthcare GmbH | Method of providing a training dataset |
CN113011571A (zh) * | 2021-03-03 | 2021-06-22 | 华南理工大学 | 基于Transformer模型的INT8离线量化及整数推断方法 |
CN113793275A (zh) * | 2021-08-27 | 2021-12-14 | 西安理工大学 | 一种Swin Unet低照度图像增强方法 |
CN113935330A (zh) * | 2021-10-22 | 2022-01-14 | 平安科技(深圳)有限公司 | 基于语音的疾病预警方法、装置、设备及存储介质 |
US20220036194A1 (en) * | 2021-10-18 | 2022-02-03 | Intel Corporation | Deep neural network optimization system for machine learning model scaling |
CN114255220A (zh) * | 2021-12-21 | 2022-03-29 | 徐州徐工挖掘机械有限公司 | 一种基于Transformer神经网络的焊缝质量检测方法 |
KR20220050758A (ko) * | 2020-10-16 | 2022-04-25 | 현대자동차주식회사 | 다차원 어텐션 메커니즘에 기반한 다방향 장면 텍스트 인식 방법 및 시스템 |
CN114580425A (zh) * | 2022-05-06 | 2022-06-03 | 阿里巴巴(中国)有限公司 | 命名实体识别的方法和装置,以及电子设备和存储介质 |
CN114926686A (zh) * | 2022-05-25 | 2022-08-19 | 上海商汤智能科技有限公司 | 图像识别方法、装置、计算机设备和存储介质 |
WO2022183138A2 (en) * | 2021-01-29 | 2022-09-01 | Elaboration, Inc. | Automated classification of emotio-cogniton |
CN115018819A (zh) * | 2022-07-04 | 2022-09-06 | 泉州装备制造研究所 | 一种基于Transformer神经网络的焊缝点位置提取方法 |
CN115239712A (zh) * | 2022-09-21 | 2022-10-25 | 季华实验室 | 电路板表面缺陷检测方法、装置、电子设备及存储介质 |
CN115527118A (zh) * | 2022-10-08 | 2022-12-27 | 广东工业大学 | 一种融合注意力机制的遥感图像目标检测方法 |
CN115618024A (zh) * | 2022-10-14 | 2023-01-17 | 杭州网易云音乐科技有限公司 | 多媒体推荐方法、装置及电子设备 |
US20230032385A1 (en) * | 2020-10-12 | 2023-02-02 | Tencent Technology (Shenzhen) Company Limited | Speech recognition method and apparatus, device, and storage medium |
CN115712828A (zh) * | 2021-08-18 | 2023-02-24 | 华为技术有限公司 | 一种图像分类方法及其相关设备 |
KR20230050846A (ko) * | 2021-10-08 | 2023-04-17 | 네이버 주식회사 | 세분성 자각 어텐션 기반의 신경망 |
WO2023070911A1 (zh) * | 2021-10-27 | 2023-05-04 | 西安工程大学 | 一种基于自注意力的彩色纹理织物缺陷区域的检测方法 |
WO2023094335A1 (en) * | 2021-11-23 | 2023-06-01 | Deepmind Technologies Limited | Designing proteins by jointly modeling sequence and structure |
-
2023
- 2023-07-25 CN CN202310912754.3A patent/CN116630950A/zh active Pending
Patent Citations (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20070120648A (ko) * | 2006-06-20 | 2007-12-26 | 엘지전자 주식회사 | 복수의 모니터가 연결된 디지털 비디오 레코더 |
EP3629294A1 (en) * | 2018-09-27 | 2020-04-01 | Siemens Healthcare GmbH | Method of providing a training dataset |
US20230032385A1 (en) * | 2020-10-12 | 2023-02-02 | Tencent Technology (Shenzhen) Company Limited | Speech recognition method and apparatus, device, and storage medium |
KR20220050758A (ko) * | 2020-10-16 | 2022-04-25 | 현대자동차주식회사 | 다차원 어텐션 메커니즘에 기반한 다방향 장면 텍스트 인식 방법 및 시스템 |
WO2022183138A2 (en) * | 2021-01-29 | 2022-09-01 | Elaboration, Inc. | Automated classification of emotio-cogniton |
CN113011571A (zh) * | 2021-03-03 | 2021-06-22 | 华南理工大学 | 基于Transformer模型的INT8离线量化及整数推断方法 |
CN115712828A (zh) * | 2021-08-18 | 2023-02-24 | 华为技术有限公司 | 一种图像分类方法及其相关设备 |
CN113793275A (zh) * | 2021-08-27 | 2021-12-14 | 西安理工大学 | 一种Swin Unet低照度图像增强方法 |
KR20230050846A (ko) * | 2021-10-08 | 2023-04-17 | 네이버 주식회사 | 세분성 자각 어텐션 기반의 신경망 |
US20220036194A1 (en) * | 2021-10-18 | 2022-02-03 | Intel Corporation | Deep neural network optimization system for machine learning model scaling |
CN113935330A (zh) * | 2021-10-22 | 2022-01-14 | 平安科技(深圳)有限公司 | 基于语音的疾病预警方法、装置、设备及存储介质 |
WO2023070911A1 (zh) * | 2021-10-27 | 2023-05-04 | 西安工程大学 | 一种基于自注意力的彩色纹理织物缺陷区域的检测方法 |
WO2023094335A1 (en) * | 2021-11-23 | 2023-06-01 | Deepmind Technologies Limited | Designing proteins by jointly modeling sequence and structure |
CN114255220A (zh) * | 2021-12-21 | 2022-03-29 | 徐州徐工挖掘机械有限公司 | 一种基于Transformer神经网络的焊缝质量检测方法 |
CN114580425A (zh) * | 2022-05-06 | 2022-06-03 | 阿里巴巴(中国)有限公司 | 命名实体识别的方法和装置,以及电子设备和存储介质 |
CN114926686A (zh) * | 2022-05-25 | 2022-08-19 | 上海商汤智能科技有限公司 | 图像识别方法、装置、计算机设备和存储介质 |
CN115018819A (zh) * | 2022-07-04 | 2022-09-06 | 泉州装备制造研究所 | 一种基于Transformer神经网络的焊缝点位置提取方法 |
CN115239712A (zh) * | 2022-09-21 | 2022-10-25 | 季华实验室 | 电路板表面缺陷检测方法、装置、电子设备及存储介质 |
CN115527118A (zh) * | 2022-10-08 | 2022-12-27 | 广东工业大学 | 一种融合注意力机制的遥感图像目标检测方法 |
CN115618024A (zh) * | 2022-10-14 | 2023-01-17 | 杭州网易云音乐科技有限公司 | 多媒体推荐方法、装置及电子设备 |
Non-Patent Citations (2)
Title |
---|
ZHUOXUAN LI: "Maskformer with Improved Encoder-Decoder Module for Semantic Segmentation of Fine-Resolution Remote Sensing Images", 《2022 IEEE INTERNATIONAL CONFERENCE ON IMAGE PROCESSING (ICIP)》 * |
张丛丛;王欢;楼竞;: "基于加权核范数最小化的红外弱小目标检测", 华中科技大学学报(自然科学版), no. 10 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111223088B (zh) | 一种基于深层卷积神经网络的铸件表面缺陷识别方法 | |
CN111768388A (zh) | 一种基于正样本参考的产品表面缺陷检测方法及系统 | |
CN111598860A (zh) | 基于嵌入自注意力门模块的yolov3网络的锂电池缺陷检测方法 | |
CN115439458A (zh) | 基于深度图注意力的工业图像缺陷目标检测算法 | |
CN111626279A (zh) | 一种负样本标注训练方法及高度自动化的票据识别方法 | |
CN112669269A (zh) | 一种基于图像识别的管道缺陷分类分级方法及系统 | |
CN113111875A (zh) | 一种基于深度学习的无缝钢轨焊缝缺陷识别装置及方法 | |
CN113506239A (zh) | 一种基于跨阶段局部网络的带钢表面缺陷检测方法 | |
Huang et al. | Deep learning object detection applied to defect recognition of memory modules | |
CN112712527B (zh) | 一种基于DR-Unet104的医疗图像分割方法 | |
CN110992301A (zh) | 一种气体轮廓识别方法 | |
Ye et al. | GLAE: Global-local Feature Autoencoder for Image Logical Anomaly Detection | |
CN113705564A (zh) | 一种指针式仪表识别读数方法 | |
Zheng et al. | MD-YOLO: Surface Defect Detector for Industrial Complex Environments | |
CN116630950A (zh) | 一种高精度识别轮辋焊缝的方法 | |
CN115187969B (zh) | 一种基于视觉识别的铅酸电池回收系统和方法 | |
CN116452556A (zh) | 基于交叉特征融合的金属膜片表面缺陷检测方法 | |
CN115229374B (zh) | 一种基于深度学习的汽车白车身焊缝质量检测方法、装置 | |
CN110889418A (zh) | 一种气体轮廓识别方法 | |
CN111861889B (zh) | 基于语义分割的太阳能电池片图像自动拼接方法及系统 | |
Song et al. | Residual Squeeze-and-Excitation Network for Battery Cell Surface Inspection | |
Hattak et al. | Benchmarking YOLO Models for Automatic Reading in Smart Metering Systems: A Performance Comparison Analysis | |
CN111382773A (zh) | 一种用于管道内部监测基于九宫原理的图像匹配方法 | |
CN112818965B (zh) | 多尺度影像目标检测方法、系统、电子设备及存储介质 | |
Monika | YOLO V7: Advancing Printed Circuit Board Defect Detection and the Quality Assurance |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |