CN114549985B - 一种基于自监督对比学习的目标检测方法及系统 - Google Patents
一种基于自监督对比学习的目标检测方法及系统 Download PDFInfo
- Publication number
- CN114549985B CN114549985B CN202210166807.7A CN202210166807A CN114549985B CN 114549985 B CN114549985 B CN 114549985B CN 202210166807 A CN202210166807 A CN 202210166807A CN 114549985 B CN114549985 B CN 114549985B
- Authority
- CN
- China
- Prior art keywords
- target
- target detection
- self
- detection model
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 115
- 238000000034 method Methods 0.000 claims abstract description 26
- 238000012549 training Methods 0.000 claims abstract description 16
- 230000006870 function Effects 0.000 claims abstract description 15
- 238000012805 post-processing Methods 0.000 claims description 6
- 230000004927 fusion Effects 0.000 claims description 5
- 238000000605 extraction Methods 0.000 claims description 4
- 238000013507 mapping Methods 0.000 claims description 4
- 238000007781 pre-processing Methods 0.000 claims description 4
- 235000009508 confectionery Nutrition 0.000 claims description 2
- 238000010606 normalization Methods 0.000 claims description 2
- 238000012544 monitoring process Methods 0.000 abstract description 6
- 230000000052 comparative effect Effects 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 7
- 238000012795 verification Methods 0.000 description 4
- 238000012360 testing method Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于自监督对比学习的目标检测方法,所述方法包括:将采集的待检测图像输入预先建立和训练好的目标检测模型,得到目标检测结果;在所述目标检测模型的训练环节引入自监督对比损失函数,引导目标检测模型学习高层场景语义信息。本发明采用的孪生组合数据增强方法能够有效地针对自监督学习方法扩充原有的数据集,提升模型对于数据中干扰噪声的鲁棒性;本发明实现的自监督模块通过目标网络和在线网络的对比学习,可引导模型学习高层次的语义信息,提升目标检测网络的检测精度。
Description
技术领域
本发明属于车辆检测领域,具体涉及一种基于自监督对比学习的目标检测方法及系统,特别涉及一种基于自监督学习的2D/3D目标检测框架。
背景技术
对于基于图像的2D/3D目标检测,现有的主流算法都存在着泛化能力差的问题。相关方法在已知的训练集和验证集上表现良好,但在来自实际场景中的未知测试集上的表现相对较差。同样的目标出现在不同的光照、明暗、背景等外部环境下,算法会产生截然不同的检测结果(表现为目标检测框的有无和检测框几何参数的不同),同样,若对验证集图片进行统一的亮度变换,在经亮度变换处理的验证集上检测算法精度指标要远远低于其在原始验证集上的精度指标。上述现象说明:常规检测模型训练阶段对背景、光照、亮度、色调等底层信息存在过拟合问题。
外部环境和图像质量(如色调,亮度,对比度,饱和度和噪声)等变化很大,无法通过采集大量数据将这些差异全部包含在内,这是导致检测算法无法泛化未知商业数据的主要原因。因此,如何控制骨干网络聚焦于高层语义信息而不受图像质量变化的影响是缓解这种泛化问题的关键。
发明内容
本发明的目的在于克服现有技术缺陷,提出了一种基于自监督对比学习的目标检测方法及系统。
为了实现上述目的,本发明提出了一种基于自监督对比学习的目标检测方法,所述方法包括:
将采集的待检测图像输入预先建立和训练好的目标检测模型,得到目标检测结果;
在所述目标检测模型的训练环节引入自监督对比损失函数,引导目标检测模型学习高层场景语义信息。
作为上述方法的一种改进,所述目标检测模型包括串联的骨干网络、检测头和后处理模块,其中,
所述骨干网络,用于提取待检测图像的特征,所述骨干网络包括编码器和解码器,编码器为特征提取网络;
所述检测头,用于进行目标类别预测和检测框参数的回归;
所述后处理模块,用于解析来自检测头的预测值得到检测结果,所述检测结果包括目标类别和2D/3D目标框。
作为上述方法的一种改进,所述方法还包括目标检测模型的训练步骤,具体包括:
步骤s1)建立原始图像数据集;
步骤s2)对原始图像数据集进行预处理,得到同时集成像素级数据增强和孪生组合数据增强的图像数据对;
步骤s3)依次将预处理后的一个孪生图像数据对分别输入目标检测模型和自监督模块,通过输出的自监督对比损失函数引导目标检测模型的参数更新;重复该步骤,直至满足训练要求,得到训练好的目标检测模型。
作为上述方法的一种改进,所述步骤s2)具体包括:
基于原始图像数据集,通过贴图的方式,得到背景不同且检测目标相同的孪生图像对;
对每个孪生图像对的两个图像分别以不同的概率进行色调、亮度、对比度和饱和度的像素级数据增强,从而得到像素级数据增强的孪生图像数据对。
作为上述方法的一种改进,所述步骤s3)的自监督模块包括目标网络、第一投影头、预测头和第二投影头;其中,
所述目标网络与目标检测模型的骨干网络结构相同且具有相同的初始化参数,目标网络的输出与第二投影头连接;
骨干网络的输出依次连接第一投影头和预测头;第一投影头、第二投影头和预测头的结构均相同,为两层MLP。
作为上述方法的一种改进,所述第一投影头的输入为单一尺度特征图或多尺度融合之后的特征图。
作为上述方法的一种改进,所述步骤s3)的依次将预处理后的一个孪生图像数据对分别输入目标检测模型和自监督模块,通过输出的自监督对比损失函数引导目标检测模型的参数更新;具体包括:
作为上述方法的一种改进,所述将一个孪生图像数据对的两幅图像分别输入目标检测模型的骨干网络和自监督模块的目标网络,计算得到均方误差;具体包括:
其中,||·||2表示二阶范数。
一种基于自监督对比学习的目标检测系统,所述系统包括:结果输出模块和目际检测模型,其中,
所述结果输出模块,用于将采集的待检测图像输入预先建立和训练好的目标检则模型,得到目标检测结果;
在所述目标检测模型的训练环节引入自监督对比损失函数,引导目标检测模型学习高层场景语义信息。
与现有技术相比,本发明的优势在于:
1、本发明采用的孪生组合数据增强方法能够有效地针对自监督学习方法扩充原有的数据集,孪生组合数据增强及像素级数据增强为自监督模块的在线网络和目标网络生成对应的图像对,提升模型对于数据中干扰噪声的鲁棒性;
2、本发明中实现的自监督模块通过目标网络和在线网络的对比学习,可引导模型学习高层次的语义信息,提升目标检测网络的检测精度。
附图说明
图1是本发明的自监督对比学习的训练模型示意图,其中,图1(a)是作用于单一尺度特征图的自监督对比学习框架,图1(b)是作用于多尺度融合特征图的自监督对比学习框架;
图2是孪生组合数据增强方法原理图;
图3是目标检测模型测试环节原理图。
具体实施方式
本发明提出了一种基于自监督学习的目标检测方法,所述方法包括步骤:
1.对数据集进行孪生组合数据增强生成图像对;
2.对图像对进行不同的像素级数据增强;
3.在目标检测框架(以CenterNet为例)中集成自监督模块;
4.在训练环节,基于上述数据增强产生的图像对,将其中一张图片输入自监督模块中的目标网络,将另一张图片输入目标检测模型的骨干网络;
5.对上述结果进行预测及结果可视化。
需要说明的是,本实施例以CenterNet框架作为目标检测模型,仅为示例,并不限制必须采用该框架。
为了完成基于图像的2D/3D目标检测,本发明主要包括了三个部分,分别是孪生组合数据增强模块,像素级数据增强模块,自监督模块。
1.孪生组合数据增强模块:用于对原始数据集进行孪生组合数据增强生成孪生图像对。通过目标贴图,使图像对中的两张图像包含相同的检测目标,但背景不同。
2.像素级数据增强模块:对模块一生成的孪生图像对以不同的概率进行色调,亮度,对比度,饱和度等像素级数据增强。
自监督模块:在原CenterNet框架的骨干网络部分添加自监督模块,该模块由目标网络、投影头和预测头三部分组成:目标网络与原CenterNet框架中的骨干网络具有相同的网络结构和初始化参数。后接第一投影头和预测头;第二检测头接于CenterNet骨干网络之后,基于预测头和第二检测头的特征输出构建对比损失引导模型学习高层次语义信息,从而得到更好的检测性能与鲁棒性。
表1为下文及附图中用到的英文标识的解释。
表1缩略语对照表
下面结合附图和实施例对本发明的技术方案进行详细的说明。
实施例1
本发明是基于传统深度学习的自监督辅助的基于图像的目标检测方法,具体实施步骤如下:
步骤1)对原始数据集中的数据进行预处理,包括孪生组合数据增强,即在原始数据集上通过贴图的方式,生成图像对并保持每个图像对中目标一致;像素级数据增强,即对于每个图像对中输入到目标网络的图像以一定的概率进行像素级数据增强,包括对比度、亮度等。
步骤2)对图像进行特征提取;具体包括:
使用backbone进行特征提取,backbone由两部分组成:encoder采用Resnet18,decoder由三层反卷积组成。输入图像首先经过Resnet18,随后经过三层反卷积,逐步提高图像分辨率。
步骤3)自监督模块
自监督模块主要由两部分组成,分别是在线网络和目标网络。在线网络通过减少与目标网络的对比loss来进行训练,从而更好地提取特征。在线网络由三部分组成,分别是encoder即原CenterNet框架中进行特征提取的网络部分、投影头和预测头。投影头和测试头结构完全相同,均为两层MLP。目标网络与在线网络由encoder和投影头两部分组成,这两部分与在线网络的encoder和投影头结构完全相同,并且采用完全相同的初始化参数。
需要指出的是,自监督模块encoder输入投影头的特征有两种选择,分别是输入CenterNet框架回归分支中的特征图,参考图1(a);另一种选择是参考原CenterNet框架中的多尺度特征融合操作,输入多尺度融合之后的特征图,参考图1(b)。
自监督模块根据在线网络和目标网络的输出计算出一个对比loss用于自监督部分的参数更新。我们使用θ和ξ分别表示在线网络和目标网络的参数集合,分别用zθ和z′ξ表示在线网络和目标网络经过投影头之后得到的特征,若用qθ表示在线网络的预测头,则在线网络最终得到的特征图为qθ(zθ)。下面需要计算在线网络最终得到的特征图qθ(zθ)和目标网络最终得到的特征图z′ξ之间的对比loss,具体计算方法如下:
随后计算两个输出之间的均方误差:
自监督部分在线网络的参数由对比loss反向传播随机梯度下降更新,而目标网络的参数根据在线网络更新后的参数进行动量更新(EMA):
ξ←τξ+(1-τ)θ
由于在线网络的参数也会根据有监督网络得到的loss进行更新,可以根据实际情况调整对比loss占总loss的比重。
如图2所示,为孪生组合数据增强方法原理图,需要说明的是该图主要为示意性说明增强的原理及效果。
实施例2
如图3所示,本发明的实施例2提出了一种基于自监督对比学习的目标检测系统,基于实施例1的方法实现,所述系统包括:结果输出模块和目标检测模型,其中,
结果输出模块,用于将采集的待检测图像输入预先建立和训练好的目标检测模型,得到目标检测结果;
在所述目标检测模型的训练环节引入自监督对比损失函数,引导目标检测模型学习高层场景语义信息。
目标检测模型包括串联的骨干网络、检测头和后处理模块,其中,
所述骨干网络用于提取待检测图像的特征,包括编码器和解码器,编码器为特征提取网络(例如Resnet18);
所述检测头,用于目标类别预测和检测框参数回归;
所述后处理模块,用于解析来自检测头的预测值从而得到检测结果(包含目标类别与2D/3D目标框)。
最后所应说明的是,以上实施例仅用以说明本发明的技术方案而非限制。尽管参照实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,对本发明的技术方案进行修改或者等同替换,都不脱离本发明技术方案的精神和范围,其均应涵盖在本发明的权利要求范围当中。
Claims (6)
1.一种基于自监督对比学习的目标检测方法,所述方法包括:
将采集的待检测图像输入预先建立和训练好的目标检测模型,得到目标检测结果;
在所述目标检测模型的训练环节引入自监督对比损失函数,引导目标检测模型学习高层场景语义信息;
所述方法还包括目标检测模型的训练步骤,具体包括:
步骤s1)建立原始图像数据集;
步骤s2)对原始图像数据集进行预处理,得到同时集成像素级数据增强和孪生组合数据增强的图像数据对;
步骤s3)依次将预处理后的一个孪生图像数据对分别输入目标检测模型和自监督模块,通过输出的自监督对比损失函数引导目标检测模型的参数更新;重复该步骤,直至满足训练要求,得到训练好的目标检测模型;
所述步骤s2)具体包括:
基于原始图像数据集,通过贴图的方式,得到背景不同且检测目标相同的孪生图像对;
对每个孪生图像对的两个图像分别以不同的概率进行色调、亮度、对比度和饱和度的像素级数据增强,从而得到像素级数据增强的孪生图像数据对;
所述步骤s3)的依次将预处理后的一个孪生图像数据对分别输入目标检测模型和自监督模块,通过输出的自监督对比损失函数引导目标检测模型的参数更新;具体包括:
2.根据权利要求1所述的基于自监督对比学习的目标检测方法,其特征在于,所述目标检测模型包括串联的骨干网络、检测头和后处理模块,其中,
所述骨干网络,用于提取待检测图像的特征,所述骨干网络包括编码器和解码器,编码器为特征提取网络;
所述检测头,用于进行目标类别预测和检测框参数的回归;
所述后处理模块,用于解析来自检测头的预测值得到检测结果,所述检测结果包括目标类别和2D/3D目标框。
3.根据权利要求1所述的基于自监督对比学习的目标检测方法,其特征在于,所述步骤s3)的自监督模块包括目标网络、第一投影头、预测头和第二投影头;其中,
所述目标网络与目标检测模型的骨干网络结构相同且具有相同的初始化参数,目标网络的输出与第二投影头连接;
骨干网络的输出依次连接第一投影头和预测头;第一投影头、第二投影头和预测头的结构均相同,为两层MLP。
4.根据权利要求3所述的基于自监督对比学习的目标检测方法,其特征在于,所述第一投影头的输入为单一尺度特征图或多尺度融合之后的特征图。
6.一种基于自监督对比学习的目标检测系统,其特征在于,所述系统包括:结果输出模块和目标检测模型,其中,
所述结果输出模块,用于将采集的待检测图像输入预先建立和训练好的目标检测模型,得到目标检测结果;
在所述目标检测模型的训练环节引入自监督对比损失函数,引导目标检测模型学习高层场景语义信息;
所述目标检测模型的训练步骤具体包括:
步骤s1)建立原始图像数据集;
步骤s2)对原始图像数据集进行预处理,得到同时集成像素级数据增强和孪生组合数据增强的图像数据对;
步骤s3)依次将预处理后的一个孪生图像数据对分别输入目标检测模型和自监督模块,通过输出的自监督对比损失函数引导目标检测模型的参数更新;重复该步骤,直至满足训练要求,得到训练好的目标检测模型;
所述步骤s2)具体包括:
基于原始图像数据集,通过贴图的方式,得到背景不同且检测目标相同的孪生图像对;
对每个孪生图像对的两个图像分别以不同的概率进行色调、亮度、对比度和饱和度的像素级数据增强,从而得到像素级数据增强的孪生图像数据对;
所述步骤s3)的依次将预处理后的一个孪生图像数据对分别输入目标检测模型和自监督模块,通过输出的自监督对比损失函数引导目标检测模型的参数更新;具体包括:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210166807.7A CN114549985B (zh) | 2022-02-23 | 2022-02-23 | 一种基于自监督对比学习的目标检测方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210166807.7A CN114549985B (zh) | 2022-02-23 | 2022-02-23 | 一种基于自监督对比学习的目标检测方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114549985A CN114549985A (zh) | 2022-05-27 |
CN114549985B true CN114549985B (zh) | 2023-01-31 |
Family
ID=81678384
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210166807.7A Active CN114549985B (zh) | 2022-02-23 | 2022-02-23 | 一种基于自监督对比学习的目标检测方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114549985B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116030303B (zh) * | 2023-01-09 | 2024-01-30 | 深圳市大数据研究院 | 一种基于半监督孪生网络的视频结直肠病变分型方法 |
CN116071268B (zh) * | 2023-03-01 | 2023-06-23 | 中国民用航空飞行学院 | 基于对比学习的图像去光照模型及其训练方法 |
CN116664825B (zh) * | 2023-06-26 | 2024-07-19 | 北京智源人工智能研究院 | 面向大场景点云物体检测的自监督对比学习方法及系统 |
CN116681625B (zh) * | 2023-07-04 | 2024-02-02 | 广州工程技术职业学院 | 基于多尺度对比学习的无监督图像去雨方法、装置及终端 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106909625A (zh) * | 2017-01-20 | 2017-06-30 | 清华大学 | 一种基于Siamese网络的图像检索方法及系统 |
CN111833378A (zh) * | 2020-06-09 | 2020-10-27 | 天津大学 | 一种基于代理共享网络的多无人机单目标跟踪方法及装置 |
CN111898633A (zh) * | 2020-06-19 | 2020-11-06 | 北京理工大学 | 一种基于高光谱图像的海上舰船目标检测方法 |
CN114067177A (zh) * | 2021-11-18 | 2022-02-18 | 中国人民解放军国防科技大学 | 一种基于自监督学习的遥感图像分类网络鲁棒性提升方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112381104B (zh) * | 2020-11-16 | 2024-08-06 | 腾讯科技(深圳)有限公司 | 一种图像识别方法、装置、计算机设备及存储介质 |
CN113033460A (zh) * | 2021-04-09 | 2021-06-25 | 昆明理工大学 | 一种基于孪生网络的联合损失遥感图像分类方法 |
CN114066937B (zh) * | 2021-11-06 | 2022-09-02 | 中国电子科技集团公司第五十四研究所 | 一种大尺度遥感影像多目标跟踪方法 |
-
2022
- 2022-02-23 CN CN202210166807.7A patent/CN114549985B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106909625A (zh) * | 2017-01-20 | 2017-06-30 | 清华大学 | 一种基于Siamese网络的图像检索方法及系统 |
CN111833378A (zh) * | 2020-06-09 | 2020-10-27 | 天津大学 | 一种基于代理共享网络的多无人机单目标跟踪方法及装置 |
CN111898633A (zh) * | 2020-06-19 | 2020-11-06 | 北京理工大学 | 一种基于高光谱图像的海上舰船目标检测方法 |
CN114067177A (zh) * | 2021-11-18 | 2022-02-18 | 中国人民解放军国防科技大学 | 一种基于自监督学习的遥感图像分类网络鲁棒性提升方法 |
Also Published As
Publication number | Publication date |
---|---|
CN114549985A (zh) | 2022-05-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114549985B (zh) | 一种基于自监督对比学习的目标检测方法及系统 | |
CN112818862B (zh) | 基于多源线索与混合注意力的人脸篡改检测方法与系统 | |
CN110490239B (zh) | 图像质控网络的训练方法、质量分类方法、装置及设备 | |
CN111160407B (zh) | 一种深度学习目标检测方法及系统 | |
CN110263666B (zh) | 一种基于非对称多流的动作检测方法 | |
CN114724007A (zh) | 训练分类模型、数据分类方法、装置、设备、介质及产品 | |
CN117392615B (zh) | 一种基于监控视频的异常识别方法及系统 | |
Sun et al. | Learning local quality-aware structures of salient regions for stereoscopic images via deep neural networks | |
WO2024021461A1 (zh) | 缺陷检测方法及装置、设备、存储介质 | |
CN112434608A (zh) | 一种基于双流结合网络的人体行为识别方法及系统 | |
CN114565770A (zh) | 基于边缘辅助计算和掩模注意力的图像分割方法及系统 | |
CN116757986A (zh) | 一种红外与可见光图像融合方法及装置 | |
CN112614070A (zh) | 一种基于DefogNet的单幅图像去雾方法 | |
CN114693607A (zh) | 基于多域块特征标志点配准的篡改视频检测方法及系统 | |
CN112348762A (zh) | 一种基于多尺度融合生成对抗网络的单幅图像去雨方法 | |
CN116994044A (zh) | 一种基于掩码多模态生成对抗网络的图像异常检测模型的构建方法 | |
CN115578722A (zh) | 基于车牌间协同学习机制的车牌检测方法 | |
CN114596609A (zh) | 一种视听伪造检测方法及装置 | |
CN116958736A (zh) | 一种基于跨模态边缘引导的rgb-d显著性目标检测方法 | |
CN114463187B (zh) | 基于聚合边缘特征的图像语义分割方法及系统 | |
CN113506259A (zh) | 一种基于融合网络的图像模糊判别方法及系统 | |
CN113744158A (zh) | 图像生成方法、装置、电子设备和存储介质 | |
CN117392392B (zh) | 一种割胶线识别与生成方法 | |
CN118298412B (zh) | 自动化同视机的视功能电子检测系统 | |
CN113936028B (zh) | 一种结合自动产生三元图与深层空洞卷积网络之数字抠像系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |