CN117253050B - 一种基于自适应特征提取的茶芽叶检测方法 - Google Patents
一种基于自适应特征提取的茶芽叶检测方法 Download PDFInfo
- Publication number
- CN117253050B CN117253050B CN202311541054.4A CN202311541054A CN117253050B CN 117253050 B CN117253050 B CN 117253050B CN 202311541054 A CN202311541054 A CN 202311541054A CN 117253050 B CN117253050 B CN 117253050B
- Authority
- CN
- China
- Prior art keywords
- tensor
- image
- feature
- tea
- leaf
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000605 extraction Methods 0.000 title claims abstract description 71
- 238000001514 detection method Methods 0.000 title claims abstract description 36
- 241001122767 Theaceae Species 0.000 claims abstract description 215
- 230000004927 fusion Effects 0.000 claims description 48
- 230000006870 function Effects 0.000 claims description 32
- 238000000034 method Methods 0.000 claims description 27
- 230000003044 adaptive effect Effects 0.000 claims description 18
- 238000011176 pooling Methods 0.000 claims description 15
- 230000008447 perception Effects 0.000 claims description 12
- 230000001131 transforming effect Effects 0.000 claims description 11
- 238000006243 chemical reaction Methods 0.000 claims description 10
- 230000004913 activation Effects 0.000 claims description 8
- 238000005070 sampling Methods 0.000 claims description 6
- 238000012549 training Methods 0.000 claims description 5
- 230000000877 morphologic effect Effects 0.000 abstract description 5
- 235000013616 tea Nutrition 0.000 description 169
- 239000010410 layer Substances 0.000 description 100
- 210000002569 neuron Anatomy 0.000 description 8
- 230000009466 transformation Effects 0.000 description 8
- 230000002085 persistent effect Effects 0.000 description 6
- 230000008439 repair process Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 235000013361 beverage Nutrition 0.000 description 2
- RYYVLZVUVIJVGH-UHFFFAOYSA-N caffeine Chemical compound CN1C(=O)N(C)C(=O)C2=C1N=CN2C RYYVLZVUVIJVGH-UHFFFAOYSA-N 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000001965 increasing effect Effects 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- PFTAWBLQPZVEMU-DZGCQCFKSA-N (+)-catechin Chemical compound C1([C@H]2OC3=CC(O)=CC(O)=C3C[C@@H]2O)=CC=C(O)C(O)=C1 PFTAWBLQPZVEMU-DZGCQCFKSA-N 0.000 description 1
- 238000012935 Averaging Methods 0.000 description 1
- LPHGQDQBBGAPDZ-UHFFFAOYSA-N Isocaffeine Natural products CN1C(=O)N(C)C(=O)C2=C1N(C)C=N2 LPHGQDQBBGAPDZ-UHFFFAOYSA-N 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 229940024606 amino acid Drugs 0.000 description 1
- 235000001014 amino acid Nutrition 0.000 description 1
- 150000001413 amino acids Chemical class 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 229960001948 caffeine Drugs 0.000 description 1
- VJEONQKOZGKCAK-UHFFFAOYSA-N caffeine Natural products CN1C(=O)N(C)C(=O)C2=C1C=CN2C VJEONQKOZGKCAK-UHFFFAOYSA-N 0.000 description 1
- ADRVNXBAWSRFAJ-UHFFFAOYSA-N catechin Natural products OC1Cc2cc(O)cc(O)c2OC1c3ccc(O)c(O)c3 ADRVNXBAWSRFAJ-UHFFFAOYSA-N 0.000 description 1
- 235000005487 catechin Nutrition 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 229950001002 cianidanol Drugs 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000002355 dual-layer Substances 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000002401 inhibitory effect Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000006740 morphological transformation Effects 0.000 description 1
- 235000015097 nutrients Nutrition 0.000 description 1
- 150000008442 polyphenolic compounds Chemical class 0.000 description 1
- 235000013824 polyphenols Nutrition 0.000 description 1
- 239000002994 raw material Substances 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 238000011426 transformation method Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/16—Image acquisition using multiple overlapping images; Image stitching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30181—Earth observation
- G06T2207/30188—Vegetation; Agriculture
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种基于自适应特征提取的茶芽叶检测方法,包括:基于茶芽叶图像搜索最大深度值,根据最大深度值修复茶芽叶图像的空洞。对茶芽叶图像进行自适应尺度特征提取,得到第一图像张量。对第一图像张量进行特征拼接,得到拼接张量;提取拼接张量的特征,得到多个预测特征层。对多个预测特征层进行茶芽叶检测,得到茶芽叶检测结果。自适应尺度特征提取可以根据茶芽叶图像中的茶芽叶的具体形态调整特征提取的尺度,增强了对形态特征的提取能力。提取拼接张量的特征,得到多个可以全面表示各种差异化的茶芽叶的预测特征层。对多个预测特征层进行茶芽叶检测,可以自适应检测不同视域下茶芽叶的数量和位置,具有较高的检测准确度。
Description
技术领域
本发明涉及茶叶检测技术领域,尤其涉及一种基于自适应特征提取的茶芽叶检测方法。
背景技术
茶是全世界流行的饮料,含有丰富的茶多酚、儿茶素、氨基酸、咖啡因等营养成分,已成为最受欢迎的健康饮料之一。随着茶饮料消费市场的不断扩大,消费者对优质茶的需求也不断提升。一般来说,单芽、一芽一叶是优质茶的主要原材料,以人工采摘为主,传统的人工采收费时、费力,且成本高,研发自动化的采茶机器人正成为茶产业可持续发展的必然趋势,利用计算机视觉检测定位鲜茶芽叶是机器人自动采摘中的一个重要组成部分。
为了更好的优化机器人对鲜茶芽叶的检测定位性能,许多研究人员采用传统图像处理和深度学习方法做了大量研究,但绝大多数视域下只有少数的茶芽叶目标,目标相对于背景较小,具有较高的检测难度。实际作业中搭载于机器人上的视觉系统成像的视域是多目标的,同时茶芽叶生长规律不同,在拍摄过程中相机的位置和角度不断变化,使得视域下的目标形态不一,尺寸多变。
综上所述,需要一种可以对各种差异化的茶芽叶进行全面的特征表示,从而准确地在茶芽叶图像中检测出茶芽叶的方法。
发明内容
为克服相关技术中存在的问题,本发明的目的是提供一种基于自适应特征提取的茶芽叶检测方法,该方法可以对各种差异化的茶芽叶进行全面的特征表示,从而准确地在茶芽叶图像中检测出茶芽叶。
一种基于自适应特征提取的茶芽叶检测方法,包括:
在本发明较佳的技术方案中,采用深度传感设备采集多尺寸的茶芽叶图像,基于所述茶芽叶图像搜索最大深度值,根据所述最大深度值修复所述茶芽叶图像的空洞;所述茶芽叶图像包含一个或多个茶芽叶;
对所述茶芽叶图像进行自适应尺度特征提取,得到第一图像张量;所述第一图像张量包括第一图像子张量、第二图像子张量和第三图像子张量;
对所述第一图像张量进行特征拼接,得到拼接张量;提取所述拼接张量的特征,得到多个预测特征层;多个所述预测特征层用于表示不同形态的所述茶芽叶;
对多个所述预测特征层进行茶芽叶检测,得到茶芽叶检测结果。
在本发明较佳的技术方案中,对所述茶芽叶图像进行自适应尺度特征提取,得到第一图像张量,包括:
将所述茶芽叶图像的特征输入茶芽叶识别模型的第一尺度特征提取层,提取所述茶芽叶图像的自适应尺度,得到所述第一图像子张量;
将所述第一图像子张量输入所述茶芽叶识别模型的第二尺度特征提取层,提取所述第一图像子张量的自适应尺度,得到所述第二图像子张量;
将所述第二图像子张量输入所述茶芽叶识别模型的第三尺度特征提取层,提取所述第二图像子张量的自适应尺度,得到所述第三图像子张量。
在本发明较佳的技术方案中,所述提取所述茶芽叶图像的自适应尺度,得到所述第一图像子张量,包括:
对所述茶芽叶图像进行多尺度特征提取,得到多个特征图像;
对所述多个特征图像进行融合,得到融合图像;
根据所述融合图像进行特征融合,得到所述第一图像子张量,所述第一图像子张量包含多个经过筛选的尺度特征。
在本发明较佳的技术方案中,所述根据所述融合图像进行特征融合,得到所述第一图像子张量,包括:
对所述融合图像进行全局平均池化,得到池化结果;
对所述池化结果进行多层感知,得到多个感知特征;
根据所述感知特征计算感知权重,使用所述感知权重对所述特征图像进行加权求和,得到所述第一图像子张量。
在本发明较佳的技术方案中,所述对所述第一图像张量进行特征拼接,得到拼接张量;提取所述拼接张量的特征,得到多个预测特征层,包括:
对所述第一图像张量进行多特征融合,得到多特征融合结果;
根据所述第二图像子张量对所述多特征融合结果进行拼接和特征提取,得到第一拼接子张量;
根据所述第一图像子张量对所述第一拼接子张量进行拼接和特征提取,得到第一预测特征层;
根据所述第一预测特征层对所述第一拼接子张量进行拼接和特征提取,得到第二预测特征层;
根据所述第二预测特征层对所述多特征融合结果进行拼接和特征提取,得到第三预测特征层。
在本发明较佳的技术方案中,所述根据所述第二图像子张量对所述多特征融合结果进行拼接和特征提取,得到第一拼接子张量,包括:
对所述多特征融合结果进行卷积,得到第一卷积结果;
对所述第一卷积结果进行上采样,得到第一上采样结果;
提取所述第二图像子张量的特征,得到第二子张量特征;
将所述第二子张量特征与所述第一上采样结果拼接,得到所述第二子张量特征的拼接结果;
提取所述第二子张量特征的拼接结果的特征,得到第一拼接子张量。
在本发明较佳的技术方案中,所述对多个所述预测特征层进行茶芽叶检测,得到茶芽叶检测结果,包括:
将所述第一预测特征层、所述第二预测特征层和所述第三预测特征层输入所述茶芽叶识别模型的预测层,进行推理维度转换,得到推理维度转换结果;
对所述推理维度转换结果进行预测并解码,得到茶芽叶检测结果。
在本发明较佳的技术方案中,所述对所述第一图像张量进行多特征融合,得到多特征融合结果,包括:
将所述第一图像张量特征变换,得到第一序列张量;
对所述第一序列张量进行全连接运算,得到第二序列张量;
将所述第二序列张量特征变换,得到第二图像张量;
基于残差模型提取所述第二图像张量的图像特征,得到特征张量;
对所述特征张量进行全连接运算,得到全局特征;
将全局特征与局部特征融合,得到多特征融合结果。
在本发明较佳的技术方案中,所述基于所述茶芽叶图像搜索最大深度值,根据所述最大深度值修复所述茶芽叶图像的空洞,包括:
计算所述茶芽叶图像的梯度,得到梯度图像;
将所述梯度图像和所述茶芽叶图像拼接,得到组合图像;
在所述组合图像中搜索出最大深度值;
根据所述最大深度值迭代修复所述茶芽叶图像的空洞。
在本发明较佳的技术方案中,所述对所述茶芽叶图像进行自适应尺度特征提取之前,还包括:
构建所述茶芽叶识别模型;
根据以下最终损失函数对所述茶芽叶识别模型进行训练:
;
其中,为所述最终损失函数,/>为i类别预测的可能性,/>为正确预测的类别,/>为i类别预测的可能性的激活函数,/>为权重惩罚项,/>为第一损失函数。
本发明的有益效果为:
本发明提供的一种基于自适应特征提取的茶芽叶检测方法,包括采用深度传感设备采集多尺寸的茶芽叶图像,基于茶芽叶图像搜索最大深度值,根据最大深度值修复茶芽叶图像的空洞,茶芽叶图像包含一个或多个茶芽叶。对茶芽叶图像进行自适应尺度特征提取,得到第一图像张量,第一图像张量包括第一图像子张量、第二图像子张量和第三图像子张量。自适应尺度特征提取可以根据茶芽叶图像中的茶芽叶的具体形态调整特征提取的尺度,增强了对形态特征的提取能力。对第一图像张量进行特征拼接,可以将全局特征和局部特征融合,得到的拼接张量具有全局特征依赖性。提取拼接张量的特征,得到多个可以全面表示各种差异化的茶芽叶的预测特征层,多个预测特征层用于表示不同形态的茶芽叶。对多个预测特征层进行茶芽叶检测,可以自适应检测不同视域下茶芽叶的数量和位置,得到的茶芽叶检测结果准确度较高。
附图说明
图1是本发明提供的基于自适应特征提取的茶芽叶检测方法的流程图;
图2是本发明提供的提取第一图像张量的流程图;
图3是本发明提供的计算多个预测特征层的流程图;
图4是本发明提供的修复茶芽叶图像的空洞的流程图。
具体实施方式
下面将参照附图更详细地描述本发明的优选实施方式。虽然附图中显示了本发明的优选实施方式,然而应该理解,可以以各种形式实现本发明而不应被这里阐述的实施方式所限制。相反,提供这些实施方式是为了使本发明更加透彻和完整,并且能够将本发明的范围完整地传达给本领域的技术人员。
在本发明使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本发明。在本发明和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本文中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
应当理解,尽管在本发明可能采用术语“第一”、“第二”、“第三”等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本发明范围的情况下,第一信息也可以被称为第二信息,类似地,第二信息也可以被称为第一信息。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个该特征。在本发明的描述中,“多个”的含义是两个或两个以上,除非另有明确具体的限定。
实施例1
如图1所示,本实施例提供一种基于自适应特征提取的茶芽叶检测方法,包括以下步骤:
S1:采用深度传感设备采集多尺寸的茶芽叶图像,基于所述茶芽叶图像搜索最大深度值,根据所述最大深度值修复所述茶芽叶图像的空洞;所述茶芽叶图像包含一个或多个茶芽叶。
在茶叶采摘装置上搭建深度传感设备,在不同高度下采集视域下的多目标以及多尺寸的茶芽叶图像,茶芽叶图像包括深度图像,深度图像为灰度图像。
使用采集的多张茶芽叶图像构建茶芽叶数据集,构建茶芽叶数据集之后,对茶芽叶数据集中的茶芽叶图像进行预处理,预处理包括调节分辨率、色调和亮度,增强对比度以及形态变换。具体地,将原始分辨率、原始色调和原始对比度乘以对应的调节因子,调节因子的大小范围为0.7-1.3。采用直方图均衡、线性变换或伽马变换方法增强对比度,形态变换包括平移和旋转。
S2:对所述茶芽叶图像进行自适应尺度特征提取,得到第一图像张量;所述第一图像张量包括第一图像子张量、第二图像子张量和第三图像子张量。
将茶芽叶图像输入茶芽叶识别模型的Backbone网络,即骨干网络,提取茶芽叶图像的不同尺度的特征,再将不同尺度的特征进行融合,从而得到可以表征多个不同尺寸的茶芽叶的第一图像张量。
S3:对所述第一图像张量进行特征拼接,得到拼接张量;提取所述拼接张量的特征,得到多个预测特征层;多个所述预测特征层用于表示不同形态的所述茶芽叶。
将第一图像张量输入茶芽叶识别模型的Neck网络,即颈部网络,结合全连接运算和特征变换对所述第一图像张量进行特征拼接,可以融合局部特征和全局特征。提取所述拼接张量的特征,得到的多个预测特征层可以实现全面和差异化的特征表示。
S4:对多个所述预测特征层进行茶芽叶检测,得到茶芽叶检测结果。
将多个预测特征层输入茶芽叶识别模型的Prediction网络,即预测网络,判断茶芽叶图像中是否存在茶芽叶,若存在,则在茶芽叶图像中标出预测框,给出每个预测框内的茶芽叶种类。
由于使用多个所述预测特征层,可以检测出茶芽叶图像中多个不同尺寸的茶芽叶,例如第一预测特征层对应尺寸较小的茶芽叶,第二预测特征层对应尺寸适中的茶芽叶,第三预测特征层对应尺寸较大的茶芽叶。
本实施例提供的一种基于自适应特征提取的茶芽叶检测方法,包括采用深度传感设备采集多尺寸的茶芽叶图像,基于茶芽叶图像搜索最大深度值,根据最大深度值修复茶芽叶图像的空洞,茶芽叶图像包含一个或多个茶芽叶。对茶芽叶图像进行自适应尺度特征提取,得到第一图像张量,第一图像张量包括第一图像子张量、第二图像子张量和第三图像子张量。自适应尺度特征提取可以根据茶芽叶图像中的茶芽叶的具体形态调整特征提取的尺度,增强了对形态特征的提取能力。对第一图像张量进行特征拼接,可以将全局特征和局部特征融合,得到的拼接张量具有全局特征依赖性。提取拼接张量的特征,得到多个可以全面表示各种差异化的茶芽叶的预测特征层,多个预测特征层用于表示不同形态的茶芽叶。对多个预测特征层进行茶芽叶检测,可以自适应检测不同视域下茶芽叶的数量和位置,得到的茶芽叶检测结果准确度较高。
实施例2
如图2所示,本实施例仅描述与实施例1的不同之处,其余特征与上述实施例相同。
对所述茶芽叶图像进行自适应尺度特征提取,得到第一图像张量,包括:
S21:将所述茶芽叶图像的特征输入茶芽叶识别模型的第一尺度特征提取层,提取所述茶芽叶图像的自适应尺度,得到所述第一图像子张量。
步骤S21包括以下步骤S211-S213:
S211:对所述茶芽叶图像进行多尺度特征提取,得到多个特征图像。
使用多个卷积核提取茶芽叶图像的多尺度特征,本实施例以使用1×1,3×3,5×5和7×7四个卷积核提取四种不同尺度的特征为例,使用1×1卷积核提取的第一特征图像为S1,使用3×3卷积核提取的第二特征图像为S2,使用5×5卷积核提取的第三特征图像为S3,使用7×7卷积核提取的第四特征图像为S4。
S212:对所述多个特征图像进行融合,得到融合图像。
根据如下公式对多个特征图像进行融合:
;
其中,S为融合图像,为第一特征图像,/>为第二特征图像,/>为第三特征图像,为第四特征图像,+表示将第一特征图像、第二特征图像、第三特征图像和第四特征图像对应的像素相加。
S213:根据所述融合图像进行特征融合,得到所述第一图像子张量,所述第一图像子张量包含多个经过筛选的尺度特征。
对所述融合图像进行全局平均池化,得到池化结果;全局平均池化是将融合图像的所有像素的像素值相加,再计算平均值,得到池化结果。全局平均池化可以替代全连接层,减少参数数量,从而防止过拟合。
对所述池化结果进行多层感知,得到多个感知特征;
根据以下公式对池化结果进行多层感知:
;
其中,为第l个神经元对应的输出,即第l个感知特征,C表示特征图像的通道数,h表示第h个通道,/>表示第h个通道的第l个神经元的隐藏层的权重的转置,/>表示池化结果。
根据所述感知特征计算感知权重,使用所述感知权重对所述特征图像进行加权求和,得到第一图像子张量。
将各个神经元的输出在通道维度拼接,得到神经元输出张量,使用激活函数对神经元输出张量进行变换。
使用激活函数对每个感知特征进行变换,得到特征张量Z,特征张量Z生成多个分支张量,使用激活函数例如Sigmoid函数对每个分支张量进行变换,得到多个感知权重,使用感知权重对特征图像进行加权求和,得到第一图像子张量。
通过如下公式计算第一图像子张量:
;
;
其中,L为神经元的总数,表示第L个神经元对应的输出,/>表示第一激活函数,Z表示特征张量,/>表示第i个特征图像,/>表示特征张量生成的第i个分支张量变换得到的感知权重,/>表示第二激活函数,Y为第一图像子张量。
S22:将所述第一图像子张量输入所述茶芽叶识别模型的第二尺度特征提取层,提取所述第一图像子张量的自适应尺度,得到所述第二图像子张量。
第二尺度特征提取层和第一尺度特征提取层的结构相同,提取第一图像子张量的自适应尺度的过程与提取茶芽叶图像的自适应尺度的过程相同,将步骤S211中的茶芽叶图像替换为第一图像子张量,再执行步骤S212-S213即可,此处不再赘述。
S23:将所述第二图像子张量输入所述茶芽叶识别模型的第三尺度特征提取层,提取所述第二图像子张量的自适应尺度,得到所述第三图像子张量。
第三尺度特征提取层和第二尺度特征提取层的结构可以相同,也可以不同,此处不作限定。通过自适应尺度特征提取,可以增强茶芽叶识别模型对各种茶芽叶的形态特征的提取能力。
本实施例将茶芽叶图像的特征输入茶芽叶识别模型的第一尺度特征提取层,提取茶芽叶图像的自适应尺度,得到第一图像子张量。将第一图像子张量输入茶芽叶识别模型的第二尺度特征提取层,提取第一图像子张量的自适应尺度,得到第二图像子张量。将第二图像子张量输入茶芽叶识别模型的第三尺度特征提取层,提取第二图像子张量的自适应尺度,得到第三图像子张量。通过三个尺度特征提取层,可以提取茶芽叶图像中各种茶芽叶的形态特征。提取茶芽叶图像的多尺度特征之后,结合全局平均池化、多层感知以及加权求和,在感知融合的基础上,考虑了各层特征之间的相互影响,得到的第一图像子张量、第二图像子张量和第三图像子张量具有尺度选择性。
实施例3
如图3所示,本实施例仅描述与实施例1的不同之处,其余特征与上述实施例相同。所述对所述第一图像张量进行特征拼接,得到拼接张量;提取所述拼接张量的特征,得到多个预测特征层,包括:
S31:对所述第一图像张量进行多特征融合,得到多特征融合结果。
步骤S31包括以下步骤S311-S316:
S311:将所述第一图像张量特征变换,得到第一序列张量。
第一图像张量表示为,使用第一特征变换函数将通道数为C,高度为H,宽度为W的第一图像张量转换为第一序列张量,第一序列张量的通道数为C,每个通道对应的尺寸为H*W。
将第一图像张量特征变换的公式如下:
;
其中,为第一特征变换函数,/>为第一图像张量,/>为第一序列张量。
S312:对所述第一序列张量进行全连接运算,得到第二序列张量。
采用全连接的方式实现对第一序列张量的特征的轻量型多层感知,得到具有全局依赖关系的第二序列张量。
S313:将所述第二序列张量特征变换,得到第二图像张量。
对第二序列张量特征变换的公式如下:
;
其中,为第二特征变换函数,本实施例以第二特征变换函数与第一特征变换函数相同为例,/>为第一序列张量,W为神经元矩阵,.表示点乘运算,/>为第二图像张量。
S314:基于残差模型提取所述第二图像张量的图像特征,得到特征张量。
使用残差模型可以防止计算后出现发散现象,提取第二图像张量的图像特征的公式如下:
;
其中,O为特征张量,为卷积单元计算,/>为第二图像张量,X为第一图像张量。
S315:对所述特征张量进行全连接运算,得到全局特征。
对特征张量进行全连接运算,并调整特征张量的全连接运算结果的输出通道的维度,使得该维度与输入的第一图像张量X的维度相同,得到全局特征。
S316:将全局特征与局部特征融合,得到多特征融合结果。
将全局特征与局部特征在通道维度做拼接,并再次提取特征,得到多特征融合结果,多特征融合结果可以全面表示各种差异化的茶芽叶。
S32:根据所述第二图像子张量对所述多特征融合结果进行拼接和特征提取,得到第一拼接子张量。
步骤S32包括以下步骤S321-S325:
S321:对所述多特征融合结果进行卷积,得到第一卷积结果。
使用二维卷积调整多特征融合结果的通道数,得到第一卷积结果。
S322:对所述第一卷积结果进行上采样,得到第一上采样结果。
上采样采用反卷积、双线性差值加卷积或反池化,此处不作限定,通过上采样增大第一卷积结果的分辨率,得到第一上采样结果。
S323:提取所述第二图像子张量的特征,得到第二子张量特征。
对第二图像子张量进行一次二维卷积,得到第二子张量特征。
S324:将所述第二子张量特征与所述第一上采样结果拼接,得到所述第二子张量特征的拼接结果。
将第二子张量特征与第一上采样结果在通道维度进行拼接,得到第二子张量特征的拼接结果。
S325:提取所述第二子张量特征的拼接结果的特征,得到第一拼接子张量。
采用Multi_Concat_Block对第二子张量特征的拼接结果进行特征提取,得到的第一拼接子张量的尺寸为40*40*256。
S33:根据所述第一图像子张量对所述第一拼接子张量进行拼接和特征提取,得到第一预测特征层。
依次对第一图像子张量进行二维卷积和上采样,得到第一图像子张量处理结果。对第一图像子张量进行一次二维卷积,得到第一子张量特征。将第一子张量特征和第一图像子张量处理结果进行拼接,得到第一子张量特征的拼接结果。提取第一子张量特征的拼接结果的特征,得到的第一预测特征层的尺寸为80*80*128。
S34:根据所述第一预测特征层对所述第一拼接子张量进行拼接和特征提取,得到第二预测特征层。
使用yolov7中的Transition_Block对第一预测特征层进行卷积下采样,得到第一预测特征层的下采样结果。将第一预测特征层的下采样结果与第一拼接子张量在通道维度拼接后采用Multi_Concat_Block进行特征提取,得到尺寸为40*40*256的第二预测特征层。
S35:根据所述第二预测特征层对所述多特征融合结果进行拼接和特征提取,得到第三预测特征层。
使用Transition_Block对第二预测特征层进行卷积下采样,得到第二预测特征层的下采样结果。将第二预测特征层的下采样结果与多特征融合结果在通道维度拼接后采用Multi_Concat_Block进行特征提取,得到尺寸为20*20*512的第三预测特征层。
本实施例对第一图像张量进行多特征融合,得到多特征融合结果。多特征融合可以提取具有全局依赖性的全局特征,将全局特征与局部特征融合,从而全面地表示各种差异化的茶芽叶。根据第二图像子张量对多特征融合结果进行拼接和特征提取,得到第一拼接子张量。根据第一图像子张量对第一拼接子张量进行拼接和特征提取,得到第一预测特征层。根据第一预测特征层对第一拼接子张量进行拼接和特征提取,得到第二预测特征层。根据第二预测特征层对多特征融合结果进行拼接和特征提取,得到第三预测特征层。第一预测特征层、第二预测特征层和第三预测特征层的尺寸不同,可以表示不同尺寸的茶芽叶的特征,从而在茶芽叶图像中检测出不同尺寸的茶芽叶的数量和位置。
实施例4
本实施例仅描述与实施例1的不同之处,其余特征与上述实施例相同。所述对多个所述预测特征层进行茶芽叶检测,得到茶芽叶检测结果,包括:
S41:将所述第一预测特征层、所述第二预测特征层和所述第三预测特征层输入所述茶芽叶识别模型的预测层,进行推理维度转换,得到推理维度转换结果。
第一预测特征层的尺寸为80*80*128,第二预测特征层的尺寸为40*40*256,第三预测特征层的尺寸为20*20*512。通过Repconv卷积将第一预测特征层的推理维度转换为20*20*18,通过Repconv卷积将第二预测特征层的推理维度转换为40*40*18,通过Repconv卷积将第三预测特征层的推理维度转换为80*80*18。
S42:对所述推理维度转换结果进行预测并解码,得到茶芽叶检测结果。
对转换推理维度之后的第一预测特征层、第二预测特征层和第三预测特征层进行预测并解码。
第一预测特征层、第二预测特征层和第三预测特征层推理维度转换后的尺寸中的18=3*6,3表示每个物体有3个先验的预测框,6=4+1+1,4表示预测框的左上和右下两个点的横坐标和纵坐标共4个坐标。第一个1表示通过1个参数判断每一个特征点是否包含物体,第二个1表示预测物体的种类。
茶芽叶识别模型筛选出置信度高于置信度阈值的边界框,然后使用NMS(Non-maximum supression,非极大值抑制)消除多余的重叠边界框,从而提高茶芽叶识别的准确性。
如图4所示,所述基于所述茶芽叶图像搜索最大深度值,根据所述最大深度值修复所述茶芽叶图像的空洞,包括:
S21’:计算所述茶芽叶图像的梯度,得到梯度图像。
使用Sobel算子计算茶芽叶图像在x方向和y方向上的梯度,以捕获茶芽叶图像中的边缘和变化信息,本实施例的茶芽叶图像为深度图像。
S22’:将所述梯度图像和所述茶芽叶图像拼接,得到组合图像。
将梯度图像和茶芽叶图像按通道方向进行拼接,得到组合图像。
S23’:在所述组合图像中搜索出最大深度值。
在组合图像中搜寻空洞,若有多个空洞,则随机选择一个空洞作为当前空洞。获取以当前空洞为中心的大小为n×n的像素块,该像素块用于获取当前空洞周围的像素值。在该像素块中搜索出最大深度值,以考虑周围像素的影响。
S24’:根据所述最大深度值迭代修复所述茶芽叶图像的空洞。
将最大深度值赋给当前空洞,即使用当前空洞周围的局部最优像素的深度值填充当前空洞。通过迭代修复的方式,逐步填充待修复区域,直到修复完成为止。例如,茶芽叶图像共有3个空洞,使用步骤S21’-S24’的方法依次修复茶芽叶图像的第1个空洞,第2个空洞和第3个空洞。
空洞修复的基本原理是通过在待修复区域的边缘上选择具有最高优先级的像素点p,并以该像素点为中心构造一个大小为 n×n 的像素块。通过在完好区域中寻找与模板块最相似的样本块,并使用找到的样本块来更新模板块中的待修复信息。样本块的选择基于其与模板块的相似度,以确保修复结果的准确性和一致性,该空洞修复方法会更新已修复块中像素点的置信度,以反映修复的可靠性。该方法的关键在于优先选择边缘上的像素点作为修复的起点,以最大程度地保留图像的结构和边缘信息。该空洞修复方法可以在修复过程中利用已知信息来填充待修复区域,从而提高修复结果的质量和准确性。
所述对所述茶芽叶图像进行自适应尺度特征提取之前,还包括:
S11’:构建所述茶芽叶识别模型。
茶芽叶识别模型包括步骤S211-S213中的第一尺度特征提取层、第二尺度特征提取层,第三尺度特征提取层,步骤S31中对第一图像张量进行多特征融合的多特征融合模块,以及步骤S33-S35中的第一预测特征层、第二预测特征层和第三预测特征层。
S12’:根据以下最终损失函数对所述茶芽叶识别模型进行训练:
;
其中,为所述最终损失函数,/>为i类别预测的可能性,/>为正确预测的类别,/>为i类别预测的可能性的激活函数,/>为权重惩罚项,/>为第一损失函数。
根据以下公式计算第一损失函数:
;
其中,为i类别预测的可能性,/>为正确预测的类别,/>为激活函数,N为类别总数,/>为第一损失函数。
根据以下公式计算权重惩罚项:
;
其中,为权重惩罚项,exp为以自然常数为底的指数函数,/>为第一超参数,为样本i被预测为真实类别的预测概率,/>,/>是样本i被误分类为不正确的预测概率。
最终损失函数用于计算对真类和假类预测之间的差距,如果茶芽叶目标被分类为背景,则/>较小,/>较大,使得/>变大,从而使整个权重惩罚项/>变大,这种情况下最终损失函数的损失值将大于第一损失函数的损失值,使用最终损失函数训练茶芽叶识别模型有助于抑制茶芽叶的漏检。
本实施例将尺寸不同的第一预测特征层、第二预测特征层和第三预测特征层输入茶芽叶识别模型的预测层进行预测,对多目标和多尺寸的茶芽叶的检测和定位具有较高的准确度。茶芽叶识别模型由带有权重惩罚项的最终损失函数训练得到,有助于抑制茶芽叶的漏检。在梯度计算的基础上搜索局部最优的最大深度值,使用最大深度值迭代修复茶芽叶图像中的空洞区域,提高对茶芽叶的定位的准确性。
实施例5
与前述应用功能实现方法实施例相对应,本实施例提供了一种基于自适应特征提取的茶芽叶检测方法所对应的电子设备。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不再做详细阐述说明。
电子设备包括存储器和处理器。
处理器可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器 (Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列 (Field-Programmable Gate Array,FPGA) 或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
存储器可以包括各种类型的存储单元,例如系统内存、只读存储器(ROM),和永久存储装置。其中,ROM可以存储处理器或者计算机的其他模块需要的静态数据或者指令。永久存储装置可以是可读写的存储装置。永久存储装置可以是即使计算机断电后也不会失去存储的指令和数据的非易失性存储设备。在一些实施方式中,永久性存储装置采用大容量存储装置(例如磁或光盘、闪存)作为永久存储装置。另外一些实施方式中,永久性存储装置可以是可移除的存储设备(例如软盘、光驱)。系统内存可以是可读写存储设备或者易失性可读写存储设备,例如动态随机访问内存。系统内存可以存储一些或者所有处理器在运行时需要的指令和数据。此外,存储器可以包括任意计算机可读存储媒介的组合,包括各种类型的半导体存储芯片(DRAM,SRAM,SDRAM,闪存,可编程只读存储器),磁盘和/或光盘也可以采用。在一些实施方式中,存储器可以包括可读和/或写的可移除的存储设备,例如激光唱片(CD)、只读数字多功能光盘(例如DVD-ROM,双层DVD-ROM)、只读蓝光光盘、超密度光盘、闪存卡(例如SD卡、min SD卡、Micro-SD卡等等)、磁性软盘等等。计算机可读存储媒介不包含载波和通过无线或有线传输的瞬间电子信号。
存储器上存储有可执行代码,当可执行代码被处理器处理时,可以使处理器执行上文述及的方法中的部分或全部。
除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值不限制本申请的范围。同时,应当明白,为了便于描述,附图中所示出的各个部分的尺寸并不是按照实际的比例关系绘制的。对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为授权说明书的一部分。在这里示出和讨论的所有示例中,任何具体值应被解释为仅仅是示例性的,而不是作为限制。因此,示例性实施例的其它示例可以具有不同的值。应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。以上所述仅为本发明的优选实施例而已,并不用于限制本发明,
对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (9)
1.一种基于自适应特征提取的茶芽叶检测方法,其特征在于,包括:
采用深度传感设备采集多尺寸的茶芽叶图像,基于所述茶芽叶图像搜索最大深度值,根据所述最大深度值修复所述茶芽叶图像的空洞;所述茶芽叶图像包含一个或多个茶芽叶;
对所述茶芽叶图像进行自适应尺度特征提取,得到第一图像张量;所述第一图像张量包括第一图像子张量、第二图像子张量和第三图像子张量;
对所述第一图像张量进行特征拼接,得到拼接张量;提取所述拼接张量的特征,得到多个预测特征层;多个所述预测特征层用于表示不同形态的所述茶芽叶;
对多个所述预测特征层进行茶芽叶检测,得到茶芽叶检测结果;
所述基于所述茶芽叶图像搜索最大深度值,根据所述最大深度值修复所述茶芽叶图像的空洞,包括:
计算所述茶芽叶图像的梯度,得到梯度图像;
将所述梯度图像和所述茶芽叶图像拼接,得到组合图像;
在所述组合图像中搜索出最大深度值;
根据所述最大深度值迭代修复所述茶芽叶图像的空洞;
所述在所述组合图像中搜索出最大深度值包括:
在所述组合图像中搜寻空洞,若有多个所述空洞,则随机选择一个所述空洞作为当前空洞;获取以所述当前空洞为中心的大小为n×n的像素块,在所述像素块中搜索出最大深度值。
2.根据权利要求1所述的基于自适应特征提取的茶芽叶检测方法,其特征在于,对所述茶芽叶图像进行自适应尺度特征提取,得到第一图像张量,包括:
将所述茶芽叶图像的特征输入茶芽叶识别模型的第一尺度特征提取层,提取所述茶芽叶图像的自适应尺度,得到所述第一图像子张量;
将所述第一图像子张量输入所述茶芽叶识别模型的第二尺度特征提取层,提取所述第一图像子张量的自适应尺度,得到所述第二图像子张量;
将所述第二图像子张量输入所述茶芽叶识别模型的第三尺度特征提取层,提取所述第二图像子张量的自适应尺度,得到所述第三图像子张量。
3.根据权利要求2所述的基于自适应特征提取的茶芽叶检测方法,其特征在于,所述提取所述茶芽叶图像的自适应尺度,得到所述第一图像子张量,包括:
对所述茶芽叶图像进行多尺度特征提取,得到多个特征图像;
对所述多个特征图像进行融合,得到融合图像;
根据所述融合图像进行特征融合,得到所述第一图像子张量,所述第一图像子张量包含多个经过筛选的尺度特征。
4.根据权利要求3所述的基于自适应特征提取的茶芽叶检测方法,其特征在于,所述根据所述融合图像进行特征融合,得到所述第一图像子张量,包括:
对所述融合图像进行全局平均池化,得到池化结果;
对所述池化结果进行多层感知,得到多个感知特征;
根据所述感知特征计算感知权重,使用所述感知权重对所述特征图像进行加权求和,得到所述第一图像子张量。
5.根据权利要求2所述的基于自适应特征提取的茶芽叶检测方法,其特征在于,所述对所述第一图像张量进行特征拼接,得到拼接张量;提取所述拼接张量的特征,得到多个预测特征层,包括:
对所述第一图像张量进行多特征融合,得到多特征融合结果;
根据所述第二图像子张量对所述多特征融合结果进行拼接和特征提取,得到第一拼接子张量;
根据所述第一图像子张量对所述第一拼接子张量进行拼接和特征提取,得到第一预测特征层;
根据所述第一预测特征层对所述第一拼接子张量进行拼接和特征提取,得到第二预测特征层;
根据所述第二预测特征层对所述多特征融合结果进行拼接和特征提取,得到第三预测特征层。
6.根据权利要求5所述的基于自适应特征提取的茶芽叶检测方法,其特征在于,所述根据所述第二图像子张量对所述多特征融合结果进行拼接和特征提取,得到第一拼接子张量,包括:
对所述多特征融合结果进行卷积,得到第一卷积结果;
对所述第一卷积结果进行上采样,得到第一上采样结果;
提取所述第二图像子张量的特征,得到第二子张量特征;
将所述第二子张量特征与所述第一上采样结果拼接,得到所述第二子张量特征的拼接结果;
提取所述第二子张量特征的拼接结果的特征,得到第一拼接子张量。
7.根据权利要求5所述的基于自适应特征提取的茶芽叶检测方法,其特征在于,所述对多个所述预测特征层进行茶芽叶检测,得到茶芽叶检测结果,包括:
将所述第一预测特征层、所述第二预测特征层和所述第三预测特征层输入所述茶芽叶识别模型的预测层,进行推理维度转换,得到推理维度转换结果;
对所述推理维度转换结果进行预测并解码,得到茶芽叶检测结果。
8.根据权利要求5所述的基于自适应特征提取的茶芽叶检测方法,其特征在于,所述对所述第一图像张量进行多特征融合,得到多特征融合结果,包括:
将所述第一图像张量特征变换,得到第一序列张量;
对所述第一序列张量进行全连接运算,得到第二序列张量;
将所述第二序列张量特征变换,得到第二图像张量;
基于残差模型提取所述第二图像张量的图像特征,得到特征张量;
对所述特征张量进行全连接运算,得到全局特征;
将全局特征与局部特征融合,得到多特征融合结果。
9.根据权利要求2所述的基于自适应特征提取的茶芽叶检测方法,其特征在于,所述对所述茶芽叶图像进行自适应尺度特征提取之前,还包括:
构建所述茶芽叶识别模型;
根据以下最终损失函数对所述茶芽叶识别模型进行训练:
;
其中,为所述最终损失函数,/>为i类别预测的可能性,/>为正确预测的类别,/>为i类别预测的可能性的激活函数,/>为权重惩罚项,/>为第一损失函数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311541054.4A CN117253050B (zh) | 2023-11-20 | 2023-11-20 | 一种基于自适应特征提取的茶芽叶检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311541054.4A CN117253050B (zh) | 2023-11-20 | 2023-11-20 | 一种基于自适应特征提取的茶芽叶检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117253050A CN117253050A (zh) | 2023-12-19 |
CN117253050B true CN117253050B (zh) | 2024-03-22 |
Family
ID=89135434
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311541054.4A Active CN117253050B (zh) | 2023-11-20 | 2023-11-20 | 一种基于自适应特征提取的茶芽叶检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117253050B (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140021766A (ko) * | 2012-08-10 | 2014-02-20 | 광운대학교 산학협력단 | 가상시점 영상 생성을 위한 경계 잡음 제거 및 홀 채움 방법 |
CN115147648A (zh) * | 2022-06-29 | 2022-10-04 | 江苏大学 | 一种基于改进YOLOv5目标检测的茶叶嫩梢识别方法 |
CN115439744A (zh) * | 2022-08-29 | 2022-12-06 | 华南农业大学 | 基于目标检测的复杂环境下茶叶嫩芽轻量化检测方法 |
CN117252884A (zh) * | 2023-11-20 | 2023-12-19 | 华南农业大学 | 一种基于自注意力机制的茶芽叶目标分割方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114842187A (zh) * | 2022-03-08 | 2022-08-02 | 中国农业科学院茶叶研究所 | 基于融合热力图像和rgb图像的茶叶嫩芽采摘点定位方法 |
-
2023
- 2023-11-20 CN CN202311541054.4A patent/CN117253050B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140021766A (ko) * | 2012-08-10 | 2014-02-20 | 광운대학교 산학협력단 | 가상시점 영상 생성을 위한 경계 잡음 제거 및 홀 채움 방법 |
CN115147648A (zh) * | 2022-06-29 | 2022-10-04 | 江苏大学 | 一种基于改进YOLOv5目标检测的茶叶嫩梢识别方法 |
CN115439744A (zh) * | 2022-08-29 | 2022-12-06 | 华南农业大学 | 基于目标检测的复杂环境下茶叶嫩芽轻量化检测方法 |
CN117252884A (zh) * | 2023-11-20 | 2023-12-19 | 华南农业大学 | 一种基于自注意力机制的茶芽叶目标分割方法 |
Non-Patent Citations (2)
Title |
---|
Detection Network for multi-size and multi-target tea bud leaves in the field of view via improved YOLOv7;Tianci Chen et al;https://ssrn.com/abstract=4535836;第1-31页 * |
基于高光谱的茶叶含水量检测模型建立与试验研究;吴伟斌 等;《河南农业大学学报》;20181031;第52卷(第5期);第818-824页 * |
Also Published As
Publication number | Publication date |
---|---|
CN117253050A (zh) | 2023-12-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110348319B (zh) | 一种基于人脸深度信息和边缘图像融合的人脸防伪方法 | |
CN106980871B (zh) | 应用到道路场景图像的低保真分类器和高保真分类器 | |
Nandhini Abirami et al. | Deep CNN and Deep GAN in Computational Visual Perception‐Driven Image Analysis | |
Chen et al. | MFFN: An underwater sensing scene image enhancement method based on multiscale feature fusion network | |
CN113592845A (zh) | 一种电池涂布的缺陷检测方法及装置、存储介质 | |
CN112926652B (zh) | 一种基于深度学习的鱼类细粒度图像识别方法 | |
CN111126412A (zh) | 基于特征金字塔网络的图像关键点检测方法 | |
CN106780727B (zh) | 一种车头检测模型重建方法及装置 | |
CN113591795A (zh) | 一种基于混合注意力特征金字塔结构的轻量化人脸检测方法和系统 | |
CN114565620B (zh) | 一种基于骨架先验和对比损失的眼底图像血管分割方法 | |
CN112598031A (zh) | 一种蔬菜病害检测方法及系统 | |
Shihavuddin et al. | Automated classification and thematic mapping of bacterial mats in the north sea | |
Fan et al. | A novel sonar target detection and classification algorithm | |
Pramunendar et al. | A Robust Image Enhancement Techniques for Underwater Fish Classification in Marine Environment. | |
CN113393434A (zh) | 一种基于非对称双流网络架构的rgb-d显著性检测方法 | |
CN115546466A (zh) | 一种基于多尺度显著特征融合的弱监督图像目标定位方法 | |
CN117252884B (zh) | 一种基于自注意力机制的茶芽叶目标分割方法 | |
CN117690128B (zh) | 胚胎细胞多核目标检测系统、方法和计算机可读存储介质 | |
CN114937266A (zh) | 一种基于yolox-s的硬壳蛤生物体征识别方法 | |
EP3905120A1 (en) | Quality check method and system for determining a recognition quality of an input face image | |
Bouni et al. | Impact of pretrained deep neural networks for tomato leaf disease prediction | |
CN117253050B (zh) | 一种基于自适应特征提取的茶芽叶检测方法 | |
CN112365451A (zh) | 图像质量等级的确定方法、装置、设备及计算机可读介质 | |
CN114037737B (zh) | 一种基于神经网络的近岸海底鱼类检测及跟踪统计方法 | |
CN115311544A (zh) | 一种水下鱼类目标检测方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |