CN117671499A - 基于深度学习的花卉等级自动分类分拣与病虫害监测系统 - Google Patents
基于深度学习的花卉等级自动分类分拣与病虫害监测系统 Download PDFInfo
- Publication number
- CN117671499A CN117671499A CN202311660200.5A CN202311660200A CN117671499A CN 117671499 A CN117671499 A CN 117671499A CN 202311660200 A CN202311660200 A CN 202311660200A CN 117671499 A CN117671499 A CN 117671499A
- Authority
- CN
- China
- Prior art keywords
- target
- data
- deep learning
- image data
- module
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 241000607479 Yersinia pestis Species 0.000 title claims abstract description 118
- 201000010099 disease Diseases 0.000 title claims abstract description 67
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 title claims abstract description 67
- 241000238631 Hexapoda Species 0.000 title claims abstract description 51
- 238000012544 monitoring process Methods 0.000 title claims abstract description 43
- 238000013135 deep learning Methods 0.000 title claims abstract description 28
- 238000012545 processing Methods 0.000 claims abstract description 67
- 238000012549 training Methods 0.000 claims abstract description 58
- 238000013136 deep learning model Methods 0.000 claims abstract description 57
- 238000004458 analytical method Methods 0.000 claims abstract description 29
- 238000000034 method Methods 0.000 claims description 57
- 230000008569 process Effects 0.000 claims description 20
- 238000007405 data analysis Methods 0.000 claims description 14
- 230000000007 visual effect Effects 0.000 claims description 14
- 238000013523 data management Methods 0.000 claims description 13
- 230000003993 interaction Effects 0.000 claims description 13
- 238000004140 cleaning Methods 0.000 claims description 10
- 238000007781 pre-processing Methods 0.000 claims description 7
- 238000011282 treatment Methods 0.000 claims description 7
- 238000013079 data visualisation Methods 0.000 claims description 6
- 238000004891 communication Methods 0.000 claims description 5
- 238000013500 data storage Methods 0.000 claims description 5
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 241000894007 species Species 0.000 claims description 4
- 230000002452 interceptive effect Effects 0.000 claims description 2
- 230000000694 effects Effects 0.000 abstract description 7
- 230000003449 preventive effect Effects 0.000 abstract description 6
- 230000001225 therapeutic effect Effects 0.000 abstract description 6
- 230000003628 erosive effect Effects 0.000 abstract description 5
- 241000220317 Rosa Species 0.000 description 53
- 238000001514 detection method Methods 0.000 description 46
- 241000196324 Embryophyta Species 0.000 description 38
- 241000109329 Rosa xanthina Species 0.000 description 37
- 235000004789 Rosa xanthina Nutrition 0.000 description 37
- 238000013527 convolutional neural network Methods 0.000 description 32
- 238000004422 calculation algorithm Methods 0.000 description 30
- 230000011218 segmentation Effects 0.000 description 18
- 230000002829 reductive effect Effects 0.000 description 16
- 238000004519 manufacturing process Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 9
- 230000005802 health problem Effects 0.000 description 6
- 230000008901 benefit Effects 0.000 description 5
- 238000013461 design Methods 0.000 description 5
- 230000004927 fusion Effects 0.000 description 5
- 238000011221 initial treatment Methods 0.000 description 5
- 230000007246 mechanism Effects 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000009826 distribution Methods 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 3
- 238000007635 classification algorithm Methods 0.000 description 3
- 238000013145 classification model Methods 0.000 description 3
- 239000003086 colorant Substances 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000036541 health Effects 0.000 description 3
- 230000006872 improvement Effects 0.000 description 3
- 239000000575 pesticide Substances 0.000 description 3
- 238000003860 storage Methods 0.000 description 3
- 241000233866 Fungi Species 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 238000013480 data collection Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000003709 image segmentation Methods 0.000 description 2
- 238000013140 knowledge distillation Methods 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 238000013508 migration Methods 0.000 description 2
- 230000005012 migration Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 238000013526 transfer learning Methods 0.000 description 2
- 238000012800 visualization Methods 0.000 description 2
- 206010017533 Fungal infection Diseases 0.000 description 1
- 208000003464 asthenopia Diseases 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000004821 distillation Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 208000024386 fungal infectious disease Diseases 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 239000012535 impurity Substances 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000036961 partial effect Effects 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000013468 resource allocation Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 239000002689 soil Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012559 user support system Methods 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了基于深度学习的花卉等级自动分类分拣与病虫害监测系统,涉及花卉分拣技术领域。所述系统包括:图像数据采集模块,其用于捕捉目标图像数据;图像数据处理模块,其用于建立深度学习模型,并建立第一训练集和第二训练集,进行第一特征训练和第二特征训练,然后参照第一特征训练和第二特征训练,对所述目标图像数据依次进行一次处理和二次处理。本发明通过深度学习模型对目标图像数据依次进行处理,分别检测目标的种类特征和病虫害侵蚀特征,输出其特征分析结果,为后续的自动化对目标进行种类分拣提供技术基础,提高了花卉的分拣效率,降低人力成本,且能及时监测到被病虫害侵蚀的花卉,达到及时采取预防和治疗措施的效果。
Description
技术领域
本发明涉及花卉分拣技术领域,具体为基于深度学习的花卉等级自动分类分拣与病虫害监测系统。
背景技术
卷积神经网络(Convolutional Neural Network,CNN)是一种包含卷积运算且具有深度结构的前馈神经网络(Feedforward Neural Network,FNN),被广泛应用于图像识别、自然语言处理和语音识别等领域。
现有的花卉市场在进行花卉交易时,需要通过人工对花卉进行分拣,以达到对不同种类花卉进行分类的目的,通过人工可以快速的识别出花卉种类,但是由于人力的限制,分拣效率难以提升,并且在分拣过程中,如果为了进一步挑选出被病虫害侵蚀的花卉,则分拣的效率会进一步降低,并且由于人工操作具有易疲劳性,长时间进行花卉分拣工作,容易产生视疲劳,导致部分病虫害植物被忽视,降低了分拣准确率。并且因为人工分拣准确率具有浮动性,导致花卉的销售、采购过程中容易产生纠纷,造成不必要的售后服务。且若是在采购时没有及时将病虫害的花卉挑选出来,也会在后续的种植过程中产生不必要的资源浪费。
发明内容
本发明的目的在于提供基于深度学习的花卉等级自动分类分拣与病虫害监测系统,以解决现有的花卉市场在进行花卉交易时需要通过人工对花卉进行分拣,分拣效率低,容易忽视病虫害植物的问题。
为实现上述目的,本发明提供如下技术方案:一种基于深度学习的花卉等级自动分类分拣与病虫害监测系统,包括:
图像数据采集模块,其用于捕捉目标图像数据;
图像数据处理模块,其用于建立深度学习模型,并建立第一训练集和第二训练集,进行第一特征训练和第二特征训练,然后参照第一特征训练和第二特征训练,对所述目标图像数据依次进行一次处理和二次处理;
其中,所述一次处理为通过所述深度学习模型对所述目标图像数据进行初次识别,分析所述目标的第一特征;
所述二次处理为通过所述深度学习模型对所述目标图像数据进行二次识别,分析所述目标是否存在第二特征;
目标分类处理模块,其用于获取所述目标的特征分析结果,并根据特征分析结果输出所述目标的分类结果。
可选的,所述图像数据采集模块通过高分辨率摄像头、图像传感器和/或图像采集无人机进行目标图像数据捕捉。
优选的,所述第一特征为所述目标的种类特征。
优选的,所述一次处理具体包括以下步骤:
载入所述目标图像数据;
通过深度学习模型对所述目标图像数据进行识别,分析所述目标在所述目标图像数据中的位置,并进行目标特征分离;
获取目标特征图,然后通过深度学习模型对目标特征图进行初次识别,确认所述目标的种类特征。
优选的,所述第二特征为所述目标的病虫害特征。
优选的,所述二次处理具体包括以下步骤:
载入目标特征图;
通过深度学习模型对所述目标特征图进行二次识别,确认所述目标是否存在病虫害特征,若有,则对所述目标特征图进行特别标注,反之则不对所述目标特征图进行特别标注。
优选的,所述第一训练集内包括若干与所述目标同科目的图像,所述深度学习模型通过第一训练集进行训练,获得分析目标种类特征的能力;
所述第二训练集包括若干带有病虫害的花卉图像,所述深度学习模型通过第二训练集进行训练,获得分析目标是否存在病虫害特征的能力。
优选的,所述目标分类处理模块还用于:
获取当前所述目标的分类结果,所述分类结果包括根据所述目标种类特征进行分类的分类结果,或者还包括根据所述目标是否存在病虫害特征进行分类的分类结果;
根据所述分类结果输出相对应的分拣指令。
可选的,所述目标分类处理模块还与外部机械臂进行连接,所述机械臂用于执行所述分拣指令,将所述目标分拣至不同区域进行分类。
优选的,所述系统还包括:
数据管理模块,其用于对所述系统的数据进行存储和管理;
人机交互模块,其用于与用户进行可视化页面进行交互以及远程通讯。
优选的,所述数据管理模块包括:
数据存储子模块,其用于将所述图像数据采集模块、图像数据处理模块和目标分类处理模块的数据进行存储;
数据清洗子模块,其用于对所述系统的数据进行清洗和预处理,所述清洗和预处理用于对所述系统的数据进行清洗,去除潜在错误数据噪音数据,然后保留可用数据并进行格式转化,直至其处于可分析格式;
数据分析子模块,其用于载入数据分析工具,对所述系统的数据进行分类、分析和监测;
数据安全及共享子模块,其用于对所述系统的数据进行加密和解密,并且提供局域共享服务,对所述系统的数据进行选择性局域共享。
优选的,所述人机交互模块包括:
可视化展示子模块,其用于展示所述图像数据采集模块所采集的目标图像数据、所述图像数据处理模块所输出的处理数据和目标分类处理模块输出的分类结果,还用于载入数据可视化工具,对所述系统的数据进行可视化处理;
交互操作子模块,其用于提供可操作界面,供用户对所述系统的参数进行查询和修改;
报警通知子模块,其用于与所述数据分析子模块进行交互,提前设置数据的阈值,在所述数据分析子模块监测到所述系统的数据达到阈值时,发出报警信号;
远程交互子模块,其用于与用户的移动终端进行无线通讯,提供远程交互权限。
与现有技术相比,本发明的有益效果是:
1、通过捕捉花卉的目标图像数据,然后通过深度学习模型对目标图像数据依次进行一次处理和二次处理,分别检测目标的种类特征和病虫害侵蚀特征,并输出其特征分析结果,然后根据特征分析结果输出所述目标的分类结果,为后续的自动化对目标进行种类分拣提供技术基础,提高了花卉的分拣效率,降低人力成本;
2、能及时监测到被病虫害侵蚀的花卉,达到及时采取预防和治疗措施的效果,减少植物健康问题对产量和质量的影响;
3、有助于提高花卉产业的可持续性和竞争力,为花卉的销售、采购以及种植过程提供准确的数据支持,减少商业纠纷。
附图说明
图1为本发明实施例提供的一种基于深度学习的花卉等级自动分类分拣与病虫害监测方法的主流程图;
图2为本发明实施例提供的一种基于深度学习的花卉等级自动分类分拣与病虫害监测方法的具体步骤流程图;
图3为本发明实施例提供的一种基于深度学习的花卉等级自动分类分拣与病虫害监测方法中卷积神经网络识别框架图;
图4为本发明实施例提供的一种基于深度学习的花卉等级自动分类分拣与病虫害监测系统的通信示意图;
图5为本发明实施例提供的一种基于深度学习的花卉等级自动分类分拣与病虫害监测系统的结构框图;
图6为本发明实施例提供的一种基于深度学习的玫瑰花等级自动分类分拣与病虫害监测系统的应用示意图。
图7为本发明的Mask-RCNN算法的示意图。
图8为本发明的卷积神经网络(CNN)的示意图。
图9为本发明花卉的目标检测结构示意图。
图10为本发明语义分割流程示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本实施方式的方法的执行主体为终端,所述终端可以为手机、平板电脑、掌上电脑PDA、笔记本或台式机等设备,当然,还可以为其他具有相似功能的设备,本实施方式不加以限制。
请参阅图1,本发明提供一种基于深度学习的花卉等级自动分类分拣与病虫害监测方法的主步骤图,所述方法应用于根据花卉种类和病虫害情况进行自动分拣,包括:
步骤110,捕捉目标图像数据。
其中,目标图像数据可以通过高分辨率摄像头、图像传感器和/或图像采集无人机进行目标图像数据捕捉。
可理解的,当目标到达指定区域时捕捉目标图像数据,该目标图像数据包括目标的多角度图像,以便于能够全面的对目标进行种类识别以及病虫害监测,也为后续的深度学习模型的处理工作提供了必要的图像支撑基础。
步骤120,建立深度学习模型,并建立第一训练集和第二训练集,进行第一特征训练和第二特征训练。
具体的,所述第一训练集内包括若干与所述目标同科目的图像,所述深度学习模型通过第一训练集进行训练,获得分析目标种类特征的能力;
所述第二训练集包括若干带有病虫害的花卉图像,所述深度学习模型通过第二训练集进行训练,获得分析目标是否存在病虫害特征的能力。
其中,如图3所示,图3为本发明实施例提供的一种基于深度学习的花卉等级自动分类分拣与病虫害监测方法中卷积神经网络识别框架图,所述深度学习模型基于卷积神经网络进行建立,通过卷积神经网络可以准确地从目标图像数据中分离出目标与背景,并为后续的种类特征分析和病虫害特征分析提供数据基础。
步骤130,参照第一特征训练和第二特征训练,对所述目标图像数据依次进行一次处理和二次处理。
其中,所述一次处理为通过所述深度学习模型对所述目标图像数据进行初次识别,分析所述目标的第一特征;
所述二次处理为通过所述深度学习模型对所述目标图像数据进行二次识别,分析所述目标是否存在第二特征;
所述第一特征为所述目标的种类特征;
所述第二特征为所述目标的病虫害特征。
具体的,所述步骤130包括以下步骤:
步骤131,载入所述目标图像数据;
步骤132,通过卷积神经网络对所述目标图像数据进行识别,分析所述目标在所述目标图像数据中的位置,并进行目标特征分离;
步骤133,获取目标特征图,然后通过卷积神经网络对目标特征图进行初次识别,确认所述目标的种类特征。
在本实施例中,深度学习模型分析目标种类特征时,使用的为卷积神经网络算法,来开发和训练这些图像分类模型,通过使用大规模的花卉图像样本的第一训练集来训练这些模型,包括各种品种、颜色和质量的样本,有助于深度学习模型学习并理解不同花卉的视觉特征和变化,此外,还通过将采用迁移学习的方法,从第一特征训练的深度学习模型中获取知识,以加速第一特征训练的收敛和提高分类性能。
可理解的,通过建立深度学习模型对第一特征训练,使其可以根据花卉的品种、颜色和质量,识别出花卉种类,后续进行分拣工作时,可以根据深度学习模型的识别结果,将花朵分拣到相应的分类通道,并通过不断持续训练优化深度学习模型,以确保不同生长环境和光照条件下的花卉都能够被准确识别和分类,从而提高分拣效率和生产质量。
具体的,所述步骤133之后还包括:
步骤134,载入目标特征图;
步骤135,通过卷积神经网络对所述目标特征图进行二次识别,确认所述目标是否存在病虫害特征,若有,则对所述目标特征图进行特别标注,反之则不对所述目标特征图进行特别标注。
其中,所述特别标注是对目标特征图内存在病虫害特征的区域进行特别标注,并通过高亮或者线条框对目标特征图中存在病虫害特征的位置进行标记。
在本实施例中,深度学习模型分析目标种类特征时,首先使用图像分割算法,如语义分割或实例分割,来标识图像中的受感染区域,语义分割或实例分割算法将能够精确地将受感染的部分从健康的花卉部分分开,提供详细的病虫害分布信息,然后通过卷积神经网络或循环神经网络,对目标图像数据进行训练和识别,然后按照上述方法使深度学习模型在大规模的受感染和健康花卉图像数据上进行训练,以提高其准确性和泛化能力,并为后续的花卉病虫害特征实时监测和反馈提供了技术基础,达到及时采取预防和治疗措施的效果,有助于及早发现并管理玫瑰花上的病虫害,减少产量损失和农药使用。
具体的,通过yolov8算法建立深度学习模型作为病虫害监测的核心算法,以实现高效的对象检测和定位。yolov8是一种先进的实时目标检测算法,能够在图像中同时识别多个对象,并提供对象的位置坐标以及类别标签,因此,深度学习模型将在大规模的花卉图像数据集上对yolov8进行训练,以使其能够识别不同类型的病虫害,如叶片斑点、昆虫、真菌等。
可选的,本发明实施例中还通过插入迁移学习的方法,从预先训练的yolov8算法中获取基本特征,并在其基础上微调以适应花卉图像的病虫害监测任务,yolov8算法的优势在于其出色的性能和速度,它可以在实时或接近实时的速度下处理图像,适用于花园中的大规模病虫害监测需求,并且,其能够提供准确的对象位置信息,有助于我们精确地识别和定位目标图像数据中受感染的区域,通过在深度学习模型中整合yolov8算法,能够在花卉的生长过程中实时监测和检测病虫害,从而采取及时的管理措施,减少植物健康问题对产量和质量的影响,这将有助于提高花卉产业的可持续性和竞争力。
步骤140,获取所述目标的特征分析结果,并根据特征分析结果输出所述目标的分类结果。
具体的,所述步骤140包括以下步骤:
步骤141,获取所述目标的特征分析结果,并根据特征分析结果输出所述目标的分类结果;
步骤142,获取当前所述目标的分类结果,所述分类结果包括根据所述目标种类特征进行分类的分类结果,或者还包括根据所述目标是否存在病虫害特征进行分类的分类结果;
步骤143,根据所述分类结果输出相对应的分拣指令。
其中,在所述步骤143之后,还包括将相对应的分拣指令输出至外部机械臂,所述机械臂执行所述分拣指令,将所述目标分拣至不同区域进行分类。
在本实施例中,通过捕捉花卉的目标图像数据,然后通过深度学习模型对目标图像数据依次进行一次处理和二次处理,分别检测目标的种类特征和病虫害侵蚀特征,并输出其特征分析结果,然后根据特征分析结果输出所述目标的分类结果,为后续的自动化对目标进行种类分拣提供技术基础,提高了花卉的分拣效率,降低人力成本,也能及时监测到被病虫害侵蚀的花卉,达到及时采取预防和治疗措施的效果,减少植物健康问题对产量和质量的影响,有助于提高花卉产业的可持续性和竞争力,为花卉的销售、采购以及种植过程提供准确的数据支持,减少商业纠纷。
为了更好的对上述实施例进行理解,如图2所示,本发明还提供了一种基于深度学习的玫瑰花等级自动分类分拣与病虫害监测方法的具体步骤流程图,方法至少包括:
步骤201,捕捉目标玫瑰花图像数据;
步骤202,建立基于卷积神经网络的深度学习模型,并建立玫瑰花种类训练集和玫瑰花病虫害训练集,进行玫瑰花种类特征训练和玫瑰花病虫害特征训练,使深度学习模型具有特征分析能力;
步骤203,载入目标玫瑰花图像数据,通过卷积神经网络对目标玫瑰花图像数据进行识别,分析目标玫瑰花在目标玫瑰花图像数据中的位置,并进行玫瑰花特征分离;
步骤204,获取玫瑰花特征图,然后通过卷积神经网络对玫瑰花特征图进行初次识别,分析确认玫瑰花的种类特征;
步骤205,载入玫瑰花特征图,通过卷积神经网络对目标玫瑰花图像数据进行二次识别,分析目标玫瑰花是否存在病虫害特征,若有则继续执行步骤206,反之则跳转至步骤207;
步骤206,对玫瑰花特征图进行特别标注,并输出特别标注后的玫瑰花特征图;
步骤207,获取目标玫瑰花的种类特征分析结果,并同步获取目标玫瑰花的病虫害特征分析结果(若有),并根据种类特征分析结果和病虫害特征分析结果(若有)输出目标玫瑰花的分类结果;
步骤208,根据目标玫瑰花的分类结果的输出相对应的分拣指令,并由外部机械臂执行分拣指令,将目标玫瑰花分拣至不同区域进行分类。
在本实施例中,通过捕捉花卉的目标图像数据,然后通过深度学习模型对目标图像数据依次进行一次处理和二次处理,分别检测目标的种类特征和病虫害侵蚀特征,并输出其特征分析结果,然后根据特征分析结果输出所述目标的分类结果,为后续的自动化对目标进行种类分拣提供技术基础,提高了花卉的分拣效率,降低人力成本,也能及时监测到被病虫害侵蚀的花卉,达到及时采取预防和治疗措施的效果,减少植物健康问题对产量和质量的影响,有助于提高花卉产业的可持续性和竞争力,为花卉的销售、采购以及种植过程提供准确的数据支持,减少商业纠纷。
请参阅图3至6,本发明提供一种基于深度学习的花卉等级自动分类分拣与病虫害监测系统,包括:
图像数据采集模块10,其用于捕捉目标图像数据。
可选的,图像数据采集模块10还用于通过高分辨率摄像头、图像传感器和/或图像采集无人机进行目标图像数据捕捉。
图像数据处理模块20,其用于建立深度学习模型,并建立第一训练集和第二训练集,进行第一特征训练和第二特征训练,然后参照第一特征训练和第二特征训练,对所述目标图像数据依次进行一次处理和二次处理。
其中,所述一次处理为通过所述深度学习模型对所述目标图像数据进行初次识别,分析所述目标的第一特征,所述第一特征为所述目标的种类特征;
所述二次处理为通过所述深度学习模型对所述目标图像数据进行二次识别,分析所述目标是否存在第二特征;第二特征为所述目标的病虫害特征;
所述第一训练集内包括若干与所述目标同科目的图像,所述深度学习模型通过第一训练集进行训练,获得分析目标种类特征的能力;
所述第二训练集包括若干带有病虫害的花卉图像,所述深度学习模型通过第二训练集进行训练,获得分析目标是否存在病虫害特征的能力。
进一步的,图像数据处理模块20还用于载入所述目标图像数据;通过卷积神经网络对所述目标图像数据进行识别,分析所述目标在所述目标图像数据中的位置,并进行目标特征分离;获取目标特征图,然后通过卷积神经网络对目标特征图进行初次识别,确认所述目标的种类特征;
还用于载入目标特征图;通过卷积神经网络对所述目标特征图进行二次识别,确认所述目标是否存在病虫害特征,若有,则对所述目标特征图进行特别标注,反之则不对所述目标特征图进行特别标注。
目标分类处理模块30,其用于获取所述目标的特征分析结果,并根据特征分析结果输出所述目标的分类结果。
进一步的,所述目标分类处理模块30还用于:
获取当前所述目标的分类结果,所述分类结果包括根据所述目标种类特征进行分类的分类结果,或者还包括根据所述目标是否存在病虫害特征进行分类的分类结果;根据所述分类结果输出相对应的分拣指令。
数据管理模块40,其用于对所述系统的数据进行存储和管理。
进一步的,所述数据管理模块40包括:
数据存储子模块41,其用于将所述图像数据采集模块10、图像数据处理模块20和目标分类处理模块30的数据进行存储;
数据清洗子模块42,其用于对所述系统的数据进行清洗和预处理,所述清洗和预处理用于对所述系统的数据进行清洗,去除潜在错误数据噪音数据,然后保留可用数据并进行格式转化,直至其处于可分析格式;
数据分析子模块43,其用于载入数据分析工具,对所述系统的数据进行分类、分析和监测;
数据安全及共享子模块44,其用于对所述系统的数据进行加密和解密,并且提供局域共享服务,对所述系统的数据进行选择性局域共享;
人机交互模块50,其用于与用户进行可视化页面进行交互以及远程通讯。
进一步的,所述人机交互模块50包括:
可视化展示子模块51,其用于展示所述图像数据采集模块10所采集的目标图像数据、所述图像数据处理模块20所输出的处理数据和目标分类处理模块30输出的分类结果,还用于载入数据可视化工具,对所述系统的数据进行可视化处理;
交互操作子模块52,其用于提供可操作界面,供用户对所述系统的参数进行查询和修改;
报警通知子模块53,其用于与所述数据分析子模块43进行交互,提前设置数据的阈值,在所述数据分析子模块43监测到所述系统的数据达到阈值时,发出报警信号;
远程交互子模块54,其用于与用户的移动终端进行无线通讯,提供远程交互权限。
具体的,如图6所示,图6为发明还提供了一种基于深度学习的玫瑰花等级自动分类分拣与病虫害监测系统的应用示意图,图6中包括:
10、图像数据采集模块;20、图像数据处理模块;30、目标分类处理模块;40、数据管理模块;50、人机交互模块;30a、机械臂;30b、传送带;
花卉通过传送带30b进行输送,输送过程中,通过图像数据采集模块10采集花卉图像数据,然后将花卉图像输送至图像数据处理模块20,通过图像数据处理模块20对花卉图像数据进行分析处理,当图像数据处理模块20对图像处理完毕后,将目标的分类结果输出至目标分类处理模块30,然后目标分类处理模块30即可根据目标的分类结果输出相应的分拣指令,并通过机械臂30a对花卉进行移动。
在本实施例中,通过捕捉花卉的目标图像数据,然后通过深度学习模型对目标图像数据依次进行一次处理和二次处理,分别检测目标的种类特征和病虫害侵蚀特征,并输出其特征分析结果,然后根据特征分析结果输出所述目标的分类结果,为后续的自动化对目标进行种类分拣提供技术基础,提高了花卉的分拣效率,降低人力成本,也能及时监测到被病虫害侵蚀的花卉,达到及时采取预防和治疗措施的效果,减少植物健康问题对产量和质量的影响,有助于提高花卉产业的可持续性和竞争力,为花卉的销售、采购以及种植过程提供准确的数据支持,减少商业纠纷。
首先,高分辨率摄像头用于捕获玫瑰花的图像数据。随后,这些数据经过预处理并输入到深度学习模型中。模型经过大量玫瑰图片的训练,能够识别出花朵的各种特性,如大小、颜色、花瓣数量等,并进行准确的分类。同时,模型还能够检测出花朵中可能存在的病虫害。在识别和分类完成后,机械自动化系统会根据模型的输出结果,将花朵自动分拣到对应的容器中。
我们的项目将使用先进的图像采集设备,包括高分辨率摄像头、图像传感器以及可能的无人机技术。这些设备的选择和使用是为了确保我们能够以高质量和高效率地获取玫瑰花的图像数据。这些图像将是我们后续分析的基础,从而实现自动分拣分类和病虫害检测的目标。高分辨率摄像头将用于在不同的生长环境中捕捉玫瑰花的视觉特征,以确保我们能够准确地识别和分类各种玫瑰品种。图像传感器将用于实时监测玫瑰花的健康状况,包括温度、湿度和土壤湿度等因素。此外,无人机技术可以提供更广阔的视野,以便覆盖大面积的玫瑰花园,并快速捕捉图像数据。我们将充分利用这些图像采集设备,确保我们的系统能够在多样的环境条件下有效运行,提高玫瑰花产业的生产效率和质量。这些设备的精确性和可靠性将为我们的项目的成功提供坚实的基础。
我们的项目将依赖先进的计算机视觉算法,以处理从图像采集设备获取的玫瑰花图像。这些算法的设计和实施是为了实现自动分拣分类和病虫害检测的目标。以下是我们计划使用的关键计算机视觉算法:
对象检测算法:我们将使用卷积神经网络(CNN)等现代对象检测算法,以识别并定位玫瑰花在图像中的位置。这将允许我们准确地分离玫瑰花与背景,并为后续的分类和病虫害检测提供关键信息。
图像分类算法:项目的关键部分之一是图像分类算法,它们将使我们能够自动将玫瑰花进行分类并确保分拣的准确性。我们计划采用深度学习技术,特别是卷积神经网络(CNN),来开发和训练这些图像分类模型。我们将使用大规模的玫瑰花图像数据集来训练这些模型,包括各种品种、颜色和质量的样本。这将有助于模型学习并理解不同玫瑰花的视觉特征和变化。此外,我们还将采用迁移学习的方法,从预训练的深度学习模型中获取知识,以加速模型的收敛和提高分类性能。这些图像分类模型将被集成到自动分拣系统中,根据其识别的玫瑰花的品种、颜色和质量,将花朵分拣到相应的分类通道。我们将不断优化这些模型,以确保它们在不同生长环境和光照条件下都能够准确识别和分类玫瑰花,从而提高分拣效率和生产质量。
3.病虫害检测算法
为确保玫瑰花的健康和质量,我们将采用先进的图像处理技术和机器学习算法,开发病虫害检测系统。这个系统将有助于及早发现并管理玫瑰花上的病虫害,减少产量损失和农药使用。我们计划使用图像分割算法,如语义分割和实例分割,来标识图像中的受感染区域。这些算法将能够精确地将受感染的部分从健康的玫瑰花部分分开,提供详细的病虫害分布信息。我们的病虫害检测系统将借助深度学习模型,如卷积神经网络(CNN)和循环神经网络(RNN),对图像数据进行训练和识别。这些模型将在大规模的受感染和健康玫瑰花图像数据上进行训练,以提高其准确性和泛化能力。最终,我们的病虫害检测算法将被整合到系统中,实现实时监测和反馈,以及及时采取预防和治疗措施。这将有助于保护玫瑰花的健康,提高产量和质量,同时减少对化学农药的依赖,实现可持续的生产。我们计划采用yolo v8作为病虫害检测的核心算法,以实现高效的对象检测和定位。yolo v8(You OnlyLook Once,第五版)是一种先进的实时目标检测算法,它能够在图像中同时识别多个对象,并提供对象的位置坐标以及类别标签。我们将在大规模的玫瑰花图像数据集上对yolo v8进行训练,以使其能够识别不同类型的病虫害,如叶片斑点、昆虫、真菌等。此外,我们还将利用迁移学习的方法,从预先训练的yolo v8模型中获取基本特征,并在其基础上微调以适应我们特定的病虫害检测任务。yolo v8的优势在于其出色的性能和速度。它可以在实时或接近实时的速度下处理图像,适用于玫瑰花园中的大规模病虫害检测需求。此外,其能够提供准确的对象位置信息,有助于我们精确地识别和定位受感染的区域。通过整合yolo v8算法,我们将能够在玫瑰花的生长过程中实时监测和检测病虫害,从而采取及时的管理措施,减少植物健康问题对产量和质量的影响。这将有助于提高玫瑰花产业的可持续性和竞争力。
4.自动分拣系统
我们的项目将集成一套高效的自动分拣系统,以确保玫瑰花按品种、颜色和质量自动分类,从而提高生产效率和产品质量。这个自动分拣系统将是实现自动化玫瑰花管理的关键组成部分。我们计划使用先进的机械臂和传送带系统,以及视觉引导技术,将识别和分类的玫瑰花快速而准确地分拣到不同的容器或通道中。自动分拣系统将与我们的计算机视觉和病虫害检测系统紧密集成,以实现全自动的生产流程。关键组成部分包括:
机械臂和传送带:机械臂将负责将玫瑰花从传送带上抓取,然后根据分类结果将其放置在适当的位置。传送带将提供流畅的花朵供应,确保高效率的分拣过程。
视觉引导:视觉引导系统将使用计算机视觉算法来定位和识别玫瑰花的位置和特征。这将确保机械臂能够准确地抓取花朵并将其放置到正确的位置。
分类结果集成:自动分拣系统将根据计算机视觉和病虫害检测系统的结果进行操作。例如,如果某个玫瑰花被识别为特定品种或质量,机械臂将将其分拣到相应的容器中。
实时监控和反馈:系统将具备实时监控功能,以跟踪分拣过程并记录任何异常情况。这将有助于及时调整分拣策略和解决潜在问题。
自动分拣系统的引入将显著提高分拣速度、准确性和一致性,减少人工操作的依赖,从而提高生产效率,减少损耗,提高产品质量,并为玫瑰花产业的可持续增长和市场竞争力提供有力支持。
5.数据管理系统
为了有效地管理、存储和分析大量的图像数据、分拣结果和病虫害检测信息,我们将实施一个高度可靠的数据管理系统。这个系统将是项目的核心支持组成部分,有助于我们实现数据驱动的决策和持续改进。
我们计划建立一个集中式的数据存储和管理平台,具备以下关键功能:
数据收集和存储:数据管理系统将负责收集来自图像采集设备、计算机视觉算法和病虫害检测系统的数据,并将其安全地存储在可扩展的数据库中。这将包括原始图像、分拣结果、病虫害检测报告和传感器数据等。
数据清洗和预处理:系统将包括数据清洗和预处理功能,以去除潜在的错误或噪音,并将数据转化为可分析的格式。这有助于确保我们的分析和决策基于高质量的数据。
数据分析和可视化:数据管理系统将支持数据分析工具和仪表板,以便用户能够实时监控生产过程、分拣效率和病虫害状况。这将有助于及时识别问题并采取措施。
数据安全性:我们将采用严格的数据安全措施,包括数据加密、访问控制和备份策略,以确保数据的完整性和保密性。
数据共享:系统将支持数据的内部和外部共享,以便与合作伙伴、研究人员和利益相关者分享关键信息。
数据管理系统将为我们提供关键的洞察力,有助于改进生产流程、优化资源分配和增强决策制定的依据。它将是实现项目目标的关键工具,确保我们能够充分利用数据资产,提高生产效率和质量,从而加强玫瑰花产业的竞争力。
6.用户界面
为了提供用户友好的监控和控制工具,我们将设计和开发一个直观且功能强大的用户界面(UI)。这个用户界面将是项目的重要组成部分,使用户能够轻松地管理和监控玫瑰花的自动分拣分类和病虫害检测过程。
我们的用户界面将具备以下关键特征:
实时监控:用户将能够实时监控图像采集过程、分拣结果和病虫害检测的状况。这将包括图像流、分拣统计和病虫害分布图。
配置和参数调整:用户可以轻松地配置系统参数,例如分拣规则、病虫害检测阈值和传感器设置。这将使用户能够根据需要自定义系统行为。
报警和通知:系统将提供警报和通知功能,以及时通知用户任何问题或异常情况。这将帮助用户迅速采取行动以防止问题进一步扩大。
数据可视化:用户界面将提供图形化的数据可视化工具,以帮助用户更好地理解生产过程和趋势。这将包括图表、图形和报表等。
远程访问:用户可以通过互联网远程访问系统,以便在任何时间和地点监控和管理玫瑰花生产。这将为用户提供灵活性和便捷性。
用户支持和培训:我们将提供用户手册和培训材料,以确保用户能够充分利用系统的功能和性能。此外,我们将提供在线支持来解决用户的问题和疑虑。
用户界面的设计将注重用户友好性和可访问性,以确保不需要复杂的技术知识也能轻松操作。这将使用户能够更有效地管理玫瑰花的生产流程,实现生产效率的提高和质量的保障。
图像识别:利用卷积神经网络(CNN)等深度学习模型,从图像中提取花卉的特征,并进行分类和分拣。
语义分割:利用Mask-RCNN等深度学习模型,对图像中的每个像素点进行分类,从而精确地捕捉花卉的细节信息,如花瓣、花茎、花蕊等不同部分的边界。
目标检测:利用YOLO V8等深度学习模型,同时定位和识别图像中的对象,从而全面地捕捉花卉的状态信息,如是否受到病虫害影响、是否有其他杂质等。
数据采集和清洗:通过高分辨率摄像头、外部API接口、公开数据集等方式,获取大量的花卉图像数据,并对数据进行预处理、格式转换、数据集成、数据标准化、错误处理等操作,以确保数据的质量和可用性。
1.基础技术概述
①yolo v8
yolo v8注意力机制yolo v8是一种基于注意力机制的目标检测算法,它是yolo系列算法的最新版本。yolo v8的核心思想是将目标检测任务视为一个回归问题,即直接预测目标的位置和类别。与传统的基于区域的方法相比,yolo v8有以下优点:
速度快:yolo v8只需要对图像进行一次前向传播,而不需要多次提取候选区域和进行分类。这使得yolo v8可以实现实时的目标检测。
精度高:yolo v8引入了注意力机制,使得模型可以自动地关注图像中最重要的部分,从而提高检测的精度和鲁棒性。注意力机制可以分为自注意力和交叉注意力两种。自注意力用于在同一张图像中建立不同位置之间的联系,交叉注意力用于在不同尺度的特征图之间建立联系。
泛化能力强:yolo v8采用了多尺度训练和测试的策略,使得模型可以适应不同大小和形状的目标。此外,yolo v8还使用了数据增强、正则化、标签平滑等技术,以防止过拟合和提高泛化能力。
②ViT多尺度特征融合特征金字塔网络
ViT多尺度特征融合特征金字塔网络ViT是一种基于视觉变换器(VisionTransformer)的图像分类算法,它是将自然语言处理中的变换器模型应用到计算机视觉领域的一种尝试。ViT的主要特点是使用自注意力机制来捕捉图像中的全局依赖关系,而不需要使用卷积神经网络。ViT的优势在于可以利用大量的无标签数据进行预训练,从而提高模型的表现能力。但是,ViT也存在一些缺点,如对小目标和细节信息的忽略,以及对输入图像尺寸的敏感性。为了解决这些问题,我们提出了一种基于ViT的多尺度特征融合特征金字塔网络(ViT-MFP-FPN)的方法,它结合了多尺度特征融合(Multi-scale Feature Fusion,MFP)和特征金字塔网络(Feature Pyramid Network,FPN)两种技术。MFP的作用是将不同尺度的图像输入到ViT中,并将输出的特征进行融合,从而增强模型对小目标和细节信息的感知能力。FPN的作用是将不同层次的特征进行上下采样和融合,从而构建一个具有多个分辨率的特征金字塔,为后续的目标检测或分割任务提供丰富的特征表示。
③Mask-RCNN
虫害目标检测是指在花卉图像中检测出受到虫害影响的花朵,并给出其位置和类别的任务。这是一个具有重要意义和挑战性的任务,因为虫害会严重影响花卉的品质和产量,而且虫害的形态和分布具有多样性和复杂性。为了实现这个任务,我们采用了一种基于Mask-RCNN的方法,它是一种先进的目标检测和分割算法。Mask-RCNN的主要特点是在区域建议网络(Region Proposal Network,RPN)的基础上,增加了一个并行的分支来预测每个候选区域的像素级掩码,从而实现了目标的同时检测和分割。Mask-RCNN在虫害目标检测任务上表现出了优异的效果,但是它也存在一个问题,就是模型过于复杂和庞大,导致在实时应用上难以满足速度和资源的要求。为了解决这个问题,我们使用了一种基于知识蒸馏(Knowledge Distillation,KD)的方法,它是一种模型压缩和加速的技术。知识蒸馏的思想是使用一个大型的模型(称为教师模型)来指导一个小型的模型(称为学生模型)进行学习,从而使学生模型能够继承教师模型的知识和能力。在我们的方法中,我们使用Mask-RCNN作为教师模型,使用一个更轻量级的网络结构作为学生模型,并设计了一个合适的损失函数来度量学生模型和教师模型之间的差距。通过这种方式,我们可以有效地压缩和加速Mask-RCNN,使其能够在实时应用上达到满意的效果。
①图像识别
图像识别在玫瑰花的自动分拣分类技术中扮演着至关重要的角色。这项技术的核心挑战是让计算机系统能够像人类那样对玫瑰花的各种特征进行精准的辨识,从而实现高效、准确的分类和分拣。在实际的种植园和花卉加工场景中,玫瑰花的形态、颜色、大小和状况都可能存在着微妙的差异,这些差异可能是由种植条件、气候、品种等多种因素所引起的。对于人眼来说,某些差异可能很容易辨识,但对于计算机视觉系统来说,这需要复杂的算法和大量的数据来支持。在过去,图像识别主要依赖于传统的计算机视觉技术,如边缘检测、特征提取和模板匹配。但随着深度学习的兴起,特别是卷积神经网络(CNN)在图像处理领域的应用,图像识别的准确率和效率都得到了显著提高。对于玫瑰花的自动分拣分类技术,深度学习为其提供了强大的驱动力。
首先,深度学习模型可以自动学习玫瑰花的复杂特征,无需人为设计特征提取器。这意味着,系统可以从大量的玫瑰花图像中自动提取和学习其固有的特征和规律,这对于识别各种不同状态的玫瑰花尤为关键。例如,未开放、半开放和完全开放的玫瑰花之间的区别、不同颜色饱和度的玫瑰花,或者是受到病虫害影响的和健康的玫瑰花。
其次,深度学习模型可以处理大规模的数据。这使得系统可以通过训练大量的玫瑰花图像来增强其泛化能力,从而在实际应用中达到更高的识别准确率。这对于大规模的玫瑰花批发市场和种植园来说尤为重要,因为他们每天都需要处理数以万计的玫瑰花。
最后,随着硬件技术的进步,如GPU加速和专用AI芯片的出现,深度学习模型的推理速度也得到了大幅提升。这意味着,在玫瑰花的生产线上,自动分拣分类系统可以实时进行图像识别,满足高效、快速处理的需求。
②目标检测
目标检测技术对于玫瑰花的自动分拣分类和病虫害检测都有着至关重要的应用。在实际操作中,每一枝玫瑰花都有其独特的形态、颜色和状态,这也意味着它们的特征在不同的阶段和环境中都是独特的。而目标检测技术正是通过对这些特征进行精确捕捉和解析,从而完成对玫瑰花的识别、分类和分拣。首先,玫瑰花的自动分拣分类依赖于目标检测技术来实时识别玫瑰的特征,如花径大小、花瓣数量、颜色饱和度、开放程度和杆长。这些特征都需要精确的目标检测来捕捉,从而确保花朵被准确无误地分类并送到正确的分拣通道。此外,病虫害在玫瑰种植过程中是一个无法忽视的问题。未被及时识别和治理的病虫害不仅会严重影响玫瑰的产量和品质,还可能导致种植者遭受巨大的经济损失。而目标检测技术在这里发挥着关键作用。通过高分辨率摄像头捕捉到的玫瑰花图像,目标检测算法可以精确地识别出受到病虫害影响的花朵,并及时发出警告。这种早期的预警系统不仅可以帮助种植者及时采取措施,还能大大减少由病虫害带来的损失。
③语义分割
语义分割在玫瑰花的自动分类、分拣以及病虫害检测中具有核心的价值。语义分割技术不仅仅是定位图像中的对象位置,而是进一步对每一个像素点进行分类,这对于玫瑰花这种细节丰富且形态各异的目标尤为重要。首先,考虑到玫瑰花的形态特征,语义分割技术可以更准确地捕捉花瓣、花茎、花蕊等不同部分的界限。比如,通过对花瓣进行精确的像素级识别,我们可以更准确地统计其数量、形状和开放程度,从而为后续的分类和分拣提供更为精确的数据支持。同样,对于花杆的长度、粗细等也可以进行更加细致的分析。其次,对于病虫害检测,语义分割提供了更高的准确性。考虑到一些病虫害可能只影响花朵的某一小部分,或者在早期只呈现为微小的斑点,传统的目标检测技术可能难以捕捉。但语义分割则可以进行像素级的分析,及时识别出这些初期的、微小的变化。例如,一种特定的真菌病可能会导致玫瑰花瓣出现微小的褐色斑点,通过语义分割,我们可以准确地标注出这些受影响的区域,为后续的处理提供直观的依据。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的模块及方法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的装置、设备和模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的设备、装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个模块或单元可以结合或者可以集成到另一个装置,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或设备的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理模块中,也可以是各个模块单独物理存在,也可以两个或两个以上模块集成在一个模块中。
所述功能如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机、服务器、或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储服务器、随机存取存储服务器、磁碟或者光盘等各种可以存储程序指令的介质。
另外,还需要说明的是,本案中各技术特征的组合方式并不限本案权利要求中所记载的组合方式或是具体实施例所记载的组合方式,本案所记载的所有技术特征可以以任何方式进行自由组合或结合,除非相互之间产生矛盾。
需要注意的是,以上列举的仅为本发明的具体实施例,显然本发明不限于以上实施例,随之有着许多的类似变化。本领域的技术人员如果从本发明公开的内容直接导出或联想到的所有变形,均应属于本发明的保护范围。
以上仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种基于深度学习的花卉等级自动分类分拣与病虫害监测系统,其特征在于,包括:
图像数据采集模块,其用于捕捉目标图像数据;
图像数据处理模块,其用于建立深度学习模型,并建立第一训练集和第二训练集,进行第一特征训练和第二特征训练,然后参照第一特征训练和第二特征训练,对所述目标图像数据依次进行一次处理和二次处理;
其中,所述一次处理为通过所述深度学习模型对所述目标图像数据进行初次识别,分析所述目标的第一特征;
所述二次处理为通过所述深度学习模型对所述目标图像数据进行二次识别,分析所述目标是否存在第二特征;
目标分类处理模块,其用于获取所述目标的特征分析结果,并根据特征分析结果输出所述目标的分类结果。
2.根据权利要求1所述的基于深度学习的花卉等级自动分类分拣与病虫害监测系统,其特征在于,所述第一特征为所述目标的种类特征。
3.根据权利要求1所述的基于深度学习的花卉等级自动分类分拣与病虫害监测系统,其特征在于,所述一次处理具体包括以下步骤:
载入所述目标图像数据;
通过深度学习模型对所述目标图像数据进行识别,分析所述目标在所述目标图像数据中的位置,并进行目标特征分离;
获取目标特征图,然后通过深度学习模型对目标特征图进行初次识别,确认所述目标的种类特征。
4.根据权利要求1所述的基于深度学习的花卉等级自动分类分拣与病虫害监测系统,其特征在于,所述第二特征为所述目标的病虫害特征。
5.根据权利要求4所述的基于深度学习的花卉等级自动分类分拣与病虫害监测系统,其特征在于,所述二次处理具体包括以下步骤:
载入目标特征图;
通过深度学习模型对所述目标特征图进行二次识别,确认所述目标是否存在病虫害特征,若有,则对所述目标特征图进行特别标注,反之则不对所述目标特征图进行特别标注。
6.根据权利要求1所述的基于深度学习的花卉等级自动分类分拣与病虫害监测系统,其特征在于,所述第一训练集内包括若干与所述目标同科目的图像,所述深度学习模型通过第一训练集进行训练,获得分析目标种类特征的能力;
所述第二训练集包括若干带有病虫害的花卉图像,所述深度学习模型通过第二训练集进行训练,获得分析目标是否存在病虫害特征的能力。
7.根据权利要求1所述的基于深度学习的花卉等级自动分类分拣与病虫害监测系统,其特征在于,所述目标分类处理模块还用于:
获取当前所述目标的分类结果,所述分类结果包括根据所述目标种类特征进行分类的分类结果,或者还包括根据所述目标是否存在病虫害特征进行分类的分类结果;
根据所述分类结果输出相对应的分拣指令。
8.根据权利要求1所述的基于深度学习的花卉等级自动分类分拣与病虫害监测系统,其特征在于,所述系统还包括:
数据管理模块,其用于对所述系统的数据进行存储和管理;
人机交互模块,其用于与用户进行可视化页面进行交互以及远程通讯。
9.根据权利要求8所述的基于深度学习的花卉等级自动分类分拣与病虫害监测系统,其特征在于,所述数据管理模块包括:
数据存储子模块,其用于将所述图像数据采集模块、图像数据处理模块和目标分类处理模块的数据进行存储;
数据清洗子模块,其用于对所述系统的数据进行清洗和预处理,所述清洗和预处理用于对所述系统的数据进行清洗,去除潜在错误数据噪音数据,然后保留可用数据并进行格式转化,直至其处于可分析格式;
数据分析子模块,其用于载入数据分析工具,对所述系统的数据进行分类、分析和监测;
数据安全及共享子模块,其用于对所述系统的数据进行加密和解密,并且提供局域共享服务,对所述系统的数据进行选择性局域共享。
10.根据权利要求8所述的基于深度学习的花卉等级自动分类分拣与病虫害监测系统,其特征在于,所述人机交互模块包括:
可视化展示子模块,其用于展示所述图像数据采集模块所采集的目标图像数据、所述图像数据处理模块所输出的处理数据和目标分类处理模块输出的分类结果,还用于载入数据可视化工具,对所述系统的数据进行可视化处理;
交互操作子模块,其用于提供可操作界面,供用户对所述系统的参数进行查询和修改;
报警通知子模块,其用于与所述数据分析子模块进行交互,提前设置数据的阈值,在所述数据分析子模块监测到所述系统的数据达到阈值时,发出报警信号;
远程交互子模块,其用于与用户的移动终端进行无线通讯,提供远程交互权限。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311660200.5A CN117671499A (zh) | 2023-12-06 | 2023-12-06 | 基于深度学习的花卉等级自动分类分拣与病虫害监测系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311660200.5A CN117671499A (zh) | 2023-12-06 | 2023-12-06 | 基于深度学习的花卉等级自动分类分拣与病虫害监测系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117671499A true CN117671499A (zh) | 2024-03-08 |
Family
ID=90067645
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311660200.5A Pending CN117671499A (zh) | 2023-12-06 | 2023-12-06 | 基于深度学习的花卉等级自动分类分拣与病虫害监测系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117671499A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117876879A (zh) * | 2024-03-11 | 2024-04-12 | 四川农业大学 | 一种基于空域与频域特征融合的猕猴桃花朵识别方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109325484A (zh) * | 2018-07-30 | 2019-02-12 | 北京信息科技大学 | 基于背景先验显著性的花卉图像分类方法 |
CN109344883A (zh) * | 2018-09-13 | 2019-02-15 | 西京学院 | 一种基于空洞卷积的复杂背景下果树病虫害识别方法 |
CN112507770A (zh) * | 2020-08-13 | 2021-03-16 | 华南农业大学 | 一种水稻病虫害识别方法和系统 |
KR20210080055A (ko) * | 2019-12-20 | 2021-06-30 | 순천대학교 산학협력단 | 버섯 병해충 검출 시스템 |
CN115587296A (zh) * | 2021-07-05 | 2023-01-10 | 中国矿业大学(北京) | 一种基于迁移学习分步识别的农作物病害自动识别方法 |
CN115937579A (zh) * | 2022-11-21 | 2023-04-07 | 海南大学 | 基于深度学习的植物病害识别方法和系统 |
-
2023
- 2023-12-06 CN CN202311660200.5A patent/CN117671499A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109325484A (zh) * | 2018-07-30 | 2019-02-12 | 北京信息科技大学 | 基于背景先验显著性的花卉图像分类方法 |
CN109344883A (zh) * | 2018-09-13 | 2019-02-15 | 西京学院 | 一种基于空洞卷积的复杂背景下果树病虫害识别方法 |
KR20210080055A (ko) * | 2019-12-20 | 2021-06-30 | 순천대학교 산학협력단 | 버섯 병해충 검출 시스템 |
CN112507770A (zh) * | 2020-08-13 | 2021-03-16 | 华南农业大学 | 一种水稻病虫害识别方法和系统 |
CN115587296A (zh) * | 2021-07-05 | 2023-01-10 | 中国矿业大学(北京) | 一种基于迁移学习分步识别的农作物病害自动识别方法 |
CN115937579A (zh) * | 2022-11-21 | 2023-04-07 | 海南大学 | 基于深度学习的植物病害识别方法和系统 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117876879A (zh) * | 2024-03-11 | 2024-04-12 | 四川农业大学 | 一种基于空域与频域特征融合的猕猴桃花朵识别方法 |
CN117876879B (zh) * | 2024-03-11 | 2024-05-07 | 四川农业大学 | 一种基于空域与频域特征融合的猕猴桃花朵识别方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Chen et al. | An AIoT based smart agricultural system for pests detection | |
Bosilj et al. | Transfer learning between crop types for semantic segmentation of crops versus weeds in precision agriculture | |
Aquino et al. | A new methodology for estimating the grapevine-berry number per cluster using image analysis | |
Andrea et al. | Precise weed and maize classification through convolutional neuronal networks | |
Boissard et al. | A cognitive vision approach to early pest detection in greenhouse crops | |
US20200279374A1 (en) | Automated plant disease detection | |
WO2018057796A1 (en) | Hi-fidelity computer object recognition based horticultural feedback loop | |
CN117671499A (zh) | 基于深度学习的花卉等级自动分类分拣与病虫害监测系统 | |
Buayai et al. | End-to-end automatic berry counting for table grape thinning | |
Sahu et al. | A systematic literature review of machine learning techniques deployed in agriculture: A case study of banana crop | |
Hussain et al. | A Simple and Efficient Deep Learning‐Based Framework for Automatic Fruit Recognition | |
CN103177266A (zh) | 储藏物害虫智能识别系统 | |
CN109857878B (zh) | 物品标注方法及装置、电子设备及存储介质 | |
Changyi et al. | Apple detection from apple tree image based on BP neural network and Hough transform | |
Poornam et al. | Image based Plant leaf disease detection using Deep learning | |
CN114550017B (zh) | 基于移动端的松材线虫病一体化预警及检测方法和装置 | |
Rajamohanan et al. | An Optimized YOLO v5 Model for Tomato Leaf Disease Classification with Field Dataset | |
CN113807143A (zh) | 作物连通域的识别方法、装置及作业系统 | |
Quach et al. | Tomato Health Monitoring System: Tomato Classification, Detection, and Counting System Based on YOLOv8 Model With Explainable MobileNet Models Using Grad-CAM++ | |
Heiwolt et al. | Deep semantic segmentation of 3D plant point clouds | |
CN109255805A (zh) | 机器学习的工业智能数据收集系统和方法 | |
Trinh et al. | Mangosteen Fruit Detection Using Improved Faster R-CNN | |
Liu et al. | Tomato flower pollination features recognition based on binocular gray value-deformation coupled template matching | |
US20220051154A1 (en) | Method and apparatus for measuring plant trichomes | |
Sonsare et al. | Leaf Infection Detection Using Fuzzy Support Vector Machine. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |