CN116721342B - 一种基于深度学习的杂交稻种质量识别装置 - Google Patents

一种基于深度学习的杂交稻种质量识别装置 Download PDF

Info

Publication number
CN116721342B
CN116721342B CN202310656836.6A CN202310656836A CN116721342B CN 116721342 B CN116721342 B CN 116721342B CN 202310656836 A CN202310656836 A CN 202310656836A CN 116721342 B CN116721342 B CN 116721342B
Authority
CN
China
Prior art keywords
seeds
image
seed
upper computer
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202310656836.6A
Other languages
English (en)
Other versions
CN116721342A (zh
Inventor
宁建峰
刘晓洋
张青春
谭良晨
张恩浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huaiyin Institute of Technology
Original Assignee
Huaiyin Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huaiyin Institute of Technology filed Critical Huaiyin Institute of Technology
Priority to CN202310656836.6A priority Critical patent/CN116721342B/zh
Publication of CN116721342A publication Critical patent/CN116721342A/zh
Application granted granted Critical
Publication of CN116721342B publication Critical patent/CN116721342B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/188Vegetation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A40/00Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
    • Y02A40/10Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in agriculture

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)

Abstract

一种基于深度学习的杂交稻种质量识别装置,包括操作台,以及设置在操作台的台面上并与传动装置传动连接的传送带;育种板放置在传送带上,随着传送带的运行而沿着传送带运行方向移位;位于传送带的上方,从传送带运行方向的起始端至末端依次设置有摄像头和X光箱,所述的摄像头和X光箱与上位机信号连接;所述的摄像头采集种子的图像,将种子图像传输至上位机,上位机提取每个种子的颜色,根据种子的颜色将种子分为好、中、差三个等级;X光箱通过X光采集到种子的饱满度图像,将图像传输到上位机,由上位机计算每个稻种的面积,得出种子的饱和度,根据种子的饱和度判断种子是否可以发芽。本发明可以克服种子检测效率低与精度低的问题。

Description

一种基于深度学习的杂交稻种质量识别装置
技术领域
本发明涉及农作物种子筛选技术领域,具体涉及一种基于深度学习的杂交稻种质量识别装置。
背景技术
我国不仅是一个农业大国,还是一个人口大国,对于粮食的需求非常大。而在各种粮食中,水稻一直是农业的发展重点。作为稻谷种植生产和消费大国,对稻谷的需求量非常的大。稻谷种子的加工过程中,为了提高稻谷种子的质量,需要对稻谷的种子进行筛选。
在种子质量检测方面,现在的行业还在使用人工的方式进行质检,通过人眼对种子进行质量判断。而人眼在长时间的劳作中,不可避免需要休息和出现误差,且不能对大面积的种子进行快速检测,这就造成了效率低,检测精度也低,而且无法对种子进行发芽的判断。
发明内容
针对上述的技术问题,本技术方案提供了一种基于深度学习的杂交稻种质量识别装置,通过引入图像识别中改进后的yolact模型,只需将采集的图像放入模型中检测,即可得出图像中所有种子的品级及种子能否发芽的信息,大大增加了检测效率和精确度;能有效的解决上述问题。
本发明通过以下技术方案实现:
一种基于深度学习的杂交稻种质量识别装置,包括操作台,以及设置在操作台的台面上并与传动装置传动连接的输送带;育种板放置在输送带上,随着输送带的运行而沿着输送带运行方向移位;位于输送带的上方,从输送带运行方向的起始端至末端依次设置有摄像头和X光箱,所述的摄像头和X光箱与上位机信号连接;所述的摄像头采集种子的图像,将种子图像传输至上位机,上位机将图像放入模型中,得到分割好的种子图像,并对图像中的种子颜色进行采集,提取每颗种子的颜色,对种子的颜色进行比对,根据种子的颜色将种子分为好、中、差三个等级;X光箱通过X光采集到种子的饱满度图像,将图像传输到上位机,由上位机计算每颗种子的面积,得出种子的饱和度,根据种子的饱和度判断种子是否可以发芽。
进一步的,所述的传动装置包括设置在传送带两端的电机,电机的输出端通过传动链与传动辊传动连接;电机的转动,通过传动链带动传动辊转动,传动辊转动带动传送带运行。
进一步的,所述的上位机内装有基于改进yolact的模型,在摄像头采集完图像后通过数据线传输给上位机;由上位机中的基于改进yolact的模型进行图像的处理;图像的处理步骤包括:
步骤1:提取摄像头拍摄的稻种图像;
步骤2:对稻种图像进行人工标注,在标注完成之后,使用标注工具中划分数据集的功能把数据集划分为训练集、验证集、测试集三部分,比例为6:2:2,将训练集、验证集、测试集分别输入到预处理模块对图像进行预处理和数据增强,并将测试集中的图像进行缩放和归一化处理;
步骤3:将数据集放入基于改进yolact的模型中进行训练,得到效果最好的模型;
步骤4:在基于改进yolact的模型的测试模块引入训练好的模型后,将待测图像放入测试模块进行识别,得到分割好的种子图像;
步骤5:对分割好的种子图像进行取色操作,在预处理时,使用opencv把除了种子自身颜色之外的颜色全部去除,再通过opencv中的findContours函数寻找每个种子的位置,之后再使用cvtColor函数得到每个种子图像的HSV值;
步骤6:根据HSV中色调的值把种子进行分级,色调为37-42区间标记为好,色调为43-48区间标记为中,色调为48-53区间标记为差,在相应的种子位置标记出对应的等级;
步骤7:输出结果:使用数字进行标记,数字1代表好、数字2代表中、数字3代表差;
步骤8:操作完成。
进一步的,步骤2所述的对图像进行预处理,预处理的操作步骤包括:
步骤2.1:对图像进行灰度化处理:使用平均值法,将彩色图像中的三分量亮度求平均得到一个灰度值,完成灰度图像的转换;
步骤2.2:对图像进行几何变换处理,通过对图像进行平移、转置、镜像、旋转、缩放的处理,用于改正图像采集系统的系统误差和仪器位置的随机误差;
步骤2.3:对图像进行图像增强处理,通过使用求平均值法和中值滤波法,去除或减弱噪声。
进一步的,所述的基于改进yolact的模型,是在yolact模型中使用目标检测的YOLOv7网络代替模型中Prediction Head模块部分;YOLOv7网络能够快速准确的对图像上的种子进行目标定位,并用检测框对种子的位置和类别进行标注,消除yolact模型中Prediction Head模块在生成检测框时所带的偏移误差,提高模型检测速度和精度。
进一步的,所述的基于改进yolact的模型,在yolact模型的Protonet模块之前增加SAM的注意力机制模块,SAM的注意力机制模块能够通过数学公式为特征图得出3D注意力权值,评估每一个像素的重要性,SAM模块通过评估每个像素的重要程度,使Protonet模块在分割种子和背景时效果得到显著提高,SAM模块的公式为:
公式中,E是将所有能量函数在跨通道和空间维度进行分组的结果,Sigmoid激活函数是防止E的值过大,X为输入图像的特征图,通过优化特征图中的每个像素,得到对应的的值,通过值的大小表明像素点的重要程度,从而提高分割效果。
进一步的,所述的摄像头通过支架固定在传送带的上放,支架固定在操作台的台面上,调整摄像头角度,使其能够采集到育种板上种子的图片;所述的X光箱固定在操作台的台面上,使得X光箱作用于传送带上,可以采集到在X光下,育种板上种子饱满度的图像;X光箱通过数据传输线与上位机连接,X光箱在采集到种子的图像后,通过数据线将图像上传至上位机,上位机对图像进行处理后得到种子的发芽率。
进一步的,所述的上位机根据种子的饱和度判断种子是否可以发芽的具体操作方式为:
步骤A:装有种子的育种板通过X光箱,X光箱得到种子的饱满度图像,并将图像上传至上位机;
步骤B:上位机读取种子的饱满度图像,通过opencv去除其余杂色;
步骤C:通过findContours函数获取每一个种子的轮廓,通过种子轮廓的面积除于种子原来的面积得到种子的饱满度;
步骤D:对种子的饱满度进行判断:当种子的饱满度在大于0.8,则判断种子可以发芽;当饱满度面积小于0.8,则判断种子不能发芽;
步骤E:输出判断结果,对可以出芽的种子位置进行标记,数字1为可发芽种子,数字2为不可发芽种子。
有益效果
本发明提出的一种基于深度学习的杂交稻种质量识别装置,与现有技术相比较,其具有以下有益效果:
本发明通过引入基于改进的yolact模型实现对采集稻种图像进行快速处理,得到分割好的图像;再通过引入的模型,能够快速地对种子图像进行分割提取,并通过处理得到种子的颜色,根据色差完成分级操作,此过程相较同类装置的优点为检测速度快。再通过X光采集种子的图像,处理得到种子的饱满度大小,根据饱满度大小判断种子的发芽概率,此过程相较同类装置在判断种子的发芽率时精度高。
附图说明
图1为本发明的硬件布局示意图。
图2为本发明中 X光箱的位置结构图。
图3为本发明中改进后yolact的模型图。
图4为本发明中yolact模型的操作流程图。
图5为本发明中预处理的操作流程图。
附图中的标号:1-电脑设备;2-电机控制开关;3-传动辊;4-电机;5-支架;6-高清摄像头;7-育种板;8-X光数据传输线;9-X光箱;10-摄像头数据传输线;11-皮带;12-输送带;13-操作台。
实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。在不脱离本发明设计构思的前提下,本领域普通人员对本发明的技术方案做出的各种变型和改进,均应落入到本发明的保护范围。
实施例
如图1所示,一种基于深度学习的杂交稻种质量识别装置,包括操作台13,以及设置在操作台13的台面上并与传动装置传动连接的输送带12;传动装置包括设置在传送带两端的电机4,电机4的输出端通过传动链与传动辊3传动连接;电机4的转动,通过传动链带动传动辊3转动,传动辊3转动带动输送带12运行。育种板7放置在输送带12上,随着输送带12的运行而沿着输送带12运行方向移位。
位于输送带12的上方,从输送带12运行方向的起始端至末端依次设置有摄像头6和X光箱9,摄像头6通过支架5固定在输送带12的上放,支架5固定在操作台13的台面上,调整摄像头6角度,使其能够采集到育种板7上种子的图片。
如图2所示,所述的X光箱9焊接固定在操作台13的台面上,使得X光箱9作用于输送带12上,可以采集到在X光下,育种板7上种子饱满度的图像。
摄像头6和X光箱9通过数据传输线与上位机1信号连接。摄像头6采集种子的图像,将种子图像传输至上位机1,上位机1将图像放入模型中,得到分割好的种子图像,并对图像中的种子颜色进行采集,提取每颗种子的颜色,对种子的颜色进行比对,根据种子的颜色将种子分为好、中、差三个等级。X光箱9通过X光采集到种子的饱满度图像,在采集到种子的图像后,通过数据线将图像传输到上位机1,上位机1对图像进行处理,计算每颗种子的面积,得出种子的饱和度,根据种子的饱和度判断种子是否可以发芽,最后得到种子的发芽率。
如图3所示,上位机1内装有基于改进yolact的模型,基于改进yolact的模型是在yolact模型中使用目标检测的YOLOv7网络代替模型中Prediction Head模块部分;YOLOv7网络能够快速准确的对图像上的种子进行目标定位,并用检测框对种子的位置和类别进行标注,消除yolact模型中Prediction Head模块在生成检测框时所带的偏移误差,提高模型检测速度和精度。
同时,是在yolact模型的Protonet模块之前增加SAM的注意力机制模块,SAM的注意力机制模块能够通过数学公式为特征图得出3D注意力权值,评估每一个像素的重要性,SAM模块通过评估每个像素的重要程度,使Protonet模块在分割种子和背景时效果得到显著提高,SAM模块的公式为:
公式中,E是将所有能量函数在跨通道和空间维度进行分组的结果,Sigmoid激活函数是防止E的值过大,X为输入图像的特征图,通过优化特征图中的每个像素,得到对应的的值,通过值的大小表明像素点的重要程度,从而提高分割效果。
如图4所示,在摄像头6采集完图像后通过数据线传输给上位机1;由上位机1中的基于改进yolact的模型进行图像的处理;图像的处理步骤包括:
步骤1:提取摄像头拍摄的稻种图像。
步骤2:对稻种图像进行人工标注,在标注完成之后,使用标注工具中划分数据集的功能把数据集划分为训练集、验证集、测试集三部分,比例为6:2:2,将训练集、验证集、测试集分别输入到预处理模块对图像进行预处理和数据增强,并将测试集中的图像进行缩放和归一化处理。如图4所示,预处理的操作步骤包括:
步骤2.1:对图像进行灰度化处理:使用平均值法,将彩色图像中的三分量亮度求平均得到一个灰度值,完成灰度图像的转换。
步骤2.2:对图像进行几何变换处理,通过对图像进行平移、转置、镜像、旋转、缩放的处理,用于改正图像采集系统的系统误差和仪器位置的随机误差。
步骤2.3:对图像进行图像增强处理,通过使用求平均值法和中值滤波法,去除或减弱噪声。
步骤3:将数据集放入基于改进yolact的模型中进行训练,得到效果最好的模型。
步骤4:在基于改进yolact的模型的测试模块引入训练好的模型后,将待测图像放入测试模块进行识别,得到分割好的种子图像;
步骤5:对分割好的种子图像进行取色操作,在预处理时,使用opencv把除了种子自身颜色之外的颜色全部去除,再通过opencv中的findContours函数寻找每个种子的位置,之后再使用cvtColor函数得到每个种子图像的HSV值;
步骤6:根据HSV中色调的值把种子进行分级,色调为37-42区间标记为好,色调为43-48区间标记为中,色调为48-53区间标记为差,在相应的种子位置标记出对应的等级;
步骤7:输出结果:使用数字进行标记,数字1代表好、数字2代表中、数字3代表差;
步骤8:操作完成。
上位机1根据种子的饱和度判断种子是否可以发芽的具体操作方式为:
步骤A:装有种子的育种板通过X光箱,X光箱得到种子的饱满度图像,并将图像上传至上位机。
步骤B:上位机读取种子的饱满度图像,通过opencv去除其余杂色。
步骤C:通过findContours函数获取每一个种子的轮廓,通过种子轮廓的面积除于种子原来的面积得到种子的饱满度。
步骤D:对种子的饱满度进行判断:当种子的饱满度在大于0.8,则判断种子可以发芽;当饱满度面积小于0.8,则判断种子不能发芽。
步骤E:输出判断结果,对可以出芽的种子位置进行标记,数字1为可发芽种子,数字2为不可发芽种子。
以上仅为本发明的具体实施例,但本发明的保护范围不仅局限于此,任何在本发明揭露的技术范围内的变化、替换和改进,均在本发明的保护范围内。

Claims (5)

1.一种基于深度学习的杂交稻种质量识别装置,包括操作台(13),以及设置在操作台(13)的台面上并与传动装置传动连接的输送带(12);其特征在于:育种板(7)放置在输送带(12)上,随着输送带(12)的运行而沿着输送带(12)运行方向移位;位于输送带(12)的上方,从输送带(12)运行方向的起始端至末端依次设置有摄像头(6)和X光箱(9),所述的摄像头(6)和X光箱(9)与上位机(1)信号连接;所述的摄像头(6)采集种子的图像,将种子图像传输至上位机(1),上位机(1)将图像放入模型中,得到分割好的种子图像,并对图像中的种子颜色进行采集,提取每颗种子的颜色,对种子的颜色进行比对,根据种子的颜色将种子分为好、中、差三个等级;X光箱(9)通过X光采集到种子的饱满度图像,将图像传输到上位机(1),由上位机(1)计算每颗种子的面积,得出种子的饱和度,根据种子的饱和度判断种子是否可以发芽;
所述的上位机(1)内装有基于改进yolact的模型,基于改进yolact的模型,是在yolact模型中使用目标检测的YOLOv7网络代替模型中Prediction Head模块部分;YOLOv7网络能够对图像上的种子进行目标定位,并用检测框对种子的位置和类别进行标注,消除yolact模型中Prediction Head模块在生成检测框时所带的偏移误差;并在yolact模型的Protonet模块之前增加SAM的注意力机制模块,SAM的注意力机制模块能够通过数学公式为特征图得出3D注意力权值,评估每一个像素的重要性,SAM模块通过评估每个像素的重要程度,使Protonet模块在分割种子和背景时效果得到显著提高,SAM模块的公式为:
公式中,E是将所有能量函数在跨通道和空间维度进行分组的结果,Sigmoid激活函数是防止E的值过大,X为输入图像的特征图,通过优化特征图中的每个像素,得到对应的的值,通过值的大小表明像素点的重要程度;
在摄像头(6)采集完图像后通过数据线(10)传输给上位机(1);由上位机(1)中的基于改进yolact的模型进行图像的处理;图像的处理步骤包括:
步骤1:提取摄像头(6)拍摄的稻种图像;
步骤2:对稻种图像进行人工标注,在标注完成之后,使用标注工具中划分数据集的功能把数据集划分为训练集、验证集、测试集三部分,比例为6:2:2,将训练集、验证集、测试集分别输入到预处理模块对图像进行预处理和数据增强,并将测试集中的图像进行缩放和归一化处理;
步骤3:将数据集放入基于改进yolact的模型中进行训练,得到效果最好的模型;
步骤4:在基于改进yolact的模型的测试模块引入训练好的模型后,将待测图像放入测试模块进行识别,得到分割好的种子图像;
步骤5:对分割好的种子图像进行取色操作,在预处理时,使用opencv把除了种子自身颜色之外的颜色全部去除,再通过opencv中的findContours函数寻找每个种子的位置,之后再使用cvtColor函数得到每个种子图像的HSV值;
步骤6:根据HSV中色调的值把种子进行分级,色调为37-42区间标记为好,色调为43-48区间标记为中,色调为48-53区间标记为差,在相应的种子位置标记出对应的等级;
步骤7:输出结果:使用数字进行标记,数字1代表好、数字2代表中、数字3代表差;
步骤8:操作完成。
2.根据权利要求1所述的一种基于深度学习的杂交稻种质量识别装置,其特征在于:所述的传动装置包括设置在输送带(12)两端的电机(4),电机(4)的输出端通过传动链与传动辊(3)传动连接;电机(4)的转动,通过传动链带动传动辊(3)转动,传动辊(3)转动带动输送带(12)运行。
3.根据权利要求1所述的一种基于深度学习的杂交稻种质量识别装置,其特征在于:步骤2所述的对图像进行预处理,预处理的操作步骤包括:
步骤2.1:对图像进行灰度化处理:使用平均值法,将彩色图像中的三分量亮度求平均得到一个灰度值,完成灰度图像的转换;
步骤2.2:对图像进行几何变换处理,通过对图像进行平移、转置、镜像、旋转、缩放的处理,用于改正图像采集系统的系统误差和仪器位置的随机误差;
步骤2.3:对图像进行图像增强处理,通过使用求平均值法和中值滤波法,去除或减弱噪声。
4.根据权利要求1所述的一种基于深度学习的杂交稻种质量识别装置,其特征在于:所述的摄像头(6)通过支架(5)固定在传送带的上放,支架(5)固定在操作台(13)的台面上,调整摄像头(6)角度,使其能够采集到育种板(7)上种子的图片;所述的X光箱(9)固定在操作台(13)的台面上,使得X光箱(9)作用于输送带(12)上,可以采集到在X光下,育种板(7)上种子饱满度的图像;X光箱(9)通过数据传输线与上位机(1)连接,X光箱(9)在采集到种子的图像后,通过数据线将图像上传至上位机(1),上位机(1)对图像进行处理后得到种子的发芽率。
5.根据权利要求1或4所述的一种基于深度学习的杂交稻种质量识别装置,其特征在于:所述的上位机(1)根据种子的饱和度判断种子是否可以发芽的具体操作方式为:
步骤A:装有种子的育种板通过X光箱,X光箱得到种子的饱满度图像,并将图像上传至上位机;
步骤B:上位机读取种子的饱满度图像,通过opencv去除其余杂色;
步骤C:通过findContours函数获取每一个种子的轮廓,通过种子轮廓的面积除于种子原来的面积得到种子的饱满度;
步骤D:对种子的饱满度进行判断:当种子的饱满度在大于0.8,则判断种子可以发芽;当饱满度面积小于0.8,则判断种子不能发芽;
步骤E:输出判断结果,对可以出芽的种子位置进行标记,数字1为可发芽种子,数字2为不可发芽种子。
CN202310656836.6A 2023-06-05 2023-06-05 一种基于深度学习的杂交稻种质量识别装置 Active CN116721342B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310656836.6A CN116721342B (zh) 2023-06-05 2023-06-05 一种基于深度学习的杂交稻种质量识别装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310656836.6A CN116721342B (zh) 2023-06-05 2023-06-05 一种基于深度学习的杂交稻种质量识别装置

Publications (2)

Publication Number Publication Date
CN116721342A CN116721342A (zh) 2023-09-08
CN116721342B true CN116721342B (zh) 2024-06-11

Family

ID=87874589

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310656836.6A Active CN116721342B (zh) 2023-06-05 2023-06-05 一种基于深度学习的杂交稻种质量识别装置

Country Status (1)

Country Link
CN (1) CN116721342B (zh)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108024205A (zh) * 2017-10-27 2018-05-11 北京理工大学 基于深度学习的车联网移动广告传播方法
CN111507985A (zh) * 2020-03-19 2020-08-07 北京市威富安防科技有限公司 图像实例分割优化处理方法、装置和计算机设备
CN111798456A (zh) * 2020-05-26 2020-10-20 苏宁云计算有限公司 一种实例分割模型的训练方法、装置、实例分割方法
CN112001294A (zh) * 2020-08-19 2020-11-27 福建船政交通职业学院 一种基于yolact++的车身表面损伤检测及掩膜生成方法和存储设备
CN114266750A (zh) * 2021-12-23 2022-04-01 浙江工业大学 一种基于注意力机制神经网络的日常物体材质识别方法
CN114898407A (zh) * 2022-06-15 2022-08-12 汉斯夫(杭州)医学科技有限公司 一种基于深度学习牙齿目标实例分割及其智能预览的方法
CN115311654A (zh) * 2022-07-26 2022-11-08 武汉轻工大学 稻米外观自动化提取方法、装置、设备及存储介质
CN115410040A (zh) * 2022-08-26 2022-11-29 安徽联智创新软件有限公司 一种基于ai技术的稻谷种子籽粒饱满度分级检测方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108024205A (zh) * 2017-10-27 2018-05-11 北京理工大学 基于深度学习的车联网移动广告传播方法
CN111507985A (zh) * 2020-03-19 2020-08-07 北京市威富安防科技有限公司 图像实例分割优化处理方法、装置和计算机设备
CN111798456A (zh) * 2020-05-26 2020-10-20 苏宁云计算有限公司 一种实例分割模型的训练方法、装置、实例分割方法
CN112001294A (zh) * 2020-08-19 2020-11-27 福建船政交通职业学院 一种基于yolact++的车身表面损伤检测及掩膜生成方法和存储设备
CN114266750A (zh) * 2021-12-23 2022-04-01 浙江工业大学 一种基于注意力机制神经网络的日常物体材质识别方法
CN114898407A (zh) * 2022-06-15 2022-08-12 汉斯夫(杭州)医学科技有限公司 一种基于深度学习牙齿目标实例分割及其智能预览的方法
CN115311654A (zh) * 2022-07-26 2022-11-08 武汉轻工大学 稻米外观自动化提取方法、装置、设备及存储介质
CN115410040A (zh) * 2022-08-26 2022-11-29 安徽联智创新软件有限公司 一种基于ai技术的稻谷种子籽粒饱满度分级检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Sorting and Identification Method of Camellia Seeds Based on Deep Learning;Xiao Zhang等;《第40届中国控制会议论文集 (15)》;20210726;233-238 *
基于SWOT模型分析农作物种子质量管理能力提升研究;卫堃;《广西农学报》;20220220;第37卷(第07期);61-64 *

Also Published As

Publication number Publication date
CN116721342A (zh) 2023-09-08

Similar Documents

Publication Publication Date Title
CN108665456B (zh) 基于人工智能的乳腺超声病灶区域实时标注的方法及系统
CN108288506A (zh) 一种基于人工智能技术的癌症病理辅助诊断方法
CN110599413A (zh) 基于深度学习卷积神经网络的激光光斑图像去噪的方法
CN106442556A (zh) 一种板状带孔工件表面缺陷检测装置和方法
CN111539330B (zh) 一种基于双svm多分类器的变电站数显仪表识别方法
CN109684967A (zh) 一种基于ssd卷积网络的大豆植株茎荚识别方法
CN111462058B (zh) 一种水稻有效穗快速检测方法
CN112907519A (zh) 一种基于深度学习的金属曲面缺陷分析系统及方法
CN108629762B (zh) 一种骨龄评测模型减少干扰特征的图像预处理方法及系统
CN111611953B (zh) 一种基于目标特征训练的抽油机识别方法与系统
CN114972230A (zh) 一种生产线上电路板缺陷检测方法及系统
CN114511502A (zh) 一种基于人工智能的胃肠道内窥镜图像息肉检测系统、终端及存储介质
CN112017208A (zh) 一种基于深度学习的多细胞球识别与分类方法
CN117576093A (zh) 基于el图像的太阳能电池片隐裂检测方法
CN117593193B (zh) 一种基于机器学习的钣金图像增强方法及系统
CN117152735A (zh) 一种基于改进yolov5s的番茄成熟度分级方法
CN113205484B (zh) 一种基于迁移学习的乳腺组织分类识别方法
CN116721342B (zh) 一种基于深度学习的杂交稻种质量识别装置
CN114882586A (zh) 一种群体猴运动活跃状态监测系统和方法
CN117252818A (zh) 基于改进YOLOv5的PCB缺陷检测方法
CN111680553A (zh) 一种基于深度可分离卷积的病理图像识别方法及系统
CN115861297A (zh) 基于深度学习的印版网点图像检测和分割方法及装置
CN111046901A (zh) 一种骨龄图像数字化处理后自动识别方法
CN113160261B (zh) 一种用于oct图像角膜层分割的边界增强卷积神经网络
CN118314146B (zh) 基于协同学习的动物x光影像数据的处理方法及计算机装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant