CN113610101A - 一种谷粒萌发率测定方法 - Google Patents
一种谷粒萌发率测定方法 Download PDFInfo
- Publication number
- CN113610101A CN113610101A CN202110671741.2A CN202110671741A CN113610101A CN 113610101 A CN113610101 A CN 113610101A CN 202110671741 A CN202110671741 A CN 202110671741A CN 113610101 A CN113610101 A CN 113610101A
- Authority
- CN
- China
- Prior art keywords
- image
- grain
- grain germination
- germination
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000035784 germination Effects 0.000 title claims abstract description 157
- 238000000034 method Methods 0.000 title claims abstract description 67
- 238000013136 deep learning model Methods 0.000 claims abstract description 45
- 238000012549 training Methods 0.000 claims abstract description 34
- 238000012360 testing method Methods 0.000 claims abstract description 28
- 230000006870 function Effects 0.000 claims abstract description 18
- 238000003062 neural network model Methods 0.000 claims abstract description 16
- 238000007781 pre-processing Methods 0.000 claims abstract description 14
- 238000012545 processing Methods 0.000 claims description 27
- 238000010606 normalization Methods 0.000 claims description 21
- 238000001514 detection method Methods 0.000 claims description 16
- 230000000903 blocking effect Effects 0.000 claims description 13
- 238000003064 k means clustering Methods 0.000 claims description 12
- 230000008569 process Effects 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000002372 labelling Methods 0.000 claims description 6
- 230000002776 aggregation Effects 0.000 claims description 4
- 238000004220 aggregation Methods 0.000 claims description 4
- 238000000137 annealing Methods 0.000 claims description 4
- 238000013528 artificial neural network Methods 0.000 claims description 4
- 238000005520 cutting process Methods 0.000 claims description 4
- 238000011176 pooling Methods 0.000 claims description 4
- 238000005070 sampling Methods 0.000 claims description 4
- 230000007480 spreading Effects 0.000 claims description 3
- 238000003892 spreading Methods 0.000 claims description 3
- 230000001629 suppression Effects 0.000 claims description 3
- 235000013339 cereals Nutrition 0.000 description 168
- 238000010586 diagram Methods 0.000 description 19
- 241000209094 Oryza Species 0.000 description 5
- 235000007164 Oryza sativa Nutrition 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 235000009566 rice Nutrition 0.000 description 5
- 239000004464 cereal grain Substances 0.000 description 4
- 239000000463 material Substances 0.000 description 3
- 238000004806 packaging method and process Methods 0.000 description 3
- 108090000623 proteins and genes Proteins 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 240000008042 Zea mays Species 0.000 description 2
- 235000005824 Zea mays ssp. parviglumis Nutrition 0.000 description 2
- 235000002017 Zea mays subsp mays Nutrition 0.000 description 2
- 235000005822 corn Nutrition 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000007306 turnover Effects 0.000 description 2
- 241000196324 Embryophyta Species 0.000 description 1
- 241000209510 Liliopsida Species 0.000 description 1
- 244000062793 Sorghum vulgare Species 0.000 description 1
- 238000012271 agricultural production Methods 0.000 description 1
- 230000009418 agronomic effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000005059 dormancy Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 235000019713 millet Nutrition 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000006740 morphological transformation Effects 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 238000013518 transcription Methods 0.000 description 1
- 230000035897 transcription Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/086—Learning methods using evolutionary algorithms, e.g. genetic algorithms or genetic programming
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30181—Earth observation
- G06T2207/30188—Vegetation; Agriculture
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Bioinformatics & Computational Biology (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Molecular Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mathematical Physics (AREA)
- Probability & Statistics with Applications (AREA)
- Medical Informatics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Physiology (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种谷粒萌发率测定方法,方法包括:获取谷粒萌发图像;针对获取的每幅谷粒萌发图像,得到谷粒萌发图像数据集;针对所述谷粒萌发图像数据集,对每幅谷粒萌发图像进行预处理得到训练样本和测试样本;构造深度学习模型,并利用所构造的深度学习模型提取所述谷粒萌发图像的特征和大小信息,并利用反向传播和随机梯度下降算法有监督地最小化损失函数,完成神经网络模型的训练;针对预处理后的测试样本,将其输入到训练好的神经网络模型中,得到谷粒萌发测试结果和模型指标值,通过模型指标值来衡量模型好坏,从而得到一个可以使用的深度学习模型。
Description
技术领域
本发明涉及农业生产技术领域,尤其涉及一种谷粒萌发率测定方法。
背景技术
水稻是世界主要粮食作物,其作为理想的单子叶模式作物,其农艺性状的功能基因组研究是植物生物学研究的热点之一。目前,有成千上万的水稻基因培育学者进行水稻的基因与性状方面的研究,其中,谷粒萌发代表种子解除休眠期,进入连续发育生长,并进行基因转录与表达,与外界环境不断地进行物质和能量的交换。这一过程是保证水稻种群顺利繁衍和进化的关键,具有非常重要的生物学意义。
目前,对于谷粒萌发率的测定,主要通过人工统计。由于在同一段时间内需要完成上万份谷粒萌发率的统计,如果依赖人工完成统计的话,则工作量较大,效率较低,且测定结果易受主观因素影响。随着劳动力成本逐年增高,谷粒萌发率测定的成本也随之增加。除了人工统计之外,有不少学者提出利用计算机图像处理技术来测定谷粒萌发率,包括采用神经网络,连通区域和形态学变换等方法,这些方法对谷粒的放置有较为严格的要求,比如,要求谷粒间保持一定的间距,谷粒间不能粘连,同时,拍摄时要求保证谷粒的干燥,放置谷粒的器皿不能有水滴,这些要求给实用带来了不便。因此,急需建立谷粒萌发率测定系统,用于方便、快捷地完成大规模谷粒样本的萌发率统计,从而降低劳动力成本,提高萌发率测定准确率。
发明内容
有鉴于现有技术的上述缺陷,本发明所要解决的技术问题是现有的谷粒萌发率测定的方法需要人工预处理,耗费大量的人力和时间,并且对谷粒的摆放也有具体要求,否则会影响测定结果。因此,本发明提供了一种谷粒萌发率测定方法,具有简单、易用、成本低、快速、精度高等优势。
为实现上述目的,本发明提供了一种谷粒萌发率测定方法,包括以下步骤:
步骤1、设计谷粒萌发拍照设备,所述拍照设备包含摄像头和避光箱,用于获取谷粒萌发图像;
步骤2、获取在拍照设备下的谷粒萌发图像;
步骤3、针对获取的每幅谷粒萌发图像,使用labelImg标注工具标注图像,得到谷粒萌发图像数据集;
步骤4、针对所述谷粒萌发图像数据集,对每幅谷粒萌发图像进行预处理,包括归一化处理和分块处理,得到大小一样的多幅子图像,将所有子图像按照7:3的比例分为训练样本和测试样本;
步骤5、构造深度学习模型,依次构造输入层,骨干网络,头部网络和检测层;
步骤6、对于步骤5中构造的深度学习模型,使用k-means聚类算法进行锚框计算,得到9个锚框;
步骤7、针对预处理后的训练样本,利用步骤5中构造的深度学习模型,通过模型中卷积核逐步提取所述谷粒萌发图像的特征和大小信息,并利用反向传播和随机梯度下降算法有监督地最小化损失函数,根据学习率和梯度值调整模型的连接权重,从而完成神经网络模型的训练;
步骤8、针对预处理后的测试样本,将其输入到训练好的神经网络模型中,得到谷粒萌发测试结果和模型指标值,通过模型指标值来衡量模型好坏,从而得到一个可以使用的深度学习模型。
进一步地,设计谷粒萌发拍照设备,所述拍照设备包含摄像头和避光箱,用于获取谷粒萌发图像;避光箱包括图像采集口、光源和箱体;图像采集口位于箱体的正上方,摄像头可通过图像采集口对箱内物体进行图像采集;光源采用环形LED灯,将其放置在盒子顶部图像采集口下方;LED灯朝盒顶照射,经盒顶、盒壁等周围材料反射,在盒底形成均匀漫反射光照环境,使采集得到的谷粒图像不会出现明显的反光;另外,LED灯通过USB接口供电,设三档亮度调节模式;箱体的前面开口,用于采集谷粒萌发图像时培养皿的进出。
进一步地,获取在拍照设备下的谷粒萌发图像,具体包括如下步骤:
首先,将经过浸种的谷粒放入透明培养皿中,谷粒尽量平铺在培养皿中,同时允许谷粒之间存在粘连和重叠;
其次,将培养皿放入谷粒萌发拍照设备中,使用连接摄像头的电脑端进行拍照,输入图像编号,得到谷粒萌发图像。
进一步地,针对获取的每幅谷粒萌发图像,使用labelImg标注工具标注图像,得到谷粒萌发图像数据集,具体包括以下步骤:
针对获取的每幅谷粒萌发图像,在Windows系统下使用labelImg标注工具,对每颗谷粒及其发芽部分进行矩形框的标注,其中,所标注的矩形框的信息包括矩形框中心点的横坐标和纵坐标,以及矩形框的宽度和高度等信息,得到谷粒萌发数据集,其中,将谷粒标签分为三类:明显发芽谷粒,明显未发芽谷粒,不确定是否发芽谷粒。
进一步地,针对所述谷粒萌发图像数据集,对每幅谷粒萌发图像进行预处理,包括归一化处理和分块处理,得到大小一样的多幅子图像,将所有子图像按照7:3的比例分为训练样本和测试样本,具体包括以下步骤:
首先,对每幅谷粒萌发图像进行归一化处理,将图像中各像素的R,G和B值分别除以255;
其次,对图像进行分块处理,将其分成大小为640*640的子图像,各子图像之间有160个像素的重叠区域;
然后,对子图像中各标注的矩形框作归一化处理,包括将矩形框的中心点的横坐标和矩形框的宽度分别除以子图像的宽度,将矩形框的中心点的纵坐标和矩形框的高度分别除以子图像的高度;
最后,将所有子图像按照7:3的比例分为训练样本和测试样本。
进一步地,构造深度学习模型,依次构造输入层,骨干网络,头部网络和检测层,具体包括以下步骤:
首先,构造输入层,用于输入待处理的谷粒萌发图像,同时对图像进行随机拼接、随机裁剪、随机排布和Mosaic数据增强,得到图像大小为640*640*3;
其次,构造骨干网络,将640*640*3大小的图像切片为320*320*12的特征图,并将特征图输入到包括32个卷积核的卷积层,通过卷积操作得到320*320*32的特征图;再构造三个卷积层和跨阶段局域网络;接着构造一个卷积层和一个空间金字塔池化;最后再构造一个跨阶段局域网络;
然后,构造头部网络结构,通过卷积神经网络,上采样和拼接操作组成路径聚合网络,最终得到三层网络,并输出80*80*128,40*40*256,20*20*512大小的特征图;
最后,构造检测层结构,用于得到最后的卷积结果,检测层结构包括三层并行的卷积层,得到三层输出特征图,此特征图具有宽度,高度和深度三个维度,分别为:80*80*21,40*40*21,20*20*21大小的输出,其中80*80,40*40,20*20表示特征图的宽度和高度值,21表示特征图深度大小,具体来讲,21表示每层锚框数量*7,其中每层锚框数量为3,7表示特征图中每个网格对应位置的7个预测框值,这7个预测框值分别为:预测框中心点的横坐标值,预测框中心点的纵坐标值,预测框的宽度,预测框的高度,以及三类别(包括明显发芽谷粒,明显未发芽谷粒,不确定是否发芽谷粒)的类别概率。
进一步地,对于步骤5中构造的深度学习模型,使用k-means聚类算法进行锚框计算,得到9个锚框,具体包括以下步骤:
首先,规定深度学习模型输出三层不同大小的特征层,每个特征层上有三个锚框,一共是9个锚框;
其次,将训练样本中所有标签框的高度值和宽度值作为k-means聚类算法的输入,通过k-means聚类算法得到9个聚类中心,这9个聚类中心即为9个锚框。
进一步地,针对预处理后的训练样本,利用步骤5中构造的深度学习模型,通过模型中卷积核逐步提取所述谷粒萌发图像的特征和大小信息,并利用反向传播和随机梯度下降算法有监督地最小化损失函数,根据学习率和梯度值调整模型的连接权重,从而完成神经网络模型的训练,其中,学习率的调整使用余弦退火算法,预测框信息(包含预测框中心点的横坐标和纵坐标,预测框的宽度和高度)使用CIoU损失函数,分类损失使用Varifocal损失函数,CIoU损失函数LCIoU表达为:
LCIoU=1-IoU+CIoU (4)
其中,ρ2(b,bgt)表示实际矩形框和预测框中心点的距离,c表示包围实际矩形框和预测框的最小矩形框的对角线长度,wgt表示实际矩形框的宽度值,hgt表示实际矩形框的高度值,w表示预测框的宽度值,h表示预测框的高度值,IoU表示实际矩形框与预测框的交集面积除以实际框与预测框的并集面积;
Varifocal损失函数表达为:
其中,p是类别概率预测值,q是类别概率真实值。
进一步地,针对预处理后的测试样本,将其输入到训练好的神经网络模型中,得到谷粒萌发测试结果和模型指标值,通过模型指标值来衡量模型好坏,从而得到一个可以使用的深度学习模型;具体来讲,在模型测试时,需要对深度学习模型输出的值进行非极大抑制算法处理,以检测并删除同一个物体的冗余预测框,具体包括以下步骤:
首先,根据每个预测框的类别概率预测值进行排序;
然后,比较相互之间的IoUp值,其中,IoUp表示两个预测框的交集面积除以两个预测框的并集面积;
最后,删除小于阈值的预测框,得到最终的预测框。
进一步地,还包括步骤9,对所述可以使用的深度学习模型进行一次封装,设计成一个连接谷粒萌发拍照设备的图形界面系统,以便日后人们反复使用,具体包括以下步骤:
首先,将经过浸种的谷粒放入透明培养皿中,做好待测萌发率准备;
其次,将透明培养皿放入拍照设备,对拍照设备中的培养皿进行拍照,从而获得谷粒萌发图像,同时,对该图像进行命名,并输入对应种子编号,保存谷粒萌发图像;
然后,针对拍照获得的谷粒萌发图像进行预处理,包括图像缩放和图像的归一化;其中,图像缩放的过程是:设图像的长度为a,宽度为b,先将图像的长度调整为1024,宽度调整为b’=1024/a*b,再计算b”=round(b’/32)*32,其中,round()表示向上取整,进一步得到ε=round((b”-b’)/2),由此,在b’的基础上,沿着宽度方向左右分别填充ε个灰色像素,经像素填充后图像的大小为640*b”;图像归一化是图像中各像素的R,G和B值分别除以255;
最后,将预处理后的图像送入训练好的深度学习模型中,从而得到包含三个谷粒类别(包括明显发芽谷粒,明显未发芽谷粒,不确定是否发芽谷粒)的预测框,分别统计每个类别的谷粒数目,将每个类别的谷粒数目相加得到谷粒总数,再将属于明显发芽谷粒类别的谷粒数目除以谷粒总数,从而得到谷粒萌发率。
技术效果
本发明的一种谷粒萌发率测定方法,利用摄像头和避光箱设计了谷粒萌发拍照设备,整套设备价格低廉,易于拼装。
在谷粒萌发图像获取过程中,不需要对谷粒作过多预处理,只需将经过浸种的谷粒放入透明培养皿中,允许谷粒之间存在粘连和重叠,这为谷粒萌发图像的拍摄提供了便捷。
在统计谷粒萌发率时,只需要将培养皿放入谷粒萌发拍照设备,即可快速、方便地完成谷粒萌发率的统计,整个统计过程通过深度学习模型来完成,从而避免了人工干预,保证了萌发率统计结果的准确性。
以下将结合附图对本发明的构思、具体结构及产生的技术效果作进一步说明,以充分地了解本发明的目的、特征和效果。
附图说明
图1是本发明的一个较佳实施例的一种谷粒萌发率测定方法的流程示意图;
图2是本发明的一个较佳实施例的拍照设备中LED灯调节开关示意图;
图3是本发明的一个较佳实施例的拍照设备中图像采集口示意图;
图4是本发明的一个较佳实施例的拍照设备中摄像头示意图;
图5是本发明的一个较佳实施例的拍照设备中光源示意图;
图6是本发明的一个较佳实施例的拍照设备俯视示意图;
图7是本发明的一个较佳实施例的拍照设备正视示意图;
图8是本发明的一个较佳实施例的一种谷粒萌发率测定方法的原始谷粒萌发图像示意图;
图9是本发明的一个较佳实施例的一种谷粒萌发率测定方法的标注图像结果示意图;
图10是本发明的一个较佳实施例的一种谷粒萌发率测定方法的xml文件结果示意图;
图11是本发明的一个较佳实施例的一种谷粒萌发率测定方法的分块方式示意图;
图12是本发明的一个较佳实施例的一种谷粒萌发率测定方法的图像分块结果示意图;
图13是本发明的一个较佳实施例的一种谷粒萌发率测定方法的标签归一化后的TXT文件示意图;
图14是本发明的一个较佳实施例的一种谷粒萌发率测定方法的深度学习模型结构示意图;
图15是本发明的一个较佳实施例的一种谷粒萌发率测定方法的切片网络结构示意图;
图16是本发明的一个较佳实施例的一种谷粒萌发率测定方法的空间金字塔池化结构示意图;
图17是本发明的一个较佳实施例的一种谷粒萌发率测定方法的神经网络模型训练示意图;
图18是本发明的一个较佳实施例的一种谷粒萌发率测定方法的拍照图形界面示意图;
图19是本发明的一个较佳实施例的一种谷粒萌发率测定方法的检测图形界面示意图;
图20是本发明的一个较佳实施例的一种谷粒萌发率测定方法的检测后Excel结果示意图。
具体实施方式
为了使本发明所要解决的技术问题、技术方案及有益效果更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
以下描述中,为了说明而不是为了限定,提出了诸如特定内部程序、技术之类的具体细节,以便透彻理解本发明实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本发明。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本发明的描述。
如图1所示,本发明实施例提供了一种谷粒萌发率测定方法,包括以下步骤:
步骤1、设计谷粒萌发拍照设备,所述拍照设备包含摄像头和避光箱,用于获取谷粒萌发图像;
步骤2、获取在拍照设备下的谷粒萌发图像;
步骤3、针对获取的每幅谷粒萌发图像,使用labelImg标注工具标注图像,得到谷粒萌发图像数据集;
步骤4、针对所述谷粒萌发图像数据集,对每幅谷粒萌发图像进行预处理,包括归一化处理和分块处理,得到大小一样的多幅子图像,将所有子图像按照7:3的比例分为训练样本和测试样本;
步骤5、构造深度学习模型,依次构造输入层,骨干网络,头部网络和检测层;
步骤6、对于步骤5中构造的深度学习模型,使用k-means聚类算法进行锚框计算,得到9个锚框;
步骤7、针对预处理后的训练样本,利用步骤6中构造的深度学习模型,通过模型中卷积核逐步提取所述谷粒萌发图像的特征和大小信息,并利用反向传播和随机梯度下降算法有监督地最小化损失函数,根据学习率和梯度值调整模型的连接权重,从而完成神经网络模型的训练;
步骤8、针对预处理后的测试样本,将其输入到训练好的神经网络模型中,得到谷粒萌发测试结果和模型指标值,通过模型指标值来衡量模型好坏,从而得到一个可以使用的深度学习模型;
步骤9、针对步骤8中得到的深度学习模型,对其进行封装,设计成一个连接谷粒萌发拍照设备的图形界面系统,以便于人们使用。
如下将举例来说明本发明的一种谷粒萌发率测定方法的具体步骤。
步骤1、设计谷粒萌发拍照设备,所述拍照设备包含摄像头和避光箱,用于获取谷粒萌发图像;避光箱由图像采集口、光源和箱体三部分构成;图像采集口位于箱体的正上方,摄像头可通过图像采集口对箱内物体进行图像采集;光源采用环形LED灯,将其放置在盒子顶部图像采集口下方;LED灯朝盒顶照射,经盒顶、盒壁等周围材料反射,在盒底形成均匀漫反射光照环境,使采集得到的谷粒图像不会出现明显的反光;另外,LED灯通过USB接口供电,设三档亮度调节模式;箱体的前面开口,用于采集谷粒萌发图像时培养皿的进出。谷粒萌发拍照设备如图2-图7所示,其中,图2为LED灯调节开关,图3为图像采集口,图4所示的摄像头安装在该图像采集口位置,图5为拍照设备中采用的光源,图6和图7分别为拍照设备的俯视图和正视图。
步骤2、获取在拍照设备下的谷粒萌发图像,具体包括如下步骤:
首先,将经过浸种的谷粒放入透明培养皿中,谷粒尽量平铺在培养皿中,同时允许谷粒之间存在粘连和重叠;
其次,将培养皿放入谷粒萌发拍照设备中,使用连接摄像头的电脑端进行拍照,输入图像编号,得到谷粒萌发图像。
这里,拍照设备中铺上红,绿,蓝,黑色等彩色纸,再将培养皿放入谷粒萌发拍照设备中,使用连接摄像头的电脑端进行拍照,同时设置拍照的图像分辨率为1920*1080,输入图像编号,从而得到谷粒萌发图像,如图8所示。
步骤3、针对获取的每幅谷粒萌发图像,使用labelImg标注工具标注图像,得到谷粒萌发图像数据集,具体包括以下步骤:
针对获取的每幅谷粒萌发图像,在Windows系统下使用labelImg标注工具,对每颗谷粒及其发芽部分进行矩形框的标注,然后将标注的信息以xml文件形式进行保存,原始图像文件和xml文件保存在同一文件夹内,最终数据集构成包含原始图像文件和xml文件,其中,所标注的矩形框的信息包括类别,矩形框中心点的横坐标和纵坐标,以及矩形框的宽度和高度等,得到谷粒萌发数据集,其中,将谷粒标签分为三类:明显发芽谷粒,明显未发芽谷粒,不确定是否发芽谷粒。标注图像结果示意图如图9所示,xml文件结果示意图如图10所示。在图10中,1920,1080分别代表图像的宽度和高度,3代表图像包含红色R,绿色G和蓝色B三通道,“<name>no</name>”表示谷粒标签的类别为明显发芽谷粒,这里,规定yes表示明显发芽谷粒,un表示不确定是否发芽谷粒,no表示明显未发芽谷粒,xmin,ymin,xmax和ymax表示所标注的矩形框的左上角坐标(xmin,ymin)和右下角坐标(xmax,ymax),则图10中矩形框的左上角坐标是(1059,784)和右下角坐标是(1122,860),按xmin,ymin,xmax和ymax这4个值可以得到矩形框中心点的横坐标是(1059+1122)/2=1090.5,中心点的纵坐标是(784+860)/2=822,矩形框的宽度是1122-1059=63,矩形框的高度是860-784=76。
步骤4、针对所述谷粒萌发图像数据集,对每幅谷粒萌发图像进行预处理,包括归一化处理和分块处理,得到大小一样的多幅子图像,将所有子图像按照7:3的比例分为训练样本和测试样本,具体包括以下步骤:
由于步骤3得到的谷粒萌发数据集中图像文件和标注信息的xml文件放置在同一文件夹内,所以,首先将图像文件和xml文件按照文件类型进行分开,分为图像文件夹和xml文件夹,然后对图像文件夹中的图像文件和xml文件夹中的xml文件分别进行预处理。预处理包含以下步骤:
首先,对每幅谷粒萌发图像进行归一化处理,将图像中各像素的R,G和B值分别除以255;
其次,对图像进行分块处理,将其分成大小为640*640的子图像,各子图像之间有160个像素的重叠区域;具体分块步骤为:
对图像分别沿水平方向和垂直方向分为大小为640*640的子图像,子图像之间的重叠区域为160个像素,如图11所示,对于分辨率为1920*1080的图像,当得到m11,m12和m13三个子图像之后,沿水平方向,这三个子图像共占640*3-160*2=1600个像素,则图像水平方向还剩下1920-1600=320个像素,为使子图像的宽度等于640,将m13和m14的重叠区域设置为320个像素,使得m14子图像的宽度等于640;同样,对于垂直方向,当得到m11子图像之后,图像垂直方向还剩下1080-640=440,为使子图像的高度等于640,将m11和m21的重叠区域设置为200个像素,使得m21子图像的高度等于640;对于最右边和最下边的所有子图像都按同样方法进行处理;图12是按上述方法,对图8所示的原始萌发图像进行分块后的结果,共得到8个大小为640*640的子图像。
由于对图像进行分块处理,所以,标注的矩形框也需要进行分块处理,根据标注的矩形框的中心点坐标来筛选子图像对应的矩形框,如果中心点在子图像范围内,则选择为对应子图像的矩形框;对子图像中各标注的矩形框作归一化处理,包括将矩形框的中心点的横坐标和矩形框的宽度分别除以子图像的宽度640,将矩形框的中心点的纵坐标和矩形框的高度分别除以子图像的高度640;子图像标注的矩形框文件大小为矩形框个数*5,其中5代表每个矩形框包含的信息:类别名称编号,矩形框归一化后的中心点横坐标和纵坐标,矩形框归一化后的宽度和高度,这里,类别名称编号中规定0表示明显发芽谷粒,1表示明显未发芽谷粒,2表示不确定是否发芽谷粒,同时,将子图像对应标注矩形框文件保存为TXT文件格式,TXT文件示意图如图13所示。图13中,第一行的1,0.9515625000000002,0.596875,0.09374999999999964和0.11875000000000017分别表示矩形框的类别是不确定是否发芽谷粒,矩形框中心点的横坐标,矩形框中心点的纵坐标,矩形框的宽度和矩形框的高度。
最后,将所有子图像和对应的标注文件按照7:3的比例分为训练样本和测试样本。
步骤5、构造深度学习模型,依次构造输入层,骨干网络,头部网络和检测层,深度学习模型结构示意图如图14所示,具体包括以下步骤:
首先,构造输入层,用于输入待处理的谷粒萌发图像,大小为640*640*3,同时对图像进行随机拼接、随机裁剪、随机排布和Mosaic数据增强,得到图像大小为640*640*3;其中,随机拼接操作是随机选取两张不同的图像,选取两张图像中的部分像素值进行拼接,拼接为一张640*640*3图像;随机裁剪是将一张图像进行部分裁剪,将裁剪掉的部分使用灰色像素值进行填充;随机排布是将所有子图像打乱原本的顺序,随机进行排序;Mosaic数据增强是随机选取四张完整子图像进行拼接成一张640*640*3的图像。
其次,构造骨干网络,将640*640*3大小的图像切片为320*320*12的特征图,并将特征图输入到包括32个卷积核的卷积层,通过卷积操作得到320*320*32的特征图;再构造三个卷积层和跨阶段局域网络;接着构造一个卷积层和一个空间金字塔池化;最后再构造一个跨阶段局域网络;骨干网络卷积核的详细信息如下表:
然后,构造头部网络结构,通过卷积神经网络,上采样和拼接操作组成路径聚合网络,最终得到三层网络,并输出80*80*128,40*40*256,20*20*512大小的特征图;其中,上采样和拼接操作组成路径聚合网络的顺序如下表所示:
最后,构造检测层结构,用于得到最后的卷积结果,将头部网络结构中的C18输出特征图80*80*128连接21个1*1卷积核的卷积层,得到80*80*21的特征图,将头部网络结构中的C21输出特征图40*40*256连接21个1*1卷积核的卷积层,得到40*40*21的特征图,将头部网络结构中的C24输出特征图20*20*512连接21个1*1卷积核的卷积层,得到20*20*21的特征图;最终可以得到三层输出特征图,此特征图具有宽度,高度和深度三个维度,分别为:80*80*21,40*40*21,20*20*21大小的输出,其中,80*80,40*40,20*20表示特征图的宽度和高度值,21表示特征图深度大小,具体来讲,21表示每层锚框数量*7,其中,每层锚框数量为3,7表示特征图中每个网格对应位置的7个预测框值,这7个预测框值分别为:预测框中心点的横坐标值,预测框中心点的纵坐标值,预测框的宽度,预测框的高度,以及三类别(包括明显发芽谷粒,明显未发芽谷粒,不确定是否发芽谷粒)的类别概率;
步骤6、对于步骤5中构造的深度学习模型,使用k-means聚类算法进行锚框计算,得到9个锚框,具体包括以下步骤:
首先,规定深度学习模型输出三层不同大小的特征层,每个特征层上有三个锚框,一共是9个锚框;
其次,将训练样本中所有标签框的高度值和宽度值作为k-means聚类算法的输入,通过k-means聚类算法得到9个聚类中心,这9个聚类中心即为9个锚框。
步骤7、针对预处理后的训练样本,利用步骤6中构造的深度学习模型,通过模型中卷积核逐步提取所述谷粒萌发图像的特征和大小信息,并利用反向传播和随机梯度下降算法有监督地最小化损失函数,根据学习率和梯度值调整模型的连接权重,模型共训练500次,从而完成神经网络模型的训练,其中,学习率的调整使用余弦退火算法,预测框信息(包含预测框中心点的横坐标和纵坐标,预测框的宽度和高度)使用CIoU损失函数,分类损失使用Varifocal损失函数,CIoU损失函数LCIoU表达为:
LCIoU=1-IoU+CIoU (4)
其中,ρ2(b,bgt)表示实际矩形框和预测框中心点的距离,c表示包围实际矩形框和预测框的最小矩形框的对角线长度,wgt表示实际矩形框的宽度值,hgt表示实际矩形框的高度值,w表示预测框的宽度值,h表示预测框的高度值,IoU表示实际矩形框与预测框的交集面积除以实际框与预测框的并集面积。
Varifocal损失函数表达为:
其中,p是类别概率预测值,q是类别概率真实值。
对每次训练的学习率调整使用余弦退火算法,对每一个批次按照如下公式进行学习率的调整:
其中,ηmin和ηmax表示设置的学习率范围中的最小学习率和最大学习率,Tcur表示从训练开始到目前训练的训练次数,Ti表示总的训练次数。如图17是神经网络模型训练示意图。
步骤8、针对预处理后的测试样本,将其输入到训练好的神经网络模型中,得到谷粒萌发测试结果和模型指标值,通过模型指标值来衡量模型好坏,从而得到一个可以使用的深度学习模型;具体来讲,在模型测试时,需要对深度学习模型输出的值进行非极大抑制算法处理,以检测并删除同一个物体的冗余预测框,具体包括以下步骤:
首先,根据每个预测框的类别概率预测值进行排序;
然后,比较相互之间的IoUp值,其中,IoUp表示两个预测框的交集面积除以两个预测框的并集面积;
最后,删除小于阈值的预测框,得到最终的预测框;
步骤9、针对所述可以使用的深度学习模型进行一次封装,设计成一个连接谷粒萌发拍照设备的图形界面系统,以便日后人们反复使用,具体包括以下步骤:
首先,将经过浸种的谷粒放入透明培养皿中,做好待测萌发率准备;
其次,将透明培养皿放入拍照设备,对拍照设备中的培养皿进行拍照,从而获得谷粒萌发图像,同时,对该图像进行命名,并输入对应种子编号,保存谷粒萌发图像,使用PYQT5语言进行图形界面的设计,界面中包含编号输入框,打开摄像头按钮,拍照按钮,关闭摄像头按钮,使用步骤是:先打开摄像头,然后输入编号,接着点击拍照按钮,如果拍照结束,则点击关闭摄像头按钮;拍照图形界面如图18所示;
然后,针对拍照获得的谷粒萌发图像进行预处理,包括图像缩放和图像的归一化;其中,图像缩放的过程是:设图像的长度为a,宽度为b,先将图像的长度调整为1024,宽度调整为b’=1024/a*b,再计算b”=round(b’/32)*32,其中,round()表示向上取整,进一步得到ε=round((b”-b’)/2),由此,在b’的基础上,沿着宽度方向左右分别填充ε个灰色像素,经像素填充后图像的大小为640*b”;图像归一化是图像中各像素的R,G和B值分别除以255;
最后,将预处理后的图像送入训练好的深度学习模型中,从而得到包含三个谷粒类别(包括明显发芽谷粒,明显未发芽谷粒,不确定是否发芽谷粒)的预测框,分别统计每个类别的谷粒数目,将每个类别的谷粒数目相加得到谷粒总数,再将属于明显发芽谷粒类别的谷粒数目除以谷粒总数,从而得到谷粒萌发率,结果使用Excel文件保存,便于后期查看和使用,设计的界面包含路径框,检测按钮,和日志显示框,其中,路径框是输入拍照完成的谷粒图像文件夹路径或者是单张图片,日志显示框主要是记录图像检测后Excel结果保存的路径名字,如果输入的图像路径不存在或者为空也将进行提示和记录;检测界面如图19所示。图20是Excel文件结果示意图。同时,系统会将检测结果图像保存,方便研究人员验证结果。
本发明的一种谷粒萌发率测定方法,摆脱了以往需要人工测定谷粒萌发率,从而节省大量人力。在谷粒图像获取过程中,仅需一台电脑和一个拍照设备就可以得到较好的效果,具有使用方便、快捷、成本低廉和易于实现等优点。拍摄时只需将谷粒平铺于培养皿上,同时,允许谷粒间有一定程度的粘连,就能统计得到谷粒萌发率,这为研究人员提供了极大的方便。
以上详细描述了本发明的较佳具体实施例。应当理解,本领域的普通技术人员无需创造性劳动就可以根据本发明的构思作出诸多修改和变化。因此,凡本技术领域中技术人员依本发明的构思在现有技术的基础上通过逻辑分析、推理或者有限的实验可以得到的技术方案,皆应在由权利要求书所确定的保护范围内。
Claims (10)
1.一种谷粒萌发率测定方法,其特征在于,包括以下步骤:
步骤1、设计谷粒萌发的拍照设备,所述拍照设备包含摄像头和避光箱,用于获取谷粒萌发图像;
步骤2、获取在所述拍照设备下的谷粒萌发图像;
步骤3、针对获取的每幅所述谷粒萌发图像,使用labelImg标注工具标注图像,得到谷粒萌发图像数据集;
步骤4、针对所述谷粒萌发图像数据集,对每幅所述谷粒萌发图像进行预处理,包括归一化处理和分块处理,得到大小一致的多幅子图像,将所有子图像按照7:3的比例分为训练样本和测试样本;
步骤5、构造深度学习模型,依次构造输入层、骨干网络、头部网络和检测层;
步骤6、根据所述深度学习模型,使用k-means聚类算法进行锚框计算,得到9个锚框;
步骤7、针对所述训练样本,利用所述深度学习模型,通过模型中卷积核逐步提取所述谷粒萌发图像的特征和大小信息,并利用反向传播和随机梯度下降算法有监督地最小化损失函数,根据学习率和梯度值调整模型的连接权重,从而完成神经网络模型的训练;
步骤8、针对所述测试样本,将所述测试样本输入到训练好的神经网络模型中,得到谷粒萌发测试结果和模型指标值,通过模型指标值来衡量模型好坏,从而得到一个可以使用的深度学习模型。
2.如权利要求1所述的一种谷粒萌发率测定方法,其特征在于,设计谷粒萌发拍照设备,所述拍照设备包含摄像头和避光箱,用于获取谷粒萌发图像,具体包括:
避光箱包括图像采集口、光源和箱体;所述图像采集口位于所述箱体的正上方,所述摄像头通过所述图像采集口对箱内物体进行图像采集。
3.如权利要求1所述的一种谷粒萌发率测定方法,其特征在于,获取在拍照设备下的谷粒萌发图像,具体包括如下步骤:
首先,将经过浸种的谷粒放入透明培养皿中,谷粒尽量平铺在培养皿中,同时允许谷粒之间存在粘连和重叠;
其次,将培养皿放入谷粒萌发拍照设备中,使用摄像头进行拍照,然后输入图像编号,得到谷粒萌发图像。
4.如权利要求3所述的一种谷粒萌发率测定方法,其特征在于,针对获取的每幅谷粒萌发图像,使用labelImg标注工具标注图像,得到谷粒萌发图像数据集,具体包括以下步骤:
针对获取的每幅谷粒萌发图像,在Windows系统下使用labelImg标注工具,对每颗谷粒及其发芽部分进行矩形框的标注,其中,所标注的矩形框的信息包括矩形框中心点的横坐标和纵坐标,以及矩形框的宽度和高度等信息,得到谷粒萌发数据集,其中,将谷粒标签分为三类:明显发芽谷粒,明显未发芽谷粒,不确定是否发芽谷粒。
5.如权利要求4所述的一种谷粒萌发率测定方法,其特征在于,针对所述谷粒萌发图像数据集,对每幅谷粒萌发图像进行预处理,包括归一化处理和分块处理,得到大小一样的多幅子图像,将所有子图像按照7:3的比例分为训练样本和测试样本,具体包括以下步骤:
首先,对每幅谷粒萌发图像进行归一化处理,将图像中各像素的R,G和B值分别除以255;
其次,对图像进行分块处理,将其分成大小为640*640的子图像,各子图像之间有160个像素的重叠区域;
然后,对子图像中各标注的矩形框作归一化处理,包括将矩形框的中心点的横坐标和矩形框的宽度分别除以子图像的宽度,将矩形框的中心点的纵坐标和矩形框的高度分别除以子图像的高度;
最后,将所有子图像按照7:3的比例分为训练样本和测试样本。
6.如权利要求5所述的一种谷粒萌发率测定方法,其特征在于,构造深度学习模型,依次构造输入层、骨干网络、头部网络和检测层,具体包括以下步骤:
首先,构造输入层,用于输入待处理的谷粒萌发图像,同时对图像进行随机拼接、随机裁剪、随机排布和Mosaic数据增强,得到图像大小为640*640*3;
其次,构造骨干网络,将640*640*3大小的图像切片为320*320*12的特征图,并将特征图输入到包括32个卷积核的卷积层,通过卷积操作得到320*320*32的特征图;再构造三个卷积层和跨阶段局域网络;接着构造一个卷积层和一个空间金字塔池化;最后再构造一个跨阶段局域网络;
然后,构造头部网络结构,通过卷积神经网络,上采样和拼接操作组成路径聚合网络,最终得到三层网络,并输出80*80*128,40*40*256,20*20*512大小的特征图;
最后,构造检测层结构,用于得到最后的卷积结果,所述检测层结构包括三层并行的卷积层,得到三层输出特征图,此特征图具有宽度,高度和深度三个维度,分别为:80*80*21,40*40*21,20*20*21大小的输出,其中80*80,40*40,20*20表示特征图的宽度和高度值,21表示特征图深度大小,具体来讲,21表示每层锚框数量*7,其中每层锚框数量为3,7表示特征图中每个网格对应位置的7个预测框值,这7个预测框值分别为:预测框中心点的横坐标值,预测框中心点的纵坐标值,预测框的宽度,预测框的高度,以及三类别的类别概率。
7.如权利要求6所述的一种谷粒萌发率测定方法,其特征在于,对于所述深度学习模型,使用k-means聚类算法进行锚框计算,得到9个锚框,具体包括以下步骤:
首先,规定深度学习模型输出三层不同大小的特征层,每个特征层上有三个锚框,一共是9个锚框;
其次,将训练样本中所有标签框的高度值和宽度值作为k-means聚类算法的输入,通过k-means聚类算法得到9个聚类中心,这9个聚类中心即为9个锚框。
8.如权利要求7所述的一种谷粒萌发率测定方法,其特征在于,针对所述训练样本,利用所述深度学习模型,通过模型中卷积核逐步提取所述谷粒萌发图像的特征和大小信息,并利用反向传播和随机梯度下降算法有监督地最小化损失函数,根据学习率和梯度值调整模型的连接权重,从而完成神经网络模型的训练,其中,学习率的调整使用余弦退火算法,预测框信息使用CIoU损失函数,分类损失使用Varifocal损失函数,CIoU损失函数LCIoU表达为:
LCIoU=1-IoU+CIoU (4)
其中,ρ2(b,bgt)表示实际矩形框和预测框中心点的距离,c表示包围实际矩形框和预测框的最小矩形框的对角线长度,wgt表示实际矩形框的宽度值,hgt表示实际矩形框的高度值,w表示预测框的宽度值,h表示预测框的高度值,IoU表示实际矩形框与预测框的交集面积除以实际框与预测框的并集面积;
Varifocal损失函数表达为:
其中,p是类别概率预测值,q是类别概率真实值。
9.如权利要求8所述的一种谷粒萌发率测定方法,其特征在于,针对所述测试样本,将其输入到训练好的神经网络模型中,得到谷粒萌发测试结果和模型指标值,通过模型指标值来衡量模型好坏,从而得到一个可以使用的深度学习模型;具体来讲,在模型测试时,需要对深度学习模型输出的值进行非极大抑制算法处理,以检测并删除同一个物体的冗余预测框,具体包括以下步骤:
首先,根据每个预测框的类别概率预测值进行排序;
然后,比较相互之间的IoUp值,其中,IoUp表示两个预测框的交集面积除以两个预测框的并集面积;
最后,删除小于阈值的预测框,得到最终的预测框。
10.如权利要求9所述的一种谷粒萌发率测定方法,其特征在于,还包括步骤9,针对所述可以使用的深度学习模型进行一次封装,设计成一个连接谷粒萌发拍照设备的图形界面系统,以便日后人们反复使用,具体包括以下步骤:
首先,将经过浸种的谷粒放入透明培养皿中,做好待测萌发率准备;
其次,将透明培养皿放入拍照设备,对拍照设备中的培养皿进行拍照,从而获得谷粒萌发图像,同时,对该图像进行命名,并输入对应种子编号,保存谷粒萌发图像;
然后,针对拍照获得的谷粒萌发图像进行预处理,包括图像缩放和图像的归一化;其中,图像缩放的过程是:设图像的长度为a,宽度为b,先将图像的长度调整为1024,宽度调整为b’=1024/a*b,再计算b”=round(b’/32)*32,其中,round()表示向上取整,进一步得到ε=round((b”-b’)/2),由此,在b’的基础上,沿着宽度方向左右分别填充ε个灰色像素,经像素填充后图像的大小为640*b”;图像归一化是图像中各像素的R,G和B值分别除以255;
最后,将预处理后的图像送入训练好的深度学习模型中,从而得到包含三个谷粒类别(包括明显发芽谷粒,明显未发芽谷粒,不确定是否发芽谷粒)的预测框,分别统计每个类别的谷粒数目,将每个类别的谷粒数目相加得到谷粒总数,再将属于明显发芽谷粒类别的谷粒数目除以谷粒总数,从而得到谷粒萌发率。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110671741.2A CN113610101B (zh) | 2021-06-17 | 2021-06-17 | 一种谷粒萌发率测定方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110671741.2A CN113610101B (zh) | 2021-06-17 | 2021-06-17 | 一种谷粒萌发率测定方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113610101A true CN113610101A (zh) | 2021-11-05 |
CN113610101B CN113610101B (zh) | 2024-09-13 |
Family
ID=78303567
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110671741.2A Active CN113610101B (zh) | 2021-06-17 | 2021-06-17 | 一种谷粒萌发率测定方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113610101B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114519749A (zh) * | 2022-03-03 | 2022-05-20 | 湖北工程学院 | 基于深度学习的种子发芽试验自动监测系统 |
CN115512232A (zh) * | 2022-11-24 | 2022-12-23 | 浙江托普云农科技股份有限公司 | 一种农作物种子发芽情况识别模型、构建方法及其应用 |
CN116420465A (zh) * | 2023-06-15 | 2023-07-14 | 浙江托普云农科技股份有限公司 | 基于机器视觉的种子发芽率测定方法、系统及装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN208300590U (zh) * | 2018-05-18 | 2019-01-01 | 王储 | 一种智能家用植物分层式水培种植装置 |
CN111709326A (zh) * | 2020-05-29 | 2020-09-25 | 安徽艾睿思智能科技有限公司 | 基于深度学习的级联式颗粒作物质量分析方法及其系统 |
-
2021
- 2021-06-17 CN CN202110671741.2A patent/CN113610101B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN208300590U (zh) * | 2018-05-18 | 2019-01-01 | 王储 | 一种智能家用植物分层式水培种植装置 |
CN111709326A (zh) * | 2020-05-29 | 2020-09-25 | 安徽艾睿思智能科技有限公司 | 基于深度学习的级联式颗粒作物质量分析方法及其系统 |
Non-Patent Citations (3)
Title |
---|
GENZE N 等: "Accurate machine learning-based germination detection, prediction and quality assessment of three grain crops", 《PLANT METHODS》, vol. 16, 22 December 2020 (2020-12-22), pages 1 - 11 * |
JINFENG ZHAO 等: "Deep‐learning‐based automatic evaluation of rice seed germination rate", 《JOURNAL OF THE SCIENCE OF FOOD AND AGRICULTURE》, vol. 103, no. 04, 24 November 2022 (2022-11-24), pages 1912 - 1924 * |
张博: "基于深度学习的小麦外观品质机器视觉检测研究", 《中国优秀硕士学位论文全文数据库 (农业科技辑)》, no. 08, 15 August 2019 (2019-08-15), pages 047 - 35 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114519749A (zh) * | 2022-03-03 | 2022-05-20 | 湖北工程学院 | 基于深度学习的种子发芽试验自动监测系统 |
CN114519749B (zh) * | 2022-03-03 | 2024-08-13 | 湖北工程学院 | 基于深度学习的种子发芽试验自动监测系统 |
CN115512232A (zh) * | 2022-11-24 | 2022-12-23 | 浙江托普云农科技股份有限公司 | 一种农作物种子发芽情况识别模型、构建方法及其应用 |
CN116420465A (zh) * | 2023-06-15 | 2023-07-14 | 浙江托普云农科技股份有限公司 | 基于机器视觉的种子发芽率测定方法、系统及装置 |
CN116420465B (zh) * | 2023-06-15 | 2023-09-29 | 浙江托普云农科技股份有限公司 | 基于机器视觉的种子发芽率测定方法、系统及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN113610101B (zh) | 2024-09-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Li et al. | Automatic organ-level point cloud segmentation of maize shoots by integrating high-throughput data acquisition and deep learning | |
CN113610101B (zh) | 一种谷粒萌发率测定方法 | |
US9292729B2 (en) | Method and software for analysing microbial growth | |
CN110967339B (zh) | 一种玉米果穗性状分析的方法及装置、玉米性状分析设备 | |
CN111540006A (zh) | 基于深度迁移学习的植物气孔智能检测与识别方法及系统 | |
CN114387520A (zh) | 一种用于机器人采摘的密集李子精准检测方法及其系统 | |
CN109242826B (zh) | 基于目标检测的移动设备端签状物根数计数方法及系统 | |
CN112614133B (zh) | 一种无锚点框的三维肺结节检测模型训练方法及装置 | |
CN109344738A (zh) | 农作物病虫草害识别方法及装置 | |
CN111753707B (zh) | 颗粒状农作物不完善粒检测方法及系统 | |
CN113435254A (zh) | 一种基于哨兵二号影像的耕地深度学习提取方法 | |
CN117115640A (zh) | 一种基于改进YOLOv8的病虫害目标检测方法、装置及设备 | |
CN117576195A (zh) | 一种植物叶片形态识别方法 | |
CN116597332A (zh) | 一种基于无人机的茶树嫩芽检测方法及装置 | |
CN115050020A (zh) | 一种基于改进Mask R-CNN草莓叶面积的智能视觉检测方法及系统 | |
CN109815959A (zh) | 一种冬小麦产量预测方法及装置 | |
CN114937266A (zh) | 一种基于yolox-s的硬壳蛤生物体征识别方法 | |
CN117893973A (zh) | 一种监测玉米苗数的方法、计算机设备及计算机程序产品 | |
CN113284164A (zh) | 虾群自动计数方法、装置、电子设备及存储介质 | |
CN114913523B (zh) | 基于yolox的植物气孔多功能实时智能识别系统 | |
Durai et al. | RETRACTED ARTICLE: Research on varietal classification and germination evaluation system for rice seed using hand-held devices | |
CN109472771A (zh) | 玉米雄穗的检测方法、装置及检测设备 | |
CN107389511A (zh) | 一种作物种籽表型测量方法及便携装置 | |
CN114359748A (zh) | 目标分类提取方法及装置 | |
CN116012571A (zh) | 一种融合注意力机制的玉米籽粒破碎率实时检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |