CN117392513A - 一种无人驾驶采棉机垄线识别方法及其应用 - Google Patents
一种无人驾驶采棉机垄线识别方法及其应用 Download PDFInfo
- Publication number
- CN117392513A CN117392513A CN202311670275.1A CN202311670275A CN117392513A CN 117392513 A CN117392513 A CN 117392513A CN 202311670275 A CN202311670275 A CN 202311670275A CN 117392513 A CN117392513 A CN 117392513A
- Authority
- CN
- China
- Prior art keywords
- ridge line
- cotton
- unmanned
- data set
- ridge
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 229920000742 Cotton Polymers 0.000 title claims abstract description 105
- 238000000034 method Methods 0.000 title claims abstract description 62
- 238000012549 training Methods 0.000 claims abstract description 25
- 230000008569 process Effects 0.000 claims abstract description 21
- 230000006872 improvement Effects 0.000 claims abstract description 5
- 238000005457 optimization Methods 0.000 claims description 7
- 230000004913 activation Effects 0.000 claims description 5
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 4
- 238000012795 verification Methods 0.000 claims description 3
- 230000006870 function Effects 0.000 description 16
- 238000013528 artificial neural network Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 230000012010 growth Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000013526 transfer learning Methods 0.000 description 2
- 241000196324 Embryophyta Species 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000012271 agricultural production Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000007773 growth pattern Effects 0.000 description 1
- 238000003306 harvesting Methods 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 239000002689 soil Substances 0.000 description 1
- 238000009331 sowing Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/096—Transfer learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
- G06V10/225—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on a marking or identifier characterising the area
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/70—Labelling scene content, e.g. deriving syntactic or semantic representations
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种无人驾驶采棉机垄线识别方法及其应用。所述无人驾驶采棉机垄线识别方法包括以下步骤:首先,建立春夏季垄线数据集和垄线识别算法模型,并应用建立的春夏季垄线数据集进行模型训练。然后,采集秋冬季垄线数据集和采棉作业过程中的棉田图片,并将棉田图片输入训练好的垄线识别算法模型进行识别,输出识别结果;并将秋冬季垄线数据集和识别结果与春夏季垄线数据集合并,组成扩充数据集;使用扩充数据集对垄线识别算法模型进行优化训练。采棉作业过程中,持续获取采棉作业过程中的棉田图片,不断扩充数据集,对垄线识别算法模型不断优化,实现垄线识别算法模型的自适应改进。
Description
技术领域
本发明涉及无人驾驶采棉机技术领域,特别是涉及一种无人驾驶采棉机垄线识别方法及其应用。
背景技术
在传统的棉花采摘过程中,人工操作存在着一系列问题,包括劳动强度大、效率低下、危险性等。为了提高生产效率、减少人为误差、弥补劳动力短缺,无人驾驶采棉机应运而生。
然而,无人驾驶采棉机在实际作业中面临着如下的挑战,即棉花垄线的表现特征随季节的变化而变化,从播种、生长到成熟,每个时间段有着不同程度识别难度同时棉花成熟期的垄线数据比较有限,导致棉花垄线识别的数据集比较有限;在采棉机采棉过程由于棉花本身的颜色和生长密度等因素,如果利用传统的识别算法很难达到一个准确的识别效果。由于棉花的生长周期较长和在不同阶段垄线识别难度不同需要制备相应的数据集进行标注训练,制作数据集如何来确保垄线识别出更象一条直线且能应对棉花不同生长周期的识别难度,从而根据识别出的棉花垄线来进行准确的路径规划,减少对棉花的不必要机械损害,从而提高采摘效率。
在农业机械中进行垄线的检测已经有一些方法。传统计算机视觉方法依赖于计算机技术,如边缘检测、图像分割、特征提取等。通过分析图像中的垄线特征来进行识别,这种算法相对简单易于理解不需要大量的标注数据,但是这种方法对于复杂的垄线形状和环境变化不敏感。深度学习方法利用深度神经网络来学习图像特征并进行垄线识别,这种方法具有较高的识别准确性,但是依赖大量的数据集进行训练,模型比较复杂。
《基于Hough变换和Fisher准则的垄线识别算法》(中国图象图形学报,2007,(12):2164-2168.)采用传统计算机方法研究了基于早期油菜垄田导航的视觉系统,通过 Hough变换直接提取单垄线。针对Hough 变换提取多直垄段的缺陷,提出了基于 Hough 变换和Fisher准则函数优化的多垄识别模型。其试验结果表明,该算法能够避免较大杂草、断垄等影响,系统具有较高准确性、鲁棒性和适应性。但其算法计算量较大,还需改进。
《基于直线检测技术的垄线识别方法研究》(哈尔滨工程大学,2015.)采用深度学习方法提出的基于直线检测技术的垄线识别方法研究虽然基于改进的垂直投影法解决单垄线识别问题实现了多垄线识别,但是没有加入模型自适应优化,无法解决让模型自适应棉田识别的问题。
利用3D雷达识别垄线采用混合方法(Goetz KT, Soitinaho R, Oksanen T.Ploughing furrow recognition for onland ploughing usinga 3D-LiDAR sensor.Computers&Electronics in Agriculture. 2023;210:N.PAG. doi:10.1016/j.compag.2023.107941)可以达到86%以上的垄线识别率,但是无法解决模型的自适应优化和提高准确率。
此外,农业领域中,垄线的位置和形状通常受到一定的物理约束和规律的限制,例如植被的生长模式、土壤的性质等。这些物理约束和规律可以为垄线检测提供重要信息,但传统方法往往难以充分整合这些信息。
发明内容
本发明的目的是针对现有垄线识别方法无法满足无人驾驶采棉机应用需求的缺陷,而提供一种无人驾驶采棉机垄线识别方法,该方法基于物理信息神经网络PINN,是一种多时间尺度融合和迁移学习的无人驾驶采棉机垄线识别方法。
本发明的另一个目的,是提供上述无人驾驶采棉机垄线识别方法在路径规划中的应用。
为实现本发明的目的所采用的技术方案是:
一种无人驾驶采棉机垄线识别方法,包括以下步骤:
步骤1:采集春季和夏季的棉田图片,并对棉田图片中的垄线进行标注,组合成春夏季垄线数据集;
步骤2:建立垄线识别算法模型,并应用步骤1建立的春夏季垄线数据集进行训练;
步骤3:采集秋季和冬季的棉田图片,并对棉田图片中的垄线进行标注,组合成秋冬季垄线数据集;
步骤4:采集采棉作业过程中的棉田图片,并将其输入训练好的垄线识别算法模型进行识别,输出识别结果;
步骤5:将步骤3获得的秋冬季垄线数据集和步骤4获得的识别结果与步骤1的春夏季垄线数据集合并,组成扩充数据集;使用扩充数据集对步骤2训练好的垄线识别算法模型进行优化训练;
步骤6:采棉作业过程中,应用优化后的垄线识别算法模型进行垄线识别;同时持续获取采棉作业过程中的棉田图片,重复步骤4和步骤5,不断扩充数据集,对垄线识别算法模型不断优化,实现垄线识别算法模型的自适应改进。
在上述技术方案中,步骤2中,所述垄线识别算法模型包括输入层、隐藏层、激活函数、输出层、损失函数和优化器。
在上述技术方案中,所述隐藏层采用Sigmoid激活函数。
在上述技术方案中,所述损失函数包括数据误差项和物理误差项。
在上述技术方案中,所述损失函数如公式(2)至公式(4)所示:
(2)
(3)
(4)
其中, 表示总损失函数;/>表示数据误差项,/>表示垄线图片标注后标注框中心点/>坐标,/>表示垄线图片标注后标注框中心点/>坐标,/>表示垄线图片标注后标注框宽度,/>表示垄线图片标注后标注框高度,/>表示垄线图片识别后标注框中心点/>坐标,/>表示垄线图片识别后标注框中心点/>坐标,/>表示垄线图片识别后标注框宽度,/>表示垄线图片识别后标注框高度;
其中,表示物理误差项,采用二维多项式表示垄线的形状,以图片左下角为坐标原点,其中/>表示该点在图片上的实际横坐标,/>表示该点在图片上的实际纵坐标,其中/>表示该图所识别的垄线点集合中的一个点/>中的横纵坐标;/>和/>为该图所识别的垄线对应直线方程的参数;/>表示该图片识别出的垄线的集合;/>表示该图上所识别的所有点的集合。
在上述技术方案中,所述优化器采用Adam优化器。
在上述技术方案中,步骤4中,训练好的垄线识别算法模型通过云平台下发到无人驾驶采棉机;
无人驾驶采棉机上的摄像头采集采棉作业过程中的棉田图片,并将其输入训练好的垄线识别算法模型进行识别,输出识别结果,并将识别结果上传至云平台。
在上述技术方案中,步骤5中,优化训练次数采用自递增的模式,将每次训练得到的模型直接用于验证,对验证的结果进行可视化显示,通过对比每次训练后的结果来确定当下数据集所对应的最佳训练迭代次数。
本发明的另一方面,无人驾驶采棉机垄线识别方法在路径规划中的应用。
在上述技术方案中,无人驾驶采棉机上配置有惯导装置和触觉传感器;所述惯导装置获取无人驾驶采棉机的位姿信息;所述触觉传感器获取采棉作业过程中采头的压力电信号;路径规划过程中,将所述无人驾驶采棉机垄线识别方法识别的垄线位置与位姿信息和压力电信号进行融合,实现路径规划的实时调整。
与现有技术相比,本发明的有益效果是:
1.本发明提供的无人驾驶采棉机垄线识别方法,采用基于物理信息神经网络的垄线识别算法模型,该模型在一定程度上减少对标注数据的需求,因为它们利用了物理方程来辅助学习,从而提高了垄线识别的准确性;
2.本发明提供的无人驾驶采棉机垄线识别方法,其采用的基于物理信息神经网络的垄线识别算法模型具有自适应性,可以在不同的农田环境中进行适应和优化。这意味着无人驾驶采棉机不需要在每个农田中重新调整参数或规则,而可以根据具体的环境特征自动调整,提高了系统的鲁棒性和适应性;
3.本发明提供的无人驾驶采棉机垄线识别方法,通过数据迁移学习和采用将模型识别后的图片扩充数据集解决数据集有限和模型自适应优化问题从而优化提高采摘效率,减少损害。随着这一技术的不断发展和完善,可以期待无人驾驶采棉机发挥越来越重要的作用,为农业生产带来更大的效益和可持续性。
附图说明
图1是本发明实施例所述方法中整体流程示意图。
图2是本发明实施例所述方法中模型识别结果示例图。
具体实施方式
以下结合具体实施例对本发明作进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
实施例1
一种无人驾驶采棉机垄线识别方法,如图1所示,包括以下步骤:
步骤1:人工采集春季和夏季成长期的棉田图片,并对棉田图片中的垄线进行标注,组合成用于前期训练的春夏季垄线数据集;
步骤2:建立一种基于物理信息神经网络的垄线识别算法模型,并应用步骤1建立的春夏季垄线数据集进行训练;
步骤3:采集秋季和冬季的棉田图片,并对棉田图片中的垄线进行标注,组合成秋冬季垄线数据集;
步骤4:训练好的垄线识别算法模型通过云平台下发到无人驾驶采棉机;无人驾驶采棉机上的摄像头采集采棉作业过程中的棉田图片,并将其输入训练好的垄线识别算法模型进行识别,输出识别结果,并将识别结果上传至云平台;
步骤5:将步骤3获得的秋冬季垄线数据集和步骤4获得的识别结果与步骤1的春夏季垄线数据集合并,组成扩充数据集;使用扩充数据集对步骤2训练好的垄线识别算法模型进行优化训练;
优化训练次数采用自递增的模式,将每次训练得到的模型通过秋冬季垄线数据集进行验证,对验证的结果进行可视化显示,通过对比每次训练后的结果来确定当下数据集所对应的最佳训练迭代次数;
步骤6:采棉作业过程中,应用优化后的垄线识别算法模型进行垄线识别;同时持续获取采棉作业过程中的棉田图片,重复步骤4和步骤5,不断扩充数据集,对垄线识别算法模型不断优化,实现垄线识别算法模型的自适应改进。
实施例2
本实施例是在实施例1的基础上介绍其垄线识别算法模型的详细信息。
所述垄线识别算法模型包括输入层、隐藏层、输出层、损失函数和优化器。
所述输入层主要用于模型训练的入参,包含棉田图片标注垄线得到的相对坐标。
所述隐藏层采用Sigmoid激活函数,所述的Sigmoid激活函数,将垄线识别任务界定为一个二元分类的问题,即垄线存在或不存在。
为了更好衡量模型性能,所述损失函数同时考虑数据误差项和物理误差项,引导模型的训练。其中损失函数中的数据误差项:通过比较模型的输出与标注数据的垄线坐标,确保模型逼近已知的垄线位置。为了确保模型满足物理定律,损失函数还包括了物理误差项,物理误差项通过比较模型的输出与物理方程的结果来约束模型。
本专利采用的物理约束是用一次多项式将三维的问题转化成图片二维进行处理;该图所识别的垄线点集合中的一个点为:
(1)
其中,垄线识别是由许多个点组成一条近似直线,以图片左下角为坐标原点,表示垄线识别每个点在图像中的横坐标,/>表示垄线识别每个点在图像中的纵坐标,/>表示该图片识别出的垄线的集合,每条垄线对应一套拟合参数;/>和/>为垄线对应直线方程的参数;/>表示直线方程一般式中的常数项。
损失函数由数据误差项和物理误差项组成,如公式(2)至公式(4)所示:
(2)
(3)
(4)
其中, 表示总损失函数;/>表示数据误差项,/>表示垄线图片标注后标注框中心点/>坐标,/>表示垄线图片标注后标注框中心点/>坐标,/>表示垄线图片标注后标注框宽度,/>表示垄线图片标注后标注框高度,/>表示垄线图片识别后标注框中心点/>坐标,/>表示垄线图片识别后标注框中心点/>坐标,/>表示垄线图片识别后标注框宽度,/>表示垄线图片识别后标注框高度;
其中,表示物理误差项,采用二维多项式表示垄线的形状,以图片左下角为坐标原点,其中/>表示该点在图片上的实际横坐标,/>表示该点在图片上的实际纵坐标,其中/>表示该图所识别的垄线点集合中的一个点/>中的横纵坐标;/>和/>为该图所识别的垄线对应直线方程的参数;/>表示该图片识别出的垄线的集合;/>表示该图上所识别的所有点的集合。
为了更有效地更新神经网络的参数,所述优化器采用Adam优化器。Adam优化器结合了动量和适应性学习率的方法,它能够更快地收敛到损失函数的最小值,从而提高了神经网络的性能。
实施例3
本实施例是在实施例1的基础上介绍其在路径规划中的应用。
无人驾驶采棉机上配置有惯导装置和触觉传感器;所述惯导装置获取无人驾驶采棉机的位姿信息。
所述触觉传感器安装在采头上,当采棉机相对垄线有偏转时,棉花会对采头的一侧产生更大的压力,另一侧更小的压力。这个压力可被触觉传感器转化为电信号,从而获取采棉作业过程中采头的压力电信号。
在采棉机采收过程中,将所述无人驾驶采棉机垄线识别方法识别的垄线位置,如图2所示,与位姿信息和压力电信号进行融合,实现路径规划的实时调整。
以上所述仅是本发明的优选实施方式,应当指出的是,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (10)
1.一种无人驾驶采棉机垄线识别方法,其特征在于:包括以下步骤:
步骤1:采集春季和夏季的棉田图片,并对棉田图片中的垄线进行标注,组合成春夏季垄线数据集;
步骤2:建立垄线识别算法模型,并应用步骤1建立的春夏季垄线数据集进行训练;
步骤3:采集秋季和冬季的棉田图片,并对棉田图片中的垄线进行标注,组合成秋冬季垄线数据集;
步骤4:采集采棉作业过程中的棉田图片,并将其输入训练好的垄线识别算法模型进行识别,输出识别结果;
步骤5:将步骤3获得的秋冬季垄线数据集和步骤4获得的识别结果与步骤1的春夏季垄线数据集合并,组成扩充数据集;使用扩充数据集对步骤2训练好的垄线识别算法模型进行优化训练;
步骤6:采棉作业过程中,应用优化后的垄线识别算法模型进行垄线识别;同时持续获取采棉作业过程中的棉田图片,重复步骤4和步骤5,不断扩充数据集,对垄线识别算法模型不断优化,实现垄线识别算法模型的自适应改进。
2.如权利要求1所述的无人驾驶采棉机垄线识别方法,其特征在于:步骤2中,所述垄线识别算法模型包括输入层、隐藏层、输出层、损失函数和优化器。
3.如权利要求2所述的无人驾驶采棉机垄线识别方法,其特征在于:所述隐藏层采用Sigmoid激活函数。
4.如权利要求2所述的无人驾驶采棉机垄线识别方法,其特征在于:所述损失函数包括数据误差项和物理误差项。
5.如权利要求4所述的无人驾驶采棉机垄线识别方法,其特征在于:所述损失函数如公式(2)至公式(4)所示:
(2)
(3)
(4)
其中,表示总损失函数;
表示数据误差项,/>表示垄线图片标注后标注框中心点/>坐标,/>表示垄线图片标注后标注框中心点/>坐标,/>表示垄线图片标注后标注框宽度,/>表示垄线图片标注后标注框高度,/>表示垄线图片识别后标注框中心点/>坐标,/>表示垄线图片识别后标注框中心点/>坐标,/>表示垄线图片识别后标注框宽度,/>表示垄线图片识别后标注框高度;
其中,表示物理误差项,采用二维多项式表示垄线的形状,以图片左下角为坐标原点,其中/>表示该点在图片上的实际横坐标,/>表示该点在图片上的实际纵坐标,其中表示该图所识别的垄线点集合中的一个点/>中的横纵坐标;/>和/>为该图所识别的垄线对应直线方程的参数;/>表示该图片识别出的垄线的集合;/>表示该图上所识别的所有点的集合。
6.如权利要求2所述的无人驾驶采棉机垄线识别方法,其特征在于:所述优化器采用Adam优化器。
7.如权利要求1所述的无人驾驶采棉机垄线识别方法,其特征在于:步骤4中,训练好的垄线识别算法模型通过云平台下发到无人驾驶采棉机;
无人驾驶采棉机上的摄像头采集采棉作业过程中的棉田图片,并将其输入训练好的垄线识别算法模型进行识别,输出识别结果,并将识别结果上传至云平台。
8.如权利要求1所述的无人驾驶采棉机垄线识别方法,其特征在于:步骤5中,优化训练次数采用自递增的模式,将每次训练得到的模型直接用于验证,对验证的结果进行可视化显示,通过对比每次训练后的结果来确定当下数据集所对应的最佳训练迭代次数。
9.如权利要求1所述的无人驾驶采棉机垄线识别方法在路径规划中的应用。
10.如权利要求9所述的应用,其特征在于,无人驾驶采棉机上配置有惯导装置和触觉传感器;所述惯导装置获取无人驾驶采棉机的位姿信息;所述触觉传感器获取采棉作业过程中采头的压力电信号;路径规划过程中,将所述无人驾驶采棉机垄线识别方法识别的垄线位置与位姿信息和压力电信号进行融合,实现路径规划的实时调整。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311670275.1A CN117392513B (zh) | 2023-12-07 | 2023-12-07 | 一种无人驾驶采棉机垄线识别方法及其应用 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311670275.1A CN117392513B (zh) | 2023-12-07 | 2023-12-07 | 一种无人驾驶采棉机垄线识别方法及其应用 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117392513A true CN117392513A (zh) | 2024-01-12 |
CN117392513B CN117392513B (zh) | 2024-04-09 |
Family
ID=89435879
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311670275.1A Active CN117392513B (zh) | 2023-12-07 | 2023-12-07 | 一种无人驾驶采棉机垄线识别方法及其应用 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117392513B (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103186773A (zh) * | 2013-02-06 | 2013-07-03 | 内蒙古大学 | 一种基于一维Hough变换和专家系统的早期苗田垄线识别算法 |
CN109800805A (zh) * | 2019-01-14 | 2019-05-24 | 上海联影智能医疗科技有限公司 | 基于人工智能的图像处理系统以及计算机设备 |
WO2021226900A1 (zh) * | 2020-05-14 | 2021-11-18 | 安徽中科智能感知产业技术研究院有限责任公司 | 一种基于计算机视觉的棉花作物行检测方法、装置及存储介质 |
CN114819256A (zh) * | 2022-03-08 | 2022-07-29 | 吉林大学 | 一种反铲式挖掘机连续实时轨迹规划方法 |
CN116012438A (zh) * | 2022-12-09 | 2023-04-25 | 新疆九御科技有限公司 | 一种基于图像识别的农业机器人寻垄方法 |
CN116127844A (zh) * | 2023-02-08 | 2023-05-16 | 大连海事大学 | 一种考虑流动控制方程约束的流场时程深度学习预测方法 |
CN117115811A (zh) * | 2023-09-05 | 2023-11-24 | 青岛农业大学 | 一种不依赖无人机的薯类作物垄线高精度确定方法 |
-
2023
- 2023-12-07 CN CN202311670275.1A patent/CN117392513B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103186773A (zh) * | 2013-02-06 | 2013-07-03 | 内蒙古大学 | 一种基于一维Hough变换和专家系统的早期苗田垄线识别算法 |
CN109800805A (zh) * | 2019-01-14 | 2019-05-24 | 上海联影智能医疗科技有限公司 | 基于人工智能的图像处理系统以及计算机设备 |
WO2021226900A1 (zh) * | 2020-05-14 | 2021-11-18 | 安徽中科智能感知产业技术研究院有限责任公司 | 一种基于计算机视觉的棉花作物行检测方法、装置及存储介质 |
CN114819256A (zh) * | 2022-03-08 | 2022-07-29 | 吉林大学 | 一种反铲式挖掘机连续实时轨迹规划方法 |
CN116012438A (zh) * | 2022-12-09 | 2023-04-25 | 新疆九御科技有限公司 | 一种基于图像识别的农业机器人寻垄方法 |
CN116127844A (zh) * | 2023-02-08 | 2023-05-16 | 大连海事大学 | 一种考虑流动控制方程约束的流场时程深度学习预测方法 |
CN117115811A (zh) * | 2023-09-05 | 2023-11-24 | 青岛农业大学 | 一种不依赖无人机的薯类作物垄线高精度确定方法 |
Non-Patent Citations (1)
Title |
---|
杜昉: ""基于FPGA架构实现的农业机器人视觉导航深度学习模型研究"", 《中国优秀硕士学位论文全文数据库农业科技辑》, no. 01, 15 January 2023 (2023-01-15), pages 4 - 5 * |
Also Published As
Publication number | Publication date |
---|---|
CN117392513B (zh) | 2024-04-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Li et al. | In-field tea shoot detection and 3D localization using an RGB-D camera | |
Liu et al. | Automatic segmentation of overlapped poplar seedling leaves combining Mask R-CNN and DBSCAN | |
Li et al. | Robust visual tracking based on convolutional features with illumination and occlusion handing | |
CN103886619B (zh) | 一种融合多尺度超像素的目标跟踪方法 | |
CN113269237A (zh) | 基于注意力机制的装配体变化检测方法、设备和介质 | |
CN102262724B (zh) | 目标图像特征点定位方法和目标图像特征点定位系统 | |
CN109102547A (zh) | 基于物体识别深度学习模型的机器人抓取位姿估计方法 | |
CN110839519A (zh) | 一种基于深度学习的物联网智能的农业灌溉装置和方法 | |
CN105160310A (zh) | 基于3d卷积神经网络的人体行为识别方法 | |
CN105740823A (zh) | 基于深度卷积神经网络的动态手势轨迹识别方法 | |
Magistri et al. | Contrastive 3D shape completion and reconstruction for agricultural robots using RGB-D frames | |
Li et al. | A robot vision navigation method using deep learning in edge computing environment | |
CN101777184B (zh) | 基于局部距离学习和排序队列的视觉目标跟踪方法 | |
Li et al. | Real-time crop recognition in transplanted fields with prominent weed growth: a visual-attention-based approach | |
CN110634131A (zh) | 一种裂缝图像识别与建模方法 | |
CN108830222A (zh) | 一种基于信息性和代表性主动学习的微表情识别方法 | |
Wang et al. | The seedling line extraction of automatic weeding machinery in paddy field | |
CN112381830A (zh) | 基于YCbCr超像素和图割的鸟类关键部位提取方法和装置 | |
CN104573701B (zh) | 一种玉米雄穗性状的自动检测方法 | |
CN107330363B (zh) | 一种快速的互联网广告牌检测方法 | |
Chen et al. | A method for multi-target segmentation of bud-stage apple trees based on improved YOLOv8 | |
CN110349176B (zh) | 基于三重卷积网络和感知干扰学习的目标跟踪方法和系统 | |
CN108154176A (zh) | 一种针对单一深度图像的3d人体姿态估计算法 | |
CN117392513B (zh) | 一种无人驾驶采棉机垄线识别方法及其应用 | |
CN114255324A (zh) | 一种多激光雷达协同的地图构建方法及其系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |