CN116630650A - 一种田垄宽度识别方法及用于田垄的无人车装置 - Google Patents

一种田垄宽度识别方法及用于田垄的无人车装置 Download PDF

Info

Publication number
CN116630650A
CN116630650A CN202310891910.2A CN202310891910A CN116630650A CN 116630650 A CN116630650 A CN 116630650A CN 202310891910 A CN202310891910 A CN 202310891910A CN 116630650 A CN116630650 A CN 116630650A
Authority
CN
China
Prior art keywords
target
ridge
width
wheel
points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202310891910.2A
Other languages
English (en)
Other versions
CN116630650B (zh
Inventor
杨旭
邓新献
孟磊
尤虎
陈雷
黄斌
罗杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan University of Technology WUT
Original Assignee
Wuhan University of Technology WUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University of Technology WUT filed Critical Wuhan University of Technology WUT
Priority to CN202310891910.2A priority Critical patent/CN116630650B/zh
Publication of CN116630650A publication Critical patent/CN116630650A/zh
Application granted granted Critical
Publication of CN116630650B publication Critical patent/CN116630650B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D21/00Understructures, i.e. chassis frame on which a vehicle body may be mounted
    • B62D21/14Understructures, i.e. chassis frame on which a vehicle body may be mounted of adjustable length or width
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting

Abstract

本发明提出了一种田垄宽度识别方法及用于田垄的无人车装置,涉及图像识别技术领域,所述方法包括:采用摄像机采集田垄图像,并对田垄图像进行预处理;构建深度学习模型并预训练,深度学习模型包括编码器和解码器;将田垄图像输入预训练的深度学习模型,通过编码器对田垄图像进行特征提取和编码,通过解码器对编码后的特征进行解码和分类,得到每个像素的类别,标记出属于田垄边界的像素和背景的像素,得到田垄的边界线条;采用筛选算法在边界线条中进行筛选,得到目标边界;利用宽度识别模型对目标边界进行宽度识别,得到田垄宽度。本发明提高了田垄宽度识别的鲁棒性和准确性,且为无人农场提供了更高效和更安全的作业方式。

Description

一种田垄宽度识别方法及用于田垄的无人车装置
技术领域
本发明涉及图像识别技术领域,具体涉及一种田垄宽度识别方法及用于田垄的无人车装置。
背景技术
无人化农业是指利用无人机、无人车、智能机器人等设备,实现农业生产过程中的自动化、智能化和精准化。在如今农业劳动力不足生产效率低下、生产成本高收益低的背景下,无人农场的发展是一种不可避免的趋势,先前由于技术方面的缺陷,其应用和市场化一直收到限制,导致发展并不全面。其中就包括无人车在农场中应用,由于其所需的导航定位技术因精度难以达到要求以及成本高昂,而得不到发展。如今随着国产北斗高精度定位导航技术的下放应用,无人车在农场中的应用也出现了可能。
目前的无人小车视觉系统,多用于有明确道路边界线划分的宽度检测,对于田垄这种地形复杂,缺乏明显边界划分标识的区域来说,识别其宽度仍然是一项挑战。
中国申请号为201980009840.5的发明专利公开了图像中的作物边界检测,其通过地面真实数据建立作物模型,通过图像的频谱、时序特性利用作物模型来确定作物热图,根据热图可以描绘出作物的边界。该现有技术是对作物的边界位置做出一个限定,并没有精确的识别出边界的线条,其目的是为了监测作物边界的改变。
另外,在无人农场中,不同田垄的宽度是不一致的,一般的无人小车应用场景简单,底盘轮距是固定的,若一开始便设计宽轮距的无人小车这必然会增大无人车的体积,且在窄宽度的田垄之间穿梭时可能会出现碾压附近两侧田垄土壤样本的问题。
发明内容
有鉴于此,本发明提出了一种田垄宽度识别方法及用于田垄的无人车装置,通过深度学习算法的宽度识别算法对田垄的宽度进行计算,并根据田垄宽度来对无人车的轮距进行控制,以实现高精度的田垄宽度识别,避免无人车工作时碾压附近两侧田垄土壤。
本发明的技术方案是这样实现的,一方面,本发明提供了一种田垄宽度识别方法,包括:
S1 采用摄像机采集田垄图像,并对田垄图像进行预处理;
S2 构建深度学习模型并预训练,深度学习模型包括编码器和解码器;
S3 将田垄图像输入预训练的深度学习模型,通过编码器对田垄图像进行特征提取和编码,通过解码器对编码后的特征进行解码和分类,得到每个像素的类别,标记出属于田垄边界的像素和背景的像素,得到田垄的边界线条;
S4 采用筛选算法在边界线条中进行筛选,得到目标边界;
S5 利用宽度识别模型对目标边界进行宽度识别,得到田垄宽度。
进一步优选的,步骤S2包括:
S21 获取数据集,数据集包括多个固定角度的田垄的图像和对应的像素级别的真实标签,将数据集按预设比例分为训练集、验证集和测试集;
S22 利用随机梯度下降的优化算法优化损失函数,根据训练集对深度学习模型进行迭代训练,得到训练集的预测标签,并利用验证集来调整模型权重,直至模型收敛,得到初训练的深度学习模型;
S23 利用测试集对初训练的深度学习模型进行模型评估和性能分析,采用可视化工具展示测试结果,将测试结果中的错例挑出,进行人工标注后加入训练集,并转至步骤S22重新执行迭代训练和验证,直至测试结果达到要求。
进一步优选的,步骤S4包括:
S41 将一个田垄图像的边界线条记为{A i },i为边界线条的数量;
S42 选取一个边界线条A i ,对A i 进行二值化,随机选取A i 中的一个像素点作为起始点,从起始点进行遍历,直至A i 的全部像素点均被遍历,将A i 中所有的像素点标为一个标号,并按照像素点之间的邻域关系得到其位置点;
S43 重复步骤S42,得到所有边界线条{A i }的标号和像素位置点,以及确定i的值;
S44 根据{A i }的标号确定每个边界线条的像素点集合,基于每个边界线条的像素点集合计算每个边界线条的图像矩,根据图像矩得到每个边界线条的中心点{B i }坐标;
S45 根据中心点的坐标计算{B i }中每个中心点到田垄图像的中心点的距离,得到距离值;
S46 将距离值按从小到大进行排序,选择第一个和第二个距离值,将其对应的边界线条作为目标边界。
进一步优选的,步骤S5包括:
S51 从目标边界中的两个边界线条上分别选取两个方向平行的像素点,作为目标点,将目标点之间的连线作为中心线,以中心线为起始,按步长为1向外扩展一步,得到目标区域;
S52 利用摄像机拍摄多张目标图像,所述目标图像中的区域的并集完全覆盖目标区域;
S53 将多张目标图像输入深度学习模型中进行特征提取和边界识别,得到多张目标图像的特征点,特征点组成目标图像的边界线条;
S54 对多张目标图像的特征点与目标点之间进行特征匹配和跟踪,使用特征描述符和特征匹配算法,将所有的特征点与目标点之间进行相似度匹配,以跟踪目标点的位置,将与目标点匹配成功的特征点作为目标特征点;
S55 利用摄像机在拍摄目标图像时的移动信息,以及摄像机的参数,计算得到摄像机在拍摄不同目标图像时的位置变化;
S56 根据摄像机的移动信息和位置变化,以及目标特征点的位置,进行三角测量计算,并通过目标特征点的几何关系,得到目标点之间的宽度。
进一步优选的,步骤S56包括:
通过摄像机的参数和目标特征点的位置,计算得到目标特征点在摄像机坐标系下的三维坐标,其中,摄像机的参数包括焦距和目标特征点所属目标图像中心点的像素坐标;
通过将目标特征点的三维坐标投影至地面平面中,得到目标特征点的实际坐标,进而得到目标点的实际坐标;
基于目标点的实际坐标进行测量,得到目标点之间的宽度,即田垄宽度。
进一步优选的,目标特征点的三维坐标的计算过程为:
根据摄像机的参数,得到目标特征点的像素坐标,利用归一化公式将目标特征点的像素坐标转换为摄像机坐标系下的归一化坐标,归一化公式为:
其中,X、Y是目标特征点的归一化坐标,(u,v)是目标特征点的像素坐标,(c x ,c y )是目标特征点所属目标图像中心点的像素坐标,f x f y 是摄像机的焦距;
选取参考平面,通过三维公式计算得到目标特征点的三维坐标:
其中,(X c ,Y c ,Z c )是目标特征点的三维坐标,X、Y是目标特征点的归一化坐标,Z是目标特征点相对摄像机的深度;
相应地,目标点的实际坐标的计算过程为:
选取地面平面为平行于XY方向的平面,根据目标特征点的三维坐标中的,计算投影后的目标特征点的实际坐标:
其中,(X g ,Y g ,Z g )是目标特征点的实际坐标;
根据目标点与目标特征点之间的匹配属性,将(X g ,Y g ,Z g )作为目标点的实际坐标;
相应地,计算目标点之间的宽度的公式为:
其中,d为目标点之间的宽度,(X g1,Y g1)和(X g2,Y g2)是两个目标点的实际坐标。
进一步优选的,田垄宽度包括第一田垄宽度和第二田垄宽度,所述方法还包括:
步骤S2中,数据集的真实标签包括边界线条和田垄之间的宽度;
步骤S3中,在采集到田垄图像输入预训练后的深度学习模型,则识别出田垄图像的边界线条和第一田垄宽度;
步骤S5中,利用宽度识别模型得到第二田垄宽度;
在第一田垄宽度中选取与第二田垄宽度对应的田垄之间的第一田垄宽度,作为候选第一田垄宽度;
根据候选第一田垄宽度和对应的第二田垄宽度之间的数值差异的大小进行判别:
若候选第一田垄宽度和对应的第二田垄宽度无差别或数值差异在阈值范围内,则取候选第一田垄宽度和对应的第二田垄宽度的均值作为对应田垄图像实际的田垄宽度;
若候选第一田垄宽度和对应的第二田垄宽度差别大,即数值差异超出阈值范围,则将数值差异返回给深度学习模型进行模型修正,并再一次提取该田垄图像的候选第一田垄宽度,并再次进行判别;
若两次判别过后数值差异仍然超出阈值范围,则标记该田垄图像为复杂图像,人工进行图像分析,并将分析结果输入深度学习模型进行模型学习。
另一方面,本发明还提供了一种用于田垄的无人车装置,包括:
底盘结构,其包括两个交叠式的长杆,根据交叠时的上下顺序将两个长杆分为上部长杆和底部长杆,于上部长杆和底部长杆的交叠处设有一滚珠轴承,滚珠轴承连接一圆柱轴杆,圆柱轴杆与底部长杆为固定结构,滚珠轴承与上部长杆相固定,在上部长杆靠近圆柱轴杆处设有一固定圆柱轴杆的三爪卡盘,上部长杆与底部长杆的两端均设有滚轮,滚轮设有一转向电机和一驱动电机;
车身框架,其为方形框架,车身框架通过四条滚珠滑槽与底盘结构的两根长杆与滚轮相反的一侧连接,将车身框架与底盘结构连接的一部作为车身框架的底部,与底部对称的为顶部,其余按照方向为前部、后部、左部和右部,顶部与底部各设有四根横梁,顶部与底部各自靠近前部和后部的横梁为等腰梯形横梁,等腰梯形横梁包括两个凹陷折点,左部和右部各设有四根竖梁,前部和后部各设有两根竖梁,前部的两根竖梁位于顶部的等腰梯形横梁与底部的等腰梯形横梁垂直对称的两个凹陷折点之间;
摄像机,其水平固定于车身框架前部的两根竖梁之间,且靠近车身框架的顶部;
嵌入式系统,其安装于车身框架内部,所述嵌入式系统执行上述任一所述的方法,以得到田垄宽度,并对滚轮之间的轮距进行调整。
进一步优选的,所述嵌入式系统的工作流程为:
将滚轮归位至初始位置,初始位置为与摄像机的摄像头方向一致且互相平齐;
嵌入式系统接收到田垄宽度的信息后,将田垄宽度以及与摄像机同侧的两个滚轮之间的初始轮距作为输入,输出控制信号和轮距调整信号;
将控制信号传给三爪卡盘,使三爪卡盘松开圆柱轴杆;
根据轮距调整信号调整滚轮之间的轮距,通过转向电机改变滚轮的转向,并转动驱动电机,根据滚轮的运动带动底部长杆和上部长杆绕圆柱轴杆转动,将轮距改变至轮距调整信号给出的目标轮距;
轮距调整结束,通过转向电机将滚轮逆向旋转归位到初始位置,控制三爪卡盘锁紧圆柱轴杆。
进一步优选的,调整轮距的过程为:
设底部长杆和上部长杆的长度均为L,底部长杆和上部长杆于1/2L处交叠,初始轮距为d 0
将四个滚轮按照其与摄像机的方向位置关系,依左上、右上、左下、右下的顺序编号为轮1、轮2、轮3和轮4,滚轮半径为R,设轮距调整信号中的目标轮距为d m ,嵌入式系统判断d m d 0的大小关系,以控制转向电机的旋转方向;
d m >d 0时:
轮1、轮3逆时针旋转135°,轮2、轮4顺时针旋转135°,轮距所需变换的距离为d 1=d m -d 0,则根据计算,每个滚轮所需移动的横向位移为d 1/2,则其实际移动位移为,根据实际移动位移计算得到控制滚轮所需转动的第一角度/>,四个滚轮均沿当前工作方向控制驱动电机旋转/>,位移变换后调整至目标轮距;
d m <d 0时:
轮1、轮3顺时针旋转45°,轮2、轮4逆时针旋转45°,轮距所需变换的距离为d 2=d 0-d m ,则根据计算,每个滚轮所需移动的横向位移为d 2/2,则其实际移动位移为,根据实际移动位移计算得到控制滚轮所需转动的第二角度/>,四个滚轮均沿当前工作方向控制驱动电机旋转/>,位移变换后调整至目标轮距;
在轮距调整后将调整后的轮距刷新为初始轮距d 0并返回给嵌入式系统。
本发明的方法相对于现有技术具有以下有益效果:
(1)通过结合深度学习模型和宽度识别模型对田垄的边界进行识别,并计算田垄的宽度,同时利用一种边界筛选算法,定位底部田垄进行宽度计算,对田垄宽度的识别精度高;
(2)采集田垄图像时,利用的是单目摄像机,单目摄像机的成本更低,且结构更加简单,增加了耐用性;
(3)另外提供了一个更进一步的实施例,通过深度学习模型也进行一次田垄宽度识别,通过两个模型的宽度识别结果进行判别,挑出复杂的田垄图像,并通过人工对复杂图像进行分析,基于分析结果对深度学习模型进行优化,使得模型性能更好;
(4)提出一种无人车底盘轮距自动调整的装置,通过接收上述方法所得到的田垄宽度和初始轮距,由嵌入式系统自动给出目标轮距的信号,从而控制滚轮进行运动,直至调整到目标轮距,使得无人车能够适应不同宽度的田垄,避免无人小车卡在田垄上或者破坏原有结构,且减少了人工活动对土壤质量的影响;
(5)自主设计的一种独特的交叠式轴承底盘搭配独立的转向电机和驱动电机的滚轮,能够实现底盘轮距的快速变化,提高无人车的工作效率。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例的方法流程图;
图2为本发明实施例的深度学习模型的预训练流程图;
图3为本发明实施例的田垄宽度识别的流程图;
图4为本发明实施例的无人车装置结构示意图;
图5为本发明实施例的轮距调整流程图;
图6为本发明实施例的轮距变化前后的底盘结构示意图;
图7为本发明实施例的滚轮结构示意图。
具体实施方式
下面将结合本发明实施方式,对本发明实施方式中的技术方案进行清楚、完整地描述,显然,所描述的实施方式仅仅是本发明一部分实施方式,而不是全部的实施方式。基于本发明中的实施方式,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施方式,都属于本发明保护的范围。
由于田垄的凸起根据其物理结构最优解为梯形,而在无人农场中田垄的划分也均由机器进行划分,由此其形状边界明显,比人为开垦更加标准更易于检测。故本发明初步所需解决的问题即为通过田垄识别方法识别出每条田垄所架起的梯形,并通过算法划分出其边界并计算出其底边之间的宽度,即为田垄的宽度。本发明采用单目摄像头作为检测装置。而由于田垄的地形较为复杂,对于普通的边界划分模型来说存在太多噪声,存在检测出虚假边缘的可能性,由此采用深度学习方法来根据拍摄到的图像识别出田垄的边界,同时将经过处理后边界模型结合小车自身物理模型的参数建立宽度计算模型来计算出边界的实际宽度。
而在检测出田垄宽度后,便是进行无人车的底盘轮距调节,将其轮距调节为略大于田垄宽度以能够跨过该田垄并于其上方进行采集工作。在此设计了一种交叉式长杆的底盘,两个等长的长杆由中部可旋转轴承连接,底部每个轴的两端均固定带有独立驱动电机以及水平转向电机的滚轮。在正常工作过程中,为保证运动系统的稳定,中部的圆柱轴杆将其保持固定,而当需要进行轮距变化时,中部的圆柱轴杆解锁为可旋转状态,同时通过嵌入式系统控制四个滚轮的方向以及位移以实现轮距的增加或缩小。
如图1所示,一方面,本发明提供一种田垄宽度识别方法,包括:
S1 采用摄像机采集田垄图像,并对田垄图像进行预处理;
S2 构建深度学习模型并预训练,深度学习模型包括编码器和解码器;
S3 将田垄图像输入预训练的深度学习模型,通过编码器对田垄图像进行特征提取和编码,通过解码器对编码后的特征进行解码和分类,得到每个像素的类别,标记出属于田垄边界的像素和背景的像素,得到田垄的边界线条;
S4 采用筛选算法在边界线条中进行筛选,得到目标边界;
S5 利用宽度识别模型对目标边界进行宽度识别,得到田垄宽度。
从摄像机采集到图像到边界检测过程中,由于田垄土壤的地形复杂,噪声较多,需要一些图像预处理过程,以提高边界检测的效果和准确性,但是同时又需要保证不改变图像像素点的位置。其中采取的图像预处理过程有:
①平滑,本实施例采用高斯滤波的方法,对田垄图像进行平滑处理,以去除噪声和细节。
②增强,使用对比度拉伸方法,对田垄图像进行增强处理,以提高田垄图像的对比度和清晰度。
③对摄像机进行相机标定和三维重建得到其畸变系数。使用畸变系数对田垄图像进行畸变校正,以还原真实的三维场景方便后续计算。
具体地,请参阅图2,步骤S2包括:
S21 获取数据集,数据集包括多个固定角度的田垄的图像和对应的像素级别的真实标签,将数据集按预设比例分为训练集、验证集和测试集;
S22 利用随机梯度下降的优化算法优化损失函数,根据训练集对深度学习模型进行迭代训练,得到训练集的预测标签,并利用验证集来调整模型权重,直至模型收敛,得到初训练的深度学习模型;
S23 利用测试集对初训练的深度学习模型进行模型评估和性能分析,采用可视化工具展示测试结果,将测试结果中的错例挑出,进行人工标注后加入训练集,并转至步骤S22重新执行迭代训练和验证,直至测试结果达到要求。
本实施例中,预设比例为7:1:2,边界识别需要高质量的标记田垄边界数据用于训练和评估模型性能,从而自动学习田垄边界特征,由此,采用的数据集均使用无人车在不同田垄间实地拍摄,同时为保证数据集的可靠性,数据的采集时间段要足够多,使其在不同日照条件下都有对应的训练模型。另外,考虑从不同的角度和视角采集图像数据,以增加数据集的多样性和覆盖不同光照和土壤类型的情况。
本实施例中,深度学习模型采用结构简单且轻量的Resnet34作为编码器,同时解码器采用稳定的双线性上采样对预测结果进行逐象素恢复。模型还包括转置卷积层和跳跃连接的方式。在本发明其他实施例中,深度学习模型为全卷机神经网络,它可以对图像的每个像素进行分类,标记出属于田垄边界的像素和背景的像素。原理是使用卷积层代替全连接层,从而保留图像的空间信息,并通过转置卷积层恢复输入图像的高度和宽度。或者定义全卷积神经网络的结构为U网络结构,其能对深层特征图中的边缘信息进行补充,提高网络的语义分割效果。可以根据具体需求调整网络结构,增加或减少卷积层和池化层的数量,或者尝试其他的网络架构,如U-Net、DeepLab等。
本实施例中,深度学习模型的损失函数采用交叉熵损失,交叉熵是一种常用的分类问题损失函数。对于田垄边界识别任务,可以将图像中每个像素点视为一个分类问题,将网络的预测结果与真实标签进行比较,计算每个像素点的交叉熵损失。交叉熵损失能够量化模型的预测结果与真实标签之间的差异,通过最小化交叉熵损失来优化模型的参数。即模型收敛可以指的是损失函数达到最小值。
本实施例中,优化算法为随机梯度下降(SGD),SGD是深度学习中常用的优化算法之一。它通过计算损失函数关于模型参数的梯度,并沿着梯度的反方向更新参数,从而逐步减小损失函数的值。SGD使用随机抽取的小批量样本来估计梯度,减少计算开销,并具有一定的正则化效果,有助于避免过拟合问题。
本实施例中,在对深度学习模型进行迭代训练时:
1)对于每个训练样本,进行前向传播,计算预测结果。
2)计算损失函数的值,衡量预测结果与真实标签之间的差异。
3)进行反向传播,更新网络参数,以减小损失函数的值。
4)可以采用批量训练或小批量训练的方式,根据实际情况进行选择。
5)在训练过程中,可以采用一些技巧来提高模型的性能,如学习率的衰减、正则化方法(如权重衰减)等。
6)设置合适的训练轮数和早停策略,避免过拟合或训练不充分的情况。
具体地,步骤S23中,预测结果达到要求为测试集中不再有错例。
在对深度学习模型进行预训练后,即可利用该模型对采集到的田垄图像分别进行边界识别,得到每个田垄图像的边界线条。
由于在摄像机拍摄的图像中,一般会存在多个田垄,由此也会划分出多个田垄的边界线条,在宽度识别中只需要用到中间田垄的底部线条,由此,设置一个筛选算法对边界线条进行筛选,具体地,步骤S4包括:
S41 将一个田垄图像的边界线条记为{A i },i为边界线条的数量;
S42 选取一个边界线条A i ,对A i 进行二值化,随机选取A i 中的一个像素点作为起始点,从起始点进行遍历,直至A i 的全部像素点均被遍历,将A i 中所有的像素点标为一个标号,并按照像素点之间的邻域关系得到其位置点;
S43 重复步骤S42,得到所有边界线条{A i }的标号和像素位置点,以及确定i的值;
S44 根据{A i }的标号确定每个边界线条的像素点集合,基于每个边界线条的像素点集合计算每个边界线条的图像矩,根据图像矩得到每个边界线条的中心点{B i }坐标;
S45 根据中心点的坐标计算{B i }中每个中心点到田垄图像的中心点的距离,得到距离值;
S46 将距离值按从小到大进行排序,选择第一个和第二个距离值,将其对应的边界线条作为目标边界。
以一具体例子对步骤S4进行说明:
对所有田垄图像的边界线条进行筛选的方式相同,按照下述方法依次对所有田垄图像的边界线条进行筛选,得到每个田垄图像的两个目标边界。
选取其中一张田垄图像,记为A,其边界线条的集合记为{A i },i为边界线条的数量。
从{A i }中任意选取一个边界线条A i ,对其进行灰度处理,并归一化为二值图像,随机选择A i 上的一个像素点作为起始点,此时,起始点附近存在许多的像素点,选择任意一个临近的像素开始遍历,即基于邻域规则搜寻当前像素点附近的邻域点,在遍历时,若该像素点已被遍历过,则跳过。当遍历完A i 后,则会找到A i 上的所有像素点,将这些像素点打上相同的标号,同时,根据遍历时的经过,可以得到像素点之间的位置关系。
按照上述方式遍历{A i }中的所有边界线条,则可以得到A中边界线条的数量i
利用图像矩来计算得到每个边界线条的中心点坐标,公式如下:
式中,ij指的是横坐标、纵坐标,此处的i与上述的边界线条的数量i为不同的意义。k为像素点,k的坐标,/>为中心点的坐标。c为像素点的数量。
利用图像矩计算得到A中所有边界线条的中心点{B i }后,根据{B i }计算每个中心点到A的中心点之间的距离,可以是欧几里得距离,得到距离值。
将距离值按从小到大排序,找出两个距离值最小的边界线条,即为最中间的一个田垄的底部边界线条。将其作为目标边界,保留目标边界并删除其余边界线条。
具体地,请参阅图3,步骤S5包括:
S51 从目标边界中的两个边界线条上分别选取两个方向平行的像素点,作为目标点,将目标点之间的连线作为中心线,以中心线为起始,按步长为1向外扩展一步,得到目标区域;
S52 利用摄像机拍摄多张目标图像,所述目标图像中的区域的并集完全覆盖目标区域;
S53 将多张目标图像输入深度学习模型中进行特征提取和边界识别,得到多张目标图像的特征点,特征点组成目标图像的边界线条;
S54 对多张目标图像的特征点与目标点之间进行特征匹配和跟踪,使用特征描述符和特征匹配算法,将所有的特征点与目标点之间进行相似度匹配,以跟踪目标点的位置,将与目标点匹配成功的特征点作为目标特征点;
S55 利用摄像机在拍摄目标图像时的移动信息,以及摄像机的参数,计算得到摄像机在拍摄不同道路图像时的位置变化;
S56 根据摄像机的移动信息和位置变化,以及目标特征点的位置,进行三角测量计算,并通过目标特征点的几何关系,得到目标点之间的宽度,即田垄宽度。
本实施例中,步骤S52中,控制无人车水平与前后移动固定距离,在不同位置和角度下,使用单目摄像机拍摄多张田垄图像。确保图像中的区域覆盖了想要测量宽度的部分。
具体地,步骤S56包括:
通过摄像机的参数和目标特征点的位置,计算得到目标特征点在摄像机坐标系下的三维坐标,其中,摄像机的参数包括焦距和目标特征点所属目标图像中心点的像素坐标;
通过将目标特征点的三维坐标投影至地面平面中,得到目标特征点的实际坐标,进而得到目标点的实际坐标;
基于目标点的实际坐标进行测量,得到目标点之间的宽度。
当利用单目摄像机的移动信息来计算摄像机的位置变化时摄像机的位姿变化是控制无人车进行变化的,无人车的移动轨迹是固定的,所以摄像机位姿变化轨迹也已知。
一旦摄像机的轨迹估计出来,就可以利用三角测量原理来计算田垄的实际宽度。
目标特征点的三维坐标的计算过程为:
根据摄像机的参数,得到目标特征点的像素坐标,利用归一化公式将目标特征点的像素坐标转换为摄像机坐标系下的归一化坐标,归一化公式为:
其中,X、Y是目标特征点的归一化坐标,(u,v)是目标特征点的像素坐标,(c x ,c y )是目标特征点所属道路图像中心点的像素坐标,f x f y 是摄像机的焦距;
选取参考平面,通过三维公式计算得到目标特征点的三维坐标:
其中,(X c ,Y c ,Z c )是目标特征点的三维坐标,X、Y是目标特征点的归一化坐标,Z是目标特征点相对摄像机的深度;
相应地,目标点的实际坐标的计算过程为:
选取地面平面为平行于XY方向的平面,根据目标特征点的三维坐标中的,计算投影后的目标特征点的实际坐标:
其中,(X g ,Y g ,Z g )是目标特征点的实际坐标;
根据目标点与目标特征点之间的匹配属性,将(X g ,Y g ,Z g )作为目标点的实际坐标。
计算目标点之间的宽度的公式为:
其中,d为目标点之间的宽度,(X g1,Y g1)和(X g2,Y g2)是两个目标点的实际坐标。
具体地,在本发明另一个实施例中,田垄宽度包括第一田垄宽度和第二田垄宽度,所述方法还包括:
步骤S2中,数据集的真实标签包括边界线条和田垄之间的宽度;
步骤S3中,在采集到田垄图像输入预训练后的深度学习模型,则识别出田垄图像的边界线条和第一田垄宽度;
步骤S5中,利用宽度识别模型得到第二田垄宽度;
本实施例中,在对深度学习模型预训练时,还可以先对数据集进行宽度信息的标注,即数据集的标签不仅包含了边界线条,还包含了边界之间的宽度,具体的标注方式可以是在边界线条附近添加一些额外的标记点或区域来表示宽度,通过数值计算得到实际宽度。在采集到田垄图像输入预训练后的深度学习模型,则可以识别出田垄图像的边界线条和第一田垄宽度。
本实施例中,第一田垄宽度是所有田垄之间的宽度,而第二田垄宽度是筛选过后的底部田垄之间的宽度。因此,第一田垄宽度的数量比第二田垄宽度要多。
具体地,在第一田垄宽度中选取与第二田垄宽度对应的田垄之间的第一田垄宽度,作为候选第一田垄宽度。
根据候选第一田垄宽度和对应的第二田垄宽度之间的数值差异的大小进行判别:
若候选第一田垄宽度和对应的第二田垄宽度无差别或数值差异在阈值范围内,则取候选第一田垄宽度和对应的第二田垄宽度的均值作为对应田垄图像实际的田垄宽度;
若候选第一田垄宽度和对应的第二田垄宽度差别大,即数值差异超出阈值范围,则将数值差异返回给深度学习模型进行模型修正,并再一次提取该田垄图像的候选第一田垄宽度,并再次进行判别;
若两次判别过后数值差异仍然超出阈值范围,则标记该田垄图像为复杂图像,人工进行图像分析,并将分析结果输入深度学习模型进行模型学习。
本实施例中,阈值范围基于具体的田垄情况进行设置,例如,可以设置为2-3,即数值差异的差值在2-3的范围内。
本实施例通过增加一个第一田垄宽度,利用深度学习模型也对田垄宽度进行训练和识别,通过第一田垄宽度和第二田垄宽度的差异来判别出复杂的田垄图像,对于复杂的图像,通过人工进行分析,并利用分析结果来优化模型,能够提高田垄识别的准确度,并提升模型性能。
请参阅图4,另一方面,本发明还提供一种用于田垄的无人车装置,包括:
底盘结构,其包括两个交叠式的长杆,根据交叠时的上下顺序将两个长杆分为上部长杆和底部长杆,于上部长杆和底部长杆的交叠处设有一滚珠轴承,滚珠轴承连接一圆柱轴杆,圆柱轴杆与底部长杆为固定结构,滚珠轴承与上部长杆相固定,在上部长杆靠近圆柱轴杆处设有一固定圆柱轴杆的三爪卡盘,上部长杆与底部长杆的两端均设有滚轮,滚轮设有一转向电机和一驱动电机;
车身框架,其为方形框架,车身框架通过四条滚珠滑槽与底盘结构的两根长杆与滚轮相反的一侧连接,将车身框架与底盘结构连接的一部作为车身框架的底部,与底部对称的为顶部,其余按照方向为前部、后部、左部和右部,顶部与底部各设有四根横梁,顶部与底部各自靠近前部和后部的横梁为等腰梯形横梁,等腰梯形横梁包括两个凹陷折点,左部和右部各设有四根竖梁,前部和后部各设有两根竖梁,前部的两根竖梁位于顶部的等腰梯形横梁与底部的等腰梯形横梁垂直对称的两个凹陷折点之间;
摄像机,其水平固定于车身框架前部的两根竖梁之间,且靠近车身框架的顶部;
嵌入式系统,其安装于车身框架内部,所述嵌入式系统执行上述任一所述的方法,以得到田垄宽度,并对滚轮之间的轮距进行调整。
结合图4对无人车装置的结构进行详细描述:
整个无人车的框架包括车身框架、底盘结构,装置中另外还设置了摄像机和嵌入式系统。
车身框架与底盘结构之间互相连接,具体是通过四条有一定斜角的滚珠滑槽与底盘连接。此结构能保证底部轮距能够自由变化。
车身框架具体是一个方形框架,按照图4中目视的方向将车身框架分为前部、后部、左部、右部、顶部和底部,顶部和底部均有四根横梁,而最外侧的四根横梁设为等腰梯形的凹陷状结构,此结构用于保护前后方安装的设备。凹陷折点指的是一个等腰梯形的短边的两个顶点。在顶部和底部的两个凹陷折点之间设置竖梁,作为前部和后部的竖梁,共有四根。同时,左部和右部也各自分布有四根竖梁,左部和右部的竖梁分别与对应的顶部横梁和底部横梁相连。其中,前部的两根竖梁之间的宽度和后部的两根竖梁之间的宽度相同。
底盘结构具体包括两个长杆,四个滚轮,其中,两个长杆为交叠设置,按照交叠时的上下顺序将两个长杆分为上部长杆和底部长杆,四个滚轮分别安装在两个长杆的四个边缘处,且方向与车身框架相反,以形成一个小车的结构。本实施例中,在两个长杆的中心处进行交叠,底部长杆在交叠处设有一个圆柱孔,其中设置了一个圆柱轴杆,圆柱轴杆与底部长杆为固定结构,其高度略低于底部长杆的上表面,在圆柱轴杆之上设置有一滚珠轴承,该滚珠轴承与上部长杆相连,在圆柱轴杆的附近还设有一三爪卡盘,用于卡住圆柱轴杆。
每个滚轮均安装了一个转向电机和驱动电机,转向电机用于旋转方向,驱动电机用于驱动滚轮进行运动。
摄像机水平固定于无人车前部的两个竖梁之间,其高度接近方形框架顶部,目的是保证其拍摄视野达到田垄宽度识别要求。
嵌入式系统具有足够的性能和内存,以运行上述方法中的深度学习模型和宽度计算模型。嵌入式系统分别与三爪卡盘、转向电机和驱动电机之间电性连接。
本实施例中,转向电机为伺服电机,驱动电机为永磁同步轮毂电机。
具体地,请参阅图5,在使用嵌入式系统对无人车进行操控时,具体的工作流程为:
将滚轮归为至初始位置,初始位置为与摄像机的摄像头方向一致且互相平齐;
嵌入式系统接收到田垄宽度的信息后,将田垄宽度以及与摄像机同侧的两个滚轮之间的初始轮距作为输入,输出控制信号和轮距调整信号;
将控制信号传给三爪卡盘,使三爪卡盘松开圆柱轴杆;
根据轮距调整信号调整滚轮之间的轮距,通过转向电机改变滚轮的转向,并转动驱动电机,根据滚轮的运动带动底部长杆和上部长杆绕圆柱轴杆转动,将轮距改变至轮距调整信号给出的目标轮距;
轮距调整结束,通过转向电机将滚轮逆向旋转归位到初始位置,控制三爪卡盘锁紧圆柱轴杆。
请参阅图6和图7,图6为轮距调整前后底盘结构的局部示意图,图7为滚轮的结构示意图,轮距调整的过程具体包括:
设底部长杆和上部长杆的长度均为L,底部长杆和上部长杆于1/2L处交叠,初始轮距为d 0
将四个滚轮按照其与摄像机的方向位置关系,具体参阅图4中目视方向的位置关系,依左上、右上、左下、右下的顺序编号为轮1、轮2、轮3和轮4,滚轮半径为R,设轮距调整信号中的目标轮距为d m ,嵌入式系统判断d m d 0的大小关系,以控制转向电机的旋转方向;
d m >d 0时:
轮1、轮3逆时针旋转135°,轮2、轮4顺时针旋转135°,轮距所需变换的距离为d 1=d m -d 0,则根据计算,每个滚轮所需移动的横向位移为d 1/2,则其实际移动位移为,根据实际移动位移计算得到控制滚轮所需转动的第一角度/>,四个滚轮均沿当前工作方向控制驱动电机旋转/>,位移变换后调整至目标轮距;
d m <d 0时:
轮1、轮3顺时针旋转45°,轮2、轮4逆时针旋转45°,轮距所需变换的距离为d 2=d 0-d m ,则根据计算,每个滚轮所需移动的横向位移为d 2/2,则其实际移动位移为,根据实际移动位移计算得到控制滚轮所需转动的第二角度/>,四个滚轮均沿当前工作方向控制驱动电机旋转/>,位移变换后调整至目标轮距;
在轮距调整后将调整后的轮距刷新为初始轮距d 0并返回给嵌入式系统。
本发明实现了无人小车的底盘轮距的调节,从而使其能够适应不同宽度的田垄,并在其上方进行采集工作。这个功能对于无人农场的作业效率有很大的提升,比如可以避免无人小车卡在田垄上或者破坏田垄原有结构,减少人工活动对土壤质量的影响。田垄识别方法利用了单目摄像机结合深度学习算法,可以提高检测的鲁棒性和准确性。底盘的独特交叉轴承设计搭配独立驱动电机和水平旋转电机的滚轮,可以实现底盘轮距的快速变化。本发明为无人农场提供更高效和更安全的作业方式,也可以为其他需要底盘轮距调节的场景提供参考和借鉴,比如救援、探测、运输等。
以上所述仅为本发明的较佳实施方式而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种田垄宽度识别方法,其特征在于,包括:
S1 采用摄像机采集田垄图像,并对田垄图像进行预处理;
S2 构建深度学习模型并预训练,深度学习模型包括编码器和解码器;
S3 将田垄图像输入预训练的深度学习模型,通过编码器对田垄图像进行特征提取和编码,通过解码器对编码后的特征进行解码和分类,得到每个像素的类别,标记出属于田垄边界的像素和背景的像素,得到田垄的边界线条;
S4 采用筛选算法在边界线条中进行筛选,得到目标边界;
S5 利用宽度识别模型对目标边界进行宽度识别,得到田垄宽度。
2.如权利要求1所述的方法,其特征在于,步骤S2包括:
S21 获取数据集,数据集包括多个固定角度的田垄的图像和对应的像素级别的真实标签,将数据集按预设比例分为训练集、验证集和测试集;
S22 利用随机梯度下降的优化算法优化损失函数,根据训练集对深度学习模型进行迭代训练,得到训练集的预测标签,并利用验证集来调整模型权重,直至模型收敛,得到初训练的深度学习模型;
S23 利用测试集对初训练的深度学习模型进行模型评估和性能分析,采用可视化工具展示测试结果,将测试结果中的错例挑出,进行人工标注后加入训练集,并转至步骤S22重新执行迭代训练和验证,直至测试结果达到要求。
3.如权利要求1所述的方法,其特征在于,步骤S4包括:
S41 将一个田垄图像的边界线条记为{A i },i为边界线条的数量;
S42 选取一个边界线条A i ,对A i 进行二值化,随机选取A i 中的一个像素点作为起始点,从起始点进行遍历,直至A i 的全部像素点均被遍历,将A i 中所有的像素点标为一个标号,并按照像素点之间的邻域关系得到其位置点;
S43 重复步骤S42,得到所有边界线条{A i }的标号和像素位置点,以及确定i的值;
S44 根据{A i }的标号确定每个边界线条的像素点集合,基于每个边界线条的像素点集合计算每个边界线条的图像矩,根据图像矩得到每个边界线条的中心点{B i }坐标;
S45 根据中心点的坐标计算{B i }中每个中心点到田垄图像的中心点的距离,得到距离值;
S46 将距离值按从小到大进行排序,选择第一个和第二个距离值,将其对应的边界线条作为目标边界。
4.如权利要求3所述的方法,其特征在于,步骤S5包括:
S51 从目标边界中的两个边界线条上分别选取两个方向平行的像素点,作为目标点,将目标点之间的连线作为中心线,以中心线为起始,按步长为1向外扩展一步,得到目标区域;
S52 利用摄像机拍摄多张目标图像,所述目标图像中的区域的并集完全覆盖目标区域;
S53 将多张目标图像输入深度学习模型中进行特征提取和边界识别,得到多张目标图像的特征点,特征点组成目标图像的边界线条;
S54 对多张目标图像的特征点与目标点之间进行特征匹配和跟踪,使用特征描述符和特征匹配算法,将所有的特征点与目标点之间进行相似度匹配,以跟踪目标点的位置,将与目标点匹配成功的特征点作为目标特征点;
S55 利用摄像机在拍摄目标图像时的移动信息,以及摄像机的参数,计算得到摄像机在拍摄不同目标图像时的位置变化;
S56 根据摄像机的移动信息和位置变化,以及目标特征点的位置,进行三角测量计算,并通过目标特征点的几何关系,得到目标点之间的宽度。
5.如权利要求4所述的方法,其特征在于,步骤S56包括:
通过摄像机的参数和目标特征点的位置,计算得到目标特征点在摄像机坐标系下的三维坐标,其中,摄像机的参数包括焦距和目标特征点所属目标图像中心点的像素坐标;
通过将目标特征点的三维坐标投影至地面平面中,得到目标特征点的实际坐标,进而得到目标点的实际坐标;
基于目标点的实际坐标进行测量,得到目标点之间的宽度,即田垄宽度。
6.如权利要求5所述的方法,其特征在于,目标特征点的三维坐标的计算过程为:
根据摄像机的参数,得到目标特征点的像素坐标,利用归一化公式将目标特征点的像素坐标转换为摄像机坐标系下的归一化坐标,归一化公式为:
其中,X、Y是目标特征点的归一化坐标,(u,v)是目标特征点的像素坐标,(c x ,c y )是目标特征点所属目标图像中心点的像素坐标,f x f y 是摄像机的焦距;
选取参考平面,通过三维公式计算得到目标特征点的三维坐标:
其中,(X c ,Y c ,Z c )是目标特征点的三维坐标,X、Y是目标特征点的归一化坐标,Z是目标特征点相对摄像机的深度;
相应地,目标点的实际坐标的计算过程为:
选取地面平面为平行于XY方向的平面,根据目标特征点的三维坐标中的,计算投影后的目标特征点的实际坐标:
其中,(X g ,Y g ,Z g )是目标特征点的实际坐标;
根据目标点与目标特征点之间的匹配属性,将(X g ,Y g ,Z g )作为目标点的实际坐标;
相应地,计算目标点之间的宽度的公式为:
其中,d为目标点之间的宽度,(X g1,Y g1)和(X g2,Y g2)是两个目标点的实际坐标。
7.如权利要求2所述的方法,其特征在于,田垄宽度包括第一田垄宽度和第二田垄宽度,所述方法还包括:
步骤S2中,数据集的真实标签包括边界线条和田垄之间的宽度;
步骤S3中,在采集到田垄图像输入预训练后的深度学习模型,则识别出田垄图像的边界线条和第一田垄宽度;
步骤S5中,利用宽度识别模型得到第二田垄宽度;
在第一田垄宽度中选取与第二田垄宽度对应的田垄之间的第一田垄宽度,作为候选第一田垄宽度;
根据候选第一田垄宽度和对应的第二田垄宽度之间的数值差异的大小进行判别:
若候选第一田垄宽度和对应的第二田垄宽度无差别或数值差异在阈值范围内,则取候选第一田垄宽度和对应的第二田垄宽度的均值作为对应田垄图像实际的田垄宽度;
若候选第一田垄宽度和对应的第二田垄宽度差别大,即数值差异超出阈值范围,则将数值差异返回给深度学习模型进行模型修正,并再一次提取该田垄图像的候选第一田垄宽度,并再次进行判别;
若两次判别过后数值差异仍然超出阈值范围,则标记该田垄图像为复杂图像,人工进行图像分析,并将分析结果输入深度学习模型进行模型学习。
8.一种用于田垄的无人车装置,其特征在于,所述装置包括:
底盘结构,其包括两个交叠式的长杆,根据交叠时的上下顺序将两个长杆分为上部长杆和底部长杆,于上部长杆和底部长杆的交叠处设有一滚珠轴承,滚珠轴承连接一圆柱轴杆,圆柱轴杆与底部长杆为固定结构,滚珠轴承与上部长杆相固定,在上部长杆靠近圆柱轴杆处设有一固定圆柱轴杆的三爪卡盘,上部长杆与底部长杆的两端均设有滚轮,滚轮设有一转向电机和一驱动电机;
车身框架,其为方形框架,车身框架通过四条滚珠滑槽与底盘结构的两根长杆与滚轮相反的一侧连接,将车身框架与底盘结构连接的一部作为车身框架的底部,与底部对称的为顶部,其余按照方向为前部、后部、左部和右部,顶部与底部各设有四根横梁,顶部与底部各自靠近前部和后部的横梁为等腰梯形横梁,等腰梯形横梁包括两个凹陷折点,左部和右部各设有四根竖梁,前部和后部各设有两根竖梁,前部的两根竖梁位于顶部的等腰梯形横梁与底部的等腰梯形横梁垂直对称的两个凹陷折点之间;
摄像机,其水平固定于车身框架前部的两根竖梁之间,且靠近车身框架的顶部;
嵌入式系统,其安装于车身框架内部,所述嵌入式系统执行权利要求1-7任一所述的方法,以得到田垄宽度,并对滚轮之间的轮距进行调整。
9.如权利要求8所述的装置,其特征在于,所述嵌入式系统的工作流程为:
将滚轮归位至初始位置,初始位置为与摄像机的摄像头方向一致且互相平齐;
嵌入式系统接收到田垄宽度的信息后,将田垄宽度以及与摄像机同侧的两个滚轮之间的初始轮距作为输入,输出控制信号和轮距调整信号;
将控制信号传给三爪卡盘,使三爪卡盘松开圆柱轴杆;
根据轮距调整信号调整滚轮之间的轮距,通过转向电机改变滚轮的转向,并转动驱动电机,根据滚轮的运动带动底部长杆和上部长杆绕圆柱轴杆转动,将轮距改变至轮距调整信号给出的目标轮距;
轮距调整结束,通过转向电机将滚轮逆向旋转归位到初始位置,控制三爪卡盘锁紧圆柱轴杆。
10.如权利要求9所述的装置,其特征在于,调整轮距的过程为:
设底部长杆和上部长杆的长度均为L,底部长杆和上部长杆于1/2L处交叠,初始轮距为d 0
将四个滚轮按照其与摄像机的方向位置关系,依左上、右上、左下、右下的顺序编号为轮1、轮2、轮3和轮4,滚轮半径为R,设轮距调整信号中的目标轮距为d m ,嵌入式系统判断d m d 0的大小关系,以控制转向电机的旋转方向;
d m >d 0时:
轮1、轮3逆时针旋转135°,轮2、轮4顺时针旋转135°,轮距所需变换的距离为d 1=d m -d 0,则根据计算,每个滚轮所需移动的横向位移为d 1/2,则其实际移动位移为,根据实际移动位移计算得到控制滚轮所需转动的第一角度/>,四个滚轮均沿当前工作方向控制驱动电机旋转/>,位移变换后调整至目标轮距;
d m <d 0时:
轮1、轮3顺时针旋转45°,轮2、轮4逆时针旋转45°,轮距所需变换的距离为d 2=d 0-d m ,则根据计算,每个滚轮所需移动的横向位移为d 2/2,则其实际移动位移为,根据实际移动位移计算得到控制滚轮所需转动的第二角度/>,四个滚轮均沿当前工作方向控制驱动电机旋转/>,位移变换后调整至目标轮距;
在轮距调整后将调整后的轮距刷新为初始轮距d 0并返回给嵌入式系统。
CN202310891910.2A 2023-07-20 2023-07-20 一种田垄宽度识别方法及用于田垄的无人车装置 Active CN116630650B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310891910.2A CN116630650B (zh) 2023-07-20 2023-07-20 一种田垄宽度识别方法及用于田垄的无人车装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310891910.2A CN116630650B (zh) 2023-07-20 2023-07-20 一种田垄宽度识别方法及用于田垄的无人车装置

Publications (2)

Publication Number Publication Date
CN116630650A true CN116630650A (zh) 2023-08-22
CN116630650B CN116630650B (zh) 2023-09-29

Family

ID=87621583

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310891910.2A Active CN116630650B (zh) 2023-07-20 2023-07-20 一种田垄宽度识别方法及用于田垄的无人车装置

Country Status (1)

Country Link
CN (1) CN116630650B (zh)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040264762A1 (en) * 2003-04-30 2004-12-30 Deere & Company System and method for detecting and analyzing features in an agricultural field
CN113063375A (zh) * 2021-03-16 2021-07-02 成都理工大学 一种直线型耕作田埂的无人机遥感提取方法
CN113221788A (zh) * 2021-05-21 2021-08-06 广东省科学院广州地理研究所 一种田块垄作特征提取方法及装置
CN113221740A (zh) * 2021-05-12 2021-08-06 浙江大学 一种农田边界识别方法及系统
CN114419468A (zh) * 2022-01-26 2022-04-29 江西农业大学 一种结合注意力机制和空间特征融合算法的水田分割方法
WO2022088289A1 (zh) * 2020-10-28 2022-05-05 苏州极目机器人科技有限公司 寻边装置及无人农业车辆
CN114782807A (zh) * 2022-03-31 2022-07-22 广州极飞科技股份有限公司 目标区域的宽度确定方法及相关装置
US20230005260A1 (en) * 2020-09-04 2023-01-05 Zhejiang University Method for detecting field navigation line after ridge sealing of crops
CN116091951A (zh) * 2023-04-07 2023-05-09 华南农业大学 一种农田与机耕道边界线提取方法及系统

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040264762A1 (en) * 2003-04-30 2004-12-30 Deere & Company System and method for detecting and analyzing features in an agricultural field
US20230005260A1 (en) * 2020-09-04 2023-01-05 Zhejiang University Method for detecting field navigation line after ridge sealing of crops
WO2022088289A1 (zh) * 2020-10-28 2022-05-05 苏州极目机器人科技有限公司 寻边装置及无人农业车辆
CN113063375A (zh) * 2021-03-16 2021-07-02 成都理工大学 一种直线型耕作田埂的无人机遥感提取方法
CN113221740A (zh) * 2021-05-12 2021-08-06 浙江大学 一种农田边界识别方法及系统
US11288535B1 (en) * 2021-05-12 2022-03-29 Zhejiang University Method and system for identifying field boundary
CN113221788A (zh) * 2021-05-21 2021-08-06 广东省科学院广州地理研究所 一种田块垄作特征提取方法及装置
CN114419468A (zh) * 2022-01-26 2022-04-29 江西农业大学 一种结合注意力机制和空间特征融合算法的水田分割方法
CN114782807A (zh) * 2022-03-31 2022-07-22 广州极飞科技股份有限公司 目标区域的宽度确定方法及相关装置
CN116091951A (zh) * 2023-04-07 2023-05-09 华南农业大学 一种农田与机耕道边界线提取方法及系统

Also Published As

Publication number Publication date
CN116630650B (zh) 2023-09-29

Similar Documents

Publication Publication Date Title
CN110569704B (zh) 一种基于立体视觉的多策略自适应车道线检测方法
CN109255776B (zh) 一种输电线路开口销缺损自动识别方法
CN102567979B (zh) 车载红外夜视系统及其多源图像融合方法
WO2020062433A1 (zh) 一种神经网络模型训练及通用接地线的检测方法
CN107330376A (zh) 一种车道线识别方法及系统
CN107481315A (zh) 一种基于Harris‑SIFT‑BRIEF算法的单目视觉三维环境重建方法
CN107122737A (zh) 一种道路交通标志自动检测识别方法
CN110232389A (zh) 一种基于绿色作物特征提取不变性的立体视觉导航方法
CN104200492B (zh) 基于轨迹约束的航拍视频目标自动检测跟踪方法
CN110110608B (zh) 一种全景监控下基于视觉的叉车速度监测方法和系统
CN108509950B (zh) 基于概率特征加权融合的铁路接触网支柱号牌检测识别法
CN112419317B (zh) 一种基于自编码网络的视觉回环检测方法
CN107230219A (zh) 一种单目机器人上的目标人发现与跟随方法
CN108133471B (zh) 一种基于人工蜂群算法的机器人导航路径提取方法及装置
CN111553945A (zh) 一种车辆定位方法
CN116279592A (zh) 一种用于无人物流车的可行驶区域划分方法
CN115841633A (zh) 一种电力塔和电力线关联矫正的电力塔和电力线检测方法
CN110458019B (zh) 稀缺认知样本条件下的排除倒影干扰的水面目标检测方法
CN114820474A (zh) 一种基于三维信息的列车车轮缺陷检测方法
CN112053385B (zh) 基于深度强化学习的遥感视频遮挡目标跟踪方法
CN111862147B (zh) 视频中多车辆和多行人目标的跟踪方法
CN116630650B (zh) 一种田垄宽度识别方法及用于田垄的无人车装置
Jin et al. Road curvature estimation using a new lane detection method
Yang et al. A novel vision-based framework for real-time lane detection and tracking
Han et al. GardenMap: Static point cloud mapping for Garden environment

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant