CN116823812A - 一种青贮玉米田间生命检测方法 - Google Patents

一种青贮玉米田间生命检测方法 Download PDF

Info

Publication number
CN116823812A
CN116823812A CN202311080733.6A CN202311080733A CN116823812A CN 116823812 A CN116823812 A CN 116823812A CN 202311080733 A CN202311080733 A CN 202311080733A CN 116823812 A CN116823812 A CN 116823812A
Authority
CN
China
Prior art keywords
detection
image
camera
visible light
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202311080733.6A
Other languages
English (en)
Other versions
CN116823812B (zh
Inventor
惠云婷
王恒缘
尤泳
王天一
王德成
张星山
张宇卓
王海翼
李思标
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China Agricultural University
Original Assignee
China Agricultural University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China Agricultural University filed Critical China Agricultural University
Priority to CN202311080733.6A priority Critical patent/CN116823812B/zh
Publication of CN116823812A publication Critical patent/CN116823812A/zh
Application granted granted Critical
Publication of CN116823812B publication Critical patent/CN116823812B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Quality & Reliability (AREA)
  • Databases & Information Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种青贮玉米田间生命检测方法,用于搭载机器上实时检测玉米施肥、收获等作业阶段可能出现的生命体,包括以下步骤:将可见光相机与热红外相机图像输入系统,通过软硬件结合,增添信号发生器与同步时间戳的方式融合热红外相机与可见光相机信息,确保采集多模态数据的时序一致性;使用Harris角点检测提取关键特征点,基于FlowNet卷积神经网络光流计算,根据光流估计的结果,对图像进行平移、旋转等调整,以抵消摄像机带来的抖动效应,并通过图像去噪、锐化等操作改善图像平滑性;将图像反馈至预先训练好的深度学习目标检测模型,以损失一定的中远距离检测精度为代价,大幅提高检测速度。

Description

一种青贮玉米田间生命检测方法
技术领域
本发明涉及一种青贮玉米田间生命检测方法,属于农业机械图像处理与自动化领域。
背景技术
随着国家青贮产业化规模不断扩大,农户对于青贮玉米的需求也在不断增加,随之而来的是,农田安全问题逐渐引起了人们的关注。青贮玉米生长茂密,由于秸秆的遮挡,在施肥、收获等阶段机手无法通过肉眼看清机械作业前方的场景,存在视觉盲区。一旦有人或者动物在作业机械前方出现,极易造成安全事故。已有的机载摄像障碍物检测方法,如通过在收割机上搭载可见光相机并通过机器学习(深度学习)的方式来判断障碍物,仅在视野开阔、工况简单的情况下有一定精度与检测速度的保障,而超声波、短波红外、雷达等传感器也存在成本过高或穿透力不足等缺点。在枝繁叶茂的玉米地中,高大的玉米秸秆几乎会完全遮挡障碍物,颠簸的路况也为检测任务带来巨大的挑战性。且施肥机、青贮机等机器工作时通常行驶速度很快,在检测到人或动物后如若不能在短暂的时间内迅速做出决策,检测计算反应时间内依然可能会酿成无法挽回的悲剧,造成巨大的经济损失,给社会带来不良影响。本发明涉及的一种青贮玉米田间生命检测方法,能在具有遮挡情况的玉米地中,克服相机抖动问题,迅速准确地检测到人或动物,并预警停机。
发明内容
本发明要解决的问题是:传统的机载摄像障碍物检测装置在高大茂盛的玉米地检测效果差,速度慢,而增加超声波、短波近红外等非接触式传感器又存在穿透力不足无法察觉到玉米秸秆、杂草背后的生命体或成本过高的缺点。本发明提供的一种青贮玉米田间生命检测方法,通过可见光与热成像仪多模态信息融合,在融合过程中,使用同步时间戳并以软硬件相结合的方式以确保采集数据的时序一致性。针对检测装置因机器作业而发生抖动问题,运用光流估计,结合卷积神经网络对连续帧中的特征点进行光流计算,预估位移并进行图像处理以抵消抖动效应。更改传统深度学习模型各网络架构,以损失中远距离检测精度为代价,提高检测速度。并采用强化学习,通过一个神经网络模型执行决策,适当提高检测精度。在提高检测速度的同时,保持较高的检测精度。
具体的,包括以下步骤:
S1、可见光相机与热红外相机输入图像。通过软硬件结合,增添信号发生器与同步时间戳的方式融合热红外相机与可见光相机信息,确保采集多模态数据的时序一致性。
S2、图像预处理,图像去噪、增强。使用Harris角点检测提取关键特征点,基于FlowNet卷积神经网络光流计算,根据光流估计的结果,对图像进行平移、旋转等调整,以抵消摄像机带来的抖动效应。
S3、将图像反馈至深度学习目标检测模型,以损失一定的中远距离检测精度为代价,大幅提高检测速度。
S4、使用强化学习在调整后的深度学习模型中进行智能决策,在速度与精度间寻求最优权重配比,补偿因速度优化而损失的部分中远距离检测精度。
S5、选择合适的置信度阈值,将目标区域标注输出,如果确定目标区域存在人或动物,则发出警报,停机处理。
作为本发明的进一步方案,所述S1中,还包括:
所述热红外相机与可见光的多模态融合,将热红外图像和可见光图像叠加显示,使得两种图像信息在空间上重叠。且针对信息融合采集时序不一致问题,通过软硬件相结合的同步方式,使用信号发生器作为外部信号源以同时触发热红外相机和可见光相机的数据采集,确保采集时刻同步;提出“同步时间戳”的概念,即通过增加时间戳的方式来保证视频信息的同步性,防止可见光相机与热红外相机输入信息的不一致性导致的检测误差。设置一个时间戳记录系统时钟的当前时间。可见光与热红外相机在进行数据采集时,分别在每一帧图像或数据包中添加一个时间戳字段。数据采集结束后,将获得的不同数据进行时间戳对齐,找到最接近的时间戳,并将数据进行匹配。所述信号发生器STM32同时作为下位机,上面搭载有时钟模块,用来作为已知的时间同步信号,以便校正相机时间戳的偏差。配置数据采集系统,可见光相机和热红外相机将在同一时间获取图像数据。确保数据采集过程中传感器之间的同步性,以确保多模态数据的时序一致性。
进一步的,步骤S2中还包括:
所述光流估计是通过空间运动物体在成像平面上的像素运动的瞬时速度,利用图像序列中像素的变化以及相邻帧之间的相关性,来找到上一帧跟当前帧的像素点之间存在的对应关系,从而计算出相邻帧之间像素点的运动信息的一种方法,可以降低青贮机因田间作业时发生的图像抖动。通过可见光与热红外相机采集融合视频流,读取每一帧图像,并在逐帧中,使用Harris角点检测来提取一些关键的特征点,并这些特征点用于光流计算。
所述Harris角点检测法是特征点检测的基础,应用邻近像素点灰度差值的概念,从而进行判断特征点是否为角点、边缘、平滑区域,再定位特征点信息并用于后续计算。在青贮机正常作业时,特征图的边缘或角点应以恒定规律移动,而发生较大颠簸时,特征点在像素级别的移动方向和大小会陡然变化,结合卷积神经网络FlowNet2.0对连续帧中的特征点进行光流计算,预先估计每个特征点在下一帧中的位移。
所述FlowNet2.0是FlowNet的增强版,是一种基于卷积神经网络(CNN)的光流预测算法,根据光流估计的结果,对图像进行平移、旋转等调整,以抵消摄像机带来的抖动效应。为了避免图像噪声或不稳定的估计,对光流结果进行平滑处理,应用均值滤波或高斯滤波将得到的稳定图像序列应用于视频流,实现实时的抖动降低。
作为本发明的进一步方案,具体的,在机器作业场景下,所述检测模型应当在近距离及玉米遮挡不严重情况下检测效果良好,甚至接近100%。但在中远距离,存在大量遮挡,目标区域捕捉不全等情况时,提高检测精度不应为首要目标,过分的追求精度造成的模型过拟合,会对正常机器作业带来负面影响。故检测速度应当为第一考虑因素,中远距离的漏检情况会随着青贮机行驶距离接近,目标区域得到充分提取后得到改善,但检测速度则直接影响能否及时救下身在危险区域的目标。更改传统深度学习模型各网络架构,减少特征图尺寸,缩减网络深度与卷积层通道数,以损失一定的中远距离检测精度为代价,大幅提高检测速度。
进一步的,步骤S3中还包括:
所述深度学习网络模型原型为YOLOv5(you only look once),是一种单阶段目标检测模型,采用单个卷积神经网络直接计算图像中物体的位置坐标及其分类结果,是目前最主流的一种快速目标检测模型之一。主干网络作为特征提取层,可以深度提取图像纹理、形状或更高级的特征,以此来辨别目标区域是否为人和动物,亦或是其他干扰因素。将其主干网络替换为轻量级网络ShuffleNetV2以提高检测速度为第一要素,引入通道注意力机制,以提升模型在不同尺度特征上的性能。经全局平均池化得到特征的全局信息,通过全连接层来生成通道注意力权重使得不同尺度的特征在通道维度上得到权重分配。特征融合层采用深度可分离卷积(Depthwise Separable Convolution)操作更改特征金字塔结构。根据特征图的大小和层级关系重新设计锚框并根据训练过程中的检测精度和收敛速度进行调整和优化。调整不同损失函数的权重,以平衡不同目标的优化目标,以达到提高检测速度的目的。
进一步的,所述S4中还包括:
所述强化学习(Reinforcement learning,RL)是指通过一个智能体(agent)在一个复杂不确定的环境(environment)里面去极大化它能获得的奖励,通过感知所处环境的状态(state)对动作(action)的反应(reward),来指导更好的动作,从而获得最大的收益(return),这种在在交互中学习的学习方法就被称作强化学习。
使用强化学习在调整后的深度学习模型中进行智能决策,在速度与精度间寻求最优权重配比,可以补偿因速度优化而损失的部分中远距离检测精度。强化学习在模型中引入智能决策机制,自定义一个包括状态空间、动作空间和奖励函数的环境,状态表示为可见光相机和热红外相机的多模态图像数据,动作是调整YOLOv5目标检测算法的参数,奖励函数用以度量最终检测结果的准确度。使用Proximal Policy Optimization (PPO)强化学习算法,构建一个“强化学习智能代理”,并使用神经网络模型,用于学习和执行决策。智能代理根据当前图像数据状态执行动作,即通过与环境交互来学习优化策略调整YOLOv5算法参数,包括锚框尺寸、置信度阈值、非最大抑制阈值等。设计奖励函数用于度量智能代理的行为,并基于目标检测结果的精度、召回率等指标来定义来直接反映出目标检测的准确度。使用强化学习算法训练代理,通过与环境交互收集数据并优化策略。在训练过程中,代理会根据奖励信号不断调整动作,以最大化累积奖励。
作为本发明的进一步方案,具体的,所述YOLOv5深度学习框架选用pytorch,数据集为田间自行拍摄,训练数据集预先通过两种相机设置同等角度距离,在各种田间场景下自行拍摄,包括带有人、牲畜、石块、植被、玉米整株等多个目标的图像,并将带有所述标签信息的图像放入深度学习模型中训练,得到最佳模型文件,在所述田间生命检测系统目标检测阶段中引用该最佳模型,结合强化学习算法的决策结果,最终确定检测到的目标是否为人或动物。工控机为jetson TX2 NX,搭载linux系统,下位机STM32分别连接报警器与机器行驶系统。当检测到异常温度区域存在人或动物时,控制连接报警器的引脚输出高或低电平,发出警报。
本发明的有益效果是:
本发明提供的一种青贮玉米田间生命检测方法,针对机载摄像装置在复杂玉米地检测困难、效果差、速度慢,其他非接触式传感器价格高昂或穿透力不足等问题,通过可见光与热成像仪多模态信息融合,在融合过程中,使用同步时间戳并以软硬件相结合的方式以确保采集数据的时序一致性。针对检测装置因机器作业而发生的抖动问题,运用光流估计,结合卷积神经网络对连续帧中的特征点进行光流计算,预估位移并进行图像处理以抵消抖动效应。以损失中远距离检测精度为代价,更改传统深度学习模型各网络架构,提高检测速度。并采用强化学习,通过一个神经网络模型执行决策,适当提高检测精度。在提高检测速度的同时,保持较高的检测精度。本发明提供的一种检测速度快,精度高,易操作的检测系统,在能见度低,道路平顺性差、工况复杂的田间情况下快速准确的识别到可能存在的人或动物,并搭载在施肥机或青贮机等机器上作业时实时监测预警,起到降低经济损失,提高生命安全性的作用,具有良好的市场应用前景与社会经济效益。
附图说明
图1为本发明技术方案步骤流程图;
图2为本发明检测系统流程图;
图3为本发明中相机及报警器安装位置示意图;
图中各标号:1-相机,2-报警器。
具体实施方式
为了更清楚展示本发明的具体技术和优点,下面对本发明的具体实施方式做进一步描述,但应当理解,本发明不限于具体实施方式的范围,一切利用本发明构思的发明创作均在保护之列。
一种青贮玉米田间生命检测方法的具体实施方式,包括:
如图1所示为本发明技术方案的步骤流程图,可见光相机与热红外相机输入图像。通过软硬件结合,增添信号发生器与同步时间戳的方式融合热红外相机与可见光相机信息,确保采集多模态数据的时序一致性。图像预处理,图像去噪、增强。使用Harris角点检测提取关键特征点,基于FlowNet卷积神经网络光流计算,根据光流估计的结果,对图像进行平移、旋转等调整,以抵消摄像机带来的抖动效应。将图像反馈至深度学习目标检测模型,以损失一定的中远距离检测精度为代价,大幅提高检测速度。使用强化学习在调整后的深度学习模型中进行智能决策,在速度与精度间寻求最优权重配比,补偿因速度优化而损失的部分中远距离检测精度。选择合适的置信度阈值,将目标区域标注输出,如果确定目标区域存在人或动物,则发出警报,停机处理。
如图2所示为本发明检测系统流程图,所述热红外相机与可见光的多模态融合,将热红外图像和可见光图像叠加显示,使得两种图像信息在空间上重叠。且针对信息融合采集时序不一致问题,通过软硬件相结合的同步方式,使用信号发生器作为外部信号源以同时触发热红外相机和可见光相机的数据采集,确保采集时刻同步;提出“同步时间戳”的概念,即通过增加时间戳的方式来保证视频信息的同步性,防止可见光相机与热红外相机输入信息的不一致性导致的检测误差。设置一个时间戳记录系统时钟的当前时间。可见光与热红外相机在进行数据采集时,分别在每一帧图像或数据包中添加一个时间戳字段。数据采集结束后,将获得的不同数据进行时间戳对齐,找到最接近的时间戳,并将数据进行匹配。所述信号发生器STM32同时作为下位机,上面搭载有时钟模块,用来作为已知的时间同步信号,以便校正相机时间戳的偏差。配置数据采集系统,可见光相机和热红外相机将在同一时间获取图像数据。确保数据采集过程中传感器之间的同步性,以确保多模态数据的时序一致性。
在本实施例中,所述光流估计是通过空间运动物体在成像平面上的像素运动的瞬时速度,利用图像序列中像素的变化以及相邻帧之间的相关性,来找到上一帧跟当前帧的像素点之间存在的对应关系,从而计算出相邻帧之间像素点的运动信息的一种方法,可以降低机器因田间作业时发生的图像抖动。通过可见光与热红外相机采集融合视频流,读取每一帧图像,并在逐帧中,使用Harris角点检测来提取一些关键的特征点,并这些特征点用于光流计算。
所述Harris角点检测法是特征点检测的基础,应用邻近像素点灰度差值的概念,从而进行判断特征点是否为角点、边缘、平滑区域,再定位特征点信息并用于后续计算。在机器正常作业时,特征图的边缘或角点应以恒定规律移动,而发生较大颠簸时,特征点在像素级别的移动方向和大小会陡然变化,结合卷积神经网络FlowNet2.0对连续帧中的特征点进行光流计算,预先估计每个特征点在下一帧中的位移。
所述FlowNet2.0是FlowNet的增强版,是一种基于卷积神经网络(CNN)的光流预测算法,根据光流估计的结果,对图像进行平移、旋转等调整,以抵消摄像机带来的抖动效应。为了避免图像噪声或不稳定的估计,对光流结果进行平滑处理,应用均值滤波或高斯滤波将得到的稳定图像序列应用于视频流,实现实时的抖动降低。
在本实施例中,在机器作业场景下,所述检测模型应当在近距离及玉米遮挡不严重情况下检测效果良好,甚至接近100%。但在中远距离,存在大量遮挡,目标区域捕捉不全等情况时,提高检测精度不应为首要目标,过分的追求精度造成的模型过拟合,会对正常机器作业带来负面影响。故检测速度应当为第一考虑因素,中远距离的漏检情况会随着机器行驶距离接近,目标区域得到充分提取后得到改善,但检测速度则直接影响能否及时救下身在危险区域的目标。更改传统深度学习模型各网络架构,减少特征图尺寸,缩减网络深度与卷积层通道数,以损失一定的中远距离检测精度为代价,大幅提高检测速度。
进一步的,所述深度学习网络模型原型为YOLOv5(you only look once),是一种单阶段目标检测模型,采用单个卷积神经网络直接计算图像中物体的位置坐标及其分类结果,是目前最主流的一种快速目标检测模型之一。将其主干网络替换为轻量级网络ShuffleNetV2以提高检测速度为第一要素,引入通道注意力机制,以提升模型在不同尺度特征上的性能。经全局平均池化得到特征的全局信息,通过全连接层来生成通道注意力权重使得不同尺度的特征在通道维度上得到权重分配。特征融合层采用深度可分离卷积(Depthwise Separable Convolution)操作更改特征金字塔结构。根据特征图的大小和层级关系重新设计锚框并根据训练过程中的检测精度和收敛速度进行调整和优化。调整不同损失函数的权重,以平衡不同目标的优化目标,以达到提高检测速度的目的。
所述强化学习(Reinforcement learning,RL)是指通过一个智能体(agent)在一个复杂不确定的环境(environment)里面去极大化它能获得的奖励,通过感知所处环境的状态(state)对动作(action)的反应(reward),来指导更好的动作,从而获得最大的收益(return),这种在在交互中学习的学习方法就被称作强化学习。
使用强化学习在调整后的深度学习模型中进行智能决策,在速度与精度间寻求最优权重配比,可以补偿因速度优化而损失的部分中远距离检测精度。强化学习在模型中引入智能决策机制,自定义一个包括状态空间、动作空间和奖励函数的环境,状态表示为可见光相机和热红外相机的多模态图像数据,动作是调整YOLOv5目标检测算法的参数,奖励函数用以度量最终检测结果的准确度。使用Proximal Policy Optimization (PPO)强化学习算法,构建一个“强化学习智能代理”,并使用神经网络模型,用于学习和执行决策。智能代理根据当前图像数据状态执行动作,即通过与环境交互来学习优化策略调整YOLOv5算法参数,包括锚框尺寸、置信度阈值、非最大抑制阈值等。设计奖励函数用于度量智能代理的行为,并基于目标检测结果的精度、召回率等指标来定义来直接反映出目标检测的准确度。使用强化学习算法训练代理,通过与环境交互收集数据并优化策略。在训练过程中,代理会根据奖励信号不断调整动作,以最大化累积奖励。
本申请中,所述YOLOv5深度学习框架选用pytorch,数据集为田间自行拍摄,训练数据集预先通过两种相机设置同等角度距离,在各种田间场景下自行拍摄,包括带有人、牲畜、石块、植被、玉米整株等多个目标的图像,并将带有所述标签信息的图像放入深度学习模型中训练,得到最佳模型文件,在所述田间生命检测系统目标检测阶段中引用该最佳模型,结合强化学习算法的决策结果,最终确定检测到的目标是否为人或动物。工控机为jetson TX2 NX,搭载linux系统,下位机STM32分别连接报警器与青贮机行驶系统。当检测到异常温度区域存在人或动物时,控制连接报警器的引脚输出高或低电平,发出警报。
本发明还包括一种青贮玉米田间生命检测方法包括以下步骤:
S1、将可见光相机与热红外相机图像输入控制器,通过增添信号发生器与同步时间戳的方式融合热红外相机与可见光相机信息,确保采集多模态数据的时序一致性;
S2、使用Harris角点检测提取关键特征点,基于FlowNet卷积神经网络光流计算,根据光流估计的结果,对图像进行平移、旋转调整,以抵消摄像机带来的抖动效应,再通过滤波锐化操作实现图像去噪、增强;
S3、将图像反馈至深度学习目标检测模型,以损失一定的中远距离检测精度为代价,来提高检测速度;
S4、使用强化学习在调整后的深度学习模型中进行智能决策,在速度与精度间寻求最优权重配比,补偿步骤S3中因速度优化而损失的部分中远距离检测精度;
S5、选择合适的置信度阈值,将目标区域标注输出,若目标区域存在人或动物,则发出警报,停机处理。
优选的,所述步骤S1中,还包括将热红外图像和可见光图像叠加显示,使得两种图像信息在空间上重叠,使用信号发生器作为外部信号源,以同时触发热红外相机和可见光相机采集数据的方式,确保采集时刻同步;设置一个时间戳记录系统时钟的当前时间,可见光相机与热红外相机在进行数据采集时,分别在每一帧图像或数据包中添加一个时间戳字段,数据采集结束后,将获得的不同数据进行时间戳对齐,找到最接近的时间戳,并将数据进行匹配,所述信号发生器同时作为下位机,上面搭载有时钟模块,用来作为已知的时间同步信号,以便校正相机时间戳的偏差。
优选的,所述步骤S2中,还包括通过可见光相机与热红外相机采集融合视频流,读取每一帧图像,并在逐帧中,使用Harris角点检测来提取一些关键的特征点,结合卷积神经网络FlowNet2.0对连续帧中的特征点进行光流计算,预先估计每个特征点在下一帧中的位移;根据光流估计的结果,对图像进行平移、旋转调整;同时对光流结果进行平滑处理,应用均值滤波或高斯滤波将得到的稳定图像序列应用于视频流,实现实时的抖动降低。
优选的,所述步骤S3中的深度学习目标检测模型原型为YOLOv5,将其主干网络替换为轻量级网络ShuffleNetV2,以提高检测速度为第一要素,引入通道注意力机制,提升模型在不同尺度特征上的性能;经全局平均池化得到特征的全局信息,通过全连接层来生成通道注意力权重,使得不同尺度的特征在通道维度上得到权重分配,特征融合层采用深度可分离卷积操作更改特征金字塔结构,根据特征图的大小和层级关系重新设计锚框并根据训练过程中的检测精度和收敛速度进行调整和优化,调整不同损失函数的权重,以达到提高检测速度的目的。
优选的,所述步骤S4中,还包括在模型中引入智能决策机制,自定义一个包括状态空间、动作空间和奖励函数的环境,状态表示为可见光相机和热红外相机的多模态图像数据,动作是调整YOLOv5目标检测算法的参数,奖励函数用以度量最终检测结果的准确度;使用Proximal Policy Optimization强化学习算法,构建一个强化学习智能代理,并使用神经网络模型,用于学习和执行决策;智能代理根据当前图像数据状态执行动作,即通过与环境交互来学习优化策略调整YOLOv5算法参数,包括锚框尺寸、置信度阈值、非最大抑制阈值;奖励函数用于度量智能代理的行为,并基于目标检测结果的精度、召回率指标直接反映出目标检测的准确度;使用强化学习算法训练代理,通过与环境交互收集数据并优化策略,在训练过程中,代理会根据奖励信号不断调整动作,以最大化累积奖励。
优选的,所述YOLOv5深度学习框架选用pytorch,训练数据集预先通过两种相机设置同等角度距离,在各种田间场景下自行拍摄,采集包括人、牲畜、田间石块、植被目标的图,并将带有标签信息的图像放入所述深度学习模型中训练,得到最佳模型文件;结合强化学习算法的决策结果,最终判定检测到的目标是否为人或动物;工控机为jetson TX2 NX,搭载linux系统,下位机STM32分别连接报警器与车辆行驶系统,当检测到异常温度区域存在人或动物时,发出警报。

Claims (6)

1.一种青贮玉米田间生命检测方法,其特征在于,包括以下步骤:
S1、将可见光相机与热红外相机图像输入控制器,通过增添信号发生器与同步时间戳的方式融合热红外相机与可见光相机信息,确保采集多模态数据的时序一致性;
S2、使用Harris角点检测提取关键特征点,基于FlowNet卷积神经网络光流计算,根据光流估计的结果,对图像进行平移、旋转调整,以抵消摄像机带来的抖动效应,再通过滤波锐化操作实现图像去噪、增强;
S3、将图像反馈至深度学习目标检测模型,以损失一定的中远距离检测精度为代价,来提高检测速度;
S4、使用强化学习在调整后的深度学习模型中进行智能决策,在速度与精度间寻求最优权重配比,补偿步骤S3中因速度优化而损失的部分中远距离检测精度;
S5、选择合适的置信度阈值,将目标区域标注输出,若目标区域存在人或动物,则发出警报,停机处理。
2.根据权利要求1所述的一种青贮玉米田间生命检测方法,其特征在于,所述步骤S1中,还包括将热红外图像和可见光图像叠加显示,使得两种图像信息在空间上重叠,使用信号发生器作为外部信号源,以同时触发热红外相机和可见光相机采集数据的方式,确保采集时刻同步;设置一个时间戳记录系统时钟的当前时间,可见光相机与热红外相机在进行数据采集时,分别在每一帧图像或数据包中添加一个时间戳字段,数据采集结束后,将获得的不同数据进行时间戳对齐,找到最接近的时间戳,并将数据进行匹配,所述信号发生器同时作为下位机,上面搭载有时钟模块,用来作为已知的时间同步信号,以便校正相机时间戳的偏差。
3.根据权利要求2所述的一种青贮玉米田间生命检测方法,其特征在于,所述步骤S2中,还包括通过可见光相机与热红外相机采集融合视频流,读取每一帧图像,并在逐帧中,使用Harris角点检测来提取一些关键的特征点,结合卷积神经网络FlowNet2.0对连续帧中的特征点进行光流计算,预先估计每个特征点在下一帧中的位移;根据光流估计的结果,对图像进行平移、旋转调整;同时对光流结果进行平滑处理,应用均值滤波或高斯滤波将得到的稳定图像序列应用于视频流,实现实时的抖动降低。
4.根据权利要求3所述的一种青贮玉米田间生命检测方法,其特征在于,所述步骤S3中的深度学习目标检测模型原型为YOLOv5,将其主干网络替换为轻量级网络ShuffleNetV2,以提高检测速度为第一要素,引入通道注意力机制,提升模型在不同尺度特征上的性能;经全局平均池化得到特征的全局信息,通过全连接层来生成通道注意力权重,使得不同尺度的特征在通道维度上得到权重分配,特征融合层采用深度可分离卷积操作更改特征金字塔结构,根据特征图的大小和层级关系重新设计锚框并根据训练过程中的检测精度和收敛速度进行调整和优化,调整不同损失函数的权重,以达到提高检测速度的目的。
5.根据权利要求4所述的一种青贮玉米田间生命检测方法,其特征在于,所述步骤S4中,还包括在模型中引入智能决策机制,自定义一个包括状态空间、动作空间和奖励函数的环境,状态表示为可见光相机和热红外相机的多模态图像数据,动作是调整YOLOv5目标检测算法的参数,奖励函数用以度量最终检测结果的准确度;使用Proximal PolicyOptimization强化学习算法,构建一个强化学习智能代理,并使用神经网络模型,用于学习和执行决策;智能代理根据当前图像数据状态执行动作,即通过与环境交互来学习优化策略调整YOLOv5算法参数,包括锚框尺寸、置信度阈值、非最大抑制阈值;奖励函数用于度量智能代理的行为,并基于目标检测结果的精度、召回率指标直接反映出目标检测的准确度;使用强化学习算法训练代理,通过与环境交互收集数据并优化策略,在训练过程中,代理会根据奖励信号不断调整动作,以最大化累积奖励。
6.根据权利要求5所述的一种青贮玉米田间生命检测方法,其特征在于,所述YOLOv5深度学习框架选用pytorch,训练数据集预先通过两种相机设置同等角度距离,在各种田间场景下自行拍摄,采集包括人、牲畜、田间石块、植被目标的图,并将带有标签信息的图像放入所述深度学习模型中训练,得到最佳模型文件;结合强化学习算法的决策结果,最终判定检测到的目标是否为人或动物;工控机为jetson TX2 NX,搭载linux系统,下位机STM32分别连接报警器与车辆行驶系统,当检测到异常温度区域存在人或动物时,发出警报。
CN202311080733.6A 2023-08-25 2023-08-25 一种青贮玉米田间生命检测方法 Active CN116823812B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311080733.6A CN116823812B (zh) 2023-08-25 2023-08-25 一种青贮玉米田间生命检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311080733.6A CN116823812B (zh) 2023-08-25 2023-08-25 一种青贮玉米田间生命检测方法

Publications (2)

Publication Number Publication Date
CN116823812A true CN116823812A (zh) 2023-09-29
CN116823812B CN116823812B (zh) 2023-10-31

Family

ID=88125999

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311080733.6A Active CN116823812B (zh) 2023-08-25 2023-08-25 一种青贮玉米田间生命检测方法

Country Status (1)

Country Link
CN (1) CN116823812B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117576560A (zh) * 2023-11-17 2024-02-20 中化现代农业有限公司 用于北方春玉米的田间杂草识别方法、装置、设备和介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108596009A (zh) * 2017-12-29 2018-09-28 西安智加科技有限公司 一种用于农机自动驾驶的障碍物检测方法和系统
WO2022126940A1 (zh) * 2020-12-20 2022-06-23 东南大学 一种重型营运车辆的后向防撞驾驶决策方法
CN114821536A (zh) * 2022-05-13 2022-07-29 河南科技大学 一种改进yolov5的无人驾驶拖拉机田间障碍物识别方法
CN116664859A (zh) * 2023-06-06 2023-08-29 湖南师范大学 移动端实时目标检测方法、终端设备及存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108596009A (zh) * 2017-12-29 2018-09-28 西安智加科技有限公司 一种用于农机自动驾驶的障碍物检测方法和系统
WO2022126940A1 (zh) * 2020-12-20 2022-06-23 东南大学 一种重型营运车辆的后向防撞驾驶决策方法
CN114821536A (zh) * 2022-05-13 2022-07-29 河南科技大学 一种改进yolov5的无人驾驶拖拉机田间障碍物识别方法
CN116664859A (zh) * 2023-06-06 2023-08-29 湖南师范大学 移动端实时目标检测方法、终端设备及存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
孙红;李松;李民赞;刘豪杰;乔浪;张瑶;: "农业信息成像感知与深度学习应用研究进展", 农业机械学报, no. 05, pages 8 - 24 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117576560A (zh) * 2023-11-17 2024-02-20 中化现代农业有限公司 用于北方春玉米的田间杂草识别方法、装置、设备和介质

Also Published As

Publication number Publication date
CN116823812B (zh) 2023-10-31

Similar Documents

Publication Publication Date Title
CN116823812B (zh) 一种青贮玉米田间生命检测方法
CN105825173B (zh) 通用道路和车道检测系统与方法
CN105711597B (zh) 前方局部行驶环境感知系统及方法
CN113597874B (zh) 一种除草机器人及其除草路径的规划方法、装置和介质
Benson et al. Machine vision-based guidance system for agricultural grain harvesters using cut-edge detection
CN110765916B (zh) 一种基于语义和实例分割的农田苗垄识别方法及系统
CN102368158B (zh) 一种果园机械导航定位方法
CN103714659B (zh) 基于双光谱融合的疲劳驾驶识别系统
CN103402044A (zh) 一种基于多源视频融合的目标识别与跟踪系统
CN115731268A (zh) 基于视觉/毫米波雷达信息融合的无人机多目标跟踪方法
CN103049751A (zh) 一种改进的加权区域匹配高空视频行人识别方法
WO2024114119A1 (zh) 一种基于双目相机引导的传感器融合方法
CN104331901A (zh) 一种基于tld的多视角目标跟踪装置及方法
Sun et al. Wheat head counting in the wild by an augmented feature pyramid networks-based convolutional neural network
CN115280960A (zh) 一种基于田间视觉slam的联合收获机转向控制方法
CN108279678A (zh) 一种用于检测植株生长状况的田间自动行走装置及其行走控制方法
CN103577833A (zh) 基于运动模板的异常闯入检测方法
CN113848545A (zh) 一种基于视觉和毫米波雷达的融合目标检测和跟踪方法
CN109947115A (zh) 一种割草机控制系统及其控制方法
CN113906900B (zh) 一种甘蔗收获机以及基于多传感器融合的甘蔗收获机刀盘位姿的调整方法
CN116117807A (zh) 一种辣椒采摘机器人及控制方法
CN111399014B (zh) 野生动物监控的局部立体视觉红外相机系统及方法
Wang et al. An end-to-end auto-driving method based on 3D LiDAR
CN110781865A (zh) 一种农作物生长控制系统
Gong et al. An Improved Method for Extracting Inter-row Navigation Lines in Nighttime Maize Crops using YOLOv7-tiny

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant