CN117115210B - 基于物联网的智慧农业监控调节方法 - Google Patents
基于物联网的智慧农业监控调节方法 Download PDFInfo
- Publication number
- CN117115210B CN117115210B CN202311370132.9A CN202311370132A CN117115210B CN 117115210 B CN117115210 B CN 117115210B CN 202311370132 A CN202311370132 A CN 202311370132A CN 117115210 B CN117115210 B CN 117115210B
- Authority
- CN
- China
- Prior art keywords
- frame
- optical flow
- pest
- video
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012544 monitoring process Methods 0.000 title claims abstract description 98
- 238000000034 method Methods 0.000 title claims abstract description 90
- 230000003287 optical effect Effects 0.000 claims abstract description 148
- 241000607479 Yersinia pestis Species 0.000 claims abstract description 143
- 238000012937 correction Methods 0.000 claims abstract description 133
- 238000010586 diagram Methods 0.000 claims abstract description 65
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 49
- 238000013519 translation Methods 0.000 claims abstract description 14
- 238000003379 elimination reaction Methods 0.000 claims abstract description 12
- 230000008030 elimination Effects 0.000 claims abstract description 11
- 230000001133 acceleration Effects 0.000 claims description 20
- 230000033001 locomotion Effects 0.000 claims description 11
- 230000004927 fusion Effects 0.000 claims description 10
- 239000000203 mixture Substances 0.000 claims description 10
- 230000009466 transformation Effects 0.000 claims description 8
- 238000000605 extraction Methods 0.000 claims description 7
- 239000011159 matrix material Substances 0.000 claims description 6
- 238000006073 displacement reaction Methods 0.000 claims description 5
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 238000001514 detection method Methods 0.000 claims description 3
- 230000011218 segmentation Effects 0.000 claims description 3
- 230000008569 process Effects 0.000 abstract description 24
- 230000000694 effects Effects 0.000 abstract description 11
- 235000015110 jellies Nutrition 0.000 abstract description 5
- 239000008274 jelly Substances 0.000 abstract description 5
- 238000004891 communication Methods 0.000 abstract description 3
- 238000005516 engineering process Methods 0.000 description 8
- 238000012545 processing Methods 0.000 description 7
- 241000196324 Embryophyta Species 0.000 description 5
- 241000238631 Hexapoda Species 0.000 description 5
- 238000003780 insertion Methods 0.000 description 5
- 230000037431 insertion Effects 0.000 description 5
- 238000013145 classification model Methods 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 238000012966 insertion method Methods 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 238000012935 Averaging Methods 0.000 description 1
- 241001048891 Jatropha curcas Species 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 239000008932 jinhong Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000011426 transformation method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/269—Analysis of motion using gradient-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
- G06V10/242—Aligning, centring, orientation detection or correction of the image by image rotation, e.g. by 90 degrees
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/28—Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/457—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by analysing connectivity, e.g. edge linking, connected component analysis or slices
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及图像通信技术领域,提出了基于物联网的智慧农业监控调节方法,包括:基于监控视频获取每一视频帧的实时阴影图、消影灰度图;采用稠密光流算法获取每一视频帧的光流场图;基于光流场图中像素点的速度信息确定相邻帧之间的初始插帧图;基于每一视频帧的消影灰度图中所提取目标连通域之间的特征点匹配结果确定相邻视频帧之间的中间帧害虫平移角度、中间帧害虫旋转图像;根据中间帧害虫旋转图像确定插帧修正图,并将插帧修正图插入监控视频中相邻视频帧之间得到修正监控视频;根据修正监控视频内运动物体的识别结果实现农业监控调节。本发明消除光流插帧法处理农业害虫监控图像时产生的果冻效应,提高了监控视频的插帧效果和插帧质量。
Description
技术领域
本发明涉及图像通信技术领域,具体涉及基于物联网的智慧农业监控调节方法。
背景技术
随着物联网技术的发展,基于物联网的视频监控已经成为智慧农业监控系统的关键组成部分。在监控视频传输到监控系统的过程中,当受到网络波动等因素干扰时往往通过对监控视频进行降低帧率的处理,使得农业监控视频中每一帧视频内容的分辨率偏低,因此需要对监控视频进行插帧处理,即在农业监控视频的相邻帧之间插入合成帧,提高农业监控视频的观看效果。
在农业监控视频获取过程中,由于害虫飞行速度快、飞行轨迹复杂、并且有时伴有身体旋转的行为,现阶段插帧算法在对监控视频进行插帧处理的效果较差。例如,在采用运动补偿算法进行插帧时,插帧效果的好坏过于依赖监控视频中害虫运动估计的结果;其次光流插帧法是用于视频图像插帧处理的常用插帧算法之一,然而在采用光流插帧法农业监控视频进行插帧时,由于运动物体的影响往往会出现果冻效应且难以处理视频背景与运动物体同时变化的情况,降低监控视频的插帧效果。
发明内容
本发明提供基于物联网的智慧农业监控调节方法,以解决传统光流插帧法对害虫监控视频进行插帧时会出现果冻效应的问题,所采用的技术方案具体如下:
本发明一个实施例基于物联网的智慧农业监控调节方法,该方法包括以下步骤:
获取农业监控范围内待插帧的监控视频;
基于待插帧的监控视频获取每一视频帧的实时阴影图、消影灰度图;采用稠密光流算法基于每一视频帧的消影灰度图获取每一视频帧的光流场图;基于光流场图中像素点的速度信息确定相邻帧之间的初始插帧图;
基于每一视频帧的消影灰度图中所提取的目标连通域之间的特征点匹配结果确定相邻视频帧之间的中间帧害虫旋转图像;根据中间帧害虫旋转图像确定插帧修正图,并将插帧修正图插入待插帧的监控视频中相邻视频帧之间得到修正监控视频;
根据修正监控视频内运动物体的识别结果确定农业监控范围内的害虫分布情况,根据害虫分布情况确定重点监测区域,完成农业视频监控的调节。
优选的,所述采用稠密光流算法基于每一视频帧的消影灰度图获取每一视频帧的光流场图的方法为:
根据当前帧及其相邻帧的光流场图中的光流信息获取每一帧光流场图的初始修正图;
利用曲线拟合算法获取连续多帧初始修正图中视频单元位移特征的拟合曲线;
根据所述拟合曲线获取初始修正图对应的二次修正光流图。
优选的,所述根据当前帧及其相邻帧的光流场图中的光流信息获取每一帧光流场图的初始修正图的方法为:
根据当前帧及其相邻帧的光流场图中的光流信息获取当前帧光流场图中每个视频单元的光流场加速度信息对,将所述光流场加速度信息对中第一个元素、第二个元素与预设时间间隔的乘积分别作为第一组成因子、第二组成因子;
将当前帧光流场图中每个视频单元在水平方向上的速度参数与第一组成因子的和作为水平修正值,将当前帧光流场图中每个视频单元在垂直方向上的速度参数与第二组成因子的和作为垂直修正值,将每个视频单元的水平修正值、垂直修正值组成的信息对作为每个视频单元的初始修正信息对;
利用当前帧光流场图中每个视频单元的初始修正信息对代替当前帧光流场图中每个视频单元的速度信息对,遍历当前帧光流场图中的所有视频单元,将替换后的图像作为当前帧的初始修正图。
优选的,所述根据当前帧及其相邻帧的光流场图中的光流信息获取当前帧光流场图中每个视频单元的光流场加速度信息对的方法为:
利用稠密光流算法分别获取当前帧、当前帧前一帧、当前帧后一帧对应的光流场图,分别获取当前帧前一帧、当前帧后一帧对应的光流场图中每个位置视频单元的光流场速度信息对;
将当前帧后一帧的光流场图与当前帧前一帧的光流场图中同一位置视频单元的光流场速度信息对中的第一个元素之间的差值、第二个元素之间的差值分别记为第一差值、第二差值,将所述第一差值、第二差值与预设时间间隔的比值分别作为当前帧中所述视频单元在水平方向上、垂直方向上的加速信息;
将像素点水平方向上的加速信息与垂直方向上的加速信息组成的信息对作为当前帧光流场图中每个视频单元的光流场加速信息对。
优选的,所述根据所述拟合曲线获取初始修正图对应的二次修正光流图的方法为:
将以当前帧为中心帧,在预设时间间隔范围内所取预设数量帧的初始修正图组成的集合作为当前帧的拟合图集;
利用位移定律确定当前帧的初始修正图中每个视频单元坐标在所述拟合图集内每个初始修正图上的位置信息,利用曲线拟合算法获取当前帧的初始修正图中每个视频单元坐标与其在所述拟合图集内对应位置的拟合曲线,将所述拟合曲线在当前帧的初始修正图中每个视频单元坐标处的切线与水平方向的夹角作为每个视频单元的切线角;
将初始修正信息对的L2范数与每个视频单元的切线角的余弦值、正弦值的乘积分别作为每个视频单元的水平二次修正值、垂直二次修正值,将所述水平二次修正值、垂直二次修正值组成的信心对作为每个视频单元的二次修正信息对;
利用当前帧初始修正图中每个视频单元的二次修正信息对代替当前帧光流场图中每个视频单元的初始修正信息对,遍历当前帧初始修正图中的所有视频单元,将替换后的图像作为当前帧的二次修正光流图。
优选的,所述基于光流场图中像素点的速度信息确定相邻帧之间的初始插帧图的方法为:
将每一视频帧的二次修正光流图以及每一视频帧前后相邻两帧灰度图像作为光流法的输入,将光流法的输出作为初始插帧图。
优选的,所述基于每一视频帧的消影灰度图中所提取的目标连通域之间的特征点匹配结果确定相邻视频帧之间的中间帧害虫旋转图像的方法为:
利用光流跟踪法获取每一帧消影灰度图中运动目标的位置信息,利用连通域提取算法获取每一帧消影灰度图中所述位置信息对应的连通域;
将每一帧消影灰度图中所述连通域内所有视频单元的灰度值保持不变,将每一帧消影灰度图中所述连通域之外所有视频单元的灰度值置为零,将灰度值转换后的每一帧消影灰度图与每一帧灰度图像进行与运算的结果作为每一帧消影灰度图对应的害虫截取图;
利用特征点匹配算法获取相邻两帧害虫截取图中特征点对应的匹配特征点集合,根据匹配特征点集合以及所述害虫截取图获取中间帧害虫旋转图像。
优选的,所述根据匹配特征点集合以及所述害虫截取图获取中间帧害虫旋转图像的方法为:
利用特征点检测算法分别获取相邻两帧害虫截取图对应的匹配特征点集合,根据匹配特征点集合获取中间帧害虫平移角度;
分别获取每一帧的害虫截取图上所有连通域最小外接矩阵的长边长和宽边长,将当前帧、当前帧下一帧的害虫截取图上所有连通域最小外接矩阵的长边长的均值和宽边长均值分别作为中间帧的长边长、宽边长;
将所述中间帧的长边长、宽边长、当前帧消影灰度图对应的害虫截取图、中间帧害虫平移角度作为透视变换算法的输入,利用透视变换算法获取中间帧害虫图像;
利用全局阈值分割算法获取中间帧害虫图像对应的二值图像,利用连通域提取算法获取二值图像中的连通域,将被标记质心的连通域所在的二值图像作为中间帧害虫旋转图像。
优选的,所述根据匹配特征点集合获取中间帧害虫平移角度的方法为:
分别获取当前帧的害虫截取图的特征点集合中每个特征点在匹配特征点集合内对应的匹配对象;
将每个特征点在当前帧的初始修正图中的初始修正信息对的L2范数与每个特征点的匹配对象的初始修正信息对的L2范数之和作为分子;
将每个特征点在当前帧的光流场图中的光流场速度信息对的L2范数作为每个特征点的原始绝对速度;将每个特征点的原始绝对速度与每个特征点的匹配对象的原始绝对速度之和作为第一乘积因子,将所述第一乘积因子与预设参数的乘积作为分母;
将所述分子与分母的比值作为每个特征点的害虫移动角度,将当前帧的害虫截取图的特征点集合中所有特征点的害虫移动角度的均值作为中间帧害虫平移角度。
优选的,所述根据中间帧害虫旋转图像确定插帧修正图的方法为:
将当前帧的二次修正光流图中每个像素点的光流向量与预设参数的乘积作为当前帧的二次修正光流向量图,将中间帧害虫旋转图像中的质心平移到当前帧的二次修正光流向量图的质心处的结果作为平移害虫图像;
将利用加权融合算法在所述平移害虫图像中的连通域范围内获取初始插帧图与所述平移害虫图像获取的融合图像作为插帧修正图。
本发明的有益效果是:本发明针对植物间的出现大量的多块阴影,采用了光照补偿的方式,改善通过原始图像获得的光流场图的质量。其次针对害虫的飞行速度多变,飞行轨迹蜿蜒对光流场图进行二次修正,确保能正确定位中间帧图像中的害虫位置。并针对害虫飞行过程中身体旋转的情况构建了中间帧害虫移动角度,利用中间帧害虫移动角度、害虫截取图等基于投影变换法得到了害虫旋转图像,将中间帧对应的第一次插帧图像与中间帧图像中的平移害虫图像进行拉普拉斯金字塔融合,获取最终的光流插帧图。本发明消除传统光流插帧法应用到本场景时会出现的果冻效应,提高最终视频的质量,有利于提高智慧农业面对农业害虫时的调节效率。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明一个实施例所提供的基于物联网的智慧农业监控调节方法的流程示意图;
图2为本发明一个实施例所提供的获取中间帧害虫图像的示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参阅图1,其示出了本发明一个实施例提供的基于物联网的智慧农业监控调节方法流程图,该方法包括以下步骤:
步骤S001,获取农业监控区域内的监控视频,利用物联网数据模块将所获视频传输至远端服务器。
为了得到清晰度足够的监控视频,根据所选相机的监控范围以及农业监控区域的范围大小,将相机安装在农业监控范围内选定的监控位置。
在本发明中,采用全局快门的CMOS相机进行视频监控,监控视频中每一帧图像是RGB色彩空间的图像。其次,在CMOS相机上安装物联网的网络通信模块将拍摄到的视频内容实时传输到远端服务器。相机型号选择深圳市聚泓瀚科技有限公司的全局曝光720P数字摄像头模组100万USB摄像头。实施者可根据实际农业监控范围以及监控对象选择合适的设备型号。
至此,将获取的监控视频传输至远端服务器,便于后续进行插帧处理。
步骤S002,获取当前帧灰度图像的消影灰度图,并利用稠密光流算法获取消影灰度图对应的光流场图,基于光流场图中的像素信息获取初始修正图。
在农业监控范围内,害虫在植物之间穿梭,而植物由于叶片的错层分布会导致目标检测区域中出现不同的阴影区域,害虫在穿梭光亮区域和阴影时会对光流场的计算结果产生不利影响。因此需要对监控视频中的每一帧图像的阴影进行消除修正,由于监控视频中每一帧图像中的基本单元为像素点,因此本发明中将每一帧图像中的每个像素点作为一个视频单元,阴影消除的过程如下:
将监控视频中第m帧图像记为,对第m帧图像进行灰度化,将得到的第m帧的灰度图像记为/>,对于第m帧图像,获取监控视频中第/>帧到第/>帧共50帧原始图像,分别记为/>至/>;将/>至/>对应的灰度图像,分别记为/>至/>,将上述50帧原始图像组成的集合作为第m帧图像的历史监控图像集。
分别获取至/>中同一位置像素点的灰度值的均值,将所有位置像素点对应的灰度值均值按照原始图像中位置排列组成的图像作为第m帧图像的实时阴影图/>。
利用前50帧图像组成历史监控图像集的原因在于:一是因为第m帧图像下除了害虫很少有物体在其中移动,在前50帧图像中害虫处在不同的位置而植物阴影保持不动,因此50帧图像求均值可以以计算出植物的阴影区域且不受移动害虫的影响,根据计算出的实时阴影图对原始灰度图像进行亮度补偿就能消除植物阴影对害虫图像的影响;另一方面,在当前场景处于室外,随着时间光照会发生变化,因此要对于每一帧图像都要单独计算实时阴影图。
根据实时阴影图获取第m帧灰度图像/>中每个像素点的消影灰度值,计算像素点i的消影灰度值/>:
式中,是灰度图像/>中像素点i灰度值,/>是灰度图像/>中灰度级最大值,/>的取值范围为(0,255],/>是实时阴影图/>与像素点i位置相同的点的灰度值。
其中,历史监控图像集内每个灰度图像上与像素点i位置相同像素点的灰度值越大,的值越大,显著度/>的值越大,/>的值越大。
根据上述步骤,获取实时阴影图中所有像素点的消影灰度值,利用实时阴影图/>中每个像素点的消影灰度值代替/>中同一位置像素点的灰度值,遍历实时阴影图/>中的所有像素点,将替换后的图像作为第m帧灰度图像/>对应的消影灰度图。
进一步的,根据上述步骤分别获取第m+1帧、第m+2帧灰度图像对应的消影灰度图、/>,将/>、/>作为算法输入,利用Horn-Schunck光流算法计算第m帧、第m+1帧之间的光流场图像;将/>、/>作为算法输入,利用Horn-Schunck光流算法计算第m+1帧、第m+2帧之间的光流场图像,Horn-Schunck光流算法为公知技术,具体过程不再赘述。将第m帧、第m+1帧之间的光流场图像记为j帧光流场图/>,将中每个像素点包含信息对作为每个像素点的速度信息对,将第a个像素点的速度信息对记为,/>、/>分别是第a个像素点的水平速度、垂直速度,基于相邻帧光流场图中像素点的速度信息对获取像素点的加速度信息对。
计算光流场图中第a个像素点的加速度信息对:
式中,是光流场图中像素素点a在水平方向上的加速信息,/>、分别是光流场图/>、/>中第a个像素点的水平速度、/>是连续两帧消影灰度图之间的间隔时间,t的大小取经验值0.04s;
是光流场图中像素素点a在垂直方向上的加速信息,/>、/>分别是光流场图/>、/>中第a个像素点的垂直速度。
将,/>组成的信息对/>作为光流场图/>中第a个像素点的光流场加速信息对。
针对处于移动状态的害虫,由于害虫飞行速度的多变性会导致在相邻两帧图像之间插帧时的位置出现偏差,为了对插帧图像上的害虫像素点进行更精确的定位,对第帧光流图中的每个像素点都利用光流场像素加速信息对速度信息对进行第一次修正:
式中,是光流场图/>中第a个像素点的水平修正值,/>、/>分别是光流场图/>中第a个像素点的水平速度、水平方向上的加速信息;
是光流场图/>中第a个像素点的垂直修正值,/>、/>分别是光流场图/>中第a个像素点的垂直速度、垂直方向上的加速信息;
其中,的值越大,第一组成因子/>的值越大,对应的水平方向上的修正量越大;/>的值越大,第二组成因子/>的值越大,在垂直方向上修正量越大。
将,/>组成的信息对/>作为光流场图/>中第a个像素点的初始修正信息对。
根据上述步骤,获取光流场图中所有像素点的初始修正信息对,利用光流场图中每个像素点的初始修正信息对代替/>中同一位置像素点的速度信息对,遍历光流场图中的所有像素点,将替换后的光流场图像作为第j帧的初始修正图/>。
至此,得到每帧光流场图对应的初始修正图,消除了害虫移动过程中速度复杂多变带来的影响,便于后续插帧图像的计算。
步骤S003,利用曲线拟合算法获取像素点位移特征的拟合曲线;根据拟合曲线获取二次修正光流图,利用光流法获取初始插帧图。
为了进一步的消除害虫移动过程中可能出现的复杂运动轨迹,根据初始修正图中第a个像素点的坐标信息,计算第a个像素点在相邻帧初始修正图中对应的位置信息:
式中,是第a个像素点在第j+1帧初始修正图/>中对应的坐标信息,/>、/>分别是第a个像素点在初始修正图中的横纵坐标,t是初始修正图/>、/>之间的时间间隔。
根据上述步骤,分别获取初始修正图、/>、/>中第a个像素点对应的坐标信息/>、/>、/>,利用贝塞尔曲线拟合算法获取、/>、/>、/>、/>的拟合曲线,贝塞尔曲线的阶数取经验值5,拟合多项式次数取经验值4,控制拟合精度参数取经验值5。最终得到的结果是一条是穿过这五个点的贝塞尔曲线,贝塞尔曲线拟合算法为公知技术,具体过程不再赘述。利用贝塞尔曲线,根据平面向量的分解定理对初始修正图进行第二次修正,初始修正图/>的第二次修正过程如下:
式中,是第a个像素点的水平二次修正值,/>是第a个像素点的水平修正值,/>是贝塞尔曲线在初始修正图/>第a个像素点坐标处的切线与水平方向的夹角,/>是夹角/>的余弦值;
是第a个像素点的垂直二次修正值,/>是第a个像素点的垂直修正值,是夹角/>的正弦值;/>是第a个像素点的速度修正值。
通过上述计算在不改变初始修正图第a个像素点的绝对速度大小的情况下,改变了初始修正图/>第a个像素点的速度方向,使其方向与贝塞尔曲线的切线为同一方向。这是因为实际昆虫飞行中无论如何发生轨迹上的转弯,其轨迹通常也符合贝塞尔曲线。
将,/>组成的信息对/>作为初始修正图/>中第a个像素点的二次修正信息对。
根据上述步骤,获取初始修正图中所有像素点的二次修正信息对,利用初始修正图/>中每个像素点的二次修正信息对代替/>中同一位置像素点的初始修正信息对,遍历初始修正图/>中的所有像素点,将替换后的图像作为第j帧的二次修正图光流图/>。
将监控视频中的第m帧、第m+1帧图像、/>以及二次修正图光流图/>作为光流插帧法的输入,将光流插帧法的输出作为第m帧、第m+1帧之间的初始插帧图/>,光流插帧法为公知技术,具体过程不再赘述。
至此,得到相邻两帧图像之间的初始插帧图。
步骤S004,利用光流跟踪法获取运动物体对应的连通域,根据连通域获取害虫截取图,利用特征点匹配器获取害虫截取图中特征点对应的匹配特征点集合,根据匹配特征点集合以及所述害虫截取图获取害虫旋转图像,利用加权融合算法获取插帧修正图。
在实际对拍摄的害虫视频进行光流场插帧时,还可能因为害虫身体旋转导致插帧图像中的害虫图像出现果冻效应,因此考虑通过透视变化PT算法(PerspectiveTransformation)获得中间帧害虫图像。
首先将第帧消影灰度图/>和第/>帧消影灰度图/>作为输入,利用光流跟踪法检测出第/>帧和第/>帧中运动物体的像素点位置信息,并对运动目标上的像素点位置进行标记,其次利用连通域提取算法获取被标记像素点对应的连通域,光流跟踪法为公知技术,具体过程不再赘述。将第b个害虫在消影灰度图/>、/>中的连通域分别记为/>、/>。
将每一帧消影灰度图中所述连通域内的像素点灰度保持不变,连通域外的像素点灰度值置为零,将完成灰度值变换后的消影灰度图、/>分别与第/>帧和第帧图像/>、/>进行与运算,将运算结果分别作为第m帧、第/>帧的害虫截取图/>、/>。
进一步的,将与/>采用ORB(Oriented FAST and Rotated BRIEF)特征检测器,获取/>中被标记害虫的像素点个数/>,然后获取/>中被标记害虫的像素点个数/>,基于/>、/>计算检测器得到的特征点数量/>:
式中,min()是取最小值函数, 是为了获得/>、/>中被标记像素点数量的较小值,A的大小取经验20,然后以被标记较小值的5%作为ORB特征检测器中的获得特征点数量/>。
将中被标记像素点的坐标作为所述检测器的输入,所述检测器的输出是两个特征点集合,每个特征点集合中的特征点数量为,将的特征点集合分别记为/>、,进一步的,将害虫截取图/>及其特征点集合/>,害虫截取图/>及其特征点集合/>作为ORB特征检测器中特征匹配器的输入,获取害虫截取图/>上每一个特征点在害虫截取图/>中的匹配点,将特征匹配器的输出记为匹配特征点集合p,匹配特征点集合中的每个元素是害虫截取图/>、/>中匹配特征点的坐标组成的坐标信息对,ORB特征检测器为公知技术,具体过程不再赘述。
进一步的,根据匹配特征点集合中特征点的速度信息对获取害虫移动角度,计算第j帧光流场图中的第d个特征点的害虫移动角度:
式中,是初始修正图/>中第d个特征点的初始修正速度值,/>是匹配特征点集合p中初始修正图/>中第d个特征点对应的匹配特征点的初始修正速度值,所述初始修正速度值的大小等于每个特征点对应初始修正信息对中两个元素的L2范数;
是光流场图/>中第d个特征点的原始修正速度值,/>是匹配特征点集合p中光流场图/>中第d个特征点对应的匹配特征点的原始修正速度值,所述原始修正速度值的大小等于每个特征点对应速度信息对中两个元素的L2范数,/>是调参因子,/>的大小取经验值2。
进一步的,分别获取匹配特征点集合p内对匹配特征点的害虫移动角度,本发明将所有特征点的害虫移动角度的均值作为中间帧害虫平移角度r,将第/>帧害虫截取图/>和第/>帧害虫截取图/>之间的中间帧害虫平移角度记为/>。
其次根据第帧害虫截取图/>和第/>帧害虫截取图/>上连通域的大小获取中间帧害虫图像的图像大小:
式中,是第j个中间帧害虫图像的长边长,/>、/>分别是/>、/>上第k个连通域最小外接矩形的长边长;/>是第j个中间帧害虫图像的宽边长,/>、/>分别是/>、/>上第k个连通域最小外接矩形的宽边长的均值,K是/>、/>上连通域的数量。
进一步的,利用随机抽样一致性(RANSAC)算法获取匹配特征点集合p采用的最佳单应性矩阵,将第/>帧害虫截图/>、中间帧害虫平移角度记为/>、中间帧害虫图像的图像左右边长/>、中间帧害虫图像的图像上下边长/>、透视变化矩阵作为输入,利用透视变换PT算法(Perspective Transformation)获得中间帧害虫图像,如图2所示。透视变换PT算法为公知技术,具体过程不再赘述。
进一步的,利用全局阈值分割算法获取中间帧害虫图像对应的二值图像,利用连通域提取算法获取二值图像中的连通域,将被标记质心的连通域所在的二值图像作为第m帧、第m+1帧之间的害虫旋转图像;将第j帧的二次修正图光流图中每个像素点的光流向量与相邻帧时间间隔的二分之一相乘得到二次修正光流向量图,获取二次修正光流向量图的质心坐标,将害虫旋转图像的质心向二次修正光流向量图的质心坐标移动,将所述两个质心重合时的害虫旋转图像记为平移害虫图像/>。为了后续有针对性的进行图像融合,利用连通域提取算法获取平移害虫图像/>上连通域,将第m帧、第m+1帧灰度图像之间的初始插帧图/>与平移害虫图像/>在所述连通域内进行拉普拉斯金字塔图像融合,初始插帧图/>与平移害虫图像/>融合过程中的比例设置为经验比例1:10,将融合图像作为插帧修正图,拉普拉斯金字塔融合为公知技术,具体过程不再赘述。
至此,得到相邻两帧之间的插帧修正图,便于后续对监控视频的插帧处理。
步骤S005,利用神经网络分类模型获取修正监控视频中运动物体的识别结果;根据识别结果完成智慧农业调节。
根据讲述步骤获取监控视频图像中任意相邻两帧之间的插帧修正图,在远端服务器利用插帧修正图完整对监控视频的插帧处理,插帧处理为公知技术,具体过程不再赘述,将处理后的监控视频记为修正监控视频。
进一步的在远端服务器获得修正监控视频后,将修正监控视频传输至智慧农业系统,通过帧差法检测出修正监控视频图像中的运动物体,帧差法为公知技术,具体过程不再赘述。其次,对运动物体进行人为标记,所述标记包括害虫、益虫、鸟类、兽类、工作人员,将与标记编码后的视频图像作为分类模型的输入,分类模型的结构为SE-Net,以Adam(Adaptive moment estimation)为优化算法,以多分类交叉熵函数为损失函数,分类模型的输出为每一帧视频图像上运动物体的识别结果,神经网络的训练为公知技术,具体过程不再赘述。
将修正监控视频中每帧视频图像对应的识别结果传输至智慧农业系统的监测模块,当监测模块接收到识别结果为害虫时,将并发出预警,其次根据害虫分布情况确定重点监测区域,对监控范围进行均匀分块得到X个监控子区域,X的大小取经验值25,统计监控时间内每个监控子区域内害虫的数量,根据害虫数量大于所有监控子区域内害虫数量均值的子区域作为重点监控区域,调节农业视频在重点监控区域的监测频率和时长,并提高向重点区域发送预警信息的频率,智慧农业系统根据识别结果和预警信息派遣相应的农业专家和害虫消杀设备进行害虫消杀,并对重点监测区域进行反复消杀,减少害虫对农业的危害 。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (7)
1.基于物联网的智慧农业监控调节方法,其特征在于,该方法包括以下步骤:
获取农业监控范围内待插帧的监控视频;
基于待插帧的监控视频获取每一视频帧的实时阴影图、消影灰度图;采用稠密光流算法基于每一视频帧的消影灰度图获取每一视频帧的光流场图;基于光流场图中像素点的速度信息确定相邻帧之间的初始插帧图;
基于每一视频帧的消影灰度图中所提取的目标连通域之间的特征点匹配结果确定相邻视频帧之间的中间帧害虫旋转图像;根据中间帧害虫旋转图像确定插帧修正图,并将插帧修正图插入待插帧的监控视频中相邻视频帧之间得到修正监控视频;
根据修正监控视频内运动物体的识别结果确定农业监控范围内的害虫分布情况,根据害虫分布情况确定重点监测区域,完成农业视频监控的调节;
所述采用稠密光流算法基于每一视频帧的消影灰度图获取每一视频帧的光流场图的方法为:根据当前帧及其相邻帧的光流场图中的光流信息获取每一帧光流场图的初始修正图;利用曲线拟合算法获取连续多帧初始修正图中视频单元位移特征的拟合曲线;根据所述拟合曲线获取初始修正图对应的二次修正光流图;
所述基于光流场图中像素点的速度信息确定相邻帧之间的初始插帧图的方法为:将每一视频帧的二次修正光流图以及每一视频帧前后相邻两帧灰度图像作为光流法的输入,将光流法的输出作为初始插帧图;
所述根据中间帧害虫旋转图像确定插帧修正图的方法为:将当前帧的二次修正光流图中每个像素点的光流向量与预设参数的乘积作为当前帧的二次修正光流向量图,将中间帧害虫旋转图像中的质心平移到当前帧的二次修正光流向量图的质心处的结果作为平移害虫图像;将利用加权融合算法在所述平移害虫图像中的连通域范围内获取初始插帧图与所述平移害虫图像获取的融合图像作为插帧修正图。
2.根据权利要求1所述的基于物联网的智慧农业监控调节方法,其特征在于,所述根据当前帧及其相邻帧的光流场图中的光流信息获取每一帧光流场图的初始修正图的方法为:
根据当前帧及其相邻帧的光流场图中的光流信息获取当前帧光流场图中每个视频单元的光流场加速度信息对,将所述光流场加速度信息对中第一个元素、第二个元素与预设时间间隔的乘积分别作为第一组成因子、第二组成因子;
将当前帧光流场图中每个视频单元在水平方向上的速度参数与第一组成因子的和作为水平修正值,将当前帧光流场图中每个视频单元在垂直方向上的速度参数与第二组成因子的和作为垂直修正值,将每个视频单元的水平修正值、垂直修正值组成的信息对作为每个视频单元的初始修正信息对;
利用当前帧光流场图中每个视频单元的初始修正信息对代替当前帧光流场图中每个视频单元的速度信息对,遍历当前帧光流场图中的所有视频单元,将替换后的图像作为当前帧的初始修正图。
3.根据权利要求2所述的基于物联网的智慧农业监控调节方法,其特征在于,所述根据当前帧及其相邻帧的光流场图中的光流信息获取当前帧光流场图中每个视频单元的光流场加速度信息对的方法为:
利用稠密光流算法分别获取当前帧、当前帧前一帧、当前帧后一帧对应的光流场图,分别获取当前帧前一帧、当前帧后一帧对应的光流场图中每个位置视频单元的光流场速度信息对;
将当前帧后一帧的光流场图与当前帧前一帧的光流场图中同一位置视频单元的光流场速度信息对中的第一个元素之间的差值、第二个元素之间的差值分别记为第一差值、第二差值,将所述第一差值、第二差值与预设时间间隔的比值分别作为当前帧中所述视频单元在水平方向上、垂直方向上的加速信息;
将像素点水平方向上的加速信息与垂直方向上的加速信息组成的信息对作为当前帧光流场图中每个视频单元的光流场加速信息对。
4.根据权利要求1所述的基于物联网的智慧农业监控调节方法,其特征在于,所述根据所述拟合曲线获取初始修正图对应的二次修正光流图的方法为:
将以当前帧为中心帧,在预设时间间隔范围内所取预设数量帧的初始修正图组成的集合作为当前帧的拟合图集;
利用位移定律确定当前帧的初始修正图中每个视频单元坐标在所述拟合图集内每个初始修正图上的位置信息,利用曲线拟合算法获取当前帧的初始修正图中每个视频单元坐标与其在所述拟合图集内对应位置的拟合曲线,将所述拟合曲线在当前帧的初始修正图中每个视频单元坐标处的切线与水平方向的夹角作为每个视频单元的切线角;
将初始修正信息对的L2范数与每个视频单元的切线角的余弦值、正弦值的乘积分别作为每个视频单元的水平二次修正值、垂直二次修正值,将所述水平二次修正值、垂直二次修正值组成的信心对作为每个视频单元的二次修正信息对;
利用当前帧初始修正图中每个视频单元的二次修正信息对代替当前帧光流场图中每个视频单元的初始修正信息对,遍历当前帧初始修正图中的所有视频单元,将替换后的图像作为当前帧的二次修正光流图。
5.根据权利要求1所述的基于物联网的智慧农业监控调节方法,其特征在于,所述基于每一视频帧的消影灰度图中所提取的目标连通域之间的特征点匹配结果确定相邻视频帧之间的中间帧害虫旋转图像的方法为:
利用光流跟踪法获取每一帧消影灰度图中运动目标的位置信息,利用连通域提取算法获取每一帧消影灰度图中所述位置信息对应的连通域;
将每一帧消影灰度图中所述连通域内所有视频单元的灰度值保持不变,将每一帧消影灰度图中所述连通域之外所有视频单元的灰度值置为零,将灰度值转换后的每一帧消影灰度图与每一帧灰度图像进行与运算的结果作为每一帧消影灰度图对应的害虫截取图;
利用特征点匹配算法获取相邻两帧害虫截取图中特征点对应的匹配特征点集合,根据匹配特征点集合以及所述害虫截取图获取中间帧害虫旋转图像。
6.根据权利要求5所述的基于物联网的智慧农业监控调节方法,其特征在于,所述根据匹配特征点集合以及所述害虫截取图获取中间帧害虫旋转图像的方法为:
利用特征点检测算法分别获取相邻两帧害虫截取图对应的匹配特征点集合,根据匹配特征点集合获取中间帧害虫平移角度;
分别获取每一帧的害虫截取图上所有连通域最小外接矩阵的长边长和宽边长,将当前帧、当前帧下一帧的害虫截取图上所有连通域最小外接矩阵的长边长的均值和宽边长均值分别作为中间帧的长边长、宽边长;
将所述中间帧的长边长、宽边长、当前帧消影灰度图对应的害虫截取图、中间帧害虫平移角度作为透视变换算法的输入,利用透视变换算法获取中间帧害虫图像;
利用全局阈值分割算法获取中间帧害虫图像对应的二值图像,利用连通域提取算法获取二值图像中的连通域,将被标记质心的连通域所在的二值图像作为中间帧害虫旋转图像。
7.根据权利要求6所述的基于物联网的智慧农业监控调节方法,其特征在于,所述根据匹配特征点集合获取中间帧害虫平移角度的方法为:
分别获取当前帧的害虫截取图的特征点集合中每个特征点在匹配特征点集合内对应的匹配对象;
将每个特征点在当前帧的初始修正图中的初始修正信息对的L2范数与每个特征点的匹配对象的初始修正信息对的L2范数之和作为分子;
将每个特征点在当前帧的光流场图中的光流场速度信息对的L2范数作为每个特征点的原始绝对速度;将每个特征点的原始绝对速度与每个特征点的匹配对象的原始绝对速度之和作为第一乘积因子,将所述第一乘积因子与预设参数的乘积作为分母;
将所述分子与分母的比值作为每个特征点的害虫移动角度,将当前帧的害虫截取图的特征点集合中所有特征点的害虫移动角度的均值作为中间帧害虫平移角度。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311370132.9A CN117115210B (zh) | 2023-10-23 | 2023-10-23 | 基于物联网的智慧农业监控调节方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311370132.9A CN117115210B (zh) | 2023-10-23 | 2023-10-23 | 基于物联网的智慧农业监控调节方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117115210A CN117115210A (zh) | 2023-11-24 |
CN117115210B true CN117115210B (zh) | 2024-01-26 |
Family
ID=88805926
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311370132.9A Active CN117115210B (zh) | 2023-10-23 | 2023-10-23 | 基于物联网的智慧农业监控调节方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117115210B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117372967B (zh) * | 2023-12-06 | 2024-03-26 | 广东申创光电科技有限公司 | 基于物联网智慧路灯的远程监控方法、装置、设备及介质 |
CN117523617B (zh) * | 2024-01-08 | 2024-04-05 | 陕西安康玮创达信息技术有限公司 | 基于机器学习的虫害检测方法及系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021085757A1 (ko) * | 2019-10-31 | 2021-05-06 | 한국과학기술원 | 예외적 움직임에 강인한 비디오 프레임 보간 방법 및 그 장치 |
CN114640885A (zh) * | 2022-02-24 | 2022-06-17 | 影石创新科技股份有限公司 | 视频插帧方法、训练方法、装置和电子设备 |
CN114745545A (zh) * | 2022-04-11 | 2022-07-12 | 北京字节跳动网络技术有限公司 | 一种视频插帧方法、装置、设备和介质 |
CN116248955A (zh) * | 2022-12-30 | 2023-06-09 | 联通灵境视讯(江西)科技有限公司 | 一种基于ai抽帧补帧的vr云渲染图像增强方法 |
-
2023
- 2023-10-23 CN CN202311370132.9A patent/CN117115210B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021085757A1 (ko) * | 2019-10-31 | 2021-05-06 | 한국과학기술원 | 예외적 움직임에 강인한 비디오 프레임 보간 방법 및 그 장치 |
CN114640885A (zh) * | 2022-02-24 | 2022-06-17 | 影石创新科技股份有限公司 | 视频插帧方法、训练方法、装置和电子设备 |
CN114745545A (zh) * | 2022-04-11 | 2022-07-12 | 北京字节跳动网络技术有限公司 | 一种视频插帧方法、装置、设备和介质 |
CN116248955A (zh) * | 2022-12-30 | 2023-06-09 | 联通灵境视讯(江西)科技有限公司 | 一种基于ai抽帧补帧的vr云渲染图像增强方法 |
Non-Patent Citations (3)
Title |
---|
High frame-rate coherent diverging wave imaging with 2-d motion compensation;Luzhen Nie et al.;2018 IEEE International Ultrasonics Symposium (IUS);全文 * |
基于光流估计的复杂运动场景视频插帧算法研究;童超宇;中国优秀硕士学位论文信息科技辑;全文 * |
基于深度体素流的模糊视频插帧方法;林传健;邓炜;童同;高钦泉;;计算机应用(第03期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN117115210A (zh) | 2023-11-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN117115210B (zh) | 基于物联网的智慧农业监控调节方法 | |
CN109684924B (zh) | 人脸活体检测方法及设备 | |
CN106707296B (zh) | 一种基于双孔径光电成像系统的无人机检测与识别方法 | |
CN111046880B (zh) | 一种红外目标图像分割方法、系统、电子设备及存储介质 | |
CN108549892B (zh) | 一种基于卷积神经网络的车牌图像清晰化方法 | |
CN108288062B (zh) | 一种基于核相关滤波的目标跟踪方法 | |
CN109685045B (zh) | 一种运动目标视频跟踪方法及系统 | |
CN113947589B (zh) | 一种基于对抗生成网络的弹载图像去模糊方法 | |
CN111369597B (zh) | 一种基于多特征融合的粒子滤波目标跟踪方法 | |
CN110427922A (zh) | 一种基于机器视觉和卷积神经网络病虫害识别系统和方法 | |
CN112598713A (zh) | 一种基于深度学习的近岸海底鱼类检测、跟踪统计方法 | |
JP6789876B2 (ja) | 画素変更処理画像を用いて対象を追跡する装置、プログラム及び方法 | |
CN110992378B (zh) | 基于旋翼飞行机器人的动态更新视觉跟踪航拍方法及系统 | |
CN109902578B (zh) | 一种红外目标检测与跟踪方法 | |
CN112184757A (zh) | 运动轨迹的确定方法及装置、存储介质、电子装置 | |
CN116229335A (zh) | 基于图像数据的畜禽养殖场环境识别方法 | |
CN113344972B (zh) | 一种基于集约化养殖的鱼类轨迹预测方法 | |
CN108921003A (zh) | 基于卷积神经网络和图像形态学的无人机障碍物检测方法 | |
CN111932452A (zh) | 基于可见光图像增强的红外图像卷积神经网络超分辨方法 | |
CN112070181A (zh) | 一种基于图像流的协同检测方法及装置、存储介质 | |
Jung et al. | Multispectral fusion of rgb and nir images using weighted least squares and convolution neural networks | |
CN109389543A (zh) | 公交运营数据统计方法、系统、计算设备及存储介质 | |
CN114945071A (zh) | 一种回收机器内置摄像头拍照控制方法、装置及系统 | |
US20200364877A1 (en) | Scene segmentation using model subtraction | |
Ishak et al. | Weed detection utilizing quadratic polynomial and ROI techniques |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |