CN110689720A - 基于无人机的实时动态车流量检测方法 - Google Patents

基于无人机的实时动态车流量检测方法 Download PDF

Info

Publication number
CN110689720A
CN110689720A CN201910958943.8A CN201910958943A CN110689720A CN 110689720 A CN110689720 A CN 110689720A CN 201910958943 A CN201910958943 A CN 201910958943A CN 110689720 A CN110689720 A CN 110689720A
Authority
CN
China
Prior art keywords
image
unmanned aerial
traffic flow
aerial vehicle
real
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910958943.8A
Other languages
English (en)
Inventor
刘洋
时翔
敬皓
唐柯
赵赞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
CHENGDU SHINE TECHNOLOGY Co Ltd
Original Assignee
CHENGDU SHINE TECHNOLOGY Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by CHENGDU SHINE TECHNOLOGY Co Ltd filed Critical CHENGDU SHINE TECHNOLOGY Co Ltd
Priority to CN201910958943.8A priority Critical patent/CN110689720A/zh
Publication of CN110689720A publication Critical patent/CN110689720A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/065Traffic control systems for road vehicles by counting the vehicles in a section of the road or in a parking area, i.e. comparing incoming count with outgoing count

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Astronomy & Astrophysics (AREA)
  • Remote Sensing (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了基于无人机的实时动态车流量检测方法,通过无人机实时飞行,采集图像数据,再依次进行数据读取、车辆检测、图像拼接、车辆去重后得到特定地点的车辆总数;本申请在智慧城市建设中,无人机的可移动性在实时检测某区域内的车流量信息发挥了极其重要的作用,在调研高速拥堵路段,及时调整路况方案方面有积极的意义。

Description

基于无人机的实时动态车流量检测方法
技术领域
本发明涉及车流量检测技术领域,具体为基于无人机的实时动态车流量检测方法。
背景技术
无人驾驶飞机简称“无人机”,英文缩写为“UAV”,是利用无线电遥控设备和自备的程序控制装置操纵的不载人飞机,或者由车载计算机完全地或间歇地自主地操作。
无人机按应用领域,可分为军用与民用。军用方面,无人机分为侦察机和靶机。民用方面,无人机+行业应用,是无人机真正的刚需;目前在航拍、农业、植保、微型自拍、快递运输、灾难救援、观察野生动物、监控传染病、测绘、新闻报道、电力巡检、救灾、影视拍摄、制造浪漫等等领域的应用,大大的拓展了无人机本身的用途,发达国家也在积极扩展行业应用与发展无人机技术。
现有技术的车流量检测通常是通过路面上一条基准线,统计经过这条基准线的车辆进行统计,但是不能统计出此路口处现在的车辆总数。
为了解决以上问题我方研发出了基于无人机的实时动态车流量检测方法。
发明内容
本发明的目的就在于为了解决上述问题而提供基于无人机的实时动态车流量检测方法。
本发明通过以下技术方案来实现上述目的:
基于无人机的实时动态车流量检测方法,其特征在于,包括以下步骤:
S1、数据采集;通过无人机,针对用户需求,对特有路段进行数据采集,数据采集是采集路面的正射影像图,进入下一步骤;
S2、数据读取;每隔n帧取一次图像数据,进入下一步骤;
S3、车辆检测;通过对神经网络的设计和对车辆数据的训练,形成权重模型,即为需要加载的模型,通过此模型,实现对图像数据中的车辆检测,进入下一步骤;
S4、图像拼接;通过特征提取、特征匹配和图像融合进行图像拼接,进入下一步骤;
S5、车辆去重;在图像融合后,以其中一帧上所有车辆目标为模板,通过SAD算法进行邻域去重,进入下一步骤;
S6、如结束则得出车流量,如不结束则继续返回步骤S2。
本发明的有益效果在于:
本申请通过无人机实时飞行,采集图像数据,再依次进行数据读取、车辆检测、图像拼接、车辆去重后得到特定地点的车辆总数;本申请在智慧城市建设中,无人机的可移动性在实时检测某区域内的车流量信息发挥了极其重要的作用,在调研高速拥堵路段,及时调整路况方案方面有积极的意义。
附图说明
图1为本发明的流程示意图,
具体实施方式
下面结合附图对本发明作进一步说明:
实施例1,如图1所示;
基于无人机的实时动态车流量检测方法,包括以下步骤:
S1、数据采集;通过无人机,针对用户需求,对特有路段进行数据采集,数据采集是采集路面的正射影像图,对无人机的飞行高度根据视野范围内的车辆数据进行调整(对路面采集正射影像图,有利于后续特征匹配和图像拼接,要求飞行高度根据视野范围内的车辆数据进行调整,用以提高计算效率,车辆太多则单帧计算太慢,拼接去重时候会影响效率,车辆太少则总的帧数增多,单次处理数据量不足,浪费计算资源),进入下一步骤;
S2、数据读取;每隔n帧取一次图像数据(无人机是运动的,采集的数据流也是连续的,为达到效率和效果的平衡,增加判定条件帧数%n=0?,含义是数据是间隔的读取,即为每隔n帧取一次视频帧进行车辆检测等后续操作),进入下一步骤;
S3、车辆检测;通过对神经网络的设计和对车辆数据的训练,形成权重模型,即为需要加载的模型,通过此模型,实现对图像数据中的车辆检测,进入下一步骤;
S4、图像拼接;通过特征提取、特征匹配和图像融合进行图像拼接,
特征提取是通过改进的sift(尺度不变特征转换)的算法进行,过程如下:
一、高斯模糊;
通过高斯模糊进行模糊图像;N维空间正态分布方程为:
其中,e为一个定值,约为2.732,σ是正态分布的标准差;r为模糊半径;如二维模板大小为m*n,则模板上的元素(x,y)对应的高斯计算公式为:
Figure BDA0002228292610000032
二、构建高斯金字塔;
对图像进行不同尺度下的进行分层,总的层数n为:
n=log2{min(M,N)}-t,t∈[0,log2{min(M,N)})
其中,M,N分别为图像的宽和高;
三、高斯差分求极值;
D(x,y,σ)=(G(x,y,kσ)-G(x,y,σ))*I(x,y)
=L(x,y,kσ)-L(x,y,σ)
其中(x,y)为图像中的位置,表示横纵坐标点;L(x,y,kσ)为σ尺度下第k层的拉普拉斯核的卷积结果,G(x,y,σ)为σ尺度下第1层的高斯核卷积结果;G(x,y,kσ)为kσ尺度下第k层的高斯核卷积结果;
根据泰勒公式:
Figure BDA0002228292610000041
其中D(X)为X的函数表达,X=(x,y,σ)T表示对X求偏导,
Figure BDA0002228292610000043
表示对X求二次偏导,XT为X的转置;
求极值的条件为:
其中为离散函数的极值点,
Figure BDA0002228292610000046
的逆矩阵;
对应极值点方程为:
Figure BDA0002228292610000049
为X在极值点处值,
Figure BDA00022282926100000410
为离散函数的极值点,
Figure BDA00022282926100000411
的逆矩阵;
四、消除边缘响应;
DOG算子会产生较强的边缘响应,需要剔除不稳定的边缘响应点。获取特征点处的Hessian矩阵,主曲率通过一个2x2的Hessian矩阵H求出:
Figure BDA0002228292610000051
其中H为Hessian矩阵,DXX为x方向上的二阶导数,DXY为先在x方向上求导,然后y方向求导,DYY为y方向上的二阶导数;
H的特征值α和β代表x和y方向的梯度,H的迹和行列式计算方式为:
Tr(H)=Dxx+Dyy=α+β,
Det(H)=DxxDyy-(Dxy)2=αβ
其中,Tr(H)为矩阵H的迹,DXX为x方向上的二阶导数,DXY为先在x方向上求导,然后y方向求导,DYY为y方向上的二阶导数;
假设α是较大的特征值,而β是较小的特征值,令α=rβ,r为α和β的线性系数,则:
通过此比值限定一定阈值(Thr)来提出边缘响应点,即
Figure BDA0002228292610000053
的值为响应点,剔除该类响应点,其中Thr为阈值。
特征匹配包括:
一、主方向分配;
为了使描述符具有旋转不变性,需要利用图像的局部特征为给每一个关键点分配一个基准方向。使用图像梯度的方法求取局部结构的稳定方向。对于在DOG金字塔中检测出的关键点,采集其所在高斯金字塔图像3σ邻域窗口内像素的梯度的幅值和方向分布特征,σ为模糊参数,梯度的模值和方向如下:
Figure BDA0002228292610000054
θ(x,y)=tan-1((L(x,y+1)-Lx,y-1))/L(x+1,y)-L(x-1,y)))
其中,L(x,y)为图像中(x,y)处的像素值,m(x,y)为(x,y)处的梯度幅值,θ(x,y)为(x,y)处的梯度方向;
确定半径:
Figure BDA0002228292610000061
其中3σ_oct为所选区域内的子区域边长,d为所选区域边长,radius为图像区域半径;
坐标轴按主方向旋转:
其中(xt,yt)为(x,y)坐标旋转后的对应坐标,radius为图像区域半径,cosθ和sinθ分别为余弦和正弦值,θ为旋转角度;
二、按计算特征向量;
特征向量为128维,把每个梯度方向做分类,落于某个方向区域内则统计加1,统计结果为:H=(h1,h2,...,h128),做归一化的结果表达式为:
L=(l1,l2,...,l128)
Figure BDA0002228292610000063
其中,hi为描述向量H的i分量,表示H128维向量的和;
三、通过以下公式计算相似度,从而判定是否匹配点;
其中,cosγ为相似度,l1k表示第一个描述子的k个分量,l2k为第二个描述子的k个分量,
Figure BDA0002228292610000066
为128维的两个描述子的各分量积的累加和。
图像融合包括:
通过特征匹配的结果,对两幅图进行透视变换,根据透视变换的结果进行图像拼接和融合:
Figure BDA0002228292610000071
其中,
Figure BDA0002228292610000072
为仿射变换矩阵,(X,Y,Z)为(x,y,1)通过仿射变换的矩阵。
进入下一步骤;
S5、车辆去重;在图像融合后,以其中一帧上所有车辆目标为模板,通过SAD算法进行邻域去重,SAD算法进行邻域去重公式为:
其中,T为目标模板,(s,t)为模板中坐标点,S为检测的目标,D(i,j)表示在图像(i,j)中,S矩阵和T矩阵的差异表示相似度,通过此相似度来进行去重;进入下一步骤;
S6、如结束则得出车流量,如不结束则继续返回步骤S2。
以上仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围内。

Claims (6)

1.基于无人机的实时动态车流量检测方法,其特征在于,包括以下步骤:
S1、数据采集;通过无人机,针对用户需求,对特有路段进行数据采集,数据采集是采集路面的正射影像图,进入下一步骤;
S2、数据读取;每隔n帧取一次图像数据,进入下一步骤;
S3、车辆检测;通过对神经网络的设计和对车辆数据的训练,形成权重模型,即为需要加载的模型,通过此模型,实现对图像数据中的车辆检测,进入下一步骤;
S4、图像拼接;通过特征提取、特征匹配和图像融合进行图像拼接,进入下一步骤;
S5、车辆去重;在图像融合后,以其中一帧上所有车辆目标为模板,通过SAD算法进行邻域去重,进入下一步骤;
S6、如结束则得出车流量,如不结束则继续返回步骤S2。
2.根据权利要求1所述的基于无人机的实时动态车流量检测方法,其特征在于,在步骤S1中,对无人机的飞行高度根据视野范围内的车辆数据进行调整。
3.根据权利要求1所述的基于无人机的实时动态车流量检测方法,其特征在于,在步骤S4中,特征提取是通过改进的sift(尺度不变特征转换)的算法进行,过程如下:
一、高斯模糊;
通过高斯模糊进行模糊图像;N维空间正态分布方程为:
Figure FDA0002228292600000011
其中,σ是正态分布的标准差;r为模糊半径;
二、构建高斯金字塔;
对图像进行不同尺度下的进行分层,总的层数n为:
n=log2{min(M,N)}-t,t∈[0,log2{min(M,N)})
其中,M,N分别为图像的宽和高;
三、高斯差分求极值;
D(x,y,σ)=(G(x,y,kσ)-G(x,y,σ))*I(x,y)
=L(x,y,kσ)-L(x,y,σ)
其中(x,y)为图像中的位置,表示横纵坐标点;L(x,y,kσ)为σ尺度下第k层的拉普拉斯核的卷积结果,G(x,y,σ)为σ尺度下第1层的高斯核卷积结果;G(x,y,kσ)为kσ尺度下第k层的高斯核卷积结果;
根据泰勒公式:
其中D(X)为X的函数表达,X=(x,y,σ)T
Figure FDA0002228292600000022
表示对X求偏导,
Figure FDA0002228292600000023
表示对X求二次偏导,XT为X的转置;
求极值的条件为:
Figure FDA0002228292600000024
其中
Figure FDA0002228292600000025
为离散函数的极值点,
Figure FDA0002228292600000026
Figure FDA0002228292600000027
的逆矩阵;
对应极值点方程为:
Figure FDA0002228292600000028
Figure FDA0002228292600000029
为X在极值点处值,
Figure FDA00022282926000000210
为离散函数的极值点,
Figure FDA00022282926000000211
Figure FDA00022282926000000212
的逆矩阵;
四、消除边缘响应;
剔除不稳定的边缘响应点;获取特征点处的Hessian矩阵,主曲率通过一个2x2的Hessian矩阵H求出:
Figure FDA0002228292600000031
其中H为Hessian矩阵,DXX为x方向上的二阶导数,DXY为先在x方向上求导,然后y方向求导,DYY为y方向上的二阶导数;
H的特征值α和β代表x和y方向的梯度,H的迹和行列式计算方式为:
Tr(H)=Dxx+Dyy=α+β,
Det(H)=DxxDyy-(Dxy)2=αβ
其中,Tr(H)为矩阵H的迹,DXX为x方向上的二阶导数,DXY为先在x方向上求导,然后y方向求导,DYY为y方向上的二阶导数;
假设α是较大的特征值,而β是较小的特征值,令α=rβ,r为α和β的线性系数,则:
Figure FDA0002228292600000032
通过此比值限定一定阈值(Thr)来提出边缘响应点,即
Figure FDA0002228292600000033
的值为响应点,剔除该类响应点,其中Thr为阈值。
4.根据权利要求3所述的基于无人机的实时动态车流量检测方法,其特征在于,在步骤S4中,特征匹配包括:
一、主方向分配;
利用图像的局部特征为给每一个关键点分配一个基准方向,使用图像梯度的方法求取局部结构的稳定方向;对于在DOG金字塔中检测出的关键点,采集其所在高斯金字塔图像3σ邻域窗口内像素的梯度的幅值和方向分布特征,σ为模糊参数,梯度的模值和方向如下:
θ(x,y)=tan-1((L(x,y+1)-L(x,y-1))/L(x+1,y)-L(x-1,y)))
其中,L(x,y)为图像中(x,y)处的像素值,m(x,y)为(x,y)处的梯度幅值,θ(x,y)为(x,y)处的梯度方向;
确定半径:
Figure FDA0002228292600000042
其中3σ_oct为所选区域内的子区域边长,d为所选区域边长,radius为图像区域半径;
坐标轴按主方向旋转:
Figure FDA0002228292600000043
其中(xt,yt)为(x,y)坐标旋转后的对应坐标,radius为图像区域半径,cosθ和sinθ分别为余弦和正弦值,θ为旋转角度;
二、按计算特征向量;
特征向量为128维,把每个梯度方向做分类,落于某个方向区域内则统计加1,统计结果为:H=(h1,h2,...,h128),做归一化的结果表达式为:
L=(l1,l2,...,l128)
Figure FDA0002228292600000044
其中,hi为描述向量H的i分量,表示H128维向量的和;
三、通过以下公式计算相似度,从而判定是否匹配点;
Figure FDA0002228292600000046
其中,cosγ为相似度,l1k表示第一个描述子的k个分量,l2k为第二个描述子的k个分量,
Figure FDA0002228292600000051
为128维的两个描述子的各分量积的累加和。
5.根据权利要求4所述的基于无人机的实时动态车流量检测方法,其特征在于,在步骤S4中,图像融合包括:
通过特征匹配的结果,对两幅图进行透视变换,根据透视变换的结果进行图像拼接和融合:
Figure FDA0002228292600000052
其中,
Figure FDA0002228292600000053
为仿射变换矩阵,(X,Y,Z)为(x,y,1)通过仿射变换的矩阵。
6.根据权利要求1所述的基于无人机的实时动态车流量检测方法,其特征在于,在步骤S5中,车辆去重包括:
用SAD算法进行邻域去重公式为:
Figure FDA0002228292600000054
其中,T为目标模板,(s,t)为模板中坐标点,S为检测的目标,D(i,j)表示在图像(i,j)中,S矩阵和T矩阵的差异表示相似度,通过此相似度来进行去重。
CN201910958943.8A 2019-10-10 2019-10-10 基于无人机的实时动态车流量检测方法 Pending CN110689720A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910958943.8A CN110689720A (zh) 2019-10-10 2019-10-10 基于无人机的实时动态车流量检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910958943.8A CN110689720A (zh) 2019-10-10 2019-10-10 基于无人机的实时动态车流量检测方法

Publications (1)

Publication Number Publication Date
CN110689720A true CN110689720A (zh) 2020-01-14

Family

ID=69112153

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910958943.8A Pending CN110689720A (zh) 2019-10-10 2019-10-10 基于无人机的实时动态车流量检测方法

Country Status (1)

Country Link
CN (1) CN110689720A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113269347A (zh) * 2021-03-31 2021-08-17 安徽农业大学 一种基于随机森林的高校快递网络节点流量预测方法
CN114627405A (zh) * 2022-02-14 2022-06-14 苏州大学 一种车辆集成视觉识别方法
CN115620515A (zh) * 2022-09-30 2023-01-17 深圳技术大学 基于无人机视频的互通立交交通量的采集方法及相关装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102436738A (zh) * 2011-09-26 2012-05-02 同济大学 一种基于无人机的交通监测装置
CN107248296A (zh) * 2017-07-13 2017-10-13 南京航空航天大学 一种基于无人机和时序特征的视频交通流量统计方法
CN107301369A (zh) * 2017-09-04 2017-10-27 南京航空航天大学 基于航拍图像的道路交通拥堵分析方法
CN107424416A (zh) * 2017-06-19 2017-12-01 深圳市创艺工业技术有限公司 基于无人机的路段交通流量监测系统
CN107730880A (zh) * 2016-08-10 2018-02-23 操轶 一种基于无人飞行器的拥堵监测方法和无人飞行器
CN108710875A (zh) * 2018-09-11 2018-10-26 湖南鲲鹏智汇无人机技术有限公司 一种基于深度学习的航拍公路车辆计数方法及装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102436738A (zh) * 2011-09-26 2012-05-02 同济大学 一种基于无人机的交通监测装置
CN107730880A (zh) * 2016-08-10 2018-02-23 操轶 一种基于无人飞行器的拥堵监测方法和无人飞行器
CN107424416A (zh) * 2017-06-19 2017-12-01 深圳市创艺工业技术有限公司 基于无人机的路段交通流量监测系统
CN107248296A (zh) * 2017-07-13 2017-10-13 南京航空航天大学 一种基于无人机和时序特征的视频交通流量统计方法
CN107301369A (zh) * 2017-09-04 2017-10-27 南京航空航天大学 基于航拍图像的道路交通拥堵分析方法
CN108710875A (zh) * 2018-09-11 2018-10-26 湖南鲲鹏智汇无人机技术有限公司 一种基于深度学习的航拍公路车辆计数方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
何敬: "基于点线特征匹配的无人机影像拼接技术", 《中国博士学位论文全文数据库(电子期刊)基础科学辑》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113269347A (zh) * 2021-03-31 2021-08-17 安徽农业大学 一种基于随机森林的高校快递网络节点流量预测方法
CN113269347B (zh) * 2021-03-31 2023-05-30 安徽农业大学 一种基于随机森林的高校快递网络节点流量预测方法
CN114627405A (zh) * 2022-02-14 2022-06-14 苏州大学 一种车辆集成视觉识别方法
CN114627405B (zh) * 2022-02-14 2022-11-18 苏州大学 一种车辆集成视觉识别方法
CN115620515A (zh) * 2022-09-30 2023-01-17 深圳技术大学 基于无人机视频的互通立交交通量的采集方法及相关装置
CN115620515B (zh) * 2022-09-30 2023-09-26 深圳技术大学 基于无人机视频的互通立交交通量的采集方法及相关装置

Similar Documents

Publication Publication Date Title
CN111079556B (zh) 一种多时相无人机视频图像变化区域检测及分类方法
CN110966991B (zh) 一种无控制点下的单幅无人机影像定位方法
Zhao et al. Detection, tracking, and geolocation of moving vehicle from uav using monocular camera
Qin et al. 3D change detection–approaches and applications
Tao et al. Dense point cloud extraction from UAV captured images in forest area
Abd-Elrahman et al. Development of pattern recognition algorithm for automatic bird detection from unmanned aerial vehicle imagery
CN107481315A (zh) 一种基于Harris‑SIFT‑BRIEF算法的单目视觉三维环境重建方法
CN106529538A (zh) 一种飞行器的定位方法和装置
CN110689720A (zh) 基于无人机的实时动态车流量检测方法
CN109934131A (zh) 一种基于无人机的小目标检测方法
DE112011103690T5 (de) Erkennung und Verfolgung sich bewegender Objekte
Shen et al. Biomimetic vision for zoom object detection based on improved vertical grid number YOLO algorithm
CN109214254B (zh) 一种确定机器人位移的方法及装置
Li et al. Aruco marker detection under occlusion using convolutional neural network
CN108960190A (zh) 基于fcn图像序列模型的sar视频目标检测方法
Müller et al. Squeezeposenet: Image based pose regression with small convolutional neural networks for real time uas navigation
CN116740135A (zh) 红外弱小目标跟踪方法、装置、电子设备及存储介质
Martins et al. Image segmentation and classification with SLIC Superpixel and convolutional neural network in forest context
Zhang et al. UAV‐derived imagery for vegetation structure estimation in rangelands: validation and application
Kan et al. Target localization based on cross-view matching between UAV and satellite
CN117557780A (zh) 一种机载多模态学习的目标检测算法
CN106096650B (zh) 基于收缩自编码器的sar图像分类方法
Božić-Štulić et al. Complete model for automatic object detection and localisation on aerial images using convolutional neural networks
Latif Improving stability of aerial videos acquired through vision sensors onboard UAVs for applications in precision agriculture
Yeh et al. GPU acceleration of UAV image splicing using oriented fast and rotated brief combined with PCA

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20200114