CN108320510B - 一种基于无人机航拍视频交通信息统计方法及系统 - Google Patents

一种基于无人机航拍视频交通信息统计方法及系统 Download PDF

Info

Publication number
CN108320510B
CN108320510B CN201810286400.1A CN201810286400A CN108320510B CN 108320510 B CN108320510 B CN 108320510B CN 201810286400 A CN201810286400 A CN 201810286400A CN 108320510 B CN108320510 B CN 108320510B
Authority
CN
China
Prior art keywords
target
frame
video
tracking
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810286400.1A
Other languages
English (en)
Other versions
CN108320510A (zh
Inventor
张亮
熊伟成
李学万
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Smart Mapping Tech Co ltd
Original Assignee
Shenzhen Smart Mapping Tech Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Smart Mapping Tech Co ltd filed Critical Shenzhen Smart Mapping Tech Co ltd
Priority to CN201810286400.1A priority Critical patent/CN108320510B/zh
Publication of CN108320510A publication Critical patent/CN108320510A/zh
Application granted granted Critical
Publication of CN108320510B publication Critical patent/CN108320510B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Astronomy & Astrophysics (AREA)
  • Remote Sensing (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Image Analysis (AREA)

Abstract

本发明实施例公开了一种基于无人机航拍视频交通信息统计方法及系统,所述统计方法包括:收集无人机高分辨率航拍视频;通过深度学习算法YOLO‑9000对高分辨率航拍视频中起始帧作多目标检测,根据合并规则对多个剖分对象中的检测目标进行整体合并;根据目标检测结果作为视频帧目标跟踪的初始跟踪目标,将两帧之间的目标位移进行目标跟踪;通过目标检测与目标跟踪的结果对目标进行更新,实时准确跟踪;根据跟踪结果进行后处理及经过视帧图像像方空间与物方空间的转换获取每个像素的实际空间坐标,目标在时间序列中的空间轨迹计算交通信息,获取道路交通流信息。

Description

一种基于无人机航拍视频交通信息统计方法及系统
技术领域
本发明涉及航拍视频的智能分析领域,尤其涉及一种基于无人机航拍视频交通信息统计方法及系统。
背景技术
随着城市汽车数量的快速增加,交通堵塞已经成了城市交通领域的难题。特别是近几年,由于城市规划考虑不够长远,忽略城市基础设施建设的重要性,道路交通管理技术落后,导致道路拥堵现象和交通事故频发,使得道路交通拥堵成为中国大中型城市最难解决的问题之一。道路拥挤、交通阻塞、乘车难、行车难、行路难等问题影响着人们的出行和城市的发展。如何实现高效的交通调度、引导规范的交通行为、减少频发的交通事故已经刻不容缓,是我们急切需要解决的问题。将计算机科学与通信等高新技术运用于交通监控管理与车辆控制,以保障交通顺畅及行车安全,从而改善环境质量,促进经济发展的智能交通系统也随之应运而生。
在智能交通系统中,实时获取交通车流量统计技术为智能交通系统提供基础决策数据,有助于交通管理部门对交通进行优化调度,有助于驾驶员更好的选择出行路线,城市规划者可以根据车流量参数做出对道路是否进行加宽的规划,因此交通车流量统计的研究具有十分重要的理论意义及潜在的应用价值。
传统交通车流量统计方法有人工计数法、电磁感应线圈法、超声波检测器法、微波检测器法和红外线检测器法等多种方式,以及基于图像处理的视频车辆检测法。这些方法中,人工计数法需安排至少一人到每个路口,通过人工判别的方法对车流量计数,该方法需要耗费大量的人力,且人工计数的准确性难以确定,也无法获取车速等信息;电磁感应线圈法通过在道路中央埋设电感感应线圈来对路过该路段的车辆进行检测,该方法需要对道路进行重新改装,耗费人力物力,也无法获取车速等信息,无法大面积的推广;超声波检测器法、微波检测器法和红外线检测器法等这些方法通过超声波传感器、微波传感器和红外传感器获取车辆信息,这些方法无法获取车辆的类别。基于图像处理的视频车辆检测法方式近年来发展迅速,这种方法利用安装在交通道路两侧或者交通路口处的监控摄像头获取的交通视频数据,通过计算机视觉等方法对运动目标进行检测以获取交通流量信息,该方法具有检测区域大、系统设置灵活等突出的优点,视频检测方法已成为智能交通系统领域中车辆统计技术的一个研究热点。
传统的基于视频图像的运动目标检测方法的视频图像主要为安装在交通道路两侧或者交通路口处的监控摄像头,由于摄像头位置、视野等的限制,很难由一路摄像头获取待统计区域内所有车辆的图像信息。
近年来,国内外学者对基于视频图像的运动目标检测进行了广泛的研究。传统的车辆检测方法有:背景差分法、时间差分法、光流法等。这些方法中,背景差分法由于其运算量相对较少,并且可以加入背景更新技术实现背景自适应更新,能够较精确的分割出移动物体,从而在运动目标检测分割等方面得到广泛的应用,同时由于其自身的缺点,广大科学工作者也根据不同需要对其进行了改进。时间差分方法是在连续的图像序列中两个或三个相邻帧间采用基于像素的帧间差分,但其一般不能完全提取出所有相关的特征像素点,在运动实体内部容易产生空洞现象。基于光流方法的运动检测由于其运算量相当大,抗噪性能差,依赖特别的硬件装置而使其应用受到了限制。目前基于固定监控摄像头获取的监控视频的交通车流量自动统计方法不能取得较为理想的结果。
发明内容
本发明实施例所要解决的技术问题在于,提供一种基于无人机航拍视频交通信息统计方法及系统,高效、快速、方便统计整个区域内所有车流量信息。
为了解决上述技术问题,本发明实施例提出了一种基于无人机航拍视频交通信息统计方法,所述实现方法包括:
航拍视频采集步骤:采集无人机高分辨率航拍视频,将无人机传输的模拟信号转换成数字视频;
视频起始帧检测步骤:对高分辨率航拍视频中起始帧作多目标检测;将单帧图像按规则剖分成多张图像,通过采用深度学习算法YOLO-9000对高分辨率航拍视频中起始帧作多目标检测,并对多个剖分对象中的检测目标进行整体合并得到检测结果;
视频帧跟踪步骤:根据将目标检测结果作为视频帧目标跟踪的初始跟踪目标,并根据两帧之间的目标位移进行目标跟踪;将目标框表示被跟踪的目标,并在连续的相邻视频帧之间估计目标运动;
视频帧更新输出步骤:通过目标检测与目标跟踪的结果对目标进行更新,以达到目标的实时准确跟踪,获取基于高分辨率航拍视频中目标的跟踪信息,即跟踪目标在视频帧序列中每一帧图像中的位置和种类;
交通信息统计步骤:根据跟踪的结果进行后处理及经过视帧图像像方空间与物方空间的转换获取每个像素的实际空间坐标,目标在时间序列中的空间轨迹计算交通信息,获取道路交通流信息。
相应地,本发明实施例还提供了一种基于无人机航拍视频交通信息统计系统,包括:
航拍视频采集模块:采集无人机高分辨率航拍视频,将无人机传输的模拟信号转换成数字视频;
视频起始帧检测模块:对高分辨率航拍视频中起始帧作多目标检测;将单帧图像按规则剖分成多张图像,通过采用深度学习算法YOLO-9000对高分辨率航拍视频中起始帧作多目标检测,并对多个剖分对象中的检测目标进行整体合并得到检测结果;
视频帧跟踪模块:根据将目标检测结果作为视频帧目标跟踪的初始跟踪目标,并根据两帧之间的目标位移进行目标跟踪;将目标框表示被跟踪的目标,并在连续的相邻视频帧之间估计目标运动;
视频帧更新输出模块:通过目标检测与目标跟踪的结果对目标进行更新,以达到目标的实时准确跟踪,获取基于高分辨率航拍视频中目标的跟踪信息,即跟踪目标在视频帧序列中每一帧图像中的位置和种类;
交通信息统计模块:根据跟踪的结果进行后处理及经过视帧图像像方空间与物方空间的转换获取每个像素的实际空间坐标,目标在时间序列中的空间轨迹计算交通信息,获取道路交通流信息。
本发明实施例通过提出一种基于无人机航拍视频交通信息统计方法及系统,包括步骤1~步骤10,基于深度学习算法YOLO-9000的高分辨率图像多目标检测、跟踪及视频帧图像像方空间与物方空间的转换,解决了高分辨率图像小目标检测和克服了无人机不可避免的位置偏移所造成的视频位移的问题,进而到达了提高目标提取精度、多目标检测的鲁棒性及使像素坐标与空间坐标得到统一的技术效果。
附图说明
图1是本发明实施例的基于无人机航拍视频交通信息统计方法流程图。
图2是本发明实施例的单帧图像剖分图。
图3是本发明实施例的IOU计算图。
图4是本发明实施例的像方空间转物方空间原理图。
图5是本发明实施例的基于无人机航拍视频交通信息统计系统结构示意图。
具体实施方式
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互结合,下面结合附图和具体实施例对本发明作进一步详细说明。
本发明实施例中若有方向性指示(诸如上、下、左、右、前、后……)仅用于解释在某一特定姿态(如附图所示)下各部件之间的相对位置关系、运动情况等,如果该特定姿态发生改变时,则该方向性指示也相应地随之改变。
另外,在本发明中若涉及“第一”、“第二”等的描述仅用于描述目的,而不能理解为指示或暗示其相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。
请参照图1~图4,本发明实施例的一种基于无人机航拍视频交通信息统计方法,所述统计方法包括:
航拍视频采集步骤:采集无人机高分辨率航拍视频,将无人机传输的模拟信号转换成数字视频;
视频起始帧检测步骤:对高分辨率航拍视频中起始帧作多目标检测;将单帧图像按规则剖分成多张图像,通过采用深度学习算法YOLO-9000对高分辨率航拍视频中起始帧作多目标检测,并对多个剖分对象中的检测目标进行整体合并得到检测结果;
视频帧跟踪步骤:根据将目标检测结果作为视频帧目标跟踪的初始跟踪目标,并根据两帧之间的目标位移进行目标跟踪;将目标框表示被跟踪的目标,并在连续的相邻视频帧之间估计目标运动;
视频帧更新输出步骤:通过目标检测与目标跟踪的结果对目标进行更新,以达到目标的实时准确跟踪,获取基于高分辨率航拍视频中目标的跟踪信息,即跟踪目标在视频帧序列中每一帧图像中的位置和种类;
交通信息统计步骤:根据跟踪的结果进行后处理及经过视帧图像像方空间与物方空间的转换获取每个像素的实际空间坐标,目标在时间序列中的空间轨迹计算交通信息,获取道路交通流信息。
作为一种实施方式,视频起始帧检测步骤包括:
单帧图像剖分子步骤:对视频中单帧图像按规则剖分成多张图像提取,设单帧图像的高与宽分别为W和H,剖分图像的宽和高分别为w和h,宽度与高度之间的重叠间隔分别为△w和△h,则共有剖分图像的个数Pn为:
Figure GDA0002655079380000051
图像多目标检测子步骤:深度学习算法YOLO-9000对高分辨率航拍视频中起始帧作多目标检测,维度聚类过程中YOLO-9000算法采用的是k-means聚类算法,选取最佳尺寸的候选框;k-means聚类算法需要提前指定聚类簇的个数k,且其对种子点的初始化敏感,采用k-means++算法及新的距离计算公式;
设通过卷积获取的候选框集合为
Figure GDA0002655079380000052
①从候选框集合
Figure GDA0002655079380000053
中随机选择一个候选框作为第一个聚类中心;
②对于候选框集合
Figure GDA0002655079380000054
计算
Figure GDA0002655079380000055
中每一个候选框与最近聚类中心即已选择的聚类中心的距离D(x);
Figure GDA0002655079380000056
为候选框集合
Figure GDA0002655079380000057
中任意一个候选框,
Figure GDA0002655079380000058
为候选框集合
Figure GDA0002655079380000059
中的一个聚类中心,则μi与μk之间的距离D(x)ik为:
D(x)ik=1-f[IOU(μik)];
其中f(·)为Sigmoid激活函数,其公式为:
Figure GDA00026550793800000510
IOU(·)为检测评价函数,即模型产生的目标窗口和原来标记窗口的交叠率;
设候选框μi的范围为(xi,yi,wi,hi),候选框μk的范围为(xk,yk,wk,hk),候选框μi与候选框μk的IOU指即为两矩形框的交集与并集之间的除值,即:
Figure GDA00026550793800000511
③选择一个新的候选框作为新的聚类中心,选择的原则是:D(x)较大的候选框,被选取作为聚类中心的概率较大;
④重复②③直到m个聚类中心被选出来;
⑤根据m个初始的聚类中心来运行标准的k-means聚类算法;
目标合并子步骤:根据图像多目标检测子步骤对每个剖分的进行多目标检测,检测图像中的不同种类的车辆,剖分图像之间存在重叠,且剖分图像的边界地区也存在待检测的车辆,将单帧图像中所有的剖分图像的已检测目标进行合并,假设任意两个已检测目标分别为ti,tj,则ti,tj是否为同一目标由以下公式判定:
ti,tj∈同一目标IF IOU(ti,tj)≥0.8&&ti,tj∈同一种类。
作为一种实施方式,所述视频帧跟踪步骤包括:
子步骤301.在上一帧的目标框中选择若干个像素点作为特征点,在下一帧中寻找上一帧中的特征点在当前帧中的对应位置;
子步骤302.将特征点在相邻两帧之间的位移变化进行排序,得到位移变化的中值,利用该中值,得到小于中值的50%的特征点,将这50%个特征点作为下一帧的特征点,并依次进行下去;
子步骤303.当目标完全被遮挡或者消失于视野,则不可避免地出现跟踪失败,采用如下策略避免:设di为某一个特征点的移动位移,dm表示位移中值,则残差定义为|di-dm|;如果残差大于10个像素,则跟踪失败。
作为一种实施方式,所述目标状态的更新与输出步骤包括:
目标状态的更新与输出子步骤:
子步骤401.当视频跟踪N帧(N一般可取5)后,对当前跟踪帧图像做目标检测,设通过视频帧跟踪得到的当前目标集合为
Figure GDA0002655079380000061
通过目标检测得到的当前目标集合为
Figure GDA0002655079380000062
子步骤402计算视频帧跟踪目标集合
Figure GDA0002655079380000063
中每一个目标到目标检测集合
Figure GDA0002655079380000064
的距离,设ti
Figure GDA0002655079380000065
的距离为Di,则有:
Figure GDA0002655079380000066
其中f(·)为公式
Figure GDA0002655079380000067
IOU(·)为公式
Figure GDA0002655079380000068
即跟踪目标集合
Figure GDA0002655079380000069
中每一个目标到目标检测集合
Figure GDA00026550793800000610
的距离为该目标到集合
Figure GDA00026550793800000611
中距离值的最小值;
子步骤403.当视频帧跟踪目标集合
Figure GDA00026550793800000612
中目标ti
Figure GDA00026550793800000613
中dk的距离Di满足公式
Figure GDA00026550793800000614
时,且Di的值大于0.8,则ti与dk为同一目标,同时更新ti的值,使其值与dk相等;当Di小于0.8时,则ti与dk不为同一目标,则在集合
Figure GDA0002655079380000071
中舍弃ti;在计算集合
Figure GDA0002655079380000072
中每一个目标到集合
Figure GDA0002655079380000073
的距离时,集合
Figure GDA0002655079380000074
中存在未满足的目标,则这些目标为新增加的目标,将这些目标加入集合
Figure GDA0002655079380000075
中参与目标跟踪运算,重复子步骤401、402、403直至视频帧计算完毕;
通过子步骤401、402、403,获取无人机高分辨率航拍视频中车辆目标跟踪的信息,即跟踪目标在视频帧序列中每一帧图像中的位置和种类。
作为一种实施方式,所述交通信息统计步骤包括:
设经过无人机高分辨率航拍视频车辆目标跟踪获取每个目标为
Figure GDA0002655079380000076
Figure GDA0002655079380000077
其中ci为视频跟踪的车辆目标;设车辆目标ci在视频帧序列中的位置依次为
Figure GDA0002655079380000078
其中
Figure GDA0002655079380000079
为车辆目标ci在视频帧tk时的位置,设车辆目标的类别分别为
Figure GDA00026550793800000710
则车辆目标ci在视频帧tk时的位置
Figure GDA00026550793800000711
的值为:
Figure GDA00026550793800000712
其中pd为车辆目标ci的类别,
Figure GDA00026550793800000713
Figure GDA00026550793800000714
分别为车辆目标ci在视频帧图像中边框的像素中心横纵坐标;
无人机通常自带全球定位系统(GPS)可获取每时刻摄像机的空间位置、离地高以及对应的时间;设车辆目标ci在视频帧tk时通过GPS获取的摄影中心的空间位置、离地高分别为
Figure GDA00026550793800000715
Figure GDA00026550793800000716
摄像机焦距为f,车辆目标ci在视频帧tk时的位置
Figure GDA00026550793800000717
所对应的空间位置为
Figure GDA00026550793800000718
视频帧图像的长宽分别为W和H,则有:
Figure GDA00026550793800000719
Figure GDA00026550793800000720
通过上式得到车辆目标ci在视频帧tk时的空间位置
Figure GDA00026550793800000721
请参照图5,基于无人机航拍视频交通信息统计系统,包括:
航拍视频采集模块:采集无人机高分辨率航拍视频,将无人机传输的模拟信号转换成数字视频;
视频起始帧检测模块:对高分辨率航拍视频中起始帧作多目标检测;将单帧图像按规则剖分成多张图像,通过采用深度学习算法YOLO-9000对高分辨率航拍视频中起始帧作多目标检测,并对多个剖分对象中的检测目标进行整体合并得到检测结果;
视频帧跟踪模块:根据将目标检测结果作为视频帧目标跟踪的初始跟踪目标,并根据两帧之间的目标位移进行目标跟踪;将目标框表示被跟踪的目标,并在连续的相邻视频帧之间估计目标运动;
视频帧更新输出模块:通过目标检测与目标跟踪的结果对目标进行更新,以达到目标的实时准确跟踪,获取基于高分辨率航拍视频中目标的跟踪信息,即跟踪目标在视频帧序列中每一帧图像中的位置和种类;
交通信息统计模块:根据跟踪的结果进行后处理及经过视帧图像像方空间与物方空间的转换获取每个像素的实际空间坐标,目标在时间序列中的空间轨迹计算交通信息,获取道路交通流信息。
作为一种实施方式,视频起始帧检测模块包括:
单帧图像剖分子模块:对视频中单帧图像按规则剖分成多张图像提取,设单帧图像的高与宽分别为W和H,剖分图像的宽和高分别为w和h,宽度与高度之间的重叠间隔分别为△w和△h,则共有剖分图像的个数Pn为:
Figure GDA0002655079380000081
图像多目标检测子模块:深度学习算法YOLO-9000对高分辨率航拍视频中起始帧作多目标检测,维度聚类过程中YOLO-9000算法采用的是k-means聚类算法,选取最佳尺寸的候选框;k-means聚类算法需要提前指定聚类簇的个数k,且其对种子点的初始化敏感,采用k-means++算法及新的距离计算公式;
设通过卷积获取的候选框集合为
Figure GDA0002655079380000082
①从候选框集合
Figure GDA0002655079380000083
中随机选择一个候选框作为第一个聚类中心;
②对于候选框集合
Figure GDA0002655079380000084
计算
Figure GDA0002655079380000085
中每一个候选框与最近聚类中心即已选择的聚类中心的距离D(x);
Figure GDA0002655079380000086
为候选框集合
Figure GDA0002655079380000087
中任意一个候选框,
Figure GDA0002655079380000088
为候选框集合
Figure GDA0002655079380000089
中的一个聚类中心,则μi与μk之间的距离D(x)ik为:
D(x)ik=1-f[IOU(μik)];
其中f(·)为Sigmoid激活函数,其公式为:
Figure GDA00026550793800000810
IOU(·)为检测评价函数,即模型产生的目标窗口和原来标记窗口的交叠率;
设候选框μi的范围为(xi,yi,wi,hi),候选框μk的范围为(xk,yk,wk,hk),候选框μi与候选框μk的IOU指即为两矩形框的交集与并集之间的除值,即:
Figure GDA0002655079380000091
③选择一个新的候选框作为新的聚类中心,选择的原则是:D(x)较大的候选框,被选取作为聚类中心的概率较大;
④重复②③直到m个聚类中心被选出来;
⑤根据m个初始的聚类中心来运行标准的k-means聚类算法;
目标合并子模块:根据图像多目标检测子步骤对每个剖分的进行多目标检测,检测图像中的不同种类的车辆,剖分图像之间存在重叠,且剖分图像的边界地区也存在待检测的车辆,将单帧图像中所有的剖分图像的已检测目标进行合并,假设任意两个已检测目标分别为ti,tj,则ti,tj是否为同一目标由以下公式判定:
ti,tj∈同一目标IF IOU(ti,tj)≥0.8&&ti,tj∈同一种类。
作为一种实施方式,所述视频帧跟踪模块包括:
子模块801.在上一帧的目标框中选择若干个像素点作为特征点,在下一帧中寻找上一帧中的特征点在当前帧中的对应位置;
子模块802.将特征点在相邻两帧之间的位移变化进行排序,得到位移变化的中值,利用该中值,得到小于中值的50%的特征点,将这50%个特征点作为下一帧的特征点,并依次进行下去;
子模块803.当目标完全被遮挡或者消失于视野,则不可避免地出现跟踪失败,采用如下策略避免:设di为某一个特征点的移动位移,dm表示位移中值,则残差定义为|di-dm|;如果残差大于10个像素,则跟踪失败。
作为一种实施方式,所述目标状态的更新与输出模块包括:
目标状态的更新与输出子模块:
子模块901.当视频跟踪N帧(N一般可取5)后,对当前跟踪帧图像做目标检测,设通过视频帧跟踪得到的当前目标集合为
Figure GDA0002655079380000092
通过目标检测得到的当前目标集合为
Figure GDA0002655079380000093
子模块902.计算视频帧跟踪目标集合
Figure GDA0002655079380000094
中每一个目标到目标检测集合
Figure GDA0002655079380000095
的距离,设ti
Figure GDA0002655079380000096
的距离为Di,则有:
Figure GDA0002655079380000097
其中f(·)为公式
Figure GDA0002655079380000098
IOU(·)为公式
Figure GDA0002655079380000099
即跟踪目标集合
Figure GDA0002655079380000101
中每一个目标到目标检测集合
Figure GDA0002655079380000102
的距离为该目标到集合
Figure GDA0002655079380000103
中距离值的最小值;
子模块903.当视频帧跟踪目标集合
Figure GDA0002655079380000104
中目标ti
Figure GDA0002655079380000105
中dk的距离Di满足公式
Figure GDA0002655079380000106
时,且Di的值大于0.8,则ti与dk为同一目标,同时更新ti的值,使其值与dk相等;当Di小于0.8时,则ti与dk不为同一目标,则在集合
Figure GDA0002655079380000107
中舍弃ti;在计算集合
Figure GDA0002655079380000108
中每一个目标到集合
Figure GDA0002655079380000109
的距离时,集合
Figure GDA00026550793800001010
中存在未满足的目标,则这些目标为新增加的目标,将这些目标加入集合
Figure GDA00026550793800001011
中参与目标跟踪运算,重复子模块901、902、903直至视频帧计算完毕;通过子模块901、902、903,获取基于无人机高分辨率交通航拍视频中车辆目标跟踪的信息,即跟踪目标在视频帧序列中每一帧图像中的位置和种类。
作为一种实施方式,所述交通信息统计模块包括:
设经过无人机高分辨率航拍视频车辆目标跟踪获取每个目标为
Figure GDA00026550793800001012
Figure GDA00026550793800001013
其中ci为视频跟踪的车辆目标;设车辆目标ci在视频帧序列中的位置依次为
Figure GDA00026550793800001014
其中
Figure GDA00026550793800001015
为车辆目标ci在视频帧tk时的位置,设车辆目标的类别分别为
Figure GDA00026550793800001016
则车辆目标ci在视频帧tk时的位置
Figure GDA00026550793800001017
的值为:
Figure GDA00026550793800001018
其中pd为车辆目标ci的类别,
Figure GDA00026550793800001019
Figure GDA00026550793800001020
分别为车辆目标ci在视频帧图像中边框的像素中心横纵坐标;
无人机通常自带全球定位系统(GPS)可获取每时刻摄像机的空间位置、离地高以及对应的时间;设车辆目标ci在视频帧tk时通过GPS获取的摄影中心的空间位置、离地高分别为
Figure GDA00026550793800001021
Figure GDA00026550793800001022
摄像机焦距为f,车辆目标ci在视频帧tk时的位置
Figure GDA00026550793800001023
所对应的空间位置为
Figure GDA00026550793800001024
视频帧图像的长宽分别为W和H,则有:
Figure GDA00026550793800001025
Figure GDA00026550793800001026
通过上式得到车辆目标ci在视频帧tk时的空间位置
Figure GDA00026550793800001027
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同范围限定。

Claims (8)

1.一种基于无人机航拍视频交通信息统计方法,应用在交通信息自动统计系统中,其特征在于,所述统计方法包括:
航拍视频采集步骤:采集无人机高分辨率航拍视频,将无人机传输的模拟信号转换成数字视频;
视频起始帧检测步骤:对高分辨率航拍视频中起始帧作多目标检测;将单帧图像按规则剖分成多张图像,通过采用深度学习算法YOLO-9000对高分辨率航拍视频中起始帧作多目标检测,并对多个剖分对象中的检测目标进行整体合并得到检测结果;
视频帧跟踪步骤:根据将目标检测结果作为视频帧目标跟踪的初始跟踪目标,并根据两帧之间的目标位移进行目标跟踪;将目标框表示被跟踪的目标,并在连续的相邻视频帧之间估计目标运动;
视频帧更新输出步骤:通过目标检测与目标跟踪的结果对目标进行更新,以达到目标的实时准确跟踪,获取基于高分辨率航拍视频中目标的跟踪信息,即跟踪目标在视频帧序列中每一帧图像中的位置和种类;
交通信息统计步骤:根据跟踪的结果进行后处理及经过视帧图像像方空间与物方空间的转换获取每个像素的实际空间坐标,目标在时间序列中的空间轨迹计算交通信息,获取道路交通流信息;
视频起始帧检测步骤包括:
单帧图像剖分子步骤:对视频中单帧图像按规则剖分成多张图像提取,设单帧图像的高与宽分别为W和H,剖分图像的宽和高分别为w和h,宽度与高度之间的重叠间隔分别为△w和△h,则共有剖分图像的个数Pn为:
Figure FDA0002655079370000011
图像多目标检测子步骤:深度学习算法YOLO-9000对高分辨率航拍视频中起始帧作多目标检测,维度聚类过程中YOLO-9000算法采用的是k-means聚类算法,选取最佳尺寸的候选框;k-means聚类算法需要提前指定聚类簇的个数k,且其对种子点的初始化敏感,采用k-means++算法及新的距离计算公式;
设通过卷积获取的候选框集合为
Figure FDA0002655079370000012
①从候选框集合
Figure FDA0002655079370000013
中随机选择一个候选框作为第一个聚类中心;
②对于候选框集合
Figure FDA0002655079370000021
计算
Figure FDA0002655079370000022
中每一个候选框与最近聚类中心即已选择的聚类中心的距离D(x);
Figure FDA0002655079370000023
为候选框集合
Figure FDA0002655079370000024
中任意一个候选框,
Figure FDA0002655079370000025
为候选框集合
Figure FDA0002655079370000026
中的一个聚类中心,则μi与μk之间的距离D(x)ik为:
D(x)ik=1-f[IOU(μik)];
其中f(·)为Sigmoid激活函数,其公式为:
Figure FDA0002655079370000027
IOU(·)为检测评价函数,即模型产生的目标窗口和原来标记窗口的交叠率;
设候选框μi的范围为(xi,yi,wi,hi),候选框μk的范围为(xk,yk,wk,hk),候选框μi与候选框μk的IOU指即为两矩形框的交集与并集之间的除值,即:
Figure FDA0002655079370000028
③选择一个新的候选框作为新的聚类中心,选择的原则是:D(x)较大的候选框,被选取作为聚类中心的概率较大;
④重复②③直到m个聚类中心被选出来;
⑤根据m个初始的聚类中心来运行标准的k-means聚类算法;
目标合并子步骤:根据图像多目标检测子步骤对每个剖分的进行多目标检测,检测图像中的不同种类的车辆,剖分图像之间存在重叠,且剖分图像的边界地区也存在待检测的车辆,将单帧图像中所有的剖分图像的已检测目标进行合并,假设任意两个已检测目标分别为ti,tj,则ti,tj是否为同一目标由以下公式判定:
ti,tj∈同一目标IF IOU(ti,tj)≥0.8&&ti,tj∈同一种类。
2.如权利要求1所述的基于无人机航拍视频交通信息统计方法,其特征在于,所述视频帧跟踪步骤包括:
子步骤301.在上一帧的目标框中选择若干个像素点作为特征点,在下一帧中寻找上一帧中的特征点在当前帧中的对应位置;
子步骤302.将特征点在相邻两帧之间的位移变化进行排序,得到位移变化的中值,利用该中值,得到小于中值的50%的特征点,将这50%个特征点作为下一帧的特征点,并依次进行下去;
子步骤303.当目标完全被遮挡或者消失于视野,则不可避免地出现跟踪失败,采用如下策略避免:设di为某一个特征点的移动位移,dm表示位移中值,则残差定义为|di-dm|;如果残差大于10个像素,则跟踪失败。
3.如权利要求1所述的基于无人机航拍视频交通信息统计方法,其特征在于,所述目标状态的更新与输出步骤包括:
目标状态的更新与输出子步骤:
子步骤401.当视频跟踪N帧(N一般可取5)后,对当前跟踪帧图像做目标检测,设通过视频帧跟踪得到的当前目标集合为
Figure FDA0002655079370000031
通过目标检测得到的当前目标集合为
Figure FDA0002655079370000032
子步骤402.计算视频帧跟踪目标集合
Figure FDA0002655079370000033
中每一个目标到目标检测集合
Figure FDA0002655079370000034
的距离,设ti
Figure FDA0002655079370000035
的距离为Di,则有:
Figure FDA0002655079370000036
其中f(·)为公式
Figure FDA0002655079370000037
IOU(·)为公式
Figure FDA0002655079370000038
即跟踪目标集合
Figure FDA0002655079370000039
中每一个目标到目标检测集合
Figure FDA00026550793700000310
的距离为该目标到集合
Figure FDA00026550793700000311
中距离值的最小值;
子步骤403.当视频帧跟踪目标集合
Figure FDA00026550793700000312
中目标ti
Figure FDA00026550793700000313
中dk的距离Di满足公式
Figure FDA00026550793700000314
时,且Di的值大于0.8,则ti与dk为同一目标,同时更新ti的值,使其值与dk相等;当Di小于0.8时,则ti与dk不为同一目标,则在集合
Figure FDA00026550793700000315
中舍弃ti;在计算集合
Figure FDA00026550793700000316
中每一个目标到集合
Figure FDA00026550793700000317
的距离时,集合
Figure FDA00026550793700000318
中存在未满足的目标,则这些目标为新增加的目标,将这些目标加入集合
Figure FDA00026550793700000319
中参与目标跟踪运算,重复子步骤401、402、403直至视频帧计算完毕;
通过子步骤401、402、403,获取无人机高分辨率航拍视频中车辆目标跟踪的信息,即跟踪目标在视频帧序列中每一帧图像中的位置和种类。
4.如权利要求1所述的基于无人机航拍视频交通信息统计方法,其特征在于,所述交通信息统计步骤包括:
设经过无人机高分辨率航拍视频车辆目标跟踪获取每个目标为
Figure FDA00026550793700000320
Figure FDA00026550793700000321
其中ci为视频跟踪的车辆目标;设车辆目标ci在视频帧序列中的位置依次为
Figure FDA00026550793700000322
其中
Figure FDA00026550793700000323
为车辆目标ci在视频帧tk时的位置,设车辆目标的类别分别为
Figure FDA00026550793700000324
则车辆目标ci在视频帧tk时的位置
Figure FDA00026550793700000325
的值为:
Figure FDA00026550793700000326
其中pd为车辆目标ci的类别,
Figure FDA00026550793700000327
Figure FDA00026550793700000328
分别为车辆目标ci在视频帧图像中边框的像素中心横纵坐标;
无人机通常自带全球定位系统(GPS)可获取每时刻摄像机的空间位置、离地高以及对应的时间;设车辆目标ci在视频帧tk时通过GPS获取的摄影中心的空间位置、离地高分别为
Figure FDA0002655079370000041
Figure FDA0002655079370000042
摄像机焦距为f,车辆目标ci在视频帧tk时的位置
Figure FDA0002655079370000043
所对应的空间位置为
Figure FDA0002655079370000044
视频帧图像的长宽分别为W和H,则有:
Figure FDA0002655079370000045
Figure FDA0002655079370000046
通过公式上式得到车辆目标ci在视频帧tk时的空间位置
Figure FDA0002655079370000047
5.一种基于无人机航拍视频交通信息统计系统,其特征在于,包括:
航拍视频采集模块:采集无人机高分辨率航拍视频,将无人机传输的模拟信号转换成数字视频;
视频起始帧检测模块:对高分辨率航拍视频中起始帧作多目标检测;将单帧图像按规则剖分成多张图像,通过采用深度学习算法YOLO-9000对高分辨率航拍视频中起始帧作多目标检测,并对多个剖分对象中的检测目标进行整体合并得到检测结果;
视频帧跟踪模块:根据将目标检测结果作为视频帧目标跟踪的初始跟踪目标,并根据两帧之间的目标位移进行目标跟踪;将目标框表示被跟踪的目标,并在连续的相邻视频帧之间估计目标运动;
视频帧更新输出模块:通过目标检测与目标跟踪的结果对目标进行更新,以达到目标的实时准确跟踪,获取基于高分辨率航拍视频中目标的跟踪信息,即跟踪目标在视频帧序列中每一帧图像中的位置和种类;
交通信息统计模块:根据跟踪的结果进行后处理及经过视帧图像像方空间与物方空间的转换获取每个像素的实际空间坐标,目标在时间序列中的空间轨迹计算交通信息,获取道路交通流信息;
视频起始帧检测模块包括:
单帧图像剖分子模块:对视频中单帧图像按规则剖分成多张图像提取,设单帧图像的高与宽分别为W和H,剖分图像的宽和高分别为w和h,宽度与高度之间的重叠间隔分别为△w和△h,则共有剖分图像的个数Pn为:
Figure FDA0002655079370000051
图像多目标检测子模块:深度学习算法YOLO-9000对高分辨率航拍视频中起始帧作多目标检测,维度聚类过程中YOLO-9000算法采用的是k-means聚类算法,选取最佳尺寸的候选框;k-means聚类算法需要提前指定聚类簇的个数k,且其对种子点的初始化敏感,采用k-means++算法及新的距离计算公式;
设通过卷积获取的候选框集合为
Figure FDA0002655079370000052
①从候选框集合
Figure FDA0002655079370000053
中随机选择一个候选框作为第一个聚类中心;
②对于候选框集合
Figure FDA0002655079370000054
计算
Figure FDA0002655079370000055
中每一个候选框与最近聚类中心即已选择的聚类中心的距离D(x);
Figure FDA0002655079370000056
为候选框集合
Figure FDA0002655079370000057
中任意一个候选框,
Figure FDA0002655079370000058
为候选框集合
Figure FDA0002655079370000059
中的一个聚类中心,则μi与μk之间的距离D(x)ik为:
D(x)ik=1-f[IOU(μik)];
其中f(·)为Sigmoid激活函数,其公式为:
Figure FDA00026550793700000510
IOU(·)为检测评价函数,即模型产生的目标窗口和原来标记窗口的交叠率;
设候选框μi的范围为(xi,yi,wi,hi),候选框μk的范围为(xk,yk,wk,hk),候选框μi与候选框μk的IOU指即为两矩形框的交集与并集之间的除值,即:
Figure FDA00026550793700000511
③选择一个新的候选框作为新的聚类中心,选择的原则是:D(x)较大的候选框,被选取作为聚类中心的概率较大;
④重复②③直到m个聚类中心被选出来;
⑤根据m个初始的聚类中心来运行标准的k-means聚类算法;
目标合并子模块:根据图像多目标检测子步骤对每个剖分的进行多目标检测,检测图像中的不同种类的车辆,剖分图像之间存在重叠,且剖分图像的边界地区也存在待检测的车辆,将单帧图像中所有的剖分图像的已检测目标进行合并,假设任意两个已检测目标分别为ti,tj,则ti,tj是否为同一目标由以下公式判定:
ti,tj∈同一目标IF IOU(ti,tj)≥0.8&&ti,tj∈同一种类。
6.如权利要求5所述的基于无人机航拍视频交通信息统计系统,其特征在于,所述视频帧跟踪模块包括:
子模块801.在上一帧的目标框中选择若干个像素点作为特征点,在下一帧中寻找上一帧中的特征点在当前帧中的对应位置;
子模块802.将特征点在相邻两帧之间的位移变化进行排序,得到位移变化的中值,利用该中值,得到小于中值的50%的特征点,将这50%个特征点作为下一帧的特征点,并依次进行下去;
子模块803.当目标完全被遮挡或者消失于视野,则不可避免地出现跟踪失败,采用如下策略避免:设di为某一个特征点的移动位移,dm表示位移中值,则残差定义为|di-dm|;如果残差大于10个像素,则跟踪失败。
7.如权利要求5所述的基于无人机航拍视频交通信息统计系统,其特征在于,所述目标状态的更新与输出模块包括:
目标状态的更新与输出子模块:
子模块901.当视频跟踪N帧(N一般可取5)后,对当前跟踪帧图像做目标检测,设通过视频帧跟踪得到的当前目标集合为
Figure FDA0002655079370000061
通过目标检测得到的当前目标集合为
Figure FDA0002655079370000062
子模块902.计算视频帧跟踪目标集合
Figure FDA0002655079370000063
中每一个目标到目标检测集合
Figure FDA0002655079370000064
的距离,设ti
Figure FDA0002655079370000065
的距离为Di,则有:
Figure FDA0002655079370000066
其中f(·)为公式
Figure FDA0002655079370000067
为公式
Figure FDA0002655079370000068
即跟踪目标集合
Figure FDA0002655079370000069
中每一个目标到目标检测集合
Figure FDA00026550793700000610
的距离为该目标到集合
Figure FDA00026550793700000611
中距离值的最小值;
子模块903.当视频帧跟踪目标集合
Figure FDA00026550793700000612
中目标ti
Figure FDA00026550793700000613
中dk的距离Di满足公式
Figure FDA00026550793700000614
时,且Di的值大于0.8,则ti与dk为同一目标,同时更新ti的值,使其值与dk相等;当Di小于0.8时,则ti与dk不为同一目标,则在集合
Figure FDA00026550793700000615
中舍弃ti;在计算集合
Figure FDA00026550793700000616
中每一个目标到集合
Figure FDA00026550793700000617
的距离时,集合
Figure FDA00026550793700000618
中存在未满足的目标,则这些目标为新增加的目标,将这些目标加入集合
Figure FDA00026550793700000619
中参与目标跟踪运算,重复子模块901、902、903直至视频帧计算完毕;通过子模块901、902、903,获取基于无人机高分辨率交通航拍视频中车辆目标跟踪的信息,即跟踪目标在视频帧序列中每一帧图像中的位置和种类。
8.如权利要求5所述的基于无人机航拍视频交通信息统计系统,其特征在于,所述交通信息统计模块包括:
设经过无人机高分辨率航拍视频车辆目标跟踪获取每个目标为
Figure FDA0002655079370000071
Figure FDA0002655079370000072
其中ci为视频跟踪的车辆目标;设车辆目标ci在视频帧序列中的位置依次为
Figure FDA0002655079370000073
其中
Figure FDA0002655079370000074
为车辆目标ci在视频帧tk时的位置,设车辆目标的类别分别为
Figure FDA0002655079370000075
则车辆目标ci在视频帧tk时的位置
Figure FDA0002655079370000076
的值为:
Figure FDA0002655079370000077
其中pd为车辆目标ci的类别,
Figure FDA0002655079370000078
Figure FDA0002655079370000079
分别为车辆目标ci在视频帧图像中边框的像素中心横纵坐标;
无人机通常自带全球定位系统(GPS)可获取每时刻摄像机的空间位置、离地高以及对应的时间;设车辆目标ci在视频帧tk时通过GPS获取的摄影中心的空间位置、离地高分别为
Figure FDA00026550793700000710
Figure FDA00026550793700000711
摄像机焦距为f,车辆目标ci在视频帧tk时的位置
Figure FDA00026550793700000712
所对应的空间位置为
Figure FDA00026550793700000713
视频帧图像的长宽分别为W和H,则有:
Figure FDA00026550793700000714
Figure FDA00026550793700000715
通过上式得到车辆目标ci在视频帧tk时的空间位置
Figure FDA00026550793700000716
CN201810286400.1A 2018-04-03 2018-04-03 一种基于无人机航拍视频交通信息统计方法及系统 Active CN108320510B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810286400.1A CN108320510B (zh) 2018-04-03 2018-04-03 一种基于无人机航拍视频交通信息统计方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810286400.1A CN108320510B (zh) 2018-04-03 2018-04-03 一种基于无人机航拍视频交通信息统计方法及系统

Publications (2)

Publication Number Publication Date
CN108320510A CN108320510A (zh) 2018-07-24
CN108320510B true CN108320510B (zh) 2020-12-04

Family

ID=62900231

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810286400.1A Active CN108320510B (zh) 2018-04-03 2018-04-03 一种基于无人机航拍视频交通信息统计方法及系统

Country Status (1)

Country Link
CN (1) CN108320510B (zh)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109376572B (zh) * 2018-08-09 2022-05-03 同济大学 基于深度学习的交通视频中实时车辆检测与轨迹跟踪方法
CN109241896B (zh) * 2018-08-28 2022-08-23 腾讯数码(天津)有限公司 一种通道安全检测方法、装置及电子设备
CN109283937A (zh) * 2018-09-18 2019-01-29 广东省智能制造研究所 一种基于无人机的植保喷施作业的方法及系统
CN109087517B (zh) * 2018-09-19 2021-02-26 山东大学 基于大数据的智能信号灯控制方法和系统
CN109359553A (zh) * 2018-09-21 2019-02-19 上海小萌科技有限公司 鱼眼图像的商品检测方法、装置、计算机设备和存储介质
CN111047908B (zh) * 2018-10-12 2021-11-02 富士通株式会社 跨线车辆的检测装置、方法及视频监控设备
CN109242047A (zh) * 2018-10-17 2019-01-18 福州大学 基于K-means++聚类和残差网络分类的银行卡卡号检测与识别方法
CN109492618A (zh) * 2018-12-06 2019-03-19 复旦大学 基于分组扩张卷积神经网络模型的目标检测方法及装置
CN109584558A (zh) * 2018-12-17 2019-04-05 长安大学 一种面向城市交通信号配时的交通流统计方法
CN109961460A (zh) * 2018-12-26 2019-07-02 国网浙江省电力有限公司 一种基于改进YOLOv3模型的多目标巡检方法
CN110427030B (zh) * 2019-08-08 2020-06-12 上海大学 一种基于Tiny-YOLOship目标检测算法的无人艇自主对接回收方法
CN111241931B (zh) * 2019-12-30 2023-04-18 沈阳理工大学 一种基于YOLOv3的空中无人机目标识别和跟踪方法
CN111611918B (zh) * 2020-05-20 2023-07-21 重庆大学 基于航拍数据和深度学习的交通流数据集采集及构建方法
CN111898438A (zh) * 2020-06-29 2020-11-06 北京大学 一种监控场景多目标跟踪方法及系统
CN111898437A (zh) * 2020-06-29 2020-11-06 北京大学 一种目标检测方法、装置
CN111898436A (zh) * 2020-06-29 2020-11-06 北京大学 一种基于视觉信号的多目标跟踪处理优化方法
CN111898501B (zh) * 2020-07-17 2022-04-05 东南大学 一种针对拥堵路段的无人机在线航拍车辆识别及统计方法
CN111951328A (zh) * 2020-08-05 2020-11-17 清华大学苏州汽车研究院(吴江) 一种物体位置检测方法、装置、设备和存储介质
CN112735164B (zh) * 2020-12-25 2022-08-05 北京智能车联产业创新中心有限公司 测试数据构建方法及测试方法
CN112699854B (zh) * 2021-03-22 2021-07-20 亮风台(上海)信息科技有限公司 一种识别停止行驶车辆的方法与设备
CN113255612A (zh) * 2021-07-05 2021-08-13 智道网联科技(北京)有限公司 前车起步提醒方法及系统、电子设备和存储介质
CN113658225A (zh) * 2021-08-19 2021-11-16 天之翼(苏州)科技有限公司 基于航拍监控的运动对象识别方法及系统
CN116612493A (zh) * 2023-04-28 2023-08-18 深圳先进技术研究院 一种行人地理轨迹提取方法及设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104036323A (zh) * 2014-06-26 2014-09-10 叶茂 一种基于卷积神经网络的车辆检测方法
CN105678333A (zh) * 2016-01-06 2016-06-15 浙江宇视科技有限公司 一种拥挤区域的确定方法和装置
KR101671223B1 (ko) * 2015-10-08 2016-11-01 한국철도기술연구원 영상정보를 이용한 실시간 소음분석 시스템 및 이를 이용한 소음분석 방법
CN106650913A (zh) * 2016-12-31 2017-05-10 中国科学技术大学 一种基于深度卷积神经网络的车流密度估计方法
CN107705560A (zh) * 2017-10-30 2018-02-16 福州大学 一种融合视觉特征和卷积神经网络的道路拥堵检测方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI438728B (zh) * 2012-04-25 2014-05-21 Hon Hai Prec Ind Co Ltd 交通流量管控系統及方法
TWI560650B (en) * 2012-09-12 2016-12-01 Realtek Semiconductor Corp Image processing method, image output processing method, and image reception processing method
CN103413444B (zh) * 2013-08-26 2015-08-19 深圳市川大智胜科技发展有限公司 一种基于无人机高清视频的交通流调查处理方法
CN105528891A (zh) * 2016-01-13 2016-04-27 深圳市中盟科技有限公司 基于无人机监控的交通流密度检测方法及系统
CN106250812B (zh) * 2016-07-15 2019-08-20 汤一平 一种基于快速r-cnn深度神经网络的车型识别方法
CN107248296B (zh) * 2017-07-13 2020-04-24 南京航空航天大学 一种基于无人机和时序特征的视频交通流量统计方法
CN107301369A (zh) * 2017-09-04 2017-10-27 南京航空航天大学 基于航拍图像的道路交通拥堵分析方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104036323A (zh) * 2014-06-26 2014-09-10 叶茂 一种基于卷积神经网络的车辆检测方法
KR101671223B1 (ko) * 2015-10-08 2016-11-01 한국철도기술연구원 영상정보를 이용한 실시간 소음분석 시스템 및 이를 이용한 소음분석 방법
CN105678333A (zh) * 2016-01-06 2016-06-15 浙江宇视科技有限公司 一种拥挤区域的确定方法和装置
CN106650913A (zh) * 2016-12-31 2017-05-10 中国科学技术大学 一种基于深度卷积神经网络的车流密度估计方法
CN107705560A (zh) * 2017-10-30 2018-02-16 福州大学 一种融合视觉特征和卷积神经网络的道路拥堵检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于时间序列相似性搜索的交通流短时预测方法;杨兆升 等;《交通信息与安全》;20141220;第32卷(第6期);全文 *

Also Published As

Publication number Publication date
CN108320510A (zh) 2018-07-24

Similar Documents

Publication Publication Date Title
CN108320510B (zh) 一种基于无人机航拍视频交通信息统计方法及系统
Liu et al. A vision-based pipeline for vehicle counting, speed estimation, and classification
TWI452540B (zh) 影像式之交通參數偵測系統與方法及電腦程式產品
Wang et al. Review on vehicle detection based on video for traffic surveillance
Leibe et al. Coupled object detection and tracking from static cameras and moving vehicles
Hoogendoorn et al. Extracting microscopic pedestrian characteristics from video data
CN110379168B (zh) 一种基于Mask R-CNN的交通车辆信息获取方法
CN106778593A (zh) 一种基于多地面标志融合的车道级定位方法
EP2709066A1 (en) Concept for detecting a motion of a moving object
CN102289948A (zh) 高速公路场景下一种多特征融合的多车辆视频跟踪方法
CN109272482B (zh) 一种基于序列图像的城市路口车辆排队检测系统
Laureshyn et al. Application of automated video analysis for behavioural studies: concept and experience
US10984263B2 (en) Detection and validation of objects from sequential images of a camera by using homographies
Feng et al. Mixed road user trajectory extraction from moving aerial videos based on convolution neural network detection
CN106372619B (zh) 一种车辆鲁棒检测及分车道到达累计曲线估计方法
CN106228570A (zh) 一种真值数据确定方法和装置
Tak et al. Development of AI‐Based Vehicle Detection and Tracking System for C‐ITS Application
CN111523385B (zh) 一种基于帧差法的静止车辆检测方法及系统
CN108416798A (zh) 一种基于光流的车辆距离估计方法
Yeshwanth et al. Estimation of intersection traffic density on decentralized architectures with deep networks
CN106056078A (zh) 一种基于多特征回归式集成学习的人群密度估计方法
US20220245831A1 (en) Speed estimation systems and methods without camera calibration
EP2709065A1 (en) Concept for counting moving objects passing a plurality of different areas within a region of interest
Chandorkar et al. Vehicle Detection and speed tracking
Kozempel et al. Fast vehicle detection and tracking in aerial image bursts

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
PE01 Entry into force of the registration of the contract for pledge of patent right

Denomination of invention: A Traffic Information Statistics Method and System Based on Drone Aerial Video

Granted publication date: 20201204

Pledgee: China Construction Bank Co.,Ltd. Shenzhen Branch

Pledgor: Shenzhen Smart Mapping Tech. Co.,Ltd.

Registration number: Y2024980019975

PE01 Entry into force of the registration of the contract for pledge of patent right