CN110598052B - 一种交通期望线的边绑定以及评价方法 - Google Patents

一种交通期望线的边绑定以及评价方法 Download PDF

Info

Publication number
CN110598052B
CN110598052B CN201910677704.5A CN201910677704A CN110598052B CN 110598052 B CN110598052 B CN 110598052B CN 201910677704 A CN201910677704 A CN 201910677704A CN 110598052 B CN110598052 B CN 110598052B
Authority
CN
China
Prior art keywords
edge
binding
edges
point
traffic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910677704.5A
Other languages
English (en)
Other versions
CN110598052A (zh
Inventor
何兆成
罗良奎
朱依婷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sun Yat Sen University
Original Assignee
Sun Yat Sen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sun Yat Sen University filed Critical Sun Yat Sen University
Priority to CN201910677704.5A priority Critical patent/CN110598052B/zh
Publication of CN110598052A publication Critical patent/CN110598052A/zh
Application granted granted Critical
Publication of CN110598052B publication Critical patent/CN110598052B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/901Indexing; Data structures therefor; Storage structures
    • G06F16/9024Graphs; Linked lists
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/904Browsing; Visualisation therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/906Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/907Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/909Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • G06F18/2193Validation; Performance evaluation; Active pattern learning techniques based on specific statistical tests
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0116Measuring and analyzing of parameters relative to traffic conditions based on the source of data from roadside infrastructure, e.g. beacons
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/017Detecting movement of traffic to be counted or controlled identifying vehicles
    • G08G1/0175Detecting movement of traffic to be counted or controlled identifying vehicles by photographing vehicles, e.g. when violating traffic rules

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Analytical Chemistry (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Chemical & Material Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Library & Information Science (AREA)
  • Remote Sensing (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种交通期望线的边绑定以及评价方法,具体的过程包括:通过利用摄像头拍摄经过各个道路交叉口的车辆信息得到车辆的行驶路径,将行驶路径的起点与终点统称为顶点,通过聚类算法从顶点中筛选出控制点;通过将控制点连接起来形成交通期望线,采用力引导模型将交通期望线进行绑定,并对对交通期望线绑定后的效果进行评价。本发明将顶点进行聚类,减少原始图输入的顶点数量,解决了边绑定技术方法在大规模交通数据集的应用难点。同时,本发明提出了边绑定的量化指标。基于像素灰度强度的差异,提取了边绑定前后图像的角点特征,结合交通数据的时间维度信息,提出图像变化强度,能够较好地反映绑定效果。

Description

一种交通期望线的边绑定以及评价方法
技术领域
本发明涉及数据处理领域,更具体地,涉及一种交通期望线的边绑定以及评价方法。
背景技术
目前,边绑定方法是可视化领域的一个研究热点,边绑定方法可用于解决图可视化中由于边的过多交叉而引起的视觉混乱问题。边绑定方法在城市道路交通领域的研究较少,主要包括以下几种方法:
(1)Cui等提出了基于几何的边绑定方法,是第一个成功对普通图进行边绑定的算法。其分为四步:第一步在图上生成一个均匀的辅助网络,计算每个网络的平均走向;第二步把位置相邻并且所包含的边走向相似的网格进行合并;第三步在新生成的网格的基础上产生一个控制网格;第四步引导边产生弯曲,形成最终的可视化效果。
(2)Holten等人提出FDEB(Force-Directed Edge Bundling)算法将结点-链接图模拟成一个单条边受弹簧力控制,各条边能相互吸引的静力模型。FDEB算法概念简单,仅仅需要将边模拟成多段弹簧,在弹力达到动态平衡之后,方向相似、距离相近的边互相吸引形成绑定效果。
(3)于静等提出一种基于力导引算法的图数据可视化布局优化方法,此方法在结点粘连的情况下,通过随机函数给出结点弹开的位置和结点弹开的方向,从而将粘连结点彼此分开一定的距离,使得结点粘连情况下的吸引力和排斥力能够计算;其次,在力导引算法的位移计算中对参数delta值采用梯度设置,使得图数据可视化布局过程减少震荡并快速收敛。
但由于FDEB算法的复杂程度为O(n2),顶点和边数量大幅增加的情况下,计算消耗巨大,而且把每一条边模拟成弹簧,会造成边的严重变形,不符合适当变形的要求。上述研究更多地是针对顶点数量较少的,边数量也较少的长距离迁徙数据。同时,上述方法采用的评价方法都是较为主观的定性评价,没有对可视化结果定量评价。
而对于边绑定可视化结果的评价方面,主要涉及两种评价方法。其中一种是比较边绑定前后渲染效果所需要的油墨比,边被绑定在一起后形成束约紧密,杂乱的边越少,图骨架结构越明显,打印时所用的油墨越少,效果越好。另一种是进行用户实验,要求被试者在一定时间内,完成规定的任务,比如点对点的追踪、勾画明显的边束,然后通过记录和分析足够多的被试者在一个或者多个可执行的、明确的任务上的表现,从而获得完成任务的耗时和完成任务的正确率。由于在面对交通身份检测数据的顶点和边比较多,油墨比在绑定前后变化不大,用户在进行边追踪时无法识别局部的顶点,两者都无法准确地评价边绑定的效果。
发明内容
为了解决现有技术中采用边绑定方法主要是针对顶点数量较少的,边数量也较少的长距离迁徙数据并且对绑定效果的评价方法缺少对可视化结果定量评价的不足,本发明提供了一种交通期望线的边绑定以及评价方法。
一种交通期望线的边绑定以及评价方法,包括以下步骤:
步骤S1:利用摄像头拍摄经过各个道路交叉口的车辆信息,结合交通网路数据,得到关于车辆的交通信息;
步骤S2:将拍摄到同一车牌的时间差最小的两个摄像头所在的道路交叉口之间的路段作为拥有该车牌的车辆的行驶路径,根据两个摄像头拍摄到车牌时间的早晚将两个摄像头标记为车辆行驶路径的起点与终点;
步骤S3:将行驶路径的起点与终点统称为顶点,通过聚类算法对顶点进行筛选,将筛选后的顶点作为的控制点;
步骤S4:将控制点连接起来形成交通期望线,采用力引导模型将交通期望线进行绑定;
步骤S5:将绑定后的边进行渲染处理,得到SVG格式的图形;
步骤S6:根据SVG格式的图形对交通期望线绑定后的效果进行评价。
优选的,步骤S1的具体步骤如下:
通过多个设置在道路交叉口的摄像头拍摄所经过车量的信息,结合交通路网数据,可以得到车辆从一个道路交叉口达到另一个道路交叉口的交通信息,所述的交通信息包括车牌号码、出发时间、起始路段、到达时间、到达路段、旅行时间、道路长度以及行驶路径。
优选的,步骤S3中,使用基于网格划分的K-means聚类算法对顶点进行筛选,具体步骤如下:
步骤S301:获取所研究城市的地图,把城市地图划分为10X10个网格,每个网格包含若干个道路的起点或者终点;
步骤S302:如果网格中没有道路的起点或者终点,将会被舍弃;在其余的网格上,加权平均所有顶点的坐标,产生初始聚类中心;
步骤S303:在初始聚类中心的基础上,通过无监督训练,输出聚类中心作为最终用于边绑定的顶点,其中无监督训练输出类中心的标准由下面的公式确定为
Figure BDA0002143814900000031
其中,J函数表示每个样本点x(i)到类中心μc(i)的距离平方和。
优选的,步骤S4的具体步骤如下:
利用线段连接控制点形成多条边,每条边即为交通期望线,力引导模型用于将两条边绑定在一起,两条被绑定在一起的边可在弹簧力和库仑力的作用下相互靠近;
首先,对两条边能否被绑定在一起做出判断,具体的,采用边与边之间的兼容性指标来判断,若两条边的兼容性大于设定的阈值,则表示该两条边可被绑定在一起,兼容性指标通过图的结构以及边的几何特征来计算,具体计算方式如下:
(1)基于图的结构:
Figure BDA0002143814900000032
对于两条边P边以及Q边,Nmin(P,Q)表示P边的任意一个端点,到Q边任意一个端点的距离满足设定的最小距离,若两条边节点与节点之间满足要求的连线数量为0,则cc(P,Q)为0;如果两条边公用一个顶点,则cc(P,Q)为1;
(2)基于边的几何特征,包括角度、长度、位置以及平行关系四个方面;其中每一个方面的计算方式如下:
关于角度:
ca(P,Q)=|cos|α
ca(P,Q)表示角度兼容性,α表示两条边形成的锐角。
关于长度:
Figure BDA0002143814900000041
cl(P,Q)表示长度兼容性,lP表示P边的长度,lQ表示Q边的长度,lavg表示P边和Q边的平均长度。
关于位置:
Figure BDA0002143814900000042
cp(P,Q)表示兼容性,lavg表示P边和Q边的平均长度,mP表示P边的中点,mQ表示Q边的中点。
关于平行关系:
Figure BDA0002143814900000043
cυ(P,Q)=min(V(P,Q),V(Q,P))
cv(P,Q)表示平行关系兼容性,mP表示P边的中点,mI表示I边的中点,I表示Q边在P边上的投影。
最后,兼容性的计算公式为:
C=cc(P,Q)·ca(P,Q)·cl(P,Q)·cp(P,Q)υ(P,Q)
当C大于设定的阈值c时,则被计算的两条边适合被绑定在一起,此时每一条边都能找到和其兼容的边,形成边束,因此,每一个边束都有一条主边,以及若干条兼容性边;
在一个束内,主边和兼容性边都被打断成若干个点,其中主边的每个点受到相邻点的弹簧力作用,与此同时受到对应位置的兼容性边断点的库仑力作用,计算公式如下为
Figure BDA0002143814900000044
Figure BDA0002143814900000045
其中pk为p边上的第p个点;qk为q边上的第q个点;Kp为p边的弹力系数;lp为p边的长度;n为p边的数量;s为库伦力取得最大值时,两点之间的距离;Kc为库伦力常数;N为断点的数量;
主边上的断点由于受到弹簧力和库仑力的综合作用,会在力的方向产生位移,给定移动的步长S,经过一次迭代之后,可以获得断点的新坐标,坐标更新公式如下为:
Figure BDA0002143814900000051
其中,S为断点的移动步长;z为迭代顺序;
每次迭代后,计算全局每一个束的主边上的断点pk和兼容性边对应断点qk的距离,它们的和用D表示,当前后两次迭代的距离和小于设定的阈值ε,即完成绑定。
Figure BDA0002143814900000052
Figure BDA0002143814900000054
优选的,步骤S5的具体步骤如下:
经过边绑定后的边由一组点构成,针对每一条边,依次用线段连接,利用D3图形库,将绑定效果渲染成SVG图形,边的宽度默认为1px,颜色值设为RGB(50,50,150),透明度为0.5,颜色叠加方式为“screen”。
优选的,步骤S6中对于交通期望线边绑的评价包括以下步骤:
步骤S501:基于Harris角点检测的方法:
分别将边绑定前和边绑定后的图像转化成灰度图,对灰度图进行角点特征提取,通过计算像素点的曲率及梯度来检测角点;对于图像I(x,y),在点(x,y)处平移(Δx,Δy)后的自相似性,可以通过自相关函数给出:
Figure BDA0002143814900000053
其中,W(x,y):点(x,y)为中心的窗口;I(u,v):为像素灰度值强度;w(u,v)为加权函数,窗口各个方向权重和为1即可;
C(x,y;Δx,Δy)根据泰勒级数计算1阶到N阶的偏导数,最终得到一个Harris矩阵公式:
Figure BDA0002143814900000061
根据Harris的矩阵计算矩阵特征值:λ1,λ2
detM=λ1λ2
traceM=λ12
计算一个角点响应值R来判断角点:
R=detM-α(traceM)2
其中,α为常数,取值范围为0.04~0.06;
像素点的响应值大于阈值t时,即为角点:
dots={dot|Rdot>t}
步骤S502:计算特征丰富度,即角点占图像所有像素点的比例:
Figure BDA0002143814900000062
步骤S503:计算特征变化强度,统计一天内所有时间段内特征丰富度的方差:
Figure BDA0002143814900000063
若特征丰富度越大,特征变化强度越大,则绑定后产生的图像角点特征越明显,绑定的效果越好。
与现有技术相比,本发明技术方案的有益效果:
本发明规定了在两个顶点之间只存在一条带权重的边,将权重作为边的刚度的影响因子,避免了多条边同时参与静力系统的平衡过程,同时也符合含有车辆数目较多的期望线具有更大的刚度,即不容易发生变形,从而减少了边的不必要变形。同时,本发明改进了边绑定模型。在不影响宏观模式识别的基础上,减少了顶点的数量;将边总数当作变量,降低了模型的复杂程度,更有利于保留图像主要特征,并且本发明提出了边绑定的量化指标,基于像素灰度强度的差异,提取了边绑定前后图像的角点特征,结合交通数据的时间维度信息,提出图像变化强度,能够较好地反映绑定效果。
附图说明
图1为本发明的方法框架图。
图2为基于网格划分的K-means聚类算法的流程图。
图3为力引导模型的边绑定过程示意图。
图4为基于图结构的兼容示意图。
图5为基于边的几何特征的示意图。
图6为库仑力在不同大小的s情况下的随着两个断点距离r变化而变化的示意图。
图7为路口的聚类结果。
图8为交通期望线绑定前后效果。
图9为交通期望线绑定前后的角点特征。
图10为绑定前后特征丰富度。
具体实施方式
附图仅用于示例性说明,不能理解为对本专利的限制;
为了更好说明本实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;
对于本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
下面结合附图和实施例对本发明的技术方案做进一步的说明。
实施例1
如图1所示,一种交通期望线的边绑定以及评价方法,包括以下步骤:
步骤S1:利用摄像头拍摄经过各个道路交叉口的车辆信息,结合交通网路数据,得到关于车辆的交通信息;
步骤S2:将拍摄到同一车牌的时间差最小的两个摄像头所在的道路交叉口之间的路段作为拥有该车牌的车辆的行驶路径,根据两个摄像头拍摄到车牌时间的早晚将两个摄像头标记为车辆行驶路径的起点与终点;
步骤S3:将行驶路径的起点与终点统称为顶点,通过聚类算法对顶点进行筛选,将筛选后的顶点作为的控制点;
步骤S4:将控制点连接起来形成交通期望线,采用力引导模型将交通期望线进行绑定;
步骤S5:将绑定后的边进行渲染处理,得到SVG格式的图形;
步骤S6:根据SVG格式的图形对交通期望线绑定后的效果进行评价。
作为一个优选的实施例,步骤S1的具体步骤如下:
通过多个设置在道路交叉口的摄像头拍摄所经过车量的信息,结合交通路网数据,可以得到车辆从一个道路交叉口达到另一个道路交叉口的交通信息,所述的交通信息包括车牌号码、出发时间、起始路段、到达时间、到达路段、旅行时间、道路长度以及行驶路径。
作为一个优选的实施例,步骤S3中,使用基于网格划分的K-means聚类算法对顶点进行筛选,具体步骤如下:
步骤S301:获取所研究城市的地图,把城市地图划分为10X 10个网格,每个网格包含若干个道路的起点或者终点;
步骤S302:如果网格中没有道路的起点或者终点,将会被舍弃;在其余的网格上,加权平均所有顶点的坐标,产生初始聚类中心;
步骤S303:在初始聚类中心的基础上,通过无监督训练,输出聚类中心作为最终用于边绑定的顶点,其中无监督训练输出类中心的标准由下面的公式确定为
Figure BDA0002143814900000081
其中,J函数表示每个样本点x(i)到类中心μc(i)的距离平方和。
作为一个优选的实施例,步骤S4的具体步骤如下:
利用线段连接控制点形成多条边,每条边即为交通期望线,力引导模型用于将两条边绑定在一起,两条被绑定在一起的边可在弹簧力和库仑力的作用下相互靠近;
首先,对两条边能否被绑定在一起做出判断,具体的,采用边与边之间的兼容性指标来判断,若两条边的兼容性大于设定的阈值,则表示该两条边可被绑定在一起,兼容性指标通过图的结构以及边的几何特征来计算,具体计算方式如下:
(1)基于图的结构:
Figure BDA0002143814900000082
对于两条边P边以及Q边,Nmin(P,Q)表示P边的任意一个端点,到Q边任意一个端点的距离满足设定的最小距离,若两条边节点与节点之间满足要求的连线数量为0,则cc(P,Q)为0;如果两条边公用一个顶点,则cc(P,Q)为1;
(2)基于边的几何特征,包括角度、长度、位置以及平行关系四个方面;其中每一个方面的计算方式如下:
关于角度:
ca(P,Q)=|cosα|
ca(P,Q)表示角度兼容性,α表示两条边形成的锐角。
关于长度:
Figure BDA0002143814900000091
cl(P,Q)表示长度兼容性,lP表示P边的长度,lQ表示Q边的长度,lavg表示P边和Q边的平均长度。
关于位置:
Figure BDA0002143814900000092
cp(P,Q)表示兼容性,lavg表示P边和Q边的平均长度,mP表示P边的中点,mQ表示Q边的中点。
关于平行关系:
Figure BDA0002143814900000093
cυ(P,Q)=min(V(P,Q),V(Q,P))
cv(P,Q)表示平行关系兼容性,mP表示P边的中点,mI表示I边的中点,I表示Q边在P边上的投影。
最后,兼容性的计算公式为:
C=cc(P,Q)·ca(P,Q)·cl(P,Q)·cp(P,Q)υ(P,Q)
当C大于设定的阈值c时,则被计算的两条边适合被绑定在一起,此时每一条边都能找到和其兼容的边,形成边束,因此,每一个边束都有一条主边,以及若干条兼容性边;
在一个束内,主边和兼容性边都被打断成若干个点,其中主边的每个点受到相邻点的弹簧力作用,与此同时受到对应位置的兼容性边断点的库仑力作用,计算公式如下为
Figure BDA0002143814900000101
Figure BDA0002143814900000102
其中pk为p边上的第p个点;qk为q边上的第q个点;Kp为p边的弹力系数;lp为p边的长度;n为p边的数量;s为库伦力取得最大值时,两点之间的距离;Kc为库伦力常数;N为断点的数量;
主边上的断点由于受到弹簧力和库仑力的综合作用,会在力的方向产生位移,给定移动的步长S,经过一次迭代之后,可以获得断点的新坐标,坐标更新公式如下为:
Figure BDA0002143814900000103
其中,S为断点的移动步长;z为迭代顺序;
每次迭代后,计算全局每一个束的主边上的断点pk和兼容性边对应断点qk的距离,它们的和用D表示,当前后两次迭代的距离和小于设定的阈值ε,即完成绑定。
Figure BDA0002143814900000104
Figure BDA0002143814900000105
作为一个优选的实施例,步骤S5的具体步骤如下:
经过边绑定后的边由一组点构成,针对每一条边,依次用线段连接,利用D3图形库,将绑定效果渲染成SVG图形,边的宽度默认为1px,颜色值设为RGB(50,50,150),透明度为0.5,颜色叠加方式为“screen”。
作为一个优选的实施例,步骤S6中对于交通期望线边绑的评价包括以下步骤:
步骤S501:基于Harris角点检测的方法:
分别将边绑定前和边绑定后的图像转化成灰度图,对灰度图进行角点特征提取,通过计算像素点的曲率及梯度来检测角点;对于图像I(x,y),在点(x,y)处平移(Δx,Δy)后的自相似性,可以通过自相关函数给出:
Figure BDA0002143814900000111
其中,W(x,y):点(x,y)为中心的窗口;I(u,v):为像素灰度值强度;w(u,v)为加权函数,窗口各个方向权重和为1即可;
C(x,y;Δx,Δy)根据泰勒级数计算1阶到N阶的偏导数,最终得到一个Harris矩阵公式:
Figure BDA0002143814900000112
根据Harris的矩阵计算矩阵特征值:λ1,λ2
detM=λ1λ2
traceM=λ1+λ2
计算一个角点响应值R来判断角点:
R=detM-α(traceM)2
其中,α为常数,取值范围为0.04~0.06;
像素点的响应值大于阈值t时,即为角点:
dots={dot|Rdot>t}
步骤S502:计算特征丰富度,即角点占图像所有像素点的比例:
Figure BDA0002143814900000113
步骤S503:计算特征变化强度,统计一天内所有时间段内特征丰富度的方差:
Figure BDA0002143814900000114
若特征丰富度越大,特征变化强度越大,则绑定后产生的图像角点特征越明显,绑定的效果越好。
实施例2
如图1~图6所示,一种交通期望线的边绑定以及评价方法,具体步骤如下:
本发明涉及的数据是交通身份检测数据,是通过设置在道路交叉口的摄像头拍摄过车信息所得到的数据。在密集摄像头的环境下,通过匹配经过卡口设备的车的身份信息,结合交通路网数据,可以得到车辆从一个卡口达到另一个卡口所经过的路段信息、时间信息,这些数据存储在数据库中,如下表1所示,包括车牌号码、出发时间、起始路段、到达时间、到达路段、旅行时间、道路长度和行驶路径。
表1交通身份检测数据表
Figure BDA0002143814900000121
如上表所示,行驶路径由不同的编号组成。这些编号代表不同的交叉口,两个交叉口构成一条路段,多条路段最终形成一条路径。我们选取行驶路径中的首尾交叉口作为一条路径的起点和终点,在一个图里,我们统称这些起点和终点为顶点。
由于一个城市中的交叉口数量较多,直接将顶点用线段连接,会产生非常多的遮挡,因此需要减少顶点的数量,保留控制交通期望线的顶点,将其作为控制点,采用的方法是基于网格划分的K-means聚类算法,其计算过程如图2所示。
其中,网格划分根据实际情况可以调节网格的数量。无监督训练输出类中心的标准由下面的公式确定:
Figure BDA0002143814900000122
其中,J函数表示每个样本点x(i)到类中心μc(i)的距离平方和
边绑定可视化的原则之一是不减少顶点和边的数量。但根据卡口数据集的路口数量很多的特点,需要对顶点进行聚合。这种聚合不影响观察宏观交通流动模式,所以是可以被接受的。
产生控制点后,控制点之间产生的交通出行,我们可以用线段连接成多条边来表示,也就是交通期望线。力引导模型是将位置相近、距离长度相似的边绑定在一起。如图3所示,两条适合被绑定在一起的边逐渐在弹簧力和库仑力的作用下相互靠近。
图3中,P和Q是两条发生绑定交互的边。a)为原始图;b)为两条边上有相同数量的断点;c)为
Figure BDA0002143814900000131
Figure BDA0002143814900000132
之间模拟成弹簧力,
Figure BDA0002143814900000133
Figure BDA0002143814900000134
之间模拟成库仑力;d)为在力的作用下,两条边相互靠拢,比原始图a)更接近。
首先,需要对两条边是否可以被绑定在一起做出判断。采用了边与边之间的兼容性指标来衡量。如果两条边的兼容性大于人为设定的阈值,则这两条边适合被绑定在一起,兼容性指标主要来源于图的结构以及边的几何特征。
(1)基于图的结构:
Figure BDA0002143814900000135
Nmin(P,Q)表示P边的任意一个端点,到Q边任意一个端点的距离满足人为设定的最小距离,两条边节点与节点之间连线的数量。如图4所示。
如果满足要求的连线数量为0,那么Cc(P,Q)为0;如果两条边公用一个顶点,那么Cc(P,Q)为1。图4中只有A边小于人为设定的最小距离,所以Cc(P,Q)为
Figure BDA0002143814900000136
(2)基于边的几何特征:
如图5(1)所示,关于角度的几何特征计算如下:
ca(P,Q)=|cosα|
ca(P,Q)表示角度兼容性,α表示两条边形成的锐角。
如图5(2)所示,关于长度的几何特征计算如下
Figure BDA0002143814900000137
cl(P,Q)表示长度兼容性,lP表示P边的长度,lQ表示Q边的长度,lavg表示P边和Q边的平均长度。
如图5(3)所示,关于位置的几何特征计算如下
Figure BDA0002143814900000138
cp(P,Q)表示长度兼容性,lavg表示P边和Q边的平均长度,mP表示P边的中点,mQ表示Q边的中点。
如图5(4)所示,关于平行位置的几何特征计算如下
Figure BDA0002143814900000141
cυ(P,Q)=min(V(P,Q),V(Q,P))
cv(P,Q)表示平行关系兼容性,mP表示P边的中点,mI表示I边的中点,I表示Q边在P边上的投影。
最后,计算总的兼容性:
C=cc(P,Q)·ca(P,Q)·cl(P,Q)·cp(P,Q)υ(P,Q)
当C大于人为设定的阈值c时,说明被计算的两条边适合被绑定在一起,此时每一条边都能找到和它兼容的边,形成边束。因此,每一个边束都有一条主边,以及若干条兼容性边。
在一个束内,主边和兼容性边都被打断成若干个点,其中主边的每个点受到相邻点的弹簧力作用,与此同时受到对应位置的兼容性边断点的库仑力作用。计算公式如下:
Figure BDA0002143814900000142
Figure BDA0002143814900000143
其中,各字母代表的含义如下:
pk:p边上的第k个点;
qk:q边上的第k个点;
Kp:p边的弹力系数;
lp:p边的长度;
n:p边的数量;
s:决定了库伦力取得最大值时,两点之间的距离;
Kc:库伦力常数;
N:断点的数量;
其中,库仑力在不同大小的s情况下的随着两个断点距离r变化而变化的示意图如图6所示。
主边上的断点由于受到弹簧力和库仑力的综合作用,会在力的方向产生位移,给定移动的步长S,经过一次迭代之后,可以获得断点的新坐标。坐标更新公式如下:
Figure BDA0002143814900000151
F其中,S:断点的移动步长;z:迭代顺序;
每次迭代后,计算全局每一个束的主边和兼容性边对应断点的距离,它们的和用D表示,当前后两次迭代的距离和小于我们设定的阈值ε,即完成绑定。
Figure BDA0002143814900000152
Figure BDA0002143814900000155
对于交通期望线边绑的评价可以分为三个步骤:
(1)基于Harris角点检测的方法,通过计算计算点的曲率及梯度来检测角点,对图像的特征点进行提取。对于图像I(x,y),在点(x,y)处平移(Δx,Δy)后的自相似性,可以通过自相关函数给出:
Figure BDA0002143814900000153
其中,W(x,y):点(x,y)为中心的窗口;
I(u,v):为像素灰度值强度;
w(u,v):为加权函数,窗口各个方向权重和为1即可;
C(x,y;Δx,Δy)根据泰勒级数计算1阶到N阶的偏导数,最终得到一个Harris矩阵公式:
Figure BDA0002143814900000154
根据Harris的矩阵计算矩阵特征值:λ1,λ2
detM=λ1λ2
traceM=λ12
计算一个角点响应值R来判断角点:
R=detM-α(traceM)2
α为常数,取值范围为0.04~0.06;
像素点的响应值大于阈值t时,即为角点:
dots={dot|Rdot>t}
(2)计算特征丰富度,即角点占图像所有像素点的比例:
Figure BDA0002143814900000161
(3)特征变化强度,统计一天内所有时间段内特征丰富度的方差:
Figure BDA0002143814900000162
如果特征丰富度越大,特征变化强度越大,说明绑定后产生的图像角点特征越明显,绑定的效果越好。
实施例3
在本实施例中,采用具体数据对本发明的方法进行检测。
(1)数据:宣城市身份检测数据,时间:2018年12月17日,5:00-22:00,按小时统计交通出行。
(2)控制点的产生。原始数据共有344个路口,图7中的黑色圆点表示。经过K-means聚类后,产生69个控制点,由图7中的白色X符号表示。
(3)顶点替换。将原始数据中的边顶点替换为新的控制点,并统计同OD下的边数量作为权重,这里的边比原来的数据减少了1个数量级。
(3)边绑定及渲染。当ΔD小于0.05时,停止模拟,最终绑定结果如图8所示。绑定参数设置如下:
·全局弹性模量Ks:0.2;
·断点的移动步长S:0.1;
·库伦力常数KC:20000;
·常数s:10;
·兼容性阈值:0.55;
·透明度:0.5;
·颜色叠加方式:D3颜色增亮;
(4)特征提取及评价。利用opencv的cornerHarris进行特征提取,参数设置如下:
·blockSize:10;
·ksize:15;
·k:0.04;
分别对绑定前后的效果进行角点特征提取,得到如图9的特征结果,图中黄色的点即为监测到的角点:
根据特征丰富度、特征变化强度两个评价指标的定义,可以计算出2018年12月17日,5:00–22:00期间,交通期望线在绑定前后的特征变化强度分别为:0.041、0.278。
如图10表示的是边绑定前后特征丰富度的随时间的变化情况,可以看到,期望线绑定后的特征变化趋势和交通出行量的变化趋势相似,更能客观地反应真实的交通出行情况。
相同或相似的标号对应相同或相似的部件;
附图中描述位置关系的用语仅用于示例性说明,不能理解为对本专利的限制;
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。

Claims (5)

1.一种交通期望线的边绑定以及评价方法,其特征在于,包括以下步骤:
步骤S1:利用摄像头拍摄经过各个道路交叉口的车辆信息,结合交通网路数据,得到关于车辆的交通信息;
步骤S2:将拍摄到同一车牌的时间差最小的两个摄像头所在的道路交叉口之间的路段作为拥有该车牌的车辆的行驶路径,根据两个摄像头拍摄到车牌时间的早晚将两个摄像头标记为车辆行驶路径的起点与终点;
步骤S3:将行驶路径的起点与终点统称为顶点,通过聚类算法对顶点进行筛选,将筛选后的顶点作为的控制点;
步骤S4:将控制点连接起来形成交通期望线,采用力引导模型将交通期望线进行绑定;其具体步骤如下:
利用线段连接控制点形成多条边,每条边即为交通期望线,力引导模型用于将两条边绑定在一起,两条被绑定在一起的边可在弹簧力和库仑力的作用下相互靠近;
首先,对两条边能否被绑定在一起做出判断,具体的,采用边与边之间的兼容性指标来判断,若两条边的兼容性大于设定的阈值,则表示该两条边可被绑定在一起,兼容性指标通过图的结构以及边的几何特征来计算,具体计算方式如下:
(1)基于图的结构:
Figure FDA0003967088860000011
对于两条边P边以及Q边,Nmin(P,Q)表示P边的任意一个端点,,到Q边任意一个端点的距离满足设定的最小距离,若两条边节点与节点之间满足要求的连线数量为0,则Cc(P,Q)为0;如果两条边公用一个顶点,则Cc(P,Q)为1;
(2)基于边的几何特征,包括角度、长度、位置以及平行关系四个方面;其中每一个方面的计算方式如下:
关于角度:
ca(P,Q)=|cosα|
ca(P,Q)表示角度兼容性,α表示两条边形成的锐角;
关于长度:
Figure FDA0003967088860000021
cl(P,Q)表示长度兼容性,lP表示P边的长度,lQ表示Q边的长度,lavg表示P边和Q边的平均长度;
关于位置:
Figure FDA0003967088860000022
cp(P,Q)表示位置兼容性,lavg表示P边和Q边的平均长度,mP表示P边的中点,mQ表示Q边的中点;
关于平行关系:
Figure FDA0003967088860000023
cv(P,Q)=min(V(P,Q),V(Q,P))
cv(P,Q)表示平行关系兼容性,mP表示P边的中点,mI表示I边的中点,I表示Q边在P边上的投影;
最后,兼容性的计算公式为:
C=Cc (P,Q)·ca(P,Q)·cl(P,Q)·cp(P,Q)·cv(P,Q)
当C大于设定的阈值c时,则被计算的两条边适合被绑定在一起,此时每一条边都能找到和其兼容的边,形成边束,因此,每一个边束都有一条主边,以及若干条兼容性边;
在一个束内,主边和兼容性边都被打断成若干个点,其中主边的每个点受到相邻点的弹簧力作用,与此同时受到对应位置的兼容性边断点的库仑力作用,计算公式如下为
Figure FDA0003967088860000024
Figure FDA0003967088860000025
其中pk为P边上的第k个点;qk为Q边上的第k个点;kp为P边上相邻的两个断点之间的弹力系数;lp为P边的长度;n为P边的数量;s为库伦力取得最大值时,两点之间的距离;Kc为库伦力常数;N为断点的数量;
主边上的断点由于受到弹簧力和库仑力的综合作用,会在力的方向产生位移,给定移动的步长S,经过一次迭代之后,可以获得断点的新坐标,坐标更新公式如下为:
Figure FDA0003967088860000031
其中,S为断点的移动步长;z为迭代顺序;
每次迭代后,计算全局每一个束的主边上的断点pk和兼容性边对应断点qk的距离,它们的和用D表示,当前后两次迭代的距离和小于设定的阈值ε,即完成绑定;
Figure FDA0003967088860000032
ΔD=Dz-Dz-1≤ε;
步骤S5:将绑定后的边进行渲染处理,得到SVG格式的图形;
步骤S6:根据SVG格式的图形对交通期望线绑定后的效果进行评价。
2.根据权利要求1所述的一种交通期望线的边绑定以及评价方法,其特征在于,步骤S1的具体步骤如下:
通过多个设置在道路交叉口的摄像头拍摄所经过车量的信息,结合交通路网数据,可以得到车辆从一个道路交叉口达到另一个道路交叉口的交通信息,所述的交通信息包括车牌号码、出发时间、起始路段、到达时间、到达路段、旅行时间、道路长度以及行驶路径。
3.根据权利要求2所述的一种交通期望线的边绑定以及评价方法,其特征在于,步骤S3中,使用基于网格划分的K-means聚类算法对顶点进行筛选,具体步骤如下:
步骤S301:获取所研究城市的地图,把城市地图划分为10X10个网格,每个网格包含若干个道路的起点或者终点;
步骤S302:如果网格中没有道路的起点或者终点,将会被舍弃;在其余的网格上,加权平均所有顶点的坐标,产生初始聚类中心;
步骤S303:在初始聚类中心的基础上,通过无监督训练,输出聚类中心作为最终用于边绑定的顶点,其中无监督训练输出类中心的标准由下面的公式确定为
Figure FDA0003967088860000041
其中,J函数表示每个样本点x(i)到类中心μc(i)的距离平方和。
4.根据权利要求1所述的一种交通期望线的边绑定以及评价方法,其特征在于,步骤S5的具体步骤如下:
经过边绑定后的边由一组点构成,针对每一条边,依次用线段连接,利用D3图形库,将绑定效果渲染成SVG图形,边的宽度默认为1px,颜色值设为RGB(50,50,150),透明度为0.5,颜色叠加方式为“screen”。
5.根据权利要求1所述的一种交通期望线的边绑定以及评价方法,其特征在于,步骤S6中对于交通期望线边绑的评价包括以下步骤:
步骤S501:基于Harris角点检测的方法:
分别将边绑定前和边绑定后的图像转化成灰度图,对灰度图进行角点特征提取,通过计算像素点的曲率及梯度来检测角点;对于图像I,在点(x,y)处平移(Δx,Δy)后的自相似性,可以通过自相关函数给出:
Figure FDA0003967088860000042
其中,W(x,y):点(x,y)为中心的窗口;I(u,v):为像素灰度值强度;w(u,v)为加权函数,窗口各个方向权重和为1即可;
C(x,y;Δx,Δy)根据泰勒级数计算1阶到N阶的偏导数,最终得到一个Harris矩阵公式:
Figure FDA0003967088860000043
根据Harris的矩阵计算矩阵特征值:λ1,λ2
detM=λ1λ2
traceM=λ12
计算一个角点响应值R来判断角点:
R=detM-β(traceM)2
其中,β为常数,取值范围为0.04~0.06;
像素点的响应值Rdot大于阈值t时,即为角点:
dots={dot|Rdot>t}
步骤S502:计算特征丰富度DegreeI,即角点占图像所有像素点的比例:
Figure FDA0003967088860000051
步骤S503:计算特征变化强度,统计一天内所有时间段内特征丰富度的方差:
Figure FDA0003967088860000052
若特征丰富度越大,特征变化强度越大,则绑定后产生的图像角点特征越明显,绑定的效果越好。
CN201910677704.5A 2019-07-25 2019-07-25 一种交通期望线的边绑定以及评价方法 Active CN110598052B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910677704.5A CN110598052B (zh) 2019-07-25 2019-07-25 一种交通期望线的边绑定以及评价方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910677704.5A CN110598052B (zh) 2019-07-25 2019-07-25 一种交通期望线的边绑定以及评价方法

Publications (2)

Publication Number Publication Date
CN110598052A CN110598052A (zh) 2019-12-20
CN110598052B true CN110598052B (zh) 2023-02-03

Family

ID=68852863

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910677704.5A Active CN110598052B (zh) 2019-07-25 2019-07-25 一种交通期望线的边绑定以及评价方法

Country Status (1)

Country Link
CN (1) CN110598052B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111260745A (zh) * 2020-01-16 2020-06-09 重庆邮电大学 一种基于最优传输理论的边采样及边捆绑方法
CN111367902B (zh) * 2020-02-28 2024-01-16 北京基智科技有限公司 一种基于od数据的轨迹可视分析方法
CN113032667B (zh) * 2021-03-02 2022-09-09 重庆邮电大学 一种基于城市道路网格的重路由及边捆绑方法
CN114817666B (zh) * 2022-04-20 2024-08-02 东南大学 一种基于路网边绑定交通小区间od流可视化方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101807345A (zh) * 2010-03-26 2010-08-18 重庆大学 一种基于视频检测技术的交通拥堵判别方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8933937B2 (en) * 2010-01-22 2015-01-13 Microsoft Corporation Visualizing a layered graph using edge bundling
CN106776844B (zh) * 2016-11-28 2019-10-25 河南科技大学 一种复杂节点连接图的模拟力场集束捆绑方法
CN109885603B (zh) * 2019-01-11 2022-08-26 西南交通大学 一种平行坐标可视化边绑定方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101807345A (zh) * 2010-03-26 2010-08-18 重庆大学 一种基于视频检测技术的交通拥堵判别方法

Also Published As

Publication number Publication date
CN110598052A (zh) 2019-12-20

Similar Documents

Publication Publication Date Title
CN110598052B (zh) 一种交通期望线的边绑定以及评价方法
CN107871119B (zh) 一种基于目标空间知识和两阶段预测学习的目标检测方法
CN109583483A (zh) 一种基于卷积神经网络的目标检测方法和系统
CN111914838B (zh) 一种基于文本行识别的车牌识别方法
CN107403434B (zh) 基于两阶段聚类的sar图像语义分割方法
CN109948593A (zh) 基于结合全局密度特征的mcnn人群计数方法
CN110942484B (zh) 基于遮挡感知和特征金字塔匹配的相机自运动估计方法
CN111274964B (zh) 一种基于无人机视觉显著性分析水面污染物的检测方法
CN112052845A (zh) 图像识别方法、装置、设备及存储介质
CN106570499A (zh) 一种基于概率图模型的目标跟踪方法
CN109740609A (zh) 一种轨距检测方法及装置
CN106651884A (zh) 基于素描结构的平均场变分贝叶斯sar图像分割方法
CN108460833A (zh) 一种基于bim构建传统建筑数字化保护与修复的信息平台
CN104616294A (zh) 一种基于视觉显著性的色调映射图像质量评价方法
CN104599288A (zh) 一种基于肤色模板的特征跟踪方法及装置
CN107808524A (zh) 一种基于无人机的道路交叉口车辆检测方法
CN117437615A (zh) 雾天交通标志检测方法、装置、存储介质和电子设备
CN106127813A (zh) 基于视觉感知能量的监控视频运动片段分割方法
CN116580121B (zh) 一种基于深度学习的单张绘画生成2d模型的方法及系统
CN112287895A (zh) 用于河流排污口检测的模型构建方法、识别方法及系统
CN103279962A (zh) 一种老电影斑点自适应检测方法
CN110599587A (zh) 一种基于单张图像的3d场景重构技术
CN114677670B (zh) 一种身份证篡改自动识别与定位的方法
CN111210433A (zh) 一种基于各向异性势函数的马氏场遥感图像分割方法
CN113034454A (zh) 一种基于人类视觉感官的水下图像质量评价方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant