CN106714112A - 一种基于群智感知的移动车辆跟踪方法及系统 - Google Patents
一种基于群智感知的移动车辆跟踪方法及系统 Download PDFInfo
- Publication number
- CN106714112A CN106714112A CN201710040424.4A CN201710040424A CN106714112A CN 106714112 A CN106714112 A CN 106714112A CN 201710040424 A CN201710040424 A CN 201710040424A CN 106714112 A CN106714112 A CN 106714112A
- Authority
- CN
- China
- Prior art keywords
- vehicle
- intersection point
- point
- anchor point
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/38—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
- G01S19/39—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/42—Determining position
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
- G06V20/42—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/052—Detecting movement of traffic to be counted or controlled with provision for determining speed or overspeed
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/025—Services making use of location information using location based information parameters
- H04W4/027—Services making use of location information using location based information parameters using movement velocity, acceleration information
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明公开一种基于群智感知的移动车辆跟踪方法及系统。该方法通过获取用户终端上传的数据信息,包括用户终端拍摄的N张车辆照片、N张车辆照片的拍摄时间、拍照时的位置坐标、3D加速度计和3D磁力计的数值;确定用户终端拍照的N个方向向量,方向向量为用户终端拍照时摄像头所对的方向的向量,N个方向向量分别与N张车辆照片一一对应;获取N个方向向量与设定阈值范围内数字路网中路段的交点集合,根据交点集合获取车辆的定位点对集合,根据定位点对集合和数据信息获取车辆的移动速度与方向即车辆跟踪信息,根据车辆的移动速度与方向,获取布控的道路区域。采用本发明的方法及系统,跟踪更加灵活及时,感知范围更广、成本更低,且追踪精度高。
Description
技术领域
本发明涉及智能控制领域,特别是涉及一种基于群智感知的移动车辆跟踪方法及系统。
背景技术
公共安全一直是社会各界广泛关注的问题,突发状况发生后,政府和警察常常通过各种渠道数据来追踪可疑车辆和人,其中视频监控追踪是最常用的追踪方式,通过预先部署的视频监控网络进行目标跟踪。随着智能手机的广泛普及,人们可以使用手机拍摄视频、照片,并在法律约束范围内将拍摄的视频或照片作为证据使用。如果将人们手中的智能手机看作移动的监控摄像头,这就是基于群智的视频监控系统。
而现有车辆追踪方法及系统主要涉及如何部署摄像头以达到道路覆盖最大化,以及如何调用摄像头来追踪目标两个方面,但是采用现有技术的追踪方法及系统存在摄像头部署固定,且摄像头存在盲区,因此存在追踪不及时,精度低的问题。
发明内容
本发明的目的是提供一种基于群智感知的移动车辆跟踪方法及系统,通过采用基于群智的车辆跟踪方法,实时对车辆进行定位追踪,以补充固定摄像头在某些区域的盲点,解决现有车辆追踪方法及系统中追踪不及时造成精度低的问题。
为实现上述目的,本发明提供了如下方案:
一种基于群智感知的移动车辆跟踪方法,所述方法包括:
获取用户终端上传的数据信息,所述数据信息包括所述用户终端拍摄的N张车辆照片、所述N张车辆照片的拍摄时间、所述用户终端拍照时的位置坐标、3D加速度计和3D磁力计的数值,其中N为大于1的整数;
根据所述3D加速度计和3D磁力计的数值确定所述用户终端拍照的N个方向向量,所述方向向量为所述用户终端拍照时摄像头所对的方向的向量,所述N个方向向量分别与所述N张车辆照片一一对应;
获取所述N个方向向量与设定阈值内的范围的数字路网中路段的交点集合,所述路段为有向路段,所述设定阈值内的范围为以用户终端拍照时的位置坐标为中心,以所述设定阈值为半径形成的圆内部范围;
根据所述交点集合获取所述车辆的定位点对集合,所述定位点对集合中的定位点对包括第一交点和第二交点,所述第一交点为所述用户终端拍摄车辆第一照片时以用户位置坐标为起点的方向向量与所述数字路网中路段的交点,所述第二交点为所述用户终端拍摄车辆第二照片时以用户位置坐标为起点的方向向量与所述数字路网中路段的交点,所述车辆第二照片为所述车辆第一照片拍摄后的后一时刻拍摄的车辆照片;
根据所述定位点对集合和所述数据信息获取车辆的移动速度与方向;
根据所述车辆的移动速度与方向,获取布控的道路区域。
可选的,所述根据所述3D加速度计和3D磁力计的数值获取所述用户终端拍照的N个方向向量,具体包括:
对于所述用户终端每一次拍照,根据3D加速度计和3D磁力计的数值计算拍照时摄像头所对方向的三维方向向量;
计算所述三维方向向量在地面上的投影;
根据所述投影获得基于地面平面的二维方向向量;
将所述二维方向向量确定为本次用户终端拍照的方向向量;
依次获取所述用户终端N次拍照对应的N个方向向量。
可选的,所述获取所述N个方向向量与设定阈值内的范围的数字路网中路段的交点集合,具体包括:
获取所述用户拍摄照片的位置坐标至所述数字路网中路段的距离;
判断所述距离是否小于或等于所述设定阈值,得到第一判断结果;
当所述第一判断结果表示所述距离小于或等于所述设定阈值,则获取所述用户拍摄所述照片的方向向量与所述数字路网中路段的交点,得到所述交点集合。
可选的,所述根据所述交点集合获取所述车辆的定位点对集合,具体包括:
获取用户拍摄车辆第一照片的方向向量与所述数字路网中路段的交点,得到第一交点集合;
获取用户拍摄车辆第二照片的方向向量与所述数字路网中路段的交点,得到第二交点集合,所述车辆第二照片为所述车辆第一照片拍摄后的后一时刻拍摄的车辆照片;
以所述第一交点集合中的元素为起点,以所述第二交点集合中的元素为终点,构成交点向量;
判断所述交点向量的方向是否与所述数字路网中路段的方向相同,得到第二判断结果;
当所述第二判断结果表示所述交点向量的方向与所述数字路网中路段的方向相同时,则确定所述交点向量的第一交点和第二交点为所述车辆的定位点对;
返回以所述第一交点集合中的元素为起点,以所述第二交点集合中的元素为终点,构成交点向量的步骤,直至遍历所述第一交点集合和所述第二交点集合,得到定位点对集合。
可选的,所述根据所述定位点对集合和所述数据信息获取车辆的移动速度与方向,具体包括:
获取所述定位点对集合中的定位点对的第一交点和第二交点的距离;
获取第一时间与第二时间的时间差,所述第一时间为所述第一交点对应的所述用户拍摄车辆第一照片的时间,所述第二时间为所述第二交点对应的所述用户拍摄车辆第二照片的时间;
根据所述第一交点和第二交点的距离与所述时间差,获取所述定位点对对应的车辆的速度;
对所述定位点对集合中每一定位点对与用户的距离排序;
判断所述定位点对集合中与用户距离最短的定位点对对应的移动速度是否大于车速预设值,得到第三判断结果;
当所述第三判断结果表示所述定位点对集合中与用户距离最短的定位点对对应的移动速度大于车速预设值时,舍弃所述定位点对集合中与用户距离最短的定位点对,形成新的定位点对集合;
返回对所述定位点对集合中每一定位点对与用户的距离排序的步骤;
当所述第三判断结果表示所述定位点对集合中与用户距离最短的定位点对对应的移动速度不大于车速预设值时,确定与用户距离最短的定位点对对应的速度为车辆的移动速度;
将所述与用户距离最短的定位点对中第一交点指向所述第二交点的方向确定为所述车辆的移动方向。
可选的,所述获取布控的道路区域,具体包括:
根据所述车辆的移动速度与方向,计算布控区域;
向所述布控区域内用户终端发布跟踪提示消息。
可选的,所述获取布控的道路区域,具体包括:
根据所述车辆的移动速度与方向,计算布控区域;
调取所述布控区域内监控终端进行监控。
一种基于群智感知的移动车辆跟踪系统,所述系统包括:
数据信息获取模块,用于获取用户终端上传的数据信息,所述数据信息包括所述用户终端拍摄的N张车辆照片、所述N张车辆照片的拍摄时间、所述用户终端拍照时的位置坐标、3D加速度计和3D磁力计的数值,其中N为大于1的整数;
方向向量确定模块,用于根据所述3D加速度计和3D磁力计的数值确定所述用户终端拍照的N个方向向量,所述方向向量为所述用户终端拍照时摄像头所对的方向的向量,所述N个方向向量分别与所述N张车辆照片一一对应;
交点集合获取模块,用于获取所述N个方向向量与设定阈值内的范围的数字路网中路段的交点集合,所述路段为有向路段,所述设定阈值内的范围为以用户终端拍照时的位置坐标为中心,以所述设定阈值为半径形成的圆内部范围;
定位点对集合获取模块,用于根据所述交点集合获取所述车辆的定位点对集合,所述定位点对集合中的定位点对包括第一交点和第二交点,所述第一交点为所述用户终端拍摄车辆第一照片时以用户位置坐标为起点的方向向量与所述数字路网中路段的交点,所述第二交点为所述用户终端拍摄车辆第二照片时以用户位置坐标为起点的方向向量与所述数字路网中路段的交点,所述车辆第二照片为所述车辆第一照片拍摄后的后一时刻拍摄的车辆照片;
车辆移动速度与方向获取模块,用于根据所述定位点对集合和所述数据信息获取车辆的移动速度与方向;
布控道路区域获取模块,用于根据所述车辆的移动速度与方向,获取布控的道路区域。
可选的,所述定位点对集合获取模块具体包括:
第一交点集合获取单元,用于获取用户拍摄所述车辆第一照片的方向向量与所述数字路网中路段的交点,得到第一交点集合;
第二交点集合获取单元,用于获取用户拍摄所述车辆第二照片的方向向量与所述数字路网中路段的交点,得到第二交点集合,所述车辆第二照片为所述车辆第一照片拍摄后的后一时刻拍摄的车辆照片;
交点向量构成单元,用于以所述第一交点集合中的元素为起点,以所述第二交点集合中的元素为终点,构成交点向量;
第一判断单元,用于判断所述交点向量的方向是否与所述数字路网中路段的方向相同,得到第一判断结果;
定位点对确定单元,用于当第一判断结果表示所述交点向量的方向与所述数字路网中路段的方向相同时,确定所述交点向量的第一交点和第二交点为所述车辆的定位点对;
定位点对集合获取单元,用于返回以所述第一交点集合中的元素为起点,以所述第二交点集合中的元素为终点,构成交点向量的步骤,直至遍历所述第一交点集合和所述第二交点集合,得到定位点对集合。
可选的,所述车辆移动速度与方向获取模块具体包括:
距离获取单元,用于获取所述定位点对集合中的定位点对的第一交点和第二交点的距离;
时间差获取单元,用于获取第一时间与第二时间的时间差,所述第一时间为所述第一交点对应的所述用户拍摄所述车辆第一照片的时间,所述第二时间为书和第二交点对应的所述用户拍摄所述车辆第二照片的时间;
速度获取单元,用于根据所述第一交点和所述第二交点的距离与所述时间差,获取所述定位点对对应的车辆的速度;
距离排序单元,用于对所述定位点对集合中每一定位点对与用户的距离排序;
第二判断单元,用于判断所述定位点对集合中与用户距离最短的定位点对对应的移动速度是否大于车速预设值,得到第二判断结果;
定位点对集合形成单元,用于当所述第二判断结果表示所述定位点对集合中与用户距离最短的定位点对对应的移动速度大于车速预设值时,舍弃所述定位点对集合中与用户距离最短的定位点对,形成新的定位点对集合;
返回单元,用于返回对所述定位点对集合中每一定位点对与用户的距离排序的步骤;
车辆移动速度确定单元,用于当所述第二判断结果表示所述定位点对集合中与用户距离最短的定位点对对应的移动速度不大于车速预设值时,确定与用户距离最短的定位点对对应的速度为车辆的移动速度;
车辆移动方向确定单元,用于将所述与用户距离最短的定位点对中第一交点指向所述第二交点的方向确定为所述车辆的移动方向。
根据本发明提供的具体实施例,本发明公开了以下技术效果:
本发明为基于群智的移动车辆实时跟踪的新方法及系统,结合智能手机的拍照应用和传感器的感知能力获得拍摄方向以及数字路网信息,通过几何的方式定位移动目标,分析移动目标的移动参数,进而通过群智的力量实时跟踪移动目标。采用本发明的跟踪方法及系统,跟踪更加灵活及时,感知范围更广、成本更低,且追踪精度高。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明基于群智感知的移动车辆跟踪方法流程图;
图2为本发明基于群智感知的移动车辆跟踪系统结构图;
图3为本发明基于群智感知的移动车辆跟踪方法及系统使用流程图;
图4为本发明基于群智感知的移动车辆跟踪方法及系统中对拍照方向修正示意图;
图5为本发明基于群智感知的移动车辆跟踪方法及系统中定位点对示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
图1为本发明基于群智感知的移动车辆跟踪方法流程图。如图1所示,所述方法包括:
步骤101:获取用户上传的数据信息。用户打开终端GPS定位,在发现道路上行驶的可疑车辆时,连续拍摄N张车辆的照片,并点击可疑车辆在照片中的位置,终端保存了照片、拍照时间戳、GPS位置坐标、3D加速度计和3D磁力计的读值,其中N为大于1的整数,例如N可以为2。因此,上传的数据信息包括用户终端拍摄的N张车辆照片、N张车辆照片的拍摄时间、用户终端拍照时的位置坐标、3D加速度计和3D磁力计的数值。
步骤102:获取用户拍照的方向向量。根据3D加速度计和3D磁力计的数值确定用户终端拍照的N个方向向量,所述方向向量为所述用户终端拍照时摄像头所对的方向的向量,所述N个方向向量分别与所述N张车辆照片一一对应;具体可以为:
对于用户终端每一次拍照,根据3D加速度计和3D磁力计的数值,通过坐标变换,计算拍照时摄像头所对的方向,用三维方向向量表示;计算所述三维方向向量在地面上的投影;
根据所述投影获得基于地面平面的二维方向向量;
将所述二维方向向量确定为所述本次用户终端拍照的方向向量;
依次获取用户终端N次拍照对应的N个方向向量。
其中,可以根据用户标记的车辆在照片中的位置对拍照方向向量进行修正。具体参见图2,修正步骤为:
A、用户拍摄可疑车辆时手动点击可疑车辆在照片中的位置。
B、通过拍照相机的焦距和CMOS的尺寸计算得到拍照的视角FOV(Field OfView),用μ表示视角FOV。
C、通过公式修正拍照方向,其中WS表示手机屏幕的宽度,wt表示手机屏幕左侧到手动点击位置的宽度,β为修正前的拍照方向向量,β'表示修正后的拍照方向向量,μ为拍照的视角。
以N=2为例,地面坐标系可按需定义,比如:指向正东方向为X轴正向,指向正北方向为Y轴正向,地面指向天空方向为Z轴正向。
第i个用户连续拍摄的两张车辆移动的照片分别用Psi和Pei表示。Psi和Pei中分别保存了用户拍照时刻的图像、时间戳、GPS坐标、3D加速度计读值和3D磁力计读值。3D加速度读值和磁力计读值可以计算出摄像头所对方向在地面坐标系下的向量,该向量在地面投影与正东方向的夹角称为拍照角度,范围为0~360度,那么,Psi和Pei分别用5元组(xsi,ysi,dsi,tsi,isi)和(xei,yei,dei,tei,iei)表示。(xsi,ysi)和(xei,yei)分别表示两次拍照用户的经度和纬度信息,如果用户并没有移动,则xsi=xei,ysi=yei。dsi和dei分别表示两次拍照的拍照角度,tsi和tei表示拍照时刻的时间戳,isi和iei表示两次拍照得到的图像文件。
步骤103:获取交点集合。获取所述N个方向向量与设定阈值内的范围的数字路网中路段的交点集合,所述路段为有向路段(方向为车辆允许行驶的方向,双向车道被表示为两个路段),所述设定阈值内的范围为以用户终端拍照时的位置坐标为中心,以所述设定阈值为半径形成的圆内部范围。服务器分别计算N次拍照的方向向量和数字路网中的哪个路段有交点,并计算交点的GPS坐标,其中路段指以两个GPS坐标表示的有向线段。因为路网非常庞大,平行路段非常多,因此,需要设定阈值,例如,设定阈值可以为100米,我们选择距离拍照人100米以内的路段,超出100米,拍照人很难看清车辆。当道路为双向或立交桥时,每个拍照方向向量可能得到两个以上的交点。
具体可以为:
首先,获取用户拍摄照片的位置坐标至所述数字路网中路段的距离;
然后,判断所述距离是否小于或等于所述设定阈值,得到第一判断结果;
当所述第一判断结果表示所述距离小于或等于所述设定阈值,则获取所述用户拍摄所述照片的方向向量与所述数字路网中路段的交点,得到所述交点集合。
步骤104:获取定位点对集合。根据步骤103得到的交点集合获取所述车辆的定位点对集合,所述定位点对集合中的定位点对包括第一交点和第二交点,所述第一交点为所述用户终端拍摄车辆第一照片时以用户位置坐标为起点的方向向量与所述数字路网中路段的交点,所述第二交点为所述用户终端拍摄车辆第二照片时以用户位置坐标为起点的方向向量与所述数字路网中路段的交点,所述车辆第二照片为所述车辆第一照片拍摄后的后一时刻拍摄的车辆照片。具体可以为:
获取用户拍摄车辆第一照片的方向向量与所述数字路网中路段的交点,得到第一交点集合;
获取用户拍摄车辆第二照片的方向向量与所述数字路网中路段的交点,得到第二交点集合,所述车辆第二照片为所述车辆第一照片拍摄后的后一时刻拍摄的车辆照片;
以所述第一交点集合中的元素为起点,以所述第二交点集合中的元素为终点,构成交点向量;
判断所述交点向量的方向是否与所述数字路网中路段的方向相同,得到第二判断结果;
当第二判断结果表示所述交点向量的方向与所述数字路网中路段的方向相同时,则确定所述交点向量的第一交点和第二交点为所述车辆的定位点对;
返回以所述第一交点集合中的元素为起点,以所述第二交点集合中的元素为终点,构成交点向量的步骤,直至遍历所述第一交点集合和所述第二交点集合,得到定位点对集合。
用(起点GPS坐标,终点GPS坐标)表示路网中的一个路段,起点GPS和终点GPS表明了路段的方向。路网R={rs1,rs2,…}。照片Psi与n个路段的交点集为SS={ss1,ss2,…},ssp为2维GPS坐标,照片Pei与m个路段的交点为SE={se1,se2,…},seq为2维GPS坐标,这些交点为车辆可能的定位点,那么定位点对集合为M=S×E={(ssp,seq)|1≤p≤n,1≤q≤m}。假如向量(ssp,seq)的方向与ssp所在路段的方向一致,则ssp和seq可能为车辆的行驶轨迹。
步骤105:获取车辆移动速度和方向。具体可以为:
获取所述定位点对集合中的定位点对的第一交点和第二交点的距离;
获取第一时间与第二时间的时间差,所述第一时间为所述第一交点对应的所述用户拍摄车辆第一照片的时间,所述第二时间为书和第二交点对应的所述用户拍摄车辆第二照片的时间;
根据所述第一交点和第二交点的距离与所述时间差,获取所述定位点对对应的车辆的速度;
对所述定位点对集合中每一定位点对与用户的距离排序;
判断所述定位点对集合中与用户距离最短的定位点对对应的移动速度是否大于车速预设值,得到第三判断结果;
当所述第三判断结果表示所述定位点对集合中与用户距离最短的定位点对对应的移动速度大于车速预设值时,舍弃所述定位点对集合中与用户距离最短的定位点对,形成新的定位点对集合;
返回对所述定位点对集合中每一定位点对与用户的距离排序的步骤;
当所述第三判断结果表示所述定位点对集合中与用户距离最短的定位点对对应的移动速度不大于车速预设值时,确定与用户距离最短的定位点对对应的速度为车辆的移动速度;
将所述与用户距离最短的定位点对中第一交点指向所述第二交点的方向确定为所述车辆的移动方向。
服务器分别计算用户每次拍照得到的多个可能的行驶轨迹,表示为多个定位点对,形成定位点对集合,每个定位点对构成一个向量,将此向量与拍照终端的距离做排序,然后根据定位点对两个定位点的距离与时间差计算每一定位点对对应的速度。最终车辆移动速度的确定原则是速度符合规定的同时选择距离最近的一组定位点对,作为车辆的定位点对。如果移动速度超出常理,比如大于200km/hour,且存在其他定位点对,则该异常定位点对被舍弃。当存在多组合理的定位点对时,我们选择离拍照人最近的定位点对作为一次跟踪记录。
步骤106:获取布控道路。根据步骤105获取的车辆的移动速度与方向,计算布控区域;可以采用向所述布控区域内用户终端发布跟踪提示消息的方式,当有用户拍摄了新的照片,从步骤101开始,再次跟踪。也可以采用调取所述布控区域内监控终端进行监控的方式进行布控。
当有K个用户上传了数据,则对每个用户上传的数据信息分别按步骤101-步骤106进行处理。
图2为本发明基于群智感知的移动车辆跟踪系统结构图,具体实施过程参见图1步骤101-106。如图2所示,所述结构包括:
数据信息获取模块201,用于获取用户终端上传的数据信息,所述数据信息包括所述用户终端拍摄的N张车辆照片、所述N张车辆照片的拍摄时间、所述用户终端拍照时的位置坐标、3D加速度计和3D磁力计的数值,其中N为大于1的整数;具体
方向向量确定模块202,用于根据所述3D加速度计和3D磁力计的数值确定用户终端拍照的N个方向向量,所述方向向量为所述用户终端拍照时摄像头所对的方向的向量,所述N个方向向量分别与所述N张车辆照片一一对应;
交点集合获取模块203,用于获取所述N个方向向量与设定阈值范围内数字路网中路段的交点集合,所述路段为有向路段,所述设定阈值范围为以用户终端拍照时的位置坐标为中心,以所述设定阈值为半径形成的圆内部范围;
定位点对集合获取模块204,用于根据所述交点集合获取所述车辆的定位点对集合,所述定位点对集合中的定位点对包括第一交点和第二交点,所述第一交点为所述用户终端拍摄车辆第一照片时以用户位置坐标为起点的方向向量与所述数字路网中路段的交点,所述第二交点为所述用户终端拍摄车辆第二照片时以用户位置坐标为起点的方向向量与所述数字路网中路段的交点,所述车辆第二照片为所述车辆第一照片拍摄后的后一时刻拍摄的车辆照片;
车辆移动速度与方向获取模块205,用于根据所述定位点对集合和所述数据信息获取车辆的移动速度与方向;
布控道路区域获取模块206,用于根据所述车辆的移动速度与方向,获取布控的道路区域。
图3为本发明基于群智感知的移动车辆跟踪方法及系统使用流程图。如图3所示,以拍两张照片上传为例,用户在使用时,具体包括以下步骤:
步骤301:警方或政府发布嫌疑车辆跟踪通告,路上的行人(即该跟踪App的用户)在遇到可疑车辆时拍摄照片,并同意上传数据。
步骤302:App根据拍照时读取的手机的3D加速度和3D磁力计的读值,计算拍照角度。
步骤303:App将照片、拍照时间、拍照角度、GPS定位坐标一并上传至服务器;
步骤304:服务器根据拍照角度、GPS定位点以及数字路网数据,计算车辆的位置范围,照片可用于人工识别是否为追踪对象。
步骤305:服务器从多个定位点中过滤异常点,最终根据两次拍照的数据,确定两个定位点。
步骤306:服务器根据两个定位点和拍照时间间隔,计算车辆的移动速度和移动方向。
步骤307:服务器从数字路网中找到方圆F公里范围内的用户,并向他们发布协助追踪的请求;或者根据车辆的移动速度和移动方向,计算X小时内可能到达的位置,并向该范围内的用户发布协助追踪的请求。
车辆定位方法和车速估算方法具体如下:
第i个用户连续拍摄的两张车辆移动的照片分别用Psi和Pei表示。Psi和Pei中分别保存了用户拍照时刻的图像、时间戳、GPS坐标、3D加速度计读值和3D磁力计读值。3D加速度读值和磁力计读值可以计算出摄像头所对方向在地面坐标系下的向量,该向量在地面投影与正东方向的夹角称为拍照角度,范围为0~360度,那么,Psi和Pei分别用5元组(xsi,ysi,dsi,tsi,isi)和(xei,yei,dei,tei,iei)表示。(xsi,ysi)和(xei,yei)分别表示两次拍照用户的经度和纬度信息,如果用户并没有移动,则xsi=xei,ysi=yei。dsi和dei分别表示两次拍照的拍照角度,tsi和tei表示拍照时刻的时间戳,isi和iei表示两次拍照得到的图像文件。
图5为本发明基于群智感知的移动车辆跟踪方法及系统中定位点对示意图,参见图5所示。根据用户i两次拍照定位,可以得到两个点p1(xsi,ysi)和p2(xei,yei),两点计算车辆定位点的方法相同,以p1为例,用户在该点的拍照方向为dsi。给定路网R={rs1,rs2,…},rsi=((snxi,snyi),(enxi,enyi))。针对每一个rsi分别计算p1点至线段MN的距离,M点坐标为(snxi,snyi),N点坐标为(enxi,enyi)),如果距离大于阈值(如100米),则rsi被忽略,如果距离小于阈值,则计算起点为p1方向为dsi的向量与线段SE的交点,放入集合SS。同样的方法,计算起点为p2方向为dei的向量与路网的交点集合为SE。
从SS中取出一个元素,记为ssm,ssm∈SS,ssm在路段rsk上,从SE中取出一个元素,记为sen,sen∈SE,如果起点为ssm终点为sen的向量的方向与路段rsk的方向一致,则将定位点对(ssm,sen)放入匹配对集合M。遍历SS和SE中所有元素,得到最终的集合M。
对于定位点对mp=(ssm,sen),计算对应的车速vp,公式为:
当vp>=200km/hour时且|M-mp|>0时,mp当做异常数据抛弃;最终得到过滤异常后的集合计算M’中点对与p1和p2点的距离,选择距离最近的点对,该点对为最终的车辆定位点,该点对对应的车辆移动速度为最终的车辆速度估算值。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的系统而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处。综上所述,本说明书内容不应理解为对本发明的限制。
Claims (10)
1.一种基于群智感知的移动车辆跟踪方法,其特征在于,所述方法包括:
获取用户终端上传的数据信息,所述数据信息包括所述用户终端拍摄的N张车辆照片、所述N张车辆照片的拍摄时间、所述用户终端拍照时的位置坐标、3D加速度计和3D磁力计的数值,其中N为大于1的整数;
根据所述3D加速度计和3D磁力计的数值确定所述用户终端拍照的N个方向向量,所述方向向量为所述用户终端拍照时摄像头所对的方向的向量,所述N个方向向量分别与所述N张车辆照片一一对应;
获取所述N个方向向量与设定阈值内的范围的数字路网中路段的交点集合,所述路段为有向路段,所述设定阈值内的范围为以用户终端拍照时的位置坐标为中心,以所述设定阈值为半径形成的圆内部范围;
根据所述交点集合获取所述车辆的定位点对集合,所述定位点对集合中的定位点对包括第一交点和第二交点,所述第一交点为所述用户终端拍摄车辆第一照片时以用户位置坐标为起点的方向向量与所述数字路网中路段的交点,所述第二交点为所述用户终端拍摄车辆第二照片时以用户位置坐标为起点的方向向量与所述数字路网中路段的交点,所述车辆第二照片为所述车辆第一照片拍摄后的后一时刻拍摄的车辆照片;
根据所述定位点对集合和所述数据信息获取车辆的移动速度与方向;
根据所述车辆的移动速度与方向,获取布控的道路区域。
2.根据权利要求1所述的方法,其特征在于,所述根据所述3D加速度计和3D磁力计的数值获取所述用户终端拍照的N个方向向量,具体包括:
对于所述用户终端每一次拍照,根据3D加速度计和3D磁力计的数值计算拍照时摄像头所对方向的三维方向向量;
计算所述三维方向向量在地面上的投影;
根据所述投影获得基于地面平面的二维方向向量;
将所述二维方向向量确定为本次用户终端拍照的方向向量;
依次获取所述用户终端N次拍照对应的N个方向向量。
3.根据权利要求1所述的方法,其特征在于,所述获取所述N个方向向量与设定阈值内的范围的数字路网中路段的交点集合,具体包括:
获取所述用户拍摄照片的位置坐标至所述数字路网中路段的距离;
判断所述距离是否小于或等于所述设定阈值,得到第一判断结果;
当所述第一判断结果表示所述距离小于或等于所述设定阈值,则获取所述用户拍摄所述照片的方向向量与所述数字路网中路段的交点,得到所述交点集合。
4.根据权利要求1所述的方法,其特征在于,所述根据所述交点集合获取所述车辆的定位点对集合,具体包括:
获取用户拍摄车辆第一照片的方向向量与所述数字路网中路段的交点,得到第一交点集合;
获取用户拍摄车辆第二照片的方向向量与所述数字路网中路段的交点,得到第二交点集合,所述车辆第二照片为所述车辆第一照片拍摄后的后一时刻拍摄的车辆照片;
以所述第一交点集合中的元素为起点,以所述第二交点集合中的元素为终点,构成交点向量;
判断所述交点向量的方向是否与所述数字路网中路段的方向相同,得到第二判断结果;
当所述第二判断结果表示所述交点向量的方向与所述数字路网中路段的方向相同时,则确定所述交点向量的第一交点和第二交点为所述车辆的定位点对;
返回以所述第一交点集合中的元素为起点,以所述第二交点集合中的元素为终点,构成交点向量的步骤,直至遍历所述第一交点集合和所述第二交点集合,得到定位点对集合。
5.根据权利要求1所述的方法,其特征在于,所述根据所述定位点对集合和所述数据信息获取车辆的移动速度与方向,具体包括:
获取所述定位点对集合中的定位点对的第一交点和第二交点的距离;
获取第一时间与第二时间的时间差,所述第一时间为所述第一交点对应的所述用户拍摄车辆第一照片的时间,所述第二时间为所述第二交点对应的所述用户拍摄车辆第二照片的时间;
根据所述第一交点和第二交点的距离与所述时间差,获取所述定位点对对应的车辆的速度;
对所述定位点对集合中每一定位点对与用户的距离排序;
判断所述定位点对集合中与用户距离最短的定位点对对应的移动速度是否大于车速预设值,得到第三判断结果;
当所述第三判断结果表示所述定位点对集合中与用户距离最短的定位点对对应的移动速度大于车速预设值时,舍弃所述定位点对集合中与用户距离最短的定位点对,形成新的定位点对集合;
返回对所述定位点对集合中每一定位点对与用户的距离排序的步骤;
当所述第三判断结果表示所述定位点对集合中与用户距离最短的定位点对对应的移动速度不大于车速预设值时,确定与用户距离最短的定位点对对应的速度为车辆的移动速度;
将所述与用户距离最短的定位点对中第一交点指向所述第二交点的方向确定为所述车辆的移动方向。
6.根据权利要求1所述的方法,其特征在于,所述获取布控的道路区域,具体包括:
根据所述车辆的移动速度与方向,计算布控区域;
向所述布控区域内用户终端发布跟踪提示消息。
7.根据权利要求1所述的方法,其特征在于,所述获取布控的道路区域,具体包括:
根据所述车辆的移动速度与方向,计算布控区域;
调取所述布控区域内监控终端进行监控。
8.一种基于群智感知的移动车辆跟踪系统,其特征在于,所述系统包括:
数据信息获取模块,用于获取用户终端上传的数据信息,所述数据信息包括所述用户终端拍摄的N张车辆照片、所述N张车辆照片的拍摄时间、所述用户终端拍照时的位置坐标、3D加速度计和3D磁力计的数值,其中N为大于1的整数;
方向向量确定模块,用于根据所述3D加速度计和3D磁力计的数值确定所述用户终端拍照的N个方向向量,所述方向向量为所述用户终端拍照时摄像头所对的方向的向量,所述N个方向向量分别与所述N张车辆照片一一对应;
交点集合获取模块,用于获取所述N个方向向量与设定阈值内的范围的数字路网中路段的交点集合,所述路段为有向路段,所述设定阈值内的范围为以用户终端拍照时的位置坐标为中心,以所述设定阈值为半径形成的圆内部范围;
定位点对集合获取模块,用于根据所述交点集合获取所述车辆的定位点对集合,所述定位点对集合中的定位点对包括第一交点和第二交点,所述第一交点为所述用户终端拍摄车辆第一照片时以用户位置坐标为起点的方向向量与所述数字路网中路段的交点,所述第二交点为所述用户终端拍摄车辆第二照片时以用户位置坐标为起点的方向向量与所述数字路网中路段的交点,所述车辆第二照片为所述车辆第一照片拍摄后的后一时刻拍摄的车辆照片;
车辆移动速度与方向获取模块,用于根据所述定位点对集合和所述数据信息获取车辆的移动速度与方向;
布控道路区域获取模块,用于根据所述车辆的移动速度与方向,获取布控的道路区域。
9.根据权利要求8所述的系统,其特征在于,所述定位点对集合获取模块具体包括:
第一交点集合获取单元,用于获取用户拍摄所述车辆第一照片的方向向量与所述数字路网中路段的交点,得到第一交点集合;
第二交点集合获取单元,用于获取用户拍摄所述车辆第二照片的方向向量与所述数字路网中路段的交点,得到第二交点集合,所述车辆第二照片为所述车辆第一照片拍摄后的后一时刻拍摄的车辆照片;
交点向量构成单元,用于以所述第一交点集合中的元素为起点,以所述第二交点集合中的元素为终点,构成交点向量;
第一判断单元,用于判断所述交点向量的方向是否与所述数字路网中路段的方向相同,得到第一判断结果;
定位点对确定单元,用于当第一判断结果表示所述交点向量的方向与所述数字路网中路段的方向相同时,确定所述交点向量的第一交点和第二交点为所述车辆的定位点对;
定位点对集合获取单元,用于返回以所述第一交点集合中的元素为起点,以所述第二交点集合中的元素为终点,构成交点向量的步骤,直至遍历所述第一交点集合和所述第二交点集合,得到定位点对集合。
10.根据权利要求8所述的系统,其特征在于,所述车辆移动速度与方向获取模块具体包括:
距离获取单元,用于获取所述定位点对集合中的定位点对的第一交点和第二交点的距离;
时间差获取单元,用于获取第一时间与第二时间的时间差,所述第一时间为所述第一交点对应的所述用户拍摄所述车辆第一照片的时间,所述第二时间为书和第二交点对应的所述用户拍摄所述车辆第二照片的时间;
速度获取单元,用于根据所述第一交点和所述第二交点的距离与所述时间差,获取所述定位点对对应的车辆的速度;
距离排序单元,用于对所述定位点对集合中每一定位点对与用户的距离排序;
第二判断单元,用于判断所述定位点对集合中与用户距离最短的定位点对对应的移动速度是否大于车速预设值,得到第二判断结果;
定位点对集合形成单元,用于当所述第二判断结果表示所述定位点对集合中与用户距离最短的定位点对对应的移动速度大于车速预设值时,舍弃所述定位点对集合中与用户距离最短的定位点对,形成新的定位点对集合;
返回单元,用于返回对所述定位点对集合中每一定位点对与用户的距离排序的步骤;
车辆移动速度确定单元,用于当所述第二判断结果表示所述定位点对集合中与用户距离最短的定位点对对应的移动速度不大于车速预设值时,确定与用户距离最短的定位点对对应的速度为车辆的移动速度;
车辆移动方向确定单元,用于将所述与用户距离最短的定位点对中第一交点指向所述第二交点的方向确定为所述车辆的移动方向。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710040424.4A CN106714112A (zh) | 2017-01-20 | 2017-01-20 | 一种基于群智感知的移动车辆跟踪方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710040424.4A CN106714112A (zh) | 2017-01-20 | 2017-01-20 | 一种基于群智感知的移动车辆跟踪方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106714112A true CN106714112A (zh) | 2017-05-24 |
Family
ID=58908562
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710040424.4A Pending CN106714112A (zh) | 2017-01-20 | 2017-01-20 | 一种基于群智感知的移动车辆跟踪方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106714112A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110493728A (zh) * | 2019-08-14 | 2019-11-22 | 深圳市名通科技股份有限公司 | 基于移动通信网络的路径识别方法、装置、设备及介质 |
CN110706258A (zh) * | 2019-10-10 | 2020-01-17 | 北京百度网讯科技有限公司 | 对象追踪方法及装置 |
CN111753030A (zh) * | 2019-03-28 | 2020-10-09 | 北京交研智慧科技有限公司 | 构建公交路网与道路网的联合拓扑的方法、装置及上位机 |
CN111753030B (zh) * | 2019-03-28 | 2024-06-11 | 北京交研智慧科技有限公司 | 构建公交路网与道路网的联合拓扑的方法、装置及上位机 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009119945A1 (en) * | 2008-03-25 | 2009-10-01 | Thinkware Systems Corporation | Method and apparatus for path displaying of 3d vector enlargement drawing |
CN103246896A (zh) * | 2013-05-24 | 2013-08-14 | 成都方米科技有限公司 | 一种鲁棒性车辆实时检测与跟踪方法 |
CN104459183A (zh) * | 2014-12-24 | 2015-03-25 | 四川大学 | 一种基于物联网的单相机车辆测速系统及方法 |
-
2017
- 2017-01-20 CN CN201710040424.4A patent/CN106714112A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009119945A1 (en) * | 2008-03-25 | 2009-10-01 | Thinkware Systems Corporation | Method and apparatus for path displaying of 3d vector enlargement drawing |
CN103246896A (zh) * | 2013-05-24 | 2013-08-14 | 成都方米科技有限公司 | 一种鲁棒性车辆实时检测与跟踪方法 |
CN104459183A (zh) * | 2014-12-24 | 2015-03-25 | 四川大学 | 一种基于物联网的单相机车辆测速系统及方法 |
Non-Patent Citations (3)
Title |
---|
JIANG DAN: "A Multi-object Motion-tracking Method for Video Surveillance", 《ACIS INTERNATIONAL CONFERENCE ON SOFTWARE ENGINEERING, ARTIFICIAL INTELLIGENCE, NETWORKING, AND PARALLEL/DISTRIBUTED COMPUTING》 * |
LIANG LIU ET AL.: "Dynamic Node Collaboration for Mobile Target Tracking in Wireless Camera Sensor Networks", 《IEEE》 * |
陈荟慧 等: "移动群智感知应用", 《中兴通讯技术》 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111753030A (zh) * | 2019-03-28 | 2020-10-09 | 北京交研智慧科技有限公司 | 构建公交路网与道路网的联合拓扑的方法、装置及上位机 |
CN111753030B (zh) * | 2019-03-28 | 2024-06-11 | 北京交研智慧科技有限公司 | 构建公交路网与道路网的联合拓扑的方法、装置及上位机 |
CN110493728A (zh) * | 2019-08-14 | 2019-11-22 | 深圳市名通科技股份有限公司 | 基于移动通信网络的路径识别方法、装置、设备及介质 |
CN110493728B (zh) * | 2019-08-14 | 2021-06-25 | 深圳市名通科技股份有限公司 | 基于移动通信网络的路径识别方法、装置、设备及介质 |
CN110706258A (zh) * | 2019-10-10 | 2020-01-17 | 北京百度网讯科技有限公司 | 对象追踪方法及装置 |
US11288887B2 (en) | 2019-10-10 | 2022-03-29 | Beijing Baidu Netcom Science Technology Co., Ltd. | Object tracking method and apparatus |
CN110706258B (zh) * | 2019-10-10 | 2022-10-04 | 北京百度网讯科技有限公司 | 对象追踪方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11428537B2 (en) | Localization and mapping methods using vast imagery and sensory data collected from land and air vehicles | |
US10817735B2 (en) | Need-sensitive image and location capture system and method | |
CN110322702A (zh) | 一种基于双目立体视觉系统的车辆智能测速方法 | |
Chen et al. | Inexpensive multimodal sensor fusion system for autonomous data acquisition of road surface conditions | |
CN110285793A (zh) | 一种基于双目立体视觉系统的车辆智能测轨迹方法 | |
CN102724482B (zh) | 基于gps和gis的智能视觉传感网络运动目标接力跟踪系统 | |
CN104280036B (zh) | 一种交通信息的检测与定位方法、装置及电子设备 | |
CN112184890B (zh) | 一种应用于电子地图中的摄像头精准定位方法及处理终端 | |
CN112836737A (zh) | 一种基于车路数据融合的路侧组合感知设备在线标定方法 | |
CN110945320B (zh) | 车辆定位方法和系统 | |
CN106462727A (zh) | 用于车道尽头识别的系统和方法 | |
CA2526105A1 (en) | Image display method and image display apparatus | |
CN106289285A (zh) | 一种关联场景的机器人侦察地图及构建方法 | |
CN108139211A (zh) | 用于测量的装置和方法以及程序 | |
CN104834784A (zh) | 一种铁路应急辅助救援三维虚拟电子沙盘系统 | |
CN106019264A (zh) | 一种基于双目视觉的无人机危险车距识别系统及方法 | |
CN108196285A (zh) | 一种基于多传感器融合的精确定位系统 | |
CN106767791A (zh) | 一种采用基于粒子群优化的ckf的惯性/视觉组合导航方法 | |
CN108492549A (zh) | 一种车辆停放位置识别方法及车辆停放位置识别系统 | |
CN103398710A (zh) | 一种夜雾天况下的舰船进出港导航系统及其构建方法 | |
CN108759823A (zh) | 基于图像匹配的指定道路上低速自动驾驶车辆定位及纠偏方法 | |
CN106714112A (zh) | 一种基于群智感知的移动车辆跟踪方法及系统 | |
CN108725439A (zh) | 驾驶辅助装置以及驾驶辅助方法 | |
CN106908038A (zh) | 一种基于鱼眼镜头摄像机的监测装置及监控系统 | |
CN114419231A (zh) | 基于点云数据和ai技术的交通设施矢量识别提取分析系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
AD01 | Patent right deemed abandoned |
Effective date of abandoning: 20200508 |
|
AD01 | Patent right deemed abandoned |