CN111044033B - 基于视频和微蜂窝网络的融合位置路径拟合方法及系统 - Google Patents

基于视频和微蜂窝网络的融合位置路径拟合方法及系统 Download PDF

Info

Publication number
CN111044033B
CN111044033B CN201911213808.7A CN201911213808A CN111044033B CN 111044033 B CN111044033 B CN 111044033B CN 201911213808 A CN201911213808 A CN 201911213808A CN 111044033 B CN111044033 B CN 111044033B
Authority
CN
China
Prior art keywords
path
positions
fitting
time
fitted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911213808.7A
Other languages
English (en)
Other versions
CN111044033A (zh
Inventor
董继堂
陈昊鹏
文炫达
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Jiaotong University
Original Assignee
Shanghai Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Jiaotong University filed Critical Shanghai Jiaotong University
Priority to CN201911213808.7A priority Critical patent/CN111044033B/zh
Publication of CN111044033A publication Critical patent/CN111044033A/zh
Application granted granted Critical
Publication of CN111044033B publication Critical patent/CN111044033B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/206Instruments for performing navigational calculations specially adapted for indoor navigation
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Navigation (AREA)

Abstract

本发明提供了一种基于视频和微蜂窝网络的融合位置路径拟合方法及系统,包括:筛选待拟合路径集合步骤:根据视频定位数据的起止时间,从微蜂窝网络定位数据中选择多条路径作为拟合路径集合,用于下一步筛选;待拟合路径选择步骤:从拟合路径集合中选择差值最小的路径,记为待拟合路径;路径拟合步骤:通过视频定位数据和筛选出的待拟合路径拟合出一条新路径;不合理位置替换步骤:替换生成的新路径上不合理的位置。本发明以视频定位为主,保证了定位的大致精度,其次通过微蜂窝网络定位进行辅助,避免因一种技术误差导致的定位不准的概率,同时,结合两种技术对室内的小范围场景内的不同人物进行区分,进一步提高对于不同人物具体路径的区分程度。

Description

基于视频和微蜂窝网络的融合位置路径拟合方法及系统
技术领域
本发明涉及数据处理技术领域,具体地,涉及基于视频和微蜂窝网络的融合位置路径拟合方法及系统。尤其地,涉及基于视频网络和微蜂窝网络的融合位置路径拟合方法。
背景技术
随着网络速度的不断提升,各类移动端应用遍布人们生活的方方面面,其中大部分应用都涉及定位功能。精确的定位和路径地图信息对于武装部队、海岸线警卫队人员、消防人员、警察、搜救小组和紧急医疗救护人员非常有用,同时在狩猎、登山、划船、帆伞运动、降落、登山等休闲娱乐中也非常有用。
车辆的位置坐标通常由全球定位系统(GPS)或类似系统确定。GPS是一个由覆盖全球的24颗卫星组成的卫星系统,只有当GPS接收机锁定其中至少三颗卫星时,GPS才能正常工作,计算出二维位置,也就是确定经度和纬度,从而更进一步地确定运动轨迹。如果需要得到三维位置或是运行姿态,也就是经度、纬度和高度,则必须接收四颗以上的卫星信号。
GPS接收机的平均定位精度只有15米或50英尺。而且该精度常常还受到大气条件及其他因素的影响。例如,在巿区有过多的高层建筑或屏蔽物会影响卫星信号的接收质量,山区地形也会影响卫星信号的接收质量。另外,当接收机处于房间内,或是隧道、峡谷、洞穴等地方,GPS信号也会受到干扰甚至消失。
随着运动传感器设备的发展,如运动传感加速度传感器,重力加速度传感器,陀螺仪和类似传感器的出现,已经有人提出将这些产生输入信号的传感器集成到小型设备或便携式设备,使得无需依赖卫星获得位置信号的系统也应运而生,例如,在美国专利7138979中揭露了一种便携式二维定位的输入信号的产生方法及其便携式设备,该专利揭露了利用照相机、陀螺仪,和/或加速度传感器来检测该设备在空间定位上的变化,从而产生显示该变化的位置信号,该种系统无需依赖卫星获得位置信号,也消除了前述的使用限制,并且该系统的精确度可以达到约2-5英尺。
但是,以上技术的精度,在面对室内的小范围多人并行的情况下的目标区分度显然不够,不能很好的描述每个人所经过的路径。
发明内容
针对现有技术中的缺陷,本发明的目的是提供一种基于视频网络和微蜂窝网络的融合位置路径拟合方法及系统。
根据本发明提供的一种基于视频和微蜂窝网络的融合位置路径拟合方法,包括:
筛选待拟合路径集合步骤:根据视频定位数据的起止时间,从微蜂窝网络定位数据中选择多条路径作为拟合路径集合,用于下一步筛选;
待拟合路径选择步骤:从拟合路径集合中选择差值最小的路径,记为待拟合路径;
路径拟合步骤:通过视频定位数据和筛选出的待拟合路径拟合出一条新路径;
不合理位置替换步骤:替换生成的新路径上不合理的位置;
优选地,所述的筛选待拟合路径集合步骤包括:
位置筛选子步骤:按时间区间选择符合预设条件的位置;
位置分组子步骤:将筛选出的位置按用户标识分组;所述用户标识是用户的IP,通过微蜂窝数据获得;
路径生成子步骤:将同一组位置按时间排序组成一条路径,作为待拟合路径集合中的一条路径;
所述路径指一组位置,根据时间排序,连起来表示一条路径;
所述位置包括经度、纬度、楼层、时间以及用户标识,表示某个个体的在那个时刻所在的位置,表示为(x,y,z,ts,id),分别对应经度、纬度、楼层、时间以及用户标识。
优选地,所述待拟合路径选择步骤包括:
时间点最近位置选择子步骤:从视频定位数据的所有位置中,选择与当前位置时间点最接近的位置;
单一位置差值计算子步骤:计算当前位置与时间点最近位置的距离;
路径差值计算子步骤:通过对路径内的所有位置的单一位置差值进行求平均,计算出拟合路径集合中所有路径的路径差值;
待拟合路径筛选子步骤:从拟合路径集合中选择差值最小的路径。
优选地,所述单一位置差值计算子步骤:
计算公式如公式(1)所示;
其中,x和y分别表示当前位置的经纬度,x*和y*分别表示时间点最近位置的经纬度;
所述路径差值计算子步骤:
计算公式如公式(2)所示;
其中,
n表示路径中位置的数量,disi表示该路径中的第i个位置的单一位置差值。
优选地,所述路径拟合步骤包括:
位置填充子步骤:在视频路径和待拟合路径两条路径缺少的时间点上添加新的位置,使得组成两条路径的拥有相同数量的位置并且在时间上一一对应;
位置拟合子步骤:从视频路径和待拟合路径中各自取出在相同时间的位置,取两个位置经纬度的平均值,作为新的位置的经纬度,原来两个位置的时间作为新的位置的时间;
路径生成子步骤;拟合后的新位置按时间排序组成新的路径;
优选地,所述新的位置的经纬度由其前后两个位置的连线上按时间比例取得,如公式(3)(4)所示;
其中,
x*和y*分别为新添加的位置的经度和纬度;
x1、x2、y1、y2、ts1、ts2分别为前后两个位置的经度、纬度和时间;
所述不合理位置替换步骤:
将拟合得到的新路径中人无法到达的位置,替换为距离该位置最近的人可到达的位置。
根据本发明提供的一种基于视频和微蜂窝网络的融合位置路径拟合系统,包括:
筛选待拟合路径集合模块:根据视频定位数据的起止时间,从微蜂窝网络定位数据中选择多条路径作为拟合路径集合,用于下一步筛选;
待拟合路径选择模块:从拟合路径集合中选择差值最小的路径,记为待拟合路径;
路径拟合模块:通过视频定位数据和筛选出的待拟合路径拟合出一条新路径;
不合理位置替换模块:替换生成的新路径上不合理的位置;
优选地,所述的筛选待拟合路径集合模块包括:
位置筛选子模块:按时间区间选择符合预设条件的位置;
位置分组子模块:将筛选出的位置按用户标识分组;所述用户标识是用户的IP,通过微蜂窝数据获得;
路径生成子模块:将同一组位置按时间排序组成一条路径,作为待拟合路径集合中的一条路径;
所述路径指一组位置,根据时间排序,连起来表示一条路径;
所述位置包括经度、纬度、楼层、时间以及用户标识,表示某个个体的在那个时刻所在的位置,表示为(x,y,z,ts,id),分别对应经度、纬度、楼层、时间以及用户标识;
所述待拟合路径选择模块包括:
时间点最近位置选择子模块:从视频定位数据的所有位置中,选择与当前位置时间点最接近的位置;
单一位置差值计算子模块:计算当前位置与时间点最近位置的距离;
路径差值计算子模块:通过对路径内的所有位置的单一位置差值进行求平均,计算出拟合路径集合中所有路径的路径差值;
待拟合路径筛选子模块:从拟合路径集合中选择差值最小的路径。
优选地,所述单一位置差值计算子模块:
计算公式如公式(1)所示;
其中,x和y分别表示当前位置的经纬度,x*和y*分别表示时间点最近位置的经纬度;
所述路径差值计算子模块:
计算公式如公式(2)所示;
其中,
n表示路径中位置的数量,disi表示该路径中的第i个位置的单一位置差值。
优选地,所述路径拟合模块包括:
位置填充子模块:在视频路径和待拟合路径两条路径缺少的时间点上添加新的位置,使得组成两条路径的拥有相同数量的位置并且在时间上一一对应;
位置拟合子模块:从视频路径和待拟合路径中各自取出在相同时间的位置,取两个位置经纬度的平均值,作为新的位置的经纬度,原来两个位置的时间作为新的位置的时间;
路径生成子模块;拟合后的新位置按时间排序组成新的路径;
所述新的位置的经纬度由其前后两个位置的连线上按时间比例取得,如公式(3)(4)所示;
其中,
x*和y*分别为新添加的位置的经度和纬度;
x1、x2、y1、y2、ts1、ts2分别为前后两个位置的经度、纬度和时间;
所述不合理位置替换模块:
将拟合得到的新路径中人无法到达的位置,替换为距离该位置最近的人可到达的位置。
与现有技术相比,本发明具有如下的有益效果:
本发明以视频定位为主,首先保证了定位的大致精度,其次通过微蜂窝网络定位进行辅助,避免因一种技术误差导致的定位不准的概率,同时,结合两种技术对室内的小范围场景内的不同人物进行区分,可以进一步提高对于不同人物具体路径的区分程度。
附图说明
通过阅读参照以下附图对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1为本发明提供的位置填充前的两条路径示意图。
图2为本发明提供的位置填充后的两条路径示意图。
具体实施方式
下面结合具体实施例对本发明进行详细说明。以下实施例将有助于本领域的技术人员进一步理解本发明,但不以任何形式限制本发明。应当指出的是,对本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变化和改进。这些都属于本发明的保护范围。
根据本发明提供的一种基于视频和微蜂窝网络的融合位置路径拟合方法,包括:
筛选待拟合路径集合步骤:根据视频定位数据的起止时间,从微蜂窝网络定位数据中选择多条路径作为拟合路径集合,用于下一步筛选;
待拟合路径选择步骤:从拟合路径集合中选择差值最小的路径,记为待拟合路径;
路径拟合步骤:通过视频定位数据和筛选出的待拟合路径拟合出一条新路径;
不合理位置替换步骤:替换生成的新路径上不合理的位置;
具体地,所述的筛选待拟合路径集合步骤包括:
位置筛选子步骤:按时间区间选择符合预设条件的位置;
位置分组子步骤:将筛选出的位置按用户标识分组;所述用户标识是用户的IP,通过微蜂窝数据获得;
路径生成子步骤:将同一组位置按时间排序组成一条路径,作为待拟合路径集合中的一条路径;
所述路径指一组位置,根据时间排序,连起来表示一条路径;
所述位置包括经度、纬度、楼层、时间以及用户标识,表示某个个体的在那个时刻所在的位置,表示为(x,y,z,ts,id),分别对应经度、纬度、楼层、时间以及用户标识。
具体地,所述待拟合路径选择步骤包括:
时间点最近位置选择子步骤:从视频定位数据的所有位置中,选择与当前位置时间点最接近的位置;
单一位置差值计算子步骤:计算当前位置与时间点最近位置的距离;
路径差值计算子步骤:通过对路径内的所有位置的单一位置差值进行求平均,计算出拟合路径集合中所有路径的路径差值;
待拟合路径筛选子步骤:从拟合路径集合中选择差值最小的路径。
具体地,所述单一位置差值计算子步骤:
计算公式如公式(1)所示;
其中,x和y分别表示当前位置的经纬度,x*和y*分别表示时间点最近位置的经纬度;
所述路径差值计算子步骤:
计算公式如公式(2)所示;
其中,
n表示路径中位置的数量,disi表示该路径中的第i个位置的单一位置差值。
具体地,所述路径拟合步骤包括:
位置填充子步骤:在视频路径和待拟合路径两条路径缺少的时间点上添加新的位置,使得组成两条路径的拥有相同数量的位置并且在时间上一一对应;
位置拟合子步骤:从视频路径和待拟合路径中各自取出在相同时间的位置,取两个位置经纬度的平均值,作为新的位置的经纬度,原来两个位置的时间作为新的位置的时间;
路径生成子步骤;拟合后的新位置按时间排序组成新的路径;
具体地,所述新的位置的经纬度由其前后两个位置的连线上按时间比例取得,如公式(3)(4)所示;
其中,
x*和y*分别为新添加的位置的经度和纬度;
x1、x2、y1、y2、ts1、ts2分别为前后两个位置的经度、纬度和时间;
所述不合理位置替换步骤:
将拟合得到的新路径中人无法到达的位置,替换为距离该位置最近的人可到达的位置。
根据本发明提供的一种基于视频和微蜂窝网络的融合位置路径拟合系统,包括:
筛选待拟合路径集合模块:根据视频定位数据的起止时间,从微蜂窝网络定位数据中选择多条路径作为拟合路径集合,用于下一步筛选;
待拟合路径选择模块:从拟合路径集合中选择差值最小的路径,记为待拟合路径;
路径拟合模块:通过视频定位数据和筛选出的待拟合路径拟合出一条新路径;
不合理位置替换模块:替换生成的新路径上不合理的位置;
具体地,所述的筛选待拟合路径集合模块包括:
位置筛选子模块:按时间区间选择符合预设条件的位置;
位置分组子模块:将筛选出的位置按用户标识分组;所述用户标识是用户的IP,通过微蜂窝数据获得;
路径生成子模块:将同一组位置按时间排序组成一条路径,作为待拟合路径集合中的一条路径;
所述路径指一组位置,根据时间排序,连起来表示一条路径;
所述位置包括经度、纬度、楼层、时间以及用户标识,表示某个个体的在那个时刻所在的位置,表示为(x,y,z,ts,id),分别对应经度、纬度、楼层、时间以及用户标识;
所述待拟合路径选择模块包括:
时间点最近位置选择子模块:从视频定位数据的所有位置中,选择与当前位置时间点最接近的位置;
单一位置差值计算子模块:计算当前位置与时间点最近位置的距离;
路径差值计算子模块:通过对路径内的所有位置的单一位置差值进行求平均,计算出拟合路径集合中所有路径的路径差值;
待拟合路径筛选子模块:从拟合路径集合中选择差值最小的路径。
具体地,所述单一位置差值计算子模块:
计算公式如公式(1)所示;
其中,x和y分别表示当前位置的经纬度,x*和y*分别表示时间点最近位置的经纬度;
所述路径差值计算子模块:
计算公式如公式(2)所示;
其中,
n表示路径中位置的数量,disi表示该路径中的第i个位置的单一位置差值。
具体地,所述路径拟合模块包括:
位置填充子模块:在视频路径和待拟合路径两条路径缺少的时间点上添加新的位置,使得组成两条路径的拥有相同数量的位置并且在时间上一一对应;
位置拟合子模块:从视频路径和待拟合路径中各自取出在相同时间的位置,取两个位置经纬度的平均值,作为新的位置的经纬度,原来两个位置的时间作为新的位置的时间;
路径生成子模块;拟合后的新位置按时间排序组成新的路径;
所述新的位置的经纬度由其前后两个位置的连线上按时间比例取得,如公式(3)(4)所示;
其中,
x*和y*分别为新添加的位置的经度和纬度;
x1、x2、y1、y2、ts1、ts2分别为前后两个位置的经度、纬度和时间;
所述不合理位置替换模块:
将拟合得到的新路径中人无法到达的位置,替换为距离该位置最近的人可到达的位置。
优选例1:
下面结合具体实施例对本发明进行详细说明。以下实施例将有助于本领域的技术人员进一步理解本发明,但不以任何形式限制本发明。应当指出的是,对本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变化和改进。这些都属于本发明的保护范围。
针对现有技术中的缺陷,本发明的目的是提供一种微蜂窝网络定位辅助的基于视频检测的路径拟合方法。
根据本发明提供的一种微蜂窝网络定位辅助的基于视频检测的路径拟合方法,包括:
筛选待拟合路径集合步骤:根据视频定位数据的起止时间,从微蜂窝网络定位数据中选出几条路径用于下一步筛选;
具体的,所述的筛选待拟合路径集合步骤包括:
位置筛选子步骤:按时间区间选择符合条件的位置;
位置分组子步骤:将位置筛选步骤筛选出的位置按用户标识分组;
用户标识:用户标识是用户的IP,通过微蜂窝数据获得;
路径生成子步骤:将同一组位置按时间排序,表示一条路径,该路径即为待拟合路径集合中的一条路径;
路径:路径是指一组位置,根据时间排序,连起来表示一条路径;
位置:位置包括经度、纬度、楼层、时间以及用户标识,用来表示某个个体的在那个时刻所在的位置,表示为(x,y,z,ts,id),分别对应经度、纬度、楼层、时间以及用户标识;
待拟合路径选择步骤:从待拟合路径集合中选择差值最小的路径;
待拟合路径集合:即上文所述“按用户标识分组”后,不同分组位置按时间排序形成的多条路径的集合;
具体的,所述的待拟合路径选择步骤包括:
时间点最近位置选择子步骤:从视频定位数据的所有位置中,选择与当前位置时间点最接近的位置;
单一位置差值计算子步骤:算出当前位置与时间点最近位置的距离,如公式(1)所示;x和y分别表示当前位置的经纬度,x*和y*分别表示时间点最近位置的经纬度。
路径差值计算子步骤:通过对该路径内的所有位置的单一位置差值进行求平均计算出路径差值,如公式(2)所示;n是路径中位置的数量,disi表示该路径中的第i个位置的单一位置差值。
待拟合路径筛选子步骤:从拟合路径集合中选择差值最小的路径作为待拟合路径;
路径拟合步骤:通过视频定位数据和筛选出的待拟合路径拟合出一条新路径;
具体的,所述的路径拟合步骤包括:
视频路径生成子步骤:对于视频定位数据,按照时间排序形成视频路径;
位置填充子步骤:如图1所示,视频路径和待拟合路径上的位置的时间间隔不同,导致两条路径上的位置在时间上不能一一对应,上下两行分别对应视频路径和待拟合路径,数字1和2分别表示两条路径在该时间点上有一个位置。为了让两条路径拥有相同数量的位置,且两条路径上的位置在时间上能一一对应,如图2所示,我们通过在箭头所指的时间点上添加新的位置,使得两条路径上的位置在时间上能一一对应,并且数量相同。新添加的位置的经纬度由其前后两个位置的连线上按时间比例取得,如公式(3)(4)所示,新添加的位置的经度和纬度分别为x*和y*;x1、x2、y1、y2、ts1、ts2分别为前后两个位置的经度、纬度和时间;
位置拟合子步骤:从两条路径中各自取出在相同时间的位置,取两个位置经纬度的平均值,作为新的位置的经纬度,原来两个位置的时间作为新的位置的时间;
路径生成子步骤:拟合后的新位置按时间排序组成新的路径;
不合理位置替换步骤:路径拟合步骤得到的路径,其中的位置可能出现在不合理的位置,比如墙里面这种人到不了的位置;当拟合后的路径中的某些位置出现在例如墙里面或者半空中,选取距离该位置最近的合理位置作为代替。
在本申请的描述中,需要理解的是,术语“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本申请和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本申请的限制。
本领域技术人员知道,除了以纯计算机可读程序代码方式实现本发明提供的系统、装置及其各个模块以外,完全可以通过将方法步骤进行逻辑编程来使得本发明提供的系统、装置及其各个模块以逻辑门、开关、专用集成电路、可编程逻辑控制器以及嵌入式微控制器等的形式来实现相同程序。所以,本发明提供的系统、装置及其各个模块可以被认为是一种硬件部件,而对其内包括的用于实现各种程序的模块也可以视为硬件部件内的结构;也可以将用于实现各种功能的模块视为既可以是实现方法的软件程序又可以是硬件部件内的结构。
以上对本发明的具体实施例进行了描述。需要理解的是,本发明并不局限于上述特定实施方式,本领域技术人员可以在权利要求的范围内做出各种变化或修改,这并不影响本发明的实质内容。在不冲突的情况下,本申请的实施例和实施例中的特征可以任意相互组合。

Claims (7)

1.一种基于视频和微蜂窝网络的融合位置路径拟合方法,其特征在于,包括:
筛选待拟合路径集合步骤:根据视频定位数据的起止时间,从微蜂窝网络定位数据中选择多条路径作为拟合路径集合,用于下一步筛选;
待拟合路径选择步骤:从拟合路径集合中选择差值最小的路径,记为待拟合路径;
路径拟合步骤:通过视频定位数据和筛选出的待拟合路径拟合出一条新路径;
不合理位置替换步骤:替换生成的新路径上不合理的位置;
所述的筛选待拟合路径集合步骤包括:
位置筛选子步骤:按时间区间选择符合预设条件的位置;
位置分组子步骤:将筛选出的位置按用户标识分组;所述用户标识是用户的IP,通过微蜂窝数据获得;
路径生成子步骤:将同一组位置按时间排序组成一条路径,作为待拟合路径集合中的一条路径;
所述路径指一组位置,根据时间排序,连起来表示一条路径;
所述位置包括经度、纬度、楼层、时间以及用户标识,表示某个个体的在那个时刻所在的位置,表示为(x,y,z,ts,id),分别对应经度、纬度、楼层、时间以及用户标识;
所述待拟合路径选择步骤包括:
时间点最近位置选择子步骤:从视频定位数据的所有位置中,选择与当前位置时间点最接近的位置;
单一位置差值计算子步骤:计算当前位置与时间点最近位置的距离;
路径差值计算子步骤:通过对路径内的所有位置的单一位置差值进行求平均,计算出拟合路径集合中所有路径的路径差值;
待拟合路径筛选子步骤:从拟合路径集合中选择差值最小的路径。
2.根据权利要求1所述的基于视频和微蜂窝网络的融合位置路径拟合方法,其特征在于,所述单一位置差值计算子步骤:
计算公式如公式(1)所示;
其中,x和y分别表示当前位置的经纬度,x*和y*分别表示时间点最近位置的经纬度;
所述路径差值计算子步骤:
计算公式如公式(2)所示;
其中,
n表示路径中位置的数量,disi表示该路径中的第i个位置的单一位置差值。
3.根据权利要求1所述的基于视频和微蜂窝网络的融合位置路径拟合方法,其特征在于,所述路径拟合步骤包括:
位置填充子步骤:在视频路径和待拟合路径两条路径缺少的时间点上添加新的位置,使得组成两条路径的拥有相同数量的位置并且在时间上一一对应;
位置拟合子步骤:从视频路径和待拟合路径中各自取出在相同时间的位置,取两个位置经纬度的平均值,作为新的位置的经纬度,原来两个位置的时间作为新的位置的时间;
路径生成子步骤;拟合后的新位置按时间排序组成新的路径。
4.根据权利要求3所述的基于视频和微蜂窝网络的融合位置路径拟合方法,其特征在于,所述新的位置的经纬度由其前后两个位置的连线上按时间比例取得,如公式(3)(4)所示;
其中,
x*和y*分别为新添加的位置的经度和纬度;
x1、x2、y1、y2、ts1、ts2分别为前后两个位置的经度、纬度和时间;
所述不合理位置替换步骤:
将拟合得到的新路径中人无法到达的位置,替换为距离该位置最近的人可到达的位置。
5.一种基于视频和微蜂窝网络的融合位置路径拟合系统,其特征在于,包括:
筛选待拟合路径集合模块:根据视频定位数据的起止时间,从微蜂窝网络定位数据中选择多条路径作为拟合路径集合,用于下一步筛选;
待拟合路径选择模块:从拟合路径集合中选择差值最小的路径,记为待拟合路径;
路径拟合模块:通过视频定位数据和筛选出的待拟合路径拟合出一条新路径;
不合理位置替换模块:替换生成的新路径上不合理的位置;
所述的筛选待拟合路径集合模块包括:
位置筛选子模块:按时间区间选择符合预设条件的位置;
位置分组子模块:将筛选出的位置按用户标识分组;所述用户标识是用户的IP,通过微蜂窝数据获得;
路径生成子模块:将同一组位置按时间排序组成一条路径,作为待拟合路径集合中的一条路径;
所述路径指一组位置,根据时间排序,连起来表示一条路径;
所述位置包括经度、纬度、楼层、时间以及用户标识,表示某个个体的在那个时刻所在的位置,表示为(x,y,z,ts,id),分别对应经度、纬度、楼层、时间以及用户标识;
所述待拟合路径选择模块包括:
时间点最近位置选择子模块:从视频定位数据的所有位置中,选择与当前位置时间点最接近的位置;
单一位置差值计算子模块:计算当前位置与时间点最近位置的距离;
路径差值计算子模块:通过对路径内的所有位置的单一位置差值进行求平均,计算出拟合路径集合中所有路径的路径差值;
待拟合路径筛选子模块:从拟合路径集合中选择差值最小的路径。
6.根据权利要求5所述的基于视频和微蜂窝网络的融合位置路径拟合系统,其特征在于,所述单一位置差值计算子模块:
计算公式如公式(1)所示;
其中,x和y分别表示当前位置的经纬度,x*和y*分别表示时间点最近位置的经纬度;
所述路径差值计算子模块:
计算公式如公式(2)所示;
其中,
n表示路径中位置的数量,disi表示该路径中的第i个位置的单一位置差值。
7.根据权利要求5所述的基于视频和微蜂窝网络的融合位置路径拟合系统,其特征在于,所述路径拟合模块包括:
位置填充子模块:在视频路径和待拟合路径两条路径缺少的时间点上添加新的位置,使得组成两条路径的拥有相同数量的位置并且在时间上一一对应;
位置拟合子模块:从视频路径和待拟合路径中各自取出在相同时间的位置,取两个位置经纬度的平均值,作为新的位置的经纬度,原来两个位置的时间作为新的位置的时间;
路径生成子模块;拟合后的新位置按时间排序组成新的路径;
所述新的位置的经纬度由其前后两个位置的连线上按时间比例取得,如公式(3)(4)所示;
其中,
x*和y*分别为新添加的位置的经度和纬度;
x1、x2、y1、y2、ts1、ts2分别为前后两个位置的经度、纬度和时间;
所述不合理位置替换模块:
将拟合得到的新路径中人无法到达的位置,替换为距离该位置最近的人可到达的位置。
CN201911213808.7A 2019-12-02 2019-12-02 基于视频和微蜂窝网络的融合位置路径拟合方法及系统 Active CN111044033B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911213808.7A CN111044033B (zh) 2019-12-02 2019-12-02 基于视频和微蜂窝网络的融合位置路径拟合方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911213808.7A CN111044033B (zh) 2019-12-02 2019-12-02 基于视频和微蜂窝网络的融合位置路径拟合方法及系统

Publications (2)

Publication Number Publication Date
CN111044033A CN111044033A (zh) 2020-04-21
CN111044033B true CN111044033B (zh) 2023-08-08

Family

ID=70234388

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911213808.7A Active CN111044033B (zh) 2019-12-02 2019-12-02 基于视频和微蜂窝网络的融合位置路径拟合方法及系统

Country Status (1)

Country Link
CN (1) CN111044033B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112461246B (zh) * 2020-12-01 2023-04-18 上海交通大学 融合多源异构定位路径数据的方法和系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7719461B1 (en) * 2008-08-05 2010-05-18 Lockheed Martin Corporation Track fusion by optimal reduced state estimation in multi-sensor environment with limited-bandwidth communication path
CN102831766A (zh) * 2012-07-04 2012-12-19 武汉大学 基于多传感器的多源交通数据融合方法
CN103105611A (zh) * 2013-01-16 2013-05-15 广东工业大学 一种分布式多传感器智能信息融合方法
WO2016153435A1 (en) * 2015-03-26 2016-09-29 Agency for Science,Technology and Research Location system and method for determining location of a vehicle
CN110008888A (zh) * 2019-03-29 2019-07-12 上海交通大学 智能监控网络中的综合特征目标检测方法和系统

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190196025A1 (en) * 2017-12-21 2019-06-27 Honda Motor Co., Ltd. System and method for vehicle path estimation using vehicular communication

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7719461B1 (en) * 2008-08-05 2010-05-18 Lockheed Martin Corporation Track fusion by optimal reduced state estimation in multi-sensor environment with limited-bandwidth communication path
CN102831766A (zh) * 2012-07-04 2012-12-19 武汉大学 基于多传感器的多源交通数据融合方法
CN103105611A (zh) * 2013-01-16 2013-05-15 广东工业大学 一种分布式多传感器智能信息融合方法
WO2016153435A1 (en) * 2015-03-26 2016-09-29 Agency for Science,Technology and Research Location system and method for determining location of a vehicle
CN110008888A (zh) * 2019-03-29 2019-07-12 上海交通大学 智能监控网络中的综合特征目标检测方法和系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
周炳玉 ; 卢野 ; 刘珍阳 ; .多传感器数据融合中的数据预处理技术研究.红外与激光工程.2007,(第S2期),正文第246-249页. *

Also Published As

Publication number Publication date
CN111044033A (zh) 2020-04-21

Similar Documents

Publication Publication Date Title
CA2653622C (en) Method and system for locating and monitoring first responders
CN106500690B (zh) 一种基于多模态融合的室内自主定位方法和装置
US7456847B2 (en) Video with map overlay
KR102195179B1 (ko) 항공사진을 이용한 정사영상 구축방법
US20150192928A1 (en) Method for the acquisition and processing of geographical information of a path
WO2014066996A1 (en) Visual positioning system
JP7477483B2 (ja) 半導体装置及び位置移動算出システム
CN112923919B (zh) 基于图优化的行人定位方法及系统
AU2014277724A1 (en) Locating, tracking, and/or monitoring personnel and/or assets both indoors and outdoors
Kwak et al. Emerging ICT UAV applications and services: Design of surveillance UAVs
CN111044033B (zh) 基于视频和微蜂窝网络的融合位置路径拟合方法及系统
KR20230136289A (ko) 재난재해지역 자동 검출 및 토공량 산정 시스템
CN113589848B (zh) 基于机器视觉的多无人机探测定位跟踪系统及方法
AU2015201877B2 (en) Method and system for locating and monitoring first responders
McCroskey et al. GLANSER–An Emergency Responder Locator System for Indoor and GPS-Denied Applications
KR102495287B1 (ko) 증강현실 기술을 이용한 생활 안전 관리 시스템
CN108955647A (zh) 基于无人机的火场定位方法及系统
Kassas et al. Aircraft Navigation in GNSS-Denied Environments via Radio SLAM With Terrestrial Signals of Opportunity
CN113155131B (zh) 一种基于粒子滤波的iBeacon和PDR融合室内定位方法
CN110307849B (zh) 一种人员室内定位以及室内外一体化定位方法
AU2012203438B2 (en) Method and system for locating and monitoring first responders
CN114964245B (zh) 一种无人机视觉侦察定位方法
CN108267764B (zh) 一种海上邮轮定位系统及其方法
Moore et al. Future Integrated Navigation Guidance System
CN118670384A (zh) 一种基于物联网的室内外混合定位方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant