CN117876980A - 一种轨迹构建方法 - Google Patents
一种轨迹构建方法 Download PDFInfo
- Publication number
- CN117876980A CN117876980A CN202410281244.5A CN202410281244A CN117876980A CN 117876980 A CN117876980 A CN 117876980A CN 202410281244 A CN202410281244 A CN 202410281244A CN 117876980 A CN117876980 A CN 117876980A
- Authority
- CN
- China
- Prior art keywords
- track
- points
- moving object
- track points
- point set
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000010276 construction Methods 0.000 title claims abstract description 26
- 230000002159 abnormal effect Effects 0.000 claims abstract description 76
- 230000008447 perception Effects 0.000 claims abstract description 58
- 230000005856 abnormality Effects 0.000 claims abstract description 24
- 238000000034 method Methods 0.000 claims description 33
- 238000012937 correction Methods 0.000 claims description 27
- 230000033001 locomotion Effects 0.000 claims description 25
- 238000004458 analytical method Methods 0.000 claims description 16
- 230000000295 complement effect Effects 0.000 claims description 16
- 238000001914 filtration Methods 0.000 claims description 12
- 238000012216 screening Methods 0.000 claims description 11
- 230000004927 fusion Effects 0.000 claims description 7
- 238000007499 fusion processing Methods 0.000 claims description 5
- 230000002123 temporal effect Effects 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 16
- 238000000605 extraction Methods 0.000 description 13
- 230000001133 acceleration Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 8
- 238000012545 processing Methods 0.000 description 7
- 230000008859 change Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000005065 mining Methods 0.000 description 3
- 238000010606 normalization Methods 0.000 description 3
- 238000007405 data analysis Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000013441 quality evaluation Methods 0.000 description 2
- 238000011158 quantitative evaluation Methods 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000007418 data mining Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000035772 mutation Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/54—Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/62—Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/62—Text, e.g. of license plates, overlay texts or captions on TV images
- G06V20/625—License plates
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/029—Location-based management or tracking services
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Train Traffic Observation, Control, And Security (AREA)
Abstract
本申请公开了一种轨迹构建方法,该轨迹构建方法包括:对感知数据进行轨迹点提取,得到移动对象的轨迹点集合;利用轨迹点对应的时间信息和空间信息对轨迹点进行异常判断,得到轨迹点对应的时空判断结果;以及,利用轨迹点关联的感知数据对轨迹点进行异常判断,得到轨迹点对应的感知判断结果;结合轨迹点集合中各个轨迹点对应的时空判断结果和感知判断结果,确定轨迹点集合中的异常轨迹点;过滤轨迹点集合中的异常轨迹点,基于过滤后的轨迹点集合构建移动对象的移动轨迹,可以有效识别异常轨迹点,避免因为感知设备采集错误的感知数据导致的轨迹不准确的问题,提高构建得到的移动轨迹的准确性,有效地挖掘出感知数据的数据价值。
Description
技术领域
本申请涉及数据挖掘技术领域,特别是涉及一种轨迹构建方法。
背景技术
目前,基于前期感知设备网络的建设,已经积累了大量的感知数据,比如移动对象的图像抓拍数据、终端设备的设备采集数据等。
在现有的方式中,可以基于感知数据实现移动对象的轨迹感知、挖掘分析。但是,目前仍然存在对感知数据的分析还不够全面和准确,导致不能对感知数据进行有效的挖掘与应用的问题。
因此,如何对感知数据进行准确全面的分析,以将这些感知数据的价值最大化,是本领域技术人员亟待解决的问题。
发明内容
本申请至少提供一种轨迹构建方法。
本申请第一方面提供了一种轨迹构建方法,方法包括:对感知数据进行轨迹点提取,得到移动对象的轨迹点集合;其中,感知数据是感知设备针对移动对象进行数据采集得到的,轨迹点集合中的轨迹点含有时间信息和空间信息;利用轨迹点对应的时间信息和空间信息对轨迹点进行异常判断,得到轨迹点对应的时空判断结果;以及,利用轨迹点关联的感知数据对轨迹点进行异常判断,得到轨迹点对应的感知判断结果;结合轨迹点集合中各个轨迹点对应的时空判断结果和感知判断结果,确定轨迹点集合中的异常轨迹点;过滤轨迹点集合中的异常轨迹点,基于过滤后的轨迹点集合构建移动对象的移动轨迹。
在一实施例中,利用轨迹点对应的时间信息和空间信息对轨迹点进行异常判断,得到轨迹点对应的时空判断结果,包括:利用轨迹点对应的时间信息和空间信息,计算轨迹点对应的时空变化信息;基于时空变化信息对轨迹点进行异常判断,得到轨迹点对应的时空判断结果。
在一实施例中,利用轨迹点对应的时间信息和空间信息,计算轨迹点对应的时空变化信息,包括:按照轨迹点对应的时间信息,从轨迹点集合中选取出与轨迹点在时间维度上相邻的相邻轨迹点;基于轨迹点与相邻轨迹点对应的空间信息,计算轨迹点的速度信息;将速度信息作为轨迹点对应的时空变化信息;基于时空变化信息对轨迹点进行异常判断,得到轨迹点对应的时空判断结果,包括:若速度信息不满足移动对象的运动规则,则得到轨迹点异常的时空判断结果;若速度信息满足移动对象的运动规则,则得到轨迹点正常的时空判断结果。
在一实施例中,利用轨迹点关联的感知数据对轨迹点进行异常判断,得到轨迹点对应的感知判断结果,包括:获取移动对象对应的基准特征信息,基准特征信息用于描述移动对象对应的感知数据满足的特征;计算轨迹点关联的感知数据与基准特征信息之间的数据匹配度;若数据匹配度小于预设匹配度阈值,则得到轨迹点异常的感知判断结果;若数据匹配度不小于预设匹配度阈值,则得到轨迹点正常的感知判断结果。
在一实施例中,结合轨迹点集合中各个轨迹点对应的时空判断结果和感知判断结果,确定轨迹点集合中的异常轨迹点,包括:从轨迹点集合选取出时空判断结果表明轨迹点异常的轨迹点,得到初筛轨迹点;从初筛轨迹点中选取出感知判断结果表明轨迹点异常的轨迹点,得到异常轨迹点。
在一实施例中,过滤轨迹点集合中的异常轨迹点,基于过滤后的轨迹点集合构建移动对象的移动轨迹,包括:过滤轨迹点集合中的异常轨迹点,得到纠错轨迹点集合;对纠错轨迹点集合中的轨迹点进行连续性分析,生成纠错轨迹点集合对应的补全轨迹点;将补全轨迹点添加至纠错轨迹点集合,得到补全轨迹点集合;基于补全轨迹点集合构建移动对象的移动轨迹。
在一实施例中,对纠错轨迹点集合中的轨迹点进行连续性分析,生成纠错轨迹点集合对应的补全轨迹点,包括:对纠错轨迹点集合中的轨迹点进行空间信息连续分析和时间信息连续分析,得到纠错轨迹点集合对应的疑似遗漏点位和疑似遗漏时间;确定疑似遗漏点位处的感知设备,得到待排查设备;获取待排查设备在疑似遗漏时间内采集到的感知数据,得到待排查数据;若待排查数据存在移动对象,则基于疑似遗漏点位和疑似遗漏时间生成对应的补全轨迹点。
在一实施例中,移动对象含有主要移动对象和次要移动对象;在基于过滤后的轨迹点集合构建移动对象的移动轨迹之后,还包括:分别获取主要移动对象和次要移动对象的移动轨迹;确定主要移动对象的移动轨迹与次要移动对象的移动轨迹之间的轨迹重合点;基于轨迹重合点,从次要移动对象的移动轨迹中截取得到可融合轨迹;对可融合轨迹和主要移动对象的移动轨迹进行融合处理,得到主要移动对象的融合移动轨迹。
在一实施例中,移动对象的数量为多个;在基于过滤后的轨迹点集合构建移动对象的移动轨迹之后,还包括:基于每个移动对象的移动轨迹,提取每个移动对象之间的关系特征;利用每个移动对象之间的关系特征,构建关系网络。
在一实施例中,基于每个移动对象的移动轨迹,提取每个移动对象之间的关系特征,包括:确定每个移动对象的移动轨迹之间的轨迹重合点;提取轨迹重合点的时间特征、空间特征和感知数据特征中的一种或多种,得到关系影响特征;结合每个轨迹重合点对应的关系影响特征,得到每个移动对象之间的关系特征。
本申请第二方面提供了一种轨迹构建装置,装置包括:轨迹点提取模块,用于对感知数据进行轨迹点提取,得到移动对象的轨迹点集合;其中,感知数据是感知设备针对移动对象进行数据采集得到的,轨迹点集合中的轨迹点含有时间信息和空间信息;时空判断模块,用于利用轨迹点对应的时间信息和空间信息对轨迹点进行异常判断,得到轨迹点对应的时空判断结果;以及,感知判断模块,用于利用轨迹点关联的感知数据对轨迹点进行异常判断,得到轨迹点对应的感知判断结果;异常点确定模块,用于结合轨迹点集合中各个轨迹点对应的时空判断结果和感知判断结果,确定轨迹点集合中的异常轨迹点;轨迹生成模块,用于过滤轨迹点集合中的异常轨迹点,基于过滤后的轨迹点集合构建移动对象的移动轨迹。
本申请第三方面提供了一种电子设备,包括存储器和处理器,处理器用于执行存储器中存储的程序指令,以实现上述轨迹构建方法。
本申请第四方面提供了一种计算机可读存储介质,其上存储有程序指令,程序指令被处理器执行时实现上述轨迹构建方法。
上述方案,通过对感知数据进行轨迹点提取,得到移动对象的轨迹点集合;利用轨迹点对应的时间信息和空间信息对轨迹点进行异常判断,得到轨迹点对应的时空判断结果;以及,利用轨迹点关联的感知数据对轨迹点进行异常判断,得到轨迹点对应的感知判断结果;结合轨迹点集合中各个轨迹点对应的时空判断结果和感知判断结果,确定轨迹点集合中的异常轨迹点;过滤轨迹点集合中的异常轨迹点,基于过滤后的轨迹点集合构建移动对象的移动轨迹,可以有效识别异常轨迹点,避免因为感知设备采集错误的感知数据导致的轨迹不准确的问题,提高构建得到的移动轨迹的准确性,有效地挖掘出感知数据的数据价值。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,而非限制本申请。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,这些附图示出了符合本申请的实施例,并与说明书一起用于说明本申请的技术方案。
图1是本申请的一个实施例提供的方案实施环境的示意图;
图2是本申请的一示例性实施例示出的轨迹构建方法的流程图;
图3是本申请的一示例性实施例示出的获取轨迹点集合的示意图;
图4是本申请的一示例性实施例示出的空间信息连续分析示意图;
图5是本申请的一示例性实施例示出的轨迹融合的示意图;
图6是本申请的一示例性实施例示出的关系网络的示意图;
图7是本申请的一示例性实施例示出的划分关系网络的示意图;
图8是本申请的一示例性实施例示出的轨迹构建装置的框图;
图9是本申请的一示例性实施例示出的电子设备的结构示意图;
图10是本申请的一示例性实施例示出的计算机可读存储介质的结构示意图。
具体实施方式
下面结合说明书附图,对本申请实施例的方案进行详细说明。
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、接口、技术之类的具体细节,以便透彻理解本申请。
本文中术语“和/或”,仅仅是一种描述关联对象的关联信息,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系。此外,本文中的“多”表示两个或者多于两个。另外,本文中术语“至少一种”表示多种中的任意一种或多种中的至少两种的任意组合,例如,包括A、B、C中的至少一种,可以表示包括从A、B和C构成的集合中选择的任意一个或多个元素。
下面对本申请实施例所提供的轨迹构建方法进行说明。
请参考图1,其示出了本申请一个实施例提供的方案实施环境的示意图。该方案实施环境可以包括多个感知设备110、服务器120和终端130,服务器120分别和感知设备110、终端130之间相互通信连接。
感知设备110用于针对移动对象执行感知数据的采集,如对途径的移动对象进行图像采集、视频采集、移动对象携带的移动终端的媒体访问控制地址(Media AccessControl Address,MAC)采集等。
服务器120可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、内容分发网络(Content Delivery Network,CDN)、以及大数据和人工智能平台等基础云计算服务的云服务器。
终端130的数量可以是一个或多个。终端130可以是智能手机、平板电脑、笔记本电脑、台式计算机、智能音箱、智能手表等,但并不局限于此。
在一个示例中,服务器120可以对从感知设备110中获取到的感知数据进行分析,得到移动对象的移动轨迹,服务器120可以将移动对象的移动轨迹存储在本地、回传至终端130或者传输至其他终端。
在一个示例中,终端130中安装运行有目标应用程序的客户端,该目标应用程序提供感知数据分析功能,服务器120可以是该目标应用程序的后台服务器,用于为该目标应用程序的客户端提供后台服务。服务器120将感知设备110采集到的感知数据发送给终端130,终端130中的目标应用程序对感知数据进行分析,得到移动对象的移动轨迹。
本申请实施例提供的轨迹构建方法,各步骤的执行主体可以是终端130,如终端130中安装运行的目标应用程序的客户端,也可以是服务器120,或者由终端130和服务器120交互配合执行,即将方法的一部分步骤交由终端130执行而另一部分步骤则交由服务器120执行,本申请对此不进行限定。
可以理解的是,在本申请的具体实施方式中,涉及到图像、音频、用户信息等相关的数据,当本申请的实施例运用到具体产品或技术中时,需要获得用户许可或者同意,且相关数据的收集、使用和处理需要遵守相关国家和地区的相关法律法规和标准。
请参阅图2,图2是本申请的一示例性实施例示出的轨迹构建方法的流程图。该轨迹构建方法可以应用于图1所示的实施环境,并由该实施环境中的服务器具体执行。应理解的是,该方法也可以适用于其它的示例性实施环境,并由其它实施环境中的设备具体执行,本实施例不对该方法所适用的实施环境进行限制。
如图2所示,轨迹构建方法至少包括步骤S210至步骤S250,详细介绍如下:
步骤S210:对感知数据进行轨迹点提取,得到移动对象的轨迹点集合;其中,感知数据是感知设备针对移动对象进行数据采集得到的,轨迹点集合中的轨迹点含有时间信息和空间信息。
需要说明的是,感知设备部署在感知场景中,其用于对感知场景中的移动对象进行数据采集,得到移动对象对应的感知数据,如含有移动对象的图像数据、音频数据、设备标识等。
其中,移动对象是指可以进行移动的对象,如车辆、船舶等。
其中,由于移动对象的位置随着时间变化,因此,感知数据可以是由多个感知设备采集得到的,这些感知设备可以部署在感知场景中的不同位置。
获取各个感知设备采集的感知数据,然后根据感知数据识别移动对象的类别、空间信息、时间信息,从而将感知数据转换为轨迹点,得到一个或多个移动对象的轨迹点集合。
示例性地,现针对每个感知数据进行感知点提取,感知点含有移动对象标识、感知设备标识和感知时间。其中,移动对象标识用于标记被感知到的移动对象,如“车牌号”、“船舶编号”等;感知设备标识用于标记生成感知数据的设备,如“感知设备国标编码”,进而可以根据感知设备标识查找到对应感知设备的部署位置,将该部署位置作为移动对象的空间信息;感知时间用于标识移动对象何时被感知到,如“2023-04-20 12:00:00”。
由于感知数据可能是对多个不同的移动对象进行采集得到的,因此得到的感知点可能关联多个不同的移动对象,因此需要进行聚档,以得到有序的一个或多个轨迹点集合。
举例说明,请参阅图3,图3为本申请的一示例性实施例示出的获取轨迹点集合的示意图,如图3所示,将感知数据转换为多个感知点,以提取感知数据中的有效信息,然后,对感知点进行聚类,将同一移动对象的感知点划分为一类,得到多个轨迹点集合。
特殊的,若数据库预先存储有模板移动对象的对象属性信息,可以对聚类得到的轨迹点集合和模板移动对象进行关联处理。如数据库预先存储有模板移动对象的对象图像和对象标识,轨迹点集合对应的感知数据为针对移动对象的抓拍图像,则将抓拍图像和模板移动对象的对象图像进行对比,计算两者之间的相似度,若相似度大于预设的关联阈值,则将该模板移动对象的对象标识和该移动对象对应的轨迹点集合进行关联。
当然,除了上述实施例揭示的轨迹点提取方式之外,还可以选择其他方式进行轨迹点提取,如根据感知数据对指定移动对象的位置进行跟踪识别,得到该指定移动对象的轨迹点集合,轨迹点提取的具体方式可以根据实际情况进行灵活选择,本申请对此不进行限定。
步骤S220:利用轨迹点对应的时间信息和空间信息对轨迹点进行异常判断,得到轨迹点对应的时空判断结果。
在感知设备长期的运行过程中,会由于各种原因导致获取到的轨迹点出现错误、遗漏等情况,如摄像头错拍、漏拍等,导致后续出现移动对象聚档错误,还可能因为感知设备出现部署位置变化、时钟错误等情况,影响记录的时空信息的准确性,这些错误会导致最终的轨迹偏差较大,进而影响后续的分析,因此需要识别异常的轨迹点。
具体地,利用轨迹点对应的时间信息和空间信息对轨迹点进行异常判断,以判断轨迹点是否存在时空矛盾,确定轨迹点是否满足真实的业务场景,得到轨迹点对应的时空判断结果。
示例性地,可以将轨迹点的时间信息和空间信息与其他轨迹点的时间信息和空间信息进行对比,检测轨迹点相对其他轨迹点的漂移程度。例如,针对移动对象的轨迹点集合进行曲线拟合,得到轨迹拟合曲线,然后计算各个轨迹点到轨迹拟合曲线的最短距离,并对最短距离进行归一化处理,将归一化结果作为该轨迹点相对其他轨迹点的漂移程度,归一化结果越大,该轨迹点相对其他轨迹点的漂移程度越高,该轨迹点异常的概率越大。
示例性地,还可以根据轨迹点的时间信息和空间信息,计算移动对象在该轨迹点下的速度信息,从而根据速度信息判断该轨迹点存在异常的可能性,如移动对象在轨迹点下的速度信息存在速度突变,则认为该轨迹点异常的概率较大。
示例性地,还可以获取移动对象的类型,根据移动对象的类型匹配对应的异常判断策略。如若移动对象为车辆,则可以结合轨迹拟合曲线以及速度信息综合判断其对应的各个轨迹点的异常概率,若移动对象为飞行器(如飞机、无人机等设备),则可以根据轨迹点的速度信息判断其对应的各个轨迹点的异常概率。
可以理解的是,利用轨迹点对应的时间信息和空间信息对轨迹点进行异常判断的具体方式可以根据实际情况进行灵活选择,本申请对此不进行限定。
步骤S230:利用轨迹点关联的感知数据对轨迹点进行异常判断,得到轨迹点对应的感知判断结果。
除了根据轨迹点本身的时空信息判断轨迹点是否异常之外,还结合与轨迹点关联的感知数据对轨迹点进行异常判断。
例如,与轨迹点关联的感知数据可以是提取得到该轨迹点所对应的感知数据。例如,感知数据为抓拍图像,检测到抓拍图像P1存在车辆a,则基于该抓拍图像P1的抓拍时间、抓拍设备的部署位置、车辆a的车辆标识,得到轨迹点D1,则该轨迹点D1关联的感知数据为抓拍图像P1。
又例如,还可以是确定感知数据的数据获取范围,该数据获取范围可以是时间范围和/或空间范围确定的,根据数据获取范围获取与轨迹点关联的感知数据。例如,轨迹点D1对应的时间为t1,空间位置为s1,获取轨迹点D1的数据获取时间扩展值为t,空间扩展值为s,根据时间扩展值和空间扩展值计算得到感知数据的数据获取范围,则其对应的时间范围为(t1-t,t1+t),空间范围为(s1-s,s1+s),然后,确定该空间范围内存在的感知设备,对这些感知设备处于该时间范围内采集到的感知数据作为与轨迹点D1关联的感知数据。其中,时间扩展值和/或空间扩展值可以是预先设定的,也可以是根据实际情况灵活计算的,如根据移动对象的对象特征(移动对象的类型、体积、运动速度)、轨迹点对应的感知设备所处场景的场景特征(场景遮挡情况、光线条件等)、时空判断结果等中的一种或多种灵活计算时间扩展值和/或空间扩展值,如移动对象的体积越大、运动速度越大、场景遮挡程度越高,则空间扩展值越大,时空判断结果表明该轨迹点异常的概率越大,则时间扩展值和/或空间扩展值越大,本申请对此不进行限定。
然后,可以将与轨迹点关联的感知数据进行分析,如分析感知数据的数据质量、数据特征等,根据分析结果对所述轨迹点进行异常判断,得到所述轨迹点对应的感知判断结果。
例如,对与轨迹点关联的感知数据进行数据质量评价,如图像质量、音频采集质量等,根据数据质量评价结果确定对应轨迹点异常的概率,如数据质量越差,则对应轨迹点异常的概率越高,数据质量越优,则对应轨迹点异常的概率越低。
还例如,提取关联的感知数据中移动对象的对象特征,如移动对象的图像特征、音频特征等,将该轨迹点对应的对象特征和其他轨迹点对应的对象特征进行对比,得到与其他轨迹点的对象特征相似度,根据该对象特征相似度确定对应轨迹点异常的概率,如对象特征相似度越低,则对应轨迹点异常的概率越高,对象特征相似度越高,则对应轨迹点异常的概率越低。
可以理解的是,利用轨迹点关联的感知数据对轨迹点进行异常判断的具体方式可以根据实际情况进行灵活选择,本申请对此不进行限定。
步骤S240:结合轨迹点集合中各个轨迹点对应的时空判断结果和感知判断结果,确定轨迹点集合中的异常轨迹点。
根据轨迹点对应的时空判断结果和感知判断结果,综合确定轨迹点是否存在异常,以确定轨迹点集合中的异常轨迹点。
例如,可以综合时空判断结果和感知判断结果中轨迹点异常的概率,计算得到轨迹点异常的综合概率值,如对时空判断结果的异常概率值与感知判断结果的异常概率值进行加权求和,得到综合概率值。然后,根据综合概率值判断轨迹点是否存在异常,如综合概率值大于预设概率阈值,则轨迹点存在异常,综合概率值不大于预设概率阈值,则轨迹点不存在异常。
又例如,先根据轨迹点对应的时空判断结果筛选得到初筛轨迹点,如将时空判断结果中异常概率值大于预设概率阈值的轨迹点作为初筛轨迹点。然后,获取各个初筛轨迹点的感知判断结果,将感知判断结果中异常概率值大于预设概率阈值的初筛轨迹点作为最终的异常轨迹点。
步骤S250:过滤轨迹点集合中的异常轨迹点,基于过滤后的轨迹点集合构建移动对象的移动轨迹。
将轨迹点集合中的异常轨迹点进行滤除,保留准确性更高的轨迹点,以根据这些准确性更高的轨迹点构建移动对象的移动轨迹,提高移动轨迹的准确性,避免设备数据采集错误导致的轨迹错误的问题。
接下来对本申请的部分实施例进行详细说明。
在一些实施方式中,步骤S220中利用轨迹点对应的时间信息和空间信息对轨迹点进行异常判断,得到轨迹点对应的时空判断结果,包括:
步骤S221:利用轨迹点对应的时间信息和空间信息,计算轨迹点对应的时空变化信息。
其中,时空变化信息可以是轨迹点相对时间相邻轨迹点的距离,时空变化信息还可以是轨迹点的速度信息,本申请对此不进行限定。
例如,按照轨迹点对应的时间信息,从轨迹点集合中选取出与轨迹点在时间维度上相邻的相邻轨迹点;基于轨迹点与相邻轨迹点对应的空间信息,计算轨迹点的速度信息;将速度信息作为轨迹点对应的时空变化信息。
步骤S222:基于时空变化信息对轨迹点进行异常判断,得到轨迹点对应的时空判断结果。
检测各个轨迹点对应的时空变化信息是否符合该移动对象的运动规则,以判断该轨迹点异常的概率。
以时空变化信息为轨迹点的速度信息为例进行举例说明:基于时空变化信息对轨迹点进行异常判断,得到轨迹点对应的时空判断结果,包括:若速度信息不满足移动对象的运动规则,则得到轨迹点异常的时空判断结果;若速度信息满足移动对象的运动规则,则得到轨迹点正常的时空判断结果。
其中,运动规则包括但不限于移动对象的最大速度、最大加速度等,根据轨迹点的速度信息得到移动对象在该轨迹点的实际速度和/或实际加速度,将实际速度和/或实际加速度与最大速度和/或最大加速度进行对比,若实际速度和/或实际加速度大于最大速度和/或最大加速度,判断为速度信息不满足移动对象的运动规则,则得到轨迹点异常的时空判断结果;若实际速度和/或实际加速度不大于最大速度和/或最大加速度,判断为速度信息满足移动对象的运动规则,则得到轨迹点正常的时空判断结果。
在一些实施方式中,步骤S230中利用轨迹点关联的感知数据对轨迹点进行异常判断,得到轨迹点对应的感知判断结果,包括:
步骤S231:获取移动对象对应的基准特征信息,基准特征信息用于描述移动对象对应的感知数据满足的特征。
其中,基准特征信息可以是预先设定的,如移动对象为车辆时,其对应的基准特征信息可以为数据库中存储的该车辆的模板图像;基准特征信息还可以是灵活计算的,例如,对轨迹点集合中的各个轨迹点依次进行依次判断,记录前序判断过程中判断为正常的轨迹点,对这些轨迹点对应的感知数据进行数据特征提取和融合,得到基准特征信息。
步骤S232:计算轨迹点关联的感知数据与基准特征信息之间的数据匹配度。
计算轨迹点关联的感知数据与基准特征信息之间的数据匹配度。
例如,其可以对轨迹点关联的感知数据进行数据特征提取,得到第一特征向量,并对基准特征信息进行数据特征提取,得到第二特征向量,计算第一特征向量和第二特征向量之间的向量距离,以得到数据匹配度,如第一特征向量和第二特征向量之间的向量距离越大,则数据匹配度越低,第一特征向量和第二特征向量之间的向量距离越小,则数据匹配度越高。
步骤S233:根据数据匹配度对轨迹点进行异常判断,得到轨迹点对应的感知判断结果。
具体地,若数据匹配度小于预设匹配度阈值,则得到轨迹点异常的感知判断结果;若数据匹配度不小于预设匹配度阈值,则得到轨迹点正常的感知判断结果。
进一步地,可以从轨迹点集合选取出时空判断结果表明轨迹点异常的轨迹点,得到初筛轨迹点;从初筛轨迹点中选取出感知判断结果表明轨迹点异常的轨迹点,得到异常轨迹点,再过滤轨迹点集合中的异常轨迹点,基于过滤后的轨迹点集合构建移动对象的移动轨迹。
在一些实施方式中,可以直接根据过滤后的轨迹点集合构建移动对象的移动轨迹。
在一些实施方式中,由于可能存在遗漏的轨迹点,因此可以对过滤后的轨迹点集合进行补全,再根据补全后的轨迹点集合构建移动对象的移动轨迹。
示例性地,步骤S250中过滤轨迹点集合中的异常轨迹点,基于过滤后的轨迹点集合构建移动对象的移动轨迹,包括:
步骤S251:过滤轨迹点集合中的异常轨迹点,得到纠错轨迹点集合。
步骤S252:对纠错轨迹点集合中的轨迹点进行连续性分析,生成纠错轨迹点集合对应的补全轨迹点。
即判断纠错轨迹点集合中的各个轨迹点的连续性,确定可能存在遗漏的点位,对可能存在遗漏的点位进行轨迹点生成,得到补全轨迹点。
例如,对纠错轨迹点集合中的轨迹点进行空间信息连续分析和时间信息连续分析,得到纠错轨迹点集合对应的疑似遗漏点位和疑似遗漏时间;确定疑似遗漏点位处的感知设备,得到待排查设备;获取待排查设备在疑似遗漏时间内采集到的感知数据,得到待排查数据;若待排查数据存在移动对象,则基于疑似遗漏点位和疑似遗漏时间生成对应的补全轨迹点。
具体地,对纠错轨迹点集合中的轨迹点进行空间信息连续分析,以确定疑似遗漏点位。
例如,获取各个感知设备的部署位置关系以及各个感知设备之间的移动路径连通性,若两个感知设备之间存在移动路径连通,则表明移动对象可以在该两个感知设备之间进行移动。然后,根据纠错轨迹点集合与各个感知设备之间的关联关系,以及根据各个感知设备之间的连通关系,确定疑似遗漏点位。
举例说明,请参阅图4,图4为本申请的一示例性实施例示出的空间信息连续分析示意图,如图4所示,假设感知设备包括Ga、Gb、Gc、Gd、Ge、Gf和Gg,将感知设备作为节点,对存在移动路径连通的感知设备之间进行连接。
若纠错轨迹点集合中的轨迹点表明移动对象经过感知设备Ga之后,直接到达了感知设备Gg,而根据各个感知设备之间的连通关系可知,移动对象在经过感知设备Ga之后,需要经过其他感知设备才能到达感知设备Gg,因此,可能存在疑似遗漏点位。
疑似遗漏点位的确定方式可以为:确定遗漏起点为感知设备Ga、遗漏终点为感知设备Gg,根据各个感知设备之间的连通关系,得到感知设备Ga到感知设备Gg的连通路径含有三条,一条为感知设备Ga到感知设备Gd到感知设备Gg,另一条为感知设备Ga到感知设备Gc到感知设备Gd到感知设备Gg,另一条为感知设备Ga到感知设备Gb到感知设备Gd到感知设备Gg,根据连通路径得到疑似遗漏点位包括感知设备Gb、感知设备Gc和感知设备Gd,将这些点位对应的感知设备作为待排查设备。
然后,获取待排查设备在疑似遗漏时间内采集到的感知数据,得到待排查数据。
其中,疑似遗漏时间是根据对纠错轨迹点集合中的轨迹点进行时间信息连续分析得到的。继续参见上述举例,获取遗漏起点感知设备Ga对应的轨迹点的时间信息为t_s,获取遗漏起点感知设备Gg对应的轨迹点的时间信息为t_e,可以直接将(t_s,t_e)作为疑似遗漏时间。
可以获取每个待排查设备在疑似遗漏时间内采集到的感知数据,得到待排查数据,对待排查数据再次进行移动对象检测,以判断移动对象是否经过疑似遗漏点位。
可选地,为了提高计算效率,对各个待排查设备进行优先级排序,按照优先级排序结果依次进行待排查数据分析。
示例性地,统计预设时间段内的历史移动轨迹,得到移动对象在各个设备之间的转移概率,按照转移概率对各个待排查设备进行优先级排序。
例如,存在感知设备Ga的历史移动轨迹有100个,其中,由感知设备Ga转移至感知设备Gc的数量有20个,由感知设备Ga转移至感知设备Gb的数量有60个,由感知设备Ga转移至感知设备Gd的数量有20个,针对转移概率对各个待排查设备进行优先级降序排序得到感知设备Gb大于感知设备Gc大于感知设备Gd,依照该优先级排序结果,对各个待排查设备对应的待排查数据进行分析,如对待排查设备的视频录像进行分析,以确定是否存在移动对象经过,若存在则生成对应的补全轨迹点。
步骤S253:将补全轨迹点添加至纠错轨迹点集合,得到补全轨迹点集合。
步骤S254:基于补全轨迹点集合构建移动对象的移动轨迹。
根据补全轨迹点集合构建得到移动对象的移动轨迹,得到的移动轨迹更加全面准确,避免设备数据采集遗漏导致的轨迹不连续问题。
在一些实施方式中,移动对象含有主要移动对象和次要移动对象;在基于过滤后的轨迹点集合构建移动对象的移动轨迹之后,还包括:分别获取主要移动对象和次要移动对象的移动轨迹;确定主要移动对象的移动轨迹与次要移动对象的移动轨迹之间的轨迹重合点;基于轨迹重合点,从次要移动对象的移动轨迹中截取得到可融合轨迹;对可融合轨迹和主要移动对象的移动轨迹进行融合处理,得到主要移动对象的融合移动轨迹。
由于根据移动对象的轨迹点得到的移动轨迹仅能反映其直接对象的时空信息,车辆轨迹仅能反映车辆的轨迹,MAC设备轨迹仅能反映MAC设备的轨迹,本申请通过对多个相关性强的不同移动对象的轨迹进行融合,以更加全面的进行轨迹分析。
具体地,确定主要移动对象和与主要移动对象关联的次要移动对象,如主要移动对象为车辆1,次要移动对象为车辆2。然后,分别获取主要移动对象和次要移动对象的移动轨迹,确定主要移动对象的移动轨迹与次要移动对象的移动轨迹之间的轨迹重合点,以根据轨迹重合点,从次要移动对象的移动轨迹中截取得到可融合轨迹,对可融合轨迹和主要移动对象的移动轨迹进行融合处理,得到主要移动对象的融合移动轨迹。
举例说明,请参见图5,图5为本申请的一示例性实施例示出的轨迹融合的示意图,如图5所示,在t1时刻和t2时刻车辆1轨迹和车辆2轨迹存在轨迹重合点,该轨迹重合点对应的感知数据表明车辆1被装载至车辆2内,车辆1和车辆2之间的共同运动特征表明,当车辆1被装载至车辆2内时,在车辆2的连续行驶轨迹中车辆1不会离开车辆2。因此,截取车辆2的移动轨迹中t1时刻到t2时刻的轨迹片段,得到可融合轨迹,对可融合轨迹和车辆1的移动轨迹进行融合处理,得到车辆1的融合移动轨迹。
可以理解的是,除了上述举例的车辆1和车辆2之外,还可以是其他移动对象之间的轨迹融合,如主要移动对象为对象a,次要移动对象为与对象a关联度大于预设关联度阈值的对象b,本申请对此不进行限定。
可选地,在对可融合轨迹和主要移动对象的移动轨迹进行融合处理时可以包括:根据主要移动对象的移动轨迹判断可融合轨迹是否可信,若可信则将可融合轨迹和主要移动对象的移动轨迹进行融合。如结合上一举例,车辆1的移动轨迹中表明,该车辆1在t1时刻和t2时刻内并不存在连续的移动轨迹信息,则判断为可融合轨迹可信;或者车辆1在t1时刻和t2时刻内存在不连续的移动轨迹片段,且这些移动轨迹片段和可融合轨迹之间的重合度大于预设阈值,则判断为可融合轨迹可信。
通过上述方式对多个移动对象的移动轨迹进行融合,可以丰富主要移动对象的轨迹,便于后续的轨迹分析。
在一些实施方式中,移动对象的数量为多个;在基于过滤后的轨迹点集合构建移动对象的移动轨迹之后,还包括:基于每个移动对象的移动轨迹,提取每个移动对象之间的关系特征;利用每个移动对象之间的关系特征,构建关系网络。
例如,对于多个车辆的感知数据,可以根据车辆之间重合的移动轨迹判断车辆之间的关系,还可以形成车辆与对应的感知设备之间的关系;对于车辆的抓拍图像,除了形成车辆与感知设备之间的关系外,还能形成车辆与抓拍图像中的其他车辆的关系。
另外,还可以构建感知设备与场所的关系,如检测感知设备是否在场所内,得到感知设备与场所的关联,在地图的视角上来看,感知设备是一个点,而场所是一个不规则的多边形,因此主要方法是判断“点是否落在多边形范围内”,得到关系判断结果。
以移动对象包括车辆1和车辆2为例,构建的关系网络可以参见图6,图6为本申请的一示例性实施例示出的关系网络的示意图,如图6所示,感知设备与车辆1和车辆2存在数据采集关系,车辆1和车辆2之间存在共同行驶关系,感知设备与场所存在所属关系。
在一些实施方式中,基于每个移动对象的移动轨迹,提取每个移动对象之间的关系特征,包括:确定每个移动对象的移动轨迹之间的轨迹重合点;提取轨迹重合点的时间特征、空间特征和感知数据特征中的一种或多种,得到关系影响特征;结合每个轨迹重合点对应的关系影响特征,得到每个移动对象之间的关系特征。
以移动对象为车辆、感知设备为摄像机为例,两个车辆的移动轨迹之间的轨迹重合点是指两车辆同时出现在同一个摄像头的图像采集范围中。
提取轨迹重合点的时间特征、空间特征和感知数据特征中的一种或多种,得到关系影响特征。
具体地,轨迹重合点出现于不同的时间点对最终关系有不同的影响,如轨迹重合点出现在凌晨比出现在白天更能反映两者关系紧密。其中,时间可以分类为白天、晚上、工作时间、周末、凌晨等,本申请对此不进行限定。
轨迹重合点出现于不同类型场所对最终关系有不同的影响,如轨迹重合点出现于郊外街区内比轨迹重合点出现于城市街区更能反映两者关系紧密。其中,场所可以分类为郊外街区、城市街区、娱乐场所、办公场所、医院、火车站等,本申请对此不进行限定。
以及,感知数据特征可以直观反映车辆之间的关系,如有长时间的共同行驶比单纯的在同一图像采集范围中出现更能反映两者关系的紧密程度。其中,感知数据特征可以包括车辆之间的距离、运动方向、行驶速度、车辆类型等,本申请对此不进行限定。
根据上述提取到的时间特征、空间特征和感知数据特征中的一种或多种,得到关系影响特征,以结合每个轨迹重合点对应的关系影响特征,得到所述每个移动对象之间的关系特征。
示例性地,构建量化评估模型,评估移动对象之间的关联度,量化评估模型可以表示为下述公式:
y=f(x)
其中,x为提取的关系影响特征,最终的关联度y为0到1之间的值,值越大两移动对象之间关系越紧密,模型公式f可以基于实际的需要进行选择,例如,若选取的特征为正相关特征,因此相关的模型也要满足正相关的要求,也即x越大,则y越大。
根据量化得到的关联度判断移动对象之间的关系。
可选地,由于关联度仅能作为衡量两者关系紧密程度的一个数值,还可以结合更多维度特征关联进行关系判断。以移动对象为车辆为例,可以设置关联度阈值,判断两移动对象是否存在关联关系,当关联度大于关联度阈值时,可以断定两移动对象存在关联关系。其中,关联度阈值可以基于模型训练,也可以基于对现有样本的评价来实现,本申请对此不进行限定。
进一步地,针对判断为存在关联关系的移动对象,可以进一步的精细化进行关系分类,例如,将提取的关系影响特征输入至关系识别模型中,关系识别模型具备关系识别功能,得到移动对象之间的具体关系类型,其中,关系识别模型可以采用神经网络模型或机器学习模型,本申请对此不进行限定。
除了上述对移动对象之间的关系进行挖掘之外,还可以进行团体关系挖掘。
示例性地,获取各个移动对象之间的关联度,根据关联度构建移动对象之间的关系网络,例如,请参阅图7,图7为本申请的一示例性实施例示出的划分关系网络的示意图,如图7所示,将移动对象作为节点,对关联度大于关联度阈值的移动对象之间进行边连接,得到最终的关系网络。
然后,根据多个移动对象之间的关系紧密程度进行分组,分组的方式包括但不限于完全连通子图、基于模块度的社区发现算法等。例如,继续如图7所示,划分得到小组1和小组2,其分别对应不同的团队。
进一步地,可以对每个团队进行分类,得到每个团队所属的团队类型,可以是基于训练好的模型进行分类,也可以是基于规则进行分类,本申请对此不进行限定。
本申请提供的轨迹构建方法,通过对感知数据进行轨迹点提取,得到移动对象的轨迹点集合;利用轨迹点对应的时间信息和空间信息对轨迹点进行异常判断,得到轨迹点对应的时空判断结果;以及,利用轨迹点关联的感知数据对轨迹点进行异常判断,得到轨迹点对应的感知判断结果;结合轨迹点集合中各个轨迹点对应的时空判断结果和感知判断结果,确定轨迹点集合中的异常轨迹点;过滤轨迹点集合中的异常轨迹点,基于过滤后的轨迹点集合构建移动对象的移动轨迹,可以有效识别异常轨迹点,避免因为感知设备采集错误的感知数据导致的轨迹不准确的问题,提高构建得到的移动轨迹的准确性,有效地挖掘出感知数据的数据价值。
图8是本申请的一示例性实施例示出的轨迹构建装置的框图。如图8所示,该示例性的轨迹构建装置800包括:轨迹点提取模块810、时空判断模块820、感知判断模块830、异常点确定模块840和轨迹生成模块850。具体地:
轨迹点提取模块810,用于对感知数据进行轨迹点提取,得到移动对象的轨迹点集合;其中,感知数据是感知设备针对移动对象进行数据采集得到的,轨迹点集合中的轨迹点含有时间信息和空间信息;
时空判断模块820,用于利用轨迹点对应的时间信息和空间信息对轨迹点进行异常判断,得到轨迹点对应的时空判断结果;
感知判断模块830,用于利用轨迹点关联的感知数据对轨迹点进行异常判断,得到轨迹点对应的感知判断结果;
异常点确定模块840,用于结合轨迹点集合中各个轨迹点对应的时空判断结果和感知判断结果,确定轨迹点集合中的异常轨迹点;
轨迹生成模块850,用于过滤轨迹点集合中的异常轨迹点,基于过滤后的轨迹点集合构建移动对象的移动轨迹。
需要说明的是,上述实施例所提供的轨迹构建装置与上述实施例所提供的轨迹构建方法属于同一构思,其中各个模块和单元执行操作的具体方式已经在方法实施例中进行了详细描述,此处不再赘述。上述实施例所提供的轨迹构建装置在实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将装置的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能,本处不对此进行限制。
请参阅图9,图9是本申请电子设备一实施例的结构示意图。电子设备900包括存储器901和处理器902,处理器902用于执行存储器901中存储的程序指令,以实现上述任一轨迹构建方法实施例中的步骤。在一个具体的实施场景中,电子设备900可以包括但不限于:微型计算机、服务器,此外,电子设备900还可以包括笔记本电脑、平板电脑等移动设备,在此不做限定。
具体而言,处理器902用于控制其自身以及存储器901以实现上述任一轨迹构建方法实施例中的步骤。处理器902还可以称为中央处理单元(Central Processing Unit,CPU)。处理器902可能是一种集成电路芯片,具有信号的处理能力。处理器902还可以是通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(ApplicationSpecific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable GateArray,FPGA)或者其它可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。另外,处理器902可以由集成电路芯片共同实现。
请参阅图10,图10是本申请计算机可读存储介质一实施例的结构示意图。计算机可读存储介质1000存储有能够被处理器运行的程序指令1010,程序指令1010用于实现上述任一轨迹构建方法实施例中的步骤。
在一些实施例中,本公开实施例提供的装置具有的功能或包含的模块可以用于执行上文方法实施例描述的方法,其具体实现可以参照上文方法实施例的描述,为了简洁,这里不再赘述。
上文对各个实施例的描述倾向于强调各个实施例之间的不同之处,其相同或相似之处可以互相参考,为了简洁,本文不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的方法和装置,可以通过其它的方式实现。例如,以上所描述的装置实施方式仅仅是示意性的,例如,模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性、机械或其它的形式。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本申请各个实施方式方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
Claims (10)
1.一种轨迹构建方法,其特征在于,包括:
对感知数据进行轨迹点提取,得到移动对象的轨迹点集合;其中,所述感知数据是感知设备针对移动对象进行数据采集得到的,所述轨迹点集合中的轨迹点含有时间信息和空间信息;
利用所述轨迹点对应的时间信息和空间信息对所述轨迹点进行异常判断,得到所述轨迹点对应的时空判断结果;以及,
利用所述轨迹点关联的感知数据对所述轨迹点进行异常判断,得到所述轨迹点对应的感知判断结果;
结合所述轨迹点集合中各个轨迹点对应的时空判断结果和感知判断结果,确定所述轨迹点集合中的异常轨迹点;
过滤所述轨迹点集合中的异常轨迹点,基于过滤后的轨迹点集合构建所述移动对象的移动轨迹。
2.根据权利要求1所述的方法,其特征在于,所述利用所述轨迹点对应的时间信息和空间信息对所述轨迹点进行异常判断,得到所述轨迹点对应的时空判断结果,包括:
利用所述轨迹点对应的时间信息和空间信息,计算所述轨迹点对应的时空变化信息;
基于所述时空变化信息对所述轨迹点进行异常判断,得到所述轨迹点对应的时空判断结果。
3.根据权利要求2所述的方法,其特征在于,所述利用所述轨迹点对应的时间信息和空间信息,计算所述轨迹点对应的时空变化信息,包括:
按照所述轨迹点对应的时间信息,从所述轨迹点集合中选取出与所述轨迹点在时间维度上相邻的相邻轨迹点;
基于所述轨迹点与所述相邻轨迹点对应的空间信息,计算所述轨迹点的速度信息;
将所述速度信息作为所述轨迹点对应的时空变化信息;
所述基于所述时空变化信息对所述轨迹点进行异常判断,得到所述轨迹点对应的时空判断结果,包括:
若所述速度信息不满足所述移动对象的运动规则,则得到所述轨迹点异常的时空判断结果;
若所述速度信息满足所述移动对象的运动规则,则得到所述轨迹点正常的时空判断结果。
4.根据权利要求1所述的方法,其特征在于,所述利用所述轨迹点关联的感知数据对所述轨迹点进行异常判断,得到所述轨迹点对应的感知判断结果,包括:
获取所述移动对象对应的基准特征信息,所述基准特征信息用于描述所述移动对象对应的感知数据满足的特征;
计算所述轨迹点关联的感知数据与所述基准特征信息之间的数据匹配度;
若所述数据匹配度小于预设匹配度阈值,则得到所述轨迹点异常的感知判断结果;
若所述数据匹配度不小于预设匹配度阈值,则得到所述轨迹点正常的感知判断结果。
5.根据权利要求1至4任一项所述的方法,其特征在于,所述结合所述轨迹点集合中各个轨迹点对应的时空判断结果和感知判断结果,确定所述轨迹点集合中的异常轨迹点,包括:
从所述轨迹点集合选取出时空判断结果表明轨迹点异常的轨迹点,得到初筛轨迹点;
从所述初筛轨迹点中选取出感知判断结果表明轨迹点异常的轨迹点,得到异常轨迹点。
6.根据权利要求1所述的方法,其特征在于,所述过滤所述轨迹点集合中的异常轨迹点,基于过滤后的轨迹点集合构建所述移动对象的移动轨迹,包括:
过滤所述轨迹点集合中的异常轨迹点,得到纠错轨迹点集合;
对所述纠错轨迹点集合中的轨迹点进行连续性分析,生成所述纠错轨迹点集合对应的补全轨迹点;
将所述补全轨迹点添加至所述纠错轨迹点集合,得到补全轨迹点集合;
基于所述补全轨迹点集合构建所述移动对象的移动轨迹。
7.根据权利要求6所述的方法,其特征在于,所述对所述纠错轨迹点集合中的轨迹点进行连续性分析,生成所述纠错轨迹点集合对应的补全轨迹点,包括:
对纠错轨迹点集合中的轨迹点进行空间信息连续分析和时间信息连续分析,得到所述纠错轨迹点集合对应的疑似遗漏点位和疑似遗漏时间;
确定所述疑似遗漏点位对应的感知设备,得到待排查设备;
获取所述待排查设备在所述疑似遗漏时间内采集到的感知数据,得到待排查数据;
若所述待排查数据存在所述移动对象,则基于所述疑似遗漏点位和疑似遗漏时间生成对应的补全轨迹点。
8.根据权利要求1所述的方法,其特征在于,所述移动对象含有主要移动对象和次要移动对象;在所述基于过滤后的轨迹点集合构建所述移动对象的移动轨迹之后,还包括:
分别获取所述主要移动对象和所述次要移动对象的移动轨迹;
确定所述主要移动对象的移动轨迹与所述次要移动对象的移动轨迹之间的轨迹重合点;
基于所述轨迹重合点,从所述次要移动对象的移动轨迹中截取得到可融合轨迹;
对所述可融合轨迹和所述主要移动对象的移动轨迹进行融合处理,得到所述主要移动对象的融合移动轨迹。
9.根据权利要求1所述的方法,其特征在于,所述移动对象的数量为多个;在所述基于过滤后的轨迹点集合构建所述移动对象的移动轨迹之后,还包括:
基于每个移动对象的移动轨迹,提取所述每个移动对象之间的关系特征;
利用所述每个移动对象之间的关系特征,构建关系网络。
10.根据权利要求9所述的方法,其特征在于,所述基于每个移动对象的移动轨迹,提取所述每个移动对象之间的关系特征,包括:
确定所述每个移动对象的移动轨迹之间的轨迹重合点;
提取所述轨迹重合点的时间特征、空间特征和感知数据特征中的一种或多种,得到关系影响特征;
结合每个轨迹重合点对应的关系影响特征,得到所述每个移动对象之间的关系特征。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410281244.5A CN117876980B (zh) | 2024-03-12 | 2024-03-12 | 一种轨迹构建方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410281244.5A CN117876980B (zh) | 2024-03-12 | 2024-03-12 | 一种轨迹构建方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117876980A true CN117876980A (zh) | 2024-04-12 |
CN117876980B CN117876980B (zh) | 2024-05-28 |
Family
ID=90584896
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410281244.5A Active CN117876980B (zh) | 2024-03-12 | 2024-03-12 | 一种轨迹构建方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117876980B (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110781266A (zh) * | 2019-09-16 | 2020-02-11 | 北京航空航天大学 | 一种基于时空因果关系的城市感知数据处理方法 |
CN110874362A (zh) * | 2019-10-29 | 2020-03-10 | 青岛海信网络科技股份有限公司 | 一种数据关联分析方法及装置 |
CN113868551A (zh) * | 2021-09-13 | 2021-12-31 | 杭州数梦工场科技有限公司 | 一种基于轨迹的密切接触对象的筛选方法和装置 |
WO2022068745A1 (zh) * | 2020-09-30 | 2022-04-07 | 华为技术有限公司 | 数据处理方法及设备 |
CN114862946A (zh) * | 2022-06-06 | 2022-08-05 | 重庆紫光华山智安科技有限公司 | 位置预测方法、系统、设备及介质 |
CN116166939A (zh) * | 2023-02-09 | 2023-05-26 | 浙江九州云信息科技有限公司 | 一种基于车路协同的数据预处理方法及系统 |
WO2023098339A1 (zh) * | 2021-12-03 | 2023-06-08 | 上海商汤智能科技有限公司 | 数据处理方法、装置、设备、存储介质及程序产品 |
-
2024
- 2024-03-12 CN CN202410281244.5A patent/CN117876980B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110781266A (zh) * | 2019-09-16 | 2020-02-11 | 北京航空航天大学 | 一种基于时空因果关系的城市感知数据处理方法 |
CN110874362A (zh) * | 2019-10-29 | 2020-03-10 | 青岛海信网络科技股份有限公司 | 一种数据关联分析方法及装置 |
WO2022068745A1 (zh) * | 2020-09-30 | 2022-04-07 | 华为技术有限公司 | 数据处理方法及设备 |
CN113868551A (zh) * | 2021-09-13 | 2021-12-31 | 杭州数梦工场科技有限公司 | 一种基于轨迹的密切接触对象的筛选方法和装置 |
WO2023098339A1 (zh) * | 2021-12-03 | 2023-06-08 | 上海商汤智能科技有限公司 | 数据处理方法、装置、设备、存储介质及程序产品 |
CN114862946A (zh) * | 2022-06-06 | 2022-08-05 | 重庆紫光华山智安科技有限公司 | 位置预测方法、系统、设备及介质 |
CN116166939A (zh) * | 2023-02-09 | 2023-05-26 | 浙江九州云信息科技有限公司 | 一种基于车路协同的数据预处理方法及系统 |
Non-Patent Citations (1)
Title |
---|
周培培;丁庆海;罗海波;侯幸林;: "基于DBSCAN聚类算法的异常轨迹检测", 红外与激光工程, no. 05, 25 May 2017 (2017-05-25) * |
Also Published As
Publication number | Publication date |
---|---|
CN117876980B (zh) | 2024-05-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20180053110A1 (en) | Method of predicting crime occurrence in prediction target region using big data | |
CN110826594A (zh) | 一种轨迹聚类的方法、设备及存储介质 | |
CN112183367B (zh) | 车辆数据检错方法、装置、服务器及存储介质 | |
CN112434566B (zh) | 客流统计方法、装置、电子设备及存储介质 | |
CN115393681A (zh) | 一种目标融合方法、装置、电子设备及存储介质 | |
CN111400550A (zh) | 一种目标运动轨迹构建方法、设备以及计算机存储介质 | |
CN114519879A (zh) | 人体数据归档方法、装置、设备及存储介质 | |
CN102789645B (zh) | 一种用于周界防范的多目标快速跟踪方法 | |
CN117130010B (zh) | 用于无人驾驶的障碍物感知方法、系统及无人驾驶汽车 | |
CN117876980B (zh) | 一种轨迹构建方法 | |
CN112115946B (zh) | 车牌的套牌识别方法、装置、存储介质和电子设备 | |
CN117828527A (zh) | 多源数据融合与态势生成方法及系统 | |
CN112052337A (zh) | 基于时空关联的目标关系探测方法、系统及存储介质 | |
CN115391596A (zh) | 视频档案生成方法、装置及存储介质 | |
Sinnott et al. | Urban traffic analysis using social media data on the cloud | |
Grigoropoulos et al. | Detection and classification of bicyclist group behavior for automated vehicle applications | |
RU2698157C1 (ru) | Система поиска нарушений в порядке расположения объектов | |
CN113837091A (zh) | 识别方法、装置、电子设备及计算机可读存储介质 | |
US20150120693A1 (en) | Image search system and image search method | |
CN112885101B (zh) | 确定异常设备的方法、装置、存储介质及电子装置 | |
CN113409018B (zh) | 人流密度确定方法、装置、设备及存储介质 | |
Flodin | Improved Data Association for Multi-Pedestrian Tracking Using Image Information | |
Xu et al. | Clique: Spatiotemporal Object Re-identification at the City Scale | |
CN114549882A (zh) | 一种图像聚档方法、装置、电子设备及存储介质 | |
CN115131715A (zh) | 基于深度神经网络的视频智能分析平台 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |