CN116844007A - 目标的跟踪方法、装置、存储介质和云计算平台 - Google Patents

目标的跟踪方法、装置、存储介质和云计算平台 Download PDF

Info

Publication number
CN116844007A
CN116844007A CN202310800817.6A CN202310800817A CN116844007A CN 116844007 A CN116844007 A CN 116844007A CN 202310800817 A CN202310800817 A CN 202310800817A CN 116844007 A CN116844007 A CN 116844007A
Authority
CN
China
Prior art keywords
result
target object
fusion
point
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310800817.6A
Other languages
English (en)
Inventor
周光涛
卢浩
杨海军
李胜
郁万蓉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China Unicom Smart Connection Technology Ltd
Original Assignee
China Unicom Smart Connection Technology Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China Unicom Smart Connection Technology Ltd filed Critical China Unicom Smart Connection Technology Ltd
Priority to CN202310800817.6A priority Critical patent/CN116844007A/zh
Publication of CN116844007A publication Critical patent/CN116844007A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/809Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
    • G06V10/811Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data the classifiers operating on different input data, e.g. multi-modal recognition
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/021Auxiliary means for detecting or identifying radar signals or the like, e.g. radar jamming signals
    • G01S7/022Road traffic radar detectors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/417Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section involving the use of neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Image Analysis (AREA)

Abstract

本发明实施例提供了一种目标的跟踪方法、装置、存储介质和云计算平台,该方法包括:获取多个单点位的点位信息;根据多个点位信息生成每个点位信息对应的融合识别结果;根据预设的点位划分结果与多个融合识别结果,生成跟踪结果,从而云计算平台能够实现对单点位的信息进行融合,将多个单点位的融合后的信息再次进行融合,目标物体跨越多个点位移动时,实现对目标物体的多点位跨域连续追踪。

Description

目标的跟踪方法、装置、存储介质和云计算平台
【技术领域】
本发明实施例涉及目标跟踪技术领域,具体涉及一种目标的跟踪方法、装置、存储介质和云计算平台。
【背景技术】
相关技术中,处于同一单点位的路侧雷达数据、视频数据,计算单元可进行多传感器数据融合,以实现同一目标物具有唯一的感知ID号。若目标物的轨迹跨域多个单点位,同一个目标物在不同的单点位均具有唯一的感知ID号,但是,多个感知ID号并不相同,导致无法得到目标物跨越多个单点位的运行轨迹。
【发明内容】
有鉴于此,本发明实施例提供了一种目标的跟踪方法、装置、存储介质和云计算平台,用以解决现有技术中无法得到目标物跨越多个单点位的运行轨迹的问题。
第一方面,本发明实施例提供了一种目标的跟踪方法,包括:
获取多个单点位的点位信息;
根据多个所述点位信息生成每个点位信息对应的融合识别结果;
根据预设的点位划分结果与多个所述融合识别结果,生成跟踪结果。
在一种可能的实现方式中,所述根据多个所述点位信息生成每个点位信息对应的融合识别结果,包括:
当所述点位信息包括一个摄像头信息时,通过识别算法,对所述摄像头信息进行识别,生成识别结果;将所述识别结果作为所述融合识别结果;或者,
当所述点位信息包括摄像头信息与雷达信息时,通过识别算法,对所述摄像头信息进行识别,生成识别结果;通过获取的距离门限与特定融合算法,根据所述识别结果与所述雷达信息,生成所述单点位融合结果;根据所述单点位融合结果与所述识别结果生成所述融合识别结果;或者,
当所述点位信息包括多个摄像头信息时,通过识别算法,对多个所述摄像头信息进行识别,生成每个摄像头信息对应的识别结果;通过特定融合算法,根据多个所述识别结果生成所述摄像头融合识别结果;根据所述摄像头融合识别结果与多个所述识别结果生成所述融合识别结果。
在一种可能的实现方式中,所述单点位包括连续区域点位或非连续区域点位,所述点位划分结果包括每个单点位对应的至少一个连续区域点位和/或至少一个非连续区域点位,所述跟踪结果包括多个所述连续区域点位对应的连续跨点位结果与多个所述非连续区域点位对应的非连续跨点位结果;所述根据预设的点位划分结果与多个所述融合识别结果,生成跟踪结果,包括:
根据所述点位划分结果,获取连续区域点位对应的目标连续区域点位;
根据所述连续区域点位对应的融合识别结果与所述目标连续区域点位对应的融合识别结果,生成所述连续跨点位结果;
根据所述点位划分结果与获取的预测轨迹,获取每个所述非连续区域点位对应的目标非连续区域点位;
根据所述非连续区域点位对应的融合识别结果与所述目标非连续区域点位对应的融合识别结果,生成所述非连续跨点位结果;
根据至少一个所述连续跨点位结果与至少一个所述非连续跨点位结果生成所述跟踪结果。
在一种可能的实现方式中,所述融合识别结果包括摄像头融合结果,所述摄像头融合结果包括至少一个目标物体的目标坐标与外观特征;所述根据所述连续区域点位对应的融合识别结果与所述目标连续区域点位对应的融合识别结果,生成所述连续跨点位结果,包括:
通过预先划分的重叠区域,从所述连续区域点位对应的第一摄像头融合结果中,查找出处于所述重叠区域内的第一目标物体的第一目标坐标;
通过所述重叠区域,从所述目标连续区域点位对应的第二摄像头融合结果中,查找出处于所述重叠区域内的第二目标物体的第二目标坐标;
通过双向匹配目标交接法,根据至少一个所述第一目标物体的所述第一目标坐标与至少一个所述第二目标物体的所述第二目标坐标,确定出所述第一目标物体对应的所述第二目标物体;
根据所述第一目标物体的第一外观特征与所述第一目标物体对应的所述第二目标物体的第二外观特征,生成第一匹配结果;
根据所述第一匹配结果、所述第一摄像头融合结果与所述第二摄像头融合结果生成所述连续跨点位结果。
在一种可能的实现方式中,所述第一外观特征包括第一外观图像,所述第二外观特征包括第二外观图像;所述根据所述第一目标物体的第一外观特征与所述第一目标物体对应的所述第二目标物体的第二外观特征,生成第一匹配结果,包括:
根据所述第一外观图像生成HSV格式的第一颜色模型;
根据所述第二外观图像生成HSV格式的第二颜色模型;
根据所述第一颜色模型与所述第二颜色模型生成目标相似度;
根据所述目标相似度生成所述第一匹配结果。
在一种可能的实现方式中,所述融合识别结果包括摄像头融合结果,所述摄像头融合结果包括至少一个目标物体的外观特征,所述根据所述非连续区域点位对应的融合识别结果与所述目标非连续区域点位对应的融合识别结果,生成所述非连续跨点位结果,包括:
根据所述非连续区域点位对应的第三目标物体的第三外观特征与所述目标非连续区域点位对应的第四目标物体的第四外观特征,生成第三目标物体与第四目标物体对应的第二匹配结果;
根据所述第二匹配结果、所述第三目标物体的对应的第三摄像头融合结果与所述第四目标物体对应的第四摄像头融合结果,生成所述非连续跨点位结果。
在一种可能的实现方式中,所述跟踪结果包括至少一个目标物体的显示编号,所述生成跟踪结果之后,还包括:
获取目标物体的行驶特征;
根据所述行驶特征生成时间阈值;
在所述时间阈值内判断是否存在与所述目标物体匹配的第二目标物体或第四目标物体;
若不存在与所述目标物体存在的第二目标物体或第四目标物体,将所述目标物体对应的所述显示编号删除。
第二方面,本发明实施例提供了一种目标的跟踪装置,包括:
第一获取模块,用于获取多个单点位的点位信息;
第一生成模块,用于根据多个所述点位信息生成每个点位信息对应的融合识别结果;
第二生成模块,用于根据预设的点位划分结果与多个所述融合识别结果,生成跟踪结果。
第三方面,本发明实施例提供了一种存储介质,所述存储介质包括存储的程序,其中,在所述程序运行时控制所述存储介质所在设备执行上述第一方面或第一方面任一可能的实现方式中的目标的跟踪方法。
第四方面,本发明实施例提供了一种云计算平台,包括存储器和处理器,所述存储器用于存储包括程序指令的信息,所述处理器用于控制程序指令的执行,所述程序指令被处理器加载并执行时实现上述第一方面或第一方面任一可能的实现方式中的目标的跟踪方法的步骤。
本发明实施例提供的一种目标的跟踪方法、装置、存储介质和云计算平台的技术方案中,获取多个单点位的点位信息;根据多个点位信息生成每个点位信息对应的融合识别结果;根据预设的点位划分结果与多个融合识别结果,生成跟踪结果,从而云计算平台能够实现对单点位的信息进行融合,将多个单点位的融合后的信息再次进行融合,目标物体跨越多个点位移动时,实现对目标物体的多点位跨域连续追踪。
【附图说明】
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其它的附图。
图1为本发明实施例提供的一种目标的跟踪方法的流程图;
图2为本发明实施例提供的一种点位示意图;
图3为本发明实施例提供的一种跟踪示意图;
图4为本发明实施例提供的一种更新外观特征集合的示意图;
图5为本发明实施例提供的一种目标的跟踪装置的结构示意图;
图6为本发明实施例提供的一种云计算平台的示意图。
【具体实施方式】
为了更好的理解本发明的技术方案,下面结合附图对本发明实施例进行详细描述。
应当明确,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
在本发明实施例中使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本发明。在本发明实施例和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。
应当理解,本文中使用的术语“和/或”仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系。
应当理解,尽管在本发明实施例中可能采用术语第一、第二、第三等来描述数目等,但这些数目不应限于这些术语。这些术语仅用来将数目彼此区分开。例如,在不脱离本发明实施例范围的情况下,第一数目也可以被称为第二数目,类似地,第二数目也可以被称为第一数目。
取决于语境,如在此所使用的词语“如果”可以被解释成为“在……时”或“当……时”或“响应于确定”或“响应于检测”。类似地,取决于语境,短语“如果确定”或“如果检测(陈述的条件或事件)”可以被解释成为“当确定时”或“响应于确定”或“当检测(陈述的条件或事件)时”或“响应于检测(陈述的条件或事件)”。
图1为本发明实施例提供的一种目标的跟踪方法的流程图,如图1所示,该方法包括:
步骤101、云计算平台获取多个单点位的点位信息。
本发明实施例中,道路上可设置传感器对交通参与者的行为进行记录,例如,传感器为摄像头、雷达等具有记录功能的设备,雷达包括激光雷达或毫米波雷达。云计算平台可预先按照传感器的分布,将传感器所在的地理区域划分成一个或多个单点位,不同的单点位可设置不同的传感器,每个单点位均包括至少一种传感器。
但每个单点位均包括摄像头,例如,单点位包括至少一个摄像头,点位信息包括至少一个摄像头信息。而交通较为复杂的路口所对应的单点位还会设置激光雷达和/或毫米波雷达,例如,单点位包括至少一个摄像头与至少一个激光雷达,点位信息包括至少一个摄像头信息与至少一个激光雷达信息;或者,单点位包括至少一个摄像头与至少一个毫米波雷达,点位信息包括至少一个摄像头信息与至少一个毫米波雷达信息;或者,单点位包括至少一个摄像头、至少一个激光雷达与至少一个毫米波雷达,点位信息包括至少一个摄像头信息、至少一个激光雷达信息与至少一个毫米波雷达信息。
图2为本发明实施例提供的一种点位示意图,如图2所示,每个边框代表1个单点位,图2中示出了8个单点位。边框1、边框3、边框6与边框8中均只包括摄像头,采用纯视觉的方式记录道路状况;边框2、边框4与边框5均包括摄像头与毫米波雷达,采用雷视结合的方式记录道路状况;边框7包括摄像头、激光雷达和毫米波雷达,采取三种传感器记录人行横道与车道的状况。摄像头可采集视频数据,视频数据包括了交通参与者的外观、所在车道、位置等信息;毫米波雷达不受雨、雾、灰尘和雪等环境条件的影响,可采集毫米波雷达数据,毫米波雷达数据包括交通参与者的位置、高度、速度、姿态、形状等参数;激光雷达可通过发射激光束的方式采集激光雷达数据,激光雷达数据包括交通参与者的位置、高度、速度、姿态、形状等参数,将交通参与者作为目标物体。
图3为本发明实施例提供的一种跟踪示意图,如图3所示,每个单点位可包括至少一种传感器,但每个单点位必包括摄像头,虚线框中的激光雷达与毫米波雷达属于可选传感器。多个点位的点位信息上传至云计算平台,云计算平台包括融合感知算法计算模块,融合感知算法计算模块包括特征提取模块、特征匹配模块、特征并集处理模块、特征存储模块与车辆唯一ID连续追踪模块,实现了对车辆轨迹信息的记录,还可将轨迹可视化,还可以实现协同自动驾驶。
但通常只有在繁华或复杂的路段才会部署至少两类传感器,例如,双向的车道数目大于4车道,且交通流量处于较高水平,一般采取雷视融合与纯视觉进行交替部署的方式,如图2所示,边框1至边框4采取了雷视融合与纯视觉进行交替部署的方式,其中边框1与边框3采取的是纯视觉的方式,边框2与边框4采取的是雷视融合的方式。交通流量很低的情况下,可采取连续纯视觉的方式。
步骤102、云计算平台根据多个点位信息生成每个点位信息对应的融合识别结果。
本发明实施例中,融合识别结果包括融合结果与识别结果。当单点位包括1个摄像头时,云计算平台将对摄像头信息进行识别的识别结果作为融合识别结果。当单点位包括多个传感器时,云计算平台对多个传感器采集的信息进行融合,生成融合结果;将融合结果作为融合识别结果。从而可以实现对单点位的至少一个传感器的多个目标物体的识别与追踪。
若单点位包括多个传感器,多个传感器包括多个摄像头,或者多个传感器包括至少一个摄像头与至少一个雷达设备。如图2所示,边框1中仅包括1个摄像头,云计算平台对摄像头信息进行识别,生成识别结果;边框2中包括摄像头与毫米波雷达,云计算平台对摄像头信息与毫米波雷达信息进行融合,生成融合结果。
步骤103、云计算平台根据预设的点位划分结果与多个融合识别结果,生成跟踪结果。
本发明实施例中,单点位包括连续区域点位或非连续区域点位,由于每个单点位均包括摄像头,若相邻的单点位的摄像头具有重叠区域,则将相邻的,且具有重叠区域的摄像头所在的单点位均作为连续区域点位;若相邻的单点位的摄像头不具有重叠区域,则将相邻的,且不具有重叠区域的摄像头所在的单点位作为非连续区域点位。点位划分结果包括每个单点位对应的至少一个连续区域点位和/或至少一个非连续区域点位,跟踪结果包括多个连续区域点位对应的连续跨点位结果与多个非连续区域点位对应的非连续跨点位结果。从而可以实现同一个目标物体跨越多个点位的识别与追踪。
单点位可以既是连续区域点位,也是非连续区域点位。如图2所示,若边框3所示的摄像头与边框7所示的摄像头存在共同的重叠拍摄区域,则边框3所对应的单点位为连续区域点位,边框7所对应的单点位为目标连续区域点位。如图2所示,若边框3所示的摄像头与边框4所示的摄像头不存在共同的重叠拍摄区域,则边框3所对应的单点位为非连续区域点位,边框7所对应的单点位为目标非连续区域点位。
本发明实施例提供了一种目标的跟踪方法,云计算平台获取多个单点位的点位信息;根据多个点位信息生成每个点位信息对应的融合识别结果;根据预设的点位划分结果与多个融合识别结果,生成跟踪结果,从而云计算平台能够实现对单点位的信息进行融合,将多个单点位的融合后的信息再次进行融合,,目标物体跨越多个点位移动时,实现对目标物体的多点位跨域连续追踪。
在一种可能的实现方式中,步骤101包括:云计算平台基于统一同步时间,采集单点位的点位信息。
本发明实施例中,由于每个单点位可包括至少一种传感器,而不同传感器输出的数据与编码是不同的,为保证单点位的数据融合结果,云计算平台需要在时间上同步传感器的时间,从而达到传感器采集数据的时间一致。云计算平台在采集单点位的点位信息时,需要对传感器采集的数据加上时间戳,例如,摄像头采集的视频数据包括多帧数据,每帧数据均对应一个采集时间。云计算平台包括网络时间协议(Network Time Protocol,NTP)服务器,云计算平台在采集多个单点位的点位数据之前,NTP服务器为每个单点位对应的传感器授时,以保证多个单点位的时间同步。
在一种可能的实现方式中,当点位信息包括一个摄像头信息时,步骤102包括:步骤1021、云计算平台通过识别算法,对摄像头信息进行识别,生成识别结果;将识别结果作为融合识别结果。
本发明实施例中,摄像头信息包括至少一个目标物体,识别结果包括至少一个目标物体的检测框、种类识别结果、第一置信度、第一标识编号、所在车道、基于像素坐标系的像素坐标、基于图像坐标系的图像坐标、基于摄像头坐标系的摄像头相对坐标、基于世界坐标系的世界坐标中至少一个信息。例如,云计算平台通过识别算法,根据获取的数据集与摄像头信息,对至少一个目标物体的种类进行识别,生成目标物体的种类识别结果与第一置信度。世界坐标系指的是以现实经纬度为准的坐标系,摄像头坐标系指的是以摄像头为原点的坐标系,由于摄像头信息中包括至少一帧图像,每个图像包括多个像素,云计算平台在对目标物体进行识别时,首先会得到目标物体的基于像素坐标系的像素坐标;然后将像素坐标转化为基于图像坐标系的图像坐标;然后,将图像坐标转化为基于摄像头坐标系的摄像头相对坐标;最后,将摄像头相对坐标转化为以实际经纬度为基础的世界坐标。
识别算法包括YOLO v5算法,云计算平台通过YOLO v5算法能够实现对目标物体的识别、跟踪与定位。在对目标物体进行识别时,云计算平台通过YOLO v5算法,对同一个目标物体会生成多个检测框与每个检测框对应的第一置信度与种类识别结果;根据多个第一置信度的得分,对第一置信度进行由高到低的排列;将得分最高的第一置信度作为目标物体的第一置信度,并将得分最高的第一置信度对应的种类识别结果作为目标物体的种类识别结果。通过YOLO v5算法还可以实现对目标物体的追踪,云计算平台对识别出的每个目标物体赋予唯一的第一标识编号,若目标物体出现在多帧图像中,每帧图像的同一个目标物体的第一标识编号相同。
在一种可能的实现方式中,当点位信息包括摄像头信息与雷达信息时,步骤102包括:步骤1022、云计算平台通过识别算法,对摄像头信息进行识别,生成识别结果;步骤1023、云计算平台通过获取的距离门限与特定融合算法,根据识别结果与雷达信息,生成单点位融合结果;步骤1024、云计算平台根据单点位融合结果与识别结果生成融合识别结果。
本发明实施例中,步骤1022可参考上述步骤1021。
在步骤1023中,雷达信息包括激光雷达信息和/或毫米波雷达信息。雷达信息中包括至少一个目标物体的基于雷达坐标系的雷达坐标、基于世界坐标系的世界坐标、物体速度、航向、三维尺寸、第二置信度等信息。云计算平台预先建立以雷达设备为原点的雷达坐标系,将基于雷达坐标系下的雷达坐标转化为基于世界坐标系下的世界坐标,从而实现了单点位的不同传感器的目标物体基于同一个坐标系下,实现了空间对齐。特定融合算法可以是基于同一单点位的多个传感器的数据的融合算法,特定融合算法包括雷视融合算法、光视融合算法、雷视光融合算法或纯视觉融合算法等,根据单点位中包括的传感器种类,云计算平台可选择不同的特定融合算法。单点位融合结果包括对多个传感器的重叠检测区域的目标物体的融合结果。
传感器可对应距离感知门限,距离感知门限为传感器可采集的数据的范围最大值;多个传感器对应的距离感知门限中,距离门限与取值最小的距离感知门限相等。例如,摄像头的距离感知门限为200米,32线激光雷达的距离感知门限为150米,毫米波雷达的距离感知门限为400米,当单点位包括摄像头、32线激光雷达与毫米波雷达时,取值最小的距离感知门限为150米,距离门限为150米。云计算平台根据距离门限从识别结果中筛选出处于距离门限内的至少一个第一单点位目标物体;根据距离门限从雷达信息中筛选出处理距离门限内的至少一个第二单点位目标物体;基于世界坐标系,根据至少一个第一单点位目标物体的第一世界坐标与至少一个第二单点位目标物体的第二世界坐标,确定出第一单点位目标物体对应的第二单点位目标物体。基于世界坐标系,可将处于识别结果中的目标物体与处于雷达信息中的目标物体匹配,实现对匹配的目标物体的识别信息与雷达信息的融合,生成单点位融合结果。
单点位融合结果包括融合置信度,识别信息包括第一置信度,雷达信息包括第二置信度。步骤1023包括:云计算平台根据第一置信度、第二置信度与获取的不同传感器的融合系数生成融合置信度。
本发明实施例中,云计算平台根据传感器在识别方面的精确度,根据经验为不同的传感器赋予融合系数,单点位的多个传感器的融合系数的和为1。第二置信度包括毫米波雷达置信度和/或激光雷达置信度。云计算平台根据第一置信度与第一置信度对应的融合系数,计算出第一融合置信度参数,并根据第二置信度与第二置信度对应的融合系数,计算出第二融合置信度参数;将第一融合置信度参数与第二融合置信度的和作为融合置信度。
例如,对于同一目标物体,第一置信度为75%,第一置信度对应摄像头,摄像头的融合系数为0.4,第一置信度对应的融合系数为0.4;毫米波雷达置信度为60%,毫米波雷达置信度对应毫米波雷达,毫米波雷达的融合系数为0.6,毫米波雷达置信度对应的融合系数为0.6,融合置信度为75%*0.4+85%*0.6=0.81。
步骤1024中,云计算平台根据单点位融合结果更新摄像头信息,生成摄像头融合信息。摄像头融合信息包括标物体的检测框、种类识别结果、融合置信度、物体编号、所在车道、基于像素坐标系的像素坐标、基于图像坐标系的图像坐标、基于摄像头坐标系的摄像头相对坐标、基于世界坐标系的世界坐标、物体速度、航向、三维尺寸中至少一个信息。云计算平台可根据同一个目标物体的移动,记录多个目标移动坐标,生成目标移动坐标集合,目标移动坐标包括目标物体的基于像素坐标系的像素坐标、基于图像坐标系的图像坐标、基于摄像头坐标系的摄像头相对坐标、基于世界坐标系的世界坐标中至少一个。
在一种可能的实现方式中,当点位信息包括多个摄像头信息时,步骤102包括:步骤1025、云计算平台通过识别算法,对每个摄像头信息进行识别,生成每个摄像头信息对应的识别结果;步骤1026、云计算平台通过特定融合算法,根据多个识别结果生成摄像头融合识别结果;步骤1027、云计算平台根据摄像头融合识别结果与多个识别结果生成融合识别结果。
本发明实施例中,步骤1025可参考上述步骤1021。在步骤1026中,特定融合算法包括纯视觉融合算法。云算平台根据纯视觉融合算法对单点位的不同摄像头数据进行数据融合,以达到数据去重的目的。在步骤1027中,云计算平台根据摄像头融合识别结果更新识别结果,生成摄像头融合结果。
在一种可能的实现方式中,融合识别结果包括至少一个目标物体的外观特征集合。步骤1021、步骤1024、或步骤1027之后还包括:云计算平台根据识别结果生成至少一个目标物体的外观特征集合;保存至少一个目标物体的外观特征集合。融合识别结果包括至少一个目标物体的物体编号,在雷达信息中可包括目标物体的第二标识编号;步骤1021、步骤1024、或步骤1027之后还包括:云计算平台根据匹配的目标物体的第一标识编号与第二标识编号生成物体编号,以使处于单点位的不同传感器中的同一个目标物体具有唯一的物体编号;保存目标物体的物体编号。
本发明实施例中,外观特征集合中包括目标物体的至少一个外观特征与每个外观特征对应的外观特征标识编号。
在一种可能的实现方式中,单点位包括连续区域点位或非连续区域点位,点位划分结果包括每个单点位对应的至少一个连续区域点位和/或至少一个非连续区域点位,跟踪结果包括多个连续区域点位对应的连续跨点位结果与多个非连续区域点位对应的非连续跨点位结果。
本发明实施例中,单点位可以既是连续区域点位,也是非连续区域点位。如图2所示,若边框3所示的摄像头与边框7所示的摄像头存在共同的重叠拍摄区域,则边框3所对应的单点位为连续区域点位,边框7所对应的单点位为目标连续区域点位。如图2所示,若边框3所示的摄像头与边框4所示的摄像头不存在共同的重叠拍摄区域,则边框3所对应的单点位为非连续区域点位,边框7所对应的单点位为目标非连续区域点位。
在步骤103具体可包括:步骤1031、云计算平台根据点位划分结果,获取连续区域点位对应的目标连续区域点位。
本发明实施例中,目标连续区域点位为多个点位中,与连续区域点位对应的点位。
步骤1032、云计算平台根据连续区域点位对应的融合识别结果与目标连续区域点位对应的融合识别结果,生成连续跨点位结果。
本发明实施例中,融合识别结果包括摄像头融合结果,在单点位仅包括1个摄像头时,将识别结果作为摄像头融合结果。摄像头融合结果包括至少一个目标物体的目标坐标、外观特征与物体编号。步骤1032具体可包括:
步骤1032A、云计算平台通过预先划分的重叠区域,从连续区域点位对应的第一摄像头融合结果中,查找出处于重叠区域内的第一目标物体的第一目标坐标。
本发明实施例中,云计算平台可预先在摄像头的拍摄区域划分出重叠区域,重叠区域指的是连续区域点位的传感器与目标连续区域点位的传感器可同时检测的区域。第一摄像头融合结果为连续区域点位对应的摄像头融合结果,第一目标物体为处于第一摄像头融合结果的重叠区域内的目标物体,第一目标坐标为第一目标物体的像素坐标、图像坐标或摄像头相对坐标。
步骤1032B、云计算平台通过重叠区域,从目标连续区域点位对应的第二摄像头融合结果中,查找出处于重叠区域内的第二目标物体的第二目标坐标。
本发明实施例中,第二目标物体为处于重叠区域内的目标物体,第二目标坐标为第二目标物体的像素坐标、图像坐标或摄像头相对坐标。
步骤1032C、云计算平台通过双向匹配目标交接法,根据至少一个第一目标物体的第一目标坐标与至少一个第二目标物体的第二目标坐标,确定出第一目标物体对应的第二目标物体。
本发明实施例中,双向匹配目标交接法指的是不同点位的传感器之间变换坐标关系模型。例如,第一目标坐标为基于连续区域点位的摄像头坐标系的第一摄像头相对坐标,第二目标物体为基于目标连续区域点位的摄像头坐标系的第二摄像头相对坐标,云计算平台可通过双向匹配目标交接法,将第一目标坐标转化为基于目标连续区域点位的摄像头坐标系的第三摄像头相对坐标;判断第三摄像头相对坐标与第二摄像头相对坐标是否匹配;若判断出第三摄像头相对坐标与第二摄像头相对坐标匹配,则确定出第三摄像头相对坐标对应的第一目标物体与第二摄像头相对坐标对应的第二目标物体对应。其中,判断第三摄像头相对坐标与第二摄像头相对坐标是否匹配指的是判断第三摄像头相对坐标与第二摄像头相对坐标的距离是否超过误差范围。
步骤1032D、云计算平台根据第一目标物体的第一外观特征与第一目标物体对应的第二目标物体的第二外观特征,生成第一匹配结果。
本发明实施例中,第一匹配结果包括匹配或不匹配。第一外观特征包括第一外观图像,第二外观特征包括第二外观图像。
云计算平台执行步骤1032D以确定不同点位的目标物体是否为同一个目标物体。若目标物体为车辆,在步骤1032D1之前,还包括:云计算平台判断第一外观图像是否包括第一车牌标识,以及判断第二外观图像是否包括第二车牌标识;若判断出第一外观图像包括第一车牌标识,且第二外观图像包括第二车牌标识,则判断第一车牌标识与第二车牌标识是否相同;若判断出第一车牌标识与第二车牌标识相同,则确定出第一匹配结果为匹配;若判断出第一车牌标识与第二车牌标识不相同,则确定出第一匹配结果为不匹配;若判断出第一外观图像不包括第一车牌标识和/或第二外观图像不包括第二车牌标识,则执行步骤1032D1。若目标物体不是车辆,云计算平台执行步骤1032D1。
第一外观图像包括第一目标物体的颜色、纹理、轮廓等。第二外观图像包括第二目标物体的颜色、纹理、轮廓等。云计算平台可根据特征直方图度量不同目标物体的外观的相似度,保证目标交接准确性。
步骤1032D包括:步骤1032D1、云计算平台根据第一外观图像生成HSV格式的第一颜色模型。
本发明实施例中,摄像头基于红绿蓝(red、green、blue,RGB)颜色模型采集RGB格式的图像。云计算平台基于RGB颜色模型可转化为HSV(Hue,Saturation,Value)颜色模型,将RGB格式的图像转化为HSV格式的第一颜色模型。
步骤1032D2、云计算平台根据第二外观图像生成HSV格式的第二颜色模型。
本发明实施例中,步骤1032D2可参考上述步骤1032D1。
步骤1032D3、云计算平台根据第一颜色模型与第二颜色模型生成目标相似度。
本发明实施例中,云计算平台基于色调、饱和度与亮度三个视觉特征,比较第一目标物体与第二目标物体的相似程度,得到目标相似度。
步骤1032D4、云计算平台根据目标相似度生成第一匹配结果。
本发明实施例中,云计算平台根据目标相似度可确定出第一目标物体与第二目标物体是否匹配。
步骤1032E、云计算平台根据第一匹配结果、第一摄像头融合结果与第二摄像头融合结果生成连续跨点位结果。
本发明实施例中,摄像头融合结果包括物体编号与目标移动坐标集合。第一摄像头融合结果包括第一摄像头融合结果与第一目标移动坐标集合,第二摄像头融合结果包括第二物体编号与第二目标移动坐标集合。若第一目标物体与第二目标物体匹配,表示第一目标物体与第二目标物体为同一个目标物体,云计算平台基于同一个目标物体,为同一个目标物体赋予相同的编号,将目标物体的显示编号确定为第一物体编号或第二物体编号,云计算平台可根据将生成时间较早的第一物体编号或第二物体编号的,云计算平台将目标物体的显示编号保存至第一融合识别结果与第二融合识别结果。云计算平台根据第一目标移动坐标集合与第二目标移动坐标集合,更新目标物体的目标移动坐标集合。
步骤1033、云计算平台根据点位划分结果与获取的预测轨迹,获取每个非连续区域点位对应的目标非连续区域点位。
本发明实施例中,步骤1033之前还包括:云计算平台获取目标物体的行驶特征;根据第三目标物体对应的行驶特征生成预测轨迹。行驶特征包括目标物体的多个目标移动坐标、物体速度中至少一个。其中,目标物体的物体速度可以是雷达信息中的物体速度,也可以是云计算平台根据多个目标移动坐标与目标移动坐标对应的时间点计算出的。
云计算平台通过时空转移建模、轨迹拟合函数等方式,根据目标物体的多个目标移动坐标与物体速度,拟合出目标物体的转移时间分布,对目标物体的轨迹进行预测,根据预测的轨迹,将目标物体可能到达的下一单点位作为目标非连续区域点位。云计算平台基于时间戳与转移时间分布,获取至少一个符合转移时间分布的单点位,将符合转移时间分布的单点位作为目标非连续区域点位。
步骤1034、云计算平台根据非连续区域点位对应的融合识别结果与目标非连续区域点位对应的融合识别结果,生成非连续跨点位结果。
本发明实施例中,步骤1034A、云计算平台根据非连续区域点位对应的第三目标物体的第三外观特征与目标非连续区域点位对应的第四目标物体的第四外观特征,生成第三目标物体与第四目标物体对应的第二匹配结果;步骤1034B、根据第二匹配结果、第三目标物体的对应的第三摄像头融合结果与第四目标物体对应的第四摄像头融合结果,生成非连续跨点位结果。步骤1034A可参考上述步骤1032D,步骤1034B可参考上述步骤1032E。
在一种可能的实现方式中,步骤1032D之后还包括:若确定出第一目标物体与第二目标物体匹配,则根据第一目标物体的第一外观特征与第二目标物体的第二外观特征,更新第一目标物体对应的外观特征集合。步骤1034A之后还包括:在一种可能的实现方式中,若确定出第三目标物体与第四目标物体匹配,则根据第三目标物体的第三外观特征与第四目标物体的第四外观特征,更新第三目标物体对应的外观特征集合。
本发明实施例中,云计算平台基于多接入边缘计算(Multi-access EdgeComputing,MEC)的感知经验共享,实现了目标特征完善机制,即在多个点位识别过程中,保存目标物体获取到的新的外观特征。
图4为本发明实施例提供的一种更新外观特征集合的示意图,如图4所示,假设点位1摄像头提取到了4个特征,点位2摄像头提取到了5个特征,点位3摄像头提取到了4个特征。以最初点位1摄像头为基准对点位1和2摄像头得到的结果进行匹配,赋予点位2摄像头提取到而点位1摄像头没有提取到的特征一个新的编号;再以点位2摄像头为基准对点位2和3摄像头得到的结果进行匹配,赋予点位3摄像头提取到而点位2摄像头没有提取到的特征一个新的编号,最终取连续点位摄像头特征序列的并集作为该目标物的外观特征集合,从而能够在连续的识别及存储特征过程中,对每个交通参与者的特征逐渐完善,进而达到多个点位的跨点追踪的目的。
步骤1035、云计算平台根据至少一个连续跨点位结果与至少一个非连续跨点位结果生成跟踪结果。
本发明实施例中,云计算平台可创建多个线程,每个线程对应一个连续跨点位结果的执行步骤或非连续跨点位结果的执行步骤,从而可以实现对多个目标物体的轨迹的追踪。
本发明实施例中,步骤1035之后还包括:云计算平台显示跟踪结果。云计算平台显示每个摄像机信息处理后的画面。画面中包括目标物体的检测框、置信度、种类识别结果、显示编号、轨迹线等信息中至少一个。其中,轨迹线可以是云计算平台根据跟踪结果对目标物体的移动轨迹进行数字孪生,构建目标物体移动状况的三维视角可视化轨迹线。
在一种可能的实现方式中,跟踪结果包括至少一个目标物体的显示编号,步骤103之后,还包括:云计算平台获取目标物体的行驶特征;根据行驶特征生成时间阈值;在时间阈值内判断是否存在与目标物体匹配的第二目标物体或第四目标物体;若不存在与目标物体存在的第二目标物体或第四目标物体,将目标物体对应的显示编号删除。
本发明实施例中,行驶特征包括多个物体速度、航向、轨迹信息中至少一个。云计算平台根据物体速度的平均值与两个单点位之间的距离,生成第一时间;根据目标物体所在车道的额定速度与两个单点位之间的距离,生成第二时间;根据第一时间与第二时间生成时间阈值。例如,时间阈值为第一时间、第二时间或第一时间与第二时间的和值。时间阈值也可以是第一时间与第二时间中较大的时间的2倍。例如,在高速公路上,两个点位均为非连续区域点位,两个点位之间约有50米的区域无法拍摄到,时间阈值为2分钟,若2分钟内,云计算平台没有查找出与目标物体对应的第四目标物体,则将目标物体的显示编号删除。
图5为本发明实施例提供的一种目标的跟踪装置的结构示意图,如图5所示,该装置包括:第一获取模块11、第一生成模块12与第二生成模块13。第一获取模块11与第一生成模块12连接,第一生成模块12与第二生成模块13连接。
第一获取模块11用于获取多个单点位的点位信息;第一生成模块12用于根据多个点位信息生成每个点位信息对应的融合识别结果;第二生成模块13用于根据预设的点位划分结果与多个融合识别结果,生成跟踪结果。
在一种可能的实现方式中,第一生成模块12具体用于当点位信息包括一个摄像头信息时,通过识别算法,对摄像头信息进行识别,生成识别结果;将识别结果作为融合识别结果;或者,当点位信息包括摄像头信息与雷达信息时,通过识别算法,对摄像头信息进行识别,生成识别结果;通过获取的距离门限与特定融合算法,根据识别结果与雷达信息,生成单点位融合结果;根据单点位融合结果与识别结果生成融合识别结果;或者,当点位信息包括多个摄像头信息时,通过识别算法,对多个摄像头信息进行识别,生成每个摄像头信息对应的识别结果;通过特定融合算法,根据多个识别结果生成摄像头融合识别结果;根据摄像头融合识别结果与多个识别结果生成融合识别结果。
在一种可能的实现方式中,单点位包括连续区域点位或非连续区域点位,点位划分结果包括每个单点位对应的至少一个连续区域点位和/或至少一个非连续区域点位,跟踪结果包括多个连续区域点位对应的连续跨点位结果与多个非连续区域点位对应的非连续跨点位结果;第二生成模块13具体用于根据点位划分结果,获取连续区域点位对应的目标连续区域点位;根据连续区域点位对应的融合识别结果与目标连续区域点位对应的融合识别结果,生成连续跨点位结果;根据点位划分结果与获取的预测轨迹,获取每个非连续区域点位对应的目标非连续区域点位;根据非连续区域点位对应的融合识别结果与目标非连续区域点位对应的融合识别结果,生成非连续跨点位结果;根据至少一个连续跨点位结果与至少一个非连续跨点位结果生成跟踪结果。
在一种可能的实现方式中,融合识别结果包括摄像头融合结果,摄像头融合结果包括至少一个目标物体的目标坐标与外观特征;第二生成模块13具体用于通过预先划分的重叠区域,从连续区域点位对应的第一摄像头融合结果中,查找出处于重叠区域内的第一目标物体的第一目标坐标;通过重叠区域,从目标连续区域点位对应的第二摄像头融合结果中,查找出处于重叠区域内的第二目标物体的第二目标坐标;通过双向匹配目标交接法,根据至少一个第一目标物体的第一目标坐标与至少一个第二目标物体的第二目标坐标,确定出第一目标物体对应的第二目标物体;根据第一目标物体的第一外观特征与第一目标物体对应的第二目标物体的第二外观特征,生成第一匹配结果;根据第一匹配结果、第一摄像头融合结果与第二摄像头融合结果生成连续跨点位结果。
在一种可能的实现方式中,第一外观特征包括第一外观图像,第二外观特征包括第二外观图像;第二生成模块13具体用于根据第一外观图像生成HSV格式的第一颜色模型;根据第二外观图像生成HSV格式的第二颜色模型;根据第一颜色模型与第二颜色模型生成目标相似度;根据目标相似度生成第一匹配结果。
在一种可能的实现方式中,融合识别结果包括摄像头融合结果,摄像头融合结果包括至少一个目标物体的外观特征,第二生成模块13具体用于根据非连续区域点位对应的第三目标物体的第三外观特征与目标非连续区域点位对应的第四目标物体的第四外观特征,生成第三目标物体与第四目标物体对应的第二匹配结果;根据第二匹配结果、第三目标物体的对应的第三摄像头融合结果与第四目标物体对应的第四摄像头融合结果,生成非连续跨点位结果。
在一种可能的实现方式中,该装置还包括:第二获取模块14、第四生成模块15、判断模块16与删除模块17。第二获取模块14与第二生成模块13和第四生成模块15连接,第四生成模块15与判断模块16连接,判断模块16与删除模块17连接。
第二获取模块14用于获取目标物体的行驶特征;第四生成模块15用于根据行驶特征生成时间阈值;判断模块16用于在时间阈值内判断是否存在与目标物体匹配的第二目标物体或第四目标物体;删除模块17用于若不存在与目标物体存在的第二目标物体或第四目标物体,将目标物体对应的显示编号删除。
本发明实施例提供了一种目标的跟踪装置,获取多个单点位的点位信息;根据多个点位信息生成每个点位信息对应的融合识别结果;根据预设的点位划分结果与多个融合识别结果,生成跟踪结果,从而云计算平台能够实现对单点位的信息进行融合,将多个单点位的融合后的信息再次进行融合,目标物体跨越多个点位移动时,实现对目标物体的多点位跨域连续追踪。
本发明实施例提供了一种存储介质,存储介质包括存储的程序,其中,在程序运行时控制存储介质所在设备执行上述目标的跟踪方法的实施例的各步骤,具体描述可参见上述目标的跟踪方法的实施例。
本发明实施例提供了一种云计算平台,包括存储器和处理器,存储器用于存储包括程序指令的信息,处理器用于控制程序指令的执行,程序指令被处理器加载并执行时实现上述目标的跟踪方法的实施例的各步骤,具体描述可参见上述目标的跟踪方法的实施例。
图6为本发明实施例提供的一种云计算平台的示意图。如图6所示,该实施例的云计算平台30包括:处理器31、存储器32以及存储在存储器32中并可在处理器31上运行的计算机程序33,该计算机程序33被处理器31执行时实现实施例中的应用于目标的跟踪方法,为避免重复,此处不一一赘述。或者,该计算机程序被处理器31执行时实现实施例中应用于目标的跟踪装置中各模型/单元的功能,为避免重复,此处不一一赘述。
云计算平台30包括,但不仅限于,处理器31、存储器32。本领域技术人员可以理解,图6仅仅是云计算平台30的示例,并不构成对云计算平台30的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如云计算平台30还可以包括输入输出设备、网络接入设备、总线等。
所称处理器31可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
存储器32可以是云计算平台30的内部存储单元,例如云计算平台30的硬盘或内存。存储器32也可以是云计算平台30的外部存储设备,例如云计算平台30上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,存储器32还可以既包括云计算平台30的内部存储单元也包括外部存储设备。存储器32用于存储计算机程序以及云计算平台30所需的其他程序和数据。存储器32还可以用于暂时地存储已经输出或者将要输出的数据。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本发明所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如,多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
上述以软件功能单元的形式实现的集成的单元,可以存储在一个计算机可读取存储介质中。上述软件功能单元存储在一个存储介质中,包括若干指令用以使得一台计算机装置(可以是个人计算机,服务器,或者网络装置等)或处理器(Processor)执行本发明各个实施例方法的部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-OnlyMemory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明保护的范围之内。

Claims (10)

1.一种目标的跟踪方法,其特征在于,包括:
获取多个单点位的点位信息;
根据多个所述点位信息生成每个点位信息对应的融合识别结果;
根据预设的点位划分结果与多个所述融合识别结果,生成跟踪结果。
2.根据权利要求1所述的方法,其特征在于,所述根据多个所述点位信息生成每个点位信息对应的融合识别结果,包括:
当所述点位信息包括一个摄像头信息时,通过识别算法,对所述摄像头信息进行识别,生成识别结果;将所述识别结果作为所述融合识别结果;或者,
当所述点位信息包括摄像头信息与雷达信息时,通过识别算法,对所述摄像头信息进行识别,生成识别结果;通过获取的距离门限与特定融合算法,根据所述识别结果与所述雷达信息,生成所述单点位融合结果;根据所述单点位融合结果与所述识别结果生成所述融合识别结果;或者,
当所述点位信息包括多个摄像头信息时,通过识别算法,对多个所述摄像头信息进行识别,生成每个摄像头信息对应的识别结果;通过特定融合算法,根据多个所述识别结果生成所述摄像头融合识别结果;根据所述摄像头融合识别结果与多个所述识别结果生成所述融合识别结果。
3.根据权利要求1所述的方法,其特征在于,所述单点位包括连续区域点位或非连续区域点位,所述点位划分结果包括每个单点位对应的至少一个连续区域点位和/或至少一个非连续区域点位,所述跟踪结果包括多个所述连续区域点位对应的连续跨点位结果与多个所述非连续区域点位对应的非连续跨点位结果;所述根据预设的点位划分结果与多个所述融合识别结果,生成跟踪结果,包括:
根据所述点位划分结果,获取连续区域点位对应的目标连续区域点位;
根据所述连续区域点位对应的融合识别结果与所述目标连续区域点位对应的融合识别结果,生成所述连续跨点位结果;
根据所述点位划分结果与获取的预测轨迹,获取每个所述非连续区域点位对应的目标非连续区域点位;
根据所述非连续区域点位对应的融合识别结果与所述目标非连续区域点位对应的融合识别结果,生成所述非连续跨点位结果;
根据至少一个所述连续跨点位结果与至少一个所述非连续跨点位结果生成所述跟踪结果。
4.根据权利要求3所述的方法,其特征在于,所述融合识别结果包括摄像头融合结果,所述摄像头融合结果包括至少一个目标物体的目标坐标与外观特征;所述根据所述连续区域点位对应的融合识别结果与所述目标连续区域点位对应的融合识别结果,生成所述连续跨点位结果,包括:
通过预先划分的重叠区域,从所述连续区域点位对应的第一摄像头融合结果中,查找出处于所述重叠区域内的第一目标物体的第一目标坐标;
通过所述重叠区域,从所述目标连续区域点位对应的第二摄像头融合结果中,查找出处于所述重叠区域内的第二目标物体的第二目标坐标;
通过双向匹配目标交接法,根据至少一个所述第一目标物体的所述第一目标坐标与至少一个所述第二目标物体的所述第二目标坐标,确定出所述第一目标物体对应的所述第二目标物体;
根据所述第一目标物体的第一外观特征与所述第一目标物体对应的所述第二目标物体的第二外观特征,生成第一匹配结果;
根据所述第一匹配结果、所述第一摄像头融合结果与所述第二摄像头融合结果生成所述连续跨点位结果。
5.根据权利要求4所述的方法,其特征在于,所述第一外观特征包括第一外观图像,所述第二外观特征包括第二外观图像;所述根据所述第一目标物体的第一外观特征与所述第一目标物体对应的所述第二目标物体的第二外观特征,生成第一匹配结果,包括:
根据所述第一外观图像生成HSV格式的第一颜色模型;
根据所述第二外观图像生成HSV格式的第二颜色模型;
根据所述第一颜色模型与所述第二颜色模型生成目标相似度;
根据所述目标相似度生成所述第一匹配结果。
6.根据权利要求3所述的方法,其特征在于,所述融合识别结果包括摄像头融合结果,所述摄像头融合结果包括至少一个目标物体的外观特征,所述根据所述非连续区域点位对应的融合识别结果与所述目标非连续区域点位对应的融合识别结果,生成所述非连续跨点位结果,包括:
根据所述非连续区域点位对应的第三目标物体的第三外观特征与所述目标非连续区域点位对应的第四目标物体的第四外观特征,生成第三目标物体与第四目标物体对应的第二匹配结果;
根据所述第二匹配结果、所述第三目标物体的对应的第三摄像头融合结果与所述第四目标物体对应的第四摄像头融合结果,生成所述非连续跨点位结果。
7.根据权利要求1所述的方法,其特征在于,所述跟踪结果包括至少一个目标物体的显示编号,所述生成跟踪结果之后,还包括:
获取目标物体的行驶特征;
根据所述行驶特征生成时间阈值;
在所述时间阈值内判断是否存在与所述目标物体匹配的第二目标物体或第四目标物体;
若不存在与所述目标物体存在的第二目标物体或第四目标物体,将所述目标物体对应的所述显示编号删除。
8.一种目标的跟踪装置,其特征在于,包括:
第一获取模块,用于获取多个单点位的点位信息;
第一生成模块,用于根据多个所述点位信息生成每个点位信息对应的融合识别结果;
第二生成模块,用于根据预设的点位划分结果与多个所述融合识别结果,生成跟踪结果。
9.一种存储介质,其特征在于,所述存储介质包括存储的程序,其中,在所述程序运行时控制所述存储介质所在设备执行权利要求1至7中任意一项所述的目标的跟踪方法。
10.一种云计算平台,包括存储器和处理器,所述存储器用于存储包括程序指令的信息,所述处理器用于控制程序指令的执行,其特征在于,所述程序指令被处理器加载并执行时实现权利要求1至7中任意一项所述的目标的跟踪方法步骤。
CN202310800817.6A 2023-06-30 2023-06-30 目标的跟踪方法、装置、存储介质和云计算平台 Pending CN116844007A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310800817.6A CN116844007A (zh) 2023-06-30 2023-06-30 目标的跟踪方法、装置、存储介质和云计算平台

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310800817.6A CN116844007A (zh) 2023-06-30 2023-06-30 目标的跟踪方法、装置、存储介质和云计算平台

Publications (1)

Publication Number Publication Date
CN116844007A true CN116844007A (zh) 2023-10-03

Family

ID=88166418

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310800817.6A Pending CN116844007A (zh) 2023-06-30 2023-06-30 目标的跟踪方法、装置、存储介质和云计算平台

Country Status (1)

Country Link
CN (1) CN116844007A (zh)

Similar Documents

Publication Publication Date Title
EP3367361B1 (en) Method, device and system for processing startup of front vehicle
WO2020154990A1 (zh) 目标物体运动状态检测方法、设备及存储介质
CN109035790B (zh) 车辆交通违法的证据获取方法及系统
JPH07505966A (ja) 物体モニタシステム
JP2003296736A (ja) 障害物検知装置及びその方法
CN111837158A (zh) 图像处理方法、装置、拍摄装置和可移动平台
KR102491527B1 (ko) 카메라 영상에서 대상의 감지
CN112947419A (zh) 避障方法、装置及设备
EP4287137A1 (en) Method, device, equipment, storage media and system for detecting drivable space of road
CN114120283A (zh) 一种道路场景三维语义分割中未知障碍物的判别方法
CN114969221A (zh) 一种更新地图的方法及相关设备
Kanhere et al. Real-time detection and tracking of vehicle base fronts for measuring traffic counts and speeds on highways
KR20190134303A (ko) 영상 인식 장치 및 그 방법
CN117152949A (zh) 一种基于无人机的交通事件识别方法及系统
CN116665179A (zh) 数据处理方法、装置、域控制器以及存储介质
CN116844007A (zh) 目标的跟踪方法、装置、存储介质和云计算平台
CN116794650A (zh) 一种毫米波雷达与摄像头数据融合的目标检测方法和装置
Dai et al. A driving assistance system with vision based vehicle detection techniques
US20240071104A1 (en) Image processing device, image processing method, and recording medium
CN114782496A (zh) 一种对象的跟踪方法、装置、存储介质及电子装置
CN114648549A (zh) 一种融合视觉和激光雷达的交通场景目标检测及定位方法
CN112507887A (zh) 一种路口标志牌提取及关联的方法及装置
CN112257485A (zh) 一种对象检测的方法、装置、存储介质及电子设备
Berrio et al. Semantic sensor fusion: From camera to sparse LiDAR information
CN117644815B (zh) 基于智能车灯系统的盲区告警方法、装置、设备和系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination