CN116129369A - 基于视频流跟踪融合的车辆属性识别方法及相关设备 - Google Patents
基于视频流跟踪融合的车辆属性识别方法及相关设备 Download PDFInfo
- Publication number
- CN116129369A CN116129369A CN202211737361.5A CN202211737361A CN116129369A CN 116129369 A CN116129369 A CN 116129369A CN 202211737361 A CN202211737361 A CN 202211737361A CN 116129369 A CN116129369 A CN 116129369A
- Authority
- CN
- China
- Prior art keywords
- vehicle
- attribute
- target vehicle
- target
- determining
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/54—Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本公开提供了一种基于视频流跟踪融合的车辆属性识别方法及相关设备,涉及图像识别技术领域。该方法包括,根据目标车辆第一视频,确定目标车辆第一图像;将目标车辆第一图像输入预先训练好的模型,输出目标车辆的多个第一属性,其中,目标车辆的多个第一属性包括第一车辆面积信息、第一车辆朝向信息和第一车辆遮挡信息;将目标车辆的每个第一属性进行属性融合得到第一车辆属性,确定第一车辆属性为目标车辆的车辆属性。本公开通过获取车辆不同属性进行融合计算,克服车辆识别的易受光照、视角影响的问题,提升了车辆属性识别的准确度和稳定性。
Description
背景技术
随着物联网的不断发展,电子摄像头遍布在城市的主要道路之中。智能交通系统运用车辆重识别技术,基于交通监控视频中车辆图像,运用计算机视觉技术进行识别和处理,从车辆图像库中检索同一辆车的图像,减少人工检索的工作量,快速定位目标车辆,对于交通监控场景下的车辆非法涂装识别,车辆检索等有着重要意义。
现有技术中,基于人工设计的特征,通过变换图像的颜色空间为HSL(HueSaturation Lightness,色相、饱和度、亮度),统计颜色直方图作为车辆的颜色特征,通过HOG(Histogram of Oriented Gradient,方向梯度直方图),LBP(Local Binary Patterns,线性反投影算法)等算子提取车辆结构信息,然后针对这些特征训练SVM(Support VectorMachine,支持向量机)或者KNN(k-NearestNeighbor,邻近算法)等分类器来得到车辆的各种属性。虽然图像处理方法简单易用,但是在实际应用中,智能交通场景的输入往往是视频流,车辆在运动过程中的遮挡(视角影响)、光线变化(光照影响)等因素导致车辆属性识别准确率低。
本公开通过目标车辆的视频,获取车辆不同属性进行融合计算,克服车辆识别的易受光照、视角影响的问题,大大提升了车辆属性识别的准确度和稳定性。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本公开提供一种基于视频流跟踪融合的车辆属性识别方法及相关设备,至少在一定程度上克服由于相关技术中车辆识别的易受光照、视角影响的问题。
本公开的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本公开的实践而习得。
根据本公开的一个方面,提供了一种基于视频流跟踪融合的车辆属性识别方法,包括:根据目标车辆第一视频,确定目标车辆第一图像;将所述目标车辆第一图像输入预先训练好的模型,输出目标车辆的多个第一属性,其中,所述目标车辆的多个第一属性包括第一车辆面积信息、第一车辆朝向信息和第一车辆遮挡信息;将目标车辆的每个第一属性进行属性融合得到第一车辆属性,确定第一车辆属性为目标车辆的车辆属性。
在一些实施例中,所述方法还包括:获取目标车辆的第二图像;根据所述目标车辆的第二图像,更新目标车辆的车辆属性。
在一些实施例中,所述根据所述目标车辆的第二图像,更新目标车辆的车辆属性包括:将所述目标车辆的第二图像输入预先训练好的模型,输出目标车辆的多个第二属性,其中,所述目标车辆的多个第二属性包括第二车辆面积信息、第二车辆朝向信息和第二车辆遮挡信息;将目标车辆的每个第二属性进行属性融合,确定第二车辆属性;判断所述第二车辆属性的置信度是否高于所述第一车辆属性的置信度;当所述第二车辆属性的置信度高于所述第一车辆属性的置信度,将所述目标车辆的第二车辆属性确定为目标车辆的车辆属性。
在一些实施例中,所述将目标车辆的每个第一属性进行属性融合得到第一车辆属性,确定第一车辆属性为目标车辆的车辆属性包括:将目标车辆的每个第一属性进行加权计算,得到第一车辆属性,确定第一车辆属性为目标车辆的车辆属性。
在一些实施例中,所述根据目标车辆第一视频,确定目标车辆第一图像包括:根据多目标跟踪算法与目标车辆第一视频,确定每一辆车在视频各个帧中的检测框及状态;根据每一辆车的状态,确定状态为跟踪状态的车辆;根据检测框与状态为跟踪状态的车辆,确定目标车辆第一图像。
在一些实施例中,所述将目标车辆的每个第一属性进行属性融合得到第一车辆属性,确定第一车辆属性为目标车辆的车辆属性包括:第一属性数目大于预设阈值时,将目标车辆的每个第一属性进行属性融合得到第一车辆属性,确定第一车辆属性为目标车辆的车辆属性。
在一些实施例中,所述将目标车辆的每个第一属性进行属性融合得到第一车辆属性,确定第一车辆属性为目标车辆的车辆属性包括:目标车辆的运动轨迹结束时,将目标车辆的每个第一属性进行属性融合得到第一车辆属性,确定第一车辆属性为目标车辆的车辆属性。
根据本公开的另一个方面,还提供了一种基于视频流跟踪融合的车辆属性识别装置,包括:图像确定模块,用于根据目标车辆第一视频,确定目标车辆第一图像;属性识别模块,用于将所述目标车辆第一图像输入预先训练好的模型,输出目标车辆的多个第一属性,其中,所述目标车辆的多个第一属性包括第一车辆面积信息、第一车辆朝向信息和第一车辆遮挡信息;属性确定模块,用于将目标车辆的每个第一属性进行属性融合得到第一车辆属性,确定第一车辆属性为目标车辆的车辆属性。
根据本公开的另一个方面,还提供了一种电子设备,该电子设备包括:处理器;以及存储器,用于存储所述处理器的可执行指令;其中,所述处理器配置为经由执行所述可执行指令来执行上述任意一项所述的基于视频流跟踪融合的车辆属性识别方法。
根据本公开的另一个方面,还提供了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述任意一项所述的基于视频流跟踪融合的车辆属性识别方法。
根据本公开的另一个方面,还提供了一种计算机程序产品,包括计算机程序,所述计算机程序被处理器执行时实现上述任意一项的基于视频流跟踪融合的车辆属性识别方法。
本公开的实施例中提供的基于视频流跟踪融合的车辆属性识别方法及相关设备,根据目标车辆第一视频,确定目标车辆第一图像;将目标车辆第一图像输入预先训练好的模型,输出目标车辆的多个第一属性,其中,目标车辆的多个第一属性包括第一车辆面积信息、第一车辆朝向信息和第一车辆遮挡信息;将目标车辆的每个第一属性进行属性融合得到第一车辆属性,确定第一车辆属性为目标车辆的车辆属性。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出本公开实施例中一种基于视频流跟踪融合的车辆属性识别方法流程图;
图2示出本公开实施例中一种基于视频流跟踪融合的车辆属性识别方法一具体实例的流程图;
图3示出本公开实施例中一种基于视频流跟踪融合的车辆属性识别方法又一具体实例的流程图;
图4示出本公开实施例中一种基于视频流跟踪融合的车辆属性识别方法再一具体实例的流程图;
图5示出本公开实施例中一种基于视频流跟踪融合的车辆属性识别系统的示意图;
图6示出本公开实施例中一种车辆跟踪模块结构示意图;
图7示出本公开实施例中一种多属性识别模块结构示意图;
图8示出本公开实施例中一种属性融合模块结构示意图;
图9示出本公开实施例中一种更新策略流程图;
图10示出本公开实施例中一种基于视频流跟踪融合的车辆属性识别装置示意图;
图11示出本公开实施例中一种计算机设备的结构框图;
图12示出本公开实施例中一种计算机可读存储介质的示意图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。
此外,附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
下面结合附图,对本公开实施例的具体实施方式进行详细说明。
图1示出本公开实施例中一种基于视频流跟踪融合的车辆属性识别方法流程图,如图1所示,本公开实施例中提供的基于视频流跟踪融合的车辆属性识别方法包括如下步骤:
S102,根据目标车辆第一视频,确定目标车辆第一图像。
需要说明的是,上述第一视频可以是各种动态影像的连续画面。例如,目标车辆在道路上行驶的连续画面。上述第一图像可以是视频中的帧画面,可以是一帧画面还可以是多帧画面。例如,跟踪获取目标车辆在道路上行驶视频中的多帧画面。
S104,将目标车辆第一图像输入预先训练好的模型,输出目标车辆的多个第一属性,其中,目标车辆的多个第一属性包括第一车辆面积信息、第一车辆朝向信息和第一车辆遮挡信息。
需要说明的是,上述预先训练好的模型可以是多任务分类网络。
S106,将目标车辆的每个第一属性进行属性融合得到第一车辆属性,确定第一车辆属性为目标车辆的车辆属性。
需要说明的是,上述属性融合可以是将多个属性进行融合计算。例如,根据不同属性的重要性,赋予属性不同的权重进行计算。上述第一车辆属性可以是以下属性的任意一种或多种:车辆颜色、车型、车牌。
在具体实施时,本公开综合利用单帧图像的各种属性信息以及视频流的时序信息,通过跟踪获取车辆的运动轨迹,获取车辆不同属性进行融合计算,克服车辆识别的易受光照、视角影响的问题,大大提升了车辆属性识别的准确度和稳定性。
在本公开的一个实施例中,如图2所示,本公开实施例中提供的基于视频流跟踪融合的车辆属性识别方法可以通过如下步骤来更新目标车辆的车辆属性,能够准确预测出目标车辆最新的车辆属性:
S202,获取目标车辆的第二图像;
S204,根据目标车辆的第二图像,更新目标车辆的车辆属性。
在本公开的一个实施例中,如图3所示,本公开实施例中提供的基于视频流跟踪融合的车辆属性识别方法可以通过如下步骤来更新目标车辆的车辆属性,能够准确预测出目标车辆最准确的车辆属性:
S302,将目标车辆的第二图像输入预先训练好的模型,输出目标车辆的多个第二属性,其中,目标车辆的多个第二属性包括第二车辆面积信息、第二车辆朝向信息和第二车辆遮挡信息;
S304,将目标车辆的每个第二属性进行属性融合,确定第二车辆属性;
S306,判断第二车辆属性的置信度是否高于第一车辆属性的置信度;
S308,当第二车辆属性的置信度高于第一车辆属性的置信度,将目标车辆的第二车辆属性确定为目标车辆的车辆属性。
在一个具体的实例中,将目标车辆的每个第一属性进行属性融合得到第一车辆属性,确定第一车辆属性为目标车辆的车辆属性包括:将目标车辆的每个第一属性进行加权计算,得到第一车辆属性,确定第一车辆属性为目标车辆的车辆属性。
在本公开的一个实施例中,如图4所示,本公开实施例中提供的基于视频流跟踪融合的车辆属性识别方法可以通过如下步骤来确定目标车辆第一图像,能够准确在视频中获取到目标车辆第一图像:
S402,根据多目标跟踪算法与目标车辆第一视频,确定每一辆车在视频各个帧中的检测框及状态;
S404,根据每一辆车的状态,确定状态为跟踪状态的车辆;
S406,根据检测框与状态为跟踪状态的车辆,确定目标车辆第一图像。
在一个具体的实例中,采用多目标跟踪中的Fairmot算法,得到每一辆车在视频各个帧中的Boundingbox序列。采用Track_id标识唯一的车辆,每一个序列包含该Track_id的车辆在不同帧中的检测框,以及该车辆的状态,检测框Boundingbox表示车辆的上下左右边界,状态Status表示该车辆是否正在跟踪状态。根据Boundingbox结合状态Status,在视频帧中扣取出目标车辆(例如,正在跟踪状态的车辆)。
在一个具体的实例中,将目标车辆的每个第一属性进行属性融合得到第一车辆属性,确定第一车辆属性为目标车辆的车辆属性包括:第一属性数目大于预设阈值时,将目标车辆的每个第一属性进行属性融合得到第一车辆属性,确定第一车辆属性为目标车辆的车辆属性。
在一个具体的实例中,将目标车辆的每个第一属性进行属性融合得到第一车辆属性,确定第一车辆属性为目标车辆的车辆属性包括:目标车辆的运动轨迹结束时,将目标车辆的每个第一属性进行属性融合得到第一车辆属性,确定第一车辆属性为目标车辆的车辆属性。
例如,属性为车辆颜色和车型,辅助属性为车辆朝向、车辆遮挡和车辆面积。
图5示出本公开实施例中一种基于视频流跟踪融合的车辆属性识别系统的示意图,如图5所示,本公开实施例中提供的基于视频流跟踪融合的车辆属性识别系统包括如下模块:车辆跟踪模块51,多属性识别模块52,属性融合模块53和属性更新模块54。
基于视频流跟踪融合的车辆属性识别系统,一方面融合时序信息,即某一车辆在视频序列中呈现的车辆/车牌属性信息(车辆颜色,车型,车牌类型,车牌号码等),另一方面同一帧该车辆的其他属性,比如车辆朝向和车辆遮挡情况,也可以辅助属性的判断。
同时,针对不同的展示需求,设计了事中融合策略和事后融合策略。预设目标属性(相当于上述目标车辆的车辆属性)为车辆颜色和车型,辅助属性(相当于上述第一属性)为车辆朝向、车辆遮挡和车辆面积,以此为例来展示车辆属性识别的跟踪融合系统。
其中,车辆跟踪模块51(结构示意图如图6所示)。
采用多目标跟踪中的Fairmot算法,得到每一辆车在视频各个帧中的Boundingbox序列。
算法输入:本模型的输入为宽高为1088*608的视频帧序列。假设图像原始宽高为W*H,缩放Scale为Min(1088/w,608/h),先将图片缩放scale倍,然后Padding补0使其宽高满足1088*608。
模型输出:模型的输出为N个序列,N代表有N辆不同的车辆出现在视频中,采用Track_id标识唯一的车辆,每一个序列包含该Track_id的车辆在不同帧中的检测框,以及该车辆的状态,检测框Boundingbox表示车辆的上下左右边界[rect_top,rect_left,rect_down,rect_right],状态Status表示该车辆是否正在跟踪状态Is_tracking/lost。
多属性识别模块52(结构示意图如图7所示)。
根据Boundingbox在视频帧中扣取出车辆,采用多任务分类网络,输出车辆目标属性(相当于上述目标车辆的车辆属性)Vehicle_A_i_attr和车辆辅助属性(相当于上述第一属性)Vehicle_A_i_attr_aux。其中车辆目标属性包含车辆的颜色和类型,车辆辅助属性包含车辆的朝向和遮挡情况。当前任务的车辆颜色包含Nc种,车辆类型包含Nt种,车辆朝向分为8种[上,下,左,右,左上,左下,右上,右下],车辆遮挡分为2种[被遮挡,无遮挡]。模型输入:本模型的输入为宽高为224*224的图片。在图像原始尺寸不满足的情况下,先将图片长边缩放至224,然后将短边Padding补0,使其宽高都为224。模型输出:单张图片的输出为一个1*(Nc+Nt+8+2)维的向量,每一位为范围[0,1]的浮点数。其中第0-7位为车辆朝向的置信度[o1,o2,o3,o4,o5,o6,o7,o8],第8-9位为车辆遮挡的置信度[f1,f2],第10-(10+Nc)位为颜色的置信度第(11+Nc)-(10+Nc+Nt)位为车型的置信度且满足下述公式(1)、公式(2)、公式(3)、公式(4):
属性融合模块53(结构示意图如图8所示)。
针对某一个Track_id的车辆,结合其在所有历史帧中的属性和其他属性信息,加权平均得到当前车辆的属性。在加权过程中,需要考虑不同车辆属性对车辆属性识别的影响。主要影响因素如下:
1,车辆的朝向---Orientation。
车辆在上和下两个朝向时受视角限制,前后挡风玻璃在画面中区域较大,影响车辆属性判断,在左和右两个朝向时,展现的是车的侧身,代表了车辆主体属性。故车辆的8种朝向[上,下,左,右,左上,左下,右上,右下]对车辆属性的影响设计为下述公式(5):
Wori=[0.05,0.05,0.25,0.25,0.1,0.1,0.1,0.1]; (5)
2,车辆的遮挡---Occlusion。
在车辆被严重遮挡时,得到的属性信息受遮挡物的影响较大,故可信度较低;在未被遮挡时,展现的是车本体的属性。故车辆的遮挡对车辆属性的影响设计为下述公式(6):
Wocc=f1; (6)
3,车辆的面积---Area。
根据车辆检测框Boundingbox计算车辆的面积Area。车辆面积较小时,其检测框不稳定,属性信息也更容易被环境影响,故可信度较低;车辆面积较大时,展现的细节信息更多,其检测框和属性信息的质量也更高。故车辆的面积对车辆属性的影响设计为下述公式(7):
Warea=1-area/area_img; (7)
其中,计算中加入area_img做归一化减少了图像原始尺寸的影响。
4,融合方法。
对于Track_id为ID的车辆来说,假设其Tracklet序列有k个实例,则融合后的车辆属性通过下述公式(8)表示:
其中,CID_i表示Track_id为ID的第i个实例的属性,Wi表示第i个实例的整体属性置信度。Wi通过下述公式(9)计算:
Wi= Wocc*a1+Wori*a2+Warea*a3; (9)
其中,Wocc,Wori,Warea,分别代表该车辆实例的辅助属性---遮挡朝向属性和面积对车辆目标属性识别的影响,a1,a2和a3分别代表这3种辅助属性的影响程度,且满足a1+a2+a3=1。在一个实例中,可以直接令a1=a2=a3=1/3,即这两种属性对车辆属性的影响程度一致。在实际应用中,由于训练数据和多任务模型结构的影响,不同属性的推理结果可能有倾向性。可以根据已训练模型的实际推理结果来拟合求解a1,a2和a3,这样得到适用于特定多任务属性识别方法的权值。
属性更新模块54。
结合多属性识别模块52和属性融合模块53,可以得到车辆实体V_A_I的属性结构体,属性结构体包括车辆V_A的第I个实体的目标属性Vehicle_A_i_attr和整体属性置信度Vehicle_A_i_conf=W_I。
针对车辆Vehicle_A,设计一段容量为N的存储空间Buffer,用于保存该车辆序列的各个实体的属性结构体。N表示可存储的最多的实体属性结构体的个数。需要说明的是,上述Buffer,能够存储当前空间内的属性结构体的个数Vehicle_A_CNT,融合后的属性结果Vehicle_A_attr_fusion。Buffer的结构示意表结如下表1所示:
表1
对于新来的一帧图像,针对于Buffer中的车辆Vehicle_A,其实体属性结构体的更新策略(属性更新模块)流程图如图9所示。
S901,New Frame Coming;
S902,判断是否检测到Vekicle-A;
S903,若是,记为Vehicle-A-New,跳转到S907;
S904,若否,判断Vekicle-A状态是否为Lost;
S905,若是,清空Vekicle-A-Buffer;
S906,若否,Continue;
S907,判断Vekicle-A-Buffer是否已满;
S908,若否,将Vekicle-A-New加入Buffer,结束流程;
S909,若是,判断Vekicle-A-New置信度高于Vekicle-A-Minconf;
S910,若是,删除Vekicle-A-Minconf加入Vehicle-A-New;
S911,若否,Continue。
图9中,将Vekicle-A-New加入Buffer和清空Vekicle-A-Buffer可以设置触发机制,记Vekicle-A-New加入Buffer为触发A,清空Vekicle-A-Buffer为触发B。
事中融合触发机制:
事中融合触发机制常用于对时效要求较高的场景,比如实时告警,实时结果展示等场景中。
如果触发A中,当前Buffer的实体数目大于阈值(相当于上述第一属性数目大于预设阈值时),认为融合得到的车辆属性足够准确,故系统输出融合属性。
触发B中,表明Vehicle_A的当前轨迹已结束。可利用信息已收集完毕,故系统输出融合属性。
事后融合触发机制:
事后触发机制常用于对于实效性不高,但对于准确性较高的场景中,例如智能交通场景中的车辆布控、车牌抓拍等场景中。
触发B中,表明Vehicle_A的当前轨迹已结束(相当于上述目标车辆的运动轨迹结束时)。可利用信息已收集完毕,故系统输出融合属性。
本公开充分利用视频流的时序信息,以及单帧图像中车辆的朝向和遮挡信息,为车辆属性的识别提供更多辅助信息,使得车辆属性的识别更有依据,可以更好的评估属性的准确性;同时采用的多任务识别方法,一次那个推理完成多种属性的识别,大大减少了计算量。和现有的方法相比,在增加少量运算量的基础上,大大提升了结果的准确率和稳定性。设置事中融合和事后融合两种更新策略,满足不同的应用场景。
本公开能够应用于交通监控场景,可以辅助车辆非法涂装识别,车辆套牌识别,车辆跟踪,以及车辆检索。车辆属性识别是智慧交通的重要一环,本公开能够对交通场景的车辆管控起到主要作用,包括车辆违法行为的识别和车辆检索。
基于同一发明构思,本公开实施例中还提供了一种基于视频流跟踪融合的车辆属性识别装置,如下面的实施例所述。由于该装置实施例解决问题的原理与上述方法实施例相似,因此该装置实施例的实施可以参见上述方法实施例的实施,重复之处不再赘述。
图10示出本公开实施例中一种基于视频流跟踪融合的车辆属性识别装置示意图,如图10所示,该装置包括:图像确定模块101,属性识别模块102,属性确定模块103和车辆属性更新模块104。
其中,图像确定模块101,用于根据目标车辆第一视频,确定目标车辆第一图像。
属性识别模块102,用于将目标车辆第一图像输入预先训练好的模型,输出目标车辆的多个第一属性,其中,目标车辆的多个第一属性包括第一车辆面积信息、第一车辆朝向信息和第一车辆遮挡信息。
属性确定模块103,用于将目标车辆的每个第一属性进行属性融合得到第一车辆属性,确定第一车辆属性为目标车辆的车辆属性。
在本公开的一个实施例中,上述基于视频流跟踪融合的车辆属性识别装置还包括车辆属性更新模块104,用于:获取目标车辆的第二图像;根据目标车辆的第二图像,更新目标车辆的车辆属性。
在本公开的一个实施例中,上述车辆属性更新模块104具体用于:将目标车辆的第二图像输入预先训练好的模型,输出目标车辆的多个第二属性,其中,目标车辆的多个第二属性包括第二车辆面积信息、第二车辆朝向信息和第二车辆遮挡信息;将目标车辆的每个第二属性进行属性融合,确定第二车辆属性;判断第二车辆属性的置信度是否高于第一车辆属性的置信度;当第二车辆属性的置信度高于第一车辆属性的置信度,将目标车辆的第二车辆属性确定为目标车辆的车辆属性。
在本公开的一个实施例中,上述属性确定模块103具体用于:将目标车辆的每个第一属性进行加权计算,得到第一车辆属性,确定第一车辆属性为目标车辆的车辆属性。
在本公开的一个实施例中,上述图像确定模块101具体用于:根据多目标跟踪算法与目标车辆第一视频,确定每一辆车在视频各个帧中的检测框及状态;根据每一辆车的状态,确定状态为跟踪状态的车辆;根据检测框与状态为跟踪状态的车辆,确定目标车辆第一图像。
在本公开的一个实施例中,上述属性确定模块103具体用于:第一属性数目大于预设阈值时,将目标车辆的每个第一属性进行属性融合得到第一车辆属性,确定第一车辆属性为目标车辆的车辆属性。
在本公开的一个实施例中,上述属性确定模块103具体用于:目标车辆的运动轨迹结束时,将目标车辆的每个第一属性进行属性融合得到第一车辆属性,确定第一车辆属性为目标车辆的车辆属性。
此处需要说明的是,上述图像确定模块101,属性识别模块102,属性确定模块103对应于方法实施例中的S102~S106,上述模块与对应的步骤所实现的示例和应用场景相同,但不限于上述方法实施例所公开的内容。需要说明的是,上述模块作为装置的一部分可以在诸如一组计算机可执行指令的计算机系统中执行。
所属技术领域的技术人员能够理解,本公开的各个方面可以实现为系统、方法或程序产品。因此,本公开的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“系统”。
下面参照图11来描述根据本公开的这种实施方式的电子设备1100。图11显示的电子设备1100仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图11所示,电子设备1100以通用计算设备的形式表现。电子设备1100的组件可以包括但不限于:上述至少一个处理单元1110、上述至少一个存储单元1120、连接不同系统组件(包括存储单元1120和处理单元1110)的总线1130。
其中,所述存储单元存储有程序代码,所述程序代码可以被所述处理单元1110执行,使得所述处理单元1110执行本说明书上述“示例性方法”部分中描述的根据本公开各种示例性实施方式的步骤。
例如,所述处理单元1110可以执行上述方法实施例的如下步骤:根据目标车辆第一视频,确定目标车辆第一图像;将目标车辆第一图像输入预先训练好的模型,输出目标车辆的多个第一属性,其中,目标车辆的多个第一属性包括第一车辆面积信息、第一车辆朝向信息和第一车辆遮挡信息;将目标车辆的每个第一属性进行属性融合得到第一车辆属性,确定第一车辆属性为目标车辆的车辆属性。
例如,所述处理单元1110可以执行上述方法实施例的如下步骤:获取目标车辆的第二图像;根据目标车辆的第二图像,更新目标车辆的车辆属性。
例如,所述处理单元1110可以执行上述方法实施例的如下步骤:将目标车辆的第二图像输入预先训练好的模型,输出目标车辆的多个第二属性,其中,目标车辆的多个第二属性包括第二车辆面积信息、第二车辆朝向信息和第二车辆遮挡信息;将目标车辆的每个第二属性进行属性融合,确定第二车辆属性;判断第二车辆属性的置信度是否高于第一车辆属性的置信度;当第二车辆属性的置信度高于第一车辆属性的置信度,将目标车辆的第二车辆属性确定为目标车辆的车辆属性。
例如,所述处理单元1110可以执行上述方法实施例的如下步骤:将目标车辆的每个第一属性进行加权计算,得到第一车辆属性,确定第一车辆属性为目标车辆的车辆属性。
例如,所述处理单元1110可以执行上述方法实施例的如下步骤:根据多目标跟踪算法与目标车辆第一视频,确定每一辆车在视频各个帧中的检测框及状态;根据每一辆车的状态,确定状态为跟踪状态的车辆;根据检测框与状态为跟踪状态的车辆,确定目标车辆第一图像。
例如,所述处理单元1110可以执行上述方法实施例的如下步骤:第一属性数目大于预设阈值时,将目标车辆的每个第一属性进行属性融合得到第一车辆属性,确定第一车辆属性为目标车辆的车辆属性。
例如,所述处理单元1110可以执行上述方法实施例的如下步骤:目标车辆的运动轨迹结束时,将目标车辆的每个第一属性进行属性融合得到第一车辆属性,确定第一车辆属性为目标车辆的车辆属性。
存储单元1120可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)11201和/或高速缓存存储单元11202,还可以进一步包括只读存储单元(ROM)11203。
存储单元1120还可以包括具有一组(至少一个)程序模块11205的程序/实用工具11204,这样的程序模块11205包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线1130可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备1100也可以与一个或多个外部设备1140(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备1100交互的设备通信,和/或与使得该电子设备1100能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口1150进行。并且,电子设备1100还可以通过网络适配器1160与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器1160通过总线1130与电子设备1100的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备1100使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、终端装置、或者网络设备等)执行根据本公开实施方式的方法。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机程序产品,该计算机程序产品包括:计算机程序,所述计算机程序被处理器执行时实现上述基于视频流跟踪融合的车辆属性识别方法。
在本公开的示例性实施例中,还提供了一种计算机可读存储介质,该计算机可读存储介质可以是可读信号介质或者可读存储介质。图12示出本公开实施例中一种计算机可读存储介质的示意图,如图12所示,该计算机可读存储介质1200上存储有能够实现本公开上述方法的程序产品。在一些可能的实施方式中,本公开的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当所述程序产品在终端设备上运行时,所述程序代码用于使所述终端设备执行本说明书上述“示例性方法”部分中描述的根据本公开各种示例性实施方式的步骤。
在一个实施例中,本公开实施例中的程序产品被处理器执行时实现如下步骤的方法:根据目标车辆第一视频,确定目标车辆第一图像;将目标车辆第一图像输入预先训练好的模型,输出目标车辆的多个第一属性,其中,目标车辆的多个第一属性包括第一车辆面积信息、第一车辆朝向信息和第一车辆遮挡信息;将目标车辆的每个第一属性进行属性融合得到第一车辆属性,确定第一车辆属性为目标车辆的车辆属性。
在一个实施例中,本公开实施例中的程序产品被处理器执行时实现如下步骤的方法:获取目标车辆的第二图像;根据目标车辆的第二图像,更新目标车辆的车辆属性。
在一个实施例中,本公开实施例中的程序产品被处理器执行时实现如下步骤的方法:将目标车辆的第二图像输入预先训练好的模型,输出目标车辆的多个第二属性,其中,目标车辆的多个第二属性包括第二车辆面积信息、第二车辆朝向信息和第二车辆遮挡信息;将目标车辆的每个第二属性进行属性融合,确定第二车辆属性;判断第二车辆属性的置信度是否高于第一车辆属性的置信度;当第二车辆属性的置信度高于第一车辆属性的置信度,将目标车辆的第二车辆属性确定为目标车辆的车辆属性。
在一个实施例中,本公开实施例中的程序产品被处理器执行时实现如下步骤的方法:将目标车辆的每个第一属性进行加权计算,得到第一车辆属性,确定第一车辆属性为目标车辆的车辆属性。
在一个实施例中,本公开实施例中的程序产品被处理器执行时实现如下步骤的方法:根据多目标跟踪算法与目标车辆第一视频,确定每一辆车在视频各个帧中的检测框及状态;根据每一辆车的状态,确定状态为跟踪状态的车辆;根据检测框与状态为跟踪状态的车辆,确定目标车辆第一图像。
在一个实施例中,本公开实施例中的程序产品被处理器执行时实现如下步骤的方法:第一属性数目大于预设阈值时,将目标车辆的每个第一属性进行属性融合得到第一车辆属性,确定第一车辆属性为目标车辆的车辆属性。
在一个实施例中,本公开实施例中的程序产品被处理器执行时实现如下步骤的方法:目标车辆的运动轨迹结束时,将目标车辆的每个第一属性进行属性融合得到第一车辆属性,确定第一车辆属性为目标车辆的车辆属性。
本公开中的计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
在本公开中,计算机可读存储介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
可选地,计算机可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
在具体实施时,可以以一种或多种程序设计语言的任意组合来编写用于执行本公开操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
此外,尽管在附图中以特定顺序描述了本公开中方法的各个步骤,但是,这并非要求或者暗示必须按照该特定顺序来执行这些步骤,或是必须执行全部所示的步骤才能实现期望的结果。附加的或备选的,可以省略某些步骤,将多个步骤合并为一个步骤执行,以及/或者将一个步骤分解为多个步骤执行等。
通过以上实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、移动终端、或者网络设备等)执行根据本公开实施方式的方法。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本公开旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由所附的权利要求指出。
Claims (10)
1.一种基于视频流跟踪融合的车辆属性识别方法,其特征在于,包括:
根据目标车辆第一视频,确定目标车辆第一图像;
将所述目标车辆第一图像输入预先训练好的模型,输出目标车辆的多个第一属性,其中,所述目标车辆的多个第一属性包括第一车辆面积信息、第一车辆朝向信息和第一车辆遮挡信息;
将目标车辆的每个第一属性进行属性融合得到第一车辆属性,确定第一车辆属性为目标车辆的车辆属性。
2.根据权利要求1所述的基于视频流跟踪融合的车辆属性识别方法,其特征在于,所述方法还包括:
获取目标车辆的第二图像;
根据所述目标车辆的第二图像,更新目标车辆的车辆属性。
3.根据权利要求2所述的基于视频流跟踪融合的车辆属性识别方法,其特征在于,所述根据所述目标车辆的第二图像,更新目标车辆的车辆属性包括:
将所述目标车辆的第二图像输入预先训练好的模型,输出目标车辆的多个第二属性,其中,所述目标车辆的多个第二属性包括第二车辆面积信息、第二车辆朝向信息和第二车辆遮挡信息;
将目标车辆的每个第二属性进行属性融合,确定第二车辆属性;
判断所述第二车辆属性的置信度是否高于所述第一车辆属性的置信度;
当所述第二车辆属性的置信度高于所述第一车辆属性的置信度,将所述目标车辆的第二车辆属性确定为目标车辆的车辆属性。
4.根据权利要求1所述的基于视频流跟踪融合的车辆属性识别方法,其特征在于,所述将目标车辆的每个第一属性进行属性融合得到第一车辆属性,确定第一车辆属性为目标车辆的车辆属性包括:
将目标车辆的每个第一属性进行加权计算,得到第一车辆属性,确定第一车辆属性为目标车辆的车辆属性。
5.根据权利要求1所述的基于视频流跟踪融合的车辆属性识别方法,其特征在于,所述根据目标车辆第一视频,确定目标车辆第一图像包括:
根据多目标跟踪算法与目标车辆第一视频,确定每一辆车在视频各个帧中的检测框及状态;
根据每一辆车的状态,确定状态为跟踪状态的车辆;
根据检测框与状态为跟踪状态的车辆,确定目标车辆第一图像。
6.根据权利要求1所述的基于视频流跟踪融合的车辆属性识别方法,其特征在于,所述将目标车辆的每个第一属性进行属性融合得到第一车辆属性,确定第一车辆属性为目标车辆的车辆属性包括:
第一属性数目大于预设阈值时,将目标车辆的每个第一属性进行属性融合得到第一车辆属性,确定第一车辆属性为目标车辆的车辆属性。
7.根据权利要求1所述的基于视频流跟踪融合的车辆属性识别方法,其特征在于,所述将目标车辆的每个第一属性进行属性融合得到第一车辆属性,确定第一车辆属性为目标车辆的车辆属性包括:
目标车辆的运动轨迹结束时,将目标车辆的每个第一属性进行属性融合得到第一车辆属性,确定第一车辆属性为目标车辆的车辆属性。
8.一种基于视频流跟踪融合的车辆属性识别装置,其特征在于,包括:
图像确定模块,用于根据目标车辆第一视频,确定目标车辆第一图像;
属性识别模块,用于将所述目标车辆第一图像输入预先训练好的模型,输出目标车辆的多个第一属性,其中,所述目标车辆的多个第一属性包括第一车辆面积信息、第一车辆朝向信息和第一车辆遮挡信息;
属性确定模块,用于将目标车辆的每个第一属性进行属性融合得到第一车辆属性,确定第一车辆属性为目标车辆的车辆属性。
9.一种电子设备,其特征在于,包括:
处理器;以及
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行权利要求1~7中任意一项所述的基于视频流跟踪融合的车辆属性识别方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1~7中任意一项所述的基于视频流跟踪融合的车辆属性识别方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211737361.5A CN116129369A (zh) | 2022-12-30 | 2022-12-30 | 基于视频流跟踪融合的车辆属性识别方法及相关设备 |
PCT/CN2023/137078 WO2024140095A1 (zh) | 2022-12-30 | 2023-12-07 | 基于视频流跟踪融合的车辆属性识别方法及相关设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211737361.5A CN116129369A (zh) | 2022-12-30 | 2022-12-30 | 基于视频流跟踪融合的车辆属性识别方法及相关设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116129369A true CN116129369A (zh) | 2023-05-16 |
Family
ID=86302274
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211737361.5A Pending CN116129369A (zh) | 2022-12-30 | 2022-12-30 | 基于视频流跟踪融合的车辆属性识别方法及相关设备 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN116129369A (zh) |
WO (1) | WO2024140095A1 (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117409380A (zh) * | 2023-12-11 | 2024-01-16 | 深圳鲲云信息科技有限公司 | 识别车辆的方法和装置 |
WO2024140095A1 (zh) * | 2022-12-30 | 2024-07-04 | 中国电信股份有限公司 | 基于视频流跟踪融合的车辆属性识别方法及相关设备 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220142590A (ko) * | 2021-04-14 | 2022-10-24 | 팅크웨어(주) | 차량 외관의 검출을 위한 전자 장치, 방법, 및 컴퓨터 판독가능 저장 매체 |
CN113178074A (zh) * | 2021-04-26 | 2021-07-27 | 蔚来汽车科技(安徽)有限公司 | 应用于车辆的交通流机器学习建模系统及其方法 |
CN114005095B (zh) * | 2021-10-29 | 2023-06-30 | 北京百度网讯科技有限公司 | 车辆属性识别方法、装置、电子设备和介质 |
CN114972410A (zh) * | 2022-06-16 | 2022-08-30 | 上海影谱科技有限公司 | 一种多级匹配视频赛车追踪方法及系统 |
CN116129369A (zh) * | 2022-12-30 | 2023-05-16 | 中国电信股份有限公司 | 基于视频流跟踪融合的车辆属性识别方法及相关设备 |
-
2022
- 2022-12-30 CN CN202211737361.5A patent/CN116129369A/zh active Pending
-
2023
- 2023-12-07 WO PCT/CN2023/137078 patent/WO2024140095A1/zh unknown
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024140095A1 (zh) * | 2022-12-30 | 2024-07-04 | 中国电信股份有限公司 | 基于视频流跟踪融合的车辆属性识别方法及相关设备 |
CN117409380A (zh) * | 2023-12-11 | 2024-01-16 | 深圳鲲云信息科技有限公司 | 识别车辆的方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
WO2024140095A1 (zh) | 2024-07-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN116129369A (zh) | 基于视频流跟踪融合的车辆属性识别方法及相关设备 | |
KR102266830B1 (ko) | 차선 결정 방법, 디바이스 및 저장 매체 | |
US10642268B2 (en) | Method and apparatus for generating automatic driving strategy | |
JP6849403B2 (ja) | 単一のカメラを用いた移動物体検出のための方法およびシステム | |
CN111652912B (zh) | 车辆计数方法和系统、数据处理设备及智能拍摄设备 | |
CN113409361B (zh) | 一种多目标跟踪方法、装置、计算机及存储介质 | |
CN112307978B (zh) | 目标检测方法、装置、电子设备及可读存储介质 | |
JP7233572B2 (ja) | エクスプレイナブルセルフフォーカスされたアテンションを利用して行動予測を遂行する方法及び装置 | |
CN112200142A (zh) | 一种识别车道线的方法、装置、设备及存储介质 | |
CN112465029A (zh) | 一种实例追踪的方法及装置 | |
CN111031351A (zh) | 一种预测目标物轨迹的方法及装置 | |
CN114360239A (zh) | 一种多层时空交通知识图谱重建的交通预测方法及系统 | |
CN112819864A (zh) | 一种行驶状态检测方法、装置及存储介质 | |
CN115861884A (zh) | 复杂场景下视频多目标跟踪方法、系统、设备及介质 | |
CN114997307A (zh) | 一种轨迹预测方法、装置、设备及存储介质 | |
CN111695627A (zh) | 路况检测方法、装置、电子设备及可读存储介质 | |
Hsu et al. | Deep learning-based vehicle trajectory prediction based on generative adversarial network for autonomous driving applications | |
CN112633151B (zh) | 一种确定监控图像中斑马线的方法、装置、设备及介质 | |
CN115100565A (zh) | 一种基于空间相关性与光流配准的多目标跟踪方法 | |
Song et al. | Pedestrian intention prediction based on traffic-aware scene graph model | |
CN115393655A (zh) | 基于YOLOv5s网络模型的工业运载车的检测方法 | |
Cheng et al. | Interaction detection between vehicles and vulnerable road users: A deep generative approach with attention | |
CN114627400A (zh) | 一种车道拥堵检测方法、装置、电子设备和存储介质 | |
CN112634331A (zh) | 一种光流预测方法及装置 | |
CN110807397A (zh) | 一种预测目标物运动状态的方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |