CN115620199B - 一种交通安全风险诊断方法和装置 - Google Patents

一种交通安全风险诊断方法和装置 Download PDF

Info

Publication number
CN115620199B
CN115620199B CN202211301818.8A CN202211301818A CN115620199B CN 115620199 B CN115620199 B CN 115620199B CN 202211301818 A CN202211301818 A CN 202211301818A CN 115620199 B CN115620199 B CN 115620199B
Authority
CN
China
Prior art keywords
instance
video stream
visual
labeling
liquid crystal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202211301818.8A
Other languages
English (en)
Other versions
CN115620199A (zh
Inventor
石臣鹏
欧居尚
章超
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sichuan Police College
Original Assignee
Sichuan Police College
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sichuan Police College filed Critical Sichuan Police College
Priority to CN202211301818.8A priority Critical patent/CN115620199B/zh
Publication of CN115620199A publication Critical patent/CN115620199A/zh
Application granted granted Critical
Publication of CN115620199B publication Critical patent/CN115620199B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Abstract

本发明涉及交通安全技术领域,并提供了一种交通安全风险诊断方法和装置,包括获取交通监控的视频流;通过OPencv视觉模型将视频流划分为帧图像;通过预设的SOLOv2实例分割框架对帧图像进行上的车辆实例和行人实例进行分割处理;对车辆实例和行人实例进行风险诊断,判断是否存在交通风险,生成可视化判断结果;将可视化判断结果载入原视频流进行输出。本发明采用了SOLOv2实例分割框架,该框架预测每个像素所在的物体的实例类别,通过位置和形状进行区分实例,同一中心位置,同一尺寸物体为同一实例,否则为不同类别。最后对不同类别的分割图像进行,分割之后,分别判断道路中行人和车辆的风险状况,从而判断是不是存在风险进行可视化的输出。

Description

一种交通安全风险诊断方法和装置
技术领域
本发明涉及交通风险识别技术领域,特别涉及一种交通安全风险诊断方法和装置。
背景技术
目前,随着城市化和机动化水平的提高,城市交通问题日趋严重,社会各界对于智能交通系统的需求也日益强烈。人工智能的发展也使得智能交通系统成为未来交通的发展方向,而道路监控作为智能交通系统中的关键,在其中起着非常重要的作用,实现对交通监控视频中车辆、行人等目标的分割具有较大的研究和应用价值。
传统的分割方法主要有阈值分割方法、边缘检测方法、区域提取方法和结合特定理论工具的分割方法。阈值分割方法是基于图像的灰度特征来计算一个或多个灰度阈值,并将图像中每个像素的灰度值与阈值相比较,最后将像素根据比较结果分到合适的类别中。边缘检测方法指的是基于灰度值的边缘检测,它是建立在边缘灰度值会呈现出阶跃型或屋顶型变化这一观测基础上的方法。区域提取方法是将图像按照相似性准则分成不同的区域,主要包括种子区域生长法、区域分裂合并法和分水岭法等几种类型。但是,传统的分割方法往往需要手工设计特征,效率低;受噪声影响大,且分割的精度不高,需要辅助人工识别;另外其分割目标具有针对性和单一性,无法将其应用到多目标分割当中。
基于深度学习的分割方法主要有基于全卷积神经网络的语义分割方法和基于区域框的实例分割方法。基于全卷积神经网络的语义分割方法能够在普通分割的基础上,分类出每一块区域的语义,将全连接网络替换成了卷积网络(如U-net),使得网络可以接受任意大小的图像,并输出和原图一样大小的分割图。基于区域框的实例分割方法是在目标检测的基础上增加了分割分支(如Mask-RCNN)其通过生成大量候选框进行目标检测,之后再对检测的结果进行分割。但是,语义分割方法只能做到不同类别之间的区分而无法做到不同实例之间的区分;基于区域框的实例分割方法采用分两步走策略,即先检测后分割,这使得模型推理时间变长,无法满足实际工程应用的实时性要求,且模型庞大,不利于部署到边缘终端设备。
因此,本发明提供一种基于交通监控视频的目标实例分割方法,利用深度学习自动提取特征,减少人工干预,提高效率;提高检测精度,实现交通监控的智能化、实时化,同时具有模型轻便,检测精度高的优点。
发明内容
本发明提供一种交通安全风险诊断方法和装置,利用深度学习自动提取特征,减少人工干预,提高效率;提高检测精度,实现交通监控的智能化、实时化,同时具有模型轻便,检测精度高的优点。
本发明的实施例包括一种交通安全风险诊断方法,包括:
获取交通监控的视频流;
通过OPencv视觉模型将视频流划分为帧图像,并进行图像标注,生成标注图像;
通过SOLOv2实例分割模型对标注图像进行车辆实例和行人实例进行分割处理;
对车辆实例和行人实例通过风险诊断模型进行风险诊断,判断是否存在交通风险,生成可视化判断结果;
将可视化判断结果载入原视频流进行输出。
作为本发明的一种可选实施例:所述方法还包括:
对所述帧图像进行命名,并以预设格式和分辨率进行保存;其中,
所述预设格式为如下格式之一:bmp,jpg,png,tif,gif,pcx,tga,exif,fpx,svg,psd,cdr,pcd,dxf,ufo,eps,ai,raw,WMF,webp,avif,apng;
对所述帧图像上的不同车辆和不同行人进行实例标注;其中,
所述实例标注包括:位置标注、类别标注和形状类型标注;
分别建立行人标签文件和车辆标签文件,并基于所述实例标注进行数据分类。
作为本发明的一种可选实施例:所述方法还包括:
预设帧图像的划分网格,对每个帧图像进行网格划分;
基于残差网络对每个网格划分后的帧图像进行特征提取;其中,
所述残差网络包括17个卷积层和一个全连接层;
通过特征提取,确定帧图像在不同尺度的特征信息,分支网络进行卷积预测;其中,
分支网络包括:分类分支网络和掩码分支网络;
分类分支网络用于预测语义类别;
掩码分支网络用于确定实例掩码;
根据卷积预测,预测卷积核和卷积特征;
通过卷积核和卷积特征,生成SOLOv2实例分割框架。
作为本发明的一种可选实施例:所述方法还包括:
将所述标注图像划分为训练集图像和测试集图像;
将训练集图像和测试集图像引入深度学习模型和目标检测模型进行训练,构成深度识别模型;其中,
所述训练还包括对深度识别模型的参数进行微调;
将所述深度识别模型和所述SOLOv2实例分割框架融合,构成SOLOv2实例分割模型。
作为本发明的一种可选实施例:所述方法还包括:
计算所述可视化判断结果的置信度;
基于预设的置信度基准值,对未达到置信度基准值的可视化判断结果进行过滤;
获取过滤后的可视化结果,并使用学习后的卷积核对掩膜特征进行卷积操作,并转变为二值图;
对所述二值图进行非极大值一直,确定每个过滤后的可视化结果的得分;
基于得分分数,确定最终的可视化预测结果。
作为本发明的一种可选实施例:所述方法还包括:
在交通监控设备上设置第一视频流处理装置、第二视频流处理装置和视频流截取装置;其中,
第一视频流处理装置用于对视频流中的任意对象的进行位移检测和时间戳标记;其中,
时间戳标记为位移停止时间戳和位移转移时间戳;
第二视频流处理装置用于构建道路孪生模型,在道路孪生模型中对无位移的目标对象进行孪生模拟;
视频流截取装置用于通过所述时间戳标记,对孪生模拟对象对应的视频流进行截取。
作为本发明的一种可选实施例:所述方法还包括:
获取交通事故的样本数据集合;
针对样本数据集合,划分不同的交通事故特征;其中,
交通事故特征包括:事故对象、事故基础特征、事故类型特征、交通状态特征和道路设施特征;
构建基于交通事故特征的生成器,对所述不同的交通事故特征进行融合,生成多个融合图谱;
构建事故鉴别器,将多个融合图谱导入所述事故鉴别器进行训练,生成风险诊断模型。
作为本发明的一种可选实施例:所述方法还包括:
根据所述风险诊断,确定分割处理后不同车辆实例和行人实例的风险特征和风险评估分数;
根据所述风险特征,生成对应的特征文本;
根据所述风险评估分数和预设的风险评估权重值,判断每个特征文本是否达到可视化基准参数;
根据所述可视化基准参数,将对应的特征文本载入原视频流中。
作为本发明的一种可选实施例:所述方法还包括:
分别获取设定可视化判断结果的标注框和标注对象,以及标注对象的可视化标注文本;
进行标注框和可视化标注文本的载入匹配;
计算标注框和标注对象的映射匹配矩阵;
基于所述映射匹配矩阵和标注框的标注范围,得到映射到标注对象中的点位坐标;
将标注对象的点位坐标与标注框的可视化标注文本中的3D点云的坐标进行联合标定,得到标注对象与3D点云的空间转换关系;
基于所述转换关系实现标注对象的可视化文本标注。
一种交通安全风险诊断装置,所述装置包括:
视频流载入模块:获取交通监控的视频流;
标注模块:通过OPencv视觉模型将视频流划分为帧图像,并进行图像标注,生成标注图像;
分割模块:通过SOLOv2实例分割模型对标注图像进行车辆实例和行人实例进行分割处理;
诊断模块:对车辆实例和行人实例通过风险诊断模型进行风险诊断,判断是否存在交通风险,生成可视化判断结果;
可视化输出模块:将可视化判断结果载入原视频流进行输出。
本发明的有益效果在于:
本发明采用了SOLOv2实例分割框架,该框架预测每个像素所在的物体的实例类别,通过位置和形状进行区分实例,同一中心位置,同一尺寸物体为同一实例,否则为不同类别。最后对不同类别的分割图像进行,分割之后,分别判断道路中行人和车辆的风险状况,从而判断是不是存在风险进行可视化的输出。
本发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过在所写的说明书以及附图中所特别指出的结构来实现和获得。
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。在附图中:
图1为本发明实施例中一种交通安全风险诊断方法的方法流程图;
图2为本发明实施例中分类分支示意图;
图3为本发明实施例中掩码分支示意图;
图4为本发明实施例中掩码特征分支示意图;
图5为本发明实施例中一种交通安全风险诊断装置的装置组成图。
具体实施方式
以下结合附图对本发明的优选实施例进行说明,应当理解,此处所描述的优选实施例仅用于说明和解释本发明,并不用于限定本发明。
本发明的实施例包括一种交通安全风险诊断方法,包括:
获取交通监控的视频流;
通过OPencv视觉模型将视频流划分为帧图像,并进行图像标注,生成标注图像;
通过SOLOv2实例分割模型对标注图像进行车辆实例和行人实例进行分割处理;
对车辆实例和行人实例通过风险诊断模型进行风险诊断,判断是否存在交通风险,生成可视化判断结果;
将可视化判断结果载入原视频流进行输出。
可选的,如附图1所示,本发明是一种基于视频分割的交通风险诊断的方法,在本发明中首先会获取交通监控的视频流,视频流时设置在道路旁边的交通设备采集的视频流,然后进行分帧处理,例如:每隔20帧提取一帧图像重新命名,并以jpg格式保存到本地image文件夹下,其中每帧图像的分辨率为1280*720;本发明还会进行图像标注,对图片中包含的不同车辆以及行人进行实例标注,在标注之后,容易进行事故元素的划分,也可以转换为数据集和训练集。在分割处理的过程中,本发明采用了SOLOv2实例分割框架,该框架预测每个像素所在的物体的实例类别,通过位置和形状进行区分实例,同一中心位置,同一尺寸物体为同一实例,否则为不同类别。最后对不同类别的分割图像进行,分割之后,分别判断道路中行人和车辆的风险状况,从而判断是不是存在风险进行可视化的输出。
作为本发明的一种可选实施例:所述方法还包括:
对所述帧图像进行命名,并以预设格式和分辨率进行保存;其中,
所述预设格式为如下格式之一:bmp,jpg,png,tif,gif,pcx,tga,exif,fpx,svg,psd,cdr,pcd,dxf,ufo,eps,ai,raw,WMF,webp,avif,apng;
对所述帧图像上的不同车辆和不同行人进行实例标注;其中,
所述实例标注包括:位置标注、类别标注和形状类型标注;
分别建立行人标签文件和车辆标签文件,并基于所述实例标注进行数据分类。
可选的,本发明在实际实施时,通过对图片中包含的不同车辆以及行人进行实例标注,每张图片标注好的信息以json格式和对应的图片名保存(例如图片名为image.jpg,则标注文件保存为image.json),并保存到label文件夹下。其josn标注文件包括一个shape属性,该shape属性值内嵌套了多个对象,其中每个对象代表一个实例,其包含了label,points,shape_type三个属性。属性label代表了该实例的类别,由字符串表示,这里为car或person。属性points代表的是该实例在图像当中的轮廓坐标,由数组表示为[[x1,y1],[x2,y2]…[x3,y3]],每个[x,y]对应一个标注的轮廓点。属性shape_type代表的是该实例的形状类型如矩形框,线条等,这里都为polygon。建立一个labels.txt文件,内容首行为__ignore__,后续为自己数据的分类标签,也就是car和person。
作为本发明的一种可选实施例:所述方法还包括:
预设帧图像的划分网格,对每个帧图像进行网格划分;
基于残差网络对每个网格划分后的帧图像进行特征提取;其中,
所述残差网络包括17个卷积层和一个全连接层;
通过特征提取,确定帧图像在不同尺度的特征信息,分支网络进行卷积预测;其中,
分支网络包括:分类分支网络和掩码分支网络;
分类分支网络用于预测语义类别;
掩码分支网络用于确定实例掩码;
根据卷积预测,预测卷积核和卷积特征;
通过卷积核和卷积特征,生成SOLOv2实例分割框架。
可选的,在本发明进行划分网格的时候,每一张图片划分为的网格,优选的采用resnet18作为主干网络提取图像特征,resnet18是ResNet系列网络中的一种,18代表其网络深度,指定的是带有权重的18层,包括17个卷积层和一个全连接层,不包括池化层和BN层。网络结构的表格如下表所示:
Figure BDA0003904382680000101
将resnet18中Conv1,conv2_x,conv3_x,conv4_x,conv5_x各层不同尺度的特征信息提取出来构成特征金字塔,并将其输入到分类分支和掩码分支。分类分支负责预测物体的语义类别,每个网格预测类别S*S*C。当网格(i,j)与物体的中心区域有大于阈值的重叠则认为是正样本。这里的中心区域定义在中心点(这里定义的中心点是物体的质心)周围的0.2倍区域。对于每个正样本,都会有对应类别的实例掩码,这由后面的掩码分支来预测。对于分类分支,如下图所示,输入特征F为H*W*E,需要将H*W的输入对齐为S*S的网格输入,这里采用直接插值法进行Align对齐操作,首先将FPN最高层的特征从H*W*256对齐至S*S*256(256为特征通道数),然后经过一系列卷积(7个3*3卷积)提取特征,最后再经过一个3*3卷积将输出对齐到S*S*C,C为预测类别数,如附图2所示。对于掩码分支,每个正样本(有类别输出的网格)都会输出对应类别的实例掩码,这里的通道和网格的对应关系是:第k个通道负责预测出第(i,j)个网格的实例掩码,k=i*S+j。因此输出维度是H*W*S*S。这样的话就有了一一对应的语义类别和该类别的实例掩码。具体的,掩码分支被解耦为掩码核分支和掩码特征分支,分别预测卷积核和卷积特征,如附图3所示;F为主干网络resnet18提取的图像特征。对于掩码核分支,输入特征F学习动态卷积核G为,比如G为或,即为或者。输入通道数为,输出通道为,表示共有个位置,每个位置对应一个卷积核。因此最多生成个掩码,此时意味着,每个位置都出现了目标。
对于掩码特征分支,将每层FPN合并为一个统一的掩码,如附图4所示。将FPN的P2到P5层依次经过卷积、归一化、ReLU、2个双线性插值,统一到原图的1/4尺寸,再做元素级的加和操作,经过的卷积、归一化、ReLU得到掩码的特征图F。最后将掩码特征图F与与动态卷积核进行卷积运算即可输出与分类分支对应类别的实例掩码,构成SOLOv2实例分割框架。
作为本发明的一种可选实施例:所述方法还包括:
将所述标注图像划分为训练集图像和测试集图像;
将训练集图像和测试集图像引入深度学习模型和目标检测模型进行训练,构成深度识别模型;其中,
所述训练还包括对深度识别模型的参数进行微调;
将所述深度识别模型和所述SOLOv2实例分割框架融合,构成SOLOv2实例分割模型。
可选的,在实际实施时,采用了pytorch深度学习模型和mmdetect框架并在TeslaV100 GPU上进行训练和微调网络的各项参数,首先使用在COCO数据集上训练的模型权重作为预训练权重,在预训练权重的基础上,用之前准备好的数据集进行迁移学习,微调网络参数,使损失函数达到收敛。各项参数具体设置如下:batch size设为16,共训练200个epoch,前20个epoch学习率为0.1,中间30个epoch学习率为,后150个epoch学习率为0.00001,网络使用SGD优化器,momentum系数设为0.9,为了防止过拟合,权值衰减系数设置为0.0001。
可选的,本发明在进行模型训练的过程中,还会进行损失函数计算,损失函数公式如下:
L=Lcate+λLmask
其中,Lcate表示针对类别分类的Focal Loss;λ表示损失系数,
在这里取值为3,Lmask表示掩码预测的损失函数,其具体表示为:
Figure BDA0003904382680000121
其中,Npos表示正样本数量,Γ表示指示函数,当
Figure BDA0003904382680000122
时,
则为1,否则为0,i表示输出的分类网格第i行,其取值为[k/S],j表示输出的分类网格第j列,其取值为k mod S,k表示对应输出第(i,j)个网格实例掩码的掩码分支,S表示动态卷积核的大小,
Figure BDA0003904382680000123
表示第(i,j)个网格的类别真值,/>
Figure BDA0003904382680000124
表示掩码真值,mk表示对应输出分类网格的掩码,dmask表示掩码的损失函数,这里使用Dice Loss,其具体定义如下:
dmask=LDice=1-D(p,q)
其中,LDice表示Dice Loss的求解公式,D(p,q)表示dice系数,其具体表述如下:
Figure BDA0003904382680000125
其中,px,y表示预测掩码在(x,y)位置的像素值,qx,y表示真实掩码在(x,y)位置的像素值。
在在进行模型训练过程中,将损失函数定义为L=L_cate+λL_mask,通过大量模型训练确定损失最小时的各项优化参数,使得在各项优化参数下,模型使用时损失最小,从而提高精度,减小误差。
作为本发明的一种可选实施例:所述方法还包括:
计算所述可视化判断结果的置信度;
基于预设的置信度基准值,对未达到置信度基准值的可视化判断结果进行过滤;
获取过滤后的可视化结果,并使用学习后的卷积核对掩膜特征进行卷积操作,并转变为二值图;
对所述二值图进行非极大值一直,确定每个过滤后的可视化结果的得分;
基于得分分数,确定最终的可视化预测结果。
可选的,在置信度计算的过程中,先得到类别置信度,通过阈值0.1过滤掉低置信度预测结果,而后使用学习到的卷积核对mask特征进行卷积操作,经过sigmoid函数后,使用阈值0.5将预测的soft mask转变为二值图。之后进行Matrix NMS矩阵非极大值抑制,选择前k名得分的masks作为最终的预测。最后将预测的结果可视化在原图上并以视频形式输出。
作为本发明的一种可选实施例:所述方法还包括:
在交通监控设备上设置第一视频流处理装置、第二视频流处理装置和视频流截取装置;其中,
第一视频流处理装置用于对视频流中的任意对象的进行位移检测和时间戳标记;其中,
时间戳标记为位移停止时间戳和位移转移时间戳;
第二视频流处理装置用于构建道路孪生模型,在道路孪生模型中对无位移的目标对象进行孪生模拟;
视频流截取装置用于通过所述时间戳标记,对孪生模拟对象对应的视频流进行截取。
可选的,本发明会通过视频处理的方式截取对应交通事故的第一视频流处理装置主要是用于对视频流中的对象进行时间标记和位移标记检测,也就是标记每一时刻在视频流中每一个目标对象,例如汽车和行人在每一时刻所在的位置,从而能够实现位移标记,确定目标对象是不是在移动。时间戳标记中,位移停止时间戳,就是相邻两个帧图像中,视频流中的任意目标对象没有位移变动的时间戳。位移转移时间戳,为在相邻的两个帧图像中任意目标对象不在相同位置的帧图像,从而可以在任意对象在道路上的时候对对应的视频流进行采集,确定移动距离,而根据时间戳和移动标记,可以在道路孪生模型上确定对应的位移对象,进而对对应的视频流进行采集。在视频流的截取上,因为有道路孪生模型作为模板,可以直切提取其中的移动对象,孪生模拟在道路孪生模型上,实现孪生监控。
作为本发明的一种可选实施例:所述方法还包括:
获取交通事故的样本数据集合;
针对样本数据集合,划分不同的交通事故特征;其中,
交通事故特征包括:事故对象、事故基础特征、事故类型特征、交通状态特征和道路设施特征;
构建基于交通事故特征的生成器,对所述不同的交通事故特征进行融合,生成多个融合图谱;
构建事故鉴别器,将多个融合图谱导入所述事故鉴别器进行训练,生成风险诊断模型。
上述技术方案的原理在于:本发明主要是为了进行交通风险的诊断,所以需要对不同的交通事故进行识别。因此,本发明搭建了基于交通事故识别的风险诊断模型。现有技术中是通过大量数据的直接训练,去判断是否存在交通风险,本发明为了让识别结果更加精确和更加快速,本发明生成了基于交通事故特征的生成器,每个生成器会对相同事故类型的事故特征进行融合,从而生成了融合图谱,根据融合图谱进行事故鉴别的训练,融合图谱中包括事故发生之后和事故发生之前的交通事故特征,因此,在进行风险诊断的时候还可以进行交通风险的检测。本发明的重点在于,通过融合图谱进行训练,所以对于不同事故的风险可以进行快速的通过特征识别,在具有多项可能存在风险的特征之后,就可以实现直接的风险识别诊断。
在一种可选实施例中,事故鉴别器包括如下风险识别步骤:
步骤1:获取帧图像,构建帧图像的特征模型:
Figure BDA0003904382680000151
其中,T表示帧图像中所有元素的特征模型;n表示帧图像中出现的元素总数;i∈n,i为正整数;yi表示帧图像中所有元素的第i个元素的元素特征;元素表示帧图像中的行人、交通标志或者车辆等等任意元素;Y表示帧图像中所有元素的总特征参数;y∈Y帧图像中任意一个元素特征都在总特征参数内。li表示帧图像中所有元素的第i个元素的类型参数;k表示帧图像中元素的总数;wi,(x,y)表示帧图像中所有元素的第i个元素的位置参数,(x,y)表示在帧图像坐标矩阵中的坐标;
Figure BDA0003904382680000161
表示帧图像的位置矩阵;xm表示第m个坐标点的横坐标值;ym表示第m个坐标点的纵坐标值。
上述步骤1中,大家按了每个帧图像的特征模型,确定每个帧图像所显示的所有信息。
Figure BDA0003904382680000162
是为了保证计算的元素特征是帧图像中的元素,进而确定每个元素的特征比,
Figure BDA0003904382680000163
用于确定每个类型的元素对应对应的类型参数,
Figure BDA0003904382680000164
是为了通过第i个元素在帧图像中的全部坐标,可以确定帧图像现实的具体特征信息。
步骤2:根据特征模型,导入事故鉴别器,判断是否存在事故:
Figure BDA0003904382680000165
其中,H为事故判定结果的判定模型;Kf,T∈f表示第f个融合图谱的图谱特征,且帧图像的特征模型T属于第f个融合图谱对应的事故类型;判断特征模型T是否属于第f个融合图谱通过马氏距离公式计算得到。KG≠f,示第f个融合图谱的图谱特征,且帧图像的特征模型G不属于第f个融合图谱对应的事故类型;lf,q表示第f个融合图谱中第q中元素的元素特征。F表示交通事故的融合图谱的图谱总数,f和G∈F,F和G为正整数。Q表示交通事故的融合图谱中元素的总数量;q∈Q,q为正整数。H≤0时表示存在事故;当H>0时表示不存在风险。
在步骤2中特征信息确定之后通过相似度对比,可以判断帧图像中的所有特征元素是否存在风险元素,进行匹配融合,从而判断是不是存在风险。
作为本发明的一种可选实施例:所述方法还包括:
根据所述风险诊断,确定分割处理后不同车辆实例和行人实例的风险特征和风险评估分数;
根据所述风险特征,生成对应的特征文本;
根据所述风险评估分数和预设的风险评估权重值,判断每个特征文本是否达到可视化基准参数;
根据所述可视化基准参数,将对应的特征文本载入原视频流中。
上述技术方案的原理在于:本发明在进行风险诊断的时候,会根据车辆实例和行人实例分别进行风险评估和风险特征的判断,进而处理成对应分特征文本,转化为特征文本的目的是为了将风险时间的特征文本通过显示框的方式载入原视频流,供用户看到。而可视化基准参数是为了判断其是否达到风险提示的,风险诊断的标准,在原视频流的那个时刻出现的风险,从而在视频流对应的时间进行载入。可视化基准参数包括可视化的风险评估权重参数,用于判断是否达到风险提示的程度,可视化的对应时间和视频流中对应的风险位置。
作为本发明的一种可选实施例:所述方法还包括:
分别获取设定可视化判断结果的标注框和标注对象,以及标注对象的可视化标注文本;
进行标注框和可视化标注文本的载入匹配;
计算标注框和标注对象的映射匹配矩阵;
基于所述映射匹配矩阵和标注框的标注范围,得到映射到标注对象中的点位坐标;
将标注对象的点位坐标与标注框的可视化标注文本中的3D点云的坐标进行联合标定,得到标注对象与3D点云的空间转换关系;
基于所述转换关系实现标注对象的可视化文本标注。
上述技术方案的原理在于:
本发明对于因为要将风险的文本载入原视频流,所以需要设定标注框和标注对象,通过标注框和标注对象进行可视化文本的标注,标注对象就是引起风险的目标对象,映射匹配矩阵就是在原视频上进行载入标注框和标注文本的位置,对应的数据插入矩阵。进而通过对应的点位坐标进行对应的需要标注的风险对象进行风险标注,在进行风险标注的过程中,本发明采用了3D点云技术,通过3D点云坐标进行联合标定,3D点云的坐标是将原视频中标注对象生成点数据集合中,确定与点位坐标相同的带你,进而确定相同的点,然后进行可视化文本的标注,3D点云技术是为了在进行标注框标注的时候更加的形象化。
一种交通安全风险诊断装置,所述装置包括:
视频流载入模块:获取交通监控的视频流;
标注模块:通过OPencv视觉模型将视频流划分为帧图像,并进行图像标注,生成标注图像;
分割模块:通过SOLOv2实例分割模型对标注图像进行车辆实例和行人实例进行分割处理;
诊断模块:对车辆实例和行人实例通过风险诊断模型进行风险诊断,判断是否存在交通风险,生成可视化判断结果;
可视化输出模块:将可视化判断结果载入原视频流进行输出。
可选的,如附图5所示,本发明是一种基于视频分割的交通风险诊断的方法,在本发明中首先会获取交通监控的视频流,视频流时设置在道路旁边的交通设备采集的视频流,然后进行分帧处理,例如:每隔20帧提取一帧图像重新命名,并以jpg格式保存到本地image文件夹下,其中每帧图像的分辨率为1280*720;本发明还会进行图像标注,对图片中包含的不同车辆以及行人进行实例标注,在标注之后,容易进行事故元素的划分,也可以转换为数据集和训练集。在分割处理的过程中,本发明采用了SOLOv2实例分割框架,该框架预测每个像素所在的物体的实例类别,通过位置和形状进行区分实例,同一中心位置,同一尺寸物体为同一实例,否则为不同类别。最后对不同类别的分割图像进行,分割之后,分别判断道路中行人和车辆的风险状况,从而判断是不是存在风险进行可视化的输出。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。

Claims (6)

1.一种交通安全风险诊断方法,其特征在于,包括:
获取交通监控的视频流;
通过OPencv视觉模型将视频流划分为帧图像,并进行图像标注,生成标注图像;
通过SOLOv2实例分割模型对标注图像进行车辆实例和行人实例进行分割处理;
对车辆实例和行人实例通过风险诊断模型进行风险诊断,判断是否存在交通风险,生成可视化判断结果;
将可视化判断结果载入原视频流进行输出;
所述方法还包括:
获取交通事故的样本数据集合;
针对样本数据集合,划分不同的交通事故特征;其中,
交通事故特征包括:事故对象、事故基础特征、事故类型特征、交通状态特征和道路设施特征;
构建基于交通事故特征的生成器,对所述不同的交通事故特征进行融合,生成多个融合图谱;
构建事故鉴别器,将多个融合图谱导入所述事故鉴别器进行训练,生成风险诊断模型;
所述方法还包括:
在交通监控设备上设置第一视频流处理装置、第二视频流处理装置和视频流截取装置;其中,
第一视频流处理装置用于对视频流中的任意对象的进行位移检测和时间戳标记;其中,
时间戳标记为位移停止时间戳和位移转移时间戳;
第二视频流处理装置用于构建道路孪生模型,在道路孪生模型中对无位移的目标对象进行孪生模拟;
视频流截取装置用于通过所述时间戳标记和孪生模拟对象对视频流进行截取;
所述方法还包括:
根据所述风险诊断,确定分割处理后不同车辆实例和行人实例的风险特征和风险评估分数;
根据所述风险特征,生成对应的特征文本;
根据所述风险评估分数和预设的风险评估权重值,判断每个特征文本是否达到可视化基准参数;
根据所述可视化基准参数,将对应的特征文本载入原视频流中;
所述方法还包括:
分别获取设定可视化判断结果的标注框和标注对象,以及标注对象的可视化标注文本;
进行标注框和可视化标注文本的载入匹配;
计算标注框和标注对象的映射匹配矩阵;
基于所述映射匹配矩阵和标注框的标注范围,得到映射到标注对象中的点位坐标;
将标注对象的点位坐标与标注框的可视化标注文本中的3D点云的坐标进行联合标定,得到标注对象与3D点云的空间转换关系;
基于所述转换关系实现标注对象的可视化文本标注。
2.如权利要求1所述的一种交通安全风险诊断方法,其特征在于,所述方法还包括:
对所述帧图像进行命名,并以预设格式和分辨率进行保存;其中,
所述预设格式为如下格式之一:bmp,jpg,png,tif,gif,pcx,tga,exif,fpx,svg,psd,cdr,pcd,dxf,ufo,eps,ai,raw,WMF,webp,avif,apng;
对所述帧图像上的不同车辆和不同行人进行实例标注;其中,
所述实例标注包括:位置标注、类别标注和形状类型标注;
分别建立行人标签文件和车辆标签文件,并基于所述实例标注进行数据分类。
3.如权利要求1所述的一种交通安全风险诊断方法,其特征在于,所述方法还包括:
预设帧图像的划分网格,对每个帧图像进行网格划分;
基于残差网络对每个网格划分后的帧图像进行特征提取;其中,
所述残差网络包括17个卷积层和一个全连接层;
通过特征提取,确定帧图像在不同尺度的特征信息,分支网络进行卷积预测;其中,
分支网络包括:分类分支网络和掩码分支网络;
分类分支网络用于预测语义类别;
掩码分支网络用于确定实例掩码;
根据卷积预测,预测卷积核和卷积特征;
通过卷积核和卷积特征,生成SOLOv2实例分割框架。
4.如权利要求3所述的一种交通安全风险诊断方法,其特征在于,所述方法还包括:
将所述标注图像划分为训练集图像和测试集图像;
将训练集图像和测试集图像引入深度学习模型和目标检测模型进行训练,构成深度识别模型;其中,
所述训练还包括对深度识别模型的参数进行微调;
将所述深度识别模型和所述SOLOv2实例分割框架融合,构成SOLOv2实例分割模型。
5.如权利要求3所述的一种交通安全风险诊断方法,其特征在于,所述方法还包括:
计算所述可视化判断结果的置信度;
基于预设的置信度基准值,对未达到置信度基准值的可视化判断结果进行过滤;
获取过滤后的可视化结果,并使用学习后的卷积核对掩膜特征进行卷积操作,并转变为二值图;
对所述二值图进行非极大值一直,确定每个过滤后的可视化结果的得分;
基于得分分数,确定最终的可视化预测结果。
6.一种交通安全风险诊断装置,适用于权利要求1~5对应的方法,其特征在于,所述装置包括:
视频流载入模块:获取交通监控的视频流;
标注模块:通过OPencv视觉模型将视频流划分为帧图像,并进行图像标注,生成标注图像;
分割模块:通过SOLOv2实例分割模型对标注图像进行车辆实例和行人实例进行分割处理;
诊断模块:对车辆实例和行人实例通过风险诊断模型进行风险诊断,判断是否存在交通风险,生成可视化判断结果;
可视化输出模块:将可视化判断结果载入原视频流进行输出。
CN202211301818.8A 2022-10-24 2022-10-24 一种交通安全风险诊断方法和装置 Active CN115620199B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211301818.8A CN115620199B (zh) 2022-10-24 2022-10-24 一种交通安全风险诊断方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211301818.8A CN115620199B (zh) 2022-10-24 2022-10-24 一种交通安全风险诊断方法和装置

Publications (2)

Publication Number Publication Date
CN115620199A CN115620199A (zh) 2023-01-17
CN115620199B true CN115620199B (zh) 2023-06-13

Family

ID=84865495

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211301818.8A Active CN115620199B (zh) 2022-10-24 2022-10-24 一种交通安全风险诊断方法和装置

Country Status (1)

Country Link
CN (1) CN115620199B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018232592A1 (en) * 2017-06-20 2018-12-27 Microsoft Technology Licensing, Llc. SEMANTIC SEGMENTATION TAKING INTO ACCOUNT AN EVENT WITH COMPLETE CONVOLUTION
CN109740840A (zh) * 2018-11-23 2019-05-10 深圳市大东车慧科技股份有限公司 一种基于人、车、路和环境的多元分析驾驶风险评估系统
CN111429484A (zh) * 2020-03-31 2020-07-17 电子科技大学 一种基于交通监控视频的多目标车辆轨迹实时构建方法
CN112818736A (zh) * 2020-12-10 2021-05-18 西南交通大学 应急指挥大数据支撑平台
CN114742293A (zh) * 2022-04-06 2022-07-12 中山大学 一种驾驶人交通安全风险评价与人车伴随分析方法及系统
CN114898243A (zh) * 2022-03-23 2022-08-12 超级视线科技有限公司 基于视频流的交通场景解析方法以及装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014219165A1 (de) * 2014-09-23 2016-04-07 Robert Bosch Gmbh Verfahren und Vorrichtung zum Überwachen eines Verkehrsraums
US20210026355A1 (en) * 2019-07-25 2021-01-28 Nvidia Corporation Deep neural network for segmentation of road scenes and animate object instances for autonomous driving applications
CN112116263B (zh) * 2020-09-25 2023-09-12 安徽百诚慧通科技股份有限公司 一种交通路口风险级别评估方法、装置、电子设备及存储介质
CN112132901A (zh) * 2020-09-30 2020-12-25 上海商汤临港智能科技有限公司 一种点云标注的方法、装置、电子设备及存储介质
CN112989942A (zh) * 2021-02-09 2021-06-18 四川警察学院 一种基于交通监控视频的目标实例分割方法
CN113962600A (zh) * 2021-11-12 2022-01-21 公安部道路交通安全研究中心 一种交通安全风险诊断方法及装置
CN115081508B (zh) * 2022-04-26 2024-04-16 同济大学 一种基于交通数字孪生的交通运行风险平行仿真系统
CN115063976B (zh) * 2022-06-09 2023-08-29 青岛理工大学 基于多通道卷积神经网络的车辆冲突风险评估与预测方法
CN114898569B (zh) * 2022-07-15 2022-10-21 山东金宇信息科技集团有限公司 一种隧道交通应急处理方法及设备

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018232592A1 (en) * 2017-06-20 2018-12-27 Microsoft Technology Licensing, Llc. SEMANTIC SEGMENTATION TAKING INTO ACCOUNT AN EVENT WITH COMPLETE CONVOLUTION
CN109740840A (zh) * 2018-11-23 2019-05-10 深圳市大东车慧科技股份有限公司 一种基于人、车、路和环境的多元分析驾驶风险评估系统
CN111429484A (zh) * 2020-03-31 2020-07-17 电子科技大学 一种基于交通监控视频的多目标车辆轨迹实时构建方法
CN112818736A (zh) * 2020-12-10 2021-05-18 西南交通大学 应急指挥大数据支撑平台
CN114898243A (zh) * 2022-03-23 2022-08-12 超级视线科技有限公司 基于视频流的交通场景解析方法以及装置
CN114742293A (zh) * 2022-04-06 2022-07-12 中山大学 一种驾驶人交通安全风险评价与人车伴随分析方法及系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
基于语言聚合算子与层次分析的道路交叉口安全评价——以泸州的四个典型交叉口为例;石臣鹏;《四川警察学院学报》;全文 *
重特大道路交通事故风险评估及防治对策研究;蔡晓男;《中国博士学位论文全文数据库》;全文 *

Also Published As

Publication number Publication date
CN115620199A (zh) 2023-01-17

Similar Documents

Publication Publication Date Title
CN112200161B (zh) 一种基于混合注意力机制的人脸识别检测方法
CN111931684B (zh) 一种基于视频卫星数据鉴别特征的弱小目标检测方法
CN111814623A (zh) 一种基于深度神经网络的车辆车道偏离视觉检测方法
CN112149547B (zh) 基于图像金字塔引导和像素对匹配的遥感影像水体识别方法
CN112183203A (zh) 一种基于多尺度像素特征融合的实时交通标志检测方法
CN113688836A (zh) 一种基于深度学习的实时性道路图像语义分割方法及系统
CN112529090B (zh) 一种基于改进YOLOv3的小目标检测方法
CN114359181B (zh) 一种基于图像和点云的智慧交通目标融合检测方法及系统
CN113269040A (zh) 结合图象识别与激光雷达点云分割的驾驶环境感知方法
CN113255589B (zh) 一种基于多卷积融合网络的目标检测方法及系统
CN112989942A (zh) 一种基于交通监控视频的目标实例分割方法
CN110717493B (zh) 一种基于深度学习的含堆叠字符的车牌识别方法
CN111582339A (zh) 一种基于深度学习的车辆检测与识别的方法
CN114820655B (zh) 可靠区域作为注意力机制监督的弱监督建筑物分割方法
CN112800906A (zh) 一种基于改进YOLOv3的自动驾驶汽车跨域目标检测方法
CN114913498A (zh) 一种基于关键点估计的并行多尺度特征聚合车道线检测方法
CN115424017B (zh) 一种建筑物内外轮廓分割方法、装置及存储介质
CN116189191A (zh) 一种基于yolov5的可变长车牌识别方法
CN116665176A (zh) 一种面向车辆自动驾驶的多任务网络道路目标检测方法
CN115424237A (zh) 一种基于深度学习的前向车辆识别与距离检测方法
CN113361528B (zh) 一种多尺度目标检测方法及系统
CN115861756A (zh) 基于级联组合网络的大地背景小目标识别方法
CN117197763A (zh) 基于交叉注意引导特征对齐网络的道路裂缝检测方法和系统
CN115620199B (zh) 一种交通安全风险诊断方法和装置
CN116630702A (zh) 一种基于语义分割网络的路面附着系数预测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant