CN112883936A - 一种对车辆违规行为的检测方法及其系统 - Google Patents
一种对车辆违规行为的检测方法及其系统 Download PDFInfo
- Publication number
- CN112883936A CN112883936A CN202110378231.6A CN202110378231A CN112883936A CN 112883936 A CN112883936 A CN 112883936A CN 202110378231 A CN202110378231 A CN 202110378231A CN 112883936 A CN112883936 A CN 112883936A
- Authority
- CN
- China
- Prior art keywords
- vehicle
- image
- information
- violation
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- Multimedia (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明公开一种对车辆违规行为的检测方法及其系统,其系统包括双目摄像头模块、中央处理器、GPS定位模块、舵机控制模块、云计算服务器和云管理平台。本发明利用主车和从车拍摄的视频信息形成的违规证据链,可以从各角度收集违规证件进行车辆重识别综合判断车辆是否违规,使得证据链更完整,并且证据更清晰,极大的降低了误检率;并且证据链通过车辆重识别算法对违规行为进行精确检测,硬件所搭载的算法为可以抵抗对抗性样本攻击的Yolo‑DAP算法,对抗性样本攻击中表现更加优良,检测更精确。
Description
技术领域
本发明涉及行车安全技术领域,具体涉及一种可在行驶中进行违章取证的对车辆违规行为的检测方法及其系统。
背景技术
智能交通促进人、车、路的和谐,是城市发展重要部分。对车辆违规行为的智能化检测是交通治理中重要的一环,关系到人民生命财产安全,车辆违章检测,通常通过固定位置的摄像头拍摄视频,由管理人员根据视频判别哪些车辆存在违章行为,并记录该段违章过程用于对驾驶员处罚的依据。在这样的过程中,首先需要大量的人力物力,需要人力去检测诸多视频,而且还会存在误检漏检现象;其次,由于固定位置摄像头有限,只能拍摄到一定范围内的违章现象;最后由于现有摄像头涵盖范围有限,会让部分司机存在侥幸心理,在摄像头拍摄区域外恣意妄为,无视交规,造成重大事故。
现有技术中为此做了一些研究,如公开号为CN104952122A的中国专利公开了一种可自动进行违章取证的行车记录仪,包括三维视觉系统和处理模块,三维视觉系统采集行驶环境中的视频数据并识别行驶环境中的交通标识和周围车辆以生成交通标识信息和周围车辆信息,判断周围车辆是否触发所述交通标识信息对应的违章触发事件,若是则生成触发检测信号并输送至处理模块。所述处理模块接收到所述触发检测信号后依据对应的交通标识信息、周围车辆信息和视频数据判断是否发生违章,若是则控制所述三维视觉系统采集相应违章照片以生成违章证据信息,锁定保存所述违章证据信息。本发明可在行驶过程中检测违章触发事件并自动生成违章证据,简化了举报过程,杜绝违章驾驶的心理。上述方案只能单线化保存违章证据信息,无法指导周围的车辆采集违章车辆的违章信息,这样会因角度的问题,造成无法形成证据链而产生漏检或误检;另外保存的违章证据是照片,会存在模糊或违章信息不全、证据链短缺等问题。
发明内容
本发明所要解决的技术问题是提供一种提高了检测的覆盖面积,可以有效地降低车辆违规行为漏检率的一种对车辆违规行为的检测方法及其系统。
为解决上述技术问题,本发明还公开了一种对车辆违规行为的检测方法,包括以下步骤:
(1)主车采集行驶环境中的视频流,并使用目标检测算法对视频流进行目标检测,判断视频流中是否有违规行为的违章车辆;当判断存在违规行为时,同时判断当前道路是否处于特殊状态,如道路不处于特殊状态,提醒用户前方车辆可能存在违规行为,同时识别车辆的车牌号、记录违规时间段;并将检测出违规车辆的相关视频进行压缩后和GPS信息、时间信息一起上传至云计算服务器;
(2)云计算服务器在云端对图像进行超分辨重建,将违规车辆车的牌号、视频帧对应的时间和当前GPS信息上传至云管理平台;
(3)云计算服务器根据GPS信息向违规车辆周围的从车发送消息;
(4)从车接收到消息后把在违规时间内拍摄到的视频信息压缩后上传至云计算服务器;
(5)云计算服务器再次对视频流信息进行超分辨重建,主车和从车的视频信息形成的违规证据链进行车辆重识别并确定车辆在视频画面中的位置,综合多角度判断车辆是否违规;若车辆违规且不在特殊车辆数据库当中,则将违规车辆信息和证据链保存至云管理平台数据库中;若车辆违规情况仍旧无法进行判断且不属于特殊车辆数据库当中则上传至人工通道进行判断;若车辆没有违规则删除违规证据链。
优选的,当从车接收到主车发送的图像信息后,首先对图像信息进行解析以获取从云管理服务器传输来的时间戳信息;然后将时间戳内的视频流进行压缩,接着移动摄像头舵机采集周围车辆信息判断当前视野中是否有目标车辆,如果还有画面中识别到目标车辆则将摄像头舵机移动到合适的拍摄角度再拍摄5秒,将再次拍摄的视频数据进行压缩一并上传至云计算服务器。
优选的,在步骤(1)中,如道路处于特殊状态,判断道路处于特殊状态时车辆是否违规,如违规,则识别车辆的车牌号、记录违规时间段;并将检测出违规车辆的相关视频帧进行压缩后上传至云计算服务器。
优选的,在步骤(1)中使用的目标检测算法为YOLO-DAP算法,包括以下步骤:
①训练基础YOLO识别网络:将FPRN层和PRN层的参数进行冻结,训练出可以正常识别物体的神经网络;
②训练SVM分类器:首先对抗样本图像数据集进行整理,数据中包含正常图像和干扰之后的图像,正常的图像对应输出标签0,干扰之后的图像即为对抗性图像,模型输入为干扰数据即对抗性图像与正常图像按照向量运算相减之后的干扰像素,若输出标签为0则表示不是干扰像素,若输出标签为1则表示为干扰像素,经过多次迭代后当SVM分类器可以在测试数据集中表现良好时停止训练;
③训练PRN层和FPRN层:将Yolo骨干网络除FPRN层外的参数进行冻结,即在接下来的训练过程中只更新PRN层和FPRN层的参数,训练数据集为正常图像和由正常图像生成的干扰图像,在一次迭代的过程中,将正常图像直接输入到目标网络当中得到预测标签即图像是正常图像还是经过恶意扰动后会对检测网络造成影响的图像,之后将干扰图像输入PRN层后再输入到目标检测网络中得到图像中车辆、行人等物体的位置信息、置信度信息和类别信息,最后根据损失函数的计算结果更新网络权重;
④对攻击图像分类:使用训练好的SVM分类器对输入的图像进行分类,判断该图像是否为攻击图像;
⑤对攻击图像进行修复:如果步骤④中判断输入图像为攻击图像则通过PRN层对该图像进行修复,修复过程为对输入的对抗性样本图像先经过一个卷积层,然后经过5个残差模块后再经过两个卷积层,输出去除干扰后图像;
⑥图像分区:经过步骤④、⑤的图像将被分成S x S个网格,如果某个物体的中心落在这个网格中,那么这个网格就负责预测这个物体,每个网络需要预测B个BBox的位置信息和置信度信息,一个位置信息对应着四个位置信息和一个置信度信息,置信度代表了所预测的物体框中含有物体的置信度和这个物体预测的准确度两重信息;
⑦将Brelu激活函数添加入YOLO-DAP网络中:网络中的激活函数全部替换为有界leaky relu激活函数;
⑧对特征图像进行修复:当图像特征信息到达FPRN层后对图像特征层进行对抗性修复,输入对抗性样本图像的特征图先经过3个残差模块后再经过一个卷积层,输出为去除干扰后特征图;
⑨检测物体信息:对于每个网格,都预测2个边框,预测出S x S x 2个目标窗口后,根据阈值去除可能性比较低的目标窗口,最后通过极大值抑制去除冗余窗口,即可获得车辆的位置信息、类别信息和置信度信息。
优选的,使用的车辆重识别方法为一种带有地理位置信息和表征过滤器的re-id方法,其包括以下步骤:
①提取高层表征:对图像提取高层表征特征;
②表征特征过滤:图像经过表征特征过滤器后,过滤掉在高层表征上被判定为非目标车辆的样本,留下表征特征与目标车辆相同的样本;
③带有地理位置信息的样本过滤层:样本在输入到后续处理过程时,会携带样本被采集时的位置、角度等信息,这些信息同时被输入,其对应的网络参数会对这些参数进行运算,从而将样本的置信强化或弱化,样本过滤层将会把位置、角度等信息融合到图像本身中并作为特征提取网络的输入;
④全局特征提取和局部特征提取融合:接下来图像进入特征提取阶段,特征提取包含两个部分,分别是全局特征提取和均分对齐的局部特征提取,其中,全局提取得到的结果将用于求解分类器的ID损失;局部提取得到的结果将和全局提取得到的结果进行拼接,再输入到困难样本挖掘模块中求解损失。该损失用于衡量REID算法的精度,在对REID算法模型进行训练时候将根据该损失对模型网络进行更新。
本发明公开了一种对车辆违规行为的检测系统,包括双目摄像头模块,用于采集视频流和视觉测距;中央处理器,用于对双目摄像头模块采集的视频流进行目标检测,并将采集的视频流压缩后发送至云计算服务器,及处理各设备之间的通信;GPS定位模块,用于获取车辆精准的经纬度信息,并发送至中央处理器;舵机控制模块,用于控制双目摄像头的转向;语音交互模块,用于负责与用户的语音交互;云计算服务器,用于对接收的图像进行超分辨重建以及对重建后的图片进行车辆重识别判断具体的违规情况;云管理平台,用于管理车辆违规信息,并对未能确认的违规车辆交由由人工进行做确认处理。
优选的,上述方案还包括预碰撞检测模块,用于从双目摄像头模块获取测距信息,当前面车辆与本车辆距离低于阈值时发出预碰撞预警。
优选的,上述方案还包括稳定器模块,其设置于双目摄像头模块上,负责稳定摄像头,防止因车辆颠簸导致无法采集视频流和视觉测距。
优选的,上述方案还包括太阳能供电系统,用于为行车记录仪的各设备供电。
与现有技术相比,本发明具有以下优点:
1、本发明的可以作为一台车辆违规检测装置,大大提高了检测的覆盖面积,有效地降低车辆违规行为的漏检率;
2、本发明利用主车和从车拍摄的视频信息形成的违规证据链,可以从各角度收集违规证件进行车辆重识别综合判断车辆是否违规,使得证据链更完整,并且证据更清晰,极大的降低了误检率。
3、本发明采用了证据链的方式通过车辆重识别算法对违规行为进行精确检测,硬件所搭载的算法为可以抵抗对抗性样本攻击的Yolo-DAP算法,对抗性样本攻击中表现更加优良,检测更精确。
4、超分辨重建可以对因压缩而导致其分辨率降低的进行处理,以提高视频像素增加识别的准确率。
附图说明
图1为本发明一种对车辆违规行为的检测方法流程图;
图2为本发明中Yolo-DAP的结构图;
图3为本发明中PRN的网络结构图;
图4为本发明中FPRN的网络结构图;
图5本发明中云计算服务器的流程图;
图6为本发明中车辆重识别算法的应用流程图;
图7本发明中所使用的re-id算法结构示意图;
图8为本发明一种对车辆违规行为的检测系统的模块框图。
具体实施方式
为了使本发明的目的和优点更清楚明了,下面结合附图和实施例对本发明进行详细的描述。
如图1所示,本发明还公开了一种对车辆违规行为的检测方法,包括以下步骤:
在主车模式下:(1)双目摄像头模块采集行驶环境中的视频流,并传输至中央处理器,中央处理器不断地从双目摄像头模块获取视频流并对视频流使用Yolo-DAP(yolodefense adversarial perturbations)算法进行目标检测,判断视频流中是否有违规行为的违章车辆;当判断存在违规行为时,同时判断当前道路是否处于特殊状态(例如道路施工),如道路不处于特殊状态,提醒用户前方车辆可能存在违规行为,同时识别车辆的车牌号、记录违规时间段;并将检测出违规车辆的相关视频进行压缩后和GPS信息、时间信息一起上传至云计算服务器。如道路处于特殊状态,判断道路处于特殊状态时车辆是否违规,如违规,则识别车辆的车牌号、记录违规时间段;并将检测出违规车辆的相关视频帧进行压缩后上传至云计算服务器。
所述Yolo-DAP(yolo defense adversarial perturbations)算法是一种可抵抗对抗性样本干扰的目标检测算法,该算法基于Yolov3算法进行改进,使得该算法具有可以抵抗对抗性样本的能力。Yolo-DAP对Yolov3的改进点如下:一、将Yolov3中的激活函数Relu函数替换为在对抗性样本攻击中表现更加优良的有界leaky Relu函数(Bounded leakyRelu)以下写作brelu激活函数。二、添加PRNF网络(Pertrubation Rectifying NetworkCombine Feature)用于对干扰图像数据进行处理。PRNF网络的主要结构有两部分:a)网络头:SVM二分类器和扰动纠正网络PRN(Pertrubation Rectifying Network),SVM负责判断图像是否为对抗性图像样本。PRN负责将对抗性图像样本的扰动性消除输出正常的图像,并对PRN的损失函数做出修改。b)特征扰动纠正结构FPRN,对神经网络经过多次采样获取的特征图进行二次对抗性修复。c)优化PRN算法的损失函数,将生成图像的差异加入到原本的损失函数当中作为PRNF网络的损失函数。
如图2所示,为Yolo-DAP的结构图,首先将图像输入后SVM检测器首先判断图像是否为对抗性样本,如果不是对抗性样本则不经过PRN(扰动修复)层,直接将图像输入至后续网络当中。当图像特征信息到达FPRN层后对图像特征层进行对抗性修复。图2中DBB为重要的网络模块,其由卷积层,BN(批量标准化)层和brelu激活函数组成,res_unit模块为残差神经网络模块,其由两个DBB模块堆叠而成。在计算过程中两层的参数进行相加形成残差模块,Resn模块中n为模块中res_unit模块的数量,其先对特征图进行零填充(在特征图的周围补充0像素以调整特征图的大小)再输入到DBB模块中然后经过n个res_unit模块。Concat:张量拼接。将两个张量进行拼接,拼接会扩充张量的维度。
Yolo-DAP算法的具体步骤如下:
①训练基础YOLO识别网络:将FPRN层和PRN层的参数进行冻结,训练出可以正常识别物体的神经网络。
②训练SVM分类器:本发明中使用SVM分类器实现了对普通图像和对抗性样本图像进行分类。过程如下:首先对抗样本图像数据集进行整理,数据中包含正常图像和干扰之后的图像,正常的图像对应输出标签0,干扰之后的图像即为对抗性图像,模型输入为干扰数据即对抗性图像与正常图像按照向量运算相减之后的干扰像素,若输出标签为0则表示不是干扰像素,若输出标签为1则表示为干扰像素,经过多次迭代后当SVM分类器可以在测试数据集中表现良好时停止训练。
③训练PRN层和FPRN层:将Yolo骨干网络除FPRN层外的参数进行冻结,即在接下来的训练过程中只更新PRN层和FPRN层的参数,训练数据集为正常图像和由正常图像生成的干扰图像,在一次迭代的过程中,将正常图像直接输入到目标网络当中得到预测标签,之后将干扰图像输入PRN层后再输入到目标检测网络中得到预测标签,最后根据损失函数的计算结果更新网络权重。本发明中采用数据集cityscapes,该数据集包含了有汽车、人、自行车等物体的数据集。将图像作为输入数据,类别标签作为输出数据。最后训练出可以正常识别图像中车辆、人等物体位置的神经网络模型。其中在FPRN网络处添加的残差结构可以保证在训练Yolo骨干网络的过程中,不会受到新增网络FPRN的影响。
④对攻击图像分类:使用训练好的SVM分类器对输入的图像进行分类,判断该图像是否为攻击图像;
⑤对攻击图像进行修复:如果步骤④中判断输入图像为攻击图像则通过PRN层对该图像进行修复,修复过程为对输入的对抗性样本图像先经过一个卷积层,然后经过5个残差模块后再经过两个卷积层,输出去除干扰后图像;
⑥图像分区:经过步骤④、⑤的图像将被分成S x S个网格,如果某个物体的中心落在这个网格中,那么这个网格就负责预测这个物体,每个网络需要预测B个BBox的位置信息和置信度信息,一个位置信息对应着四个位置信息和一个置信度信息,置信度代表了所预测的物体框中含有物体的置信度和这个物体预测的准确度两重信息;
⑦Brelu激活函数:网络中的激活函数全部替换为有界leaky relu激活函数;
⑧对特征图像进行修复:当图像特征信息到达FPRN层后对图像特征层进行对抗性修复,输入对抗性样本图像的特征图先经过3个残差模块后再经过一个卷积层,输出为去除干扰后特征图;
⑨检测物体信息:对于每个网格,都预测2个边框,预测出S x S x 2个目标窗口后,根据阈值去除可能性比较低的目标窗口,最后通过极大值抑制去除冗余窗口,即可获得车辆的位置信息、类别信息和置信度信息。
PRNF(Pertrubation Rectifying Network Combine Feature)扰动检测网络:
对抗性扰动:设Ic∈Rd表示d维空间中(无扰动的)自然图像的分布,使得一个类标签与其每个样本Ic~Ic相关联。设C(.)是一个分类器(一个深网络),它将一个图像映射到它的类标签,即C(Ic):Ic→l∈R。如果向量ρ∈Rd满足以下约束,则它是分类器的一个普遍对抗扰动:
PRNF损失函数:PRN层位于整个网络开始的位置,通过对联合网络的训练以最小化以下成本即PRNF网络的损失函数值:
其中,和li是分别由联合网络和目标网络预测的标签,li必须为无干扰图像计算出的标签。对于N训练示例,计算损失,而θp和bp表示PRN网络层的权重和偏置参数。θfp和bfp表示FPRN网络层的权重和偏置参数。D(.)负责计算输出的图像和无干扰图像之间的距离。oi表示PRN层的输出,表示无干扰的图像。表示FPRN层的输出,表示无干扰的图像通过网络层后的特征图。
如图4所示为FPRN的网络结构图,Res为卷积残差模块,由两个卷积层组成。输入图像先经过3个残差模块后再经过一个卷积层。输入为对抗性样本图像的特征图,输出为去除干扰后特征图。
PRNF网络训练:在训练Yolo骨干网络的过程中PRN层不加入训练过程,当Yolo骨干网络达到训练完成后。将Yolo骨干网络部分的参数进行冻结(不包括骨干网路中的FPRN层),即在接下来的训练过程中只更新PRN层和FPRN层的参数。训练数据集为正常图像和由正常图像生成的干扰图像。在一次迭代的过程中,将正常的图像直接输入到目标网络当中(不通过PRN层)得到预测标签li和之后将干扰图像输入PRN层得到和然后根据损失函数的计算结果更新网络权重θp和θfp。
Yolo-DAP网络的完整预测过程:当SVM分类器,Yolo骨干网络和PRNF网络全部训练完成后。Yolo-DAP就可以正常的对图片进行预测了。当输入一张图片时,SVM分类器先对图像进行分类。如果认定图像为对抗性样本时将图像输入至PRN层中。如果认定图像不是对抗性样本则将原图像直接输入至网络当中。网络对图像中的物体进行目标检测。将物体在图像中的类别和位置信息输出。
(2)云计算服务器在云端对图像进行超分辨重建,将违规车辆车的牌号、视频帧对应的时间和当前GPS信息上传至云管理平台。
(3)云计算服务器根据GPS信息向违规车辆周围的从车发送消息。
(4)从车模式下:当从车接收到主车发送的图像信息后,首先对图像信息进行解析以获取从云管理服务器传输来的时间戳信息;然后将时间戳内的视频流进行压缩,接着移动摄像头舵机采集周围车辆信息判断当前视野中是否有目标车辆,如果还有画面中识别到目标车辆则将摄像头舵机移动到合适的拍摄角度再拍摄5秒,将再次拍摄的视频数据进行压缩一并上传至云计算服务器。
(5)云计算服务器再次对视频流信息进行超分辨重建,主车和从车的视频信息形成的违规证据链进行车辆重识别并确定车辆在视频画面中发位置,综合多角度判断车辆是否违规;若车辆违规且不在特殊车辆数据库当中,则将违规车辆信息和证据链保存至云管理平台数据库中;若车辆违规情况仍旧无法进行判断且不属于特殊车辆数据库当中则上传至人工通道进行判断;若车辆没有违规则删除违规证据链。
所述云计算服务器负责接收由各个智慧行车记录仪上传的信息包,信息包主要由两类信息组成并分两次进行发送,第一类为非压缩信息,第二类为压缩信息。所述第一类信息为首发非压缩信息,主要包含以下部分信息:行车记录仪初次识别到的包含通过GPS获取的时间戳,识别出的车牌号以及本车的GPS信息。第二类信息为从系统判定为违章车辆始到脱离监测范围或违章结束的压缩视频片段,以及脱离监测范围或违章结束的时间信息。
所述信息包由两类车发送:主车(违章率先发现车)以及从车(证据链完善车),其中主车发送完整信息包,从车发送只包含第二类信息的信息包。
如图5所示为云计算服务器的流程图,对于主车发送的第一类信息,云计算服务器接收到图片信息后会存入新建的证据链文件夹,同时将解析出的GPS信息发送给在同一地理位置的周围的在线从车,从车接收到信息后,立即开始进行对对应的违规车辆进行识别与视频证据链的录制,并且这些视频都将带有实时的时间戳。
对于第二类信息,设备录制的视频片段会首先进行压缩然后上传到对应违规车辆的证据链文件夹中,主车第一类信息中的脱离监测范围的时间信息将同步发送到上述地理位置中的从车中,从车接收到后停止录像取证,将视频信息压缩后发送至对应文件夹(证据链文件夹)。
取证结束后,云计算服务器统一对证据链文件夹中的压缩视频解压之后进行超分辨重建。对证据链中的视频进行车辆重识别,确定具体车辆,综合多角度的视频对被车载系统判定为违规的车辆进行二次违规判定。若确定为违规,将证据存储在云管理平台,否则删除对应文件夹,对于无法判定的案件交由人工进行审核。
本发明还公开了证据链拼接的方法,该方法是基于车辆重识别算法的证据链拼接,即为一种带有地理位置信息和表征过滤器的re-id方法,该方法与现有的车辆重识别算法的不同在于:一、将表征特征过滤器添加到Re-id算法当中;二、提出了带有地理位置信息的样本过滤并将其融合在新的评价指标DistAP当中;三、对Re-id算法的损失函数进行改进,提出了新的损失函数BHTLoss。如图6所示为本发明车辆重识别算法的应用流程图,当取证车辆(主车)发现视野内车辆可能存在违规行为时,会发送信息至云计算服务器。云计算服务器根据取证车辆的GPS信息给取证车辆周围的其它车辆(从车)发送信息。取证车辆周围的其他车辆(从车)接收到消息后对违规车辆进行拍摄取证并将相关视频流压缩后上传至云计算服务器。云计算服务器收集了所有车辆的证据信息后,对证据链使用re-id算法进行处理,找到多段视频中不同角度的目标车辆综合判断其是否违规。
具体包括以下步骤:
①提取高层表征:对图像提取高层表征特征;
②表征特征过滤:图像经过表征特征过滤器后,过滤掉在高层表征上被判定为非目标车辆的样本,留下表征特征与目标车辆相同的样本;
③带有地理位置信息的样本过滤层:样本在输入到后续处理过程时,会携带样本被采集时的位置、角度等信息,这些信息同时被输入,其对应的网络参数会对这些参数进行运算,从而将样本的置信强化或弱化,样本过滤层将会把位置、角度等信息融合到图像本身中并作为特征提取网络的输入;
④全局特征提取和局部特征提取融合:接下来图像进入特征提取阶段,特征提取包含两个部分,分别是全局特征提取和均分对齐的局部特征提取,其中,全局提取得到的结果将用于求解分类器的ID损失;局部提取得到的结果将和全局提取得到的结果进行拼接,再输入到困难样本挖掘模块中求解损失,该损失用于衡量REID算法的精度。在对REID算法模型进行训练时候将根据该损失对模型网络进行更新。
如图7所示为本发明中所使用的re-id算法结构示意图,输入图像经过表征特征过滤器后留下表征特征与目标车辆相同的样本(例如该车是红色的)。接下来,图像经过特征提取和池化后得到特征图,特征图将会被两条不同的管线处理。第一条通过多尺度特征提取后经过分类器将获得目标的预测ID。预测ID将参与ID损失值的计算;第二条在上采样后经过全连接层得到全局损失。局部损失由图像均分后堆叠的多个特征图计算而来。其中,NUP是通用的网络单元,由一个带有残差的卷积和一个reshape模块构成,其作用是将输入经过残差卷积输出为指定大小,Reshape模块的作用为调整向量的大小。
表征特征过滤器:局部表征特征的注意力机制
表征特征过滤器的作用是在图像进入网络之前进行一次筛查,去除没有必要的图像,从而节省算力。例如:原始图像中的目标车辆存在表征特征红色,在检测图像中,表征特征过滤器将去除检测图像中蓝色和橙色部分,保留可能目标红色车辆。
本申请的Re-id算法中的表征特征过滤器与主干网络共享特征提取网络。
对于多尺度特征抽取的作用于ID损失值的求解,目的是从多个尺度上提取目标特征,防止由于同个目标距离远近不同、角度不同导致预测失败。多尺度特征提取与Yolo-DAP共用特征提取网络。
均分对齐:部分对齐池化(PAP)作用是解决不同视角下目标所呈现的角度、相对位置不同的问题。不同角度的车辆,通过部分对齐池化,Re-id算法将可以识别图中不同角度的车辆。
在网络的局部特征学习中采用动态规划计算最短路径实现不同不同区域特征对齐。动态规划计算最短路径的状态转移方程为:
上式中dij是局部特征距离,Sij是距离矩阵中从(1,1)到(i,j)的最短距离。
在Re-id中,
TP:true possitive,预测真值为真且实际真值为真;
TN:true negative,预测真值为假且实际真值为假;
FP:false possitive,预测真值为真但实际真值为假;
FN:false negative,预测真值为假但实际真值为真;
Accuracy:准确率:
准确率=预测正确的样本数/所有样本数,即预测正确的样本比例(包括预测正确的正样本和预测正确的负样本。准确率的计算公式是:
其中:AllSamples表示全体样本。
Precision:查准率:查准率表示某一类样本预测的准确性大小可以用来表示检测的准确性。其计算公式如下:
其中AllDetrction表示Ground Truth(实际真值)中某一类样本的数量。
Recall:召回率
召回率表示某一类样本预测正确的数量与所有该类别实际真值(样本标签)数量的比值。
AP:AveragePrecision平均精度
以Recall(召回率)为横轴,Precision(查准率)为纵轴,可以画出一条PR(Precision-Recall,查准率-召回率)曲线,PR曲线下的面积被定义为AP。引入插值法,计算AP的公式如下:
在车辆重识别模型的评测指标中:
rank-1(首次命中率):表示在候选库中得到与检索目标相似度排名最高的图片是目标车辆的概率。
mAP(平均精度均值):mAP可以更加全面的衡量re-id算法。假设现在有n张图片,Re-ID算法会对这n张图片进行识别并对每一张图片给出是否有被检索车辆的置信度。我们将xi称为出现被检索车辆的图片。当xi的置信度整体都很高时mAP才会很高。
带有地理位置信息的样本过滤:
在样本中加入地理位置信息维度,引入函数DistAP:
其中threshold表示阈值。threshold越高DistAP与地理位置的相关性就越低。Sample.dist表示样本距离目标的距离。P(.)用来计算Precision(查准率),r(.)用来计算Recall:召回率。该函数筛选与目标位置距离在一定距离范围内的样本。显然,距离目标越近越容易再次拍到该目标,因此该方法在多角度抓拍和重识别上显得尤其有用。
损失函数:改进的Batch Hard Triplet Loss—BHTLoss
Batch Hard Triplet Loss(基于困难样本挖掘的三元组损失,以下简称BHTLoss)即基于Hard sample mining(困难样本挖掘,所谓困难样本是指较难确定其ID的图像样本)改进的三元损失(triplet loss)。BHTLoss的目的是为了解决三元损失的一个缺陷:随机从训练集中挑选出三张图片可能会出现挑选出来的很可能是简单的样本,例如很相似的正样本对和很不相似的负样本对,这会限制模型的泛化能力。
如有两张输入图片I1和I2,它们归一化后的特征向量fI1和fI2。我们定义这两张图片特征向量的欧式距离为:
dI1,I2=||fI1-fI2||2
设图片a和图片p为一个正样本对,图片a和图片n为一个负样本对。
则三元损失表示为Z
Z=(da,p-da,n+α)+
其中(c)+表示max(c,0),其中da,p和da,n分别表示锚点样本与正样本对之间的欧式距离和与负样本对之间的欧式距离。α为一个超参数可以进行调节。
BHTLoss的核心思想是对于每一个训练批次,随机挑选P个ID,每个ID随机挑选K张不同的图片,即一个批次含有P×K张图片。之后对于每个批次中的每一张图片a,我们可以挑选一个与a距离最远的正样本和一个与a距离最近的负样本和a组成一个三元组。我们定义与a的ID相同的图片集为A,剩下与a的ID不相同的图片集为B,则BHTLoss公式可表示为:
其中c是人为设定的阈值参数。BHTLoss会计算a和一个批次中的每一张图片在特征空间中的欧式距离,然后选出与a距离最远(最不像)的正样本p的距离dα,p和距离最近(最像)的负样本n的距离dα,n来计算三元损失。通常BHTLoss效果比传统的三元损失要好。
本发明还对传输信息进行了加密,为了保证身份的唯一性以及传输的信息不会被伪造和更改我们给每一台设备都设定了专有的ID号,该ID与车辆车牌号进行绑定并保存在云端数据库当中。在对图像进行压缩后使用ID作为密钥对图像进行加密。服务器端在接收到加密后数据后使用ID进行解密。
本发明公开了一种对车辆违规行为的检测系统,如图8所示,包括双目摄像头模块、中央处理器、GPS定位模块、舵机控制模块、云计算服务器和云管理平台。所述双目摄像头模块与中央处理器的输入端、输出端均连接,其用于采集视频流和视觉测距,并传输至中央处理器。GPS定位模块与中央处理器的输入端连接,其用于获取车辆精准的经纬度信息,并发送至中央处理器。所述舵机控制模块与中央处理器的输入端、输出端均连接,其用于接收中央处理器的指令并双目摄像头的转向。所述语音交互模块与中央处理器的输入端、输出端均连接,其用于负责与用户的语音交互,可以通过语音交互控制行车记录仪的开关等,还在当检测出前方车辆具有违规行为或预碰撞模块检测出可能发生碰撞后通过语音功能提醒用户。所述云计算服务器与中央处理器的输入端、输出端均连接,其用于对接收的图像进行超分辨重建以及对重建后的图片进行车辆重识别判断具体的违规情况。所述云管理平台与云计算服务器的输入端、输出端均连接,其用于管理车辆违规信息,并对未能确认的违规车辆交由由人工进行做确认处理。所述中央处理器用于对双目摄像头模块采集的视频流进行目标检测,并将采集的视频流发送至云计算服务器,及处理各设备之间的通信。
作为一种优选实施方式,本方案还包括预碰撞检测模块,所述预碰撞检测模块的输入端与双目摄像头模块的输出端连接,预碰撞检测模块的输出端与中央处理器的输入端连接,预碰撞检测模块用于从双目摄像头模块获取测距信息,当前面车辆与本车辆距离低于阈值时,将信号发送至中央处理器,由中央处理器通过语音交互模块发出预碰撞预警。
本方案还包括稳定器模块,所述稳定器模块的输出端与双目摄像头模块的输入端连接,其设置于双目摄像头模块上,负责稳定摄像头,防止因车辆颠簸导致无法采集视频流和视觉测距。
本方案还包括太阳能供电系统,所述太阳能供电系统的输入端、输出端分别与中央处理器的输入端、输出端均连接,用于为行车记录仪的各设备供电。
上述实施例,仅为对本发明的目的、技术方案和有益效果进一步详细说明的具体个例,本发明并非限定于此。凡在本发明的公开的范围之内所做的任何修改、等同替换、改进等,均包含在本发明的保护范围之内。
Claims (9)
1.一种对车辆违规行为的检测方法,其特征在于,包括以下步骤:
(1)主车采集行驶环境中的视频流,并使用目标检测算法对视频流进行目标检测,判断视频流中是否有违规行为的违章车辆;当判断存在违规行为时,同时判断当前道路是否处于特殊状态,如道路不处于特殊状态,提醒用户前方车辆可能存在违规行为,同时识别车辆的车牌号、记录违规时间段;并将检测出违规车辆的相关视频进行压缩后和GPS信息、时间信息一起上传至云计算服务器;
(2)云计算服务器在云端对图像进行超分辨重建,将违规车辆车的牌号、视频帧对应的时间和当前GPS信息上传至云管理平台;
(3)云计算服务器根据GPS信息向违规车辆周围的从车发送消息;
(4)从车接收到消息后把在违规时间内拍摄到的视频信息压缩后上传至云计算服务器;
(5)云计算服务器再次对视频流信息进行超分辨重建,主车和从车的视频信息形成的违规证据链进行车辆重识别并确定车辆在视频画面中的位置,综合多角度判断车辆是否违规;若车辆违规且不在特殊车辆数据库当中,则将违规车辆信息和证据链保存至云管理平台数据库中;若车辆违规情况仍旧无法进行判断且不属于特殊车辆数据库当中则上传至人工通道进行判断;若车辆没有违规则删除违规证据链。
2.根据权利要求1所述的一种对车辆违规行为的检测方法,其特征在于:当从车接收到主车发送的图像信息后,首先对图像信息进行解析以获取从云管理服务器传输来的时间戳信息;然后将时间戳内的视频流进行压缩,接着移动摄像头舵机采集周围车辆信息判断当前视野中是否有目标车辆,如果还有画面中识别到目标车辆则将摄像头舵机移动到合适的拍摄角度再拍摄5秒,将再次拍摄的视频数据进行压缩一并上传至云计算服务器。
3.根据权利要求1或2所述的一种对车辆违规行为的检测方法,其特征在于:在步骤(1)中,如道路处于特殊状态,判断道路处于特殊状态时车辆是否违规,如违规,则识别车辆的车牌号、记录违规时间段;并将检测出违规车辆的相关视频帧进行压缩后上传至云计算服务器。
4.根据权利要求1或2所述的一种对车辆违规行为的检测方法,其特征在于,在步骤(1)中使用的目标检测算法为YOLO-DAP算法,包括以下步骤:
①训练基础YOLO识别网络:将FPRN层和PRN层的参数进行冻结,训练出可以正常识别物体的神经网络;
②训练SVM分类器:首先对抗样本图像数据集进行整理,数据中包含正常图像和干扰之后的图像,正常的图像对应输出标签0,干扰之后的图像即为对抗性图像,模型输入为干扰数据即对抗性图像与正常图像按照向量运算相减之后的干扰像素,若输出标签为0则表示不是干扰像素,若输出标签为1则表示为干扰像素,经过多次迭代后当SVM分类器可以在测试数据集中表现良好时停止训练;
③训练PRN层和FPRN层:将Yolo骨干网络除FPRN层外的参数进行冻结,即在接下来的训练过程中只更新PRN层和FPRN层的参数,训练数据集为正常图像和由正常图像生成的干扰图像,在一次迭代的过程中,将正常图像直接输入到目标网络当中得到预测标签即图像是正常图像还是经过恶意扰动后会对检测网络造成影响的图像,之后将干扰图像输入PRN层后再输入到目标检测网络中得到图像中车辆、行人等物体的位置信息、置信度信息和类别信息,最后根据损失函数的计算结果更新网络权重;
④对攻击图像分类:使用训练好的SVM分类器对输入的图像进行分类,判断该图像是否为攻击图像;
⑤对攻击图像进行修复:如果步骤④中判断输入图像为攻击图像则通过PRN层对该图像进行修复,修复过程为对输入的对抗性样本图像先经过一个卷积层,然后经过5个残差模块后再经过两个卷积层,输出去除干扰后图像;
⑥图像分区:经过步骤④、⑤的图像将被分成S x S个网格,如果某个物体的中心落在这个网格中,那么这个网格就负责预测这个物体,每个网络需要预测B个BBox的位置信息和置信度信息,一个位置信息对应着四个位置信息和一个置信度信息,置信度代表了所预测的物体框中含有物体的置信度和这个物体预测的准确度两重信息;
⑦将Brelu激活函数添加入YOLO-DAP网络中:网络中的激活函数全部替换为有界leakyrelu激活函数;
⑧对特征图像进行修复:当图像特征信息到达FPRN层后对图像特征层进行对抗性修复,输入对抗性样本图像的特征图先经过3个残差模块后再经过一个卷积层,输出为去除干扰后特征图;
⑨检测物体信息:对于每个网格,都预测2个边框,预测出S x Sx 2个目标窗口后,根据阈值去除可能性比较低的目标窗口,最后通过极大值抑制去除冗余窗口,即可获得车辆的位置信息、类别信息和置信度信息。
5.根据权利要求1或2所述的一种对车辆违规行为的检测方法,其特征在于,使用的车辆重识别方法为一种带有地理位置信息和表征过滤器的re-id方法,其包括以下步骤:
①提取高层表征:对图像提取高层表征特征;
②表征特征过滤:图像经过表征特征过滤器后,过滤掉在高层表征上被判定为非目标车辆的样本,留下表征特征与目标车辆相同的样本;
③带有地理位置信息的样本过滤层:样本在输入到后续处理过程时,会携带样本被采集时的位置、角度等信息,这些信息同时被输入,其对应的网络参数会对这些参数进行运算,从而将样本的置信强化或弱化,样本过滤层将会把位置、角度等信息融合到图像本身中并作为特征提取网络的输入;
④全局特征提取和局部特征提取融合:接下来图像进入特征提取阶段,特征提取包含两个部分,分别是全局特征提取和均分对齐的局部特征提取,其中,全局提取得到的结果将用于求解分类器的ID损失;局部提取得到的结果将和全局提取得到的结果进行拼接,再输入到困难样本挖掘模块中求解损失。
6.一种对车辆违规行为的检测系统,其特征在于:包括
双目摄像头模块,用于采集视频流和视觉测距;
中央处理器,用于对双目摄像头模块采集的视频流进行目标检测,并将采集的视频流压缩后发送至云计算服务器,及处理各设备之间的通信;
GPS定位模块,用于获取车辆精准的经纬度信息,并发送至中央处理器;
舵机控制模块,用于控制双目摄像头的转向;
语音交互模块,用于负责与用户的语音交互;
云计算服务器,用于对接收的图像进行超分辨重建以及对重建后的图片进行车辆重识别判断具体的违规情况;
云管理平台,用于管理车辆违规信息,并对未能确认的违规车辆交由由人工进行做确认处理。
7.根据权利要求6所述的一种对车辆违规行为的检测系统,其特征在于:还包括预碰撞检测模块,用于从双目摄像头模块获取测距信息,当前面车辆与本车辆距离低于阈值时发出预碰撞预警。
8.根据权利要求6所述的一种对车辆违规行为的检测系统,其特征在于:还包括稳定器模块,其设置于双目摄像头模块上,负责稳定摄像头,防止因车辆颠簸导致无法采集视频流和视觉测距。
9.根据权利要求6-8任意一项所述的一种对车辆违规行为的检测系统,其特征在于:还包括太阳能供电系统,用于为行车记录仪的各设备供电。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110378231.6A CN112883936A (zh) | 2021-04-08 | 2021-04-08 | 一种对车辆违规行为的检测方法及其系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110378231.6A CN112883936A (zh) | 2021-04-08 | 2021-04-08 | 一种对车辆违规行为的检测方法及其系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112883936A true CN112883936A (zh) | 2021-06-01 |
Family
ID=76040826
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110378231.6A Pending CN112883936A (zh) | 2021-04-08 | 2021-04-08 | 一种对车辆违规行为的检测方法及其系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112883936A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114245915A (zh) * | 2021-10-27 | 2022-03-25 | 京东方科技集团股份有限公司 | 交通信息处理方法、装置、电子设备、服务器和存储介质 |
CN114926422A (zh) * | 2022-05-11 | 2022-08-19 | 西南交通大学 | 一种上下车客流量检测方法及系统 |
CN115346363A (zh) * | 2022-06-27 | 2022-11-15 | 西安电子科技大学 | 基于神经网络的驾驶员违规预测方法 |
CN116091787A (zh) * | 2022-10-08 | 2023-05-09 | 中南大学 | 一种基于特征过滤和特征对齐的小样本目标检测方法 |
CN116978241A (zh) * | 2023-09-21 | 2023-10-31 | 济南致业电子有限公司 | 一种基于执法记录仪的城市车辆监控方法及系统 |
-
2021
- 2021-04-08 CN CN202110378231.6A patent/CN112883936A/zh active Pending
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114245915A (zh) * | 2021-10-27 | 2022-03-25 | 京东方科技集团股份有限公司 | 交通信息处理方法、装置、电子设备、服务器和存储介质 |
WO2023070386A1 (zh) * | 2021-10-27 | 2023-05-04 | 京东方科技集团股份有限公司 | 交通信息处理方法、装置、电子设备、服务器和存储介质 |
CN114926422A (zh) * | 2022-05-11 | 2022-08-19 | 西南交通大学 | 一种上下车客流量检测方法及系统 |
CN114926422B (zh) * | 2022-05-11 | 2023-07-04 | 西南交通大学 | 一种上下车客流量检测方法及系统 |
CN115346363A (zh) * | 2022-06-27 | 2022-11-15 | 西安电子科技大学 | 基于神经网络的驾驶员违规预测方法 |
CN116091787A (zh) * | 2022-10-08 | 2023-05-09 | 中南大学 | 一种基于特征过滤和特征对齐的小样本目标检测方法 |
CN116978241A (zh) * | 2023-09-21 | 2023-10-31 | 济南致业电子有限公司 | 一种基于执法记录仪的城市车辆监控方法及系统 |
CN116978241B (zh) * | 2023-09-21 | 2023-12-26 | 济南致业电子有限公司 | 一种基于执法记录仪的城市车辆监控方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112883936A (zh) | 一种对车辆违规行为的检测方法及其系统 | |
CN106652468B (zh) | 车辆道路前车违规检测和自车违规预警提醒装置及方法 | |
CN105788269A (zh) | 基于无人机的异常交通识别方法 | |
US20240046653A1 (en) | Identifying suspicious entities using autonomous vehicles | |
CN108860166A (zh) | 无人驾驶汽车事故发生处理系统及处理方法 | |
CN202838681U (zh) | 一种治安智能卡口系统 | |
TWI649729B (zh) | 一種自動舉證交通違規車輛的系統與方法 | |
CN103186982A (zh) | 一种治安智能卡口系统 | |
CN110288823B (zh) | 一种基于朴素贝叶斯网络的交通违章误判识别方法 | |
CN111404874A (zh) | 出租车嫌疑车辆甄别分析体系架构 | |
CN114241589A (zh) | 一种基于车载视频的公交司机违规行为判定方法及装置 | |
CN116128360A (zh) | 道路交通拥堵等级评估方法、装置、电子设备及存储介质 | |
CN114973659A (zh) | 一种高速公路的间接事件检测的方法、装置及系统 | |
KR101066081B1 (ko) | 차량 탑재형 스마트 정보 판독 시스템 및 방법 | |
CN106571040A (zh) | 一种可疑车辆确认方法及设备 | |
CN113870551A (zh) | 一种能够鉴别危险和非危险驾驶行为的路侧监控系统 | |
TWI774984B (zh) | 交通事件偵測系統及方法 | |
CN115440071B (zh) | 一种自动驾驶违规停车检测方法 | |
CN112633163B (zh) | 一种基于机器学习算法实现非法运营车辆检测的检测方法 | |
CN112418000B (zh) | 基于单目摄像头的不良驾驶行为检测方法及系统 | |
CN114999103A (zh) | 一种高速公路涉路作业安全智能预警系统及方法 | |
CN113850112A (zh) | 基于孪生神经网络的路况识别方法和系统 | |
CN113821924A (zh) | 车辆实时数据采集系统、定位核查方法及里程分析方法 | |
Wei et al. | Adaptive video-based vehicle classification technique for monitoring traffic. | |
Polyantseva et al. | Neural network approaches in the problems of detecting and classifying roadway defects |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |