CN109325438B - 实况全景交通标志的实时识别方法 - Google Patents
实况全景交通标志的实时识别方法 Download PDFInfo
- Publication number
- CN109325438B CN109325438B CN201811085705.2A CN201811085705A CN109325438B CN 109325438 B CN109325438 B CN 109325438B CN 201811085705 A CN201811085705 A CN 201811085705A CN 109325438 B CN109325438 B CN 109325438B
- Authority
- CN
- China
- Prior art keywords
- traffic sign
- traffic
- image block
- panoramic
- target frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/582—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformation in the plane of the image
- G06T3/40—Scaling the whole image or part thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/09—Recognition of logos
Abstract
本发明公开一种实况全景交通标志的实时识别方法,针对实时采集到的大分辨率全景交通图像,采用提出的数据处理方法提取训练集,并对提出的TSNet网络进行训练与微调,在检测阶段,基于图像金字塔的图像缩放后,进行滑动窗口的处理方法和DS‑NMS算法来保证目标的实时性识别和提高准确度,从而能够在实况全景状态下对交通标志进行快速准确的识别。
Description
技术领域
本发明涉及图像识别技术领域,具体涉及一种实况全景交通标志的实时 识别方法。
背景技术
随着无人驾驶和智能交通系统的火热,交通标志作为道路交通的重要组 成部分,扮演着不可或缺的角色。交通标志的实时识别对于无人驾驶等视觉 系统的新兴领域有着推动作用,智能交通辅助驾驶系统在复杂的道路信息中, 能够准确检测和识别关键的道路信息。在无人驾驶的研究方面,交通标志的 实时识别系统可向驾驶系统传输一些重要的道路交通信息,进而指导无人驾 驶汽车做出正确的行驶判断,从而实现无人驾驶汽车的安全行驶。
现有目标识别方法都是针对较大的物体(目标框占整个图片的20%左 右)。虽然,目前对于图像占比很大的交通标志的检测识别的精度上已经有了 很大的成果,但是识别的速度还是不够快,尤其是对于实况全景的交通标志 达不到精确识别,速度也达不到实时的要求。此外,在现实生活中所看到的 交通标志只占视野中很小的一部分,大约占视野图片的0.001%-5%,这对于 实时精确检测识别交通标志来说有很大的挑战。
发明内容
本发明所要解决的是现有目标识别方法无法实时精确检测识别交通标志 的问题,提供一种实况全景交通标志的实时识别方法。
为解决上述问题,本发明是通过以下技术方案实现的:
实况全景交通标志的实时识别方法,其具体包括步骤如下:
步骤1、选取带有交通标志的全景交通图像,其中全景交通图像上的每 个交通标志均标注了目标框和类别;
步骤2、将步骤1的全景交通图像均匀分割为若干个原始图像块,并这 些原始图像块中筛选出含有交通标志目标框的原始图像块组,并通过坐标换 算重新计算交通标志目标框在每个原始图像块组的位置;
步骤3、将步骤2所筛选出的原始图像块组转换为PASCAL VOC标准数 据集格式,由此得到原始训练集;该原始训练集中的图像中标注了交通标志 的目标框和类别;
步骤4、对步骤1所选取的全景交通图像进行压缩,得到压缩后的全景 交通图像,其中压缩后的全景交通图像上的每个交通标志均标注了目标框和 类别;
步骤5、将步骤4的压缩后的全景交通图像均匀分割为若干个压缩图像 块,并这些压缩图像块中筛选出含有交通标志目标框的压缩图像块组,并通 过坐标换算重新计算交通标志目标框在每个压缩图像块组的位置;
步骤6、将步骤5所筛选出的压缩图像块组转换为PASCAL VOC标准数 据集格式,由此得到压缩训练集;该压缩训练集中的图像中标注了交通标志 的目标框和类别;
步骤7、构建TSNet(Traffic Signs Network)检测模型,该TSNet检测模型 以yolov3-tiny作为基础网络,并在此基础上添加直通层进行特征重组,通过 更高尺度的特征图yolo层和中尺度特征图的yolo层进行上采样后,与网络前 层的高尺度卷积层特征图进行特征融合;
步骤8、将步骤4所得到的原始训练集送入到步骤7所构建的TSNet检 测模型进行训练,得到初训练的TSNet检测模型;
步骤9、将步骤6所得到的压缩训练集送入到步骤8所得到的初训练的 TSNet检测模型中进行训练,得到最终训练的TSNet检测模型;
步骤10、对经过缩放处理后的待检测图像进行滑动窗口处理,并将滑动 窗口所截取的待检测图像块依次送入到步骤9所得到的最终训练的TSNet检 测模型中进行检测,由此检测出存在于待检测图像块中的候选交通标志目标 框和类别;
步骤11、对步骤10所得到的存在于待检测图像块中的候选交通标志目 标框和类别采用DS-NMS算法进行处理,找出存在于待检测图像块中的优选 交通标志目标框;
步骤12、对步骤11所得到的存在于待检测图像块中的优选交通标志目 标框进行坐标换算,确定该交通标志目标框在待检测图像中的位置,由此识 别出待检测图像中交通标志目标框的位置和类别。
上述步骤2中的具体过程如下:
步骤2.1、将全景交通图像按网络输入的一半间隔均匀分割为若干个原始 图像块;
步骤2.2、根据全景交通图像的标签文件,找出每个交通标志目标框的中 心点;
步骤2.3、计算每个交通标志目标框的中心点所属于的原始图像块即中心 原始图像块;
步骤2.4、将中心原始图像块与其周围的任意3个原始图像块进行分别组 合,得到至少1个原始图像块组;
步骤2.5、通过坐标换算重新计算交通标志目标框在每个原始图像块组的 位置。
上述步骤2.4中,当中心原始图像块位于全景交通图像的4个顶角时, 生成的原始图像块组为1个;当中心原始图像块位于全景交通图像的侧边时, 生成的原始图像块组为2个;当中心原始图像块位于全景交通图像的中部时, 生成的原始图像块组为4个。
上述步骤5中的具体过程如下:
步骤5.1、将压缩后的全景交通图像按网络输入的一半间隔均匀分割为若 干个压缩图像块;
步骤5.2、根据全景交通图像的标签文件,找出每个交通标志目标框的中 心点;
步骤5.3、计算每个交通标志目标框的中心点所属于的压缩图像块即中心 压缩图像块;
步骤5.4、将中心压缩图像块与其周围的任意3个压缩图像块进行分别组 合,得到至少1个压缩图像块组;
步骤5.5、通过坐标换算重新计算交通标志目标框在每个压缩图像块组的 位置。
上述步骤5.4中,当中心压缩图像块位于全景交通图像的4个顶角时, 生成的压缩图像块组为1个;当中心压缩图像块位于全景交通图像的侧边时, 生成的压缩图像块组为2个;当中心压缩图像块位于全景交通图像的中部时, 生成的压缩图像块组为4个。
上述步骤8中,在将步骤4所得到的原始训练集送入到步骤7所构建的 TSNet检测模型进行训练之前,需要使用基于距离的聚类算法K-means对原 始训练集进行处理计算初始候选框区域。
上述步骤11中,运用DS-NMS算法从候选交通标志目标框中选出优选 交通标志目标框的过程如下:
步骤11.1、采用YOLO算法计算候选交通标志目标框的得分概率,并对 所有候选交通标志目标框的得分概率进行排序,选中得分概率最高的候选交 通标志目标框作为当前优选交通标志目标框;
步骤11.2、将其余候选交通标志目标框分别与当前优选交通标志目标框 进行比较:如果该其余候选交通标志目标框与当前优选交通标志目标框的重 叠面积大于预设阈值,则删除该其余候选交通标志目标框;否则,保留该其 余候选交通标志目标框;
步骤11.3、判断所保留的其余候选交通标志目标框是否为当前所有找出 的优选交通标志目标框的子集:如果是,则删除该其余候选交通标志目标框; 否则,执行步骤11.4;
步骤11.4、判断所有的其余候选交通标志目标框是否都被删除,如果是, 则输出所所有找出的优选交通标志目标框,否则,对保留下来的其余候选交 通标志目标框的得分概率进行排序,选中得分概率最高的候选交通标志目标 框作为当前优选交通标志目标框,并返回步骤11.2。
与现有技术相比,本发明针对实时采集到的大分辨率全景交通图像,采 用提出的数据处理方法提取训练集,并对提出的TSNet网络进行训练与微调, 在检测阶段,基于图像金字塔的图像缩放后,进行滑动窗口的处理方法和 DS-NMS算法来保证目标的实时性识别和提高准确度,从而能够在实况全景 状态下对交通标志进行快速准确的识别。
附图说明
图1为实况全景交通标志的实时识别方法的流程图。
图2为训练数据集预处理方案的原理图。
图3为TSNet网络架构图。
图4为交并比IOU论据分析图(IOU与偏移之间的关系)。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实例, 并参照附图,对本发明进一步详细说明。
针对实况全景交通标志的环境下,捕获的交通标志都是大分辨率下的图 像,难以实时并准确检测和识别交通标志这类小目标的问题,本发明提出了 一种基于深度学习的实况全景交通标志的实时识别方法,其基于YOLOv3 (You Only Look Once)目标检测算法进行网络的训练与测试,最终能够达到 对交通标志进行实时检测识别。第一方面,提供一种合适的网络输入尺寸和 保证训练集的无锯齿,不失真的方法。第二方面,提供一种数据增强的方法。 第三方面,提出一种TSNet(Traffic Signs Network)网络结构。第四方面,提出一种训练网络的微调机制。第五方面,在检测识别阶段,对数据进行缩 放后,引入了滑动窗口算法。第六方面,改进了NMS算法,提出了DS-NMS (Delete Subset–Non-MaximumSuppression)算法。
具体来说,本发明所提出的实况全景交通标志的实时识别方法,如图1 所示,其包括步骤如下:
步骤1、选取带有交通标志的全景交通图像,其中全景交通图像上的每 个交通标志均标注了目标框和类别。
采用清华可视媒体研究中心制作的腾讯街景全景的交通标志数据集 Tsinghua-Tencent 100K作为实验的数据集,数据集中包含100000张腾讯对中 国街景拍摄的全景图,有30000张包含了交通标志。图片分辨率为2048*2048, 这些图片覆盖了不同光照和天气状况。在训练集中每个交通标志都被标注了 类别,目标框和像素掩码。交通标志大小为8*8-400*400之间,约占整张图 片的0.001%-4%。
步骤2、将全景交通图像均匀分割为若干个原始图像块,并从中这些原 始图像块中筛选出含有交通标志目标框的原始图像块,并通过坐标换算重新 计算交通标志目标框在每个原始图像块位置。
步骤2.1、将全景交通图像按网络输入的一半间隔均匀分割为若干个原始 图像块;
步骤2.2、根据全景交通图像的标签文件,找出每个交通标志目标框的中 心点;
步骤2.3、计算每个交通标志目标框的中心点所属于的原始图像块即中心 原始图像块;
步骤2.4、将中心原始图像块与其周围的任意3个原始图像块进行分别组 合,得到至少1个原始图像块组。当中心原始图像块位于全景交通图像的4 个顶角时,生成的原始图像块组为1个;当中心原始图像块位于全景交通图 像的侧边时,生成的原始图像块组为2个;当中心原始图像块位于全景交通 图像的中部时,生成的原始图像块组为4个;
步骤2.5、通过坐标换算重新计算交通标志目标框在每个原始图像块组的 位置。
由于2048*2048*3分辨率太大,当作网络输入会导致GPU内存不足,针 对这个问题,本发明设计的网络输入为416*416*3。但是分辨率2048*2048 直接缩放到分辨率416*416会导致图片失真,尤其是对于小目标的交通标志 会产生严重的锯齿,对后期的训练有严重的影响。所以在这里处理数据集我 们采用裁剪的方式来保证交通标志的原来像素的RGB分布。接下来,要进行 数据筛选和数据增强。在本发明中,可以使用Python语言对数据集进行数据 筛选处理。数据增强的方式有很多,比如图像旋转,图像亮度变化,加高斯 噪声,椒盐噪声等。
为了保证每类交通标志有充足的数据量,本实施例选取样本数大于100 个的单类别交通标志作为识别的主要对象,统计下来有45类。本实施例将图 像放大到2080*2080,然后分成10*10个分辨率为208*208的格子,每行每 列按照208像素的间距可以有9*9=81张分辨率为416*416的图片。在原图上 对这81张图片进行裁剪处理得到81*9105张训练数据集。但是并不是每张图 片都会有交通标志而且需要坐标文件的更新和修改。此时需要用到清华可视 媒体研究中心制作的腾讯街景全景的交通标志数据集Tsinghua-Tencent 100K提供的标注文件annotations.json。对标注文件中的有交通标志的训练集中每 个id的图片进行处理,每个交通标志都会有类别和目标框坐标,计算每个交 通标志的中心坐标(x,y):
其中,x表示交通标志中心的横坐标,y表示交通标志的纵坐标;xmin 和ymin分别表示交通标志左上角相对于图片左上角(坐标为(0,0))的横 纵坐标位置;xmax,ymax分别表示交通标志右下角相对于图片左上角的横纵 坐标位置。
计算出的x,y中心坐标后,通过以下式子计算出中心坐标位于第几个格 子中:
cell_num=y_cell*10+x_cell+1
式中cell_num即为所求。
参考附图2,有10*10个格子,每个格子代表分辨率为208*208的图片, 则图2中有9*9=81张分辨率为416*416张图片。在这裁取的81张图片中, 只选取有交通标志框的中心坐标(x,y)的图片为正样本,其他为无交通标志 的负样本。但是有些交通标志可能也被裁剪到两个或多个格子中,对于这个 问题,本发明将交通标志中心在的格子中定义为交通标志就在此格子中。假 设有A-I个交通标志框,对应标签label文件中有相应的标注坐标,这里分别 记为(xmin,ymin,xmax,ymax),通过上面式子求出图中中心黑点(x,y) 的坐标,再求出对应的cell_num,简记为c。下面分9种情况讨论A-I的坐标 更新方法:
A.通过计算,A的c为1,则A属于第一张图片中的交通标志框,同时 为了确保坐标在0-416之间,则坐标文件更新为(max(xmin,0),max(ymin, 0),min(xmax,416),min(ymax,416))。
B.相应的交通标志B的c为10,则B属于第c-1=9张图片,坐标文件更 新为(max(xmin-208*8,0),max(ymin,0),min(xmax-208*8,416), min(ymax,416))。
C.相应的交通标志C的c为91,C属于第c-10-(c-10)//10=73张图片, 坐标文件更新为(max(xmin,0),max(ymin-208*8,0),min(xmax,416), min(ymax-208*8,416))。
D.相应的交通标志D的c为100,D属于第c-11-(c-11)//10=81张图片, 坐标文件更新为(max(xmin-208*8,0),max(ymin-208*8,0),min (xmax-208*8,416),min(ymax-208*8,416))。
E.交通标志E的c在0-9之间,则E属于第c和c-1两张图片,坐标文 件分别更新为(max(xmin-(c-1)%10*208,0),max(ymin,0),min(xmax- (c-1)%10*208,416),min(ymax,0)),(max(xmin-(c-2)%10*208,0), max(ymin,0),min(xmax-(c-2)%10*208,416),min(ymax,0))。
F.交通标志F的c在91-100之间,则F属于第c-10-((c-10)//10)和 c-11-((c-11)//10)两张图片,坐标文件分别更新为(max(xmin-(c-11)%10*208, 0),max(ymin-(c-11)//10*208,0),min(xmax-(c-11)%10*208,416), min(ymax-(c-11)//10*208,0)),(max(xmin-(c-12)%10*208,0),max (ymin-(c-12)//10*208,0),min(xmax-(c-12)%10*208,416),min(ymax- (c-12)//10*208,0))。
G.交通标志G的c%10=1,则G属于第c-(c//10)和c-10-((c-10)//10) 两张图片,坐标文件分别更新为(max(xmin,0),max(ymin-(c-1)//10*208, 0),min(xmax,416),min(ymax-(c-1)//10*208,0)),(max(xmin, 0),max(ymin-(c-11)//10*208,0),min(xmax,416),min(ymax-(c-11) //10*208,0))。
H.交通标志H的c%10=0,则H属于第c-1-((c-1)//10)和c-11-((c-11) //10)两张图片,坐标文件分别更新为(max(xmin-(c-2)%10*208,0), max(ymin-(c-2)//10*208,0),min(xmax-(c-2)%10*208,416),min (ymax-(c-2)//10*208,0)),(max(xmin-(c-12)%10*208,0),max(ymin- (c-12)//10*208,0),min(xmax-(c-12)%10*208,416),min(ymax-(c-12) //10*208,0))。
I.交通标志I的c不属于上述所有情况,则I属于c-(c//10),c-1-((c-1) //10),c-10-((c-10)//10),c-11-((c-11)//10)四张图片,坐标文件分别 更新为(max(xmin-(c-1)%10*208,0),max(ymin-(c-1)//10*208,0), min(xmax-(c-1)%10*208,416),min(ymax-(c-1)//10*208,0)),(max (xmin-(c-2)%10*208,0),max(ymin-(c-2)//10*208,0),min(xmax- (c-2)%10*208,416),min(ymax-(c-2)//10*208,0)),(max(xmin- (c-11)%10*208,0),max(ymin-(c-11)//10*208,0),min(xmax- (c-11)%10*208,416),min(ymax-(c-11)//10*208,0)),(max(xmin- (c-12)%10*208,0),max(ymin-(c-12)//10*208,0),min(xmax- (c-12)%10*208,416),min(ymax-(c-12)//10*208,0))。
注:其中max(),min()分别为取最大值和取最小值的函数。//表示求 商运算,%表示取余数运算。
这样增强的数据集中包含了交通标志的多种周边信息,对网络输入有合 理的分辨率,而且增大了数据集,对后期网络的训练有一定的提升效果。
步骤3、将所筛选出的原始图像块转换为PASCAL VOC标准数据集格式, 由此得到原始训练集;该原始训练集中的图像中标注了交通标志的目标框和 类别。
在得到最终交通标志TS81数据集的图片集与坐标更新文件后,接下来制 作PASCAL VOC标准格式数据集。PASCAL VOC标准格式数据集由3个文 件夹组成,分别为JPEGImages,Annotations,ImageSets。其中JPEGImages 文件夹中包含了PASCAL VOC所提供的所有的图片信息,包括了训练图片和 测试图片。Annotations文件夹中存放的是xml格式的标签文件,每一个xml 文件都对应于JPEGImages文件夹中的一张图片。ImageSets文件夹下有Main 文件夹,Main文件夹中包含train.txt,test.txt两个文本文件,其中train.txt每 行为训练集中每一个图片的文件名id,test.txt每行为验证集中每一个图片的 文件名id。通过python与matlab可完成数据集TS81的制作。
步骤4、对所选取的全景交通图像进行压缩,得到压缩后的全景交通图 像,其中压缩后的全景交通图像上的每个交通标志均标注了目标框和类别。
步骤5、采用步骤2和3相同的方法对压缩后的全景交通图像进行处理, 即:
将压缩后的全景交通图像均匀分割为若干个压缩图像块,并从中这些压 缩图像块中筛选出含有交通标志目标框的压缩图像块,并通过坐标换算重新 计算交通标志目标框在每个压缩图像块位置;并将所筛选出的压缩图像块转 换为PASCAL VOC标准数据集格式,由此得到压缩训练集;该压缩训练集中 的图像中标注了交通标志的目标框和类别。
同理将Tsinghua-Tencent 100K训练数据集全部缩放到1040*1040,相同 的方法处理得到4*4=16张图片,并用相同的方法更新坐标得到PASCAL VOC 标准数据集格式的交通标志数据集TS16。其中包括训练集25913张图片。
步骤6、构建TSNet(Traffic Signs Network)检测模型,该TSNet检测模型 以yolov3-tiny作为基础网络,并在此基础上添加直通层进行特征重组,通过 更高尺度的特征图yolo层和中尺度特征图的yolo层进行上采样后,与网络前 层的高尺度卷积层特征图进行特征融合。
以yolov3-tiny(You Only Look Once V3-tiny)作为基础网络,经过IOU 和TSNet的网络步长的关系分析后,在此基础上添加(1)passthrough层(直 通层)进行特征重组;(2)52*52特征图的yolo层;(3)26*26特征图的yolo 层进行上采样。为防止小目标的特征丢失,将(1)(2)(3)和第3个池化层 52*52*64特征图进行特征融合,由此构建TSNet检测模型。
图3是根据本发明实施例的TSNet网络架构图,本发明提出的TSNet以 yolov3-tiny作为基础网络,并在此基础上添加合理的网络结构以保证检测效 果最佳。依据如下:
在这里介绍目标检测中的一个概念,交并比(Intersection-over-Union, IoU),是产生的候选框(candidate boxes)与原标记框(ground truth boxes) 的交叠率,即它们的交集与并集的比值。最理想情况是完全重叠,即比值为 1。参考附图4,一般IOU计算公式如下:
在图4中,设置IOU为0.45,为了达到0.45的交并比,最大的步长应该 为2ε。步长的计算公式推导如下:
经过计算得到2ε=2*0.197=0.394,Tsinghua-Tencent 100K数据集中通过程 序得知交通标志大小在8*8-400*400之间,采用了多尺寸训练,使416*416 像素以32像素间隔缩放到320,352,384,416,448,480,512,544,576, 608像素,分别迭代一定次数训练,增强数据的多样性,对训练网络有更好 的健壮性。数据集中最小像素为8,8/416*608*0.394=4.6,说明要想保证数据 集成功检测需要最大步长为4<4.6<8,416/4=104,因此在TSNet中添加了 52*52的yolo层来保证交通标志的成功检测,除此之外,加入passthrough层 (直通层),把浅层特征图连接到深层特征图,即104*104的特征重组为 52*52,同时使26*26上采样与第5层的52*52特征融合。因此在TSNet中添 加了52*52*150(3*(45+4+1))的yolo层来保证交通标志的成功检测。其中 的150(3*(45+4+1)),45为类别数,4为左上角横纵坐标和左下角横纵坐 标(xmin,ymin,xmax,ymax),1表示Objectness,是否有交通标志目标。
步骤7、先基于距离的聚类算法K-means对原始训练集进行处理;再将 所得到的原始训练集(高分辨率)送入到构建的TSNet检测模型进行训练, 得到初训练的TSNet检测模型;后将所得到的压缩训练集(低分辨率)送入 到初训练的TSNet检测模型中进行训练,得到最终训练的TSNet检测模型。
在TSNet训练前,使用基于距离的聚类算法K-means对数据集进行处理 计算初始候选框区域anchor boxes,可以加快网络收敛速度。在TSNet网络中 13*13*128上采样与第8层的26*26*256的特征融合,26*26*128上采样与第 5层的52*52*64特征融合,得到的特征更优更具表现力,最后检测识别的结 果也越好。最终训练的网络权重对识别效果更好。
接下来使用TS81数据集对TSNet进行训练,训练一定次数(约400000 次)后,保存权重文件,在此基础上用TS16数据集进行微调权重,再训练一 定次数(200000次),学习率下降一个量级,再训练50000次后得到最终权 重文件。经测试效果提升了一定的mAP(MeanAverage Precision),所谓的 AP是指Precision和recall曲线下的面积。mAP则是对多个验证集个体求平 均AP值,它的值越高越能代表检测识别算法的有效性。
网络训练完成后,对测试数据集进行处理。即基于图像金字塔模型对 Tsinghua-Tencent 100K原始测试数据集进行缩放到分辨率为1040*1040,制作 成为待检测数据集。
步骤8、对待检测图像进行滑动窗口处理,并将滑动窗口所截取的待检 测图像块依次送入到所得到的最终训练的TSNet检测模型中进行检测,由此 检测出存在于待检测图像块中的候选交通标志目标框和类别。
在检测识别阶段,对待检测数据进行滑动窗口算法处理,所述方法如下: 本发明制作TS16数据集,微调网络训练权重文件来提升效果,目的是能对 TS16数据集检测得到很好地效果。对原图进行检测识别的时候,传统的方法 直接将图片缩放后检测,也就是在图片失真后检测,这样会极大降低检测识 别率。如果对原图进行滑动窗口算法,416*416的网络输入,即对原图片进 行49次的滑动,会极大的降低速度,达不到实时的效果。本发明利用图像金 字塔模型,又通过对网络进行改进和微调优化,对原图缩放到1040*1040的 图像进行滑动窗口算法,由于全景图中上面一部分都是天空,下面一部分都 是大地,因此对1040*1040图片顶端进行裁掉10%,底部裁掉10%。最终经 过滑动窗口算法,步长为208,得到3*4=12张图片。
将滑动窗口算法处理后的图片输入已经训练好的TSNet网络。对经测试, 检测每张图片大约0.01s,也就是相当于检测一张原图需要0.12s。由于本发 明测试是在NVIDIAQuardo M4000 8G的硬件基础上测试,在Tesla X显卡上 测试的话,相当于本实验环境的3倍速度,即0.04s,几乎能达到实时水平, 有很大的应用前景。
步骤9、对所得到的存在于待检测图像块中的候选交通标志目标框和类 别采用DS-NMS算法进行处理,找出存在于待检测图像块中的优选交通标志 目标框。
步骤9.1、采用YOLO算法计算候选交通标志目标框的得分概率,并对 所有候选交通标志目标框的得分概率进行排序,选中得分概率最高的候选交 通标志目标框作为当前优选交通标志目标框;
步骤9.2、将其余候选交通标志目标框分别与当前优选交通标志目标框进 行比较:如果该其余候选交通标志目标框与当前优选交通标志目标框的重叠 面积大于预设阈值,则删除该其余候选交通标志目标框;否则,保留该其余 候选交通标志目标框;
步骤9.3、判断所保留的其余候选交通标志目标框是否为当前所有找出的 优选交通标志目标框的子集:如果是,则删除该其余候选交通标志目标框; 否则,执行步骤9.4;
步骤9.4、判断所有的其余候选交通标志目标框是否都被删除,如果是, 则输出所所有找出的优选交通标志目标框,否则,对保留下来的其余候选交 通标志目标框的得分概率进行排序,选中得分概率最高的候选交通标志目标 框作为当前优选交通标志目标框,并返回步骤9.2。图像经过TSNet检测的目 标框由DS-NMS(Delete Subset–Non-MaximumSuppression)来处理,最 后得到概率值最大的目标框。所述方法如下:
对于得到检测到的交通标志目标框的坐标和类别,通过提出的DS-NMS 进行处理得到最终的目标框信息。对NMS非极大值抑制算法进行改进,提出 了DS-NMS(DeleteSubset–Non-Maximum Suppression)算法。NMS算法的 过程是一个迭代-遍历-消除的过程。主要分为3步:
1.首先将所有目标框的得分概率排序,选中最高分及其对应的目标框;
2.遍历其余的目标框,如果当前目标框和最高分目标框的重叠面积(IOU)
大于一定阈值,将当前目标框删除;
3.从未处理的框中继续选一个得分概率最高的,重复上述过程。
在IOU阈值为0.45的情况下,有些候选框的产生后经过NMS算法还可 能导致会有重复框的出现。针对这个问题,本发明对NMS进行优化得到 DS-NMS,在上述第(2)步后添加一步,即遍历所有的框,如果满足条件 A∪B=A(其中A为最高置信度的候选框,B为其余框之一),则将候选框B 删除。进一步优化了识别效果。
DS-NMS算法的具体过程如下:
步骤9.1、YOLO(You Only Look Once)算法会对每个检测的每个框分 别输出对应的得分概率,对所有候选交通标志目标框的得分概率进行排序, 选中得分概率最高的候选交通标志目标框作为当前找出的优选交通标志目标 框;
步骤9.2、将其余候选交通标志目标框分别与当前优选交通标志目标框进 行比较:如果该其余候选交通标志目标框与当前优选交通标志目标框的重叠 面积大于预设阈值,则删除该其余候选交通标志目标框;否则,保留该其余 候选交通标志目标框;
步骤9.3、判断所保留的其余候选交通标志目标框是否为当前所有找出的 优选交通标志目标框的子集:如果是,则删除该其余候选交通标志目标框; 否则,执行步骤9.4;
步骤9.4、判断所有的其余候选交通标志目标框是否都被删除,如果是, 则输出所所有找出的优选交通标志目标框,否则,对保留下来的其余候选交 通标志目标框的得分概率进行排序,选中得分概率最高的候选交通标志目标 框作为第当前优选交通标志目标框,并返回步骤9.2。
步骤10、对所得到的存在于待检测图像块中的优选交通标志目标框进行 坐标换算,确定该交通标志目标框在待检测图像中的位置,由此识别出待检 测图像中交通标志目标框的位置和类别,从而完成流程,得到了很好的识别 效果和高准确度,且速度达到要求。
需要说明的是,尽管以上本发明所述的实施例是说明性的,但这并非是 对本发明的限制,因此本发明并不局限于上述具体实施方式中。在不脱离本 发明原理的情况下,凡是本领域技术人员在本发明的启示下获得的其它实施 方式,均视为在本发明的保护之内。
Claims (6)
1.实况全景交通标志的实时识别方法,其特征是,其具体包括步骤如下:
步骤1、选取带有交通标志的全景交通图像,其中全景交通图像上的每个交通标志均标注了目标框和类别;
步骤2、将步骤1的全景交通图像均匀分割为若干个原始图像块,并这些原始图像块中筛选出含有交通标志目标框的原始图像块组,并通过坐标换算重新计算交通标志目标框在每个原始图像块组的位置;
步骤3、将步骤2所筛选出的原始图像块组转换为PASCAL VOC标准数据集格式,由此得到原始训练集;该原始训练集中的图像中标注了交通标志的目标框和类别;
步骤4、对步骤1所选取的全景交通图像进行压缩,得到压缩后的全景交通图像,其中压缩后的全景交通图像上的每个交通标志均标注了目标框和类别;
步骤5、将步骤4的压缩后的全景交通图像均匀分割为若干个压缩图像块,并这些压缩图像块中筛选出含有交通标志目标框的压缩图像块组,并通过坐标换算重新计算交通标志目标框在每个压缩图像块组的位置;
步骤6、将步骤5所筛选出的压缩图像块组转换为PASCAL VOC标准数据集格式,由此得到压缩训练集;该压缩训练集中的图像中标注了交通标志的目标框和类别;
步骤7、构建TSNet检测模型,该TSNet检测模型以yolov3-tiny作为基础网络,并在此基础上添加直通层进行特征重组,通过更高尺度的特征图yolo层和中尺度特征图的yolo层进行上采样后,与网络前层的高尺度卷积层特征图进行特征融合;
步骤8、将步骤3所得到的原始训练集送入到步骤7所构建的TSNet检测模型进行训练,得到初训练的TSNet检测模型;
步骤9、将步骤6所得到的压缩训练集送入到步骤8所得到的初训练的TSNet检测模型中进行训练,得到最终训练的TSNet检测模型;
步骤10、对经过一定比例缩放处理后的待检测图像进行滑动窗口处理,并将滑动窗口所截取的待检测图像块依次送入到步骤9所得到的最终训练的TSNet检测模型中进行检测,由此检测出存在于待检测图像块中的候选交通标志目标框和类别;
步骤11、对步骤10所得到的存在于待检测图像块中的候选交通标志目标框和类别采用DS-NMS算法进行处理,找出存在于待检测图像块中的优选交通标志目标框;其具体步骤为:
步骤11.1、采用YOLO算法计算候选交通标志目标框的得分概率,并对所有候选交通标志目标框的得分概率进行排序,选中得分概率最高的候选交通标志目标框作为当前优选交通标志目标框;
步骤11.2、将其余候选交通标志目标框分别与当前优选交通标志目标框进行比较:如果该其余候选交通标志目标框与当前优选交通标志目标框的重叠面积大于预设阈值,则删除该其余候选交通标志目标框;否则,保留该其余候选交通标志目标框;
步骤11.3、判断所保留的其余候选交通标志目标框是否为当前所有找出的优选交通标志目标框的子集:如果是,则删除该其余候选交通标志目标框;否则,执行步骤11.4;
步骤11.4、判断所有的其余候选交通标志目标框是否都被删除,如果是,则输出所所有找出的优选交通标志目标框,否则,对保留下来的其余候选交通标志目标框的得分概率进行排序,选中得分概率最高的候选交通标志目标框作为当前优选交通标志目标框,并返回步骤11.2;
步骤12、对步骤11所得到的存在于待检测图像块中的优选交通标志目标框进行坐标换算,确定该交通标志目标框在待检测图像中的位置,由此识别出待检测图像中交通标志目标框的位置和类别。
2.根据权利要求1所述的实况全景交通标志的实时识别方法,其特征是,步骤2中的具体过程如下:
步骤2.1、将全景交通图像按网络输入的一半间隔均匀分割为若干个原始图像块;
步骤2.2、根据全景交通图像的标签文件,找出每个交通标志目标框的中心点;
步骤2.3、计算每个交通标志目标框的中心点所属于的原始图像块即中心原始图像块;
步骤2.4、将中心原始图像块与其周围的任意3个原始图像块进行分别组合,得到至少1个原始图像块组;
步骤2.5、通过坐标换算重新计算交通标志目标框在每个原始图像块组的位置。
3.根据权利要求2所述的实况全景交通标志的实时识别方法,其特征是,步骤2.4中,当中心原始图像块位于全景交通图像的4个顶角时,生成的原始图像块组为1个;当中心原始图像块位于全景交通图像的侧边时,生成的原始图像块组为2个;当中心原始图像块位于全景交通图像的中部时,生成的原始图像块组为4个。
4.根据权利要求1所述的实况全景交通标志的实时识别方法,其特征是,步骤5中的具体过程如下:
步骤5.1、将压缩后的全景交通图像按网络输入的一半间隔均匀分割为若干个压缩图像块;
步骤5.2、根据全景交通图像的标签文件,找出每个交通标志目标框的中心点;
步骤5.3、计算每个交通标志目标框的中心点所属于的压缩图像块即中心压缩图像块;
步骤5.4、将中心压缩图像块与其周围的任意3个压缩图像块进行分别组合,得到至少1个压缩图像块组;
步骤5.5、通过坐标换算重新计算交通标志目标框在每个压缩图像块组的位置。
5.根据权利要求4所述的实况全景交通标志的实时识别方法,其特征是,步骤5.4中,当中心压缩图像块位于全景交通图像的4个顶角时,生成的压缩图像块组为1个;当中心压缩图像块位于全景交通图像的侧边时,生成的压缩图像块组为2个;当中心压缩图像块位于全景交通图像的中部时,生成的压缩图像块组为4个。
6.根据权利要求1所述的实况全景交通标志的实时识别方法,其特征是,步骤8中,在将步骤3所得到的原始训练集送入到步骤7所构建的TSNet检测模型进行训练之前,需要使用基于距离的聚类算法K-means对原始训练集进行处理计算初始候选框区域。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811085705.2A CN109325438B (zh) | 2018-09-18 | 2018-09-18 | 实况全景交通标志的实时识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811085705.2A CN109325438B (zh) | 2018-09-18 | 2018-09-18 | 实况全景交通标志的实时识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109325438A CN109325438A (zh) | 2019-02-12 |
CN109325438B true CN109325438B (zh) | 2021-06-15 |
Family
ID=65265527
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811085705.2A Active CN109325438B (zh) | 2018-09-18 | 2018-09-18 | 实况全景交通标志的实时识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109325438B (zh) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109902609A (zh) * | 2019-02-22 | 2019-06-18 | 淮阴工学院 | 一种基于YOLOv3的交通标志检测与识别方法 |
CN109829445B (zh) * | 2019-03-01 | 2021-11-30 | 大连理工大学 | 一种视频流中的车辆检测方法 |
CN110472467A (zh) * | 2019-04-08 | 2019-11-19 | 江西理工大学 | 基于YOLO v3的针对交通枢纽关键物体的检测方法 |
CN110135307B (zh) * | 2019-04-30 | 2022-07-01 | 北京邮电大学 | 基于注意力机制的交通标志检测方法和装置 |
CN110097600B (zh) * | 2019-05-17 | 2021-08-06 | 百度在线网络技术(北京)有限公司 | 用于识别交通标志牌的方法及装置 |
CN110807430B (zh) * | 2019-11-06 | 2022-06-21 | 桂林电子科技大学 | 一种实况全景交通标志图片预处理方法 |
CN111274894A (zh) * | 2020-01-15 | 2020-06-12 | 太原科技大学 | 一种基于改进YOLOv3的人员在岗状态检测方法 |
CN111401466A (zh) * | 2020-03-26 | 2020-07-10 | 广州紫为云科技有限公司 | 一种交通标志检测与识别标注方法、装置和计算机设备 |
CN111444975B (zh) * | 2020-04-02 | 2024-02-23 | 南通大学 | 一种基于图像处理和深度学习的交通灯识别方法 |
CN111738070A (zh) * | 2020-05-14 | 2020-10-02 | 华南理工大学 | 一种多个小目标的自动准确检测方法 |
CN111737510B (zh) * | 2020-05-28 | 2024-04-16 | 杭州视在数科信息技术有限公司 | 一种面向道路交通场景图像算法的标签处理方法及应用 |
CN112215072A (zh) * | 2020-09-10 | 2021-01-12 | 华蓝设计(集团)有限公司 | 一种基于Nest DNN算法的交通标志动态循迹检测优化方法 |
CN112233071A (zh) * | 2020-09-28 | 2021-01-15 | 国网浙江省电力有限公司杭州供电公司 | 基于复杂环境下输电网图片的多粒度隐患检测方法及系统 |
CN113205019A (zh) * | 2021-04-22 | 2021-08-03 | 上海电力大学 | 一种缺陷绝缘子的检测方法 |
CN113591543B (zh) * | 2021-06-08 | 2024-03-26 | 广西综合交通大数据研究院 | 交通标志识别方法、装置、电子设备及计算机存储介质 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105809121A (zh) * | 2016-03-03 | 2016-07-27 | 电子科技大学 | 多特征协同的交通标志检测与识别方法 |
CN105930830A (zh) * | 2016-05-18 | 2016-09-07 | 大连理工大学 | 一种基于卷积神经网络的路面交通标志识别方法 |
CN105956524A (zh) * | 2016-04-22 | 2016-09-21 | 北京智芯原动科技有限公司 | 一种交通标识识别方法及装置 |
CN106326858A (zh) * | 2016-08-23 | 2017-01-11 | 北京航空航天大学 | 一种基于深度学习的公路交通标志自动识别与管理系统 |
CN106372571A (zh) * | 2016-08-18 | 2017-02-01 | 宁波傲视智绘光电科技有限公司 | 路面交通标志检测与识别方法 |
CN107133616A (zh) * | 2017-04-02 | 2017-09-05 | 南京汇川图像视觉技术有限公司 | 一种基于深度学习的无分割字符定位与识别方法 |
US9760806B1 (en) * | 2016-05-11 | 2017-09-12 | TCL Research America Inc. | Method and system for vision-centric deep-learning-based road situation analysis |
CN107316001A (zh) * | 2017-05-31 | 2017-11-03 | 天津大学 | 一种自动驾驶场景中小且密集的交通标志检测方法 |
CN107368787A (zh) * | 2017-06-16 | 2017-11-21 | 长安大学 | 一种面向深度智驾应用的交通标志识别算法 |
CN108416283A (zh) * | 2018-02-28 | 2018-08-17 | 华南理工大学 | 一种基于ssd的路面交通标志识别方法 |
-
2018
- 2018-09-18 CN CN201811085705.2A patent/CN109325438B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105809121A (zh) * | 2016-03-03 | 2016-07-27 | 电子科技大学 | 多特征协同的交通标志检测与识别方法 |
CN105956524A (zh) * | 2016-04-22 | 2016-09-21 | 北京智芯原动科技有限公司 | 一种交通标识识别方法及装置 |
US9760806B1 (en) * | 2016-05-11 | 2017-09-12 | TCL Research America Inc. | Method and system for vision-centric deep-learning-based road situation analysis |
CN107368890A (zh) * | 2016-05-11 | 2017-11-21 | Tcl集团股份有限公司 | 一种以视觉为中心的基于深度学习的路况分析方法及系统 |
CN105930830A (zh) * | 2016-05-18 | 2016-09-07 | 大连理工大学 | 一种基于卷积神经网络的路面交通标志识别方法 |
CN106372571A (zh) * | 2016-08-18 | 2017-02-01 | 宁波傲视智绘光电科技有限公司 | 路面交通标志检测与识别方法 |
CN106326858A (zh) * | 2016-08-23 | 2017-01-11 | 北京航空航天大学 | 一种基于深度学习的公路交通标志自动识别与管理系统 |
CN107133616A (zh) * | 2017-04-02 | 2017-09-05 | 南京汇川图像视觉技术有限公司 | 一种基于深度学习的无分割字符定位与识别方法 |
CN107316001A (zh) * | 2017-05-31 | 2017-11-03 | 天津大学 | 一种自动驾驶场景中小且密集的交通标志检测方法 |
CN107368787A (zh) * | 2017-06-16 | 2017-11-21 | 长安大学 | 一种面向深度智驾应用的交通标志识别算法 |
CN108416283A (zh) * | 2018-02-28 | 2018-08-17 | 华南理工大学 | 一种基于ssd的路面交通标志识别方法 |
Non-Patent Citations (3)
Title |
---|
Traffic-Sign Detection and Classification in the Wild;Zhe Zhu 等;《CVPR》;20161231;第2110-2118页 * |
YOLOv3: An Incremental Improvement;Joseph Redmon等;《arXiv》;20180408;第1-6页 * |
基于多尺度卷积神经网络的交通标志识别;宋青松 等;《湖南大学学报》;20180831;第45卷(第8期);第131-137页 * |
Also Published As
Publication number | Publication date |
---|---|
CN109325438A (zh) | 2019-02-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109325438B (zh) | 实况全景交通标志的实时识别方法 | |
CN109740465B (zh) | 一种基于实例分割神经网络框架的车道线检测算法 | |
CN111222474B (zh) | 一种任意尺度的高分辨率图像小目标检测方法 | |
CN111008562B (zh) | 一种特征图深度融合的人车目标检测方法 | |
CN105046196B (zh) | 基于级联卷积神经网络的前车车辆信息结构化输出方法 | |
CN106971185B (zh) | 一种基于全卷积网络的车牌定位方法及装置 | |
CN109345547B (zh) | 基于深度学习多任务网络的交通车道线检测方法及装置 | |
CN111967313B (zh) | 一种深度学习目标检测算法辅助的无人机图像标注方法 | |
CN111027511B (zh) | 基于感兴趣区块提取的遥感图像舰船检测方法 | |
CN103440484A (zh) | 一种适应室外大空间的火焰检测方法 | |
CN111179152A (zh) | 一种道路标识识别方法及装置、介质、终端 | |
CN111368830A (zh) | 基于多视频帧信息和核相光滤波算法的车牌检测识别方法 | |
CN110008900B (zh) | 一种由区域到目标的可见光遥感图像候选目标提取方法 | |
CN103984963B (zh) | 一种高分辨率遥感图像场景分类方法 | |
CN111626292B (zh) | 一种基于深度学习技术的楼宇指示标识的文字识别方法 | |
CN104881661A (zh) | 基于结构相似度的车辆检测方法 | |
CN106919939B (zh) | 一种交通标识牌跟踪识别方法及系统 | |
CN112784834A (zh) | 一种自然场景下的车牌自动识别方法 | |
CN109741340A (zh) | 基于fcn-aspp网络的冰盖雷达图像冰层精细化分割方法 | |
CN112949633A (zh) | 一种基于改进YOLOv3的红外目标检测方法 | |
CN101739667B (zh) | 基于非下采样轮廓波变换的遥感图像道路增强方法 | |
CN111461076A (zh) | 帧差法与神经网络结合的烟雾检测方法和检测系统 | |
CN113313128B (zh) | 一种基于改进YOLOv3网络的SAR图像目标检测方法 | |
CN112528994B (zh) | 一种自由角度车牌检测方法、车牌识别方法和识别系统 | |
CN106295643A (zh) | 机动车车牌自动识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |