CN113408454B - 一种交通目标检测方法、装置、电子设备及检测系统 - Google Patents
一种交通目标检测方法、装置、电子设备及检测系统 Download PDFInfo
- Publication number
- CN113408454B CN113408454B CN202110725830.0A CN202110725830A CN113408454B CN 113408454 B CN113408454 B CN 113408454B CN 202110725830 A CN202110725830 A CN 202110725830A CN 113408454 B CN113408454 B CN 113408454B
- Authority
- CN
- China
- Prior art keywords
- point cloud
- features
- semantic
- image
- millimeter wave
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 92
- 238000010586 diagram Methods 0.000 claims abstract description 82
- 230000004927 fusion Effects 0.000 claims abstract description 46
- 238000000034 method Methods 0.000 claims description 39
- 230000006870 function Effects 0.000 claims description 33
- 238000013507 mapping Methods 0.000 claims description 30
- 238000012937 correction Methods 0.000 claims description 24
- 238000004590 computer program Methods 0.000 claims description 18
- 238000009825 accumulation Methods 0.000 claims description 12
- 230000009466 transformation Effects 0.000 claims description 12
- 238000013135 deep learning Methods 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000000605 extraction Methods 0.000 abstract description 19
- 230000007547 defect Effects 0.000 abstract description 6
- 230000008569 process Effects 0.000 description 7
- 238000004422 calculation algorithm Methods 0.000 description 6
- 230000009471 action Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 239000006185 dispersion Substances 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000012423 maintenance Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 241001300198 Caperonia palustris Species 0.000 description 1
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- 235000000384 Veronica chamaedrys Nutrition 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000005764 inhibitory process Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Chemical & Material Sciences (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Analytical Chemistry (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Radar Systems Or Details Thereof (AREA)
- Traffic Control Systems (AREA)
Abstract
本申请实施例提供了一种交通目标检测方法、装置、电子设备及检测系统,通过对全景环视图像进行语义特征提取,得到语义热力图特征,对多帧毫米波点云数据进行累加后得到的点云累加图像进行点云特征提取,得到点云特征,然后将语义热力图特征和点云特征进行融合,基于融合后的特征即可获得交通目标的检测结果。可见,通过特征融合的方式,实现了图像采集设备与毫米波雷达融合对交通目标进行检测,能够有效综合图像采集设备和毫米波雷达的优势,弥补单一传感器的不足。
Description
技术领域
本申请涉及智能交通技术领域,特别是涉及一种交通目标检测方法、装置、电子设备及检测系统。
背景技术
随着智能交通的发展,对传感器获取数据要求越来越高,传统的单一传感器数据采集方式,已经难以满足不断增长的智慧交通应用需求。交通目标通常包含机动车、非机动车与行人。交通目标的检测已成为智慧交通中的一个关键环节。
交通领域常用的传感器包括图像采集设备与毫米波雷达。其中,图像采集设备能够捕捉交通目标的实时画面信息,但其容易受到光照、天气等因素影响,且无法获取交通目标的准确运动信息;而毫米波雷达能够全天时全天候持续获取交通目标的运动信息,但其无法获取交通目标的具体属性信息,也有一定的局限性。因此,图像采集设备与毫米波雷达的融合处理,成为解决交通环境感知的一个重要方向。
目前,基于单一传感器的目标检测依然占据主导地位,图像采集设备与毫米波雷达融合在交通目标检测方面的应用还不够充分,缺少有效的图像采集设备与毫米波雷达融合方法。
发明内容
本申请实施例的目的在于提供一种交通目标检测方法、装置、电子设备及检测系统,以实现图像采集设备与毫米波雷达融合对交通目标进行检测。具体技术方案如下:
第一方面,本申请实施例提供了一种交通目标检测方法,该方法包括:
获取图像采集设备采集的全景环视图像,以及毫米波雷达采集的多帧毫米波点云数据;
对全景环视图像进行语义特征提取,得到语义热力图特征;
将多帧毫米波点云数据进行累加,得到点云累加图像;
对点云累加图像进行点云特征提取,得到点云特征;
将语义热力图特征与点云特征进行融合,得到融合特征;
基于融合特征,获得交通目标的检测结果。
可选的,获取图像采集设备采集的全景环视图像的步骤,包括:
获取四周各视角方向的图像采集设备采集的各视角方向的图像;
对各视角方向的图像进行畸变矫正,得到畸变矫正后的各视角方向的图像;
将畸变矫正后的各视角方向的图像分别进行逆透视变换,得到多张鸟瞰图;
对得到的多张鸟瞰图进行拼接,得到全景环视图像。
可选的,对全景环视图像进行语义特征提取,得到语义热力图特征的步骤,包括:
将全景环视图像输入预先训练的高分辨率表示网络HR-Net,得到语义热力图特征。
可选的,将多帧毫米波点云数据进行累加,得到点云累加图像的步骤,包括:
将各历史帧毫米波点云数据同步至当前帧,并选取预设范围内的毫米波点云数据建立栅格图;
针对栅格图中的各栅格,统计在该栅格内的所有雷达点数作为该栅格的特征;
根据各栅格的特征,利用对数函数映射,计算经过映射后的各栅格的特征;
将经过映射后的各栅格的特征映射至RGB空间,得到点云累加图像。
可选的,对点云累加图像进行点云特征提取,得到点云特征的步骤,包括:
将点云累加图像输入深度学习目标检测模型YOLOv3,得到多种尺度的点云特征。
可选的,在将语义热力图特征与点云特征进行融合,得到融合特征的步骤之前,该方法还包括:
根据多种尺度,对语义热力图特征进行降采样,得到各尺度的语义热力图特征;
将语义热力图特征与点云特征进行融合,得到融合特征的步骤,包括:
将相同尺度的语义热力图特征与点云特征进行融合,得到融合特征。
可选的,基于融合特征,获得交通目标的检测结果的步骤,包括:
将融合特征输入卷积层,得到交通目标的目标框检测结果,其中,目标框检测结果包括:目标框的中心点坐标、目标框的长度和宽度、目标框旋转角的三角函数值;
对三角函数值进行反三角函数计算,得到目标框的旋转角。
第二方面,本申请实施例提供了一种交通目标检测装置,该装置包括:
数据采集模块,用于获取图像采集设备采集的全景环视图像,以及毫米波雷达采集的多帧毫米波点云数据;
图像预测模块,用于对全景环视图像进行语义特征提取,得到语义热力图特征;
多帧累加模块,用于将多帧毫米波点云数据进行累加,得到点云累加图像;
特征编码模块,用于对点云累加图像进行点云特征提取,得到点云特征;
特征融合模块,用于将语义热力图特征与点云特征进行融合,得到融合特征;
回归预测模块,用于基于融合特征,获得交通目标的检测结果。
可选的,该装置还包括:
投影变换模块,用于获取四周各视角方向的图像采集设备采集的各视角方向的图像;对各视角方向的图像进行畸变矫正,得到畸变矫正后的各视角方向的图像;将畸变矫正后的各视角方向的图像分别进行逆透视变换,得到多张鸟瞰图;对得到的多张鸟瞰图进行拼接,得到全景环视图像。
可选的,图像预测模块,具体用于:将全景环视图像输入预先训练的高分辨率表示网络HR-Net,得到语义热力图特征。
可选的,多帧累加模块,具体用于:将各历史帧毫米波点云数据同步至当前帧,并选取预设范围内的毫米波点云数据建立栅格图;针对栅格图中的各栅格,统计在该栅格内的所有雷达点数作为该栅格的特征;根据各栅格的特征,利用对数函数映射,计算经过映射后的各栅格的特征;将经过映射后的各栅格的特征映射至RGB空间,得到点云累加图像。
可选的,特征编码模块,具体用于:将点云累加图像输入深度学习目标检测模型YOLOv3,得到多种尺度的点云特征。
可选的,特征融合模块,具体用于:根据多种尺度,对语义热力图特征进行降采样,得到各尺度的语义热力图特征;将相同尺度的语义热力图特征与点云特征进行融合,得到融合特征。
可选的,回归预测模块,具体用于:将融合特征输入卷积层,得到交通目标的目标框检测结果,其中,目标框检测结果包括:目标框的中心点坐标、目标框的长度和宽度、目标框旋转角的三角函数值;对三角函数值进行反三角函数计算,得到目标框的旋转角。
第三方面,本申请实施例提供了一种电子设备,包括处理器和存储器;其中,存储器,用于存放计算机程序;处理器,用于执行存储器上所存放的计算机程序时,实现本申请实施例第一方面提供的方法。
第四方面,本申请实施例提供了一种机器可读存储介质,机器可读存储介质内存储有计算机程序,计算机程序被处理器执行时实现本申请实施例第一方面提供的方法。
第五方面,本申请实施例提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行本申请实施例第一方面提供的方法。
第六方面,本申请实施例提供了一种检测系统,该系统包括本申请实施例第三方面提供的电子设备、图像采集设备及毫米波雷达。
本申请实施例提供的交通目标检测方法、装置、电子设备及检测系统中,获取图像采集设备采集的全景环视图像,以及毫米波雷达采集的多帧毫米波点云数据,对全景环视图像进行语义特征提取,得到语义热力图特征,将多帧毫米波点云数据进行累加,得到点云累加图像,对点云累加图像进行点云特征提取,得到点云特征,将语义热力图特征与点云特征进行融合,得到融合特征,基于融合特征,获得交通目标的检测结果。
通过对全景环视图像进行语义特征提取,得到语义热力图特征,对多帧毫米波点云数据进行累加后得到的点云累加图像进行点云特征提取,得到点云特征,然后将语义热力图特征和点云特征进行融合,基于融合后的特征即可获得交通目标的检测结果。可见,通过特征融合的方式,实现了图像采集设备与毫米波雷达融合对交通目标进行检测,能够有效综合图像采集设备和毫米波雷达的优势,弥补单一传感器的不足。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,还可以根据这些附图获得其他的实施例。
图1为本申请实施例的交通目标检测方法的流程示意图;
图2为本申请实施例的鱼眼图像到全景环视图像的投影示意图;
图3为本申请实施例的HR-Net网络结构示意图;
图4为本申请实施例的坐标系转化示意图;
图5为本申请实施例的YOLO v3的简化网络结构示意图;
图6为本申请实施例的交通目标检测方法的整体流程示意图;
图7为本申请实施例的交通目标检测装置的结构示意图;
图8为本申请实施例的电子设备的结构示意图;
图9为本申请实施例的检测系统的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员基于本申请所获得的所有其他实施例,都属于本申请保护的范围。
为了实现图像采集设备与毫米波雷达融合对交通目标进行检测,本申请实施例提供了一种交通目标检测方法、装置、电子设备及检测系统。下面,首先对本申请实施例所提供的交通目标检测方法进行介绍。
本申请实施例所提供的交通目标检测方法的执行主体可以为具有交通目标检测功能的电子设备,具体可以为自动驾驶车辆的中控机(也可称为驾驶脑设备)。实现本申请实施例所提供的交通目标检测方法的方式可以为设置于上述执行主体中的软件、硬件电路和逻辑电路中的至少一种。
如图1所示,本申请实施例所提供的一种交通目标检测方法,可以包括如下步骤。
S101,获取图像采集设备采集的全景环视图像,以及毫米波雷达采集的多帧毫米波点云数据。
S102,对全景环视图像进行语义特征提取,得到语义热力图特征。
S103,将多帧毫米波点云数据进行累加,得到点云累加图像。
S104,对点云累加图像进行点云特征提取,得到点云特征。
S105,将语义热力图特征与点云特征进行融合,得到融合特征。
S106,基于融合特征,获得交通目标的检测结果。
应用本申请实施例的方案,通过对全景环视图像进行语义特征提取,得到语义热力图特征,对多帧毫米波点云数据进行累加后得到的点云累加图像进行点云特征提取,得到点云特征,然后将语义热力图特征和点云特征进行融合,基于融合后的特征即可获得交通目标的检测结果。可见,通过特征融合的方式,实现了图像采集设备与毫米波雷达融合对交通目标进行检测,能够有效综合图像采集设备和毫米波雷达的优势,弥补单一传感器的不足。
相较于目标级融合,即通过深度学习获得图像目标列表,通过对毫米波雷达速度分析结合连续帧关联方式,形成航迹点与图像目标点关联,这种目标级融合方式属于后融合,很大程度受到图像目标检测性能的制约,并且后融合的逻辑运算复杂,不利于开发维护。而本申请实施例的融合方式是特征级融合,即将语义热力图特征和点云特征进行融合,逻辑运算更为简单,利于开发维护。并且,毫米波雷达虽然具有较高的定位精度,但是单帧的毫米波雷达点云特征存在稀疏、离散等问题,直接作为特征与语义热力图特征进行融合,对目标检测性能的提升相当有限,而在本申请实施例中,获取毫米波雷达采集的多帧毫米波点云数据,将多帧毫米波点云数据进行累加,得到点云累加图像,对点云累加图像进行点云特征提取,得到点云特征,然后再将点云特征与语义热力图特征进行融合,解决了单帧毫米波雷达点云特征稀疏、离散等问题,提升了目标检测性能。
在自动驾驶的场景下,一般在自动驾驶车辆上安装有图像采集设备和毫米波雷达,图像采集设备用于采集车辆周围的场景图像,毫米波雷达用于通过发射毫米波雷达获得毫米波点云数据。在本申请实施例中,由于是对自动驾驶车辆四周的场景进行检测,因此,需要获取图像采集设备采集的全景环视图像,全景环视图像指的就是自动驾驶车辆所处场景下四周的全景图像。
在本申请实施例的一种实现方式中,获取图像采集设备采集的全景环视图像的步骤,具体可以为:获取四周各视角方向的图像采集设备采集的各视角方向的图像;对各视角方向的图像进行畸变矫正,得到畸变矫正后的各视角方向的图像;将畸变矫正后的各视角方向的图像分别进行逆透视变换,得到多张鸟瞰图;对得到的多张鸟瞰图进行拼接,得到全景环视图像。
一般情况下,自动驾驶车辆的四周各个视角方向都安装有图像采集设备,该图像采集设备可以为鱼眼相机,例如,在车辆左右后视镜最外端、汽车引擎盖、进气格栅交界线中心、后车牌下边缘中心处安装有图像采集设备,或者,可以在车辆的车顶设置各个视角方向的图像采集设备。固定好安装位置后,分别对各图像采集设备进行标定,采用两阶段标定法,首先采用球面透视投影法进行相机标定,得到畸变矫正系数,将畸变矫正之后的图像再用张正友标定法进行二次标定,得到图像采集设备的内、外参,以此来进行图像采集,在采集到各视角方向的图像之后,对各视角方向的图像进行畸变矫正,具体的,可以采用多项式模型矫正法对各视角方向的图像进行畸变矫正。
在得到畸变矫正后的各视角方向的图像后,将畸变矫正后的各视角方向的图像分别进行逆透视变换,具体的,在各视角方向分别放置一个黑白棋盘格,在各视角方向的棋盘格中,通过基于自动标定法的算法自动寻找角点,每个方向分别选取4个点,分别测量各视角方向的4个点的像素坐标,并测量每个像素点对应的世界坐标;在各视角方向上,通过每个视角方向上的四对坐标点的映射关系,求出每个视角方向的单应性矩阵;通过每个视角方向的单应性矩阵分别对各视角方向的图像进行逆透视变换,得到各视角方向的鸟瞰图。
对得到的多张鸟瞰图进行拼接,即可得到全景环视图像,具体的,可以采用基于掩膜剪裁的方法对畸变矫正后的各视角方向的图像进行拼接,在各视角方向的图像采集设备的相对位置完全固定的条件下,分别设置各视角方向的图像的掩膜,对图像进行裁剪,基于统一坐标系,将裁剪之后的多张鸟瞰图进行坐标变换,再进行实时拼接。
以自动驾驶车辆前端、左侧、右侧、后端四个方向设置有鱼眼相机为例,采集的图像包括前视图像、后视图像、左视图像以及右视图像,通过畸变矫正和逆透视变换,可以将四张图像拼接并投影到世界坐标系上获得全景环视图像,如图2所示。
在获取到全景环视图像后,需要对全景环视图像进行语义特征提取,具体可以采用基于神经网络的算法或者基于特征匹配的算法等,这里不做具体限定。
在本申请实施例的一种实现方式中,S102具体可以为:将全景环视图像输入预先训练的高分辨率表示网络HR-Net,得到语义热力图特征。
为了获得较为准确的语义热力图特征,本申请实施例采用HR-Net,区别于一般的网络串联不同分辨率的形式,HR-Net将不同分辨率的特征图进行并联,并在其基础上,通过多分辨率子图之间反复的信息交互来实现多尺度的融合。最后通过级联获得原始图像尺寸的语义热力图特征。HR-Net网络结构如图3所示。由于图像图像检测出的语义热力图特征是低精度的,因此,在网络训练过程中需要对真值点进行高斯模糊处理,具体是在提取真值时进行高斯模糊,然后基于高斯模糊后的真值进行模型训练。通过HR-Net能够有效提取出全景环视图像在世界坐标系下的语义信息。
针对于毫米波雷达采集的多帧毫米波点云数据,需要将毫米波雷达点云数据进行多帧累加,由于交通目标的位置和朝向不断在变化,需要对历史帧的毫米波点云数据进行补偿,补偿的坐标系转化如图4所示,通过图4的坐标系变换,可获得p点在X’Y’坐标系下的新坐标。
在本申请实施例的一种实现方式中,S103具体可以为:将各历史帧毫米波点云数据同步至当前帧,并选取预设范围内的毫米波点云数据建立栅格图;针对栅格图中的各栅格,统计在该栅格内的所有雷达点数作为该栅格的特征;根据各栅格的特征,利用对数函数映射,计算经过映射后的各栅格的特征;将经过映射后的各栅格的特征映射至RGB空间,得到点云累加图像。
当历史帧雷达同步到最新帧后,取车身前后左右预设距离范围(例如15m范围)的毫米波点云建立栅格图,用落在栅格(x’,y’)内的雷达点云个数n表征每个栅格的特征,同时将特征映射到RGB空间,获得点云BEV图,即:
f:(x,y,n)→(x',y',R,G,B)
原始毫米波点云存在很多噪点,并且交通目标相距较近时,由于毫米波雷达分辨率等问题容易造成点云粘连。通过BEV图后处理方式如图像滤波等会造成分辨率下降,特征丢失等问题。因此需要将滤波处理在特征映射过程中处理。通常采用的是线性映射y=kx、对数函数y=log(x+1)、以及幂函数y=xa。显然对于线性映射,RGB图一对一保留了所有的点云数据,对数函数能够有效削弱高密度点云造成的点云粘连问题,但同时会导致噪点权重增大;幂函数能增强目标的高密度区的轮廓信息,但是对于积累较少的点云具有较强的抑制作用。从网络学习难易程度考虑,特征保留的越多,且特征之间的相互干扰越小,对网络学习越有利,因此这里采用对数函数进行积累。
实际过程是先累加,再映射,即比如某个栅格中包含了历史帧100个点,当前帧10个点,那么,该栅格一共110个点,经过映射后该栅格的特征为log(111)。然后把log(111)映射到RGB空间;再更新一帧后,该栅格包含历史帧110个点,当前帧5个点,那么,该栅格一共115个点,经过映射后该栅格的特征为log(116)。
在得到点云累加图像后,需要对点云累加图像进行点云特征提取,具体可以采用基于神经网络的算法或者基于特征匹配的算法等,这里不做具体限定。
在本申请实施例的一种实现方式中,S104具体可以为:将点云累加图像输入深度学习目标检测模型YOLOv3,得到多种尺度的点云特征。
点云累加图像为二维的RGB图像,因此考虑采用目标检测算法对该RGB图进行特征编码。具体可以采用YOLOv3的简化网络进行目标检测,YOLOv3的简化网络结构图如图5所示,其中,输入的点云累加图像为BEV(Bird Eye View,鸟瞰图),CBR包括卷积层Conv、BN(Batch Normalization,分批归一化)层和Relu(Rectified Linear Unit,线性整流函数)层,CR包括卷积层Conv和Relu层,concat为融合模块,得到三种尺度的点云数据P5、P4和P3。为了有效检测不同尺寸的交通目标,引入FPN(Feature Pyramid Network,特征金字塔网络)层生成三种尺度的点云特征,当然,尺度的数量不仅限于三种。通过YOLOv3能够有效提取出毫米波高精度的定位信息与朝向信息。
在得到语义热力图特征和点云特征后,可通过特征级联的方式将两者进行融合,得到融合特征。由于上述点云特征可能是多种尺度的,因此,在S105之前,该方法还包括:根据多种尺度,对语义热力图特征进行降采样,得到各尺度的语义热力图特征。
例如得到三种尺度的点云数据,分别是38×38、19×19、76×76,而语义热力图特征是124×124的,则可以根据上述三种尺度,对124×124的语义热力图特征进行降采样,得到38×38、19×19和76×76的语义热力图特征。
相应的,S105具体可以为:将相同尺度的语义热力图特征与点云特征进行融合,得到融合特征。具体的融合方式可以为concat,将两者直接拼接。
在得到融合特征后,基于该融合特征即可获得交通目标的检测结果。具体的,将融合特征直接输入一层卷积层即可获得最终检测的结果。
在本申请实施例的一种实现方式中,S106具体可以为:将融合特征输入卷积层,得到交通目标的目标框检测结果,其中,目标框检测结果包括:目标框的中心点坐标、目标框的长度和宽度、目标框旋转角的三角函数值;对三角函数值进行反三角函数计算,得到目标框的旋转角。
二维目标框的尺度由(x,y,l,w,θ)表示,其中,(x,y)表示目标框的中心点坐标,(l,w)表示目标框的长度和宽度,θ表示目标框的旋转角,通过最后一层的卷积层,得到的最后一个参数一般为一个三角函数值,是一个-1~1的数值,为了有效回归旋转角,考虑到角度具有周期性,因此采用回归角度的三角函数方式,也就是对三角函数值进行反三角函数计算,即可得到目标框的旋转角度θ。
综上,本申请实施例的交通目标检测方法的整体流程如图6所示,包括图像特征分支和毫米波雷达特征分支,图像特征分支包括投影变换和图像目标检测,具体是对各视角方向的图像进行投影变换,得到全景环视图像,再对全景环视图像进行目标检测得到语义热力图特征;毫米波雷达特征分支包括多帧累加和目标检测,具体是对多帧毫米波点云数据进行累加,得到点云累加图像,再对点云累加图像进行目标检测得到点云特征。两个分支分别获得的语义热力图特征和点云特征通过特征融合后,对得到的融合特征进行回归预测,得到交通目标的检测结果(即二维的目标框)。
相应于上述方法实施例,本申请实施例提供了一种交通目标检测装置,如图7所示,该装置可以包括:
数据采集模块710,用于获取图像采集设备采集的全景环视图像,以及毫米波雷达采集的多帧毫米波点云数据;
图像预测模块720,用于对全景环视图像进行语义特征提取,得到语义热力图特征;
多帧累加模块730,用于将多帧毫米波点云数据进行累加,得到点云累加图像;
特征编码模块740,用于对点云累加图像进行点云特征提取,得到点云特征;
特征融合模块750,用于将语义热力图特征与点云特征进行融合,得到融合特征;
回归预测模块760,用于基于融合特征,获得交通目标的检测结果。
可选的,该装置还可以包括:投影变换模块,用于获取四周各视角方向的图像采集设备采集的各视角方向的图像;对各视角方向的图像进行畸变矫正,得到畸变矫正后的各视角方向的图像;将畸变矫正后的各视角方向的图像分别进行逆透视变换,得到多张鸟瞰图;对得到的多张鸟瞰图进行拼接,得到全景环视图像。
可选的,图像预测模块720,具体可以用于:将全景环视图像输入预先训练的高分辨率表示网络HR-Net,得到语义热力图特征。
可选的,多帧累加模块730,具体可以用于:将各历史帧毫米波点云数据同步至当前帧,并选取预设范围内的毫米波点云数据建立栅格图;针对栅格图中的各栅格,统计在该栅格内的所有雷达点数作为该栅格的特征;根据各栅格的特征,利用对数函数映射,计算经过映射后的各栅格的特征;将经过映射后的各栅格的特征映射至RGB空间,得到点云累加图像。
可选的,特征编码模块740,具体可以用于:将点云累加图像输入深度学习目标检测模型YOLOv3,得到多种尺度的点云特征。
可选的,特征融合模块750,具体可以用于:根据多种尺度,对语义热力图特征进行降采样,得到各尺度的语义热力图特征;将相同尺度的语义热力图特征与点云特征进行融合,得到融合特征。
可选的,回归预测模块760,具体可以用于:将融合特征输入卷积层,得到交通目标的目标框检测结果,其中,目标框检测结果包括:目标框的中心点坐标、目标框的长度和宽度、目标框旋转角的三角函数值;对三角函数值进行反三角函数计算,得到目标框的旋转角。
应用本申请实施例的方案,通过对全景环视图像进行语义特征提取,得到语义热力图特征,对多帧毫米波点云数据进行累加后得到的点云累加图像进行点云特征提取,得到点云特征,然后将语义热力图特征和点云特征进行融合,基于融合后的特征即可获得交通目标的检测结果。可见,通过特征融合的方式,实现了图像采集设备与毫米波雷达融合对交通目标进行检测,能够有效综合图像采集设备和毫米波雷达的优势,弥补单一传感器的不足,具有较高的环视检测准确率和检出率。
本申请实施例还提供了一种电子设备,如图8所示,包括处理器801和存储器802;其中,存储器802,用于存放计算机程序;处理器801,用于执行存储器802上所存放的计算机程序时,实现上述交通目标检测方法。
上述存储器可以包括RAM(Random Access Memory,随机存取存储器),也可以包括NVM(Non-volatile Memory,非易失性存储器),例如至少一个磁盘存储器。可选的,存储器还可以是至少一个位于远离上述处理器的存储装置。
上述处理器可以是通用处理器,包括CPU(Central Processing Unit,中央处理单元)、NP(Network Processor,网络处理器)等;还可以是DSP(Digital Signal Processing,数字信号处理器)、ASIC(Application Specific Integrated Circuit,专用集成电路)、FPGA(Field-Programmable Gate Array,现场可编程门阵列),或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
本实施例中,上述处理器通过读取存储器中存储的计算机程序,并通过运行计算机程序,能够实现:通过对全景环视图像进行语义特征提取,得到语义热力图特征,对多帧毫米波点云数据进行累加后得到的点云累加图像进行点云特征提取,得到点云特征,然后将语义热力图特征和点云特征进行融合,基于融合后的特征即可获得交通目标的检测结果。可见,通过特征融合的方式,实现了图像采集设备与毫米波雷达融合对交通目标进行检测,能够有效综合图像采集设备和毫米波雷达的优势,弥补单一传感器的不足,具有较高的环视检测准确率和检出率。
另外,本申请实施例提供了一种机器可读存储介质,机器可读存储介质内存储有计算机程序,计算机程序被处理器执行时实现上述交通目标检测方法。
本实施例中,计算机可读存储介质存储有在运行时执行本申请实施例所提供的交通目标检测方法的计算机程序,因此能够实现:通过对全景环视图像进行语义特征提取,得到语义热力图特征,对多帧毫米波点云数据进行累加后得到的点云累加图像进行点云特征提取,得到点云特征,然后将语义热力图特征和点云特征进行融合,基于融合后的特征即可获得交通目标的检测结果。可见,通过特征融合的方式,实现了图像采集设备与毫米波雷达融合对交通目标进行检测,能够有效综合图像采集设备和毫米波雷达的优势,弥补单一传感器的不足,具有较高的环视检测准确率和检出率。
本申请实施例提供的又一实施例中,还了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述交通目标检测方法。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本申请实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、DSL(Digital Subscriber Line,数字用户线))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质(例如软盘、硬盘、磁带)、光介质(例如DVD(DigitalVersatile Disc,数字多功能光盘))、或者半导体介质(例如SSD(Solid State Disk,固态硬盘))等。
本申请实施例提供了一种检测系统,如图9所示,该系统包括电子设备901、图像采集设备902及毫米波雷达903。电子设备如图8所示,图像采集设备用于采集图像,并将采集的图像发送至电子设备,毫米波雷达用于采集毫米波点云数据,并将采集的毫米波点云数据发送至电子设备。在自动驾驶场景下,该检测系统即为自动驾驶车辆。
对于交通目标检测装置、电子设备、机器可读存储介质、计算机程序产品、检测系统实施例而言,由于其所涉及的方法内容基本相似于前述的方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本说明书中的各个实施例均采用相关的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于交通目标检测装置、电子设备、机器可读存储介质、计算机程序产品、检测系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本申请的较佳实施例,并非用于限定本申请的保护范围。凡在本申请的精神和原则之内所作的任何修改、等同替换、改进等,均包含在本申请的保护范围内。
Claims (6)
1.一种交通目标检测方法,其特征在于,所述方法包括:
获取图像采集设备采集的全景环视图像,以及毫米波雷达采集的多帧毫米波点云数据;
对所述全景环视图像进行语义特征提取,得到语义热力图特征;
将所述多帧毫米波点云数据进行累加,得到点云累加图像;
对所述点云累加图像进行点云特征提取,得到点云特征;
将所述语义热力图特征与所述点云特征进行融合,得到融合特征;
基于所述融合特征,获得交通目标的检测结果;
所述将所述多帧毫米波点云数据进行累加,得到点云累加图像的步骤,包括:
将各历史帧毫米波点云数据同步至当前帧,并选取预设范围内的毫米波点云数据建立栅格图;
针对所述栅格图中的各栅格,统计在该栅格内的所有雷达点数作为该栅格的特征;
根据所述各栅格的特征,利用对数函数映射,计算经过映射后的各栅格的特征;
将所述经过映射后的各栅格的特征映射至RGB空间,得到点云累加图像;
所述对所述点云累加图像进行点云特征提取,得到点云特征的步骤,包括:
将所述点云累加图像输入深度学习目标检测模型YOLOv3,得到多种尺度的点云特征;
在所述将所述语义热力图特征与所述点云特征进行融合,得到融合特征的步骤之前,所述方法还包括:
根据所述多种尺度,对所述语义热力图特征进行降采样,得到各尺度的语义热力图特征;
所述将所述语义热力图特征与所述点云特征进行融合,得到融合特征的步骤,包括:
将相同尺度的语义热力图特征与点云特征进行融合,得到融合特征;
所述对所述全景环视图像进行语义特征提取,得到语义热力图特征的步骤,包括:
将所述全景环视图像输入预先训练的高分辨率表示网络HR-Net,得到语义热力图特征。
2.根据权利要求1所述的方法,其特征在于,所述获取图像采集设备采集的全景环视图像的步骤,包括:
获取四周各视角方向的图像采集设备采集的各视角方向的图像;
对所述各视角方向的图像进行畸变矫正,得到畸变矫正后的各视角方向的图像;
将畸变矫正后的各视角方向的图像分别进行逆透视变换,得到多张鸟瞰图;
对得到的多张鸟瞰图进行拼接,得到全景环视图像。
3.根据权利要求1所述的方法,其特征在于,所述基于所述融合特征,获得交通目标的检测结果的步骤,包括:
将所述融合特征输入卷积层,得到交通目标的目标框检测结果,其中,所述目标框检测结果包括:目标框的中心点坐标、所述目标框的长度和宽度、所述目标框旋转角的三角函数值;
对所述三角函数值进行反三角函数计算,得到所述目标框的旋转角。
4.一种交通目标检测装置,其特征在于,所述装置包括:
数据采集模块,用于获取图像采集设备采集的全景环视图像,以及毫米波雷达采集的多帧毫米波点云数据;
图像预测模块,用于对所述全景环视图像进行语义特征提取,得到语义热力图特征;
多帧累加模块,用于将所述多帧毫米波点云数据进行累加,得到点云累加图像;
特征编码模块,用于对所述点云累加图像进行点云特征提取,得到点云特征;
特征融合模块,用于将所述语义热力图特征与所述点云特征进行融合,得到融合特征;
回归预测模块,用于基于所述融合特征,获得交通目标的检测结果;
多帧累加模块,具体用于:将各历史帧毫米波点云数据同步至当前帧,并选取预设范围内的毫米波点云数据建立栅格图;针对栅格图中的各栅格,统计在该栅格内的所有雷达点数作为该栅格的特征;根据各栅格的特征,利用对数函数映射,计算经过映射后的各栅格的特征;将经过映射后的各栅格的特征映射至RGB空间,得到点云累加图像;
所述特征编码模块具体用于:将点云累加图像输入深度学习目标检测模型YOLOv3,得到多种尺度的点云特征;所述特征融合模块具体用于:根据多种尺度,对语义热力图特征进行降采样,得到各尺度的语义热力图特征;将相同尺度的语义热力图特征与点云特征进行融合,得到融合特征;
所述图像预测模块具体可以用于:将全景环视图像输入预先训练的高分辨率表示网络HR-Net,得到语义热力图特征。
5.一种电子设备,其特征在于,包括处理器和存储器;
所述存储器,用于存放计算机程序;
所述处理器,用于执行所述存储器上所存放的计算机程序时,实现权利要求1-3任一项所述的方法。
6.一种检测系统,其特征在于,所述系统包括如权利要求5所述的电子设备、图像采集设备及毫米波雷达。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110725830.0A CN113408454B (zh) | 2021-06-29 | 2021-06-29 | 一种交通目标检测方法、装置、电子设备及检测系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110725830.0A CN113408454B (zh) | 2021-06-29 | 2021-06-29 | 一种交通目标检测方法、装置、电子设备及检测系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113408454A CN113408454A (zh) | 2021-09-17 |
CN113408454B true CN113408454B (zh) | 2024-02-06 |
Family
ID=77680069
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110725830.0A Active CN113408454B (zh) | 2021-06-29 | 2021-06-29 | 一种交通目标检测方法、装置、电子设备及检测系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113408454B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115965928B (zh) * | 2023-03-16 | 2023-07-07 | 安徽蔚来智驾科技有限公司 | 点云特征增强、目标检测方法、设备、介质及车辆 |
CN117058646B (zh) * | 2023-10-11 | 2024-02-27 | 南京工业大学 | 基于多模态融合鸟瞰图的复杂道路目标检测方法 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108229366A (zh) * | 2017-12-28 | 2018-06-29 | 北京航空航天大学 | 基于雷达和图像数据融合的深度学习车载障碍物检测方法 |
CN109948661A (zh) * | 2019-02-27 | 2019-06-28 | 江苏大学 | 一种基于多传感器融合的3d车辆检测方法 |
CN111369439A (zh) * | 2020-02-29 | 2020-07-03 | 华南理工大学 | 基于环视的自动泊车车位识别全景环视图像实时拼接方法 |
CN111723721A (zh) * | 2020-06-15 | 2020-09-29 | 中国传媒大学 | 基于rgb-d的三维目标检测方法、系统及装置 |
CN111832655A (zh) * | 2020-07-16 | 2020-10-27 | 四川大学 | 一种基于特征金字塔网络的多尺度三维目标检测方法 |
CN112184589A (zh) * | 2020-09-30 | 2021-01-05 | 清华大学 | 一种基于语义分割的点云强度补全方法及系统 |
CN112287859A (zh) * | 2020-11-03 | 2021-01-29 | 北京京东乾石科技有限公司 | 物体识别方法、装置和系统,计算机可读存储介质 |
CN112560972A (zh) * | 2020-12-21 | 2021-03-26 | 北京航空航天大学 | 基于毫米波雷达先验定位和视觉特征融合的目标检测方法 |
WO2021062581A1 (zh) * | 2019-09-30 | 2021-04-08 | 深圳市大疆创新科技有限公司 | 路面标识识别方法及装置 |
WO2021072710A1 (zh) * | 2019-10-17 | 2021-04-22 | 深圳市大疆创新科技有限公司 | 移动物体的点云融合方法、系统及计算机存储介质 |
CN112835037A (zh) * | 2020-12-29 | 2021-05-25 | 清华大学 | 一种基于视觉和毫米波融合的全天候目标检测方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11462023B2 (en) * | 2019-11-14 | 2022-10-04 | Toyota Research Institute, Inc. | Systems and methods for 3D object detection |
-
2021
- 2021-06-29 CN CN202110725830.0A patent/CN113408454B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108229366A (zh) * | 2017-12-28 | 2018-06-29 | 北京航空航天大学 | 基于雷达和图像数据融合的深度学习车载障碍物检测方法 |
CN109948661A (zh) * | 2019-02-27 | 2019-06-28 | 江苏大学 | 一种基于多传感器融合的3d车辆检测方法 |
WO2021062581A1 (zh) * | 2019-09-30 | 2021-04-08 | 深圳市大疆创新科技有限公司 | 路面标识识别方法及装置 |
WO2021072710A1 (zh) * | 2019-10-17 | 2021-04-22 | 深圳市大疆创新科技有限公司 | 移动物体的点云融合方法、系统及计算机存储介质 |
CN111369439A (zh) * | 2020-02-29 | 2020-07-03 | 华南理工大学 | 基于环视的自动泊车车位识别全景环视图像实时拼接方法 |
CN111723721A (zh) * | 2020-06-15 | 2020-09-29 | 中国传媒大学 | 基于rgb-d的三维目标检测方法、系统及装置 |
CN111832655A (zh) * | 2020-07-16 | 2020-10-27 | 四川大学 | 一种基于特征金字塔网络的多尺度三维目标检测方法 |
CN112184589A (zh) * | 2020-09-30 | 2021-01-05 | 清华大学 | 一种基于语义分割的点云强度补全方法及系统 |
CN112287859A (zh) * | 2020-11-03 | 2021-01-29 | 北京京东乾石科技有限公司 | 物体识别方法、装置和系统,计算机可读存储介质 |
CN112560972A (zh) * | 2020-12-21 | 2021-03-26 | 北京航空航天大学 | 基于毫米波雷达先验定位和视觉特征融合的目标检测方法 |
CN112835037A (zh) * | 2020-12-29 | 2021-05-25 | 清华大学 | 一种基于视觉和毫米波融合的全天候目标检测方法 |
Non-Patent Citations (2)
Title |
---|
Deep High-Resolution Representation Learning for Visual Recognition;Jingdong Wang等;《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》;20200401;全文 * |
基于激光与视觉信息融合的运动目标检测关键技术研究;陈明;《万方数据》;20200828;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN113408454A (zh) | 2021-09-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113408454B (zh) | 一种交通目标检测方法、装置、电子设备及检测系统 | |
CN112580561B (zh) | 目标检测方法、装置、电子设备及存储介质 | |
CN113313763B (zh) | 一种基于神经网络的单目相机位姿优化方法及装置 | |
CN112602091A (zh) | 使用针对不同图像场训练的多个神经网络进行物体检测 | |
CN107563961A (zh) | 一种基于相机传感器的动目标检测的系统及方法 | |
CN111985300B (zh) | 自动驾驶动态目标定位方法、装置、电子设备及存储介质 | |
CN111553956A (zh) | 拍摄装置的标定方法、装置、电子设备和存储介质 | |
CN115761668A (zh) | 摄像头的污渍识别方法、装置、车辆及存储介质 | |
CN115546681A (zh) | 一种基于事件和帧的异步特征跟踪方法和系统 | |
CN116563384A (zh) | 一种图像采集装置标定方法、设备及计算机设备 | |
CN115097419A (zh) | 一种激光雷达到imu的外参标定方法及装置 | |
CN116645508A (zh) | 基于局部窗口交叉注意力的轻量型语义目标分割方法 | |
CN114648639B (zh) | 一种目标车辆的检测方法、系统及装置 | |
CN114863096B (zh) | 室内停车场的语义地图构建及定位方法和装置 | |
CN115909285A (zh) | 一种雷达和视频信号融合的车辆跟踪方法 | |
CN115825946A (zh) | 基于无监督学习的毫米波雷达测距方法及装置 | |
CN115249269A (zh) | 目标检测方法、计算机程序产品、存储介质及电子设备 | |
CN115018926A (zh) | 车载相机的俯仰角确定方法、装置、设备和存储介质 | |
CN115829890A (zh) | 一种图像融合方法、装置、设备、存储介质及产品 | |
CN114445644A (zh) | 激光点云参数化语义特征匹配方法、装置、设备和存储介质 | |
CN114612999A (zh) | 一种目标行为分类方法、存储介质及终端 | |
CN113255405A (zh) | 车位线识别方法及其系统、车位线识别设备、存储介质 | |
CN115661556B (zh) | 一种图像处理方法、装置、电子设备及存储介质 | |
CN113506264B (zh) | 道路车辆数识别方法和装置 | |
CN117152707B (zh) | 一种车辆偏移距离的计算方法、装置以及处理设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |