CN112684424A - 一种毫米波雷达与相机的自动标定方法 - Google Patents
一种毫米波雷达与相机的自动标定方法 Download PDFInfo
- Publication number
- CN112684424A CN112684424A CN202011629588.9A CN202011629588A CN112684424A CN 112684424 A CN112684424 A CN 112684424A CN 202011629588 A CN202011629588 A CN 202011629588A CN 112684424 A CN112684424 A CN 112684424A
- Authority
- CN
- China
- Prior art keywords
- camera
- millimeter wave
- target point
- wave radar
- radar
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/10—Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation
Landscapes
- Radar Systems Or Details Thereof (AREA)
Abstract
本发明涉及一种毫米波雷达与相机的自动标定方法,包括以下步骤:1)在毫米波雷达与相机的交叉可视范围内设置且仅设置一个运动目标,该运动目标在交叉可视范围内移动多处位置;2)毫米波雷达和相机以相同起始时刻及相同频率进行采样;3)对每个采样周期内毫米波雷达和相机的多个目标点进行初步筛选;4)分别获取连续多个采样周期的毫米波雷达和相机得到的目标点,并进行离群点筛选;5)将进行离群点筛选后的连续采样周期的雷达目标点坐标和相机目标点坐标,并构建神经网络进行训练,根据训练后的神经网络实现毫米波雷达与相机的自动标定。与现有技术相比,本发明具有减少标定工作量、相机内参标定和传感器外参标定结合于一体等优点。
Description
技术领域
本发明涉及自动驾驶技术领域,尤其是涉及一种毫米波雷达与相机的自动标定方法。
背景技术
随着驾驶辅助系统及自动驾驶系统的发展,对周围环境的感知已经由单一传感器转变为多传感器融合。相机和毫米波雷达是目前常用两种传感器。相机可以返回目标的轮廓和颜色信息,但不易获得目标的位置信息,并且会受到天气影响。毫米波雷达可以返回目标的准确位置及速度信息,且具有全天候感知的特性。因此,对这两种传感器的有效利用可以进一步提高整个体统的感知能力。
由于相机和毫米波雷达安装在车辆的不同位置,所参考的坐标系间有空间差异,所以需要对其进行空间标定,在标定过程中,需要找到多组两个传感器识别匹配点的三维坐标,才能求解空间变换矩阵,但相机无法直接得到目标的实际距离,通常这一步骤需要人工测量,难免会造成不便与误差,其中,相机的标定还需要进行内参标定,得到内参矩阵,整个标定过程相对繁杂。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种毫米波雷达与相机的自动标定方法。
本发明的目的可以通过以下技术方案来实现:
一种毫米波雷达与相机的自动标定方法,包括以下步骤:
1)在毫米波雷达与相机的交叉可视范围内设置且仅设置一个运动目标,该运动目标在交叉可视范围内移动多处位置;
2)毫米波雷达和相机以相同起始时刻及相同频率进行采样,每个采样周期分别获得n个毫米波雷达目标点坐标,以及m个相机目标点的中心像素点坐标;
3)对每个采样周期内毫米波雷达和相机的多个目标点进行初步筛选,得到每个采样周期对应的一个毫米波雷达目标点和相机目标点;
4)分别获取连续多个采样周期的毫米波雷达和相机得到的目标点,并进行离群点筛选;
5)将进行离群点筛选后的连续采样周期的雷达目标点坐标和相机目标点坐标,并构建神经网络进行训练,根据训练后的神经网络实现毫米波雷达与相机的自动标定。
所述的步骤3)中,若毫米波雷达在当前采样周期的目标点总数n大于1,则根据每个目标点的速度V和雷达截面积RCS进行初步筛选,筛选条件为V>0,RCS>50,然后在初步筛选后的目标点中随机选取1个作为当前周期的毫米波雷达目标点。
所述的步骤3)中,若相机在当前采样周期的目标点总数m大于1,则选取识别分数最高的目标点作为当前周期的相机目标点。
所述的步骤4)中,对于筛选后的毫米波雷达目标点,进行离群点筛选的具体包括以下步骤:
其中,M为毫米波雷达的连续采样周期数,(xi,yi,zi)为筛选后第i个采样周期的毫米波雷达目标点Pi R的坐标;
403)设置离群点阈值GR,若DR>GR,则判定雷达目标点Pi R(xi,yi,zi)为离群点,返回步骤3),再次随机选取1个目标点作为当前周期的毫米波雷达目标点,若DR≤GR,则更新历史信息,进行步骤5)。
所述的步骤4)中,对于筛选后的相机目标点,进行离群点筛选的具体包括以下步骤:
其中,N为相机的连续采样周期数,(uj,vj)为筛选后第j个采样周期的雷达目标点坐标;
所述的步骤5)具体包括以下步骤:
51)获取进行离散点筛选后的连续M个采样周期的雷达目标点坐标以及进行离散点筛选后的连续N个采样周期的相机目标点坐标,按照3:1:1划分为训练集、验证集和测试集;
52)分别构建第一神经网络和第二神经网络,以雷达目标点坐标作为第一神经网络的输入,相机目标点坐标作为第一神经网络的输出,并且以相机目标点坐标作为第二神经网络的输入,雷达目标点坐标作为第二神经网络的输出,分别进行训练;
53)将训练后的第一神经网络表示雷达坐标系到相机像素坐标系的映射关系,将训练后的第二神经网络表示相机像素坐标系到雷达坐标系的映射关系,完成标定。
所述的步骤52)中,第一神经网络在当前周期的损失计算公式为:
所述的步骤53)中,第一神经网络包括两个隐藏层,每个隐藏层有30个神经元,其中,每层激活函数采用ReLU函数,其根据损失L1更新网络权重,表示雷达坐标系到相机像素坐标系的映射关系,则有:
其中,K3×3,R3×3,T3×1分别为相机内参矩阵、空间旋转矩阵和空间平移矩阵,yc为目标在相机坐标系下到相机的距离。
所述的步骤52)中,第二神经网络在当前周期的损失计算公式为:
所述的步骤53)中,第二神经网络包括两个隐藏层,每个隐藏层有30个神经元,其中,每层激活函数采用ReLU函数,其根据损失L2更新网络权重,表示相机像素坐标系到雷达坐标系的映射关系,则有:
其中,K3×3,R3×3,T3×1分别为相机内参矩阵、毫米波雷达到像素平面的空间旋转矩阵和空间平移矩阵,yc为目标在相机坐标系下到相机的距离。
与现有技术相比,本发明具有以下优点:
本发明基于神经网络,融合毫米波雷达信息和相机目标识别信息,通过运动目标作为匹配点,实现了毫米波雷达与相机的自动标定,将相机内参标定和传感器外参标定结合于一体,极大地减少了标定工作量,有利于保证多传感器融合感知系统的良好运行。
附图说明
图1为本发明的整体方法流程图。
图2为本发明神经网络结构图。
具体实施方式
下面结合附图和具体实施例对本发明进行详细说明。
实施例
如图1所示,本发明提供一种毫米波雷达与相机的自动标定方法,包含以下步骤:
S1、本方法需要在空旷场地实施,保证毫米波雷达与相机的交叉可视范围内只有一个运动目标,运动目标需要尽可能地在交叉可视范围内移动多处位置,毫米波雷达和相机以相同起始时刻及相同频率进行采样,本实施例的采样周期为0.08s,在5个采样周期后开始标定;
S2、利用毫米波雷达和相机进行采样,每个采样周期分别获得n个毫米波雷达目标点坐标m个相机目标中心像素点坐标基于图像的目标检测现有多种经典开源算法,本实施例采用的算法为YOLOV2,可根据硬件条件自行选择合适的图像目标检测算法;
S3、本发明可根据所采用毫米波雷达的特点,在速度和RCS特征基础之上结合其他特征进行筛选,例如目标状态、检测概率、信噪比等信息,由于毫米波雷达存在较多虚警,若毫米波雷达在1个周期的目标数n>1,在本实施例中采用的毫米波雷达能够返回速度、雷达截面积、目标状态,这些信息都被用于目标筛选,筛选条件为V>0,RCS>50,目标状态为确认目标;
然后在筛选后的目标点中随机选取1个作为当前周期的雷达目标点,相机在进行目标识别时也可能出现误报,若相机在1个周期的目标数m>1,则只保留识别分数最高的目标点作为当前周期的相机目标点;
S4、经过步骤S3的筛选后,相机和毫米波雷达仍然可能存在误报,但该误报一般离实际目标较远,所以分别保存相邻前5个周期的毫米波雷达和相机得到的目标点,并进行离群点筛选,步骤如下:
S5、连续保存5个采样周期所获得的雷达目标点坐标和相机目标点坐标作为匹配点,并按照3:1:1划分为训练集、验证集和测试集,分别送入神经网络1和神经网络2进行训练,如图2所示,两个神经网络具有相同的结构,均包括两个隐藏层,每个隐藏层有30个神经元,其中每层激活函数采用ReLU函数,具体训练步骤如下:
其中,K3×3,R3×3,T3×1分别为相机内参矩阵、空间旋转矩阵和空间平移矩阵,yc为目标在相机坐标系下到相机的距离;
其中,K3×3,R3×3,T3×1分别为相机内参矩阵、毫米波雷达到像素平面的空间旋转矩阵和空间平移矩阵,yc为目标在相机坐标系下到相机的距离;
S6.重复S2-S5,直到L1,L2收敛,结束训练。
Claims (10)
1.一种毫米波雷达与相机的自动标定方法,其特征在于,包括以下步骤:
1)在毫米波雷达与相机的交叉可视范围内设置且仅设置一个运动目标,该运动目标在交叉可视范围内移动多处位置;
2)毫米波雷达和相机以相同起始时刻及相同频率进行采样,每个采样周期分别获得n个毫米波雷达目标点坐标,以及m个相机目标点的中心像素点坐标;
3)对每个采样周期内毫米波雷达和相机的多个目标点进行初步筛选,得到每个采样周期对应的一个毫米波雷达目标点和相机目标点;
4)分别获取连续多个采样周期的毫米波雷达和相机得到的目标点,并进行离群点筛选;
5)将进行离群点筛选后的连续采样周期的雷达目标点坐标和相机目标点坐标,并构建神经网络进行训练,根据训练后的神经网络实现毫米波雷达与相机的自动标定。
2.根据权利要求1所述的一种毫米波雷达与相机的自动标定方法,其特征在于,所述的步骤3)中,若毫米波雷达在当前采样周期的目标点总数n大于1,则根据每个目标点的速度V和雷达截面积RCS进行初步筛选,筛选条件为V>0,RCS>50,然后在初步筛选后的目标点中随机选取1个作为当前周期的毫米波雷达目标点。
3.根据权利要求1所述的一种毫米波雷达与相机的自动标定方法,其特征在于,所述的步骤3)中,若相机在当前采样周期的目标点总数m大于1,则选取识别分数最高的目标点作为当前周期的相机目标点。
4.根据权利要求1所述的一种毫米波雷达与相机的自动标定方法,其特征在于,所述的步骤4)中,对于筛选后的毫米波雷达目标点,进行离群点筛选的具体包括以下步骤:
401)计算筛选后的毫米波雷达目标点的平均坐标Pc R(xc,yc,zc),计算公式为:
其中,M为毫米波雷达的连续采样周期数,(xi,yi,zi)为筛选后第i个采样周期的毫米波雷达目标点Pi R的坐标;
402)计算筛选后的雷达目标点Pi R(xi,yi,zi)与平均坐标Pc R(xc,yc,zc)之间的欧氏距离DR,计算公式为:
403)设置离群点阈值GR,若DR>GR,则判定雷达目标点Pi R(xi,yi,zi)为离群点,返回步骤3),再次随机选取1个目标点作为当前周期的毫米波雷达目标点,若DR≤GR,则更新历史信息,进行步骤5)。
5.根据权利要求4所述的一种毫米波雷达与相机的自动标定方法,其特征在于,所述的步骤4)中,对于筛选后的相机目标点,进行离群点筛选的具体包括以下步骤:
411)计算筛选后的相机目标点的平均坐标Pc C(uc,vc),计算公式为:
其中,N为相机的连续采样周期数,(uj,vj)为筛选后第j个采样周期的雷达目标点坐标;
412)计算筛选后的相机目标点Pj C(uj,vj)与平均坐标Pc C(uc,vc)的欧氏距离DC,公式为:
413)设置离群点阈值GC,若DC>GC,则判定相机目标点Pj C(uj,vj)为离群点,返回步骤3),选择识别分数第二高的目标点作为当前周期的相机目标点,若DC≤GC,则更新历史信息,进行步骤5)。
6.根据权利要求5所述的一种毫米波雷达与相机的自动标定方法,其特征在于,所述的步骤5)具体包括以下步骤:
51)获取进行离散点筛选后的连续M个采样周期的雷达目标点坐标以及进行离散点筛选后的连续N个采样周期的相机目标点坐标,按照3:1:1划分为训练集、验证集和测试集;
52)分别构建第一神经网络和第二神经网络,以雷达目标点坐标作为第一神经网络的输入,相机目标点坐标作为第一神经网络的输出,并且以相机目标点坐标作为第二神经网络的输入,雷达目标点坐标作为第二神经网络的输出,分别进行训练,直至网络损失收敛;
53)将训练后的第一神经网络表示雷达坐标系到相机像素坐标系的映射关系,将训练后的第二神经网络表示相机像素坐标系到雷达坐标系的映射关系,完成标定。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011629588.9A CN112684424B (zh) | 2020-12-30 | 2020-12-30 | 一种毫米波雷达与相机的自动标定方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011629588.9A CN112684424B (zh) | 2020-12-30 | 2020-12-30 | 一种毫米波雷达与相机的自动标定方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112684424A true CN112684424A (zh) | 2021-04-20 |
CN112684424B CN112684424B (zh) | 2022-08-16 |
Family
ID=75455885
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011629588.9A Active CN112684424B (zh) | 2020-12-30 | 2020-12-30 | 一种毫米波雷达与相机的自动标定方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112684424B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114217277A (zh) * | 2021-12-09 | 2022-03-22 | 联陆智能交通科技(上海)有限公司 | 雷达摄像头标定质量评价方法及系统 |
CN114767074A (zh) * | 2022-03-22 | 2022-07-22 | 深圳市一心视觉科技有限公司 | 一种生命体征测量方法、设备及存储介质 |
CN115797463A (zh) * | 2022-11-28 | 2023-03-14 | 湖南华诺星空电子技术有限公司 | 一种fod雷达与相机的神经网络训练方法及全局标定方法 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101882313A (zh) * | 2010-07-14 | 2010-11-10 | 中国人民解放军国防科学技术大学 | 单线激光雷达与ccd相机之间相互关系的标定方法 |
CN103837869A (zh) * | 2014-02-26 | 2014-06-04 | 北京工业大学 | 基于向量关系的单线激光雷达和ccd相机标定方法 |
CN106228537A (zh) * | 2016-07-12 | 2016-12-14 | 北京理工大学 | 一种三维激光雷达与单目摄像机的联合标定方法 |
CN107122770A (zh) * | 2017-06-13 | 2017-09-01 | 驭势(上海)汽车科技有限公司 | 多目相机系统、智能驾驶系统、汽车、方法和存储介质 |
CN108226906A (zh) * | 2017-11-29 | 2018-06-29 | 深圳市易成自动驾驶技术有限公司 | 一种标定方法、装置及计算机可读存储介质 |
CN109444911A (zh) * | 2018-10-18 | 2019-03-08 | 哈尔滨工程大学 | 一种单目相机和激光雷达信息融合的无人艇水面目标检测识别与定位方法 |
CN109490890A (zh) * | 2018-11-29 | 2019-03-19 | 重庆邮电大学 | 一种面向智能车的毫米波雷达与单目相机信息融合方法 |
CN110175576A (zh) * | 2019-05-29 | 2019-08-27 | 电子科技大学 | 一种结合激光点云数据的行驶车辆视觉检测方法 |
CN110363158A (zh) * | 2019-07-17 | 2019-10-22 | 浙江大学 | 一种基于神经网络的毫米波雷达与视觉协同目标检测与识别方法 |
CN111028285A (zh) * | 2019-12-03 | 2020-04-17 | 浙江大学 | 基于双目视觉和激光雷达融合的深度估计方法 |
CN111325801A (zh) * | 2020-01-23 | 2020-06-23 | 天津大学 | 一种激光雷达和相机的联合标定方法 |
-
2020
- 2020-12-30 CN CN202011629588.9A patent/CN112684424B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101882313A (zh) * | 2010-07-14 | 2010-11-10 | 中国人民解放军国防科学技术大学 | 单线激光雷达与ccd相机之间相互关系的标定方法 |
CN103837869A (zh) * | 2014-02-26 | 2014-06-04 | 北京工业大学 | 基于向量关系的单线激光雷达和ccd相机标定方法 |
CN106228537A (zh) * | 2016-07-12 | 2016-12-14 | 北京理工大学 | 一种三维激光雷达与单目摄像机的联合标定方法 |
CN107122770A (zh) * | 2017-06-13 | 2017-09-01 | 驭势(上海)汽车科技有限公司 | 多目相机系统、智能驾驶系统、汽车、方法和存储介质 |
CN108226906A (zh) * | 2017-11-29 | 2018-06-29 | 深圳市易成自动驾驶技术有限公司 | 一种标定方法、装置及计算机可读存储介质 |
CN109444911A (zh) * | 2018-10-18 | 2019-03-08 | 哈尔滨工程大学 | 一种单目相机和激光雷达信息融合的无人艇水面目标检测识别与定位方法 |
CN109490890A (zh) * | 2018-11-29 | 2019-03-19 | 重庆邮电大学 | 一种面向智能车的毫米波雷达与单目相机信息融合方法 |
CN110175576A (zh) * | 2019-05-29 | 2019-08-27 | 电子科技大学 | 一种结合激光点云数据的行驶车辆视觉检测方法 |
CN110363158A (zh) * | 2019-07-17 | 2019-10-22 | 浙江大学 | 一种基于神经网络的毫米波雷达与视觉协同目标检测与识别方法 |
CN111028285A (zh) * | 2019-12-03 | 2020-04-17 | 浙江大学 | 基于双目视觉和激光雷达融合的深度估计方法 |
CN111325801A (zh) * | 2020-01-23 | 2020-06-23 | 天津大学 | 一种激光雷达和相机的联合标定方法 |
Non-Patent Citations (6)
Title |
---|
DEZHI GAO ET AL.: "A method of spatial calibration for camera and radar", 《2010 8TH WORLD CONGRESS ON INTELLIGENT CONTROL AND AUTOMATION》 * |
DEZHI GAO ET AL.: "A method of spatial calibration for camera and radar", 《2010 8TH WORLD CONGRESS ON INTELLIGENT CONTROL AND AUTOMATION》, 9 July 2010 (2010-07-09), pages 6211 - 6215, XP031736915 * |
杨鑫 等: "面向高级辅助驾驶雷达和视觉传感器信息融合算法的研究", 《汽车实用技术》 * |
杨鑫 等: "面向高级辅助驾驶雷达和视觉传感器信息融合算法的研究", 《汽车实用技术》, 15 January 2018 (2018-01-15), pages 37 - 40 * |
牛萍娟 等: "基于神经网络的毫米波雷达与视觉传感器联合标定方法", 《天津工业大学学报》 * |
牛萍娟 等: "基于神经网络的毫米波雷达与视觉传感器联合标定方法", 《天津工业大学学报》, vol. 38, no. 5, 31 October 2019 (2019-10-31), pages 64 - 69 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114217277A (zh) * | 2021-12-09 | 2022-03-22 | 联陆智能交通科技(上海)有限公司 | 雷达摄像头标定质量评价方法及系统 |
CN114767074A (zh) * | 2022-03-22 | 2022-07-22 | 深圳市一心视觉科技有限公司 | 一种生命体征测量方法、设备及存储介质 |
CN114767074B (zh) * | 2022-03-22 | 2023-03-03 | 深圳市一心视觉科技有限公司 | 一种生命体征测量方法、设备及存储介质 |
CN115797463A (zh) * | 2022-11-28 | 2023-03-14 | 湖南华诺星空电子技术有限公司 | 一种fod雷达与相机的神经网络训练方法及全局标定方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112684424B (zh) | 2022-08-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112684424B (zh) | 一种毫米波雷达与相机的自动标定方法 | |
CN110187318B (zh) | 一种雷达数据处理方法 | |
CN110726990A (zh) | 一种基于ds-gnn算法的多传感器融合方法 | |
CN110443138B (zh) | 基于车载毫米波雷达联合svm和cnn多目标分类方法 | |
CN107561509B (zh) | 一种机载毫米波雷达电力线检测方法 | |
CN113702979B (zh) | 一种跨区目标跟踪轨迹片段时空拼接方法 | |
CN115761534A (zh) | 一种空中背景下红外无人机小目标检测及跟踪方法 | |
CN111830470A (zh) | 联合标定方法及装置、目标对象检测方法、系统及装置 | |
CN115937659A (zh) | 基于Mask-RCNN的室内复杂环境下多目标检测方法 | |
CN111354016A (zh) | 基于深度学习和差异值哈希的无人机舰船跟踪方法及系统 | |
CN109190647B (zh) | 一种有源无源数据融合方法 | |
CN112362042B (zh) | 一种基于智能船舶多传感设备的航迹关联判断方法 | |
CN113064489A (zh) | 一种基于L1-Norm的毫米波雷达手势识别方法 | |
CN115220002B (zh) | 一种固定单站的多目标数据关联跟踪方法和相关装置 | |
CN114049551B (zh) | 一种基于ResNet18的SAR原始数据目标识别方法 | |
CN115909086A (zh) | 基于多级增强网络的sar目标检测识别方法 | |
CN113406591B (zh) | 一种应用于场面监视雷达的目标凝聚方法 | |
CN112257750B (zh) | 一种面向复合式探测节点的分布式融合系统 | |
CN115457237A (zh) | 基于雷视融合的车辆目标快速检测方法 | |
CN111931596B (zh) | 一种基于代数图论的群目标分群方法 | |
CN114170196A (zh) | 基于CenterNet2的SAR图像小目标识别方法 | |
CN113361639A (zh) | 一种基于深度学习的辐射源信号多模型综合分类方法 | |
DK202070213A1 (en) | System for processing radar data representing intensity values of received power of reflected radar wave signals | |
Liu et al. | Spotlight SAR image recognition based on dual-channel feature map convolutional neural network | |
CN111369589B (zh) | 一种基于多策略融合的无人机跟踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |