CN112330753B - 一种增强现实系统的目标检测方法 - Google Patents

一种增强现实系统的目标检测方法 Download PDF

Info

Publication number
CN112330753B
CN112330753B CN202011278389.8A CN202011278389A CN112330753B CN 112330753 B CN112330753 B CN 112330753B CN 202011278389 A CN202011278389 A CN 202011278389A CN 112330753 B CN112330753 B CN 112330753B
Authority
CN
China
Prior art keywords
detection
target
real
image
helmet
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011278389.8A
Other languages
English (en)
Other versions
CN112330753A (zh
Inventor
翁冬冬
胡明伟
陈锋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Institute of Technology BIT
Original Assignee
Beijing Institute of Technology BIT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Institute of Technology BIT filed Critical Beijing Institute of Technology BIT
Priority to CN202011278389.8A priority Critical patent/CN112330753B/zh
Publication of CN112330753A publication Critical patent/CN112330753A/zh
Application granted granted Critical
Publication of CN112330753B publication Critical patent/CN112330753B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明公开了一种增强现实系统的目标检测方法,利用AR眼镜和目标检测神经网络相结合的方式,使用户可以通过光学透射式AR眼镜直观的观察现实环境,而不需要如手机一般,将显示器中的图像和现实环境对比后才能在现实环境中操作,降低了用户使用的复杂度。同时,利用标定方法简化了AR显示与现实世界之间的融合难度,一定程度上降低了计算复杂度,减少了延时,从而带给用户更好的实时AR体验。

Description

一种增强现实系统的目标检测方法
技术领域
本发明属于AR增强现实技术领域,具体涉及一种增强现实系统的目标检测方法。
背景技术
目前有研究提出将目标检测网络用于视频透射式的AR检测方式。他们利用手机这类手持的移动设备对环境进行拍摄,并使用简化的SSD目标检测网络对手机所拍摄到的图像进行目标检测。接着,他们直接在手机屏幕上对目标物体进行框选,从而完成目标检测。直接使用手机之类的设备对环境进行拍摄,并将检测框直接显示在手机上的方式并不能带给用户一个直观的AR体验。用户在使用过程中需要先观察手机屏幕,从手机屏幕上确认目标物体的位置再与现实环境对照,然后才能在现实中去寻找目标。这样的方式增加了用户使用的困难。同时,这种方式的检测时间过长,平均检测时间在1.5s。
还有研究将AR技术和用电信息采集系统结合在一起。他们利用摄像头对电箱的环境进行拍摄,然后图像上传到云端进行检测。同时,他们在检测过程中通过对位置的变换拍摄多幅图像一同上传,并利用SLAM技术对环境进行重建。最后,将检测的结果发送到AR眼镜上,并结合SLAM三维重建的结果在AR眼镜上显示出来。该方式利用单目相机对环境进行多张图片的拍摄,将所有的图片上传到云端,从而利用SLAM技术对环境进行三维重建,以及利用目标检测和识别技术对物体进行判断。这种方式会使用大量的计算力,同时造成极大的延时,难以满足日常生活中人们的实时要求。
发明内容
有鉴于此,本发明的目的是提供一种增强现实系统的目标检测方法,可以快速的从复杂的现实环境中找到用户需要的物体,并显示。
一种增强现实系统的目标检测方法,包括如下步骤:
步骤1、建立数据集,具体为:
在绿幕背景下拍摄多组目标物体的绿幕图像;
将绿幕图像转化到HSV空间,抠除绿幕背景,得到目标物体的主体图像;
将目标物体的主体图像与背景图像进行合成,从而得到数据集;
步骤2、利用步骤1建立的数据库集目标检测网络进行训练;
步骤3、利用AR头盔上集成的RGB摄像头捕获现实环境中的实时图像,送入步骤2训练好的目标检测网络进行目标检测,并将检测结果以检测框的形式显示在AR头盔上。
进一步的,还包括对AR头盔和RGB摄像头的标定,具体为:
将AR头盔显示部分与人眼作为整体,在unity环境中设置为虚拟相机;
将虚拟相机和RGB摄像头都设置成为定焦模式且分辨率设置为720P;
在真实环境中制作标定板并在标定板的中心制作标志点;
在unity环境中设置标定瞄准器,设置瞄准器的尺寸形状与真实空间中的标志点一致;
人眼透过AR头盔观察标志点,并利用鼠标移动瞄准器使瞄准器与标志点完全重合:当瞄准器与标志点完全重合的时候,记录下此时标志点中心在RGB相机图像的像素坐标以及瞄准器在Unity中的三维坐标;
改变标定板的位置,重复以上操作,直到记录下12组坐标点;
使用PnP算法对12组坐标点求解,从而得到RGB相机与AR显示器的相对位姿关系,完成标定。
较佳的,所述步骤3中,提取所述检测结果中检测框的左上角坐标和右下角坐标,送入unity3D中进行检测框绘制并传输到AR头盔显示器进行显示。
较佳的,所述步骤3中,采用TCP通讯方式将左上角坐标和右下角坐标,送入unity3D。
较佳的,所述目标检测网络为YOLOv3。
较佳的,所述步骤1中,采用包括平移、缩放、透视变换的方式对目标物体的主体图像进行数量扩增。
较佳的,所述步骤1中,所述多组目标物体的绿幕图像为多角度图像。
较佳的,所述步骤3中检测框为:
取目标物体的主体图像中目标物体部分,最小横坐标和最大纵坐标作为检测框的左上角顶点坐标,并且取目标物体的主体图像中目标物体部分的最大横坐标和最小纵坐标作为检测框的右下角顶点坐标,由此得到了检测框的大小。
本发明具有如下有益效果:
本发明利用AR眼镜和目标检测神经网络相结合的方式,使用户可以通过光学透射式AR眼镜直观的观察现实环境,而不需要如手机一般,将显示器中的图像和现实环境对比后才能在现实环境中操作,降低了用户使用的复杂度。同时,利用标定方法简化了AR显示与现实世界之间的融合难度,一定程度上降低了计算复杂度,减少了延时,从而带给用户更好的实时AR体验。
附图说明
图1为本发明的方法流程图;
图2为本发明自建数据集流程图;
图3为增强现实系统显示效果图。
具体实施方式
下面结合附图并举实施例,对本发明进行详细描述。
本发明提供了一种可用于日常生活中的增强现实系统的目标检测方法,该系统可以快速、高效的从复杂的现实环境中寻找出用户需要的物体,为用户的日常生活提供便利,帮助用户提高工作效率。本系统直接利用AR头盔上集成的RGB摄像头捕获现实环境中的实时图像信息,在本地进行目标检测,并将检测结果以检测框的形式直观的显示在AR头盔上。用户可以利用该系统可以快速、准确、直观地从复杂的环境中找到他们所需要的物体,从而提升了用户的工作生活。
为了解决以上问题,本系统直接利用NED+GlassX2系列头盔上集成的RGB摄像头捕获现实环境中的复杂的实时图像信息,并且使用SPAAM的标定方式,将AR头盔与RGB摄像头进行标定。同时,本系统通过自建的数据集对YOLOv3目标检测网络进行训练。然后,本系统将实时图像信息传递给自主训练好的YOLOv3实时目标检测网络进行目标检测。本系统对YOLOv3算法进行了一定的优化处理,将YOLOv3网络的所生成的方形检测框的左上角顶点坐标和右下角顶点坐标直接通过TCP通讯的方式发送到Unity3D中。由于OpenCV的图像坐标系与Unity3D的图像坐标系不同,本系统在Unity3D中对接收到的检测框的顶点坐标进行了坐标系变换。接着,本系统在Unity3D中利用OpenGLSDK对检测框进行了实时的绘制并实时的传输到AR头盔显示器上进行实时显示。用户可以利用该系统可以快速、准确、直观地从复杂的环境中找到他们所需要的物体,从而提升了用户的工作生活的效率。
本发明整体可分为硬件、软件、目标检测算法和系统标定。系统构成如图1。
硬件:
本系统主要由NED+GlassX2系列头盔和一台PC机组成。NED+GlassX2系列头盔属于光学透射式的AR头盔,其优势在于透过该头盔可以直接观察到现实场景而不是通过视频流,从而带给用户更真实的AR体验。NED+GlassX2系列头盔集成了一个720P的RGB摄像头(原装未标定)。另外,本系统的PC机为系统提供了一个IntelCorei7-4790KCPU和一个NVIDIARTX2080GPU的计算能力。
软件:
本系统利用NED+GlassSDK将PC机的显示画面分屏投影到AR头盔上。Unity3D软件为本系统的AR显示部分提供了场景支持。基于计算机图像学的OpenGLSDK为AR显示界面中的图像绘制提供支持。基于计算机视觉的OpenCVSDK为目标检测网络的基础图像处理过程提供支持。Tensorflow深度学习框架为目标检测网络的运行提供了平台。
目标检测算法:
本系统在对目标检测网络的选择上主要考虑两点:首先,本系统是一个用于实时目标检测的增强现实系统,因此,必须要保证系统的实时性。为了达到上述目标,本系统在对目标检测网络的选择上必须要求目标检测网络的运行延时必须尽可能的小。其次,为了使本系统可以适用于更多的硬件平台,本系统需要降低系统运行对计算能力的要求。因此,在目标检测网络的选择上,本发明应该在保证检测效果的基础上尽可能的选择网络结构简单的目标检测网络。综合以上两点因素,本系统最终选择YOLOv3目标检测网络作为本系统的基础网络架构。
本系统只需要从YOLOv3网络的输出中获取目标框的左上角顶点坐标和右下角顶点坐标,因此,本系统对YOLOv3网络的输出进行了简化处理,只通过TCP通讯的方式在本地传输目标框的顶点坐标,而将目标框的绘制工作放入unity3D中,从而进一步降低了网络的延时,提高了系统效率。
本系统针对个性化物体自主搭建了数据集,并使用自主搭建的数据集对YOLOv3网络进行重新训练,从而能更好的对现实环境中的个性化物体进行实时目标检测。
快速自建数据集方式:
在本系统中,我们提出了一种快速自建数据集的方法。
通常情况下,我们在使用神经网络为自己的系统服务时,为了令神经网络能在我们的个性化环境下有一个更好的表现,我们会对现有的数据集进行个性化的补充,然后使用补充后的数据集对前人的所搭建的神经网络进行再次训练,从而提高神经网络的整体稳定性。因此,如何快速高效的制作出符合我们要求的数据集是至关重要的问题。一般用于目标检测网路训练的数据集通常是利用标注软件进行人工手动标注而生成的。这样的标注方式是非常耗时的。针对这个问题,本系统提出了一套快速制作个性化数据集的方法。图2展示了该方法的整体思想。
首先,本发明在绿幕背景下拍摄多组目标检测物体的视频。视频中尽可能多的涵盖目标物体各个角度的画面。图2展示了本系统以飞机模型为目标物所拍摄的绿幕环境下的真实图像,其中包含了飞机模型的三种姿态。
其次,将绿幕图像转化到HSV空间,抠除绿幕背景,得到目标物体的主体图像;
第三步,本发明将目标物体的主体图像与其对应的绿幕图像进行相同随机的尺寸变换、旋转变换以及像素坐标平移变换。
第四步,本发明以变换后的掩膜图像为基础,取掩模图像中目标物体部分(黑色部分)在像素坐标系下的最小横坐标和最大纵坐标作为检测框的左上角顶点坐标,并且取掩模图像中目标物体部分在像素坐标系下的最大横坐标和最小纵坐标作为检测框的右下角顶点坐标。至此,得到了对应图像的中的目标物检测框的大小。
最后,本发明将随机变换后的目标物图像与丰富的背景图像进行合成,从而得到了新的数据集。
系统标定方法:
为了使AR显示系统能准确的检测并跟踪目标物体,本系统结合了SPAAM的方法对本系统中的光学透射式AR头盔和RGB摄像头进行了标定。本发明将AR头盔显示部分与人眼作为整体,在unity环境中设置为虚拟相机。接着,本发明将虚拟相机和RGB相机都设置成为定焦模式且分辨率设置为720P。下一步,本发明在真实环境中制作标定板并在标定板的中心制作“x”型标志点。同时,本系统在unity环境中设置标定瞄准器,设置瞄准器的尺寸形状与真实空间中的标志点一致。然后,人眼透过AR头盔观察标志点,并利用鼠标移动瞄准器使瞄准器与标志点完全重合。当瞄准器与标志点完全重合的时候,本发明记录下此时标志点中心在RGB相机图像的像素坐标以及瞄准器在Unity3D中的三维坐标。接着,本发明改变标定板的位置,重复以上操作,直到记录下12组坐标点。最后,本发明使用PnP算法对12组坐标点求解,从而得到RGB相机与AR显示器的相对位姿关系,完成标定。在本系统中,由于相机和显示器的光轴偏差不大,我们默认它们是重合的。标定后的相机和AR头盔显示器可以准确的利用检测框将目标物体进行框选。
除了进行文本输入以外,用户还可以通过键盘进行简单的指令控制。
综上所述,以上仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (6)

1.一种增强现实系统的目标检测方法,其特征在于,包括如下步骤:
步骤1、建立数据集,具体为:
在绿幕背景下拍摄多组目标物体的绿幕图像;
将绿幕图像转化到HSV空间,抠除绿幕背景,得到目标物体的主体图像;
将目标物体的主体图像与背景图像进行合成,从而得到数据集;
步骤2、利用步骤1建立的数据库集目标检测网络进行训练;
步骤3、利用AR头盔上集成的RGB摄像头捕获现实环境中的实时图像,送入步骤2训练好的目标检测网络进行目标检测,并将检测结果以检测框的形式显示在AR头盔上;
对AR头盔和RGB摄像头的标定,具体为:
将AR头盔显示部分与人眼作为整体,在unity环境中设置为虚拟相机;
将虚拟相机和RGB摄像头都设置成为定焦模式且分辨率设置为720P;
在真实环境中制作标定板并在标定板的中心制作标志点;
在unity环境中设置标定瞄准器,设置瞄准器的尺寸形状与真实空间中的标志点一致;
人眼透过AR头盔观察标志点,并利用鼠标移动瞄准器使瞄准器与标志点完全重合:当瞄准器与标志点完全重合的时候,记录下此时标志点中心在RGB相机图像的像素坐标以及瞄准器在Unity中的三维坐标;
改变标定板的位置,重复以上操作,直到记录下12组坐标点;
使用PnP算法对12组坐标点求解,从而得到RGB相机与AR显示器的相对位姿关系,完成标定;
所述步骤3中,提取所述检测结果中检测框的左上角坐标和右下角坐标,送入unity3D中进行检测框绘制并传输到AR头盔显示器进行显示。
2.如权利要求1所述的一种增强现实系统的目标检测方法,其特征在于,所述步骤3中,采用TCP通讯方式将左上角坐标和右下角坐标,送入unity3D。
3.如权利要求1所述的一种增强现实系统的目标检测方法,其特征在于,所述目标检测网络为YOLOv3。
4.如权利要求1所述的一种增强现实系统的目标检测方法,其特征在于,所述步骤1中,采用包括平移、缩放、透视变换的方式对目标物体的主体图像进行数量扩增。
5.如权利要求1所述的一种增强现实系统的目标检测方法,其特征在于,所述步骤1中,所述多组目标物体的绿幕图像为多角度图像。
6.如权利要求1所述的一种增强现实系统的目标检测方法,其特征在于,所述步骤3中检测框为:
取目标物体的主体图像中目标物体部分,最小横坐标和最大纵坐标作为检测框的左上角顶点坐标,并且取目标物体的主体图像中目标物体部分的最大横坐标和最小纵坐标作为检测框的右下角顶点坐标,由此得到了检测框的大小。
CN202011278389.8A 2020-11-16 2020-11-16 一种增强现实系统的目标检测方法 Active CN112330753B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011278389.8A CN112330753B (zh) 2020-11-16 2020-11-16 一种增强现实系统的目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011278389.8A CN112330753B (zh) 2020-11-16 2020-11-16 一种增强现实系统的目标检测方法

Publications (2)

Publication Number Publication Date
CN112330753A CN112330753A (zh) 2021-02-05
CN112330753B true CN112330753B (zh) 2023-05-09

Family

ID=74318731

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011278389.8A Active CN112330753B (zh) 2020-11-16 2020-11-16 一种增强现实系统的目标检测方法

Country Status (1)

Country Link
CN (1) CN112330753B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113269832B (zh) * 2021-05-31 2022-03-29 长春工程学院 面向极端天气环境的电力作业增强现实导航系统和方法
CN114246767B (zh) * 2022-01-10 2023-03-21 河海大学 基于云端计算的盲人智能导航眼镜系统及装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106934693A (zh) * 2017-03-06 2017-07-07 浙江传媒学院 基于ar产品模型在vr场景中显示的瓷砖选型方法和系统
CN107808373A (zh) * 2017-11-15 2018-03-16 北京奇虎科技有限公司 基于姿态的样本图像合成方法、装置及计算设备
CN109683699A (zh) * 2019-01-07 2019-04-26 深圳增强现实技术有限公司 基于深度学习实现增强现实的方法、装置及移动终端
CN110109535A (zh) * 2019-03-18 2019-08-09 国网浙江省电力有限公司信息通信分公司 增强现实生成方法及装置
CN110443898A (zh) * 2019-08-12 2019-11-12 北京枭龙科技有限公司 一种基于深度学习的ar智能终端目标识别系统及方法
CN110728670A (zh) * 2019-10-14 2020-01-24 贵州电网有限责任公司 一种基于ar技术的低压设备运维方法
CN111840920A (zh) * 2020-07-06 2020-10-30 暨南大学 一种基于虚拟现实的上肢智能康复系统

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106934693A (zh) * 2017-03-06 2017-07-07 浙江传媒学院 基于ar产品模型在vr场景中显示的瓷砖选型方法和系统
CN107808373A (zh) * 2017-11-15 2018-03-16 北京奇虎科技有限公司 基于姿态的样本图像合成方法、装置及计算设备
CN109683699A (zh) * 2019-01-07 2019-04-26 深圳增强现实技术有限公司 基于深度学习实现增强现实的方法、装置及移动终端
CN110109535A (zh) * 2019-03-18 2019-08-09 国网浙江省电力有限公司信息通信分公司 增强现实生成方法及装置
CN110443898A (zh) * 2019-08-12 2019-11-12 北京枭龙科技有限公司 一种基于深度学习的ar智能终端目标识别系统及方法
CN110728670A (zh) * 2019-10-14 2020-01-24 贵州电网有限责任公司 一种基于ar技术的低压设备运维方法
CN111840920A (zh) * 2020-07-06 2020-10-30 暨南大学 一种基于虚拟现实的上肢智能康复系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
An Efficient and Accurate Object Detection Algorithm And Its Application;JIANG Libiao等;《IEEE》;20200716;第656-661页 *
Single point active alignment method SPAAM for optical_see-through HMD calibration for AR;Mihran Tuceryan 等;《IEEE》;20001231;第149-158页 *

Also Published As

Publication number Publication date
CN112330753A (zh) 2021-02-05

Similar Documents

Publication Publication Date Title
CN110335292B (zh) 一种基于图片跟踪实现模拟场景跟踪的方法、系统及终端
CN108154550B (zh) 基于rgbd相机的人脸实时三维重建方法
US10832488B2 (en) Optimizing head mounted displays for augmented reality
CN106598226B (zh) 一种基于双目视觉和深度学习的无人机人机交互方法
CN107909061B (zh) 一种基于不完备特征的头部姿态跟踪装置及方法
CN110335343B (zh) 基于rgbd单视角图像人体三维重建方法及装置
US7606392B2 (en) Capturing and processing facial motion data
CN103731583B (zh) 用于拍照智能化合成、打印处理方法
CN102799868B (zh) 人脸面部关键表情识别方法
CN108153502B (zh) 基于透明屏幕的手持式增强现实显示方法及装置
CN112330753B (zh) 一种增强现实系统的目标检测方法
CN112037320A (zh) 一种图像处理方法、装置、设备以及计算机可读存储介质
CN107862718B (zh) 4d全息视频捕捉方法
CN111527468A (zh) 一种隔空交互方法、装置和设备
CN112667078B (zh) 基于视线估计的多屏场景下鼠标快速控制方法、系统及计算机可读介质
CN113426117B (zh) 虚拟相机拍摄参数获取方法、装置、电子设备和存储介质
CN112207821B (zh) 视觉机器人的目标搜寻方法及机器人
CN104599317A (zh) 一种实现3d扫描建模功能的移动终端及方法
CN112348937A (zh) 人脸图像处理方法及电子设备
Hu et al. Object detecting augmented reality system
WO2023280082A1 (zh) 一种手柄inside-out视觉6自由度定位方法及系统
CN111354007A (zh) 一种基于纯机器视觉定位的投影交互方法
CN111083368A (zh) 一种基于云端的模拟物理云台全景视频展示系统
CN115482359A (zh) 目标的尺寸测量方法、电子设备及其介质
CN112288876A (zh) 远距离ar识别服务器及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant