CN113218394A - 扑翼飞行器室内视觉定位方法及系统 - Google Patents
扑翼飞行器室内视觉定位方法及系统 Download PDFInfo
- Publication number
- CN113218394A CN113218394A CN202110424893.2A CN202110424893A CN113218394A CN 113218394 A CN113218394 A CN 113218394A CN 202110424893 A CN202110424893 A CN 202110424893A CN 113218394 A CN113218394 A CN 113218394A
- Authority
- CN
- China
- Prior art keywords
- aircraft
- information
- pose
- flapping wing
- wing aircraft
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 49
- 230000000007 visual effect Effects 0.000 title claims abstract description 14
- 230000001133 acceleration Effects 0.000 claims description 10
- 238000012937 correction Methods 0.000 claims description 10
- 238000001514 detection method Methods 0.000 claims description 9
- 238000005259 measurement Methods 0.000 claims description 4
- 238000001914 filtration Methods 0.000 claims description 3
- 230000010354 integration Effects 0.000 claims description 3
- 230000003287 optical effect Effects 0.000 claims description 3
- 230000011218 segmentation Effects 0.000 claims description 3
- 230000001629 suppression Effects 0.000 claims description 3
- 238000007500 overflow downdraw method Methods 0.000 claims description 2
- 239000011159 matrix material Substances 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 241000238631 Hexapoda Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000005764 inhibitory process Effects 0.000 description 1
- 239000011664 nicotinic acid Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
- G01C21/206—Instruments for performing navigational calculations specially adapted for indoor navigation
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/04—Interpretation of pictures
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/005—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
Abstract
本发明公开了一种扑翼飞行器室内视觉定位方法及系统,包括内环的飞行器位姿计算以及外环的基于室内已知目标点的位姿修正。方法为:在扑翼飞行器飞行的过程中,通过多状态限制卡尔曼滤波器获得飞行器的累积位姿信息:利用惯性传感器获得的测量值进行扑翼飞行器位姿的预测,利用视觉图像得到的周围环境的点云信息进行算法内环的位姿修正;利用已知的周围环境中的目标点信息,进行算法外环的位姿修正。本发明利用惯性单元与单目摄像头即可进行扑翼飞行器室内定位,对飞行器载重性能与机载设备性能要求低,室内定位精度较高。
Description
技术领域
本发明涉及计算机视觉领域和自动化控制领域,尤其涉及一种基于视觉的扑翼飞行器室内定位算法及系统。
背景技术
扑翼飞行器是一种仿生类飞行机器人,具有质量轻、功耗低、飞行效率高、抗干扰性强等特点,同时还具有良好的灵活性和飞行机动性,在军民用领域和其他科技领域都具有广阔的发展前景。
在自然界中有能力进行飞行的动物都采用扑翼方式进行飞行,例如鸟类、昆虫和龙。在扑动过程中通过翅膀的上下摆动,扰乱周围气流,为飞行同时提供升力和推力,有效利用能源进行长距离飞行。
传统的定位方法主要依靠卫星定位系统,在室内等信号较弱的区域定位精度较低;基于视觉与惯性单元的定位方法是一种开环的定位方法,容易产生定位漂移的现象;采用词袋模型做闭环矫正的方法需要预先建立词袋库,所占用的储存空间较大,消耗计算资源较多。
发明内容
为解决上述技术问题,本发明提供一种扑翼飞行器室内视觉定位方法及系统,该方法不需要依赖卫星定位系统或词袋库,仅需要惯性单元与单目相机即可进行工作,对飞行器载重性能与机载设备性能要求低,室内定位精度较高。
本发明所采用的解决方案为:
一种扑翼飞行器室内视觉定位方法,该方法基于扑翼飞行器的传感器并采用基于滤波的传感器融合方法实现,所述传感器包括惯性传感器与摄像头,所述方法包括内环的基于 MSCKF(多状态约束下的Kalman滤波器)的飞行器定位以及外环的基于室内已知目标点的位姿修正两部分,具体包括:首先获得扑翼飞行器初始状态的位置信息以及姿态信息,在扑翼飞行器飞行的过程中,获得飞行器的累积位姿信息,利用惯性传感器获得的测量值进行扑翼飞行器位姿的预测,并利用摄像头得到的周围环境的点云信息进行内环的位姿修正;利用摄像头检测的周围环境中的目标点信息进行外环的位姿修正。
具体包括如下:
步骤S1,获得扑翼飞行器的初始状态的位置信息X0,以及周围环境中已知的物体位置信息;
步骤S2,通过扑翼飞行器初始状态的位置信息X0及惯性传感器所测得的三轴加速度信息,进行多状态限制卡尔曼滤波器的参数初始化,得到初始状态扑翼飞行器的姿态信息,以及惯性传感器的传感器零偏与噪声的特征信息;
步骤S3,在扑翼飞行器飞行过程中,通过惯性传感器获得扑翼飞行器机体坐标系下三轴的加速度信息与角速度信息,通过加速度与角速度测量值对时间积分,得到飞行器的累积位置与姿态信息;
步骤S4,通过机载单目摄像头获得周围环境的点云信息,利用点云信息得到飞行器当前位姿的观测量,进而在滤波器框架下对步骤S3中得到的飞行器累积位姿进行修正;
步骤S5,若单目摄像头检测到环境中位置已知的物品,则通过目标检测的方法得到飞行器相对于物品的位置,进而得到飞行器在世界坐标系下的位置,对飞行器内环得到的位姿信息进行外环修正。
上述方案中,由于同一特征点会在多个相机位姿下被观测到,因此多个相机位姿之间通过特征点进行互相约束。通过所述约束即可计算出特征点的真实值与估计值之间的残差,作为滤波器的观测量。具体为:使用FAST角点检测法采集图像中的特征点,使用LK光流法对所述特征点进行跟踪,得到每个特征点在不同相机观测位姿下的重投影误差,作为滤波器的内环观测量;利用最小二乘法得到的特征点在世界坐标系下的坐标估计值,并转化到相机坐标系下,得到特征点在相机坐标系下的估计值为:
则特征点的观测残差为:
对周围环境中位置已知的物体,采用图像颜色域分割,再采用角点检测,得到物体的角点的大致位置后,采用非极大值抑制的方法,得到角点的精确位置。进一步的,对所述的采集得到的物体角点的精确位置,采用EPnP方法,得到飞行器自身位姿,作为飞行器的外环观测量,进行飞行器位姿修正。
本发明的有益效果在于:
本发明的基于视觉的扑翼飞行器室内定位系统仅需要惯性单元与单目相机即可进行工作,并且不需要显卡等设备进行计算加速,对飞行器载荷能力与设备性能要求较低。
本发明的基于视觉的扑翼飞行器室内定位系统不依赖于卫星定位系统与词袋模型,仅需要部分物体已知的位置信息即可对扑翼飞行器位姿进行修正,计算效率与定位精度均较高。
附图说明
下面结合附图和实施例对本发明做进一步说明。附图是示意性的,不应理解为对本发明进行任何限制,对于本领域的技术人员来讲,在不付出创造性劳动的前提下,可以根据这些附图获得其他的附图。其中:
图1是本发明的扑翼飞行器室内视觉定位方法的步骤图;
图2是本发明的扑翼飞行器室内视觉定位方法的流程逻辑图;
图3是本发明的扑翼飞行器室内视觉定位方法的滤波器结构示意图。
具体实施方式
为了能够更清楚地理解本发明的上述目的、特征和优点,下面结合附图和具体实施方式对本发明进行进一步的详细描述。需要说明的是,在不冲突的情况下,本发明的实施例及实施例中的特征可以相互组合。
在下面的描述中阐述了很多具体细节以便于充分理解本发明,但是,本发明还可以采用其他不同于在此描述的其他方式来实施,因此,本发明的保护范围并不受下面公开的具体实施例的限制。
本发明设计了一种扑翼飞行器室内视觉定位方法,所述方法包括内环的基于MSCKF (多状态约束下的Kalman滤波器)的飞行器定位以及外环的基于室内已知目标点的位姿修正两部分,具体包括:首先获得扑翼飞行器初始状态的位置信息以及姿态信息,在扑翼飞行器飞行的过程中,获得飞行器的累积位姿信息,利用惯性传感器获得的测量值进行扑翼飞行器位姿的预测,并利用摄像头得到的周围环境的点云信息进行内环的位姿修正;利用摄像头检测的周围环境中的目标点信息进行外环的位姿修正。其具体步骤如图1所示,基本过程为:
步骤S1,获得扑翼飞行器的初始状态的位置信息X0,以及周围环境中已知的物体位置信息。
步骤S2,通过初始状态的位置信息以及惯性传感器三轴加速度信息,进行多状态限制卡尔曼滤波器的参数初始化,得到初始状态扑翼飞行器的姿态信息,以及惯性单元传感器的传感器零偏与噪声等特征信息。
步骤S3,在扑翼飞行器飞行过程中,通过惯性传感器获得扑翼飞行器机体坐标系下三轴的加速度信息与角速度信息,通过加速度与角速度测量值对时间积分,得到飞行器的累积位置与姿态信息。
步骤S4,通过机载单目摄像头获得周围环境的点云信息,对飞行器的累积位置与姿态进行内环修正。
步骤S5,若单目摄像头检测到环境中位置已知的物品,则通过目标检测的方法得到飞行器相对于物品的位置,进而得到飞行器在世界坐标系下的位置,对飞行器内环得到的位姿信息进行外环修正。
本发明中扑翼飞行器只需用到自身携带的传感器包括惯性测量单元传感器与单目摄像头即可实现,惯性传感器获得扑翼飞行器的累积位姿信息,单目摄像头获得飞行器周围环境信息。所述滤波器包含的状态量由惯性单元有关量与单目相机有关量构成。所述滤波器中与惯性单元有关的状态量为
由于惯性单元的状态量波动较大,数据分布特性不稳定,因此采用真实值与估计值之间的残差量作为滤波器状态量
所述滤波器中与单目相机有关的状态量为每个采样时刻相机的位姿信息。惯性单元与单目相机的信息构成完整的滤波器状态量
同样变为状态量的残差形式
本发明中使用FAST角点检测法采集特征点,使用LK光流法对特征点进行跟踪,得到每个特征点在不同相机观测位姿下的重投影误差,作为滤波器的内环观测量。利用最小二乘法得到的特征点在世界坐标系下的坐标估计值,并转化到相机坐标系下,得到特征点在相机坐标系下的估计值为:
对周围环境中位置已知的物体,比如门窗,采用图像颜色域分割,得到物体的大致位置;对所述的分割物体,采用角点检测,得到物体的角点的大致位置;对所述的采集得到的角点,采用非极大值抑制的方法,得到角点的精确位置。
以门为例,具体方法为:获得门的四个角点在世界坐标系下的坐标,同时获得门的颜色的像素值,存入扑翼飞行器的存储器中。在运动过程中,若在图像中检测到存在一个区域,其颜色像素值与门的像素值相近,则通过施加掩膜的方法将图像二值化,提取出该区域。然后利用角点检测的方法提取出该区域的四个角点。由于在提取角点的时候会存在特征点位置集中的现象,即在门的一个角点出检测出多个特征点,因此对于每个角点附近的特征点采用极大值抑制的方法,选取出其中像素值变化最明显的特征点,作为门的角点所在的位置。然后利用EPnP的方法得到飞行器自身位置的观测值。若观测值与状态量预测值相差在允许范围内,则认为得到了合理的观测值,进行外环校正。对所述的采集得到的物体角点的精确位置,采用EPnP方法,得到飞行器自身位姿,作为飞行器的外环观测量,进行飞行器位姿修正。
本发明中滤波器的运行流程可以如图2所示,主要分为
(1)处理器接收到惯性传感器测量得到的数据,利用加速度与角速度信息进行状态量的累积,得到飞行器位姿的预测量。
(2)由于惯性传感器的采样频率为200Hz左右,远大于图像的采样频率(20Hz左右),因此如果处理器未接收到最新的图像数据,则不断重复利用惯性传感器数据累积,得到位姿预测量;若处理器接收到最新的图像数据,则计算观测量误差,进行内环更新;
若相机未采集到位置已知的物体,则重复(1)(2);若相机采集到了含有位置已知的物体的图像,则在进行(1)(2)的同时,进行状态量的外环校正,减小状态量的漂移。
所述的滤波器结构如图3所示。本发明使用的是基于多状态限制卡尔曼滤波器的滤波算法。状态量预测公式为:
观测模型为
增益矩阵为
状态量更新
ΔX=Krn
协方差矩阵更新
Pk+1∣k+1=(I-KTH)Pk+1∣k(I-KTH)T+KRnKT。
Claims (5)
1.扑翼飞行器室内视觉定位方法,其特征在于,该方法基于扑翼飞行器的传感器并采用基于滤波的传感器融合方法实现,所述传感器包括惯性传感器与摄像头,所述方法包括内环的基于MSCKF的飞行器定位以及外环的基于室内已知目标点的位姿修正两部分,具体包括:首先获得扑翼飞行器初始状态的位置信息以及姿态信息,在扑翼飞行器飞行的过程中,获得飞行器的累积位姿信息,利用惯性传感器获得的测量值进行扑翼飞行器位姿的预测,并利用摄像头得到的周围环境的点云信息进行内环的位姿修正;利用摄像头检测的周围环境中的目标点信息进行外环的位姿修正。
2.根据权利要求1所述的扑翼飞行器室内视觉定位方法,其特征在于,包括:
步骤S1,获得扑翼飞行器的初始状态的位置信息X0,以及周围环境中已知的物体位置信息;
步骤S2,通过扑翼飞行器初始状态的位置信息X0及惯性传感器所测得的三轴加速度信息,进行多状态限制卡尔曼滤波器的参数初始化,得到初始状态扑翼飞行器的姿态信息,以及惯性传感器的传感器零偏与噪声的特征信息;
步骤S3,在扑翼飞行器飞行过程中,通过惯性传感器获得扑翼飞行器机体坐标系下三轴的加速度信息与角速度信息,通过加速度与角速度测量值对时间积分,得到飞行器的累积位置与姿态信息;
步骤S4,通过机载单目摄像头获得周围环境的点云信息,利用点云信息得到飞行器当前位姿的观测量,进而在滤波器框架下对步骤S3中得到的飞行器累积位姿进行修正;
步骤S5,若单目摄像头检测到环境中位置已知的物品,则通过目标检测的方法得到飞行器相对于物品的位置,进而得到飞行器在世界坐标系下的位置,对飞行器内环得到的位姿信息进行外环修正。
4.根据权利要求1所述扑翼飞行器室内视觉定位方法,其特征在于,对周围环境中位置已知的物体,采用图像颜色域分割,再采用角点检测,得到物体的角点的大致位置后,采用非极大值抑制的方法,得到角点的精确位置。
5.根据权利要求4所述扑翼飞行器室内视觉定位方法,其特征在于,对所述的采集得到的物体角点的精确位置,采用EPnP方法,得到飞行器自身位姿,作为飞行器的外环观测量,进行飞行器位姿修正。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110424893.2A CN113218394A (zh) | 2021-04-20 | 2021-04-20 | 扑翼飞行器室内视觉定位方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110424893.2A CN113218394A (zh) | 2021-04-20 | 2021-04-20 | 扑翼飞行器室内视觉定位方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113218394A true CN113218394A (zh) | 2021-08-06 |
Family
ID=77088246
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110424893.2A Pending CN113218394A (zh) | 2021-04-20 | 2021-04-20 | 扑翼飞行器室内视觉定位方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113218394A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115840459A (zh) * | 2023-01-04 | 2023-03-24 | 北京科技大学 | 一种面向扑翼飞行器的单目视觉避障系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108007456A (zh) * | 2017-12-06 | 2018-05-08 | 深圳市致趣科技有限公司 | 一种室内导航方法、装置及系统 |
CN109341686A (zh) * | 2018-12-04 | 2019-02-15 | 中国航空工业集团公司西安航空计算技术研究所 | 一种基于视觉-惯性紧耦合的飞行器着陆位姿估计方法 |
CN109520497A (zh) * | 2018-10-19 | 2019-03-26 | 天津大学 | 基于视觉和imu的无人机自主定位方法 |
US20200053292A1 (en) * | 2018-08-10 | 2020-02-13 | Aurora Flight Sciences Corporation | Object-Tracking System |
CN111197984A (zh) * | 2020-01-15 | 2020-05-26 | 重庆邮电大学 | 一种基于环境约束下的视觉-惯性运动估计方法 |
CN111811506A (zh) * | 2020-09-15 | 2020-10-23 | 中国人民解放军国防科技大学 | 视觉/惯性里程计组合导航方法、电子设备及存储介质 |
-
2021
- 2021-04-20 CN CN202110424893.2A patent/CN113218394A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108007456A (zh) * | 2017-12-06 | 2018-05-08 | 深圳市致趣科技有限公司 | 一种室内导航方法、装置及系统 |
US20200053292A1 (en) * | 2018-08-10 | 2020-02-13 | Aurora Flight Sciences Corporation | Object-Tracking System |
CN109520497A (zh) * | 2018-10-19 | 2019-03-26 | 天津大学 | 基于视觉和imu的无人机自主定位方法 |
CN109341686A (zh) * | 2018-12-04 | 2019-02-15 | 中国航空工业集团公司西安航空计算技术研究所 | 一种基于视觉-惯性紧耦合的飞行器着陆位姿估计方法 |
CN111197984A (zh) * | 2020-01-15 | 2020-05-26 | 重庆邮电大学 | 一种基于环境约束下的视觉-惯性运动估计方法 |
CN111811506A (zh) * | 2020-09-15 | 2020-10-23 | 中国人民解放军国防科技大学 | 视觉/惯性里程计组合导航方法、电子设备及存储介质 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115840459A (zh) * | 2023-01-04 | 2023-03-24 | 北京科技大学 | 一种面向扑翼飞行器的单目视觉避障系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106643737B (zh) | 风力干扰环境下四旋翼飞行器姿态解算方法 | |
CN107014380B (zh) | 基于飞行器的视觉导航与惯性导航的组合导航方法 | |
Bayard et al. | Vision-based navigation for the NASA mars helicopter | |
CN110243358A (zh) | 多源融合的无人车室内外定位方法及系统 | |
CN113124856B (zh) | 基于uwb在线锚点的视觉惯性紧耦合里程计及计量方法 | |
CN110726406A (zh) | 一种改进的非线性优化单目惯导slam的方法 | |
CN116182837A (zh) | 基于视觉激光雷达惯性紧耦合的定位建图方法 | |
CN108444468B (zh) | 一种融合下视视觉与惯导信息的定向罗盘 | |
CN113465596B (zh) | 一种基于多传感器融合的四旋翼无人机定位方法 | |
CN113218394A (zh) | 扑翼飞行器室内视觉定位方法及系统 | |
Xian et al. | Hovering control of a nano quadrotor unmanned aerial vehicle using optical flow | |
CN112444245A (zh) | 一种基于偏振光、光流矢量、双目视觉传感器的仿昆虫视觉组合导航方法 | |
CN112254723A (zh) | 基于自适应ekf算法的小型无人机marg航姿估计方法 | |
Crocoll et al. | Quadrotor inertial navigation aided by a vehicle dynamics model with in-flight parameter estimation | |
Liu et al. | Semi-dense visual-inertial odometry and mapping for quadrotors with swap constraints | |
CN113206951B (zh) | 一种基于扑翼飞行系统的实时电子稳像方法 | |
CN115727842A (zh) | 一种无人机快速对准方法、系统、计算机设备及存储介质 | |
CN112556691B (zh) | 一种用于无人机自主导航与温度测量系统的方法 | |
Zhang et al. | Research on UAV attitude data fusion algorithm based on quaternion gradient descent | |
Cao et al. | Research on application of computer vision assist technology in high-precision UAV navigation and positioning | |
Zhang et al. | An improved MCS/INS integrated navigation algorithm for multi-rotor UAV in indoor flight | |
Shen et al. | Vision-based Autonomous Tracking and Landing Method for UAV on a Dynamic Platform | |
Qi et al. | A state estimator of UAV using time-delayed position and IMU data | |
Dong et al. | Robot Global Relocalization Based on Multi-sensor Data Fusion | |
CN111207741A (zh) | 一种基于室内视觉vicon系统的无人机导航定位方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20210806 |
|
WD01 | Invention patent application deemed withdrawn after publication |