CN114170527A - 一种利用旋转框表示的遥感目标检测方法 - Google Patents

一种利用旋转框表示的遥感目标检测方法 Download PDF

Info

Publication number
CN114170527A
CN114170527A CN202111446011.9A CN202111446011A CN114170527A CN 114170527 A CN114170527 A CN 114170527A CN 202111446011 A CN202111446011 A CN 202111446011A CN 114170527 A CN114170527 A CN 114170527A
Authority
CN
China
Prior art keywords
regression
target
network
rotating frame
remote sensing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111446011.9A
Other languages
English (en)
Other versions
CN114170527B (zh
Inventor
冯鹏铭
贺广均
常江
刘世硕
石慧峰
杨志才
符晗
田路云
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Space Star Technology Co Ltd
Original Assignee
Space Star Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Space Star Technology Co Ltd filed Critical Space Star Technology Co Ltd
Priority to CN202111446011.9A priority Critical patent/CN114170527B/zh
Publication of CN114170527A publication Critical patent/CN114170527A/zh
Application granted granted Critical
Publication of CN114170527B publication Critical patent/CN114170527B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种利用旋转框表示的遥感目标检测方法,包括如下步骤:步骤1:对样本标签中给定的旋转框四个顶点,转换为水平竖直框及旋转参数的表示;步骤2:获取特征图;步骤3:在步骤2中获取的特征图上采样;步骤4:在步骤3获取的特征图上选取关键点,并构建目标分类、矩形框长宽回归及旋转角度回归三个网络分支;步骤5:融合目标分类、矩形框长宽回归两个子网络的特征,对旋转角度回归分支修正;步骤6:通过网络训练,获取目标分类、矩形框长宽回归及旋转角度回归结果;步骤7:结合步骤6的结果,利用几何变换,获得目标旋转框。本发明有效提高了回归的精度,进而提高了检测的准确度。

Description

一种利用旋转框表示的遥感目标检测方法
技术领域
本发明涉及一种利用旋转框表示的遥感目标检测方法,属于目标检测与遥感图像处理技术领域。
背景技术
随着遥感图像分辨率和成像质量的逐渐提升,从高分辨率遥感图像中提取感兴趣的目标成为可能。利用基于卷积神经网络的深度学习技术通过对目标特征的自动提取,已经可以很好地检测遥感图像中目标。然而,目前主流技术大多数利用水平竖直矩形框表示目标,忽略了目标的角度。从另一方面来讲,遥感图像中目标在很多情况下呈紧密排布,利用水平竖直矩形框表示目标容易造成检测结果的重叠,且难以准确提取目标特征,使得表示目标位置、方位等信息带来困难。利用带有方向的旋转框,可利用遥感图像中的目标俯视条件下形状不变等特性,更准确地表示目标。
常见基于深度学习的目标检测方法主要分两种:1.多步检测器,即在特征提取主干网络提取的特征图上,借助锚框(Anchor)利用区域建议网络(Region ProposalNetwork,RPN)先将目标及背景区分开,再针对RPN的输出结果进行目标分类和回归;2.单步检测器,主要分基于锚框和非锚框两种,基于锚框的检测器利用锚框预测锚框在特征图上直接预测目标,然后再进行回归和分类;而基于非锚框的单步检测方法利用类似于关键点检测的方法,降采样后的特征图上直接对目标框的四个顶点进行预测,然后对目标进行分类并对顶点进行回归。
针对旋转框目标检测,基于锚框的方法在训练中,在RPN中设计多角度的锚框,利用多尺度、多角度锚框进行回归。而基于非锚框的方法,则直接对旋转框的四个顶点进行预测。
传统方法虽然可以获取目标的位置及角度信息,但忽略了目标类别、尺寸及角度之间的关系。而遥感图像中的目标介于其俯视的特性,具有尺寸不变等特征,此外,不同类别的目标在图像中的尺寸也不尽相同。合理尺寸、类别和角度之间的关系,可提升目标检测的准确度。
发明内容
本发明解决的技术问题是:克服现有技术的不足,提出一种利用旋转框表示的遥感目标检测方法,将标签中目标的旋转框利用水平竖直框和旋转参数表示,在分支网络中,利用注意力机制整合尺寸、类别和旋转参数三个分支,有效提高了回归的精度,进而提高了检测的准确度。
本发明解决技术的方案是:
一种利用旋转框表示的遥感目标检测方法,包括如下步骤:
步骤1:对样本标签中给定的旋转框四个顶点,通过几何变换的方式,转换为水平竖直框及旋转参数的表示;
步骤2:利用卷积神经网络作为特征提取主干网络,获取特征图;
步骤3:利用特征金字塔网络FPN在步骤2中获取的特征图上采样;
步骤4:在步骤3获取的特征图上选取关键点,并构建目标分类、矩形框长宽回归及旋转角度回归三个网络分支;
步骤5:融合目标分类、矩形框长宽回归两个子网络的特征,对旋转角度回归分支修正;
步骤6:通过网络训练,获取目标分类、矩形框长宽回归及旋转角度回归结果;
步骤7:结合步骤6的结果,利用几何变换,获得目标旋转框。
进一步的,步骤1按如下过程进行:
利用几何变换,将样本标签中的旋转框OBB转换为利用水平竖直框HBB及旋转参数(w,h)进行表示。
进一步的,步骤5按如下过程进行:
步骤(5.1)针对三个分支网络,进行空洞卷积,获取三个网络分支;
步骤(5.2)用1×1卷积将目标分类网络分支与HBB回归分支的融合,得到特征图Fm;
步骤(5.3)利用三个卷积层f(Fm),g(Fm),h(Fm)将Fm投影到三个空间,以此构建注意力机制网络结构;
步骤(5.4)构建注意力层Θ=(θ1,θ2,...θq,...,θN),为保留原始特征图防止梯度消失,利用凸函数权重融合注意力层特征及原特征,得到最终特征图:
Y=Θ+λFm
进一步的,其中f(·)和g(·)利用softmax函数构建注意力特征图γ:
γ=softmax(f(Fm)Tg(Fm))
h(·)用来获取原始的特征图。
进一步的,θq的计算方式为:
Figure BDA0003384860480000031
其中p和q代表f(Fm)Tg(Fm)输出矩阵的行和列。
本发明与现有技术相比的有益效果是:
(1)本发明利用单步检测框架的深度学习网络检测遥感图像中目标的位置、尺寸、角度及类别信息,并利用自注意力机制联合各检测网络分支,通过损失函数的设计及训练,获取高分辨率遥感图像中目标的位置、尺寸及角度信息,并用带有角度信息的旋转框表示目标,提高了遥感图像目标检测的精度,解决传统水平竖直框检测中目标密集排列等因素对检测器造成的干扰;
(2)本发明将标签中目标的旋转框利用水平竖直框和旋转参数表示,在分支网络中,利用自注意力机制整合尺寸、类别和旋转参数三个分支,有效提高了回归的精度,进而提高了检测的准确度。
附图说明
图1是本发明方法流程图;
图2是旋转框与水平竖直框之间的几何变换示意图;
图3是注意力机制模型示意图。
具体实施方式
下面结合实施例对本发明作进一步阐述。
本发明所要决的问题是针对高分辨率遥感图像中目标检测的问题,具体针对旋转框目标检测,提出了一种利用水平竖直框和旋转参数表示旋转框的方法,使得网络框架可以实现利用单步非锚框流程实现旋转框的目标检测;基于此变换方法,本发明解决的另一个关键问题是旋转框目标检测中目标类别、尺寸及角度三个预测分支的关联问题,通过建立三个分支的关联模型,提升目标检测的准确度。
本发明的技术思路是:对给定的目标位置标签,先将标签中的旋转框四个顶点的表示方法转换为本专利中介绍的水平竖直框配合旋转参数的表示方法;在训练中,利用注意力机制,整合三个网络分支,构建预测模型,实现针对遥感图像的旋转框目标检测。为达到上述目的,具体实现步骤如下:
步骤1:对样本标签中给定的旋转框四个顶点,通过几何变换的方式,转换为水平竖直框及旋转参数的表示方法;
步骤2:利用卷积神经网络作为特征提取主干网络,获取特征图;
步骤3:利用FPN将步骤二中获取的特征图上采样;
步骤4:在步骤3获取的特征图上选取关键点,并构建目标分类、矩形框长宽回归及旋转角度回归三个网络分支;
步骤5:融合目标分类、矩形框长宽回归两个子网络的特征,并利用其对旋转角度回归分支修正;
步骤6:通过网络训练,获取目标分类、矩形框长宽回归及旋转角度回归结果;
步骤7:利用步骤七的结果,利用几何变换,获得目标旋转框。
实施例
参照图1,具体说明本发明的遥感目标旋转框目标检测方法,其具体包括以下步骤:
步骤1:如图2利用几何变换,将样本标签中的旋转框(Orientation BoundingBox,OBB)转换为利用水平竖直框(Horizontal Bounding Box,HBB)及旋转参数(w,h)表示;
步骤2:利用Resnet-101提取输入样本特征,得到特征图Ci,其中i为特征图的层数;
步骤3:应用特征金字塔结构,首先对步骤2中获得的特征图C3、C4、C5上采样,得到特征图P3、P4、P5,再对P5降采样,得到P6、P7,并利用1×1卷积,将特征金字塔中P3、P4、P5、P6、P7级联,得到不同尺度的特征“头”(Feature Head);
步骤4:在步骤3获取的Feature Head基础上,在获取的大小为W×H×C特征图Fi上建立三个网络分支,其中W×H为特征图二维尺寸,C为目标类别数:
步骤(4.1)假设s为从输入到第i层的总步长,针对特征图Fi上的一个位置ps=(xs,ys),其在输入图像上的位置为:
Figure BDA0003384860480000051
Figure BDA0003384860480000052
其中,
Figure BDA0003384860480000053
代表向下取整;
步骤(4.2)在分类网络分支设计中,如果(x,y)在输入图像中的位置在标签中OBB的框内,则代表的类别c=1,即为该类目标,反之c=0;
步骤(4.3)在回归网络设计中,针对位置ps=(xs,ys),首先利用四维向量[l,r,t,b]表示其对应的HBB,如图2所示,即ps对应的OBB表示为[l,r,t,b,w,h],其中[l,r,t,b]利用尺寸回归分支网络回归,[w,h]利用旋转参数分支网络回归;
步骤5:如图3,构建基于注意力机制的旋转框回归模型:
步骤(5.1)针对三个分支网络,进行空洞卷积(Deformable ConvolutionNetwork,DCN),获取三个网络分支;
步骤(5.2)用1×1卷积将目标分类网络分支与HBB回归分支的融合,得到特征图Fm;
步骤(5.3)利用三个卷积层f(Fm),g(Fm),h(Fm)将Fm投影到三个空间,以此构建注意力机制网络结构,其中f(·)和g(·)利用softmax函数构建了注意力特征图γ:
γ=softmax(f(Fm)Tg(Fm))
h(·)用来获取原始的特征图;
步骤(5.4)构建注意力层Θ=(θ1,θ2,...θq,...,θN),其中θq的计算方式为:
Figure BDA0003384860480000061
其中p和q代表f(Fm)Tg(Fm)输出矩阵的行和列,为保留原始特征图防止梯度消失,利用凸函数权重融合注意力层特征及原特征,得到最终特征图:
Y=Θ+λFm
步骤6:设计损失函数,计算各网络分支的损失,利用整体损失,训练网络:
步骤(6.1)在目标分类网络分支采用focal loss计算损失,公式如下:
Figure BDA0003384860480000062
其中M为图像中选取的关键点个数;
步骤(6.2)利用Smooth-L1loss计算HBB分支网络loss及旋转角度分支网络的loss;
步骤(6.3)三个分支网络loss加权平均,得到总loss:
Figure BDA0003384860480000063
其中Npos是正样本数量,Lcls,Lreg和Lrego分别为分类、HBB回归及角度回归的loss;
步骤7:针对输入高分辨率遥感图像,利用训练好的网络进行旋转框目标检测,并输出结果。
通过以上步骤,可实现高分辨率遥感图像中的旋转框目标检测。该方法通过旋转框与水平竖直框之间的几何变换,解决了单步非锚框的旋转框目标检测的问题。在检测网络训练中,采用了注意力机制,获取分类及回归网络分支的关联,提高了检测准确度,对高分辨率遥感图像旋转框目标检测具有重要意义。
本发明虽然已以较佳实施例公开如上,但其并不是用来限定本发明,任何本领域技术人员在不脱离本发明的精神和范围内,都可以利用上述揭示的方法和技术内容对本发明技术方案做出可能的变动和修改,因此,凡是未脱离本发明技术方案的内容,依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化及修饰,均属于本发明技术方案的保护范围。

Claims (5)

1.一种利用旋转框表示的遥感目标检测方法,其特征在于,包括如下步骤:
步骤1:对样本标签中给定的旋转框四个顶点,通过几何变换的方式,转换为水平竖直框及旋转参数的表示;
步骤2:利用卷积神经网络作为特征提取主干网络,获取特征图;
步骤3:利用特征金字塔网络FPN在步骤2中获取的特征图上采样;
步骤4:在步骤3获取的特征图上选取关键点,并构建目标分类、矩形框长宽回归及旋转角度回归三个网络分支;
步骤5:融合目标分类、矩形框长宽回归两个子网络的特征,对旋转角度回归分支修正;
步骤6:通过网络训练,获取目标分类、矩形框长宽回归及旋转角度回归结果;
步骤7:结合步骤6的结果,利用几何变换,获得目标旋转框。
2.根据权利要求1所述的一种利用旋转框表示的遥感目标检测方法,其特征在于,步骤1按如下过程进行:
利用几何变换,将样本标签中的旋转框OBB转换为利用水平竖直框HBB及旋转参数(w,h)进行表示。
3.根据权利要求2所述的一种利用旋转框表示的遥感目标检测方法,其特征在于,步骤5按如下过程进行:
步骤(5.1)针对三个分支网络,进行空洞卷积,获取三个网络分支;
步骤(5.2)用1×1卷积将目标分类网络分支与HBB回归分支的融合,得到特征图Fm;
步骤(5.3)利用三个卷积层f(Fm),g(Fm),h(Fm)将Fm投影到三个空间,以此构建注意力机制网络结构;
步骤(5.4)构建注意力层Θ=(θ1,θ2,...θq,...θN),为保留原始特征图防止梯度消失,利用凸函数权重融合注意力层特征及原特征,得到最终特征图:
Y=Θ+λFm
4.根据权利要求3所述的一种利用旋转框表示的遥感目标检测方法,其特征在于,其中f(·)和g(·)利用softmax函数构建注意力特征图γ:
Figure FDA0003384860470000021
h(·)用来获取原始的特征图。
5.根据权利要求3所述的一种利用旋转框表示的遥感目标检测方法,其特征在于,θq的计算方式为:
Figure FDA0003384860470000022
其中p和q代表f(Fm)Tg(Fm)输出矩阵的行和列。
CN202111446011.9A 2021-11-30 2021-11-30 一种利用旋转框表示的遥感目标检测方法 Active CN114170527B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111446011.9A CN114170527B (zh) 2021-11-30 2021-11-30 一种利用旋转框表示的遥感目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111446011.9A CN114170527B (zh) 2021-11-30 2021-11-30 一种利用旋转框表示的遥感目标检测方法

Publications (2)

Publication Number Publication Date
CN114170527A true CN114170527A (zh) 2022-03-11
CN114170527B CN114170527B (zh) 2024-09-24

Family

ID=80481800

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111446011.9A Active CN114170527B (zh) 2021-11-30 2021-11-30 一种利用旋转框表示的遥感目标检测方法

Country Status (1)

Country Link
CN (1) CN114170527B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115019181A (zh) * 2022-07-28 2022-09-06 北京卫星信息工程研究所 遥感图像旋转目标检测方法、电子设备及存储介质
CN116012719A (zh) * 2023-03-27 2023-04-25 中国电子科技集团公司第五十四研究所 一种基于多实例学习的弱监督旋转目标检测方法
CN116630794A (zh) * 2023-04-25 2023-08-22 北京卫星信息工程研究所 基于排序样本选择的遥感图像目标检测方法、电子设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2013112727A (ru) * 2013-03-21 2014-09-27 Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования "Ивановский государственный энергетический университет имени В.И. Ленина" (ИГЭУ) Устройство для измерения кинематических и силовых параметров кисти
WO2020102988A1 (zh) * 2018-11-20 2020-05-28 西安电子科技大学 基于特征融合和稠密连接的红外面目标检测方法
CN111476167A (zh) * 2020-04-09 2020-07-31 北京中科千寻科技有限公司 一种基于学生-t分布辅助的一阶段方向遥感图像目标检测方法
US20210303997A1 (en) * 2020-03-31 2021-09-30 Beijing Xiaomi Pinecone Electronics Co., Ltd. Method and apparatus for training a classification neural network, text classification method and apparatuses, and device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2013112727A (ru) * 2013-03-21 2014-09-27 Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования "Ивановский государственный энергетический университет имени В.И. Ленина" (ИГЭУ) Устройство для измерения кинематических и силовых параметров кисти
WO2020102988A1 (zh) * 2018-11-20 2020-05-28 西安电子科技大学 基于特征融合和稠密连接的红外面目标检测方法
US20210303997A1 (en) * 2020-03-31 2021-09-30 Beijing Xiaomi Pinecone Electronics Co., Ltd. Method and apparatus for training a classification neural network, text classification method and apparatuses, and device
CN111476167A (zh) * 2020-04-09 2020-07-31 北京中科千寻科技有限公司 一种基于学生-t分布辅助的一阶段方向遥感图像目标检测方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115019181A (zh) * 2022-07-28 2022-09-06 北京卫星信息工程研究所 遥感图像旋转目标检测方法、电子设备及存储介质
CN116012719A (zh) * 2023-03-27 2023-04-25 中国电子科技集团公司第五十四研究所 一种基于多实例学习的弱监督旋转目标检测方法
CN116630794A (zh) * 2023-04-25 2023-08-22 北京卫星信息工程研究所 基于排序样本选择的遥感图像目标检测方法、电子设备
CN116630794B (zh) * 2023-04-25 2024-02-06 北京卫星信息工程研究所 基于排序样本选择的遥感图像目标检测方法、电子设备

Also Published As

Publication number Publication date
CN114170527B (zh) 2024-09-24

Similar Documents

Publication Publication Date Title
CN111986099B (zh) 基于融合残差修正的卷积神经网络的耕地监测方法及系统
CN108573276B (zh) 一种基于高分辨率遥感影像的变化检测方法
CN110263717B (zh) 一种融入街景影像的土地利用类别确定方法
CN114170527A (zh) 一种利用旋转框表示的遥感目标检测方法
CN103400151B (zh) 一体化的光学遥感影像与gis自动配准与水体提取方法
CN111582194B (zh) 基于多特征lstm网络的多时相高分辨率遥感影像的建筑物提取方法
CN103034863B (zh) 一种结合核Fisher与多尺度提取的遥感影像道路获取方法
CN104599258B (zh) 一种基于各向异性特征描述符的图像拼接方法
CN106503739A (zh) 联合光谱和纹理特征的高光谱遥感影像svm分类方法及系统
CN107067405B (zh) 基于尺度优选的遥感影像分割方法
CN112381013B (zh) 基于高分辨率遥感影像的城市植被反演方法及系统
CN111639587B (zh) 基于多尺度谱空卷积神经网络的高光谱图像分类方法
CN107341795A (zh) 一种知识驱动的高空间分辨率遥感影像自动变化检测方法
CN112766155A (zh) 一种基于深度学习的海水养殖区提取方法
CN107273813A (zh) 基于高分卫星遥感数据的地理空间要素提取系统
CN113657324A (zh) 基于遥感影像地物分类的城市功能区识别方法
CN113298039B (zh) 一种顾及遥感图像旋转目标的目标检测方法
CN113312993B (zh) 一种基于PSPNet的遥感数据土地覆盖分类方法
CN113033315A (zh) 一种稀土开采高分影像识别与定位方法
KR101941043B1 (ko) 고화질 항공 이미지에서의 물체 검출 방법
CN106530345A (zh) 一种同机影像辅助下的建筑物三维激光点云特征提取方法
CN114723709A (zh) 隧道病害检测方法、装置和电子设备
CN115049640B (zh) 一种基于深度学习的道路裂缝检测方法
CN117197686A (zh) 一种基于卫星影像的高标准农田地块边界自动识别方法
CN115937736A (zh) 基于注意力和上下文感知的小目标检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB03 Change of inventor or designer information

Inventor after: Feng Pengming

Inventor after: He Guangjun

Inventor after: Chang Jiang

Inventor after: Liu Shishuo

Inventor after: Shi Huifeng

Inventor after: Yang Zhicai

Inventor after: Fu Han

Inventor after: Tian Luyun

Inventor before: Feng Pengming

Inventor before: He Guangjun

Inventor before: Chang Jiang

Inventor before: Liu Shishuo

Inventor before: Shi Huifeng

Inventor before: Yang Zhicai

Inventor before: Fu Han

Inventor before: Tian Luyun

CB03 Change of inventor or designer information
GR01 Patent grant
GR01 Patent grant