CN111476155A - 基于时空图卷积神经网络与特征融合的人体动作分类方法 - Google Patents
基于时空图卷积神经网络与特征融合的人体动作分类方法 Download PDFInfo
- Publication number
- CN111476155A CN111476155A CN202010263150.7A CN202010263150A CN111476155A CN 111476155 A CN111476155 A CN 111476155A CN 202010263150 A CN202010263150 A CN 202010263150A CN 111476155 A CN111476155 A CN 111476155A
- Authority
- CN
- China
- Prior art keywords
- space
- time
- human body
- feature fusion
- node
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Molecular Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于时空图卷积神经网络与特征融合的人体动作分类方法。本发明结合人体的骨架关键点序列来构建视频中人体运动的时空图,并在时间和空间上划分子网络,在此基础上使用图卷积神经网络进行训练。此外,针对部份特征冗余的现象,还引入特征融合的方法,在原有模型的基础上增强模型检测结果的准确度。本发明方法能够有效避免特征冗余的问题,提高模型对人体动作分类的准确度和鲁棒性。
Description
技术领域
本发明涉及一种时空图卷积神经网络与特征融合的人体动作分类方法,属于计算机视觉人体姿态检测识别技术领域。
背景技术
人物姿态检测分类是指对影视视频中人物的运动进行模式识别后分类的一个过程,而随着如Microsoft Kinect,OpenPose这些人体姿态检测系统的成熟,人体关键点的运动轨迹为动作的描述提供了非常好的表征,基于骨架关键点的模型通常能传达出重要的特征信息,因此它也正在成为计算机视觉,特别是人物动作识别分类研究中的重要任务。
这项任务要求以连续的视频帧中检测到的人体骨架关键点序列为输入,能够输出在视频中发生的人物动作类别。在早期使用骨骼进行人物动作识别时,仅仅利用单个时间步长的关键点坐标形成的特征向量,对其进行时间分析,并没有显式地利用关键点之间的空间联系。在近期的研究中,利用关键点间自然联系的方法已经被开发出来,其效果较早期方法有着长足的进步,证明了连接的重要性。然而,大多数现有的方法依赖于手工制作的部件或规则来分析空间模式,因此为特定应用程序设计的模型很难推广到其他应用程序。
近来,随着可以对任意图结构进行卷积的图卷积GCN的令人惊喜的快速发展,人体运动姿态分类任务有了新的解决方向,不同于传统的基于图像的CNN卷积,GCN可以基于任意拓扑结构进行卷积,因此可以基于人体姿态估计构造拓扑的人体结构,对人体结构进行运动学分析,最后基于时序的人体结构进行CNN卷积,基于卷积的结果进行人体运动姿态分类。
而在卷积网络训练的过程中,关键点检测是检测人体的不同部分,并不是人体各个部分的特征都集中在最后一层特征图上,不同部分的特征可能会分布到不同尺度的特征图上,如果只是通过最后一层的特征图来进行关键点检测,会导致比较差的结果,特征融合可以有效避免特征冗余的问题,增强模型的准确性。
发明内容
发明目的:发明所要解决的技术问题是通过模型,使得对于输入的视频中人体骨架关键点序列,能够构建出时空图并以时间卷积划分子网,使用图卷积神经网络进行人体行为识别,并针对一些模式相同的特征使用特征融合方法,有效避免特征冗余的问题,提高模型对人体动作分类的准确度。
技术方案:为实现上述目的,本发明采用的技术方案为:
一种基于时空图卷积神经网络与特征融合的人体动作分类方法,包括以下步骤:
步骤1)输入一个经过OpenPose姿态估计软件预处理过的人体骨架关键点信息数据集,可得到骨架关键点的序列;
步骤2)为防止放入特征有过多冗余部分,影响模型准确性,选取模式相同的特征进行特征融合;
步骤3)使用每一帧每一个人体骨骼的坐标表示骨架关键点序列,基于此构建一个时空图,其中,人体的关节关键点为图的节点V,以骨架自然连接方式构建空间图,得到空间边集Esp;身体结构的连通性和时间上的连通性为图的时序边集Et。则由以上节点集与空间边集可构成所需时空图;
步骤4)对时空图分别进行空间构型划分和时序划分,最终得到空间划分与时序划分的笛卡尔积;
步骤5)针对划分后的时空图进行卷积神经网络训练,这一过程中每一个卷积层的输出都是一个时空图,每个节点保有特征向量,最后合并所有节点的特征并使用线性分类层实现动作分类。
其中,所述步骤1)具体如下:
利用OpenPose将人体关节如颈部、肩膀、膝盖、手腕等标注出来并连接成骨骼,从而实现姿态估计,此处只需要关注其输出,可由四维矩阵表示视频:A=(F,T,N,M),其中,F表示关节的特征,如关节节点的坐标(x,y)及其置信度,T表示关键帧数量,N表示关节点数量,M表示人数。
所述步骤2)具体如下:
采用contact系列特征融合,通过增加通道数将特征直接进行连接。每个输出通道的卷积核独立,设两路输入通道分别为X1,X2,...,Xn和Y1,Y2,...,Yn,则经过contact特征融合后的输出通道*表示卷积,K表示卷积核。
所述步骤3)具体如下:
步骤31)令构建出的时空图为G=(V,E),所述V为节点集,E为边集。帧数为T,序列上所有关节节点集合表示为:
V={vti|t=1...T,i=1...N}
第i个节点在t时刻的特征F(vit)由其坐标(x,y)以及置信度组成(参见:SpatialTemporal Graph Convolutional Networks for Skeleton-Based Action Recognition)。而边集E分为两个子集:空间边集Esp和时序边集Et。
步骤32)每一帧中按照人体自然骨架连接关系构造空间图,空间边集表示为Esp={(vti,vtj)|i,j∈B},所述B为骨架关节点的集合,vti、vtj为同一帧中两关节节点。
步骤33)相邻帧之间将同一个节点按时序关系构成时序边,表示对应关键节点的时序关系,时序边集表示为Et={(vti,v(t+1)i)|i∈B}。所述B为骨架关节点的集合,vti,v(t+1)i为相邻帧的同一节点。
所述步骤4)具体如下:
步骤41)在空间上按照以下规则划分子集:将一个节点的邻域划分为3个子集,①节点本身;②比节点本身更靠近骨架中心的相邻节点集;③比节点本身更远离骨架中心的相邻节点集。
步骤42)在时间上使用时序卷积对时序边网络进行划分,最终得到空间划分与时间划分的笛卡尔积。
本发明相比现有技术,具有以下有益效果:
本发明方法首先检测视频中人体骨架关键点,得到骨架序列,并针对具有相同模式的特征进行特征融合,消除了特征中的冗余信息。又通过将获取的节点特征信息在时间和空间上构建点集和边集,形成时空图,并分别进行时间和空间的子集划分,得到两者结合的笛卡尔积,最大可能地保留了原视频中的特征信息。最后还结合图卷积神经网络(GCN)和时序卷积神经网络(TCN)对时空图进行训练,合并节点特征并使用线性分类层实现结果分类,保证了模型的稳定性与检测结果准确性,具体来说:
(1)本发明通过使用时空图卷积神经网络,与传统训练分类方法相比,能保留原视频更多特征,提高检测分类结果准确性。
(2)本发明采用contact特征融合,使得具有相同模式的特征能够被合并,能够有效避免特征冗余的问题。
附图说明
图1是基于时空图卷积神经网络与特征融合的人体动作检测方法流程。
具体实施方式
下面结合附图和具体实施例,进一步阐明本发明,应理解这些实例仅用于说明本发明而不用于限制本发明的范围,在阅读了本发明之后,本领域技术人员对本发明的各种等价形式的修改均落于本申请所附权利要求所限定的范围。
在具体实施中,一种基于时空图卷积神经网络与特征融合的人体动作分类方法,该方法首先输入一个经过姿态估计软件预处理过的人体骨架关键点信息数据集,得到骨架关键点的序列;接着选取模式相同的特征进行特征融合;与此同时使用每一帧中每一个人体骨骼的坐标表示骨架关键点序列,基于此构建一个时空图。其中,人体的关节关键点为图的节点集V,以骨架自然连接方式构建空间图,得到边集Esp;身体结构的连通性和时间上的连通性为图的时序边集Et,由以上点集与边集构成时空图;然后对时空图分别进行空间构型划分和时序划分,最终得到空间划分与时序划分的笛卡尔积;最后针对划分后的时空图进行卷积神经网络训练,这一过程中每一个卷积层的输出都是一个时空图,每个节点保有特征向量,最后合并所有节点的特征并使用线性分类层实现动作分类。本发明可以有效地保留原视频中的特征,具有良好的分类效果,具体如下:
首先,输入一个经过OpenPose姿态估计软件预处理过的人体骨架关键点信息数据集,利用OpenPose将人体关节如颈部、肩膀、膝盖、手腕等标注出来并连接成骨骼,从而实现姿态估计,此处只需要关注其输出,可由四维矩阵表示视频:A=(F,T,N,M),其中,F表示关节的特征,T表示关键帧数量,N表示关节点数量,M表示人数,即可得到骨架关键点的序列和特征。
接着,选取模式相同的特征,采用contact系列特征融合,通过增加通道数将特征直接进行连接。每个输出通道的卷积核独立,设两路输入通道分别为X1,X2,...,Xn和Y1,Y2,...,Yn,则经过contact特征融合后的输出通道*表示卷积,K表示卷积核。
与此同时,使用每一帧每一个人体骨骼的坐标表示骨架关键点序列,基于此构建一个时空图。令构建出的时空图为G=(V,E),所述V为节点集,E为边集。帧数为T,序列上所有关节节点集合表示为:
V={vti|t=1...T,i=1...N}
第i个节点在t时刻的特征F(vit)由其坐标(x,y)以及置信度组成。而边集E={Esp,Et},包含空间边集Esp和时序边集Et。每一帧中按照人体自然骨架连接关系构造空间图,空间边集表示为Esp={(vti,vtj)|i,j∈B},所述B为骨架关节点的集合,vti,vtj为同一帧中两关节节点。相邻帧之间将同一个节点按时序关系连成时序边,表示对应关键点的时序关系,时序边集表示为Et={(vti,v(t+1)i)|i∈B},所述vti,v(t+1)i为相邻帧的同一节点。
然后,对时空图分别进行空间构型划分和时序划分。在空间上按照以下规则划分子集:将一个节点的邻域划分为3个子集,①节点本身;②比节点本身更靠近骨架中心的相邻节点集;③比节点本身更远离骨架中心的相邻节点集。在时间上使用时序卷积对时序边网络进行划分,最终得到空间划分与时间划分的笛卡尔积。
最后,针对划分后的时空图进行卷积神经网络训练,这一过程中每一个卷积层的输出都是一个时空图,每个节点保有特征向量,最后合并所有节点的特征并使用线性分类层实现动作分类。
以上所述仅是本发明的优选实施方式,应当指出:对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (5)
1.一种基于时空图卷积神经网络与特征融合的人体动作分类方法,其特征在于采用时空图与特征融合,包括以下步骤:
步骤1)通过一个经过姿态估计软件预处理过的人体骨架关键点信息数据集,得到骨架关键点的序列;
步骤2)选取其中模式相同的特征进行特征融合;
步骤3)使用每一帧中每一个人体骨骼的坐标表示骨架关键点序列,基于此构建一个时空图;其中,人体的关节关键点为图的节点集V,以骨架自然连接方式构建空间图,得到空间边集Esp;身体结构的连通性和时间上的连通性为图的时序边集Et;由以上节点集与空间边集构成时空图;
步骤4)对时空图分别进行空间构型划分和时序划分,最终得到空间划分与时序划分的笛卡尔积;
步骤5)针对划分后的时空图进行卷积神经网络训练,这一过程中每一个卷积层的输出都是一个时空图,每个节点保有特征向量,最后合并所有节点的特征并使用线性分类层实现动作分类。
2.根据权利要求1所述的一种基于时空图卷积神经网络与特征融合的人体动作分类方法,其特征在于,所述步骤1)中利用姿态估计软件将包括颈部、肩膀、膝盖、手腕在内的人体关节标注出来并连接成骨架,此处只关注其输出,由四维矩阵表示视频:A=(F,T,N,M),其中,A表示视频输出结果,F表示关节的特征,如关节节点的坐标(x,y)及其置信度,T表示关键帧数量,N表示关节点数量,M表示人数。
4.根据权利要求1所述的一种基于时空图卷积神经网络与特征融合的人体动作分类方法,其特征在于,所述步骤3)具体如下:
步骤31),令构建出的时空图为G=(V,E),所述V为节点集,E为边集,帧数为T,关节点数量为N,将节点以v表示,则视频序列上所有关节节点集合表示为:
V={vti|t=1…T,i=1…N}
第i个节点在t时刻的特征F(vit)由其坐标(x,y)以及置信度组成;边集E分为两个子集:空间边集Esp和时序边集Et;
步骤32),在每一帧中按照人体自然骨架连接关系构造空间图,空间边集表示为Esp={(vti,vtj)|i,j∈B},B为骨架关节自然连接点的集合,vti,vtj为同一帧中两关节节点,i、j表示人体骨架的两处自然连接;
步骤33),相邻帧之间将同一个节点按时序关系连成时序边,表示对应关键节点的时序关系,时序边集表示为Et={(vti,v(t+1)i)|i∈B},B为骨架关节点的集合,vti,v(t+1)i为相邻帧的同一节点。
5.根据权利要求1所述的一种基于时空图卷积神经网络与特征融合的人体动作分类方法,其特征在于,所述步骤4)具体如下:
步骤41),在空间上按照以下规则划分子集:将一个节点的邻域划分为3个子集:①节点本身;②比节点本身更靠近骨架中心的相邻节点集;③比节点本身更远离骨架中心的相邻节点集;
步骤42),在时间上使用时序卷积对时序边网络进行划分,最终得到空间划分与时间划分的笛卡尔积。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010263150.7A CN111476155A (zh) | 2020-04-07 | 2020-04-07 | 基于时空图卷积神经网络与特征融合的人体动作分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010263150.7A CN111476155A (zh) | 2020-04-07 | 2020-04-07 | 基于时空图卷积神经网络与特征融合的人体动作分类方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111476155A true CN111476155A (zh) | 2020-07-31 |
Family
ID=71749881
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010263150.7A Withdrawn CN111476155A (zh) | 2020-04-07 | 2020-04-07 | 基于时空图卷积神经网络与特征融合的人体动作分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111476155A (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112257511A (zh) * | 2020-09-24 | 2021-01-22 | 北京影谱科技股份有限公司 | 一种动作识别方法、装置、计算设备及存储介质 |
CN112303861A (zh) * | 2020-09-28 | 2021-02-02 | 山东师范大学 | 一种基于人体热适应性行为的空调温度调节方法及系统 |
CN112733789A (zh) * | 2021-01-20 | 2021-04-30 | 清华大学 | 一种基于动态时空图的视频推理方法、装置、设备及介质 |
CN113205595A (zh) * | 2021-05-21 | 2021-08-03 | 华中科技大学 | 一种3d人体姿态估计模型的构建方法及其应用 |
CN113240044A (zh) * | 2021-06-01 | 2021-08-10 | 北京理工大学 | 一种基于多Kinect的人体骨骼数据融合评价方法 |
CN113963304A (zh) * | 2021-12-20 | 2022-01-21 | 山东建筑大学 | 基于时序-空间图的跨模态视频时序动作定位方法及系统 |
CN114550308A (zh) * | 2022-04-22 | 2022-05-27 | 成都信息工程大学 | 基于时空图的人体骨骼动作识别方法 |
CN115019386A (zh) * | 2022-04-15 | 2022-09-06 | 北京航空航天大学 | 基于深度学习的运动辅助训练方法 |
-
2020
- 2020-04-07 CN CN202010263150.7A patent/CN111476155A/zh not_active Withdrawn
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112257511A (zh) * | 2020-09-24 | 2021-01-22 | 北京影谱科技股份有限公司 | 一种动作识别方法、装置、计算设备及存储介质 |
CN112303861A (zh) * | 2020-09-28 | 2021-02-02 | 山东师范大学 | 一种基于人体热适应性行为的空调温度调节方法及系统 |
CN112733789A (zh) * | 2021-01-20 | 2021-04-30 | 清华大学 | 一种基于动态时空图的视频推理方法、装置、设备及介质 |
CN113205595A (zh) * | 2021-05-21 | 2021-08-03 | 华中科技大学 | 一种3d人体姿态估计模型的构建方法及其应用 |
CN113205595B (zh) * | 2021-05-21 | 2022-03-29 | 华中科技大学 | 一种3d人体姿态估计模型的构建方法及其应用 |
CN113240044A (zh) * | 2021-06-01 | 2021-08-10 | 北京理工大学 | 一种基于多Kinect的人体骨骼数据融合评价方法 |
CN113240044B (zh) * | 2021-06-01 | 2021-12-24 | 北京理工大学 | 一种基于多Kinect的人体骨骼数据融合评价方法 |
CN113963304A (zh) * | 2021-12-20 | 2022-01-21 | 山东建筑大学 | 基于时序-空间图的跨模态视频时序动作定位方法及系统 |
CN115019386A (zh) * | 2022-04-15 | 2022-09-06 | 北京航空航天大学 | 基于深度学习的运动辅助训练方法 |
CN115019386B (zh) * | 2022-04-15 | 2024-06-14 | 北京航空航天大学 | 基于深度学习的运动辅助训练方法 |
CN114550308A (zh) * | 2022-04-22 | 2022-05-27 | 成都信息工程大学 | 基于时空图的人体骨骼动作识别方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111476155A (zh) | 基于时空图卷积神经网络与特征融合的人体动作分类方法 | |
CN110096950A (zh) | 一种基于关键帧的多特征融合行为识别方法 | |
CN113205595B (zh) | 一种3d人体姿态估计模型的构建方法及其应用 | |
CN111860243A (zh) | 一种机器人动作序列生成方法 | |
Zhou et al. | Learning multiscale correlations for human motion prediction | |
CN113435293B (zh) | 一种基于关节关系的人体姿态估计方法 | |
Li et al. | Cee-net: complementary end-to-end network for 3d human pose generation and estimation | |
CN113869105A (zh) | 一种人体行为识别方法 | |
Bai et al. | Skeleton-based similar action recognition through integrating the salient image feature into a center-connected graph convolutional network | |
Pan et al. | Combining pose and trajectory for skeleton based action recognition using two-stream RNN | |
Fu et al. | SAGN: semantic adaptive graph network for skeleton-based human action recognition | |
Li et al. | Pca-based robust motion data recovery | |
Chen et al. | Spatiotemporal consistency learning from momentum cues for human motion prediction | |
CN113192186B (zh) | 基于单帧图像的3d人体姿态估计模型建立方法及其应用 | |
Fang et al. | Hand pose estimation on hybrid CNN-AE model | |
Li et al. | DD-GCN: directed diffusion graph convolutional network for skeleton-based human action recognition | |
CN114782992A (zh) | 一种超关节与多模态网络及其在行为识别方法 | |
Zhu et al. | Graph convolutional hourglass networks for skeleton-based action recognition | |
CN112949419A (zh) | 一种基于肢体层次结构的动作识别方法 | |
CN113723163A (zh) | 利用离散姿态学习物理约束的手部运动自监督重建方法 | |
Shao et al. | A hierarchical model for action recognition based on body parts | |
Xu et al. | Research on human pose recognition based on skeletal information | |
Lu et al. | Dual Excitation Spatial-temporal Graph Convolution Network for Skeleton-Based Action Recognition | |
Bowditch et al. | Context-based Data Augmentation for Improved Ballet Pose Recognition | |
Xie et al. | Dynamic Semantic-Based Spatial Graph Convolution Network for Skeleton-Based Human Action Recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information | ||
CB02 | Change of applicant information |
Address after: 210000, 66 new model street, Gulou District, Jiangsu, Nanjing Applicant after: NANJING University OF POSTS AND TELECOMMUNICATIONS Address before: Yuen Road Qixia District of Nanjing City, Jiangsu Province, No. 9 210000 Applicant before: NANJING University OF POSTS AND TELECOMMUNICATIONS |
|
WW01 | Invention patent application withdrawn after publication | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20200731 |