CN105631420A - 一种基于3d骨架的多视角室内人体行为识别方法 - Google Patents
一种基于3d骨架的多视角室内人体行为识别方法 Download PDFInfo
- Publication number
- CN105631420A CN105631420A CN201510995238.7A CN201510995238A CN105631420A CN 105631420 A CN105631420 A CN 105631420A CN 201510995238 A CN201510995238 A CN 201510995238A CN 105631420 A CN105631420 A CN 105631420A
- Authority
- CN
- China
- Prior art keywords
- angle
- feature
- human body
- skeleton
- human
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
本发明公开了一种基于3D骨架的多视角室内人体行为识别方法,包括以下步骤:1)获取人体运动在正视角、斜视角和侧视角三个角度的视频;所述视频包括训练视频和测试视频;2)通过体感设备提取视频中人体骨架3D特征;所述三维骨架特征包括全局运动特征和手臂、腿部局部运动特征;3)训练模型;通过训练视频中的人体骨架3D特征进行特征描述,得到训练特征集;具体如下:对三维骨架特征进行在线字典学习;然后稀疏主成分分析进行降维,形成特征集数据集;4)输入测试视频的样本的特征集,通过线性支持向量机(LSVM)进行识别。本发明方法实现了多角度动作的分类识别,克服了单视角识别算法的局限性,更具有研究价值和实际应用价值。
Description
技术领域
本发明涉及人体行为识别领域,尤其涉及一种基于3D骨架的多视角室内人体行为识别方法。
背景技术
近年来,行为识别已经成为计算机视觉和模式识别领域研究的热点。行为识别技术不仅应用在视频监控系统、智能家居、体育运行分析、人机交互、影视动作制作和医学康复等很多领域,还创造了巨大的社会效益和经济效益。根据行为描述方法的不同,已有算法可分为两类:一类是基于表观的方法,另一类是基于人体模型的方法.基于表观的方法直接由图像的前景、轮廓、光流等描述行为;而基于人体模型的方法利用人体模型获取行为者的结构特征,行为往往被描述为人体关节点序列。Johansson通过试验证明人体关节点模型包含了可用于行为识别的丰富信息,3D关节点序列是描述行为最为简洁和有效的方法。Shotton等人提出了利用深度图像得到3D骨架位置的算法,但是仅仅是简单的关节点表示骨架,并没有分析骨架关节点旋转等信息。
发明内容
本发明要解决的技术问题在于针对现有技术中的缺陷,提供一种基于3D骨架的多视角室内人体行为识别方法。
本发明解决其技术问题所采用的技术方案是:基于3D骨架的多视角室内人体行为识别方法,包括以下步骤:
1)获取人体运动在正视角、斜视角和侧视角三个角度的视频;所述视频包括训练视频和测试视频;
2)通过体感设备提取视频中人体骨架3D特征;所述三维骨架特征包括全局运动特征和手臂、腿部局部运动特征;
3)训练模型;通过训练视频中的人体骨架3D特征进行特征描述,得到训练特征集;具体如下:对三维骨架特征进行在线字典学习;然后稀疏主成分分析进行降维,形成特征集数据集;
4)输入测试视频的样本的特征集,通过线性支持向量机(LSVM)进行识别。
按上述方案,所述步骤2)中以骨骼的关节点构造3D骨骼结构向量,所述结构向量包括向量之间的向量角和向量角速度变化。
按上述方案,所述步骤2)中全局运动特征包括:身高特征,行为者头部和脚部在人体坐标Z轴上的距离;身体倾斜角特征,行为者当前帧与初始帧在人体坐标Z轴上的夹角;倾斜角速度特征,行为者当前帧与前一帧在人体坐标Z轴上的夹角;朝向角特征,行为者当前帧与初始帧在人体坐标Y轴上夹角;朝向角速度,行为者当前帧与前一帧在人体坐标Y轴上的夹角;速度特征,行为者的躯干中心关节点在人体坐标在Z轴和Y轴的变化;
所述人体坐标建立如下:以躯干中心关节点为坐标原点,中心点到两肩中心的连线方向为z轴,两肩方向为x轴,人体朝向为y轴,建立3维坐标系。
按上述方案,所述步骤2)中手臂、腿部局部运动特征包括:旋转角特征、速度特征。
本发明产生的有益效果是:本发明方法实现了多角度动作的分类识别,该多角度动作识别方法克服了单视角识别算法的局限性,更具有研究价值和实际应用价值。
附图说明
下面将结合附图及实施例对本发明作进一步说明,附图中:
图1是本发明实施例的系统流程图;
图2是本发明实施例的识别方法流程图;
图3是本发明实施例的3D人体骨架示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
如图1和图2所示,基于3D骨架的多视角室内人体行为识别方法,包括以下步骤:
1)获取人体运动在正对镜头-10°~10°、右对镜头20°~70°和左对镜头-20°~-70°三个角度的视频;所述视频包括训练视频和测试视频;在本实施例中,我们使用体感设备kinect采集视频数据,采集RGB和Depth数据,生成ONI格式的视频文件,同时计算骨骼关节点三维坐标数据和置信度,并保存在文本文件中。
2)通过体感设备提取视频中人体骨架3D特征;所述三维骨架特征包括全局运动特征和手臂、腿部局部运动特征;3D人体骨架及人体坐标建立如图3所示。
1、全局特征
身高特征W1,行为者头部和脚部在世界坐标Y轴上的距离;
身体倾斜角特征W2,行为者当前帧与初始帧在人体坐标Z轴上的夹角;
倾斜角速度特征W3,行为者当前帧与前一帧在人体坐标Z轴上的夹角;
朝向角特征W4,行为者当前帧与初始帧在人体坐标Y轴上夹角;
速度特征W5,6,行为者的关节点2在人体坐标在Z和Y轴的变化;
2、手臂和腿部的局部特征
速度特征:描述人体关节点的运动速度变化过程。设s1,s2,s3,s4,s5,s6,s7,s8分别为4、5、7、8、10、11、13、14关节点的运动速度。令表示行为者腿部关节点速度序列,ln(i)={si,i=10,11,13,14}n=1,2,3为第i帧与第i-1在X轴方向的差值,类似的Y轴。
令 表示行为者手臂关节点速度序列,an(i)={si,i=4,5,7,8}n=1,2,3为第i帧与第i-1在X轴方向的差值,类似的Y轴。
轨迹特征:关节点轨迹序列表示行为序列中人体关节点在人体坐标系中的变化过程。设t1,t2,t3,t4,t5,t6,t7,t8分别为4、5、7、8、10、11、13、14关节点在人体坐标系中的三维空间坐标。令 表示行为者手臂关节点轨迹序列,an(i)={ti,i=4,5,7,8}n=1,2,3表示第i帧手臂关节点在人体坐标系内的Z坐标值与初始帧的差值,Y坐标值类似。
综上所述,共有38维特征。
以骨骼的关节点构造3D骨骼结构向量,所述结构向量包括向量之间的向量角、向量角速度变化。
3)训练模型;通过训练视频中的人体骨架3D特征进行特征描述,得到训练特征集;具体如下:对三维骨架特征进行在线字典学习;然后稀疏主成分分析进行降维,形成特征集数据集;
在线优化算法学习字典主要是基于随机逼近的方法,对给定训练样本序列X=[x1,...,xn](∈Rm×n)算法核心思想如下式所示:
其中,D是Rm×k的字典,n为样本数,xi为第i个样本,αi为k维系数矩阵α=[α1,...,αn]中的第i个分量,λ为规范因子。
为了减少计算机处理特征的困难,本申请对数据进行稀疏主成分分析(SparsePrincipalComponentsAnalysis,SPCA)降维处理。
4)输入测试视频的样本的特征集,通过线性支持向量机(LSVM)进行识别。具体识别过程如图2所示。
验证试验:实验平台操作系统为Win7,32位,使用Kinect设备和OpenNI库得到骨骼特征,计算出骨骼相应的全局和局部特征,并在Matlab9.0的环境下对其调试。数据库是人为采集的,共包含3种行为:蹲下起立、踢腿、挥手,每种行为有三个行为者。该动作数据库中共有540个动作序列,每个动作序列100帧,其中340个作为训练,200个作为测试。实验对象共有11个人,七位男生和四位女生,每个人分别在正对镜头、右侧对镜头、左侧对镜头三个不同位置。
首先将获取的3D骨架直接在LSVM上进行分类,得到识别结果;接着进行线字典学习和SPCA降维,再在LSVM上进行分类,得到识别结果。其结果如表2所示:
表2基于SVM分类器的识别结果
识别方法 | 无字典和SPCA | 字典+SPCA |
蹲下起立 | 80% | 90% |
踢腿 | 83% | 100% |
挥手 | 80% | 90% |
总识别率 | 81% | 93% |
由于视频序列中人体所面向的方向不固定,导致相同的动作在不同角度中得到的观察结果相差很大,这给行为识别带来了一定程度上的困难。针对这一问题,本文提出了一种基于3D骨架的多视角室内人体行为识别方法。首先通过kinect提取行为者的3D骨骼信息,接着通过字典和SPCA处理,最后通过LSVM进行测试,得到识别结果。实验结果表明,本文方法具有较高的识别率。
应当理解的是,对本领域普通技术人员来说,可以根据上述说明加以改进或变换,而所有这些改进和变换都应属于本发明所附权利要求的保护范围。
Claims (3)
1.一种基于3D骨架的多视角室内人体行为识别方法,其特征在于,包括以下步骤:
1)获取人体运动在正视角、斜视角和侧视角三个角度的视频;所述视频包括训练视频和测试视频;
2)通过体感设备提取视频中人体骨架3D特征;所述三维骨架特征包括全局运动特征和手臂、腿部局部运动特征;
3)训练模型;通过训练视频中的人体骨架3D特征进行特征描述,得到训练特征集;具体如下:对三维骨架特征进行在线字典学习;然后稀疏主成分分析进行降维,形成特征集数据集;
4)输入测试视频的样本的特征集,通过线性支持向量机进行识别。
2.根据权利要求1所述的多视角室内人体行为识别方法,其特征在于,所述步骤2)中全局运动特征包括:身高特征,行为者头部和脚部在人体坐标Z轴上的距离;身体倾斜角特征,行为者当前帧与初始帧在人体坐标Z轴上的夹角;倾斜角速度特征,行为者当前帧与前一帧在人体坐标Z轴上的夹角;朝向角特征,行为者当前帧与初始帧在人体坐标Y轴上夹角;朝向角速度,行为者当前帧与前一帧在人体坐标Y轴上的夹角;速度特征,行为者的躯干中心关节点在人体坐标在Z轴和Y轴的变化;
所述人体坐标建立如下:以躯干中心关节点为坐标原点,中心点到两肩中心的连线方向为z轴,两肩方向为x轴,人体朝向为y轴,建立3维坐标系。
3.根据权利要求1所述的多视角室内人体行为识别方法,其特征在于,所述步骤2)中手臂、腿部局部运动特征包括:旋转角特征、速度特征。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510995238.7A CN105631420A (zh) | 2015-12-23 | 2015-12-23 | 一种基于3d骨架的多视角室内人体行为识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510995238.7A CN105631420A (zh) | 2015-12-23 | 2015-12-23 | 一种基于3d骨架的多视角室内人体行为识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN105631420A true CN105631420A (zh) | 2016-06-01 |
Family
ID=56046333
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510995238.7A Pending CN105631420A (zh) | 2015-12-23 | 2015-12-23 | 一种基于3d骨架的多视角室内人体行为识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105631420A (zh) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106529594A (zh) * | 2016-11-08 | 2017-03-22 | 上海理工大学 | 应用于大数据行为识别的监督降维算法 |
CN106971145A (zh) * | 2017-03-03 | 2017-07-21 | 广东工业大学 | 一种基于极限学习机的多视角动作识别方法及装置 |
CN107563295A (zh) * | 2017-08-03 | 2018-01-09 | 中国科学院自动化研究所 | 基于多Kinect的全方位人体追踪方法及处理设备 |
CN107945269A (zh) * | 2017-12-26 | 2018-04-20 | 清华大学 | 基于多视点视频的复杂动态人体对象三维重建方法及系统 |
CN108053469A (zh) * | 2017-12-26 | 2018-05-18 | 清华大学 | 多视角相机下的复杂动态场景人体三维重建方法及装置 |
CN109409209A (zh) * | 2018-09-11 | 2019-03-01 | 广州杰赛科技股份有限公司 | 一种人体行为识别方法与装置 |
CN109446871A (zh) * | 2018-06-01 | 2019-03-08 | 浙江理工大学 | 一种基于多项式拟合的模特走秀动作评价方法 |
CN109815816A (zh) * | 2018-12-24 | 2019-05-28 | 山东山大鸥玛软件股份有限公司 | 一种基于深度学习的考生考场异常行为分析方法 |
CN110147736A (zh) * | 2019-04-25 | 2019-08-20 | 沈阳航空航天大学 | 一种基于姿态的重复异常行为检测方法 |
CN110163112A (zh) * | 2019-04-25 | 2019-08-23 | 沈阳航空航天大学 | 一种考生姿态分割与平滑方法 |
CN110348395A (zh) * | 2019-07-12 | 2019-10-18 | 电子科技大学 | 一种基于时空关系的骨架行为识别方法 |
CN111079481A (zh) * | 2018-10-22 | 2020-04-28 | 西安邮电大学 | 一种基于二维骨架信息的攻击性行为识别方法 |
CN111274990A (zh) * | 2020-02-11 | 2020-06-12 | 广东同天投资管理有限公司 | 对脊柱形态进行分类的计算机设备和存储介质 |
CN113239819A (zh) * | 2021-05-18 | 2021-08-10 | 西安电子科技大学广州研究院 | 一种基于视角归一化的骨架行为识别方法、装置及设备 |
CN114783053A (zh) * | 2022-03-24 | 2022-07-22 | 武汉工程大学 | 基于空间注意力和分组卷积的行为识别方法及系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101425139A (zh) * | 2008-11-05 | 2009-05-06 | 西安理工大学 | 一种视角无关的动作识别方法 |
CN103150575A (zh) * | 2013-01-31 | 2013-06-12 | 广州中国科学院先进技术研究所 | 一种实时三维无标记人体姿态识别方法及系统 |
CN104268586A (zh) * | 2014-10-17 | 2015-01-07 | 北京邮电大学 | 一种多视角动作识别方法 |
US20150186713A1 (en) * | 2013-12-31 | 2015-07-02 | Konica Minolta Laboratory U.S.A., Inc. | Method and system for emotion and behavior recognition |
CN104866860A (zh) * | 2015-03-20 | 2015-08-26 | 武汉工程大学 | 一种室内人体行为识别方法 |
-
2015
- 2015-12-23 CN CN201510995238.7A patent/CN105631420A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101425139A (zh) * | 2008-11-05 | 2009-05-06 | 西安理工大学 | 一种视角无关的动作识别方法 |
CN103150575A (zh) * | 2013-01-31 | 2013-06-12 | 广州中国科学院先进技术研究所 | 一种实时三维无标记人体姿态识别方法及系统 |
US20150186713A1 (en) * | 2013-12-31 | 2015-07-02 | Konica Minolta Laboratory U.S.A., Inc. | Method and system for emotion and behavior recognition |
CN104268586A (zh) * | 2014-10-17 | 2015-01-07 | 北京邮电大学 | 一种多视角动作识别方法 |
CN104866860A (zh) * | 2015-03-20 | 2015-08-26 | 武汉工程大学 | 一种室内人体行为识别方法 |
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106529594A (zh) * | 2016-11-08 | 2017-03-22 | 上海理工大学 | 应用于大数据行为识别的监督降维算法 |
CN106529594B (zh) * | 2016-11-08 | 2019-07-23 | 上海理工大学 | 应用于大数据行为识别的监督降维方法 |
CN106971145A (zh) * | 2017-03-03 | 2017-07-21 | 广东工业大学 | 一种基于极限学习机的多视角动作识别方法及装置 |
CN107563295A (zh) * | 2017-08-03 | 2018-01-09 | 中国科学院自动化研究所 | 基于多Kinect的全方位人体追踪方法及处理设备 |
CN107563295B (zh) * | 2017-08-03 | 2020-07-28 | 中国科学院自动化研究所 | 基于多Kinect的全方位人体追踪方法及处理设备 |
CN107945269A (zh) * | 2017-12-26 | 2018-04-20 | 清华大学 | 基于多视点视频的复杂动态人体对象三维重建方法及系统 |
CN108053469A (zh) * | 2017-12-26 | 2018-05-18 | 清华大学 | 多视角相机下的复杂动态场景人体三维重建方法及装置 |
CN109446871A (zh) * | 2018-06-01 | 2019-03-08 | 浙江理工大学 | 一种基于多项式拟合的模特走秀动作评价方法 |
CN109446871B (zh) * | 2018-06-01 | 2024-02-09 | 浙江理工大学 | 一种基于多项式拟合的模特走秀动作评价方法 |
CN109409209A (zh) * | 2018-09-11 | 2019-03-01 | 广州杰赛科技股份有限公司 | 一种人体行为识别方法与装置 |
CN111079481A (zh) * | 2018-10-22 | 2020-04-28 | 西安邮电大学 | 一种基于二维骨架信息的攻击性行为识别方法 |
CN111079481B (zh) * | 2018-10-22 | 2023-09-26 | 西安邮电大学 | 一种基于二维骨架信息的攻击性行为识别方法 |
CN109815816B (zh) * | 2018-12-24 | 2023-02-03 | 山东山大鸥玛软件股份有限公司 | 一种基于深度学习的考生考场异常行为分析方法 |
CN109815816A (zh) * | 2018-12-24 | 2019-05-28 | 山东山大鸥玛软件股份有限公司 | 一种基于深度学习的考生考场异常行为分析方法 |
CN110147736A (zh) * | 2019-04-25 | 2019-08-20 | 沈阳航空航天大学 | 一种基于姿态的重复异常行为检测方法 |
CN110163112B (zh) * | 2019-04-25 | 2021-03-19 | 沈阳图为科技有限公司 | 一种考生姿态分割与平滑方法 |
CN110163112A (zh) * | 2019-04-25 | 2019-08-23 | 沈阳航空航天大学 | 一种考生姿态分割与平滑方法 |
CN110348395B (zh) * | 2019-07-12 | 2023-01-20 | 电子科技大学 | 一种基于时空关系的骨架行为识别方法 |
CN110348395A (zh) * | 2019-07-12 | 2019-10-18 | 电子科技大学 | 一种基于时空关系的骨架行为识别方法 |
CN111274990A (zh) * | 2020-02-11 | 2020-06-12 | 广东同天投资管理有限公司 | 对脊柱形态进行分类的计算机设备和存储介质 |
CN111274990B (zh) * | 2020-02-11 | 2024-01-12 | 广东同天科技产业发展有限公司 | 对脊柱形态进行分类的计算机设备和存储介质 |
CN113239819A (zh) * | 2021-05-18 | 2021-08-10 | 西安电子科技大学广州研究院 | 一种基于视角归一化的骨架行为识别方法、装置及设备 |
CN113239819B (zh) * | 2021-05-18 | 2022-05-03 | 西安电子科技大学广州研究院 | 一种基于视角归一化的骨架行为识别方法、装置及设备 |
CN114783053A (zh) * | 2022-03-24 | 2022-07-22 | 武汉工程大学 | 基于空间注意力和分组卷积的行为识别方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105631420A (zh) | 一种基于3d骨架的多视角室内人体行为识别方法 | |
CN104715493B (zh) | 一种运动人体姿态估计的方法 | |
CN107766842B (zh) | 一种手势识别方法及其应用 | |
CN110097639A (zh) | 一种三维人体姿态估计方法 | |
CN104866860A (zh) | 一种室内人体行为识别方法 | |
US20230015773A1 (en) | Crowd motion simulation method based on real crowd motion videos | |
Zhou et al. | Learning to estimate 3d human pose from point cloud | |
Zhong et al. | The application of virtual reality technology in the digital preservation of cultural heritage | |
CN102184541A (zh) | 多目标优化人体运动跟踪方法 | |
CN107808376A (zh) | 一种基于深度学习的举手检测方法 | |
CN108875586A (zh) | 一种基于深度图像与骨骼数据多特征融合的功能性肢体康复训练检测方法 | |
Balasuriya et al. | Learning platform for visually impaired children through artificial intelligence and computer vision | |
CN107463873A (zh) | 一种基于rgbd深度传感器的实时手势分析与评价方法与系统 | |
CN105373810A (zh) | 一种用于建立动作识别模型的方法及系统 | |
Gao et al. | Application of posture recognition service system based on information fusion smart sensor in dance training | |
Amaliya et al. | Study on hand keypoint framework for sign language recognition | |
Liu et al. | Trampoline motion decomposition method based on deep learning image recognition | |
Li et al. | Application algorithms for basketball training based on big data and Internet of things | |
Chavan et al. | Indian sign language to forecast text using leap motion sensor and RF classifier | |
Chou et al. | A block recognition system constructed by using a novel projection algorithm and convolution neural networks | |
Abdulhamied et al. | Real-time recognition of American sign language using long-short term memory neural network and hand detection | |
Liu et al. | Gesture recognition based on Kinect | |
Sutopo et al. | Dance gesture recognition using laban movement analysis with j48 classification | |
Prasad et al. | Fuzzy classifier for continuous sign language recognition from tracking and shape features | |
Shen et al. | [Retracted] Research on Human Motion Analysis in Moving Scene Based on Timing Detection and Video Description Algorithm |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20160601 |