CN109376607A - 面向行人再识别的基于多投影变换的特征度量学习方法 - Google Patents
面向行人再识别的基于多投影变换的特征度量学习方法 Download PDFInfo
- Publication number
- CN109376607A CN109376607A CN201811126538.1A CN201811126538A CN109376607A CN 109376607 A CN109376607 A CN 109376607A CN 201811126538 A CN201811126538 A CN 201811126538A CN 109376607 A CN109376607 A CN 109376607A
- Authority
- CN
- China
- Prior art keywords
- camera
- feature vector
- pedestrian
- space
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种面向行人再识别的基于多投影变换的特征度量学习方法,包括以下步骤:S1提取不同摄像头对应的特征向量;S2利用标定数据学习不同摄像头的投影矩阵;S3利用投影矩阵将不同摄像头对应的特征向量转换到公共特征空间;当没有新的摄像头添加到非重叠的摄像头网络中时,执行步骤S7;当新的摄像头添加到非重叠的摄像头网络中时,执行步骤S4;S4找到与新的摄像头的最相似的摄像头类;S5将新的摄像头下行人图像的特征向量转换到最相似的摄像头类的特征空间内;S6将转换后的特征向量再转换到公共特征空间;S7计算各个特征向量的之间的距离;S8根据特征向量间的距离来进行排序,得到排序列表,从而提高行人再识别的准确率。
Description
技术领域
本发明涉及特征度量学习技术领域,更具体的说是涉及一种面向行人再识别的基于多投影变换的特征度量学习方法。
背景技术
在多摄像机监控系统中,行人是监控视频中重点关注的对象。分布式多摄像头监控系统的一个基本任务是对出现在不同时间、不同地点和不同摄像机下的行人进行身份关联,即行人再识别(PersonRe-Identification)。
行人再识别技术可以分为两大类:一是基于生物特征的行人再识别,如虹膜,指纹,人脸,步态等。二是基于外貌特征的行人再识别,如行人衣服的颜色,纹理等。
虹膜与指纹这些“接触性”的特征无法在室外监控场景中获取,因此,相对应用的较少。人脸是比较可靠的特征,但是由于室外视频监控的摄像机的分辨率较低,导致行人的脸部数据难以精确的获取。并且随着行人与摄像机之间位置关系的改变,摄像机的视角发生了变化,摄像机可能观察不到行人的脸部。即便人脸在摄像机中可见,其受光照,表情等的影响会发生较大的变化。所有的这些因素使得捕捉可靠的面部数据和随后的人脸识别都变得非常的困难。
步态在行人的识别中有很好的效果。但是,1)提取可靠的步态特征需要精确的提取行人的轮廓和足够长的视频数据。有时,给定行人的视频可能不是足够的长,以提取所需要的步态信息。2)室外监控视频中行人可能被其他行人或物体遮挡,使得行人的某些部分不可见。3)在不同摄像机中捕捉到的同一行人,其姿势可能不同,且在视频持续的时间较长时,视频中的行人往往倾向于改变其走路的姿势。因此,利用步态特征进行人的再识别在理论上可行,但在人工不可控的室外监控的环境中实施是一项艰巨的任务。
在室外监控视频中,行人的外貌如衣服的颜色,纹理等信息相对容易获取,因此基于外貌的行人再识别(Appearance-Based Re-Identification)技术得到国内外学者的广泛研究。
行人再识别的过程基本包括两个步骤。首先,构建一个可靠的和鉴别性的描述符来描述图像。第二,采用合适的特征度量计算目标图像和候选集中图像特征之间的相似性。
简单的特征度量方法并不能很好的反映出两个行人图像间的本质差异,很多关于学习最优度量的方法被提出。该类方法研究的重点是学习适当的度量以最大限度的提高匹配的精度,而不论选择何种特征表达行人。行人再识别的性能与特征度量学习的准确率是紧密相连的,因此特征度量学习是行人再识别中的一个关键的和具有挑战性的问题。
在实际应用中,由于摄像头的参数设置存在差异,从而造成多个摄像头下行人图像的特征向量空间分布不一致。现有特征度量学习模型或对多个摄像头下行人图像的特征向量采用相同的投影变换,或将一个摄像头下的行人图像的特征向量投影到另一个摄像头下行人图像的特征空间中,导致其描述能力有限,无法满足多个摄像头下行人图像的特征向量空间分布不一致性的情况。此外,在现有评估协议中摄像头的数目是固定不变的,但是这在监视应用中是不切实际的。当有新摄像头加入到不重叠的摄像头网络中时,如果不更新每个摄像头的投影矩阵,特征度量学习方法的性能会显著下降。
因此,如何提供一种可以克服多个摄像头下行人图像特征向量差异且具有一定泛化能力的特征度量学习方法在行人再识别领域具有重要意义。
发明内容
有鉴于此,本发明提供了一种面向行人再识别的基于多投影变换的特征度量学习方法,用以解决行人再识别领域中多个摄像头下行人图像特征向量的差异和摄像头网络动态变化的问题,以提高行人再识别的准确率。
为了实现上述目的,本发明采用如下技术方案:
一种面向行人再识别的基于多投影变换的特征度量学习方法,包括以下步骤:
S1:分别提取不同摄像头采集到的行人图像的特征,得到不同摄像头对应的特征向量;
S2:利用标定数据学习不同摄像头的投影矩阵;
S3:利用所述投影矩阵将不同摄像头对应的特征向量转换到公共特征空间;当没有新的摄像头添加到非重叠的摄像头网络中时,则执行步骤S7;当有新的摄像头添加到非重叠的摄像头网络中时,则执行步骤S4;
S4:找到与新的摄像头的最相似的摄像头类;
S5:将新的摄像头下行人图像的特征向量转换到最相似的摄像头类的特征空间内;
S6:将转换后的特征向量再转换到公共特征空间;
S7:计算处于公共特征空间内各个特征向量的之间的距离;
S8:根据计算得到的特征向量间的距离来进行排序,得到排序列表。
优选的,在步骤S4中,对摄像头网络已有的摄像头的特征向量聚类,利用类间方差来寻找与新的摄像头最相似的摄像头类。寻找与新的摄像头最相似的摄像头类,而不是与新的摄像头最相似的摄像头,这样做可以提高算法的效率,能够快速减少类间方差的计算量。
优选的,在步骤S5中,将新摄像头下行人图像的特征向量通过投影变换Lnk转换到最相似的摄像头类的的特征空间,其中,Lnk通过新的摄像头和最相似的摄像头类的标定数据学习得到。
优选的,在步骤S7中,利用欧式距离来计算处于公共特征空间的特征向量之间的距离。
经由上述的技术方案可知,与现有技术相比,本发明公开提供了一种面向行人再识别的基于多投影变换的特征度量学习方法,对行人图像进行有效的相似性度量,从而提高了行人再识别的准确率。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1附图为本发明提供的多投影特征度量学习示意图;
图2附图为本发明提供的自适应多投影特征度量学习示意图。
其中,形状代表摄像头,颜色代表样本,相同的颜色表示同一行人的不同样本。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例公开了一种面向行人再识别的基于多投影变换的特征度量学习方法,包括如下步骤:
S1:分别提取不同摄像头采集到的行人图像的特征,得到不同摄像头对应的特征向量;
S2:利用标定数据学习不同摄像头的投影矩阵;
S3:利用所述投影矩阵将不同摄像头对应的特征向量转换到公共特征空间;当没有新的摄像头添加到非重叠的摄像头网络中时,则执行步骤S7;当有新的摄像头添加到非重叠的摄像头网络中时,则执行步骤S4;
S4:当新的摄像头添加到非重叠的摄像头网络时,找到与新的摄像头的最相似的摄像头类;
S5:将新的摄像头下行人图像的特征向量转换到最相似的摄像头类的特征空间内;
S6:将转换后的特征向量再转换到公共特征空间;
S7:计算处于公共特征空间内各个特征向量的之间的距离;
S8:根据计算得到的特征向量间的距离来进行排序,得到排序列表。
本发明所提供的特征度量学习方法能对行人图像进行有效的相似性度量,从而提高了行人再识别的准确率。
下面结合各个步骤的具体实现方法来进一步说明本发明提供的技术方案。
1、提取图像的特征。
摄像头l下行人图像i的特征向量表示为其中,下标表示摄像头,上标表示索引,摄像头k下行人图像j的特征向量表示为
2、利用标定数据学习不同摄像头的投影矩阵。
不同摄像头下行人图像的特征向量和之间的距离定义为:其中,Ll为摄像头l下行人图像的特征投影矩阵,Lk为摄像头k下行人图像的特征投影矩阵。
在将不同摄像头下行人图像的特征向量通过不同的投影矩阵转换到同一特征空间中时,距离满足如下的约束:
如果和属于同一行人,行人的标签否则属于同一行人图像的特征向量间的距离尽可能接近,即小于给定的阈值μ-τ(μ>τ>0);属于不同行人图像的特征向量间的距离尽可能远离,即大于给定的阈值μ+τ。
为了学习到最优的投影变换矩阵,定义如下的目标函数:
摄像头网络包含K个摄像机,摄像头l下行人图像i的特征向量表示为摄像头k下行人图像j的特征向量表示为(下标表示摄像头,上标表示索引)。摄像头l下行人图像特征向量的投影矩阵为Ll,摄像头k下行人图像特征向量的投影矩阵为Lk。μ和τ为阈值参数。其中,R(x)为误差函数,
为平衡因子,用来平衡类别不平衡问题(class-imbalance)。为摄像头l与k下正样本的数量,为摄像头l与k下负样本的数量。
目标函数(2)没有封闭形式的解,因为有K个矩阵需要同时优化。因此,采用迭代的方法,通过使用交替优化方法(alternating optimizationmethod)得到局部最优解。先初始化L1,…,Ll-1,Ll+1,…,LK,公式(2)可重新写为:
为了得到Ll,采用基于梯度(gradient-based)的优化方法。目标函数(5)的梯度函数计算如下:
其中,
hinge函数R(x)并不处处可导,从而导致该项的梯度不能直接求得。针对该问题,用logistic函数近似表示hinge函数。即误差函数R(x)和R(x)的导函数R′(x)为:
R′(x)=(I+exp(-βx)-1 (9)
其中:β为误差函数的参数;
公式(6)可以写成矩阵的形式:
其中:Blk为对角矩阵,其主对角线上的元素为Alk的行和。
通过上述求得的导函数,矩阵Ll可以通过梯度下降法迭代得到:
公式中η>0是迭代步长。当迭代次数达到最大迭代次数,或者满足下面
的公式时算法迭代结束。
|Jt+1-Jt|<ε (12)
公式中ε设为一个很小的正数,一般情况下这个小正数为10-9。训练结束后,我们得到不同摄像头的投影矩阵L1,L2,…,LK。
3、将多个摄像头下行人图像的特征向量通过学习到的不同的投影矩阵转换到同一特征空间中。采用欧式距离来度量处于同一特征空间的特征向量的距离。
不同摄像头下行人图像的特征向量和之间的距离为:
4、当一个新的摄像头添加到非重叠的摄像头网络时,找到与新摄像头的特征空间最相似的摄像头类。
给定一个包含K个摄像机节点的摄像头网络。使用上面描述的方法,可以学到K个投影矩阵,L1,L2,…,LK。然后N(N<K)个新摄像头被添加到摄像头网络中。属于一个摄像头的特征向量被视为一个类,然后对摄像头网络已有的摄像头的特征向量聚类。对于每一个新摄像头n,使用类间方差来寻找与其特征空间最相似的摄像头类,并将该摄像头类下所有的特征向量合成一个摄像头k的特征向量。然后将新摄像头n下行人图像的特征向量通过投影变换Lnk转换到与其最相似的摄像头类k的特征空间。最后,将转换后的特征向量通过投影变换Lk投影到公共的特征空间。
在摄像头k的特征空间中,不同摄像头下行人图像的特征向量和之间的距离可以定义为:
为了学习到最优的投影变换矩阵,定义如下的目标函数:
为了得到Lnk,采用基于梯度(gradient-based)的优化方法.目标函数(15)的梯度函数计算如下:
其中,
公式(16)可以写成矩阵的形式:
其中:Bnk为对角矩阵,其主对角线上的元素为Ank的行和。
通过上述求得的导函数,矩阵Ll可以通过梯度下降法迭代得到:
公式中η>0是迭代步长。当迭代次数达到最大迭代次数,或者满足下面的公式时算法迭代结束。
公式中ε设为一个很小的正数。需要说明的是,这里的ε和前面的ε均表示预设的阈值,但是在具体实验过程中取值可能有所不同。
训练结束后,得到投影矩阵Lnk。
5、将新摄像头下行人图像的特征向量转换到与其最相似的摄像头类的特征空间。将转换后的特征向量投影到公共的特征空间,并采用欧式距离来度量处于同一特征空间的特征向量的距离。
假设与新摄像头的特征空间最相似的摄像头类,包含M个摄像头。新摄像头n的特征空间的中心与其中一个摄像头m的特征空间的中心之间的距离为dmn。摄像头M的投影矩阵为Lm。投影变换Lk通过如下公式得到:
Lk=Σ(m∈M)(1/dmn)×Lm。
与新摄像头的特征空间最相似的摄像头类中,不同子摄像头的特征空间与新摄像头的特征空间的相似性不同,且新摄像头的加入,对最相似的摄像头类的特征空间的分布有一定的影响。为了更加准确和全面的表达新摄像头的投影矩阵,新摄像头的投影矩阵通过对M个摄像头的投影矩阵加权得到。
在共同的特征空间,不同摄像头下行人图像的特征向量和之间最终的距离为:
6、根据图像特征向量间的距离进行排序,得到最终的排序列表。
在VIPeR数据库上,本发明所提供的特征度量学习方法相对于XQDA算法在rank-1的识别率上提高了4.72%,具体请参见如下实验数据表格。
VIPeR数据库上的性能(%)对比
方法 | r=1 | r=5 | r=10 | r=20 |
kBiCov | 31.11 | 58.33 | 70.71 | 82.44 |
XQDA | 40.00 | 68.13 | 80.51 | 91.08 |
MLAPG | 40.73 | 69.94 | 82.34 | 92.37 |
NullReid | 42.28 | 71.46 | 82.94 | 92.06 |
MPML | 44.72 | 72.82 | 84.27 | 93.58 |
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (3)
1.一种面向行人再识别的基于多投影变换的特征度量学习方法,其特征在于,包括以下步骤:
S1:分别提取不同摄像头采集到的行人图像的特征,得到不同摄像头对应的特征向量;
S2:利用标定数据学习不同摄像头的投影矩阵;
S3:利用投影矩阵将不同摄像头对应的特征向量转换到公共特征空间;当没有新的摄像头添加到非重叠的摄像头网络中时,则执行步骤S7;当有新的摄像头添加到非重叠的摄像头网络中时,则执行步骤S4;
S4:找到与新的摄像头的最相似的摄像头类;其中,对摄像头的特征空间聚类,利用类间方差来寻找与新的摄像头最相似的摄像头类;
S5:将新的摄像头下行人图像的特征向量转换到最相似的摄像头类的特征空间内;
其中,假设与新摄像头的特征空间最相似的摄像头类包含M个摄像头;新摄像头n的特征空间的中心与其中一个摄像头m的特征空间的中心之间的距离为dmn;摄像头M的投影矩阵为Lm;投影变换Lk通过如下公式得到:
Lk=Σ(m∈M)(1/dmn)×Lm;
与新摄像头的特征空间最相似的摄像头类中,不同子摄像头的特征空间与新摄像头的特征空间的相似性不同,且新摄像头的加入,对最相似的摄像头类的特征空间的分布有影响,为了更加准确和全面的表达新摄像头的投影矩阵,新摄像头的投影矩阵通过对M个摄像头的投影矩阵加权得到;
S6:将转换后的特征向量再转换到公共特征空间;
S7:计算处于公共特征空间内各个特征向量的之间的距离;
S8:根据计算得到的特征向量间的距离来进行排序,得到排序列表。
2.根据权利要求1所述的面向行人再识别的基于多投影变换的特征度量学习方法,其特征在于,在步骤S5中,将新摄像头下行人图像的特征向量通过投影变换Lnk转换到最相似的摄像头类的的特征空间,其中,Lnk通过新的摄像头和最相似的摄像头类的标定数据学习得到。
3.根据权利要求1所述的面向行人再识别的基于多投影变换的特征度量学习方法,其特征在于,在步骤S7中,利用欧式距离来计算处于公共特征空间的特征向量之间的距离。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811126538.1A CN109376607A (zh) | 2018-09-26 | 2018-09-26 | 面向行人再识别的基于多投影变换的特征度量学习方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811126538.1A CN109376607A (zh) | 2018-09-26 | 2018-09-26 | 面向行人再识别的基于多投影变换的特征度量学习方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109376607A true CN109376607A (zh) | 2019-02-22 |
Family
ID=65402069
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811126538.1A Pending CN109376607A (zh) | 2018-09-26 | 2018-09-26 | 面向行人再识别的基于多投影变换的特征度量学习方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109376607A (zh) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106803063A (zh) * | 2016-12-21 | 2017-06-06 | 华中科技大学 | 一种行人重识别的度量学习方法 |
CN106919909A (zh) * | 2017-02-10 | 2017-07-04 | 华中科技大学 | 一种行人重识别的度量学习方法和系统 |
-
2018
- 2018-09-26 CN CN201811126538.1A patent/CN109376607A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106803063A (zh) * | 2016-12-21 | 2017-06-06 | 华中科技大学 | 一种行人重识别的度量学习方法 |
CN106919909A (zh) * | 2017-02-10 | 2017-07-04 | 华中科技大学 | 一种行人重识别的度量学习方法和系统 |
Non-Patent Citations (1)
Title |
---|
HAI-MIAO HU 等: "An Adaptive Multi-Projection Metric Learning for Person Re-identification across Non-Overlapping Cameras", 《IEEE TRANSACTIONS ON CIRCUITS AND SYSTEMS FOR VIDEO TECHNOLOGY》 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109961051B (zh) | 一种基于聚类和分块特征提取的行人重识别方法 | |
John et al. | Pedestrian detection in thermal images using adaptive fuzzy C-means clustering and convolutional neural networks | |
CN106778604B (zh) | 基于匹配卷积神经网络的行人再识别方法 | |
WO2017101434A1 (zh) | 一种多摄像机间人体目标再识别的方法及系统 | |
CN106897670B (zh) | 一种基于计算机视觉的快递暴力分拣识别方法 | |
CN104881637B (zh) | 基于传感信息及目标追踪的多模信息系统及其融合方法 | |
Satta et al. | A multiple component matching framework for person re-identification | |
Li et al. | Deepreid: Deep filter pairing neural network for person re-identification | |
CN112069929B (zh) | 一种无监督行人重识别方法、装置、电子设备及存储介质 | |
CN108520226B (zh) | 一种基于躯体分解和显著性检测的行人重识别方法 | |
KR100886557B1 (ko) | 적응형 학습에 기반한 얼굴 인식 시스템 및 방법 | |
CN104915673B (zh) | 一种基于视觉词袋模型的目标分类方法和系统 | |
WO2008072622A1 (ja) | 顔認証装置 | |
KR20160136391A (ko) | 정보처리장치 및 정보처리방법 | |
KR20140005195A (ko) | 얼굴 등록 방법 | |
CN109711366A (zh) | 一种基于群组信息损失函数的行人重识别方法 | |
CN107203745A (zh) | 一种基于跨域学习的跨视角动作识别方法 | |
CN105654505B (zh) | 一种基于超像素的协同跟踪算法和系统 | |
CN110516707B (zh) | 一种图像标注方法及其装置、存储介质 | |
Alksasbeh et al. | Smart hand gestures recognition using K-NN based algorithm for video annotation purposes | |
CN111160119A (zh) | 一种用于化妆人脸验证的多任务深度判别度量学习模型构建方法 | |
CN110443179A (zh) | 离岗检测方法、装置以及存储介质 | |
CN109376607A (zh) | 面向行人再识别的基于多投影变换的特征度量学习方法 | |
Rahimpour et al. | Attention-based few-shot person re-identification using meta learning | |
Marchwica et al. | An evaluation of deep cnn baselines for scene-independent person re-identification |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190222 |