CN107341446A - 基于查询自适应部件特征组合的特定行人追踪方法及系统 - Google Patents

基于查询自适应部件特征组合的特定行人追踪方法及系统 Download PDF

Info

Publication number
CN107341446A
CN107341446A CN201710423781.9A CN201710423781A CN107341446A CN 107341446 A CN107341446 A CN 107341446A CN 201710423781 A CN201710423781 A CN 201710423781A CN 107341446 A CN107341446 A CN 107341446A
Authority
CN
China
Prior art keywords
pedestrian
feature
image
sim
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710423781.9A
Other languages
English (en)
Inventor
严国建
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
WUHAN DAQIAN INFORMATION TECHNOLOGY Co Ltd
Original Assignee
WUHAN DAQIAN INFORMATION TECHNOLOGY Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by WUHAN DAQIAN INFORMATION TECHNOLOGY Co Ltd filed Critical WUHAN DAQIAN INFORMATION TECHNOLOGY Co Ltd
Priority to CN201710423781.9A priority Critical patent/CN107341446A/zh
Publication of CN107341446A publication Critical patent/CN107341446A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于查询自适应部件特征组合的特定行人追踪方法与系统,该方法包括从输入视频中提取出行人目标代表帧;根据行人目标代表帧获得行人图像的结构化语义描述,并提取行人图像的整体特征;将行人目标代表帧进行语义部件分割生成行人的部件,提取行人部件的部件特征;将行人图像的结构化语义描述、整体特征和部件特征分别与查询图像的特性进行组合度量,得到行人与查询人的目标相似度,相似度最大对应的行人即为追踪的人。本发明通过对行人图像进行像素级分割,以提取部件特征,部件间的相似度度量相比全局特征度量更有针对性,能更好解决视角问题,提高对特定行人追踪的效率和准确度。

Description

基于查询自适应部件特征组合的特定行人追踪方法及系统
技术领域
本发明涉及特定行人的追踪视频,具体地指基于查询自适应部件特征组合的特定行人追踪方法与系统,属于视频侦查业务领域。
背景技术
随着平安城市的广泛建设和各种场所面临监控的普及,视频监控数据量变得越来越大,这给刑侦破案带来了巨大的挑战,如何快速准确地从这些海量数据库提取出目标嫌疑人成为破案的关键。传统的行人追踪方法能有效解决长时间人工手动检索可能带来的漏检和误检的问题,但是匹配效率相对较低,其主要问题在于:(1)行人代表图提取不准确,导致无法准确定位行人图像,图像连带多人或残缺,使得后续特征提取失效;(2)只提取行人全局特征,行人表达不精细,使得行人表达有偏差或判别力不足; (3)对所有行人都采用统一的匹配方法,不考虑个体差异,导致方法使用场景和个体受限。
发明内容
本发明目的在于克服上述现有技术的不足而提供一种基于查询自适应部件特征组合的特定行人追踪方法与系统,本发明通过对行人图像进行像素级分割,以提取部件特征,部件间的相似度度量相比全局特征度量更有针对性,能更好解决视角问题,提高对特定行人追踪的效率和准确度。
实现本发明目的采用的技术方案是一种基于查询自适应部件特征组合的特定行人追踪方法,该方法包括:
从输入视频中提取出行人目标代表帧;
根据行人目标代表帧获得行人图像的结构化语义描述,并提取行人图像的整体特征;将行人目标代表帧进行语义部件分割生成行人的部件,提取行人部件的部件特征;
将行人图像的结构化语义描述、整体特征和部件特征分别与查询图像的特性进行组合度量,得到行人与查询人的目标相似度,相似度最大对应的行人即为追踪的人。
在上述技术方案中,将行人图像进行语义部件分割生成行人的部件包括:
从输入视频中提取出行人目标集合;
从行人目标集合的每个行人图像序列中各选出一帧图像作为代表相应行人,选出的图像帧即为目标代表帧;
然后对行人图像的目标代表帧进行语义部件分割生成行人的部件。
此外,本发明还提供一种基于查询自适应部件特征组合的特定行人追踪系统,该系统包括:
目标提取模块,用于从输入视频中提取出行人目标代表帧;
特征提取模块,用于将行人目标代表帧进行语义部件分割生成行人的部件,形成行人图像的结构化语义描述、提取行人部件的部件特征,以及提取行人图像的整体特征;
组合度量模块,将行人图像的结构化语义描述、部件特征和整体特征与查询人的特性进行组合度量,得到行人与查询人的目标相似度,相似度最大对应的行人即为追踪的人。
本发明具有以下优点:
1、与现有技术的全局特征是从一个矩形图像上提取,且包含了背景相比,本发明方法对行人图像进行像素级分割,以提取部件特征,使得部件间的相似度度量比更有针对性,能更好解决视角问题。
2、在视觉特征基础上,通过提取语义属性,相比基于视觉特征检索方法的鲁棒性更高;
3、根据视频侦查需求,提出可语义分割的27个行人部件,还提出17 个类别的语义属性,为视频侦查和特定行人追踪扩展思路;
4、根据查询目标的不同,选用不同的度量方式。依赖于查询的动态度量方法,也是首次在特定行人追踪中提出,这满足了不同嫌疑目标,不同环境的要求。
附图说明
图1为本发明基于查询自适应部件特征组合的特定行人追踪方法的流程图。
图2为输入的行人代表帧图像。
图3为图2经过特征提取模块语义分割后成部件后的图像。
具体实施方式
下面结合附图和具体实施例对本发明作进一步的详细说明。
本发明基于查询自适应部件特征组合的特定行人追踪系统包括目标提取、特征提取、组合度量三个模块,每个模块具体实现如下功能:
(1)目标提取模块包括背景建模、特征提取、目标检测与定位、目标跟踪、目标代表帧提取等子功能,具体实现的功能如下:
首先,目标提取模块可以通过两种方式获取目标前景图像,一是用传统的背景建模和前景提取方法,二是用基于深度学习的目标检测方法。
其次,目标提取模块利用目标跟踪方法,将一系列目标前景图像会形成多个不同的行人图像序列,不同的序列代表不同的行人目标。
最后,目标提取模块从每个行人图像序列中选出一个图像帧来代表相应的行人,该图像帧作为目标代表帧。
(2)特征提取模块的输入是行人目标集中每个行人的目标代表帧图像,输出是行人图像结构化语义、行人的部件和其特征,以及行人的整体特征,它包括目标语义部件分割、行人结构化语义特征、部件特征提取、整体特征提取等子功能。首先,行人的代表帧图像,经过语义分割会生成行人的不同部件;然后,分割好的行人图像分别提取各个部件的特征和整体特征,并形成语义结构化描述。
(3)组合度量模块的输入是每个行人图像的结构化语义、部件特征和整体特征,输出是视频中行人目标集的排序结果,它包括查询自适应组合策略选择、和相似度度量等子功能。在利用行人目标结构化语义、部件特征和整体特征等信息进行相似度量之前,模块参考被检索目标情况,对不同部件赋予不同权重(不同组合策略)。相似度度量过程中,模块利用被检索目标特有的组合策略,进行行人图像相关信息的度量。
上述基于查询自适应部件特征组合的特定行人追踪系统实现特定行人追踪方法包括:
S1、目标提取模块对输入的视频文件或视频流处理后输出目标代表帧,具体包括:
S1.1、从视频帧序列到行人前景图像:视频文件或视频流经过经过背景建模、前景提取、目标检测定位功能,生成行人前景图像。
本实施例提供两套方案获取行人前景图像,一是用传统的背景建模和前景提取方法,二是用基于深度学习的目标检测方法。实际操作中,对于分辨率不高,对处理速度有要求的场景用传统方法;对于分辨率高、行人密度大的场景用基于深度学习的目标检测方法。
S1.2、从行人前景图像到行人序列:多张行人前景图像经过跟踪后生成行人前景图像序列;
S1.3、从行人前景图像序列到行人代表帧图像:行人前景图像序列经过目标代表帧提取选出行人的代表帧图像。本实施例提取目标代表帧的过程如下:
记录第n个序列行人图像的面积为S(n),第n+1个序列行人图像的面积为S(n+1)。
如果S(n)>S(n+1),代表帧为n;
如果S(n)<S(n+1),且S(n+1)<a*S(n),a一般取2,代表帧为n+1;
如果S(n+1)>a*S(n),代表帧为n。
如此循环,找到行人序列的合适代表帧图像。
S2、特征提取模块对输入的代表帧图像处理后输出行人图像的结构化语义描述、行人部件的部件特征,以及行人图像的整体特征,具体包括:
S2.1从行人代表帧图像到行人部件:行人代表帧图像经过目标语义部件分割生成行人的部件;
本实施例中,目标图像语义分割采用全卷积网络方法,训练语义分割模型。
对每个行人代表帧图像,会把其分成如下表1中的部件:
表1
将图2作为输入的图片按上表1进行分割成部件,输出的图片如图3 所示。
S2.2、从行人部件到行人结构化语义和特征:行人代表帧图像和部件分割信息经过行人结构化语义、部件特征提取、整体特征提取等功能形成行人结构化语义和特征。
本发明将学习得出如下表2中的17个类别的语义。
表2
本实施例提取整体特征采用基于中轴线的高斯权重分布的特征提取方法,具体方法为对行人图像的上身部分和下身部分,分别取中轴线。以中轴线为对称轴,作为高斯分布的最高值。以高斯分布作为权重,提取带权重的颜色直方图。只提取上衣部分和下衣部分特征,并组合成全局特征。
本实施例提取部件特征先对每个部件提取颜色和纹理直方图,然后对每个直方图,用相应部件的像素个数进行归一化。
S3、组合度量模块对输入的行人图像的结构化语义、部件特征和整体特征进行组合度量后输出是视频中行人目标集的排序结果,具体包括:
从行人结构化语义和特征到组合相似度:行人的结构化语义和特征在查询图像的指导下经过组合度量模块,得到查询图像与之的组合相似度;
从组合相似度到排序结果:多个目标的相似度最后得到排序结果。
本实施例中相似度度量功能采用组合加权度量方法,具体如下:
假设查询图像为X1,比对图像为X2,其行人结构化语义分别(17个类别语义组成17维的向量)为A1和A2。查询图像和比对图像语义分割后的部件特征分别为:头部H1、H2,躯干部分U1、U2,裸露部分L1、L2,携带物S1、S2,其他部分T1、T2。已经全局特征G1、G2。它们的相似度分别为Sim(A1,A2)、Sim(H1,H2)、Sim(U1,U2)、Sim(L1,L2)、Sim(S1,S2)、 Sim(T1,T2)、Sim(G1,G2)。
两张图像的相似度为:
Sim(X1,X2)=α1*Sim(A1,A2)+α*Sim(Y1,Y2)+α7*Sim(G1,G2);其中,α*Sim(Y1,Y2)为α2*Sim(H1,H2)、α3*Sim(U1,U2)、α4*Sim(L1,L2)、α5*Sim(S1,S2)、α6*Sim(T1,T2)中一个或者多个;
其中,α1+α+α7=1;
α1~α7,根据X1的特性获得;
[α1,α,α7]=get_alpha(A1,Y1,solution),Y1为行人图像X1的中头部特征、躯干部分特征、裸露部分特征、携带物特征和其他部分特征中的一个或多个特征;
本实施例以选择部件的五个部分来说明,两张图像的相似度为: Sim(X1,X2)=α1*Sim(A1,A2)+α2*Sim(H1,H2)+α3*Sim(U1,U2)+ α4*Sim(L1,L2)+α5*Sim(S1,S2)+α6*Sim(T1,T2)+α7*Sim(G1,G2),其中,α1+α2+α3+α4+α5+α6+α7=1。α1-α7,根据图像X1的特性获得。
[α1,α2,α3,α4,α5,α6,α7]=get_alpha(A1,U1,L1,S1,T1,solution);其中, A1为行人图像X1的结构化语义,H1为行人图像X1的头部特征,U1 为行人图像X1的躯干部分特征,L1为行人图像X1的裸露部分特征,S1 为行人图像X1的携带物特征,T1为行人图像X1的其他部分特征,solution 为行人图像X1的分辨率。
说组合的权重分配依赖于语义结构化属性描述、头部部分、躯干部分、裸露部分、携带物和其他部分的颜色特征以及图像的分辨率。这些特性不一样,权重α1-α7就不一样。

Claims (9)

1.一种基于查询自适应部件特征组合的特定行人追踪方法,其特征在于,包括:
从输入视频中提取出行人目标代表帧;
根据行人目标代表帧获得行人图像的结构化语义描述,并提取行人图像的整体特征;将行人目标代表帧进行语义部件分割生成行人的部件,提取行人部件的部件特征;
将行人图像的结构化语义描述、整体特征和部件特征分别与查询图像的特性进行组合度量,得到行人与查询人的目标相似度,相似度最大对应的行人即为追踪的人。
2.根据权利要求1所述基于查询自适应部件特征组合的特定行人追踪方法,其特征在于:
从输入视频中提取出行人目标集合;
从行人目标集合的每个行人图像序列中各选出一帧图像作为代表相应行人,选出的图像帧即为目标代表帧。
3.根据权利要求2所述基于查询自适应部件特征组合的特定行人追踪方法,其特征在于所述代表帧提取方法如下:
记录第n个序列行人图像的面积为S(n),第n+1个序列行人图像的面积为S(n+1);
a)如果S(n)>S(n+1),代表帧为n;
b)如果S(n)<S(n+1),且S(n+1)<a*S(n),a一般取2,代表帧为n+1;
c)如果S(n+1)>a*S(n),代表帧为n;
如此循环,找到行人序列的合适代表帧图像。
4.根据权利要求2或3所述基于查询自适应部件特征组合的特定行人追踪方法,其特征在于:所述语义部件分割为根据全卷积网络方法,训练语义分割模型,通过语义分割模型实现对行人图像的代表帧进行语义部件分割生成行人的部件。
5.根据权利要求4所述基于查询自适应部件特征组合的特定行人追踪方法,其特征在于:所述部件包括头部部分、躯干部分、裸露部分、携带物和其他部分。
6.根据权利要求5所述基于查询自适应部件特征组合的特定行人追踪方法,其特征在于:
所述头部部分包括帽子、头发、脸部、眼镜;
所述躯干部分包括上衣部分、裤子部分、连衣裙、裙子、围巾、皮带腰带、左鞋、右鞋;
所述裸露部分包括裸露在外的左臂、右臂、左腿、右腿、上身;
所述携带物包括挎包、背包、手提包、拉杆箱、伞、手机;
所述其他部分包括其他行人和背景。
7.根据权利要求6所述基于查询自适应部件特征组合的特定行人追踪方法,其特征在于
所述行人图像的整体特征提取采用基于中轴线的高斯权重分布的特征提取方法;
所述部件特征提取采用先对每个部件提取颜色和纹理直方图,然后对每个直方图,用相应部件的像素个数进行归一化。
8.根据权利要求5所述基于查询自适应部件特征组合的特定行人追踪方法,其特征在于:所述组合度量采用相似度度量功能,通过组合加权度量方法实现,包括:
设行人图像为X1,查询图像为X2,其两图像的行人结构化语义分别为A1和A2;行人图像和查询图像语义分割后的部件特征分别为:头部部分H1、H2,躯干部分U1、U2,裸露部分L1、L2,携带物S1、S2,其他部分T1、T2;整体特征G1、G2;它们的相似度分别为Sim(A1,A2)、Sim(H1,H2)、Sim(U1,U2)、Sim(L1,L2)、Sim(S1,S2)、Sim(T1,T2)、Sim(G1,G2);
两张图像的相似度为:
Sim(X1,X2)=α1*Sim(A1,A2)+α*Sim(Y1,Y2)+α7*Sim(G1,G2);α*Sim(Y1,Y2)为α2*Sim(H1,H2)、α3*Sim(U1,U2)、α4*Sim(L1,L2)、α5*Sim(S1,S2)、α6*Sim(T1,T2)中一个或者多个;
其中,α1+α+α7=1;
α1、α、α7,根据X1的特性获得;
[α1,α,α7]=get_alpha(A1,Y1,solution),Y1为行人图像X1的中头部特征、躯干部分特征、裸露部分特征、携带物特征和其他部分特征中的一个或多个特征。
9.一种基于查询自适应部件特征组合的特定行人追踪系统,其特征在于,包括:
目标提取模块,用于从输入视频中提取出行人目标代表帧;
特征提取模块,用于将行人目标代表帧进行语义部件分割生成行人的部件,形成行人图像的结构化语义描述、提取行人部件的部件特征,以及提取行人图像的整体特征;
组合度量模块,将行人图像的结构化语义描述、部件特征和整体特征与查询人的特性进行组合度量,得到行人与查询人的目标相似度,相似度最大对应的行人即为追踪的人。
CN201710423781.9A 2017-06-07 2017-06-07 基于查询自适应部件特征组合的特定行人追踪方法及系统 Pending CN107341446A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710423781.9A CN107341446A (zh) 2017-06-07 2017-06-07 基于查询自适应部件特征组合的特定行人追踪方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710423781.9A CN107341446A (zh) 2017-06-07 2017-06-07 基于查询自适应部件特征组合的特定行人追踪方法及系统

Publications (1)

Publication Number Publication Date
CN107341446A true CN107341446A (zh) 2017-11-10

Family

ID=60220507

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710423781.9A Pending CN107341446A (zh) 2017-06-07 2017-06-07 基于查询自适应部件特征组合的特定行人追踪方法及系统

Country Status (1)

Country Link
CN (1) CN107341446A (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108446662A (zh) * 2018-04-02 2018-08-24 电子科技大学 一种基于语义分割信息的行人检测方法
CN109040693A (zh) * 2018-08-31 2018-12-18 上海赛特斯信息科技股份有限公司 智能告警系统及方法
CN109508524A (zh) * 2018-11-14 2019-03-22 李泠瑶 认证方法、系统和存储介质
CN110263604A (zh) * 2018-05-14 2019-09-20 桂林远望智能通信科技有限公司 一种基于像素级别分离行人图片背景的方法及装置
CN110298248A (zh) * 2019-05-27 2019-10-01 重庆高开清芯科技产业发展有限公司 一种基于语义分割的多目标跟踪方法及系统
CN111914844A (zh) * 2019-05-07 2020-11-10 杭州海康威视数字技术股份有限公司 一种图像识别方法、装置、电子设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7106374B1 (en) * 1999-04-05 2006-09-12 Amherst Systems, Inc. Dynamically reconfigurable vision system
CN101720006A (zh) * 2009-11-20 2010-06-02 张立军 一种适用于视频关键帧提取的代表帧定位方法
CN105187785A (zh) * 2015-08-31 2015-12-23 桂林电子科技大学 一种基于动态选取显著特征的跨卡口行人识别系统与方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7106374B1 (en) * 1999-04-05 2006-09-12 Amherst Systems, Inc. Dynamically reconfigurable vision system
CN101720006A (zh) * 2009-11-20 2010-06-02 张立军 一种适用于视频关键帧提取的代表帧定位方法
CN105187785A (zh) * 2015-08-31 2015-12-23 桂林电子科技大学 一种基于动态选取显著特征的跨卡口行人识别系统与方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
王新舸等: "《代表帧及其提取方法》", 《电视技术》 *
赵婕: "《图像特征提取与语义分析》", 30 June 2015, 重庆大学出版社 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108446662A (zh) * 2018-04-02 2018-08-24 电子科技大学 一种基于语义分割信息的行人检测方法
CN110263604A (zh) * 2018-05-14 2019-09-20 桂林远望智能通信科技有限公司 一种基于像素级别分离行人图片背景的方法及装置
CN109040693A (zh) * 2018-08-31 2018-12-18 上海赛特斯信息科技股份有限公司 智能告警系统及方法
CN109508524A (zh) * 2018-11-14 2019-03-22 李泠瑶 认证方法、系统和存储介质
CN111914844A (zh) * 2019-05-07 2020-11-10 杭州海康威视数字技术股份有限公司 一种图像识别方法、装置、电子设备及存储介质
CN110298248A (zh) * 2019-05-27 2019-10-01 重庆高开清芯科技产业发展有限公司 一种基于语义分割的多目标跟踪方法及系统

Similar Documents

Publication Publication Date Title
CN107341446A (zh) 基于查询自适应部件特征组合的特定行人追踪方法及系统
Zhai et al. DF-SSD: An improved SSD object detection algorithm based on DenseNet and feature fusion
Cong et al. Going from RGB to RGBD saliency: A depth-guided transformation model
Wang et al. Structured images for RGB-D action recognition
CN103714181B (zh) 一种层级化的特定人物检索方法
Yao et al. Robust CNN-based gait verification and identification using skeleton gait energy image
CN107341445A (zh) 监控场景下行人目标的全景描述方法及系统
CN110334687A (zh) 一种基于行人检测、属性学习和行人识别的行人检索增强方法
Aurangzeb et al. Human behavior analysis based on multi-types features fusion and Von Nauman entropy based features reduction
CN105320764B (zh) 一种基于增量慢特征的3d模型检索方法及其检索装置
CN104376334B (zh) 一种多尺度特征融合的行人比对方法
CN103853794B (zh) 一种基于部件关联的行人检索方法
CN113221625A (zh) 一种利用深度学习的局部特征对齐行人重识别方法
CN115393596B (zh) 一种基于人工智能的服装图像分割方法
Thom et al. Facial attribute recognition: A survey
Chen et al. Deep shape-aware person re-identification for overcoming moderate clothing changes
CN107977948A (zh) 一种面向社群图像的显著图融合方法
Tian et al. End-to-end thorough body perception for person search
Zhang et al. An Improved Computational Approach for Salient Region Detection.
Gong et al. Person re-identification based on two-stream network with attention and pose features
Xu et al. Gait identification based on human skeleton with pairwise graph convolutional network
Hsu et al. Learning temporal attention based keypoint-guided embedding for gait recognition
Li et al. Human behavior recognition based on attention mechanism
Wang et al. Thermal infrared object tracking based on adaptive feature fusion
Yingheng et al. Multiple Attention Mechanism Neural Network in Garment Image Segmentation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20171110

RJ01 Rejection of invention patent application after publication