CN110427920A - 一种面向监控环境的实时行人解析方法 - Google Patents
一种面向监控环境的实时行人解析方法 Download PDFInfo
- Publication number
- CN110427920A CN110427920A CN201910768586.9A CN201910768586A CN110427920A CN 110427920 A CN110427920 A CN 110427920A CN 201910768586 A CN201910768586 A CN 201910768586A CN 110427920 A CN110427920 A CN 110427920A
- Authority
- CN
- China
- Prior art keywords
- pedestrian
- original
- data set
- parsing
- real
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/24317—Piecewise classification, i.e. whereby each classification requires several discriminant rules
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/254—Fusion techniques of classification results, e.g. of results related to same input data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本发明属于计算机视觉与图像处理技术领域,公开了一种面向监控环境的实时行人解析方法,包括:获取实时视频流,将视频流进行转化,得到原始视频帧序列;使用目标检测算法对原始视频帧序列进行检测,获得检测框信息;使用行人解析模型对原始行人图像进行解析处理,解析处理中引入部件缺失行人多尺度数据增强和行人部件类别约束进行优化,得到解析结果,将解析结果填补回原始视频帧序列,得到解析后的视频帧序列;将解析后的视频帧序列转化为视频。本发明解决了现有技术中行人解析的速度较慢、精度较低的问题,能有效地提升行人解析的准确率。
Description
技术领域
本发明涉及计算机视觉与图像处理技术领域,尤其涉及一种面向监控环境的实时行人解析方法。
背景技术
行人解析,指的是对行人图像中特定的部件分割区域赋予特定语义属性的过程,它可以针对视频监控中的行人进行特征提取和解析推理,为后续视觉任务提供有效的行人特征信息和预测,如:行人检索、姿态估计、行为分析等,在整个任务中起关键作用,也逐渐成为了研究热点。同时,行人解析技术还可以应用于智能监控、无人驾驶、电子商务等场景,例如:在智能监控领域中,行人解析技术可以获取行人的关键信息,如果有犯罪活动发生,刑侦人员可以根据这些信息进行筛选排查,对嫌疑人进行布防抓捕,相比于早期的人工排查锁定目标,行人解析技术能极大地提升刑侦效率,维护社会安定。然而,现阶段还没有人将行人解析技术用于实际监控领域,来提升监控系统的智能化水平。
当前,将行人解析技术应用于实际监控中,主要面临以下挑战:(1)行人解析速度慢,现有的行人解析模型大多是基于深度神经网络,但由于神经网络模型自身参数量大而复杂,导致解析速度十分缓慢,难以满足实际监控对实时性的需求;(2)行人解析精度低,监控环境多变,单一数据集训练得到的模型,难以契合复杂多变的监控环境的行人解析,导致解析准确率低,不能应对高精度的需求。因此,受时效性的限制,市场上对于行人解析的监控系统比较稀缺,没有成型的行人解析系统,严重阻碍了行人解析技术的落地、应用及推广。
发明内容
本申请实施例通过提供一种面向监控环境的实时行人解析方法,解决了现有技术中行人解析的速度较慢、精度较低的问题。
本申请实施例提供一种面向监控环境的实时行人解析方法,包括以下步骤:
步骤1、获取实时视频流,将所述视频流进行转化,得到原始视频帧序列;
步骤2、使用目标检测算法对所述原始视频帧序列进行检测,获得检测框信息;
步骤3、使用行人解析模型对原始行人图像进行解析处理,所述解析处理中引入部件缺失行人多尺度数据增强和行人部件类别约束进行优化,得到解析结果,将所述解析结果填补回所述原始视频帧序列,得到解析后的视频帧序列;
步骤4、将所述解析后的视频帧序列转化为视频。
优选的,所述步骤2中,所述目标检测算法采用YOLOv3,所述检测框信息包括检测框的帧号、检测框的坐标信息。
优选的,所述步骤3包括以下子步骤:
步骤3.1、根据所述检测框信息,从所述原始视频帧序列中截取出原始行人图像;
步骤3.2、利用行人解析模型进行解析处理;
步骤3.2.1、制作部件缺失行人多尺度数据增强的监控数据集;
步骤3.2.2、使用所述部件缺失行人多尺度数据增强的监控数据集对轻量级的解析模型进行训练,得到行人解析模型;
步骤3.2.3、使用所述行人解析模型对所述原始行人图像进行解析处理,并进行部件类别约束,得到解析结果;
步骤3.3、将所述解析结果添加到所述原始行人图像,得到叠加行人图像;
步骤3.4、根据所述检测框信息,将所述叠加行人图像填补回所述原始视频帧序列,得到解析后的视频帧序列。
优选的,所述步骤3.2.1的具体实现方式为:对完整的原始行人图像进行拆分,得到多类拆分数据集,对完整的原始行人图像数据集、多类拆分数据集分别进行尺寸调整,将尺寸调整后的数据集进行合并,得到部件缺失行人多尺度数据增强的监控数据集。
优选的,所述多类拆分数据集包括完整行人图像数据集、上半身数据集、下半身数据集、左半身数据集、右半身数据集、从头部到脚部的1/4部分数据集、从头部到脚部的3/4部分数据集;所述完整行人图像数据集构成第一类数据集,所述上半身数据集、所述下半身数据集、所述左半身数据集、所述右半身数据集构成第二类数据集,所述从头部到脚部的1/4部分数据集、所述从头部到脚部的3/4部分数据集构成第三类数据集;将所述第一类数据集中的图像尺寸分别调整为原始尺寸的1倍、1/2倍、1/3倍,三种不同尺寸的图像在所述第一类数据集中占比为1/2:1/4:1/4;按照与所述第一类数据集相同的调整方案,对所述第二类数据集、所述三类数据集的图像尺寸及图像占比分别进行调整;将尺寸调整后的三类数据集进行合并,得到部件缺失行人多尺度数据增强的监控数据集。
优选的,所述步骤3.2.2的具体实现方式为:根据所述部件缺失行人多尺度数据增强的监控数据集,采用轻量级的解析模型BiseNet进行训练,并用损失函数进行监督训练,得到行人解析模型。
优选的,所述损失函数L(X;W)为:
其中,X表示预测的解析结果,Xi表示Xception中第i个stage输出的特征图,W表示标注图,α表示权重,lp(X;W)表示主损失函数,li(Xi;W)表示辅助损失函数,K=3;其中,所述主损失函数、所述辅助损失函数使用softmax损失函数。
优选的,所述步骤3.2.3中的所述部件类别约束为根据部件类别位置的先验,对所述原始行人图像的类别进行空间位置的约束。
优选的,所述步骤3.3的具体实现方式为:将所述解析结果与所述原始行人图像进行叠加,解析出来属于背景的像素点赋值为所述原始行人图像中对应的像素点的RGB值,解析出来属于目标的像素点的赋值为所述解析结果中的RGB值与所述原始行人图像中的RGB值的和的一半。
本申请实施例中提供的一个或多个技术方案,至少具有如下技术效果或优点:
在本申请实施例中,获取实时视频流,将视频流进行转化,得到原始视频帧序列;使用目标检测算法对原始视频帧序列进行检测,获得检测框信息;使用行人解析模型对原始行人图像进行解析处理,解析处理中引入部件缺失行人多尺度数据增强和行人部件类别约束进行优化,得到解析结果,将解析结果填补回原始视频帧序列,得到解析后的视频帧序列;将解析后的视频帧序列转化为视频。本发明利用轻量级的网络模型能够对监控视频进行实时行人解析,在解析模型训练阶段使用部件缺失多尺度增强的优化策略,在分类阶段使用行人部件类别约束进行监督,两者都能有效地提升行人解析的准确率。
附图说明
为了更清楚地说明本实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一个实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种面向监控环境的实时行人解析方法的流程图;
图2为本发明实施例提供的一种面向监控环境的实时行人解析方法中原始行人图像拆分的示意图;
图3为本发明实施例提供的一种面向监控环境的实时行人解析方法中行人上衣部件约束的示意图。
具体实施方式
为了更好的理解上述技术方案,下面将结合说明书附图以及具体的实施方式对上述技术方案进行详细的说明。
本发明提供一种面向监控环境的实时行人解析方法,如图1所示,主要包括:获取实时视频流转为视频帧序列、行人目标检测、截取行人图像、行人解析处理、解析结果填补原图、视频帧序列转视频、解析结果输出并展示。
下面对本发明做进一步的说明。
本实施例提供了一种面向监控环境的实时行人解析方法,包括以下步骤:
步骤1、获取实时视频流,将所述视频流进行转化,得到原始视频帧序列。
步骤2、使用目标检测算法对所述原始视频帧序列进行检测,获得检测框信息。
其中,所述目标检测算法采用YOLOv3,所述检测框信息包括检测框的帧号、检测框的坐标信息。
步骤3、使用行人解析模型对原始行人图像进行解析处理,所述解析处理中引入部件缺失行人多尺度数据增强和行人部件类别约束进行优化,得到解析结果,将所述解析结果填补回所述原始视频帧序列,得到解析后的视频帧序列。
具体的,包括以下子步骤:
步骤3.1、根据所述检测框信息,从所述原始视频帧序列中截取出原始行人图像。
步骤3.2、利用行人解析模型进行解析处理。
步骤3.2.1、制作部件缺失行人多尺度数据增强的监控数据集。
具体实现方式为:对完整的原始行人图像进行拆分,得到多类拆分数据集,对完整的原始行人图像数据集、多类拆分数据集分别进行尺寸调整,将尺寸调整后的数据集进行合并,得到部件缺失行人多尺度数据增强的监控数据集。
如图2所示,所述多类拆分数据集包括完整行人图像数据集、上半身数据集、下半身数据集、左半身数据集、右半身数据集、从头部到脚部的1/4部分数据集、从头部到脚部的3/4部分数据集;所述完整行人图像数据集构成第一类数据集,所述上半身数据集、所述下半身数据集、所述左半身数据集、所述右半身数据集构成第二类数据集,所述从头部到脚部的1/4部分数据集、所述从头部到脚部的3/4部分数据集构成第三类数据集;将所述第一类数据集中的图像尺寸分别调整为原始尺寸(边长)的1倍、1/2倍、1/3倍,三种不同尺寸的图像在所述第一类数据集中占比为1/2:1/4:1/4;按照与所述第一类数据集相同的调整方案,对所述第二类数据集、所述三类数据集的图像尺寸及图像占比分别进行调整;将尺寸调整后的三类数据集进行合并,得到部件缺失行人多尺度数据增强的监控数据集。
步骤3.2.2、使用所述部件缺失行人多尺度数据增强的监控数据集对轻量级的解析模型进行训练,得到行人解析模型。
具体实现方式为:根据所述部件缺失行人多尺度数据增强的监控数据集,采用轻量级的解析模型BiseNet进行训练,并用损失函数进行监督训练,得到行人解析模型。
具体的,所述损失函数L(X;W)为:
其中,损失函数由主损失函数和辅助损失函数组成,主损失函数lp(X;W)(右边第一项)负责对整个BiseNet模型输出的监督,辅助损失函数li(Xi;W)(右边第二项)负责对Context Path模块的监督。X表示预测的解析结果,Xi表示Xception中第i个stage输出的特征图,W表示标注图,α表示权重(可取1),K=3;其中,所述主损失函数、所述辅助损失函数使用softmax损失函数。
步骤3.2.3、使用所述行人解析模型对所述原始行人图像进行解析处理,并进行部件类别约束,得到解析结果。
其中,所述部件类别约束为根据部件类别位置的先验,对所述原始行人图像的类别进行空间位置的约束。
具体实现方式如下:在分类预测阶段,根据部件类别位置的先验,对(完整的)行人图像的类别进行空间位置的约束,参见图3,针对完整且是正立的行人图像,行人的上衣部件只会出现在行人图像的上半区域,不可能出现在行人图像的下半区域,根据这一先验知识,模型在对行人部件进行解析的时候,,头发、脸、上衣、胳膊等部件出现在图像的上半区域,裤子、鞋等类别只会出现在图像的下半区域,其他类别做相同的约束处理。在行人部件预测阶段根据位置先验进行约束,可有效地提升解析准确率。
步骤3.3、将所述解析结果添加到所述原始行人图像,得到叠加行人图像。
具体实现方式为:将所述解析结果与所述原始行人图像进行叠加,解析出来属于背景的像素点赋值为所述原始行人图像中对应的像素点的RGB值,解析出来属于目标的像素点的赋值为所述解析结果中的RGB值与所述原始行人图像中的RGB值的和的一半。
步骤3.4、根据所述检测框信息,将所述叠加行人图像填补回所述原始视频帧序列,得到解析后的视频帧序列。
步骤4、将所述解析后的视频帧序列转化为视频。
综上,本发明提供了一种面向监控环境的实时行人解析方法,先从监控系统中获取实时视频流并转化为视频帧序列,再使用目标检测算法检测出视频帧中的行人目标,然后使用轻量级行人解析模型解析视频帧中的行人图像,同时引入部件缺失行人多尺度增强和行人部件类别约束的优化策略,最后将解析结果填补回原视频帧,把视频帧序列转化为视频,得到行人解析处理后的视频。
本发明实施例提供的一种面向监控环境的实时行人解析方法至少包括如下技术效果:
(1)本发明通过使用轻量级的行人解析模型,能够对监控中的行人目标进行实时解析。
(2)本发明通过部件缺失行人多尺度数据增强的优化策略,能够解决处在不同尺度下部件缺失行人的解析问题,提升行人解析的准确率。
(3)本发明通过行人部件类别约束的优化策略辅助模型进行解析处理,能够提升行人解析的准确率。
最后所应说明的是,以上具体实施方式仅用以说明本发明的技术方案而非限制,尽管参照实例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本发明技术方案的精神和范围,其均应涵盖在本发明的权利要求范围当中。
Claims (9)
1.一种面向监控环境的实时行人解析方法,其特征在于,包括以下步骤:
步骤1、获取实时视频流,将所述视频流进行转化,得到原始视频帧序列;
步骤2、使用目标检测算法对所述原始视频帧序列进行检测,获得检测框信息;
步骤3、使用行人解析模型对原始行人图像进行解析处理,所述解析处理中引入部件缺失行人多尺度数据增强和行人部件类别约束进行优化,得到解析结果,将所述解析结果填补回所述原始视频帧序列,得到解析后的视频帧序列;
步骤4、将所述解析后的视频帧序列转化为视频。
2.根据权利要求1所述的面向监控环境的实时行人解析方法,其特征在于,所述步骤2中,所述目标检测算法采用YOLOv3,所述检测框信息包括检测框的帧号、检测框的坐标信息。
3.根据权利要求1所述的面向监控环境的实时行人解析方法,其特征在于,所述步骤3包括以下子步骤:
步骤3.1、根据所述检测框信息,从所述原始视频帧序列中截取出原始行人图像;
步骤3.2、利用行人解析模型进行解析处理;
步骤3.2.1、制作部件缺失行人多尺度数据增强的监控数据集;
步骤3.2.2、使用所述部件缺失行人多尺度数据增强的监控数据集对轻量级的解析模型进行训练,得到行人解析模型;
步骤3.2.3、使用所述行人解析模型对所述原始行人图像进行解析处理,并进行部件类别约束,得到解析结果;
步骤3.3、将所述解析结果添加到所述原始行人图像,得到叠加行人图像;
步骤3.4、根据所述检测框信息,将所述叠加行人图像填补回所述原始视频帧序列,得到解析后的视频帧序列。
4.根据权利要求3所述的面向监控环境的实时行人解析方法,其特征在于,所述步骤3.2.1的具体实现方式为:对完整的原始行人图像进行拆分,得到多类拆分数据集,对完整的原始行人图像数据集、多类拆分数据集分别进行尺寸调整,将尺寸调整后的数据集进行合并,得到部件缺失行人多尺度数据增强的监控数据集。
5.根据权利要求4所述的面向监控环境的实时行人解析方法,其特征在于,所述多类拆分数据集包括完整行人图像数据集、上半身数据集、下半身数据集、左半身数据集、右半身数据集、从头部到脚部的1/4部分数据集、从头部到脚部的3/4部分数据集;所述完整行人图像数据集构成第一类数据集,所述上半身数据集、所述下半身数据集、所述左半身数据集、所述右半身数据集构成第二类数据集,所述从头部到脚部的1/4部分数据集、所述从头部到脚部的3/4部分数据集构成第三类数据集;将所述第一类数据集中的图像尺寸分别调整为原始尺寸的1倍、1/2倍、1/3倍,三种不同尺寸的图像在所述第一类数据集中占比为1/2:1/4:1/4;按照与所述第一类数据集相同的调整方案,对所述第二类数据集、所述三类数据集的图像尺寸及图像占比分别进行调整;将尺寸调整后的三类数据集进行合并,得到部件缺失行人多尺度数据增强的监控数据集。
6.根据权利要求3所述的面向监控环境的实时行人解析方法,其特征在于,所述步骤3.2.2的具体实现方式为:根据所述部件缺失行人多尺度数据增强的监控数据集,采用轻量级的解析模型BiseNet进行训练,并用损失函数进行监督训练,得到行人解析模型。
7.根据权利要求6所述的面向监控环境的实时行人解析方法,其特征在于,所述损失函数L(X;W)为:
其中,X表示预测的解析结果,Xi表示Xception中第i个stage输出的特征图,W表示标注图,α表示权重,lp(X;W)表示主损失函数,li(Xi;W)表示辅助损失函数,K=3;其中,所述主损失函数、所述辅助损失函数使用softmax损失函数。
8.根据权利要求3所述的面向监控环境的实时行人解析方法,其特征在于,所述步骤3.2.3中的所述部件类别约束为根据部件类别位置的先验,对所述原始行人图像的类别进行空间位置的约束。
9.根据权利要求3所述的面向监控环境的实时行人解析方法,其特征在于,所述步骤3.3的具体实现方式为:将所述解析结果与所述原始行人图像进行叠加,解析出来属于背景的像素点赋值为所述原始行人图像中对应的像素点的RGB值,解析出来属于目标的像素点的赋值为所述解析结果中的RGB值与所述原始行人图像中的RGB值的和的一半。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910768586.9A CN110427920B (zh) | 2019-08-20 | 2019-08-20 | 一种面向监控环境的实时行人解析方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910768586.9A CN110427920B (zh) | 2019-08-20 | 2019-08-20 | 一种面向监控环境的实时行人解析方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110427920A true CN110427920A (zh) | 2019-11-08 |
CN110427920B CN110427920B (zh) | 2021-11-02 |
Family
ID=68417041
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910768586.9A Active CN110427920B (zh) | 2019-08-20 | 2019-08-20 | 一种面向监控环境的实时行人解析方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110427920B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111091110A (zh) * | 2019-12-24 | 2020-05-01 | 山东仁功智能科技有限公司 | 一种基于人工智能的反光背心穿戴识别方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130250050A1 (en) * | 2012-03-23 | 2013-09-26 | Objectvideo, Inc. | Video surveillance systems, devices and methods with improved 3d human pose and shape modeling |
CN103345744A (zh) * | 2013-06-19 | 2013-10-09 | 北京航空航天大学 | 一种基于多图像的人体目标部件自动解析方法 |
CN105224937A (zh) * | 2015-11-13 | 2016-01-06 | 武汉大学 | 基于人体部件位置约束的细粒度语义色彩行人重识别方法 |
CN107145845A (zh) * | 2017-04-26 | 2017-09-08 | 中山大学 | 基于深度学习及多特征点融合的行人检测方法 |
CN107862696A (zh) * | 2017-10-26 | 2018-03-30 | 武汉大学 | 基于时尚图迁移的特定行人衣物解析方法及系统 |
CN108596098A (zh) * | 2018-04-24 | 2018-09-28 | 北京京东尚科信息技术有限公司 | 人体部件的解析方法、系统、设备和存储介质 |
CN109902573A (zh) * | 2019-01-24 | 2019-06-18 | 中国矿业大学 | 面向矿井下视频监控的多摄像机无标注行人重识别方法 |
-
2019
- 2019-08-20 CN CN201910768586.9A patent/CN110427920B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130250050A1 (en) * | 2012-03-23 | 2013-09-26 | Objectvideo, Inc. | Video surveillance systems, devices and methods with improved 3d human pose and shape modeling |
CN103345744A (zh) * | 2013-06-19 | 2013-10-09 | 北京航空航天大学 | 一种基于多图像的人体目标部件自动解析方法 |
CN105224937A (zh) * | 2015-11-13 | 2016-01-06 | 武汉大学 | 基于人体部件位置约束的细粒度语义色彩行人重识别方法 |
CN107145845A (zh) * | 2017-04-26 | 2017-09-08 | 中山大学 | 基于深度学习及多特征点融合的行人检测方法 |
CN107862696A (zh) * | 2017-10-26 | 2018-03-30 | 武汉大学 | 基于时尚图迁移的特定行人衣物解析方法及系统 |
CN108596098A (zh) * | 2018-04-24 | 2018-09-28 | 北京京东尚科信息技术有限公司 | 人体部件的解析方法、系统、设备和存储介质 |
CN109902573A (zh) * | 2019-01-24 | 2019-06-18 | 中国矿业大学 | 面向矿井下视频监控的多摄像机无标注行人重识别方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111091110A (zh) * | 2019-12-24 | 2020-05-01 | 山东仁功智能科技有限公司 | 一种基于人工智能的反光背心穿戴识别方法 |
CN111091110B (zh) * | 2019-12-24 | 2023-11-17 | 山东仁功智能科技有限公司 | 一种基于人工智能的反光背心穿戴识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110427920B (zh) | 2021-11-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105787458B (zh) | 基于人工设计特征和深度学习特征自适应融合的红外行为识别方法 | |
CN110119686B (zh) | 一种基于卷积神经网络的安全帽实时检测方法 | |
Gao et al. | Salient object detection in the distributed cloud-edge intelligent network | |
CN110287849A (zh) | 一种适用于树莓派的轻量化深度网络图像目标检测方法 | |
CN111507248B (zh) | 一种低分辨热力图的人脸额头区域检测与定位方法及其系统 | |
Li et al. | Sign language recognition based on computer vision | |
CN109815826A (zh) | 人脸属性模型的生成方法及装置 | |
CN106599800A (zh) | 一种基于深度学习的人脸微表情识别方法 | |
CN105678231A (zh) | 一种基于稀疏编码和神经网络的行人图片检测方法 | |
CN110197135A (zh) | 一种基于多维分割的视频结构化方法 | |
CN111046732A (zh) | 一种基于多粒度语义解析的行人重识别方法及存储介质 | |
CN108804453A (zh) | 一种视音频识别方法及装置 | |
CN108108688B (zh) | 一种基于低维时空特征提取与主题建模的肢体冲突行为检测方法 | |
CN103729620B (zh) | 一种基于多视角贝叶斯网络的多视角行人检测方法 | |
CN114973412B (zh) | 一种唇语识别方法和系统 | |
CN110097026A (zh) | 一种基于多维要素视频分割的段落关联规则评判方法 | |
CN110472566A (zh) | 一种高精度的模糊人脸识别方法与系统 | |
CN106227836B (zh) | 基于图像与文字的无监督联合视觉概念学习系统及方法 | |
CN108319944A (zh) | 一种远程人脸身份识别系统及方法 | |
Varsha et al. | Indian sign language gesture recognition using deep convolutional neural network | |
CN109191485A (zh) | 一种基于多层超图模型的多视频目标协同分割方法 | |
Pereira | PereiraASLNet: ASL letter recognition with YOLOX taking Mean Average Precision and Inference Time considerations | |
CN108537109A (zh) | 基于OpenPose的单目相机手语识别方法 | |
CN110427920A (zh) | 一种面向监控环境的实时行人解析方法 | |
Cambuim et al. | An efficient static gesture recognizer embedded system based on ELM pattern recognition algorithm |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |