CN108710868A - 一种基于复杂场景下的人体关键点检测系统及方法 - Google Patents
一种基于复杂场景下的人体关键点检测系统及方法 Download PDFInfo
- Publication number
- CN108710868A CN108710868A CN201810582712.7A CN201810582712A CN108710868A CN 108710868 A CN108710868 A CN 108710868A CN 201810582712 A CN201810582712 A CN 201810582712A CN 108710868 A CN108710868 A CN 108710868A
- Authority
- CN
- China
- Prior art keywords
- human body
- boundary frame
- confidence
- default
- personnel targets
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
Abstract
本发明公开了一种基于复杂场景下的人体关键点检测系统及方法,该方法包含:输入监控视频信息,得到单帧静态图和多帧光流图;对单帧静态图通过卷积操作提取特征以得到特征图,为解决复杂场景下干扰目标对人员目标检测的影响,采用人员目标检测算法,以对特征图的实际置信度与预设置信度进行判别,得到离散化人员目标包围盒;对多帧光流图采用光流堆叠来形成二维矢量场;提取离散化人员目标包围盒中特征,得到特征图,获得部位的关键点和关联程度,利用预测器为人体每个部位生成部位置信图,通过部位置信图和二维矢量场实现人体关键点的精准检测。本发明的系统及方法用于复杂场景下的人体关键点检测,实现人员目标关键点的精准检测。
Description
技术领域
本发明涉及一种人体关键点检测技术,具体涉及一种基于复杂场景下的人体关键点检测系统及方法。
背景技术
目前,我国的“天网”工程建设已初具规模,随着深度学习和智能视频行为分析等先进技术的发展成熟,如何有效地利用监控视频成为视频数据分析的重点。
计算机视频监控是利用计算机视觉和图像处理的方法对图像序列进行目标检测、目标分类、目标跟踪以及对监视场景中人员目标的行为识别。其中,人体行为识别是近年来被广泛关注的研究热点,而人体关键点检测则是智能视频行为识别的基础,也是核心的关键技术。通过人体关键点序列对目标行为进行分析和研判,实现安全隐患的主动发现、公共场所异常事件的预警,在油田、医院和敬老院等场所具有重要的实际应用价值。
人体关键点检测是对图像中人员目标的关键部位进行识别和定位,随着深度卷积神经网络的推广,这一问题得到进一步解决。人体关键点检测的方法主要分为两类:自上而下的方法和自下而上的方法。其中,自上而下的方法是指先检测到人员目标,然后使用目标包围盒进行定位,最后使用单人估计的方法定位人体的所有关节;自下而上的方法是指先定位到所有关节的位置,然后再区分关节的从属目标,最后将关节组装成一个完整的人体姿态。前者适用于人员目标稀疏的情况,后者适用于人员目标密集的情况。
传统的人体关键点检测方法包括基于模板匹配的方法、基于统计分类的方法和基于滑动窗口检测的方法。基于模板匹配的方法直观、简单,但是缺乏鲁棒性,一般用于单一场景中;概率统计的方法应用广泛,但却需要大量的训练数据来学习模型参数,计算较为复杂;基于滑动窗口的方法对训练数据库的标注要求较低,但却无法克服部分遮挡的影响以及构建人体各部位之间的相对位置关系。
综上所述,由于人体的非刚性特点、姿态的多变性及光照变化等影响,传统方法在单一特定场景下效果较突出,但是在复杂场景中受背景变化的影响比较大,人体部位易受其他物体目标的遮挡和干扰,难以保证人体关键点检测的准确性和完整性。
发明内容
本发明的目的是提供一种基于复杂场景下的人体关键点检测系统及方法,该系统及方法解决了现有技术对复杂场景中人体关键点检测效果差且误差大的问题,能够用于复杂场景下的人体关键点检测,对动态场景中人员目标进行定位、识别和跟踪,实现图像中所有人员目标关键点的精准检测。
为了达到上述目的,本发明提供了一种基于复杂场景下的人体关键点检测方法,该方法包含:
(S100)输入监控视频信息,进行预处理得到单帧静态图和多帧光流图;
(S200)对单帧静态图通过卷积操作提取特征以得到特征图,为解决复杂场景下干扰目标对人员目标检测的影响,采用人员目标检测算法,以对特征图的实际置信度与预设置信度进行判别,去除非人员目标,得到离散化人员目标包围盒;
(S300)对多帧光流图采用光流堆叠来形成二维矢量场;
(S400)提取所述的离散化人员目标包围盒中特征,得到特征图,获得部位的关键点和关联程度,利用预测器为人体每个部位生成部位置信图,通过部位置信图和二维矢量场实现人体关键点的精准检测。
其中,在所述的步骤S400中,在第一阶段,扩大目标包围盒,以原始图像作为输入,采用卷积操作提取特征后,从原始图像通过分类器预测每个部位的置信值,产生对应的置信图,且将前一阶段获得的置信图与提取的特征作为下一阶段的输入,在若干阶段之间不断迭代,以获得精确的部位置信图。
优选地,所述的人员目标检测算法包括:
(S210)对不同尺寸的单帧静态图产生一组固定大小的默认边界框集合,对该组默认边界框内的区域进行特征提取;
(S211)对人员目标的形体表征,提取主要特征,以形成不同层次的特征图单元,作为图像数据集,将每个层次的特征图单元以卷积的方式平铺特征映射,使得每个默认边界框与相对应的特征图单元的位置固定;
(S212)在所述的每个特征图单元上使用小卷积核卷积滤波器预测每个默认边界框中物体的实际边界框,该实际边界框作为目标包围盒,并计算出实际置信度,将实际置信度与预设置信度进行判别,以去除无效的包围盒,以修正目标包围盒位置;
(S213)输出在不同层次上的离散化目标包围盒,其具有不同的长宽比尺度。
优选地,在所述的步骤S212中,在进行置信度判别过程中,需要计算出每个默认边界框与相对应的实际边界框的误差和相应的评分,以预测默认边界框区域内的所有目标的类别和置信度;设定所述的预设置信度的阈值;当所述的实际置信度大于该阈值时,进行模型损失计算;当所述的实际置信度小于该阈值时,进行SVM后验判别;当判别为人员目标时,则微调目标包围盒;当判别为非人员目标时,剔除无效的包围盒。
优选地,所述的模型损失计算通过损失函数完成,损失函数为:
式(1)中,L(e)是损失误差,y是期望输出,α为实际输出。
对y的分布进行矩估计,用α来表示y的交叉熵为:
式(2)中,αi是第i个默认边界框的实际输出,yi是第i个默认边界框的期望输出。
n个默认边界框的平均交叉熵为:
式(3)中,yi,n表示当相匹配的默认边界框的数量为n时,第i个默认边界框的期望输出;αi,n表示当相匹配的默认边界框的数量为n时,第i个默认边界框的实际输出。
优选地,在所述的步骤S212中,当存在混淆目标时,对人员目标和混淆目标进行SVM后验判别,将大量人工标注的图像数据集送入SVM预先训练好人员目标和混淆目标的分类器中,在置信度判别后进行本地SVM二分类再判别,将识别出的混淆目标作为负样本去除,人员目标作为正样本,在正样本人员类别的置信度基础上,进行评分确定是否为真实的人员目标。
优选地,双重判别的总体目标损失函数是置信度损失和本地化评分损失的加权平均和,该总体目标损失函数为:
式(4)中,δ为初始权重项;N是与实际边界框相匹配的默认边界框的数量;L(α,c)为置信度的损失函数;L(α,f)为本地化评分损失函数。
通过交叉验证将所述的初始权重项δ设置为1;当以置信度评价期望输出时,输出为每一类的置信度C,则置信度的损失函数L(α,c)为:
式(5)中,yi,N表示当相匹配的默认边界框的数量为N时,第i个默认边界框的期望输出;αi,N表示当相匹配的默认边界框的数量为N时,第i个默认边界框的实际输出。
当N=0时,所述的置信度损失为0。
当时,表示第i个默认边界框与类别p的第j个实际边界框相匹配。
当时,表示第i个默认边界框与类别p的第j个实际边界框不匹配,本地化评分损失函数为:
式(6)中,表示默认边界框与实际边界框相匹配的评分;fj表示默认边界框的预设评分,表示第αi个默认边界框的实际评分;Δ表示间隔。
优选地,所述的第一个阶段的分类器C1的结构为:
其中,表示图像的像素空间,xi表示图像中每个像素的位置,p表示具体模型部位,表示第一阶段中部位p的置信值。
通过将前一阶段获得的置信图与提取的特征作为下一阶段的数据输入,以对前一阶段的位置进行修正,总体目标F(t)为:
式(7)中,表示理想置信度在t∈T阶段取得。
优选地,在所述的步骤S300中,对所述的多帧光流图通过光流法设定光流阈值,提取出视频中有效运动区域,筛选出带有人员目标的视频片段以转换为单帧图像,并且设定每经任意一间隔帧进行哈希函数计算,选择一个随机函数random,取每帧所在的帧编号为其哈希地址,得到随机生成的帧编号为提取帧。
通过泰勒公式将所述的多帧光流图的约束方程转换为:
Ix×Vx+Iy×Vy+Iz×Vz=-It (8)
式(8)中,Ix,Iy,Iz,It分别为I(x,y,z,t)在x,y,z,t处的分量,Vx,Vy,Vz分别是I(x,y,z,t)的光流向量中x,y,z的组成,I(x,y,z,t)为在(x,y,z)位置的体素。
所述的二维矢量场的形成方法包含:通过在时间t上进行连续提取多帧得到光流图,给图像中的每个像素点赋予一个速度矢量形成一个运动矢量场,通过预处理操作得到连续帧之间的光流位移堆叠场,以形成二维矢量场。
优选地,所述的人体关键点检测算法流程包括:
(S410)将目标检测得到的离散化人员目标包围盒坐标作为算法的初始输入,经过卷积操作提取特征得到特征图;
(S411)身体部位定位和关联程度分析在两个分支上同时进行,通过身体部位定位求得所有的关键点,通过关联程度分析求得所有部位之间的关联程度,以建立相对位置关系;
(S412)所述的身体部位定位的算法由预测器组成,分成若干阶段,每个阶段为人体每个部位重复生成置信图,每张置信图包含某一种关键点,该置信图与原始图像特征同时作为下一阶段的输入,预测各部位的位置,进而确定人体各关键点的位置;
(S413)对人体部位的位置和方向进行编码,通过在所述的二维矢量场中矢量的方向判别多人关键点的从属问题;
(S414)利用矢量之间的位移长度建立人体各部位之间的相对位置关系,实现人体不可见关键点的预测与估计,得到人体所有关键点的详细信息。
其中,在所述的步骤S412中,对每个部位累加所有尺度下的置信图,得到总置信图,找出置信度最大的点,该点为相应的关键点的位置。
其中,对于多人关键点检测,通过二维矢量场将每个人的身体组合在一起,形成一个完整的人体;当某个点有多人重叠时,将n个人的向量求和,再除以人数。
本发明还提供了一种基于复杂场景下的人体关键点检测系统,该系统包含:数据预处理模块,其对监控视频信息进行处理,以获得单帧静态图和多帧光流图;人员目标检测模块,其通过卷积操作提取所述的数据预处理模块发送的单帧静态图的特征,使用小卷积核卷积滤波器预测每个边界框中物体的实际边界框并计算实际置信度,将实际边界框作为目标包围盒,采用SVM后验判别将实际置信度与预设置信度进行判别,以去除无效的包围盒,以修正目标包围盒位置,获得离散化人员目标包围盒;以及人体关键点检测模块,其接收所述的人员目标检测模块发送的离散化人员目标包围盒坐标,通过卷积操作提取特征以得到特征图,并获得部位的关键点和关联程度,利用预测器为人体每个部位生成部位置信图,通过部位置信图和二维矢量场实现人体关键点的精准检测。
其中,所述的人体关键点检测模块采用若干阶段迭代的方式,将前一阶段获得的置信图与提取的特征作为下一阶段的输入,以在若干阶段之间不断迭代,获得精确的部位置信图。
本发明的基于复杂场景下的人体关键点检测系统及方法,解决了现有技术对复杂场景中人体关键点检测效果差且误差大的问题,具有以下优点:
(1)本发明的方法及系统采用人员目标检测算法去除非人员目标,简化了复杂场景,能够应用于复杂场景下的人体关键点检测,进行精准检测;
(2)本发明的方法及系统采用二维矢量场用于在图像域上对人体部位的位置和方向进行编码,能够多人关键点的从属问题,实现图像中所有人员目标关键点的精准检测;
(3)本发明的方法在SVM后验判别中采用的总体目标损失函数是让本地化评分损失函数在一个渐进过程中找到一个全局极小值,使得评分差异最小以及预测值更加准确,使得对目标包围盒进行调整以更好地匹配目标对象形状;
(4)本发明的方法还能够对特殊场景中易于混淆的目标,如海洋平台中人员目标的安全服颜色与某些柱形管道颜色和形态一致,进行处理,以去除混淆目标,以提高识别准确率;
(5)本发明的方法在人体关键点检测时用各部位的置信图来表达各部位之间的空间约束,同时在多个尺度下处理输入的特征图和响应图,既能确保精度,又考虑了各个部位之间的距离关系,通过不断扩大网络的接受域来检测其他部位位置,实现了人体所有关键点的精准检测。
附图说明
图1为本发明的基于复杂场景下的人体关键点检测方法的流程图。
图2为本发明的基于复杂场景下的人体关键点检测方法的原理图。
图3为本发明的人员目标检测算法的流程图。
图4为本发明的人体关键点检测算法的流程图。
图5为本发明的基于复杂场景下的人体关键点检测系统的结构图。
具体实施方式
以下结合附图和实施例对本发明的技术方案做进一步的说明。
一种基于复杂场景下的人体关键点检测方法,如图1所示,为本发明的基于复杂场景下的人体关键点检测方法的流程图,如图2所示,为本发明的基于复杂场景下的人体关键点检测方法的原理图,该方法包含:
(S100)输入监控视频信息,进行预处理得到单帧静态图和多帧光流图;
(S200)对单帧静态图通过卷积操作提取特征以得到特征图,为解决复杂场景下干扰目标对人员目标检测的影响,采用人员目标检测算法,以对特征图的实际置信度与预设置信度进行判别,去除非人员目标,得到离散化人员目标包围盒;
(S300)对多帧光流图采用光流堆叠来形成二维矢量场;
(S400)提取离散化人员目标包围盒中特征,得到特征图,获得部位的关键点和关联程度,利用预测器为人体每个部位生成部位置信图,通过部位置信图和二维矢量场实现人体关键点的精准检测。
其中,在步骤S400中,在第一阶段,扩大目标包围盒,以原始图像作为输入,采用卷积操作提取特征后,从原始图像通过分类器预测每个部位的置信值,产生对应的置信图,且将前一阶段获得的置信图与提取的特征作为下一阶段的输入,在若干阶段之间不断迭代,以获得精确的部位置信图。
如图3所示,为本发明的人员目标检测算法的流程图,人员目标检测算法流程包括:
(S210)对于不同尺寸的单帧静态图产生一组固定大小的默认边界框集合,对该组默认边界框内的区域进行特征提取;针对较大的单帧静态图采用若干默认边界框提取特征;
(S211)针对复杂场景下人员目标的形体表征,以颜色、形状和纹理等特征为主要特征进行提取,以形成不同层次的特征图单元,作为图像数据集,将每个层次的特征图单元以卷积的方式平铺特征映射,使得每个默认边界框与相对应的特征图单元的位置是固定的;
(S212)在每个特征图单元上使用小卷积核卷积滤波器去预测每个默认边界框中物体的实际边界框,该实际边界框作为目标包围盒,并计算出实际置信度,将实际置信度与预设置信度进行判别;可设定置信度阈值为0.6,对于大于置信度阈值的情况进行模型损失的计算;对于小于置信度阈值的情况直接进行SVM后验判别,若判别为人员目标,则需对目标包围盒进行微调处理,否则剔除无效的包围盒;具体地,对目标包围盒使用线性回归器进行微调处理,精细修正包围盒位置,否则视为无效的包围盒(在判别不是人员目标的情况下),进行剔除操作;
(S213)输出一系列在不同层次上的离散化目标包围盒,且具有不同的长宽比尺度。
对于实际边界框的确定,对视频流采用静态图像进行数据处理,通过深度学习技术对输入的图像数据集标签化,利用已标注的图像数据集训练人员目标检测模型,通过该模型对静态图像进行人员目标检测,得到目标的具体位置信息,并将位置信息作为输入得到目标包围盒,为人体关键点提取提供数据来源。在不同的场景下,选用相应的数据集,例如石油海上平台的图像数据集,利用已标注的图像数据集进行训练,使用的是深度学习SSD框架。
进一步需要知道的,不同尺度的特征图在每个位置使用不同长宽比的默认边界框。在步骤(S212)中,进行置信度判别过程中,需要计算出每个默认边界框与相对应的实际边界框的误差和相应的评分,以预测区域内的所有目标的类别和置信度,大于上述置信度阈值的对象类别视为目标类别。通过计算误差和评分,需要将实际边界框与图像中多个默认边界框进行匹配,最后得到的是修正后的目标包围盒。
并且,置信度判别是目标检测的初步筛选过程,将默认边界框与任何具有高于阈值的实际边界框进行重叠度匹配,通过SVM后验判别简化了匹配过程。此外,本算法允许预测多个重叠的默认边界框的评分,而不是只挑选具有最大重叠度的边界框进行评分预估。
因此,本发明的人员目标检测算法结合了不同分辨率的多个特征图的预测,能够自然处理各种尺寸的目标对象,与其他单级方法相比,即使输入图像(单帧静态图)尺寸较小也具有较高的精度。
进一步还需要知道的,在步骤(S212)中,模型损失计算通过损失函数完成,常用的损失函数大多是平方差函数:
式(1)中,L(e)是损失误差,y是期望输出,α为实际输出。
当实际输出与期望输出差距越大,则模型损失越高,而在实际操作中,y的分布并不能通过计算精确获得,只能对y的分布进行矩估计,即为α值,用α来表示y的交叉熵:
式(2)中,αi是第i个默认边界框的实际输出,yi是第i个默认边界框的期望输出。
因此,n个默认边界框的平均交叉熵如下:
式(3)中,yi,n表示当相匹配的默认边界框的数量为n时,第i个默认边界框的期望输出;αi,n表示当相匹配的默认边界框的数量为n时,第i个默认边界框的实际输出。
进一步地,根据本发明一实施例,针对特定场景,如海洋平台这个特殊场景,由于人员目标的安全服颜色与某些柱形管道颜色和形态一致,现有技术使用简单场景下常规模型会经常混淆两者,导致较高的误报率。本发明该实施例中对这两种目标进行SVM后验判别,将大量人工标注的图像数据集送入SVM预先训练好人员目标和柱形管道目标的分类器中,在置信度判别后进行本地SVM二分类再判别,将识别出的柱形管道视为负样本去除,只在正样本人员类别的置信度基础上进行评分预估确实是否为真实人员目标,减少了负样本的计算量。通过双重判别的总体目标损失函数是置信度损失和本地化评分损失的加权平均和,该总体目标损失函数具体如下:
式(4)中,δ为初始权重项。
进一步,通过交叉验证将初始权重项δ设置为1,当以置信度评价期望输出时,输出为每一类的置信度C,则置信度的损失函数L(α,c)如下:
式(5)中,yi,N表示当相匹配的默认边界框的数量为N时,第i个默认边界框的期望输出;αi,N表示当相匹配的默认边界框的数量为N时,第i个默认边界框的实际输出;N是与实际边界框相匹配默认边界框的数量;若N=0,则将置信度损失设置为0。设表示第i个默认边界框与类别p的第j个实际边界框相匹配,否则,若不匹配则本地化评分损失函数为:
式(6)中,表示默认边界框与实际边界框相匹配的评分;fj表示默认边界框的预设评分,表示第αi个默认边界框的实际评分;Δ表示间隔。
总体目标损失函数是让本地化评分损失函数在一个渐进过程中找到一个全局极小值,使得评分差异最小以及预测值更加准确,使得对目标包围盒进行调整以更好地匹配目标对象形状。
如图4所示,为本发明的人体关键点检测算法的流程图,人体关键点检测算法流程包括:
(S410)将目标检测得到的离散化人员目标包围盒坐标作为算法的初始输入,经过一系列卷积操作提取特征得到特征图;
(S411)身体部位定位和关联程度分析是在两个分支上同时进行,前者是为了求得所有的关键点,包括:头部、颈部、右肩、右肘、右手腕、左肩、左肘、左手腕、右臀、右膝、右脚踝、左臀、左膝和左脚踝等14个关键点;后者是为了求得所有部位之间的关联程度以建立相对位置关系;
(S412)身体部位定位算法由一系列预测器组成,分成多个阶段,每个阶段为人体每个部位重复生成置信图,每一张置信图包含某一种关键点,该置信图与原始图像特征同时用作下一阶段的输入,预测各部位的位置,进而确定人体各关键点的位置;
(S413)对人体部位的位置和方向进行编码,通过在二维矢量场中矢量的方向判别多人关键点的从属问题;
(S414)利用矢量之间的位移长度建立人体各部位之间的相对位置关系,从而实现人体不可见关键点的预测与估计,最终得到人体所有关键点的详细信息。
在步骤S412中,对每个部位累加所有尺度下的置信图,得到总置信图,找出置信度最大的点,该点为相应的关键点的位置。
人体关键点检测算法在每一个尺度下对输入图像进行特征提取,获得人体各个部位的置信图,置信值越大在置信图上的颜色就越深,颜色的深度在整个置信图中是相对的。本发明的算法用各部位的置信图来表达各部位之间的空间约束,同时在多个尺度下处理输入的特征图和响应图,既能确保精度,又考虑了各个部位之间的距离关系,通过不断扩大网络的接受域来检测其他部位位置,最终实现人体所有关键点的精准检测。
具体地,根据本发明一实施例,为了避免通过目标检测得到的人员目标包围盒在一定范围内存在部分误差,导致人员目标的部位可能未能完整地显示在包围盒内的问题,本发明该实施例采取多尺度的方式扩大感知野,减小目标检测带来的误差。具体地,按照1.0:1.2的比例对原包围盒进行扩大,通过这种方式得到完整的人员目标,以便在人体关键点检测阶段检测到所有的关键点坐标。再利用卷积网络进行特征提取后,从原始图像直接预测每个部位的置信值,从而产生对应的置信图,其中包含一个背景置信图。将人体共分为P个模型部位,则共有P+1层置信图,P的预设值为14。假设x是图像中具有突出特征的像素,将原图输入网络,通过卷积操作提取图像中的突出特征,突出特征主要是指纹理特征。使用C1表示第一个阶段的分类器,分类器可以粗略预测各部位的位置,从而产生各部位的置信图。分类器结构如下:
其中,表示图像的像素空间,xi是图像中的每个像素的位置,p表示一个具体模型部位,表示第一阶段中部位p的置信值。
将第一阶段得到的置信图与图像特征作为第二阶段的输入数据,同时将原始图像再次作为输入,随着网络的接受域不断扩大,学习到的特征也会与前一阶段有所不同,所使用的特征函数包括图像数据特征、该阶段各各部位的置信图以及各级分类器的上下文信息。分类器C2继续预测各部位的位置,是对前一阶段预测位置的修正,总体目标F(t)如下所示:
式(7)中,表示理想置信度在t∈T阶段取得。通过对两个阶段的不断迭代,使得预测部位位置更加精确,最终得到每个部位的较为精确的位置。
进一步需要知道的,对于多帧光流图可通过光流法设定光流阈值,提取出视频中有效的运动区域,筛选出带有人员目标的视频片段用以单帧图像转换。为了产生随机的提取帧,设定每隔24帧进行一次哈希函数计算,每次选择一个随机函数random,取每帧所在的帧编号为它的哈希地址,得到随机生成的帧编号,即为提取帧。
对于多帧光流图的约束方程,设定目标移动距离足够小,同时移动所需的时间也可以忽略不计,那么通过泰勒公式对多帧光流图的约束方程进行变换,如下所示:
Ix×Vx+Iy×Vy+Iz×Vz=-It (8)
式(8)中,Ix,Iy,Iz,It分别为I(x,y,z,t)在x,y,z,t处的分量,Vx,Vy,Vz分别是I(x,y,z,t)的光流向量中x,y,z的组成,三个偏微分则是图像在x,y,z,t这一像素点上相应方向的差分来近似。
二维矢量场的形成方法,具体地为:通过在时间t上进行连续提取多帧得到光流图,给图像中的每个像素点赋予一个速度矢量形成一个运动矢量场,通过预处理操作得到连续帧之间的光流位移堆叠场而形成的二维矢量场。
进一步地,根据本发明一实施例,对于多人关键点检测的问题,检测不同人的身体部位,还需要将每个人的身体分别组合在一起,形成一个完整的人体,使用的方法就是二维矢量场。它是一个2D向量集合,每一个2D向量集合都会编码一个人体部位的位置和方向,将位置和方向信息存储在向量中,每一个向量都会在关联的两个人体部位之间有一个亲和区域,其中的每一个像素都有一个2D向量的描述方向。亲和区通过响应图的方式存在,维度是二维的。若某个点有多人重叠,则将n个人的向量求和,再除以人数。
在视频中设定检测区域,在复杂场景下通过本发明的方法进行目标检测,对人员目标进行定位、识别和跟踪,对同一人员目标在该区域内运动超过一定时间的事件进行徘徊检测,可用于银行、政府机关、大使馆、文化与宗教聚集地、高安全周界、商业区和住宅区等场所的智能监控,发现可疑目标并及时发出警告,以排除安全隐患。
而且,本发明的方法通过精确分析和定位人体的关键点,在此基础上能够进行人员的行为和姿态判别,可应用于石油、工业、医疗和安保等多个领域,这些领域面临着诸多安全隐患因素,例如石油钻采生产作业的人员不慎坠海、工业生产人员不符合规定佩戴安全设备以及老人、病人摔倒等情况。本发明的方法可以减少人工干预的时间,避免了因人身意外和违规操作生产造成的经济损失,从而保障了工业的安全生产,节省了人力物力,提高了生产管理水平。
一种基于复杂场景下的人体关键点检测系统,如图5所示,为本发明的基于复杂场景下的人体关键点检测系统的结构图,该系统包含:数据预处理模块,其对监控视频信息进行处理,以获得单帧静态图和多帧光流图;人员目标检测模块,其通过卷积操作提取数据预处理模块发送的单帧静态图的特征,使用小卷积核卷积滤波器预测每个边界框中物体的实际边界框并计算实际置信度,将实际置信度作为目标包围盒,采用SVM后验判别将实际置信度与预设置信度进行判别,以去除无效的包围盒,以修正目标包围盒位置,获得离散化人员目标包围盒;以及人体关键点检测模块,其接收人员目标检测模块发送的离散化人员目标包围盒坐标,通过卷积操作提取特征以得到特征图,并获得部位的关键点和关联程度,利用预测器为人体每个部位生成部位置信图,通过部位置信图和二维矢量场实现人体关键点的精准检测。
其中,人体关键点检测模块采用若干阶段迭代的方式,将前一阶段获得的置信图与提取的特征作为下一阶段的输入,以在若干阶段之间不断迭代,获得精确的部位置信图。具体地,该人体关键点检测模块采用上述基于复杂场景下的人体关键点检测方法中的人体关键点检测算法的步骤操作。
其中,人员目标检测模块也采用上述基于复杂场景下的人体关键点检测方法中的人员目标检测算法的步骤操作。
综上所述,本发明的基于复杂场景下的人体关键点检测系统及方法在复杂场景下对人员目标的所有关键点进行快速准确的检测,能够应用于多个领域进行定位、识别、跟踪以及行为和姿态判别。
尽管本发明的内容已经通过上述优选实施例作了详细介绍,但应当认识到上述的描述不应被认为是对本发明的限制。在本领域技术人员阅读了上述内容后,对于本发明的多种修改和替代都将是显而易见的。因此,本发明的保护范围应由所附的权利要求来限定。
Claims (10)
1.一种基于复杂场景下的人体关键点检测方法,其特征在于,该方法包含:
(S100)输入监控视频信息,进行预处理得到单帧静态图和多帧光流图;
(S200)对单帧静态图通过卷积操作提取特征以得到特征图,为解决复杂场景下干扰目标对人员目标检测的影响,采用人员目标检测算法,以对特征图的实际置信度与预设置信度进行判别,去除非人员目标,得到离散化人员目标包围盒;
(S300)对多帧光流图采用光流堆叠来形成二维矢量场;
(S400)提取所述的离散化人员目标包围盒中特征,得到特征图,获得部位的关键点和关联程度,利用预测器为人体每个部位生成部位置信图,通过部位置信图和二维矢量场实现人体关键点的精准检测;
在所述的步骤S400中,在第一阶段,扩大离散化人员目标包围盒,以原始图像作为输入,采用卷积操作提取特征后,从原始图像通过分类器预测每个部位的置信值,产生对应的置信图,且将前一阶段获得的置信图与提取的特征作为下一阶段的输入,在若干阶段之间不断迭代,以获得精确的部位置信图。
2.根据权利要求1所述的基于复杂场景下的人体关键点检测方法,其特征在于,所述的人员目标检测算法包括:
(S210)对不同尺寸的单帧静态图产生一组固定大小的默认边界框集合,对该组默认边界框内的区域进行特征提取;
(S211)对人员目标的形体表征,提取主要特征,以形成不同层次的特征图单元,作为图像数据集,将每个层次的特征图单元以卷积的方式平铺特征映射,使得每个默认边界框与相对应的特征图单元的位置固定;
(S212)在所述的每个特征图单元上使用小卷积核卷积滤波器预测每个默认边界框中物体的实际边界框,该实际边界框作为目标包围盒,并计算出实际置信度,将实际置信度与预设置信度进行判别,以去除无效的包围盒,以修正目标包围盒位置;
(S213)输出在不同层次上的离散化目标包围盒,其具有不同的长宽比尺度。
3.根据权利要求2所述的基于复杂场景下的人体关键点检测方法,其特征在于,在所述的步骤S212中,在进行置信度判别过程中,需要计算出每个默认边界框与相对应的实际边界框的误差和相应的评分,以预测默认边界框区域内的所有目标的类别和置信度;
设定所述的预设置信度的阈值;当所述的实际置信度大于该阈值时,进行模型损失计算;当所述的实际置信度小于该阈值时,进行SVM后验判别;当判别为人员目标时,则微调目标包围盒;当判别为非人员目标时,剔除无效的包围盒。
4.根据权利要求3所述的基于复杂场景下的人体关键点检测方法,其特征在于,所述的模型损失计算通过损失函数完成,损失函数为:
式(1)中,L(e)是损失误差,y是期望输出,α为实际输出;
对y的分布进行矩估计,用α来表示y的交叉熵为:
式(2)中,αi是第i个默认边界框的实际输出,yi是第i个默认边界框的期望输出;
n个默认边界框的平均交叉熵为:
式(3)中,yi,n表示当相匹配的默认边界框的数量为n时,第i个默认边界框的期望输出;αi,n表示当相匹配的默认边界框的数量为n时,第i个默认边界框的实际输出。
5.根据权利要求4所述的基于复杂场景下的人体关键点检测方法,其特征在于,在所述的步骤S212中,当存在混淆目标时,对人员目标和混淆目标进行SVM后验判别,将大量人工标注的图像数据集送入SVM预先训练好人员目标和混淆目标的分类器中,在置信度判别后进行本地SVM二分类再判别,将识别出的混淆目标作为负样本去除,人员目标作为正样本,在正样本人员类别的置信度基础上,进行评分确定是否为真实的人员目标。
6.根据权利要求5所述的基于复杂场景下的人体关键点检测方法,其特征在于,双重判别的总体目标损失函数是置信度损失和本地化评分损失的加权平均和,该总体目标损失函数为:
式(4)中,δ为初始权重项;N是与实际边界框相匹配的默认边界框的数量;L(α,c)为置信度的损失函数;L(α,f)为本地化评分损失函数;
通过交叉验证将所述的初始权重项δ设置为1;当以置信度评价期望输出时,输出为每一类的置信度C,则置信度的损失函数L(α,c)为:
式(5)中,yi,N表示当相匹配的默认边界框的数量为N时,第i个默认边界框的期望输出;αi,N表示当相匹配的默认边界框的数量为N时,第i个默认边界框的实际输出;
当N=0时,所述的置信度损失为0;
当时,表示第i个默认边界框与类别p的第j个实际边界框相匹配;
当时,表示第i个默认边界框与类别p的第j个实际边界框不匹配,本地化评分损失函数为:
式(6)中,表示默认边界框与实际边界框相匹配的评分;fj表示默认边界框的预设评分,表示第αi个默认边界框的实际评分;Δ表示间隔。
7.根据权利要求1-6中任意一项所述的基于复杂场景下的人体关键点检测方法,其特征在于,所述的第一个阶段的分类器C1的结构为:
其中,表示图像的像素空间,xi表示图像中每个像素的位置,p表示具体模型部位,表示第一阶段中部位p的置信值;
通过将前一阶段获得的置信图与提取的特征作为下一阶段的数据输入,以对前一阶段的位置进行修正,总体目标F(t)为:
式(7)中,表示理想置信度在t∈T阶段取得。
8.根据权利要求7所述的基于复杂场景下的人体关键点检测方法,其特征在于,在所述的步骤S300中,对所述的多帧光流图通过光流法设定光流阈值,提取出视频中有效运动区域,筛选出带有人员目标的视频片段以转换为单帧图像,并且设定每经任意一间隔帧进行哈希函数计算,选择一个随机函数random,取每帧所在的帧编号为其哈希地址,得到随机生成的帧编号为提取帧;
通过泰勒公式将所述的多帧光流图的约束方程转换为:
Ix×Vx+Iy×Vy+Iz×Vz=-It (8)
式(8)中,Ix,Iy,Iz,It分别为I(x,y,z,t)在x,y,z,t处的分量,Vx,Vy,Vz分别是I(x,y,z,t)的光流向量中x,y,z的组成,I(x,y,z,t)为在(x,y,z)位置的体素;
所述的二维矢量场的形成方法包含:通过在时间t上进行连续提取多帧得到光流图,给图像中的每个像素点赋予一个速度矢量形成一个运动矢量场,通过预处理操作得到连续帧之间的光流位移堆叠场,以形成二维矢量场。
9.根据权利要求8所述的基于复杂场景下的人体关键点检测方法,其特征在于,所述的人体关键点检测算法流程包括:
(S410)将目标检测得到的离散化人员目标包围盒坐标作为算法的初始输入,经过卷积操作提取特征得到特征图;
(S411)身体部位定位和关联程度分析在两个分支上同时进行,通过身体部位定位求得所有的关键点,通过关联程度分析求得所有部位之间的关联程度,以建立相对位置关系;
(S412)所述的身体部位定位的算法由预测器组成,分成若干阶段,每个阶段为人体每个部位重复生成置信图,每张置信图包含某一种关键点,该置信图与原始图像特征同时作为下一阶段的输入,预测各部位的位置,进而确定人体各关键点的位置;
(S413)对人体部位的位置和方向进行编码,通过在所述的二维矢量场中矢量的方向判别多人关键点的从属问题;
(S414)利用矢量之间的位移长度建立人体各部位之间的相对位置关系,实现人体不可见关键点的预测与估计,得到人体所有关键点的详细信息;
在所述的步骤S412中,对每个部位累加所有尺度下的置信图,得到总置信图,找出置信度最大的点,该点为相应的关键点的位置;
对于多人关键点检测,通过二维矢量场将每个人的身体组合在一起,形成一个完整的人体;当某个点有多人重叠时,将n个人的向量求和,再除以人数。
10.一种基于复杂场景下的人体关键点检测系统,其特征在于,该系统包含:
数据预处理模块,其对监控视频信息进行处理,以获得单帧静态图和多帧光流图;
人员目标检测模块,其通过卷积操作提取所述的数据预处理模块发送的单帧静态图的特征,使用小卷积核卷积滤波器预测每个边界框中物体的实际边界框并计算实际置信度,将实际边界框作为目标包围盒,采用SVM后验判别将实际置信度与预设置信度进行判别,以去除无效的包围盒,以修正目标包围盒位置,获得离散化人员目标包围盒;以及
人体关键点检测模块,其接收所述的人员目标检测模块发送的离散化人员目标包围盒坐标,通过卷积操作提取特征以得到特征图,并获得部位的关键点和关联程度,利用预测器为人体每个部位生成部位置信图,通过部位置信图和二维矢量场实现人体关键点的精准检测;
其中,所述的人体关键点检测模块采用若干阶段迭代的方式,将前一阶段获得的置信图与提取的特征作为下一阶段的输入,以在若干阶段之间不断迭代,获得精确的部位置信图。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810582712.7A CN108710868B (zh) | 2018-06-05 | 2018-06-05 | 一种基于复杂场景下的人体关键点检测系统及方法 |
PCT/CN2018/096157 WO2019232894A1 (zh) | 2018-06-05 | 2018-07-18 | 一种基于复杂场景下的人体关键点检测系统及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810582712.7A CN108710868B (zh) | 2018-06-05 | 2018-06-05 | 一种基于复杂场景下的人体关键点检测系统及方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108710868A true CN108710868A (zh) | 2018-10-26 |
CN108710868B CN108710868B (zh) | 2020-09-04 |
Family
ID=63872233
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810582712.7A Active CN108710868B (zh) | 2018-06-05 | 2018-06-05 | 一种基于复杂场景下的人体关键点检测系统及方法 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN108710868B (zh) |
WO (1) | WO2019232894A1 (zh) |
Cited By (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109492581A (zh) * | 2018-11-09 | 2019-03-19 | 中国石油大学(华东) | 一种基于tp-stg框架的人体动作识别方法 |
CN109544595A (zh) * | 2018-10-29 | 2019-03-29 | 苏宁易购集团股份有限公司 | 一种顾客路径追踪方法及系统 |
CN109558832A (zh) * | 2018-11-27 | 2019-04-02 | 广州市百果园信息技术有限公司 | 一种人体姿态检测方法、装置、设备及存储介质 |
CN109711273A (zh) * | 2018-12-04 | 2019-05-03 | 北京字节跳动网络技术有限公司 | 图像关键点提取方法、装置、可读存储介质及电子设备 |
CN109766823A (zh) * | 2019-01-07 | 2019-05-17 | 浙江大学 | 一种基于深层卷积神经网络的高分辨率遥感船舶检测方法 |
CN109977997A (zh) * | 2019-02-13 | 2019-07-05 | 中国科学院自动化研究所 | 基于卷积神经网络快速鲁棒的图像目标检测与分割方法 |
CN110096983A (zh) * | 2019-04-22 | 2019-08-06 | 苏州海赛人工智能有限公司 | 一种基于神经网络的图像中施工工人安全服饰检测方法 |
CN110348290A (zh) * | 2019-05-27 | 2019-10-18 | 天津中科智能识别产业技术研究院有限公司 | 焦罐车安全预警视觉检测方法 |
CN110414348A (zh) * | 2019-06-26 | 2019-11-05 | 深圳云天励飞技术有限公司 | 一种视频处理方法及装置 |
CN110501339A (zh) * | 2019-08-13 | 2019-11-26 | 江苏大学 | 一种复杂环境下的布面定位方法 |
CN110717476A (zh) * | 2019-10-22 | 2020-01-21 | 上海眼控科技股份有限公司 | 图像处理方法、装置、计算机设备和计算机可读存储介质 |
CN110929711A (zh) * | 2019-11-15 | 2020-03-27 | 智慧视通(杭州)科技发展有限公司 | 运用于固定场景关于身份信息和形体信息自动关联的方法 |
CN111062239A (zh) * | 2019-10-15 | 2020-04-24 | 平安科技(深圳)有限公司 | 人体目标检测方法、装置、计算机设备及存储介质 |
CN111079695A (zh) * | 2019-12-30 | 2020-04-28 | 北京华宇信息技术有限公司 | 一种人体关键点检测与自学习方法及装置 |
CN111191690A (zh) * | 2019-12-16 | 2020-05-22 | 上海航天控制技术研究所 | 基于迁移学习的空间目标自主识别方法、电子设备和存储介质 |
CN111209829A (zh) * | 2019-12-31 | 2020-05-29 | 浙江大学 | 基于视觉的移动视体静态中小尺度目标识别方法 |
CN111246113A (zh) * | 2020-03-05 | 2020-06-05 | 上海瑾盛通信科技有限公司 | 图像处理方法、装置、设备及存储介质 |
CN111368594A (zh) * | 2018-12-26 | 2020-07-03 | 中国电信股份有限公司 | 用于检测关键点的方法和装置 |
CN111680705A (zh) * | 2020-08-13 | 2020-09-18 | 南京信息工程大学 | 适于目标检测的mb-ssd方法和mb-ssd特征提取网络 |
CN111798486A (zh) * | 2020-06-16 | 2020-10-20 | 浙江大学 | 基于人体运动预测的多视角人体运动捕捉方法 |
WO2020215974A1 (zh) * | 2019-04-24 | 2020-10-29 | 北京京东尚科信息技术有限公司 | 用于人体检测的方法和装置 |
CN112613382A (zh) * | 2020-12-17 | 2021-04-06 | 浙江大华技术股份有限公司 | 对象完整性的确定方法及装置、存储介质、电子装置 |
CN112633178A (zh) * | 2020-12-24 | 2021-04-09 | 深圳集智数字科技有限公司 | 一种图像识别方法、装置、存储介质及电子设备 |
CN112784771A (zh) * | 2021-01-27 | 2021-05-11 | 浙江芯昇电子技术有限公司 | 人形检测方法、系统和监控设备 |
CN113505763A (zh) * | 2021-09-09 | 2021-10-15 | 北京爱笔科技有限公司 | 关键点检测方法、装置、电子设备及存储介质 |
CN114240844A (zh) * | 2021-11-23 | 2022-03-25 | 电子科技大学 | 一种医学图像中无监督的关键点定位和目标检测方法 |
CN114973334A (zh) * | 2022-07-29 | 2022-08-30 | 浙江大华技术股份有限公司 | 人体部件关联方法、装置、电子装置和存储介质 |
CN112613382B (zh) * | 2020-12-17 | 2024-04-30 | 浙江大华技术股份有限公司 | 对象完整性的确定方法及装置、存储介质、电子装置 |
Families Citing this family (50)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110991388B (zh) * | 2019-12-16 | 2023-07-14 | 小哆智能科技(北京)有限公司 | 一种人物照视图方位校正角度计算的方法 |
CN113012089A (zh) * | 2019-12-19 | 2021-06-22 | 北京金山云网络技术有限公司 | 一种图像质量评价方法及装置 |
CN111008631B (zh) * | 2019-12-20 | 2023-06-16 | 浙江大华技术股份有限公司 | 图像的关联方法及装置、存储介质和电子装置 |
CN111259790B (zh) * | 2020-01-15 | 2023-06-20 | 上海交通大学 | 用于中短时视频的从粗到细的行为快速检测与分类方法及系统 |
CN111259822A (zh) * | 2020-01-19 | 2020-06-09 | 杭州微洱网络科技有限公司 | 针对电商图像中模特脖颈关键点的检测方法 |
CN113269013A (zh) * | 2020-02-17 | 2021-08-17 | 京东方科技集团股份有限公司 | 对象行为分析方法、信息显示方法及电子设备 |
CN111368685B (zh) * | 2020-02-27 | 2023-09-29 | 北京字节跳动网络技术有限公司 | 关键点的识别方法、装置、可读介质和电子设备 |
CN111369539B (zh) * | 2020-03-06 | 2023-06-16 | 浙江大学 | 一种基于多特征图融合的建筑立面窗户检测系统 |
CN111402414A (zh) * | 2020-03-10 | 2020-07-10 | 北京京东叁佰陆拾度电子商务有限公司 | 一种点云地图构建方法、装置、设备和存储介质 |
CN111508019A (zh) * | 2020-03-11 | 2020-08-07 | 上海商汤智能科技有限公司 | 目标检测方法及其模型的训练方法及相关装置、设备 |
CN111444828B (zh) * | 2020-03-25 | 2023-06-20 | 腾讯科技(深圳)有限公司 | 一种模型训练的方法、目标检测的方法、装置及存储介质 |
CN111428664B (zh) * | 2020-03-30 | 2023-08-25 | 厦门瑞为信息技术有限公司 | 一种基于深度学习技术的计算机视觉的实时多人姿态估计方法 |
CN111524062B (zh) * | 2020-04-22 | 2023-11-24 | 北京百度网讯科技有限公司 | 图像生成方法和装置 |
CN111597974B (zh) * | 2020-05-14 | 2023-05-12 | 哈工大机器人(合肥)国际创新研究院 | 一种基于tof相机车厢内人员活动的监控方法及系统 |
CN111832386A (zh) * | 2020-05-22 | 2020-10-27 | 大连锐动科技有限公司 | 一种估计人体姿态的方法、装置及计算机可读介质 |
CN111667535B (zh) * | 2020-06-04 | 2023-04-18 | 电子科技大学 | 一种针对遮挡场景下的六自由度位姿估计方法 |
CN111881754A (zh) * | 2020-06-28 | 2020-11-03 | 浙江大华技术股份有限公司 | 行为检测的方法、系统、设备和计算机设备 |
CN111914667B (zh) * | 2020-07-08 | 2023-04-07 | 浙江大华技术股份有限公司 | 一种吸烟检测方法及装置 |
CN111914673B (zh) * | 2020-07-08 | 2023-06-16 | 浙江大华技术股份有限公司 | 目标行为的检测方法、装置及计算机可读存储介质 |
CN111860278A (zh) * | 2020-07-14 | 2020-10-30 | 陕西理工大学 | 一种基于深度学习的人体行为识别算法 |
CN111881804B (zh) * | 2020-07-22 | 2023-07-28 | 汇纳科技股份有限公司 | 基于联合训练的姿态估计模型训练方法、系统、介质及终端 |
CN111832526A (zh) * | 2020-07-23 | 2020-10-27 | 浙江蓝卓工业互联网信息技术有限公司 | 一种行为检测方法及装置 |
CN111860430B (zh) * | 2020-07-30 | 2023-04-07 | 浙江大华技术股份有限公司 | 打架行为的识别方法和装置、存储介质及电子装置 |
CN112069931A (zh) * | 2020-08-20 | 2020-12-11 | 深圳数联天下智能科技有限公司 | 一种状态报告的生成方法及状态监控系统 |
CN112085003B (zh) * | 2020-09-24 | 2024-04-05 | 湖北科技学院 | 公共场所异常行为自动识别方法及装置、摄像机设备 |
CN112200076B (zh) * | 2020-10-10 | 2023-02-21 | 福州大学 | 基于头部躯干特征进行多目标跟踪的方法 |
CN112052843B (zh) * | 2020-10-14 | 2023-06-06 | 福建天晴在线互动科技有限公司 | 一种从粗到精的人脸关键点检测方法 |
CN112233131B (zh) * | 2020-10-22 | 2022-11-08 | 广州极飞科技股份有限公司 | 一种地块分割方法、装置、设备及存储介质 |
CN112257659B (zh) * | 2020-11-11 | 2024-04-05 | 四川云从天府人工智能科技有限公司 | 检测跟踪方法、装置以及介质 |
CN112349150B (zh) * | 2020-11-19 | 2022-05-20 | 飞友科技有限公司 | 一种机场航班保障时间节点的视频采集方法和系统 |
CN112633496B (zh) * | 2020-12-18 | 2023-08-08 | 杭州海康威视数字技术股份有限公司 | 一种检测模型的处理方法及装置 |
CN112488073A (zh) * | 2020-12-21 | 2021-03-12 | 苏州科达特种视讯有限公司 | 目标检测方法、系统、设备及存储介质 |
AU2021203869B2 (en) * | 2020-12-31 | 2023-02-02 | Sensetime International Pte. Ltd. | Methods, devices, electronic apparatuses and storage media of image processing |
CN113496046A (zh) * | 2021-01-18 | 2021-10-12 | 图林科技(深圳)有限公司 | 一种基于区块链的电商物流系统及方法 |
CN112686207B (zh) * | 2021-01-22 | 2024-02-27 | 北京同方软件有限公司 | 一种基于区域信息增强的城市街道场景目标检测方法 |
CN113327312B (zh) * | 2021-05-27 | 2023-09-08 | 百度在线网络技术(北京)有限公司 | 虚拟角色的驱动方法、装置、设备以及存储介质 |
CN113420604B (zh) * | 2021-05-28 | 2023-04-18 | 沈春华 | 多人姿态估计方法、装置和电子设备 |
CN113379247B (zh) * | 2021-06-10 | 2024-03-29 | 锐仕方达人才科技集团有限公司 | 企业安全隐患追踪模型的建模方法及系统 |
CN113409374A (zh) * | 2021-07-12 | 2021-09-17 | 东南大学 | 一种基于动作配准的人物视频对齐方法 |
CN113537072B (zh) * | 2021-07-19 | 2024-03-12 | 之江实验室 | 一种基于参数硬共享的姿态估计与人体解析联合学习系统 |
CN113470080A (zh) * | 2021-07-20 | 2021-10-01 | 浙江大华技术股份有限公司 | 一种违规行为识别方法 |
CN113688734B (zh) * | 2021-08-25 | 2023-09-22 | 燕山大学 | 一种基于fpga异构加速的老人跌倒检测方法 |
CN113705445B (zh) * | 2021-08-27 | 2023-08-04 | 深圳龙岗智能视听研究院 | 一种基于事件相机的人体姿态识别的方法及设备 |
CN114387614B (zh) * | 2021-12-06 | 2023-09-01 | 西北大学 | 一种双重关键点生理关联约束的复杂人体姿态估计方法 |
CN114842550B (zh) * | 2022-03-31 | 2023-01-24 | 合肥的卢深视科技有限公司 | 犯规行为检测方法、装置、电子设备和存储介质 |
CN114943873B (zh) * | 2022-05-26 | 2023-10-17 | 深圳市科荣软件股份有限公司 | 一种工地人员异常行为分类方法及装置 |
CN116189229B (zh) * | 2022-11-30 | 2024-04-05 | 中信重工开诚智能装备有限公司 | 一种基于煤矿辅助运输机器人的人员跟踪方法 |
CN116580245B (zh) * | 2023-05-29 | 2023-12-26 | 哈尔滨市科佳通用机电股份有限公司 | 一种铁路货车承载鞍错位故障识别方法 |
CN116442393B (zh) * | 2023-06-08 | 2024-02-13 | 山东博硕自动化技术有限公司 | 基于视频识别的搅拌站智能卸料方法、系统及控制设备 |
CN117037272B (zh) * | 2023-08-08 | 2024-03-19 | 深圳市震有智联科技有限公司 | 一种老人摔倒监测方法及系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106780557A (zh) * | 2016-12-23 | 2017-05-31 | 南京邮电大学 | 一种基于光流法和关键点特征的运动目标跟踪方法 |
CN107256386A (zh) * | 2017-05-23 | 2017-10-17 | 东南大学 | 基于深度学习的人类行为分析方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6194777B2 (ja) * | 2013-11-29 | 2017-09-13 | 富士通株式会社 | 動作判定方法、動作判定装置および動作判定プログラム |
CN106611157B (zh) * | 2016-11-17 | 2019-11-29 | 中国石油大学(华东) | 一种基于光流定位和滑动窗口检测的多人姿态识别方法 |
CN106909887A (zh) * | 2017-01-19 | 2017-06-30 | 南京邮电大学盐城大数据研究院有限公司 | 一种基于cnn和svm的动作识别方法 |
-
2018
- 2018-06-05 CN CN201810582712.7A patent/CN108710868B/zh active Active
- 2018-07-18 WO PCT/CN2018/096157 patent/WO2019232894A1/zh active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106780557A (zh) * | 2016-12-23 | 2017-05-31 | 南京邮电大学 | 一种基于光流法和关键点特征的运动目标跟踪方法 |
CN107256386A (zh) * | 2017-05-23 | 2017-10-17 | 东南大学 | 基于深度学习的人类行为分析方法 |
Cited By (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109544595A (zh) * | 2018-10-29 | 2019-03-29 | 苏宁易购集团股份有限公司 | 一种顾客路径追踪方法及系统 |
CN109544595B (zh) * | 2018-10-29 | 2020-06-16 | 苏宁易购集团股份有限公司 | 一种顾客路径追踪方法及系统 |
CN109492581B (zh) * | 2018-11-09 | 2023-07-18 | 中国石油大学(华东) | 一种基于tp-stg框架的人体动作识别方法 |
CN109492581A (zh) * | 2018-11-09 | 2019-03-19 | 中国石油大学(华东) | 一种基于tp-stg框架的人体动作识别方法 |
US11908244B2 (en) | 2018-11-27 | 2024-02-20 | Bigo Technology Pte. Ltd. | Human posture detection utilizing posture reference maps |
CN109558832A (zh) * | 2018-11-27 | 2019-04-02 | 广州市百果园信息技术有限公司 | 一种人体姿态检测方法、装置、设备及存储介质 |
CN109558832B (zh) * | 2018-11-27 | 2021-03-26 | 广州市百果园信息技术有限公司 | 一种人体姿态检测方法、装置、设备及存储介质 |
CN109711273A (zh) * | 2018-12-04 | 2019-05-03 | 北京字节跳动网络技术有限公司 | 图像关键点提取方法、装置、可读存储介质及电子设备 |
CN111368594A (zh) * | 2018-12-26 | 2020-07-03 | 中国电信股份有限公司 | 用于检测关键点的方法和装置 |
CN111368594B (zh) * | 2018-12-26 | 2023-07-18 | 中国电信股份有限公司 | 用于检测关键点的方法和装置 |
CN109766823A (zh) * | 2019-01-07 | 2019-05-17 | 浙江大学 | 一种基于深层卷积神经网络的高分辨率遥感船舶检测方法 |
CN109977997A (zh) * | 2019-02-13 | 2019-07-05 | 中国科学院自动化研究所 | 基于卷积神经网络快速鲁棒的图像目标检测与分割方法 |
CN110096983A (zh) * | 2019-04-22 | 2019-08-06 | 苏州海赛人工智能有限公司 | 一种基于神经网络的图像中施工工人安全服饰检测方法 |
WO2020215974A1 (zh) * | 2019-04-24 | 2020-10-29 | 北京京东尚科信息技术有限公司 | 用于人体检测的方法和装置 |
CN110348290A (zh) * | 2019-05-27 | 2019-10-18 | 天津中科智能识别产业技术研究院有限公司 | 焦罐车安全预警视觉检测方法 |
CN110414348A (zh) * | 2019-06-26 | 2019-11-05 | 深圳云天励飞技术有限公司 | 一种视频处理方法及装置 |
CN110501339A (zh) * | 2019-08-13 | 2019-11-26 | 江苏大学 | 一种复杂环境下的布面定位方法 |
CN110501339B (zh) * | 2019-08-13 | 2022-03-29 | 江苏大学 | 一种复杂环境下的布面定位方法 |
CN111062239A (zh) * | 2019-10-15 | 2020-04-24 | 平安科技(深圳)有限公司 | 人体目标检测方法、装置、计算机设备及存储介质 |
CN110717476A (zh) * | 2019-10-22 | 2020-01-21 | 上海眼控科技股份有限公司 | 图像处理方法、装置、计算机设备和计算机可读存储介质 |
CN110929711A (zh) * | 2019-11-15 | 2020-03-27 | 智慧视通(杭州)科技发展有限公司 | 运用于固定场景关于身份信息和形体信息自动关联的方法 |
CN111191690B (zh) * | 2019-12-16 | 2023-09-05 | 上海航天控制技术研究所 | 基于迁移学习的空间目标自主识别方法、电子设备和存储介质 |
CN111191690A (zh) * | 2019-12-16 | 2020-05-22 | 上海航天控制技术研究所 | 基于迁移学习的空间目标自主识别方法、电子设备和存储介质 |
CN111079695A (zh) * | 2019-12-30 | 2020-04-28 | 北京华宇信息技术有限公司 | 一种人体关键点检测与自学习方法及装置 |
CN111209829A (zh) * | 2019-12-31 | 2020-05-29 | 浙江大学 | 基于视觉的移动视体静态中小尺度目标识别方法 |
CN111246113A (zh) * | 2020-03-05 | 2020-06-05 | 上海瑾盛通信科技有限公司 | 图像处理方法、装置、设备及存储介质 |
CN111798486B (zh) * | 2020-06-16 | 2022-05-17 | 浙江大学 | 基于人体运动预测的多视角人体运动捕捉方法 |
CN111798486A (zh) * | 2020-06-16 | 2020-10-20 | 浙江大学 | 基于人体运动预测的多视角人体运动捕捉方法 |
CN111680705A (zh) * | 2020-08-13 | 2020-09-18 | 南京信息工程大学 | 适于目标检测的mb-ssd方法和mb-ssd特征提取网络 |
CN112613382A (zh) * | 2020-12-17 | 2021-04-06 | 浙江大华技术股份有限公司 | 对象完整性的确定方法及装置、存储介质、电子装置 |
CN112613382B (zh) * | 2020-12-17 | 2024-04-30 | 浙江大华技术股份有限公司 | 对象完整性的确定方法及装置、存储介质、电子装置 |
CN112633178A (zh) * | 2020-12-24 | 2021-04-09 | 深圳集智数字科技有限公司 | 一种图像识别方法、装置、存储介质及电子设备 |
CN112784771A (zh) * | 2021-01-27 | 2021-05-11 | 浙江芯昇电子技术有限公司 | 人形检测方法、系统和监控设备 |
CN112784771B (zh) * | 2021-01-27 | 2022-09-30 | 浙江芯昇电子技术有限公司 | 人形检测方法、系统和监控设备 |
CN113505763A (zh) * | 2021-09-09 | 2021-10-15 | 北京爱笔科技有限公司 | 关键点检测方法、装置、电子设备及存储介质 |
CN114240844A (zh) * | 2021-11-23 | 2022-03-25 | 电子科技大学 | 一种医学图像中无监督的关键点定位和目标检测方法 |
CN114973334A (zh) * | 2022-07-29 | 2022-08-30 | 浙江大华技术股份有限公司 | 人体部件关联方法、装置、电子装置和存储介质 |
Also Published As
Publication number | Publication date |
---|---|
WO2019232894A1 (zh) | 2019-12-12 |
CN108710868B (zh) | 2020-09-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108710868A (zh) | 一种基于复杂场景下的人体关键点检测系统及方法 | |
CN109492581B (zh) | 一种基于tp-stg框架的人体动作识别方法 | |
CN107330396B (zh) | 一种基于多属性和多策略融合学习的行人再识别方法 | |
CN108108657B (zh) | 基于多任务深度学习的修正局部敏感哈希车辆检索方法 | |
CN111666843B (zh) | 一种基于全局特征和局部特征拼接的行人重识别方法 | |
CN109784203B (zh) | 基于分层传播和激活的弱监督x光图像违禁品检查方法 | |
CN110425005B (zh) | 矿井下皮带运输人员人机交互行为安全监控与预警方法 | |
CN110263845B (zh) | 基于半监督对抗深度网络的sar图像变化检测方法 | |
CN108830188A (zh) | 基于深度学习的车辆检测方法 | |
CN103390164B (zh) | 基于深度图像的对象检测方法及其实现装置 | |
CN110147743A (zh) | 一种复杂场景下的实时在线行人分析与计数系统及方法 | |
CN107133569A (zh) | 基于泛化多标记学习的监控视频多粒度标注方法 | |
CN109816695A (zh) | 一种复杂背景下的红外小型无人机目标检测与跟踪方法 | |
CN106529419B (zh) | 视频显著性堆栈式聚合的对象自动检测方法 | |
CN108052896A (zh) | 基于卷积神经网络与支持向量机的人体行为识别方法 | |
CN107016357A (zh) | 一种基于时间域卷积神经网络的视频行人检测方法 | |
CN110070010A (zh) | 一种基于行人重识别的人脸属性关联方法 | |
CN110018524A (zh) | 一种基于视觉-属性的x射线安检违禁品识别方法 | |
KR102160591B1 (ko) | 화재 상황 감지 모델을 위한 화재 상황 생성 시스템 및 그 최적화 방법 | |
CN112560741A (zh) | 一种基于人体关键点的安全穿戴检测方法 | |
CN106844739B (zh) | 一种基于神经网络协同训练的遥感图像变化信息检索方法 | |
CN109977897A (zh) | 一种基于深度学习的船舶特征重识别方法、应用方法及系统 | |
CN110008861A (zh) | 一种基于全局和局部特征学习的行人再识别方法 | |
CN109948527A (zh) | 基于集成深度学习的小样本太赫兹图像异物检测方法 | |
CN112149494A (zh) | 一种多人姿态识别方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |