CN114038011A - 一种室内场景下人体异常行为的检测方法 - Google Patents
一种室内场景下人体异常行为的检测方法 Download PDFInfo
- Publication number
- CN114038011A CN114038011A CN202111311921.6A CN202111311921A CN114038011A CN 114038011 A CN114038011 A CN 114038011A CN 202111311921 A CN202111311921 A CN 202111311921A CN 114038011 A CN114038011 A CN 114038011A
- Authority
- CN
- China
- Prior art keywords
- human body
- person
- video
- characteristic information
- algorithm
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/10—Machine learning using kernel methods, e.g. support vector machines [SVM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Abstract
本发明公开了一种室内场景下人体异常行为的检测方法,涉及人体异常行为检测技术领域。该方法采用多目标跟踪算法FairMOT、人体姿态识别算法AlphaPose与SVM(Support Vector Machines,支持向量机)模型相结合,通过使用关节点坐标数据提取人体特征信息,对人体动作进行标记,旨在能够在室内环境中有效识别异常动作,避免环境因素干扰的同时提升检测速度与精度。
Description
技术领域
本发明涉及人体异常行为检测技术领域,具体涉及一种室内场景下人体异常行为的检测方法。
背景技术
随着现代社会科学技术逐渐发展,摄像头等监控设备也逐渐在许多场所发挥着至关重要的作用,且从视频监控中分析出人体异常行为已是当下研究的热点。
而现有的人体异常行为检测方法一般都是对前期直接从图像中提取到的人体特征信息进行处理并分类。例如:通过实时跟踪检测人体的运动轨迹并设置阈值判断运动轨迹是否为正常运动轨迹或者异常运动轨迹,以此来检测异常行为,由于设置的阈值对正常运动轨迹与异常运动轨迹难以区分,导致其检测能力有限,精度不高;现有基于视频处理自动检测异常行为的方法在检测过程中受视频环境影响较大,且需要在检测过程中提取多种特征,导致其检测速度较慢;现有基于卷积神经网络的多特征人体分心行为检测算法只针对单人异常检测,当人物数量过多时并且环境复杂时,检测准确率也会大大下降。此外,目前大多数研究者都是以图像信息作为直接研究对象,就会导致提取的人体特征信息受制于图像中的不同外观、视角、遮挡等影响,会给分析过程带来很大的困难。
发明内容
针对上述现有技术存在的不足,本发明提供了一种室内场景下人体异常行为的检测方法,该方法采用多目标跟踪算法FairMOT、人体姿态识别算法AlphaPose与SVM(SupportVector Machines,支持向量机)模型相结合,通过使用关节点坐标数据提取人体特征信息,对人体动作进行标记,旨在能够在室内环境中有效识别异常动作,避免环境因素干扰的同时提升检测速度与精度。
为实现上述目的,本发明提供以下的技术方案:
一种室内场景下人体异常行为的检测方法,该方法包括如下步骤:
步骤1:获取原始监控视频,对视频中出现的人物进行跟踪检测;
步骤2:利用人体姿态识别算法AlphaPose对步骤1跟踪检测到的人物进行人体姿态估计,并通过姿态估计结果获得人物各关节点的横纵坐标;
步骤3:以预设的数据长度f帧为单位对步骤2获得的数据整体进行滑窗式切分,获得若干个等长度的单位视频帧序列和若干个窗口,每个所述窗口与每个所述单位视频帧序列一一对应;
步骤4:判断每个窗口包含具有同一人物的视频帧数是否小于等于预设的缺帧数阈值,若是,则认为该人物缺帧较少,需对该缺失帧数的人物进行补帧操作,添加该人物所缺失的视频帧的前一帧或者后一帧的人体关节点信息;若否,则认为该人物缺帧较多,则对对应窗口出现的该人物进行删除;
步骤5:根据每个窗口中各人物的关节点坐标信息提取各人物的人体特征信息,获得每个窗口的人体特征信息序列;
步骤6:利用EM算法对每个窗口中各人物的人体特征信息进行特征转换,转换为相应的均值和方差,以降低数据量;
步骤7:根据步骤6的特征转换结果,利用K-means聚类算法识别出具有异常行为的人物,获得异常行为人物的ID序列;
步骤8:按照步骤1至步骤5的方法,从具有自定义异常动作的视频中提取各人物的人体特征信息,并将每个人体特征信息标记为自定义的异常动作,获得训练数据集;
步骤9:利用训练数据集对SVM模型进行训练,获得训练好的SVM模型;
步骤10:利用训练好的SVM模型对步骤7获得的异常行为人物的ID序列中每一ID所对应的人体特征信息进行分类,确定异常行为人物的具体异常动作,且在原始监控视频中进行相应的标记。
进一步地,根据所述的室内场景下人体异常行为的检测方法,在所述步骤1中,采用多目标跟踪算法FairMOT对视频中出现的人物进行跟踪检测。
进一步地,根据所述的室内场景下人体异常行为的检测方法,所述采用多目标跟踪算法FairMOT对视频中出现的人物进行跟踪检测获得的输出信息包括视频中出现的人物的ID、每个视频帧的顺序序号以及预测框的左上角的坐标信息和预测框的右下角的坐标信息。
进一步地,根据所述的室内场景下人体异常行为的检测方法,所述步骤5中所述的根据每个窗口中各人物的关节点坐标信息提取各人物的人体特征信息的方法为:首先利用人物的髋关节坐标信息与肩部关节坐标信息计算出人体中心点C的坐标;然后再以左大臂的中点作为角A2的顶点,左大臂的中点与左小臂的中点之间的连线以及左大臂的中点与人体中心点C之间的连线作为角A2的两条边,计算出角A2的余弦值同时,还以右大臂的中点作为角A3的顶点、右大臂的中点与右小臂的中点之间的连线以及右大臂的中点与人体中心点C之间的连线作为角A3的两条边,计算出角A3的余弦值ZA3;最后以这两个余弦值和作为人体特征信息代表人物在一段时间内的动作变化情况。
进一步地,根据所述的室内场景下人体异常行为的检测方法,所述步骤6中所述的利用EM算法将每个窗口中各人物的人体特征信息转换为相应的均值和方差的方法为:令每个所述人体特征信息序列对应一个高斯混合模型,通过EM算法估计出高斯混合模型中每个高斯模型各自的均值和方差,已知高斯混合模型中一共有K簇,就要找到K组均值和方差,具体过程如下:
1)引入隐变量,隐变量就是每个人体特征序列属于每一簇的概率;
2)对高斯混合模型的参数以及隐变量进行初始化,通过EM算法中的E步更新隐变量,就是每一簇的占比;
3)在EM算法中的M步中通过得到的隐变量来更新高斯混合模型的参数均值和方差;
4)重复执行2)至3),经过反复迭代,直到参数收敛,获得每个所述人体特征信息序列对应的均值和方差。
总体而言,通过本发明所构思的以上技术方案较现有技术具有以下有益效果:
1.能够充分利用当前视频中的图像信息,从实际角度出发最大程度上获取人体特征信息,普遍适用性更强。
2.根据数据本身表达人体行为,更加真实贴近人体的行为变化,符合人体构造,数据处理速度快,进一步提高检测处理的效率。
3.如果在人物跟踪检测时出现人物重叠的情况,就会造成重叠人物缺帧使其人体关节点信息缺失。通过设置滑动窗口以及缺帧数阈值,对超过缺帧数阈值的重叠人物进行丢弃,反之,则对缺失帧进行补齐其前一帧或者后一帧的人体关节点信息。这样不会对整体结果产生影响。同时由于不是一次性处理整段视频,通过设置窗口的大小可以提升识别的速度。
附图说明
图1为本实施方式室内场景下人体异常行为的检测方法的流程示意图;
图2为本实施方式人体姿态估计示意图;
图3为本实施方式人体特征示意图;
图4为本实施方式滑动窗口示意图。
具体实施方式
为了使本发明的目的、技术方案及优势更加清晰,下面结合附图和具体实施方式对本发明做进一步详细说明。此处所描述的具体实施方式仅用以解释本发明,并不用于限定本发明。
本发明方法的核心思路为:首先获取需要识别的视频数据。对视频中出现的目标人员进行跟踪检测,将跟踪检测的结果信息输入到人体姿态识别算法AlphaPose中,通过人体姿态识别算法AlphaPose对检测到的目标人员进行姿态估计,通过姿态估计得到人体关节点坐标等信息,将结果存为json文件。设置滑动窗口,每次读取固定帧数的视频帧序列所对应的json文件数据。将json文件中的人体关节点坐标等信息存到队列中,此时可能会由于跟踪检测的时候出现人物重叠现象,导致目标重叠人物缺帧使其人体关节点坐标等信息缺失,通过设置缺帧数阈值来判断缺帧情况。对大于缺帧数阈值的重叠人物进行丢弃,反之,进行补帧操作。使其人体关节点坐标等信息数据更加完整,以免影响后续的人体特征信息提取。
利用髋关节与肩部关节计算出人体中心点,再用左大臂与小臂的中点与人体中心计算出左边的余弦值,右边同理,将二者作为人体特征信息。然后将两个余弦值输入到EM算法进行特征转换,至此将人体关节点坐标转换为均值和方差,这样就将庞大数据量的关节点信息转换为根据关节点坐标提取相应的特征值(均值和方差)。使用聚类算法对新的特征值进行聚类分析,得到具有异常行为人物的ID序列,最后通过SVM模型对聚类分析得到的结果进行进一步的分析,得到异常行为人物的具体异常动作。
图1是本实施方式的室内场景下人体异常行为的检测方法的具体流程示意图,如图1所示,所述室内场景下人体异常行为的检测方法包括如下步骤:
步骤1:获取原始监控视频,对视频中出现的人物进行跟踪检测;
在本实施方式中,对原始监控视频中出现的人物进行跟踪检测的方法具体是:采用多目标跟踪算法FairMOT对视频中出现的人物进行跟踪检测。具体过程如下:
1)首先对原始监控视频以帧为单位使用多目标跟踪算法FairMOT中的目标检测网络CenterNet对人物进行检测,获得当前帧图像中的每个人物的检测结果,检测结果是当前帧图像中每个人物的预测框的位置与嵌入向量。
2)然后通过检测结果生成每个人物的轨迹,设置轨迹池,将所有轨迹放入轨迹池中。通过检测结果与轨迹池计算得到外观距离矩阵。此时,使用卡尔曼算法预测轨迹池的均值和方差,通过这个均值和方差可以预测轨迹池中的每条轨迹当前可能出现的位置,并根据预测轨迹的位置、检测结果中预测框位置与外观距离矩阵计算得到新的代价距离矩阵。
3)再利用得到的新的代价距离矩阵通过匈牙利算法对轨迹池和检测结果进行匹配,得到最优的匹配结果,完成对人物的跟踪检测。对于没有匹配上的检测结果,对其初始化为一条新的轨迹,并加入到轨迹池中。
4)重复执行1)至3),直至处理完整段视频。
最终通过多目标跟踪检测算法FairMOT输出视频中出现的人物的ID、每个视频帧的顺序序号以及预测框的左上角和右下角的坐标,将所有信息存储为.txt文件。
步骤2:利用人体姿态识别算法AlphaPose对步骤1跟踪检测到的人物进行人体姿态估计,并通过姿态估计结果获得人物各关节点的横纵坐标;
在本实施方式中,采用自顶向下的方法,根据步骤1获得的人物ID、每个视频帧的顺序序号以及预测框的左上角和右下角的坐标,利用人体姿态识别算法AlphaPose先对预测框中的人体进行检测,得到人体检测框,再去每个人体检测框内估计人体的姿态,进而通过姿态估计结果获得人物各关节点的坐标信息并存储为.json文件,json文件中包括人物ID、每个视频帧的顺序序号、人物各关节点的横坐标与纵坐标。人物的各关节点如图2所示。
步骤3:以预设的数据长度f帧为单位对步骤2获得的数据整体进行滑窗式切分,获得若干个等长度的单位视频帧序列;
由于后续步骤处理数据时总是以固定的f帧数据为一个单位进行,每次只处理固定长度的单位视频帧序列所对应的json文件数据,因此需要在本步骤对数据进行切分。具体方法是,读取json文件,使用滑动窗口对json文件中的数据整体进行切分,如图4所示,滑动窗口的宽度等于预设的数据长度f帧,本实施方式中预设f=60。
步骤4:判断每个窗口包含具有同一人物的视频帧数是否小于等于预设的缺帧数阈值,若是,则认为该人物缺帧较少,需对该缺失帧数的人物进行补帧操作,添加该人物所缺失的视频帧的前一帧或者后一帧的数据;若否,则认为该人物缺帧较多,则对对应窗口出现的该人物进行删除;
当出现人物重叠现象时,人物的ID会出现切换,从而造成人物缺帧,进而导致人物关节点坐标数据的缺失。因此,需要预先设置缺帧数阈值对每个人物的缺帧情况进行判断,如果小于等于预设的缺帧数阈值,则认为该人物缺帧较少,需对该缺失帧数的人物进行补帧操作,具体是添加该人物所缺失的视频帧的前一帧或者后一帧的数据。反之,则认为该人物缺帧较多,则对对应窗口出现的该人物进行删除。
本步骤的处理结束后,将具有相同人物ID的各关节点坐标数据以表1所示的队列格式存储。
表1队列存储表
步骤5:根据每个窗口中各人物的关节点坐标信息提取各人物的人体特征信息,获得每个窗口的人体特征信息序列;
在本实施方式中,根据每个窗口中各人物的关节点坐标信息提取各人物的人体特征信息的方法为:首先利用人物的髋关节坐标信息与肩部关节坐标信息按照公式(1)计算出人体中心点C的坐标;如图3所示,再以左大臂的中点作为角A2的顶点,左大臂的中点与左小臂的中点之间的连线以及左大臂的中点与人体中心点C之间的连线作为角A2的两条边,按照公式(2)计算出角A2的余弦值同时,如图3所示还以右大臂的中点作为角A3的顶点、右大臂的中点与右小臂的中点之间的连线以及右大臂的中点与人体中心点C之间的连线作为角A3的两条边,按照公式(3)计算出角A3的余弦值以这两个余弦值作为人体特征信息代表人物在一段时间内的动作变化情况。
公式如下所示:
其中,(x0,y0)为人体中心点C的坐标;代表肩部关节点、髋关节点的横坐标之和;代表肩部关节点、髋关节点的纵坐标之和。(x1,y1),为左大臂中点的坐标,(x2,y2)为左小臂中点的坐标,(x3,y3)为右大臂中点的坐标,(x4,y4)为右小臂中点的坐标。
步骤6:利用EM算法对每个窗口中各人物的人体特征信息进行特征转换,转换为相应的均值和方差,以降低数据量;
在本实施方式中,本步骤具体是利用EM算法对每个人物的人体特征信息进行特征转换,具体是将每个人物的两个余弦值输入EM算法之中进行迭代,将人体关节点坐标转换为均值和方差,这样就降低了关节点信息的庞大数据量,可以提升检测速度。具体过程如下:
高斯混合模型是由多个高斯模型组成,每个高斯模型都有各自的均值和方差。每个人体特征信息序列都会对应一个高斯混合模型,借此通过EM(ExpectationMaximization,期望最大化)算法估计出高斯混合模型中每个高斯模型各自的均值和方差。已知高斯混合模型中一共有K簇,就要找到K组均值和方差。进一步减少后续聚类算法的数据量。具体过程如下:
1)引入隐变量,隐变量就是每个人体特征序列属于每一簇的概率。
2)对高斯混合模型的参数以及隐变量进行初始化,通过EM算法中的E步(Expection-Step,E步)更新隐变量,就是每一簇的占比。
3)在EM算法中的M步(Maximization-Step,M步)中通过得到的隐变量来更新高斯混合模型的参数均值和方差。
4)重复执行2)至3),经过反复迭代,直到参数收敛,获得最终的特征值:均值、方差。
步骤7:根据步骤6的特征转换结果,利用K-means聚类算法识别出具有异常行为的人物,获得异常行为人物的ID序列;
在本实施方式中,对步骤6获得的均值和方差分别进行聚类。以均值为例,首先将均值作为聚类的初始数据集,并设置K=2(正常行为类、异常行为类),从数据集中随机选取K个点作为聚类中心,计算数据集中各个点与各个聚类中心的距离,将数据集中各个点回归于与之距离最近的聚类中心。这样得到了数据集中所有点的第一轮迭代后的类别,然后求各个类中所有点的均值,作为新的聚类中心,以此类推,不断迭代,直到聚类中心不再发生变动,确定最终的异常行为类,进而确定具有异常行为的人物的ID序列。
步骤8:从具有自定义异常动作的视频中提取各人物的人体特征信息,并将每个人体特征信息标记为自定义的异常动作,获得训练数据集;
在本实施方式中,是通过拍摄具有自定义异常动作的视频和查找一些现实场景中具有自定义异常动作的视频,从中提取异常动作所对应的人体特征信息,将每个人体特征信息人为标记为自定义的异常动作,一共标记N类。所有异常动作所对应的人体特征信息及其对应的标记信息构成训练数据集。
步骤9:利用训练数据集对SVM模型进行训练,获得训练好的SVM模型;
采用SVM模型中的一对一方法,对N类训练数据两两组合,构建N×(N-1)/2个SVM模型。假设N=4,为A、B、C、D四类异常动作。在训练的时候选择(A,B),(A,C),(A,D),(B,C),(B,D),(C,D)所对应的向量作为训练集,就会得到六个训练结果,在测试的时候,把对应的向量分别对六个结果进行测试,然后采取投票的形式得到分类结果,最后得到一组测试结果,SVM模型训练完毕。
步骤10:利用训练好的SVM模型对异常行为人物的ID序列中每一ID所对应的人体特征信息进行分类,确定异常行为人物的具体异常动作,且将最终识别的异常动作反馈给原始监控视频,在原始监控视频中进行相应的标记,也即原始监控视频中标记出异常动作。
在本实施方式中,是通过使用训练好的SVM模型中的投票方式对异常行为人物的ID序列中每一ID所对应的人体特征信息A2、A3进行投票,通过票数对A2、A3进行分类,最终得到了A2、A3所对应的异常动作。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解;其依然可以对前述实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;因而这些修改或者替换,并不使相应技术方案的本质脱离本发明权利要求所限定的范围。
Claims (5)
1.一种室内场景下人体异常行为的检测方法,其特征在于,该方法包括如下步骤:
步骤1:获取原始监控视频,对视频中出现的人物进行跟踪检测;
步骤2:利用人体姿态识别算法AlphaPose对步骤1跟踪检测到的人物进行人体姿态估计,并通过姿态估计结果获得人物各关节点的横纵坐标;
步骤3:以预设的数据长度f帧为单位对步骤2获得的数据整体进行滑窗式切分,获得若干个等长度的单位视频帧序列和若干个窗口,每个所述窗口与每个所述单位视频帧序列一一对应;
步骤4:判断每个窗口包含具有同一人物的视频帧数是否小于等于预设的缺帧数阈值,若是,则认为该人物缺帧较少,需对该缺失帧数的人物进行补帧操作,添加该人物所缺失的视频帧的前一帧或者后一帧的人体关节点信息;若否,则认为该人物缺帧较多,则对对应窗口出现的该人物进行删除;
步骤5:根据每个窗口中各人物的关节点坐标信息提取各人物的人体特征信息,获得每个窗口的人体特征信息序列;
步骤6:利用EM算法对每个窗口中各人物的人体特征信息进行特征转换,转换为相应的均值和方差,以降低数据量;
步骤7:根据步骤6的特征转换结果,利用K-means聚类算法识别出具有异常行为的人物,获得异常行为人物的ID序列;
步骤8:按照步骤1至步骤5的方法,从具有自定义异常动作的视频中提取各人物的人体特征信息,并将每个人体特征信息标记为自定义的异常动作,获得训练数据集;
步骤9:利用训练数据集对SVM模型进行训练,获得训练好的SVM模型;
步骤10:利用训练好的SVM模型对步骤7获得的异常行为人物的ID序列中每一ID所对应的人体特征信息进行分类,确定异常行为人物的具体异常动作,且在原始监控视频中进行相应的标记。
2.根据权利要求1所述的室内场景下人体异常行为的检测方法,其特征在于,在所述步骤1中,采用多目标跟踪算法FairMOT对视频中出现的人物进行跟踪检测。
3.根据权利要求2所述的室内场景下人体异常行为的检测方法,其特征在于,所述采用多目标跟踪算法FairMOT对视频中出现的人物进行跟踪检测获得的输出信息包括视频中出现的人物的ID、每个视频帧的顺序序号以及预测框的左上角的坐标信息和预测框的右下角的坐标信息。
4.根据权利要求1所述的室内场景下人体异常行为的检测方法,其特征在于,所述步骤5中所述的根据每个窗口中各人物的关节点坐标信息提取各人物的人体特征信息的方法为:首先利用人物的髋关节坐标信息与肩部关节坐标信息计算出人体中心点C的坐标;然后再以左大臂的中点作为角A2的顶点,左大臂的中点与左小臂的中点之间的连线以及左大臂的中点与人体中心点C之间的连线作为角A2的两条边,计算出角A2的余弦值同时,还以右大臂的中点作为角A3的顶点、右大臂的中点与右小臂的中点之间的连线以及右大臂的中点与人体中心点C之间的连线作为角A3的两条边,计算出角A3的余弦值最后以这两个余弦值和作为人体特征信息代表人物在一段时间内的动作变化情况。
5.根据权利要求1所述的室内场景下人体异常行为的检测方法,其特征在于,所述步骤6中所述的利用EM算法将每个窗口中各人物的人体特征信息转换为相应的均值和方差的方法为:令每个所述人体特征信息序列对应一个高斯混合模型,通过EM算法估计出高斯混合模型中每个高斯模型各自的均值和方差,已知高斯混合模型中一共有K簇,就要找到K组均值和方差,具体过程如下:
1)引入隐变量,隐变量就是每个人体特征序列属于每一簇的概率;
2)对高斯混合模型的参数以及隐变量进行初始化,通过EM算法中的E步更新隐变量,就是每一簇的占比;
3)在EM算法中的M步中通过得到的隐变量来更新高斯混合模型的参数均值和方差;
4)重复执行2)至3),经过反复迭代,直到参数收敛,获得每个所述人体特征信息序列对应的均值和方差。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111311921.6A CN114038011A (zh) | 2021-11-08 | 2021-11-08 | 一种室内场景下人体异常行为的检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111311921.6A CN114038011A (zh) | 2021-11-08 | 2021-11-08 | 一种室内场景下人体异常行为的检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114038011A true CN114038011A (zh) | 2022-02-11 |
Family
ID=80143321
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111311921.6A Pending CN114038011A (zh) | 2021-11-08 | 2021-11-08 | 一种室内场景下人体异常行为的检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114038011A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114612524A (zh) * | 2022-05-11 | 2022-06-10 | 西南交通大学 | 一种基于rgb-d相机的运动识别方法 |
-
2021
- 2021-11-08 CN CN202111311921.6A patent/CN114038011A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114612524A (zh) * | 2022-05-11 | 2022-06-10 | 西南交通大学 | 一种基于rgb-d相机的运动识别方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109800689B (zh) | 一种基于时空特征融合学习的目标跟踪方法 | |
CN107563372B (zh) | 一种基于深度学习ssd框架的车牌定位方法 | |
Zhang et al. | Pedestrian detection method based on Faster R-CNN | |
WO2020108362A1 (zh) | 人体姿态检测方法、装置、设备及存储介质 | |
CN111914664A (zh) | 基于重识别的车辆多目标检测和轨迹跟踪方法 | |
CN111709311B (zh) | 一种基于多尺度卷积特征融合的行人重识别方法 | |
CN106909938B (zh) | 基于深度学习网络的视角无关性行为识别方法 | |
CN110826389B (zh) | 基于注意力3d频率卷积神经网络的步态识别方法 | |
CN113673510B (zh) | 一种结合特征点和锚框共同预测和回归的目标检测方法 | |
CN106570490B (zh) | 一种基于快速聚类的行人实时跟踪方法 | |
CN112434599B (zh) | 一种基于噪声通道的随机遮挡恢复的行人重识别方法 | |
CN112052772A (zh) | 一种人脸遮挡检测算法 | |
CN111931654A (zh) | 一种人员跟踪智能监测方法、系统和装置 | |
CN110599463A (zh) | 一种基于轻量级联神经网络的舌像检测及定位算法 | |
CN105608710A (zh) | 一种非刚性人脸检测和追踪定位方法 | |
Atikuzzaman et al. | Human activity recognition system from different poses with cnn | |
CN112766145B (zh) | 人工神经网络的人脸动态表情识别方法及装置 | |
CN114038011A (zh) | 一种室内场景下人体异常行为的检测方法 | |
CN111626197B (zh) | 一种基于人体行为识别网络模型的识别方法 | |
CN110363799B (zh) | 人机共存环境下基于视觉的多运动人体目标跟踪方法 | |
CN108985216B (zh) | 一种基于多元logistic回归特征融合的行人头部检测方法 | |
CN111223126A (zh) | 一种基于迁移学习的跨视角轨迹模型构建方法 | |
CN114663835A (zh) | 一种行人跟踪方法、系统、设备及存储介质 | |
CN114360058A (zh) | 一种基于行走视角预测的跨视角步态识别方法 | |
ELBAŞI et al. | Control charts approach for scenario recognition in video sequences |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |