CN112861686A - 一种基于svm的图像目标检测方法 - Google Patents

一种基于svm的图像目标检测方法 Download PDF

Info

Publication number
CN112861686A
CN112861686A CN202110133286.0A CN202110133286A CN112861686A CN 112861686 A CN112861686 A CN 112861686A CN 202110133286 A CN202110133286 A CN 202110133286A CN 112861686 A CN112861686 A CN 112861686A
Authority
CN
China
Prior art keywords
human body
training
svm
human
algorithm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110133286.0A
Other languages
English (en)
Other versions
CN112861686B (zh
Inventor
焦圣喜
苗泰
刘宇
郭海涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Inner Mongolia University
Original Assignee
Inner Mongolia University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Inner Mongolia University filed Critical Inner Mongolia University
Priority to CN202110133286.0A priority Critical patent/CN112861686B/zh
Publication of CN112861686A publication Critical patent/CN112861686A/zh
Application granted granted Critical
Publication of CN112861686B publication Critical patent/CN112861686B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2431Multiple classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于SVM的图像目标检测方法,包括以下步骤:通过深度学习模型YOLOv3结合deepsort算法进行人体运动目标检测和跟踪;对检测到的人体运动目标进行特征提取;把提取到的特征送入支持向量机SVM进行分类判断人体是否摔倒。与现有技术相比,本发明是采用传统图像处理的方法与深度学习目标检测与跟踪的方法相结合,该算法对摔倒检测有很好的检测效果。并且其准确率和实时性达到了实际环境中的使用需求。

Description

一种基于SVM的图像目标检测方法
技术领域
本发明涉及图像目标检测识别技术领域,特别是一种基于SVM的图像目标检测方法。
背景技术
新闻报道年纪大的人,在家里或者马路上摔倒后,未能及时被施救,而造成重大的损失,深感明明利用技术手段就能减少这类意外事件的发生,却没有大规模的使用,造成了部分人员,因为未能及时施救而错过了最佳的救援时间。基于社会上频频出现的意外摔倒事件,希望通过视频监控,减少因为意外事件造成的伤亡和损失,保护好个人和其他人,提高人生安全,及时帮助那些需要帮助的人。
当遇到困境时,老年人很难及时自救。如果没有及时的救助,老年人跌倒将会进一步的导致其伤残或者失去行动能力,严重的甚至死亡的后果。30%的年龄大于65岁的老人每年至少都会发生一次跌倒,年龄更大的次数更多。为了避免这样的情况,摔倒检测的研究时非常有意义的。
发明内容
本发明的目的是要解决现有技术中存在的不足,提供一种能够实时精确的定位到人体目标的同时还提高了摔倒检测的准确率的基于SVM的图像目标检测方法。
为达到上述目的,本发明是按照以下技术方案实施的:
一种基于SVM的图像目标检测方法,包括以下步骤:
S1、通过深度学习模型YOLOv3结合deepsort算法进行人体运动目标检测和跟踪;
S2、对检测跟踪到的人体运动目标进行特征提取;
S3、设置人体宽高比阈值进行第一次判断,筛选出一部分不符合阈值的图片的特征,把剩下符合阈值的图片的特征送入训练好的支持向量机SVM进行第二次判断,进行分类判断人体是否摔倒。
进一步地,所述步骤S1具体包括:
S11、配置系统开发环境;
S12、使用yolov3算法训练样本数据集:
S121、准备数据集:通过COCO数据集中person类别的图片及网上公开图片进行收集,选取5000张图片作为数据集中的样本数据;
S122、对样本数据进行处理,使用labellmg对数据样本进行处理,最后转换成YOLO算法能够运行的数据类型;
S123、训练样本数据时需要对yolo算法中的一些参数进行调整,使其能够正常进行训练,因该算法训练的样本类别为两类,因此各参数应进行如下调整:
修改voc.data:类别数修改为2类,train和valid修改为训练样本数据集对应的路径,backup修改为最后训练好的权重存放位置;
修改yolov3-voc.cfg:修改[yolo]下的classes为对应的类别数为2,再修改[yolo]对应上面的[convolutional]下的filters75为21;
修改voc.names:修改为person、head;
S124、训练样本数据集并进行测试;
S13、把已经训练好的Yolov3结合deepsort算法对运动人体目标进行跟踪。
进一步地,所述步骤S2中提取的人体运动目标特征包括:
1)人体宽高比
人体宽高比由公式表示:
Figure BDA0002926122420000021
其中Width为最小外接矩形的宽度,Height为这个矩形高度;
2)人体中心变化率
假设(x′,y′)和(x″,y″)分别是两帧人体运动目标图像的人体中心点坐标,Δt是这两帧图像之间的时间间隔,y轴的中心变化率Vy
Figure BDA0002926122420000031
3)人体拟合椭圆参数
定义椭圆中心(xc,yc)、椭圆的长短半轴分别是a、b;定义椭圆的比率为p=a/b,采用椭圆的离心率e以及椭圆比率差作为跌倒检测判断的特征:
Figure BDA0002926122420000032
4)人体头部变化率
假设(x′,y′)和(x″,y″)分别是两帧人体运动目标图像的头部的中心点坐标,Δt是这两帧图像之间的时间间隔,其头部位置高度的变化率为:
Figure BDA0002926122420000033
人体头部位置的斜率变化率为:
Figure BDA0002926122420000034
进一步地,所述步骤S3中训练SVM分类器具体过程如下:
S301、选取训练样本数据集
选取的训练样本分为摔倒以及分摔倒两类,非摔倒行为分为行走、坐下、蹲下、弯腰以及躺下五种形态,然后分别使用了现有的UR Fall Datasets数据集以及拍摄录制的160个视频中的图片;
S302、下载libsvm压缩包及gnuplot,下载安装python以及配置环境变量;
S303、使用流程
S3031、新建一个python工程:将解压缩的libsvm包放入工程目录下然后测试项目;
S3032、必须使用libsvm支持的数据格式才行,把拍摄录制的160个视频中的图片数据调整成libsvm支持的数据格式如下所示:
<label1><index1>:<value1><index2>:<value2>…<index L>:<valueL>;
其中label代表要进行分类的类别的标识,如果是回归,这就是目标值;Index代表的是特征值的序列号;Value代表的是要训练的数据即特征值,数据之间用空格隔开,如果特征值为0,特征冒号前面的序号可以不连续;然后使用拍摄录制的160个视频中的图片数据进行训练;
S3033、使用python工程自带的grid.py对C-SVC的参数c和g进行调整,把运算出来的c值和g值加入到训练函数中,然后执行代码得到最优的分类结果然后进行训练;
S304、将训练样本数据集送入SVM分类器中进行分类训练。
与现有技术相比,本发明选用了深度学习运动目标检测方法YOLOv3先进行运动人体目标检测,精准快速的定位运动人体目标,然后结合DeepSort算法对检测到的运动目标进行跟踪;接着提取了人体宽高比、人体头部变化率、人体中心变化率以及拟合椭圆的离心率以及椭圆比率差这些常用特征,使用人体宽高比阈值判断先筛选出一部分不符合判断的特征,然后把剩下符合条件的特征进行归一化然后送入支持向量机(SVM)进行判断人体是否摔倒。本发明是采用传统目标检测方法与深度学习目标检测方法相结合,在实现摔倒检测的时候能够实时精确的定位到人体目标的同时还提高了摔倒检测的准确率。
附图说明
图1为本发明的流程图。
具体实施方式
为使本发明的目的、技术方案及优点更加清楚明白,以下结合实施例,对本发明进行进一步的详细说明。此处所描述的具体实施例仅用于解释本发明,并不用于限定发明。
如图1所示,本实施例提供了一种基于SVM的图像目标检测方法,包括以下步骤:
S1、通过深度学习模型YOLOv3结合deepsort算法进行人体运动目标检测和跟踪。本实施例通过深度学习模型YOLOv3检测人体运动目标,具体过程如下:
S11、配置系统开发环境:硬件环境:NVIDIAGeForce GTX 1660Ti显卡加速,8GB内存,Intel(R)Core(TM)i5-9300H CPU@2.40GHz
软件环境:在win10操作系统下使用pytorch、torchvision.oepncv的版本是3.4,python的版本是3.6,CUDA的版本是10.0,安装好之后加入系统环境变量中;
S12、使用yolov3算法训练样本数据集:
S121、准备数据集:通过COCO数据集中person类别的图片及网上公开图片进行收集,选取5000张图片作为数据集中的样本数据;
S122、对样本数据进行处理,使用labellmg对数据样本进行处理,最后转换成YOLO算法能够运行的数据类型;
S123、训练样本数据时需要对yolo算法中的一些参数进行调整,使其能够正常进行训练,因该算法训练的样本类别为两类,因此各参数应进行如下调整:
修改voc.data:类别数修改为2类,train和valid修改为训练样本数据集对应的路径,backup修改为最后训练好的权重存放位置;
修改yolov3-voc.cfg:修改[yolo]下的classes为对应的类别数为2,再修改[yolo]对应上面的[convolutional]下的filters75为21;
修改voc.names:修改为person、head;
S124、训练样本数据集并进行测试;
S13、把已经训练好的Yolov3结合deepsort算法对运动人体目标进行跟踪。
S2、对检测到的人体运动目标进行特征提取。特征提取是摔倒检测过程中最重要的步骤之一,其特征提取的好坏会影响到之后选取的目标的准确率,对运动人体目标进行特征提取,能降低原始数据的维度,同时能保留人体关键信息,保证摔倒识别的实时性和准确性。特征选择和提取的主要目的是通过选取最少的特征来有效的区分不同图像类别,对于运动人体的特征选择是一个复杂的问题,如果通过单一的特征对目标进行检测是不准确的,所以选用融合特征就显得尤为重要,具体地,本实施例提取的人体运动目标特征包括:
1)人体宽高比
人体宽高比的变化反应了人体行为的变化。人体宽高比由公式表示:
Figure BDA0002926122420000061
其中Width为最小外接矩形的宽度,Height为这个矩形高度;
摔倒过程中人体的外接矩形会发生剧烈的变化。当人体摔倒时,外接矩形框的宽度肯定要大于高度;同理在正常行走或者其它运动的时候,外界矩形框的高度要大于宽度,因此其可以作为分辨人体是否摔倒的一个特征。
2)人体中心变化率
摔倒过程中,人体的中心位置的变化率也是非常明显的。摔倒事件发生时往往垂直方向和水平方向变化率都会有所变化。假设(x′,y′)和(x″,y″)分别是两帧人体运动目标图像的中心点坐标,Δt是这两帧图像之间的时间间隔,y轴的中心变化率Vy
Figure BDA0002926122420000071
在人体摔倒的时候,人体的中心位置在短时间内会发生巨大的变化,但是其x轴横向时不可控的,因此不能作为特征,但是中心y的变化率会十分明显,在极短的时间内会降低很多。因此选用人体中心变化率中y的变化率作为特征。
3)人体拟合椭圆参数
当人体目标被检测到后,我们需要更加精确的特征来描述摔倒行为,相对于人体目标外接框,椭圆更能有效地反映人体姿态的变化。定义椭圆中心(xc,yc)、椭圆的长短半轴分别是a、b;定义椭圆的比率为p=a/b,采用椭圆的离心率e以及椭圆比率差作为跌倒检测判断的特征:
Figure BDA0002926122420000072
由上式可以看出椭圆的离心率e会随着人体形态发生很大的变化。
4)人体头部变化率
在检测人体目标的时候,我们会发现人体头部的位置变化还是很明显的,我们将其坐标的变换作为特征为后边的摔倒检测做铺垫。假设(x′,y′)和(x″,y″)分别是两帧人体运动目标图像的人体头部的中心点坐标。Δt是这两帧图像之间的时间间隔,其人体头部位置高度的变化率为:
Figure BDA0002926122420000073
人体头部位置的斜率变化率为:
Figure BDA0002926122420000081
当人的行为发生改变的时候,人体头部的变化是最为明显的,不管是其位置的变化还是斜率的变化都很明显。所以其可以作为一个特征进行摔倒判断。
S3、使用人体宽高比阈值判断先筛选出一部分不符合判断的特征,把剩下符合条件的特征然后送入训练好的支持向量机SVM进行分类判断人体运动目标是否摔倒。
首先摔倒过程中人体的外接矩形会发生剧烈的变化。通过实际情况观察发现每个人的体型都有所不同,而且摄像头的缩放比例不能统一。所以人体宽高比检测只能初步区分一个人是否为倒下的状态,所以当提取的人体宽高比判断发生异常行为时,对检测出的人体目标区域提取人体中心位置以及头部位置及拟合椭圆的一些特征融合成一个新的特征输入训练好的SVM分类器,判定是否发生人体跌倒行为。需要说明的是在使用支持向量机SVM进行分类判断人体运动目标是否摔倒之前需要对支持向量机SVM的模型进行训练和在线检测摔倒。
训练SVM分类器具体过程如下:
S301、选取训练样本数据集
选取的训练样本分为摔倒以及分摔倒两类,非摔倒行为分为行走、坐下、蹲下、弯腰以及躺下五种形态,然后分别使用了现有的UR Fall Datasets数据集以及拍摄录制的160个视频中的图片;
S302、下载libsvm压缩包及gnuplot,下载安装python以及配置环境变量;
S303、使用流程
S3031、新建一个python工程:将解压缩的libsvm包放入工程目录下然后测试项目;
S3032、必须使用libsvm支持的数据格式才行,把拍摄录制的160个视频中的图片数据调整成libsvm支持的数据格式如下所示:
<label1><index1>:<value1><index2>:<value2>…<index L>:<valueL>;
其中label代表要进行分类的类别的标识,如果是回归,这就是目标值;Index代表的是特征值的序列号;Value代表的是要训练的数据即特征值,数据之间用空格隔开,如果特征值为0,特征冒号前面的序号可以不连续;然后使用拍摄录制的160个视频中的图片数据进行训练;
S3033、使用python工程自带的grid.py对C-SVC的参数c和g进行调整,把运算出来的c值和g值加入到训练函数中,然后执行代码得到最优的分类结果然后进行训练;
S304、将训练样本数据集送入SVM分类器中进行分类,通过OpenCV二次库进行开发,进行分类训练。本实施例的OpenCV二次库是台湾大学开发设计的LibSVM开发库,接口通用性强,使用方便,能满足大多数分类训练的情况。
另外,需要说明的是,本实施例可以直接使用现有技术的支持向量机(SVM),支持向量机(SVM)由Vapnik等人在20世纪90年代首次提出,此算法能够解决小样本、非线性和高维模式识别问题,同时能推广应用到函数拟合等其他机器学习问题中。它处理的是模式识别中的二分类问题,它解决非线性不可分样本的基本思想是将非线性不可分的向量映射到高维空间中,在高维特征空间中构造一个最优分类超平面,由此得到分类器,其中,此算法的核心引入了核函数,使得低维空间向量能快速、高效的映射到高维空间,能减低传统映射方法中运算复杂度问题。
本发明的技术方案不限于上述具体实施例的限制,凡是根据本发明的技术方案做出的技术变形,均落入本发明的保护范围之内。

Claims (4)

1.一种基于SVM的图像目标检测方法,其特征在于,包括以下步骤:
S1、通过深度学习模型YOLOv3结合deepsort算法进行人体运动目标检测和跟踪;
S2、对检测跟踪到的人体运动目标进行特征提取;
S3、设置人体宽高比阈值进行第一次判断,筛选出一部分不符合阈值的图片的特征,把剩下符合阈值的图片的特征送入训练好的支持向量机SVM进行第二次判断,进行分类判断人体是否摔倒。
2.根据权利要求1所述的基于SVM的图像目标检测方法,其特征在于,所述步骤S1具体包括:
S11、配置系统开发环境;
S12、使用yolov3算法训练样本数据集:
S121、准备数据集:通过COCO数据集中person类别的图片及网上公开图片进行收集,选取5000张图片作为数据集中的样本数据;
S122、对样本数据进行处理,使用labellmg对数据样本进行处理,最后转换成YOLO算法能够运行的数据类型;
S123、训练样本数据时需要对yolo算法中的一些参数进行调整,使其能够正常进行训练,因该算法训练的样本类别为两类,因此各参数应进行如下调整:
修改voc.data:类别数修改为2类,train和valid修改为训练样本数据集对应的路径,backup修改为最后训练好的权重存放位置;
修改yolov3-voc.cfg:修改[yolo]下的classes为对应的类别数为2,再修改[yolo]对应上面的[convolutional]下的filters75为21;
修改voc.names:修改为person、head;
S124、训练样本数据集并进行测试;
S13、把已经训练好的Yolov3结合deepsort算法对运动人体目标进行跟踪。
3.根据权利要求1所述的基于SVM的图像目标检测方法,其特征在于,所述步骤S2中提取的人体运动目标特征包括:
1)人体宽高比
人体宽高比由公式表示:
Figure FDA0002926122410000021
其中Width为最小外接矩形的宽度,Height为这个矩形高度;
2)人体中心变化率
假设(x′,y′)和(x″,y″)分别是两帧人体运动目标图像的人体中心点坐标,Δt是这两帧图像之间的时间间隔,y轴的中心变化率Vy
Figure FDA0002926122410000022
3)人体拟合椭圆参数
定义椭圆中心(xc,yc)、椭圆的长短半轴分别是a、b;定义椭圆的比率为p=a/b,采用椭圆的离心率e以及椭圆比率差作为跌倒检测判断的特征:
Figure FDA0002926122410000023
4)人体头部变化率
假设(x′,y′)和(x″,y″)分别是两帧人体运动目标图像的头部的中心点坐标,Δt是这两帧图像之间的时间间隔,其头部位置高度的变化率为:
Figure FDA0002926122410000024
人体头部位置的斜率变化率为:
Figure FDA0002926122410000025
4.根据权利要求1所述的基于SVM的图像目标检测方法,其特征在于,所述步骤S3中训练SVM分类器具体过程如下:
S301、选取训练样本数据集
选取的训练样本分为摔倒以及分摔倒两类,非摔倒行为分为行走、坐下、蹲下、弯腰以及躺下五种形态,然后分别使用了现有的UR Fall Datasets数据集以及拍摄录制的160个视频中的图片;
S302、下载libsvm压缩包及gnuplot,下载安装python以及配置环境变量;
S303、使用流程
S3031、新建一个python工程:将解压缩的libsvm包放入工程目录下然后测试项目;
S3032、必须使用libsvm支持的数据格式才行,把拍摄录制的160个视频中的图片数据调整成libsvm支持的数据格式如下所示:
<label1><index1>:<value1><index2>:<value2>…<index L>:<valueL>;
其中label代表要进行分类的类别的标识,如果是回归,这就是目标值;Index代表的是特征值的序列号;Value代表的是要训练的数据即特征值,数据之间用空格隔开,如果特征值为0,特征冒号前面的序号可以不连续;然后使用拍摄录制的160个视频中的图片数据进行训练;
S3033、使用python工程自带的grid.py对C-SVC的参数c和g进行调整,把运算出来的c值和g值加入到训练函数中,然后执行代码得到最优的分类结果然后进行训练;
S304、将训练样本数据集送入SVM分类器中进行分类训练。
CN202110133286.0A 2021-02-01 2021-02-01 一种基于svm的图像目标检测方法 Expired - Fee Related CN112861686B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110133286.0A CN112861686B (zh) 2021-02-01 2021-02-01 一种基于svm的图像目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110133286.0A CN112861686B (zh) 2021-02-01 2021-02-01 一种基于svm的图像目标检测方法

Publications (2)

Publication Number Publication Date
CN112861686A true CN112861686A (zh) 2021-05-28
CN112861686B CN112861686B (zh) 2022-08-30

Family

ID=75987144

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110133286.0A Expired - Fee Related CN112861686B (zh) 2021-02-01 2021-02-01 一种基于svm的图像目标检测方法

Country Status (1)

Country Link
CN (1) CN112861686B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114051273A (zh) * 2021-11-08 2022-02-15 南京大学 一种基于深度学习的大规模网络动态自适应路径规划方法

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106037749A (zh) * 2016-05-18 2016-10-26 武汉大学 一种基于智能手机和可穿戴式设备的老年人跌倒监测方法
CN106241584A (zh) * 2016-08-23 2016-12-21 西尼电梯(杭州)有限公司 一种基于扶梯安全的智能视频监控系统及方法
CN106991790A (zh) * 2017-05-27 2017-07-28 重庆大学 基于多模特征分析的老人摔倒实时监测方法及系统
CN107292913A (zh) * 2017-06-12 2017-10-24 大连海事大学 一种基于视频的多阶段摔倒检测算法
CN109389041A (zh) * 2018-09-07 2019-02-26 南京航空航天大学 一种基于关节点特征的跌倒检测方法
CN109919132A (zh) * 2019-03-22 2019-06-21 广东省智能制造研究所 一种基于骨架检测的行人跌倒识别方法
CN110532852A (zh) * 2019-07-09 2019-12-03 长沙理工大学 基于深度学习的地铁站行人异常事件检测方法
CN111126325A (zh) * 2019-12-30 2020-05-08 哈尔滨工程大学 一种基于视频的智能人员安防识别统计方法
CN111209848A (zh) * 2020-01-03 2020-05-29 北京工业大学 一种基于深度学习的实时跌倒检测方法
CN111274954A (zh) * 2020-01-20 2020-06-12 河北工业大学 基于改进姿态估计算法的嵌入式平台实时跌倒检测方法
CN211787438U (zh) * 2020-04-30 2020-10-27 内蒙古大学 一种面向出行安全的跌倒检测及自动报警装置
US20200394384A1 (en) * 2019-06-14 2020-12-17 Amarjot Singh Real-time Aerial Suspicious Analysis (ASANA) System and Method for Identification of Suspicious individuals in public areas
CN112131933A (zh) * 2020-08-11 2020-12-25 安徽大学 一种基于改进yolo网络的快速行人检测方法与系统
CN112200021A (zh) * 2020-09-22 2021-01-08 燕山大学 基于有限范围场景内的目标人群跟踪监控方法

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106037749A (zh) * 2016-05-18 2016-10-26 武汉大学 一种基于智能手机和可穿戴式设备的老年人跌倒监测方法
CN106241584A (zh) * 2016-08-23 2016-12-21 西尼电梯(杭州)有限公司 一种基于扶梯安全的智能视频监控系统及方法
CN106991790A (zh) * 2017-05-27 2017-07-28 重庆大学 基于多模特征分析的老人摔倒实时监测方法及系统
CN107292913A (zh) * 2017-06-12 2017-10-24 大连海事大学 一种基于视频的多阶段摔倒检测算法
CN109389041A (zh) * 2018-09-07 2019-02-26 南京航空航天大学 一种基于关节点特征的跌倒检测方法
CN109919132A (zh) * 2019-03-22 2019-06-21 广东省智能制造研究所 一种基于骨架检测的行人跌倒识别方法
US20200394384A1 (en) * 2019-06-14 2020-12-17 Amarjot Singh Real-time Aerial Suspicious Analysis (ASANA) System and Method for Identification of Suspicious individuals in public areas
CN110532852A (zh) * 2019-07-09 2019-12-03 长沙理工大学 基于深度学习的地铁站行人异常事件检测方法
CN111126325A (zh) * 2019-12-30 2020-05-08 哈尔滨工程大学 一种基于视频的智能人员安防识别统计方法
CN111209848A (zh) * 2020-01-03 2020-05-29 北京工业大学 一种基于深度学习的实时跌倒检测方法
CN111274954A (zh) * 2020-01-20 2020-06-12 河北工业大学 基于改进姿态估计算法的嵌入式平台实时跌倒检测方法
CN211787438U (zh) * 2020-04-30 2020-10-27 内蒙古大学 一种面向出行安全的跌倒检测及自动报警装置
CN112131933A (zh) * 2020-08-11 2020-12-25 安徽大学 一种基于改进yolo网络的快速行人检测方法与系统
CN112200021A (zh) * 2020-09-22 2021-01-08 燕山大学 基于有限范围场景内的目标人群跟踪监控方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
BHARGAVA TEJA NUKALA等: "《An Efficient and Robust Fall Detection System Using Wireless Gait Analysis Sensor with Artificial Neural Network (ANN) and Support Vector Machine (SVM) Algorithms》", 《APPLIED BIOSENSOR》 *
刘宇 等: "《一种基于智能手机终端的远程人体姿态监测系统》", 《中国惯性技术学报》 *
苗泰: "《基于视频的家居环境中人体摔倒检测算法研究》", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *
谷燕飞: "《基于改进YOLO_V3+Deepsort多目标跟踪系统的研究与实现》", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114051273A (zh) * 2021-11-08 2022-02-15 南京大学 一种基于深度学习的大规模网络动态自适应路径规划方法
CN114051273B (zh) * 2021-11-08 2023-10-13 南京大学 一种基于深度学习的大规模网络动态自适应路径规划方法

Also Published As

Publication number Publication date
CN112861686B (zh) 2022-08-30

Similar Documents

Publication Publication Date Title
US11182592B2 (en) Target object recognition method and apparatus, storage medium, and electronic device
US8331698B2 (en) Ethnicity classification using multiple features
US8224042B2 (en) Automatic face recognition
Ma et al. Robust precise eye location under probabilistic framework
CN107346422B (zh) 一种基于眨眼检测的活体人脸识别方法
US8027521B1 (en) Method and system for robust human gender recognition using facial feature localization
US7450737B2 (en) Head detecting apparatus, head detecting method, and head detecting program
US7929771B2 (en) Apparatus and method for detecting a face
US8320643B2 (en) Face authentication device
JP4781467B2 (ja) 画像処理方法、画像処理装置、画像処理システム及びコンピュータプログラム
WO2021051611A1 (zh) 基于人脸可见性的人脸识别方法、系统、装置及存储介质
US7869632B2 (en) Automatic trimming method, apparatus and program
US20070177794A1 (en) Method and apparatus for automatic eyeglasses detection using a nose ridge mask
JP2008257425A (ja) 顔認識装置及び顔認識方法、並びにコンピュータ・プログラム
CN109800643A (zh) 一种活体人脸多角度的身份识别方法
CN105335719A (zh) 活体检测方法及装置
TWI415032B (zh) Object tracking method
JP4738914B2 (ja) 監視システム、監視方法、及び監視プログラム
WO2020195732A1 (ja) 画像処理装置、画像処理方法、およびプログラムが格納された記録媒体
CN112861686B (zh) 一种基于svm的图像目标检测方法
CN112766273A (zh) 一种车牌识别方法
US20220180554A1 (en) Estimation device, estimation method, and storage medium
CN114612980A (zh) 基于多方位交融注意力的变形人脸检测
JP2007274527A (ja) 画像処理装置、画像処理方法、および画像処理プログラム
WO2023241358A1 (zh) 一种疲劳驾驶的确定方法、装置及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20220830