CN110457999B - 一种基于深度学习和svm的动物姿态行为估计与心情识别方法 - Google Patents
一种基于深度学习和svm的动物姿态行为估计与心情识别方法 Download PDFInfo
- Publication number
- CN110457999B CN110457999B CN201910569930.1A CN201910569930A CN110457999B CN 110457999 B CN110457999 B CN 110457999B CN 201910569930 A CN201910569930 A CN 201910569930A CN 110457999 B CN110457999 B CN 110457999B
- Authority
- CN
- China
- Prior art keywords
- animal
- key points
- thirteen
- svm
- tail
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Abstract
本发明公开了一种基于深度学习和SVM的动物姿态行为估计与心情识别方法,利用深度学习的动物姿态估计模型和SVM多分类算法,通过对大量动物的图片进行目标检测的边框标签标记和动物的十三个身体关键点(包括尾巴)标记,然后送进动物姿态估计网络模型进行充分地训练。通过训练好的动物姿态估计模型,估计计算出来目标检测边框的中心点位置和动物的十三个身体关键点位置,并基于其中心点的位置变化、十三个关键点的位置关系和尾巴三个关键点的位置关系和相对位置变化关系,构建与利用SVM分类器去判断动物的行为与心情,从而能更加准确地理解动物的心情和行为情况。
Description
技术领域
本发明涉及动物姿态行为及心情识别的技术领域,尤其涉及到一种基于深度学习和SVM的动物姿态行为估计与心情识别方法。
背景技术
目前,关于动物的行为与心情预测大多通过图像处理技术得出动物的轮廓、运动参数、体态特征等相关参数,或者通过穿戴装置来获取动物的生物特征参数,这些方法都非常复杂,需要一定的图像处理知识或者硬件设备来支持。本发明利用深度学习神经网络和SVM多分类算法来识别动物的行为与心情,在人体姿态估计、人体关键点识别、人体行为识别和动物行为识别方面的技术发展支持下,把相关技术方法应用到动物的行为和心情识别上:
1.基于深度学习的人体姿态估计、人体关键点识别的方法:
人体骨骼关键点对于描述人体姿态、预测人体行为至关重要。人体骨骼关键点检测主要有两个方向,一种是自上而下,一种是自下而上,其中自上而上的人体骨骼关键点定位算法主要包含两个部分,人体检测和单人人体关键点检测,即首先通过目标检测算法将每一个人检测出来,然后在检测框的基础上针对单个人做人体骨骼关键点检测。自下而上的方法也包含两个部分,关键点检测和关键点聚类,即首先需要将图片中所有的关键点都检测出来,然后通过相关策略将所有的关键点聚类成不同的个体。
把人体关键点识别的算法思想迁移到动物身上,以猫狗为例,标记13个关键点(包括尾巴),并且利用目前基于深度学习的人体姿态估计算法的基础上来构建基于深度学习的动物姿态估计算法,因为猫和狗的尾巴对识别其心情具有很大的参考价值,所以13个关键点中包含尾巴的3个关键点。因还需要用到猫和狗的中心点来判断其运动状态,所以使用自上向下的方法,猫和狗的中心点位置是该种方法的中间过程结果产物。
2.人体行为识别和动物行为识别的方法:
①基于最近邻近分法的行人行为分类[1],该方法计算量大、依赖于训练样本和用于度量相似性的距离函数选择多等问题。
②基于动态贝叶斯网络的人体行为分类[2]。该方法实际效果取决于使用者对实际应用的先验知识
③基于BP神经网络的人体行为分类[3]。该方法具有很强的自组织学习能力且有很好的鲁棒性,但其易学习过度、训练时间比较长、运算时间也比较长。
④与本发明相似的方法有俞守华[4]等人基于SVM的猪只行为分类,根据猪只的运动参数和体态特征,通过多分类SVM算法进行行为分类。
现有技术文献
[1]徐亚静.基于时空局部二值模式的行为识别方法研究[D].长春:吉林农业大学,2013.
[2]杨旗.人体步态及行为识别关键算法研究[D].沈阳:东北大学,2013.
[3]韩旭.应用K inect的人体行为识别方法研究与系统设计[D].济南:山东大学,2013.
[4]俞守华,杨剑达,陈紫城,et al.基于SVM的猪只行为分类[J].广东农业科学,2016,43(3):152-156.
发明内容
本发明的目的在于提供一种估计及识别准确率高的基于深度学习和SVM的动物姿态行为估计与心情识别方法。
为实现上述目的,本发明所提供的技术方案为:
一种基于深度学习和SVM的动物姿态行为估计与心情识别方法,包括以下步骤:
S1:采集大量动物的图片,并对其进行目标检测框的标记与包含有尾巴关键点的十三个身体关键点的标记;
S2:构建基于深度学习的动物姿态估计模型;
S3:通过步骤S1中目标检测框的标记以及十三个身体关键点的标记对步骤S2构建好的动物姿态估计模型进行训练,使该模型可估计出动物的中心点位置和十三个身体关键点的位置;
S4:获取视频的关键帧图片,送进步骤S3已训练好的动物姿态估计模型,通过该模型估计出动物的中心点位置和十三个关键点的位置;
S5:基于动物的中心点位置变化、包含有尾巴关键点的十三个身体关键点的位置关系和相对位置变化关系构建多个SVM分类器,用于判断动物的行为与心情。
进一步地,所述步骤S3通过动物姿态估计模型进行动物的中心点位置和十三个身体关键点的位置的估计的具体步骤如下:
采用MobileNet V1特征提取网络进行特征提取,然后利用SSD目标检测算法预测出动物的标记框范围,同时得出动物的中心点位置;为了得到更好的动物姿态估计预测效果,把目标检测算法计算出来动物的预测框,再扩大20%的范围,然后把预测框送进CPN姿态估计模型进行动物的十三个身体关键点位置估计预测,得出十三个关键点的位置坐标。
进一步地,所述步骤S5中构建多个SVM多分类器的具体如下:
1)通过视频关键帧图片中动物的中心点位置的变化样本构建第一SVM分类器,对动物进行奔跑、慢走、静止行为的分类;
2)通过视频关键帧图片中动物的十三个身体关键点的位置关系的训练样本构建第二SVM分类器,对采食、排泄、下蹲、趴窝、站立、攻击行为进行分类;
3)通过视频关键帧图片中动物尾巴的三个关键点的位置关系和位置变化关系的训练样本构建第三SVM分类器,对兴奋、害怕、生气的心情进行分类。
进一步地,所述步骤S5基于构建的多个SVM多分类器的分类结果进行如下动物行为和心情的识别:
通过第一SVM分类器的计算,如果动物通过中心点位置判断为奔跑或者慢走,则忽略第二SVM分类器得出来的行为分类结果;如果动物通过中心点位置判断为静止,则不显示静止行为,而显示第二SVM分类器得出的行为分类结果,通过第三SVM分类器判断得出动物的心情。
进一步地,所述的十三个身体关键点分别为动物的头、肩、左手肘、左手腕、右手肘、右手腕、尾巴头、左膝盖、左脚踝、右膝盖、右脚踝、尾巴中、尾巴尾。
与现有技术相比,本方案原理和优点如下:
本方案利用深度学习的动物姿态估计模型和SVM多分类算法,通过对大量动物的图片进行目标检测的边框标签标记和动物的十三个身体关键点(包括尾巴)标记,然后送进动物姿态估计网络模型进行充分地训练。通过训练好的动物姿态估计模型,估计计算出来目标检测边框的中心点位置和动物的十三个身体关键点位置,并基于其中心点的位置变化、十三个关键点的位置关系和尾巴三个关键点的位置关系和相对位置变化关系,构建与利用SVM分类器去判断动物的行为与心情,从而能更加准确地理解动物的心情和行为情况。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的服务作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本实施例中一种基于深度学习和SVM的动物姿态行为估计与心情识别方法的流程框图;
图2为猫的目标检测边框与十三个身体关键点标记示意图;
图3为狗的目标检测边框与十三个身体关键点标记示意图;
图4为动物姿态估计模型结构图;
图5为基于多个SVM多分类器的行为与心情识别的流程图。
具体实施方式
下面结合具体实施例对本发明作进一步说明:
如图1所示,本实施例所述的一种基于深度学习和SVM的动物姿态行为估计与心情识别方法,以猫或狗为例,主要包括猫或狗的数据采集与标记、猫或狗十三个身体关键点估计的网络模型构建与训练以及构建SVM多分类器来识别行为与心情等三大部分。具体步骤如下:
S1:采集大量猫或狗的图片,并对其进行目标检测框的标记与包含有尾巴关键点的十三个身体关键点的标记;十三个身体关键点分别为猫或狗的1.头、2.肩、3.左手肘、4.左手腕、5.右手肘、6.右手腕、7.尾巴头、8.左膝盖、9.左脚踝、10.右膝盖、11.右脚踝、12.尾巴中、13.尾巴尾。如图2和3所示。
S2:构建基于深度学习的猫或狗的姿态估计模型。
S3:通过步骤S1中目标检测框的标记以及十三个身体关键点的标记对步骤S2构建好的猫或狗的姿态估计模型进行训练,使该模型可估计出猫或狗的中心点位置和十三个身体关键点的位置。
如图4所示,本步骤S3中,具体为:采用MobileNet V1特征提取网络进行特征提取,然后利用SSD目标检测算法预测出猫或狗的标记框范围,同时得出猫或狗的中心点位置;为了得到更好的猫或狗的姿态估计预测效果,把目标检测算法计算出来猫或狗的预测框,再扩大20%的范围,然后把预测框送进CPN姿态估计模型进行猫或狗的十三个身体关键点位置估计预测,得出十三个关键点的位置坐标。
S4:如图5所示,获取视频的关键帧图片,送进步骤S3已训练好的猫或狗的姿态估计模型,通过该模型估计出猫或狗的中心点位置和十三个关键点的位置。
S5:最后,基于猫或狗的中心点位置变化、包含有尾巴关键点的十三个身体关键点的位置关系和相对位置变化关系构建多个SVM分类器,用于判断猫或狗的行为与心情。
本步骤S5中,构建多个SVM多分类器的具体如下:
1)通过视频关键帧图片中猫或狗的中心点位置的变化样本构建第一SVM分类器,对猫或狗进行奔跑、慢走、静止行为的分类;
2)通过视频关键帧图片中猫或狗的十三个身体关键点的位置关系的训练样本构建第二SVM分类器,对采食、排泄、下蹲、趴窝、站立、攻击行为进行分类;
3)通过视频关键帧图片中猫或狗尾巴的三个关键点的位置关系和位置变化关系的训练样本构建第三SVM分类器,对兴奋、害怕、生气的心情进行分类。
然后基于构建的多个SVM多分类器的分类结果进行如下猫或狗行为和心情的识别:
通过第一SVM分类器的计算,如果猫或狗通过中心点位置判断为奔跑或者慢走,则忽略第二SVM分类器得出来的行为分类结果;如果猫或狗通过中心点位置判断为静止,则不显示静止行为,而显示第二SVM分类器得出的行为分类结果,通过第三SVM分类器判断得出动物的心情。
SVM多分类器可根据以下原理构建心情分类,例如:
(1)狗尾巴所表示的含义
①尾巴竖立成直角:狗遇到异性时,尾巴便会竖立成直角,而且微微振动;
②尾巴下垂:表示生气;
③尾巴左右大幅度摇摆:表示十分高兴;
④尾巴卷到腹下:表示恐惧。
(2)猫尾巴所表示的含义
①尾巴左右摇摆、抽打:处于战备状态,争斗搏击;
②尾巴与身体呈直线,与地面平行:发现猎物,准备捕捉;
③猛拍地面:表示愤怒;
④笔直竖起来:满足、乞讨或者洋洋得意。
本实施例利用深度学习的猫或狗的姿态估计模型和SVM多分类算法,通过对大量猫或狗的图片进行目标检测的边框标签标记和猫或狗的十三个身体关键点(包括尾巴)标记,然后送进猫或狗的姿态估计网络模型进行充分地训练。通过训练好的猫或狗的姿态估计模型,估计计算出来目标检测边框的中心点位置和猫或狗的十三个身体关键点位置,并基于其中心点的位置变化、十三个关键点的位置关系和尾巴三个关键点的位置关系和相对位置变化关系,构建与利用SVM分类器去判断猫或狗的行为与心情,从而能更加准确地理解猫或狗的心情和行为情况。
以上所述之实施例子只为本发明之较佳实施例,并非以此限制本发明的实施范围,故凡依本发明之形状、原理所作的变化,均应涵盖在本发明的保护范围内。
Claims (1)
1.一种基于深度学习和SVM的动物姿态行为估计与心情识别方法,其特征在于,包括以下步骤:
S1:采集大量动物的图片,并对其进行目标检测框的标记与包含有尾巴关键点的十三个身体关键点的标记;
S2:构建基于深度学习的动物姿态估计模型;
S3:通过步骤S1中目标检测框的标记以及十三个身体关键点的标记对步骤S2构建好的动物姿态估计模型进行训练,使该模型估计出动物的中心点位置和十三个身体关键点的位置;
S4:获取视频的关键帧图片,送进步骤S3已训练好的动物姿态估计模型,通过该模型估计出动物的中心点位置和十三个关键点的位置;
S5:基于动物的中心点位置变化、包含有尾巴关键点的十三个身体关键点的位置关系和相对位置变化关系构建多个SVM分类器,用于判断动物的行为与心情;
所述步骤S3通过动物姿态估计模型进行动物的中心点位置和十三个身体关键点的位置的估计的具体步骤如下:
采用MobileNet V1特征提取网络进行特征提取,然后利用SSD目标检测算法预测出动物的标记框范围,同时得出动物的中心点位置;为了得到更好的动物姿态估计预测效果,把目标检测算法计算出来动物的预测框,再扩大20%的范围,然后把预测框送进CPN姿态估计模型进行动物的十三个身体关键点位置估计预测,得出十三个关键点的位置坐标;
所述步骤S5中构建多个SVM多分类器的具体如下:
1)通过视频关键帧图片中动物的中心点位置的变化样本构建第一SVM分类器,对动物进行奔跑、慢走、静止行为的分类;
2)通过视频关键帧图片中动物的十三个身体关键点的位置关系的训练样本构建第二SVM分类器,对采食、排泄、下蹲、趴窝、站立、攻击行为进行分类;
3)通过视频关键帧图片中动物尾巴的三个关键点的位置关系和位置变化关系的训练样本构建第三SVM分类器,对兴奋、害怕、生气的心情进行分类;
所述步骤S5基于构建的多个SVM多分类器的分类结果进行如下动物行为和心情的识别:
通过第一SVM分类器的计算,如果动物通过中心点位置判断为奔跑或者慢走,则忽略第二SVM分类器得出来的行为分类结果;如果动物通过中心点位置判断为静止,则不显示静止行为,而显示第二SVM分类器得出的行为分类结果,通过第三SVM分类器判断得出动物的心情;
所述的十三个身体关键点分别为动物的头、肩、左手肘、左手腕、右手肘、右手腕、尾巴头、左膝盖、左脚踝、右膝盖、右脚踝、尾巴中、尾巴尾。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910569930.1A CN110457999B (zh) | 2019-06-27 | 2019-06-27 | 一种基于深度学习和svm的动物姿态行为估计与心情识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910569930.1A CN110457999B (zh) | 2019-06-27 | 2019-06-27 | 一种基于深度学习和svm的动物姿态行为估计与心情识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110457999A CN110457999A (zh) | 2019-11-15 |
CN110457999B true CN110457999B (zh) | 2022-11-04 |
Family
ID=68481779
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910569930.1A Active CN110457999B (zh) | 2019-06-27 | 2019-06-27 | 一种基于深度学习和svm的动物姿态行为估计与心情识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110457999B (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111297367A (zh) * | 2019-11-26 | 2020-06-19 | 北京海益同展信息科技有限公司 | 一种动物状态监测方法、装置、电子设备及存储介质 |
CN111832531B (zh) * | 2020-07-24 | 2024-02-23 | 安徽正华生物仪器设备有限公司 | 基于深度学习适用于啮齿动物社交实验的分析系统和方法 |
CN113699255B (zh) * | 2020-09-02 | 2023-10-20 | 北京中科昆朋生物技术有限公司 | 鉴别具有攻击行为犬的生物标记物、试剂盒和方法 |
CN112016527B (zh) * | 2020-10-19 | 2022-02-01 | 成都大熊猫繁育研究基地 | 基于深度学习的大熊猫行为识别方法、系统、终端及介质 |
CN112633190A (zh) * | 2020-12-28 | 2021-04-09 | 南昌工程学院 | 一种深度学习方法 |
CN112949400B (zh) * | 2021-01-26 | 2022-07-08 | 四川大学 | 一种基于深度学习的动物智能实验系统与方法 |
CN113221704A (zh) * | 2021-04-30 | 2021-08-06 | 陕西科技大学 | 基于深度学习的动物姿态识别方法、系统及存储介质 |
CN113627255A (zh) * | 2021-07-07 | 2021-11-09 | 中国科学院自动化研究所 | 一种小鼠行为量化分析方法、装置、设备及可读存储介质 |
CN114724190A (zh) * | 2022-06-10 | 2022-07-08 | 北京猫猫狗狗科技有限公司 | 一种基于宠物姿态的心情识别方法 |
Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102682302A (zh) * | 2012-03-12 | 2012-09-19 | 浙江工业大学 | 一种基于关键帧的多特征融合的人体姿态识别方法 |
WO2014205231A1 (en) * | 2013-06-19 | 2014-12-24 | The Regents Of The University Of Michigan | Deep learning framework for generic object detection |
CN107609541A (zh) * | 2017-10-17 | 2018-01-19 | 哈尔滨理工大学 | 一种基于可变形卷积神经网络的人体姿态估计方法 |
WO2018058419A1 (zh) * | 2016-09-29 | 2018-04-05 | 中国科学院自动化研究所 | 二维图像人体关节点定位模型的构建方法及定位方法 |
CN108052896A (zh) * | 2017-12-12 | 2018-05-18 | 广东省智能制造研究所 | 基于卷积神经网络与支持向量机的人体行为识别方法 |
CN108960056A (zh) * | 2018-05-30 | 2018-12-07 | 西南交通大学 | 一种基于姿态分析和支持向量数据描述的跌倒检测方法 |
CN109165552A (zh) * | 2018-07-14 | 2019-01-08 | 深圳神目信息技术有限公司 | 一种基于人体关键点的姿态识别方法、系统及存储器 |
CN109255296A (zh) * | 2018-08-06 | 2019-01-22 | 广东工业大学 | 一种基于深度卷积神经网络的日常人体行为识别方法 |
CN109325469A (zh) * | 2018-10-23 | 2019-02-12 | 北京工商大学 | 一种基于深度神经网络的人体姿态识别方法 |
CN109344790A (zh) * | 2018-10-16 | 2019-02-15 | 浩云科技股份有限公司 | 一种基于姿态分析的人体行为分析方法及系统 |
CN109558865A (zh) * | 2019-01-22 | 2019-04-02 | 郭道宁 | 一种基于人体关键点的对需特别看护人员的异常状态检测方法 |
CN109753922A (zh) * | 2018-12-29 | 2019-05-14 | 北京建筑大学 | 基于稠密卷积神经网络的仿人机器人表情识别方法 |
CN109858342A (zh) * | 2018-12-24 | 2019-06-07 | 中山大学 | 一种融合手工设计描述子和深度特征的人脸姿态估计方法 |
CN109934111A (zh) * | 2019-02-12 | 2019-06-25 | 清华大学深圳研究生院 | 一种基于关键点的健身姿态估计方法及系统 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030110038A1 (en) * | 2001-10-16 | 2003-06-12 | Rajeev Sharma | Multi-modal gender classification using support vector machines (SVMs) |
US20050105794A1 (en) * | 2003-08-25 | 2005-05-19 | Glenn Fung | Greedy support vector machine classification for feature selection applied to the nodule detection problem |
US10628741B2 (en) * | 2010-06-07 | 2020-04-21 | Affectiva, Inc. | Multimodal machine learning for emotion metrics |
CN103324938A (zh) * | 2012-03-21 | 2013-09-25 | 日电(中国)有限公司 | 训练姿态分类器及物体分类器、物体检测的方法及装置 |
US10121064B2 (en) * | 2015-04-16 | 2018-11-06 | California Institute Of Technology | Systems and methods for behavior detection using 3D tracking and machine learning |
US20180260699A1 (en) * | 2017-03-13 | 2018-09-13 | Intel IP Corporation | Technologies for deep machine learning with convolutional neural networks and reduced set support vector machines |
US10510157B2 (en) * | 2017-10-28 | 2019-12-17 | Altumview Systems Inc. | Method and apparatus for real-time face-tracking and face-pose-selection on embedded vision systems |
-
2019
- 2019-06-27 CN CN201910569930.1A patent/CN110457999B/zh active Active
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102682302A (zh) * | 2012-03-12 | 2012-09-19 | 浙江工业大学 | 一种基于关键帧的多特征融合的人体姿态识别方法 |
WO2014205231A1 (en) * | 2013-06-19 | 2014-12-24 | The Regents Of The University Of Michigan | Deep learning framework for generic object detection |
WO2018058419A1 (zh) * | 2016-09-29 | 2018-04-05 | 中国科学院自动化研究所 | 二维图像人体关节点定位模型的构建方法及定位方法 |
CN107609541A (zh) * | 2017-10-17 | 2018-01-19 | 哈尔滨理工大学 | 一种基于可变形卷积神经网络的人体姿态估计方法 |
CN108052896A (zh) * | 2017-12-12 | 2018-05-18 | 广东省智能制造研究所 | 基于卷积神经网络与支持向量机的人体行为识别方法 |
CN108960056A (zh) * | 2018-05-30 | 2018-12-07 | 西南交通大学 | 一种基于姿态分析和支持向量数据描述的跌倒检测方法 |
CN109165552A (zh) * | 2018-07-14 | 2019-01-08 | 深圳神目信息技术有限公司 | 一种基于人体关键点的姿态识别方法、系统及存储器 |
CN109255296A (zh) * | 2018-08-06 | 2019-01-22 | 广东工业大学 | 一种基于深度卷积神经网络的日常人体行为识别方法 |
CN109344790A (zh) * | 2018-10-16 | 2019-02-15 | 浩云科技股份有限公司 | 一种基于姿态分析的人体行为分析方法及系统 |
CN109325469A (zh) * | 2018-10-23 | 2019-02-12 | 北京工商大学 | 一种基于深度神经网络的人体姿态识别方法 |
CN109858342A (zh) * | 2018-12-24 | 2019-06-07 | 中山大学 | 一种融合手工设计描述子和深度特征的人脸姿态估计方法 |
CN109753922A (zh) * | 2018-12-29 | 2019-05-14 | 北京建筑大学 | 基于稠密卷积神经网络的仿人机器人表情识别方法 |
CN109558865A (zh) * | 2019-01-22 | 2019-04-02 | 郭道宁 | 一种基于人体关键点的对需特别看护人员的异常状态检测方法 |
CN109934111A (zh) * | 2019-02-12 | 2019-06-25 | 清华大学深圳研究生院 | 一种基于关键点的健身姿态估计方法及系统 |
Non-Patent Citations (3)
Title |
---|
Application of structured support vector machine backpropagation to a convolutional neural network for human pose estimation;Peerajak Witoonchart et al.;《Neural Networks》;20170216;第92卷;第39-46页 * |
基于SVM的猪只行为分类;俞守华 等;《广东农业科学》;20160331(第3期);第152-156页 * |
基于傅里叶与局部特征结合的人体姿态识别方法研究;崔广才等;《长春理工大学学报(自然科学版)》;20160215(第01期);第82-87页 * |
Also Published As
Publication number | Publication date |
---|---|
CN110457999A (zh) | 2019-11-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110457999B (zh) | 一种基于深度学习和svm的动物姿态行为估计与心情识别方法 | |
Xu et al. | Automated cattle counting using Mask R-CNN in quadcopter vision system | |
Oliveira et al. | Deep learning for human part discovery in images | |
Ahmed et al. | Region and decision tree-based segmentations for Multi-objects detection and classification in Outdoor Scenes | |
CN105938564B (zh) | 基于主成分分析和神经网络的水稻病害识别方法及系统 | |
CN108062574B (zh) | 一种基于特定类别空间约束的弱监督目标检测方法 | |
CN108520226B (zh) | 一种基于躯体分解和显著性检测的行人重识别方法 | |
JP2016062610A (ja) | 特徴モデル生成方法及び特徴モデル生成装置 | |
CN105022982A (zh) | 手部运动识别方法和装置 | |
CN102509085A (zh) | 基于轮廓不变矩特征的猪行走姿态识别系统和方法 | |
CN108446583A (zh) | 基于姿态估计的人体行为识别方法 | |
Guo et al. | Object tracking using learned feature manifolds | |
Noe et al. | Automatic detection and tracking of mounting behavior in cattle using a deep learning-based instance segmentation model | |
Liu et al. | A real time expert system for anomaly detection of aerators based on computer vision and surveillance cameras | |
CN115527269A (zh) | 一种人体姿态图像智能识别方法及系统 | |
Lin et al. | Bird posture recognition based on target keypoints estimation in dual-task convolutional neural networks | |
Batool et al. | Telemonitoring of daily activities based on multi-sensors data fusion | |
Hassan et al. | Vision based entomology: a survey | |
CN108830222A (zh) | 一种基于信息性和代表性主动学习的微表情识别方法 | |
Gan et al. | Spatiotemporal graph convolutional network for automated detection and analysis of social behaviours among pre-weaning piglets | |
Drory et al. | A learning-based markerless approach for full-body kinematics estimation in-natura from a single image | |
Bai et al. | An incremental structured part model for object recognition | |
Choudhuri et al. | Object localization on natural scenes: A survey | |
Elguebaly et al. | Model-based approach for high-dimensional non-Gaussian visual data clustering and feature weighting | |
Gao et al. | Adaptive cow movement detection using evolving spiking neural network models |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |