CN110781847A - 一种基于神经网络动作行为识别的方法 - Google Patents

一种基于神经网络动作行为识别的方法 Download PDF

Info

Publication number
CN110781847A
CN110781847A CN201911047449.2A CN201911047449A CN110781847A CN 110781847 A CN110781847 A CN 110781847A CN 201911047449 A CN201911047449 A CN 201911047449A CN 110781847 A CN110781847 A CN 110781847A
Authority
CN
China
Prior art keywords
action
video frames
neural network
recognition
cluster
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201911047449.2A
Other languages
English (en)
Inventor
戴道伟
李正倩
陈兴来
曲骏
王毅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Liaoning Dinghan Qihui Electronic System Engineering Co Ltd
Original Assignee
Liaoning Dinghan Qihui Electronic System Engineering Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Liaoning Dinghan Qihui Electronic System Engineering Co Ltd filed Critical Liaoning Dinghan Qihui Electronic System Engineering Co Ltd
Priority to CN201911047449.2A priority Critical patent/CN110781847A/zh
Publication of CN110781847A publication Critical patent/CN110781847A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • G06V20/42Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content

Abstract

本发明公开了一种基于神经网络动作行为识别的方法,具体步骤:采集不同背景下工作人员的动作行为图像信息,将采集到的图像定义为学习样本,对每个学习样本进行标注;对标注的学习样本进行训练获得识别神经网络模型;利用像机捕捉动作行为视频,剔除不在识别范围内的视频帧、剔除动作行为视频中过度模糊、存在歧义、没有做动作行为的视频帧;采用识别神经网络模型进行动作识别,以所述识别神经网络模型为基础,利用图像目标检测方法获取图像中动作行为所分布的区域;根据不同类型的动作行为图像对应的识别精度阈值进行视频帧过滤,获取不同类型动作的精度值最高的视频帧。

Description

一种基于神经网络动作行为识别的方法
技术领域
本发明涉及图像处理技术领域,尤其涉及一种基于神经网络动作行为识别的方法。
背景技术
随着我国铁路发展,铁路运输安全越来越被重视,铁路运输安全问题是现代交通永恒不变的主题。机车乘务员在机车运行中起着核心作用,他直接决定了列车能否正常运行、事故发生等情况,因此对机车乘务员的安全管理成为了重中之重。在实际使用的环境当中,只能通过视频来监视机车乘务员的值乘标准化动作行为,但由于视频所需流量比较大,只能通过专人紧盯或者回放视频来查看被监视乘务员的动作行为,这种方法费时费力,效果很不理想,如何能通过一种自动识别动作行为的方法,把识别后的信息发送给管理者,可以不用派专人或通过视频回放来查看结果,就成为急需解决的问题。
发明内容
根据现有技术存在的问题,本发明公开了一种基于神经网络动作行为识别的方法,具体步骤如下:
采集不同背景下工作人员的动作行为的图像信息,将采集到的图像定义为学习样本,对每个学习样本进行标注;其中工作人员的动作至少包括举拳、剑指、固定位置站立和误判动作;
对标注的学习样本进行训练获得识别神经网络模型;
捕捉工作人员的动作行为视频,剔除不在识别范围内的视频帧,剔除动作行为视频中过度模糊、存在歧义、没有做动作行为的视频帧;
采用识别神经网络模型进行动作识别:以所述识别神经网络模型为基础,利用图像目标检测方法获取图像中动作行为所分布的区域;
设置不同类型的动作行为图像对应的识别精度阈值,根据该阈值对视频帧进行过滤,获取不同类型动作的精度值最高的视频帧。
作为优选的方式:利用图像目标检测方法获取图像中动作行为所分布的区域时采用如下方式:
SP1:利用多尺度特征进行对象检测,在未被标记的数据点中随机选择一个点作为起始中心点x;
SP2:找出以x为中心、将半径为h的区域中出现的所有数据点定义为集合M,设定集合M同属于一个聚类C,同时在该聚类C中记录数据点出现的次数;
SP3:以x为中心点,计算从x开始到集合M中每个元素的向量,将这些向量相加得到新向量,其中新向量计算方式为:
Figure BDA0002254476950000021
以x为圆心,h为半径做一个高维球,Mh(x)是从x指向质心的向量,n为点的数量,w(xi)≥0是每一个样本的权重,H是一个正定的对称矩阵,G(x)是一个单位的核函数;
SP4:重复步骤SP2、SP3直到向量的值很小为止;
SP5:如果收敛时当前簇C的x与其它已经存在的簇C2中心的距离小于设定阈值,则将簇C2和前簇C合并,数据点出现次数也对应合并,否则把簇C作为新的聚类;
SP6:重复SP5直到所有的点都已经访问,根据每个类对每个点的访问频率,取访问频率最高的那个类作为当前点集的所属类,每个类即为当前动作行为所存在的区域。
进一步的,所述不同类型的动作行为图像对应的识别精度阈值至少包括
剑指识别精度阈值、齐眉举拳识别精度阈值、固定位置站立识别精度阈值,当对视频帧进行过滤时:剔除小于剑指识别精度阈值的视频帧、剔除小于齐眉举拳识别精度阈值的视频帧、剔除小于固定位置站立识别精度阈值的视频帧以及剔除非识别动作行为的视频帧。
由于采用了上述技术方案,本发明提供的一种基于神经网络动作行为识别的方法,首先采集铁路上工作人员的图像视频信息、剔除不符合要求的视频帧图像、然后再获取图像视频信息中的动作行为所分布的区域,再筛选出精度值最高的视频帧,根据视频帧中动作判断铁路上工作人员的指挥动作是否符合要求,从而明显降低运算时间,且能够综合利用视频图像,显著提高视频动作识别精度。因此本发明中的方法完全可以做到实时跟踪工作人员的指挥动作并进行判断,具有跟踪定位准确、应用性强、节省时间且流程简便的优点,同时较大程度排除了动作行为的非异常动作来提高运算速度,进而提升最终的动作识别准确率。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明方法的流程图。
具体实施方式
为使本发明的技术方案和优点更加清楚,下面结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚完整的描述:
如图1所示的一种基于神经网络动作行为识别的方法,具体包括如下步骤:
S1:采集不同背景下工作人员的动作行为图像信息,将采集到的图像定义为学习样本,对每个学习样本进行标注;其中工作人员的动作至少包括举拳、剑指、固定位置站立和误判动作。
S2:对标注的学习样本进行训练获得识别神经网络模型;
S3:利用像机捕捉动作行为视频,剔除不在识别范围内的视频帧、剔除动作行为视频中过度模糊、存在歧义、没有做动作行为的视频帧;
S4:采用识别神经网络模型进行动作识别,以所述识别神经网络模型为基础,利用图像目标检测方法获取图像中动作行为所分布的区域,具体采用如下方式:
S41:利用多尺度特征进行对象检测,在未被标记的数据点中随机选择一个点作为起始中心点x;
S42:找出以x为中心半径为h的区域中出现的所有数据点,认为这些点同属于一个聚类C。同时在该聚类中记录数据点出现的次数加1。
S43:以x为中心点,计算从x开始到集合M中每个元素的向量,将这些向量相加,得到向量。向量计算公式如下:
Figure BDA0002254476950000031
以x为圆心,h为半径做一个高维球,Mh(x)是从x指向质心的向量,n为点的数量。w(xi)≥0是每一个样本的权重,H是一个正定的对称矩阵,G(x)是一个单位的核函数。
S44:重复步骤S42、S43,直到向量的值很小为止;
S45:如果收敛时当前簇C的x与其它已经存在的簇C2中心的距离小于阈值,那么把C2和C合并,数据点出现次数也对应合并。否则把C作为新的聚类。
S46:重复上述步骤,直到所有的点都已经访问,根据每个类,对每个点的访问频率,取访问频率最大的那个类,作为当前点集的所属类,每个类即为当前动作行为所存在的区域。
S5:根据不同类型的动作行为图像对应的识别精度阈值进行视频帧过滤,获取不同类型动作的精度值最高的视频帧。其中具体过程为根据动作行为分类分别从S4中获取的区域类中找到识别精度值最大的视频帧,再把所有的区域获取的视频帧形成图片,形成的图片即为识别的动作行为图片。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,根据本发明的技术方案及其发明构思加以等同替换或改变,都应涵盖在本发明的保护范围之内。

Claims (3)

1.一种基于神经网络动作行为识别的方法,其特征在于包括:
采集不同背景下工作人员的动作行为的图像信息,将采集到的图像定义为学习样本,对每个学习样本进行标注;其中工作人员的动作至少包括举拳、剑指、固定位置站立和误判动作;
对标注的学习样本进行训练获得识别神经网络模型;
捕捉工作人员的动作行为视频,剔除不在识别范围内的视频帧,剔除动作行为视频中过度模糊、存在歧义、没有做动作行为的视频帧;
采用识别神经网络模型进行动作识别:以所述识别神经网络模型为基础,利用图像目标检测方法获取图像中动作行为所分布的区域;
设置不同类型的动作行为图像对应的识别精度阈值,根据该阈值对视频帧进行过滤,获取不同类型动作的精度值最高的视频帧。
2.根据权利要求1所述的方法,其特征还在于:利用图像目标检测方法获取图像中动作行为所分布的区域时采用如下方式:
SP1:利用多尺度特征进行对象检测,在未被标记的数据点中随机选择一个点作为起始中心点x;
SP2:找出以x为中心、将半径为h的区域中出现的所有数据点定义为集合M,设定集合M同属于一个聚类C,同时在该聚类C中记录数据点出现的次数;
SP3:以x为中心点,计算从x开始到集合M中每个元素的向量,将这些向量相加得到新向量,其中新向量计算方式为:
Figure FDA0002254476940000011
以x为圆心,h为半径做一个高维球,Mh(x)是从x指向质心的向量,n为点的数量,w(xi)≥0是每一个样本的权重,H是一个正定的对称矩阵,G(x)是一个单位的核函数;
SP4:重复步骤SP2、SP3直到向量的值很小为止;
SP5:如果收敛时当前簇C的x与其它已经存在的簇C2中心的距离小于设定阈值,则将簇C2和前簇C合并,数据点出现次数也对应合并,否则把簇C作为新的聚类;
SP6:重复SP5直到所有的点都已经访问,根据每个类对每个点的访问频率,取访问频率最高的那个类作为当前点集的所属类,每个类即为当前动作行为所存在的区域。
3.根据权利要求1所述的方法,其特征还在于:所述不同类型的动作行为图像对应的识别精度阈值至少包括
剑指识别精度阈值、齐眉举拳识别精度阈值、固定位置站立识别精度阈值,当对视频帧进行过滤时:剔除小于剑指识别精度阈值的视频帧、剔除小于齐眉举拳识别精度阈值的视频帧、剔除小于固定位置站立识别精度阈值的视频帧以及剔除非识别动作行为的视频帧。
CN201911047449.2A 2019-10-30 2019-10-30 一种基于神经网络动作行为识别的方法 Pending CN110781847A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911047449.2A CN110781847A (zh) 2019-10-30 2019-10-30 一种基于神经网络动作行为识别的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911047449.2A CN110781847A (zh) 2019-10-30 2019-10-30 一种基于神经网络动作行为识别的方法

Publications (1)

Publication Number Publication Date
CN110781847A true CN110781847A (zh) 2020-02-11

Family

ID=69387847

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911047449.2A Pending CN110781847A (zh) 2019-10-30 2019-10-30 一种基于神经网络动作行为识别的方法

Country Status (1)

Country Link
CN (1) CN110781847A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113065893A (zh) * 2021-03-24 2021-07-02 支付宝(杭州)信息技术有限公司 客户信息识别方法、装置、设备及存储介质
CN115379300A (zh) * 2022-07-27 2022-11-22 国能龙源环保有限公司 基于ai识别算法规范安装炸药包的辅助方法及辅助装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040002928A1 (en) * 2002-06-27 2004-01-01 Industrial Technology Research Institute Pattern recognition method for reducing classification errors
CN105160313A (zh) * 2014-09-15 2015-12-16 中国科学院重庆绿色智能技术研究院 视频监控中人群行为分析的方法及装置
CN106941602A (zh) * 2017-03-07 2017-07-11 中国铁道科学研究院 机车司机行为识别方法、装置及系统
CN108241849A (zh) * 2017-08-28 2018-07-03 北方工业大学 基于视频的人体交互动作识别方法
CN109977971A (zh) * 2019-03-29 2019-07-05 苏州大学 基于均值偏移与核相关滤波的尺度自适应目标跟踪系统
CN110135383A (zh) * 2019-05-22 2019-08-16 辽宁鼎汉奇辉电子系统工程有限公司 铁路货车装载视频智能监视系统

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040002928A1 (en) * 2002-06-27 2004-01-01 Industrial Technology Research Institute Pattern recognition method for reducing classification errors
CN105160313A (zh) * 2014-09-15 2015-12-16 中国科学院重庆绿色智能技术研究院 视频监控中人群行为分析的方法及装置
CN106941602A (zh) * 2017-03-07 2017-07-11 中国铁道科学研究院 机车司机行为识别方法、装置及系统
CN108241849A (zh) * 2017-08-28 2018-07-03 北方工业大学 基于视频的人体交互动作识别方法
CN109977971A (zh) * 2019-03-29 2019-07-05 苏州大学 基于均值偏移与核相关滤波的尺度自适应目标跟踪系统
CN110135383A (zh) * 2019-05-22 2019-08-16 辽宁鼎汉奇辉电子系统工程有限公司 铁路货车装载视频智能监视系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
周华争: "联合判别与生成模型的目标跟踪算法研究" *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113065893A (zh) * 2021-03-24 2021-07-02 支付宝(杭州)信息技术有限公司 客户信息识别方法、装置、设备及存储介质
CN115379300A (zh) * 2022-07-27 2022-11-22 国能龙源环保有限公司 基于ai识别算法规范安装炸药包的辅助方法及辅助装置

Similar Documents

Publication Publication Date Title
US11182592B2 (en) Target object recognition method and apparatus, storage medium, and electronic device
CN109117827B (zh) 基于视频的工服工帽穿戴状态自动识别方法与报警系统
WO2019179024A1 (zh) 机场跑道智能监控方法、应用服务器及计算机存储介质
KR101557376B1 (ko) 사람 계수 방법 및 그를 위한 장치
CN106384345B (zh) 一种基于rcnn的图像检测以及流量统计方法
JP2004054960A (ja) 映像視覚情報を結合してリアルタイムで複数の顔を検出して追跡する顔検出・追跡システム及びその方法
CN110728252B (zh) 一种应用于区域人员运动轨迹监控的人脸检测方法
KR101508310B1 (ko) 영상 감시 시스템에서 다중 이동 물체를 추적하는 방법 및 장치
KR20170006355A (ko) 모션벡터 및 특징벡터 기반 위조 얼굴 검출 방법 및 장치
CN110490171B (zh) 一种危险姿态识别方法、装置、计算机设备及存储介质
KR101449744B1 (ko) 영역 기반 특징을 이용한 얼굴 검출 장치 및 방법
JP2019220129A (ja) 交通標識を認識するためのシステムおよび方法
US10423817B2 (en) Latent fingerprint ridge flow map improvement
WO2022199360A1 (zh) 运动物体的定位方法、装置、电子设备及存储介质
CN110458093B (zh) 一种基于驾驶员监控系统的安全带检测方法以及相应的设备
CN112200131A (zh) 一种基于视觉的车辆碰撞检测方法、智能终端及存储介质
CN110781847A (zh) 一种基于神经网络动作行为识别的方法
CN111079621A (zh) 检测对象的方法、装置、电子设备和存储介质
TW202201275A (zh) 手部作業動作評分裝置、方法及電腦可讀取存儲介質
CN113780145A (zh) 精子形态检测方法、装置、计算机设备和存储介质
CN112183532A (zh) 基于弱监督协同学习算法的安全帽识别方法及存储介质
CN111382705A (zh) 逆行行为检测方法、装置、电子设备及可读存储介质
CN114627339B (zh) 茂密丛林区域对越境人员的智能识别跟踪方法及存储介质
CN115953744A (zh) 一种基于深度学习的车辆识别追踪方法
CN114494355A (zh) 基于人工智能的轨迹分析方法、装置、终端设备及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20200211