CN114494976A - 人体摔倒行为评估方法、装置、计算机设备及存储介质 - Google Patents
人体摔倒行为评估方法、装置、计算机设备及存储介质 Download PDFInfo
- Publication number
- CN114494976A CN114494976A CN202210144749.8A CN202210144749A CN114494976A CN 114494976 A CN114494976 A CN 114494976A CN 202210144749 A CN202210144749 A CN 202210144749A CN 114494976 A CN114494976 A CN 114494976A
- Authority
- CN
- China
- Prior art keywords
- feature
- behavior
- characteristic
- falling
- features
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000011156 evaluation Methods 0.000 title claims abstract description 35
- 230000009471 action Effects 0.000 claims abstract description 71
- 238000000034 method Methods 0.000 claims abstract description 40
- 238000013145 classification model Methods 0.000 claims abstract description 25
- 230000006399 behavior Effects 0.000 claims description 158
- 239000013598 vector Substances 0.000 claims description 61
- 238000013507 mapping Methods 0.000 claims description 9
- 238000004364 calculation method Methods 0.000 claims description 8
- 238000004458 analytical method Methods 0.000 abstract description 18
- 238000013473 artificial intelligence Methods 0.000 abstract description 12
- 238000001514 detection method Methods 0.000 description 20
- 239000012634 fragment Substances 0.000 description 12
- 238000005516 engineering process Methods 0.000 description 9
- 238000012545 processing Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 238000012549 training Methods 0.000 description 7
- 230000008859 change Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 6
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 5
- 238000012544 monitoring process Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000013527 convolutional neural network Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 230000029087 digestion Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000002045 lasting effect Effects 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 206010011469 Crying Diseases 0.000 description 1
- 208000009144 Pure autonomic failure Diseases 0.000 description 1
- 208000027418 Wounds and injury Diseases 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000032683 aging Effects 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000006378 damage Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000012854 evaluation process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 208000014674 injury Diseases 0.000 description 1
- 210000000629 knee joint Anatomy 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000000474 nursing effect Effects 0.000 description 1
- 239000013312 porous aromatic framework Substances 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 210000000323 shoulder joint Anatomy 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本申请公开了一种人体摔倒行为评估方法、装置、计算机设备及存储介质,属于人工智能技术领域。本申请通过行为分类模型对待识别视频进行人体行为识别,以确定是否存在摔倒动作,当存在摔倒动作时,截取摔倒动作发生前后的视频片段,对视频片段进行特征识别,得到视频片段中摔倒对象的身份特征、微表情特征、行为特征和声音特征,分别各个特征权重,基于并基于各个特征权重对特征进行组合,将特征权重组合输入到摔倒程度预测模型,得到摔倒程度评估结果。此外,本申请还涉及区块链技术,待识别视频可存储于区块链中。本申请能够根据摔倒对象的身份特征、微表情特征、行为特征和声音特征完成摔倒严重程度分析,减小误判几率,提高分析效率和准确性。
Description
技术领域
本申请属于人工智能技术领域,具体涉及一种一种人体摔倒行为评估方法、装置、计算机设备及存储介质。
背景技术
随着社会老龄化的加剧,以及越来越多的年轻人外出打工,独居老人的比例越来越高。随着年龄的增长,老年人的身体机能不断下降,摔倒已成为老年人受到伤害和死亡的最大诱因。如果老人在摔倒后能够得到及时医疗救助,可有效降低意外伤亡风险。因此,消费者对于摔倒行为检测设备的需求也在迅速增加。
目前,已经存在的摔倒行为检测方案主要包含两大类,一类是通过穿戴可穿戴设备,通过可穿戴设备对人体的姿态进行监测,从而判断佩戴者是否出现摔倒动作,但是,这种方式需要佩戴者长期佩带可穿戴设备,舒适感较差,且不方便用户的日常活动。另一类是通过即时监控设备进行实时监控的摔倒行为检测,通过对监控画面进行分析以确定是否存在摔倒行为,但是,目前的实时监控识别方法中会将监控画面中所有卧倒动作都识别为摔倒行为,如在床上躺下等,也即容易出现误判、准确性较低。
发明内容
本申请实施例的目的在于提出一种人体摔倒行为评估方法、装置、计算机设备及存储介质,以解决现有人体摔倒行为评估方案存在的将监控画面中所有卧倒动作都识别为摔倒行为,导致误判率较高,准确性较低技术问题。
为了解决上述技术问题,本申请实施例提供一种人体摔倒行为评估方法,采用了如下所述的技术方案:
一种人体摔倒行为评估方法,包括:
按照预设时长间隔实时采集待识别视频;
通过预先训练的行为分类模型对所述待识别视频进行人体行为识别,以确定所述待识别视频中是否存在摔倒动作;
若所述待识别视频中存在摔倒动作,则从所述待识别视频中截取所述摔倒动作发生前后预定时间间隔内的目标视频片段;
对所述目标视频片段进行特征识别,得到所述目标视频片段中摔倒对象的特征集合,其中所述特征集合包括身份特征、微表情特征、行为特征和声音特征;
基于预设的特征权重算法分别计算所述身份特征、所述微表情特征、所述行为特征和所述声音特征的特征权重;
基于所述特征权重对所述身份特征、所述微表情特征、所述行为特征和所述声音特征的特征权重进行组合,得到特征权重组合;
将所述特征权重组合输入到预先训练的摔倒程度预测模型,得到所述摔倒对象的摔倒程度评估结果。
进一步地,所述通过预先训练的行为分类模型对所述待识别视频进行人体行为识别,以确定所述待识别视频中是否存在摔倒动作的步骤,具体包括:
对所述待识别视频进行关键帧提取,得到所述待识别视频中的关键帧图像;
对所述关键帧图像中待检测对象进行关节点检测,得到所述待检测对象的关节点;
对检测到的所述关节点进行连线,得到所述待检测对象的关节点图像;
通过所述关节点图像判断所述待检测对象是否存在摔倒动作。
进一步地,所述对检测到的所述关节点进行连线,得到所述待检测对象的关节点图像的步骤,具体包括:
依次计算所述关节点之间的亲和力值,并判断所述亲和力值是否大于或等于预设阈值;
当所述亲和力值大于或等于预设阈值时,对所述关节点进行匹配连接;
当所有所述关节点均完成匹配连接后,得到所述待检测对象的关节点图像。
进一步地,所述对所述目标视频片段进行特征识别,得到所述目标视频片段中摔倒对象的特征集合的步骤,具体包括:
对所述目标视频片段内的摔倒对象进行身份特征识别,得到所述摔倒对象的身份特征;
对所述目标视频片段内的摔倒对象进行微表情特征识别,得到所述摔倒对象的微表情特征;
对所述目标视频片段内的摔倒对象进行行为特征识别,得到所述摔倒对象的行为特征;
对所述目标视频片段内的摔倒对象进行声音特征识别,得到所述摔倒对象的声音特征;
组合所述身份特征、所述微表情特征、所述行为特征和所述声音特征,得到所述摔倒对象的特征集合。
进一步地,基于预设的特征权重算法分别计算所述身份特征、所述微表情特征、所述行为特征和所述声音特征的特征权重的步骤,具体包括:
为所有所述子特征赋予相同的初始权重;
计算同一类别的子特征的特征相似度,得到第一相似度,以及计算不同类别的子特征的特征相似度,得到第二相似度;
基于所述第一相似度和所述第二相似度调整所述子特征的初始权重;
当所有所述子特征的初始权重均完成调整后,组合所述身份特征的子特征的权重值得到所述身份特征的特征权重,组合所述微表情特征的子特征的权重值得到所述微表情特征的特征权重,组合所述行为特征的子特征的权重值得到所述行为特征的特征权重,以及组合所述声音特征的子特征的权重值得到所述声音特征的特征权重。
进一步地,所述基于所述第一相似度和所述第二相似度调整所述子特征的初始权重的步骤,具体包括:
比对所述第一相似度和所述第二相似度;
当所述第一相似度大于或等于所述第二相似度时,按照预设的调整幅度上调所述子特征的初始权重;
当所述第一相似度小于所述第二相似度时,按照预设的调整幅度下调所述子特征的初始权重。
进一步地,所述摔倒程度预测模型包括编码层和解码层,所述将所述特征权重组合输入到预先训练的摔倒程度预测模型,得到所述摔倒对象的摔倒程度评估结果的步骤,具体包括:
对所述特征组合进行特征向量转化,得到特征向量组合;
将所述特征向量组合导入所述编码层,对所述特征向量组合中的各个特征向量依次进行编码,得到编码向量组合;
对所述编码向量组合进行空间映射,并根据所述权重组合对空间映射后的所述编码向量进行特征重构,得到重构特征向量;
将所述重构特征向量导入所述解码层,对所述重构特征向量进行解码,得到所述摔倒对象的摔倒程度评估结果。
为了解决上述技术问题,本申请实施例还提供一种人体摔倒行为评估装置,采用了如下所述的技术方案:
一种人体摔倒行为评估装置,包括:
第一视频获取模块,用于按照预设时长间隔实时采集待识别视频;
摔倒动作识别模块,用于通过预先训练的行为分类模型对所述待识别视频进行人体行为识别,以确定所述待识别视频中是否存在摔倒动作;
第二视频获取模块,用于当所述待识别视频中存在摔倒动作时,从所述待识别视频中截取所述摔倒动作发生前后预定时间间隔内的目标视频片段;
特征识别模块,用于对所述目标视频片段进行特征识别,得到所述目标视频片段中摔倒对象的特征集合,其中所述特征集合包括身份特征、微表情特征、行为特征和声音特征;
权重计算模块,用于基于预设的特征权重算法分别计算所述身份特征、所述微表情特征、所述行为特征和所述声音特征的特征权重;
权重组合模块,用于基于所述特征权重对所述身份特征、所述微表情特征、所述行为特征和所述声音特征的特征权重进行组合,得到特征权重组合;
摔倒程度预测模块,用于将所述特征权重组合输入到预先训练的摔倒程度预测模型,得到所述摔倒对象的摔倒程度评估结果。
为了解决上述技术问题,本申请实施例还提供一种计算机设备,采用了如下所述的技术方案:
一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机可读指令,所述处理器执行所述计算机可读指令时实现如上述任一项所述的人体摔倒行为评估方法的步骤。
为了解决上述技术问题,本申请实施例还提供一种计算机可读存储介质,采用了如下所述的技术方案:
一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机可读指令,所述计算机可读指令被处理器执行时实现如上述中任一项所述的人体摔倒行为评估方法的步骤。
与现有技术相比,本申请实施例主要有以下有益效果:
本申请公开了一种人体摔倒行为评估方法、装置、计算机设备及存储介质,属于人工智能技术领域。本申请通过预先训练的行为分类模型模型快速识别待识别视频中是否包含摔倒动作,以提高摔倒动作的检测效率和检测准确率;再从待识别视频中截取摔倒动作发生前后预定时间间隔内的目标视频片段,对目标视频片段进行特征识别,获取摔倒对象的身份特征,以及摔倒对象在摔倒前后的微表情特征、行为特征和声音特征,并通过特征权重算法分别计算摔倒对象的身份特征、微表情特征、行为特征和声音特征的权重,根据计算得到的权重组合身份特征、微表情特征、行为特征和声音特征,得到特征权重组合,将特征权重组合输入到预先训练的摔倒程度预测模型,以完成摔倒严重程度分析,减小误判几率,提高分析效率和准确性。
附图说明
为了更清楚地说明本申请中的方案,下面将对本申请实施例描述中所需要使用的附图作一个简单介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出了本申请可以应用于其中的示例性系统架构图;
图2示出了根据本申请的人体摔倒行为评估方法的一个实施例的流程图;
图3示出了根据本申请的人体摔倒行为评估装置的一个实施例的结构示意图;
图4示出了根据本申请的计算机设备的一个实施例的结构示意图。
具体实施方式
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同;本文中在申请的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本申请;本申请的说明书和权利要求书及上述附图说明中的术语“包括”和“具有”以及它们的任何变形,意图在于覆盖不排他的包含。本申请的说明书和权利要求书或上述附图中的术语“第一”、“第二”等是用于区别不同对象,而不是用于描述特定顺序。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
为了使本技术领域的人员更好地理解本申请方案,下面将结合附图,对本申请实施例中的技术方案进行清楚、完整地描述。
如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如网页浏览器应用、购物类应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等。
终端设备101、102、103可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、MP3播放器(Moving PictureExpertsGroup Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(MovingPictureExperts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、膝上型便携计算机和台式计算机等等。
服务器105可以是提供各种服务的服务器,例如对终端设备101、102、103上显示的页面提供支持的后台服务器,服务器可以是独立的服务器,也可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、内容分发网络(Content Delivery Network,CDN)、以及大数据和人工智能平台等基础云计算服务的云服务器。
需要说明的是,本申请实施例所提供的人体摔倒行为评估方法一般由服务器执行,相应地,人体摔倒行为评估装置一般设置于服务器中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
继续参考图2,示出了根据本申请的人体摔倒行为评估方法的一个实施例的流程图。本申请实施例可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、机器人技术、生物识别技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。所述的人体摔倒行为评估方法,包括以下步骤:
S201,按照预设时长间隔实时采集待识别视频。
其中,本申请的人体摔倒行为评估方法应用在人体摔倒行为评估系统中,该人体摔倒行为评估系统包括客户端和服务器,客户端与服务器通过网络进行通信,用于实现快速从待识别视频中检测识别出摔倒动作并分析其摔倒严重程度,服务器可以基于摔倒严重程度进行针对性提示,并通过客户端输出提示信息。
具体的,当服务器接收到人体摔倒行为评估指令后,视频采集设备按照预设时长间隔实时采集待识别视频,并即时将待识别视频上传至服务器,供服务器进行摔倒检测。其中,视频采集设备是用于采集视频的设备,可以设置在养老院、医院、学校或者其他公共场所,也可以由监护人设置在独居老人家中。预设的时长间隔可设置为10s、30s、60s等等,通过视频分段处理,可以有效减少摔倒检测的数据处理量,降低运算资源的消化,减少服务器的压力。
在本实施例中,人体摔倒行为评估方法运行于其上的电子设备(例如图1所示的服务器)可以通过有线连接方式或者无线连接方式接收到人体摔倒行为评估指令。需要指出的是,上述无线连接方式可以包括但不限于3G/4G连接、WiFi连接、蓝牙连接、WiMAX连接、Zigbee连接、UWB(ultra wideband)连接、以及其他现在已知或将来开发的无线连接方式。
S202,通过预先训练的行为分类模型对所述待识别视频进行人体行为识别,以确定所述待识别视频中是否存在摔倒动作。
其中,行为分类模型是基于ResNet50卷积神经网络构建的一种分类模型,行为分类模型训练时,通过预先标注人体关节信息的样本图像进行模型训练,使得行为分类模型“学习”人体关节特征,可以快速检测到待识别视频中是否存在摔倒动作。需要说明的是,采用包含摔倒动作的正样本图像和不包含摔倒动作的负样本图像构建训练样本集,训练样本集按正样本图像和负样本图像比例为10:1,并采用反向传播算法进行进行模型训练,直到模型拟合。
Resnet50网络中包含了49个卷积层、一个全连接层。Resnet50网络结构可以分成七个部分,第一部分不包含残差块,主要对输入进行卷积、正则化、激活函数、最大池化的计算。第二、三、四、五部分结构都包含了残差块,不会改变残差块的尺寸,只用于改变残差块的维度。在Resnet50网络结构中,残差块都有三层卷积,那网络总共有1+3×(3+4+6+3)=49个卷积层,加上最后的全连接层总共是50层,这也是Resnet50名称的由来。Resnet50网络的输入为224×224×3,经过前五部分的卷积计算,输出为7×7×2048,池化层会将其转化成一个特征向量,最后分类器会对这个特征向量进行计算并输出类别概率。
具体的,基于ResNet50卷积神经网络预先训练的行为分类模型,通过训练好的行为分类模型可以对进行人体行为识别,以确定待识别视频中是否存在摔倒动作。
S203,若所述待识别视频中存在摔倒动作,则从所述待识别视频中截取所述摔倒动作发生前后预定时间间隔内的目标视频片段。
具体的,如果待识别视频中存在摔倒动作,则服务器会从待识别视频中截取摔倒动作发生前后预定时间间隔内的目标视频片段,通过对目标视频片段进行分析获得摔倒对象的摔倒程度。
可以理解地,人在摔倒之后,会因摔倒所带来的痛感不同,而使其脸部微表情表现出不同的微表情变化或者身体姿态表现出与其痛感相匹配的动作或发出与与其痛感相匹配的声音,因此,可通过对摔倒动作之后的视频进行分析,以便分析出摔倒人的摔倒严重程度。
S204,对所述目标视频片段进行特征识别,得到所述目标视频片段中摔倒对象的特征集合,其中所述特征集合包括身份特征、微表情特征、行为特征和声音特征。
其中,由于目标视频片段是从待识别视频中截取出来的用于分析摔倒严重程度的视频片段,服务器在对目标视频片段进行严重程度分析,可客观快速地分析出目标视频片段中摔倒人的摔倒严重程度。
在本申请中,对于摔倒严重程度分析主要考虑四个维度,包括身份信息、微表情变化、行为变化和声音变化。例如,若目标视频片段中的摔倒人是年青人,其摔倒之后的微表情识别结果显示其脸部微表情并没有呈现痛苦表情或者呈现痛苦表情的时间极短,行为识别结果显示其摔倒立马起身离开摔倒地点,声音识别结果显示未发出求助申请或未长时间哭泣或未长时间痛苦呻吟,可认定其摔倒严重程度较低。又例如,若目标视频片段中的摔倒人为老年人或婴儿,其摔倒之后微表情识别结果显示其脸部微表情呈现持续长时间的痛苦表情,行为识别结果显示有长时间抚摩摔倒碰撞点等动作或长时间停留在摔倒地点未移动,声音识别结果显示发出求助申请或长时间哭泣或长时间痛苦呻吟,可认定其摔倒严重程度较高。
具体的,服务器通过预设的特征识别模型对目标视频片段进行特征识别,得到目标视频片段中摔倒对象的特征集合,其中,特征识别模型包括身份特征识别模型、微表情特征识别模型、行为特征识别模型和声音特征识别模型,特征集合包括身份特征、微表情特征、行为特征和声音特征。
S205,基于预设的特征权重算法分别计算所述身份特征、所述微表情特征、所述行为特征和所述声音特征的特征权重。
其中,在实际摔倒严重程度分析场景中,身份信息、微表情变化、行为变化和声音变化这四个维度的特征对于摔倒严重程度的影响比重是不同的。因此,需要预设一种权重算法来计算身份信息、微表情变化、行为变化和声音变化这四个维度的特征对于摔倒严重程度的影响的权重。在本申请具体的实施例中,通过预设的特征权重Relief算法分别计算身份特征、微表情特征、行为特征和声音特征的特征权重。
其中,Relief算法从任意一个特征组合D中随机选择一个样本R,然后从D中寻找与样本R最近邻的样本H,样本H称为Near Hit,从其他特征组合中寻找与样本R最近邻样本M,样本M称为NearMiss,然后根据以下规则更新每个特征的权重:如果R和Near Hit在某个特征上的距离小于R和Near Miss上的距离,这里的距离即两个特征之间的相似度,则说明该特征对区分同类和不同类的最近邻是有益的,则增加该特征的权重;反之,如果R和NearHit在某个特征的距离大于R和Near Miss上的距离,说明该特征对区分同类和不同类的最近邻起负面作用,则降低该特征的权重。以上过程重复m次,最后得到各特征的平均权重,特征的权重越大,表示该特征的分类能力越强,反之,表示该特征分类能力越弱。Relief算法的运行时间随着样本的抽样次数m和原始特征个数N的增加线性增加,因而运行效率非常高。
S206,基于所述特征权重对所述身份特征、所述微表情特征、所述行为特征和所述声音特征的特征权重进行组合,得到特征权重组合。
具体的,服务器基于特征权重对身份特征、微表情特征、行为特征和声音特征的特征权重进行组合,得到特征权重组合。其中,特征权重组合包括两部分数据,即特征组合和权重组合,将特征权重组合输入到预先训练的摔倒程度预测模型,可以得到摔倒对象的摔倒程度评估结果。
S207,将所述特征权重组合输入到预先训练的摔倒程度预测模型,得到所述摔倒对象的摔倒程度评估结果。
其中,摔倒程度预测模型基于transformer模型训练得到,transformer模型主要结构包括编码层和解码层的“U”型结构,除此之外,在每一个编码层前面配置有对应的自注意力层,自注意力层用于提高关键特征的权重,在解码层后面配置有对应的全连接层,全连接层由softmax函数构成,用于实现结果的归一化。
具体的,服务器将特征权重组合输入到预先训练的摔倒程度预测模型,得到摔倒对象的摔倒程度评估结果,摔倒程度评估结果表征摔倒严重程度,例如,在一次摔倒行为评估过程中,一位高龄老人摔倒之后,其微表情识别结果显示其脸部微表情呈现持续长时间的痛苦表情,行为识别结果显示其长时间停留在摔倒地点未移动,声音识别结果显示其发出长时间痛苦呻吟,根据上述特征识别结果结合预先训练的摔倒程度预测模型,输出摔倒程度评估结果为摔倒严重程度较高,同时输出提示信息,以提示监护人。
其中,预先训练的摔倒程度预测模型可以根据输入的特征权重组合快速预测摔倒程度,以完成摔倒严重程度分析,减小误判几率,提高分析效率和准确性。
在上述实施例中,本申请通过预先训练的行为分类模型模型快速识别待识别视频中是否包含摔倒动作,以提高摔倒动作的检测效率和检测准确率;再从待识别视频中截取摔倒动作发生前后预定时间间隔内的目标视频片段,对目标视频片段进行特征识别,获取摔倒对象的身份特征,以及摔倒对象在摔倒前后的微表情特征、行为特征和声音特征,并通过特征权重算法分别计算摔倒对象的身份特征、微表情特征、行为特征和声音特征的权重,根据计算得到的权重组合身份特征、微表情特征、行为特征和声音特征,得到特征权重组合,将特征权重组合输入到预先训练的摔倒程度预测模型,以完成摔倒严重程度分析,减小误判几率,提高分析效率和准确性。
进一步地,所述通过预先训练的行为分类模型对所述待识别视频进行人体行为识别,以确定所述待识别视频中是否存在摔倒动作的步骤,具体包括:
对所述待识别视频进行关键帧提取,得到所述待识别视频中的关键帧图像;
对所述关键帧图像中待检测对象进行关节点检测,得到所述待检测对象的关节点;
对检测到的所述关节点进行连线,得到所述待检测对象的关节点图像;
通过所述关节点图像判断所述待检测对象是否存在摔倒动作。
具体的,服务器对待识别视频进行关键帧提取,得到待识别视频中的关键帧图像,在摔倒动作检测时,通过提取待识别视频中的关键帧,并对关键帧图像进行,减少摔倒检测的数据处理量,降低运算资源的消化,减少服务器的压力。其中,关节点指的是人体骨骼中的各个关节,如肩关节、膝关节等等。
服务器通过行为分类模型的卷积层内的卷积核对关键帧图像中待检测对象进行关节点检测,得到待检测对象的关节点,通过行为分类模型的全连接层对对检测到的关节点进行连线,得到待检测对象的关节点图像,通过关节点图像判断所述待检测对象是否存在摔倒动作。例如,当行为分类模型的输出结果为人体直立的关节点图像时,判断待检测对象未发生摔倒。
进一步地,所述对检测到的所述关节点进行连线,得到所述待检测对象的关节点图像的步骤,具体包括:
依次计算所述关节点之间的亲和力值,并判断所述亲和力值是否大于或等于预设阈值;
当所述亲和力值大于或等于预设阈值时,对所述关节点进行匹配连接;
当所有所述关节点均完成匹配连接后,得到所述待检测对象的关节点图像。
具体的,服务器通过依次计算关节点之间的亲和力值,其中,可以通过构建亲和力场PAFs来计算关节点之间的亲和力值,亲和力值用于表征两个关节点之间的关联关系,亲和力值越大,表示两个关节点之间关联度越大。然后服务器判断任意两个人体关节点亲和力场与预设阈值的大小,当这两个人体关节点亲和力场大于或等于预设阈值时,对这两个人体关节点进行匹配连接,当这两个人体关节点亲和力场小于预设阈值时,则不需要对这两个人体关节点进行连接,通过持续计算关键帧图像中任意两个人体关节点之间的亲和力值,并依次将计算得到的亲和力值与预设预设阈值进行比对,当所有人体关节点均已完成连接后,得到人体关节点图像。
在上述实施例中,通过对待识别视频中的关键帧图像进行关节点检测,得到人体关节点,然后通过体关节点亲和力场判别对人体关节点进行连线,得到待检测对象的关节点图像,通过待检测对象的关节点图像来判断待检测对象是否发生摔倒。
进一步地,所述对所述目标视频片段进行特征识别,得到所述目标视频片段中摔倒对象的特征集合的步骤,具体包括:
对所述目标视频片段内的摔倒对象进行身份特征识别,得到所述摔倒对象的身份特征;
对所述目标视频片段内的摔倒对象进行微表情特征识别,得到所述摔倒对象的微表情特征;
对所述目标视频片段内的摔倒对象进行行为特征识别,得到所述摔倒对象的行为特征;
对所述目标视频片段内的摔倒对象进行声音特征识别,得到所述摔倒对象的声音特征;
组合所述身份特征、所述微表情特征、所述行为特征和所述声音特征,得到所述摔倒对象的特征集合。
其中,身份特征识别模型、微表情特征识别模型、行为特征识别模型和声音特征识别模型均可基于ResNet50卷积神经网络构建,身份特征识别模型、微表情特征识别模型、行为特征识别模型和声音特征识别模型具有相同的初始识别模型结构,仅是使用的训练样本不同和对应的损失函数不同,通过使用不同的训练样本和不同的损失函数使得初始识别模型朝不同的方向迭代,获得不同功能的识别模型。
具体的,通过身份特征识别模型对目标视频片段内的摔倒对象进行身份特征识别,得到摔倒对象的身份特征;通过微表情特征识别模型对目标视频片段内的摔倒对象进行微表情特征识别,得到摔倒对象的微表情特征;通过行为特征识别模型对目标视频片段内的摔倒对象进行行为特征识别,得到摔倒对象的行为特征;声音特征识别模型通过对目标视频片段内的摔倒对象进行声音特征识别,得到摔倒对象的声音特征;通过组合身份特征、微表情特征、行为特征和声音特征,得到摔倒对象的特征集合。
在上述实施例中,通过ResNet50卷积神经网络分别训练能够识别身份特征、微表情特征、行为特征和声音特征的机器学习模型,将目标视频片段导入构建好的机器学习模型,得到摔倒对象的身份特征、微表情特征、行为特征和声音特征。
进一步地,基于预设的特征权重算法分别计算所述身份特征、所述微表情特征、所述行为特征和所述声音特征的特征权重的步骤,具体包括:
为所有所述子特征赋予相同的初始权重;
计算同一类别的子特征的特征相似度,得到第一相似度,以及计算不同类别的子特征的特征相似度,得到第二相似度;
基于所述第一相似度和所述第二相似度调整所述子特征的初始权重;
当所有所述子特征的初始权重均完成调整后,组合所述身份特征的子特征的权重值得到所述身份特征的特征权重,组合所述微表情特征的子特征的权重值得到所述微表情特征的特征权重,组合所述行为特征的子特征的权重值得到所述行为特征的特征权重,以及组合所述声音特征的子特征的权重值得到所述声音特征的特征权重。
具体的,身份特征、微表情特征、行为特征和声音特征均包含多个子特征,服务器为所有子特征赋予相同的初始权重,然后计算同一类别的子特征的特征相似度,得到第一相似度,以及计算不同类别的子特征的特征相似度,得到第二相似度,然后服务器基于第一相似度和第二相似度调整子特征的初始权重,当所有子特征的初始权重均完成调整后,依次整合身份特征、微表情特征、行为特征和声音特征的子特征的权重值,得到身份特征、微表情特征、行为特征和声音特征的特征权重。
进一步地,所述基于所述第一相似度和所述第二相似度调整所述子特征的初始权重的步骤,具体包括:
比对所述第一相似度和所述第二相似度;
当所述第一相似度大于或等于所述第二相似度时,按照预设的调整幅度上调所述子特征的初始权重;
当所述第一相似度小于所述第二相似度时,按照预设的调整幅度下调所述子特征的初始权重。
具体的,服务器通过比对第一相似度和所述第二相似度,当第一相似度大于或等于第二相似度时,按照预设的调整幅度上调子特征的初始权重,当第一相似度小于第二相似度时,按照预设的调整幅度下调子特征的初始权重。
例如,身份特征A包括4个子特征(A1、A2、A3、A4),行为特征C包括3个子特征(C1、C2、C3),为所有子特征赋予相同初始权重为0.5,分别计算子特征A1与子特征A2、A3、A4之间的的特征相似度,并取最大特征相似度,得到第一相似度L1。分别计算子特征A1与子特征C1、C2、C3之间的的特征相似度,并取最大特征相似度,得到第二相似度L2。比对第一相似度L1和所述第二相似度L2,当第一相似度L1大于或等于第二相似度L2时,上调子特征A1的初始权重,上调幅度为0.1。
在上述实施例中,本申请通过预设的特征权重算法分别计算摔倒对象的身份特征、微表情特征、行为特征和声音特征的特征权重。
进一步地,所述摔倒程度预测模型包括编码层和解码层,所述将所述特征权重组合输入到预先训练的摔倒程度预测模型,得到所述摔倒对象的摔倒程度评估结果的步骤,具体包括:
对所述特征组合进行特征向量转化,得到特征向量组合;
将所述特征向量组合导入所述编码层,对所述特征向量组合中的各个特征向量依次进行编码,得到编码向量组合;
对所述编码向量组合进行空间映射,并根据所述权重组合对空间映射后的所述编码向量进行特征重构,得到重构特征向量;
将所述重构特征向量导入所述解码层,对所述重构特征向量进行解码,得到所述摔倒对象的摔倒程度评估结果。
具体的,服务器先对特征权重组合中的特征组合逐个进行特征向量转化,得到特征向量组合,将特征向量组合导入编码层,根据特征向量的维度数不同,分别采用不同的编码器对特征向量组合中的各个特征向量依次进行编码,得到编码向量组合,依次将编码向量组合映射到同一维度空间,并根据权重组合对空间映射后的编码向量进行特征重构,得到重构特征向量,将重构特征向量导入解码层,对重构特征向量进行解码,通过softmax函数对解码结果进行归一化,得到摔倒对象的摔倒程度评估结果。
在本实施例中,本申请公开了一种人体摔倒行为评估方法,属于人工智能技术领域。本申请通过预先训练的行为分类模型模型快速识别待识别视频中是否包含摔倒动作,以提高摔倒动作的检测效率和检测准确率;再从待识别视频中截取摔倒动作发生前后预定时间间隔内的目标视频片段,对目标视频片段进行特征识别,获取摔倒对象的身份特征,以及摔倒对象在摔倒前后的微表情特征、行为特征和声音特征,并通过特征权重算法分别计算摔倒对象的身份特征、微表情特征、行为特征和声音特征的权重,根据计算得到的权重组合身份特征、微表情特征、行为特征和声音特征,得到特征权重组合,将特征权重组合输入到预先训练的摔倒程度预测模型,以完成摔倒严重程度分析,减小误判几率,提高分析效率和准确性。
需要强调的是,为进一步保证上述待识别视频的私密和安全性,上述待识别视频还可以存储于一区块链的节点中。
本申请所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机可读指令来指令相关的硬件来完成,该计算机可读指令可存储于一计算机可读取存储介质中,该计算机可读指令在执行时,可包括如上述各方法的实施例的流程。其中,前述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)等非易失性存储介质,或随机存储记忆体(Random Access Memory,RAM)等。
应该理解的是,虽然附图的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,其可以以其他的顺序执行。而且,附图的流程图中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,其执行顺序也不必然是依次进行,而是可以与其他步骤或者其他步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
进一步参考图3,作为对上述图2所示方法的实现,本申请提供了一种人体摔倒行为评估装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图3所示,本实施例所述的人体摔倒行为评估装置包括:
第一视频获取模块301,用于按照预设时长间隔实时采集待识别视频;
摔倒动作识别模块302,用于通过预先训练的行为分类模型对所述待识别视频进行人体行为识别,以确定所述待识别视频中是否存在摔倒动作;
第二视频获取模块303,用于当所述待识别视频中存在摔倒动作时,从所述待识别视频中截取所述摔倒动作发生前后预定时间间隔内的目标视频片段;
特征识别模块304,用于对所述目标视频片段进行特征识别,得到所述目标视频片段中摔倒对象的特征集合,其中所述特征集合包括身份特征、微表情特征、行为特征和声音特征;
权重计算模块305,用于基于预设的特征权重算法分别计算所述身份特征、所述微表情特征、所述行为特征和所述声音特征的特征权重;
权重组合模块306,用于基于所述特征权重对所述身份特征、所述微表情特征、所述行为特征和所述声音特征的特征权重进行组合,得到特征权重组合;
摔倒程度预测模块307,用于将所述特征权重组合输入到预先训练的摔倒程度预测模型,得到所述摔倒对象的摔倒程度评估结果。
进一步地,所述摔倒动作识别模块302具体包括:
关键帧提取单元,用于对所述待识别视频进行关键帧提取,得到所述待识别视频中的关键帧图像;
关节点检测单元,用于对所述关键帧图像中待检测对象进行关节点检测,得到所述待检测对象的关节点;
关节点连线单元,用于对检测到的所述关节点进行连线,得到所述待检测对象的关节点图像;
摔倒动作识别单元,用于通过所述关节点图像判断所述待检测对象是否存在摔倒动作。
进一步地,所述关节点连线单元具体包括:
亲和力判断子单元,用于依次计算所述关节点之间的亲和力值,并判断所述亲和力值是否大于或等于预设阈值;
关节点连线子单元,用于当所述亲和力值大于或等于预设阈值时,对所述关节点进行匹配连接;
关节点图像生成子单元,用于当所有所述关节点均完成匹配连接后,得到所述待检测对象的关节点图像。
进一步地,所述特征识别模块304具体包括:
身份特征识别单元,用于对所述目标视频片段内的摔倒对象进行身份特征识别,得到所述摔倒对象的身份特征;
微表情特征识别单元,用于对所述目标视频片段内的摔倒对象进行微表情特征识别,得到所述摔倒对象的微表情特征;
行为特征识别单元,用于对所述目标视频片段内的摔倒对象进行行为特征识别,得到所述摔倒对象的行为特征;
声音特征识别单元,用于对所述目标视频片段内的摔倒对象进行声音特征识别,得到所述摔倒对象的声音特征;
特征组合单元,用于组合所述身份特征、所述微表情特征、所述行为特征和所述声音特征,得到所述摔倒对象的特征集合。
进一步地,基于权重计算模块305具体包括:
初始赋权单元,用于为所有所述子特征赋予相同的初始权重;
相似度计算单元,用于计算同一类别的子特征的特征相似度,得到第一相似度,以及计算不同类别的子特征的特征相似度,得到第二相似度;
权重调整单元,用于基于所述第一相似度和所述第二相似度调整所述子特征的初始权重;
权重组合单元,用于当所有所述子特征的初始权重均完成调整后,组合所述身份特征的子特征的权重值得到所述身份特征的特征权重,组合所述微表情特征的子特征的权重值得到所述微表情特征的特征权重,组合所述行为特征的子特征的权重值得到所述行为特征的特征权重,以及组合所述声音特征的子特征的权重值得到所述声音特征的特征权重。
进一步地,所述权重调整单元具体包括:
相似度比对子单元,用于比对所述第一相似度和所述第二相似度;
第一比对结果子单元,用于当所述第一相似度大于或等于所述第二相似度时,按照预设的调整幅度上调所述子特征的初始权重;
第二比对结果子单元,用于当所述第一相似度小于所述第二相似度时,按照预设的调整幅度下调所述子特征的初始权重。
进一步地,所述摔倒程度预测模型包括编码层和解码层,所述摔倒程度预测模块307具体包括:
向量转化单元,用于对所述特征组合进行特征向量转化,得到特征向量组合;
向量编码单元,用于将所述特征向量组合导入所述编码层,对所述特征向量组合中的各个特征向量依次进行编码,得到编码向量组合;
特征重构单元,用于对所述编码向量组合进行空间映射,并根据所述权重组合对空间映射后的所述编码向量进行特征重构,得到重构特征向量;
向量解码单元,用于将所述重构特征向量导入所述解码层,对所述重构特征向量进行解码,得到所述摔倒对象的摔倒程度评估结果。
在本实施例中,本申请公开了一种人体摔倒行为评估装置,属于人工智能技术领域。本申请通过预先训练的行为分类模型模型快速识别待识别视频中是否包含摔倒动作,以提高摔倒动作的检测效率和检测准确率;再从待识别视频中截取摔倒动作发生前后预定时间间隔内的目标视频片段,对目标视频片段进行特征识别,获取摔倒对象的身份特征,以及摔倒对象在摔倒前后的微表情特征、行为特征和声音特征,并通过特征权重算法分别计算摔倒对象的身份特征、微表情特征、行为特征和声音特征的权重,根据计算得到的权重组合身份特征、微表情特征、行为特征和声音特征,得到特征权重组合,将特征权重组合输入到预先训练的摔倒程度预测模型,以完成摔倒严重程度分析,减小误判几率,提高分析效率和准确性。
为解决上述技术问题,本申请实施例还提供计算机设备。具体请参阅图4,图4为本实施例计算机设备基本结构框图。
所述计算机设备4包括通过系统总线相互通信连接存储器41、处理器42、网络接口43。需要指出的是,图中仅示出了具有组件41-43的计算机设备4,但是应理解的是,并不要求实施所有示出的组件,可以替代的实施更多或者更少的组件。其中,本技术领域技术人员可以理解,这里的计算机设备是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(ApplicationSpecific Integrated Circuit,ASIC)、可编程门阵列(Field-Programmable GateArray,FPGA)、数字处理器(Digital Signal Processor,DSP)、嵌入式设备等。
所述计算机设备可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述计算机设备可以与用户通过键盘、鼠标、遥控器、触摸板或声控设备等方式进行人机交互。
所述存储器41至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘等。在一些实施例中,所述存储器41可以是所述计算机设备4的内部存储单元,例如该计算机设备4的硬盘或内存。在另一些实施例中,所述存储器41也可以是所述计算机设备4的外部存储设备,例如该计算机设备4上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(FlashCard)等。当然,所述存储器41还可以既包括所述计算机设备4的内部存储单元也包括其外部存储设备。本实施例中,所述存储器41通常用于存储安装于所述计算机设备4的操作系统和各类应用软件,例如人体摔倒行为评估方法的计算机可读指令等。此外,所述存储器41还可以用于暂时地存储已经输出或者将要输出的各类数据。
所述处理器42在一些实施例中可以是中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器、或其他数据处理芯片。该处理器42通常用于控制所述计算机设备4的总体操作。本实施例中,所述处理器42用于运行所述存储器41中存储的计算机可读指令或者处理数据,例如运行所述人体摔倒行为评估方法的计算机可读指令。
所述网络接口43可包括无线网络接口或有线网络接口,该网络接口43通常用于在所述计算机设备4与其他电子设备之间建立通信连接。
本申请公开了一种计算机设备,属于人工智能技术领域。本申请通过预先训练的行为分类模型模型快速识别待识别视频中是否包含摔倒动作,以提高摔倒动作的检测效率和检测准确率;再从待识别视频中截取摔倒动作发生前后预定时间间隔内的目标视频片段,对目标视频片段进行特征识别,获取摔倒对象的身份特征,以及摔倒对象在摔倒前后的微表情特征、行为特征和声音特征,并通过特征权重算法分别计算摔倒对象的身份特征、微表情特征、行为特征和声音特征的权重,根据计算得到的权重组合身份特征、微表情特征、行为特征和声音特征,得到特征权重组合,将特征权重组合输入到预先训练的摔倒程度预测模型,以完成摔倒严重程度分析,减小误判几率,提高分析效率和准确性。
本申请还提供了另一种实施方式,即提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机可读指令,所述计算机可读指令可被至少一个处理器执行,以使所述至少一个处理器执行如上述的人体摔倒行为评估方法的步骤。
本申请公开了一种存储介质,属于人工智能技术领域。本申请通过预先训练的行为分类模型模型快速识别待识别视频中是否包含摔倒动作,以提高摔倒动作的检测效率和检测准确率;再从待识别视频中截取摔倒动作发生前后预定时间间隔内的目标视频片段,对目标视频片段进行特征识别,获取摔倒对象的身份特征,以及摔倒对象在摔倒前后的微表情特征、行为特征和声音特征,并通过特征权重算法分别计算摔倒对象的身份特征、微表情特征、行为特征和声音特征的权重,根据计算得到的权重组合身份特征、微表情特征、行为特征和声音特征,得到特征权重组合,将特征权重组合输入到预先训练的摔倒程度预测模型,以完成摔倒严重程度分析,减小误判几率,提高分析效率和准确性。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本申请各个实施例所述的方法。
本申请可用于众多通用或专用的计算机系统环境或配置中。例如:个人计算机、服务器计算机、手持设备或便携式设备、平板型设备、多处理器系统、基于微处理器的系统、置顶盒、可编程的消费电子设备、网络PC、小型计算机、大型计算机、包括以上任何系统或设备的分布式计算环境等等。本申请可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本申请,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
显然,以上所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例,附图中给出了本申请的较佳实施例,但并不限制本申请的专利范围。本申请可以以许多不同的形式来实现,相反地,提供这些实施例的目的是使对本申请的公开内容的理解更加透彻全面。尽管参照前述实施例对本申请进行了详细的说明,对于本领域的技术人员来而言,其依然可以对前述各具体实施方式所记载的技术方案进行修改,或者对其中部分技术特征进行等效替换。凡是利用本申请说明书及附图内容所做的等效结构,直接或间接运用在其他相关的技术领域,均同理在本申请专利保护范围之内。
Claims (10)
1.一种人体摔倒行为评估方法,其特征在于,包括:
按照预设时长间隔实时采集待识别视频;
通过预先训练的行为分类模型对所述待识别视频进行人体行为识别,以确定所述待识别视频中是否存在摔倒动作;
若所述待识别视频中存在摔倒动作,则从所述待识别视频中截取所述摔倒动作发生前后预定时间间隔内的目标视频片段;
对所述目标视频片段进行特征识别,得到所述目标视频片段中摔倒对象的特征集合,其中所述特征集合包括身份特征、微表情特征、行为特征和声音特征;
基于预设的特征权重算法分别计算所述身份特征、所述微表情特征、所述行为特征和所述声音特征的特征权重;
基于所述特征权重对所述身份特征、所述微表情特征、所述行为特征和所述声音特征的特征权重进行组合,得到特征权重组合;
将所述特征权重组合输入到预先训练的摔倒程度预测模型,得到所述摔倒对象的摔倒程度评估结果。
2.如权利要求1所述的人体摔倒行为评估方法,其特征在于,所述通过预先训练的行为分类模型对所述待识别视频进行人体行为识别,以确定所述待识别视频中是否存在摔倒动作的步骤,具体包括:
对所述待识别视频进行关键帧提取,得到所述待识别视频中的关键帧图像;
对所述关键帧图像中待检测对象进行关节点检测,得到所述待检测对象的关节点;
对检测到的所述关节点进行连线,得到所述待检测对象的关节点图像;
通过所述关节点图像判断所述待检测对象是否存在摔倒动作。
3.如权利要求2所述的人体摔倒行为评估方法,其特征在于,所述对检测到的所述关节点进行连线,得到所述待检测对象的关节点图像的步骤,具体包括:
依次计算所述关节点之间的亲和力值,并判断所述亲和力值是否大于或等于预设阈值;
当所述亲和力值大于或等于预设阈值时,对所述关节点进行匹配连接;
当所有所述关节点均完成匹配连接后,得到所述待检测对象的关节点图像。
4.如权利要求1所述的人体摔倒行为评估方法,其特征在于,所述对所述目标视频片段进行特征识别,得到所述目标视频片段中摔倒对象的特征集合的步骤,具体包括:
对所述目标视频片段内的摔倒对象进行身份特征识别,得到所述摔倒对象的身份特征;
对所述目标视频片段内的摔倒对象进行微表情特征识别,得到所述摔倒对象的微表情特征;
对所述目标视频片段内的摔倒对象进行行为特征识别,得到所述摔倒对象的行为特征;
对所述目标视频片段内的摔倒对象进行声音特征识别,得到所述摔倒对象的声音特征;
组合所述身份特征、所述微表情特征、所述行为特征和所述声音特征,得到所述摔倒对象的特征集合。
5.如权利要求1至4任一项所述的人体摔倒行为评估方法,其特征在于,基于预设的特征权重算法分别计算所述身份特征、所述微表情特征、所述行为特征和所述声音特征的特征权重的步骤,具体包括:
为所有所述子特征赋予相同的初始权重;
计算同一类别的子特征的特征相似度,得到第一相似度,以及计算不同类别的子特征的特征相似度,得到第二相似度;
基于所述第一相似度和所述第二相似度调整所述子特征的初始权重;
当所有所述子特征的初始权重均完成调整后,组合所述身份特征的子特征的权重值得到所述身份特征的特征权重,组合所述微表情特征的子特征的权重值得到所述微表情特征的特征权重,组合所述行为特征的子特征的权重值得到所述行为特征的特征权重,以及组合所述声音特征的子特征的权重值得到所述声音特征的特征权重。
6.如权利要求5所述的人体摔倒行为评估方法,其特征在于,所述基于所述第一相似度和所述第二相似度调整所述子特征的初始权重的步骤,具体包括:
比对所述第一相似度和所述第二相似度;
当所述第一相似度大于或等于所述第二相似度时,按照预设的调整幅度上调所述子特征的初始权重;
当所述第一相似度小于所述第二相似度时,按照预设的调整幅度下调所述子特征的初始权重。
7.如权利要求5所述的人体摔倒行为评估方法,其特征在于,所述摔倒程度预测模型包括编码层和解码层,所述将所述特征权重组合输入到预先训练的摔倒程度预测模型,得到所述摔倒对象的摔倒程度评估结果的步骤,具体包括:
对所述特征组合进行特征向量转化,得到特征向量组合;
将所述特征向量组合导入所述编码层,对所述特征向量组合中的各个特征向量依次进行编码,得到编码向量组合;
对所述编码向量组合进行空间映射,并根据所述权重组合对空间映射后的所述编码向量进行特征重构,得到重构特征向量;
将所述重构特征向量导入所述解码层,对所述重构特征向量进行解码,得到所述摔倒对象的摔倒程度评估结果。
8.一种人体摔倒行为评估装置,其特征在于,包括:
第一视频获取模块,用于按照预设时长间隔实时采集待识别视频;
摔倒动作识别模块,用于通过预先训练的行为分类模型对所述待识别视频进行人体行为识别,以确定所述待识别视频中是否存在摔倒动作;
第二视频获取模块,用于当所述待识别视频中存在摔倒动作时,从所述待识别视频中截取所述摔倒动作发生前后预定时间间隔内的目标视频片段;
特征识别模块,用于对所述目标视频片段进行特征识别,得到所述目标视频片段中摔倒对象的特征集合,其中所述特征集合包括身份特征、微表情特征、行为特征和声音特征;
权重计算模块,用于基于预设的特征权重算法分别计算所述身份特征、所述微表情特征、所述行为特征和所述声音特征的特征权重;
权重组合模块,用于基于所述特征权重对所述身份特征、所述微表情特征、所述行为特征和所述声音特征的特征权重进行组合,得到特征权重组合;
摔倒程度预测模块,用于将所述特征权重组合输入到预先训练的摔倒程度预测模型,得到所述摔倒对象的摔倒程度评估结果。
9.一种计算机设备,其特征在于,包括存储器和处理器,所述存储器中存储有计算机可读指令,所述处理器执行所述计算机可读指令时实现如权利要求1至7中任一项所述的人体摔倒行为评估方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机可读指令,所述计算机可读指令被处理器执行时实现如权利要求1至7中任一项所述的人体摔倒行为评估方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210144749.8A CN114494976A (zh) | 2022-02-17 | 2022-02-17 | 人体摔倒行为评估方法、装置、计算机设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210144749.8A CN114494976A (zh) | 2022-02-17 | 2022-02-17 | 人体摔倒行为评估方法、装置、计算机设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114494976A true CN114494976A (zh) | 2022-05-13 |
Family
ID=81483136
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210144749.8A Pending CN114494976A (zh) | 2022-02-17 | 2022-02-17 | 人体摔倒行为评估方法、装置、计算机设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114494976A (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110647812A (zh) * | 2019-08-19 | 2020-01-03 | 平安科技(深圳)有限公司 | 摔倒行为检测处理方法、装置、计算机设备及存储介质 |
CN111274937A (zh) * | 2020-01-19 | 2020-06-12 | 中移(杭州)信息技术有限公司 | 摔倒检测方法、装置、电子设备及计算机可读存储介质 |
CN111666857A (zh) * | 2020-05-29 | 2020-09-15 | 平安科技(深圳)有限公司 | 基于环境语义理解的人体行为识别方法、装置及存储介质 |
WO2020258973A1 (zh) * | 2019-06-27 | 2020-12-30 | 岭南师范学院 | 一种基于改进RReliefF和mRMR相结合的人体特征参数选择方法 |
CN112801000A (zh) * | 2021-02-05 | 2021-05-14 | 南京邮电大学 | 一种基于多特征融合的居家老人摔倒检测方法及系统 |
CN113254491A (zh) * | 2021-06-01 | 2021-08-13 | 平安科技(深圳)有限公司 | 一种信息推荐的方法、装置、计算机设备及存储介质 |
CN113989858A (zh) * | 2021-12-28 | 2022-01-28 | 安维尔信息科技(天津)有限公司 | 一种工作服识别方法及系统 |
-
2022
- 2022-02-17 CN CN202210144749.8A patent/CN114494976A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020258973A1 (zh) * | 2019-06-27 | 2020-12-30 | 岭南师范学院 | 一种基于改进RReliefF和mRMR相结合的人体特征参数选择方法 |
CN110647812A (zh) * | 2019-08-19 | 2020-01-03 | 平安科技(深圳)有限公司 | 摔倒行为检测处理方法、装置、计算机设备及存储介质 |
CN111274937A (zh) * | 2020-01-19 | 2020-06-12 | 中移(杭州)信息技术有限公司 | 摔倒检测方法、装置、电子设备及计算机可读存储介质 |
CN111666857A (zh) * | 2020-05-29 | 2020-09-15 | 平安科技(深圳)有限公司 | 基于环境语义理解的人体行为识别方法、装置及存储介质 |
CN112801000A (zh) * | 2021-02-05 | 2021-05-14 | 南京邮电大学 | 一种基于多特征融合的居家老人摔倒检测方法及系统 |
CN113254491A (zh) * | 2021-06-01 | 2021-08-13 | 平安科技(深圳)有限公司 | 一种信息推荐的方法、装置、计算机设备及存储介质 |
CN113989858A (zh) * | 2021-12-28 | 2022-01-28 | 安维尔信息科技(天津)有限公司 | 一种工作服识别方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Qin et al. | Imaging and fusing time series for wearable sensor-based human activity recognition | |
Javeed et al. | Wearable sensors based exertion recognition using statistical features and random forest for physical healthcare monitoring | |
CN111666857B (zh) | 基于环境语义理解的人体行为识别方法、装置及存储介质 | |
Lu et al. | Unobtrusive gait verification for mobile phones | |
Frank et al. | Activity and gait recognition with time-delay embeddings | |
Aslan et al. | Shape feature encoding via fisher vector for efficient fall detection in depth-videos | |
CN112395979B (zh) | 基于图像的健康状态识别方法、装置、设备及存储介质 | |
US20150310308A1 (en) | Method and apparatus for recognizing client feature, and storage medium | |
KR101835333B1 (ko) | 얼굴 인식 서비스 제공 방법 | |
CN113317763B (zh) | 基于多模态的帕金森病检测装置及计算机可读存储介质 | |
CN112668482B (zh) | 人脸识别训练方法、装置、计算机设备及存储介质 | |
Gehrig et al. | A common framework for real-time emotion recognition and facial action unit detection | |
CN113705534A (zh) | 基于深度视觉的行为预测方法、装置、设备及存储介质 | |
CN112418059A (zh) | 一种情绪识别的方法、装置、计算机设备及存储介质 | |
Dong et al. | Gender recognition using motion data from multiple smart devices | |
Santoyo-Ramón et al. | A study on the impact of the users’ characteristics on the performance of wearable fall detection systems | |
Meena et al. | Seq2Dense U-Net: Analysing Sequential Inertial Sensor data for Human Activity Recognition using Dense Segmentation Model | |
CN113781462A (zh) | 一种人体伤残检测方法、装置、设备及存储介质 | |
CN117557331A (zh) | 一种产品推荐方法、装置、计算机设备及存储介质 | |
Ahmed et al. | Static postural transition-based technique and efficient feature extraction for sensor-based activity recognition | |
Deng et al. | WiLDAR: WiFi Signal-Based Lightweight Deep Learning Model for Human Activity Recognition | |
CN114494976A (zh) | 人体摔倒行为评估方法、装置、计算机设备及存储介质 | |
Li et al. | Memory-augmented autoencoder based continuous authentication on smartphones with conditional transformer gans | |
CN113643283A (zh) | 一种人体衰老状况的检测方法、装置、设备及存储介质 | |
Mahalakshmi et al. | Few-shot learning-based human behavior recognition model |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |