CN117352151A - 智能陪护管理系统及其方法 - Google Patents
智能陪护管理系统及其方法 Download PDFInfo
- Publication number
- CN117352151A CN117352151A CN202311652653.3A CN202311652653A CN117352151A CN 117352151 A CN117352151 A CN 117352151A CN 202311652653 A CN202311652653 A CN 202311652653A CN 117352151 A CN117352151 A CN 117352151A
- Authority
- CN
- China
- Prior art keywords
- feature
- angular velocity
- acceleration
- classification
- matrix
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 27
- 239000011159 matrix material Substances 0.000 claims abstract description 139
- 230000001133 acceleration Effects 0.000 claims abstract description 69
- 238000011176 pooling Methods 0.000 claims abstract description 20
- 238000000605 extraction Methods 0.000 claims abstract description 18
- 239000013598 vector Substances 0.000 claims description 71
- 238000007726 management method Methods 0.000 claims description 59
- 238000010586 diagram Methods 0.000 claims description 24
- 230000033001 locomotion Effects 0.000 claims description 22
- 238000013528 artificial neural network Methods 0.000 claims description 18
- 238000013527 convolutional neural network Methods 0.000 claims description 17
- 238000012545 processing Methods 0.000 claims description 17
- 238000001514 detection method Methods 0.000 claims description 16
- 230000004927 fusion Effects 0.000 claims description 13
- 230000004913 activation Effects 0.000 claims description 6
- 238000012546 transfer Methods 0.000 claims description 6
- 238000005457 optimization Methods 0.000 claims description 2
- 230000000474 nursing effect Effects 0.000 abstract description 4
- 230000006870 function Effects 0.000 description 12
- 238000004590 computer program Methods 0.000 description 9
- 230000008901 benefit Effects 0.000 description 6
- 238000012935 Averaging Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000012512 characterization method Methods 0.000 description 2
- 230000000875 corresponding effect Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000007476 Maximum Likelihood Methods 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 210000003141 lower extremity Anatomy 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000003863 physical function Effects 0.000 description 1
- 230000006798 recombination Effects 0.000 description 1
- 238000005215 recombination Methods 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 210000005010 torso Anatomy 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 210000001364 upper extremity Anatomy 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H40/00—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
- G16H40/20—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the management or administration of healthcare resources or facilities, e.g. managing hospital staff or surgery rooms
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Medical Informatics (AREA)
- Biomedical Technology (AREA)
- Databases & Information Systems (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- General Business, Economics & Management (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Business, Economics & Management (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Public Health (AREA)
- Primary Health Care (AREA)
- Epidemiology (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本申请涉及智能陪护领域,其具体地公开了一种智能陪护管理系统及其方法,其获取由摄像头采集的多个预定时间点被监测人的身体姿势图像以及由传感器采集的多个预定时间点的加速度数据和多个预定时间点的角速度数据后通过感兴趣区域提取模块、感兴趣区域编码模块、池化模块、特征编码模块和特征关联模块以得到躯干状态特征矩阵和加速度‑角速度关联特征矩阵,最后,将所述躯干状态特征矩阵和所述加速度‑角速度关联特征矩阵进行融合并优化后通过分类器以得到分类结果,以判断被监测人是否跌倒,从而及时提供警示和帮助,进而提升被监测人的安全性和护理效果。
Description
技术领域
本申请涉及智能陪护领域,且更为具体地,涉及一种智能陪护管理系统及其方法。
背景技术
随着被监测人年龄的增长和特殊情况的限制,被监测人可能在日常生活中遇到困难,需要陪护人员帮助完成基本的生活活动。并且由于身体机能和平衡能力的不足,被监测人更容易发生意外事故,如跌倒、摔跤,因此需要陪护人员提供监护和安全支持,以确保他们的健康和安全。
为了照顾被监测人,陪护人员需要对被监测人进行24小时陪护和监测,导致用户自身劳动负担较大。
因此,期望一种智能陪护管理系统及其方法。
发明内容
为了解决上述技术问题,提出了本申请。本申请的实施例提供了一种智能陪护管理系统及其方法,其获取由摄像头采集的多个预定时间点被监测人的身体姿势图像以及由传感器采集的多个预定时间点的加速度数据和多个预定时间点的角速度数据后通过感兴趣区域提取模块、感兴趣区域编码模块、池化模块、特征编码模块和特征关联模块以得到躯干状态特征矩阵和加速度-角速度关联特征矩阵,最后,将所述躯干状态特征矩阵和所述加速度-角速度关联特征矩阵进行融合并优化后通过分类器以得到分类结果,以判断被监测人是否跌倒,从而及时提供警示和帮助,进而提升被监测人的安全性和护理效果。
根据本申请的一个方面,提供了一种智能陪护管理系统,其包括:
数据获取模块,用于获取由摄像头采集的多个预定时间点被监测人的身体姿势图像以及由传感器采集的多个预定时间点的加速度数据和多个预定时间点的角速度数据;
感兴趣区域提取模块,用于将所述多个预定时间点被监测人的身体姿势图像分别通过目标检测网络以得到多个躯干感兴趣区域特征图;
感兴趣区域编码模块,用于将所述多个躯干感兴趣区域特征图排列为三维输入张量后通过使用三维卷积核的第一卷积神经网络以得到躯干状态特征图;
池化模块,用于对所述躯干状态特征图进行基于特征矩阵的全局均值池化以得到躯干状态特征矩阵;
特征编码模块,用于将所述由传感器采集的多个预定时间点的加速度数据和多个预定时间点的角速度数据分别通过上下文编码器以获得加速度特征向量和角速度特征向量;
特征关联模块,用于计算所述加速度特征向量和所述角速度特征向量的关联矩阵以得到加速度-角速度关联特征矩阵;
融合模块,用于将所述躯干状态特征矩阵和所述加速度-角速度关联特征矩阵进行融合以得到分类特征矩阵;
优化模块,用于对所述分类特征矩阵进行优化以得到优化分类特征矩阵;
分类模块,用于将所述优化分类特征矩阵通过分类器以得到分类结果,所述分类结果用于判断被监测人是否跌倒。
在上述智能陪护管理系统中,所述感兴趣区域提取模块,包括:使用所述目标检测网络以如下提取公式分别对所述多个预定时间点被监测人的身体姿势图像进行处理以得到所述多个躯干感兴趣区域特征图;
其中,所述提取公式为:
;
其中表示给定特征图,/>表示锚框,/>表示所述多个躯干感兴趣区域特征图。
在上述智能陪护管理系统中,所述感兴趣区域编码模块,包括:所述使用三维卷积核的第一卷积神经网络在层的正向传递中对输入数据分别进行:基于所述三维卷积核对所述输入数据进行三维卷积处理以得到卷积特征图;对所述卷积特征图进行均值池化处理以得到池化特征图;对所述池化特征图进行非线性激活以得到激活特征图;其中,所述第一卷积神经网络的最后一层的输出为所述躯干状态特征图,所述第一卷积神经网络的第一层的输入为所述三维输入张量。
在上述智能陪护管理系统中,所述特征编码模块,包括:加速度上下文编码单元,用于使用所述上下文编码器的基于转化器的Bert模型对多个预定时间点的加速度数据进行基于全局的上下文语义编码以得到多个加速度特征向量;加速度级联单元,用于将所述多个加速度特征向量进行级联以得到所述加速度特征向量;角速度上下文编码单元,用于使用所述上下文编码器的基于转化器的Bert模型对多个预定时间点的角速度数据进行基于全局的上下文语义编码以得到多个角速度特征向量;角速度级联单元,用于将所述多个角速度特征向量进行级联以得到所述角速度特征向量。
在上述智能陪护管理系统中,所述特征关联模块,包括:使用联合编码器以如下融合公式对所述加速度特征向量和所述角速度特征向量进行联合编码以生成所述加速度-角速度关联特征矩阵;
其中,所述融合公式为:
;
其中表示向量相乘,/>表示所述加速度-角速度关联特征矩阵,/>表示所述加速度特征向量,/>表示所述角速度特征向量,/>表示所述角速度特征向量的转置。
在上述智能陪护管理系统中,所述融合模块,包括:对所述躯干状态特征矩阵和所述加速度-角速度关联特征矩阵进行沿通道维度的级联以得到所述分类特征矩阵。
在上述智能陪护管理系统中,所述优化模块,包括:以如下后验表达公式计算所述分类特征矩阵相对于目标分类函数的运动分布模型的后验表达以得到优化分类特征矩阵;
其中,所述后验表达公式为:
;
其中,是所述分类特征矩阵的第/>位置的特征值,/>是所述分类特征矩阵的全局特征均值,/>表示以2为底的对数函数值,/>表示预定超参数,/>是所述优化分类特征矩阵的第/>位置的特征值。
在上述智能陪护管理系统中,所述分类模块,包括:使用所述分类器以如下分类公式对所述优化分类特征矩阵进行处理以生成分类结果,其中,所述分类公式为:
;
其中为所述分类结果,/>表示将所述优化分类特征矩阵投影为向量,至/>为各层全连接层的权重矩阵,/>至/>表示各层全连接层的偏置向量,/>为激活函数。
根据本申请的另一方面,提供了一种智能陪护管理方法,其包括:
获取由摄像头采集的多个预定时间点被监测人的身体姿势图像以及由传感器采集的多个预定时间点的加速度数据和多个预定时间点的角速度数据;
将所述多个预定时间点被监测人的身体姿势图像分别通过目标检测网络以得到多个躯干感兴趣区域特征图;
将所述多个躯干感兴趣区域特征图排列为三维输入张量后通过使用三维卷积核的第一卷积神经网络以得到躯干状态特征图;
对所述躯干状态特征图进行基于特征矩阵的全局均值池化以得到躯干状态特征矩阵;
将所述由传感器采集的多个预定时间点的加速度数据和多个预定时间点的角速度数据分别通过上下文编码器以获得加速度特征向量和角速度特征向量;
计算所述加速度特征向量和所述角速度特征向量的关联矩阵以得到加速度-角速度关联特征矩阵;
将所述躯干状态特征矩阵和所述加速度-角速度关联特征矩阵进行融合以得到分类特征矩阵;
对所述分类特征矩阵进行优化以得到优化分类特征矩阵;
将所述优化分类特征矩阵通过分类器以得到分类结果,所述分类结果用于判断被监测人是否跌倒。
在上述智能陪护管理方法中,将所述多个躯干感兴趣区域特征图排列为三维输入张量后通过使用三维卷积核的第一卷积神经网络以得到躯干状态特征图,包括:所述使用三维卷积核的第一卷积神经网络在层的正向传递中对输入数据分别进行:基于所述三维卷积核对所述输入数据进行三维卷积处理以得到卷积特征图;对所述卷积特征图进行均值池化处理以得到池化特征图;对所述池化特征图进行非线性激活以得到激活特征图;其中,所述第一卷积神经网络的最后一层的输出为所述躯干状态特征图,所述第一卷积神经网络的第一层的输入为所述三维输入张量。
根据本申请的再一方面,提供了一种电子设备,包括:处理器;以及,存储器,在所述存储器中存储有计算机程序指令,所述计算机程序指令在被所述处理器运行时使得所述处理器执行如上所述的智能陪护管理系统。
根据本申请的又一方面,提供了一种计算机可读介质,其上存储有计算机程序指令,所述计算机程序指令在被处理器运行时使得所述处理器执行如上所述的智能陪护管理系统。
与现有技术相比,本申请提供的一种智能陪护管理系统及其方法,其获取由摄像头采集的多个预定时间点被监测人的身体姿势图像以及由传感器采集的多个预定时间点的加速度数据和多个预定时间点的角速度数据后通过感兴趣区域提取模块、感兴趣区域编码模块、池化模块、特征编码模块和特征关联模块以得到躯干状态特征矩阵和加速度-角速度关联特征矩阵,最后,将所述躯干状态特征矩阵和所述加速度-角速度关联特征矩阵进行融合并优化后通过分类器以得到分类结果,以判断被监测人是否跌倒,从而及时提供警示和帮助,进而提升被监测人的安全性和护理效果。
附图说明
通过结合附图对本申请实施例进行更详细的描述,本申请的上述以及其他目的、特征和优势将变得更加明显。附图用来提供对本申请实施例的进一步理解,并且构成说明书的一部分,与本申请实施例一起用于解释本申请,并不构成对本申请的限制。在附图中,相同的参考标号通常代表相同部件或步骤。
图1为根据本申请实施例的智能陪护管理系统的框图。
图2为根据本申请实施例的智能陪护管理系统中特征编码模块的框图。
图3为根据本申请实施例的智能陪护管理方法的流程图。
图4为根据本申请实施例的智能陪护管理方法的架构示意图。
图5为根据本申请实施例的电子设备的框图。
具体实施方式
下面,将参考附图详细地描述根据本申请的示例实施例。显然,所描述的实施例仅仅是本申请的一部分实施例,而不是本申请的全部实施例,应理解,本申请不受这里描述的示例实施例的限制。
示例性系统
图1为根据本申请实施例的智能陪护管理系统的框图。如图1所示,根据本申请实施例的智能陪护管理系统100,包括:数据获取模块110,用于获取由摄像头采集的多个预定时间点被监测人的身体姿势图像以及由传感器采集的多个预定时间点的加速度数据和多个预定时间点的角速度数据;感兴趣区域提取模块120,用于将所述多个预定时间点被监测人的身体姿势图像分别通过目标检测网络以得到多个躯干感兴趣区域特征图;感兴趣区域编码模块130,用于将所述多个躯干感兴趣区域特征图排列为三维输入张量后通过使用三维卷积核的第一卷积神经网络以得到躯干状态特征图;池化模块140,用于对所述躯干状态特征图进行基于特征矩阵的全局均值池化以得到躯干状态特征矩阵;特征编码模块150,用于将所述由传感器采集的多个预定时间点的加速度数据和多个预定时间点的角速度数据分别通过上下文编码器以获得加速度特征向量和角速度特征向量;特征关联模块160,用于计算所述加速度特征向量和所述角速度特征向量的关联矩阵以得到加速度-角速度关联特征矩阵;融合模块170,用于将所述躯干状态特征矩阵和所述加速度-角速度关联特征矩阵进行融合以得到分类特征矩阵;优化模块180,用于对所述分类特征矩阵进行优化以得到优化分类特征矩阵;分类模块190,用于将所述优化分类特征矩阵通过分类器以得到分类结果,所述分类结果用于判断被监测人是否跌倒。
在上述智能陪护管理系统100中,所述数据获取模块110,用于获取由摄像头采集的多个预定时间点被监测人的身体姿势图像以及由传感器采集的多个预定时间点的加速度数据和多个预定时间点的角速度数据。应可以理解,通过摄像头获取被监测人的身体姿势图像可以提供关于被监测人姿势和动作的视觉信息,这些图像可以用于检测和跟踪被监测人的身体躯干部位的位置和运动状态,身体姿势图像可以提供丰富的空间信息,帮助判断被监测人的平衡和动作是否正常。由于跌倒通常会伴随着身体加速度的急剧变化,通过测量被监测人的加速度,可以获取关于被监测人的运动状态和动作强度的信息,同样地,角速度数据可以帮助检测被监测人的躯干跌倒的角度变化,并与加速度数据一起用于跌倒的判断。身体姿势图像提供了空间信息,加速度数据和角速度数据提供了运动状态信息,通过综合分析和关联这些数据,系统可以更准确地判断被监测人是否发生了跌倒事件,并及时采取相应的援助措施。
在上述智能陪护管理系统100中,所述感兴趣区域提取模块120,用于将所述多个预定时间点被监测人的身体姿势图像分别通过目标检测网络以得到多个躯干感兴趣区域特征图。应可以理解,目标检测网络可以识别和定位图像中的特定对象,对于被监测人的身体姿势图像而言,关键区域通常是躯干部位,如头部、上肢和下肢以及躯干等。考虑到被监测人的身体姿势图像可能包含大量的背景信息,而对于跌倒判断而言,关注被监测人的躯干部位更为重要,通过目标检测网络,可以将注意力集中在躯干感兴趣区域上,减少冗余信息的干扰,可以准确地提取这些关键区域的特征。
这里,由于基于深度学习的目标检测方法依据网络中是否使用锚窗将网络分为基于锚窗(Anchor-based)与无锚窗(Anchor-free)两大类,基于锚窗的方法如Fast R-CNN、Faster R-CNN、RetinaNet等。而Anchor-base的模型在进行预测之前会设定好一组anchor,然后在推理过程中会在特征图上使这些anchor进行滑动来提取n个候选框,最后再做进一步的分类和回归。也就是,具体地,在本申请的技术方案中,首先对多个预定时间点被监测人的身体姿势图像进行编码处理以生成给定特征图,然后,基于所述给定特征图以锚框B来进行滑动提取所述多个眼部感兴趣区域特征图。
在本申请一个具体的实施例中,所述感兴趣区域提取模块120,包括:使用所述目标检测网络以如下提取公式分别对所述多个预定时间点被监测人的身体姿势图像进行处理以得到所述多个躯干感兴趣区域特征图;
其中,所述提取公式为:
;
其中表示给定特征图,/>表示锚框,/>表示所述多个躯干感兴趣区域特征图。
在上述智能陪护管理系统100中,所述感兴趣区域编码模块130,用于将所述多个躯干感兴趣区域特征图排列为三维输入张量后通过使用三维卷积核的第一卷积神经网络以得到躯干状态特征图。应可以理解,将多个躯干感兴趣区域特征图排列为三维输入张量,可以保留时间维度的信息,通过利用时间维度的信息,可以更好地分析被监测人的运动模式和动作序列,提高对跌倒事件的判断准确性。使用三维卷积核可以在空间和时间维度上进行卷积操作,从而有效地捕捉到躯干感兴趣区域特征图中的空间和时间相关性,这种卷积操作可以学习到躯干状态的局部和全局特征,包括形状和运动模式等,通过经过三维卷积神经网络处理后得到的躯干状态特征图,可以表示被监测人躯干的状态和特征,包括时间上的变化和空间上的相关性。
在本申请一个具体的实施例中,所述感兴趣区域编码模块130,包括:所述使用三维卷积核的第一卷积神经网络在层的正向传递中对输入数据分别进行:基于所述三维卷积核对所述输入数据进行三维卷积处理以得到卷积特征图;对所述卷积特征图进行均值池化处理以得到池化特征图;对所述池化特征图进行非线性激活以得到激活特征图;其中,所述第一卷积神经网络的最后一层的输出为所述躯干状态特征图,所述第一卷积神经网络的第一层的输入为所述三维输入张量。
在上述智能陪护管理系统100中,所述池化模块140,用于对所述躯干状态特征图进行基于特征矩阵的全局均值池化以得到躯干状态特征矩阵。应可以理解,全局均值池化操作可以将躯干状态特征图中的局部特征转化为全局信息,通过对整个特征图进行均值池化,可以捕捉到躯干状态的整体特征和趋势,同时,全局均值池化操作具有一定的平移不变性和稳定性,即使躯干状态特征图中的某些局部区域发生微小的变化,全局均值池化仍然可以提取到整体的特征,这种不变性和稳定性可以增强对躯干状态的表示能力,并减少对局部变化的敏感性。考虑到躯干状态特征图通常具有较高的维度,包含丰富的空间和时间信息,然而,对于后续的分类任务或特征表示,过高的维度可能会导致计算和存储的负担增加,通过进行全局均值池化,可以将高维特征图转换为低维特征矩阵,减少数据的维度,从而降低计算复杂度。
在上述智能陪护管理系统100中,所述特征编码模块150,用于将所述由传感器采集的多个预定时间点的加速度数据和多个预定时间点的角速度数据分别通过上下文编码器以获得加速度特征向量和角速度特征向量。应可以理解,加速度数据和角速度数据包含了关于被监测人的运动状态和动作信息,通过将这些数据输入到上下文编码器中,可以对数据进行特征提取,以提取出最具代表性和区分性的特征。这些特征可以捕捉到加速度和角速度的模式、趋势和变化,从而更好地描述被监测人的状态,通过得到加速度特征向量和角速度特征向量,可以将原始的时序数据转化为更紧凑、更具有代表性的表示形式。
图2为根据本申请实施例的智能陪护管理系统中特征编码模块的框图。如图2所示,在本申请一个具体的实施例中,所述特征编码模块150,包括:加速度上下文编码单元151,用于使用所述上下文编码器的基于转化器的Bert模型对多个预定时间点的加速度数据进行基于全局的上下文语义编码以得到多个加速度特征向量;加速度级联单元152,用于将所述多个加速度特征向量进行级联以得到所述加速度特征向量;角速度上下文编码单元153,用于使用所述上下文编码器的基于转化器的Bert模型对多个预定时间点的角速度数据进行基于全局的上下文语义编码以得到多个角速度特征向量;角速度级联单元154,用于将所述多个角速度特征向量进行级联以得到所述角速度特征向量。
在上述智能陪护管理系统100中,所述特征关联模块160,用于计算所述加速度特征向量和所述角速度特征向量的关联矩阵以得到加速度-角速度关联特征矩阵。应可以理解,通过计算加速度-角速度关联特征矩阵,可以捕捉到加速度和角速度之间的非线性相互作用,同时可以将两者的信息融合在一起,得到更综合和综合的特征表示。
在本申请一个具体的实施例中,所述特征关联模块160,包括:使用联合编码器以如下融合公式对所述加速度特征向量和所述角速度特征向量进行联合编码以生成所述加速度-角速度关联特征矩阵;
其中,所述融合公式为:
;
其中表示向量相乘,/>表示所述加速度-角速度关联特征矩阵,/>表示所述加速度特征向量,/>表示所述角速度特征向量,/>表示所述角速度特征向量的转置。
在上述智能陪护管理系统100中,所述融合模块170,用于将所述躯干状态特征矩阵和所述加速度-角速度关联特征矩阵进行融合以得到分类特征矩阵。应可以理解,躯干状态特征矩阵可能更关注姿势和身体位置的信息,而加速度-角速度关联特征矩阵可能更关注运动模式和动作相关性的信息,融合后的分类特征矩阵可以更好地反映运动状态的多个方面,增强特征的表征能力,同时,融合后的分类特征矩阵可以具有更低的维度,避免特征维度过高导致的维度灾难问题,提高分类器的效率和泛化能力。
在本申请一个具体的实施例中,所述融合模块170,包括:对所述躯干状态特征矩阵和所述加速度-角速度关联特征矩阵进行沿通道维度的级联以得到所述分类特征矩阵。
在上述智能陪护管理系统100中,所述优化模块180,用于对所述分类特征矩阵进行优化以得到优化分类特征矩阵。特别地,考虑到在本申请技术方案中,通过目标检测网络对每个预定时间点被监测人的身体姿势图像进行处理,以获取躯干感兴趣区域特征图。如果目标检测网络无法准确地检测到被监测人身体的躯干区域,或者在某些时间点上存在姿势图像质量较差的情况,那么躯干感兴趣区域特征图中可能会存在很多零值或接近零的像素,导致分类特征矩阵的稀疏度增加。同时,在将躯干感兴趣区域特征图排列为三维输入张量后,通过使用三维卷积核的第一卷积神经网络进行处理,得到躯干状态特征图。如果躯干感兴趣区域特征图中存在大量的零值或接近零的像素,那么经过卷积操作后,可能会导致输出的躯干状态特征图中仍然存在很多零值或接近零的元素,进而增加了分类特征矩阵的稀疏度。并且通过上下文编码器对传感器采集的加速度和角速度数据进行处理,得到加速度特征向量和角速度特征向量。如果在某些时间点上加速度或角速度数据缺失或噪声较多,那么对应的特征向量中可能存在很多零值或接近零的元素,进而导致分类特征矩阵的稀疏度增加。也就是,由于目标检测网络的输出质量、三维卷积神经网络的操作以及加速度和角速度数据的质量等因素可能导致特征图或特征向量中存在大量的零值或接近零的元素,从而增加了分类特征矩阵的稀疏度。而在高稀疏度的特征矩阵中,一些特征可能会出现重复或高度相关的情况。这些冗余特征可能会引入噪声或冗余信息,对分类器的决策产生干扰,降低分类准确性。同时,高稀疏度的特征矩阵中某些特征可能具有更高的权重或更大的方差,而其他特征则相对较弱或变化较小。这种不平衡可能导致分类器在学习和决策过程中偏向于重要特征,而忽略了其他可能具有较低权重但仍然有用的特征,从而影响分类准确性。因此,为了提高分类准确性,通过计算所述分类特征矩阵相对于目标分类函数的运动分布模型的后验表达以降低稀疏度的方法,从而保留更多有用的特征信息并减少噪声的影响,以解决在将所述分类特征矩阵通过分类器进行分类时,所述分类特征矩阵的稀疏度对于分类准确性会产生不利影响的问题。
具体地,以如下后验表达公式计算所述分类特征矩阵相对于目标分类函数的运动分布模型的后验表达以得到优化分类特征矩阵;
其中,所述后验表达公式为:
;
其中,是所述分类特征矩阵的第/>位置的特征值,/>是所述分类特征矩阵的全局特征均值,/>表示以2为底的对数函数值,/>表示预定超参数,/>是所述优化分类特征矩阵的第/>位置的特征值。
也就是,为了提高基于编码器模型得到的分类特征矩阵的分类准确性,在本申请的技术方案中,使用运动分布模型来近似目标分类函数。具体地,使用类KL散度来度量运动分布模型和目标分类函数之间的差异,即用交叉熵损失函数来优化神经网络的参数,进而以后验表达来计算或估计运动分布模型的输出,即用编码器模型的输出作为神经网络的输入,并使用类KL散度来度量后验表达和运动分布模型之间的差异,即用最大似然估计方法来优化编码器模型的参数,这样使用稀疏性约束来促进编码器模型的稀疏性。通过这样的方法,实现对特征的隐式表达进行稀疏性约束,从而在训练过程中对编码器的参数空间进行稀疏性限制,以提高编码器模型的群优化能力,从而改善基于编码器模型得到的分类特征矩阵的分类准确性。
在上述智能陪护管理系统100中,所述分类模块190,用于将所述优化分类特征矩阵通过分类器以得到分类结果,所述分类结果用于判断被监测人是否跌倒。
在本申请一个具体的实施例中,所述分类模块190,包括:使用所述分类器以如下分类公式对所述优化分类特征矩阵进行处理以生成分类结果,其中,所述分类公式为:
;
其中为所述分类结果,/>表示将所述优化分类特征矩阵投影为向量,至/>为各层全连接层的权重矩阵,/>至/>表示各层全连接层的偏置向量,/>为激活函数。
综上,本申请实施例获取由摄像头采集的多个预定时间点被监测人的身体姿势图像以及由传感器采集的多个预定时间点的加速度数据和多个预定时间点的角速度数据后通过感兴趣区域提取模块、感兴趣区域编码模块、池化模块、特征编码模块和特征关联模块以得到躯干状态特征矩阵和加速度-角速度关联特征矩阵,最后,将所述躯干状态特征矩阵和所述加速度-角速度关联特征矩阵进行融合并优化后通过分类器以得到分类结果,以判断被监测人是否跌倒,从而及时提供警示和帮助,进而提升被监测人的安全性和护理效果。
如上所述,根据本申请实施例的所述智能陪护管理系统100可以实现在各种终端设备中,例如部署有智能陪护管理控制算法的服务器等。在一个示例中,根据智能陪护管理系统100可以作为一个软件模块和/或硬件模块而集成到终端设备中。例如,该智能陪护管理系统100可以是该终端设备的操作系统中的一个软件模块,或者可以是针对于该终端设备所开发的一个应用程序;当然,该智能陪护管理系统100同样可以是该终端设备的众多硬件模块之一。
替换地,在另一示例中,该智能陪护管理系统100与该终端设备也可以是分立的设备,并且智能陪护管理系统100可以通过有线和/或无线网络连接到该终端设备,并且按照约定的数据格式来传输交互信息。
示例性方法
图3为根据本申请实施例的智能陪护管理方法的流程图。图4为根据本申请实施例的智能陪护管理方法的架构示意图。如图3和图4所示,根据本申请实施例的智能陪护管理方法,其包括:S110,获取由摄像头采集的多个预定时间点被监测人的身体姿势图像以及由传感器采集的多个预定时间点的加速度数据和多个预定时间点的角速度数据;S120,将所述多个预定时间点被监测人的身体姿势图像分别通过目标检测网络以得到多个躯干感兴趣区域特征图;S130,将所述多个躯干感兴趣区域特征图排列为三维输入张量后通过使用三维卷积核的第一卷积神经网络以得到躯干状态特征图;S140,对所述躯干状态特征图进行基于特征矩阵的全局均值池化以得到躯干状态特征矩阵;S150,将所述由传感器采集的多个预定时间点的加速度数据和多个预定时间点的角速度数据分别通过上下文编码器以获得加速度特征向量和角速度特征向量;S160,计算所述加速度特征向量和所述角速度特征向量的关联矩阵以得到加速度-角速度关联特征矩阵;S170,将所述躯干状态特征矩阵和所述加速度-角速度关联特征矩阵进行融合以得到分类特征矩阵;S180,对所述分类特征矩阵进行优化以得到优化分类特征矩阵;S190,将所述优化分类特征矩阵通过分类器以得到分类结果,所述分类结果用于判断被监测人是否跌倒。
在本申请一个具体的实施例中,将所述多个躯干感兴趣区域特征图排列为三维输入张量后通过使用三维卷积核的第一卷积神经网络以得到躯干状态特征图,包括:所述使用三维卷积核的第一卷积神经网络在层的正向传递中对输入数据分别进行:基于所述三维卷积核对所述输入数据进行三维卷积处理以得到卷积特征图;对所述卷积特征图进行均值池化处理以得到池化特征图;对所述池化特征图进行非线性激活以得到激活特征图;其中,所述第一卷积神经网络的最后一层的输出为所述躯干状态特征图,所述第一卷积神经网络的第一层的输入为所述三维输入张量。
这里,本领域技术人员可以理解,上述智能陪护管理方法中的各个步骤的具体操作已经在上面参考图1至图2的智能陪护管理系统的描述中得到了详细介绍,并因此,将省略其重复描述。
示例性电子设备
下面,参考图5来描述根据本申请实施例的电子设备。
图5图示了根据本申请实施例的电子设备的框图。
如图5所示,电子设备10包括一个或多个处理器11和存储器12。
处理器11可以是中央处理单元(CPU)或者具有数据处理能力和/或指令执行能力的其他形式的处理单元,并且可以控制电子设备10中的其他组件以执行期望的功能。
存储器12可以包括一个或多个计算机程序产品,所述计算机程序产品可以包括各种形式的计算机可读存储介质,例如易失性存储器和/或非易失性存储器。所述易失性存储器例如可以包括随机存取存储器(RAM)和/或高速缓冲存储器(cache)等。所述非易失性存储器例如可以包括只读存储器(ROM)、硬盘、闪存等。在所述计算机可读存储介质上可以存储一个或多个计算机程序指令,处理器11可以运行所述程序指令,以实现上文所述的本申请的各个实施例的智能陪护管理以及/或者其他期望的功能。在所述计算机可读存储介质中还可以存储诸如由摄像头采集的多个预定时间点被监测人的身体姿势图像以及由传感器采集的多个预定时间点的加速度数据和多个预定时间点的角速度数据等各种内容。
在一个示例中,电子设备10还可以包括:输入装置13和输出装置14,这些组件通过总线系统和/或其他形式的连接机构(未示出)互连。
该输入装置13可以包括例如键盘、鼠标等等。
该输出装置14可以向外部输出各种信息,包括被监测人是否跌倒等。该输出装置14可以包括例如显示器、扬声器、打印机、以及通信网络及其所连接的远程输出设备等等。
当然,为了简化,图5中仅示出了该电子设备10中与本申请有关的组件中的一些,省略了诸如总线、输入/输出接口等等的组件。除此之外,根据具体应用情况,电子设备10还可以包括任何其他适当的组件。
示例性计算机程序产品和计算机可读存储介质
除了上述方法和设备以外,本申请的实施例还可以是计算机程序产品,其包括计算机程序指令,所述计算机程序指令在被处理器运行时使得所述处理器执行本说明书上述“示例性方法”部分中描述的根据本申请各种实施例的智能陪护管理方法的步骤。
所述计算机程序产品可以以一种或多种程序设计语言的任意组合来编写用于执行本申请实施例操作的程序代码,所述程序设计语言包括面向对象的程序设计语言,诸如Java、C++等,还包括常规的过程式程序设计语言,诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。
此外,本申请的实施例还可以是计算机可读存储介质,其上存储有计算机程序指令,所述计算机程序指令在被处理器运行时使得所述处理器执行本说明书上述“示例性方法”部分中描述的根据本申请各种实施例的用于智能陪护管理方法的步骤。
所述计算机可读存储介质可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以包括但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
以上结合具体实施例描述了本申请的基本原理,但是,需要指出的是,在本申请中提及的优点、优势、效果等仅是示例而非限制,不能认为这些优点、优势、效果等是本申请的各个实施例必须具备的。另外,上述公开的具体细节仅是为了示例的作用和便于理解的作用,而非限制,上述细节并不限制本申请为必须采用上述具体的细节来实现。
本申请中涉及的器件、装置、设备、系统的方框图仅作为例示性的例子并且不意图要求或暗示必须按照方框图示出的方式进行连接、布置、配置。如本领域技术人员将认识到的,可以按任意方式连接、布置、配置这些器件、装置、设备、系统。诸如“包括”、“包含”、“具有”等等的词语是开放性词汇,指“包括但不限于”,且可与其互换使用。这里所使用的词汇“或”和“和”指词汇“和/或”,且可与其互换使用,除非上下文明确指示不是如此。这里所使用的词汇“诸如”指词组“诸如但不限于”,且可与其互换使用。
还需要指出的是,在本申请的装置、设备和方法中,各部件或各步骤是可以分解和/或重新组合的。这些分解和/或重新组合应视为本申请的等效方案。
提供所公开的方面的以上描述以使本领域的任何技术人员能够做出或者使用本申请。对这些方面的各种修改对于本领域技术人员而言是非常显而易见的,并且在此定义的一般原理可以应用于其他方面而不脱离本申请的范围。因此,本申请不意图被限制到在此示出的方面,而是按照与在此公开的原理和新颖的特征一致的最宽范围。
为了例示和描述的目的已经给出了以上描述。此外,此描述不意图将本申请的实施例限制到在此公开的形式。尽管以上已经讨论了多个示例方面和实施例,但是本领域技术人员将认识到其某些变型、修改、改变、添加和子组合。
Claims (10)
1.一种智能陪护管理系统,其特征在于,包括:
数据获取模块,用于获取由摄像头采集的多个预定时间点被监测人的身体姿势图像以及由传感器采集的多个预定时间点的加速度数据和多个预定时间点的角速度数据;
感兴趣区域提取模块,用于将所述多个预定时间点被监测人的身体姿势图像分别通过目标检测网络以得到多个躯干感兴趣区域特征图;
感兴趣区域编码模块,用于将所述多个躯干感兴趣区域特征图排列为三维输入张量后通过使用三维卷积核的第一卷积神经网络以得到躯干状态特征图;
池化模块,用于对所述躯干状态特征图进行基于特征矩阵的全局均值池化以得到躯干状态特征矩阵;
特征编码模块,用于将所述由传感器采集的多个预定时间点的加速度数据和多个预定时间点的角速度数据分别通过上下文编码器以获得加速度特征向量和角速度特征向量;
特征关联模块,用于计算所述加速度特征向量和所述角速度特征向量的关联矩阵以得到加速度-角速度关联特征矩阵;
融合模块,用于将所述躯干状态特征矩阵和所述加速度-角速度关联特征矩阵进行融合以得到分类特征矩阵;
优化模块,用于对所述分类特征矩阵进行优化以得到优化分类特征矩阵;
分类模块,用于将所述优化分类特征矩阵通过分类器以得到分类结果,所述分类结果用于判断被监测人是否跌倒。
2.根据权利要求1所述的智能陪护管理系统,其特征在于,所述感兴趣区域提取模块,包括:
使用所述目标检测网络以如下提取公式分别对所述多个预定时间点被监测人的身体姿势图像进行处理以得到所述多个躯干感兴趣区域特征图;
其中,所述提取公式为:
;
其中表示给定特征图,/>表示锚框,/>表示所述多个躯干感兴趣区域特征图。
3.根据权利要求2所述的智能陪护管理系统,其特征在于,所述感兴趣区域编码模块,包括:
所述使用三维卷积核的第一卷积神经网络在层的正向传递中对输入数据分别进行:
基于所述三维卷积核对所述输入数据进行三维卷积处理以得到卷积特征图;
对所述卷积特征图进行均值池化处理以得到池化特征图;
对所述池化特征图进行非线性激活以得到激活特征图;
其中,所述第一卷积神经网络的最后一层的输出为所述躯干状态特征图,所述第一卷积神经网络的第一层的输入为所述三维输入张量。
4.根据权利要求3所述的智能陪护管理系统,其特征在于,所述特征编码模块,包括:
加速度上下文编码单元,用于使用所述上下文编码器的基于转化器的Bert模型对多个预定时间点的加速度数据进行基于全局的上下文语义编码以得到多个加速度特征向量;
加速度级联单元,用于将所述多个加速度特征向量进行级联以得到所述加速度特征向量;
角速度上下文编码单元,用于使用所述上下文编码器的基于转化器的Bert模型对多个预定时间点的角速度数据进行基于全局的上下文语义编码以得到多个角速度特征向量;
角速度级联单元,用于将所述多个角速度特征向量进行级联以得到所述角速度特征向量。
5.根据权利要求4所述的智能陪护管理系统,其特征在于,所述特征关联模块,包括:
使用联合编码器以如下融合公式对所述加速度特征向量和所述角速度特征向量进行联合编码以生成所述加速度-角速度关联特征矩阵;
其中,所述融合公式为:
;
其中表示向量相乘,/>表示所述加速度-角速度关联特征矩阵,/>表示所述加速度特征向量,/>表示所述角速度特征向量,/>表示所述角速度特征向量的转置。
6.根据权利要求5所述的智能陪护管理系统,其特征在于,所述融合模块,包括:
对所述躯干状态特征矩阵和所述加速度-角速度关联特征矩阵进行沿通道维度的级联以得到所述分类特征矩阵。
7.根据权利要求6所述的智能陪护管理系统,其特征在于,所述优化模块,包括:
以如下后验表达公式计算所述分类特征矩阵相对于目标分类函数的运动分布模型的后验表达以得到优化分类特征矩阵;
其中,所述后验表达公式为:
;
其中,是所述分类特征矩阵的第/>位置的特征值,/>是所述分类特征矩阵的全局特征均值,/>表示以2为底的对数函数值,/>表示预定超参数,/>是所述优化分类特征矩阵的第/>位置的特征值。
8.根据权利要求7所述的智能陪护管理系统,其特征在于,所述分类模块,包括:
使用所述分类器以如下分类公式对所述优化分类特征矩阵进行处理以生成分类结果,其中,所述分类公式为:
;
其中为所述分类结果,/>表示将所述优化分类特征矩阵投影为向量,/>至/>为各层全连接层的权重矩阵,/>至/>表示各层全连接层的偏置向量,/>为激活函数。
9.一种智能陪护管理方法,其特征在于,包括:
获取由摄像头采集的多个预定时间点被监测人的身体姿势图像以及由传感器采集的多个预定时间点的加速度数据和多个预定时间点的角速度数据;
将所述多个预定时间点被监测人的身体姿势图像分别通过目标检测网络以得到多个躯干感兴趣区域特征图;
将所述多个躯干感兴趣区域特征图排列为三维输入张量后通过使用三维卷积核的第一卷积神经网络以得到躯干状态特征图;
对所述躯干状态特征图进行基于特征矩阵的全局均值池化以得到躯干状态特征矩阵;
将所述由传感器采集的多个预定时间点的加速度数据和多个预定时间点的角速度数据分别通过上下文编码器以获得加速度特征向量和角速度特征向量;
计算所述加速度特征向量和所述角速度特征向量的关联矩阵以得到加速度-角速度关联特征矩阵;
将所述躯干状态特征矩阵和所述加速度-角速度关联特征矩阵进行融合以得到分类特征矩阵;
对所述分类特征矩阵进行优化以得到优化分类特征矩阵;
将所述优化分类特征矩阵通过分类器以得到分类结果,所述分类结果用于判断被监测人是否跌倒。
10.根据权利要求9所述的智能陪护管理方法,其特征在于,将所述多个躯干感兴趣区域特征图排列为三维输入张量后通过使用三维卷积核的第一卷积神经网络以得到躯干状态特征图,包括:
所述使用三维卷积核的第一卷积神经网络在层的正向传递中对输入数据分别进行:
基于所述三维卷积核对所述输入数据进行三维卷积处理以得到卷积特征图;
对所述卷积特征图进行均值池化处理以得到池化特征图;
对所述池化特征图进行非线性激活以得到激活特征图;
其中,所述第一卷积神经网络的最后一层的输出为所述躯干状态特征图,所述第一卷积神经网络的第一层的输入为所述三维输入张量。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311652653.3A CN117352151B (zh) | 2023-12-05 | 2023-12-05 | 智能陪护管理系统及其方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311652653.3A CN117352151B (zh) | 2023-12-05 | 2023-12-05 | 智能陪护管理系统及其方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117352151A true CN117352151A (zh) | 2024-01-05 |
CN117352151B CN117352151B (zh) | 2024-03-01 |
Family
ID=89356110
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311652653.3A Active CN117352151B (zh) | 2023-12-05 | 2023-12-05 | 智能陪护管理系统及其方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117352151B (zh) |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100161534A1 (en) * | 2008-12-18 | 2010-06-24 | Yahoo! Inc. | Predictive gaussian process classification with reduced complexity |
CN106846729A (zh) * | 2017-01-12 | 2017-06-13 | 山东大学 | 一种基于卷积神经网络的跌倒检测方法和系统 |
CN108875532A (zh) * | 2018-01-25 | 2018-11-23 | 南京理工大学 | 一种基于稀疏编码和长度后验概率的视频动作检测方法 |
CN110605724A (zh) * | 2019-07-01 | 2019-12-24 | 青岛联合创智科技有限公司 | 一种智能养老陪伴机器人 |
CN112435440A (zh) * | 2020-10-30 | 2021-03-02 | 成都蓉众和智能科技有限公司 | 一种基于物联网平台的非接触式室内人员跌倒识别方法 |
CN113450268A (zh) * | 2021-05-24 | 2021-09-28 | 南京中医药大学 | 一种基于后验概率的图像降噪方法 |
CN114676956A (zh) * | 2022-01-04 | 2022-06-28 | 哈尔滨工业大学(威海) | 基于多维数据融合的老人跌倒风险预警系统 |
CN116230233A (zh) * | 2023-03-13 | 2023-06-06 | 无锡市第九人民医院 | 一种脑卒中患者的落床风险评估方法及系统 |
CN116977129A (zh) * | 2023-08-02 | 2023-10-31 | 三知士(杭州)信息技术有限公司 | 智慧物业管理系统及其方法 |
CN117007050A (zh) * | 2023-07-31 | 2023-11-07 | 江西省东鹏鞋业有限公司 | 智能化消防救援靴及其定位方法 |
CN117095802A (zh) * | 2023-10-17 | 2023-11-21 | 吉林大学 | 陪护人员的智能管理系统及其方法 |
-
2023
- 2023-12-05 CN CN202311652653.3A patent/CN117352151B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100161534A1 (en) * | 2008-12-18 | 2010-06-24 | Yahoo! Inc. | Predictive gaussian process classification with reduced complexity |
CN106846729A (zh) * | 2017-01-12 | 2017-06-13 | 山东大学 | 一种基于卷积神经网络的跌倒检测方法和系统 |
CN108875532A (zh) * | 2018-01-25 | 2018-11-23 | 南京理工大学 | 一种基于稀疏编码和长度后验概率的视频动作检测方法 |
CN110605724A (zh) * | 2019-07-01 | 2019-12-24 | 青岛联合创智科技有限公司 | 一种智能养老陪伴机器人 |
CN112435440A (zh) * | 2020-10-30 | 2021-03-02 | 成都蓉众和智能科技有限公司 | 一种基于物联网平台的非接触式室内人员跌倒识别方法 |
CN113450268A (zh) * | 2021-05-24 | 2021-09-28 | 南京中医药大学 | 一种基于后验概率的图像降噪方法 |
CN114676956A (zh) * | 2022-01-04 | 2022-06-28 | 哈尔滨工业大学(威海) | 基于多维数据融合的老人跌倒风险预警系统 |
CN116230233A (zh) * | 2023-03-13 | 2023-06-06 | 无锡市第九人民医院 | 一种脑卒中患者的落床风险评估方法及系统 |
CN117007050A (zh) * | 2023-07-31 | 2023-11-07 | 江西省东鹏鞋业有限公司 | 智能化消防救援靴及其定位方法 |
CN116977129A (zh) * | 2023-08-02 | 2023-10-31 | 三知士(杭州)信息技术有限公司 | 智慧物业管理系统及其方法 |
CN117095802A (zh) * | 2023-10-17 | 2023-11-21 | 吉林大学 | 陪护人员的智能管理系统及其方法 |
Also Published As
Publication number | Publication date |
---|---|
CN117352151B (zh) | 2024-03-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11179064B2 (en) | Method and system for privacy-preserving fall detection | |
Bargshady et al. | Enhanced deep learning algorithm development to detect pain intensity from facial expression images | |
US8805018B2 (en) | Method of detecting facial attributes | |
CN110674748A (zh) | 图像数据处理方法、装置、计算机设备以及可读存储介质 | |
WO2018163555A1 (ja) | 画像処理装置、画像処理方法、及び画像処理プログラム | |
Dilshad et al. | Efficient Deep Learning Framework for Fire Detection in Complex Surveillance Environment. | |
CN116503785A (zh) | 游泳馆监管系统及其方法 | |
Bhogal et al. | Corona virus disinfectant tunnel using face mask detection and temperature monitoring | |
CN115359557A (zh) | 一种基于Transformer的跌倒检测方法与系统 | |
Rastogi et al. | Human fall detection and activity monitoring: a comparative analysis of vision-based methods for classification and detection techniques | |
CN117352151B (zh) | 智能陪护管理系统及其方法 | |
CN116959099A (zh) | 一种基于时空图卷积神经网络的异常行为识别方法 | |
CN116994206A (zh) | 基于多元数据融合的室内人员计数方法及系统 | |
CN116052269A (zh) | 运动损伤预警系统及其预警方法 | |
CN116977129A (zh) | 智慧物业管理系统及其方法 | |
CN116686737A (zh) | 用于牛养殖的疾病防控方法及其系统 | |
JP7372391B2 (ja) | 入力データにおける異常を検知するための概念 | |
EP4086811A1 (en) | Problematic behavior classification system and method based on deep neural network algorithm | |
Yatbaz et al. | Run-time introspection of 2d object detection in automated driving systems using learning representations | |
Hassan et al. | Surveillance system of mask detection with infrared temperature sensor on Jetson Nano Kit | |
CN113705328A (zh) | 基于面部特征点与面部运动单元的抑郁检测方法和系统 | |
Mathew et al. | Human activity recognition using deep learning approaches and single frame cnn and convolutional lstm | |
Zurita et al. | Fitness-for-Duty Classification using Temporal Sequences of Iris Periocular images | |
Saranya et al. | Human body temperature and face mask audit system for COVID protocol | |
Mobsite et al. | A Deep Learning Dual-Stream Framework for Fall Detection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |