CN110674743A - 一种基于三轴加速度数据摔倒检测方法 - Google Patents

一种基于三轴加速度数据摔倒检测方法 Download PDF

Info

Publication number
CN110674743A
CN110674743A CN201910905087.XA CN201910905087A CN110674743A CN 110674743 A CN110674743 A CN 110674743A CN 201910905087 A CN201910905087 A CN 201910905087A CN 110674743 A CN110674743 A CN 110674743A
Authority
CN
China
Prior art keywords
acceleration data
triaxial acceleration
falling
tumble
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN201910905087.XA
Other languages
English (en)
Inventor
刘知青
赖嘉暘
刘涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Kangyuan Image Intelligent Research Institute
Original Assignee
Guangzhou Kangyuan Image Intelligent Research Institute
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou Kangyuan Image Intelligent Research Institute filed Critical Guangzhou Kangyuan Image Intelligent Research Institute
Priority to CN201910905087.XA priority Critical patent/CN110674743A/zh
Publication of CN110674743A publication Critical patent/CN110674743A/zh
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/04Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
    • G08B21/0407Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons based on behaviour analysis
    • G08B21/043Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons based on behaviour analysis detecting an emergency event, e.g. a fall

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Psychiatry (AREA)
  • Data Mining & Analysis (AREA)
  • Social Psychology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Emergency Management (AREA)
  • Psychology (AREA)
  • Gerontology & Geriatric Medicine (AREA)
  • Business, Economics & Management (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于三轴加速度数据摔倒检测方法,包括以下步骤:构建基于三轴加速度数据的摔倒预测网络,摔倒预测网络输入为三轴加速度数据,三轴加速度数据对应的摔倒状态为输出,采集待检测的三轴加速度数据,对待检测的三轴加速度数据进行处理,将处理后的待检测的三轴加速度数据输入摔倒预测网络进行识别,摔倒预测网络输出摔倒状态,依据摔倒状态进行判断是否需要报警。通过构建摔倒预测网络,并将处理过的三轴加速度数据作为摔倒预测网络的输入,可以有效预测摔倒的状态,提高预测的准确度;同时,通过依据摔倒状态进行判断,可以进一步的降低误判率,能够有效的避免由于动作过大而引起报警的情况出现。

Description

一种基于三轴加速度数据摔倒检测方法
技术领域
本发明涉及健康检测技术领域,特别涉及一种基于三轴加速度数据摔倒检测方法。
背景技术
摔倒对于老年人而言,是日常生活中有可能发生的十分严重的危害,在老年人在摔倒后无人敢搀扶或未被及时发现,使老年人在摔倒后错失最佳的救助时间,令老年人的生命受到威胁,因此,智能检测人体摔倒系统的建设与完善已迫在眉睫。
摔倒检测在全球范围内有不少类型的设备和服务,而可穿戴的摔倒检测目前使用较多的,但由于人体平常活动情况更多样复杂,如击掌,甩手等动作也会产生与摔倒情况相近的加速度变化,且设备未被穿戴时掉落也会使加速度产生变化,所以仅仅是通过一些较简单的阈值模型和判断逻辑来进行检测会有一定几率产生误判断,不能真实、客观的反应出实际情况,而且还会增加服务中心的负荷。
发明内容
有鉴于此,本发明提出一种能够降低误差率的基于三轴加速度数据摔倒检测方法。
本发明的技术方案是这样实现的:
一种基于三轴加速度数据摔倒检测方法,包括以下步骤:
步骤S1,构建基于三轴加速度数据的摔倒预测网络,所述摔倒预测网络输入为三轴加速度数据,所述三轴加速度数据对应的摔倒状态为输出;
步骤S2,采集待检测的三轴加速度数据;
步骤S3,对所述待检测的三轴加速度数据进行处理;
步骤S4,将处理后的待检测的三轴加速度数据输入摔倒预测网络进行识别;
步骤S5,所述摔倒预测网络输出摔倒状态;
步骤S6,依据所述摔倒状态进行判断是否需要报警。
作为所述基于三轴加速度数据摔倒检测方法的进一步可选方案,所述步骤S1包括以下步骤:
步骤S11,采集摔倒时的三轴加速度数据;
步骤S12,对所述摔倒时的三轴加速度数据进行预处理,得到三张摔倒时的灰度图;
步骤S13,对所述摔倒时的三张灰度图进行合并处理,并通过深度神经网络进行训练,得到摔倒预测网络。
作为所述基于三轴加速度数据摔倒检测方法的进一步可选方案,所述步骤S12包括以下步骤:
步骤S121,对摔倒时的三轴加速度数据进行汉明窗权重加窗处理;
步骤S122,对汉明窗权重加窗处理后的三轴加速度数据进行快速傅里叶变换。
作为所述基于三轴加速度数据摔倒检测方法的进一步可选方案,所述步骤S13中的对所述摔倒时的三张灰度图进行合并处理包括以下步骤:
步骤S131,将摔倒时的三张灰度图合并成摔倒时的RGB彩色图像;
步骤S132,将所述摔倒时的RGB彩色图像合并成摔倒时的视频。
作为所述基于三轴加速度数据摔倒检测方法的进一步可选方案,所述步骤S3中对所述待检测的三轴加速度数据进行处理,包括预处理和合并处理。
作为所述基于三轴加速度数据摔倒检测方法的进一步可选方案,所述步骤S3中的预处理包括以下步骤:
步骤S31,对待检测的三轴加速度数据进行汉明窗权重加窗处理;
步骤S32,对汉明窗权重加窗处理后的三轴加速度数据进行快速傅里叶变换,得到三张待检测的灰度图。
作为所述基于三轴加速度数据摔倒检测方法的进一步可选方案,所述步骤S3中的合并处理包括以下步骤:
步骤S33,将三张待检测的灰度图合并成待检测的RGB彩色图像;
步骤S34,将所述待检测的RGB彩色图像合并成待检测的视频。
作为所述基于三轴加速度数据摔倒检测方法的进一步可选方案,所述步骤S6包括以下步骤:
步骤S61,获取摔倒状态;其中,所述摔倒状态为摔倒与躺下的顺序;
步骤S62,若摔倒与躺下的顺序为先摔倒后躺下,则需要报警,否则不需要报警。
作为所述基于三轴加速度数据摔倒检测方法的进一步可选方案,所述深度神经网络为YOLO_FALL神经网络。
作为所述基于三轴加速度数据摔倒检测方法的进一步可选方案,所述YOLO_FALL神经网络包括深度卷积层,上采样层和检测层。
本发明的有益效果是:通过构建摔倒预测网络,并将处理过的三轴加速度数据作为摔倒预测网络的输入,可以有效预测摔倒的状态,提高预测的准确度;同时,通过依据摔倒状态进行判断,只有当摔倒状态与设定好的摔倒顺序一致时,才会认定为摔倒,这样可以进一步的降低误判率,能够有效的避免由于动作过大而引起报警的情况出现。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明一种基于三轴加速度数据摔倒检测方法的流程图;
图2为本发明一种基于三轴加速度数据摔倒检测方法的数据流处理过程示意图。
具体实施方式
下面将对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
参照图1-2一种基于三轴加速度数据摔倒检测方法,包括以下步骤:
步骤S1,构建基于三轴加速度数据的摔倒预测网络,所述摔倒预测网络输入为三轴加速度数据,所述三轴加速度数据对应的摔倒状态为输出;
步骤S2,采集待检测的三轴加速度数据;
步骤S3,对所述待检测的三轴加速度数据进行处理;
步骤S4,将处理后的待检测的三轴加速度数据输入摔倒预测网络进行识别;
步骤S5,所述摔倒预测网络输出摔倒状态;
步骤S6,依据所述摔倒状态进行判断是否需要报警。
在本实施例中,通过构建摔倒预测网络,并将处理过的三轴加速度数据作为摔倒预测网络的输入,可以有效预测摔倒的状态,提高预测的准确度;同时,通过依据摔倒状态进行判断,只有当摔倒状态与设定好的摔倒顺序一致时,才会认定为摔倒,这样可以进一步的降低误判率,能够有效的避免由于动作过大而引起报警的情况出现;需要说明的是,可穿戴设备一般配备有惯性测量单元(IMU),内含三轴加速度传感器和三轴陀螺仪等传感器,可以记录下运动的加速度和角速度等数据。
优选的,所述步骤S1包括以下步骤:
步骤S11,采集摔倒时的三轴加速度数据;
步骤S12,对所述摔倒时的三轴加速度数据进行预处理,得到三张摔倒时的灰度图;
步骤S13,对所述摔倒时的三张灰度图进行合并处理,并通过深度神经网络进行训练,得到摔倒预测网络。
在本实施例中,通过对摔倒时的三轴加速度数据进行预处理,可以将每一轴的数据转化成灰度图,所以三轴的数据就能得到三张灰度图,同时,通过采用深度神经网络对处理过的图像进行训练,在图像上寻找行为的特征,能够较好地表达摔倒与否的状态;需要说明的是,包括但不限于通过采用滑动窗口的方法实现数据转化成灰度图的效果。
优选的,所述步骤S12包括以下步骤:
步骤S121,对摔倒时的三轴加速度数据进行汉明窗权重加窗处理;
步骤S122,对汉明窗权重加窗处理后的三轴加速度数据进行快速傅里叶变换。
在本实施例中,由于网络权重在大量训练后趋于收敛,其中每层的权重代表的是摔倒过程的特征,普通行为的特征和躺下行为的特征,所以通过对摔倒时的三轴加速度数据进行汉明窗权重加窗处理,将这些特征在预测集中的进行非线性处理能够更为准确地表达摔倒与否的状态,同时,通过傅里叶分解,可以提取一个时间段内的数据的频域特征,作为对后续模型的一个数据预处理;需要说明的是,快速傅里叶分解的过程,是通过把不同频率的正弦余弦函数线性组合来表达原函数的过程,转换后的数据,则是这些正弦余弦函数的波幅,可以看做在这些不同频率分量上对原函数的贡献。
优选的,所述步骤S13中的对所述摔倒时的三张灰度图进行合并处理包括以下步骤:
步骤S131,将摔倒时的三张灰度图合并成摔倒时的RGB彩色图像;
步骤S132,将所述摔倒时的RGB彩色图像合并成摔倒时的视频。
在本实施例中,通过将RGB彩色图像合并成视频,方便深度神经网络直接对整个视频进行识别,在识别时有选择地跳帧识别,可以有效提高识别的速度,加快摔倒预测判断的进程;需要说明的是,可以通过工具包将灰度图合并成RGB彩色图像,将RGB彩色图像合并成视频,所述工具包包括但不限于openCV工具包。
优选的,所述步骤S3中对所述待检测的三轴加速度数据进行处理,包括预处理和合并处理。
在本实施例中,通过将预处理和合并处理后的待检测的三轴加速度数据作为摔倒预测网络的输入,从而能够提高摔倒预测网络的识别准确度。
优选的,所述步骤S3中的预处理包括以下步骤:
步骤S31,对待检测的三轴加速度数据进行汉明窗权重加窗处理;
步骤S32,对汉明窗权重加窗处理后的三轴加速度数据进行快速傅里叶变换,得到三张待检测的灰度图。
在本实施例中,由于网络权重在大量训练后趋于收敛,其中每层的权重代表的是摔倒过程的特征,普通行为的特征和躺下行为的特征,所以通过对待检测的三轴加速度数据进行汉明窗权重加窗处理,将这些特征在预测集中的进行非线性处理能够更为准确地表达摔倒与否的状态,同时,通过傅里叶分解,可以提取一个时间段内的数据的频域特征,作为对后续模型的一个数据预处理;需要说明的是,快速傅里叶分解的过程,是通过把不同频率的正弦余弦函数线性组合来表达原函数的过程,转换后的数据,则是这些正弦余弦函数的波幅,可以看做在这些不同频率分量上对原函数的贡献。
优选的,所述步骤S3中的合并处理包括以下步骤:
步骤S33,将三张待检测的灰度图合并成待检测的RGB彩色图像;
步骤S34,将所述待检测的RGB彩色图像合并成待检测的视频。
在本实施例中,通过将待检测的RGB彩色图像合并成待检测的视频,方便摔倒预测网络直接对整个视频进行识别,在识别时有选择地跳帧识别,可以有效提高识别的速度,加快摔倒判断的进程;需要说明的是,可以通过工具包将灰度图合并成RGB彩色图像,将RGB彩色图像合并成视频,所述工具包包括但不限于openCV工具包。
优选的,所述步骤S6包括以下步骤:
步骤S61,获取摔倒状态;其中,所述摔倒状态为摔倒与躺下的顺序;
步骤S62,若摔倒与躺下的顺序为先摔倒后躺下,则需要报警,否则不需要报警。
在本实施例中,通过采用一种工程方法作为误判筛选的逻辑,可以减少实际误判摔倒的情况,只有当摔倒与躺下的顺序为先摔倒后躺下时,才认为是摔倒,否则都不认为是摔倒;需要说明的是,当确定为摔倒时,可穿戴设备应该发出警报并上报,如果用户在3秒内未取消警报,认为摔倒的情况较为严重,保持警报,如果用户手动取消了警报,则认为是并无大碍。
优选的,所述深度神经网络为YOLO_FALL神经网络。
在本实施例中,YOLO_FALL基于YOLO算法,把原来高达53层的卷积层缩减为34层,大大减少了使用时候的算力负荷,对检测时长要求更高的摔到监测场景有非常好的适应性,同时,通过采用YOLO_FALL神经网络,可以将原始图片分割成互不重合的小方块,然后通过卷积最后生产这样大小的特征图,特征图的每个元素对应原始图片的一个小方块,然后用每个元素来可以预测那些中心点在该小方格内的目标,利用神经网络模型天然的泛化能力,对不同的设备间的摔倒行为有了稳定的判断,减少了误判断的情况;需要说明的是,也可以利用别的目标识别模型代替YOLO_FALL,包括但不限于R-CNN、Mask R-CNN的R-CNN系列、YOLO系列、RPN、SSD、FPN以及RetinaNet。
优选的,所述YOLO_FALL神经网络包括深度卷积层,上采样层和检测层。
在本实施例中,通过深度卷积层对数据进行特征抽象化提取,经过多层抽象化后,再经过上采样层,上采样相当于在二维图像上的插值过程,也是具象化过程,目的是使得图像像素增加,从而能够识别更细微的特征从中识别出分类,最后通过检测层对特征进行线性的输出可以得到最终的目标检测框的以下预测信息:中心点偏移(X,Y),目标框宽高(W,H),置信度,和所在分类;
需要说明的是,深度卷积层为卷积核为1×1的卷积层,而整个网络由34个卷积层组成,故名为Fallnet34深度卷积网络特征提取网络,上采样层为Upsampling上采样网络,检测层为YOLO检测网络;其中,Upsampling上采样层实际上是借鉴了特征金字塔网络Feature Pyramid Networks(FPN)的构建方式,通过在Fallnet倒数三个大小的层中的输出与上采样层的三个大小的层的输出进行类似残差链(Residual link)的合并(concatenate),把尽可能丰富的特征融入到最终的目标识别之前,让识别的过程能依据更多的信息进行判断。
以上所述仅为本发明的较佳实施方式而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种基于三轴加速度数据摔倒检测方法,其特征在于,所述方法包括以下步骤:
步骤S1,构建基于三轴加速度数据的摔倒预测网络,所述摔倒预测网络输入为三轴加速度数据,所述三轴加速度数据对应的摔倒状态为输出;
步骤S2,采集待检测的三轴加速度数据;
步骤S3,对所述待检测的三轴加速度数据进行处理;
步骤S4,将处理后的待检测的三轴加速度数据输入摔倒预测网络进行识别;
步骤S5,所述摔倒预测网络输出摔倒状态;
步骤S6,依据所述摔倒状态进行判断是否需要报警。
2.根据权利要求1所述的一种基于三轴加速度数据摔倒检测方法,其特征在于,所述步骤S1包括以下步骤:
步骤S11,采集摔倒时的三轴加速度数据;
步骤S12,对所述摔倒时的三轴加速度数据进行预处理,得到三张摔倒时的灰度图;
步骤S13,对所述摔倒时的三张灰度图进行合并处理,并通过深度神经网络进行训练,得到摔倒预测网络。
3.根据权利要求2所述的一种基于三轴加速度数据摔倒检测方法,其特征在于,所述步骤S12包括以下步骤:
步骤S121,对摔倒时的三轴加速度数据进行汉明窗权重加窗处理;
步骤S122,对汉明窗权重加窗处理后的三轴加速度数据进行快速傅里叶变换。
4.根据权利要求2所述的一种基于三轴加速度数据摔倒检测方法,其特征在于,所述步骤S13中的对所述摔倒时的三张灰度图进行合并处理包括以下步骤:
步骤S131,将摔倒时的三张灰度图合并成摔倒时的RGB彩色图像;
步骤S132,将所述摔倒时的RGB彩色图像合并成摔倒时的视频。
5.根据权利要求1所述的一种基于三轴加速度数据摔倒检测方法,其特征在于,步骤S3中对所述待检测的三轴加速度数据进行处理,包括预处理和合并处理。
6.根据权利要求5所述的一种基于三轴加速度数据摔倒检测方法,其特征在于,所述步骤S3中的预处理包括以下步骤:
步骤S31,对待检测的三轴加速度数据进行汉明窗权重加窗处理;
步骤S32,对汉明窗权重加窗处理后的三轴加速度数据进行快速傅里叶变换,得到三张待检测的灰度图。
7.根据权利要求5所述的一种基于三轴加速度数据摔倒检测方法,其特征在于,所述步骤S3中的合并处理包括以下步骤:
步骤S33,将三张待检测的灰度图合并成待检测的RGB彩色图像;
步骤S34,将所述待检测的RGB彩色图像合并成待检测的视频。
8.根据权利要求1所述的一种基于三轴加速度数据摔倒检测方法,其特征在于,所述步骤S6包括以下步骤:
步骤S61,获取摔倒状态;其中,所述摔倒状态为摔倒与躺下的顺序;
步骤S62,若摔倒与躺下的顺序为先摔倒后躺下,则需要报警,否则不需要报警。
9.根据权利要求1所述的一种基于三轴加速度数据摔倒检测方法,其特征在于,所述深度神经网络为YOLO_FALL神经网络。
10.根据权利要求9所述的一种基于三轴加速度数据摔倒检测方法,其特征在于,所述YOLO_FALL神经网络包括深度卷积层,上采样层和检测层。
CN201910905087.XA 2019-09-24 2019-09-24 一种基于三轴加速度数据摔倒检测方法 Withdrawn CN110674743A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910905087.XA CN110674743A (zh) 2019-09-24 2019-09-24 一种基于三轴加速度数据摔倒检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910905087.XA CN110674743A (zh) 2019-09-24 2019-09-24 一种基于三轴加速度数据摔倒检测方法

Publications (1)

Publication Number Publication Date
CN110674743A true CN110674743A (zh) 2020-01-10

Family

ID=69077490

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910905087.XA Withdrawn CN110674743A (zh) 2019-09-24 2019-09-24 一种基于三轴加速度数据摔倒检测方法

Country Status (1)

Country Link
CN (1) CN110674743A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111833568A (zh) * 2020-07-08 2020-10-27 首都医科大学附属北京天坛医院 基于压电信号监控的摔倒分级示警装置及其工作方法
WO2023273640A1 (zh) * 2021-06-30 2023-01-05 荣耀终端有限公司 癫痫检测方法和装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111833568A (zh) * 2020-07-08 2020-10-27 首都医科大学附属北京天坛医院 基于压电信号监控的摔倒分级示警装置及其工作方法
CN111833568B (zh) * 2020-07-08 2021-11-05 首都医科大学附属北京天坛医院 基于压电信号监控的摔倒分级示警装置及其工作方法
WO2023273640A1 (zh) * 2021-06-30 2023-01-05 荣耀终端有限公司 癫痫检测方法和装置

Similar Documents

Publication Publication Date Title
US10970559B2 (en) People flow estimation device, people flow estimation method, and recording medium
US10504031B2 (en) Method and apparatus for determining probabilistic context awareness of a mobile device user using a single sensor and/or multi-sensor data fusion
CN105405150B (zh) 基于融合特征的异常行为检测方法和装置
CN110147738B (zh) 一种驾驶员疲劳监测预警方法及系统
KR20210006971A (ko) 지오로케이션 예측을 위한 시스템 및 방법
CN106997452B (zh) 活体验证方法及装置
CN108960430B (zh) 为人体运动活动生成个性化分类器的方法和设备
US10721347B2 (en) Detecting patterns and behavior to prevent a mobile terminal drop event
Rasheed et al. Evaluation of human activity recognition and fall detection using android phone
CN111222493A (zh) 一种视频处理方法及装置
CN110674743A (zh) 一种基于三轴加速度数据摔倒检测方法
CN114469074A (zh) 一种跌倒预警方法、系统、设备及计算机存储介质
JP2021111273A (ja) 学習モデルの生成方法、プログラム及び情報処理装置
CN114495006A (zh) 遗留物体的检测方法、装置及存储介质
CN113553893A (zh) 基于深度神经网络的人体跌倒检测方法、装置和电子设备
CN116226727A (zh) 一种基于ai的运动识别系统
CN113850109A (zh) 一种基于注意力机制和自然语言处理的视频图像告警方法
CN109620241B (zh) 一种可穿戴设备及基于其的动作监测方法
CN116840835B (zh) 一种基于毫米波雷达的跌倒检测方法、系统及设备
CN114327045B (zh) 基于类别不平衡信号的跌倒检测方法及系统
CN110555394A (zh) 基于人体形体特征的跌倒风险评估方法
CN107203259B (zh) 用于使用单和/或多传感器数据融合确定移动设备使用者的概率性内容感知的方法和装置
CN115937991A (zh) 人体摔倒识别方法、装置、计算机设备及存储介质
CN112818929B (zh) 一种人员斗殴检测方法、装置、电子设备及存储介质
Zhao et al. Fall detection algorithm based on human posture recognition

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication
WW01 Invention patent application withdrawn after publication

Application publication date: 20200110