CN110807471B - 一种多模态传感器的行为识别系统及识别方法 - Google Patents
一种多模态传感器的行为识别系统及识别方法 Download PDFInfo
- Publication number
- CN110807471B CN110807471B CN201910968822.1A CN201910968822A CN110807471B CN 110807471 B CN110807471 B CN 110807471B CN 201910968822 A CN201910968822 A CN 201910968822A CN 110807471 B CN110807471 B CN 110807471B
- Authority
- CN
- China
- Prior art keywords
- user
- behavior
- data
- actions
- sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 50
- 230000009471 action Effects 0.000 claims abstract description 73
- 230000033001 locomotion Effects 0.000 claims abstract description 11
- 210000003141 lower extremity Anatomy 0.000 claims description 26
- 210000001364 upper extremity Anatomy 0.000 claims description 25
- 238000012544 monitoring process Methods 0.000 claims description 21
- 230000008569 process Effects 0.000 claims description 12
- 239000011521 glass Substances 0.000 claims description 11
- 230000007613 environmental effect Effects 0.000 claims description 6
- 238000009499 grossing Methods 0.000 claims description 6
- 238000005259 measurement Methods 0.000 claims description 6
- 230000001360 synchronised effect Effects 0.000 claims description 3
- 230000001815 facial effect Effects 0.000 claims description 2
- 230000014509 gene expression Effects 0.000 claims description 2
- 238000012545 processing Methods 0.000 abstract description 10
- 238000012549 training Methods 0.000 abstract description 8
- 238000004458 analytical method Methods 0.000 abstract description 6
- 238000005516 engineering process Methods 0.000 abstract description 4
- 230000006698 induction Effects 0.000 abstract description 2
- 230000006399 behavior Effects 0.000 description 47
- 238000010586 diagram Methods 0.000 description 3
- 239000004984 smart glass Substances 0.000 description 3
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000001680 brushing effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 210000003414 extremity Anatomy 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000011897 real-time detection Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/251—Fusion techniques of input or preprocessed data
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
本发明公开了一种基于多模态传感器的行为识别系统及识别方法,该系统及方法通过利用多个智能设备,结合逻辑归纳与信号处理算法,通过分析用户肢体运动产生的传感器信号,采用逻辑层级分析的方式,识别该用户所做的动作,同时结合设备的其他传感器信息,捕获用户的情景信息,进一步可以推算出用户每日行走的距离、消耗的热量、运动的时间等,并基于识别结果形成日志,达到对用户一天的行为的推断和记录。本发明、不同于以往用户行为识别的研究,除了传统的模型训练、传感器应用技术外,将多路信号处理与逻辑推理同时运用到行为识别中,实现了更细粒度的识别等级,而且具有广普适性、强鲁棒性。
Description
技术领域
本发明属于智能感知、可穿戴移动计算、普适计算领域,具体涉及一种多模态传感器的行为识别系统及识别方法。
背景技术
随着传感器技术的发展和手机计算能力的提升,智能终端作为物联网的关键组成部分,已经融入了每一个人的日常生活中。其中基于智能设备的用户行为识别成为近年来的研究热点,其以传感器等多种感知原件所接收到的数据作为输入,通过一定的方法识别或预测用户的日常行为。它在健康和运动监测、用户生物特征签名、城市计算、残障人士辅助、老年看护以及室内定位等领域发挥着重要作用。
有关人类日常行为识别的工作已经开展了很久,在许多方面取得了进展。不过各种实现的技术手段都存在明显的缺陷和不足,越来越无法适应目前的需求,其中最常见的就是基于各种学习模型进行训练的方法。基于训练的方法大致分为三大类:监督学习、半监督学习、无监督学习等。
虽然训练后的模型在应用中效果可观,但是需要大量的样本数据进行前期的训练工作,这个过程的数据量过于庞大,需要在离线状态下训练模型,重量级的计算过程也限制了这类方法在智能终端的发展和应用场景。从科学的角度也很难说清模型结构原理,解释性较差。
基于建模的方法主要是对特定的环境中特定的动作进行建模,所以这些利用逻辑模型进行判断的方法只能检测特定情境下的规定行为,例如:健身房场景的行为检测等,普适性和自由度偏低。
还有一些针对环境内容的一些行为感知工作,但是普遍要搭建传感器网络,过多的传感器使得整个系统十分复杂。
因此目前有关行为识别的工作存在很多瓶颈,训练数据庞大、需要离线建模、无法实时检测、传感器使用过多,影响正常行为等等。这些问题在越来越趋于轻便化的日常行为识别中变得捉襟见肘,无法满足日益轻快、智能的人机交互需求,所以轻量级、多维度感知的用户日常行为识别技术是一个亟待解决的问题。
发明内容
本发明所要解决的技术问题是:提供一种多模态传感器的行为识别系统及识别方法,解决了现有技术中该类系统及方法训练数据庞大、普适性差的问题。
本发明为解决上述技术问题采用以下技术方案:
一种基于多模态传感器的行为识别系统,包括用户身上的各种智能设备以及监控终端,所述智能设备通过传感器和/或蓝牙模块获取用户的身体特征以及周围环境特征,并发送至监控终端,监控终端对接收到的身体及周围环境特征进行数据处理,识别出用户实时的身体状态信息,并将这些身体状态信息统计、分类,形成对用户行为的记录并存储。
用户的身体特征包括上肢动作、下肢动作及面部动作表情;周围环境特征包括声音、海拔、温度、地理位置信息。
所述智能设备包括具有内置传感器和/或蓝牙模块的智能眼镜、智能手表、智能手机、蓝牙运动模块、惯性测量单元、气压计、麦克风、GPS。
一种多模态传感器的行为识别方法,包括如下步骤:
步骤1、获取用户身上多个智能设备的传感器信号;
步骤2、将采集到的多路传感器信号进行分析、融合,解析数据包格式,将多路传感器信号集中到一个终端;
步骤3、将融合后的信号用滑动窗口进行切分,根据信号在时间序列上的表现,提取不同动作的信号特征;
步骤4、根据每个人信号特征的差异,进行自适应阈值调整,得到优化后的动作逻辑判断条件;
步骤5、根据传感器信号及动作逻辑判断条件识别出用户的上、下肢动作以及用户周围的环境特征;
步骤6、根据用户的上、下肢动作及周围环境,获取并记录用户一天的行为推断,生成用户的行为日志在监控终端显示并存储。
步骤2中将多路传感器信号进行分析、融合的过程如下:
分别获取上肢动作和下肢动作传感器信号采集装置的数据包,分析数据包格式,确定数据包每一帧的内容,并且提取相应的数据,将提取出的数据按照预先设定的数据格式进行拼接,使得所有采集装置的数据格式保持一致,将拼接后的数据上传至监控终端,通过对齐时间戳数据,得到所有采集装置的同步数据。
步骤3的具体操作如下:
将融合后的信号首先进行平滑处理,处理后设置固定时间的滑动窗口对整个信号进行切分,获得时间序列上的多个窗口,根据信号在时间序列上每一个窗口中表现和性质,提取出不同动作的信号特征。
所述表现和性质包括短时能量分布,即RMS值、极值、频率。
步骤4中的动作逻辑判断条件为:
根据要判断的动作数据,为每一个动作都设置相应的条件,形成一个逻辑树,每个动作数据自动匹配逻辑树中符合的条件,进行行为判断。
步骤6中用户一天的行为推断过程如下:
获取用户上肢和下肢的具体动作,应用集成在智能设备上的传感器收集做出这些具体动作时刻的周围环境,推断该时间戳用户的行为,将一天中多个时间戳的用户行为集中起来,即完成了用户一天的行为推断。
与现有技术相比,本发明具有以下有益效果:
1、本发明提供了一种全新的轻量级多维度感知的用户日常行为的新颖方法。不同于以往用户行为识别的研究,除了传统的模型训练、传感器应用技术外,将多路信号处理与逻辑推理同时运用到行为识别中,实现了更细粒度的识别等级,而且具有广普适性、强鲁棒性。
2、逻辑推理的方法摆脱了大量模型训练的过程,数据处理级别下降也降低了其对硬件计算能力的要求,可以搭载更多的商用智能设备。。
3、结合多设备多模态的综合识别将结果细粒度化,不仅仅停留在行、立、卧、坐等基本状态,实现逐级分层的识别级别。使用多智能设备多传感器记录用户日常行为多种数据信号,通过对上下肢动作的识别,同时结合情景内容信息,进而分析用户在一天内时间序列上的日常行为。
附图说明
图1为本发明多模态传感器的行为识别系统组成示意图。
图2为本发明多模态传感器信号采集示意图。
图3为本发明多模态传感器的行为识别方法处理流程图。
其中,图中的标识为:1-智能手机;2-智能眼镜;3-智能手表;4-智能脚链。
具体实施方式
下面结合附图对本发明的结构及工作过程作进一步说明。
本专利提出了一种基于多模态传感器数据融合的行为识别方法与系统。该系统通过利用多个智能设备,包括但不限于:智能眼镜、智能手表、智能手机内置的传感器或者带有传感器的电路模块(包括但不限于惯性测量单元(IMU:Inertial measurement unit)、气压计、麦克风、GPS等),结合逻辑归纳与信号处理算法,通过分析用户肢体(如上肢、下肢及头部等部位)运动产生的传感器信号,结合设备此时其他传感器的信息(如:声音、海拔、地理位置等),采用逻辑层级分析的方式,识别该用户所做的动作。
识别方法包含通过智能设备中的惯性测量单元采集用户做出动作时产生的IMU信号和当前设备的其他传感器信号,并对采集到的信号进行如下处理,包括:数据信号分析、多路数据信号融合、信号切分、逻辑特征提取和判断及上下肢动作逻辑算法设计。利用通过分析与处理IMU数据信号得到的上肢与下肢的基础判断逻辑,同时结合自适应阈值判断逻辑的方法,实现了对下肢动作,比如走、跑、上楼、下楼、骑车、上电梯、下电梯等;上肢动作,比如:使用键盘、写字、刷牙、吃饭等以及无动作的识别,同时结合设备的其他传感器信息,识别出用户的情景信息,比如位置、海拔、温度等。进一步可以推算出用户每日行走的距离、消耗的热量、运动的时间等,并基于识别结果形成日志,达到对用户一天的行为的推断和记录。
具体的技术方案如下:
一种基于多模态传感器的行为识别系统,包括用户身上的各种智能设备以及监控终端,所述智能设备通过传感器和/或蓝牙模块获取用户的身体特征以及周围环境特征,并发送至监控终端,监控终端对接收到的身体及周围环境特征进行数据处理,识别出用户实时的身体状态信息,并将这些身体状态信息统计、分类,形成对用户行为的记录并存储。所述智能设备包括具有内置传感器和/或蓝牙模块的智能眼镜、智能手表、智能手机、蓝牙运动模块、惯性测量单元、气压计、麦克风、GPS。
具体实施例,如图1、图2所示,
一种基于多模态传感器的行为识别系统,包括携带在用户身上的智能手机1,佩戴在用户身上的智能眼镜2、智能手表3、智能脚链4;通过智能手机自带的传感器和/或蓝牙模块获取用户的身体特征以及周围环境特征,通过智能眼镜获取用户的面部表情动作,通过智能手表获取用户的上肢动作,通过智能脚链获取用户的下肢动作,将各智能设备获取的信息发送至智能手机的中央处理器,其中,周围环境特征包括声音、海拔、温度、地理位置信息,智能手机的中央处理器将接收到的身体及周围环境特征发送至监控终端,监控终端对数据进行处理,识别出用户实时的身体状态信息,并将这些身体状态信息统计、分类,形成对用户行为的记录并存储。
一种多模态传感器的行为识别方法,如图3所示,包括如下步骤:
步骤1、获取用户身上多个智能设备的传感器信号;
步骤2、将采集到的多路传感器信号进行分析、融合,解析数据包格式,将多路传感器信号集中到一个终端;
步骤3、将融合后的信号用滑动窗口进行切分,根据信号在时间序列上的表现,提取不同动作的信号特征;
步骤4、根据每个人信号特征的差异,进行自适应阈值调整,得到优化后的动作逻辑判断条件;
步骤5、根据传感器信号及动作逻辑判断条件识别出用户的上、下肢动作以及用户周围的环境特征;
步骤6、根据用户的上、下肢动作及周围环境,获取并记录用户一天的行为推断,生成用户的行为日志在监控终端显示并存储。
具体实施例,
一种多模态传感器的行为识别方法,包括如下步骤:
步骤1、激活多设备多传感器信号采集系统,获取用户身上多个智能设备的传感器信号,用于收集目标用户身上各种智能设备传感器数据有多种,包括但不限于:智能眼镜、智能手表、智能手表及装置在鞋上的蓝牙运动模块,其中智能眼镜和智能手表收集的数据信号主要用于上肢动作的判断,智能手机和蓝牙运动模块主要用于下肢动作的检测;该实施例中主要采用智能眼镜、智能手表、智能脚链、智能手机获取传感器信号,智能脚链为蓝牙运动模块。
步骤2、将采集到的多路传感器信号进行分析、融合,解析数据包格式,将多路传感器信号集中到一个终端;具体分析、融合的过程如下:
分别获取上肢动作和下肢动作传感器信号采集装置的数据包,分析数据包格式,其中,智能眼镜、手表、手机都是安卓系统,所以采集到的数据格式是一致的,每一列均为:time,ax,ay,az,gx,gy,gz,mx,my,mz(采集时间,加速度x,y,z轴数据,陀螺仪x,y,z轴数据,磁力计x,y,z轴数据),共10列;
智能脚链(即脚部的IMU传感器)传出的数据包格式不同,因此,分析主要是对脚部IMU传感器设备进行分析的,因为该设备采集数据后发出的数据包格式由上位机的代码决定的,分析了上位机代码,确定数据包每一帧的内容,并且提取相应的数据,包括我们需要的和其他三个设备一致的数据:time,ax,ay,az,gx,gy,gz,mx,my,mz,这些数据通过代码提取出来并拼接在一起,就得到了解析后和上面三个设备一致的数据;使得所有采集装置的数据格式保持一致;
将内容一致的四部分数据统一传送上传至监控终端,通过对齐时间戳数据,得到同一时间四个设备的同步数据。
该实施例中可以通过wifi信号向监控终端统一传输数据,或通过蓝牙直接向监控终端传输信号。
步骤3、将融合后的信号首先进行平滑处理,处理后设置固定时间的滑动窗口对整个信号进行切分,获得时间序列上的多个窗口,根据信号在时间序列上每一个窗口中的表现,提取不同动作的信号特征;
所述表现和性质包括短时能量分布,即RMS值、极值(极大和极小)、频率等。
步骤4、由于每个人的运动行为习惯各有不同,单一的逻辑判断条件无法满足每一个使用系统的用户,所以我们结合了自适应阈值逻辑条件优化,针对不同的用户自适应调整逻辑条件,达到识别的普适性,根据每个人信号特征的差异,进行自适应阈值调整,得到优化后的动作逻辑判断条件;根据要判断的动作数据,为每一个动作都设置相应的条件,形成一个if else的逻辑树,树中的枝节点即为用于动作判断的逻辑特征,叶子结点即为所要识别的动作,每个动作数据自动匹配逻辑树中符合的条件,进行行为判断。
步骤5、根据传感器信号及动作逻辑判断条件识别出用户的上、下肢动作以及用户周围的环境特征;
步骤6、获取用户上肢和下肢的具体动作,在得到上下肢动作的识别结果后,又加入更多的传感器信息,包括但不限于:气压计、麦克风、GPS等,帮助获取用户的情景信息,比如:环境、温度、海拔等;根据用户的上、下肢动作及周围环境,应用集成在智能设备上的传感器收集做出这些具体动作时刻的周围环境,推断该时间戳用户的行为,将一天中多个时间戳的用户行为集中起来,即完成了用户一天的行为推断,获取并记录用户一天的行为推断,生成用户的行为日志在监控终端显示并存储。
上面可以判断出上肢和下肢的具体动作,但看这些没有意义,但是放在当时的场景中,我们就可以得到那个时间戳用户的行为了,使用其他集成在智能设备上的传感器收集环境信息,如:麦克风、气压计等。具体案例:我们检测到他的下肢是在走,同时麦克风采集到了汽车喇叭的声音,时间戳对准的又是早上,那么此时很大可能用户是在上班的路上。
以上所述实施例仅表达了本方案的优选实施方式,其描述较为具体与详细,但并不能因此而理解为对本专利范围和实施例的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本方案构思的前提下,还可以做出若干变形和改进,这些变形和改进都属于本方案的应用范围。
Claims (6)
1.一种多模态传感器的行为识别方法,包括用户身上的各种智能设备以及监控终端,所述智能设备通过传感器和/或蓝牙模块获取用户的身体特征以及周围环境特征,并发送至监控终端,监控终端对接收到的身体及周围环境特征进行数据处理,其特征在于:包括如下步骤:
步骤1、获取用户身上多个智能设备的传感器信号;
步骤2、将采集到的多路传感器信号进行分析、融合,解析数据包格式,将多路传感器信号集中到一个终端;具体过程如下:分别获取上肢动作和下肢动作传感器信号采集装置的数据包,分析数据包格式,确定数据包每一帧的内容,并且提取相应的数据,将提取出的数据按照预先设定的数据格式进行拼接,使得所有采集装置的数据格式保持一致,将拼接后的数据上传至监控终端,通过对齐时间戳数据,得到所有采集装置的同步数据;
步骤3、将融合后的信号用滑动窗口进行切分,根据信号在时间序列上的表现,提取不同动作的信号特征;
步骤4、根据每个人信号特征的差异,进行自适应阈值调整,得到优化后的动作逻辑判断条件;所述动作逻辑判断条件为:根据要判断的动作数据,为每一个动作都设置相应的条件,形成一个if else的逻辑树,树中的枝节点即为用于动作判断的逻辑特征,叶子结点即为所要识别的动作,每个动作数据自动匹配逻辑树中符合的条件,进行行为判断;
步骤5、根据传感器信号及动作逻辑判断条件识别出用户的上、下肢动作以及用户周围的环境特征;
步骤6、根据用户的上、下肢动作及周围环境,获取并记录用户一天的行为推断,生成用户的行为日志在监控终端显示并存储。
2.根据权利要求1所述的多模态传感器的行为识别方法,其特征在于:用户的身体特征包括上肢动作、下肢动作及面部动作表情;周围环境特征包括声音、海拔、温度、地理位置信息。
3.根据权利要求1所述的多模态传感器的行为识别方法,其特征在于:所述智能设备包括具有内置传感器和/或蓝牙模块的智能眼镜、智能手表、智能手机、蓝牙运动模块、惯性测量单元、气压计、麦克风、GPS。
4.根据权利要求1所述的多模态传感器的行为识别方法,其特征在于:步骤3的具体操作如下:将融合后的信号首先进行平滑处理,处理后设置固定时间的滑动窗口对整个信号进行切分,获得时间序列上的多个窗口,根据信号在时间序列上每一个窗口中表现和性质,提取出不同动作的信号特征。
5.根据权利要求4所述的多模态传感器的行为识别方法,其特征在于:所述表现和性质包括短时能量分布,即RMS值、极值、频率。
6.根据权利要求1所述的多模态传感器的行为识别方法,其特征在于:步骤6中用户一天的行为推断过程如下:获取用户上肢和下肢的具体动作,应用集成在智能设备上的传感器收集做出这些具体动作时刻的周围环境,推断该时刻用户的行为,将一天中多个时间戳的用户行为集中起来,即完成了用户一天的行为推断。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910968822.1A CN110807471B (zh) | 2019-10-12 | 2019-10-12 | 一种多模态传感器的行为识别系统及识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910968822.1A CN110807471B (zh) | 2019-10-12 | 2019-10-12 | 一种多模态传感器的行为识别系统及识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110807471A CN110807471A (zh) | 2020-02-18 |
CN110807471B true CN110807471B (zh) | 2024-02-02 |
Family
ID=69488294
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910968822.1A Active CN110807471B (zh) | 2019-10-12 | 2019-10-12 | 一种多模态传感器的行为识别系统及识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110807471B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111504341B (zh) * | 2020-04-30 | 2023-09-19 | 中国直升机设计研究所 | 一种直升机飞行状态识别方法 |
CN112419808B (zh) * | 2020-11-10 | 2021-11-02 | 浙江大学 | 一种便携式多模态学习分析智能眼镜 |
CN113418553B (zh) * | 2021-06-11 | 2023-05-30 | 深圳大学 | 多模态传感器及其制备方法以及智能设备 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107220591A (zh) * | 2017-04-28 | 2017-09-29 | 哈尔滨工业大学深圳研究生院 | 多模态智能情绪感知系统 |
CN108245880A (zh) * | 2018-01-05 | 2018-07-06 | 华东师范大学 | 基于多穿戴环带传感器融合的体感检测可视化方法和系统 |
-
2019
- 2019-10-12 CN CN201910968822.1A patent/CN110807471B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107220591A (zh) * | 2017-04-28 | 2017-09-29 | 哈尔滨工业大学深圳研究生院 | 多模态智能情绪感知系统 |
CN108245880A (zh) * | 2018-01-05 | 2018-07-06 | 华东师范大学 | 基于多穿戴环带传感器融合的体感检测可视化方法和系统 |
Also Published As
Publication number | Publication date |
---|---|
CN110807471A (zh) | 2020-02-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Yen et al. | Human daily activity recognition performed using wearable inertial sensors combined with deep learning algorithms | |
Wang et al. | Fall detection based on dual-channel feature integration | |
CN110807471B (zh) | 一种多模态传感器的行为识别系统及识别方法 | |
Lu et al. | A multichannel CNN-GRU model for human activity recognition | |
CN107153871B (zh) | 基于卷积神经网络和手机传感器数据的跌倒检测方法 | |
Chen et al. | Intelligent fall detection method based on accelerometer data from a wrist-worn smart watch | |
Sztyler et al. | Online personalization of cross-subjects based activity recognition models on wearable devices | |
Lester et al. | A practical approach to recognizing physical activities | |
Khan et al. | A survey of deep learning based models for human activity recognition | |
CN106956271A (zh) | 预测情感状态的方法和机器人 | |
CN107773214A (zh) | 一种最佳唤醒策略的方法、计算机可读介质和系统 | |
CN105310696A (zh) | 一种跌倒检测模型构建方法及相应的跌倒检测方法和装置 | |
WO2019043421A1 (en) | SYSTEM FOR DETECTING SIGNAL BODY GESTURE AND METHOD FOR SYSTEM LEARNING | |
CN112464738B (zh) | 改进朴素贝叶斯算法基于手机传感器的用户行为识别方法 | |
CN110674875A (zh) | 一种基于深度混合模型的行人运动模式识别方法 | |
WO2021004510A1 (zh) | 基于传感器的分离式部署的人体行为识别健康管理系统 | |
CN109976526A (zh) | 一种基于表面肌电传感器和九轴传感器的手语识别方法 | |
CN108958482B (zh) | 一种基于卷积神经网络的相似性动作识别装置及方法 | |
US20180333057A1 (en) | Method for generating a personalized classifier for human motion activities of a mobile or wearable device user with unsupervised learning | |
CN110709940A (zh) | 用于预测传感器测量质量的方法、系统和介质 | |
CN110664412A (zh) | 一种面向可穿戴传感器的人类活动识别方法 | |
CN111523559A (zh) | 一种基于多特征融合的异常行为检测方法 | |
CN111753683A (zh) | 一种基于多专家卷积神经网络的人体姿态识别方法 | |
WO2022100187A1 (zh) | 一种基于移动端对用户的情感进行识别与监测方法 | |
CN111262637A (zh) | 一种基于Wi-Fi信道状态信息CSI的人体行为识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |