CN113608166A - 一种基于多源信息融合的动物行为监测方法 - Google Patents

一种基于多源信息融合的动物行为监测方法 Download PDF

Info

Publication number
CN113608166A
CN113608166A CN202110893040.3A CN202110893040A CN113608166A CN 113608166 A CN113608166 A CN 113608166A CN 202110893040 A CN202110893040 A CN 202110893040A CN 113608166 A CN113608166 A CN 113608166A
Authority
CN
China
Prior art keywords
data
animal
axis direction
experimental animal
uwb
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110893040.3A
Other languages
English (en)
Inventor
刘福才
张春宇
程雪聪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yanshan University
Original Assignee
Yanshan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yanshan University filed Critical Yanshan University
Priority to CN202110893040.3A priority Critical patent/CN113608166A/zh
Publication of CN113608166A publication Critical patent/CN113608166A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/02Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
    • G01S5/0257Hybrid positioning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/02Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
    • G01S5/0257Hybrid positioning
    • G01S5/0263Hybrid positioning by combining or switching between positions derived from two or more separate positioning systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/02Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
    • G01S5/0294Trajectory determination or predictive filtering, e.g. target tracking or Kalman filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/025Services making use of location information using location based information parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/33Services specially adapted for particular environments, situations or purposes for indoor environments, e.g. buildings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/38Services specially adapted for particular environments, situations or purposes for collecting sensor information
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Remote Sensing (AREA)
  • Evolutionary Computation (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Testing Or Calibration Of Command Recording Devices (AREA)

Abstract

本发明涉及动物实验设备技术领域,涉及一种基于多源信息融合的动物行为监测方法,采用低功耗微处理器搭载电源模块、UWB传感器和IMU传感器的数据采集系统;以LoRa技术为核心的无线通讯模块,通过上位机对数据进行储存并分析,核心为以神经网络分类算法对实验动物进行行为识别分类与监测;数据采集模块佩戴在实验动物身上,采集动物的姿态与位置信息,将两者信息进行融合,相互校正,通过无线通讯模块LoRa将数据传给上位机,上位机经过数据预处理、数据特征提取、主成分分析以及神经网络分类算法,对待测动物各动作行为进行识别;本发明对实验动物的日常行为进行有效的识别与监测。

Description

一种基于多源信息融合的动物行为监测方法
技术领域
本发明涉及动物实验设备技术领域,具体涉及一种基于多源信息融合的动物行为监测方法。
背景技术
实验动物的行为识别与监测对脑神经学科、药品研发以及动物行为学等领域的研究进展很重要。目前实验动物的行为识别与分析通常是将实验动物置于专门的试验箱内采用视频进行跟踪监测,但是试验箱的环境难以保证与实验动物平常的生活环境相同,因此实验动物产生的心理状态的变化、情绪的波动可能影响实验结果,并且在研究中大型动物行为时,需要的实验场地大,视频监测容易受环境光线干扰且对摄像机的固定位置和角度有较高得要求,不能为实验动物行为模型建立提供准确数据。
近年来,微传感器发展迅速,使得可穿戴设备广泛用于行为识别领域。但使用单一的传感器进行行为监测会有零点漂移、噪声误差、易受环境影响等缺点,需采用多传感器数据融合来提高监测能力。IMU广泛应用于自主定位与姿态检测领域,但其会有误差随时间累计的缺陷;UWB是近年来逐渐兴起的一种室内定位技术,具有厘米级的绝对精度,但往往会因为非视距误差导致UWB系统的定位出现误差甚至错误。IMU和UWB的优劣势形成互补,将两类传感器数据融合可提供相对准确的姿态与位置数据。将采集数据通过LoRa无线通讯模块发送给上位机,上位机对时间序列进行预处理、特征提取、主成分分析以及神经网络算法对数据进行分类,可有效对实验动物行为进行识别监测。
发明内容
针对上述的不足,本发明目的解决实验箱环境对实验动物产生的心理影响,视频监控容易受环境光线干扰,对摄像机的固定位置和角度有较高得的要求等问题,并提高行为监测与实验的可靠性。
为实现上述目的,本发明提供如下技术方案:
一种基于多源信息融合的动物行为监测方法,包括如下步骤:
步骤1,确定UWB室内定位系统中基站的摆放位置,建立室内坐标系,室内坐标系为X-Y-Z三维立体坐标系,
步骤2,将连接UWB电子标签和九轴IMU的可穿戴信息采集模块佩戴在实验动物身上,通过可穿戴信息采集模块,将采集的UWB和IMU数据运用非线性卡尔曼滤波进行融合,减小IMU的数据累积误差以及UWB的非视距误差,
步骤3,通过可穿戴信息采集模块获取实验动物在运动过程中的姿态信息和位置信息,采用无线传输模式将处理后的姿态信息和位置信息发送给上位机,
步骤4,上位机对采集数据进行预处理、数据特征提取以及主成分分析,利用人工神经网络算法对处理后的采集数据进行建模,对实验动物的行为进行识别监测。
本发明技术方案的进一步改进在于:步骤3中,姿态信息包括:实验动物的X轴方向加速度、Y轴方向加速度、Z轴方向加速度、X轴方向角速度、Y轴方向角速度、Z轴方向角速度、X轴方向角度、Y轴方向角度以及Z轴方向角度;位置信息包括:实验动物的X轴方向位置、Y轴方向位置、Z轴方向位置、X轴方向速度、Y轴方向速度、Z轴方向速度。
本发明技术方案的进一步改进在于:步骤2中,将IMU和UWB进行数据融合的非线性卡尔曼滤波状态方程为:X(k+1)=ΦX(k)+ΓU(k)+W(k)
其中
Figure BDA0003196854470000031
U(k)=[Ux(k),Uy(k),Uz(k)],X(k)=[xl(k),Vx(k),yl(k),Vy(k),zl(k),Vz(k)]T,在k时刻,xl(k),yl(k),zl(k)为X,Y,Z轴位置坐标,Vx(k),Vy(k),Vz(k)为X,Y,Z轴速度分量,Ux(k),Uy(k),Uz(k)为IMU测得的X,Y,Z轴加速度分量,W[k]为系统噪声,T为采样间隔;
将IMU和UWB进行数据融合的非线性卡尔曼滤波观测方程为:
Z(k)=[(xl(k)-xl(0))2+(yl(k)-yl(0))2+(zl(k)-zl(0))2]+V(k),
其中,Z(k)为IMU观测值在k时刻距初始时刻距离,V(k)为过程噪声。
本发明技术方案的进一步改进在于:步骤4,所述上位机的数据预处理包括删除上传数据中错误和不完整信息、数据归一化以及给时间序列进行加窗处理,数据的加窗处理过程为,由于采样频率为20HZ,即0.05s,滑动窗口选择为64个样本点,即3.2秒,滑动窗口重叠率为50%,上位机数据特征提取包括时域特征和频域特征;时域特征包括有均值、均方根、标准差、标准偏差、方差、四分卫间距、偏度、峰度;频域特征包括信号的幅值、能量等。
本发明技术方案的进一步改进在于:步骤4,采用RBF神经网络对采集数据集进行建模,通过数据训练进行RBF神经网络的权值参数,将训练完成的神经网络用于实验动物的行为监测。
本发明技术方案的进一步改进在于:步骤2中,可穿戴数据采集模块,佩戴在实验动物身上,用于采集实验动物在各类活动过程中的姿态信息和位置信息;数据采集模块主要有电源管理、微控制器、UWB基站、UWB标签和IMU传感器分别电连组成。
本发明技术方案的进一步改进在于:步骤1,确定UWB基站的摆放位置,建立室内空间坐标系,UWB标签佩戴在实验动物身上,根据UWB标签与UWB基站的距离,可计算出实验动物的位置信息,即位置坐标与运动速度。
与现有技术相比,本发明提供的一种基于多源信息融合的动物行为监测方法有益效果如下:
1.本发明采用多源信息融合技术,根据IMU的姿态信息与UWB的位置信息对实验动物行为进行监测,有效提高了行为监测精度与效率。
2.本发明的有效监测区域不仅仅局限于小范围的实验装置内,在200m范围内的实验场所都可实现实验动物行为监测。
3.本发明采用LoRa无线通讯技术进行数据传输,具有较蓝牙等更低的功耗与更远的传输距离。
4.本发明采用RBF神经网络对实验动物进行行为监测,拥有比BP神经网络等更高的逼近精度与泛化能力。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明基于多源信息融合的动物行为监测方法的流程图;
图2为本发明基于多源信息融合的动物行为监测方法的模块示意图;
图3为本发明数据采集模块中IMU与UWB数据融合原理图;
图4为本发明行为识别的RBF神经网络算法的流程图。
具体实施方式
下面将通过具体实施方式对本发明的技术方案进行清楚、完整地描述。显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明结合附图进行详细说明:
如图1-4所示,一种基于多源信息融合的动物行为监测方法,包括如下步骤:
步骤1:基于UWB室内定位系统中基站的摆放位置,建立室内坐标系,室内坐标系为X-Y二维平面坐标系;确定UWB基站的摆放位置,建立室内空间坐标系,UWB标签佩戴在实验动物身上,根据UWB标签与UWB基站的距离,可计算出实验动物的位置信息,即位置坐标与运动速度;
步骤2:通过采集系统获取携带九轴IMU和UWB电子标签的实验动物的姿态信息和位置信息;位置信息包括所述实验动物的X轴方向位置、Y轴方向位置、Z轴方向位置、X轴方向速度、Y轴方向速度、Z轴方向速度,姿态信息包括实验动物的X轴方向加速度、Y轴方向加速度、Z轴方向加速度、X轴方向角速度、Y轴方向角速度、Z轴方向角速度、X轴方向角度、Y轴方向角度以及Z轴方向角度;
步骤3:通过微控制器将IMU和UWB的数据进行非线性卡尔曼滤波融合,以UWB测得的基站坐标系位置坐标以及三轴速度分类为状态变量、IMU测得的三轴加速度为输入变量,IMU的行位推算坐标为观测量,融合后可改善UWB的定位误差以及IMU的累计误差,提高测量精度;
步骤4:通过以LoRa为核心的无线传输方法,将融合后测得的实验动物的姿态信息与位置信息传给上位机;
步骤5:通过MATLAB将LoRa无线传输过来的姿态信息与位置信息进行数据存储、时间序列预处理、数据特征提取以及主成分分析处理。所述数据存储是将将实验动物在监测时间的的姿态信息和位置信息按照时间线存储在上位机的数据库中;时间序列预处理,主要包括去除不完整数据和错误数据、时间序列加窗处理,前者保证了算法所用数据皆为有效数据,后者保证每个窗口包含完整的行为信息;数据特征提取包括时域特征和频域特征,所述时域特征包括有均值、均方根、标准差、标准偏差、方差、四分卫间距、偏度、峰度等,所述频域特征包括信号的幅值、能量等;主成分分析将与实验动物行为相关性大的数据特征保留,去除相关性小的数据特征,以减小数据空间的维度,降低算法复杂度,提升算法效率;
步骤6:建立RBF神经网络模型,通过主成分分析后保留的与实验动物行为相关性大的数据特征进行有学习训练,确定神经网络参数,具体如下:
RBF网络中,x=[xi]T(i=1,2,…,n)为网络的输入,网络的隐含层输出为h=[hj]T(j=1,2,…,m),hj为隐含层第j个神经元输出
Figure BDA0003196854470000061
其中cj为隐含层第j个神经元高斯基函数中心点的坐标向量,bj为隐含层第j个神经元高斯基函数的宽度,RBF网络权值为w=[ω12,...,ωm]T,RBF网络输出为:
y=wTh=ω1h12h2+...+ωmhm.
RBF分类器的实现主要分两个阶段:训练阶段和测试阶段;其中,训练过程主要分为两步:1、无监督学习阶段:确定输入层与隐含层的连接参数cij和bij;2、有监督学习阶段:确定隐含层与输出层权值wij,在RBF网络的训练中使用的方法为梯度下降法,具体为:
(1)根据提取的特征和预期结果确定输入向量x=[xi]T、输出向量y=[yi]T以及期望输出o=[oi]T
(2)初始化隐含层中各神经元的中心参数cij、宽度向量bij和隐含层与输出层连接权值w=[ω12,...,ωm]T
(3)根据实际输出y=[yi]T与期望输出o=[oi]T,采用梯度下降法,中心值宽度和输出权重等参数通过自适应学习调节到最佳值。
步骤7:通过训练完成的RBF神经网络对实验动物的行为进行监测,通过RBF神经网络对采集数据集进行建模,通过数据训练进行RBF神经网络的权值参数,将训练完成的神经网络用于实验动物的行为监测。
优选的,可穿戴数据采集模块:包括了微控制器、UWB基站与电子标签、九轴IMU,电源管理模块,实现以20Hz的频率对实验动物行为的姿态信息与位置信息进行采集,并通过微控制器实现非线性卡尔曼滤波算法对UWB和IMU的数据进行融合,减小UWB的非视距误差以及IMU的累计误差,提高数据精度;
优选的,无线传输模块:是数据采集模块与上位机的纽带,基于LoRa技术的无线传输模块具有低功耗、低成本、抗干扰能力强、传输距离远等特点,实现将实验动物的行为的姿态信息与位置信息稳定的传给上位机;无线传输模式为低功耗,高稳定性的LoRa技术。
优选的,上位机是数据的存储与数据处理与识别,通过MATLAB实现数据预处理、特征提取以及主成分分析,对实验生物行为进行RBF建模,对模型进行训练,确定RBF神经网络参数;通过训练完成的RBF神经网络对实验动物的行为进行监测。上位机数据预处理包括删除上传数据中错误和不完整信息、数据归一化以及给时间序列进行加窗处理;数据的加窗处理过程为,由于采样频率为20HZ,即0.05s,滑动窗口选择为64个样本点,即3.2秒,滑动窗口重叠率为50%;上位机数据特征提取包括时域特征和频域特征;时域特征包括有均值、均方根、标准差、标准偏差、方差、四分卫间距、偏度、峰度;频域特征包括信号的幅值、能量;主成分分析去除对于行为识别相关性小的特征量,保留相关性大的特征量,增加算法的运行效率。
优选的,将IMU和UWB进行数据融合的非线性卡尔曼滤波状态方程为:
X(k+1)=ΦX(k)+ΓU(k)+W(k)
其中
Figure BDA0003196854470000081
U(k)=[Ux(k),Uy(k),Uz(k)],X(k)=[xl(k),Vx(k),yl(k),Vy(k),zl(k),Vz(k)]T,在k时刻,xl(k),yl(k),zl(k)为X,Y,Z轴位置坐标,Vx(k),Vy(k),Vz(k)为X,Y,Z轴速度分量,Ux(k),Uy(k),Uz(k)为IMU测得的X,Y,Z轴加速度分量,W[k]为系统噪声,T为采样间隔;
将IMU和UWB进行数据融合的非线性卡尔曼滤波观测方程为:
Z(k)=[(xl(k)-xl(0))2+(yl(k)-yl(0))2+(zl(k)-zl(0))2]+V(k),
其中,Z(k)为IMU观测值在k时刻距初始时刻距离,V(k)为过程噪声;
通过非线性卡尔曼滤波器对所述UWB和IMU信息进行处理,减小UWB非视距误差以及IMU累积误差,计算所述实验动物在所述室内坐标系下的位置。
优选的,通过MATLAB对采集数据进行预处理、归一化以及加窗,将错误和不完整数据去除,并将不同类型的位置信息与姿态信息进行归一化处理,通过滑动窗口对实验动物数据的时间序列进行分割,由于采样频率为20HZ,即0.05s,滑动窗口选择为64个样本点,即3.2秒,满足一个完整数据包含一个完整动作;通过MATLAB进行时间序列的特征提取与主成分分析,根据时域特征与频域特征中与实验动物相关性最大的特征来参与神经网络算法的建模;通过提取相关性的排名靠前的特征来对RBF神经网络进行建模以及参数的训练,确定RBF神经网络的参数;通过配置好参数的RBF神经网络对实验动物进行行为的识别与监测。
以上所述的实施例仅仅是对本发明的优选实施方式进行描述,并非对本发明的范围进行限定,在不脱离本发明设计精神的前提下,本领域普通技术人员对本发明的技术方案做出的各种变形和改进,均应落入本发明装置权利要求书确定的保护范围内。

Claims (7)

1.一种基于多源信息融合的动物行为监测方法,其特征在于,包括如下步骤:
步骤1,确定UWB室内定位系统中基站的摆放位置,建立室内坐标系,室内坐标系为X-Y-Z三维立体坐标系,
步骤2,将连接UWB电子标签和九轴IMU的可穿戴信息采集模块佩戴在实验动物身上,获取实验动物的行为数据,
步骤3,将采集的UWB和IMU数据运用非线性卡尔曼滤波进行融合,减小IMU的数据累积误差以及UWB的非视距误差,
步骤4,通过可穿戴信息采集模块获取实验动物在运动过程中的姿态信息和位置信息,采用无线传输模式将处理后的姿态信息和位置信息发送给上位机,
步骤5,上位机通过MATLAB对上传数据进行预处理、特征提取以及主成分分析;
步骤6,建立RBF神经网络模型,对实验动物各类型为进行有监督学习,确定神经网络参数;
步骤7,通过训练完成的神经网络对实验动物的行为进行监测。
2.根据权利要求1所述一种基于多源信息融合的动物行为监测方法,其特征在于:步骤4中,姿态信息包括:实验动物的X轴方向加速度、Y轴方向加速度、Z轴方向加速度、X轴方向角速度、Y轴方向角速度、Z轴方向角速度、X轴方向角度、Y轴方向角度以及Z轴方向角度;位置信息包括:实验动物的X轴方向位置、Y轴方向位置、Z轴方向位置、X轴方向速度、Y轴方向速度、Z轴方向速度。
3.根据权利要求1所述一种基于多源信息融合的动物行为监测方法,其特征在于:步骤3中,将IMU和UWB进行数据融合的非线性卡尔曼滤波状态方程为:X(k+1)=ΦX(k)+ΓU(k)+W(k)
其中
Figure FDA0003196854460000021
U(k)=[Ux(k),Uy(k),Uz(k)],X(k)=[xl(k),Vx(k),yl(k),Vy(k),zl(k),Vz(k)]T,在k时刻,xl(k),yl(k),zl(k)为X,Y,Z轴位置坐标,Vx(k),Vy(k),Vz(k)为X,Y,Z轴速度分量,Ux(k),Uy(k),Uz(k)为IMU测得的X,Y,Z轴加速度分量,W[k]为系统噪声,T为采样间隔;
将IMU和UWB进行数据融合的非线性卡尔曼滤波观测方程为:
Z(k)=[(xl(k)-xl(0))2+(yl(k)-yl(0))2+(zl(k)-zl(0))2]+V(k),
其中,Z(k)为IMU观测值在k时刻距初始时刻距离,V(k)为过程噪声。
4.根据权利要求1所述一种基于多源信息融合的动物行为监测方法,其特征在于:步骤5,所述上位机的数据预处理包括删除上传数据中错误和不完整信息、数据归一化以及给时间序列进行加窗处理,数据的加窗处理过程为:由于采样频率为20HZ,即0.05s,滑动窗口选择为64个样本点,即3.2秒,滑动窗口重叠率为50%,上位机数据特征提取包括时域特征和频域特征;时域特征包括有均值、均方根、标准差、标准偏差、方差、四分卫间距、偏度、峰度;频域特征包括信号的幅值、能量等。
5.根据权利要求1所述一种基于多源信息融合的动物行为监测方法,其特征在于:步骤6,采用RBF神经网络对采集数据集进行建模,通过数据训练进行RBF神经网络的权值参数,将训练完成的神经网络用于实验动物的行为监测。
6.根据权利要求1所述一种基于多源信息融合的动物行为监测方法,其特征在于:步骤2中,可穿戴数据采集模块,佩戴在实验动物身上,用于采集实验动物在各类活动过程中的姿态信息和位置信息;数据采集模块主要有电源管理、微控制器、UWB基站、UWB标签和IMU传感器分别电连组成。
7.根据权利要求1所述一种基于多源信息融合的动物行为监测方法,其特征在于:步骤1,确定UWB基站的摆放位置,建立室内空间坐标系,UWB标签佩戴在实验动物身上,根据UWB标签与UWB基站的距离,可计算出实验动物的位置信息,即位置坐标与运动速度。
CN202110893040.3A 2021-08-04 2021-08-04 一种基于多源信息融合的动物行为监测方法 Pending CN113608166A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110893040.3A CN113608166A (zh) 2021-08-04 2021-08-04 一种基于多源信息融合的动物行为监测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110893040.3A CN113608166A (zh) 2021-08-04 2021-08-04 一种基于多源信息融合的动物行为监测方法

Publications (1)

Publication Number Publication Date
CN113608166A true CN113608166A (zh) 2021-11-05

Family

ID=78306883

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110893040.3A Pending CN113608166A (zh) 2021-08-04 2021-08-04 一种基于多源信息融合的动物行为监测方法

Country Status (1)

Country Link
CN (1) CN113608166A (zh)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106326919A (zh) * 2016-08-16 2017-01-11 西北农林科技大学 一种基于bp神经网络的生猪行为分类方法
CN106680765A (zh) * 2017-03-03 2017-05-17 济南大学 基于分布式组合滤波ins/uwb行人导航系统及方法
CN208113758U (zh) * 2018-02-06 2018-11-20 河南科技大学 基于uwb定位的奶牛运动状态实时监测系统
US20180356492A1 (en) * 2015-06-16 2018-12-13 Michael Hamilton Vision based location estimation system
CN111833567A (zh) * 2020-05-30 2020-10-27 北京方德泳安体育文化有限公司 一种基于uwb、九轴陀螺仪的运动检测系统
CN111982102A (zh) * 2020-08-11 2020-11-24 天津泰达滨海清洁能源集团有限公司 一种复杂环境下基于bp-ekf的uwb-imu定位方法
US20200383299A1 (en) * 2019-06-06 2020-12-10 Edgar Josue Bermudez Contreras Systems and methods of homecage monitoring
WO2021082790A1 (zh) * 2019-10-29 2021-05-06 广东工业大学 一种基于IMU的uwb定位异常值处理方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180356492A1 (en) * 2015-06-16 2018-12-13 Michael Hamilton Vision based location estimation system
CN106326919A (zh) * 2016-08-16 2017-01-11 西北农林科技大学 一种基于bp神经网络的生猪行为分类方法
CN106680765A (zh) * 2017-03-03 2017-05-17 济南大学 基于分布式组合滤波ins/uwb行人导航系统及方法
CN208113758U (zh) * 2018-02-06 2018-11-20 河南科技大学 基于uwb定位的奶牛运动状态实时监测系统
US20200383299A1 (en) * 2019-06-06 2020-12-10 Edgar Josue Bermudez Contreras Systems and methods of homecage monitoring
WO2021082790A1 (zh) * 2019-10-29 2021-05-06 广东工业大学 一种基于IMU的uwb定位异常值处理方法
CN111833567A (zh) * 2020-05-30 2020-10-27 北京方德泳安体育文化有限公司 一种基于uwb、九轴陀螺仪的运动检测系统
CN111982102A (zh) * 2020-08-11 2020-11-24 天津泰达滨海清洁能源集团有限公司 一种复杂环境下基于bp-ekf的uwb-imu定位方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
许国根: "《最优化方法及其MATLAB实现》", 31 July 2018, 北京航空航天大学出版社, pages: 377 - 378 *

Similar Documents

Publication Publication Date Title
Kucukoglu et al. Application of the artificial neural network method to detect defective assembling processes by using a wearable technology
CN108245172B (zh) 一种不受位置约束的人体姿态识别方法
CN210402266U (zh) 一种手语翻译系统和手语翻译手套
CN110456320A (zh) 一种基于自由空间步态时序特征的超宽带雷达身份识别方法
CN114676956A (zh) 基于多维数据融合的老人跌倒风险预警系统
CN113936340B (zh) 一种基于训练数据采集的ai模型训练方法及装置
CN113112151B (zh) 基于多维感知和企业数据量化的智慧风控评估方法与系统
Hafeez et al. Multi-fusion sensors for action recognition based on discriminative motion cues and random forest
Guenterberg et al. A method for extracting temporal parameters based on hidden Markov models in body sensor networks with inertial sensors
Wang et al. A2dio: Attention-driven deep inertial odometry for pedestrian localization based on 6d imu
Ogunseiju et al. Recognition of workers’ actions from time-series signal images using deep convolutional neural network
CN111860117A (zh) 一种基于深度学习的人体行为识别方法
CN110598599A (zh) 基于Gabor原子分解的人体异常步态检测方法和装置
CN111931748B (zh) 一种适用于蓄电池生产车间的工人疲劳度检测方法
Suprapto et al. The detection system of helipad for unmanned aerial vehicle landing using yolo algorithm
Akhavian et al. Construction activity recognition for simulation input modeling using machine learning classifiers
Khandnor et al. A survey of activity recognition process using inertial sensors and smartphone sensors
CN113505356A (zh) 识别用户身份的单类分类器、识别方法、介质及计算设备
CN113608166A (zh) 一种基于多源信息融合的动物行为监测方法
CN103826202A (zh) 基于手机传感器信息改进WiFi定位结果跳动的方法
CN111166341A (zh) 基于加速度冲击能量聚类的摔倒识别方法及可穿戴系统
Wang et al. From state estimation for dogs to the internet of dogs
Dang et al. A LoRaWAN-Based Smart Sensor Tag for Cow Behavior Monitoring
Liu et al. Vibration-based terrain classification recognition using a six-axis accelerometer
Abougarair et al. Analysis of Mobile Accelerometer Sensor Movement Using Machine Learning Algorithm

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination