CN109709975A - 一种基于视觉slam的四旋翼飞行器室内安防系统及方法 - Google Patents
一种基于视觉slam的四旋翼飞行器室内安防系统及方法 Download PDFInfo
- Publication number
- CN109709975A CN109709975A CN201910034155.XA CN201910034155A CN109709975A CN 109709975 A CN109709975 A CN 109709975A CN 201910034155 A CN201910034155 A CN 201910034155A CN 109709975 A CN109709975 A CN 109709975A
- Authority
- CN
- China
- Prior art keywords
- quadrotor
- visual sensor
- information
- view
- access control
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Image Analysis (AREA)
- Alarm Systems (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
本发明公开了一种基于视觉SLAM的四旋翼飞行器室内安防系统及方法,该系统包括四旋翼飞行器,视觉传感器,无线传输模块和地面监控站,该方法首先通过视觉传感器采集四旋翼飞行器飞行过程中实时采集的图像信息,并通过视觉SLAM定位方法实现了四旋翼飞行器的定位;其次通过Zigbee将定位信息传输给控制器,从而控制四旋翼飞行器按照指定路径巡逻飞行;最后通过视觉传感器实时拍摄视频,将拍摄的人脸信息通过机载微型电脑进行人脸识别处理,并将识别信息通过无线传输模块传给地面监控站实现安防功能。本发明解决了无GPS信号时无法对四旋翼飞行器进行导航的问题,该安防系统中四旋翼飞行器具有机动性强、可自由规划路径和无监控死角的特点,可实现多角度全方位的监控。
Description
技术领域
本发明涉及机器人设计和控制技术领域,尤其涉及一种基于视觉SLAM的四旋翼飞行器室内安防系统及方法。
背景技术
在室内某些特定场景,传统的监控设备具有局限性,存在监控死角的缺陷;而且部分重点嫌疑人员可能存在被遮挡问题或者嫌疑人员会故意躲避固定摄像头,这些都会导致摄像头监测不到该嫌疑人员的结果。
2014年,丛吉,王立忠等人在论文《多功能探测安防智能四轴飞行器的研制》(文章编号:1007-9831(2014)01-0041-03)中公开了一种多功能探测安防智能四轴飞行器,在飞行器上安装由三个轴向的陀螺仪和三轴加速度传感器组成的惯性导航模块、无线数据传输模块等,应用于灾情探测、救援和家居的安防等领域。但该安防智能四轴飞行器必须依赖于GPS导航,无法在室内或野外无GPS信号的场景内进行安防巡逻功能。
2015年,敬军,钟和平等人在发明专利《一种安防巡逻系统》(公开号:CN104866948A)中公开了一种安防巡逻系统,包括保安中心和复数个由安防员携带的智能手机,智能手机与保安中心的服务器建立无线连接;智能手机可以根据巡逻点的位置和安防员所在位置规划最佳巡逻路径。该发明虽然可以实现路径规划功能且可以信息交互,但需要消耗较多的人力,且巡逻过程中不能保证无死角的监控,缺乏自主性,在较大型场所具有局限性。
鉴于此,研究一种适用于机动性强、易于控制且监控视野广阔的室内安防系统及方法是本技术领域人员需要解决的技术问题。
发明内容
本发明的目的是提供一种基于视觉SLAM的四旋翼飞行器室内安防系统及方法,该室内安防系统及方法具有机动性强、易于控制且监控视野广阔的优点。
为解决上述技术问题,本发明提供一种基于视觉SLAM的四旋翼飞行器室内安防系统,包括:
四旋翼飞行器,所述四旋翼飞行器上设有用于实时获取所述四旋翼飞行器飞行过程中的图像信息和视频信息并将所获取的信息进行传输的视觉传感器,以及用于对所述视觉传感器所传输的图像信息和视频信息进行处理并将处理信息进行传输的机载微型电脑;
地面监控站,用于接收所述机载微型电脑传输的处理信息,并根据所接收的处理信息训练人脸模型;
无线传输模块,用于实现所述微型机载电脑与所述地面监控站的实时无线通讯。
优选地,所述四旋翼飞行器包括飞行器机架和设于所述飞行器机架上的用于给所述四旋翼飞行器提供电源电源模块,以及安装于所述飞行器机架上的动力设备和驱动装置,所述动力设备和驱动装置包括四组无刷电机,以及与所述无刷电机一一对应的四组电机驱动模块和四组螺旋桨,所述无刷电机与所述电机驱动模块连接,所述螺旋桨安装于所述无刷电机上,所述四旋翼飞行器的上方设有用于控制所述四旋翼飞行器飞行的控制器,所述控制器通过所述无线传输模块与所述地面监控站实现实时无线通讯。
优选地,所述地面监控站包括飞行器控制模块、图像显示模块和安防人脸识别模块,所述飞行器控制模块用于显示所述四旋翼飞行器的初始参数设置、路径规划以及姿态角;所述图像显示模块用于显示所述视觉传感器实时拍摄的图像信息和视频信息;所述安防人脸识别模块用于训练人脸模型以及显示所述机载微型电脑3的人脸识别结果。
优选地,所述控制器和所述机载微型电脑位于所述四旋翼飞行器的上方,所述视觉传感器位于所述四旋翼飞行器的下方前端。
一种基于视觉SLAM的四旋翼飞行器室内安防方法,所述方法采用了上述基于视觉SLAM的四旋翼飞行器室内安防系统,包括以下步骤:
S1、通过所述视觉传感器获取所述四旋翼飞行器飞行过程中的实时图像信息并生成点云数据,利用视觉SLAM定位方法计算所述四旋翼飞行器的三维位置信息,实现了四旋翼飞行器的定位,同时通过所述控制器中的惯性测量单元测量出所述四旋翼飞行器的姿态信息;
S2、通过Zigbee将获取的所述四旋翼飞行器定位信息与姿态信息输入到经典PID飞行控制方法中,进而控制所述四旋翼飞行器按照指定路径巡逻飞行;
S3、所述视觉传感器在所述四旋翼飞行器飞行过程中实时拍摄视频,并将所拍摄的视频人脸信息通过所述机载微型电脑采用人脸识别方法进行人脸识别处理,然后将识别信息传输给所述地面监控站。
优选地,所述步骤S1中利用视觉SLAM定位方法实现四旋翼飞行器定位的具体步骤包括:
S101、所述视觉传感器采集彩色图像和深度图像,通过MATLAB工具箱采用张正友标定法对视觉传感器进行相机标定,获取所述视觉传感器的畸变参数,然后利用视觉传感器的畸变参数对每一帧图像进行畸变修正;
S102、提取每一帧图像中的匹配特征点,根据已提取匹配特征点的相邻两帧图像估计出视觉传感器的运动初始值,并进行点云拼接;
S103、利用DBoW3库进行有效的闭合回环检测,优化视图上的位姿信息;
S104、通过计算所述视觉传感器获取的实时图像信息的点云数据和所述视觉传感器的运动轨迹,构建环境地图,并利用粒子滤波方法获取环境地图中各个位置的视野,将所述视觉传感器获取的实时视野图像信息与粒子滤波方法获取的视野图像信息进行匹配,实现所述四旋翼飞行器位置定位。
优选地,所述步骤S101中每一帧图像经过畸变修正后采用高斯滤波处理以消除噪声。
优选地,所述步骤S102的具体实现方法包括:
S1021、采用SIFT算子提取图像I(x,y)的特征点,并通过计算两组特征点的欧式距离进行图像特征点的匹配,其中k为像素点(k∈[1,n)),n为匹配特征点总数;
S1022、根据所述步骤S1021所匹配的特征点信息并结合视觉传感器获得的深度图像信息,得到匹配特征点的三维坐标p=(x,y,z),然后计算出两组匹配特征点的三维坐标旋转矩阵R与平移向量t;
S1023、根据匹配特征点的三维坐标旋转矩阵R与平移向量t得到变换矩阵其中01×3=[0 0 0]为1行3列的零矩阵,然后估计出视觉传感器的运动初始值,并进行点云拼接。
优选地,所述S3中人脸识别方法包括以下步骤:
S301、调整所述四旋翼飞行器的视角,并通过所述视觉传感器采集内部人员的人脸数据;
S302、通过所述地面监控站构建CNN卷积神经网络,其卷积计算公式为:
式中xi、yj分别为第i个输入特征图,第j个输出特征图,pij是两者之间的卷积核,bj为第j个输出特征图的偏差;
S303、所述地面监控站将所述视觉传感器采集的人脸数据与下载的LFW人脸数据通过CNN卷积神经网络进行训练,得到人脸模型,并将所述人脸模型导入所述机载微型电脑;
S304、所述视觉传感器在所述四旋翼飞行器飞行过程中实时进行视频拍摄,并将所拍摄的视频传给所述机载微型电脑,所述机载微型电脑采用所述S302构建的所述CNN卷积神经网络对所接收的视频进行人脸识别。
与现有技术比较,本发明具有以下的有益技术效果:
(1)本发明中所述四旋翼飞行器具有机动性强、可自由规划路径和无监控死角的特点,可实现多角度全方位的监控;
(2)本发明采用的视觉SLAM定位方法精度高,该定位方法得到的所述四旋翼飞行器位置数据与所述四旋翼飞行器实时返回的位置坐标数据之间的误差几乎为零,且X轴和Y轴方向的最大误差可保持在10mm以内;
(3)本发明中所述安防系统及方法解决了在室内或野外无GPS信号等场景下无法使用GPS进行导航的问题。
附图说明
图1是本发明中基于视觉SLAM的四旋翼飞行器室内安防系统的结构示意图,
图2是本发明中基于视觉SLAM的四旋翼飞行器室内安防方法流程图,
图3是本发明通过视觉SLAM定位方法实现四旋翼飞行器定位的方法流程图,
图4是本发明中图像提取并进行点云拼接的方法流程图,
图5是本发明人脸识别方法流程图,
图6是本发明中人脸识别方法的神经网络结构图,
图7是本发明采用SLAM定位四旋翼飞行器实际轨迹与期望轨迹对比图,
图8是本发明中四旋翼机器人视觉定位误差曲线,
图9是本发明中四旋翼飞行器飞行过程三维位置误差曲线图。
具体实施方式
为了使本技术领域的人员更好地理解本发明的技术方案,下面结合附图对本发明作进一步的详细说明。
如图1所示,一种基于视觉SLAM的四旋翼飞行器室内安防系统,包括:
四旋翼飞行器,所述四旋翼飞行器上设有用于实时获取所述四旋翼飞行器飞行过程中的图像信息和视频信息并将所获取的信息进行传输的视觉传感器2,以及用于对所述视觉传感器2所传输的图像信息和视频信息进行处理并将处理信息进行传输的机载微型电脑3;
地面监控站5,用于接收所述机载微型电脑3传输的处理信息,并根据所接收的处理信息训练人脸模型;
无线传输模块4,用于实现所述微型机载电脑3与所述地面监控站5的实时无线通讯。
本实施例中,视觉传感器2、机载微型电脑3和无线传输模块4分别为Realsenser200视觉传感器、LattePanda机载微型电脑和WiFi无线传输模块。所述四旋翼飞行器上安装Realsense r200视觉传感器、LattePanda机载微型电脑和WiFi无线传输模块,通过Realsense r200视觉传感器实时获取RGB彩色图像和深度图像以及实时拍摄视频并传输给LattePanda机载微型电脑进行图像和\或视频处理操作,然后由WiFi无线传输模块实现LattePanda机载微型电脑与地面监控站之间的信息通讯,完成安防巡逻任务。本发明基于视觉SLAM的四旋翼飞行器室内安防系统可在无GPS信号的场景下进行监控并完成安防巡逻任务,且所述四旋翼飞行器具有机动性强、可自由规划路径和无监控死角的特点,可实现多角度全方位的监控。
如图1所示,所述四旋翼飞行器包括飞行器机架12和设于所述飞行器机架12上的用于给所述四旋翼飞行器提供电源的电源模块13,以及安装于所述飞行器机架12上的动力设备和驱动装置,所述动力设备和驱动装置包括四组无刷电机14,以及与所述无刷电机14一一对应的四组电机驱动模块15和四组螺旋桨11,所述无刷电机14与所述电机驱动模块15连接,所述螺旋桨11安装于所述无刷电机14上,所述四旋翼飞行器的上方设有用于控制所述四旋翼飞行器飞行的控制器6,所述控制器6通过所述无线传输模块4与所述地面监控站5实现实时无线通讯。
本实施例中,所述飞行器机架12为碳纤维机架,所述电源模块13包括标称11.1V遥控航模锂电池和稳压电路,电源经过稳压电路降压后为电机驱动模块15供电。所述控制器6采用开源的Pixhawk4,包括内含可测量出四旋翼飞行器姿态信息的惯性导航单元及其控制电路,所述地面监控站5通过所述无线传输模块4与所述控制器6实时通讯,所述控制器6通过控制所述电机驱动模块15输出的PWM信号来控制所述无刷电机14的转速大小,进而带动所述螺旋桨11旋转为所述四旋翼飞行器提供动力,保证所述四旋翼飞行器稳定飞行。
如图1所示,所述地面监控站5包括飞行器控制模块51、图像显示模块52和安防人脸识别模块53,所述飞行器控制模块51用于显示所述四旋翼飞行器的初始参数设置、路径规划以及姿态角;所述图像显示模块52用于显示所述视觉传感器2实时拍摄的图像信息和视频信息;所述安防人脸识别模块53用于训练人脸模型以及显示所述机载微型电脑3的人脸识别结果。
如图1所示,所述控制器6和所述机载微型电脑3位于所述四旋翼飞行器的上方,所述视觉传感器2位于所述四旋翼飞行器的下方前端。
本实施例中,所述视觉传感器2设于所述四旋翼飞行器的下方前端,并与地面呈45°夹角,可有效获取地面上的图像信息和视频信息,所述控制器6和所述机载微型电脑3位于所述四旋翼飞行器的上方,便于安装维护并及时准确的接收所述视觉传感器2获取的图像信息和视频信息。
如图2所示,一种基于视觉SLAM的四旋翼飞行器室内安防方法,所述方法采用了上述基于视觉SLAM的四旋翼飞行器室内安防系统包括以下步骤:
S1、通过所述视觉传感器获取所述四旋翼飞行器飞行过程中的实时图像信息并生成点云数据,利用视觉SLAM(simultaneous localization and mapping,即时定位与地图构建)定位方法计算所述四旋翼飞行器的三维位置信息,实现了四旋翼飞行器的定位,同时通过所述控制器中的惯性测量单元测量出所述四旋翼飞行器的姿态信息;
S2、通过Zigbee将获取的所述四旋翼飞行器定位信息与姿态信息输入到经典PID飞行控制方法中,进而控制所述四旋翼飞行器按照指定路径巡逻飞行;
S3、所述视觉传感器在所述四旋翼飞行器飞行过程中实时拍摄视频,并将所拍摄的视频人脸信息通过所述机载微型电脑采用人脸识别方法进行人脸识别处理,然后将识别信息传输给所述地面监控站。
本实施例中,首先将所述视觉传感器获取所述四旋翼飞行器飞行过程中的实时图像信息进行处理得到其三维位置信息,同时所述控制器测量出所述四旋翼飞行器的姿态信息,以实现所述四旋翼飞行的定位;然后根据所述四旋翼飞行器的定位信息和姿态信息控制所述四旋翼飞行器按照指定路径巡逻飞行;最后所述机载微型电脑将所述视觉传感器获取所述四旋翼飞行器飞行过程中的视频信息进行人脸识别处理后传输给所述地面监控站,完成安防任务。本实施例中,所述步骤S2中经典PID飞行控制方法是根据所述四旋翼飞行器实时定位信息与姿态信息和所期望的位置信息与姿态信息对比以构成控制偏差,然后利用偏差给出合理的控制量进而控制所述四旋翼飞行器按照指定路径巡逻飞行。
如图3所示,所述步骤S1中利用视觉SLAM定位方法实现四旋翼飞行器定位的具体步骤包括:
S101、所述视觉传感器采集彩色图像和深度图像,通过MATLAB工具箱采用张正友标定法对视觉传感器进行相机标定,获取所述视觉传感器的畸变参数,然后利用视觉传感器的畸变参数对每一帧图像进行畸变修正;
S102、提取每一帧图像中的匹配特征点,根据已提取匹配特征点的相邻两帧图像估计出视觉传感器的运动初始值,并进行点云拼接;
S103、利用DBoW3库进行有效的闭合回环检测,优化视图上的位姿信息;
S104、通过计算所述视觉传感器获取的实时图像信息的点云数据和所述视觉传感器的运动轨迹,构建环境地图,并利用粒子滤波方法获取环境地图中各个位置的视野,将所述视觉传感器获取的实时视野图像信息与粒子滤波方法获取的视野图像信息进行匹配,实现所述四旋翼飞行器位置定位。
本实施例中,当所述步骤S103中检测到闭环时,通过计算闭环连接的两个关键帧之间的相似变换矩阵T,使得图像二维对应点的投影误差最小,即完成视图上的位姿信息的优化。
所述步骤S101中每一帧图像经过畸变修正后采用高斯滤波处理以消除噪声。
如图4所示,所述步骤S102的具体实现方法包括:
S1021、采用SIFT算子提取图像I(x,y)的特征点,并通过计算两组特征点的欧式距离进行图像特征点的匹配,其中k为像素点(k∈[1,n)),n为匹配特征点总数;
S1022、根据所述步骤S1021所匹配的特征点信息并结合视觉传感器获得的深度图像信息,得到匹配特征点的三维坐标p=(x,y,z),然后计算出两组匹配特征点的三维坐标旋转矩阵R与平移向量t;
S1023、根据匹配特征点的三维坐标旋转矩阵R与平移向量t得到变换矩阵其中01×3=[0 0 0]为1行3列的零矩阵,然后估计出视觉传感器的运动初始值,并进行点云拼接。
本实施例中,所述步骤S1022中三维坐标旋转矩阵R与平移向量t的具体计算为:首先设两组匹配特征点集分别为A和B,则可以建立模型为B=R*A+t,令分别计算两组匹配特征点集的中心点:(n为匹配特征点总数);然后将所述特征点集移动到原点得到其变换点集:接着计算两组所述变换点集之间的协方差矩阵:最后利用数学矩阵分解公式中的SVD奇异值分解公式将协方差矩阵H分解为SVD(H)=[U,S,V],其中U、V为正交矩阵,S为对角矩阵;从而可以得出两组匹配特征点的三维坐标旋转矩阵R为:R=VUT,平移向量t为:t=-R×μA+μB。
如图5所示,所述S3中人脸识别方法包括以下步骤:
S301、调整所述四旋翼飞行器的视角,并通过所述视觉传感器采集内部人员的人脸数据;
S302、通过所述地面监控站构建CNN(Convolutional Neural Network,即卷积神经网络)卷积神经网络,其卷积计算公式为:
式中xi、yj分别为第i个输入特征图,第j个输出特征图,pij是两者之间的卷积核,bj为第j个输出特征图的偏差;
S303、所述地面监控站将所述视觉传感器采集的人脸数据与下载的LFW人脸数据通过CNN卷积神经网络进行训练,得到人脸模型,并将所述人脸模型导入所述机载微型电脑内;
S304、所述视觉传感器在所述四旋翼飞行器飞行过程中实时进行视频拍摄,并将所拍摄的视频传给所述机载微型电脑,所述机载微型电脑采用所述S302构建的所述CNN卷积神经网络对所接收的视频进行人脸识别。
本实施例中,如图6所示,所述地面监控站构建的CNN卷积神经网络有四个卷积层,一个卷积层被视为一个深度模块,每个模块不包含池化层和1*1的卷积层,所述CNN卷积神经网络具体结构为:输入层10:55x47x3;第一卷积层71:44x52x20(卷积核4x4x3)、第一最大池化层81:22x26x20(过滤器2x2);第二卷积层72:20x24x40(卷积核3x3x20),第二最大池化层82:10x12x40(过滤器2x2);第三卷积层73:8x10x60(卷积核3x3x40),第三最大池化层83:4x5x60(过滤器2x2),第四卷积层74:3x4x80(卷积核2x2x60)。当所述CNN卷积神经网络中的深度模块数与宽度模块数相等时,人脸检测结果性能最佳,在实施例中,DeepID层可以有不同的分支模块数,当DeepID层选用四分支模块84时,其全连接层为1x4000。
本实施例中,所述机载微型电脑采用所述CNN卷积神经网络进行人脸实时识别时,如果识别结果显示出人脸对应名字则为内部人员,若识别结果为Unknown则此人被判断为外部人员,所述内部人员指的是在特定场景内(即安防室内)经常出现的工作人员或其它非工作人员,所述外部人员指的是从未在特定场景内(即安防室内)出现过的人员,即可疑人员。
为了进一步说明本发明的工作原理和技术效果,下面提供了采用本发明的室内安防系统及方法获取的轨迹对比图和误差曲线图予以说明。
如图7所示,图7是本发明采用SLAM定位四旋翼飞行器实际轨迹与期望轨迹对比图,从图中可以看出,本发明采用视觉SLAM定位方法可以控制飞行器很好的按照指定的路径进行飞行;
如图8、图9所示,图8是本发明中四旋翼机器人视觉定位误差曲线,图9是本发明中四旋翼飞行器飞行过程三维位置误差曲线图,从图中可以看出,本发明中视觉SLAM定位方法得到的位置数据与所述四旋翼飞行器实时返回位置坐标数据的误差一直保持在0mm附近波动,且在X轴和Y轴方向上的最大误差在10mm以内,从一定角度说明了本发明的室内SLAM定位方法精度高,且稳定可行。
需要说明的是,本发明中所述特征图是一个特征映射,它是在卷积神经网络中输入所述步骤S301中所述视觉传感器采集的人脸数据和卷积核卷积后生成的图像特征。
以上对本发明所提供的一种基于视觉SLAM的四旋翼飞行器室内安防系统及方法进行了详细介绍。本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的核心思想。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以对本发明进行若干改进和修饰,这些改进和修饰也落入本发明权利要求的保护范围内。
Claims (9)
1.一种基于视觉SLAM的四旋翼飞行器室内安防系统,其特征在于:包括,
四旋翼飞行器,所述四旋翼飞行器上设有用于实时获取所述四旋翼飞行器飞行过程中的图像信息和视频信息并将所获取的信息进行传输的视觉传感器,以及用于对所述视觉传感器所传输的图像信息和视频信息进行处理并将处理信息进行传输的机载微型电脑;
地面监控站,用于接收所述机载微型电脑传输的处理信息,并根据所接收的处理信息训练人脸模型;
无线传输模块,用于实现所述微型机载电脑与所述地面监控站的实时无线通讯。
2.如权利要求1所述的基于视觉SLAM的四旋翼飞行器室内安防系统,其特征在于,所述四旋翼飞行器包括控制器、飞行器机架和设于所述飞行器机架上用于给所述四旋翼飞行器提供电源的电源模块,以及安装于所述飞行器机架上的动力设备和驱动装置,所述动力设备和驱动装置包括四组无刷电机,以及与所述无刷电机一一对应的四组电机驱动模块和四组螺旋桨,所述无刷电机与所述电机驱动模块连接,所述螺旋桨安装于所述无刷电机上,所述四旋翼飞行器的上方设有用于控制所述四旋翼飞行器飞行的控制器,所述控制器通过所述无线传输模块与所述地面监控站实现实时无线通讯。
3.如权利要求2所述的基于视觉SLAM的四旋翼飞行器室内安防系统,其特征在于,所述地面监控站包括飞行器控制模块、图像显示模块和安防人脸识别模块,所述飞行器控制模块用于显示所述四旋翼飞行器的初始参数设置、路径规划以及姿态角;所述图像显示模块用于显示所述视觉传感器实时拍摄的图像信息和视频信息;所述安防人脸识别模块用于训练人脸模型以及显示所述机载微型电脑3的人脸识别结果。
4.如权利要求3所述的基于视觉SLAM的四旋翼飞行器室内安防系统,其特征在于,所述控制器和所述机载微型电脑位于所述四旋翼飞行器的上方,所述视觉传感器位于所述四旋翼飞行器的下方前端。
5.一种基于视觉SLAM的四旋翼飞行器室内安防方法,其特征在于,所述方法采用了权利要求1~4任一项所述的基于视觉SLAM的四旋翼飞行器室内安防系统,包括以下步骤:
S1、通过所述视觉传感器获取所述四旋翼飞行器飞行过程中的实时图像信息并生成点云数据,利用视觉SLAM定位方法计算所述四旋翼飞行器的三维位置信息,实现四旋翼飞行器的定位,同时通过所述控制器中的惯性测量单元测量出所述四旋翼飞行器的姿态信息;
S2、通过Zigbee将获取的所述四旋翼飞行器定位信息与姿态信息输入到经典PID飞行控制方法中,进而控制所述四旋翼飞行器按照指定路径巡逻飞行;
S3、所述视觉传感器在所述四旋翼飞行器飞行过程中实时拍摄视频,并将所拍摄的视频人脸信息通过所述机载微型电脑采用人脸识别方法进行人脸识别处理,然后将识别信息传输给所述地面监控站。
6.如权利要求5所述的基于视觉SLAM的四旋翼飞行器室内安防方法,其特征在于,所述步骤S1中利用视觉SLAM定位方法实现四旋翼飞行器定位的具体步骤包括:
S101、所述视觉传感器采集彩色图像和深度图像,通过MATLAB工具箱采用张正友标定法对视觉传感器进行相机标定,获取所述视觉传感器的畸变参数,然后利用视觉传感器的畸变参数对每一帧图像进行畸变修正;
S102、提取每一帧图像中的匹配特征点,根据已提取匹配特征点的相邻两帧图像估计出视觉传感器的运动初始值,并进行点云拼接;
S103、利用DBoW3库进行有效的闭合回环检测,优化视图上的位姿信息;
S104、通过计算所述视觉传感器获取的实时图像信息的点云数据和所述视觉传感器的运动轨迹,构建环境地图,并利用粒子滤波方法获取环境地图中各个位置的视野,将所述视觉传感器获取的实时视野图像信息与粒子滤波方法获取的视野图像信息进行匹配,实现所述四旋翼飞行器位置定位。
7.如权利要求6所述的基于视觉SLAM的四旋翼飞行器室内安防方法,其特征在于,所述步骤S101中每一帧图像经过畸变修正后采用高斯滤波处理以消除噪声。
8.如权利要求7所述的基于视觉SLAM的四旋翼飞行器室内安防方法,其特征在于,所述步骤S102的具体实现方法包括:
S1021、采用SIFT算子提取图像I(x,y)的特征点,并通过计算两组特征点的欧式距离进行图像特征点的匹配,其中k为像素点(k∈[1,n)),n为匹配特征点总数;
S1022、根据所述步骤S1021所匹配的特征点信息并结合视觉传感器获得的深度图像信息,得到匹配特征点的三维坐标p=(x,y,z),然后计算出两组匹配特征点的三维坐标旋转矩阵R与平移向量t;
S1023、根据匹配特征点的三维坐标旋转矩阵R与平移向量t得到变换矩阵其中01×3=[0 0 0]为1行3列的零矩阵,然后估计出视觉传感器的运动初始值,并进行点云拼接。
9.如权利要求8所述的基于视觉SLAM的四旋翼飞行器室内安防方法,其特征在于,所述S3中人脸识别方法包括以下步骤:
S301、调整所述四旋翼飞行器的视角,并通过所述视觉传感器采集内部人员的人脸数据;
S302、通过所述地面监控站构建CNN卷积神经网络,其卷积计算公式为:
式中xi、yj分别为第i个输入特征图,第j个输出特征图,pij是两者之间的卷积核,bj为第j个输出特征图的偏差;
S303、所述地面监控站将所述视觉传感器采集的人脸数据与下载的LFW人脸数据通过CNN卷积神经网络进行训练,得到人脸模型,并将所述人脸模型导入所述机载微型电脑内;
S304、所述视觉传感器在所述四旋翼飞行器飞行过程中实时进行视频拍摄,并将所拍摄的视频传给所述机载微型电脑,所述机载微型电脑采用所述S302构建的所述CNN卷积神经网络对所接收的视频进行人脸识别。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910034155.XA CN109709975B (zh) | 2019-01-15 | 2019-01-15 | 一种基于视觉slam的四旋翼飞行器室内安防系统及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910034155.XA CN109709975B (zh) | 2019-01-15 | 2019-01-15 | 一种基于视觉slam的四旋翼飞行器室内安防系统及方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109709975A true CN109709975A (zh) | 2019-05-03 |
CN109709975B CN109709975B (zh) | 2021-08-31 |
Family
ID=66261368
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910034155.XA Active CN109709975B (zh) | 2019-01-15 | 2019-01-15 | 一种基于视觉slam的四旋翼飞行器室内安防系统及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109709975B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112224443A (zh) * | 2020-09-27 | 2021-01-15 | 电子科技大学 | 扑翼飞行器室内飞行轨迹监测平台及其实验方法 |
CN112711973A (zh) * | 2019-10-25 | 2021-04-27 | 初速度(苏州)科技有限公司 | 一种关键点检测算法的评估方法及装置 |
CN113639752A (zh) * | 2021-07-31 | 2021-11-12 | 北京晟天行科技有限公司 | 一种无人机实时定位信号的传输控制方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104808799A (zh) * | 2015-05-20 | 2015-07-29 | 成都通甲优博科技有限责任公司 | 一种能够识别手势的无人机及其识别方法 |
CN105159452A (zh) * | 2015-08-28 | 2015-12-16 | 成都通甲优博科技有限责任公司 | 一种基于人脸姿态估计的控制方法与系统 |
CN105204349A (zh) * | 2015-08-19 | 2015-12-30 | 杨珊珊 | 一种用于智能家居控制的无人飞行器及其控制方法 |
CN105979147A (zh) * | 2016-06-22 | 2016-09-28 | 上海顺砾智能科技有限公司 | 一种无人机智能拍摄方法 |
CN107396051A (zh) * | 2017-08-09 | 2017-11-24 | 广州云从信息科技有限公司 | 一种采用无人机进行人脸识别监控的方法 |
CN108292141A (zh) * | 2016-03-01 | 2018-07-17 | 深圳市大疆创新科技有限公司 | 用于目标跟踪的方法和系统 |
-
2019
- 2019-01-15 CN CN201910034155.XA patent/CN109709975B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104808799A (zh) * | 2015-05-20 | 2015-07-29 | 成都通甲优博科技有限责任公司 | 一种能够识别手势的无人机及其识别方法 |
CN105204349A (zh) * | 2015-08-19 | 2015-12-30 | 杨珊珊 | 一种用于智能家居控制的无人飞行器及其控制方法 |
CN105159452A (zh) * | 2015-08-28 | 2015-12-16 | 成都通甲优博科技有限责任公司 | 一种基于人脸姿态估计的控制方法与系统 |
CN108292141A (zh) * | 2016-03-01 | 2018-07-17 | 深圳市大疆创新科技有限公司 | 用于目标跟踪的方法和系统 |
CN105979147A (zh) * | 2016-06-22 | 2016-09-28 | 上海顺砾智能科技有限公司 | 一种无人机智能拍摄方法 |
CN107396051A (zh) * | 2017-08-09 | 2017-11-24 | 广州云从信息科技有限公司 | 一种采用无人机进行人脸识别监控的方法 |
Non-Patent Citations (1)
Title |
---|
王耀南等: "旋翼飞行机器人的行人视觉跟踪方法及系统", 《电子测量与仪器学报》 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112711973A (zh) * | 2019-10-25 | 2021-04-27 | 初速度(苏州)科技有限公司 | 一种关键点检测算法的评估方法及装置 |
CN112711973B (zh) * | 2019-10-25 | 2022-06-21 | 魔门塔(苏州)科技有限公司 | 一种关键点检测算法的评估方法及装置 |
CN112224443A (zh) * | 2020-09-27 | 2021-01-15 | 电子科技大学 | 扑翼飞行器室内飞行轨迹监测平台及其实验方法 |
CN113639752A (zh) * | 2021-07-31 | 2021-11-12 | 北京晟天行科技有限公司 | 一种无人机实时定位信号的传输控制方法 |
CN113639752B (zh) * | 2021-07-31 | 2023-12-05 | 北京晟天行科技有限公司 | 一种无人机实时定位信号的传输控制方法 |
Also Published As
Publication number | Publication date |
---|---|
CN109709975B (zh) | 2021-08-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109219785B (zh) | 一种多传感器校准方法与系统 | |
EP3505808B1 (en) | Systems and methods for payload stabilization | |
CN110049921B (zh) | 用于红外跟踪的方法和系统 | |
US10599149B2 (en) | Salient feature based vehicle positioning | |
CN107850901B (zh) | 使用惯性传感器和图像传感器的传感器融合 | |
CN111792034B (zh) | 使用传感器融合估计可移动物体的状态信息的方法及系统 | |
CN105022401B (zh) | 基于视觉的多四旋翼无人机协同slam方法 | |
CN107850902B (zh) | 可移动物体上的相机配置 | |
CN107850436B (zh) | 使用惯性传感器和图像传感器的传感器融合 | |
EP3387506B1 (en) | Systems and methods for auto-return | |
EP3123260B1 (en) | Selective processing of sensor data | |
CN107850899B (zh) | 使用惯性传感器和图像传感器的传感器融合 | |
CN107817820A (zh) | 一种基于深度学习的无人机自主飞行控制方法与系统 | |
CN105974932B (zh) | 无人机控制方法 | |
CN109398688A (zh) | 一种旋翼飞行双机械臂目标定位抓取系统及方法 | |
CN109388150A (zh) | 多传感器环境地图构建 | |
CN102190081B (zh) | 基于视觉的飞艇定点鲁棒控制方法 | |
CN109709975A (zh) | 一种基于视觉slam的四旋翼飞行器室内安防系统及方法 | |
CN108733064A (zh) | 一种无人机的视觉定位避障系统及其方法 | |
Valenti et al. | An autonomous flyer photographer | |
Wang et al. | An intelligent ground-air cooperative navigation framework based on visual-aided method in indoor environments | |
Sruthi et al. | Yolov5 based open-source uav for human detection during search and rescue (sar) | |
CN207409136U (zh) | 基于飞行器的交通监测系统 | |
CN108052114A (zh) | 一种无人机的图像采集及跟踪控制系统 | |
Cherian et al. | Motion estimation of a miniature helicopter using a single onboard camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |