CN116698044B - 一种无人机导航方法及系统 - Google Patents
一种无人机导航方法及系统 Download PDFInfo
- Publication number
- CN116698044B CN116698044B CN202310954286.6A CN202310954286A CN116698044B CN 116698044 B CN116698044 B CN 116698044B CN 202310954286 A CN202310954286 A CN 202310954286A CN 116698044 B CN116698044 B CN 116698044B
- Authority
- CN
- China
- Prior art keywords
- personnel
- picture
- visible light
- trapped
- aerial vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 39
- 238000004891 communication Methods 0.000 claims description 14
- 238000010276 construction Methods 0.000 claims description 8
- 230000003993 interaction Effects 0.000 claims description 7
- 238000012544 monitoring process Methods 0.000 claims description 5
- 238000003331 infrared imaging Methods 0.000 abstract description 4
- 230000005855 radiation Effects 0.000 description 8
- 238000004590 computer program Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000001931 thermography Methods 0.000 description 4
- 230000036760 body temperature Effects 0.000 description 3
- 239000003086 colorant Substances 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000010223 real-time analysis Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- 230000009194 climbing Effects 0.000 description 1
- 230000002035 prolonged effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Automation & Control Theory (AREA)
- Multimedia (AREA)
- Navigation (AREA)
Abstract
本发明适用于无人机导航技术领域,尤其涉及一种无人机导航方法及系统,所述方法包括:进行红外图像采集和可视光图像采集,得到红外画面和可视光画面;对红外画面进行识别确定被困人员,根据可视光画面对被困人员进行实时跟踪;对可视光画面进行画面识别,根据识别结果构建人员导航路径;根据人员导航路径进行路线引导,引导过程中,保持引导距离并进行语音提示。本发明实施例提供的一种无人机导航方法,通过同时进行红外图像采集和可视光图像采集,基于红外成像确定人员位置,进而通过无人机进行路线规划,无人机通过规划得到的路径逐步引导被困人员脱困,大大提高了搜救的效率,缩短了营救时间。
Description
技术领域
本发明属于无人机导航技术领域,尤其涉及一种无人机导航方法及系统。
背景技术
无人机,是无人驾驶的飞机,电脑操控的飞机,不需要人来驾驶,无人机是一种由无线电遥控设备或自身程序控制装置操纵的无人驾驶飞行器。
在紧急救援过程中,虽然可以直接通过无人机搜索到被困人员,但是需要救援人员赶赴现场才能够完成施救,延长了救援时间。
发明内容
本发明实施例的目的在于提供一种无人机导航方法,旨在解决现有的无人机只能够搜索被困人员,无法引导被困人员脱困的问题。
本发明实施例是这样实现的,一种无人机导航方法,所述方法包括:
进行红外图像采集和可视光图像采集,得到红外画面和可视光画面;
对红外画面进行识别确定被困人员,根据可视光画面对被困人员进行实时跟踪;
对可视光画面进行画面识别,根据识别结果构建人员导航路径;
根据人员导航路径进行路线引导,引导过程中,保持引导距离并进行语音提示。
优选的,所述对红外画面进行识别确定被困人员,根据可视光画面对被困人员进行实时跟踪的步骤,具体包括:
对红外画面进行色彩识别,根据色彩判定是否为被困人员;
将可视光画面与红外画面进行叠加,确定人员位置,根据画面比例确定人员追踪范围;
根据人员位置不断更新人员追踪范围,对被困人员进行实时跟踪。
优选的,所述对可视光画面进行画面识别,根据识别结果构建人员导航路径的步骤,具体包括:
对可视光画面进行画面识别,将其划分为可通行区域和禁止通行区域;
根据可通行区域之间的连接关系,确定可通行连通域;
根据可通行连通域调取对应的海拔地图,按照预设的坡度限值构建人员导航路径。
优选的,所述根据人员导航路径进行路线引导,引导过程中,保持引导距离并进行语音提示的步骤,具体包括:
根据人员导航路径确定当前无人机位置,控制无人机沿着人员导航路径移动;
实时监测被困人员位置,计算其移动速度,保持引导距离,并实时播报语音提示;
向营救人员发送被困人员相关信息,并接收营救人员的控制指令。
优选的,所述被困人员相关信息至少包括人员位置信息、实时画面信息以及语音交互信息。
优选的,所述控制指令至少包括移动方向指令、移动距离指令以及语音引导信息。
本发明实施例的另一目的在于提供一种无人机导航系统,所述系统包括:
画面采集模块,用于进行红外图像采集和可视光图像采集,得到红外画面和可视光画面;
人员跟踪模块,用于对红外画面进行识别确定被困人员,根据可视光画面对被困人员进行实时跟踪;
路径识别模块,用于对可视光画面进行画面识别,根据识别结果构建人员导航路径;
人员引导模块,用于根据人员导航路径进行路线引导,引导过程中,保持引导距离并进行语音提示。
优选的,所述人员跟踪模块包括:
人员识别单元,用于对红外画面进行色彩识别,根据色彩判定是否为被困人员;
追踪范围识别单元,用于将可视光画面与红外画面进行叠加,确定人员位置,根据画面比例确定人员追踪范围;
位置更新单元,用于根据人员位置不断更新人员追踪范围,对被困人员进行实时跟踪。
优选的,所述路径识别模块包括:
区域划分单元,用于对可视光画面进行画面识别,将其划分为可通行区域和禁止通行区域;
连通域构建单元,用于根据可通行区域之间的连接关系,确定可通行连通域;
路径构建单元,用于根据可通行连通域调取对应的海拔地图,按照预设的坡度限值构建人员导航路径。
优选的,所述人员引导模块包括:
无人机控制单元,用于根据人员导航路径确定当前无人机位置,控制无人机沿着人员导航路径移动;
人员状态识别单元,用于实时监测被困人员位置,计算其移动速度,保持引导距离,并实时播报语音提示;
营救交互单元,用于向营救人员发送被困人员相关信息,并接收营救人员的控制指令。
本发明实施例提供的一种无人机导航方法,通过同时进行红外图像采集和可视光图像采集,基于红外成像确定人员位置,进而通过无人机进行路线规划,无人机通过规划得到的路径逐步引导被困人员脱困,大大提高了搜救的效率,缩短了营救时间。
附图说明
图1为本发明实施例提供的一种无人机导航方法的流程图;
图2为本发明实施例提供的对红外画面进行识别确定被困人员,根据可视光画面对被困人员进行实时跟踪的步骤的流程图;
图3为本发明实施例提供的对可视光画面进行画面识别,根据识别结果构建人员导航路径的步骤的流程图;
图4为本发明实施例提供的根据人员导航路径进行路线引导,引导过程中,保持引导距离并进行语音提示的步骤的流程图;
图5为本发明实施例提供的一种无人机导航系统的架构图;
图6为本发明实施例提供的一种人员跟踪模块的架构图;
图7为本发明实施例提供的一种路径识别模块的架构图;
图8为本发明实施例提供的一种人员引导模块的架构图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
如图1所示,为本发明实施例提供的一种无人机导航方法的流程图,所述方法包括:
S100,进行红外图像采集和可视光图像采集,得到红外画面和可视光画面。
在本步骤中,进行红外图像采集和可视光图像采集,为了采集红外图像和可视光图像,在无人机上配置红外成像图像采集设备和可视光采集设备,两者均配置在无人机底部,用于对地面进行拍摄,据此得到红外画面和可视光画面,通过可视光画面和红外画面就能够确定人员的位置。
S200,对红外画面进行识别确定被困人员,根据可视光画面对被困人员进行实时跟踪。
在本步骤中,对红外画面进行识别确定被困人员,通过红外图像采集,能够提取得到被困人员辐射出的红外线,因此可以在红外画面中显示不一样的色彩,而环境温度一般低于人体温度,因此可以据此来确定红外画面中的活动物体,进而通过可视光画面进一步进行检测,从而确定人员的位置,通过进行实时处理,能够实时确定被困人员的位置,根据被困人员的位置进行实时跟踪。
S300,对可视光画面进行画面识别,根据识别结果构建人员导航路径。
在本步骤中,对可视光画面进行画面识别,在多种被困场景中,多数场景为人员进入到不熟悉的位置,特别是老人,在上山过程中,进入到不熟悉的位置,迷失了方向,因此越走越远,偏离了道路,而无人机由于在高空飞行,能够以俯瞰的视角进行拍摄,能够据此确定可以行走的位置,因此据此确定人员导航路径,人员导航路径是能够供人员进行移动的路线,也是无人机在引导人员飞行时的移动路径。
S400,根据人员导航路径进行路线引导,引导过程中,保持引导距离并进行语音提示。
在本步骤中,根据人员导航路径进行路线引导,无人机根据人员导航路径飞行,在飞行过程中,还是不断的进行图像采集,包括红外图像采集和可视光图像采集,对采集的画面进行实时分析,以保证无人机在被困人员的周围,从而实现实时引导的目的,引导过程中,保持引导距离并进行语音提示。
如图2所示,作为本发明的一个优选实施例,所述对红外画面进行识别确定被困人员,根据可视光画面对被困人员进行实时跟踪的步骤,具体包括:
S201,对红外画面进行色彩识别,根据色彩判定是否为被困人员。
在本步骤中,对红外画面进行色彩识别,在红外画面中,为了对红外线的辐射强度进行区分,通过不同的色彩对各个像素进行上色,因此可以根据色彩来确定画面中各个区域的红外线辐射强度,而人体温度高于环境温度,其热辐射能够被热成像设备检测到,环境中的热辐射较低,因此从画面中很容易发现被困人员。
S202,将可视光画面与红外画面进行叠加,确定人员位置,根据画面比例确定人员追踪范围。
在本步骤中,将可视光画面与红外画面进行叠加,热成像设备与可见光设备并列设置,因此两者拍摄到的画面可以认为是相同的,将两者重合,那么被困人员的位置可以在可视光画面中进一步确定,以实现复核的目的,为了实现跟踪,按照预设比例对可视光画面以及红外画面进行划分,具体的,可以将可视光画面以及红外画面中部的圆形区域划分为人员跟踪区域,人员跟踪区域占据整个可视光画面或者红外画面的30%,具体比例可以根据需要进行设置。
S203,根据人员位置不断更新人员追踪范围,对被困人员进行实时跟踪。
在本步骤中,根据人员位置不断更新人员追踪范围,当检测到人员的轮廓与人员跟踪范围的边界重叠时,此时统计人员占据的像素点的位置信息,计算人员的中心坐标,具体的,构建二维坐标系,将每一个像素标记二维坐标系中,以获得每一个像素的坐标,计算人员占据的像素点的横轴平均值和纵轴平均值,以横轴平均值和纵轴平均值为坐标的点即为被困人员的中心坐标,以中心坐标为圆心更新人员追踪范围,重新确定人员追踪范围。
如图3所示,作为本发明的一个优选实施例,所述对可视光画面进行画面识别,根据识别结果构建人员导航路径的步骤,具体包括:
S301,对可视光画面进行画面识别,将其划分为可通行区域和禁止通行区域。
在本步骤中,对可视光画面进行画面识别,通过图像识别技术对可视光画面进行识别,判定可以行走的区域和不能行走的区域,具体的,若存在障碍物覆盖,则将其划定为禁止通行区域,具体的,对可视光画面进行区域图像截取,若截取得到的图像中被障碍物(如树叶、水域)覆盖的比例达到预设值(如80%),则判定为禁止通行区域,反之则为可通行区域。
S302,根据可通行区域之间的连接关系,确定可通行连通域。
在本步骤中,根据可通行区域之间的连接关系确定可通行连通域,在区域划分过程中,得到多个独立的可通行区域,若可通行区域之间重合的边线长度超过预设值,则视为两者连通,以得到可通行连通域,被困人员可以移动到可通行连通域内的任意位置。
S303,根据可通行连通域调取对应的海拔地图,按照预设的坡度限值构建人员导航路径。
在本步骤中,根据可通行连通域调取对应的海拔地图,在海拔地图中对可通行连通域中的各点的海拔进行标识,当坡度超过预设值时,视为无法通过,从而可通行连通域中无法通行的区域,将其排除之后,在剩余的可通行连通域中选择坡度最缓的路线作为人员导航路径。
如图4所示,作为本发明的一个优选实施例,所述根据人员导航路径进行路线引导,引导过程中,保持引导距离并进行语音提示的步骤,具体包括:
S401,根据人员导航路径确定当前无人机位置,控制无人机沿着人员导航路径移动。
在本步骤中,根据人员导航路径确定当前无人机位置,通过无人机进行定位,以确定无人机与人员导航路径之间的位置关系,通过进行路径规划,控制无人机飞行至被困人员上方,进而沿着人员导航路径移动,使得无人机在被困人员的前方,通过无人机为被困人员领路。
S402,实时监测被困人员位置,计算其移动速度,保持引导距离,并实时播报语音提示。
在本步骤中,实时监测被困人员位置,同样的,通过图像识别的方式,实时分析被困人员的位置,以确定被困人员的移动路径,若被困人员位于人员导航路径上,则记录进行引导,若被困人员偏离导航路径,则对被困人员进行跟随,并重新规划人员引导路径,在此过程中,计算其移动速度,根据其移动速度来确定无人机的移动速度,保持引导距离,并实时播报语音提示。
S403,向营救人员发送被困人员相关信息,并接收营救人员的控制指令。
在本步骤中,向营救人员发送被困人员相关信息,营救人员则根据接收到的被困人员相关信息决定如何控制无人机,从而向无人机发出对应的控制指令,也可以进行隔空喊话。
如图5所示,为本发明实施例提供的一种无人机导航系统,所述系统包括:
画面采集模块100,用于进行红外图像采集和可视光图像采集,得到红外画面和可视光画面。
在本系统中,画面采集模块100进行红外图像采集和可视光图像采集,为了采集红外图像和可视光图像,在无人机上配置红外成像图像采集设备和可视光采集设备,两者均配置在无人机底部,用于对地面进行拍摄,据此得到红外画面和可视光画面,通过可视光画面和红外画面就能够确定人员的位置。
人员跟踪模块200,用于对红外画面进行识别确定被困人员,根据可视光画面对被困人员进行实时跟踪。
在本系统中,人员跟踪模块200对红外画面进行识别确定被困人员,通过红外图像采集,能够提取得到被困人员辐射出的红外线,因此可以在红外画面中显示不一样的色彩,而环境温度一般低于人体温度,因此可以据此来确定红外画面中的活动物体,进而通过可视光画面进一步进行检测,从而确定人员的位置,通过进行实时处理,能够实时确定被困人员的位置,根据被困人员的位置进行实时跟踪。
路径识别模块300,用于对可视光画面进行画面识别,根据识别结果构建人员导航路径。
在本系统中,路径识别模块300对可视光画面进行画面识别,在多种被困场景中,多数场景为人员进入到不熟悉的位置,特别是老人,在上山过程中,进入到不熟悉的位置,迷失了方向,因此越走越远,偏离了道路,而无人机由于在高空飞行,能够以俯瞰的视角进行拍摄,能够据此确定可以行走的位置,因此据此确定人员导航路径,人员导航路径是能够供人员进行移动的路线,也是无人机在引导人员飞行时的移动路径。
人员引导模块400,用于根据人员导航路径进行路线引导,引导过程中,保持引导距离并进行语音提示。
在本系统中,人员引导模块400根据人员导航路径进行路线引导,无人机根据人员导航路径飞行,在飞行过程中,还是不断的进行图像采集,包括红外图像采集和可视光图像采集,对采集的画面进行实时分析,以保证无人机在被困人员的周围,从而实现实时引导的目的,引导过程中,保持引导距离并进行语音提示。
如图6所示,作为本发明的一个优选实施例,所述人员跟踪模块200包括:
人员识别单元201,用于对红外画面进行色彩识别,根据色彩判定是否为被困人员。
在本模块中,人员识别单元201对红外画面进行色彩识别,在红外画面中,为了对红外线的辐射强度进行区分,通过不同的色彩对各个像素进行上色,因此可以根据色彩来确定画面中各个区域的红外线辐射强度,而人体温度高于环境温度,其热辐射能够被热成像设备检测到,环境中的热辐射较低,因此从画面中很容易发现被困人员。
追踪范围识别单元202,用于将可视光画面与红外画面进行叠加,确定人员位置,根据画面比例确定人员追踪范围。
在本模块中,追踪范围识别单元202将可视光画面与红外画面进行叠加,热成像设备与可见光设备并列设置,因此两者拍摄到的画面可以认为是相同的,将两者重合,那么被困人员的位置可以在可视光画面中进一步确定,以实现复核的目的,为了实现跟踪,按照预设比例对可视光画面以及红外画面进行划分,具体的,可以将可视光画面以及红外画面中部的圆形区域划分为人员跟踪区域,人员跟踪区域占据整个可视光画面或者红外画面的30%,具体比例可以根据需要进行设置。
位置更新单元203,用于根据人员位置不断更新人员追踪范围,对被困人员进行实时跟踪。
在本模块中,位置更新单元203根据人员位置不断更新人员追踪范围,当检测到人员的轮廓与人员跟踪范围的边界重叠时,此时统计人员占据的像素点的位置信息,计算人员的中心坐标,具体的,构建二维坐标系,将每一个像素标记二维坐标系中,以获得每一个像素的坐标,计算人员占据的像素点的横轴平均值和纵轴平均值,以横轴平均值和纵轴平均值为坐标的点即为被困人员的中心坐标,以中心坐标为圆心更新人员追踪范围,重新确定人员追踪范围。
如图7所示,作为本发明的一个优选实施例,所述路径识别模块300包括:
区域划分单元301,用于对可视光画面进行画面识别,将其划分为可通行区域和禁止通行区域。
在本模块中,区域划分单元301对可视光画面进行画面识别,通过图像识别技术对可视光画面进行识别,判定可以行走的区域和不能行走的区域,具体的,若存在障碍物覆盖,则将其划定为禁止通行区域,具体的,对可视光画面进行区域图像截取,若截取得到的图像中被障碍物(如树叶、水域)覆盖的比例达到预设值(如80%),则判定为禁止通行区域,反之则为可通行区域。
连通域构建单元302,用于根据可通行区域之间的连接关系,确定可通行连通域。
在本模块中,连通域构建单元302根据可通行区域之间的连接关系确定可通行连通域,在区域划分过程中,得到多个独立的可通行区域,若可通行区域之间重合的边线长度超过预设值,则视为两者连通,以得到可通行连通域,被困人员可以移动到可通行连通域内的任意位置。
路径构建单元303,用于根据可通行连通域调取对应的海拔地图,按照预设的坡度限值构建人员导航路径。
在本模块中,路径构建单元303根据可通行连通域调取对应的海拔地图,在海拔地图中对可通行连通域中的各点的海拔进行标识,当坡度超过预设值时,视为无法通过,从而可通行连通域中无法通行的区域,将其排除之后,在剩余的可通行连通域中选择坡度最缓的路线作为人员导航路径。
如图8所示,作为本发明的一个优选实施例,所述人员引导模块400包括:
无人机控制单元401,用于根据人员导航路径确定当前无人机位置,控制无人机沿着人员导航路径移动。
在本模块中,无人机控制单元401根据人员导航路径确定当前无人机位置,通过无人机进行定位,以确定无人机与人员导航路径之间的位置关系,通过进行路径规划,控制无人机飞行至被困人员上方,进而沿着人员导航路径移动,使得无人机在被困人员的前方,通过无人机为被困人员领路。
人员状态识别单元402,用于实时监测被困人员位置,计算其移动速度,保持引导距离,并实时播报语音提示。
在本模块中,人员状态识别单元402实时监测被困人员位置,同样的,通过图像识别的方式,实时分析被困人员的位置,以确定被困人员的移动路径,若被困人员位于人员导航路径上,则记录进行引导,若被困人员偏离导航路径,则对被困人员进行跟随,并重新规划人员引导路径,在此过程中,计算其移动速度,根据其移动速度来确定无人机的移动速度,保持引导距离,并实时播报语音提示。
营救交互单元403,用于向营救人员发送被困人员相关信息,并接收营救人员的控制指令。
在本模块中,营救交互单元403向营救人员发送被困人员相关信息,营救人员则根据接收到的被困人员相关信息决定如何控制无人机,从而向无人机发出对应的控制指令,也可以进行隔空喊话。
在一个实施例中,提出了一种计算机设备,所述计算机设备包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
进行红外图像采集和可视光图像采集,得到红外画面和可视光画面;
对红外画面进行识别确定被困人员,根据可视光画面对被困人员进行实时跟踪;
对可视光画面进行画面识别,根据识别结果构建人员导航路径;
根据人员导航路径进行路线引导,引导过程中,保持引导距离并进行语音提示。
在一个实施例中,提供一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,计算机程序被处理器执行时,使得处理器执行以下步骤:
进行红外图像采集和可视光图像采集,得到红外画面和可视光画面;
对红外画面进行识别确定被困人员,根据可视光画面对被困人员进行实时跟踪;
对可视光画面进行画面识别,根据识别结果构建人员导航路径;
根据人员导航路径进行路线引导,引导过程中,保持引导距离并进行语音提示。
应该理解的是,虽然本发明各实施例的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,各实施例中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一非易失性计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink) DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (4)
1.一种无人机导航方法,其特征在于,所述方法包括:
进行红外图像采集和可视光图像采集,得到红外画面和可视光画面;
对红外画面进行识别确定被困人员,根据可视光画面对被困人员进行实时跟踪;
对可视光画面进行画面识别,根据识别结果构建人员导航路径;
根据人员导航路径进行路线引导,引导过程中,保持引导距离并进行语音提示;
所述对可视光画面进行画面识别,根据识别结果构建人员导航路径的步骤,具体包括:
对可视光画面进行画面识别,将其划分为可通行区域和禁止通行区域;
根据可通行区域之间的连接关系,确定可通行连通域;
根据可通行连通域调取对应的海拔地图,按照预设的坡度限值构建人员导航路径;
所述根据人员导航路径进行路线引导,引导过程中,保持引导距离并进行语音提示的步骤,具体包括:
根据人员导航路径确定当前无人机位置,控制无人机沿着人员导航路径移动;
实时监测被困人员位置,计算其移动速度,保持引导距离,并实时播报语音提示;
向营救人员发送被困人员相关信息,并接收营救人员的控制指令;
所述被困人员相关信息至少包括人员位置信息、实时画面信息以及语音交互信息;
所述控制指令至少包括移动方向指令、移动距离指令以及语音引导信息。
2.根据权利要求1所述的无人机导航方法,其特征在于,所述对红外画面进行识别确定被困人员,根据可视光画面对被困人员进行实时跟踪的步骤,具体包括:
对红外画面进行色彩识别,根据色彩判定是否为被困人员;
将可视光画面与红外画面进行叠加,确定人员位置,根据画面比例确定人员追踪范围;
根据人员位置不断更新人员追踪范围,对被困人员进行实时跟踪。
3.一种无人机导航系统,其特征在于,所述系统包括:
画面采集模块,用于进行红外图像采集和可视光图像采集,得到红外画面和可视光画面;
人员跟踪模块,用于对红外画面进行识别确定被困人员,根据可视光画面对被困人员进行实时跟踪;
路径识别模块,用于对可视光画面进行画面识别,根据识别结果构建人员导航路径;
人员引导模块,用于根据人员导航路径进行路线引导,引导过程中,保持引导距离并进行语音提示;
所述路径识别模块包括:
区域划分单元,用于对可视光画面进行画面识别,将其划分为可通行区域和禁止通行区域;
连通域构建单元,用于根据可通行区域之间的连接关系,确定可通行连通域;
路径构建单元,用于根据可通行连通域调取对应的海拔地图,按照预设的坡度限值构建人员导航路径;
所述人员引导模块包括:
无人机控制单元,用于根据人员导航路径确定当前无人机位置,控制无人机沿着人员导航路径移动;
人员状态识别单元,用于实时监测被困人员位置,计算其移动速度,保持引导距离,并实时播报语音提示;
营救交互单元,用于向营救人员发送被困人员相关信息,并接收营救人员的控制指令;
所述被困人员相关信息至少包括人员位置信息、实时画面信息以及语音交互信息;
所述控制指令至少包括移动方向指令、移动距离指令以及语音引导信息。
4.根据权利要求3所述的无人机导航系统,其特征在于,所述人员跟踪模块包括:
人员识别单元,用于对红外画面进行色彩识别,根据色彩判定是否为被困人员;
追踪范围识别单元,用于将可视光画面与红外画面进行叠加,确定人员位置,根据画面比例确定人员追踪范围;
位置更新单元,用于根据人员位置不断更新人员追踪范围,对被困人员进行实时跟踪。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310954286.6A CN116698044B (zh) | 2023-08-01 | 2023-08-01 | 一种无人机导航方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310954286.6A CN116698044B (zh) | 2023-08-01 | 2023-08-01 | 一种无人机导航方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116698044A CN116698044A (zh) | 2023-09-05 |
CN116698044B true CN116698044B (zh) | 2023-12-08 |
Family
ID=87829604
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310954286.6A Active CN116698044B (zh) | 2023-08-01 | 2023-08-01 | 一种无人机导航方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116698044B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117268418A (zh) * | 2023-09-20 | 2023-12-22 | 中国地质大学(北京) | 一种无人机野外路径规划方法、终端设备及储存介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110116569A (ko) * | 2010-04-19 | 2011-10-26 | 목포대학교산학협력단 | 가시광 통신을 이용한 재난탈출 중앙관제 시스템 |
CN109101940A (zh) * | 2018-08-24 | 2018-12-28 | 北京壹氢科技有限公司 | 一种无人机红外视频信息显示于可见光视频中的方法 |
CN110302488A (zh) * | 2019-06-12 | 2019-10-08 | 天府新区西南交通大学研究院 | 自主消防无人机系统及消防方法 |
CN111402134A (zh) * | 2020-03-15 | 2020-07-10 | 国科天成(北京)科技有限公司 | 可见/红外双光融合系统 |
CN114005240A (zh) * | 2021-06-10 | 2022-02-01 | 浙江大学 | 一种复杂建筑体内基于无人机群的火灾逃生指引系统 |
CN114967731A (zh) * | 2022-04-12 | 2022-08-30 | 中国计量大学 | 一种基于无人机的野外人员自动搜寻方法 |
CN218258717U (zh) * | 2022-08-29 | 2023-01-10 | 重庆帮手信息技术有限公司 | 一种抢险救灾用无人机 |
-
2023
- 2023-08-01 CN CN202310954286.6A patent/CN116698044B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110116569A (ko) * | 2010-04-19 | 2011-10-26 | 목포대학교산학협력단 | 가시광 통신을 이용한 재난탈출 중앙관제 시스템 |
CN109101940A (zh) * | 2018-08-24 | 2018-12-28 | 北京壹氢科技有限公司 | 一种无人机红外视频信息显示于可见光视频中的方法 |
CN110302488A (zh) * | 2019-06-12 | 2019-10-08 | 天府新区西南交通大学研究院 | 自主消防无人机系统及消防方法 |
CN111402134A (zh) * | 2020-03-15 | 2020-07-10 | 国科天成(北京)科技有限公司 | 可见/红外双光融合系统 |
CN114005240A (zh) * | 2021-06-10 | 2022-02-01 | 浙江大学 | 一种复杂建筑体内基于无人机群的火灾逃生指引系统 |
CN114967731A (zh) * | 2022-04-12 | 2022-08-30 | 中国计量大学 | 一种基于无人机的野外人员自动搜寻方法 |
CN218258717U (zh) * | 2022-08-29 | 2023-01-10 | 重庆帮手信息技术有限公司 | 一种抢险救灾用无人机 |
Also Published As
Publication number | Publication date |
---|---|
CN116698044A (zh) | 2023-09-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108496129B (zh) | 一种基于飞行器的设施检测方法及控制设备 | |
US9253453B2 (en) | Automatic video surveillance system and method | |
CN111656424B (zh) | 基于大数据的自动飞行无人机系统及其自动飞行方法 | |
CN206691107U (zh) | 无人驾驶汽车系统及汽车 | |
JP3781370B2 (ja) | 移動装置 | |
CN116698044B (zh) | 一种无人机导航方法及系统 | |
CN207367052U (zh) | 一种生命探测车、可穿戴设备和虚拟现实探测系统 | |
US10656653B2 (en) | Work area determination system for autonomous traveling work vehicle, the autonomous traveling work vehicle and work area determination program | |
CN107291100B (zh) | 一种基于无人机的监控方法 | |
KR20160093504A (ko) | 드론을 이용한 안전 경로 안내장치 및 그 제어 방법 | |
KR102290533B1 (ko) | 불법 비행 감지 및 대응을 위한 rtk-gps 연동 시스템 및 그 방법 | |
KR20190000439A (ko) | 조류퇴치를 위한 무인비행체 및 그 운용방법 | |
EP3924683A1 (en) | Vehicle-mounted device with network-connected scopes for allowing a target to be simultaneously tracked by multiple other devices | |
CN115649501B (zh) | 一种无人机夜行照明系统及方法 | |
CN112445204A (zh) | 工地中的物体移动导航方法、装置和计算机设备 | |
CN115328212A (zh) | 一种基于无人机吊舱的目标追踪方法及装置 | |
CN112530207A (zh) | 机场鸟情监控方法及系统 | |
KR20170058767A (ko) | 스마트 재배농장 시스템 및 그 제어방법 | |
Arambel et al. | Multiple-hypothesis tracking of multiple ground targets from aerial video with dynamic sensor control | |
RU2542873C1 (ru) | Комплекс технического наблюдения за охраняемой территорией | |
KR20210057694A (ko) | 실외 경비를 위한 이동형 경비 로봇 및 그 제어 방법 | |
KR101865835B1 (ko) | 비행체 감시 장치 | |
CN116430901A (zh) | 一种基于移动停机坪的无人机返航控制方法及系统 | |
CN110045721B (zh) | 用于辅助车辆行驶的方法及其装置 | |
KR20170019108A (ko) | 인식 능력 기반의 카메라 검색 방법 및 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20231115 Address after: Room 0609, 6th Floor, Hohhot Science and Technology Innovation Center, No. 2 Chenguang Street, Ruyi Industrial Park, Hohhot City, Inner Mongolia Autonomous Region, 010000 Applicant after: Inner Mongolia Corbit Aviation Technology Co.,Ltd. Address before: Room C-0994, 2nd Floor, Building 3, No. 30 Shixing Street, Shijingshan District, Beijing, 100070 (Cluster Registration) Applicant before: Beijing Gongchuang Jingju Technology Service Co.,Ltd. |
|
TA01 | Transfer of patent application right | ||
GR01 | Patent grant | ||
GR01 | Patent grant |