CN117710467A - 无人机定位方法、设备及飞行器 - Google Patents
无人机定位方法、设备及飞行器 Download PDFInfo
- Publication number
- CN117710467A CN117710467A CN202410166442.7A CN202410166442A CN117710467A CN 117710467 A CN117710467 A CN 117710467A CN 202410166442 A CN202410166442 A CN 202410166442A CN 117710467 A CN117710467 A CN 117710467A
- Authority
- CN
- China
- Prior art keywords
- aerial vehicle
- unmanned aerial
- texture
- determining
- points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 71
- 238000001514 detection method Methods 0.000 claims description 27
- 238000004422 calculation algorithm Methods 0.000 claims description 25
- 230000000007 visual effect Effects 0.000 claims description 9
- 238000012937 correction Methods 0.000 claims description 6
- 230000009467 reduction Effects 0.000 claims description 4
- 230000007613 environmental effect Effects 0.000 abstract description 6
- 230000008569 process Effects 0.000 description 17
- 238000012545 processing Methods 0.000 description 13
- 238000000605 extraction Methods 0.000 description 11
- 238000004891 communication Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- RZVHIXYEVGDQDX-UHFFFAOYSA-N 9,10-anthraquinone Chemical compound C1=CC=C2C(=O)C3=CC=CC=C3C(=O)C2=C1 RZVHIXYEVGDQDX-UHFFFAOYSA-N 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000012216 screening Methods 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 238000000802 evaporation-induced self-assembly Methods 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Abstract
本发明提供了一种无人机定位方法、设备及飞行器,涉及无人机控制领域,该方法无人机等飞行器进行控制的过程中,首先利用无人机中多个对称设置的相机获取相机捕获的多个数字图像;然后确定数字图像之间的重叠区域,并基于重叠区域获取数字图像对应的拼接图像;随后基于拼接图像中的纹理数据提取拼接图像中的场景特征点,并根据场景特征点确定无人机的位置数据;最后利用位置数据控制无人机的姿态。该方法通过多个对称设置的相机采集无人机周围的环境特征信息,从而可计算出无人机与周围物体之间的相对位置,在定位失效的情况下也能够实现无人机的悬停控制以及自动降落,从而减少了坠机概率。
Description
技术领域
本发明涉及无人机控制领域,尤其是涉及一种无人机定位方法、设备及飞行器。
背景技术
无人机的飞行定位控制主要基于定位设备反馈的位置数据和高度数据来实现,在飞行过程中的无人机由于高度普遍较高,定位信号干扰因素较少,因此飞行控制较为稳定;而在降落过程中,无人机会受到建筑的遮挡导致定位信号接收不稳定的情况,严重时会因无法获取定位数据导致无人机坠毁。现有技术中的无人机仅仅使用单目针孔相机或者双目针孔相机进行飞行定位和控制,此类方案的视场有限,盲区较大,导致定位精度和鲁棒性都较差。
发明内容
有鉴于此,本发明的目的在于提供一种无人机定位方法、设备及飞行器,该方法通过多个对称设置的相机采集无人机周围的环境特征信息,从而可精确计算出无人机与周围物体之间的相对位置,从而提高了定位效果,减少了坠机概率。
第一方面,本发明实施方式提供了一种无人机定位方法,该方法包括:
利用无人机中多个对称设置的相机获取相机捕获的多个数字图像;
确定数字图像之间的重叠区域,并基于重叠区域获取数字图像对应的拼接图像;
基于拼接图像中的纹理数据提取拼接图像中的场景特征点,并根据场景特征点确定无人机的位置数据;
利用位置数据确定无人机的定位信息。
在一种实施方式中,利用无人机中多个对称设置的相机获取相机捕获的多个数字图像的步骤,包括:
基于无人机中对称设置的四个相机分别捕获数字图像;其中相机均设置在无人机的同一水平面处,且相机分别设置在无人机的机身四周;
控制相机进行拍摄后得到原始数字图像,并对原始数字图像进行降噪、对比度增强以及颜色校正处理后,得到相机对应的数字图像。
在一种实施方式中,确定数字图像之间的重叠区域,并基于重叠区域获取数字图像对应的拼接图像的步骤,包括:
利用相机的镜头视野参数确定相机的双目视野,并基于双目视野构建相机的双目相机组;其中,双目视野包括左目视野和右目视野;
确定相邻相机之间的双目相机组对应的重叠视野区域,并根据重叠视野区域确定数字图像之间的重叠区域;
基于重叠区域将所有相机的左目视野和右目视野对应的数字图像进行拼接,得到拼接图像。
在一种实施方式中,基于拼接图像中的纹理数据提取拼接图像中的场景特征点,并根据场景特征点确定无人机的位置数据的步骤,包括:
利用纹理检测算法计算拼接图像中的纹理数据,并根据纹理数据确定拼接图像中包含的纹理区域;
利用快速角点检测算法提取纹理区域中包含的角点,并根据角点确定拼接图像中的场景特征点;
对场景特征点进行特征匹配,确定场景特征点中包含的特征匹配点,并计算特征匹配点对应的位置信息;
基于位置信息确定无人机对应的位置数据。
在一种实施方式中,利用纹理检测算法计算拼接图像中的纹理数据,并根据纹理数据确定拼接图像中包含的纹理区域的步骤,包括:
根据纹理检测算法计算拼接图像中的纹理数据,并获取纹理数据中包含的纹理数值;
基于纹理数值确定拼接图像中包含的高纹理区域和低纹理区域;其中,高纹理区域中的纹理数值多于低纹理区域中的纹理数量。
在一种实施方式中,利用快速角点检测算法提取纹理区域中包含的角点,并根据角点确定拼接图像中的场景特征点的步骤,包括:
判断纹理区域是否为高纹理区域;
如果是,则利用快速角点检测算法提取纹理区域中包含的角点,并根据角点对应的稳定性参数确定拼接图像中的场景特征点;如果否,则忽略当前纹理区域中包含的角点。
在一种实施方式中,对场景特征点进行特征匹配,确定场景特征点中包含的特征匹配点,并计算特征匹配点对应的位置信息的步骤,包括:
获取场景特征点对应的特征值,并利用特征值对场景特征点进行特征匹配,得到特征匹配点;
利用特征匹配点的对极几何关系计算并得到特征匹配点对应的位置信息。
在一种实施方式中,利用位置数据确定无人机的定位信息的步骤,包括:
获取位置数据对应的场景特征点,并确定场景特征点的坐标;
利用场景特征点的坐标确定无人机的三维坐标信息,并根据三维坐标信息生成无人机的定位信息。
第二方面,本发明实施方式提供一种无人机定位设备,该设备包括:
采集单元,用于利用无人机中多个对称设置的相机获取相机捕获的多个数字图像;
拼接单元,用于确定数字图像之间的重叠区域,并基于重叠区域获取数字图像对应的拼接图像;
计算单元,用于基于拼接图像中的纹理数据提取拼接图像中的场景特征点,并根据场景特征点确定无人机的位置数据;
定位单元,用于利用位置数据确定无人机的定位信息。
第三方面,本发明实施方式还提供一种飞行器,该飞行器在飞行定位控制过程中采用第一方面提供的无人机定位方法的步骤。
第四方面,本发明实施方式还提供一种电子设备,包括处理器和存储器,存储器存储有能够被处理器执行的计算机可执行指令,处理器执行计算机可执行指令以实现第一方面提供的无人机定位方法的步骤。
第五方面,本发明实施方式还提供一种存储介质,该存储介质存储有计算机可执行指令,计算机可执行指令在被处理器调用和执行时,计算机可执行指令促使处理器实现第一方面提供的无人机定位方法的步骤。
本发明实施方式提供的一种无人机定位方法、设备及飞行器,在无人机等飞行器进行飞行定位控制的过程中,首先利用无人机中多个对称设置的相机获取相机捕获的多个数字图像;然后确定数字图像之间的重叠区域,并基于重叠区域获取数字图像对应的拼接图像;随后基于拼接图像中的纹理数据提取拼接图像中的场景特征点,并根据场景特征点确定无人机的位置数据;最后利用位置数据确定无人机的定位信息。该方法通过多个对称设置的相机采集无人机周围的环境特征信息,从而可精确计算出无人机与周围物体之间的相对位置,从而提高了定位效果,减少了坠机概率。
本发明的其他特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点在说明书、权利要求书以及附图中所特别指出的结构来实现和获得。
为使本发明的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种无人机定位方法的流程图;
图2为本发明实施例提供的一种无人机定位方法中步骤S101的流程图;
图3为本发明实施例提供的一种无人机定位方法中步骤S102的流程图;
图4为本发明实施例提供的一种无人机定位方法中步骤S103的流程图;
图5为本发明实施例提供的一种无人机定位方法中步骤S401的流程图;
图6为本发明实施例提供的一种无人机定位方法中步骤S402的流程图;
图7为本发明实施例提供的一种无人机定位方法中步骤S403的流程图;
图8为本发明实施例提供的一种无人机定位方法中步骤S104的流程图;
图9为本发明实施例提供的一种无人机定位方法中的特征匹配点效果图;
图10为本发明实施例提供的一种无人机定位方法中的拼接图像的效果图;
图11为本发明实施例提供的一种无人机定位设备的结构示意图;
图12为本发明实施例提供的一种飞行器的结构示意图;
图13为本发明实施例提供的一种电子设备的结构示意图。
图标:
1110-采集单元;1120-拼接单元;1130-计算单元;1140-定位单元;
101-处理器;102-存储器;103-总线;104-通信接口。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合实施例对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
无人机的飞行定位控制主要基于定位设备反馈的位置数据和高度数据来实现,在飞行过程中的无人机由于高度普遍较高,定位信号干扰因素较少,因此飞行控制较为稳定;而在降落过程中,无人机会受到建筑的遮挡导致定位信号接收不稳定的情况,严重时会因无法获取定位数据导致无人机坠毁。基于此,本发明实施提供了一种无人机定位方法、设备及飞行器,该方法通过多个对称设置的相机采集无人机周围的环境特征信息,从而可计算出无人机与周围物体之间的相对位置,在定位失效的情况下也能够实现无人机的悬停控制以及自动降落,从而减少了坠机概率。
为便于对本实施例进行理解,首先对本发明实施例所公开的一种无人机定位方法进行详细介绍,该方法如图1所示,包括:
步骤S101,利用无人机中多个对称设置的相机获取相机捕获的多个数字图像;
步骤S102,确定数字图像之间的重叠区域,并基于重叠区域获取数字图像对应的拼接图像;
步骤S103,基于拼接图像中的纹理数据提取拼接图像中的场景特征点,并根据场景特征点确定无人机的位置数据;
步骤S104,利用位置数据确定无人机的定位信息。
具体的说,该方法中的无人机设置有多个相机,且相机之间为对称设置。相机部署在无人机的机身四周,尽可能的采集无人机的360度视角下的环境信息。相机数量越多,所采集的视角越广泛,无人机的盲区就越少。
由于设置了多个相机,其捕获的数字图像之间势必存在重叠区域,因此需要对重叠区域进行确定从而减少后续的计算量。一般来说,此类相机是固定在无人机的机身四周的,其视角也是固定的,因此可通过相机镜头的视野参数来获取其捕获的数字图像之间的重叠区域。重叠区域确定后,即可将所有相机捕获的数字图像进行拼接,从而得到拼接图像。
拼接图像作为待处理图像,可利用相关视觉特征提取工具获取其包含的场景特征点,场景特征点的获取过程可参考拼接图像中的纹理数据,对于纹理较多的区域可提升提取精度,而对于纹理较少的区域则可降低提取精度。场景特征点获取后,可根据其数量和位置坐标确定无人机的定位信息,实现对无人机的定位。
在一种实施方式中,利用无人机中多个对称设置的相机获取相机捕获的多个数字图像的步骤S101,如图2所示,包括:
步骤S201,基于无人机中对称设置的四个相机分别捕获数字图像;其中相机均设置在无人机的同一水平面处,且相机分别设置在无人机的机身四周;
步骤S202,控制相机进行拍摄后得到原始数字图像,并对原始数字图像进行降噪、对比度增强以及颜色校正处理后,得到相机对应的数字图像。
具体的说,现有技术中的无人机仅仅使用单目针孔相机或者双目针孔相机进行飞行定位和控制,此类方案的视场有限,盲区较大;而本实施方式中可使用无人机中对称设置的四个相机分别捕获数字图像,该相机可利用鱼眼相机充分获取周围的环境信息,四个鱼眼相机能够获取超720°的环境信息,大大提高了特征提取的鲁棒性。
值得一提的是,该四个相机设置在同一水平面,且分别设置在无人机的四周;每个相机与无人机的中心点距离相同。在控制相机进行拍摄得到原始数字图像之后,对捕获的数字图像进行数字图像处理,包括降噪处理、对比度增强处理和颜色校正处理,所得的数字图像有利于提升特征点检测精度。
在一种实施方式中,确定数字图像之间的重叠区域,并基于重叠区域获取数字图像对应的拼接图像的步骤S102,如图3所示,包括:
步骤S301,利用相机的镜头视野参数确定相机的双目视野,并基于双目视野构建相机的双目相机组;其中,双目视野包括左目视野和右目视野;
步骤S302,确定相邻相机之间的双目相机组对应的重叠视野区域,并根据重叠视野区域确定数字图像之间的重叠区域;
步骤S303,基于重叠区域将所有相机的左目视野和右目视野对应的数字图像进行拼接,得到拼接图像。
图像的拼接过程,可对相邻位置的相机进行分组处理,进而利用每组相机之间的重叠视野区域获取数字图像之间的重叠区域,进而得到所需的拼接图像。例如以四个鱼眼相机为例,具体如图10所示,由于鱼眼相机的镜头视野较大,因此可通过镜头视野参数对鱼眼相机的双目视野划分为左目视野和右目视野,进而将其构建为双目相机组。这些图像包含了重叠视野,可用于提取三维空间信息。实际场景中,每一目的视野均包含一定范围的重叠区域,因此可将四个鱼眼镜头的所有左视野构成一组、所有右视野构成一组,并将二者组合成一个拼接图像。拼接图像的效果图可参考图9,图9中的左列图像分别对应四个鱼眼相机的左视野,右列图像分别对应四个鱼眼相机的右视野,该拼接图像中同时包含了所有鱼眼相机拍摄的数字图像,后续可在这一个图像中进行场景特征的提取过程。
值得一提的是,由于鱼眼相机的视野较大,拍摄的数字图像畸变较大,实际场景中可对其进行畸变矫正处理,同时可进行ROI区域的提取,具体过程根据场景需求来实现,具体不再赘述。
在一种实施方式中,基于拼接图像中的纹理数据提取拼接图像中的场景特征点,并根据场景特征点确定无人机的位置数据的步骤S103,如图4所示,包括:
步骤S401,利用纹理检测算法计算拼接图像中的纹理数据,并根据纹理数据确定拼接图像中包含的纹理区域;
步骤S402,利用快速角点检测算法提取纹理区域中包含的角点,并根据角点确定拼接图像中的场景特征点;
步骤S403,对场景特征点进行特征匹配,确定场景特征点中包含的特征匹配点,并计算特征匹配点对应的位置信息;
步骤S404,基于位置信息确定无人机对应的位置数据。
拼接图像获取后,利用相应的纹理检测算法首先获取拼接图像中的纹理区域,进而对纹理区域中的角点进行检测。纹理区域包含纹理丰富区域以及纹理匮乏区域,不同纹理区域对应㓊的角点提取策略。具体的说,对于特定纹理区域,利用快速角点检测算法提取该纹理区域中包含的FAST角点。由于快速角点检测算法的计算效率高,对噪声的鲁棒性较强,因此可利用该角点确定拼接图像中的场景特征点。
场景特征点确定后可利用相应的匹配条件对其进行筛选,剔除那些在多幅图像中不一致或不稳定的点,从而得到场景特征点中包含的特征匹配点,并基于特征匹配点计算其对应的位置信息,进而根据位置信息得到无人机的位置数据。
在一种实施方式中,利用纹理检测算法计算拼接图像中的纹理数据,并根据纹理数据确定拼接图像中包含的纹理区域的步骤S401,如图5所示,包括:
步骤S501,根据纹理检测算法计算拼接图像中的纹理数据,并获取纹理数据中包含的纹理数值;
步骤S502,基于纹理数值确定拼接图像中包含的高纹理区域和低纹理区域;其中,高纹理区域中的纹理数值多于低纹理区域中的纹理数量。
纹理区域的获取过程具体通过相应的纹理检测算法,对拼接图像的纹理数据进行计算,并将其量化为纹理数值。纹理数值获取后,利用纹理数值判断拼接图像中包含的高纹理区域和低纹理区域。高纹理区域中的纹理数值多于低纹理区域中的纹理数量,表明高纹理区域内可能包含更有效的特征点。
在一种实施方式中,利用快速角点检测算法提取纹理区域中包含的角点,并根据角点确定拼接图像中的场景特征点的步骤S402,如图6所示,包括:
步骤S601,判断纹理区域是否为高纹理区域;
步骤S602,如果是,则利用快速角点检测算法提取纹理区域中包含的角点,并根据角点对应的稳定性参数确定拼接图像中的场景特征点;如果否,则忽略当前纹理区域中包含的角点。
对于纹理丰富的高纹理区域,可利用快速角点检测算法提取更多的特征点,并根据周围环境的变化动态调整特征点的提取过程,实际调整过程通过角点对应的稳定性参数来实现;对于纹理较少的区域,不提取特征点,例如白色墙壁对应的区域为低纹理区域,该区域中的特征较少,因此无需对其进行特征提取,从而降低了计算量。
在一种实施方式中,对场景特征点进行特征匹配,确定场景特征点中包含的特征匹配点,并计算特征匹配点对应的位置信息的步骤S403,如图7所示,包括:
步骤S701,获取场景特征点对应的特征值,并利用特征值对场景特征点进行特征匹配,得到特征匹配点;
步骤S702,利用特征匹配点的对极几何关系计算并得到特征匹配点对应的位置信息。
特征点获取后可对其进行量化,利用场景特征点量化后的特征值进行特征匹配后得到特征匹配点,进而利用立体视觉原理计算每个匹配点的位置信息,具体通过对极几何关系计算并得到特征匹配点对应的位置信息。
以四个鱼眼相机为例,将四组双目图像中的特征点合并,形成一个全景视角的特征点集合,从而提供了一个全方位、高密度的特征点云,为更准确的位置估计提供了基础。具体如图9所示的特征匹配点效果图,图9中的纹理较多的复杂场景下,所生成角点较多;而在纹理较少的纯色墙壁中,几乎没有角点。
在一种实施方式中,利用位置数据确定无人机的定位信息的步骤S104,如图8所示,包括:
步骤S801,获取位置数据对应的场景特征点,并确定场景特征点的坐标;
步骤S802,利用场景特征点的坐标确定无人机的三维坐标信息,并根据三维坐标信息生成无人机的定位信息。
位置数据作为无人机的控制数据源最终用于无人机的控制过程,根据位置数据所对应的场景特征点获取该场景特征点的坐标,进而利用场景特征点的坐标确定无人机的三维坐标信息,进而利用该三维坐标信息生成无人机的定位信息。
以四目鱼眼相机的无人机方案为例,该无人机定位方法主要包含以下几个方面:
图像预处理过程:对每个鱼眼相机捕获的图像进行预处理,包括去噪、对比度增强和颜色校正,以优化后续的特征点检测过程。
双目图像构建过程:将相邻的鱼眼相机图像进行配对,构建四组双目图像。这些图像包含了重叠视野,可用于提取三维空间信息。
特征点检测过程:采用快速角点检测(FAST)算法在每组双目图像中检测角点。FAST算法因其计算效率高和对噪声的鲁棒性而被选择。在该步骤中,特别关注图像中的高纹理区域,因为这些区域更有可能包含有效的特征点。
特征点筛选过程:对检测到的特征点进行筛选,剔除那些在多幅图像中不一致或不稳定的点;这一步骤确保了只有最可靠的特征点被用于后续的处理。
特征点匹配和位置计算过程:对每组双目图像中的特征点进行匹配,利用立体视觉原理计算每个匹配点的位置信息。
特征点融合过程:将四组双目图像中的特征点合并,形成一个全景视角的特征点集合;这一步提供了一个全方位、高密度的特征点云,为更准确的位置估计提供了基础。
动态特征点调整过程:根据无人机周围环境的变化动态调整特征点的分布;例如在特征点密集的区域减少提取,而在特征点稀疏的区域增加提取;这一策略旨在优化计算资源的使用,并提高整体的定位精度。
上述实施方案中,通过鱼眼相机采集周围环境的信息来计算出无人机自身相对于周围物体的定位信息,从而实现稳定的悬停与自动降落,大大降低在GPS失效情况下的炸机率。
综上所述,本发明实施例中的无人机定位方法通过多个对称设置的相机采集无人机周围的环境特征信息,从而可计算出无人机与周围物体之间的相对位置,在定位失效的情况下也能够实现无人机的悬停控制以及自动降落,从而减少了坠机概率。
对于前述实施例提供的无人机定位方法,本发明实施例提供了一种无人机控制设备,该设备如图11所示,包括:
采集单元1110,用于利用无人机中多个对称设置的相机获取相机捕获的多个数字图像;
拼接单元1120,用于确定数字图像之间的重叠区域,并基于重叠区域获取数字图像对应的拼接图像;
计算单元1130,用于基于拼接图像中的纹理数据提取拼接图像中的场景特征点,并根据场景特征点确定无人机的位置数据;
定位单元1140,用于利用位置数据确定无人机的定位信息。
本发明实施例所提供的无人机控制设备,其实现原理及产生的技术效果和前述无人机定位方法实施例相同,为简要描述,装置实施例部分未提及之处,可参考前述无人机定位方法实施例中相应内容。
本实施例还提供一种飞行器,如图12所示,该飞行器在飞行定位控制过程中采用上述实施例中提供的无人机定位方法的步骤。
本实施例还提供一种电子设备,该电子设备的结构示意图如图13所示,该设备包括处理器101和存储器102;其中,存储器102用于存储一条或多条计算机指令,一条或多条计算机指令被处理器执行,以实现上述无人机定位方法的步骤。
图13所示的电子设备还包括总线103和通信接口104,处理器101、通信接口104和存储器102通过总线103连接。
其中,存储器102可能包含高速随机存取存储器(RAM,Random Access Memory),也可能还包括非不稳定的存储器(non-volatile memory),例如至少一个磁盘存储器。总线103可以是ISA总线、PCI总线或EISA总线等。所述总线可以分为地址总线、数据总线、控制总线等。为便于表示,图13中仅用一个双向箭头表示,但并不表示仅有一根总线或一种类型的总线。
通信接口104用于通过网络接口与至少一个用户终端及其它网络单元连接,将封装好的IPv4报文或IPv4报文通过网络接口发送至用户终端。
处理器101可能是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法的各步骤可以通过处理器101中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器101可以是通用处理器,包括中央处理器(Central Processing Unit,简称CPU)、网络处理器(Network Processor,简称NP)等;还可以是数字信号处理器(DigitalSignal Processor,简称DSP)、专用集成电路(Application Specific IntegratedCircuit,简称ASIC)、现场可编程门阵列(Field-Programmable Gate Array,简称FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本公开实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本公开实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器102,处理器101读取存储器102中的信息,结合其硬件完成前述实施例的方法的步骤。
本发明实施例还提供了一种存储介质,该存储介质上存储有计算机程序,该计算机程序被处理器运行时执行前述实施例中无人机定位方法的步骤。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统、设备和方法,可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,又例如,多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些通信接口,设备或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个处理器可执行的非易失的计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以用软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
最后应说明的是:以上所述实施例,仅为本发明的具体实施方式,用以说明本发明的技术方案,而非对其限制,本发明的保护范围并不局限于此,尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本发明实施例技术方案的精神和范围,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。
Claims (10)
1.一种无人机定位方法,其特征在于,所述方法包括:
利用所述无人机中多个对称设置的相机获取所述相机捕获的多个数字图像;
确定所述数字图像之间的重叠区域,并基于所述重叠区域获取所述数字图像对应的拼接图像;
基于所述拼接图像中的纹理数据提取所述拼接图像中的场景特征点,并根据所述场景特征点确定所述无人机的位置数据;
利用所述位置数据确定所述无人机的定位信息。
2.根据权利要求1所述的无人机定位方法,其特征在于,所述利用所述无人机中多个对称设置的相机获取所述相机捕获的多个数字图像的步骤,包括:
基于所述无人机中对称设置的四个相机分别捕获所述数字图像;其中所述相机均设置在所述无人机的同一水平面处,且所述相机分别设置在所述无人机的机身四周;
控制所述相机进行拍摄后得到原始数字图像,并对所述原始数字图像进行降噪、对比度增强以及颜色校正处理后,得到所述相机对应的所述数字图像。
3.根据权利要求1所述的无人机定位方法,其特征在于,所述确定所述数字图像之间的重叠区域,并基于所述重叠区域获取所述数字图像对应的拼接图像的步骤,包括:
利用所述相机的镜头视野参数确定所述相机的双目视野,并基于所述双目视野构建所述相机的双目相机组;其中,所述双目视野包括左目视野和右目视野;
确定相邻所述相机之间的所述双目相机组对应的重叠视野区域,并根据所述重叠视野区域确定所述数字图像之间的重叠区域;
基于所述重叠区域将所有所述相机的所述左目视野和所述右目视野对应的所述数字图像进行拼接,得到所述拼接图像。
4.根据权利要求1所述的无人机定位方法,其特征在于,所述基于所述拼接图像中的纹理数据提取所述拼接图像中的场景特征点,并根据所述场景特征点确定所述无人机的位置数据的步骤,包括:
利用纹理检测算法计算所述拼接图像中的纹理数据,并根据所述纹理数据确定所述拼接图像中包含的纹理区域;
利用快速角点检测算法提取所述纹理区域中包含的角点,并根据所述角点确定所述拼接图像中的所述场景特征点;
对所述场景特征点进行特征匹配,确定所述场景特征点中包含的特征匹配点,并计算所述特征匹配点对应的位置信息;
基于所述位置信息确定所述无人机对应的所述位置数据。
5.根据权利要求4所述的无人机定位方法,其特征在于,所述利用纹理检测算法计算所述拼接图像中的纹理数据,并根据所述纹理数据确定所述拼接图像中包含的纹理区域的步骤,包括:
根据所述纹理检测算法计算所述拼接图像中的纹理数据,并获取所述纹理数据中包含的纹理数值;
基于所述纹理数值确定所述拼接图像中包含的高纹理区域和低纹理区域;其中,所述高纹理区域中的纹理数值多于所述低纹理区域中的纹理数量。
6.根据权利要求5所述的无人机定位方法,其特征在于,所述利用快速角点检测算法提取所述纹理区域中包含的角点,并根据所述角点确定所述拼接图像中的所述场景特征点的步骤,包括:
判断所述纹理区域是否为高纹理区域;
如果是,则利用快速角点检测算法提取所述纹理区域中包含的角点,并根据所述角点对应的稳定性参数确定所述拼接图像中的所述场景特征点;如果否,则忽略当前所述纹理区域中包含的所述角点。
7.根据权利要求4所述的无人机定位方法,其特征在于,所述对所述场景特征点进行特征匹配,确定所述场景特征点中包含的特征匹配点,并计算所述特征匹配点对应的位置信息的步骤,包括:
获取所述场景特征点对应的特征值,并利用所述特征值对所述场景特征点进行特征匹配,得到所述特征匹配点;
利用所述特征匹配点的对极几何关系计算并得到所述特征匹配点对应的位置信息。
8.根据权利要求1所述的无人机定位方法,其特征在于,所述利用所述位置数据确定所述无人机的定位信息的步骤,包括:
获取所述位置数据对应的所述场景特征点,并确定所述场景特征点的坐标;
利用所述场景特征点的坐标确定所述无人机的三维坐标信息,并根据所述三维坐标信息生成所述无人机的定位信息。
9.一种无人机定位设备,其特征在于,所述设备包括:
采集单元,用于利用所述无人机中多个对称设置的相机获取所述相机捕获的多个数字图像;
拼接单元,用于确定所述数字图像之间的重叠区域,并基于所述重叠区域获取所述数字图像对应的拼接图像;
计算单元,用于基于所述拼接图像中的纹理数据提取所述拼接图像中的场景特征点,并根据所述场景特征点确定所述无人机的位置数据;
定位单元,用于利用所述位置数据确定所述无人机的定位信息。
10.一种飞行器,其特征在于,所述飞行器在飞行定位控制过程中采用所述权利要求1至8任一项所述的无人机定位方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410166442.7A CN117710467A (zh) | 2024-02-06 | 2024-02-06 | 无人机定位方法、设备及飞行器 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410166442.7A CN117710467A (zh) | 2024-02-06 | 2024-02-06 | 无人机定位方法、设备及飞行器 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117710467A true CN117710467A (zh) | 2024-03-15 |
Family
ID=90146596
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410166442.7A Pending CN117710467A (zh) | 2024-02-06 | 2024-02-06 | 无人机定位方法、设备及飞行器 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117710467A (zh) |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106204443A (zh) * | 2016-07-01 | 2016-12-07 | 成都通甲优博科技有限责任公司 | 一种基于多目复用的全景无人机系统 |
CN109144095A (zh) * | 2018-04-03 | 2019-01-04 | 奥瞳系统科技有限公司 | 用于无人驾驶飞行器的基于嵌入式立体视觉的障碍躲避系统 |
CN110070615A (zh) * | 2019-04-12 | 2019-07-30 | 北京理工大学 | 一种基于多相机协同的全景视觉slam方法 |
CN112308797A (zh) * | 2020-10-30 | 2021-02-02 | 维沃移动通信有限公司 | 角点检测方法、装置、电子设备及可读存储介质 |
CN112348885A (zh) * | 2019-08-09 | 2021-02-09 | 华为技术有限公司 | 视觉特征库的构建方法、视觉定位方法、装置和存储介质 |
CN114545963A (zh) * | 2021-12-20 | 2022-05-27 | 北京理工大学 | 一种优化多无人机全景监控视频的方法、系统及电子设备 |
CN114596382A (zh) * | 2022-02-19 | 2022-06-07 | 复旦大学 | 一种基于全景相机的双目视觉slam方法及系统 |
CN114937153A (zh) * | 2022-06-07 | 2022-08-23 | 北京理工大学 | 弱纹理环境下基于神经网络的视觉特征处理系统及方法 |
CN114943823A (zh) * | 2022-07-26 | 2022-08-26 | 武汉图科智能科技有限公司 | 基于深度学习语义感知的无人机图像拼接方法及系统 |
CN114964209A (zh) * | 2022-05-13 | 2022-08-30 | 天健极光(北京)科技发展有限公司 | 基于红外阵列成像的长航时无人机自主导航方法和系统 |
CN117011704A (zh) * | 2023-07-07 | 2023-11-07 | 哈尔滨理工大学 | 一种基于点线特征融合与自适应阈值的特征提取方法 |
CN117036666A (zh) * | 2023-06-14 | 2023-11-10 | 北京自动化控制设备研究所 | 基于帧间图像拼接的无人机低空定位方法 |
CN117218201A (zh) * | 2023-10-11 | 2023-12-12 | 中国人民解放军战略支援部队信息工程大学 | Gnss拒止条件下无人机影像定位精度提升方法及系统 |
-
2024
- 2024-02-06 CN CN202410166442.7A patent/CN117710467A/zh active Pending
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106204443A (zh) * | 2016-07-01 | 2016-12-07 | 成都通甲优博科技有限责任公司 | 一种基于多目复用的全景无人机系统 |
CN109144095A (zh) * | 2018-04-03 | 2019-01-04 | 奥瞳系统科技有限公司 | 用于无人驾驶飞行器的基于嵌入式立体视觉的障碍躲避系统 |
CN110070615A (zh) * | 2019-04-12 | 2019-07-30 | 北京理工大学 | 一种基于多相机协同的全景视觉slam方法 |
CN112348885A (zh) * | 2019-08-09 | 2021-02-09 | 华为技术有限公司 | 视觉特征库的构建方法、视觉定位方法、装置和存储介质 |
CN112308797A (zh) * | 2020-10-30 | 2021-02-02 | 维沃移动通信有限公司 | 角点检测方法、装置、电子设备及可读存储介质 |
CN114545963A (zh) * | 2021-12-20 | 2022-05-27 | 北京理工大学 | 一种优化多无人机全景监控视频的方法、系统及电子设备 |
CN114596382A (zh) * | 2022-02-19 | 2022-06-07 | 复旦大学 | 一种基于全景相机的双目视觉slam方法及系统 |
CN114964209A (zh) * | 2022-05-13 | 2022-08-30 | 天健极光(北京)科技发展有限公司 | 基于红外阵列成像的长航时无人机自主导航方法和系统 |
CN114937153A (zh) * | 2022-06-07 | 2022-08-23 | 北京理工大学 | 弱纹理环境下基于神经网络的视觉特征处理系统及方法 |
CN114943823A (zh) * | 2022-07-26 | 2022-08-26 | 武汉图科智能科技有限公司 | 基于深度学习语义感知的无人机图像拼接方法及系统 |
CN117036666A (zh) * | 2023-06-14 | 2023-11-10 | 北京自动化控制设备研究所 | 基于帧间图像拼接的无人机低空定位方法 |
CN117011704A (zh) * | 2023-07-07 | 2023-11-07 | 哈尔滨理工大学 | 一种基于点线特征融合与自适应阈值的特征提取方法 |
CN117218201A (zh) * | 2023-10-11 | 2023-12-12 | 中国人民解放军战略支援部队信息工程大学 | Gnss拒止条件下无人机影像定位精度提升方法及系统 |
Non-Patent Citations (4)
Title |
---|
张振杰: ""无人机视觉导航位姿估计技术研究与实践"", 《中国博士学位论文全文数据库工程科技辑》, 15 June 2018 (2018-06-15), pages 031 - 9 * |
杨涛;张艳宁;张秀伟;张新功;: "基于场景复杂度与不变特征的航拍视频实时配准算法", 电子学报, no. 05, 15 May 2010 (2010-05-15) * |
王丹;黄鲁;李垚;: "基于点线特征的单目视觉同时定位与地图构建算法", 机器人, no. 03, 5 January 2019 (2019-01-05) * |
贾迪;朱宁丹;杨宁华;吴思;李玉秀;赵明远;: "图像匹配方法研究综述", 中国图象图形学报, no. 05, 16 May 2019 (2019-05-16) * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106529495B (zh) | 一种飞行器的障碍物检测方法和装置 | |
CN105627932B (zh) | 一种基于双目视觉的测距方法及装置 | |
CN106960454B (zh) | 景深避障方法、设备及无人飞行器 | |
CN107945105B (zh) | 背景虚化处理方法、装置及设备 | |
CN108961383B (zh) | 三维重建方法及装置 | |
CN111726521B (zh) | 终端的拍照方法、拍照装置和终端 | |
CN108510540B (zh) | 立体视觉摄像机及其高度获取方法 | |
WO2017020150A1 (zh) | 一种图像处理方法、装置及摄像机 | |
CN107798702B (zh) | 一种用于增强现实的实时图像叠加方法以及装置 | |
US20110148868A1 (en) | Apparatus and method for reconstructing three-dimensional face avatar through stereo vision and face detection | |
CN105744138B (zh) | 快速对焦方法和电子设备 | |
CN111160232B (zh) | 正面人脸重建方法、装置及系统 | |
KR20180054487A (ko) | Dvs 이벤트 처리 방법 및 장치 | |
CN112837207A (zh) | 全景深度测量方法、四目鱼眼相机及双目鱼眼相机 | |
CN110021055A (zh) | 产生视差图的方法及其图像处理装置与系统 | |
US10529081B2 (en) | Depth image processing method and depth image processing system | |
CN111757084A (zh) | 一种立体图像的采集方法、采集装置及可读存储介质 | |
WO2023142352A1 (zh) | 一种深度图像的获取方法、装置、终端、成像系统和介质 | |
CN111047636B (zh) | 基于主动红外双目视觉的避障系统和避障方法 | |
CN111882655A (zh) | 三维重建的方法、装置、系统、计算机设备和存储介质 | |
CN109658451B (zh) | 一种深度感知方法,装置和深度感知设备 | |
CN210986289U (zh) | 四目鱼眼相机及双目鱼眼相机 | |
CN110800020A (zh) | 一种图像信息获取方法、图像处理设备及计算机存储介质 | |
CN111383264B (zh) | 一种定位方法、装置、终端及计算机存储介质 | |
Lin et al. | Real-time low-cost omni-directional stereo vision via bi-polar spherical cameras |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |