CN114144700A - 用于确定无人驾驶交通工具的位置的方法和装置以及无人驾驶飞行器 - Google Patents
用于确定无人驾驶交通工具的位置的方法和装置以及无人驾驶飞行器 Download PDFInfo
- Publication number
- CN114144700A CN114144700A CN202080051460.0A CN202080051460A CN114144700A CN 114144700 A CN114144700 A CN 114144700A CN 202080051460 A CN202080051460 A CN 202080051460A CN 114144700 A CN114144700 A CN 114144700A
- Authority
- CN
- China
- Prior art keywords
- environment
- positioning signals
- dimensional model
- determining
- signal paths
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 83
- 238000004422 calculation algorithm Methods 0.000 claims description 19
- 239000002245 particle Substances 0.000 claims description 15
- 230000003287 optical effect Effects 0.000 claims description 13
- 238000012545 processing Methods 0.000 claims description 10
- 239000000463 material Substances 0.000 claims description 9
- 238000005259 measurement Methods 0.000 claims description 5
- 230000004807 localization Effects 0.000 claims description 4
- 238000002372 labelling Methods 0.000 claims description 3
- 230000003068 static effect Effects 0.000 claims description 3
- 238000013507 mapping Methods 0.000 claims description 2
- 230000006870 function Effects 0.000 description 7
- 230000009471 action Effects 0.000 description 5
- 230000001419 dependent effect Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000007635 classification algorithm Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 239000011435 rock Substances 0.000 description 3
- 238000007796 conventional method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 229910000831 Steel Inorganic materials 0.000 description 1
- 238000010521 absorption reaction Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 239000004567 concrete Substances 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000002310 reflectometry Methods 0.000 description 1
- 239000002689 soil Substances 0.000 description 1
- 239000010959 steel Substances 0.000 description 1
- 239000004575 stone Substances 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/38—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
- G01S19/39—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/42—Determining position
- G01S19/428—Determining position using multipath or indirect path propagation signals in position determination
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/01—Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/13—Receivers
- G01S19/22—Multipath-related issues
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/38—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
- G01S19/39—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/42—Determining position
- G01S19/48—Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U10/00—Type of UAV
- B64U10/10—Rotorcrafts
- B64U10/13—Flying platforms
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U30/00—Means for producing lift; Empennages; Arrangements thereof
- B64U30/20—Rotors; Rotor supports
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/16—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Automation & Control Theory (AREA)
- Position Fixing By Use Of Radio Waves (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Aviation & Aerospace Engineering (AREA)
Abstract
提供了一种用于确定无人驾驶交通工具(UV)的位置的方法。该方法包括从全球导航卫星系统的多个卫星接收定位信号。此外,该方法包括基于(i)UV的环境的三维模型和(ii)定位信号中的每一个定位信号的可能信号路径来估计UV的位置。可能信号路径的至少一部分包括由UV的环境中的一个或多个对象对定位信号的反射。
Description
技术领域
本公开涉及无人驾驶交通工具(UV)的位置确定。具体地,示例涉及用于确定UV的位置的方法和装置。其他示例涉及无人驾驶飞行器(UAV)。
背景技术
诸如全球定位系统(GPS)的全球导航卫星系统(GNSS)通常用于为诸如无人机、自主汽车等的自主交通工具提供绝对的、全球参考的位置信息。然而,这种系统依赖的无线电信号可能会被机器人的环境中的大型结构阻挡或反射,从而导致位置估计的质量降低,或者甚至完全中断。
因此,可以存在对改进的位置确定的需求。
发明内容
该需求通过根据独立权利要求的装置和方法来满足。从属权利要求提出了有利的实施例。
根据第一方面,本公开提供了一种用于确定UV的位置的方法。该方法包括从GNSS的多个卫星接收定位信号。此外,该方法包括基于(i)UV的环境的三维模型和(ii)定位信号中的每一个定位信号的可能信号路径来估计UV的位置。可能信号路径的至少一部分包括由UV的环境中的一个或多个对象对定位信号的反射。
根据第二方面,本公开提供了一种其上存储有程序的非暂时性机器可读介质,该程序具有程序代码,当在UV的处理器或可编程硬件上执行该程序时,该程序代码用于控制UV执行如本文所述的用于确定UV的位置的方法。
根据第三方面,本公开提供了一种用于确定UV的位置的装置。该装置包括接收器电路,该接收器电路被配置为从GNSS的多个卫星接收定位信号。此外,该装置包括处理电路,该处理电路被配置为基于(i)UV的环境的三维模型和(ii)定位信号中的每一个定位信号的可能信号路径来估计UV的位置。定位信号中的每一个定位信号的可能信号路径的至少一部分包括由UV的环境中的一个或多个对象对定位信号的反射。
根据第四方面,本公开提供了一种UAV,该UAV包括如本文所述的用于确定UAV的位置的装置。
附图说明
以下将仅通过示例并且参考附图来描述装置和/或方法的一些示例,在附图中:
图1示出了用于确定UV的位置的方法的示例的流程图;
图2示出了环境中的UAV的示例;
图3示出了UAV的环境的三维模型的二维表示的示例;
图4示出了用于估计UV的位置的架构的示例;
图5示出了环境中的UAV的另一示例;以及
图6示出了包括用于确定UAV的位置的装置的UAV的示例。
具体实施方式
现在将参考附图更全面地描述各种示例,在附图中示出了一些示例。在附图中,为了清楚起见,可以放大线、层和/或区域的厚度。
因此,虽然其他示例能够具有各种修改和替代形式,但是在附图中示出了其一些具体示例并且随后将详细描述这些具体示例。然而,该详细描述并不将其他示例限制为所描述的具体形式。其他示例可以涵盖落入本公开的范围内的所有修改、等效物以及替代方案。贯穿附图的描述,相同或相似的数字指代相同或相似的元件,当相互比较时,相同或相似的元件在提供相同或相似功能的同时可以被相同地或以修改的形式实现。
应当理解,当一个元件被称为“连接”或“耦接”到另一元件时,这些元件可以经由一个或多个中间元件直接连接或耦接。在没有另外明确地或隐含地定义的情况下,如果两个元件A和B使用“或”组合,则这将被理解为公开了所有可能的组合,即仅A、仅B以及A和B。用于相同组合的替代措辞是“A和B中的至少一个”或“A和/或B”。加以必要的修正,这同样适用于多于两个元件的组合。
本文所使用的用于描述具体示例的术语并非旨在限制其他示例。每当使用诸如“一(a)”、“一个(an)”和“该(the)”的单数形式并且仅使用单个元件既不是明确地也不是隐含地被定义为强制性的时,其他示例也可以使用多个元件来实现相同的功能。同样,当功能随后被描述为使用多个元件来实现时,其他示例可以使用单个元件或处理实体来实现相同的功能。还将理解,术语“包括(comprises)”、“包括(comprising)”、“包括(includes)”和/或“包括(including)”在使用时指定所述特征、整数、步骤、操作、过程、动作、元件和/或组件的存在,但不排除一个或多个其他特征、整数、步骤、操作、过程、动作、元件、组件和/或其任何组的存在或添加。
除非另外定义,否则所有术语(包括技术和科学术语)在本文中以其示例所属领域的普通含义使用。
图1示出了用于确定UV的位置的用于UV的方法100的流程图。为了简单起见,下文将主要参考UAV来描述所提出的技术。然而,应当注意,本技术不限于UAV,并且也可以用于诸如无人驾驶地面交通工具(UGV)的其他无人驾驶交通工具(无人操作交通工具)。
图2示出了包括UAV 200的示例性场景。如从图2可见,UAV 200位于两个多层建筑物210与220之间。进一步示出了GNSS(诸如GPS、GLObalnaja NAwigazionnajaSputnikowaja Sistema(GLONASS)、伽利略或北斗)的四个卫星230-1、…、230-4。四个卫星230-1、…、230-4中的每一个提供允许对UAV 200进行地理空间定位的一个或多个定位信号。具体地,UAV 200可以精确地测量定位信号(例如,射频信号)从卫星行进到UAV 200的接收器所花费的时间(以及诸如多普勒频移等的其他量)。
如从图2可见,UAV 200的环境(周围区域)中的建筑物210和220的几何形状影响定位信号的传播。例如,四个卫星230-1、…、230-4的定位信号可能被UAV 200的环境中的对象阻挡或反射,使得UAV 200不能接收定位信号中的某些信号或仅可以接收所反射的定位信号。在图2的示例中,卫星230-1的定位信号231-1被建筑物220反射,使得不存在定位信号231-1到UAV 200的视线传播(line-of-sight propagation,视距传播)。卫星230-4的定位信号231-4被建筑物220完全阻挡,使得UAV 200不能接收定位信号231-4。仅卫星230-2和230-3的定位信号231-2和231-3不受UAV 200的环境的影响,使得发生定位信号231-1到UAV200的视线传播。
如果卫星230-1、…、230-4中的一个卫星的定位信号被阻挡,则UAV200不能将其用于位置确定。如果卫星230-1、…、230-4中的一个卫星的定位信号被反射,则像未反射的信号一样处理定位信号(即,作为视线传播的总和)会导致错误的位置估计,因为到卫星的距离被错误地估计。
应当注意,图2所示的建筑物210和220仅是UAV 200的环境中的对象的示例。GNSS的卫星与UAV 200之间的任何大型自然或人造对象(结构)可以完全阻挡卫星的定位信号或反射卫星的定位信号。例如,这种对象可以是城市中的高层建筑物、山区中的大型岩石、山谷、水坝等。
方法100还可以允许在UV的环境中存在对象的情况下更精确地确定诸如UAV 200的UV的位置。返回参考图1,方法100包括从GNSS的多个卫星接收102定位信号(例如,如图2所示)。此外,方法100包括基于(i)UV的环境的三维模型和(ii)定位信号中的每一个定位信号的可能信号路径来估计(确定)(104)UV的位置。可能信号路径的至少一部分包括由UV的环境中的一个或多个对象对定位信号的反射。换句话说,可能信号路径中的至少一些是由UV的环境中的一个或多个对象再现定位信号的反射的信号路径。UV的环境的三维模型至少包括关于UV的环境中的对象的位置、取向以及形状的信息。
通过基于UV的环境的三维模型和再现定位信号的反射的可能信号路径来估计UV的位置,由所反射的定位信号提供的信息也可以用于确定UV的位置。通过改变UV的当前位置(或因此估计)并且考虑UV的环境的三维模型以及卫星的先验已知位置,可以确定定位信号中的每一个定位信号的可能信号路径(例如,使用概率模型)。可以基于定位信号(或从定位信号导出/与定位信号相关的信息)来确定定位信号中的每一个定位信号的可能信号路径中的相应最可能信号路径。因此,还可以正确地(或者与常规方法相比至少以更高地精度)确定到其定位信号经由一次或多次反射到达UV的卫星的UV的距离。因此,与常规方法相比,所反射的定位信号也可以用于精确的位置确定。因此,所有接收到的定位信号可以全部用于位置确定。例如,根据所提出的技术,定位信号231-1、231-2以及231-3可以全部用于UAV 200的位置确定。
图3示出了图2所描绘的场景的示例性三维模型的二维表示。如从图3可见,现实世界中存在的建筑物210和220的几何形状由UAV 200的环境的三维模型中的对象310-1、310-2以及320来建模。此外,对象310和320在语义上被标记。对象310-1、310-2以及320被标记为建筑物。
对UAV 200的环境的三维模型中的对象进行标记可以允许预测对象(结构)对GNSS的卫星230-1、…、230-4的定位信号的影响。如图1所示,可以用关于相应对象的材料类别(例如,适合于建筑物、玻璃、混凝土、钢、石头、岩石等的材料)的信息在语义上标记对象。可选地或另外地,可以用关于相应对象的射频特性(例如,射频反射率、射频吸收等)的信息在语义上标记对象。
在图3的示例中,UAV 200的环境的三维模型仅包括用于对建筑物210和220建模的静态对象。在其他示例中,UV的环境的三维模型可以包括至少一个移动(动态)对象,用于对现实世界中的诸如汽车的动态(移动)对象进行建模。例如,在UV的环境中移动的汽车可以随时间在不同方向上反射定位信号(例如,GPS信号),并且进一步影响其多普勒频移。包括一个或多个动态对象的UV的环境的语义模型(例如,建模几何形状、姿态、材料特性和速度)可以允许预测移动汽车的影响,使得可以进一步改进UV的位置估计。换句话说,一些实现可以考虑动态移动对象的效果。
如图1所示,方法100还可以包括基于UV的一个或多个传感器的传感器数据确定(106)UV的环境的三维模型。例如,可以同时执行确定(106)UV的环境的三维模型和估计(104)UV的位置。在一些示例中,UV的一个或多个传感器至少包括光学传感器(例如,静态相机或移动图片相机)和惯性测量单元(IMU)。任选地或可选地,UV的一个或多个传感器可以包括其他传感器,诸如磁力计、气压计、雷达传感器和激光雷达传感器中的一个或多个。
在图4中示出了用于同时估计(104)UV(例如,UAV 200)的位置以确定(106)UV的环境的三维模型的架构的示例。
同时定位和映射SLAM算法410用于基于光学传感器和IMU的传感器数据401、402来确定UV的环境的三维表示。任选地,可以将来自其他传感器(例如,气压计、雷达传感器等)的传感器数据提供给SLAM算法以确定UV的环境的三维表示。除了UV的环境的三维表示之外,SLAM算法还确定UV的姿态估计404和速度估计405。
此外,图像分类算法420用于将由光学传感器的传感器数据401表示的UV的环境的至少一个对象分类为多个预定义类别中的一个。为确定对象的类别,通过图像分类算法420评估传感器数据401。即,UV的环境的至少一个对象的分类基于光学传感器的传感器数据401。例如,无监督、半监督或监督分类(例如,使用卷积神经网络)可以用于图像分类。图像分类算法420的输出是UV的环境的三维表示403中的对象的语义标记406,这些语义标记表示相应的分类类别。如上所述,预定义类别可以是射频特性和/或材料类别。
用分类类别在语义上标记UV的环境的三维表示中的至少一个对象,以便获得UV的环境的三维模型430。
SLAM算法410与粒子滤波器440一起使用,该粒子滤波器表示从GNSS的卫星接收的定位信号中的每一个定位信号的可能信号路径的概率模型。粒子滤波器440接收来自SLAM算法410的UV的姿态估计404和速度估计405、UV的环境的三维模型430、卫星的位置407以及与定位信号相关的信息408作为输入。卫星的位置407是先验已知的。与定位信号相关的信息408可以例如是定位信号本身或从定位信号导出的量(例如,到达UV的时间、从卫星到UV的传播时间等)。
粒子滤波器440用于确定定位信号中的每一个定位信号的可能信号路径中的相应最可能信号路径。粒子滤波器440可以理解为概率模型,其包括定位信号以各种方式反射或根本不反射的概率。基于UV的姿态估计404和速度估计405,可以由粒子滤波器使用UV的环境的三维模型430、卫星的位置407以及与定位信号相关的信息408来确定定位信号中的每一个定位信号的可能信号路径中的相应最可能信号路径。换句话说,可以借助于粒子滤波器440估计所反射的定位信号的路径。因此,粒子滤波器440允许最大化UV的当前姿态估计的后验概率。
SLAM算法410使用粒子滤波器440的输出来更新姿态估计和速度估计。换句话说,基于定位信号中的每一个定位信号的可能信号路径中的相应最可能信号路径更新SLAM算法410的姿态估计404和速度估计405。将由SLAM算法410的所更新的姿态估计指示的位置确定为UV的位置。
此外,基于SLAM算法410的所更新的姿态估计和所更新的速度估计来更新UV的环境的三维模型430。
在图4的示例中经由虚线交换的数据可以包括不确定信息。
图4所示的架构可以允许用来自卫星(具有已知位置)的定位信号的路径同时估计UV的位置以及UV的环境的几何形状和特性。
所提出的技术可以允许经由UV的环境的语义标注的全局参考模型来组合来自所有可用(即,所接收的)定位信号的信息。如上所述,可以通过SLAM结合图像数据的语义分类获得UV的环境的模型。使用卫星的(先验已知的)位置以及定位信号的路径中的障碍物的三维形状、位置和取向(由UV的环境的模型给出),即使经由一次或多次反射到达UV的GNSS接收器的信号也可以提供信息以增加位置信息的精度。附加到环境的估计几何形状(由UV的环境的模型给出)的语义信息可以允许预测对象(结构)对定位信号的影响(例如,对象是否将吸收或反射定位信号)。
所提出的技术可以在视觉上估计UV的环境中的(大型)对象/结构的位置、取向、形状以及材料以直接预测并且考虑它们对由GNSS的卫星发射的定位信号的影响。因此,可以改进基于GNSS的位置估计在具有诸如城市中的大型建筑物或山区中的大型岩石的大型结构的环境中的精度。
尽管在图4的示例中使用了粒子滤波器440,但是应当注意,在可选示例中,可以使用诸如卡尔曼滤波器或期望最大化滤波器的另一滤波器。
与常规方法相比,所提出的技术允许从由UV的环境中的对象/结构反射的定位信号中提取位置和速度信息。图5示出了UAV 500在路桥510下飞行的示例性场景。不存在到GNSS的四个卫星520-1、…、520-4中的任一个卫星的直接视线。卫星520-2和520-3的定位信号521-2和521-3被路桥510阻挡。卫星520-1和520-4的定位信号521-1和521-4被土壤530反射。在诸如图5所示的情形中,所提出的技术能够从定位信号521-1和521-4获得附加信息以更新UAV 500的估计位置。UAV 500的环境的语义标注的三维模型允许预测定位信号521-1和521-4的反射,使得可以从定位信号521-1和521-4精确地估计位置。
在图6中进一步示出了使用根据所提出的技术的位置确定的UV的示例。在图6中,UV是被描绘为包括多个旋翼640-1、640-2、…的多旋翼无人机(例如,四旋翼飞行器或双旋翼飞行器)的UAV 600。然而,应当注意,UV不限于此。通常,UV可以是任何类型的UGV或UAV,诸如单旋翼飞行器、固定翼UAV(例如,飞机或垂直起降VTOL航空器)或自主汽车。
UAV 600包括用于确定UAV 600的位置的装置610。装置610包括接收器电路611,该接收器电路耦接到接收天线630并且被配置为从GNSS(例如,GPS)的多个卫星接收定位信号601。此外,装置610包括处理电路612。例如,处理电路612可以是单个专用处理器、单个共享处理器、或多个单独的处理器(这些处理器中的一些或全部可以是共享的)、数字信号处理器(DSP)硬件、专用集成电路(ASIC)或现场可编程门阵列(FPGA)。处理电路612可以任选地耦接到例如用于存储软件的只读存储器(ROM)、随机存取存储器(RAM)和/或非易失性存储器。装置610还可以包括其他硬件-常规的和/或定制的。
处理电路612从UAV的一个或多个传感器(例如,光学传感器620或IMU)接收与所接收的定位信号601相关的数据以及任选地其他数据。处理电路612根据上述用于确定UAV600的位置的技术来处理数据。
UAV 600还可以包括其他硬件-常规的和/或定制的(例如,用于接收遥控器的控制信号的天线)。
以下示例涉及其他实施例:
(1)一种用于确定UV的位置的方法。该方法包括从全球导航卫星系统的多个卫星接收定位信号。此外,该方法包括基于(i)UV的环境的三维模型和(ii)定位信号中的每一个定位信号的可能信号路径来估计UV的位置。可能信号路径的至少一部分包括由UV的环境中的一个或多个对象对定位信号的反射。
(2)根据(1)的方法,其中,用关于相应对象的射频特性和/或材料类别的信息在语义上标记UV的环境的三维模型中的对象。
(3)根据(1)或(2)的方法,其中,UV的环境的三维模型仅包括静态对象。
(4)根据(1)或(2)的方法,其中,UV的环境的三维模型包括至少一个移动对象。
(5)根据(1)至(4)中任一项的方法,其中,该方法还包括基于UV的一个或多个传感器的传感器数据确定UV的环境的三维模型。
(6)根据(5)的方法,其中,UV的一个或多个传感器至少包括光学传感器和惯性测量单元。
(7)根据(6)的方法,其中,确定UV的环境的三维模型包括:基于光学传感器和惯性测量单元的传感器数据,使用SLAM算法来确定UV的环境的三维表示;基于光学传感器的传感器数据,将由光学传感器的传感器数据表示的UV的环境的至少一个对象分类为多个预定义类别中的一个;以及用所分类的类别在语义上标记UV的环境的三维表示中的至少一个对象,以便获得UV的环境的三维模型。
(8)根据(7)的方法,其中,预定义类别是射频特性和/或材料类别。
(9)根据(7)或(8)的方法,其中,定位信号中的每一个定位信号的可能信号路径由粒子滤波器表示,并且其中,该方法包括使用粒子滤波器确定定位信号中的每一个定位信号的可能信号路径中的相应最可能信号路径。
(10)根据(9)的方法,其中,粒子滤波器接收来自SLAM算法的UV的姿态估计和速度估计、UV的环境的三维模型、卫星的位置以及与定位信号相关的信息作为输入。
(11)根据(9)或(10)的方法,其中,该方法还包括基于定位信号中的每一个定位信号的可能信号路径中的相应最可能信号路径更新SLAM算法的姿态估计和速度估计。
(12)根据(11)的方法,其中,估计UV的位置包括将由SLAM算法的所更新的姿态估计指示的位置确定为UV的位置。
(13)根据(11)或(12)的方法,其中,该方法还包括基于SLAM算法的所更新的姿态估计和所更新的速度估计来更新UV的环境的三维模型。
(14)根据(1)至(13)中任一项的方法,其中,该方法由UV执行。
(15)根据(1)至(14)中任一项的方法,其中,UV是UAV。
(16)根据(15)的方法,其中,UAV是多旋翼无人机。
(17)一种其上存储有程序的非暂时性机器可读介质,该程序具有程序代码,当在UV的处理器或可编程硬件上执行该程序时,该程序代码用于控制UV执行根据(1)至(16)中任一项的用于确定UV的位置的方法。
(18)一种用于确定UV位置的装置。该装置包括接收器电路,该接收器电路被配置为从全球导航卫星系统的多个卫星接收定位信号。此外,该装置包括处理电路,该处理电路被配置为基于(i)UV的环境的三维模型和(ii)定位信号中的每一个定位信号的可能信号路径来估计UV的位置,其中,定位信号中的每一个定位信号的可能信号路径的至少一部分包括由UV的环境中的一个或多个对象对定位信号的反射。
(19)一种UAV,包括根据(18)的用于确定UAV的位置的装置。
(20)根据(19)的UAV,其中,UAV是多旋翼无人机。
与先前的详细示例和附图中的一个或多个一起提及和描述的方面和特征也可以与其他示例中的一个或多个组合,以便替换其他示例的类似特征或另外将该特征引入其他示例。
说明书和附图仅说明本公开的原理。此外,本文所列举的所有示例主要明确地旨在仅用于说明性目的以帮助读者理解本公开的原理和发明人为推进本领域所贡献的概念。在本文叙述本公开的原理、方面和示例以及本公开的特定示例的所有陈述旨在涵盖其等同物。
框图可以例如示出实现本公开的原理的高级电路图。类似地,流程图、流程图表、状态转换图、伪代码等可以表示各种过程、操作或步骤,这些过程、操作或步骤例如可以基本上在非暂时性机器可读介质(例如,软盘、DVD、蓝光光盘、CD、ROM、PROM以及EPROM、EEPROM或闪存)中表示,并且因此由处理器或可编程硬件执行,无论这种处理器或可编程硬件是否被明确地示出。在说明书或权利要求书中公开的方法可以由具有用于执行这些方法的相应动作中的每一个动作的手段的设备来实现。
应当理解,可以不将在说明书或权利要求中公开的多个动作、过程、操作、步骤或功能的公开内容解释为在特定顺序内,除非明确地或隐含地另外陈述,例如出于技术原因。因此,多个动作或功能的公开内容并不将这些限制到具体的顺序,除非这些动作或功能出于技术原因不可互换。此外,在一些示例中,单个动作、功能、过程、操作或步骤可以分别包括或可以被划分为多个子动作、多个子功能、多个子过程、多个子操作或多个子步骤。除非明确地排除,否则可以包括这样的子动作以及该单个动作的公开内容的一部分。
此外,以下权利要求由此被结合到具体实施方式中,其中,每个权利要求可以独立地作为单独的示例。虽然每个权利要求可以独立地作为单独的示例,但是应当注意,虽然从属权利要求可以在权利要求中引用与一个或多个其他权利要求的特定组合,但是其他示例也可以包括从属权利要求与每个其他从属权利要求或独立权利要求的主题的组合。在本文中明确地提出这样的组合,除非声明并不旨在进行特定组合。此外,即使该权利要求不直接从属于独立权利要求,也旨在将该权利要求的特征包括在任何其他独立权利要求中。
Claims (20)
1.一种用于确定无人驾驶交通工具UV的位置的方法(100),所述方法包括:
从全球导航卫星系统的多个卫星接收(102)定位信号;以及
基于(i)所述UV的环境的三维模型和(ii)所述定位信号中的每一个定位信号的可能信号路径来估计(104)所述UV的所述位置,其中,所述可能信号路径的至少一部分包括由所述UV的环境中的一个或多个对象对所述定位信号的反射。
2.根据权利要求1所述的方法,其中,用关于相应对象的射频特性和/或材料类别的信息在语义上标记所述UV的环境的所述三维模型中的对象。
3.根据权利要求1所述的方法,其中,所述UV的环境的所述三维模型仅包括静态对象。
4.根据权利要求1所述的方法,其中,所述UV的环境的所述三维模型包括至少一个移动对象。
5.根据权利要求1所述的方法,其中,所述方法还包括基于所述UV的一个或多个传感器的传感器数据确定(106)所述UV的环境的所述三维模型。
6.根据权利要求5所述的方法,其中,所述UV的所述一个或多个传感器至少包括光学传感器和惯性测量单元。
7.根据权利要求6所述的方法,其中,确定(106)所述UV的环境的所述三维模型包括:
基于所述光学传感器和所述惯性测量单元的传感器数据,使用同时定位和映射SLAM算法来确定所述UV的环境的三维表示;
基于所述光学传感器的传感器数据,将由所述光学传感器的所述传感器数据表示的所述UV的环境的至少一个对象分类为多个预定义类别中的一个;以及
用所分类的类别在语义上标记所述UV的环境的所述三维表示中的所述至少一个对象,以便获得所述UV的环境的所述三维模型。
8.根据权利要求7所述的方法,其中,预定义类别是射频特性和/或材料类别。
9.根据权利要求7所述的方法,其中,所述定位信号中的每一个定位信号的所述可能信号路径由粒子滤波器表示,并且其中,所述方法包括使用所述粒子滤波器确定所述定位信号中的每一个定位信号的所述可能信号路径中的相应最可能信号路径。
10.根据权利要求9所述的方法,其中,所述粒子滤波器接收来自所述SLAM算法的所述UV的姿态估计和速度估计、所述UV的环境的所述三维模型、所述卫星的位置以及与所述定位信号相关的信息作为输入。
11.根据权利要求9所述的方法,其中,所述方法还包括基于所述定位信号中的每一个定位信号的所述可能信号路径中的所述相应最可能信号路径更新所述SLAM算法的姿态估计和速度估计。
12.根据权利要求11所述的方法,其中,估计所述UV的位置包括将由所述SLAM算法的所更新的姿态估计指示的位置确定为所述UV的位置。
13.根据权利要求11所述的方法,其中,所述方法还包括基于所述SLAM算法的所更新的姿态估计和所更新的速度估计来更新所述UV的环境的所述三维模型。
14.根据权利要求1所述的方法,其中,所述方法由所述UV执行。
15.根据权利要求1所述的方法,其中,所述UV是无人驾驶飞行器UAV。
16.根据权利要求15所述的方法,其中,所述UAV是多旋翼无人机。
17.一种其上存储有程序的非暂时性机器可读介质,所述程序具有程序代码,当在无人驾驶交通工具的处理器或可编程硬件上执行所述程序时,所述程序代码用于控制所述无人驾驶交通工具执行根据权利要求1所述的用于确定所述无人驾驶交通工具的位置的所述方法。
18.一种用于确定无人驾驶交通工具UV的位置的装置(610),所述装置包括:
接收器电路(611),被配置为从全球导航卫星系统的多个卫星接收定位信号;以及
处理电路(612),基于(i)所述UV的环境的三维模型和(ii)所述定位信号中的每一个定位信号的可能信号路径来估计所述UV的所述位置,其中,所述定位信号中的每一个定位信号的所述可能信号路径的至少一部分包括由所述UV的环境中的一个或多个对象对所述定位信号的反射。
19.一种无人驾驶飞行器(600),包括根据权利要求18所述的用于确定所述无人驾驶飞行器的位置的装置(610)。
20.根据权利要求19所述的无人驾驶飞行器,其中,所述无人驾驶飞行器(600)是多旋翼无人机。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP19187607.7 | 2019-07-22 | ||
EP19187607 | 2019-07-22 | ||
PCT/EP2020/063604 WO2021013400A1 (en) | 2019-07-22 | 2020-05-15 | Method and apparatus for determining a position of an unmanned vehicle, and unmanned aerial vehicle |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114144700A true CN114144700A (zh) | 2022-03-04 |
Family
ID=67438398
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202080051460.0A Pending CN114144700A (zh) | 2019-07-22 | 2020-05-15 | 用于确定无人驾驶交通工具的位置的方法和装置以及无人驾驶飞行器 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20220252737A1 (zh) |
EP (1) | EP4004602A1 (zh) |
JP (1) | JP2022541185A (zh) |
CN (1) | CN114144700A (zh) |
WO (1) | WO2021013400A1 (zh) |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080033645A1 (en) * | 2006-08-03 | 2008-02-07 | Jesse Sol Levinson | Pobabilistic methods for mapping and localization in arbitrary outdoor environments |
WO2009017393A1 (en) * | 2007-07-31 | 2009-02-05 | Tele Atlas B.V. | Method and device for determining a position |
SG11201508559WA (en) * | 2013-05-20 | 2015-12-30 | Found Promotion Ind Science | Position detection device, position detection system, and position detection method |
US10386493B2 (en) * | 2015-10-01 | 2019-08-20 | The Regents Of The University Of California | System and method for localization and tracking |
US20180038694A1 (en) * | 2016-02-09 | 2018-02-08 | 5D Robotics, Inc. | Ultra wide band radar localization |
US10495762B2 (en) * | 2017-05-19 | 2019-12-03 | Qualcomm Incorporated | Non-line-of-sight (NLoS) satellite detection at a vehicle using a camera |
US11169274B2 (en) * | 2018-10-30 | 2021-11-09 | Here Global B.V. | Method, apparatus, and computer program product for establishing location |
US11340354B2 (en) * | 2019-06-26 | 2022-05-24 | Nio Usa, Inc. | Methods to improve location/localization accuracy in autonomous machines with GNSS, LIDAR, RADAR, camera, and visual sensors |
-
2020
- 2020-05-15 CN CN202080051460.0A patent/CN114144700A/zh active Pending
- 2020-05-15 WO PCT/EP2020/063604 patent/WO2021013400A1/en unknown
- 2020-05-15 EP EP20725712.2A patent/EP4004602A1/en active Pending
- 2020-05-15 US US17/624,581 patent/US20220252737A1/en active Pending
- 2020-05-15 JP JP2022502387A patent/JP2022541185A/ja active Pending
Also Published As
Publication number | Publication date |
---|---|
WO2021013400A1 (en) | 2021-01-28 |
EP4004602A1 (en) | 2022-06-01 |
JP2022541185A (ja) | 2022-09-22 |
US20220252737A1 (en) | 2022-08-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11393216B2 (en) | Method of computer vision based localisation and navigation and system for performing the same | |
Wen et al. | Tightly coupled GNSS/INS integration via factor graph and aided by fish-eye camera | |
Wen et al. | GNSS NLOS exclusion based on dynamic object detection using LiDAR point cloud | |
US10365363B2 (en) | Mobile localization using sparse time-of-flight ranges and dead reckoning | |
US20170023659A1 (en) | Adaptive positioning system | |
KR102463176B1 (ko) | 위치 추정 장치 및 방법 | |
US10671083B2 (en) | Neural network architecture system for deep odometry assisted by static scene optical flow | |
US10552979B2 (en) | Output of a neural network method for deep odometry assisted by static scene optical flow | |
US20190079536A1 (en) | Training and testing of a neural network system for deep odometry assisted by static scene optical flow | |
JP2019527832A (ja) | 正確な位置特定およびマッピングのためのシステムおよび方法 | |
WO2020048623A1 (en) | Estimation of a pose of a robot | |
CN111288989B (zh) | 一种小型无人机视觉定位方法 | |
US10268205B2 (en) | Training and testing of a neural network method for deep odometry assisted by static scene optical flow | |
US20190079533A1 (en) | Neural network architecture method for deep odometry assisted by static scene optical flow | |
CA3177161A1 (en) | Object detection and tracking for automated operation of vehicles and machinery | |
CN111338383A (zh) | 基于gaas的自主飞行方法及系统、存储介质 | |
US20190080167A1 (en) | Data acquistion and input of neural network system for deep odometry assisted by static scene optical flow | |
US20190080166A1 (en) | Data acquistion and input of neural network method for deep odometry assisted by static scene optical flow | |
US11967091B2 (en) | Detection of environmental changes to delivery zone | |
Wang et al. | UGV‐UAV robust cooperative positioning algorithm with object detection | |
Bai et al. | Real-time GNSS NLOS detection and correction aided by sky-pointing camera and 3D LiDAR | |
WO2016196717A2 (en) | Mobile localization using sparse time-of-flight ranges and dead reckoning | |
CN110794434A (zh) | 一种位姿的确定方法、装置、设备及存储介质 | |
CN114144700A (zh) | 用于确定无人驾驶交通工具的位置的方法和装置以及无人驾驶飞行器 | |
CN115790603A (zh) | 一种用于信息拒止环境下的无人机动态目标估计方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |