CN113498498B - 行动控制设备和行动控制方法、以及程序 - Google Patents
行动控制设备和行动控制方法、以及程序 Download PDFInfo
- Publication number
- CN113498498B CN113498498B CN202080017612.5A CN202080017612A CN113498498B CN 113498498 B CN113498498 B CN 113498498B CN 202080017612 A CN202080017612 A CN 202080017612A CN 113498498 B CN113498498 B CN 113498498B
- Authority
- CN
- China
- Prior art keywords
- unit
- moving object
- position estimation
- control device
- index
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000009471 action Effects 0.000 title claims abstract description 107
- 238000000034 method Methods 0.000 title claims abstract description 89
- 238000005259 measurement Methods 0.000 claims description 46
- 230000006870 function Effects 0.000 claims description 12
- 230000033001 locomotion Effects 0.000 claims description 9
- 230000004044 response Effects 0.000 claims description 6
- 230000010365 information processing Effects 0.000 claims description 3
- RZVHIXYEVGDQDX-UHFFFAOYSA-N 9,10-anthraquinone Chemical compound C1=CC=C2C(=O)C3=CC=CC=C3C(=O)C2=C1 RZVHIXYEVGDQDX-UHFFFAOYSA-N 0.000 abstract description 71
- 238000012545 processing Methods 0.000 abstract description 59
- 238000005516 engineering process Methods 0.000 abstract description 14
- 230000010006 flight Effects 0.000 abstract description 6
- 230000008569 process Effects 0.000 description 63
- 238000010586 diagram Methods 0.000 description 21
- 238000012800 visualization Methods 0.000 description 5
- 230000008901 benefit Effects 0.000 description 3
- 238000004140 cleaning Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 230000008685 targeting Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000004020 luminiscence type Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000012876 topography Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000009966 trimming Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/10—Simultaneous control of position or course in three dimensions
- G05D1/101—Simultaneous control of position or course in three dimensions specially adapted for aircraft
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G5/00—Traffic control systems for aircraft, e.g. air-traffic control [ATC]
- G08G5/0047—Navigation or guidance aids for a single aircraft
- G08G5/0069—Navigation or guidance aids for a single aircraft specially adapted for an unmanned aircraft
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U10/00—Type of UAV
- B64U10/10—Rotorcrafts
- B64U10/13—Flying platforms
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C23/00—Combined instruments indicating more than one navigational value, e.g. for aircraft; Combined measuring devices for measuring two or more variables of movement, e.g. distance, speed or acceleration
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/38—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
- G01S19/39—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/42—Determining position
- G01S19/48—Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system
- G01S19/485—Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system whereby the further system is an optical system or imaging system
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/38—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
- G01S19/39—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/42—Determining position
- G01S19/48—Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system
- G01S19/49—Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system whereby the further system is an inertial position system, e.g. loosely-coupled
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/40—Control within particular dimensions
- G05D1/46—Control of position or course in three dimensions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G5/00—Traffic control systems for aircraft, e.g. air-traffic control [ATC]
- G08G5/0004—Transmission of traffic-related information to or from an aircraft
- G08G5/0013—Transmission of traffic-related information to or from an aircraft with a ground station
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G5/00—Traffic control systems for aircraft, e.g. air-traffic control [ATC]
- G08G5/0017—Arrangements for implementing traffic-related aircraft activities, e.g. arrangements for generating, displaying, acquiring or managing traffic information
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G5/00—Traffic control systems for aircraft, e.g. air-traffic control [ATC]
- G08G5/003—Flight plan management
- G08G5/0039—Modification of a flight plan
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G5/00—Traffic control systems for aircraft, e.g. air-traffic control [ATC]
- G08G5/0047—Navigation or guidance aids for a single aircraft
- G08G5/0052—Navigation or guidance aids for a single aircraft for cruising
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G5/00—Traffic control systems for aircraft, e.g. air-traffic control [ATC]
- G08G5/0073—Surveillance aids
- G08G5/0086—Surveillance aids for monitoring terrain
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G5/00—Traffic control systems for aircraft, e.g. air-traffic control [ATC]
- G08G5/04—Anti-collision systems
- G08G5/045—Navigation or guidance aids, e.g. determination of anti-collision manoeuvers
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2101/00—UAVs specially adapted for particular uses or applications
- B64U2101/30—UAVs specially adapted for particular uses or applications for imaging, photography or videography
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2201/00—UAVs characterised by their flight controls
- B64U2201/10—UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
- B64U2201/104—UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS] using satellite radio beacon positioning systems, e.g. GPS
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Automation & Control Theory (AREA)
- Computer Networks & Wireless Communication (AREA)
- Mechanical Engineering (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Navigation (AREA)
- Position Fixing By Use Of Radio Waves (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Traffic Control Systems (AREA)
Abstract
本公开涉及使得能够实施更适当的行动控制的行动控制设备、行动控制方法以及程序。EKF处理单元基于作为无人机行动的指标的航路点,从具有不同估计精度的多个定位单元中选择用于估计无人机位置的定位单元,并且确定无人机的状态。然后,导航器基于无人机的状态并根据预先准备的行动计划来控制无人机的行动。本技术能够应用于例如控制无人机的任务飞行的任务飞行控制设备。
Description
技术领域
本公开涉及行动控制设备和行动控制方法以及程序,尤其涉及使得能够实现更适当的行动控制的行动控制设备和行动控制方法以及程序。
背景技术
常规地,诸如无人驾驶飞行器(UAV)之类的移动物体(被称为所谓的无人机)可以例如根据用户的操作来飞行,并且可以根据通过预先指定航路点的任务来飞行(下文中称为任务飞行)。
为了实现这种任务飞行,无人机需要配备用于估计其自身位置的自身位置估计系统。例如,对于自身位置估计系统,主要利用使用全球定位系统(GPS)传感器估计自身位置的方法、使用视觉传感器估计自身位置的方法等,并且也可以使用各种其他方法。
例如,使用GPS传感器的自身位置估计系统具有GPS可以在宽范围内使用的优点,但同时具有估计自身位置的精度低(例如,误差为大约几米)的缺点。此外,使用视觉传感器的自身位置估计系统具有估计自身位置的精度高(例如,误差为大约几厘米)的优点,但同时具有可以有效使用视觉的范围窄并且不可以用于均匀的外观、远景等的缺点。
此外,专利文献1公开了一种移动物体,该移动物体能够通过获取多条位置信息并且设置移动范围的信息来更准确地设置移动路线或范围。
引文列表
专利文献
专利文献1:日本专利No.6289750
发明内容
本发明要解决的问题
顺便提及,例如,由于常规的无人机被配置为在整个任务飞行中使用相同的自身位置估计系统,因此对于估计自身位置时难以在改变估计精度的同时根据情况执行适当的飞行控制。例如,尚未实现在某个航路点(Waypoint)执行任务飞行以便以高精度估计自身位置的同时进行飞行,以及在另一个航路点即使以低精度也进行高速飞行。
鉴于这样的情况做出了本公开,并且本公开使得可以实现更适当的行动控制。
问题的解决方案
本公开的一个方面的行动控制设备包括:状态指定单元,该状态指定单元基于指标从估计精度不同的多个自身位置估计单元中选择用于估计移动物体的位置的自身位置估计单元,并且求出移动物体的状态;以及行动控制单元,该行动控制单元基于移动物体的状态根据预先创建的行动计划来控制移动物体的行动。
本公开的一个方面的行动控制方法或程序包括:基于指标从估计精度不同的多个自身位置估计单元中选择用于估计移动物体的位置的自身位置估计单元,并且求出移动物体的状态;以及基于移动物体的状态根据预先创建的行动计划来控制所述移动物体的行动。
在本公开的一个方面中,基于指标从估计精度不同的多个自身位置估计单元中选择用于估计移动物体的位置的自身位置估计单元,并且求出移动物体的状态,并且基于移动物体的状态根据预先创建的行动计划来控制所述移动物体的行动。
附图说明
图1是描述任务飞行的图。
图2是图示应用本技术的任务飞行控制设备的第一实施例的配置示例的框图。
图3是图示EKF处理单元的配置示例的图。
图4是图示任务飞行设置画面的示例的图。
图5是描述自身位置估计系统的切换的图。
图6是描述任务飞行控制处理的流程图。
图7是描述EKF处理的流程图。
图8是图示可视化高度和速度的有效范围的用户界面的示例的图。
图9是图示可视化估计精度的用户界面的示例的图。
图10是描述每个自身位置估计系统的高度和速度的有效范围的图。
图11是图示可视化基于视觉的自身位置估计是不可选择的用户界面的示例的图。
图12是描述用于以高精度优先自动选择航路点WP的航路点设置处理的流程图。
图13是描述用于以速度优先自动选择航路点WP的航路点设置处理的流程图。
图14是描述用于根据自身位置估计系统的速度和指定自动选择每个航路点WP的高度的航路点设置处理的流程图。
图15是描述任务飞行控制设备中的对准的图。
图16是描述基于障碍物的位置定制任务飞行以便避开障碍物的方法的图。
图17是描述使用障碍物地图对航路点进行微调的图。
图18是图示应用本技术的任务飞行控制设备的第二实施例的配置示例的框图。
图19图示描述定制任务飞行的处理的流程图。
图20是图示可视化障碍物的距离测量精度的用户界面的示例的图。
图21是图示应用本技术的计算机的一个实施例的配置示例的框图。
具体实施方式
在下文中,将参考附图详细描述应用本技术的具体实施例。
<任务飞行>
将参考图1描述无人机的任务飞行。
例如,如图1中所示,在指定了六个航路点WP1至WP6的情况下,在路线中创建行动计划,以便从作为开始位置的航路点WP1到作为目标位置的航路点WP6依次通过航路点WP2至WP5。在这种情况下,无人机1可以执行沿着由图1中的链双虚线所示的路线飞行的任务飞行。
注意的是,在本实施例中,将描述使用航路点WP作为无人机1通过时的指标的任务飞行,但是除了使用航路点WP之外,例如,可以指定无人机1的行动任务(执行图像捕获,运输物品等)来创建行动计划。即,不限于用户指定航路点WP,并且可以根据行动任务的内容来指定航路点WP。注意的是,可以例如基于在无人机1进行预备飞行时根据GPS获取的位置信息或区域信息来指定航路点WP的位置。
<任务飞行控制设备的第一配置示例>
图2是图示应用本技术的任务飞行控制设备的第一实施例的配置示例的框图。
如图2中所示,任务飞行控制设备11包括个人计算机12、行动计划创建单元13、图像传感器14、惯性测量单元15、基于视觉的自身位置估计单元16、基于GPS的自身位置估计单元17、飞行控制单元18和驱动单元19。此外,飞行控制单元18包括扩展卡尔曼滤波器(EKF)处理单元21、导航器22和驱动控制单元23。
例如,任务飞行控制设备11可以被配置为使得图1中的无人机1包括图像传感器14、惯性测量单元15、基于视觉的自身位置估计单元16、基于GPS的自身位置估计单元17、飞行控制单元18和驱动单元19。
个人计算机12具有例如显示如稍后描述的图4所示的任务飞行设置画面41的显示单元,以及操作单元(诸如,鼠标和键盘),并且被用户用来指定航路点WP。然后,个人计算机12将由用户指定的航路点WP供应给行动计划创建单元13,并且还供应给飞行控制单元18的EKF处理单元21。
行动计划创建单元13创建用于使无人机1飞行的行动计划(路径计划),以通过从个人计算机12供应的航路点WP,并将行动计划供应给飞行控制单元18的导航器22。
图像传感器14具有例如固态成像元件,诸如电荷耦合器件(CCD)或互补金属氧化物半导体(CMOS)图像传感器。然后,图像传感器14将通过利用固态成像元件对无人机1的外围成像而获得的图像的图像数据供应给基于视觉的自身位置估计单元16。
惯性测量单元15是例如包括三轴陀螺仪传感器等的惯性测量单元(IMU)。然后,惯性测量单元15将随无人机1的飞行一起测量的加速度和角速度供应给基于视觉的自身位置估计单元16作为惯性测量数据(IMU数据),并且还将它们供应给飞行控制单元18的EKF处理单元21。
基于视觉的自身位置估计单元16使用从图像传感器14供应的图像数据和从惯性测量单元15供应的惯性测量数据来执行自身位置估计(视觉惯性测距)以估计无人机1的位置。例如,基于视觉的自身位置估计单元16可以使用同时定位和测绘(SLAM)。然后,基于视觉的自身位置估计单元16将作为基于图像数据执行自身位置估计的结果而获得的姿态和速度(姿势/速度)作为基于视觉的观察信息供应给飞行控制单元18的EKF处理单元21。
基于GPS的自身位置估计单元17执行例如用于使用GPS估计无人机1的位置的自身位置估计。然后,基于GPS的自身位置估计单元17将作为基于GPS执行自身位置估计的结果而获得的NED(当地水平(North-East-Down))坐标上的姿态(NED中的姿势)作为基于GPS的观察信息供应给飞行控制单元18的EKF处理单元21。
飞行控制单元18控制驱动单元19,使得无人机1根据从行动计划创建单元13供应的行动计划飞行,并且执行无人机1的飞行控制。
驱动单元19包括例如驱动多个转子的电动机,并且使无人机1通过由这些转子生成的推力进行飞行。
EKF处理单元21基于从惯性测量单元15供应的惯性测量数据、从基于视觉的自身位置估计单元16供应的基于视觉的观察信息和从基于GPS的位置估计单元17供应的基于GPS的观察信息来执行EKF处理以求出无人机1的状态(位置和姿态)。然后,EKF处理单元21将指示无人机1的状态的状态信息作为执行EKF处理的结果而获得的EKF处理结果供应给导航器22和驱动控制单元23。注意的是,稍后将参考图2描述EKF处理单元21的详细配置。
导航器22基于从EKF处理单元21供应的状态信息,向驱动控制单元23给出沿着路线从当前无人机1的状态飞行所需的指令,以使得无人机1根据从行动计划创建单元13供应的行动计划飞行。
驱动控制单元23基于从EKF处理单元21供应的状态信息,为了使无人机1根据来自导航器22的指令飞行,对驱动单元19执行驱动控制(例如,位置控制和姿态控制)。
任务飞行控制设备11如上所述地配置,并且例如,当用户使用个人计算机12指定航路点WP时,用户可以针对每个航路点WP指定自身位置估计系统。即,在任务飞行控制设备11中,基于视觉的自身位置估计单元16或基于GPS的自身位置估计单元17被指定为针对每个航路点WP的自身位置估计系统,并且执行使用它们中的任一个的观察信息的飞行控制。注意的是,任务飞行控制设备11可以针对每个航路点WP组合基于视觉的自身位置估计单元16和基于GPS的自身位置估计单元17两者的观察信息,并且可以通过选择性地使用例如多条观察信息来执行飞行控制。
因此,在将基于视觉的自身位置估计单元16指定为最近邻航路点WP处的自身位置估计系统的情况下,EKF处理单元21选择基于视觉的观察信息并执行EKF处理。另一方面,在将基于GPS的自身位置估计单元17指定为最近邻航路点WP处的自身位置估计系统的情况下,EKF处理单元21选择基于GPS的观察信息并执行EKF处理。
图3是图示EKF处理单元21的配置示例的框图。
如图3中所示,EKF处理单元21包括EKF状态预测单元31、最近邻航路点选择单元32、观察信息选择单元33和EKF状态更新单元34。
从EKF状态更新单元34向EKF状态预测单元31供应指示无人机1的最新状态的状态信息,该状态信息是从EKF处理单元21周期性地输出的。然后,EKF状态预测单元31根据最新的状态信息基于从图2的惯性测量单元15供应的惯性测量数据(IMU数据)预测在接下来输出状态信息的定时的无人机1的状态。然后,EKF状态预测单元31将指示无人机1的预测状态的预测状态信息供应给最近邻航路点选择单元32和EKF状态更新单元34。例如,预测状态信息是EKF的状态变量,并且包括无人机1的位置和姿态、惯性测量单元15的传感器的偏置值等。
最近邻航路点选择单元32从个人计算机12供应的多个航路点WP当中选择最接近基于从EKF状态预测单元31供应的预测状态信息的无人机1的位置的最近邻航路点。例如,最近邻航路点选择单元32选择在NED坐标系中具有最短欧几里德距离的航路点WP作为最近邻航路点。然后,最近邻航路点选择单元32向观察信息选择单元33供应指示将基于视觉的自身位置估计单元16和基于GPS的自身位置估计单元17中的哪一个指定为针对最近邻航路点的自身位置估计系统。
观察信息选择单元33根据从最近邻航路点选择单元32供应的指定信息,选择从基于视觉的自身位置估计单元16供应的基于视觉的观察信息(姿势/速度)和从基于GPS的自身位置估计单元17供应的基于GPS的观察信息(NED中的姿势)中的任一个。例如,在将基于视觉的自身位置估计单元16指定为最近邻航路点处的自身位置估计系统的情况下,观察信息选择单元33选择基于视觉的观察信息并将其供应给EKF状态更新单元34。另一方面,在将基于GPS的自身位置估计单元17指定为最近邻航路点处的自身位置估计系统的情况下,观察信息选择单元33选择基于GPS的观察信息并将其供应给EKF状态更新单元34。
EKF状态更新单元34基于由观察信息选择单元33选择的观察信息来更新从EKF状态预测单元31供应的预测状态信息,并基于最新的观察信息求出无人机1的状态。例如,EKF状态更新单元34根据观察信息中指示的估计位置更新由EKF状态预测单元31预测的无人机1的状态,以使其变得更加准确。然后,EKF状态更新单元34将指示无人机1的状态的状态信息作为EKF处理单元21中的EKF处理结果输出,并将该状态信息供应给EKF状态预测单元31。
如上所述,EKF处理单元21可以选择最近邻航路点处的自身位置估计系统,并且可以以根据在每个航路点WP处的情况的估计精度来求出无人机1的状态。
因此,任务飞行控制设备11可以根据情况通过适当的飞行控制来执行无人机1的任务飞行,同时改变在估计每个航路点WP处的自身位置时的估计精度。
另外,如本实施例中那样,针对最近邻航路点,除了指定任何自身位置估计系统的配置以外,例如,还可以采用根据地图上的位置而不是航路点WP指定任何自身位置估计系统的配置。此外,可以是根据地图上的区域指定任何自身位置估计系统的配置。
注意的是,在本实施例中,基于视觉的自身位置估计单元16和基于GPS的自身位置估计单元17被用作自身位置估计系统,但是不限于使用这两者的配置。例如,任务飞行控制设备11可以被配置为使用高度传感器、地磁传感器和其他自身位置估计系统(超宽带(UWB)、wifi SLAM、OptiTrack和短距离无线通信基站等),然后切换并使用它们。
图4是图示任务飞行设置画面的示例的图。
例如,任务飞行设置画面41被用于通过使用个人计算机12的图形用户界面(GUI)来输入执行任务飞行所需的各种指令。如图所示,任务飞行设置画面41包括地图显示区域42和指令GUI显示区域43。
在地图显示区域42中,例如,显示了无人机1在其中飞行的区域的地图。然后,当用户使用在地图显示区域42中显示的地图来指示航路点WP1至WP6时,航路点WP1至WP6被显示为叠加在地图上。
此时,显示航路点WP1至WP6,以可视化针对每个航路点指定的自身位置估计系统。即,在图4中所示的示例中,通过实线表示航路点WP1至WP3和WP6,从而可视化基于视觉的自身位置估计单元16被指定为自身位置估计系统。此外,通过虚线表示航路点WP4和WP5,从而可视化基于GPS的自身位置估计单元17被指定为自身位置估计系统。
此外,在地图显示区域42中,还依次显示了连接航路点WP1至WP6的路线,以可视化无人机1在每条路线上飞行时所使用的自身位置估计系统。
例如,在图4中所示的示例中,用实线表示连接基于视觉的自身位置估计单元16被指定为自身位置估计系统的航路点WP1至WP3的路线,从而可视化基于视觉的自身位置估计单元16在无人机1沿着那条路线飞行时被使用。类似地,用虚线表示连接基于GPS的自身位置估计单元17被指定为自身位置估计系统的航路点WP4和WP5的路线,从而可视化基于GPS的自身位置估计单元17在无人机1沿着该路线飞行时被使用。
而且,在连接航路点WP3和WP4的路线中,通过从实线改变为虚线可视化当无人机1沿着该路线飞行时要使用的从基于视觉的自身位置估计单元16到基于GPS的自身位置估计单元17的切换。类似地,在连接航路点WP5和WP6的路线中,通过从虚线改变为实线可视化当无人机1沿着该路线飞行时要使用的从基于GPS的自身位置估计单元17到基于视觉的自身位置估计单元16的切换。
在指令GUI显示区域43中,例如,如稍后将参考图5所描述的,显示了用于对每个航路点WP给出关于自身位置估计系统的指令的GUI。
将参考图5描述针对航路点WP指定的自身位置估计系统的切换。图5图示了将针对航路点WP4指定的自身位置估计系统从基于GPS的自身位置估计单元17切换为基于视觉的自身位置估计单元16的示例。
如图5的上部所示,如果在地图显示区域42中指定了作为切换自身位置估计系统的目标的航路点WP4,那么在指令GUI显示区域43中显示用于指定自身位置估计系统的复选框。即,显示用于指定基于GPS的自身位置估计单元17的复选框和用于指定基于视觉的自身位置估计单元16的复选框。
此时,在复选框中显示用于指定基于GPS的自身位置估计单元17的复选标记,从而可视化针对航路点WP4指定了基于GPS的自身位置估计单元17。
然后,当用户在用于指定基于视觉的自身位置估计单元16的复选框上进行操作时,如图5的下部所示,在用于指定基于视觉的自身位置估计单元16的复选框中显示复选标记。因此,在地图显示区域42中,航路点WP4的显示从虚线变为实线。而且,用实线表示连接航路点WP3和WP4的路线,并且连接航路点WP4和WP5的路线被表示为从虚线变为实线。
例如,在期望在其中已经以基于GPS的自身位置估计单元17的估计精度使无人机1飞行的地方以更高的精度使无人机1飞行的情况下,执行操作以将设置切换为基于视觉的自身位置估计单元16。以这种方式,用户可以基于当通过航路点WP时所需的估计精度来指定自身位置估计系统。
<任务飞行控制处理>
将参考图6中描述的流程图描述由任务飞行控制设备11执行的任务飞行控制处理。注意的是,假设执行任务飞行所需的信息(例如,诸如飞行无人机1的区域的地图和地形之类的信息)是通过预先以低精度飞行而获取的。
在步骤S11中,用户使用个人计算机12在图4中所示的任务飞行设置画面41的地图显示区域42中显示的地图上指定航路点WP。响应于此,个人计算机12将由用户指定的航路点WP供应给行动计划创建单元13。
在步骤S12中,用户使用个人计算机12,并且将基于视觉的自身位置估计单元16或基于GPS的自身位置估计单元17指定为针对在步骤S11中指定的每个航路点WP的自身位置估计系统。响应于此,个人计算机12将针对由用户指定的每个航路点WP的自身位置估计系统供应给飞行控制单元18的EKF处理单元21。
在步骤S13中,行动计划创建单元13针对无人机1创建行动计划以通过在步骤S11中指定的航路点WP,并将该行动计划供应给飞行控制单元18的导航器22。
在步骤S14中,当用户指示无人机1开始飞行时,飞行控制单元18响应于该指令而执行飞行控制。因此,无人机1例如朝着图1中所示的开始位置的航路点WP1飞行,并根据在步骤S13中创建的行动计划开始飞行。
在步骤S15中,基于视觉的自身位置估计单元16基于从图像传感器14供应的图像数据和从惯性测量单元15供应的惯性测量数据来估计无人机1的位置,并获取基于视觉的观察信息。此外,基于GPS的自身位置估计单元17使用GPS估计无人机1的位置并获取基于GPS的观察信息。
在步骤S16中,EKF处理单元21基于从惯性测量单元15供应的惯性测量数据、从基于视觉的自身位置估计单元16供应的基于视觉的观察信息和从基于GPS的自身位置估计单元17供应的基于GPS的观察信息来执行EKF处理以确定无人机1的状态。注意的是,稍后将参考图7描述EKF处理。
在步骤S17中,飞行控制单元18执行飞行控制以使无人机1沿着路线飞行。即,导航器22基于从EKF处理单元21供应的状态信息向驱动控制单元23给出指令,以使无人机1根据在步骤S13中由行动计划创建单元13创建的行动计划飞行。然后,驱动控制单元23基于从EKF处理单元21供应的状态信息,为了使无人机1根据来自导航器22的指令飞行,对驱动单元19执行驱动控制。
在步骤S18中,导航器22确定例如无人机1是否已经飞行到航路点WP6,该航路点WP6是图1中所示的目标位置。
在导航器22在步骤S18中确定无人机1尚未飞行到目标位置的情况下,处理返回到步骤S15,并且此后重复类似的处理。另一方面,在导航器22在步骤S18中确定无人机1已经飞行到目标位置的情况下,处理前进到步骤S19。
在步骤S19中,飞行控制单元18执行飞行控制,以使无人机1执行伴随飞行结束的预定操作(例如,悬停等),然后任务飞行控制处理终止。
图7是描述在图6的步骤S16中执行的EKF处理的流程图。
在步骤S21中,EKF状态预测单元31基于从图2的惯性测量单元15供应的惯性测量数据来预测无人机1的状态(位置和姿态)。
在步骤S22中,最近邻航路点选择单元32选择最接近在步骤S21中由EKF状态预测单元31预测的无人机1的位置的最近邻航路点。然后,最近邻航路点选择单元32向观察信息选择单元33供应指示针对最近邻航路点指定的自身位置估计系统的指定信息。
在步骤S23中,观察信息选择单元33根据在步骤S22中从最近邻航路点选择单元32供应的指定信息来选择观察信息,并将该观察信息供应给EKF状态更新单元34。例如,观察信息选择单元33在将基于视觉的自身位置估计单元16指定为针对最近邻航路点的自身位置估计系统的情况下,选择基于视觉的观察信息;并且在指定基于GPS的自身位置估计单元17的情况下,选择基于GPS的观察信息。
在步骤S24中,EKF状态更新单元34基于在步骤S23中从观察信息选择单元33供应的观察信息来更新在步骤S21中由EKF状态预测单元31预测的无人机1的状态。然后,在输出指示无人机1的状态的状态信息之后,EKF处理终止。
通过如上所述的任务飞行控制处理和EKF处理,任务飞行控制设备11可以针对每个航路点WP选择自身位置估计系统,并且以其估计精度实现对无人机1的适当的飞行控制。
<指定自身位置估计系统所需的信息的可视化>
将参考图8至11描述指定自身位置估计系统所需的信息的可视化。
图8图示了可视化高度和速度的有效范围的用户界面的示例。
例如,如图8中所示,当基于视觉的自身位置估计单元16被指定为在航路点WP3处的自身位置估计系统时,高度和速度的有效范围被可视化并被呈现。即,在使用基于视觉的自身位置估计单元16的情况下,预先确定可以以预定精度或更高的精度估计自身位置的高度和速度,并且在图8中所示的示例中,高于该高度和速度的范围将变灰。
这允许用户参考高度和速度的有效范围来确定是否将基于视觉的自身位置估计单元16指定为自身位置估计系统。
图9图示了可视化估计精度的用户界面的示例。
例如,如图9中所示,表示基于估计自身位置的精度的误差范围的误差椭圆被呈现为由长短交替的虚线形成的圆。即,基于视觉的自身位置估计单元16可以以高精度估计自身位置,并且在使用基于视觉的自身位置估计单元16的路线上以规律的间隔显示指示误差范围小的小圆。另一方面,基于GPS的自身位置估计单元17以低精度估计自身位置,并且在使用基于GPS的自身位置估计单元17的路线上以规律的间隔显示指示误差范围大的大圆。
例如,可以根据由基于视觉的自身位置估计单元16和基于GPS的自身位置估计单元17使用的传感器的规范通过常数来指定表示误差范围的圆,或者可以由用户来指定。
因此,用户可以容易地掌握沿着地图上的路线的无人机1所使用的自身位置估计系统的估计精度,并且例如可以检查与障碍物的余量(margin)。
将参考图10和11描述不可选择的自身位置估计系统的可视化。
例如,如图10中所示,针对每个自位置估计系统求出无人机1的高度和速度的有效范围。
即,如图10的A处所示,在使用利用无人机1中向下立体相机的SLAM的基于视觉的自身位置估计单元16中,如图10的B处所示,求出作为SLAM的视觉(vision)有效的范围。即,等于或小于立体视差有效界限并且等于或大于帧(时间)之间的共同视场界限和立体公共视场界限的高度和速度在SLAM的视觉有效的范围内。然后,在高于立体视差有效界限的高度和低于帧(时间)之间的共同视场界限的高度处,仅使用惯性测量单元15。而且,在低于立体共同视场界限的高度处,使用惯性测量单元15和接近距离测量传感器。
例如,在无人机1以X[m/s2]的速度飞行的情况下,从作为帧(时间)之间的共同视场界限的H1到作为立体视差有效界限的高度H2被获得作为可以使用基于视觉的自身位置估计单元16的有效高度范围。
因此,任务飞行控制设备11可以基于指定了航路点WP处的高度和速度来确定其是否处于基于视觉的自身位置估计单元16的有效范围内。然后,例如,在确定指定的高度和速度不在基于视觉的自身位置估计单元16的有效范围内的情况下(即,在其在基于视觉的自身位置估计单元16的有效范围之外的情况下),自动使得不能选择基于视觉的自身位置估计单元16。
因此,如图11中所示,在指定的高度和速度在基于视觉的自身位置估计单元16的有效范围之外的情况下,在指令GUI显示区域43中用于选择基于视觉的自身位置估计单元16的复选框变灰。即,可视化了基于视觉的自身位置估计单元16是不可选择的。
因此,用户可以识别可以基于高度和速度选择的自身位置估计系统,并且可以根据情况容易地选择自身位置估计系统。
<基于指标的自动设置处理>
参考图12至14,将描述基于优先事项针对每个航路点WP自动设置自身位置估计系统和高度等的自动设置处理。
图12是描述用于以高精度优先自动选择航路点WP的航路点设置处理的流程图。例如,可以执行图12中所示的航路点设置处理来代替图6中的步骤S12。
例如,在图6的步骤S11的处理之后,在步骤S31中,用户使用个人计算机12并且针对在步骤S11中指定的每个航路点WP指定高度和速度。
在步骤S32中,用户使用个人计算机12并给出开始以精度优先自动设置针对每个航路点WP的自身位置估计系统的处理的指令。
在步骤S33中,例如,个人计算机12从作为开始位置的航路点WP依次采取用于设置自身位置估计系统的目标,并针对目标航路点WP临时设置最高精度的自身位置估计系统。
在步骤S34中,个人计算机12确定在步骤S31中指定的高度和速度是否在可以使用当前临时设置的自身位置估计系统的有效范围内。
在步骤S34中个人计算机12确定高度和速度不在有效范围内的情况下(即,在高度和速度在有效范围之外的情况下),处理前进到步骤S35。
在步骤S35中,个人计算机12在当前临时设置的自身位置估计系统之后临时设置下一个高精度的自身位置估计系统。此后,处理返回到步骤S34,并且此后重复类似的处理。
另一方面,在步骤S34中确定高度和速度在有效范围内的情况下,处理前进到步骤S36。
在步骤S36中,个人计算机12针对目标航路点WP设置当前临时设置的自身位置估计系统。
在步骤S37中,个人计算机12确定用户是否已经针对在图6的步骤S11中指定的所有航路点WP设置了自身位置估计系统。
在步骤S37中个人计算机12确定尚未针对所有航路点WP设置自身位置估计系统的情况下,处理返回到以下一个航路点WP为目标的步骤S33。然后,此后重复类似的处理。
另一方面,在步骤S37中个人计算机12确定已经针对所有航路点WP设置了自身位置估计系统的情况下,航路点设置处理结束,并且处理前进到图6的步骤S13。
通过如上所述的航路点设置处理,任务飞行控制设备11可以以高精度优先自动设置针对每个航路点WP的自身位置估计系统,并且实现对无人机1的适当的飞行控制,从而以更高的精度飞行。
图13是描述用于以速度优先自动选择航路点WP的航路点设置处理的流程图。例如,可以执行图13中所示的航路点设置处理来代替图6中的步骤S12。
例如,在图6的步骤S11的处理之后,在步骤S41中,用户使用个人计算机12并且针对在步骤S11中指定的每个航路点WP指定高度和速度。
在步骤S42中,用户使用个人计算机12并给出开始以速度优先自动设置针对每个航路点WP的自身位置估计系统的处理的指令。
在步骤S43中,例如,个人计算机12从作为开始位置的航路点WP依次采取用于设置自身位置估计系统的目标,并针对目标航路点WP临时设置最快的自身位置估计系统。
在步骤S44中,个人计算机12确定在步骤S41中指定的高度和速度是否在可以使用当前临时设置的自身位置估计系统的有效范围内。
在步骤S44中个人计算机12确定高度和速度不在有效范围内的情况下(即,在高度和速度在有效范围之外的情况下),处理前进到步骤S45。
在步骤S45中,个人计算机12在当前临时设置的自身位置估计系统之后临时设置下一个最快的自身位置估计系统。此后,处理返回到步骤S44,并且此后重复类似的处理。
另一方面,在步骤S44中确定高度和速度在有效范围内的情况下,处理前进到步骤S46。
在步骤S46中,个人计算机12针对目标航路点WP设置当前临时设置的自身位置估计系统。
在步骤S47中,个人计算机12确定是否已经针对用户在图6的步骤S11中指定的所有航路点WP设置了自身位置估计系统。
在步骤S47中个人计算机12确定尚未针对所有航路点WP设置自身位置估计系统的情况下,处理返回到以下一个航路点WP为目标的步骤S43。然后,此后重复类似的处理。
另一方面,在步骤S47中个人计算机12确定已经针对所有航路点WP设置了自身位置估计系统的情况下,航路点设置处理结束,并且处理前进到图6的步骤S13。
通过如上所述的航路点设置处理,任务飞行控制设备11可以以速度优先针对每个航路点WP自动设置自身位置估计系统,并实现对无人机1的适当飞行控制,从而以更高的速度飞行。
图14是描述用于根据自身位置估计系统的速度和规范针对每个航路点WP自动选择高度的航路点设置处理的流程图。例如,可以执行图12中所示的航路点设置处理来代替图6中的步骤S12。
例如,在图6中的步骤S11的处理之后,在步骤S51中用户使用个人计算机12,并且针对在步骤S11中指定的每个航路点WP指定自身位置估计系统和速度。
在步骤S52中,用户使用个人计算机12并给出开始针对每个航路点WP自动设置高度的处理的指令。
在步骤S53中,例如,个人计算机12从作为开始位置的航路点WP依次采取用于设置自身位置估计系统的目标,并计算针对目标航路点WP自身位置估计系统有效的最低高度。
在步骤S54中,当使用针对目标航路点WP设置的自身位置估计系统时,个人计算机12确定在步骤S53中计算出的高度是否在有效范围内。
在步骤S54中个人计算机12确定高度不在有效范围内的情况下(即,在高度在有效范围之外的情况下),处理前进到步骤S55。
在步骤S55中,执行误差显示,从而指示不可能针对目标航路点WP指定自身位置估计系统和速度,并且航路点设置处理结束。即,在这种情况下,停止针对每个航路点WP自动选择高度的处理。
另一方面,在步骤S54中个人计算机12确定高度在有效范围内的情况下,处理前进到步骤S56。
在步骤S56中,个人计算机12针对目标航路点WP设置在步骤S53中计算出的高度。
在步骤S57中,个人计算机12确定用户是否已经针对在图6的步骤S11中指定的所有航路点WP设置了高度。
在步骤S57中个人计算机12确定尚未针对所有航路点WP设置高度的情况下,处理返回到以下一航路点WP为目标的步骤S53,并且此后重复类似的处理。
另一方面,在步骤S57中个人计算机12确定已经针对所有航路点WP设置了高度的情况下,航路点设置处理结束,并且处理前进到图6的步骤S13。
通过如上所述的航路点设置处理,任务飞行控制设备11可以针对每个航路点WP自动设置高度,并且实现对无人机1的适当的飞行控制,以便在较低的高度飞行。
<当仅使用视觉时在地图上的位置显示方法>
参考图15,将描述当仅使用视觉时在地图上的位置显示方法。
例如,为了在图4的地图显示区域42中显示的地图上显示无人机1的位置,需要将无人机1的实际位置与地图上的位置对准。提出了以下描述的两种方法作为用于执行这种对准的方法。
作为第一种方法,使用一种方法,其中如图15中从外部指向个人计算机12的虚线箭头所指示的,用户将数据输入到个人计算机12。即,用户可以将指示无人机1起飞的位置的纬度、经度和方位的数据输入到个人计算机12中以在地图上对准数据。
作为第二种方法,使用一种方法,其中如图15中从基于GPS的自身位置估计单元17指向个人计算机12的虚线箭头所指示的,数据从基于GPS的自身位置估计单元17输入到个人计算机12。即,通过将从安装在无人机1上的基于GPS的自身位置估计单元17输出的基于GPS的观察信息输入到个人计算机12,指示无人机1起飞的位置的纬度、经度和方位的数据可以在地图上对准。
<任务飞行控制设备的第二配置示例>
将参考图16至20描述任务飞行控制设备的第二配置示例。
例如,任务飞行控制设备11可以基于障碍物的位置来定制任务飞行以避开障碍物。
首先,如图16的上部所示,在不撞到障碍物的范围内,在地图显示区域42中显示的地图上指定航路点WP。然后,通过使无人机1在沿着航路点WP的路线上飞行,获取如图16中部所示的视点图像和障碍物地图。
视点图像是例如由安装在无人机1上的相机在飞行方向上捕获的图像。障碍物地图是例如基于由安装在无人机1上的视觉传感器的距离测量三维地表示障碍物的地图(占用地图),并且在图16的中间部分中图示了与视点图像对应的障碍物地图的示例。
此后,然后用户参考障碍物地图以微调航路点WP(例如,航路点WP5)的位置,如图16下部所示,在避开障碍物的同时可以将任务飞行的路线定制得更接近障碍物。
此时,例如,如图17中所示,任务飞行控制设备11可以通过将航路点WP和路线叠加在三维表示的障碍物地图上来显示它们。通过使用这种障碍物地图,可以例如通过参考障碍物的高度更精细地微调航路点WP。可替代地,可以使用利用等高线来表示作为微调目标的航路点WP的高度处的障碍物的地图。
图18是图示任务飞行控制设备的第二实施例的配置示例的框图。注意的是,在图18中所示的任务飞行控制设备11A中,相同的标号被赋予与图2的任务飞行控制设备11共同的配置,并且将省略其详细描述。
即,任务飞行控制设备11A与图2的任务飞行控制设备11的共同在于,它包括个人计算机12、行动计划创建单元13、图像传感器14、惯性测量单元15、基于视觉的自身位置估计单元16、基于GPS的自身位置估计单元17、飞行控制单元18和驱动单元19。
然后,任务飞行控制设备11A具有与图2的任务飞行控制设备11的配置不同的配置,其不同在于任务飞行控制设备11A包括障碍物地图创建单元20。
从图像传感器14向障碍物地图创建单元20供应图像数据(Image data),并且从基于视觉的自身位置估计单元16向障碍物地图创建单元20供应基于视觉的观察信息(姿势/速度)。然后,障碍物地图创建单元20基于图像数据和基于视觉的观察信息来创建如图16中所示的障碍物地图,并将该障碍物地图供应给个人计算机12。
这允许用户使用如图16和17中所示的障碍物地图来微调航路点WP,并定制任务飞行以避开障碍物。
图19图示了描述定制任务飞行的处理的流程图。
在步骤S61中,用户使用个人计算机12并在任务飞行设置画面41的地图显示区域42中显示的地图上在无人机1没有撞到障碍物的范围内指定航路点WP。
在步骤S62中,当用户指示无人机1开始飞行时,飞行控制单元18响应于该指令而执行飞行控制,并且无人机1开始用于创建障碍物地图的障碍物地图创建飞行。
在步骤S63中,在无人机1的障碍物地图创建飞行期间,障碍物地图创建单元20基于从图像传感器14供应的图像数据和从基于视觉的自身位置估计单元16供应的基于视觉的观察信息来执行距离测量。然后,障碍物地图创建单元20创建表示基于在步骤S61中指定的航路点WP的路线中存在障碍物的范围的障碍物地图。
在步骤S64中,飞行控制单元18穿过基于在步骤S61中指定的航路点WP的所有路线,并且在完成障碍物地图创建飞行之后使无人机1在开始位置处待命。
在步骤S65中,个人计算机12在显示单元上显示由障碍物地图创建单元20创建的障碍物地图。此时,如图16中所示,可以通过将障碍物区叠加在地图显示区域42中显示的地图上来显示障碍物地图,或者如图17中所示,可以显示从无人机1的视点三维表示的障碍物地图。
在步骤S66中,用户使用个人计算机12参考障碍物地图来微调航路点WP的位置。
此后,当用户完成对航路点WP的微调时,行动计划创建单元13更新无人机1的行动计划,执行与图6的步骤S14和后续步骤中所述的类似处理,并执行基于微调的航路点WP的飞行控制。
将参考图20描述障碍物的距离测量精度的可视化。
如图20的A处所示,在地图显示区域42中,根据在创建障碍物地图时的距离测量的距离测量误差,可以将包括距离测量误差的障碍物区相对于障碍物叠加显示在地图上。
而且,如图20的B处所示,在地图显示区域42中,可以将表示基于自身位置估计系统的估计精度的误差范围的误差椭圆叠加显示在显示包括距离测量误差的障碍物区的地图上,如上述的图9中那样。
例如,在使用立体相机的障碍物的距离测量中,可以计算距离测量误差。
即,通过使用距离测量深度Zc[m]、最小视差单位Δd[像素]、基线距离b[m]和焦距f[像素],可以根据以下等式(1)来计算距离测量误差ΔZc[m]。
[等式1]
例如,基于等式(1),表示到障碍物的距离的距离测量深度Zc越大,距离测量误差ΔZc就越大。
<本技术的应用>
本技术还可以应用于除了如上述使无人机1通过航路点WP的飞行控制之外的其他应用。
例如,当无人机1包括图像传感器、GPS传感器和面向下的飞行时间(ToF)传感器时,它可以应用于要使用的开关传感器。例如,ToF传感器的优点是它可以在没有纹理的地方、暗处等进行测量,并且比图像传感器具有更高的精度,但同时其缺点是只能测量自发光近红外光可以到达的距离,并且由于自发光而消耗较高的功率。
因此,当无人机1处于着陆模式时,面向下的ToF传感器被打开,并且由ToF传感器测量附近的形状,以便搜索可以着陆的平坦地方。此时,由于ToF传感器即使在纹理很少的地方也可以测量形状,因此可以比图像传感器更有效地搜索平坦的地方。
另一方面,当无人机1起飞时或在任务飞行期间,面向下的ToF传感器关闭。即,因为由于ToF传感器的特点而仅能够测量距ToF传感器的短距离,所以无人机1可以通过关闭ToF传感器来抑制功耗。
此外,本技术可以应用于例如执行自动行驶的机器人真空吸尘器。
例如,机器人真空吸尘器包括图像传感器和ToF传感器,并且清洁从电源端口开始。在这种情况下,当机器人真空吸尘器处于执行清洁的清洁模式时,开启ToF传感器,并且机器人真空吸尘器利用ToF传感器和图像传感器进行测量,以准确地搜索自身位置和附近的障碍物。同时,机器人真空吸尘器创建从电源端口起的地图。
另一方面,当机器人真空吸尘器的电压下降并且进入电源端口反馈模式时,关闭ToF传感器。在这种情况下,由于机器人真空吸尘器保持从电源端口起的地图,因此不需要利用ToF传感器进行附加的障碍物检测,并且能够仅通过图像传感器检测自身位置并返回到电源端口。此外,机器人真空吸尘器可以通过关闭ToF传感器来减少功耗。然后,在机器人真空吸尘器已经移至电源端口附近之后,开启ToF传感器,以与电源端口高精度地对准。
注意的是,对于根据本技术中的任务指定的传感器,除了ToF传感器以外的有源传感器(例如,激光雷达、声纳等),可以以与用于ToF传感器类似的方式来应用本技术。此外,除了机器人真空吸尘器以外,只要是自动行驶的机器人(例如工厂转移机器人等),就也可以应用本技术。
而且,除了无人机1的飞行控制之外,本技术还可以应用于例如自动驾驶车辆的驾驶控制。例如,在自动驾驶车辆在一般道路上行驶时使用基于GPS的自身位置估计单元17,而在自动驾驶车辆在停车场中停车时可以采用使用基于视觉的自身位置估计单元16的配置,或者可以采用使用利用有源传感器(诸如,各种雷达和ToF传感器)的自身位置估计单元的配置。
<计算机的配置示例>
接下来,上述一系列处理(信息处理方法)可以由硬件执行或可以由软件执行。在由软件执行一系列处理的情况下,构成该软件的程序被安装在通用计算机等中。
图21是图示其上安装有用于执行上述一系列处理的程序的计算机的一个实施例的配置示例的框图。
可以将程序预先记录在作为内置在计算机中的记录介质的硬盘105或ROM 103上。
可替代地,可以将程序存储(记录)在由驱动器109驱动的可移除记录介质111中。这种可移除记录介质111可以被提供为所谓的软件包。在此,可移除记录介质111的示例包括例如软盘、光盘只读存储器(CD-ROM)、磁光(MO)盘、数字多功能盘(DVD)、磁盘、半导体存储器等。
注意的是,除了如上所述将程序从可移除记录介质111安装在计算机上之外,还可以经由通信网络或广播网络将程序下载到计算机并安装在内置硬盘105上。即,例如,可以经由用于数字卫星广播的人造卫星将程序从下载站点无线传送到计算机,或者可以经由诸如局域网(LAN)或互联网之类的网络通过电线将程序传送到计算机。
计算机具有内置的中央处理单元(CPU)102,并且输入-输出接口110经由总线101连接到CPU 102。
如果用户通过操作输入单元107等经由输入-输出接口110输入命令,那么CPU 102相应地执行存储在只读存储器(ROM)103中的程序。可替代地,CPU 102将存储在硬盘105中的程序加载到随机存取存储器(RAM)104中并执行该程序。
因此,CPU 102执行根据上述流程图的处理或根据上述框图的配置执行的处理。然后,CPU 102如果需要的话例如经由输入-输出接口110从输出单元106输出其处理结果或者从通信单元108发送处理结果,并且还使处理结果记录在硬盘105上等。
注意的是,输入单元107包括键盘、鼠标、麦克风等。此外,输出单元106包括液晶显示器(LCD)、扬声器等。
在此,在本说明书中,由计算机根据程序执行的处理不必一定按照流程图中描述的顺序按时间序列执行。即,由计算机根据程序执行的处理还包括并行或单独执行的处理(例如,并行处理或对象处理)。
此外,程序可以由一个计算机(处理器)处理,或者可以由多个计算机以分布式方式处理。而且,程序可以被传送到远程计算机并被执行。
而且,在本描述中,系统是指多个组件(设备、模块(部分)等)的集合,并且所有组件是否在相同壳体中并不重要。因此,容纳在单独的壳体中并且经由网络连接的多个设备和多个模块容纳在一个壳体中的单个设备都是系统。
另外,例如,被描述为一个设备(或处理单元)的配置可以被划分并被配置为多个设备(或处理单元)。相反,以上描述为多个设备(或处理单元)的配置可以被组合并被配置为一个设备(或处理单元)。此外,当然可以将除上述配置以外的配置添加到每个设备(或每个处理单元)的配置。而且,如果整个系统的配置和操作基本相同,那么特定设备(或处理单元)的配置的一部分可以包括在其他设备(或其他处理单元)的配置中。
此外,例如,本技术可以采用由多个设备经由网络以共享和协作的方式处理一个功能的云计算配置。
此外,例如,上述程序可以由任意设备执行。在那种情况下,如果设备具有需要的功能(功能块等)并可以获取需要的信息就足够了。
此外,例如,上述流程图中描述的相应步骤可以由一个设备执行或者可以由多个设备以共享的方式执行。而且,在一个步骤中包括多个处理的情况下,除了由一个设备执行之外,一个步骤中包括的多个处理还可以由多个设备以共享的方式执行。换句话说,一个步骤中包括的多个处理可以作为多个步骤的处理被执行。相反,描述为多个步骤的处理可以作为一个步骤被集中地执行。
注意的是,可以配置由计算机执行的程序,使得描述程序的步骤中的处理根据本说描述中描述的顺序按时间顺序执行,或者可以并行执行或在需要的定时(诸如进行呼叫时)单独执行。即,只要不发生矛盾,就可以以与上述顺序不同的顺序执行相应步骤中的处理。而且,描述这个程序的步骤中的处理可以与其他程序中的处理并行执行,或者可以与其他程序中的处理组合执行。
注意的是,只要不发生矛盾,在本说明书中已经描述的多种本技术就可以各自独立地实施为单个单元。当然,也可以组合使用和实施任何多种本技术。例如,任何实施例中描述的本技术的部分或全部可以与其他实施例中描述的本技术的部分或全部结合实施。此外,可以通过与上面未描述的其他技术一起使用来实施任何上述本技术的部分或全部。
<配置的组合的示例>
注意的是,本技术可以具有如下配置。
(1)
一种行动控制设备,包括:
状态指定单元,所述状态指定单元基于指标从估计精度不同的多个自身位置估计单元中选择用于估计移动物体的位置的自身位置估计单元,并且求出所述移动物体的状态;以及
行动控制单元,所述行动控制单元基于所述移动物体的状态根据预先创建的行动计划来控制所述移动物体的行动。
(2)根据上述(1)所述的行动控制设备,其中
所述指标是从全球定位系统(GPS)获取的位置信息或区域信息。
(3)
根据上述(1)或(2)所述的行动控制设备,其中
所述状态指定单元包括:
最近邻指标选择单元,所述最近邻指标选择单元从在所述移动物体行动时的指标当中,选择伴随所述移动物体的行动成为最近邻的所述指标;
观察信息选择单元,所述观察信息选择单元从作为由所述多个自身位置估计单元中的每个对所述移动物体的位置估计结果而输出的多条观察信息当中,选择从基于由所述最近邻指标选择单元选择的指标而指定的自身位置估计单元中输出的所述观察信息;以及
状态更新单元,所述状态更新单元基于由所述观察信息选择单元选择的观察信息来求出所述移动物体的最新状态。
(4)
根据上述(1)至(3)中的任何一项所述的行动控制设备,还包括
指定单元,所述指定单元针对每个所述指标来指定由所述状态指定单元选择的自身位置估计单元。
(5)
根据上述(4)所述的行动控制设备,其中
所述指定单元根据当所述自身位置估计单元估计预定的所述指标的所述移动物体的自身位置时的优先事项,指定针对每个预定的所述指标的所述自身位置估计单元。
(6)
根据上述(5)所述的行动控制设备,其中
在所述优先事项是估计精度的情况下,所述指定单元指定能够在所述自身位置估计单元能够有效发挥作用的高度和速度的有效范围的范围内获得最高估计精度的所述自身位置估计单元。
(7)
根据上述(5)所述的行动控制设备,其中
在所述优先事项是移动速度的情况下,所述指定单元指定能够在所述自身位置估计单元能够有效发挥作用的高度和速度的有效范围内获得最快移动速度的所述自身位置估计单元。
(8)
根据上述(4)所述的行动控制设备,其中
在指定预定的所述指标的所述自身位置估计单元和所述移动物体的速度的情况下,所述指定单元针对每个预定的所述指标来指定所指定的自身位置估计单元有效发挥作用的最低高度。
(9)
根据上述(4)所述的行动控制设备,其中
在所述指定单元中,由给出关于创建所述行动计划的指令的用户指定多个所述指标,并指定针对每个所述指标的所述自身位置估计单元。
(10)
根据上述(9)所述的行动控制设备,还包括
显示单元,所述显示单元可视化由所述指定单元针对每个所述指标指定的自身位置估计单元,并且可视化并显示根据所述指标的每条路线所使用的所述自身位置估计单元。
(11)
根据上述(10)所述的行动控制设备,其中
基于被指定预定的自身位置估计单元的所述指标,所述显示单元显示该自身位置估计单元能够有效发挥作用的所述移动物体的高度和速度的有效范围,并且可视化并显示在所述有效范围之外是不可指定的。
(12)
根据上述(10)所述的行动控制设备,其中
所述显示单元沿着每条所述路线可视化并显示在所述路线中使用的所述自身位置估计单元的估计精度。
(13)
根据上述(10)所述的行动控制设备,其中
响应于所述移动物体的高度和速度的指定,所述显示单元可视化并显示不能够在所述高度和所述速度下有效发挥作用的所述自位置估计单元是不可指定的。
(14)
根据上述(10)所述的行动控制设备,还包括:
障碍物地图创建单元,所述障碍物地图创建单元基于由所述移动物体在根据所述行动计划移动的同时执行的距离测量来创建表示所述路线附近存在障碍物的范围的障碍物地图,
其中所述显示单元通过在表示所述移动物体移动的区域的地图上叠加来显示所述障碍物地图,以及
在所述指定单元中,所述地图上的所述指标的位置由所述用户微调和重新指定。
(15)
根据上述(14)所述的行动控制设备,其中
所述显示单元根据当创建所述障碍物地图时的所述距离测量的距离测量误差在所述地图上叠加显示对于存在所述障碍物的所述范围的误差范围。
(16)
根据上述(15)所述的行动控制设备,其中
所述显示单元在所述地图上叠加显示表示基于所述自身位置估计单元的估计精度的误差范围的误差椭圆。
(17)
一种行动控制方法,包括:由控制移动物体的行动的行动控制设备,
基于指标从估计精度不同的多个自身位置估计单元中选择用于估计所述移动物体的位置的自身位置估计单元,并且求出所述移动物体的状态;以及
基于所述移动物体的状态根据预先创建的行动计划来控制所述移动物体的行动。
(18)
一种用于使控制移动物体的行动的行动控制设备的计算机执行信息处理的程序,所述程序包括:
基于指标从估计精度不同的多个自身位置估计单元中选择用于估计所述移动物体的位置的自身位置估计单元,并且求出所述移动物体的状态;以及
基于所述移动物体的状态根据预先创建的行动计划来控制所述移动物体的行动。
注意的是,本实施例不限于上述实施例,并且可以在不脱离本公开的要旨的情况下进行各种修改。此外,本描述中描述的效果仅仅是示例并且不受限制,并且可以提供其他效果。
标号列表
11 任务飞行控制设备
12 个人计算机
13 行动计划创建单元
14 图像传感器
15 惯性测量单元
16 基于视觉的自身位置估计单元
17 基于GPS的自身位置估计单元
18 飞行控制单元
19 驱动单元
20 障碍物地图创建单元
21 EKF处理单元
22 导航器
23 驱动控制单元
31 EKF状态预测单元
32 最近邻航路点选择单元
33 观察信息选择单元
34 EKF状态更新单元
41 任务飞行设置画面
42 地图显示区域
43 指令GUI显示区域
Claims (17)
1.一种行动控制设备,包括:
状态指定单元,所述状态指定单元基于指标从估计精度不同的多个自身位置估计单元中选择用于估计移动物体的位置的自身位置估计单元,并且求出所述移动物体的状态;以及
行动控制单元,所述行动控制单元基于所述移动物体的状态根据预先创建的行动计划来控制所述移动物体的行动,
其中,所述状态指定单元包括:
最近邻指标选择单元,所述最近邻指标选择单元从在所述移动物体行动时的指标当中,选择伴随所述移动物体的行动成为最近邻的指标;
观察信息选择单元,所述观察信息选择单元从作为由所述多个自身位置估计单元中的每个对所述移动物体的位置估计结果而输出的多条观察信息当中,选择从基于由所述最近邻指标选择单元选择的指标而指定的自身位置估计单元中输出的观察信息;以及
状态更新单元,所述状态更新单元基于由所述观察信息选择单元选择的观察信息来求出所述移动物体的最新状态。
2.根据权利要求1所述的行动控制设备,其中
所述指标是从全球定位系统(GPS)获取的位置信息或区域信息。
3.根据权利要求1所述的行动控制设备,还包括
指定单元,所述指定单元针对每个所述指标来指定由所述状态指定单元选择的自身位置估计单元。
4.根据权利要求3所述的行动控制设备,其中
所述指定单元根据当所述自身位置估计单元估计预定的所述指标的所述移动物体的自身位置时的优先事项,指定针对每个预定的所述指标的所述自身位置估计单元。
5.根据权利要求4所述的行动控制设备,其中
在所述优先事项是估计精度的情况下,所述指定单元指定能够在所述自身位置估计单元能够有效发挥作用的高度和速度的有效范围的范围内获得最高估计精度的所述自身位置估计单元。
6.根据权利要求4所述的行动控制设备,其中
在所述优先事项是移动速度的情况下,所述指定单元指定能够在所述自身位置估计单元能够有效发挥作用的高度和速度的有效范围内获得最快移动速度的所述自身位置估计单元。
7.根据权利要求3所述的行动控制设备,其中
在指定预定的所述指标的所述自身位置估计单元和所述移动物体的速度的情况下,所述指定单元针对每个预定的所述指标来指定所指定的自身位置估计单元有效发挥作用的最低高度。
8.根据权利要求3所述的行动控制设备,其中
在所述指定单元中,由给出关于创建所述行动计划的指令的用户指定多个所述指标,并指定针对每个所述指标的所述自身位置估计单元。
9.根据权利要求8所述的行动控制设备,还包括
显示单元,所述显示单元可视化由所述指定单元针对每个所述指标指定的自身位置估计单元,并且可视化并显示根据所述指标的每条路线所使用的所述自身位置估计单元。
10.根据权利要求9所述的行动控制设备,其中
基于被指定预定的自身位置估计单元的所述指标,所述显示单元显示该自身位置估计单元能够有效发挥作用的所述移动物体的高度和速度的有效范围,并且可视化并显示在所述有效范围之外是不可指定的。
11.根据权利要求9所述的行动控制设备,其中
所述显示单元沿着每条所述路线可视化并显示在所述路线中使用的所述自身位置估计单元的估计精度。
12.根据权利要求9所述的行动控制设备,其中
响应于所述移动物体的高度和速度的指定,所述显示单元可视化并显示不能够在所述高度和所述速度下有效发挥作用的所述自身位置估计单元是不可指定的。
13.根据权利要求9所述的行动控制设备,还包括
障碍物地图创建单元,所述障碍物地图创建单元基于由所述移动物体在根据所述行动计划移动的同时执行的距离测量来创建表示所述路线附近存在障碍物的范围的障碍物地图,
其中所述显示单元通过在表示所述移动物体移动的区域的地图上叠加来显示所述障碍物地图,以及
在所述指定单元中,所述地图上的所述指标的位置由所述用户微调和重新指定。
14.根据权利要求13所述的行动控制设备,其中
所述显示单元根据当创建所述障碍物地图时的所述距离测量的距离测量误差在所述地图上叠加显示对于存在所述障碍物的所述范围的误差范围。
15.根据权利要求14所述的行动控制设备,其中
所述显示单元在所述地图上叠加显示表示基于所述自身位置估计单元的估计精度的误差范围的误差椭圆。
16.一种行动控制方法,包括:由控制移动物体的行动的行动控制设备,
基于指标从估计精度不同的多个自身位置估计单元中选择用于估计所述移动物体的位置的自身位置估计单元,并且求出所述移动物体的状态;以及
基于所述移动物体的状态根据预先创建的行动计划来控制所述移动物体的行动,
其中,
从在所述移动物体行动时的指标当中,选择伴随所述移动物体的行动成为最近邻的指标;
从作为由所述多个自身位置估计单元中的每个对所述移动物体的位置估计结果而输出的多条观察信息当中,选择从基于由最近邻指标选择单元选择的指标而指定的自身位置估计单元中输出的观察信息;以及
基于由观察信息选择单元选择的观察信息来求出所述移动物体的最新状态。
17.一种计算机存储介质,其上存储有用于使控制移动物体的行动的行动控制设备的计算机执行信息处理的程序,所述程序包括:
基于指标从估计精度不同的多个自身位置估计单元中选择用于估计所述移动物体的位置的自身位置估计单元,并且求出所述移动物体的状态;以及
基于所述移动物体的状态根据预先创建的行动计划来控制所述移动物体的行动,其中,
从在所述移动物体行动时的指标当中,选择伴随所述移动物体的行动成为最近邻的指标;
从作为由所述多个自身位置估计单元中的每个对所述移动物体的位置估计结果而输出的多条观察信息当中,选择从基于由最近邻指标选择单元选择的指标而指定的自身位置估计单元中输出的观察信息;以及
基于由观察信息选择单元选择的观察信息来求出所述移动物体的最新状态。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019040139 | 2019-03-06 | ||
JP2019-040139 | 2019-03-06 | ||
PCT/JP2020/006992 WO2020179491A1 (ja) | 2019-03-06 | 2020-02-21 | 行動制御装置および行動制御方法、並びにプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113498498A CN113498498A (zh) | 2021-10-12 |
CN113498498B true CN113498498B (zh) | 2024-04-19 |
Family
ID=72337924
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202080017612.5A Active CN113498498B (zh) | 2019-03-06 | 2020-02-21 | 行动控制设备和行动控制方法、以及程序 |
Country Status (4)
Country | Link |
---|---|
US (1) | US12073732B2 (zh) |
JP (1) | JP7552581B2 (zh) |
CN (1) | CN113498498B (zh) |
WO (1) | WO2020179491A1 (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7501535B2 (ja) * | 2019-07-19 | 2024-06-18 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、情報処理プログラム |
US20210287556A1 (en) * | 2020-03-13 | 2021-09-16 | Electronics And Telecommunications Research Institute | Method and apparatus for generating optimal path for an unmanned aerial vehicle |
WO2022036284A1 (en) * | 2020-08-13 | 2022-02-17 | Invensense, Inc. | Method and system for positioning using optical sensor and motion sensors |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103238041A (zh) * | 2010-11-12 | 2013-08-07 | 内克斯特纳夫有限公司 | 广域定位系统 |
CN104603821A (zh) * | 2013-08-30 | 2015-05-06 | 株式会社小松制作所 | 矿山机械的管理系统以及矿山机械的管理方法 |
JP2015152991A (ja) * | 2014-02-12 | 2015-08-24 | 株式会社デンソーアイティーラボラトリ | 自己位置推定装置及び自己位置推定方法 |
CN106061836A (zh) * | 2014-04-25 | 2016-10-26 | 索尼公司 | 控制装置、成像装置、控制方法、成像方法和计算机程序 |
CN106796112A (zh) * | 2014-10-17 | 2017-05-31 | 索尼公司 | 检测车辆控制设备、控制方法和计算机程序 |
CN107290765A (zh) * | 2017-07-13 | 2017-10-24 | 任勇 | 水下潜航器的协作定位方法和系统 |
CN107289948A (zh) * | 2017-07-24 | 2017-10-24 | 成都通甲优博科技有限责任公司 | 一种基于多传感器融合的无人机导航系统及方法 |
CN108137074A (zh) * | 2015-09-04 | 2018-06-08 | 看门人系统公司 | 轮式车的运动估计 |
CN108885461A (zh) * | 2016-12-01 | 2018-11-23 | 深圳市大疆创新科技有限公司 | 用于静止对象和运动对象的无人机飞行限制的系统和方法 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030008619A1 (en) * | 2001-07-03 | 2003-01-09 | Werner Raymond J. | Location-based information service for identifying areas with degraded radio signal strength |
US6876906B1 (en) * | 2003-06-06 | 2005-04-05 | Rockwell Collins | Graphical symbology for depicting traffic position, navigation uncertainty, and data quality on aircraft displays |
JP4694582B2 (ja) * | 2008-01-31 | 2011-06-08 | 株式会社デンソー | ハイブリッド車両の駆動制御装置 |
US9235212B2 (en) | 2012-05-01 | 2016-01-12 | 5D Robotics, Inc. | Conflict resolution based on object behavioral determination and collaborative relative positioning |
JP5982190B2 (ja) | 2012-06-20 | 2016-08-31 | クラリオン株式会社 | 車両位置検出装置および車両位置検出方法 |
US9121711B2 (en) * | 2013-03-15 | 2015-09-01 | Csr Technology Inc. | Environmental awareness for improved power consumption and responsiveness in positioning devices |
US10417469B2 (en) * | 2016-05-07 | 2019-09-17 | Morgan E. Davidson | Navigation using self-describing fiducials |
WO2018020659A1 (ja) | 2016-07-29 | 2018-02-01 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッド | 移動体、移動体制御方法、移動体制御システム、及び移動体制御プログラム |
JP6778063B2 (ja) | 2016-09-07 | 2020-10-28 | 株式会社Soken | 運転支援装置、運転支援方法 |
JP6834648B2 (ja) | 2017-03-22 | 2021-02-24 | 日本電気株式会社 | 画像投稿サービスシステム |
KR20180107642A (ko) | 2017-03-22 | 2018-10-02 | 삼성전자주식회사 | 외부 객체의 움직임에 기반하여 이동 위치를 결정하는 방법 및 이를 구현한 전자 장치 |
US10599161B2 (en) * | 2017-08-08 | 2020-03-24 | Skydio, Inc. | Image space motion planning of an autonomous vehicle |
-
2020
- 2020-02-21 WO PCT/JP2020/006992 patent/WO2020179491A1/ja active Application Filing
- 2020-02-21 JP JP2021503966A patent/JP7552581B2/ja active Active
- 2020-02-21 US US17/434,014 patent/US12073732B2/en active Active
- 2020-02-21 CN CN202080017612.5A patent/CN113498498B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103238041A (zh) * | 2010-11-12 | 2013-08-07 | 内克斯特纳夫有限公司 | 广域定位系统 |
CN104603821A (zh) * | 2013-08-30 | 2015-05-06 | 株式会社小松制作所 | 矿山机械的管理系统以及矿山机械的管理方法 |
JP2015152991A (ja) * | 2014-02-12 | 2015-08-24 | 株式会社デンソーアイティーラボラトリ | 自己位置推定装置及び自己位置推定方法 |
CN106061836A (zh) * | 2014-04-25 | 2016-10-26 | 索尼公司 | 控制装置、成像装置、控制方法、成像方法和计算机程序 |
CN106796112A (zh) * | 2014-10-17 | 2017-05-31 | 索尼公司 | 检测车辆控制设备、控制方法和计算机程序 |
CN108137074A (zh) * | 2015-09-04 | 2018-06-08 | 看门人系统公司 | 轮式车的运动估计 |
CN108885461A (zh) * | 2016-12-01 | 2018-11-23 | 深圳市大疆创新科技有限公司 | 用于静止对象和运动对象的无人机飞行限制的系统和方法 |
CN107290765A (zh) * | 2017-07-13 | 2017-10-24 | 任勇 | 水下潜航器的协作定位方法和系统 |
CN107289948A (zh) * | 2017-07-24 | 2017-10-24 | 成都通甲优博科技有限责任公司 | 一种基于多传感器融合的无人机导航系统及方法 |
Non-Patent Citations (1)
Title |
---|
绝对定位机制下目标位置估计辅助的群机器人搜索;昝云龙;《模式识别与人工智能》;第26卷(第4期);321-327 * |
Also Published As
Publication number | Publication date |
---|---|
JPWO2020179491A1 (zh) | 2020-09-10 |
US12073732B2 (en) | 2024-08-27 |
US20220157179A1 (en) | 2022-05-19 |
JP7552581B2 (ja) | 2024-09-18 |
WO2020179491A1 (ja) | 2020-09-10 |
CN113498498A (zh) | 2021-10-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113498498B (zh) | 行动控制设备和行动控制方法、以及程序 | |
EP2895819B1 (en) | Sensor fusion | |
EP3400494B1 (en) | Flight path determination | |
CN110268356B (zh) | 前导无人机的系统 | |
EP3619584B1 (en) | Underwater leading drone system | |
Nieuwenhuisen et al. | Obstacle detection and navigation planning for autonomous micro aerial vehicles | |
Chudoba et al. | Exploration and mapping technique suited for visual-features based localization of mavs | |
US10983535B2 (en) | System and method for positioning a movable object | |
WO2018214978A1 (zh) | 定位装置及方法以及自动行走设备 | |
WO2018204776A1 (en) | Leading drone method | |
JP2017068298A (ja) | 自律飛行移動体、ターゲット追跡方法 | |
JP2018173934A (ja) | ビークルが追うターゲットに隣接したフライトパターンを確立するシステム及び方法 | |
WO2019167199A1 (ja) | 制御装置、移動体及びプログラム | |
US20210208608A1 (en) | Control method, control apparatus, control terminal for unmanned aerial vehicle | |
CN114521248A (zh) | 信息处理设备、信息处理方法和程序 | |
JPWO2019008669A1 (ja) | 飛行体制御装置、飛行体制御システムおよび飛行体制御方法 | |
US20220221857A1 (en) | Information processing apparatus, information processing method, program, and information processing system | |
US20230142394A1 (en) | Contour scanning with an unmanned aerial vehicle | |
Argush et al. | Explorer51–indoor mapping, discovery, and navigation for an autonomous mobile robot | |
Kurdi et al. | Navigation of mobile robot with cooperation of quadcopter | |
CN110892353A (zh) | 控制方法、控制装置、无人飞行器的控制终端 | |
WO2023060461A1 (en) | Selecting a frontier goal for autonomous map building within a space | |
WO2021140916A1 (ja) | 移動体、情報処理装置、情報処理方法、及びプログラム | |
EP4354086A1 (en) | Methods and systems for providing contextual display modes for a vertical takeoff and landing vehicle | |
WO2023086078A1 (en) | Contour scanning with an unmanned aerial vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |