CN107209514B - 传感器数据的选择性处理 - Google Patents
传感器数据的选择性处理 Download PDFInfo
- Publication number
- CN107209514B CN107209514B CN201480084437.6A CN201480084437A CN107209514B CN 107209514 B CN107209514 B CN 107209514B CN 201480084437 A CN201480084437 A CN 201480084437A CN 107209514 B CN107209514 B CN 107209514B
- Authority
- CN
- China
- Prior art keywords
- vehicle
- imaging devices
- images
- image
- image quality
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000012545 processing Methods 0.000 title abstract description 73
- 238000000034 method Methods 0.000 claims abstract description 133
- 238000003384 imaging method Methods 0.000 claims description 435
- 230000033001 locomotion Effects 0.000 claims description 111
- 238000001514 detection method Methods 0.000 claims description 45
- 230000001133 acceleration Effects 0.000 claims description 33
- 238000011156 evaluation Methods 0.000 claims description 15
- 230000000694 effects Effects 0.000 claims description 14
- 230000011218 segmentation Effects 0.000 claims description 12
- 230000006854 communication Effects 0.000 description 37
- 238000004891 communication Methods 0.000 description 37
- 230000007613 environmental effect Effects 0.000 description 28
- 230000007246 mechanism Effects 0.000 description 22
- 230000003287 optical effect Effects 0.000 description 17
- 230000008859 change Effects 0.000 description 8
- 230000008569 process Effects 0.000 description 7
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 7
- 241001465754 Metazoa Species 0.000 description 6
- 230000004888 barrier function Effects 0.000 description 6
- 238000010168 coupling process Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 238000013519 translation Methods 0.000 description 6
- 230000009286 beneficial effect Effects 0.000 description 5
- 230000008878 coupling Effects 0.000 description 5
- 238000005859 coupling reaction Methods 0.000 description 5
- RZVHIXYEVGDQDX-UHFFFAOYSA-N 9,10-anthraquinone Chemical compound C1=CC=C2C(=O)C3=CC=CC=C3C(=O)C2=C1 RZVHIXYEVGDQDX-UHFFFAOYSA-N 0.000 description 3
- 241000271566 Aves Species 0.000 description 3
- 241000282412 Homo Species 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 230000001934 delay Effects 0.000 description 3
- 238000005265 energy consumption Methods 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 241000196324 Embryophyta Species 0.000 description 2
- 230000002411 adverse Effects 0.000 description 2
- 230000000712 assembly Effects 0.000 description 2
- 238000000429 assembly Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000005670 electromagnetic radiation Effects 0.000 description 2
- 230000001747 exhibiting effect Effects 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 238000001303 quality assessment method Methods 0.000 description 2
- 238000013441 quality evaluation Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 239000000126 substance Substances 0.000 description 2
- 238000002604 ultrasonography Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 241000283690 Bos taurus Species 0.000 description 1
- 241000282465 Canis Species 0.000 description 1
- 241001125840 Coryphaenidae Species 0.000 description 1
- 241000283073 Equus caballus Species 0.000 description 1
- 241000282324 Felis Species 0.000 description 1
- 241000238631 Hexapoda Species 0.000 description 1
- 241000283984 Rodentia Species 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 239000000853 adhesive Substances 0.000 description 1
- 230000001070 adhesive effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000007175 bidirectional communication Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000003331 infrared imaging Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 230000006386 memory function Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 239000000523 sample Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000000779 smoke Substances 0.000 description 1
- 238000002187 spin decoupling employing ultra-broadband-inversion sequences generated via simulated annealing Methods 0.000 description 1
- 230000000087 stabilizing effect Effects 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000003746 surface roughness Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000005303 weighing Methods 0.000 description 1
- 238000003466 welding Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/04—Interpretation of pictures
- G01C11/30—Interpretation of pictures by triangulation
- G01C11/34—Aerial triangulation
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/10—Simultaneous control of position or course in three dimensions
- G05D1/101—Simultaneous control of position or course in three dimensions specially adapted for aircraft
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/10—Simultaneous control of position or course in three dimensions
- G05D1/101—Simultaneous control of position or course in three dimensions specially adapted for aircraft
- G05D1/106—Change initiated in response to external conditions, e.g. avoidance of elevated terrain or of no-fly zones
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/183—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
- H04N7/185—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source from a mobile camera, e.g. for remote control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U10/00—Type of UAV
- B64U10/10—Rotorcrafts
- B64U10/13—Flying platforms
- B64U10/14—Flying platforms with four distinct rotor axes, e.g. quadcopters
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2101/00—UAVs specially adapted for particular uses or applications
- B64U2101/15—UAVs specially adapted for particular uses or applications for conventional or electronic warfare
- B64U2101/19—UAVs specially adapted for particular uses or applications for conventional or electronic warfare for use as targets or decoys
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2101/00—UAVs specially adapted for particular uses or applications
- B64U2101/30—UAVs specially adapted for particular uses or applications for imaging, photography or videography
- B64U2101/31—UAVs specially adapted for particular uses or applications for imaging, photography or videography for surveillance
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2201/00—UAVs characterised by their flight controls
- B64U2201/10—UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2201/00—UAVs characterised by their flight controls
- B64U2201/20—Remote controls
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U30/00—Means for producing lift; Empennages; Arrangements thereof
- B64U30/20—Rotors; Rotor supports
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
- G06V10/248—Aligning, centring, orientation detection or correction of the image by interactive preprocessing or interactive shape modelling, e.g. feature points assigned by a user
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/698—Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/76—Circuitry for compensating brightness variation in the scene by influencing the image signals
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Automation & Control Theory (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Signal Processing (AREA)
- Aviation & Aerospace Engineering (AREA)
- Astronomy & Astrophysics (AREA)
- Traffic Control Systems (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Image Analysis (AREA)
- Studio Devices (AREA)
- Navigation (AREA)
- Image Processing (AREA)
- Testing Or Calibration Of Command Recording Devices (AREA)
Abstract
本发明提供了用于在环境内导航载运工具的系统和方法。在一方面,一种方法包括:(a)借助于处理器,基于一个或多个预定准则来选择多个传感器的子集以用于在所述环境内导航所述载运工具,其中所述多个传感器布置在所述载运工具上以使得所述多个传感器中的每个传感器被配置用于从不同的视野获取传感器数据;(b)借助于所述处理器,处理来自所述选定的一个或多个传感器的所述传感器数据,以便生成用于在所述环境内导航所述载运工具的导航信息;以及(c)借助于所述处理器,基于所述导航信息来输出用于控制所述载运工具的信号。
Description
背景技术
诸如无人飞行器(UAV)等无人载运工具可用于在众多环境下执行监视、侦查和勘探任务以供军事和民用应用。UAV可由远程用户手动控制,或者可以按半自主要或全自主要的方式操作。这样的UAV可以包括被配置用于从周围环境收集传感器数据的传感器,以及用以从所收集的数据计算和确定用于对UAV进行导航的信息的处理器。
在一些情况下,用于评估导航信息的现有方法可能不甚理想。例如,从单一传感器搜集的传感器数据可能具有差质量。在另一方面,如果处理来自多个传感器的传感器数据以评估或确定状态信息,则系统的处理延迟可能会增大。差质量的传感器数据或增大的处理延迟可能对UAV功能产生不利的影响。
发明内容
本文公开的实施方式提供了用于评估诸如UAV等载运工具在环境内的状态信息的改进的方法。在许多实施方式中,UAV包括多个成像装置,用于收集关于周围环境的信息。可以处理从所述成像装置中的每个获取的数据,以例如确定每个成像装置在一时间间隔内的图像数据的质量。基于所述图像数据的质量,可以选择所述成像装置的子集的图像数据来进行处理,以便评估所述UAV的状态信息。有利地,本文描述的选择性处理方法提供了经评估的状态信息的提高的准确度同时节省了计算资源,并且可以用于改善UAV在多样化的环境类型和操作条件下的功能性。
因此,在一个方面,提供了一种导航系统。所述系统包括载运工具,其包括多个成像装置,所述多个成像装置每个被配置用于捕捉多个图像;以及一个或多个处理器,其可操作地耦合至所述多个成像装置并且被单独地或共同地配置用于:(a)计算来自每个成像装置的所述多个图像中的每个图像中的特征点数目;(b)基于所述特征点数目,选择所述多个成像装置中的至少一个;以及(c)使用来自选定的一个或多个成像装置的多个图像来评估所述载运工具的状态信息。
在一些实施方式中,所述载运工具可以是无人飞行器。所述无人飞行器可以不超过10kg重。所述无人飞行器的最大尺寸可以不超过1.5m。所述无人飞行器可被配置用于在不超过400m的高度上飞行。可选地,所述无人飞行器可被配置用于检测限制飞行区域的存在,并且不在该限制飞行区域的预定距离内飞行。所述限制飞行区域可以是机场。所述无人飞行器可以是多旋翼航空器。
在一些实施方式中,所述载运工具可以包括一个或多个动力单元,所述一个或多个动力单元被配置用于实现所述载运工具的移动。所述一个或多个动力单元可以包括一个或多个旋翼,所述一个或多个旋翼被配置用于向所述载运工具提供升力。
在一些实施方式中,所述多个成像装置布置在所述载运工具上,以使得所述多个成像装置中的每个成像装置被配置用于从不同的视野捕捉所述多个图像。在一些实施方式中,所述多个成像装置可以包括至少三个成像装置。备选地,所述多个成像装置可以包括至少四个成像装置。所述多个成像装置可以每个相对于所述载运工具定向在不同的方向上。所述不同的方向可以是正交方向。备选地或组合地,所述不同的方向可以包括至少四个不同的方向。所述不同的方向中的至少一个可以实质上沿着所述载运工具的运动方向。所述多个成像装置可以位于以下位置中的三个或更多个:所述载运工具的前侧、后侧、左侧、右侧、上侧或下侧。
在一些实施方式中,所述多个图像可以包括在预定时间间隔内捕捉的多个连续图像帧。所述预定时间间隔可以是在从约0.02秒到约0.1秒的范围内。
在一些实施方式中,每个图像中的特征点数目可以指示出所述图像的显著度。可以使用角点检测算法计算每个图像中的特征点数目。所述角点检测算法可以是加速分割检测特征(features from accelerated segment test,FAST)算法。
在一些实施方式中,步骤(b)可以包括评估所述特征点数目是否超过预定阈值。
在一些实施方式中,所述状态信息可以包括所述载运工具的位置、姿态、速度或加速度中的至少一个。所述姿态可以包括所述载运工具的横滚定向、俯仰定向或偏航定向中的至少一个。
在一些实施方式中,所述一个或多个处理器还可被配置用于:(d)基于所述状态信息,输出用于实现所述载运工具的移动的控制信号。
在一些实施方式中,可以在所述载运工具的操作期间重复步骤(a)-步骤(c)。可以约每0.02秒一次至约每0.1秒一次地重复步骤(a)-步骤(c)。
在另一方面,提供了一种用于评估附接至多个成像装置的移动载运工具的状态信息的方法。所述方法包括:(a)用所述多个成像装置中的每个成像装置来捕捉多个图像;(b)借助于处理器,计算来自每个成像装置的所述多个图像中的每个图像中的特征点数目;(c)借助于所述处理器,基于所述特征点数目来选择所述多个成像装置中的至少一个;以及(d)借助于所述处理器,使用来自选定的一个或多个成像装置的多个图像来评估所述载运工具的状态信息。
在一些实施方式中,所述载运工具可以是无人飞行器。所述无人飞行器可以不超过10kg重。所述无人飞行器的最大尺寸可以不超过1.5m。所述无人飞行器可被配置用于在不超过400m的高度上飞行。可选地,所述无人飞行器可被配置用于检测限制飞行区域的存在,并且不在该限制飞行区域的预定距离内飞行。所述限制飞行区域可以是机场。所述无人飞行器可以是多旋翼航空器。
在一些实施方式中,所述载运工具可以包括一个或多个动力单元,所述一个或多个动力单元被配置用于实现所述载运工具的移动。所述一个或多个动力单元可以包括一个或多个旋翼,所述一个或多个旋翼被配置用于向所述载运工具提供升力。
在一些实施方式中,所述多个成像装置布置在所述载运工具上,以便从不同的视野捕捉所述多个图像中的每个。在一些实施方式中,所述多个成像装置可以包括至少三个成像装置。备选地,所述多个成像装置可以包括至少四个成像装置。所述多个成像装置可以每个相对于所述载运工具定向在不同的方向上。所述不同的方向可以是正交方向。备选地或组合地,所述不同的方向可以包括至少四个不同的方向。所述不同的方向中的至少一个可以实质上沿着所述载运工具的运动方向。所述多个成像装置可以位于以下位置中的三个或更多个:所述载运工具的前侧、后侧、左侧、右侧、上侧或下侧。
在一些实施方式中,所述多个图像可以包括在预定时间间隔内捕捉的多个连续图像帧。所述预定时间间隔可以是在从约0.02秒到约0.1秒的范围内。
在一些实施方式中,每个图像中的特征点数目可以指示出所述图像的显著度。可以使用角点检测算法计算每个图像中的特征点数目。所述角点检测算法可以是加速分割检测特征(FAST)算法。
在一些实施方式中,步骤(c)可以包括评估所述特征点数目是否超过预定阈值。
在一些实施方式中,所述状态信息可以包括所述载运工具的位置、姿态、速度或加速度中的至少一个。所述姿态可以包括所述载运工具的横滚定向、俯仰定向或偏航定向中的至少一个。
在一些实施方式中,所述方法还可包括基于所述状态信息,输出用于实现所述载运工具的移动的控制信号。
在一些实施方式中,可以在所述载运工具的操作期间重复步骤(a)-步骤(d)。可以约每0.02秒一次至约每0.1秒一次地重复步骤(a)-步骤(d)。
在另一方面,提供了一种导航系统。所述系统包括:载运工具,其包括一个或多个动力单元以及多个成像装置,所述一个或多个动力单元被配置用于实现所述载运工具的移动,所述多个成像装置每个被配置用于捕捉多个图像;以及一个或多个处理器,其可操作地耦合至所述多个成像装置并且被单独地或共同地配置用于:(a)评估来自每个成像装置的所述多个图像的图像质量;(b)基于步骤(a)的评估,选择所述多个成像装置中的至少一个;以及(c)使用来自选定的一个或多个成像装置的多个图像来评估所述载运工具的状态信息。在一些实施方式中,所述一个或多个处理器还被配置用于:(d)基于所述状态信息,向所述一个或多个动力单元输出控制信号以供实现所述载运工具的移动。
在一些实施方式中,所述载运工具可以是无人飞行器。所述无人飞行器可以不超过10kg重。所述无人飞行器的最大尺寸可以不超过1.5m。所述无人飞行器可被配置用于在不超过400m的高度上飞行。可选地,所述无人飞行器可被配置用于检测限制飞行区域的存在,并且不在该限制飞行区域的预定距离内飞行。所述限制飞行区域可以是机场。所述无人飞行器可以是多旋翼航空器。
在一些实施方式中,所述一个或多个动力单元可以包括一个或多个旋翼,所述一个或多个旋翼被配置用于向所述载运工具提供升力。
在一些实施方式中,所述多个成像装置布置在所述载运工具上,以使得所述多个成像装置中的每个成像装置被配置用于从不同的视野捕捉所述多个图像。在一些实施方式中,所述多个成像装置可以包括至少三个成像装置。备选地,所述多个成像装置可以包括至少四个成像装置。所述多个成像装置可以每个相对于所述载运工具定向在不同的方向上。所述不同的方向可以是正交方向。备选地或组合地,所述不同的方向可以包括至少四个不同的方向。所述不同的方向中的至少一个可以实质上沿着所述载运工具的运动方向。所述多个成像装置可以位于以下位置中的三个或更多个:所述载运工具的前侧、后侧、左侧、右侧、上侧或下侧。
在一些实施方式中,所述多个图像可以包括在预定时间间隔内捕捉的多个连续图像帧。所述预定时间间隔可以是在从约0.02秒到约0.1秒的范围内。
在一些实施方式中,所述图像质量可以基于所述多个图像中的每个图像中的特征点数目。可以使用角点检测算法计算每个图像中的特征点数目。所述角点检测算法可以是加速分割检测特征(FAST)算法。所述图像质量可以基于所述多个图像中的每个图像的显著度。所述图像质量可以基于所述多个图像中的每个图像中的曝光水平或对比度水平中的至少一个。所述图像质量可以基于所述多个图像对于在评估所述载运工具的状态信息中使用的适当性。
在一些实施方式中,步骤(a)可以包括评估所述多个图像的图像质量是否超过预定阈值。步骤(a)可以包括识别所述多个图像中哪个图像具有最高的图像质量。
在一些实施方式中,所述状态信息可以包括所述载运工具的位置、姿态、速度或加速度中的至少一个。所述姿态包括所述载运工具的横滚定向、俯仰定向或偏航定向中的至少一个。
在一些实施方式中,可以在所述载运工具的操作期间重复步骤(a)-步骤(c)。可以约每0.02秒一次至约每0.1秒一次地重复步骤(a)-步骤(c)。
在另一方面,提供了一种用于控制附接至多个成像装置的移动载运工具的方法。所述方法包括:(a)用所述多个成像装置中的每个成像装置来捕捉多个图像;(b)借助于处理器,评估来自每个成像装置的所述多个图像的图像质量;(c)借助于所述处理器,基于步骤(b)的评估来选择所述多个成像装置中的至少一个;以及(d)借助于所述处理器,使用来自选定的一个或多个成像装置的多个图像来评估所述载运工具的状态信息。在一些实施方式中,所述方法还包括:(e)借助于所述处理器,基于所述状态信息向安装在所述载运工具上的一个或多个动力单元输出控制信号以供实现所述载运工具的移动。
在一些实施方式中,所述载运工具可以是无人飞行器。所述无人飞行器可以不超过10kg重。所述无人飞行器的最大尺寸可以不超过1.5m。所述无人飞行器可被配置用于在不超过400m的高度上飞行。可选地,所述无人飞行器可被配置用于检测限制飞行区域的存在,并且不在该限制飞行区域的预定距离内飞行。所述限制飞行区域可以是机场。所述无人飞行器可以是多旋翼航空器。
在一些实施方式中,所述一个或多个动力单元可以包括一个或多个旋翼,所述一个或多个旋翼被配置用于向所述载运工具提供升力。
在一些实施方式中,所述多个成像装置布置在所述载运工具上,以便从不同的视野捕捉所述多个图像中的每个。在一些实施方式中,所述多个成像装置可以包括至少三个成像装置。备选地,所述多个成像装置可以包括至少四个成像装置。
在一些实施方式中,所述多个成像装置可以每个相对于所述载运工具定向在不同的方向上。所述不同的方向可以是正交方向。备选地或组合地,所述不同的方向可以包括至少四个不同的方向。所述不同的方向中的至少一个可以实质上沿着所述载运工具的运动方向。所述多个成像装置可以位于以下位置中的三个或更多个:所述载运工具的前侧、后侧、左侧、右侧、上侧或下侧。
在一些实施方式中,所述多个图像可以包括在预定时间间隔内捕捉的多个连续图像帧。所述预定时间间隔可以是在从约0.02秒到约0.1秒的范围内。
在一些实施方式中,所述图像质量可以基于所述多个图像中的每个图像中的特征点数目。可以使用角点检测算法计算每个图像中的特征点数目。所述角点检测算法可以是加速分割检测特征(FAST)算法。所述图像质量可以基于所述多个图像中的每个图像的显著度。所述图像质量可以基于所述多个图像中的每个图像中的曝光水平或对比度水平中的至少一个。所述图像质量可以基于所述多个图像对于在评估所述载运工具的状态信息中使用的适当性。
在一些实施方式中,步骤(b)可以包括评估所述多个图像的图像质量是否超过预定阈值。
在一些实施方式中,步骤(b)可以包括识别所述多个图像中哪个图像具有最高的图像质量。
在一些实施方式中,所述状态信息可以包括所述载运工具的位置、姿态、速度或加速度中的至少一个。所述姿态包括所述载运工具的横滚定向、俯仰定向或偏航定向中的至少一个。
在一些实施方式中,可以在所述载运工具的操作期间重复步骤(a)-步骤(d)。可以约每0.02秒一次至约每0.1秒一次地重复步骤(a)-步骤(d)。
在另一方面,提供了一种导航系统。所述系统包括:载运工具,其包括多个成像装置,多个成像装置每个被配置用于捕捉多个图像,其中所述多个成像装置包括主成像装置以及一个或多个辅成像装置;以及一个或多个处理器,其可操作地耦合至所述多个成像装置并且被单独地或共同地配置用于:(a)评估来自所述主成像装置的多个图像的图像质量,以确定所述图像质量是否满足预定阈值;(b)如果步骤(a)的图像质量不满足所述预定阈值,则评估来自所述一个或多个辅成像装置的多个图像的图像质量;(c)基于步骤(b)的评估,选择所述一个或多个辅成像装置中的至少一个;以及(d)使用来自选定的一个或多个辅成像装置的多个图像来评估所述载运工具的状态信息。
在一些实施方式中,所述载运工具可以是无人飞行器。所述无人飞行器可以不超过10kg重。所述无人飞行器的最大尺寸可以不超过1.5m。所述无人飞行器可被配置用于在不超过400m的高度上飞行。可选地,所述无人飞行器可被配置用于检测限制飞行区域的存在,并且不在该限制飞行区域的预定距离内飞行。所述限制飞行区域可以是机场。所述无人飞行器可以是多旋翼航空器。
在一些实施方式中,一个或多个动力单元可以包括一个或多个旋翼,所述一个或多个旋翼被配置用于向所述载运工具提供升力。
在一些实施方式中,所述多个成像装置布置在所述载运工具上,以使得所述多个成像装置中的每个成像装置被配置用于从不同的视野捕捉所述多个图像。在一些实施方式中,所述多个成像装置可以包括至少三个成像装置。备选地,所述多个成像装置可以包括至少四个成像装置。所述多个成像装置可以每个相对于所述载运工具定向在不同的方向上。所述不同的方向可以是正交方向。备选地或组合地,所述不同的方向可以包括至少四个不同的方向。所述主成像装置可以定向成实质上沿着所述载运工具的运动方向。所述多个成像装置可以位于以下位置中的三个或更多个:所述载运工具的前侧、后侧、左侧、右侧、上侧或下侧。
在一些实施方式中,所述多个图像可以包括在预定时间间隔内捕捉的多个连续图像帧。所述预定时间间隔可以是在从约0.02秒到约0.1秒的范围内。
在一些实施方式中,步骤(a)和步骤(b)的图像质量可以每个基于所述多个图像中的每个图像中的特征点数目。可以使用角点检测算法计算每个图像中的特征点数目。所述角点检测算法可以是加速分割检测特征(FAST)算法。
在一些实施方式中,步骤(a)和步骤(b)的图像质量可以每个基于所述多个图像中的每个图像的显著度。步骤(a)和步骤(b)的图像质量可以每个基于所述多个图像中的每个图像中的曝光水平或对比度水平中的至少一个。步骤(a)和步骤(b)的图像质量可以每个基于所述多个图像对于在评估所述载运工具的状态信息中使用的适当性。
在一些实施方式中,步骤(b)可以包括评估所述多个图像的图像质量是否超过第二预定阈值。步骤(b)可以包括识别所述多个图像中哪个图像具有最高的图像质量。
在一些实施方式中,所述状态信息可以包括所述载运工具的位置、姿态、速度或加速度中的至少一个。所述姿态可以包括所述载运工具的横滚定向、俯仰定向或偏航定向中的至少一个。
在一些实施方式中,可以在所述载运工具的操作期间重复步骤(a)-步骤(d)。可以约每0.02秒一次至约每0.1秒一次地重复步骤(a)-步骤(d)。
在另一方面,提供了一种用于评估附接至多个成像装置的移动载运工具的状态信息的方法。所述方法包括:(a)用所述多个成像装置中的每个成像装置来捕捉多个图像,并且其中所述多个成像装置包括主成像装置以及一个或多个辅成像装置;(b)借助于处理器,评估来自所述主成像装置的多个图像的图像质量,以确定所述图像质量是否满足预定阈值;(c)如果步骤(b)的图像质量不满足所述预定阈值,则借助于所述处理器,评估来自所述一个或多个辅成像装置的多个图像的图像质量;(d)借助于所述处理器,基于步骤(c)的评估来选择所述一个或多个辅成像装置中的至少一个;以及(e)借助于所述处理器,使用来自选定的一个或多个辅成像装置的多个图像来评估所述载运工具的状态信息。
在一些实施方式中,所述载运工具可以是无人飞行器。所述无人飞行器可以不超过10kg重。所述无人飞行器的最大尺寸可以不超过1.5m。所述无人飞行器可被配置用于在不超过400m的高度上飞行。可选地,所述无人飞行器可被配置用于检测限制飞行区域的存在,并且不在该限制飞行区域的预定距离内飞行。所述限制飞行区域可以是机场。所述无人飞行器可以是多旋翼航空器。
在一些实施方式中,一个或多个动力单元可以包括一个或多个旋翼,所述一个或多个旋翼被配置用于向所述载运工具提供升力。
在一些实施方式中,所述多个成像装置布置在所述载运工具上,以便从不同的视野捕捉所述多个图像中的每个。在一些实施方式中,所述多个成像装置可以包括至少三个成像装置。所述多个成像装置可以包括至少四个成像装置。所述多个成像装置可以每个相对于所述载运工具定向在不同的方向上。所述不同的方向可以是正交方向。备选地或组合地,所述不同的方向可以包括至少四个不同的方向。所述主成像装置可以定向成实质上沿着所述载运工具的运动方向。所述多个成像装置可以位于以下位置中的三个或更多个:所述载运工具的前侧、后侧、左侧、右侧、上侧或下侧。
在一些实施方式中,所述多个图像可以包括在预定时间间隔内捕捉的多个连续图像帧。所述预定时间间隔可以是在从约0.02秒到约0.1秒的范围内。
在一些实施方式中,步骤(b)和步骤(c)的图像质量可以每个基于所述多个图像中的每个图像中的特征点数目。可以使用角点检测算法计算每个图像中的特征点数目。所述角点检测算法可以是加速分割检测特征(FAST)算法。
在一些实施方式中,步骤(b)和步骤(c)的图像质量可以每个基于所述多个图像中的每个图像的显著度。步骤(b)和步骤(c)的图像质量可以每个基于所述多个图像中的每个图像中的曝光水平或对比度水平中的至少一个。步骤(b)和步骤(c)的图像质量可以每个基于所述多个图像对于在评估所述载运工具的状态信息中使用的适当性。
在一些实施方式中,步骤(c)可以包括评估所述多个图像的图像质量是否超过第二预定阈值。步骤(c)可以包括识别所述多个图像中哪个图像具有最高的图像质量。
在一些实施方式中,所述状态信息可以包括所述载运工具的位置、姿态、速度或加速度中的至少一个。所述姿态可以包括所述载运工具的横滚定向、俯仰定向或偏航定向中的至少一个。
在一些实施方式中,可以在所述载运工具的操作期间重复步骤(a)-步骤(e)。可以约每0.02秒一次至约每0.1秒一次地重复步骤(a)-步骤(e)。
应当明白,本发明的不同方面可以被单独地、共同地或彼此组合地理解。本文所描述的本发明的各个方面可以适用于下文阐述的特定应用中的任一或者适用于任何其他类型的可移动物体。本文对飞行器的任何描述均可适用于和用于任何可移动物体,诸如任何载运工具。另外,本文在空中运动(例如,飞行)的情景下公开的系统、装置和方法还可以适用于其他类型运动的情景下,诸如在地面上或在水上的移动、水下运动或者在太空中的运动。此外,本文对旋翼或旋翼组件的任何描述均可适用于和用于被配置用于通过旋转生成推进力的任何动力系统、装置或机构(例如,螺旋桨、轮子、轮轴)。
在另一方面,提供了一种用于在环境内导航载运工具的系统。所述系统包括载运工具,其包括多个传感器,所述多个传感器布置在该载运工具上以使得所述多个传感器中的每个传感器被配置用于从不同的视野获取传感器数据;一个或多个处理器,其可操作地耦合至所述多个传感器并且被单独地或共同地配置用于:(a)基于一个或多个预定准则,选择所述多个传感器的子集以用于在所述环境内导航所述载运工具;(b)处理来自选定的一个或多个传感器的传感器数据,以便生成用于在所述环境内导航所述载运工具的导航信息;以及(c)基于所述导航信息,输出用于控制所述载运工具的信号。
在一些实施方式中,通过至少评估每个传感器以确定所述传感器是否满足所述一个或多个预定准则,以及如果所述传感器满足所述一个或多个预定准则,则选择所述传感器,来选择所述子集。所述一个或多个预定准则可以包括:所述传感器是否定向成实质上沿着所述载运工具的运动方向。所述一个或多个预定准则可以包括:由所述传感器获取的传感器数据的质量是否超过预定阈值。所述一个或多个预定准则可以包括:所述传感器是否具有所述多个传感器中最高的传感器数据质量。所述一个或多个预定准则可以包括:所述传感器的功耗是否低于预定阈值。所述一个或多个预定准则可以包括:所述传感器是否具有所述多个传感器中最低的功耗。
在一些实施方式中,所述子集中的传感器的数目基于所述载运工具的运动方向改变。所述子集中的传感器的数目可以基于所述环境的环境复杂度改变。
在一些实施方式中,所述载运工具是无人飞行器。所述载运工具可以包括一个或多个动力单元,所述一个或多个动力单元被配置用于实现所述载运工具的移动。所述一个或多个动力单元包括一个或多个旋翼,所述一个或多个旋翼被配置用于向所述载运工具提供升力。
在一些实施方式中,所述多个传感器包括多种不同的传感器类型。所述多个传感器可以包括以下各项中的一种或多种:成像装置、超声传感器、激光雷达传感器或雷达传感器。所述多个传感器可以包括至少三个传感器或至少四个传感器。每个传感器可以相对于所述载运工具定向在不同的方向上。所述不同的方向可以是正交方向。所述不同的方向可以包括至少四个不同的方向。所述不同的方向中的至少一个可以实质上沿着所述载运工具的运动方向。
在一些实施方式中,所述多个传感器位于以下位置中的三个或更多个:所述载运工具的前侧、后侧、左侧、右侧、上侧或下侧。
在一些实施方式中,所述导航信息包括所述载运工具的状态信息。所述状态信息可以包括所述载运工具的位置、姿态、速度或加速度中的至少一个。所述姿态可以包括所述载运工具的横滚定向、俯仰定向或偏航定向中的至少一个。
在一些实施方式中,所述导航信息包括所述环境的环境信息。该环境信息可以包括所述环境中的一个或多个障碍物的位置。所述信号可以使所述载运工具躲避所述一个或多个障碍物。
在另一方面,提供了一种用于在环境内导航载运工具的方法。所述方法包括:(a)借助于处理器,基于一个或多个预定准则来选择多个传感器的子集以用于在所述环境内导航所述载运工具,其中所述多个传感器布置在所述载运工具上以使得所述多个传感器中的每个传感器被配置用于从不同的视野获取传感器数据;(b)借助于所述处理器,处理来自选定的一个或多个传感器的传感器数据,以便生成用于在所述环境内导航所述载运工具的导航信息;以及(c)借助于所述处理器,基于所述导航信息来输出用于控制所述载运工具的信号。
在一些实施方式中,选择所述子集包括评估每个传感器以确定所述传感器是否满足所述一个或多个预定准则,以及如果所述传感器满足所述一个或多个预定准则,则选择所述传感器。所述一个或多个预定准则可以包括:所述传感器是否定向成实质上沿着所述载运工具的运动方向。所述一个或多个预定准则可以包括:由所述传感器获取的传感器数据的质量是否超过预定阈值。所述一个或多个预定准则可以包括:所述传感器是否具有所述多个传感器中最高的传感器数据质量。所述一个或多个预定准则可以包括:所述传感器的功耗是否低于预定阈值。所述一个或多个预定准则可以包括:所述传感器是否具有所述多个传感器中最低的功耗。
在一些实施方式中,所述子集中的传感器的数目基于所述载运工具的运动方向改变。所述子集中的传感器的数目可以基于所述环境的环境复杂度改变。
在一些实施方式中,所述载运工具是无人飞行器。所述载运工具可以包括一个或多个动力单元,所述一个或多个动力单元被配置用于实现所述载运工具的移动。所述一个或多个动力单元包括一个或多个旋翼,所述一个或多个旋翼被配置用于向所述载运工具提供升力。
在一些实施方式中,所述多个传感器包括多种不同的传感器类型。所述多个传感器可以包括以下各项中的一种或多种:成像装置、超声传感器、激光雷达传感器或雷达传感器。所述多个传感器可以包括至少三个传感器或至少四个传感器。每个传感器可以相对于所述载运工具定向在不同的方向上。所述不同的方向可以是正交方向。所述不同的方向可以包括至少四个不同的方向。所述不同的方向中的至少一个可以实质上沿着所述载运工具的运动方向。
在一些实施方式中,所述多个传感器位于以下位置中的三个或更多个:所述载运工具的前侧、后侧、左侧、右侧、上侧或下侧。
在一些实施方式中,所述导航信息包括所述载运工具的状态信息。所述状态信息可以包括所述载运工具的位置、姿态、速度或加速度中的至少一个。所述姿态可以包括所述载运工具的横滚定向、俯仰定向或偏航定向中的至少一个。
在一些实施方式中,所述导航信息包括所述环境的环境信息。该环境信息可以包括所述环境中的一个或多个障碍物的位置。所述信号可以使所述载运工具躲避所述一个或多个障碍物。
通过考察说明书、权利要求书和附图,本发明的其他目标和特征将会变得明显。
援引并入
本说明书中所提及的所有公布、专利和专利申请均通过引用并入本文,其程度如同具体地和个别地指出要通过引用并入每一单个公布、专利或专利申请。
附图说明
本发明的新特征特别地在所附权利要求项中阐述。通过参考以下的详细说明及其附图,将更好地理解本发明的特征和优势;该详细说明阐述了利用本发明原理的说明性实施方式;在附图中::
图1图示了根据实施方式UAV在室外环境中操作;
图2图示了根据实施方式UAV在室内环境中操作;
图3图示了根据实施方式UAV与多个传感器耦合;
图4图示了根据实施方式具有不同视野的传感器;
图5图示了根据实施方式用于在环境内导航载运工具的方法;
图6图示了根据实施方式用于使用来自多个成像装置的图像来处理UAV的状态信息的系统;
图7图示了根据实施方式用于基于所处理的信息来评估状态信息并控制载运工具的方法;
图8图示了根据实施方式用于基于计算特征点数目来评估状态信息的方法;
图9图示了根据实施方式的运动中的UAV的俯视图,所述UAV具有主成像装置和辅成像装置;
图10图示了根据实施方式用于基于主成像装置和辅成像装置来评估状态信息的方法;
图11图示了根据实施方式由三个辅成像装置获取的三个图像序列的示例性特征点数目;
图12图示了根据实施方式的UAV;
图13图示了根据实施方式包括载体和负载的可移动物体;以及
图14图示了根据实施方式用于控制可移动物体的系统。
具体实施方式
本公开内容提供了用于评估诸如无人飞行器(UAV)等载运工具的状态信息的导航系统和方法。在一些实施方式中,UAV可以适于携带被配置用于收集环境数据的多个传感器。在一些实施方式中,传感器可包括诸如相机等成像装置。本文描述的方法可涉及使用一个以上成像装置来获取具有不同视野的多个图像。在一些实施方式中,可以将在时间间隔内的由多个成像装置拍摄的图像帧的质量进行比较,以确定那段时间内具有最高质量图像序列的主成像装置。处理器可仅处理来自于由主成像装置拍摄的图像帧的信息,以确定或评估UAV的状态。在单一成像装置难以在一段时间内获取高质量图像的情况下,该方法可有利于提供准确且可靠的状态信息。仅根据由主成像装置捕捉的图像处理图像获得状态信息可减少处理时间和延迟,并且减少所必需的计算机资源。即使是在多样化的环境和操作条件下,如本文所公开的用于收集环境数据的多个成像装置的使用可以提高确定UAV的状态信息的准确度,,从而增强诸如导航和避障等UAV功能性的稳健性和灵活性。
本文提供的实施方式可适用于各种类型的载运工具,诸如UAV。例如,UAV可以是不超过10kg重和/或具有不超过1.5m的最大尺寸的小型UAV。在一些实施方式中,UAV可以是旋翼机,诸如由多个螺旋桨推进以在空中移动的多旋翼航空器(例如,四轴飞行器)。下文进一步详述了适合随本文介绍的实施方式一起使用的UAV、其他载运工具和其他可移动物体的附加示例。
本文所描述的UAV可以完全自主地(例如,通过诸如机载控制器等合适的计算系统)、半自主地或者手动地(例如,由人类用户)操作。UAV可以从合适的实体(例如,人类用户或自主控制系统)接收命令,并通过执行一个或多个动作来响应这样的命令。例如,可以控制UAV从地面起飞、在空中移动(例如,以多达三个平移自由度和多达三个旋转自由度)、移动至目标位置或一系列目标位置、在空中悬停、降落在地面上等。又例如,可以控制UAV以指定速度和/或加速度(例如,以多达三个平移自由度和多达三个旋转自由度)或者沿着指定移动路径移动。此外,所述命令可以用于控制一个或多个UAV部件,诸如本文所描述的部件(例如,传感器、致动器、动力单元、负载等)。例如,一些命令可以用于控制诸如相机等UAV负载的位置、定向和/或操作。可选地,UAV可被配置用于根据一个或多个预定操作规则来操作。所述操作规则可以用于控制UAV的任何合适的方面,诸如UAV的位置(例如,纬度、经度、高度)、定向(例如,横滚、俯仰、偏航)、速度(例如,平移速度和/或角速度)和/或加速度(例如,平移加速度和/或角加速度)。例如,可以设计操作规则以使得不允许UAV飞到阈值高度之外,例如,UAV可被配置成在距地面不超过400m的高度上飞行。在一些实施方式中,操作规则可适于提供自动化机制,用于提高UAV的安全性并防止安全事故。例如,UAV可被配置用于检测限制飞行区域(例如,机场)并且不在该限制飞行区域的预定距离内飞行,从而避免与航空器和其他障碍物的潜在碰撞。
图1图示了根据实施方式UAV 102在室外环境100中操作。室外环境100可以是城区、郊区或乡村环境或者是至少部分地不位于建筑物内的任何其他环境。UAV 102可以相对靠近地面104(例如,低空)或者相对远离地面104(例如,高空)操作。例如,在距地面小于或等于约10m处操作UAV 102可被认为是在低空,而在距地面大于或等于约10m处操作UAV 102可被认为是在高空。
在一些实施方式中,室外环境100包括一个或多个障碍物108a-108d。障碍物可以包括可阻碍UAV 102移动的任何物体或实体。一些障碍物(例如,障碍物108a、108d)可能位于地面104上,诸如建筑物、地面载运工具(例如,轿车、摩托车、卡车、自行车)、人类、动物、植物(例如,树木、灌木)和其他人造或自然结构。一些障碍物可能与地面104、水体、人造结构或自然结构相接触和/或由其所支撑。备选地,一些障碍物(例如,障碍物108b、108c)可能完全位于空中106,包括飞行器(例如,飞机、直升机、热气球、其他UAV)或鸟类。空中障碍物可能不由地面104或由水体或由任何自然或人造结构所支撑。位于地面104上的障碍物可能包括显著延伸至空中106的部分(例如,高层结构诸如塔、摩天大楼、灯柱、无线电发射塔、输电线、树木等)。
图2图示了根据实施方式UAV 152在室内环境150中操作。室内环境150位于建筑物154的内部中,其具有地板156、一面或多面墙壁158和/或天花板或屋顶160。示例性建筑物包括住宅、商业或工业建筑物,诸如房屋、公寓、办公楼、生产设施、仓储设施等。建筑物154的内部可由地板156、墙壁158和天花板160完全封闭,使得UAV 152被约束到室内空间。相反地,可能不存在地板156、墙壁158或天花板160中的至少一个,从而使得UAV 152能够从内部飞到外部,或者反之亦然。备选地或组合地,在地板156、墙壁158或天花板160中可能形成一个或多个孔164(例如,门、窗、天窗)。
类似于室外环境100,室内环境150可能包括一个或多个障碍物162a-162d。一些障碍物可能位于地板156上(例如,障碍物162a),诸如家具、家用电器、人类、动物、植物和其他人造物体或自然物体。相反地,一些障碍物可能位于空中(例如,障碍物162b),诸如鸟类或其他UAV。室内环境150中的一些障碍物可由其他结构或物体所支撑。障碍物还可附着于天花板160(例如,障碍物162c),诸如灯具、吊扇、屋梁或其他安装在天花板上的家用电器或结构。在一些实施方式中,障碍物可能附着于墙壁158(例如,障碍物162d),诸如灯具、搁架、橱柜或其他安装在墙壁上的家用电器或结构。值得注意的是,建筑物154的结构部件也可被认为是障碍物,包括地板156、墙壁158和天花板160。
本文所描述的障碍物可能大致上是固定的(例如,建筑物、植物、结构)或者大致上是移动的(例如,人类、动物、载运工具或者其他能够移动的物体)。一些障碍物可能包括静止部件和移动部件的组合(例如,风车)。移动障碍物或障碍物部件可以根据预定的或可预测的路径或模式移动。例如,轿车的移动可能是相对可预测的(例如,根据道路的形状)。备选地,一些移动障碍物或障碍物部件可以沿着随机的轨迹或以其他方式不可预测的轨迹移动。例如,诸如动物等生物可能按相对不可预测的方式移动。
为了确保安全和高效的操作,为UAV提供用于评估环境信息(诸如周围环境中的物体的位置)和/或UAV状态信息(诸如位置、速度、姿态和加速度)的机制可能是有益的。另外,对环境和/或状态信息的准确评估可利于导航,特别是当UAV以半自主或全自主方式操作时尤为如此,并且对于各种各样的UAV功能可能是有价值的。
因此,本文描述的UAV可包括被配置用于收集传感器数据的一个或多个传感器,可以处理所述传感器数据以获取用于对UAV进行导航的导航信息。导航信息可包括与UAV状态、周围环境或者该环境内的物体相关的信息。基于收集到的传感器数据,可以生成用于控制UAV导航的控制信号。适于随本文公开的实施方式一起使用的示例性传感器包括位置传感器(例如,全球定位系统(GPS)传感器、支持位置三角测量法的移动装置发射器)、视觉传感器(例如,能够检测可见光、红外光或紫外光的成像装置,诸如相机)、接近式传感器或距离传感器(例如,超声传感器、激光雷达、ToF相机或深度相机、雷达)、惯性传感器(例如,加速度计、陀螺仪、惯性测量单元(IMU))、高度传感器、姿态传感器(例如,罗盘)、压力传感器(例如,气压计)、音频传感器(例如,麦克风)或场传感器(例如,磁力计、电磁传感器)。可以使用任何合适数目和组合的传感器,诸如一个、两个、三个、四个、五个、六个、七个、八个或更多个传感器。可选地,可以从不同类型(例如,两种、三种、四种、五种、六种、七种、八种或更多种类型)的传感器接收数据。不同类型的传感器可以测量不同类型的信号或信息(例如,位置、定向、速度、加速度、接近度、压力等)和/或利用不同类型的测量技术来获取数据。例如,传感器可以包括主动式传感器(例如,生成和测量来自其自身能源的能量的传感器)和被动式传感器(例如,检测可用能量的传感器)的任何合适的组合。又例如,一些传感器可以生成依据全局坐标系提供的绝对测量数据(例如,由GPS传感器提供的位置数据、由罗盘或磁力计提供的姿态数据),而其他传感器可以生成依据局部坐标系提供的相对测量数据(例如,由陀螺仪提供的相对角速度;由加速度计提供的相对平移加速度;由视觉传感器提供的相对姿态信息;由超声传感器、激光雷达或ToF相机提供的相对距离信息)。在一些情况下,局部坐标系可以是相对于UAV定义的机体坐标系。
传感器可被配置用于收集对于导航有用的各种类型的传感器数据,诸如与UAV、周围环境或该环境内的物体相关的数据。可以处理传感器数据(例如,由一个或多个处理器处理),以便获取导航信息,诸如状态信息或环境信息。例如,传感器中的至少一些可被配置用于提供关于UAV的状态的数据,并且可以处理由此类传感器获取的传感器数据以获取UAV的状态信息。由传感器提供的状态信息可以包括关于UAV的空间信息(例如,诸如经度、纬度和/或高度等的位置或定位信息;诸如横滚、俯仰和/或偏航等定向或姿态信息)。状态信息还可以包括关于UAV的运动信息(例如,平移速度、平移加速度、角速度、角加速度等)。例如,传感器可被配置用于确定UAV在多达六个自由度上(例如,三个位置和/或平移自由度、三个定向和/或旋转自由度)的空间布局和/或运动。可以相对于全局坐标系或相对于局部坐标系(例如,相对于UAV或另一实体)来提供状态信息。例如,传感器可被配置用于确定UAV与控制该UAV的用户之间的距离,或者UAV与该UAV的飞行起始点之间的距离。
备选地或附加地,可以处理由传感器获取的数据以提供各种类型的环境信息。例如,传感器数据可以指示环境类型,诸如室内环境、室外环境、低空环境或高空环境。传感器数据还可以提供关于当前环境条件的信息,包括天气(例如,晴朗、下雨、下雪)、能见度条件、风速、当日时间等。此外,由传感器收集的环境信息可以包括关于该环境中物体(诸如本文所描述的障碍物)的信息。障碍物信息可以包括关于环境中的一个或多个障碍物的数目、密度、几何形状和/或位置的信息。
在一些实施方式中,环境信息可以包括关于周围环境的复杂度的信息。“环境复杂度”可在本文中用于指环境被障碍物占据的程度。环境复杂度可以是定量或定性测量。在一些实施方式中,环境复杂度基于以下一项或多项确定:障碍物的数目、由障碍物占据的空间的体积或百分比、在离UAV的一定距离内被障碍物占据的空间的体积或百分比、未被障碍物所阻碍的空间的体积或百分比、在离UAV的一定距离内未被障碍物所阻碍的空间的体积或百分比、障碍物与UAV的接近度、障碍物密度(例如,每单元空间的障碍物数目)、障碍物的类型(例如,固定的或移动的)、障碍物的空间布局(例如,位置、定向)、障碍物的运动(例如,速度、加速度)等。例如,具有相对高障碍物密度的环境将会具有高环境复杂度(例如,室内环境、城区环境),而具有相对低障碍物密度的环境将会具有低环境复杂度(例如,高空环境)。又例如,大百分比的空间被障碍物占据的环境将会具有较高的复杂度,而具有大百分比的未被阻碍的空间的环境将会具有较低的复杂度。
在一些实施方式中,使用从处理传感器数据所获取的导航信息来生成用于控制诸如移动、避障、环境绘图等UAV导航的各个方面的信号。所述信号可以输出至各种UAV部件(例如,动力单元),以实现环境内的UAV导航。在一些实施方式中,这样的导航可以自主地或半自主地发生,使得需要很少的用户输入或者不需要用户输入来控制UAV。
为了优化UAV在环境内的导航,优化用作控制UAV的基础的导航信息的准确度可能是有益的。导航信息的准确度可取决于用以生成该导航信息的传感器数据的准确度、可靠性和质量。在一些情况下,例如由于装置故障、非最理想的传感器数据质量、传感器视野限制等,单一传感器可能不能够始终为UAV操作提供令人满意的传感器数据。因此,为了确保所获取的传感器数据对于导航目的来说是令人满意的,在UAV上提供用于导航目的的多个传感器可能是有益的,以便例如提供冗余、增加用于处理的可用数据量以及补偿任何单一传感器的故障或不准确性。
图3图示了根据实施方式与多个传感器308、310和312耦合的UAV 300。UAV 300可包括机身302。动力单元304、306可耦合至机身302。UAV 300可包括一个或多个耦合至机身302的传感器,诸如传感器308、310、312。每个传感器可具有不同的视野314、316、318。在图3的实施方式中,传感器308、310耦合至机身302的侧面,而传感器312通过载体320(例如,云台)连接至机身302。虽然图3示出了耦合至侧面的和通过载体连接至机身的传感器,但应当理解,本公开内容的传感器可以位于UAV的任何合适的部分上,诸如在UAV的机身之上、之下、在其一个或多个侧面或者在其之内。一些传感器可以机械地耦合至UAV,使得该UAV的空间布局和/或运动对应于传感器的空间布局和/或运动。传感器可以通过刚性联轴器耦合至UAV,使得传感器不会相对于其所附接到的UAV的部分移动。备选地,传感器与UAV之间的耦合可允许该传感器相对于所述UAV的移动(例如,相对于UAV的平移或旋转移动)。所述耦合可以是永久性耦合或者非永久性(例如,可拆卸的)耦合。合适的耦合方法可包括粘合剂、粘结、焊接和/或紧固件(例如,螺钉、钉、销等)。可选地,传感器可以与UAV的一部分一体成型。此外,传感器可以与UAV的一部分(例如,处理单元、控制系统、数据存储装置)电耦合,以便使得由传感器收集的数据能够用于UAV的各种功能(例如,导航、控制、推进、与用户或其他装置的通信等),诸如本文所讨论的实施方式。传感器可以可操作地与UAV的一部分(例如,处理单元、控制系统、数据存储装置)耦合。
虽然图3描绘了具有三个传感器的UAV,但应当理解,本文描述的实施方式可适用于任何合适数目的传感器,诸如一个、两个、三个、四个、五个、六个、七个、八个或更多个传感器。在一些实施方式中,UAV包括至少一个、至少两个、至少三个、至少四个、至少五个、至少六个、至少七个或至少八个传感器。所述传感器可各自指向不同的方向。传感器可以根据需要相对于彼此和相对于UAV定位和定向。在一些实施方式中,传感器可以定位成彼此靠近。备选地,传感器可以定位成彼此远离。传感器可以定位在载运工具的相对侧面上、载运工具的相邻侧面上、载运工具的同一侧面上、载运工具的同一部分上或者载运工具的不同部分上。例如,每个传感器可以安装在UAV的不同侧面或表面上(例如,前表面、后表面、左表面、右表面、顶面(上侧)和/或底面(下侧))。在一些实施方式中,传感器中的一些或所有安装在一个或多个附接至UAV的载体上。在一些实施方式中,多个传感器可位于UAV的三个或更多个不同的侧面或表面上(例如,载运工具的前侧、后侧、左侧、右侧、上侧、下侧)。
传感器可以位于不同的位置和定向,使得每个传感器的视野不同。传感器的视野可以是可由该传感器检测的(例如,可见的)环境的范围。具有不同视野的传感器可描绘周围环境的不同部分。传感器中的一些或所有的视野可以重叠。备选地,传感器的视野可以不重叠。两个传感器之间的视野可以重叠但不相同(例如,仅部分地重叠)。视野可以与视角相关,所述视角可由传感器所成像的给定场景的角范围来测量。传感器的视角可以是小于或约为360°、300°、270°、240°、180°、120°、90°、60°、45°、30°、20°、10°、5°或1°的角度。每个传感器的视角可以是不同的。备选地,传感器中的一些或所有的视角可以是相同的。
在一些实施方式中,具有光学部件的传感器(例如,诸如相机等视觉传感器)的方向性可由其光轴的方向性所表征。多个传感器可以位于不同的位置和定向,以使得其各自的光轴是不同的。传感器的光轴(亦可称为“主轴”)可以是一条线:在传感器中沿着该线存在一定程度的旋转对称。在一些实施方式中,传感器的光轴经过该传感器的光学部件(例如,镜头、光传感器)的中心。在一些实施方式,可以布置传感器以使得其各自的光轴相对于彼此成约10°、20°、30°、40°、50°、60°、70°、80°、90°、100°、110°、120°、130°、140°、150°、160°、170°或180°的角度。在一些实施方式中,传感器可均匀地间隔开(例如,两个装置相隔180°,三个装置相隔120°,四个装置相隔90°等)。在一些实施方式中,传感器可以相对于彼此正交地定向。备选地或组合地,所述传感器中的至少一个可以定向成沿着UAV的运动方向。光轴可以是测量视角所依的轴。可以沿着光轴垂直地、水平地或对角地测量视角。
图4图示了根据实施方式位置靠近并具有不同视野415、420的两个传感器405、410。在一些实施方式中,传感器405、410为相机。传感器405利用视野415获取传感器数据,而传感器410利用视野420获取传感器数据。在图4的实施方式中,视野415、420是不同的并且不重叠。在一些实施方式中,水平测量的传感器405、410的视角435、440约为60°。传感器405可具有光轴425,该光轴425相对于传感器410的光轴430成90°角。在备选实施方式中,视野415、420、视角435、440和/或光轴425、430可以根据需要改变。
UAV(或其他可移动物体)上携带的传感器可以全都是相同的类型。备选地,传感器中的至少一些可以是不同的类型。在一些实施方式中,所述每个传感器从不同位置和/或定向提供同一场景的传感器数据。传感器可被配置用于同时或近似同时地捕捉场景的传感器数据。备选地,一些传感器可被配置用于在不同于其他传感器的时间捕捉传感器数据。
如本文先前所描述,在一些情况下,使用多个传感器用于收集传感器数据可以提高导航信息的准确度。然而,在某些情况下,处理来自多个传感器的传感器数据可能需要比理想情况更多的处理能力、处理时间和/或计算资源。例如,小型UAV(例如,重量小于10kg)和其他小的可移动物体可能不能够携带足够的处理器、存储器和/或其他类型的计算资源来支持以足够的速度处理多个传感器数据集以供导航目的。
因此,在一些实施方式中,传感器数据的选择性处理被用来节省处理能力和计算资源并减少处理时间。在这样的实施方式中,仅使用由UAV携带的传感器的子集来提供用于生成导航信息的传感器数据。可以基于一个或多个预定准则来选择所述传感器的子集,以便优化所得的导航信息的准确度以及提高整体UAV性能(例如,减少功耗、处理器负荷、计算复杂度)。此方法可以提高传感器数据处理的速度和效率,同时维持导航信息优越的准确度和可靠性。
图5图示了根据实施方式用于在环境内导航载运工具的方法500。方法500可适用于控制携带多个传感器(例如,成像装置、超声传感器、激光雷达传感器、雷达传感器或其组合)的载运工具,诸如UAV。可选地,传感器可以布置在载运工具上,使得每个传感器从不同的视野获取各自的传感器数据。视野中的至少一些可以彼此重叠。在一些实施方式中,视野中的至少一些是不同的。在其他实施方式中,视野中的至少一些是相同的。方法500的步骤中的一些或所有可以由可操作地耦合至所述多个传感器的一个或多个处理器来执行。在一些实施方式中,在无需用户输入的情况下执行方法500,从而支持对用于生成导航信息的传感器数据的自主选择和处理。
在步骤510中,基于一个或多个预定准则,选择由载运工具携带的多个传感器的子集。所述子集可包括任何数目的传感器,诸如至少一个、两个、三个、四个、五个或更多个传感器。在一些实施方式中,所述子集少于由载运工具携带用于导航的所有传感器。在一些实施方式中,所述子集仅包括单一传感器。将为所述子集选择的传感器的数目可以基于某些因素改变。例如,所述子集中的传感器的数目可以基于周围环境的特性(诸如环境复杂度)改变。当载运工具于相对复杂(例如,高障碍物密度)的环境内操作时,可以选择较多数目的传感器,而当载运工具于不复杂(例如,低障碍物密度)的环境内操作时,可以选择较少数目的传感器。当在高度复杂的环境内导航时,选择较多数目的传感器可能是有益的,以便提供传感器数据的附加冗余和准确度并且减少事故(例如,与障碍物碰撞)的风险。在一些实施方式中,当载运工具于高度复杂的环境内操作时,选择至少2个、3个、4个、5个或更多个传感器。
又例如,被选择作为所述子集的一部分的传感器的数目可以基于载运工具的状态改变,所述状态诸如为载运工具的运动方向和/或运动速度。在一些实施方式中,如果运动方向是一维的(例如,相对于载运工具参考系的正交坐标轴)则选择单一传感器,如果运动方向是二维的则选择两个传感器,而如果运动方向是三维的则选择三个传感器。例如,当传感器与运动方向对准时,可以选择单一传感器;当传感器倾斜于运动方向但仍处于同一运动平面内时,可以选择两个传感器;而当传感器倾斜于运动方向并处于运动平面之外时,可以选择三个传感器。如本文先前所描述,可以根据传感器的视野、视角和/或光轴来确定传感器相对于运动方向的对准。
可以使用各种类型的预定准则来选择传感器。例如,所述准则可以与传感器的定向和/视野相关,例如,传感器是否定向成大致上沿着载运工具的运动方向、传感器的视野是否与运动方向重叠等。又例如,所述准则可以与由传感器产生的传感器数据的质量(例如,信噪比、对于处理的适当性、准确度、鲁棒性、可靠性)相关,诸如质量是否超过预定阈值、传感器是否具有最高的传感器数据质量等。在一些实施方式中,分析来自每个传感器的传感器数据以确定质量,并且仅选择产生最高质量数据的传感器。在另一示例中,所述准则可以与每个传感器的功耗相关,例如,功耗是否低于预定阈值、传感器是否具有最低的功耗等。在一些实施方式中,在展现出较高功耗的传感器之前优先选择展现出较低功耗的传感器。所述一个或多个预定准则可以按很多方法或其组合提供,诸如在操作之前预设或预编程在UAV中、在操作期间传输至UAV、在操作之前或操作期间基于用户输入确定。在一些实施方式中,步骤510涉及评估每个传感器以确定其是否满足所述一个或多个预定准则,以及如果该传感器满足所述准则,则选择它。
在步骤520中,处理来自选定的一个或多个传感器的传感器数据,以便生成用于在环境内导航载运工具的导航信息。如本文先前所描述,可以处理传感器数据以获取载运工具的状态信息和/或环境的环境信息。在一些实施方式中,仅使用来自选定的一个或多个传感器的传感器数据来确定导航信息,使得来自其余传感器的传感器数据不被处理。如本文先前所描述,此选择性处理方法可提高用以确定导航信息的处理效率和速度。
在步骤530中,基于步骤530中生成的导航信息,输出用于控制载运工具的信号。该信号可被配置用于控制载运工具在环境内的导航。在一些实施方式中,该信号包括用于载运工具的动力单元的控制信号,以便控制该载运工具的空间布局和/或移动。例如,可以使用关于一个或多个障碍物的位置的环境信息来生成控制信号,以使所述载运工具以躲避障碍物的方式移动。在另一示例中,可以使用关于载运工具的当前速度的状态信息作为反馈以调整动力单元的操作,以便确保载运工具达到并维持期望的速度。
在一些实施方式中,本文描述的方法可适用于选择性处理由视觉传感器(在本文中亦称为“成像装置”)获取的图像数据。成像装置可被配置用于检测电磁辐射(例如,可见光、红外光和/或紫外光)并基于检测到的电磁辐射生成图像数据。例如,成像装置可包括电荷耦合器件(CCD)传感器或互补金属氧化物半导体(CMOS)传感器,其响应于光波长而生成电信号。可以处理所得的电信号以产生图像数据。由成像装置生成的图像数据可包括一个或多个图像,所述图像可以是静态图像(例如,照片)、动态图像(例如,视频)或其合适的组合。该图像数据可以是多色的(例如,RGB、CMYK、HSV)或者单色的(例如,灰度、黑白、棕黑)。虽然本文提供的某些实施方式是在成像装置的情景下描述的,但应当理解,本公开内容可适用于任何合适类型的传感器,并且反之亦然。
在一些实施方式中,成像装置可以是相机。相机可以是捕捉动态图像数据(例如,视频)的电影或视频相机。相机可以是捕捉静态图像(例如,照片)的静物相机。虽然本文提供的某些实施方式是在相机的情景下描述的,但应当理解,本公开内容可适用于任何合适的成像装置,并且本文关于相机的任何描述亦可适用于任何合适的成像装置,并且本文关于相机的任何描述亦可适用于其他类型的成像装置。相机可以用于生成3D场景(例如,环境、一个或多个物体等)的2D图像。由相机生成的图像可表示3D场景到2D图像平面上的投影。因此,2D图像中的每个点对应于所述场景中的3D空间坐标。
本文描述的由成像装置获取的图像可以用于多种与UAV操作相关的应用。在一些实施方式中,使用所述图像来促进UAV在环境内的导航(例如,自主地、半自主地或手动地)。例如,可以处理所述图像以确定UAV的状态信息(例如,位置、定向、速度和/或加速度信息)。备选地或附加地,可以处理所述图像以确定环境信息(例如,复杂度、障碍物的位置)。本文关于状态信息的任何描述亦可适用于其他类型的导航信息,诸如环境信息,并且反之亦然。可以使用由单一成像装置获取的图像来确定状态信息。备选地,可以使用从多个成像装置获取的图像来确定状态信息。
在一些实施方式中,本文描述的成像装置被配置用于捕捉多个图像,其被处理以为了确定状态信息。由成像装置拍摄的多个图像在本文中可以称为图像序列或图像的序列。由成像装置捕捉的单个图像在本文中可称为“图像帧”。图像序列可包括一个或多个图像帧。可以按特定的捕捉速率来捕捉图像序列。在一些实施方式中,可以按标准的视频帧速率诸如约24p、25p、30p、48p、50p、60p、72p、90p、100p、120p、300p、50i或60i来捕捉图像帧。在一些实施方式中,可以按小于或等于约每0.0001秒一次、每0.0002秒一次、每0.0005秒一次、每0.001秒一次、每0.002秒一次、每0.005秒一次、每0.002秒一次、每0.05秒一次、每0.01秒一次、每0.02秒一次、每0.05秒一次、每0.1秒一次、每0.2秒一次、每0.5秒一次、每1秒一次、每2秒一次、每5秒一次或每10秒一次的速率来捕捉图像帧。在一些实施方式中,捕捉速率可以根据用户输入、状态信息或外部条件(例如,雨、雪、风、环境的不明显的表面纹理)改变。
图像序列可以在一时间间隔内捕捉。在一些实施方式中,图像序列或多个图像可包括在预定时间间隔内捕捉的多个连续图像帧。所述时间间隔可以根据需要由用户设定。时间间隔可以是固定的。备选地,时间间隔可以是自动确定的,例如,由处理器确定。时间间隔可保持固定,或者可在UAV或其部件(例如,成像装置)的操作过程中改变。在一些实施方式中,时间间隔可以小于或等于约0.005秒、0.002秒、0.05秒、0.01秒、0.02秒、0.05秒、0.1秒、0.2秒、0.5秒、1秒、2秒、5秒、10秒、20秒、50秒、100秒、200秒、500秒、1000秒或3600秒。在一些实施方式中,时间间隔可在从约0.02秒到约0.1秒的范围内。在一些实施方式中,时间间隔可以根据用户输入、状态信息或外部条件改变。成像装置可以在任何持续时间内捕捉所述图像序列。在一些实施方式中,持续时间可以是UAV处于操作中的时间、UAV正在移动的时间、由用户设定的时间、由处理器自动确定的时间、预设的时间、给出用户输入的时间、存在不稳定性(例如,湍流、漂移)的时间或者取决于状态信息。
在一些实施方式中,可以处理由成像装置捕捉的图像序列以检测存在于来自每个成像装置的多个图像中的每个图像中的一个或多个特征点。特征点可以是图像的一部分(例如,边缘、角点、兴趣点、斑点、脊等),其可唯一地区别于该图像的其余部分和/或该图像中的其他特征点。可选地,特征点对于所成像的物体的变换(例如,平移、旋转、缩放)和/或图像特性(例如,亮度、曝光)的改变可以是相对不变的。可以在信息内容丰富的图像的部分中检测特征点(例如,显著的2D纹理)。可以在图像的在扰动下(例如,当改变图像的照度和亮度时)稳定的部分中检测特征点。本文描述的特征检测可以使用各种算法来实现,所述各种算法可以从图像数据提取一个或多个特征点并计算特征点的总数,或“特征点数目”。所述算法可以是边缘检测算法、角点检测算法、斑点检测算法或脊检测算法。在一些实施方式中,所述角点检测算法可以是“加速分割检测特征”(FAST)。在一些实施方式中,特征检测器可以提取特征点并使用FAST来计算特征点数目。在一些实施方式中,特征检测器可以是Canny边缘检测器、Sobel算子、Harris&Stephens/Plessy/Shi-Tomasi角点检测算法、SUSAN角点检测器、水平曲线曲率方法、高斯-拉普拉斯算子、高斯差、Hessian行列式、MSER、PCBR或灰度斑点、ORB、FREAK或其合适的组合。
可以使用一个或多个处理器根据所提取的特征来评估状态信息。在一些实施方式中,处理器可包括现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)或复杂可编程逻辑器件(CPLD)。在一些实施方式中,处理器可以是由UAV携带的嵌入式处理器。备选地,处理器可以与UAV分离(例如,位于与UAV通信的地面站处)。在一些实施方式中,处理器可以取得所提取的特征点并在图像帧的序列中对其进行比较,以便在地图上跟踪并标绘出物体以及确定图像帧上的相对变化。在一些实施方式中,处理器可以基于所述特征点通过分析图像帧上的相对变化来确定UAV的状态信息,诸如位置(例如,经度、纬度和高度)、姿态、定向(例如,横滚、俯仰和偏航)、速度(例如,平移速度和角速度)和加速度(例如,平移加速度和角加速度)。
图6图示了根据实施方式用于使用来自多个成像装置602的图像来处理UAV的状态信息的系统600。系统600可包括多个成像装置602、第一处理器604和第二处理器606。成像装置602中的每一个可以用于捕捉图像序列。由成像装置602捕捉的图像序列可发送至第一处理器604(例如,FPGA),所述第一处理器604处理所述图像序列以便检测每个图像中的特征点,例如,使用上述算法进行检测。如本文所进一步详述,在一些实施方式中,处理器604确定来自图像序列中的每个图像中的多个特征点,计算特征点数目,并且使用该特征点数目来评估或确定图像质量。图像序列中每个图像的特征点可传输至第二处理器606(例如,嵌入式处理器)。处理器606可以进一步处理所述图像序列以评估UAV的状态信息。可选地,如本文先前所描述,处理器606可以使用由处理器604生成的图像序列的特征点来确定状态信息。状态信息可输出至UAV的飞行控制模块,并且用作输出用以实现UAV移动的控制信号的基础。例如,控制信号可以输出至安装在UAV上的一个或多个动力单元。虽然系统600被描绘成包括两个单独的处理器604、606用于检测特征点和评估状态信息,但任何合适数目和组合的处理器都可使用。例如,可以使用单一处理器来执行特征点检测和状态信息确定。在一些实施方式中,处理器中的至少一些可由UAV携带。在一些实施方式中,处理器中的至少一些可以与UAV分离(例如,位于与UAV通信的地面站处)。可以有一个或多个处理器用于检测特征点和评估状态信息。所述特征点和状态信息可由不同的处理器来确定,或者由相同的处理器来确定。
从图像确定的状态信息的准确度和鲁棒性可取决于该图像的图像质量。在一些实施方式中,图像质量是指一个或多个图像帧对于图像处理(例如,评估UAV状态信息)的适当性。不适合于处理的差质量图像可能提供不准确的数据,而适合于处理的高质量图像可提供准确的数据。图像质量可能与图像显著度相关或者取决于图像显著度。图像显著度在本文中可用于指图像具有例如容易从背景和/或周围图像像素中分辨出来或“脱颖而出”的特征的程度。本文关于图像质量的任何描述亦可适用于图像显著度,并且反之亦然。在一些实施方式中,图像质量可以由图像的曝光水平和/或对比度来确定。在一些实施方式中,图像质量可以使用图像梯度方法来确定,其中可以计算针对图像中每个像素的梯度并且可以使用结果来确定图像纹理是否足够丰富。具有较丰富纹理的图像可具有较大的梯度,这可能意味着较高的图像质量。在一些实施方式中,如本文先前所描述,通过特征检测来评估图像质量。举例而言,图像质量可以与图像中检测到的特征点的数目相关。在一些实施方式中,评估并识别图像中的特征点的数目,以便确定图像质量。在一些实施方式中,每个图像中的特征点数目可指示出该图像的显著度。高数目的特征点可意味着适合用于评估状态信息的高质量图像,而低数目的特征点可意味着不适合用于评估状态信息的低质量图像。例如,高质量图像可具有至少约100个、150个、200个、250个、500个、1000个或更多个特征点。相反地,低质量图像可具有少于约100个、75个、60个、50个、25个或更少个特征点。
在一些实施方式中,由单一成像装置捕捉的图像帧中的一些或所有可能例如由于非最理想的成像条件而具有相对差的图像质量。在某些情况下,例如当光照很亮或者具有高对比度时,或者在不利的环境条件(诸如雨、雾或烟雾)下,成像装置可能不能够提供令人满意的图像数据。当图像描绘重复的环境(例如,墙壁、水体)、具有低对比度(例如,下雪、夜间)、曝光过度、曝光不足和/或不明显的表面纹理的环境时,可能导致差图像质量。而且,即使由成像装置拍摄的图像的初始序列具有良好质量,由该成像装置拍摄的后续图像也可能由于变化的环境条件而退化。差图像质量可导致特征点数目减少,从而导致对不准确的状态信息的处理,或者在一些情景下导致无法处理任何状态信息。
在一些实施方式中,差图像质量是由图像的曝光过度造成的。当图像损失突出细节和/或当图像的重要部分被“洗掉”时,可将该图像描述为曝光过度。处理器可能仅能够从曝光过度的图像的未被洗掉的部分检测到特征点,从而导致识别出的特征点较少,所述特征点可能难以与图像噪声区分开来。
在一些实施方式中,当图像描绘具有低的或不明显的表面纹理(例如,空白墙壁)的场景时,会出现差图像质量。表面纹理可以是由铺设、表面粗糙度以及波纹度所定义的表面性质。具有不明显表面纹理的图像可能具有相对低的图像对比度。具有不明显表面纹理的表面的图像可导致特征点较少,所述特征点可能难以与图像噪声区分开来。
为了缓解这一问题,处理器可以使用由多个成像装置拍摄的多个图像序列来确定状态信息。如果从许多不同的视野提取特征点,则所述成像装置中的至少一个产生适合于确定状态信息的高质量图像序列的几率可能会更大。然而,使用来自多个成像装置的图像帧的多个序列以便评估UAV的状态信息可能增加对计算资源的使用和/或增加处理时间。因此,在一些实施方式中,仅使用所述多个成像装置的子集来确定状态信息。可以使用各种方法来选择要使用哪个(哪些)成像装置。例如,所述选择可以基于由成像装置产生的图像序列的质量执行(例如,借助于处理器)。如本文先前所描述,图像质量可以基于每个图像序列的图像中存在的特征点的数目确定。
在一些实施方式中,并行地(例如,同时地)执行对每个图像序列的图像质量评估,以使得即使在处理从多个成像装置捕捉到的图像时,系统的处理延迟也并不一定会增加。在一些实施方式中,串行地(例如,依次地)执行从每个图像序列确定状态信息,使得如果处理来自多个成像装置的信息以确定状态信息,则系统的处理延迟可能会增加。因此,当处理来自所有成像装置的图像序列以确定图像质量时,仅选择所述成像装置的子集用于确定状态信息可能是有益的。在一些实施方式中,仅选择一个成像装置。备选地,可以选择两个、三个、四个、五个、六个、七个、八个或更多个成像装置。
对用于确定状态信息的成像装置的选择可以基于一个或多个准则。所述准则可以是预定准则(例如,在UAV的操作之前由用户预设)。备选地,所述准则可以在UAV的操作期间确定,例如,自动地或者基于用户输入确定。可选地,所述准则可以是动态的,使得该准则可以在UAV的操作期间修改,例如,响应于变化的操作条件而修改。在一些实施方式中,所述准则可与图像序列和/或该图像序列中单个图像的图像质量或图像显著度相关。如本文先前所描述,图像质量或图像显著度可与图像序列的特征点数目相关。在一些实施方式中,出于确定用于选择成像装置的准则的目的(该成像装置的图像序列将被评估以确定状态信息),“特征点数目”将会与“图像质量”互换使用。例如,所述准则可以是:整体图像序列或该序列中的每个图像是否满足图像质量的最小阈值(例如,是否满足最小特征点数目)。例如,用作图像质量阈值的最小特征点数目可以是约10个、20个、30个、40个、50个、60个、70个、80个、90个、100个、150个、200个、500个或更多个特征点。所述准则可以是:选择产生具有最高的平均图像质量(例如,每图像帧最高的特征点数目)的图像序列的成像装置。所述准则可以是:选择在图像序列内具有最高的最大图像质量(例如,最高的最大特征点数目)的成像装置。所述准则可以是:选择在图像序列内具有最高的最小图像质量(例如,最高的最小特征点数目)的成像装置。应当理解,所述准则可以根据所要选择的成像装置的数目改变。例如,如果要选择两个成像装置,则所述准则可以是:选择在图像序列内具有第一和第二高的最大图像质量(例如,第一和第二高的特征点数目)的两个成像装置。
再次参考图6,在一些实施方式中,系统600的一个或多个处理器可以评估捕捉到的图像帧的图像质量。例如,处理器604可以用于处理来自成像装置602中的每一个的图像序列,以便评估每个图像序列的图像质量。处理器604可处理向该处理器发送的每个图像帧,以便确定图像质量。例如,在一些实施方式中,处理器604确定来自图像序列中的每个图像中的多个特征点,计算特征点数目,并且使用该特征点数目来确定图像质量。每个序列的特征点数目可传输至处理器606,所述处理器606可将所述特征点数目用作选择一个或多个成像装置以供评估状态信息的基础。由选定的一个或多个成像装置获取的图像序列可继而由处理器606进行处理以生成状态信息。
图7图示了根据实施方式用于基于所处理的信息来评估状态信息并控制载运工具的方法1000。正如本文介绍的所有方法,可以使用本文描述的系统和装置的任何实施方式来执行方法1000的步骤。例如,方法1000可由UAV携带的导航系统来执行。在一些实施方式中,方法1000的步骤1010到步骤1050可由一个或多个处理器来执行,所述一个或多个处理器中的至少一些可由UAV携带。此外,可以在无需用户输入的情况下自动地执行所述步骤中的至少一些。备选地或组合地,步骤中的至少一些可涉及用户输入。根据需要,可以重复方法1000的步骤中的一些或所有。例如,可以按期望的速率重复步骤1010到步骤1050。所述速率可以小于或等于约每0.005秒一次、每0.01秒一次、每0.02秒一次、每0.05秒一次、每0.1秒一次、每0.2秒一次、每0.5秒一次、每1秒一次、每2秒一次、每5秒一次、每10秒一次、每20秒一次、每50秒一次、每100秒一次、每200秒一次、每500秒一次、每1000秒一次或每3600秒一次。在一些实施方式中,该速率可以是约每0.02秒一次至约每0.1秒一次。
在步骤1010中,可以在一时间间隔内由多个成像装置捕捉多个图像序列。所述时间间隔可以小于或等于约0.005秒、0.01秒、0.02秒、0.05秒、0.1秒、0.2秒、0.5秒、1秒、2秒、5秒、10秒、20秒、50秒、100秒、200秒、500秒、1000秒或3600秒。在一些实施方式中,时间间隔可在从约0.02秒到约0.1秒的范围内。在一些实施方式中,时间间隔可在从约0.005秒到约10秒的范围内。在所述时间间隔期间捕捉到的图像序列可以包括约1个图像、2个图像、5个图像、10个图像、20个图像、50个图像、100个图像、200个图像、500个图像或1000个图像。可选地,如本文先前所讨论,成像装置可以布置在UAV上,以便从不同的视野捕捉所述多个图像中的每个。
在步骤1020中,可以借助于处理器来评估来自每个成像装置的多个图像的图像质量。如本文先前所描述,图像质量可与特征点数目相关。对图像质量的确定可以并行地处理(例如,同时处理所有的图像序列)。因此,即使针对图像质量处理来自多个成像装置的捕捉的图像,系统的处理延迟可能也并不一定会增加。
在步骤1030中,可以基于步骤1020的图像质量评估来选择由多个成像装置拍摄的图像序列中的至少一个。对成像装置的选择可以基于一个或多个准则。如本文先前所描述,所述准则可以与图像序列的图像质量或图像显著度相关。例如,所述准则可以是:整体图像序列或该序列中的每个图像是否满足图像质量的最小阈值。所述准则可以是:选择所具有的图像序列拥有最高的平均图像质量的成像装置。所述准则可以是:选择在图像序列内具有最高的最大图像质量的成像装置。所述准则可以是:选择在图像序列内具有最高的最小图像质量的成像装置。应当理解,所述准则可根据所要选择的成像装置的数目改变。例如,如果选择两个成像装置,则准则可以是选择在图像序列内具有第一和第二高的最大图像质量的两个成像装置。在一些实施方式中,出于确定用于选择成像装置(其图像序列将被评估以确定状态信息)的准则的目的,“特征点数目”将会与“图像质量”互换使用。
在步骤1040中,可以借助于处理器使用来自步骤1030中选定的一个或多个成像装置的多个图像来评估UAV的状态信息。由处理器来评估或确定状态信息可以串行地执行(例如,一次一个图像序列,依次地执行)。因此,如果处理来自多个成像装置的信息,则系统的处理延迟可能会增加。通过具有用于选择仅来自成像装置的子集的图像序列以供在确定状态信息中处理的准则,可以节省处理时间和计算资源。在一些实施方式中,虽然针对由多个成像装置拍摄的所有图像进行图像质量评估(并行处理),但仅使用来自成像装置的子集的数据进行状态信息评估(串行处理)。而且,状态信息的确定可能比图像质量确定在计算上更为高强度,所述图像质量确定可能是计算成本低廉的低级图像处理操作。因此,图7可图示一种在计算上和时间上高效的确定状态信息的方法。
在步骤1050中,可以可选地将状态信息用作输出用以使UAV在环境内导航的信号的基础。所述信号可包括用于UAV的动力系统(例如,旋翼)的控制信号,用以实现载运工具的移动。所述信号可以基于用户命令生成,该用户命令被输入到远程终端或其他用户装置中并随后被传输至UAV。备选地,该信号可由UAV(例如,自动化机载控制器)自主地生成。在一些情况下,所述信号可以利用来自用户输入和自动化的贡献半自主地生成。在一些实施方式中,使用状态信息作为产生控制信号的飞行控制算法的输入。
图8图示了根据实施方式用于基于计算特征点数目来评估状态信息的方法1100。方法1100可被理解为方法1000的特殊版本,其中通过计算由每个成像装置拍摄的多个图像中的每个图像中的特征点数目来评估所述图像的图像质量。
方法1100的步骤1110到步骤1150可由一个或多个处理器来执行,其中至少一些处理器可由UAV携带。在一些实施方式中,方法1100由UAV的导航系统来执行。此外,可以在无需用户输入的情况下自动地执行所述步骤中的至少一些。备选地或组合地,步骤中的至少一些可涉及用户输入。根据需要,可以重复方法1100的步骤中的一些或所有。例如,可以按期望的速率重复步骤1110到步骤1150。所述速率可以小于或等于约每0.005秒一次、每0.01秒一次、每0.02秒一次、每0.05秒一次、每0.1秒一次、每0.2秒一次、每0.5秒一次、每1秒一次、每2秒一次、每5秒一次、每10秒一次、每20秒一次、每50秒一次、每100秒一次、每200秒一次、每500秒一次、每1000秒一次或每3600秒一次。在一些实施方式中,该速率可以是约每0.02秒一次至约每0.1秒一次。
在步骤1110中,可以在一时间间隔内由多个成像装置中的每个成像装置捕捉多个图像序列。所述时间间隔可以小于或等于约0.005秒、0.01秒、0.02秒、0.05秒、0.1秒、0.2秒、0.5秒、1秒、2秒、5秒、10秒、20秒、50秒、100秒、200秒、500秒、1000秒或3600秒。在一些实施方式中,时间间隔可在从约0.02秒到约0.1秒的范围内。在一些实施方式中,时间间隔可在从约0.005秒到约10秒的范围内。在所述时间间隔期间捕捉到的图像序列可以包括约1个图像、2个图像、5个图像、10个图像、20个图像、50个图像、100个图像、200个图像、500个图像或1000个图像。如本文先前所讨论,成像装置可以布置在UAV上,以便从不同的视野捕捉所述多个图像中的每个图像。
在步骤1120中,例如借助于处理器,计算来自每个成像装置的多个图像中的每个图像中的特征点数目。在一些实施方式中,可以通过使用诸如FAST等特征检测算法计算每个图像中的特征点数目来评估特征点数目。对特征点数目的计算可以并行地处理。因此,即使针对特征点数目处理来自多个成像装置的捕捉的图像,系统的处理延迟可能也并不一定会增加。
在步骤1130中,可以基于步骤1120的评估来选择多个成像装置中的至少一个。对成像装置的选择可以基于一个或多个准则。该准则可与图像序列的特征点数目相关。例如,所述准则可以是:整体图像序列或该序列中的每个图像是否满足特征点数目的最小阈值。所述准则可以是:选择所具有的图像序列拥有最高的平均特征点数目的成像装置。所述准则可以是:选择在图像序列内具有最高的最大特征点数目的成像装置。所述准则可以是:选择在图像序列内具有最高的最小特征点数目的成像装置。应当理解,所述准则可以根据所要选择的成像装置的数目改变。例如,如果选择两个成像装置,则准则可以是:选择在图像序列内具有第一和第二高的最大特征点数目的两个成像装置。
在步骤1140中,可以借助于处理器使用步骤1130中选定的多个图像来评估UAV的状态信息。由处理器进行的状态信息的确定可以串行地执行。因此,如果处理来自多个成像装置的信息,则系统的处理延迟可能会增加。通过具有用于选择所述图像的子集以供在确定状态信息中处理的准则,可以节省处理时间和计算资源。
可选地,状态信息可用作输出用以使UAV在环境内导航的信号的基础。所述信号可包括用于UAV的动力系统(例如,旋翼)的控制信号,用以实现载运工具的移动。所述信号可以基于输入到远程终端或其他用户装置中并随后传输至UAV的用户命令生成。备选地,该信号可由UAV(例如,实现合适的飞行控制算法的自动化机载控制器)自主地生成。在一些情况下,所述信号可以利用来自用户输入和自动化的贡献半自主地生成。
在一些实施方式中,将一个或多个成像装置指定为用于评估状态信息的“默认”成像装置。这样的成像装置在本文中可称为“主成像装置”。默认情况下不选择的成像装置在本文中可称为“辅成像装置”。主成像装置或默认成像装置可以是这样的成像装置:其图像序列总是被使用以便确定图像质量,并且如果所述图像质量被认为是令人满意的,则其图像序列用于评估UAV的状态信息。辅成像装置或非默认成像装置可以是这样的成像装置:只有当由主成像装置拍摄的图像序列的图像质量被认为不令人满意时,才会针对该辅成像装置或非默认成像装置的图像序列进行图像质量的评估。只有当由主成像装置拍摄的图像序列具有不令人满意的图像质量时,才可以使用由辅成像装置拍摄的图像序列来评估UAV的状态信息。UAV可具有任何合适数目的主成像装置和辅成像装置。例如,UAV可具有一个、两个、三个、四个、五个、六个、七个、八个或更多个主成像装置。UAV可具有一个、两个、三个、四个、五个、六个、七个、八个或更多个辅成像装置。UAV可具有比辅成像装置更多的主成像装置,或者反之亦然。可选地,主成像装置的数目可以等于辅成像装置的数目。
在一些实施方式中,主成像装置可以是定向成大致上沿着UAV的运动方向的成像装置。当主成像装置的视野与运动方向重叠时,可以认为主成像装置是定向成大致上沿着运动方向。在一些实施方式中,当视野或光轴与运动方向对准时,可以认为主成像装置是定向成大致上沿着UAV的运动方向。在一些实施方式中,当成像装置的视野或光轴约为运动方向的10°、20°、30°、40°、50°、60°、70°、80°、90°、100°、110°、120°、130°、140°、150°、160°、170°或180°或其之内时,可以认为主成像装置是定向成大致上沿着UAV的运动方向。主成像装置可以随着UAV运动方向的改变而改变。在UAV的运动方向改变之后,主成像装置可能不再定向于UAV的运动方向上。
图9图示了根据实施方式的运动中的UAV 1200的俯视图,所述UAV 1200具有主成像装置1202和辅成像装置1204、1206、1208。UAV 1200包括携带成像装置1202、1204、1206、1208的机身1210。成像装置1202、1204、1206、1208中的每一个耦合至UAV 1200的不同侧面,并且具有对应的视野1212、1214、1216、1218。UAV 1200可由一个或多个动力单元(未示出)推进以沿着移动方向(箭头1220所示)移动。UAV的移动方向可以是任何方向。UAV可以水平地(例如,向前、向后、向左、向右)、垂直地(例如,向上、向下)或以任何组合进行移动。在图9的实施方式中,成像装置1202被指定为主成像装置,这是因为视野1212定向成沿着所述移动方向,而辅成像装置1204、1206、1208的视野1214、1216、1218未定向成沿着所述移动方向。在一些实施方式中,如果移动方向随后发生改变,则对主成像装置和辅成像装置的指定可随之改变,使得沿着新的移动方向定向的成像装置被指定为新的主成像装置。
在备选实施方式中,独立于UAV的运动方向来执行对主成像装置的选择。例如,可以基于其他准则(例如,用户偏好、特征点数目、图像质量、功耗等)来选择主成像装置和辅成像装置。因此,主成像装置可能不定向成大致上沿着UAV的移动方向。
如果主成像装置的图像质量满足某一准则或者超过某一阈值,则可处理由该主成像装置拍摄的图像序列以评估UAV的状态信息。所述准则可以是:整体图像序列是否满足图像质量的最小阈值,该序列中的每个图像是否满足图像质量的最小阈值,或者图像序列中的图像的子集是否满足图像质量的最小阈值。在一些实施方式中,出于确定是否将使用由主成像装置拍摄的图像用于处理UAV状态信息的准则的目的,“特征点数目”将会与“图像质量”互换使用。例如,图像质量的最小阈值可以是特征点数目,诸如不少于约10个、20个、30个、40个、50个、60个、70个、80个、90个、100个、150个、200个、500个或更多个特征点。如果主成像装置的图像质量未满足某一准则和/或未超过某一阈值,则可以确定辅成像装置的图像质量。可以基于一个或多个准则来选择所述辅成像装置中的至少一个用于处理状态信息。
当主成像装置未拍摄到具有令人满意的质量的图像序列时,对用于处理状态信息的成像装置的选择可以基于一个或多个准则。所述准则可以是:整体图像序列或该图像序列中的每个图像是否满足图像质量的最小阈值。所述准则可以是:所具有的图像序列拥有最高的平均图像质量的成像装置。所述准则可以是:在图像序列内具有最高的最大图像质量的成像装置。所述准则可以是:在图像序列内具有最高的最小图像质量的成像装置。应当理解,所述准则将会根据所要选择的成像装置的数目改变。例如,如果选择两个成像装置,则准则可以是在图像序列内具有第一和第二高的最大图像质量的两个成像装置。在一些实施方式中,出于确定用于选择成像装置(其图像序列将被评估以确定状态信息)的准则的目的,“特征点数目”将会与“图像质量”互换使用。在一些实施方式中,图像序列用于处理状态信息的辅成像装置可被指定为新的主成像装置。不具有令人满意的图像质量的先前的主成像装置可变成辅成像装置。在一些实施方式中,UAV的运动方向可能不与主成像装置和辅成像装置相关联。
图10图示了根据实施方式用于基于主成像装置和辅成像装置来评估状态信息的方法1300。图10中的步骤1310-步骤1350可由一个或多个处理器来执行,其中一些处理器可由UAV携带。在一些实施方式中,方法1300由UAV的导航系统来执行。此外,可以在无需用户输入的情况下自动地执行所述步骤。可以按期望的速率重复图10中的步骤1310-步骤1350。所述速率可以小于或等于约每0.005秒一次、每0.01秒一次、每0.02秒一次、每0.05秒一次、每0.1秒一次、每0.2秒一次、每0.5秒一次、每1秒一次、每2秒一次、每5秒一次、每10秒一次、每20秒一次、每50秒一次、每100秒一次、每200秒一次、每500秒一次、每1000秒一次或每3600秒一次。在一些实施方式中,所述速率可以是约每0.02秒一次至约每0.1秒一次。
在步骤1310中,可以在一时间间隔内由多个成像装置中的每个成像装置捕捉多个图像。所述时间间隔可以小于或等于约0.005秒、0.01秒、0.02秒、0.05秒、0.1秒、0.2秒、0.5秒、1秒、2秒、5秒、10秒、20秒、50秒、100秒、200秒、500秒、1000秒或3600秒。在一些实施方式中,时间间隔可在从约0.02秒到约0.1秒的范围内。在所述时间间隔期间捕捉到的图像序列可以包括约1个图像、2个图像、5个图像、10个图像、20个图像、50个图像、100个图像、200个图像、500个图像或1000个图像。如本文先前所讨论,成像装置可以布置在UAV上,以便从不同的视野捕捉所述多个图像中的每个图像。可选地,成像装置可以布置在UAV上,以便利用不同的视野来捕捉所述多个图像中的每个图像。多个成像装置可包括一个或多个主成像装置(例如,单一主成像装置)以及一个或多个辅成像装置。
在步骤1320中,如先前所描述,可以评估来自主成像装置的多个图像的图像质量(例如,借助于处理器)以确定所述图像质量是否满足预定阈值。在一些实施方式中,图像质量可基于图像中特征点的总数来确定。如果所述图像序列中的图像质量满足预定阈值,则可以使用由主成像装置捕捉到的图像来评估或确定所述状态信息。备选地,可以使用其他类型的准则来评估来自主成像装置的图像的图像质量。所述准则可以是:整体图像序列或该序列中的每个图像是否满足图像质量的最小阈值。在一些实施方式中,出于确定是否将会使用由主成像装置拍摄的图像用于处理UAV状态信息的准则的目的,“特征点数目”将会与“图像质量”互换使用。
在步骤1325中,如果如步骤1320中所评估:图像质量满足预定阈值(或者满足准则),则可借助于处理器使用由主成像装置拍摄的多个图像来评估UAV的状态信息。
在步骤1330中,如果在步骤1320中图像质量未满足预定阈值(或者满足准则),则可借助于处理器评估来自所述一个或多个辅成像装置的多个图像的图像质量。在一些实施方式中,如本文先前所描述,可以通过图像中特征点的总数来评估或确定图像质量。
在步骤1340中,可以基于步骤1330的评估来选择所述一个或多个辅成像装置中的至少一个。对成像装置的选择可以基于一个或多个准则。所述准则可以是:整体图像序列或该序列中的每个图像是否满足图像质量的最小阈值。所述准则可以是:所具有图像序列拥有最高的平均图像质量的成像装置。所述准则可以是:在图像序列内具有最高的最大图像质量的成像装置。所述准则可以是:在图像序列内具有最高的最小图像质量的成像装置。应当理解,所述准则将会根据所要选择的成像装置的数目改变。例如,如果选择两个成像装置,则准则可以是在图像序列内具有第一和第二高的最大图像质量的两个成像装置。在一些实施方式中,出于确定用于选择成像装置的准则的目的(所述成像装置的图像序列将被评估以确定状态信息),“特征点数目”将会与“图像质量”互换使用。
在一些实施方式中,如果由一个或多个辅成像装置拍摄的图像序列具有低于一个或多个主成像装置的图像质量(例如,没有一个成像装置捕捉到超过预定阈值的图像序列),则可以选择主成像装置用于评估UAV的状态信息的目的,尽管主成像装置并没有超过预定准则或阈值。
在步骤1350中,可以借助于处理器使用来自步骤1340中选定的一个或多个辅成像装置的多个图像来评估UAV的状态信息。如本文先前所描述,所述状态信息可例如基于由选定的成像装置所捕捉到的图像序列来确定。在一些实施方式中,如果辅成像装置拍摄到质量低于主成像装置的图像序列,则可借助于处理器使用由主成像装置拍摄的多个图像来评估UAV的状态信息。在一些实施方式中,状态信息评估的结果可基于所使用的成像序列的视野有所不同。因此,对状态信息的评估(其可用于导航)可以将一个或多个选定的成像装置的视野的任何变化纳入考虑。
在一些实施方式中,一个或多个成像装置的一个或多个图像序列被用于评估UAV的状态信息,所述一个或多个成像装置可以成为或保持作为“一个或多个主成像装置”。主成像装置是这样的成像装置:其图像序列总是被评估以确定图像质量,并且,如果该图像质量被认为是令人满意的,则使用其图像序列来评估UAV的状态信息。一个或多个图像序列未被用于评估UAV的状态信息的一个或多个成像装置可以成为或保持作为“一个或多个辅成像装置”。辅成像装置是这样的成像装置:只有当由主成像装置拍摄的图像序列的图像质量被认为不令人满意时,才会针对该辅成像装置的图像序列进行图像质量评估。
可选地,步骤1350中评估的状态信息可用作输出用以使UAV在环境内导航的信号的基础。所述信号可包括用于UAV的动力系统(例如,旋翼)的控制信号,用以实现载运工具的移动。所述信号可以基于输入到远程终端或其他用户装置中并随后传输至UAV的用户命令而生成。备选地,所述信号可由UAV(例如,自动化机载控制器)自主地生成。在一些情况下,所述信号可以利用来自用户输入和自动化的贡献半自主地生成。
图11图示了根据实施方式由三个辅成像装置获取的三个图像序列的示例性特征点数目。图像序列1405示出了由辅成像装置#1拍摄的十个图像帧的特征点数目。图像序列1410示出了由辅成像装置#2拍摄的十个图像帧的特征点数目。图像序列1415示出了由辅成像装置#3拍摄的十个图像帧的特征点数目。如本文先前所描述,成像装置#1、成像装置#2和成像装置#3可以利用不同视野和/或利用不同光轴来捕捉图像。在图11的实施方式中,在时间间隔t(未示出)期间,由“主成像装置”拍摄的每个图像帧中的特征点数目小于阈值T1。阈值T1可以是约100个特征点。因此,可能并不一定使用由主成像装置拍摄的图像来评估UAV的状态信息,并且可以评估由辅成像装置(其相对于彼此以及相对于主成像装置具有不同的视野)拍摄的图像的图像质量。
可以对从每个辅成像装置在时间t(例如,2秒)期间所拍摄的10个图像帧中的每一个提取的特征点数目进行计数,以便确定是否存在更适合于评估状态信息的图像序列。在图11中,由辅成像装置#1拍摄的10个帧中的特征点的最小数目为51(帧2中所示),由辅成像装置#2拍摄的10个帧中的特征点的最小数目为62(帧6中所示),而由辅成像装置#3拍摄的10个帧中的特征点的最小数目为49(帧1中所示)。可以选择拍摄了在这些最小数目中具有最大值的图像帧的辅成像装置(例如,辅成像装置#2)。选定的辅成像装置可以成为主成像装置和/或被选择用于确定状态信息。在一些实施方式中,如果由选定的辅成像装置拍摄的10个帧中的特征点的最小数目大于第二阈值T2,则已选定的辅成像装置可以成为主成像装置和/或被选择用于确定状态信息。阈值T2可以是约120个特征点。在一些实施方式中,可以使用由新的主成像装置拍摄的图像序列来处理UAV的状态信息。
备选地,可以比较由辅成像装置拍摄的10个图像帧中的特征点数目中的最大值,以选择成像装置。在图11中,该最大值对于辅成像装置#1为72(帧4中所示),对于辅成像装置#2为82(帧4中所示),而对于辅成像装置#3为77(帧10中所示)。可以选择拍摄了在这些最大数目中具有最大值的图像帧的辅成像装置(例如,辅成像装置#2)。选定的辅成像装置可以成为主成像装置和/或被选择用于评估状态信息。在一些实施方式中,如果由选定的辅成像装置拍摄的10个帧中的特征点的最大数目大于第二阈值T2,则已选定的辅成像装置可以成为主成像装置和/或被选择用于确定状态信息。在一些实施方式中,可以使用由新的主成像装置拍摄的图像序列来处理UAV的状态信息。
备选地,可以比较由辅成像装置拍摄的10个图像帧中特征点的平均值或总值,以选择成像装置。在图11中,对于辅成像装置#1,该平均值为61.1(总值为611);对于辅成像装置#2,该平均值为71.3(总值为713);而对于辅成像装置#3,该平均值为64.1(总值为641)。可以选择具有特征点的最高平均值或总值的辅成像装置(例如,辅成像装置#2)。选定的辅成像装置可以成为主成像装置和/或被选择用于确定状态信息。在一些实施方式中,如果由选定的辅成像装置拍摄的10个帧中特征点的平均数目或总数大于第二阈值T2,则已选定的辅成像装置可以成为主成像装置和/或被选择用于评估状态信息。在一些实施方式中,可以使用由新的主成像装置拍摄的图像序列来处理UAV的状态信息。
当主成像装置未捕捉到适合用于确定状态信息的图像序列时,可以选择已捕捉到具有高图像质量值的图像序列的辅成像装置来评估UAV的状态信息。在一些实施方式中,可以选择先前描述的其他准则作为选择最适合于评估UAV状态信息的成像装置的基础。本文描述并在图11中示出的方法可以与其他方法组合使用(例如,作为方法1000中的步骤1030-步骤1050的一部分来执行)。例如,可以评估状态信息,并将其用作向安装在载运工具上的一个或多个动力单元输出用于实现载运工具移动的控制信号的基础。
本文所描述的系统、装置和方法可以适用于众多可移动物体。如前文所提及,本文对飞行器的任何描述均可适用于和用于任何可移动物体。本发明的可移动物体可被配置用于在任何合适的环境内移动,诸如在空中(例如,固定翼航空器、旋转翼航空器或者既不具有固定翼也不具有旋转翼的航空器)、在水中(例如,船舶或潜艇)、在地面上(例如,机动车,诸如轿车、卡车、公交车、厢式货车、摩托车;可移动结构或框架,诸如棒状物、钓鱼竿;或者火车)、在地下(例如,地铁)、在太空(例如,航天飞机、卫星或探测器)或者这些环境的任何组合。可移动物体可以是载运工具,诸如本文别处所描述的载运工具。在一些实施方式中,可移动物体可以安装在诸如人类或动物等活体身上。合适的动物可以包括禽类、犬类、猫类、马类、牛类、羊类、猪类、海豚、啮齿类或昆虫。
可移动物体能够在所述环境内关于六个自由度(例如,三个平移自由度和三个旋转自由度)自由移动。备选地,可移动物体的移动可能在一个或多个自由度受到约束,诸如由预定路径、轨迹或定向所约束。所述移动可以由诸如引擎或马达等任何合适的致动机构所致动。可移动物体的致动机构可以由任何合适的能源提供动力,所述能源诸如为电能、磁能、太阳能、风能、引力能、化学能、核能或者其任何合适的组合。可移动物体可以如本文别处所述经由动力系统自推进。所述动力系统可以可选地依靠能源运行,所述能源诸如为电能、磁能、太阳能、风能、引力能、化学能、核能或者其任何合适的组合。备选地,可移动物体可以由生物所携带。
在一些情况下,所述可移动物体可以是载运工具。合适的载运工具可以包括水上载运工具、飞行器、空间载运工具或地面载运工具。例如,飞行器可以是固定翼航空器(例如,飞机、滑翔机)、旋转翼航空器(例如,直升机、旋翼飞机)、同时具有固定翼和旋转翼的航空器或者既无固定翼又无旋转翼的航空器(例如,飞艇、热气球)。载运工具可以是自推进式,诸如在空中、在水上或水中、在太空中或者在地面上或地面下自推进。自推进式载运工具可以利用动力系统,诸如包括一个或多个引擎、马达、轮子、轮轴、磁体、旋翼、螺旋桨、桨叶、喷嘴或者其任何合适组合的动力系统。在一些情况下,动力系统可以用于使可移动物体能够从表面起飞、降落到表面上、维持其当前位置和/或定向(例如,悬停)、改变定向和/或改变位置。
可移动物体可以由用户遥控或者由可移动物体之内或之上的乘员在本地控制。在一些实施方式中,可移动物体是无人可移动物体,诸如UAV。无人可移动物体,诸如UAV,可以不具有该可移动物体机载的乘员。可移动物体可以由人类或自主控制系统(例如,计算机控制系统)或者其任何合适的组合来控制。可移动物体可以是自主式或半自主式机器人,诸如配置有人工智能的机器人。
可移动物体可以具有任何合适的大小和/或尺寸。在一些实施方式中,可移动物体可以具有使人类乘员身处载运工具之内或之上的大小和/或尺寸。备选地,可移动物体可以具有比能够使人类乘员身处载运工具之内或之上的大小和/或尺寸更小的大小和/或尺寸。可移动物体可以具有适合于由人类搬运或携带的大小和/或尺寸。备选地,可移动物体可以大于适合由人类搬运或携带的大小和/或尺寸。在一些情况下,可移动物体可以具有的最大尺寸(例如,长度、宽度、高度、直径、对角线)小于或等于约:2cm、5cm、10cm、50cm、1m、2m、5m或10m。该最大尺寸可以大于或等于约:2cm、5cm、10cm、50cm、1m、2m、5m或10m。例如,可移动物体的相对旋翼的轴之间的距离可以小于或等于约:2cm、5cm、10cm、50cm、1m、2m、5m或10m。备选地,相对旋翼的轴之间的距离可以大于或等于约:2cm、5cm、10cm、50cm、1m、2m、5m或10m。
在一些实施方式中,可移动物体可以具有小于100cm x 100cm x 100cm、小于50cmx 50cm x 30cm或小于5cm x 5cm x 3cm的体积。可移动物体的总体积可以小于或等于约:1cm3、2cm3、5cm3、10cm3、20cm3、30cm3、40cm3、50cm3、60cm3、70cm3、80cm3、90cm3、100cm3、150cm3、200cm3、300cm3、500cm3、750cm3、1000cm3、5000cm3、10,000cm3、100,000cm3、1m3或10m3。相反地,可移动物体的总体积可以大于或等于约:1cm3、2cm3、5cm3、10cm3、20cm3、30cm3、40cm3、50cm3、60cm3、70cm3、80cm3、90cm3、100cm3、150cm3、200cm3、300cm3、500cm3、750cm3、1000cm3、5000cm3、10,000cm3、100,000cm3、1m3或10m3。
在一些实施方式中,可移动物体可以具有的占地面积(这可以指由所述可移动物体所包围的横截面面积)小于或等于约:32,000cm2、20,000cm2、10,000cm2、1,000cm2、500cm2、100cm2、50cm2、10cm2或5cm2。相反地,所述占地面积可以大于或等于约:32,000cm2、20,000cm2、10,000cm2、1,000cm2、500cm2、100cm2、50cm2、10cm2或5cm2。
在一些情况下,可移动物体可以不超过1000kg重。可移动物体的重量可以小于或等于约:1000kg、750kg、500kg、200kg、150kg、100kg、80kg、70kg、60kg、50kg、45kg、40kg、35kg、30kg、25kg、20kg、15kg、12kg、10kg、9kg、8kg、7kg、6kg、5kg、4kg、3kg、2kg、1kg、0.5kg、0.1kg、0.05kg或0.01kg。相反地,所述重量可以大于或等于约:1000kg、750kg、500kg、200kg、150kg、100kg、80kg、70kg、60kg、50kg、45kg、40kg、35kg、30kg、25kg、20kg、15kg、12kg、10kg、9kg、8kg、7kg、6kg、5kg、4kg、3kg、2kg、1kg、0.5kg、0.1kg、0.05kg或0.01kg。
在一些实施方式中,可移动物体相对于该可移动物体所携带的负荷可以较小。如下文进一步详述,所述负荷可以包括负载和/或载体。在一些示例中,可移动物体重量与负荷重量之比可以大于、小于或等于约1:1。在一些情况下,可移动物体重量与负荷重量之比可以大于、小于或等于约1:1。可选地,载体重量与负荷重量之比可以大于、小于或等于约1:1。当需要时,可移动物体重量与负荷重量之比可以小于或等于:1:2、1:3、1:4、1:5、1:10或者甚至更小。相反地,可移动物体重量与负荷重量之比还可以大于或等于:2:1、3:1、4:1、5:1、10:1或者甚至更大。
在一些实施方式中,可移动物体可以具有低能耗。例如,可移动物体可以使用小于约:5W/h、4W/h、3W/h、2W/h、1W/h或更小。在一些情况下,可移动物体的载体可以具有低能耗。例如,所述载体可以使用小于约:5W/h、4W/h、3W/h、2W/h、1W/h或更小。可选地,可移动物体的负载可以具有低能耗,诸如小于约:5W/h、4W/h、3W/h、2W/h、1W/h或更小。
图12图示了根据本发明的实施方式的无人飞行器(UAV)1500。该UAV可以是如本文所述的可移动物体的示例。UAV 1500可以包括具有四个旋翼1502、1504、1506和1508的动力系统。可以提供任何数目的旋翼(例如,一个、两个、三个、四个、五个、六个、七个、八个或更多个)。无人飞行器的旋翼、旋翼组件或其他动力系统可使该无人飞行器能够悬停/维持位置、改变定向和/或改变位置。相对旋翼的轴之间的距离可以是任何合适的长度1510。例如,长度1510可以小于或等于2m,或者小于或等于5m。在一些实施方式中,长度1510可以在从40cm到1m、从10cm到2m或者从5cm到5m的范围内。本文对UAV的任何描述均可适用于可移动物体,诸如不同类型的可移动物体,并且反之亦然。
在一些实施方式中,可移动物体可被配置用于携带负荷。该负荷可以包括乘客、货物、器材、仪器等之中的一种或多种。该负荷可以提供在外壳内。该外壳可以与可移动物体的外壳相分离,或者是可移动物体的外壳的一部分。备选地,负荷可以被提供有外壳,而可移动物体不具有外壳。备选地,负荷的部分或者整个负荷可以在不具有外壳的情况下提供。负荷可以相对于所述可移动物体刚性固定。可选地,负荷可以是相对于可移动物体可移动的(例如,可以相对于可移动物体平移或旋转)。
在一些实施方式中,负荷包括负载。所述负载可被配置成不执行任何操作或功能。备选地,负载可以是被配置用于执行操作或功能的负载,亦称为功能性负载。例如,负载可以包括一个或多个传感器,用于勘测一个或多个目标。任何合适的传感器均可并入到负载中,诸如图像捕捉装置(例如,相机)、音频捕捉装置(例如,抛物面麦克风)、红外成像装置或紫外成像装置。所述传感器可以提供静态感测数据(例如,照片)或动态感测数据(例如,视频)。在一些实施方式中,传感器提供针对负载的目标的感测数据。备选地或组合地,负载可以包括一个或多个发射体,用于向一个或多个目标提供信号。可以使用任何合适的发射体,诸如照明源或声源。在一些实施方式中,负载包括一个或多个收发器,诸如用于与远离可移动物体的模块通信。可选地,负载可被配置用于与环境或目标交互。例如,负载可以包括能够操纵物体的工具、仪器或机构,诸如机械臂。
可选地,负荷可以包括载体。该载体可被提供用于负载,并且所述负载可经由该载体直接地(例如,直接接触可移动物体)或间接地(例如,不接触可移动物体)耦合至可移动物体。相反地,负载可在无需载体的情况下安装在可移动物体上。负载可与载体一体成型。备选地,负载可以可拆卸地耦合至载体。在一些实施方式中,负载可以包括一个或多个负载元件,并且所述负载元件中的一个或多个可如上文所述可以相对于可移动物体和/或载体移动。
载体可以与可移动物体一体成型。备选地,载体可以可拆卸地耦合至可移动物体。载体可以直接地或间接地耦合至可移动物体。载体可以向负载提供支撑(例如,承载所述负载的重量的至少一部分)。载体可以包括能够稳定和/或引导负载移动的合适的安装结构(例如,云台平台)。在一些实施方式中,载体可以适于控制负载相对于可移动物体的状态(例如,位置和/或定向)。例如,载体可被配置用于相对于可移动物体移动(例如,关于一个、两个或三个平移度和/或一个、两个或三个旋转度),以使得负载相对于合适的参考系维持其位置和/或定向,而不管可移动物体的移动如何。所述参考系可以是固定参考系(例如,周围环境)。备选地,所述参考系可以是移动参考系(例如,可移动物体、负载目标)。
在一些实施方式中,载体可被配置用于允许负载相对于载体和/或可移动物体的移动。所述移动可以是关于多达三个自由度的平移(例如,沿着一个、两个或三个轴),或者是关于多达三个自由度的旋转(例如,围绕一个、两个或三个轴),或者是其任何合适组合。
在一些情况下,载体可以包括载体机架组件以及载体致动组件。所述载体机架组件可以向负载提供结构支撑。载体机架组件可以包括单独的载体机架组件,其中一些组件可以是可相对于彼此移动的。所述载体致动组件可以包括一个或多个致动器(例如,马达),所述致动器致动单个载体机架部件移动。致动器可以允许多个载体机架部件同时移动,或者可被配置用于每次允许单一载体机架部件移动。载体机架部件的移动可以产生负载的对应移动。例如,载体致动组件可以致动一个或多个载体机架部件围绕一个或多个旋转轴(例如,横滚轴、俯仰轴或偏航轴)旋转。所述一个或多个载体机架部件的旋转可以使负载相对于可移动物体围绕一个或多个旋转轴旋转。备选地或组合地,载体致动组件可以致动一个或多个载体机架部件沿着一个或多个平移轴平移,并从而产生负载相对于可移动物体沿着一个或多个对应的轴平移。
在一些实施方式中,可移动物体、载体和负载相对于固定参考系(例如,周围环境)和/或相对于彼此的移动可以由终端来控制。所述终端可以是处于远离所述可移动物体、载体和/或负载的位置处的遥控装置。终端可以安置于支撑平台上或者固定至支撑平台。备选地,终端可以是手持式或可穿戴式装置。例如,终端可以包括智能电话、平板计算机、笔记本电脑、计算机、眼镜、手套、头盔、麦克风或者其合适的组合。终端可以包括用户界面,诸如键盘、鼠标、操纵杆、触摸屏或显示器。任何合适的用户输入均可用于与终端交互,诸如手动输入命令、语音控制、手势控制或位置控制(例如,经由终端的移动、位置或倾斜)。
终端可以用于控制可移动物体、载体和/或负载的任何合适的状态。例如,终端可以用于控制可移动物体、载体和/或负载相对于固定参考系和/或相对于彼此的位置和/或定向。在一些实施方式中,终端可以用于控制可移动物体、载体和/或负载的单独元件,诸如载体的致动组件、负载的传感器或者负载的发射器。终端可以包括适于与可移动物体、载体或负载中的一个或多个通信的无线通信装置。
终端可以包括用于查看可移动物体、载体和/或负载的信息的合适的显示单元。例如,终端可被配置用于显示可移动物体、载体和/或负载关于位置、平移速度、平移加速度、定向、角速度、角加速度或其任何合适的组合的信息。在一些实施方式中,终端可以显示由负载提供的信息,诸如由功能性负载提供的数据(例如,由相机或其他图像捕捉装置记录的图像)。
可选地,同一终端可以同时控制可移动物体、载体和/或负载或者所述可移动物体、载体和/或负载的状态,以及接收和/或显示来自所述可移动物体、载体和/或负载的信息。例如,终端可以控制负载相对于环境的定位,同时显示由负载捕捉的图像数据,或者关于负载的位置的信息。备选地,不同的终端可以用于不同的功能。例如,第一终端可以控制可移动物体、载体和/或负载的移动或状态,而第二终端可以接收和/或显示来自可移动物体、载体和/或负载的信息。例如,第一终端可以用于控制负载相对于环境的定位,而第二终端显示由该负载捕捉的图像数据。可以在可移动物体与同时控制该可移动物体并接收数据的集成终端之间或者在可移动物体与同时控制该可移动物体并接收数据的多个终端之间利用各种通信模式。例如,可以在可移动物体与同时控制该可移动物体并接收来自该可移动物体的数据的终端之间形成至少两种不同的通信模式。
图13图示了根据实施方式的包括载体1602和负载1604的可移动物体1600。虽然可移动物体1600被描绘为航空器,但此描绘并不旨在成为限制性的,并且如本文先前所述可以使用任何合适类型的可移动物体。本领域技术人员将会理解,本文在航空器系统的情景下描述的实施方式中的任一均可适用于任何合适的可移动物体(例如,UAV)。在一些情况下,可以在可移动物体1600上提供负载1604而无需载体1602。可移动物体1600可以包括动力机构1606、感测系统1608和通信系统1610。
如前文所述,动力机构1606可以包括旋翼、螺旋桨、桨叶、引擎、马达、轮子、轮轴、磁体或喷嘴中的一种或多种。例如,动力机构1606可以是如本文别处所公开的旋翼组件或其他旋转动力单元。可移动物体可以具有一个或多个、两个或更多个、三个或更多个或者四个或更多个动力机构。动力机构可以全都是同一类型。备选地,一个或多个动力机构可以是不同类型的动力机构。动力机构1606可以使用任何合适的手段安装在可移动物体1600上,诸如为本文别处所述的支撑元件(例如,驱动轴)。动力机构1606可以安装在可移动物体1600的任何合适的部分上,诸如顶部、底部、前面、后面、侧面或其合适的组合。
在一些实施方式中,动力机构1606可以使得可移动物体1600能够从表面垂直地起飞或者垂直地降落在表面上而无需可移动物体1600的任何水平移动(例如,无需沿着跑道行进)。可选地,动力机构1606可以可操作地允许可移动物体1600以指定位置和/或定向悬停于空中。动力机构1600中的一个或多个可以独立于其他动力机构得到控制。备选地,动力机构1600可被配置成同时受到控制。例如,可移动物体1600可以具有多个水平定向的旋翼,所述旋翼可以向该可移动物体提供升力和/或推力。可以致动所述多个水平定向的旋翼以向可移动物体1600提供垂直起飞、垂直降落以及悬停能力。在一些实施方式中,所述水平定向的旋翼中的一个或多个可以在顺时针方向上旋转,同时所述水平旋翼中的一个或多个可以在逆时针方向上旋转。例如,顺时针旋翼的数目可以等于逆时针旋翼的数目。水平定向的旋翼中每个的旋转速率可独立地改变,以便控制由每个旋翼产生的升力和/或推力,并从而调整可移动物体1600的空间布局、速度和/或加速度(例如,关于多达三个平移度和多达三个旋转度)。
感测系统1608可以包括一个或多个传感器,所述传感器可以感测可移动物体1600的空间布局、速度和/或加速度(例如,关于多达三个平移度和多达三个旋转度)。所述一个或多个传感器可以包括全球定位系统(GPS)传感器、运动传感器、惯性传感器、接近式传感器或图像传感器。由感测系统1608提供的感测数据可以用于控制可移动物体1600的空间布局、速度和/或定向(例如,使用合适的处理单元和/或控制模块,如下文所述)。备选地,感测系统1608可以用于提供关于可移动物体周围环境的数据,诸如气象条件、距潜在障碍物的接近度、地理特征的位置、人造结构的位置等。
通信系统1610支持经由无线信号1616与具有通信系统1614的终端1612的通信。通信系统1610、1614可以包括任何数目的适合于无线通信的发射器、接收器和/或收发器。所述通信可以是单向通信,使得数据只能在一个方向上传输。例如,单向通信可以仅涉及可移动物体1600向终端1612传输数据,或者反之亦然。数据可以从通信系统1610的一个或多个发射器传输至通信系统1612的一个或多个接收器,或者反之亦然。备选地,所述通信可以是双向通信,使得数据在可移动物体1600与终端1612之间的两个方向上均可传输。双向通信可以涉及从通信系统1610的一个或多个发射器向通信系统1614的一个或多个接收器传输数据,并且反之亦然。
在一些实施方式中,终端1612可以向可移动物体1600、载体1602和负载1604中的一个或多个提供控制数据,以及从可移动物体1600、载体1602和负载1604中的一个或多个接收信息(例如,可移动物体、载体或负载的位置和/或运动信息;由负载感测到的数据,诸如由负载相机捕捉的图像数据)。在一些情况下,来自终端的控制数据可以包括针对可移动物体、载体和/或负载的相对位置、移动、致动或控制的指令。例如,控制数据可以导致可移动物体的位置和/或定向的修改(例如,经由动力机构1606的控制),或者负载相对于可移动物体的移动(例如,经由载体1602的控制)。来自终端的控制数据可以导致对负载的控制,诸如对相机或其他图像捕捉装置的操作的控制(例如,拍摄静止或移动图片、放大或缩小、开启或关闭、切换成像模式、改变图像分辨率、改变聚焦、改变景深、改变曝光时间、改变视角或视野)。在一些情况下,来自可移动物体、载体和/或负载的通信可以包括来自(例如,感测系统1608的或负载1604的)一个或多个传感器的信息。所述通信可以包括来自一种或多种不同类型的传感器(例如,GPS传感器、运动传感器、惯性传感器、接近式传感器或图像传感器)的感测到的信息。这样的信息可以关于可移动物体、载体和/或负载的定位(例如,位置、定向)、移动或加速度。来自负载的这样的信息可以包括由该负载捕捉的数据或该负载的感测到的状态。由终端1612提供并传输的控制数据可被配置用于控制可移动物体1600、载体1602或负载1604中的一个或多个的状态。备选地或组合地,每个载体1602和负载1604还可以包括通信模块,该通信模块被配置用于与终端1612通信,以使得该终端可独立地与可移动物体1600、载体1602和负载1604中的每一个通信和对其加以控制。
在一些实施方式中,可移动物体1600可以被配置用于与除终端1612以外或代替终端1612的另一远程装置通信。终端1612也可被配置用于与另一远程装置以及可移动物体1600通信。例如,可移动物体1600和/或终端1612可以与另一可移动物体或者另一可移动物体的载体或负载通信。当需要时,所述远程装置可以是第二终端或其他计算装置(例如,计算机、笔记本电脑、平板计算机、智能电话或其他移动装置)。远程装置可被配置用于向可移动物体1600传输数据、从可移动物体1600接收数据、向终端1612传输数据和/或者从终端1612接收数据。可选地,远程装置可以连接至因特网或其他电信网络,以使得从可移动物体1600和/或终端1612接收的数据可被上传至网站或服务器。
图14是根据实施方式的用于控制可移动物体的系统1700框图的示意图。系统1700可以与本文所公开的系统、装置和方法的任何合适的实施方式组合使用。系统1700可以包括感测模块1702、处理单元1704、非暂时性计算机可读介质1706、控制模块1708和通信模块1710。
感测模块1702可以利用不同类型的传感器以不同方式收集与可移动物体相关的信息。不同类型的传感器可以感测不同类型的信号或者来自不同来源的信号。例如,所述传感器可以包括惯性传感器、GPS传感器、接近式传感器(例如,激光雷达)或视觉/图像传感器(例如,相机)。感测模块1702可以可操作地耦合至具有多个处理器的处理单元1704。在一些实施方式中,感测模块可以可操作地耦合至传输模块1712(例如,Wi-Fi图像传输模块),该传输模块被配置用于向合适的外部装置或系统直接传输感测数据。例如,传输模块1712可以用于向远程终端传输由感测模块1702的相机捕捉的图像。
处理单元1704可以具有一个或多个处理器,诸如可编程处理器(例如,中央处理单元(CPU))。处理单元1704可以可操作地耦合至非暂时性计算机可读介质1706。非暂时性计算机可读介质1706可以存储可由处理单元1704执行的逻辑、代码和/或程序指令,用以执行一个或多个步骤。非暂时性计算机可读介质可以包括一个或多个存储器单元(例如,可移动介质或外部存储装置,诸如SD卡或随机存取存储器(RAM))。在一些实施方式中,来自感测模块1702的数据可直接传送至并存储于非暂时性计算机可读介质1706的存储器单元内。非暂时性计算机可读介质1706的存储器单元可以存储可由处理单元1704执行的逻辑、代码和/或程序指令,用以执行本文所描述的方法的任何合适的实施方式。例如,处理单元1704可被配置用于执行指令,从而使处理单元1704的一个或多个处理器分析由感测模块所产生的感测数据。存储器单元可以存储由处理单元1704处理的、来自感测模块的感测数据。在一些实施方式中,非暂时性计算机可读介质1706的存储器单元可以用于存储由处理单元1704产生的处理结果。
在一些实施方式中,处理单元1704可以可操作地耦合至控制模块1708,该控制模块1708被配置用于控制可移动物体的状态。例如,控制模块1708可被配置用于控制可移动物体的动力机构以调整可移动物体关于六个自由度的空间布局、速度和/或加速度。备选地或组合地,控制模块1708可以控制载体、负载或感测模块中的一个或多个的状态。
处理单元1704可以可操作地耦合至通信模块1710,该通信模块1710被配置用于传输和/或接收来自一个或多个外部装置(例如,终端、显示装置或其他遥控器)的数据。可以使用任何合适的通信手段,诸如有线通信或无线通信。例如,通信模块1710可以利用局域网(LAN)、广域网(WAN)、红外、无线电、WiFi、点对点(P2P)网络、电信网络、云通信等之中的一种或多种。可选地,可以使用中继站,诸如塔、卫星或移动台。无线通信可以依赖于接近度或独立于接近度。在一些实施方式中,通信可能需要或者可能不需要视线传播。通信模块1710可以传输和/或接收来自感测模块1702的感测数据、由处理单元1704产生的处理结果、预定控制数据、来自终端或遥控器的用户命令等之中的一个或多个。
系统1700的部件可以按任何合适的配置来布置。例如,系统1700的部件中的一个或多个可以位于可移动物体、载体、负载、终端、感测系统或与上述的一个或多个通信的附加的外部装置上。此外,虽然图14描绘了单一处理单元1704和单一非暂时性计算机可读介质1706,但本领域技术人员将会理解,这并不旨在成为限制性的,并且系统1700可以包括多个处理单元和/或非暂时性计算机可读介质。在一些实施方式中,所述多个处理单元和/或非暂时性计算机可读介质中的一个或多个可以位于不同的位置,诸如在可移动物体、载体、负载、终端、感测模块、与上述的一个或多个通信的附加的外部装置上或其合适的组合上,以使得由系统1700执行的处理和/或存储器功能的任何合适的方面可以发生于上述位置中的一个或多个处。
本文所使用的“A和/或B”包括A或B中的一个或多个以及它们的组合,诸如A和B。
虽然本文已经示出和描述了本发明的优选实施方式,但对于本领域技术人员明显的是,这样的实施方式只是以示例的方式提供的。本领域技术人员现将会在不偏离本发明的情况下想到许多变化、改变和替代。应当理解,在实践本发明的过程中可以采用对本文所描述的本发明实施方式的各种备选方案。所附权利要求旨在限定本发明的范围,并因此覆盖这些权利要求及其等效项的范围内的方法和结构。
Claims (142)
1.一种导航系统,其包括:
载运工具,其包括多个成像装置,所述多个成像装置每个被配置用于捕捉多个图像;以及
一个或多个处理器,其可操作地耦合至所述多个成像装置并且被单独地或共同地配置用于:
(a)计算来自每个成像装置的所述多个图像中的每个图像中的特征点数目;
(b)基于所述特征点数目,选择所述多个成像装置中的至少一个;以及
(c)使用来自所述选择的所述多个成像装置中的至少一个的所述多个图像来评估所述载运工具的状态信息。
2.根据权利要求1所述的系统,其中所述载运工具是无人飞行器。
3.根据权利要求1所述的系统,其中所述载运工具包括一个或多个动力单元,所述一个或多个动力单元被配置用于实现所述载运工具的移动。
4.根据权利要求3所述的系统,其中所述一个或多个动力单元包括一个或多个旋翼,所述一个或多个旋翼被配置用于向所述载运工具提供升力。
5.根据权利要求1所述的系统,其中所述多个成像装置布置在所述载运工具上,以使得所述多个成像装置中的每个成像装置被配置用于从不同的视野捕捉所述多个图像。
6.根据权利要求1所述的系统,其中所述多个成像装置包括至少三个成像装置或至少四个成像装置。
7.根据权利要求1所述的系统,其中所述多个成像装置每个相对于所述载运工具定向在不同的方向上。
8.根据权利要求7所述的系统,其中所述不同的方向为正交的方向。
9.根据权利要求7所述的系统,其中所述不同的方向包括至少四个不同的方向。
10.根据权利要求7所述的系统,其中所述不同的方向中的至少一个大致沿着所述载运工具的运动方向。
11.根据权利要求1所述的系统,其中所述多个成像装置位于以下位置中的三个或更多个:所述载运工具的前侧、后侧、左侧、右侧、上侧或下侧。
12.根据权利要求1所述的系统,其中所述多个图像包括在预定时间间隔内捕捉的多个连续图像帧。
13.根据权利要求12所述的系统,其中所述预定时间间隔是在从约0.02秒到约0.1秒的范围内。
14.根据权利要求1所述的系统,其中每个图像中的所述特征点数目表明所述图像的显著度。
15.根据权利要求1所述的系统,其中使用角点检测算法计算每个图像中的所述特征点数目。
16.根据权利要求15所述的系统,其中所述角点检测算法为加速分割检测特征(FAST)算法。
17.根据权利要求1所述的系统,其中步骤(b)包括评估所述特征点数目是否超过预定阈值。
18.根据权利要求1所述的系统,其中所述状态信息包括所述载运工具的位置、姿态、速度或加速度中的至少一个。
19.根据权利要求18所述的系统,其中所述姿态包括所述载运工具的横滚定向、俯仰定向或偏航定向中的至少一个。
20.根据权利要求1所述的系统,其中所述一个或多个处理器还被配置用于:(d)基于所述状态信息,输出用于实现所述载运工具的移动的控制信号。
21.根据权利要求1所述的系统,其中在所述载运工具的操作期间重复步骤(a)-步骤(c)。
22.根据权利要求21所述的系统,其中约每0.02秒一次至约每0.1秒一次地重复步骤(a)-步骤(c)。
23.一种用于评估移动载运工具的状态信息的方法,所述移动载运工具附接至多个成像装置,所述方法包括:
(a)利用所述多个成像装置中的每个成像装置来捕捉多个图像;
(b)借助于处理器,计算来自每个成像装置的所述多个图像中的每个图像中的特征点数目;
(c)借助于所述处理器,基于所述特征点数目来选择所述多个成像装置中的至少一个;以及
(d)借助于所述处理器,使用来自所述选择的所述多个成像装置中的至少一个的所述多个图像来评估所述载运工具的状态信息。
24.根据权利要求23所述的方法,其中所述载运工具是无人飞行器。
25.根据权利要求23所述的方法,其中所述载运工具包括一个或多个动力单元,所述一个或多个动力单元被配置用于实现所述载运工具的移动。
26.根据权利要求25所述的方法,其中所述一个或多个动力单元包括一个或多个旋翼,所述一个或多个旋翼被配置用于向所述载运工具提供升力。
27.根据权利要求23所述的方法,其中所述多个成像装置布置在所述载运工具上,以便从不同的视野捕捉所述多个图像中的每个。
28.根据权利要求23所述的方法,其中所述多个成像装置包括至少三个成像装置或至少四个成像装置。
29.根据权利要求23所述的方法,其中所述多个成像装置每个相对于所述载运工具定向在不同的方向上。
30.根据权利要求29所述的方法,其中所述不同的方向为正交的方向。
31.根据权利要求29所述的方法,其中所述不同的方向包括至少四个不同的方向。
32.根据权利要求29所述的方法,其中所述不同的方向中的至少一个大致沿着所述载运工具的运动方向。
33.根据权利要求23所述的方法,其中所述多个成像装置位于以下位置中的三个或更多个:所述载运工具的前侧、后侧、左侧、右侧、上侧或下侧。
34.根据权利要求23所述的方法,其中所述多个图像包括在预定时间间隔内捕捉的多个连续图像帧。
35.根据权利要求34所述的方法,其中所述预定时间间隔是在从约0.02秒到约0.1秒的范围内。
36.根据权利要求23所述的方法,其中每个图像中的所述特征点数目表明所述图像的显著度。
37.根据权利要求23所述的方法,其中使用角点检测算法计算每个图像中的所述特征点数目。
38.根据权利要求37所述的方法,其中所述角点检测算法为加速分割检测特征(FAST)算法。
39.根据权利要求23所述的方法,其中步骤(c)包括评估所述特征点数目是否超过预定阈值。
40.根据权利要求23所述的方法,其中所述状态信息包括所述载运工具的位置、姿态、速度或加速度中的至少一个。
41.根据权利要求40所述的方法,其中所述姿态包括所述载运工具的横滚定向、俯仰定向或偏航定向中的至少一个。
42.根据权利要求23所述的方法,还包括:(e)基于所述状态信息,输出用于实现所述载运工具的移动的控制信号。
43.根据权利要求23所述的方法,其中在所述载运工具的操作期间重复步骤(a)-步骤(d)。
44.根据权利要求43所述的方法,其中约每0.02秒一次至约每0.1秒一次地重复步骤(a)-步骤(d)。
45.一种导航系统,所述系统包括:
载运工具,其包括一个或多个动力单元以及多个成像装置,所述一个或多个动力单元被配置用于实现所述载运工具的移动,所述多个成像装置每个被配置用于捕捉多个图像;以及
一个或多个处理器,其可操作地耦合至所述多个成像装置并且被单独地或共同地配置用于:
(a)评估来自每个成像装置的所述多个图像的图像质量;
(b)基于步骤(a)的所述评估,选择所述多个成像装置中的至少一个;以及
(c)使用来自所述选择的所述多个成像装置中的至少一个的所述多个图像来评估所述载运工具的状态信息。
46.根据权利要求45所述的系统,其中所述一个或多个处理器还被配置用于:(d)基于所述状态信息,向所述一个或多个动力单元输出控制信号以实现所述载运工具的所述移动。
47.根据权利要求45所述的系统,其中所述载运工具是无人飞行器。
48.根据权利要求45所述的系统,其中所述一个或多个动力单元包括一个或多个旋翼,所述一个或多个旋翼被配置用于向所述载运工具提供升力。
49.根据权利要求45所述的系统,其中所述多个成像装置布置在所述载运工具上,以使得所述多个成像装置中的每个成像装置被配置用于从不同的视野捕捉所述多个图像。
50.根据权利要求45所述的系统,其中所述多个成像装置包括至少三个成像装置或至少四个成像装置。
51.根据权利要求45所述的系统,其中所述多个成像装置每个相对于所述载运工具定向在不同的方向上。
52.根据权利要求51所述的系统,其中所述不同的方向为正交的方向。
53.根据权利要求51所述的系统,其中所述不同的方向包括至少四个不同的方向。
54.根据权利要求51所述的系统,其中所述不同的方向中的至少一个大致沿着所述载运工具的运动方向。
55.根据权利要求45所述的系统,其中所述多个成像装置位于以下位置中的三个或更多个:所述载运工具的前侧、后侧、左侧、右侧、上侧或下侧。
56.根据权利要求45所述的系统,其中所述多个图像包括在预定时间间隔内捕捉的多个连续图像帧。
57.根据权利要求56所述的系统,其中所述预定时间间隔是在从约0.02秒到约0.1秒的范围内。
58.根据权利要求45所述的系统,其中所述图像质量基于所述多个图像中的每个图像中的特征点数目。
59.根据权利要求58所述的系统,其中使用角点检测算法计算每个图像中的所述特征点数目。
60.根据权利要求59所述的系统,其中所述角点检测算法为加速分割检测特征(FAST)算法。
61.根据权利要求45所述的系统,其中所述图像质量基于所述多个图像中的每个图像的显著度。
62.根据权利要求45所述的系统,其中所述图像质量基于所述多个图像中的每个图像中的曝光水平或对比度水平中的至少一个。
63.根据权利要求45所述的系统,其中所述图像质量基于所述多个图像对于在评估所述载运工具的所述状态信息中使用的适当性。
64.根据权利要求45所述的系统,其中步骤(a)包括评估所述多个图像的所述图像质量是否超过预定阈值。
65.根据权利要求45所述的系统,其中步骤(a)包括识别所述多个图像中哪个图像具有最高的图像质量。
66.根据权利要求45所述的系统,其中所述状态信息包括所述载运工具的位置、姿态、速度或加速度中的至少一个。
67.根据权利要求66所述的系统,其中所述姿态包括所述载运工具的横滚定向、俯仰定向或偏航定向中的至少一个。
68.根据权利要求45所述的系统,其中在所述载运工具的操作期间重复步骤(a)-步骤(c)。
69.根据权利要求68所述的系统,其中约每0.02秒一次至约每0.1秒一次地重复步骤(a)-步骤(c)。
70.一种用于控制移动载运工具的方法,所述移动载运工具附接至多个成像装置,所述方法包括:
(a)利用所述多个成像装置中的每个成像装置来捕捉多个图像;
(b)借助于处理器,评估来自每个成像装置的所述多个图像的图像质量;
(c)借助于所述处理器,基于步骤(b)的所述评估来选择所述多个成像装置中的至少一个;以及
(d)借助于所述处理器,使用来自所述选择的所述多个成像装置中的至少一个的所述多个图像来评估所述载运工具的状态信息。
71.根据权利要求70所述的方法,其还包括:(e)借助于所述处理器,基于所述状态信息向安装在所述载运工具上的一个或多个动力单元输出控制信号以实现所述载运工具的移动。
72.根据权利要求70所述的方法,其中所述载运工具是无人飞行器。
73.根据权利要求70所述的方法,其中所述一个或多个动力单元包括一个或多个旋翼,所述一个或多个旋翼被配置用于向所述载运工具提供升力。
74.根据权利要求70所述的方法,其中所述多个成像装置布置在所述载运工具上,以便从不同的视野捕捉所述多个图像中的每个。
75.根据权利要求70所述的方法,其中所述多个成像装置包括至少三个成像装置或至少四个成像装置。
76.根据权利要求70所述的方法,其中所述多个成像装置每个相对于所述载运工具定向在不同的方向上。
77.根据权利要求76所述的方法,其中所述不同的方向为正交的方向。
78.根据权利要求76所述的方法,其中所述不同的方向包括至少四个不同的方向。
79.根据权利要求76所述的方法,其中所述不同的方向中的至少一个大致沿着所述载运工具的运动方向。
80.根据权利要求70所述的方法,其中所述多个成像装置位于以下位置中的三个或更多个:所述载运工具的前侧、后侧、左侧、右侧、上侧或下侧。
81.根据权利要求70所述的方法,其中所述多个图像包括在预定时间间隔内捕捉的多个连续图像帧。
82.根据权利要求81所述的方法,其中所述预定时间间隔是在从约0.02秒到约0.1秒的范围内。
83.根据权利要求70所述的方法,其中所述图像质量基于所述多个图像中的每个图像中的特征点数目。
84.根据权利要求83所述的方法,其中使用角点检测算法计算每个图像中的所述特征点数目。
85.根据权利要求84所述的方法,其中所述角点检测算法为加速分割检测特征(FAST)算法。
86.根据权利要求70所述的方法,其中所述图像质量基于所述多个图像中的每个图像的显著度。
87.根据权利要求70所述的方法,其中所述图像质量基于所述多个图像中的每个图像的曝光水平或对比度水平中的至少一个。
88.根据权利要求70所述的方法,其中所述图像质量基于所述多个图像对于在评估所述载运工具的所述状态信息中使用的适当性。
89.根据权利要求70所述的方法,其中步骤(b)包括评估所述多个图像的所述图像质量是否超过预定阈值。
90.根据权利要求70所述的方法,其中步骤(b)包括识别所述多个图像中哪个图像具有最高的图像质量。
91.根据权利要求70所述的方法,其中所述状态信息包括所述载运工具的位置、姿态、速度或加速度中的至少一个。
92.根据权利要求91所述的方法,其中所述姿态包括所述载运工具的横滚定向、俯仰定向或偏航定向中的至少一个。
93.根据权利要求70所述的方法,其中在所述载运工具的操作期间重复步骤(a)-步骤(d)。
94.根据权利要求93所述的方法,其中约每0.02秒一次至约每0.1秒一次地重复步骤(a)-步骤(d)。
95.一种导航系统,所述系统包括:
载运工具,其包括多个成像装置,所述多个成像装置每个被配置用于捕捉多个图像,其中所述多个成像装置包括主成像装置以及一个或多个辅成像装置;以及
一个或多个处理器,其可操作地耦合至所述多个成像装置并且被单独地或共同地配置用于:
(a)评估来自所述主成像装置的所述多个图像的图像质量,以确定所述图像质量是否满足预定阈值;
(b)如果步骤(a)的所述图像质量不满足所述预定阈值,则评估来自所述一个或多个辅成像装置的所述多个图像的图像质量;
(c)基于步骤(b)的所述评估,选择所述一个或多个辅成像装置中的至少一个;以及
(d)使用来自所述选择的所述一个或多个辅成像装置中的至少一个的所述多个图像来评估所述载运工具的状态信息。
96.根据权利要求95所述的系统,其中所述载运工具是无人飞行器。
97.根据权利要求95所述的系统,其中所述一个或多个动力单元包括一个或多个旋翼,所述一个或多个旋翼被配置用于向所述载运工具提供升力。
98.根据权利要求95所述的系统,其中所述多个成像装置布置在所述载运工具上,以使得所述多个成像装置中的每个成像装置被配置用于从不同的视野捕捉所述多个图像。
99.根据权利要求95所述的系统,其中所述多个成像装置包括至少三个成像装置或至少四个成像装置。
100.根据权利要求95所述的系统,其中所述多个成像装置每个相对于所述载运工具定向在不同的方向上。
101.根据权利要求100所述的系统,其中所述不同的方向为正交的方向。
102.根据权利要求100所述的系统,其中所述不同的方向包括至少四个不同的方向。
103.根据权利要求100所述的系统,其中所述主成像装置定向成大致沿着所述载运工具的运动方向。
104.根据权利要求95所述的系统,其中所述多个成像装置位于以下位置中的三个或更多个:所述载运工具的前侧、后侧、左侧、右侧、上侧或下侧。
105.根据权利要求95所述的系统,其中所述多个图像包括在预定时间间隔内捕捉的多个连续图像帧。
106.根据权利要求105所述的系统,其中所述预定时间间隔是在从约0.02秒到约0.1秒的范围内。
107.根据权利要求95所述的系统,其中步骤(a)和步骤(b)的所述图像质量每个基于所述多个图像中的每个图像中的特征点数目。
108.根据权利要求107所述的系统,其中使用角点检测算法计算每个图像中的所述特征点数目。
109.根据权利要求108所述的系统,其中所述角点检测算法为加速分割检测特征(FAST)算法。
110.根据权利要求95所述的系统,其中步骤(a)和步骤(b)的所述图像质量每个基于所述多个图像中的每个图像的显著度。
111.根据权利要求95所述的系统,其中步骤(a)和步骤(b)的所述图像质量每个基于所述多个图像中的每个图像的曝光水平或对比度水平中的至少一个。
112.根据权利要求95所述的系统,其中步骤(a)和步骤(b)的所述图像质量每个基于所述多个图像对于在评估所述载运工具的所述状态信息中使用的适当性。
113.根据权利要求95所述的系统,其中步骤(b)包括评估所述多个图像的所述图像质量是否超过第二预定阈值。
114.根据权利要求95所述的系统,其中步骤(b)包括识别所述多个图像中哪个图像具有最高的图像质量。
115.根据权利要求95所述的系统,其中所述状态信息包括所述载运工具的位置、姿态、速度或加速度中的至少一个。
116.根据权利要求115所述的系统,其中所述姿态包括所述载运工具的横滚定向、俯仰定向或偏航定向中的至少一个。
117.根据权利要求95所述的系统,其中在所述载运工具的操作期间重复步骤(a)-步骤(d)。
118.根据权利要求117所述的系统,其中约每0.02秒一次至约每0.1秒一次地重复步骤(a)-步骤(d)。
119.一种用于评估移动载运工具的状态信息的方法,所述移动载运工具附接至多个成像装置,所述方法包括:
(a)利用所述多个成像装置中的每个成像装置来捕捉多个图像,其中所述多个成像装置包括主成像装置以及一个或多个辅成像装置;
(b)借助于处理器,评估来自所述主成像装置的所述多个图像的图像质量,以确定所述图像质量是否满足预定阈值;
(c)如果步骤(b)的所述图像质量不满足所述预定阈值,则借助于所述处理器,评估来自所述一个或多个辅成像装置的所述多个图像的图像质量;
(d)借助于所述处理器,基于步骤(c)的所述评估来选择所述一个或多个辅成像装置中的至少一个;以及
(e)借助于所述处理器,使用来自所述选择 的一个或多个辅成像装置的所述多个图像来评估所述载运工具的状态信息。
120.根据权利要求119所述的方法,其中所述载运工具是无人飞行器。
121.根据权利要求119所述的方法,其中所述一个或多个动力单元包括一个或多个旋翼,所述一个或多个旋翼被配置用于向所述载运工具提供升力。
122.根据权利要求119所述的方法,其中所述多个成像装置布置在所述载运工具上,以便从不同的视野捕捉所述多个图像中的每个。
123.根据权利要求119所述的方法,其中所述多个成像装置包括至少三个成像装置或至少四个成像装置。
124.根据权利要求119所述的方法,其中所述多个成像装置每个相对于所述载运工具定向在不同的方向上。
125.根据权利要求124所述的方法,其中所述不同的方向为正交的方向。
126.根据权利要求124所述的方法,其中所述不同的方向包括至少四个不同的方向。
127.根据权利要求124所述的方法,其中所述主成像装置定向成大致沿着所述载运工具的运动方向。
128.根据权利要求119所述的方法,其中所述多个成像装置位于以下位置中的三个或更多个:所述载运工具的前侧、后侧、左侧、右侧、上侧或下侧。
129.根据权利要求119所述的方法,其中所述多个图像包括在预定时间间隔内捕捉的多个连续图像帧。
130.根据权利要求129所述的方法,其中所述预定时间间隔是在从约0.02秒到约0.1秒的范围内。
131.根据权利要求119所述的方法,其中步骤(b)和步骤(c)的所述图像质量各自基于所述多个图像中的每个图像中的特征点数目。
132.根据权利要求131所述的方法,其中使用角点检测算法计算每个图像中的所述特征点数目。
133.根据权利要求132所述的方法,其中所述角点检测算法为加速分割检测特征(FAST)算法。
134.根据权利要求119所述的方法,其中步骤(b)和步骤(c)的所述图像质量各自基于所述多个图像中的每个图像的显著度。
135.根据权利要求119所述的方法,其中步骤(b)和步骤(c)的所述图像质量各自基于所述多个图像中的每个图像的曝光水平或对比度水平中的至少一个。
136.根据权利要求119所述的方法,其中步骤(b)和步骤(c)的所述图像质量每个基于所述多个图像对于在评估所述载运工具的所述状态信息中使用的适当性。
137.根据权利要求119所述的方法,其中步骤(c)包括评估所述多个图像的所述图像质量是否超过第二预定阈值。
138.根据权利要求119所述的方法,其中步骤(c)包括识别所述多个图像中哪个图像具有最高的图像质量。
139.根据权利要求119所述的方法,其中所述状态信息包括所述载运工具的位置、姿态、速度或加速度中的至少一个。
140.根据权利要求139所述的方法,其中所述姿态包括所述载运工具的横滚定向、俯仰定向或偏航定向中的至少一个。
141.根据权利要求119所述的方法,其中在所述载运工具的操作期间重复步骤(a)-步骤(e)。
142.根据权利要求140所述的方法,其中约每0.02秒一次至约每0.1秒一次地重复步骤(a)-步骤(e)。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010360825.XA CN111506109B (zh) | 2014-12-31 | 2014-12-31 | 传感器数据的选择性处理 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2014/095983 WO2016106715A1 (en) | 2014-12-31 | 2014-12-31 | Selective processing of sensor data |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010360825.XA Division CN111506109B (zh) | 2014-12-31 | 2014-12-31 | 传感器数据的选择性处理 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107209514A CN107209514A (zh) | 2017-09-26 |
CN107209514B true CN107209514B (zh) | 2020-06-05 |
Family
ID=56283987
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010360825.XA Active CN111506109B (zh) | 2014-12-31 | 2014-12-31 | 传感器数据的选择性处理 |
CN201480084437.6A Expired - Fee Related CN107209514B (zh) | 2014-12-31 | 2014-12-31 | 传感器数据的选择性处理 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010360825.XA Active CN111506109B (zh) | 2014-12-31 | 2014-12-31 | 传感器数据的选择性处理 |
Country Status (7)
Country | Link |
---|---|
US (3) | US9778661B2 (zh) |
EP (2) | EP3889728A3 (zh) |
JP (1) | JP6312178B2 (zh) |
CN (2) | CN111506109B (zh) |
DK (1) | DK3123260T3 (zh) |
ES (1) | ES2874506T3 (zh) |
WO (1) | WO2016106715A1 (zh) |
Families Citing this family (51)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10618168B2 (en) * | 2016-05-13 | 2020-04-14 | General Electric Company | Robot system path planning for asset health management |
CN104469158A (zh) * | 2014-12-15 | 2015-03-25 | 安徽华米信息科技有限公司 | 一种运动拍摄、拍摄控制方法及装置 |
WO2016106715A1 (en) * | 2014-12-31 | 2016-07-07 | SZ DJI Technology Co., Ltd. | Selective processing of sensor data |
US9836053B2 (en) | 2015-01-04 | 2017-12-05 | Zero Zero Robotics Inc. | System and method for automated aerial system operation |
US10126745B2 (en) | 2015-01-04 | 2018-11-13 | Hangzhou Zero Zero Technology Co., Ltd. | System and method for automated aerial system operation |
US10358214B2 (en) | 2015-01-04 | 2019-07-23 | Hangzhou Zero Zro Technology Co., Ltd. | Aerial vehicle and method of operation |
EP3062066A1 (en) * | 2015-02-26 | 2016-08-31 | Hexagon Technology Center GmbH | Determination of object data by template-based UAV control |
US9911344B2 (en) * | 2015-07-24 | 2018-03-06 | Honeywell International Inc. | Helicopter landing system using a camera for obstacle detection |
US9720413B1 (en) * | 2015-12-21 | 2017-08-01 | Gopro, Inc. | Systems and methods for providing flight control for an unmanned aerial vehicle based on opposing fields of view with overlap |
US9740200B2 (en) | 2015-12-30 | 2017-08-22 | Unmanned Innovation, Inc. | Unmanned aerial vehicle inspection system |
US10083616B2 (en) * | 2015-12-31 | 2018-09-25 | Unmanned Innovation, Inc. | Unmanned aerial vehicle rooftop inspection system |
WO2017187275A2 (en) | 2016-04-24 | 2017-11-02 | Hangzhou Zero Zero Technology Co., Ltd. | Aerial system propulsion assembly and method of use |
US10345107B2 (en) * | 2016-06-22 | 2019-07-09 | Aptiv Technologies Limited | Automated vehicle sensor selection based on map data density and navigation feature density |
EP3485462B1 (en) * | 2016-07-12 | 2020-11-25 | SZ DJI Technology Co., Ltd. | Processing images to obtain environmental information |
JP6785412B2 (ja) * | 2016-07-22 | 2020-11-18 | パナソニックIpマネジメント株式会社 | 無人航空機システム |
WO2018086133A1 (en) * | 2016-11-14 | 2018-05-17 | SZ DJI Technology Co., Ltd. | Methods and systems for selective sensor fusion |
US20180186472A1 (en) * | 2016-12-30 | 2018-07-05 | Airmada Technology Inc. | Method and apparatus for an unmanned aerial vehicle with a 360-degree camera system |
WO2018134677A1 (en) | 2017-01-23 | 2018-07-26 | Hangzhou Zero Technology Co., Ltd | Multi-camera system and method of use |
US10488912B1 (en) | 2017-01-27 | 2019-11-26 | Digimarc Corporation | Method and apparatus for analyzing sensor data |
JP2018136315A (ja) * | 2017-02-22 | 2018-08-30 | 株式会社日本環境調査研究所 | マルチコプターおよびマルチコプターを利用した大気環境測定方法 |
US10209718B2 (en) * | 2017-03-14 | 2019-02-19 | Starsky Robotics, Inc. | Vehicle sensor system and method of use |
WO2018167893A1 (ja) * | 2017-03-15 | 2018-09-20 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッド | 形状生成方法、画像取得方法、モバイルプラットフォーム、飛行体、プログラム及び記録媒体 |
US11348269B1 (en) * | 2017-07-27 | 2022-05-31 | AI Incorporated | Method and apparatus for combining data to construct a floor plan |
WO2019094567A1 (en) * | 2017-11-09 | 2019-05-16 | Redzone Robotics, Inc. | Underground infrastruture sensing using unmanned aerial vehicle (uav) |
US10717435B2 (en) * | 2018-01-03 | 2020-07-21 | Qualcomm Incorporated | Adjustable object avoidance proximity threshold based on classification of detected objects |
US11423791B2 (en) * | 2018-01-05 | 2022-08-23 | Gopro, Inc. | Adaptive object detection |
US10860020B2 (en) | 2018-01-23 | 2020-12-08 | Toyota Research Institute, Inc. | System and method for adaptive perception in a vehicle |
US11630455B2 (en) * | 2018-01-31 | 2023-04-18 | Walmart Apollo, Llc | System and method for autonomous decision making, corrective action, and navigation in a dynamically changing world |
JP6575628B1 (ja) * | 2018-03-30 | 2019-09-18 | 日本電気株式会社 | 情報処理装置、情報処理システム、制御方法、及びプログラム |
CN111052020B (zh) * | 2018-04-02 | 2024-09-13 | 深圳市大疆创新科技有限公司 | 导航设备 |
JP6989849B2 (ja) * | 2018-04-19 | 2022-01-12 | 株式会社Geoソリューションズ | 被検査構造体の検査システム |
CN108313277B (zh) * | 2018-05-11 | 2024-02-27 | 苏州中森无人机科技有限公司 | 一种监测巡检无人机 |
CN108827306B (zh) * | 2018-05-31 | 2022-01-07 | 北京林业大学 | 一种基于多传感器融合的无人机slam导航方法及系统 |
US11561251B2 (en) | 2018-08-01 | 2023-01-24 | Florida Power & Light Company | Remote autonomous inspection of utility system components utilizing drones and rovers |
CN109375647A (zh) * | 2018-11-20 | 2019-02-22 | 中国航空工业集团公司西安航空计算技术研究所 | 微型多源感知计算系统 |
CN109343572B (zh) * | 2018-12-20 | 2021-07-30 | 深圳市道通智能航空技术股份有限公司 | 一种无人机自主降落方法、装置及无人机 |
US10976380B2 (en) * | 2019-01-18 | 2021-04-13 | Rockwell Collins, Inc. | System and method for magnetometer monitoring |
FR3094079B1 (fr) * | 2019-03-21 | 2021-02-26 | Nexter Systems | Procede de pointage et d'acquisition de cible pour une plateforme, nacelle et dispositif permettant la mise en oeuvre de ce procede |
US11182623B2 (en) * | 2019-04-30 | 2021-11-23 | Baidu Usa Llc | Flexible hardware design for camera calibration and image pre-procesing in autonomous driving vehicles |
SE543432C2 (en) * | 2019-06-27 | 2021-02-16 | Vricon Systems Ab | A method and system for navigation of a vehicle |
GB2582842B (en) * | 2019-08-19 | 2021-06-09 | Drone Evolution Ltd | Unmanned aerial vehicle for transporting a payload |
DE102019124378A1 (de) * | 2019-09-11 | 2021-03-11 | Gottfried Wilhelm Leibniz Universität Hannover | Verfahren sowie Vermessungsvorrichtung zur Vermessung eines Bauwerks |
DE102019126398A1 (de) * | 2019-09-30 | 2021-04-01 | Ford Global Technologies, Llc | Verfahren zum Betrieb eines Kraftfahrzeugs mit einem Stereokamerasystem und mit einem LIDAR-Sensor |
CN111177869B (zh) * | 2020-01-02 | 2023-09-01 | 北京百度网讯科技有限公司 | 传感器布局方案的确定方法、装置及设备 |
WO2021153198A1 (ja) * | 2020-01-27 | 2021-08-05 | ソニーグループ株式会社 | 撮像制御装置および撮像制御方法 |
CN111539388B (zh) * | 2020-06-22 | 2020-10-09 | 湖南联智科技股份有限公司 | 一种高空抛物监测方法 |
US11938941B2 (en) | 2020-08-31 | 2024-03-26 | Denso International America, Inc. | Mode selection according to system conditions |
US11995920B2 (en) | 2020-10-23 | 2024-05-28 | Argo AI, LLC | Enhanced sensor health and regression testing for vehicles |
FR3118000A1 (fr) | 2020-12-21 | 2022-06-24 | Airbus Helicopters | procédé de pilotage d’un aéronef ayant une pluralité de senseurs de navigation dissimilaires et un aéronef |
US11964398B2 (en) * | 2021-01-28 | 2024-04-23 | Micropharmacy Corporation | Systems and methods for autonomous robot distributed processing |
US11810057B2 (en) * | 2021-02-05 | 2023-11-07 | Here Global B.V. | Method, apparatus, and computer program product for vantage view assistance |
Family Cites Families (99)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4940925A (en) * | 1985-08-30 | 1990-07-10 | Texas Instruments Incorporated | Closed-loop navigation system for mobile robots |
JPS62155140A (ja) * | 1985-12-27 | 1987-07-10 | Aisin Warner Ltd | 車両制御用道路画像入力方式 |
JPS62169516A (ja) | 1986-01-21 | 1987-07-25 | Mitsubishi Electric Corp | 優先入力選択回路 |
JPH05327667A (ja) | 1992-04-03 | 1993-12-10 | Nec Corp | 多入力信号選択回路 |
JP3298851B2 (ja) * | 1999-08-18 | 2002-07-08 | 松下電器産業株式会社 | 多機能車載カメラシステムと多機能車載カメラの画像表示方法 |
JP3255360B2 (ja) * | 1999-09-22 | 2002-02-12 | 富士重工業株式会社 | 距離データの検査方法およびその検査装置 |
GB0101043D0 (en) | 2001-01-15 | 2001-02-28 | Univ Aberdeen | Input parameter selection process |
US6804607B1 (en) * | 2001-04-17 | 2004-10-12 | Derek Wood | Collision avoidance system and method utilizing variable surveillance envelope |
US6577764B2 (en) * | 2001-08-01 | 2003-06-10 | Teranex, Inc. | Method for measuring and analyzing digital video quality |
JP2003122394A (ja) * | 2001-10-16 | 2003-04-25 | Yamatake Corp | 識別対象を認識する方法と装置及び該装置を搭載したロボット |
GB2383983B (en) * | 2002-01-11 | 2005-08-17 | Roger Aylward | Route navigation, guidance & control - automated vehicle steering & safety braking |
WO2004018158A2 (en) * | 2002-08-21 | 2004-03-04 | Neal Solomon | Organizing groups of self-configurable mobile robotic agents |
US6975923B2 (en) * | 2002-10-01 | 2005-12-13 | Roke Manor Research Limited | Autonomous vehicle guidance on or near airports |
US7385626B2 (en) * | 2002-10-21 | 2008-06-10 | Sarnoff Corporation | Method and system for performing surveillance |
US6930593B2 (en) * | 2003-02-24 | 2005-08-16 | Iteris, Inc. | Lane tracking system employing redundant image sensing devices |
US7436429B2 (en) * | 2003-11-24 | 2008-10-14 | The Boeing Company | Virtual pan/tilt camera system and method for vehicles |
US7664292B2 (en) * | 2003-12-03 | 2010-02-16 | Safehouse International, Inc. | Monitoring an output from a camera |
US8224639B2 (en) * | 2004-03-29 | 2012-07-17 | Sony Computer Entertainment Inc. | Methods and apparatus for achieving thermal management using processing task scheduling |
EP1766556A2 (en) * | 2004-06-25 | 2007-03-28 | Digitalglobe, Inc. | Method and apparatus for determining a location associated with an image |
US7876927B2 (en) * | 2005-01-04 | 2011-01-25 | Deere & Company | Method and system for guiding a vehicle with vision-based adjustment |
US7242791B2 (en) * | 2005-01-04 | 2007-07-10 | Deere & Company | Method and system for guiding a vehicle with vision enhancement |
US7610123B2 (en) * | 2005-01-04 | 2009-10-27 | Deere & Company | Vision-aided system and method for guiding a vehicle |
US7792607B2 (en) * | 2005-01-04 | 2010-09-07 | Deere & Company | Vision-aided system and method for guiding a vehicle |
US8150574B2 (en) * | 2005-01-04 | 2012-04-03 | Deere & Company | Method and system for guiding a vehicle with vision-based adjustment |
US7233683B2 (en) * | 2005-01-04 | 2007-06-19 | Deere & Company | Method and system for guiding a vehicle with vision-based adjustment |
US7299056B2 (en) * | 2005-02-23 | 2007-11-20 | Deere & Company | Vehicular navigation based on site specific sensor quality data |
US8305430B2 (en) * | 2005-09-16 | 2012-11-06 | Sri International | System and method for multi-camera visual odometry |
US8855846B2 (en) * | 2005-10-20 | 2014-10-07 | Jason W. Grzywna | System and method for onboard vision processing |
US8164628B2 (en) * | 2006-01-04 | 2012-04-24 | Mobileye Technologies Ltd. | Estimating distance to an object using a sequence of images recorded by a monocular camera |
US20070233361A1 (en) * | 2006-03-30 | 2007-10-04 | Ford Global Technologies, Llc | Centralized Image Processing For An Automobile With A Navigation System |
US8666661B2 (en) * | 2006-03-31 | 2014-03-04 | The Boeing Company | Video navigation |
US8581981B2 (en) * | 2006-04-28 | 2013-11-12 | Southwest Research Institute | Optical imaging system for unmanned aerial vehicle |
WO2008085536A2 (en) * | 2006-05-23 | 2008-07-17 | Avid, Llc | Dual-use modular propulsion surveillance vehicle with detachable unmanned airborne vehicles |
JP2007316966A (ja) * | 2006-05-26 | 2007-12-06 | Fujitsu Ltd | 移動ロボット、その制御方法及びプログラム |
CN101109640A (zh) * | 2006-07-19 | 2008-01-23 | 北京航空航天大学 | 基于视觉的无人驾驶飞机自主着陆导航系统 |
US7725257B2 (en) * | 2006-09-05 | 2010-05-25 | Honeywell International Inc. | Method and system for navigation of an ummanned aerial vehicle in an urban environment |
US20080195316A1 (en) * | 2007-02-12 | 2008-08-14 | Honeywell International Inc. | System and method for motion estimation using vision sensors |
US7817653B2 (en) * | 2007-04-19 | 2010-10-19 | Hewlett-Packard Development Company, L.P. | Priority selection circuit |
US7769543B2 (en) * | 2007-04-30 | 2010-08-03 | The Boeing Company | Fault detection and reconfiguration of an automated refueling boom |
US8757548B2 (en) * | 2007-04-30 | 2014-06-24 | The Boeing Company | Apparatus for an automated aerial refueling boom using multiple types of sensors |
CN101196551A (zh) * | 2007-05-10 | 2008-06-11 | 北京深浪电子技术有限公司 | 高压输电线路地线巡检机器人 |
CN100495274C (zh) * | 2007-07-19 | 2009-06-03 | 上海港机重工有限公司 | 大型工程车辆自动驾驶控制方法及系统 |
US8213706B2 (en) * | 2008-04-22 | 2012-07-03 | Honeywell International Inc. | Method and system for real-time visual odometry |
TWM348676U (en) * | 2008-07-22 | 2009-01-11 | Iner Aec Executive Yuan | Environmental survey robot |
US9188980B2 (en) * | 2008-09-11 | 2015-11-17 | Deere & Company | Vehicle with high integrity perception system |
US8818567B2 (en) * | 2008-09-11 | 2014-08-26 | Deere & Company | High integrity perception for machine localization and safeguarding |
US8543265B2 (en) * | 2008-10-20 | 2013-09-24 | Honeywell International Inc. | Systems and methods for unmanned aerial vehicle navigation |
EP2209091B1 (en) * | 2009-01-16 | 2012-08-08 | Honda Research Institute Europe GmbH | System and method for object motion detection based on multiple 3D warping and vehicle equipped with such system |
JP2010191867A (ja) * | 2009-02-20 | 2010-09-02 | Panasonic Corp | 画像圧縮器、画像圧縮方法および車載画像記録装置 |
US8340852B2 (en) * | 2009-04-29 | 2012-12-25 | Honeywell International Inc. | System and method for simultaneous localization and map building |
JP2011010109A (ja) * | 2009-06-26 | 2011-01-13 | Canon Inc | 画像伝送装置 |
FR2947401B1 (fr) * | 2009-06-26 | 2012-07-13 | Thales Sa | Systeme de communication multi-antennes |
US8569680B2 (en) * | 2009-12-21 | 2013-10-29 | University Of Wyoming | Hyperacuity from pre-blurred sampling of a multi-aperture visual sensor |
JP4803304B2 (ja) * | 2010-02-22 | 2011-10-26 | カシオ計算機株式会社 | 画像処理装置及びプログラム |
US20120197461A1 (en) * | 2010-04-03 | 2012-08-02 | Geoffrey Louis Barrows | Vision Based Hover in Place |
FR2961601B1 (fr) * | 2010-06-22 | 2012-07-27 | Parrot | Procede d'evaluation de la vitesse horizontale d'un drone, notamment d'un drone apte au vol stationnaire autopilote |
EP2423871B1 (en) * | 2010-08-25 | 2014-06-18 | Lakeside Labs GmbH | Apparatus and method for generating an overview image of a plurality of images using an accuracy information |
WO2012024730A1 (en) * | 2010-08-25 | 2012-03-01 | The University Of Sydney | Sensor data processing |
US8676498B2 (en) * | 2010-09-24 | 2014-03-18 | Honeywell International Inc. | Camera and inertial measurement unit integration with navigation data feedback for feature tracking |
WO2012044297A1 (en) * | 2010-09-30 | 2012-04-05 | Empire Technology Development Llc | Automatic flight control for uav based solid modeling |
US8712679B1 (en) * | 2010-10-29 | 2014-04-29 | Stc.Unm | System and methods for obstacle mapping and navigation |
CN102480593B (zh) | 2010-11-25 | 2014-04-16 | 杭州华三通信技术有限公司 | 双镜头摄像机切换方法及装置 |
KR101157484B1 (ko) * | 2010-12-14 | 2012-06-20 | 주식회사 대한항공 | 무인항공기 자동회수 방법 |
US20120173185A1 (en) * | 2010-12-30 | 2012-07-05 | Caterpillar Inc. | Systems and methods for evaluating range sensor calibration data |
JP5699670B2 (ja) * | 2011-02-18 | 2015-04-15 | 日産自動車株式会社 | 走行経路生成装置、及び走行経路生成方法 |
US8660338B2 (en) * | 2011-03-22 | 2014-02-25 | Honeywell International Inc. | Wide baseline feature matching using collobrative navigation and digital terrain elevation data constraints |
EP2538298A1 (en) * | 2011-06-22 | 2012-12-26 | Sensefly Sàrl | Method for acquiring images from arbitrary perspectives with UAVs equipped with fixed imagers |
CN102339062A (zh) * | 2011-07-11 | 2012-02-01 | 西北农林科技大学 | 基于dsp和双目视觉的微型农业机械导航与远程监控系统 |
JP5787695B2 (ja) * | 2011-09-28 | 2015-09-30 | 株式会社トプコン | 画像取得装置 |
KR101901586B1 (ko) * | 2011-12-23 | 2018-10-01 | 삼성전자주식회사 | 로봇 위치 추정 장치 및 그 방법 |
US9031782B1 (en) * | 2012-01-23 | 2015-05-12 | The United States Of America As Represented By The Secretary Of The Navy | System to use digital cameras and other sensors in navigation |
US9384668B2 (en) * | 2012-05-09 | 2016-07-05 | Singularity University | Transportation using network of unmanned aerial vehicles |
US9137675B2 (en) * | 2012-06-13 | 2015-09-15 | All Purpose Networks LLC | Operational constraints in LTE TDD systems using RF agile beam forming techniques |
CN102819263B (zh) * | 2012-07-30 | 2014-11-05 | 中国航天科工集团第三研究院第八三五七研究所 | 多摄像头无人车视觉感知系统 |
US9195914B2 (en) * | 2012-09-05 | 2015-11-24 | Google Inc. | Construction zone sign detection |
US8996228B1 (en) * | 2012-09-05 | 2015-03-31 | Google Inc. | Construction zone object detection using light detection and ranging |
US9221461B2 (en) * | 2012-09-05 | 2015-12-29 | Google Inc. | Construction zone detection using a plurality of information sources |
US9056395B1 (en) * | 2012-09-05 | 2015-06-16 | Google Inc. | Construction zone sign detection using light detection and ranging |
US20140140575A1 (en) * | 2012-11-19 | 2014-05-22 | Mace Wolf | Image capture with privacy protection |
US8909391B1 (en) * | 2012-12-28 | 2014-12-09 | Google Inc. | Responsive navigation of an unmanned aerial vehicle to a remedial facility |
CN103019245A (zh) * | 2013-01-07 | 2013-04-03 | 西北农林科技大学 | 一种基于多传感器信息融合的山地农业机器人避障系统 |
CN103921933A (zh) * | 2013-01-10 | 2014-07-16 | 深圳市大疆创新科技有限公司 | 飞行器变形结构及微型飞行器 |
CN103149939B (zh) * | 2013-02-26 | 2015-10-21 | 北京航空航天大学 | 一种基于视觉的无人机动态目标跟踪与定位方法 |
CN103135551B (zh) * | 2013-02-28 | 2015-05-06 | 上海大学 | 一种精确定位火灾搜救机器人 |
US9196084B2 (en) * | 2013-03-15 | 2015-11-24 | Urc Ventures Inc. | Determining object volume from mobile device images |
CN203299134U (zh) * | 2013-05-06 | 2013-11-20 | 中国计量学院 | 基于四轴飞行器的风力发电机叶片表面裂纹检测装置 |
CN103324196A (zh) * | 2013-06-17 | 2013-09-25 | 南京邮电大学 | 基于模糊逻辑的多机器人路径规划与协调避碰方法 |
WO2014203334A1 (ja) * | 2013-06-18 | 2014-12-24 | トヨタ自動車 株式会社 | 運転支援装置 |
DE102013211414A1 (de) * | 2013-06-18 | 2014-12-18 | Kuka Laboratories Gmbh | Fahrerloses Transportfahrzeug und Verfahren zum Betreiben einesfahrerlosen Transportfahrzeugs |
CN103490842B (zh) * | 2013-09-26 | 2016-09-28 | 深圳市大疆创新科技有限公司 | 数据传输系统及方法 |
CN103592947B (zh) * | 2013-11-19 | 2015-11-11 | 华南农业大学 | 一种农用飞行器安全作业飞行监控装置及其控制算法 |
CN103630138A (zh) | 2013-12-09 | 2014-03-12 | 天津工业大学 | 基于摄像机头标定算法的无人机视觉导航方法 |
CN103914075B (zh) * | 2013-12-13 | 2017-05-03 | 深圳市大疆创新科技有限公司 | 一种无人飞行器的控制方法及装置 |
US9843647B2 (en) * | 2014-02-25 | 2017-12-12 | Here Global B.V. | Method and apparatus for providing selection and prioritization of sensor data |
CN103914065B (zh) * | 2014-03-24 | 2016-09-07 | 深圳市大疆创新科技有限公司 | 飞行器状态实时修正的方法和装置 |
CN203950203U (zh) * | 2014-06-11 | 2014-11-19 | 江苏数字鹰科技发展有限公司 | 可在夜间判断障碍物距离的无人机 |
CN104102218B (zh) * | 2014-06-30 | 2017-04-05 | 西北工业大学 | 基于视觉伺服的感知与规避方法及系统 |
US9318014B1 (en) * | 2014-11-26 | 2016-04-19 | Elwha Llc | Systems and methods for reporting visibility to drones |
WO2016106715A1 (en) * | 2014-12-31 | 2016-07-07 | SZ DJI Technology Co., Ltd. | Selective processing of sensor data |
-
2014
- 2014-12-31 WO PCT/CN2014/095983 patent/WO2016106715A1/en active Application Filing
- 2014-12-31 ES ES14909276T patent/ES2874506T3/es active Active
- 2014-12-31 DK DK14909276.9T patent/DK3123260T3/da active
- 2014-12-31 EP EP21160634.8A patent/EP3889728A3/en not_active Withdrawn
- 2014-12-31 CN CN202010360825.XA patent/CN111506109B/zh active Active
- 2014-12-31 EP EP14909276.9A patent/EP3123260B1/en active Active
- 2014-12-31 JP JP2016553376A patent/JP6312178B2/ja not_active Expired - Fee Related
- 2014-12-31 CN CN201480084437.6A patent/CN107209514B/zh not_active Expired - Fee Related
-
2016
- 2016-05-27 US US15/167,154 patent/US9778661B2/en active Active
-
2017
- 2017-08-30 US US15/691,629 patent/US10802509B2/en active Active
-
2020
- 2020-09-30 US US17/038,014 patent/US20210065400A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
CN111506109A (zh) | 2020-08-07 |
JP2017509981A (ja) | 2017-04-06 |
CN111506109B (zh) | 2023-08-25 |
EP3889728A2 (en) | 2021-10-06 |
US20170364095A1 (en) | 2017-12-21 |
US10802509B2 (en) | 2020-10-13 |
US9778661B2 (en) | 2017-10-03 |
EP3123260A4 (en) | 2017-04-05 |
US20170045895A1 (en) | 2017-02-16 |
DK3123260T3 (da) | 2021-06-14 |
EP3123260A1 (en) | 2017-02-01 |
JP6312178B2 (ja) | 2018-04-18 |
CN107209514A (zh) | 2017-09-26 |
EP3889728A3 (en) | 2021-12-01 |
ES2874506T3 (es) | 2021-11-05 |
WO2016106715A1 (en) | 2016-07-07 |
EP3123260B1 (en) | 2021-04-14 |
US20210065400A1 (en) | 2021-03-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107209514B (zh) | 传感器数据的选择性处理 | |
CN107850902B (zh) | 可移动物体上的相机配置 | |
US10599149B2 (en) | Salient feature based vehicle positioning | |
US11914369B2 (en) | Multi-sensor environmental mapping | |
US10645300B2 (en) | Methods and apparatus for image processing | |
CN108351649B (zh) | 用于控制可移动物体的方法和设备 | |
CN108351653B (zh) | 用于uav飞行控制的系统和方法 | |
JP6487010B2 (ja) | ある環境内で無人航空機を制御する方法、ある環境のマップを生成する方法、システム、プログラムおよび通信端末 | |
CN109219785B (zh) | 一种多传感器校准方法与系统 | |
JP6181300B2 (ja) | 無人航空機の速度を制御するシステム | |
CN113589833A (zh) | 用于视觉目标跟踪的方法 | |
JP2019050007A (ja) | 移動体の位置を判断する方法および装置、ならびにコンピュータ可読媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20200605 |