CN109478068A - 动态地控制用于处理传感器输出数据的参数以用于碰撞避免和路径规划的系统和方法 - Google Patents

动态地控制用于处理传感器输出数据的参数以用于碰撞避免和路径规划的系统和方法 Download PDF

Info

Publication number
CN109478068A
CN109478068A CN201780046683.6A CN201780046683A CN109478068A CN 109478068 A CN109478068 A CN 109478068A CN 201780046683 A CN201780046683 A CN 201780046683A CN 109478068 A CN109478068 A CN 109478068A
Authority
CN
China
Prior art keywords
sensor
processor
delivery vehicle
speed
driving direction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201780046683.6A
Other languages
English (en)
Other versions
CN109478068B (zh
Inventor
C·W·斯威特三世
H·斯沃特
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of CN109478068A publication Critical patent/CN109478068A/zh
Application granted granted Critical
Publication of CN109478068B publication Critical patent/CN109478068B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • G05D1/106Change initiated in response to external conditions, e.g. avoidance of elevated terrain or of no-fly zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B15/00Systems controlled by a computer
    • G05B15/02Systems controlled by a computer electric
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • G05D1/102Simultaneous control of position or course in three dimensions specially adapted for aircraft specially adapted for vertical take-off of aircraft
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0047Navigation or guidance aids for a single aircraft
    • G08G5/0069Navigation or guidance aids for a single aircraft specially adapted for an unmanned aircraft
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/04Anti-collision systems
    • G08G5/045Navigation or guidance aids, e.g. determination of anti-collision manoeuvers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41407Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41422Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance located in transportation means, e.g. personal vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440281Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by altering the temporal resolution, e.g. by frame skipping
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • B64U10/13Flying platforms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/10UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U30/00Means for producing lift; Empennages; Arrangements thereof
    • B64U30/20Rotors; Rotor supports

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electromagnetism (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)

Abstract

各种实施例涉及基于运载工具的速度和方向动态地控制用于处理传感器数据的参数,所述参数包括对运载工具传感器进行采样和分析的速率。可以调节对碰撞避免和/或路径规划有用的传感器的数据或采样速率,以突出来自视场涵盖行驶方向的传感器的数据,同时限制处理来自不太可能提供对此目的有用的数据的传感器的数据。在一些实施例中,对来自特定传感器的数据进行采样和/或处理的速率可以取决于运载工具的行驶方向和速度以及传感器的视场。可以通过将处理集中在来自查看行驶方向的传感器的数据,同时减少对来自查看其它方向的传感器的数据的处理,来减小处理需求。在一些实施例中,传感器数据采样或处理速率可以基于碰撞风险概率而变化。

Description

动态地控制用于处理传感器输出数据的参数以用于碰撞避免 和路径规划的系统和方法
背景技术
诸如无人飞行器(UAV)的无人驾驶运载工具通常配置有视图传感器(例如,相机、雷达等),其能够在传感器面对的方向上感知视场(FOV)内的环境。来自视图传感器的数据可以由自主运载工具用于通过环境进行导航,包括检测障碍物、确定如何避开障碍物、路径映射和/或路径寻找。例如,自主运载工具上的立体相机能够在立体相机面对的方向上拍摄环境的立体图像对。处理器(例如,中央处理单元(CPU)、芯片上系统(SoC)等)处理立体图像对以产生相机视场内的环境的三维(3D)深度图。为了能够对自主运载工具周围所有的环境进行深度测量,可以定位多个立体相机,以使得相应视场的组合可以涵盖运载工具周围的360度。然而,使用多个立体相机或其它视图传感器(例如,雷达、声呐等)增大了处理器的处理需求。运载工具移动越快,就需要越快地处理传感器数据(例如,图像)以及时检测到障碍物,从而避开它们。然而,运载工具的处理器具有有限的处理带宽(可能有每秒几百万指令(MIPS))。
发明内容
公开了用于基于运载工具的行驶方向、取向和速度来动态地控制用于处理从运载工具上的传感器接收的数据的一个或多个参数的各种实施例,所述数据包括例如处理来自各种传感器的传感器数据的速率。各种实施例可以包括运载工具的处理器确定运载工具的速度和行驶方向,确定传感器中的每一个的视向和视场中的一个或多个,以及基于运载工具的速度和行驶方向以及传感器的视向和/或视场,来控制用于处理传感器输出数据的一个或多个参数(从传感器中的每一个接收的输出数据的数据处理速率)。
在一些实施例中,控制用于处理从传感器中的每一个接收的输出数据的一个或多个参数可以包括控制传感器中的一个或多个的采样或帧速率。在一些实施例中,控制用于处理从传感器中的每一个接收的输出数据的参数可以包括控制传感器中的一个或多个的采样或帧速率,以及控制处理从传感器中的一个或多个接收的输出数据的速率。
在一些实施例中,控制用于处理从传感器中的每一个接收的输出数据的一个或多个参数可以包括判断运载工具的速度是否超过速度阈值,响应于确定运载工具的速度超过速度阈值,针对每个传感器判断传感器的视向是否偏离运载工具的行驶方向或传感器的视场是否不涵盖运载工具的行驶方向;以及响应于确定一个或多个传感器的视向偏离运载工具的行驶方向或一个或多个传感器的视场不涵盖运载工具的行驶方向,压制从传感器中的一个或多个接收的输出数据的数据处理速率。在一些实施例中,控制用于处理从传感器中的每一个接收的输出数据的一个或多个参数可以包括响应于确定一个或多个传感器的视向与运载工具的行驶方向对准或一个或多个传感器的视场涵盖运载工具的行驶方向,维持或增大从传感器中的一个或多个接收的输出数据的数据处理速率。在一些实施例中,控制用于处理从传感器中的每一个接收的输出数据的一个或多个参数可以包括响应于确定运载工具的速度不超过速度阈值,使从传感器接收的输出数据的数据处理速率相等。
在一些实施例中,确定运载工具的速度和行驶方向可以包括在运载工具改变行驶方向之前确定运载工具的速度和下一行驶方向。在这样的实施例中,控制从传感器中的每一个接收的输出数据的数据处理速率可以包括:基于运载工具的速度和下一行驶方向以及传感器的视向和/或视场,确定用于处理从多个传感器中的每一个接收的输出数据的下一数据处理速率;检测运载工具何时在下一行驶方向上移动;以及响应于检测到运载工具正在下一行驶方向上移动,以针对传感器中的每一个的下一数据处理速率处理从传感器接收的输出数据。
一些实施例还可以包括确定每个传感器的视向和/或视场中的一个或多个碰撞风险因素,其中基于运载工具的速度和行驶方向以及传感器的视向和/或视场来控制用于处理从传感器中的每一个接收的输出数据的速率的一个或多个参数可以包括基于运载工具的速度和行驶方向以及每个传感器的视向和/或视场中的一个或多个碰撞风险因素,控制从传感器中的每一个接收的输出数据的数据处理速率。在一些实施例中,一个或多个碰撞风险因素可以包括传感器的操作特性、视场内的障碍物的检测、视场内检测到的障碍物的速度、一个或多个运载工具操纵参数、处理器的处理特性中的一个或多个、或其任意组合。
一些实施例还可以包括基于运载工具的速度和行驶方向以及传感器的视向和/或视场,控制多个传感器中的每一个的发射功率。
在一些实施例中,传感器可以包括相机、立体相机、图像传感器、雷达传感器、声纳传感器、超声波传感器、深度传感器、主动传感器、被动传感器中的一种或多种或其任意组合。在一些实施例中,运载工具是无人驾驶运载工具。在一些实施例中,无人驾驶运载工具是飞行器、陆地运载工具、天基运载工具或水上运载工具之一。
其它实施例包括运载工具和/或运载工具内的计算装置,计算装置包括处理器,处理器被配置有处理器可执行指令以执行上文总结的实施例方法的操作。其它实施例包括非暂态处理器可读存储介质,其上存储有处理器可执行指令,处理器可执行指令被配置为使处理器执行上文总结的实施例方法的操作。其它实施例包括运载工具和/或运载工具内的计算装置,计算装置包括用于执行上文总结的实施例方法的功能的单元。
附图说明
被并入本文并构成本说明书的一部分的附图示出了示例性实施例,并且连同上面给出的一般描述和下面给出的具体实施方式一起用来解释各种实施例的特征。
图1是通过可以在其中应用各种实施例的环境进行导航的无人驾驶飞行器(UAV)的示意性透视图。
图2A和图2B分别示出了根据一些实施例的包括多个视图传感器的UAV的前视图和平面图。
图3示出了用于运载工具的控制单元的部件,其可以被配置为实现根据一些实施例的动态地控制用于处理来自运载工具上多个视图传感器的输出数据的参数以用于碰撞避免和/或路径规划的方法。
图4A和图4B示出了根据一些实施例的动态地控制用于处理来自UAV上的多个视图传感器的输出数据的参数以用于碰撞避免和/或路径规划的方法。
图5A、图5B和图5C是示出了根据一些实施例的处理器控制用于处理来自多个立体相机的输出数据的参数的示意图。
图6示出了根据一些实施例的动态地控制用于处理来自运载工具上的多个视图传感器的输出数据的参数以用于碰撞避免和/或路径规划的另一种方法。
图7示出了根据一些实施例的动态地控制用于处理来自运载工具上的多个视图传感器的输出数据的参数以用于碰撞避免和/或路径规划的另一种方法。
具体实施方式
将参考附图详细描述各种实施例。只要有可能,就在全部附图中始终使用相同的附图标记来指代相同或相似的部分。对特定的示例和实施方式的引用是为了例示性目的,并且并不旨在限制权利要求的范围
如这里使用的,术语“运载工具”是指各种类型的无人驾驶或有人驾驶运载工具之一。无人驾驶运载工具可以是远程控制的、自主的或半自主的。自主(或半自主)运载工具能够感测其环境并利用来自用户的最小输入自己进行导航。有人驾驶运载工具和自主运载工具可以由操作员周期性控制,因而是半自主的。适于实现各种实施例的运载工具的示例包括:无人驾驶飞行器(UAV),包括机器人或无人机;陆地运载工具,包括汽车;天基运载工具,包括宇宙飞船或航天探测器;以及水上运载工具,包括基于表面或海下船舶。无人驾驶运载工具正变得在若干军事和商业应用中更加常见。
本文中使用术语“计算装置”指代至少装备有处理器的电子装置。计算装置的示例可以包括UAV机载的UAV飞行控制和/或任务管理计算机,以及与UAV通信的被配置为执行各种实施例的操作的远程计算装置。远程计算装置可以包括无线通信装置(例如,蜂窝电话、可穿戴装置、智能电话、上网本、平板计算机、支持因特网的蜂窝电话、支持Wi-Fi的电子装置、个人数据助理(PDA)、膝上计算机等)、个人计算机以及服务器。在各种实施例中,计算装置可以被配置有存储器和/或储存器以及无线通信能力,例如被配置为建立广域网(WAN)连接(例如,蜂窝网络连接等)和/或局域网(LAN)连接(例如,经由Wi-Fi路由器通往因特网的无线连接等)的一个或多个网络收发机和天线。
公开了用于基于运载工具的行驶方向、取向和速度动态地控制用于处理从运载工具上的各种视图传感器接收的传感器数据的一个或多个参数的各种实施例,所述参数包括例如接收和/或处理来自运载工具上的各种视图传感器的传感器数据的速率。各种实施例可能对于管理由自主运载工具(例如UAV)的导航或碰撞避免系统使用的传感器数据的处理尤其有用。例如,在一些实施例中,处理来自特定视图传感器的数据的速率(或频率)可以取决于当前方向和行驶速度以及传感器感知环境(即,视场)的视向。可以通过将处理集中在来自视场涵盖行驶方向的视图传感器的传感器数据上,同时减小来自视场在行驶方向之外的方向上的视图传感器的数据的速率或频率,来减小处理需求。在一些实施例中,处理来自运载工具上的给定视图传感器的数据的速率可以基于碰撞风险概率,运载工具处理器可以根据运载工具的速度和方向以及一个或多个风险因素来确定该概率,所述风险因素例如潜在威胁(例如,其它自主运载工具、导弹、鸟等)的速度。
在一些实施例中,处理器可以调节视图传感器的采样或帧速率,以便减小内部数据总线上传送的信息的量(带宽),并使得具有固定带宽的数据总线能够传送更多的来自视场涵盖行驶方向的视图传感器的数据。在一些实施例中,处理器可以不控制视图传感器的采样或帧速率,而是调节或压制分析或处理来自每个视图传感器的传感器数据的速率,因而将处理资源集中在来自视场涵盖行驶方向的传感器的数据上。在一些实施例中,处理器可以进行这两者,调节视图传感器的采样或帧速率,以及调节或压制分析或处理来自每个视图传感器的传感器数据的速率。
在一些实施例中,处理器可以基于运载工具的行驶方向、取向和速度动态地控制运载工具上的各种视图传感器的发射功率。例如,一些视图传感器感知环境的程度(例如,离开传感器的距离)可以取决于视图传感器(例如,雷达传感器、声纳传感器等)的发射功率。可以通过增大视场涵盖行驶方向的视图传感器的发射功率,同时减小视场处于不涵盖行驶方向的方向中的传感器的发射功率,来减小功率需求。
图1是通过可以在其中应用各种实施例的环境100进行导航的UAV110的示意性透视图。利用自主导航,通常存在无人驾驶运载工具110将与环境中的沿导航路线定位的结构或物体碰撞的风险。例如,UAV 110可能需要避免与沿其飞行路径的各种障碍物碰撞,障碍物包括但不限于树木120、建筑物130、电力/电话线路140和支撑柱150。UAV 110还可能需要避开移动的物体,例如人、鸟和其它移动的运载工具。为了应对这种风险,UAV110可以被配置有计算机化碰撞避免系统,其感测环境100并使运载工具110执行防御策略,以避免与运载工具110附近的障碍物碰撞。这种策略可以包括紧急制动、悬停、降低速度、改变方向、取向或其任意组合。
图2A和图2B分别示出了根据一些实施例的包括多个视图传感器220a、220b、220c、220d(统称220)的UAV 200(可以对应于图1中的UAV 110)的前视图和平面图。参考图1-图2B,在一些实施例中,UAV 200可以装备有四个视图传感器220a、220b、220c、220d,以用于碰撞避免系统中。在一些实施例中,UAV 200可以包括多于或少于四个视图传感器220a、220b、220c、220d。在一些实施例中,视图传感器220可以包括能够感知有限视场内的环境(例如,100)的任何类型的视图传感器。例如,视图传感器220可以包括相机(例如,立体相机)、图像传感器、雷达传感器、声纳传感器、超声波传感器、深度传感器、主动传感器、被动传感器中的一种或多种或其任意组合。视图传感器可以包括不同视图传感器的组合,例如雷达加机器视觉传感器、双筒或三筒相机系统、多光谱相机系统等。不同类型的视图传感器(即,使用不同技术的视图传感器)通常在视角和/或范围灵敏度方面具有不同的视场。
在一些实施例中,视图传感器220可以附接到UAV 200的主壳体210。在一些实施例中,视图传感器220可以集成到UAV 200的主壳体210中,从而通过主壳体210中的开口暴露视图传感器220。在一些实施例中,视图传感器220a、220b、220c、220d可以彼此偏移(例如,水平、垂直或水平和垂直二者),以使得视图传感器可以面向不同视向来感知(或感测)UAV200周围的环境。
视图传感器220a、220b、220c、220d可以由每个视图传感器面对的方向(本文中称为视向230)和/或每个视图传感器的视场232来表征。视向230可以是传感器的视场232的中心线。一些视图传感器可以具有窄视场232,例如激光雷达(称为“激光雷达”),在这种情况下,在各种实施例中评估的特性可以仅是视向230。一些视图传感器可以具有宽视场232,例如装备有鱼眼透镜的相机以及具有近全向天线的雷达。
具有宽视场232(例如,如图2B所示的90度)的视图传感器即使在视向230不与行驶方向对准时也可以涵盖UAV 200的行驶方向。例如,具有90度视场(如图2B所示)的视图传感器220a、220b、220c、220d可以在视向230在行驶方向的45度内时涵盖UAV 200的行驶方向。
在一些实施例中,视图传感器220的相应视场232可以在某种程度上交叠,从而提供环境的完整的360度视图。例如,如果图2B中所示的四个视图传感器220a、220b、220c、220d具有大于90度的视场232,则相邻传感器的视场会在例示构造中交叠。在一些实施例中,视图传感器220可以倾斜远离旋翼215(例如,向上或向下),以防止旋翼215进入传感器220的相应视场。
UAV 200可以包括位于主壳体210内的机载计算装置,其被配置为在没有远程操作指令(即,自主地)的情况下,和/或在具有例如来自操作员或远程计算装置(即,半自主地)的一些远程操作指令或存储器中存储的指令的更新的情况下,飞行和/或操作UAV 200。
可以通过若干已知方式中的任一种推进UAV 200以进行飞行。例如,两个或更多推进单元(每个包括一个或多个旋翼215)可以为UAV 200和UAV 200承载的任何有效载荷提供推进力或提升力。在一些实施例中,UAV200可以包括轮、坦克履带或其它非航空运动机构,以使得能够在地面上运动、在水上或水中运动及其组合。UAV 200可以由一种或多种类型的电源供电,所述电源例如电、化学、电-化学或其它功率储备提供电力,其可以为推进单元、机载计算装置和/或其它机载部件提供电力。为了容易描述和例示,UAV 200的一些细节方面被省略,例如布线、帧结构、电源、着陆柱/用具或本领域技术人员会知道的其它特征。
尽管UAV 200被图示为具有四个旋翼的四轴飞行器,但UAV 200的一些实施例可以包括多于或少于四个旋翼215。此外,尽管视图传感器220a、220b、220c、220d被示为附接到UAV 200,但在一些实施例中视图传感器220a、220b、220c、220d可以附接到其它类型的运载工具,包括有人驾驶和无人驾驶运载工具。
图3示出了用于运载工具(例如,图1-图2B中的UAV 110、200)的控制单元300的部件,其可以被配置为实现根据一些实施例的基于速度和行驶方向来动态地控制用于处理来自运载工具上的多个视图传感器的输出数据的一个或多个参数的方法。参考图1-图3,控制单元300可以包括用于为运载工具供电并控制其操作的各种电路和装置。控制单元300可以包括处理器310、存储器312、视图传感器输入/输出(I/O)处理器320、一个或多个导航传感器322、导航处理器324、耦合到天线332的射频(RF)处理器330、以及电源340。视图传感器输入/输出(I/O)处理器320可以耦合到多个视图传感器220。
在一些实施例中,处理器310可以是特别适于实现根据一些实施例的动态地控制用于处理来自运载工具上的多个视图传感器220的传感器数据的一个或多个参数(例如控制输出数据的数据处理速率)以用于碰撞避免和/或路径规划的方法的专用硬件。在一些实施例中,处理器310还可以控制运载工具的其它操作(例如,UAV 200的飞行)。在一些实施例中,处理器310可以是或包括可编程处理单元311,其可以利用处理器可执行指令进行编程以执行各种实施例的操作。在一些实施例中,处理器310可以是可编程微处理器、微计算机或多个处理器芯片或能够通过软件指令被配置为执行运载工具的多种功能的芯片。在一些实施例中,处理器310可以是专用硬件和可编程处理单元311的组合。
在一些实施例中,存储器312可以存储来自视图传感器I/O处理器320、一个或多个导航传感器322、导航处理器324或其组合的处理器可执行指令和/或输出。在一些实施例中,存储器312可以是易失性存储器、非易失性存储器(例如,闪速存储器)或它们的组合。在一些实施例中,存储器312可以包括包括在处理器310中的内部存储器、处理器310外部的存储器或它们的组合。
处理器310、存储器312、视图传感器I/O处理器320、一个或多个导航传感器322、导航处理器324、RF处理器330和控制单元300的任何其它电子部件可以由电源340供电。在一些实施例中,电源340可以是蓄电池、太阳能电池或其它类型的能量采集电源。
在一些实施例中,处理器310可以耦合到视图传感器I/O处理器320、一个或多个导航传感器322、导航处理器324或其组合。在一些实施例中,处理器310还可以被配置为接收并处理视图传感器I/O处理器320、一个或多个导航传感器322、导航处理器324或其组合的相应输出。
处理器310可以被配置为从运载工具上安装的视图传感器220接收输出数据。在一些实施例中,处理器310可以从视图传感器I/O处理器320直接接收输出数据,视图传感器I/O处理器320可以耦合到视图传感器220。在一些实施例中,处理器310可以经由存储器312访问来自视图传感器220的输出数据。
处理器310可以被配置为从一个或多个导航传感器322和/或导航处理器324接收导航数据。处理器310可以被配置为使用这种数据以便确定运载工具的当前位置、取向、速度、速率、行驶方向或其任意组合,以及朝向期望目的地的适当路线。一个或多个导航传感器322可以包括一个或多个陀螺仪(典型为至少三个)、陀螺罗盘、一个或多个加速度计、位置传感器或在检测和控制运载工具姿态和运动方面有用的其它类型的传感器。耦合到导航处理器324的位置传感器可以包括全球导航卫星系统(GNSS)接收机(例如,一个或多个全球定位系统(GPS)接收机),使得运载工具(例如,300)能够使用GNSS信号确定运载工具的坐标、海拔、行驶方向和速度。替代地或此外,导航处理器324可以装备有无线电导航接收机,以用于接收导航信标或来自无线电节点的其它信号,例如导航信标(例如,甚高频(VHF)全向无线电范围(VOR)信标)、Wi-Fi接入点、蜂窝网络基站、无线电台、远程计算装置、其它UAV等。在运载工具是UAV(例如,200)的一些实施例中,一个或多个导航传感器322可以提供姿态信息,包括运载工具的俯仰、左右摇摆和横摆值。
在一些实施例中,处理器310可以耦合到RF处理器330,以便与远程计算装置350通信。例如,在一些实施例中,RF处理器330可以被配置为经由天线332接收信号334,例如来自导航设施的信号等,并向处理器310和/或导航处理器324提供这种信号以辅助运载工具(例如,200)的操作。RF处理器330可以是仅发射或双向收发机处理器。例如,RF处理器330可以包括单个收发机芯片或多个收发机芯片的组合,以用于发射和/或接收信号。RF处理器330可以根据所支持类型的通信在若干射频频带中的一个或多个中进行操作。
远程计算装置350可以是多种计算装置中的任一种,包括但不限于蜂窝电话、智能电话、上网机、平板计算机、支持因特网的蜂窝电话、支持无线局域网(WLAN)的电子装置、膝上计算机、个人计算机和至少装备有处理器和通信资源以与RF处理器330通信的类似电子装置中的处理器。可以使用蓝牙、Wi-Fi或其它无线通信协议,通过无线链路334从控制单元300的一个或多个部件(例如,处理器310)向远程计算装置350发射信息。
尽管控制单元300的各种部件在图3中被图示为独立部件,但部件中的一些或全部可以一起集成在单个装置或模块(例如芯片上系统模块)中。
图4A示出了根据一些实施例的部分基于运载工具的速度和行驶方向来动态地控制用于处理来自运载工具(例如,UAV 200)上的多个视图传感器(例如,220a、220b、220c)的输出数据的一个或多个参数的方法400。参考图1-图4A,方法400的操作可以由运载工具的控制单元(例如,300)执行。
在方框410中,处理器(例如,控制单元300中的处理器310)可以通过任何适当方式确定运载工具的速度和行驶方向。在一些实施例中,处理器可以从导航传感器(例如,322)、导航处理器324中的一个或多个或两者获得运载工具的当前速度或行驶方向。在一些实施例中,处理器可以基于导航传感器(例如,322)、导航处理器324中的一个或多个或两者提供的导航数据(例如,位置、取向、时间等)计算运载工具的速度或行驶方向。在一些实施例中,可以将行驶方向表示为二维(2D)矢量(例如,左、右、向前、向后或北、南、东、西、东北等)。在一些实施例中,可以将行驶方向表示为三维(3D)矢量。
在方框420中,处理器可以确定视图传感器(例如,220a、220b、220c、220d)中的每一个的视向(例如,230)和/或视场(例如,232)。在一些实施例中,在每个视图传感器的视向和/或视场被预配置(即,固定)的情况下,处理器可以访问存储在存储器312中的针对每个视图传感器的关于视向(例如,230)和/或视场(例如,232)的信息。在每个视图传感器的视向(即,视场的中心线)受处理器(例如,310)控制或受远程计算装置(例如,350)远程控制的一些实施例中,处理器(例如,310)可以通过直接从每个传感器(例如,经由视图传感器I/O处理器320)请求视向信息,或通过从存储器312访问每个视图传感器的视向信息,来访问关于每个视图传感器的当前视向的信息。在一些实施例中,可以将每个视图传感器的视向表示为二维(2D)矢量(例如,左、右、向前、向后或北、南、东、西、东北等)。在一些实施例中,可以将每个视图传感器的视向表示为3D矢量。在一些实施例中,可以将每个视图传感器的视场表示为中心线(即,传感器视向)的2D或3D矢量以及定义视场范围的绕2D或3D矢量的角度。
在方框430中,处理器(例如,310)可以基于运载工具的速度和行驶方向以及视图传感器的视向(例如,230)和/或视场(例如,232)来控制用于处理来自视图传感器(例如,220a、220b和220c)中的每一个的输出数据的一个或多个参数。在各种实施例中,可以由处理器控制的用于处理来自视图传感器的输出数据的一个或多个参数可以包括数据采样率、传感器帧速率、处理速率(即,处理传感器数据的速率)和/或进行发射的视图传感器(例如,雷达、声纳等)的发射功率中的一个或多个。
在一些实施例中,处理器可以压制(或减小)从视向偏离移动的运载工具的行驶方向或视场不涵盖移动的运载工具的行驶方向的一个或多个视图传感器接收的输出数据的数据采样和/或处理速率。在一些实施例中,处理器可以控制视图传感器,以减小视场方向偏离运载工具的行驶方向或视场不涵盖运载工具的行驶方向的那些传感器的采样或帧速率。在一些实施例中,处理器可以既控制视图传感器的采样或帧速率,又基于每个传感器的视场和运载工具的行驶方向和行驶速度来调节处理传感器数据的速率。在一些实施例中,处理器可以维持或增大从视场涵盖移动的运载工具的行驶方向的一个或多个视图传感器接收的输出数据的数据采样和/或处理速率。于是,可以通过将处理集中在碰撞概率或可能性更大的行驶方向中或涵盖该行驶方向的传感器数据上,同时减小来自视场不涵盖碰撞概率/可能性更小的行驶方向的视图传感器的数据的采样速率/频率处理,来减小处理需求。
在可选方框440中,处理器(例如,310)可以基于运载工具的速度和行驶方向以及视图传感器的视向(例如,230)和/或视场(例如,232)来控制视图传感器(例如,220a、220b和220c)中的每一个的发射功率。与使用较小发射功率的视图传感器相比,使用较大发射功率的视图传感器(例如,雷达传感器、声纳传感器等)可能能够感知与传感器相距较大距离处的环境。在一些实施例中,处理器可以减小视向偏离移动的运载工具的行驶方向或视场不涵盖移动的运载工具的行驶方向的一个或多个视图传感器的发射功率。在一些实施例中,处理器可以维持或增大视向与移动的运载工具的行驶方向对准或视场涵盖移动的运载工具的行驶方向的一个或多个视图传感器的发射功率。于是,可以通过将发射功率集中到定向为朝向碰撞概率或可能性较大的行驶方向的视图传感器,同时减小定向为除行驶方向之外的方向(碰撞概率/可能性较小)的视图传感器的发射功率,来减小功率需求。
图4B是示出了根据一些实施例的基于速度和行驶方向(即,图4A的方框430)来控制用于处理从每个视图传感器接收的输出数据的一个或多个参数(例如,数据处理速率、传感器帧速率等)的方法4300的流程图。在一些实施例中,例如,如果运载工具正在特定方向快速行驶,则存在高概率或可能性该运载工具将继续沿相同方向行驶且可能在该方向上与其它运载工具或障碍物发生碰撞。于是,在一些实施例中,处理器可以压制或减少来自在不涵盖当前行驶方向的方向上感知环境的视图传感器的输出数据的处理。相反,如果运载工具正在特定方向上缓慢行驶,则存在高概率或可能性该运载工具可能改变方向并且有一定概率或可能性在任一方向上可能与其它运载工具或障碍物发生碰撞。于是,在一些实施例中,处理器可以跨所有视图传感器相等地压制或减少数据处理速率。
参考图1-图4B,在判断方框4320中,处理器(例如,310)可以判断运载工具(例如,UAV 200)的速度是否超过速度阈值(即,运载工具正快速行驶)。
响应于确定运载工具的速度不超过速度阈值(即,判断方框4320=“否”),在方框4340中处理器可以调节用于处理从视图传感器中的一个或多个接收的输出数据的一个或多个参数(例如,数据处理速率、传感器帧速率等)。例如,在一些实施例中,处理器可以将数据处理速率设置成对来自所有视图传感器的数据都相同。
响应于确定运载工具的速度超过速度阈值(即,判断方框4320=“是”),在判断方框4360中处理器可以针对每个视图传感器判断传感器的视向(例如,230)是否偏离运载工具的行驶方向或视场(例如,232)是否不涵盖运载工具的行驶方向。
响应于确定一个或多个视图传感器偏离运载工具的行驶方向或不涵盖运载工具的行驶方向(即,判断方框4360=“是”),在方框4380中处理器可以压制传感器采样或帧速率和/或从一个或多个视图传感器接收的输出数据的数据处理速率。在一些情况下,处理器可以将偏离行驶方向的视图传感器置于低功率模式。
响应于确定一个或多个视图传感器的视向与运载工具的行驶方向对准或涵盖运载工具的行驶方向(即,判断方框4360=“否”),如方框4400中所述的,处理器可以维持或增大传感器采样或帧速率和/或从一个或多个指向运载工具的行驶方向的一个或多个视图传感器接收的输出数据的数据处理速率。
图5A、图5B和图5C是示出了根据一些实施例的处理器(例如,310)基于运载工具(例如,UAV 200)的速度和行驶方向控制用于处理来自多个立体相机520a、520b、520c(其可以对应于图2A和图3中的视图传感器220以及图2B中的视图传感器220a、220b、220c、220d)的输出数据的一个或多个参数(例如,传感器采样或帧速率和/或数据处理速率)的示意图。参考图1-图5C,运载工具(例如,机器人、小汽车、无人机等)可以装备有面向前的立体相机520a、面向左的立体相机520b和面向右的立体相机520c。立体相机520a、520b、520c可以直接或间接(例如,经由图3的视图传感器I/O处理器320)耦合到处理器(例如,310),处理器通过处理相机输出数据来执行障碍物检测。在运载工具移动时,处理器处理立体相机520a、520b和520c中的每一个拍摄的图像帧,以产生用于碰撞避免和/或路径规划中的信息(例如,3D深度图)。
在行驶方向上拍摄的环境的图像可能具有较高概率或可能性包含对避免碰撞有用的信息。具体而言,在行驶方向上拍摄的图像将显露可能是潜在碰撞威胁的静止物体。
于是,在运载工具正在前向方向上移动时(例如,如图5A中所示),处理器(例如,310)可以将面向左的立体相机520b和面向右的立体相机520c的相机帧速率设置为比面向前的立体相机520a更低的速率(即,每秒接收和/或处理较少的帧)和/或以该更低的速率处理由面向左的立体相机520b和面向右的立体相机520c所拍摄的图像帧。例如,处理器可以将来自面向左的立体相机520b和面向右的立体相机520c的相机帧速率设置为每秒五帧(fps)的较低速率和/或以每秒五帧(fps)的较低速率处理来自面向左的立体相机520b和面向右的立体相机520c的图像帧,并将来自面向前的立体相机520a的相机帧速率设置为每秒三十帧(fps)的标准或提高的速率和/或以每秒三十帧(fps)的标准或提高的速率处理来自面向前的立体相机520a的图像帧。
在运载工具正在横向移动时(例如,向右,如图5B中所示),处理器可以将面向前的立体相机520a和面向左的立体相机520b的相机帧速率设置为比由面向右的立体相机520c拍摄的图像帧更低的速率和/或以该更低的速率处理由面向前的立体相机520a和面向左的立体相机520b拍摄的图像帧。
在运载工具正在未与任何视图传感器的取向完美对准的方向上移动时(例如,在西北方向上移动,例如图5C中),处理器可以将视场涵盖运动方向的视图传感器的相机帧速率设置为比视场不涵盖行驶方向的传感器更高的速率和/或以该更高的速率处理由视场涵盖运动方向的视图传感器所拍摄的图像帧。在图5C中所示的示例中,面向前的立体相机520a和面向左的立体相机520b具有交叠且涵盖行驶方向的视场。因此,可以将视图传感器的相机帧速率和/或处理由视图传感器拍摄的图像帧的速率设置为比面向右的立体相机520c的拍摄速率和/或处理由面向右的立体相机520c拍摄的图像帧的速率更大(例如,成比例更大)的速率。
参考图1-图5C,在一些实施方式中,例如在运载工具是飞机或水运船时,处理器(例如,310)可以接收从其它船广播的无线电信号,该信号指示其它船的位置、速度和方向。例如,商用飞机发射自动依从性监视-广播(ADS-B)信号,其通知其它飞机其相应的位置、海拔、行驶方向和速度。类似地,船只和其它水运船广播自动识别系统(AIS)信号,其通知其它船其相应的位置、行驶方向、速度和转向速率。在这样的系统中,每个船都广播其位置、速度和方向,并且每个船都处理从其它船接收的信号,以计算碰撞概率和/或最接近点(CPA)。于是,在一些实施例中,除了调节其它视图传感器(例如,雷达)的采样和/或处理速率之外,处理器(例如,310)可以优先处理来自存在最大碰撞风险的船的AIS或ADS-B信号。例如,如果运载工具正在快速移动,处理器可以压制从不在行驶方向上的其它船(例如,经由一个或多个视图传感器220)接收的AIS或ADS-B信号的数据处理速率,同时增大从在行驶方向上的其它船接收的信号的数据处理速率。相反,如果运载工具与其它船相比正在缓慢移动,可以相等地处理从所有其它船(例如,经由视图传感器220)接收的信号,因为碰撞威胁可能来自任何方向(即,几乎没有或没有基于行驶方向的信号的优先处理)。
图6示出了根据一些实施例的动态地控制用于处理来自运载工具上的多个视图传感器的输出数据的一个或多个参数(例如,传感器采样或帧速率和/或数据处理速率)以用于碰撞避免和/或路径规划的方法600。参考图1-6,方法600的操作可以由运载工具的控制单元(例如,图3中的300)执行。方法600可以包括方框420中的操作(例如,如参考图4A中所述)。
在方框610中,处理器(例如,控制单元300中的处理器310)可以确定运载工具的速度和预期的下一行驶方向。例如,处理器可以获得关于预期路线变化或预配置导航路径的信息,以在运载工具的行驶方向改变之前确定速度和下一行驶方向。在一些实施例中,可以从导航处理器(例如,控制单元300中的324)获得这样的信息或知识。
在方框620中,处理器(例如,310)可以基于运载工具的速度和下一行驶方向以及视图传感器的视向(例如,230)和/或视场(例如,232)确定用于处理从视图传感器(例如,220a、220b、220c或520a、520b、520c)中的每一个接收的输出数据的一个或多个下一参数(例如,传感器采样或帧速率和/或数据处理速率)。例如,在一些实施例中,处理器可以选择或计算用于处理从一个或多个视向偏离移动的运载工具的下一行驶方向和/或视场不涵盖移动的运载工具的下一行驶方向的一个或多个视图传感器(例如,220)接收的输出数据的被压制(或减小)的传感器采样或帧速率和/或数据处理速率。在一些实施例中,处理器可以维持用于处理从视向指向移动的运载工具的下一行驶方向和/或视场涵盖移动的运载工具的下一行驶方向的一个或多个视图传感器接收的输出数据的当前传感器采样或帧速率和/或数据处理速率。在一些实施例中,处理器可以选择或计算用于处理从视向指向移动的运载工具的下一行驶方向和/或视场涵盖移动的运载工具的下一行驶方向的一个或多个视图传感器接收的输出数据的增大的传感器采样或帧速率和/或数据处理速率。
在方框630中,处理器(例如,310)可以检测运载工具是否正在下一行驶方向上移动。例如,在一些实施例中,处理器可以基于从导航传感器(例如,322)、导航处理器(例如,324)中的一个或多个或两者获得的信息来检测运载工具是否正在下一行驶方向上移动。
在方框640中,响应于检测到运载工具正在下一行驶方向上移动,处理器(例如,310)可以根据针对视图传感器确定的用于处理传感器数据的(多个)下一参数(例如,下一传感器采样或帧速率和/或数据处理速率),来处理从每个视图传感器接收的输出数据。通过这种方式,处理器可以安排从视向和/或视场在一个或多个预期行驶方向上或与预配置路径对准的视图传感器接收和/或处理传感器数据的速率。
图7示出了根据一些实施例的动态地控制用于处理来自运载工具(例如,UAV 200)上的多个视图传感器(例如,图2B和图5A-图5C中的220、520)的输出数据的一个或多个参数(例如,传感器采样或帧速率和/或数据处理速率)以用于碰撞避免和/或路径规划的方法700。例如,在一些实施例中,可以对运载工具周围的各视图传感器(包括不同类型的视图传感器)进行采样和处理的速率基于在视图传感器的不同视向中的每一个中的碰撞风险。在一些实施例中,在特定方向上碰撞的概率或可能性可以考虑除运载工具的速度和行驶方向之外的一个或多个不同碰撞风险因素。
参考图1-图7,可以由运载工具的控制单元(例如,300)执行方法700的操作。方法700可以包括方框410和420中的操作(例如,参考图4A所描述的)。
在方框710中,处理器(例如,310)可以确定每个传感器的视向和/或视场中的一个或多个碰撞风险因素。在一些实施例中,一个或多个碰撞风险因素可以包括视向中的障碍物的检测、检测到的视向中的障碍物的速度(例如,其它UAV、导弹、动物等的速度)、传感器的至少一个操作特性中的一个或多个、一个或多个运载工具操纵参数(例如,作为速度的函数的制动距离、转向半径等)、处理器的处理特性(例如,带宽、可用存储器等)或其任意组合。
在一些实施例中,例如,传感器的操作特性可以包括传感器的检测范围、传感器的帧速率或扫描频率、传感器产生的要处理的输出数据的量(例如,来自雷达传感器的输出数据可能比来自需要很大处理量的立体相机的3D图像数据需要更少处理)、当前条件中每个传感器的有效性(例如,雷达传感器通常在晚上和雾中操作得更好,而相机在晴天的白昼工作得更好)、以及传感器检测碰撞威胁的可靠性(例如,雷达传感器对于检测鸟和运载工具通常是不可靠的)。
在方框720中,处理器可以基于运载工具的速度和行驶方向以及传感器的视向和/或视场中的一个或多个碰撞风险因素,来控制用于处理从传感器中的每一个接收的输出数据的一个或多个参数(例如,传感器采样或帧速率和/或数据处理速率)。在一些实施例中,处理器可以基于运载工具的速度和行驶方向以及每个传感器视向和/或视场中的一个或多个碰撞风险因素,来计算碰撞的概率或可能性,然后使用所计算的碰撞概率来决定是否压制、增大或维持对来自特定传感器的输出数据的传感器采样或帧速率和/或数据处理速率。
例如,如果处理器(例如,310)确定运载工具正在以低速向北行驶,并且移动的障碍物正在从西向着运载工具以高速行驶,处理器(例如,310)可以压制对从偏离移动的障碍物的方向的传感器(例如,220)接收的输出数据的传感器采样或帧速率和/或数据处理速率,因为碰撞威胁在西向上较高。在一个或多个视图传感器(例如,220)在碰撞威胁的方向上面向或感知环境的一些实施例中,处理器可以压制对来自在当前条件(例如,晚上、白天、雾等)下检测障碍物无效、不可靠或不够快的一个或多个传感器的数据的传感器采样或帧速率和/或处理。
提供图示和描述的各种实施例仅仅作为示例以例示权利要求的各个特征。然而,相对于任何给定实施例图示和描述的特征未必限于相关联实施例,并且可以用于图示和描述的其它实施例或与其组合。具体而言,各种实施例不限于用于空中UAV上,并且可以实现于任何形式的UAV上,包括除飞行器之外的陆地运载工具、水运运载工具和太空运载工具。此外,权利要求并不旨在由任一个示例性实施例的限制。例如,方法400、4300、600和700的操作中的一个或多个可以由方法400、4300、600和700的一个或多个操作替代或与之组合,反之亦然。
前述方法描述和过程流程图仅仅作为例证性示例被提供,并且并不旨在要求或暗示各种实施例的步骤必须以所呈现的顺序被执行。如本领域中的技术人员将认识到的,前述实施例中的操作的顺序可以按任何顺序被执行。诸如“此后”、“然后”、“接下来”等词汇并非旨在限制操作的顺序;这些词汇用于引导读者阅读方法的描述。以单数形式(例如使用冠词“一”或“所述”)对权利要求要素的任何引用不应被解释为将要素限制于单数。
结合本文所公开的实施例描述的各种例示性逻辑块、模块、电路和算法操作可以被实现为电子硬件、计算机软件或这两者的组合。为了清楚地说明硬件和软件的该可互换性,各种例示性部件、块、模块、电路和操作在上面通常从它们的功能方面被描述。这样的功能是被实现为硬件还是软件取决于特定的应用和在总系统上强加的设计约束。技术人员可以用变化的方式针对每个特定的应用实现所述功能,但这样的实现决定不应被解释为引起从本发明的范围的偏离。
用于实现结合本文公开的方面所描述的各种例示性逻辑、逻辑块、模块和电路的硬件可以利用通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)或其它可编程逻辑器件、分立门或晶体管逻辑、分立硬件部件或被设计成执行本文所述功能的其任意组合来实现或执行。通用处理器可以是微处理器,但在替代方案中,处理器可以是任何常规处理器、控制器、微控制器或状态机。处理器也可以被实现为接收机智能物体的组合,例如,DSP和微处理器的组合、两个或更多微处理器、一个或多个微处理器结合DSP内核、或任何其它这样的配置。替代地,可以由给定功能特有的电路执行一些操作或方法。
在一个或多个方面中,所述的功能可以被实现成硬件、软件、固件或其任何组合。如果被实现成软件,功能可以作为一个或多个指令或代码被存储在非暂态计算机可读存储介质或非暂态处理器可读存储介质上。本文公开的方法或算法的操作可以体现在处理器可执行软件模块或处理器可执行指令中,其可以存在于非暂态计算机可读或处理器可读存储介质中。非暂态计算机可读或处理器可读存储介质可以是可以由计算机或处理器访问的任何存储介质。例如但并非限制,这样的非暂态计算机可读或处理器可读存储介质可以包括RAM、ROM、EEPROM、闪速存储器、CD-ROM或其它光盘存储器、磁盘存储器或其它磁存储智能物体、或可以用于以指令或数据结构的形式存储期望的程序代码并且可以由计算机访问的任何其它介质。如本文所使用的,磁盘和光盘包括压缩光盘(CD)、激光盘、光学光盘、数字多用盘(DVD)、软盘和蓝光光盘,其中磁盘通常通过磁性方式复制数据,而光盘利用激光通过光学方式复制数据。上面的组合也包括在非暂态计算机可读和处理器可读介质的范围内。此外,方法或算法的操作可以作为代码和/或指令之一或任何组合或集合而存在于非暂态处理器可读存储介质和/或计算机可读存储介质上,该存储介质可以被并入计算机程序产品中。
提供所公开的实施例的前述描述以使得本领域的任何技术人员能够做出或使用权利要求。对这些实施例的各种修改对于本领域的技术人员将是显而易见的,并且本文所定义的通用原理可以应用于其它实施例而不脱离权利要求的精神或范围。于是,权利要求并非意在限制于本文所示的实施例,但是要符合与所附权利要求以及本文公开的原理和新颖特征一致的最宽范围。

Claims (30)

1.一种动态地控制运载工具上的多个传感器的方法,包括:
由所述运载工具的处理器确定所述运载工具的速度和行驶方向;
由所述处理器确定所述多个传感器中的每一个传感器的视向和视场中的一个或多个;以及
由所述处理器基于所述多个传感器中的每一个传感器的视向和视场中的一个或多个以及所述运载工具的速度和行驶方向,来控制用于处理从每个传感器接收的输出数据的一个或多个参数。
2.根据权利要求1所述的方法,其中,控制用于处理从所述多个传感器中的每一个传感器接收的输出数据的一个或多个参数包括由所述处理器控制所述多个传感器中的一个或多个传感器的采样或帧速率。
3.根据权利要求2所述的方法,其中,控制用于处理从所述多个传感器中的每一个传感器接收的输出数据的一个或多个参数还包括由所述处理器控制对从所述多个传感器中的一个或多个传感器接收的输出数据进行处理的速率。
4.根据权利要求1所述的方法,其中,基于所述多个传感器中的每一个传感器的视向和视场中的一个或多个以及所述运载工具的速度和行驶方向来控制用于处理从所述传感器接收的输出数据的一个或多个参数包括:
由所述处理器判断所述运载工具的速度是否超过速度阈值;
响应于确定所述运载工具的速度超过所述速度阈值,由所述处理器针对所述多个传感器中的每一个传感器判断所述传感器的视向是否偏离所述运载工具的行驶方向或所述传感器的视场是否不涵盖所述运载工具的行驶方向;以及
响应于确定所述多个传感器中的一个或多个传感器的视向偏离所述运载工具的行驶方向或所述多个传感器中的一个或多个传感器的视场不涵盖所述运载工具的行驶方向,由所述处理器压制从所述多个传感器中的一个或多个传感器接收的输出数据的数据处理速率。
5.根据权利要求4所述的方法,还包括:
响应于确定所述多个传感器中的一个或多个传感器的视向与所述运载工具的行驶方向对准或所述多个传感器中的一个或多个传感器的视场涵盖所述运载工具的行驶方向,由所述处理器维持或增大从所述多个传感器中的一个或多个传感器接收的输出数据的数据处理速率。
6.根据权利要求4所述的方法,还包括:
响应于确定所述运载工具的速度不超过所述速度阈值,由所述处理器使从所述多个传感器接收的输出数据的数据处理速率相等。
7.根据权利要求1所述的方法,还包括:
在所述运载工具的行驶方向改变之前,由所述处理器确定所述运载工具的速度和下一行驶方向;
由所述处理器基于所述多个传感器中的每一个传感器的视向和视场中的一个或多个以及所述运载工具的速度和下一行驶方向,来确定用于处理从所述传感器接收的所述输出数据的下一数据处理速率;
由所述处理器检测所述运载工具是否正在所述下一行驶方向上移动;以及
响应于检测到所述运载工具正在所述下一行驶方向上移动,由所述处理器以所述传感器的下一数据处理速率对从所述多个传感器中的每一个传感器接收的所述输出数据进行处理。
8.根据权利要求1所述的方法,其中,所述多个传感器包括相机、立体相机、图像传感器、雷达传感器、声纳传感器、超声波传感器、深度传感器、主动传感器、被动传感器中的一种或多种、或其任意组合。
9.根据权利要求1所述的方法,还包括:
由所述处理器确定在每个传感器的视向和视场的一个或多个中的一个或多个碰撞风险因素,
其中,基于所述多个传感器中的每一个传感器的视向和视场中的一个或多个以及所述运载工具的速度和行驶方向来控制用于处理从所述传感器接收的输出数据的一个或多个参数包括:由所述处理器基于所述运载工具的速度和行驶方向以及在所述多个传感器中的每一个传感器的视向和视场的一个或多个中的所述一个或多个碰撞风险因素,来控制从每个传感器接收的输出数据的数据处理速率。
10.根据权利要求9所述的方法,其中,所述一个或多个碰撞风险因素包括所述传感器的至少一个操作特性、所述视场内的障碍物的检测、检测到的所述视场内的障碍物的速度、一个或多个运载工具操纵参数、所述处理器的处理特性中的一个或多个、或其任意组合。
11.根据权利要求1所述的方法,还包括:
由所述处理器基于所述多个传感器中的每一个传感器的视向和视场中的一个或多个以及所述运载工具的速度和行驶方向,来控制所述传感器的发射功率。
12.根据权利要求1所述的方法,其中,所述运载工具是无人驾驶运载工具。
13.根据权利要求12所述的方法,其中,所述无人驾驶运载工具是飞行器、陆地运载工具、天基运载工具或水上运载工具之一。
14.一种用于运载工具的计算装置,包括:
处理器,其被配置有处理器可执行指令,以:
确定所述运载工具的速度和行驶方向;
确定所述运载工具上的多个传感器中的每一个传感器的视向和视场中的一个或多个;以及
基于所述多个传感器中的每一个传感器的视向和视场中的一个或多个以及所述运载工具的速度和行驶方向,来控制用于处理从所述传感器接收的输出数据的一个或多个参数。
15.根据权利要求14所述的计算装置,其中,所述处理器还被配置有处理器可执行指令,以通过控制所述多个传感器中的一个或多个传感器的采样或帧速率,来控制用于处理从所述多个传感器中的每一个传感器接收的输出数据的一个或多个参数。
16.根据权利要求15所述的计算装置,其中,所述处理器还被配置有处理器可执行指令,以通过如下方式控制从所述多个传感器中的每一个传感器接收的输出数据的数据处理速率:
控制对从所述多个传感器中的一个或多个传感器接收的输出数据进行处理的速率。
17.根据权利要求14所述的计算装置,其中,所述处理器还被配置有处理器可执行指令,以:
判断所述运载工具的速度是否超过速度阈值;
响应于确定所述运载工具的速度超过所述速度阈值,针对每个传感器判断所述传感器的视向是否偏离所述运载工具的行驶方向或所述传感器的视场是否不涵盖所述运载工具的行驶方向;以及
响应于确定所述多个传感器中的一个或多个传感器的视向偏离所述运载工具的行驶方向或所述多个传感器中的一个或多个传感器的视场不涵盖所述运载工具的行驶方向,压制从所述传感器中的一个或多个传感器接收的输出数据的数据处理速率。
18.根据权利要求17所述的计算装置,其中,所述处理器还被配置有处理器可执行指令,以:
响应于确定所述多个传感器中的一个或多个传感器的视向与所述运载工具的行驶方向对准或所述多个传感器中的一个或多个传感器的视场涵盖所述运载工具的行驶方向,维持或增大从所述多个传感器中的一个或多个传感器接收的输出数据的数据处理速率。
19.根据权利要求17所述的计算装置,其中,所述处理器还被配置有处理器可执行指令,以:
响应于确定所述运载工具的速度不超过所述速度阈值,使从所述多个传感器接收的输出数据的数据处理速率相等。
20.根据权利要求14所述的计算装置,其中,所述处理器还被配置有处理器可执行指令,以:
在所述运载工具的行驶方向改变之前,确定所述运载工具的速度和下一行驶方向;
基于所述多个传感器中的每一个传感器的视向和视场中的一个或多个以及所述运载工具的速度和下一行驶方向,来确定用于处理从每个传感器接收的输出数据的下一数据处理速率;
检测所述运载工具是否正在所述下一行驶方向上移动;以及
响应于检测到所述运载工具正在所述下一行驶方向上移动,以所述多个传感器中的每一个传感器的下一数据处理速率对从所述传感器接收的所述输出数据进行处理。
21.根据权利要求14所述的计算装置,其中,所述处理器还被配置有处理器可执行指令,以:
确定每个传感器的视向和视场的一个或多个中的一个或多个碰撞风险因素;以及
基于所述运载工具的速度和行驶方向以及所述多个传感器中的每一个传感器的视向和视场的一个或多个中的所述一个或多个碰撞风险因素,控制用于处理从每个传感器接收的输出数据的一个或多个参数。
22.根据权利要求21所述的计算装置,其中,所述一个或多个碰撞风险因素包括所述传感器的至少一个操作特性、所述视场内的障碍物的检测、检测到的所述视场内的障碍物的速度、一个或多个运载工具操纵参数、所述处理器的处理特性中的一个或多个、或其任意组合。
23.根据权利要求14所述的计算装置,其中,所述处理器还被配置有处理器可执行指令,以:
基于所述多个传感器中的每一个传感器的视向和视场中的一个或多个以及所述运载工具的速度和行驶方向,来控制每个传感器的发射功率。
24.一种非暂态处理器可读存储介质,其上存储有处理器可执行指令,所述处理器可执行指令被配置为使运载工具的计算装置的处理器执行操作,所述操作包括:
确定所述运载工具的速度和行驶方向;
确定所述运载工具上的多个传感器中的每一个传感器的视向和视场中的一个或多个;以及
基于所述多个传感器中的每一个传感器的视向和视场中的一个或多个以及所述运载工具的速度和行驶方向,来控制用于处理从每个传感器接收的输出数据的一个或多个参数。
25.根据权利要求24所述的非暂态处理器可读存储介质,其中,所存储的处理器可执行指令被配置为使所述处理器执行操作,以使得控制用于处理从所述多个传感器中的每一个传感器接收的输出数据的一个或多个参数包括控制所述多个传感器中的一个或多个传感器的采样或帧速率。
26.根据权利要求25所述的非暂态处理器可读存储介质,其中,所存储的处理器可执行指令被配置为使所述处理器执行操作,以使得控制用于处理从所述多个传感器中的每一个传感器接收的速率输出数据的一个或多个参数还包括控制对从所述多个传感器中的一个或多个传感器接收的输出数据进行处理的速率。
27.根据权利要求24所述的非暂态处理器可读存储介质,其中,所存储的处理器可执行指令被配置为使所述处理器执行操作,所述操作还包括:
判断所述运载工具的速度是否超过速度阈值;
响应于确定所述运载工具的速度超过所述速度阈值,针对每个传感器判断所述传感器的视向是否偏离所述运载工具的行驶方向或所述传感器的视场是否不涵盖所述运载工具的行驶方向;以及
响应于确定所述多个传感器中的一个或多个传感器的视向偏离所述运载工具的行驶方向或所述多个传感器中的一个或多个传感器的视场不涵盖所述运载工具的行驶方向,压制从所述传感器中的一个或多个传感器接收的输出数据的数据处理速率。
28.根据权利要求24所述的非暂态处理器可读存储介质,其中,所存储的处理器可执行指令被配置为使所述处理器执行操作,所述操作还包括:
确定每个传感器的视向和视场的一个或多个中的一个或多个碰撞风险因素;以及
基于所述运载工具的速度和行驶方向以及所述多个传感器中的每一个传感器的视场内的所述一个或多个碰撞风险因素,控制从每个传感器接收的输出数据的数据处理速率。
29.根据权利要求24所述的非暂态处理器可读存储介质,其中,所存储的处理器可执行指令被配置为使所述处理器执行操作,所述操作还包括:
基于所述多个传感器中的每一个传感器的视向和视场中的一个或多个以及所述运载工具的速度和行驶方向,来控制所述传感器的发射功率。
30.一种用于运载工具的计算装置,包括:
用于确定所述运载工具的速度和行驶方向的单元;
用于确定所述运载工具上的多个传感器中的每一个传感器的视向和视场中的一个或多个的单元;以及
用于基于所述多个传感器中的每一个传感器的视向和视场中的一个或多个以及所述运载工具的速度和行驶方向来控制用于处理从每个传感器接收的输出数据的一个或多个参数的单元。
CN201780046683.6A 2016-08-01 2017-05-23 动态地控制运载工具的方法、装置和存储介质 Active CN109478068B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/224,904 2016-08-01
US15/224,904 US10126722B2 (en) 2016-08-01 2016-08-01 System and method of dynamically controlling parameters for processing sensor output data for collision avoidance and path planning
PCT/US2017/033989 WO2018026420A1 (en) 2016-08-01 2017-05-23 System and method of dynamically controlling parameters for processing sensor output data for collision avoidance and path planning

Publications (2)

Publication Number Publication Date
CN109478068A true CN109478068A (zh) 2019-03-15
CN109478068B CN109478068B (zh) 2021-10-15

Family

ID=59021579

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201780046683.6A Active CN109478068B (zh) 2016-08-01 2017-05-23 动态地控制运载工具的方法、装置和存储介质

Country Status (5)

Country Link
US (1) US10126722B2 (zh)
EP (1) EP3491474B1 (zh)
CN (1) CN109478068B (zh)
TW (1) TW201823899A (zh)
WO (1) WO2018026420A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109787917A (zh) * 2019-04-03 2019-05-21 武汉欣海远航科技研发有限公司 一种船用ais接力设备及增程方法
CN112995516A (zh) * 2019-05-30 2021-06-18 深圳市道通智能航空技术股份有限公司 一种对焦方法、装置、航拍相机及无人飞行器

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11328403B2 (en) * 2020-01-22 2022-05-10 Gary B. Levin Apparatus and method for onboard stereoscopic inspection of vehicle tires
WO2018053861A1 (en) * 2016-09-26 2018-03-29 SZ DJI Technology Co., Ltd. Methods and system for vision-based landing
WO2018095278A1 (zh) * 2016-11-24 2018-05-31 腾讯科技(深圳)有限公司 飞行器的信息获取方法、装置及设备
KR20180065756A (ko) * 2016-12-08 2018-06-18 삼성전자주식회사 무인비행체를 제어하는 전자 장치 및 그 제어 방법
WO2018119555A1 (zh) * 2016-12-26 2018-07-05 深圳市大疆创新科技有限公司 无人机
US11074463B2 (en) * 2017-05-02 2021-07-27 Qualcomm Incorporated Dynamic sensor operation and data processing based on motion information
JP6522068B2 (ja) * 2017-08-25 2019-05-29 三菱電機株式会社 道路形状予測装置、他車両進路予測装置、及び運転補助装置
US10783796B2 (en) * 2017-09-01 2020-09-22 Qualcomm Incorporated Collision management for a robotic vehicle
US11561541B2 (en) * 2018-04-09 2023-01-24 SafeAI, Inc. Dynamically controlling sensor behavior
US11625036B2 (en) 2018-04-09 2023-04-11 SafeAl, Inc. User interface for presenting decisions
US11169536B2 (en) 2018-04-09 2021-11-09 SafeAI, Inc. Analysis of scenarios for controlling vehicle operations
US11467590B2 (en) 2018-04-09 2022-10-11 SafeAI, Inc. Techniques for considering uncertainty in use of artificial intelligence models
US11037453B2 (en) * 2018-10-12 2021-06-15 Aurora Flight Sciences Corporation Adaptive sense and avoid system
US11835948B2 (en) * 2018-12-03 2023-12-05 Motional Ad Llc Systems and methods for improving vehicle operations using movable sensors
CN113377033B (zh) 2019-01-15 2024-03-22 北京百度网讯科技有限公司 数据采集方法、装置、设备及计算机可读存储介质
US11312506B2 (en) 2019-03-21 2022-04-26 Performance Drone Works Llc Autonomous quadcopter piloting controller and debugger
US11409291B2 (en) * 2019-03-21 2022-08-09 Performance Drone Works Llc Modular autonomous drone
US11721235B2 (en) * 2019-03-21 2023-08-08 Performance Drone Works Llc Quadcopter sensor noise and camera noise recording and simulation
US11455336B2 (en) 2019-03-21 2022-09-27 Performance Drone Works Llc Quadcopter hardware characterization and simulation
JP7232166B2 (ja) * 2019-10-18 2023-03-02 本田技研工業株式会社 予測装置、車両システム、予測方法、およびプログラム
KR20210074937A (ko) * 2019-12-12 2021-06-22 현대자동차주식회사 차량 및 그 제어방법
US20210405651A1 (en) * 2020-06-26 2021-12-30 Tusimple, Inc. Adaptive sensor control
WO2022051767A1 (en) * 2020-09-03 2022-03-10 The Regents Of The University Of California Temporally and spectrally adaptive sonar for autonomous vehicle navigation
GB2599945B (en) 2020-10-16 2022-12-28 British Telecomm Unmanned aerial vehicle
US20230111391A1 (en) * 2021-10-07 2023-04-13 Here Global B.V. Method, apparatus, and computer program product for identifying wrong-way driven vehicles
TWI818361B (zh) * 2021-11-24 2023-10-11 國立虎尾科技大學 具控制權轉移和備用航空感測器的雙自動駕駛系統
WO2023149963A1 (en) 2022-02-01 2023-08-10 Landscan Llc Systems and methods for multispectral landscape mapping

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030169902A1 (en) * 2002-03-05 2003-09-11 Nissan Motor Co., Ltd. Vehicular image processing apparatus and related method
US20070140527A1 (en) * 2005-12-19 2007-06-21 Fujitsu Ten Limited On-board image-recognizing apparatus, on-board image-shooting apparatus, on-board image-shooting controller, warning apparatus, image recognizing method, image shooting method, and image-shooting controlling method
CN101332795A (zh) * 2007-06-28 2008-12-31 日产自动车株式会社 车道偏离防止设备和方法
CN103543458A (zh) * 2012-07-10 2014-01-29 美国博通公司 用于传感器的功率模式控制
CN104054115A (zh) * 2011-10-27 2014-09-17 湾流航空航天公司 用于避免地面上的飞机与障碍物之间发生碰撞的方法和系统
CN105022397A (zh) * 2014-04-25 2015-11-04 谷歌公司 用于使用多个传感器进行物体检测的方法和系统
JP2015207224A (ja) * 2014-04-22 2015-11-19 三菱自動車工業株式会社 無人搬送車

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6975246B1 (en) 2003-05-13 2005-12-13 Itt Manufacturing Enterprises, Inc. Collision avoidance using limited range gated video
JP2009205386A (ja) 2008-02-27 2009-09-10 Nikon Corp 車載カメラシステムおよびその制御方法
KR100880115B1 (ko) 2008-04-21 2009-01-23 주식회사 에지텍 차량으로부터 독립된 차량용 후방 및 측방영상 무선송수신장치 및 그 방법
US20100188932A1 (en) 2009-01-28 2010-07-29 Darwin Mitchel Hanks Low Power Sensor System
JP4733756B2 (ja) 2009-04-28 2011-07-27 本田技研工業株式会社 車両周辺監視装置
IL201682A0 (en) * 2009-10-22 2010-11-30 Bluebird Aero Systems Ltd Imaging system for uav
US8330362B2 (en) * 2010-07-22 2012-12-11 Chiu-Min Lin Lamp having mounting slot
US8509982B2 (en) 2010-10-05 2013-08-13 Google Inc. Zone driving
US20130278715A1 (en) 2012-03-16 2013-10-24 Mark Nutsch System and method for discreetly collecting 3d immersive/panoramic imagery
US20130321627A1 (en) * 2012-05-31 2013-12-05 John C. Turn, JR. Road departure sensing and intelligent driving systems and methods
US9097800B1 (en) 2012-10-11 2015-08-04 Google Inc. Solid object detection system using laser and radar sensor fusion
JP6147844B2 (ja) * 2013-02-19 2017-06-14 京セラ株式会社 移動通信システム、基地局、ユーザ端末及びプロセッサ
EP3812962A1 (en) 2013-12-04 2021-04-28 Mobileye Vision Technologies Ltd. Navigating a vehicle to pass another vehicle
US9552073B2 (en) 2013-12-05 2017-01-24 Pixart Imaging Inc. Electronic device
EP3179292B1 (en) 2014-08-05 2021-03-03 LG Electronics Inc. Head-mounted display device and control method therefor
US9781378B2 (en) * 2014-09-09 2017-10-03 The Boeing Company Coordinating image sensing with motion
WO2016094568A1 (en) 2014-12-10 2016-06-16 Sixense Entertainment, Inc. System and method for assisting a user in remaining in a selected area while the user is in a virtual reality environment
US20180032042A1 (en) 2016-08-01 2018-02-01 Qualcomm Incorporated System And Method Of Dynamically Controlling Parameters For Processing Sensor Output Data

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030169902A1 (en) * 2002-03-05 2003-09-11 Nissan Motor Co., Ltd. Vehicular image processing apparatus and related method
US20070140527A1 (en) * 2005-12-19 2007-06-21 Fujitsu Ten Limited On-board image-recognizing apparatus, on-board image-shooting apparatus, on-board image-shooting controller, warning apparatus, image recognizing method, image shooting method, and image-shooting controlling method
CN101332795A (zh) * 2007-06-28 2008-12-31 日产自动车株式会社 车道偏离防止设备和方法
CN104054115A (zh) * 2011-10-27 2014-09-17 湾流航空航天公司 用于避免地面上的飞机与障碍物之间发生碰撞的方法和系统
CN103543458A (zh) * 2012-07-10 2014-01-29 美国博通公司 用于传感器的功率模式控制
JP2015207224A (ja) * 2014-04-22 2015-11-19 三菱自動車工業株式会社 無人搬送車
CN105022397A (zh) * 2014-04-25 2015-11-04 谷歌公司 用于使用多个传感器进行物体检测的方法和系统

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109787917A (zh) * 2019-04-03 2019-05-21 武汉欣海远航科技研发有限公司 一种船用ais接力设备及增程方法
CN112995516A (zh) * 2019-05-30 2021-06-18 深圳市道通智能航空技术股份有限公司 一种对焦方法、装置、航拍相机及无人飞行器
CN112995516B (zh) * 2019-05-30 2022-07-29 深圳市道通智能航空技术股份有限公司 一种对焦方法、装置、航拍相机及无人飞行器

Also Published As

Publication number Publication date
CN109478068B (zh) 2021-10-15
US20180032040A1 (en) 2018-02-01
WO2018026420A1 (en) 2018-02-08
TW201823899A (zh) 2018-07-01
US10126722B2 (en) 2018-11-13
EP3491474B1 (en) 2020-05-27
EP3491474A1 (en) 2019-06-05

Similar Documents

Publication Publication Date Title
CN109478068A (zh) 动态地控制用于处理传感器输出数据的参数以用于碰撞避免和路径规划的系统和方法
US20180032042A1 (en) System And Method Of Dynamically Controlling Parameters For Processing Sensor Output Data
EP3619591B1 (en) Leading drone
US11407526B2 (en) Systems and methods for UAV docking
CN110226143B (zh) 前导无人机的方法
EP3619584B1 (en) Underwater leading drone system
US20190273909A1 (en) Methods and systems for selective sensor fusion
US10768623B2 (en) Drone path planning
US9639088B2 (en) Autonomous long-range landing using sensor data
WO2017206179A1 (en) Simple multi-sensor calibration
US20190346562A1 (en) Systems and methods for radar control on unmanned movable platforms
ES2883847T3 (es) Prevención de colisiones de vehículos
WO2017168423A1 (en) System and method for autonomous guidance of vehicles
CN105492985A (zh) 多传感器环境地图构建
JP2019525366A (ja) 自律形ビークル用の物体検出・回避システム
CN116830057A (zh) 无人机(uav)集群控制
WO2019022910A2 (en) SYSTEM AND METHOD FOR DYNAMICALLY CONTROLLING PARAMETERS FOR PROCESSING SENSOR OUTPUT DATA

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant