CN110431506A - 基于无人机的跟踪 - Google Patents

基于无人机的跟踪 Download PDF

Info

Publication number
CN110431506A
CN110431506A CN201780087226.1A CN201780087226A CN110431506A CN 110431506 A CN110431506 A CN 110431506A CN 201780087226 A CN201780087226 A CN 201780087226A CN 110431506 A CN110431506 A CN 110431506A
Authority
CN
China
Prior art keywords
computer
target
vehicle
unmanned plane
track
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201780087226.1A
Other languages
English (en)
Inventor
布莱恩·本尼
辛西娅·M·诺伊贝克尔
布拉德·艾伦·伊格纳克
索马克·达塔古普塔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ford Global Technologies LLC
Original Assignee
Ford Global Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ford Global Technologies LLC filed Critical Ford Global Technologies LLC
Publication of CN110431506A publication Critical patent/CN110431506A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0094Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B05SPRAYING OR ATOMISING IN GENERAL; APPLYING FLUENT MATERIALS TO SURFACES, IN GENERAL
    • B05BSPRAYING APPARATUS; ATOMISING APPARATUS; NOZZLES
    • B05B13/00Machines or plants for applying liquids or other fluent materials to surfaces of objects or other work by spraying, not covered by groups B05B1/00 - B05B11/00
    • B05B13/005Machines or plants for applying liquids or other fluent materials to surfaces of objects or other work by spraying, not covered by groups B05B1/00 - B05B11/00 mounted on vehicles or designed to apply a liquid on a very large surface, e.g. on the road, on the surface of large containers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENTS OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D1/00Dropping, ejecting, releasing, or receiving articles, liquids, or the like, in flight
    • B64D1/16Dropping or releasing powdered, liquid, or gaseous matter, e.g. for fire-fighting
    • B64D1/18Dropping or releasing powdered, liquid, or gaseous matter, e.g. for fire-fighting by spraying, e.g. insecticides
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • B64U10/13Flying platforms
    • B64U10/14Flying platforms with four distinct rotor axes, e.g. quadcopters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/66Tracking systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/029Location-based management or tracking services
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • B64U2101/31UAVs specially adapted for particular uses or applications for imaging, photography or videography for surveillance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/10UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U80/00Transport or storage specially adapted for UAVs
    • B64U80/80Transport or storage specially adapted for UAVs by vehicles
    • B64U80/86Land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • G01S13/72Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar
    • G01S13/723Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar by using numerical data
    • G01S13/726Multiple target tracking

Abstract

一种计算机被编程为基于来自一个或多个车辆传感器的数据而确定移动目标的轨迹。所述计算机被编程为基于所述确定的轨迹而从车辆部署空中无人机以跟踪所述移动目标。

Description

基于无人机的跟踪
背景技术
警车或类似车辆可以配备有在追踪可疑车辆的过程中提供辅助的诸如传感器和计算机的电子装置。例如,第一车辆可以包括相机传感器,所述相机传感器可以检测可疑的第二车辆并且提供有关第二车辆的移动方向、速度等的信息。然而,人和/或物体可能会离开第二车辆并且移动到在包括在第一车辆中的传感器的检测范围以外的区域。
附图说明
图1A是示例跟踪系统的框图,所述示例跟踪系统包括无人机和示例性车辆,其中行李厢门处于打开位置。
图1B示出了图1A的车辆,其中行李厢门处于关闭位置并且无人机被放置在车辆行李厢内部。
图2是示出车辆和离开车辆中的一个车辆的人的图。
图3是示出车辆、无人机和移动到结构内部的人的图。
图4A至图4C是用于由主车辆控制跟踪目标的无人机的示例性过程的流程图。
图5是用于由委托车辆从主车辆接收控制命令的示例性过程的流程图。
具体实施方式
引言
此处公开了一种方法,所述方法包括:基于来自一个或多个车辆传感器的数据而确定移动目标的轨迹;以及基于所确定的轨迹而从车辆部署空中无人机来跟踪移动目标。
所述方法还可以包括:基于来自一个或多个车辆传感器的数据而确定目标的当前位置;以及基于所确定的当前位置而向空中无人机发送指令以飞行到目的地。
所述方法还可以包括:基于所确定的轨迹而确定位置;以及致动无人机以飞行到所确定的位置。
所述方法还可以包括:通过基于空中无人机传感器数据确定目标的当前位置来跟踪目标;以及在目标移动时致动无人机以在相对于目标的指定距离范围内飞行。
所述方法还可以包括基于根据空中无人机传感器数据确定的目标的当前轨迹而跟踪目标。
所述方法还可以包括:确定目标进入到无人机难以接近的区域;以及向远程计算机传输移动目标的最后确定的位置和轨迹。
所述方法还可以包括:基于来自一个或多个车辆传感器的数据而检测第二车辆;以及当移动目标离开第二车辆时,检测移动目标。仅在确定第二车辆的车门打开之后执行检测移动目标。
所述方法还可以包括致动无人机致动器以将墨水喷洒在移动目标上。
所述方法还可以包括:跟踪移动目标还包括检测移动目标上的特定墨水。
进一步公开了一种被编程为执行上述方法步骤中的任一个的计算装置。又进一步公开了一种包括计算装置的空中无人机。还进一步公开了一种包括所述计算装置的车辆。
又公开了一种计算机程序产品,所述计算机程序产品包括存储指令的计算机可读介质,所述指令可由计算机处理器执行以执行上述方法步骤中的任一个。
示例性系统元件
图1A至图1B示出了车辆100。车辆100(有时为了方便起见被称为第一车辆或主车辆100)可以各种已知方式,例如用电动马达和/或内燃发动机提供动力。车辆100可以包括任何汽车,诸如小轿车、卡车、运动型多用途车、跨界车、厢式货车、小型货车等。车辆100可以包括计算机110、致动器115、传感器120和人机界面(HMI)125。在一些可能的方法中,如下所述,车辆100是自主车辆100,所述自主车辆100被配置为以自主(例如,无人驾驶)模式、部分自主模式和/或非自主模式操作。
计算机110包括诸如已知的处理器和存储器。所述存储器包括一种或多种形式的计算机可读介质,并且存储可由计算机110执行的用于执行包括如本文所公开的那些操作的各种操作的指令。
计算机110可以自主模式、半自主模式或非自主模式操作车辆100。出于本公开的目的,自主模式被定义为其中车辆100推进、制动和转向中的每一者都由计算机110控制的模式;在半自主模式下,计算机控制车辆100推进、制动和转向中的一者或两者;在非自主模式下,驾驶员控制车辆100推进、制动和转向。
计算机110可以包括编制程序,所述编制程序用于进行以下中的一者或多者的操作:陆地车辆100制动、推进(例如,通过控制内燃发动机、电动马达、混合发动机等中的一者或多者来控制车辆100的加速)、转向、气候控制、内部和/或外部灯等,并且对照人类驾驶员,确定计算机110是否以及何时控制这类操作。另外,计算机110可以被编程为确定人类操作员是否以及何时控制这类操作。
计算机110可以包括或者例如经由例如包括如下文进一步描述的通信总线的车辆100网络通信地耦合到超过一个处理器,例如控制器或车辆100中包括的用于监测和/或控制各种车辆控制器,例如动力传动系统控制器、制动控制器、转向控制器等的处理器。计算机110通常被布置成在车辆100通信网络上进行通信,所述通信网络可以包括车辆100中的总线,诸如控制器局域网(CAN)等等,和/或其他有线和/或无线机制。
经由车辆100的通信网络,计算机110可以向车辆100中的各种装置传输消息和/或从各种装置,例如致动器115、HMI 125等接收消息。可替代地或另外地,在计算机110实际上包括多个装置的情况下,车辆通信网络可以用于在本公开中表示为计算机110的各装置之间的通信。
如所已知,车辆100的致动器115经由可以根据适当的控制信号致动各种车辆100子系统的电路、芯片、或其他电子和/或机械部件来实施。致动器115可以用于控制车辆系统,诸如车辆100的制动、加速和/或转向。
车辆100的传感器120可以包括已知经由车辆通信总线提供数据的各种装置。例如,传感器120可以包括设置在车辆100之中和/或车辆100之上的提供涵盖至少一些车辆外部状况的数据的一个或多个相机、雷达、红外线和/或光探测和测距(LIDAR)传感器120。所述数据可以由计算机110通过诸如已知的合适的接口来接收。设置在例如车辆100顶部上的LIDAR传感器120可以提供包括诸如在车辆100周围的其他车辆的对象的相对位置、尺寸和形状的对象数据。计算机110可以接收对象数据,并且可以至少部分地基于所接收的对象数据而以自主和/或半自主模式操作车辆100。
车辆100可以包括全球定位系统(GPS)传感器120,所述GPS传感器120被配置为确定车辆100的当前位置的坐标。计算机110可以编程为使用已知的导航技术来识别从当前位置到选定目的地的路线,并且经由例如HMI 125显示地图并呈现通向选定目的地的驾驶方向。
此外,计算机110可以被配置为通过车辆对基础设施(V-对-I)接口与其他车辆100、无人机135进行通信和/或经由网络160与远程计算机155进行通信。网络160表示计算机110和远程计算机155可以借此来彼此通信的一个或多个机制,并且可以是各种有线或无线通信机制中的一者或多者,包括有线(例如,电缆和光纤)和/或无线(例如,蜂窝、无线、卫星、微波和射频)通信机制的任何期望的组合以及任何期望的网络拓扑(或利用多个通信机制时为多个拓扑)。示例性通信网络160包括无线通信网络(例如,使用蜂窝、蓝牙、IEEE802.11等中的一者或多者)、专用短程通信(DSRC)、局域网(LAN)和/或广域网(WAN),包括互联网,从而提供数据通信服务。
HMI 125向车辆100的乘员呈现信息并且从所述乘员接收信息。HMI 125可以位于例如车辆100的乘客舱中的仪表板,或可由乘员接近的一个或多个其他位置上。HMI 125可以包括拨盘、数字读出器、屏幕诸如触敏显示屏、扬声器和诸如此类用于向乘员提供信息之物。HMI 125可以包括按钮、旋钮、小键盘、传声器和诸如此类用于从乘员接收信息之物。在一个示例中,车辆100的计算机110可以被编程为基于经由HMI 125接收的输入而选择要追踪的第二车辆200(参见图2)。例如,计算机110可以被编程为在HMI 125上呈现包括多个车辆200的图像数据。计算机110可以被进一步编程为一旦在HMI屏幕上显示车辆200的区域上触摸HMI 125屏幕之后就选择要追踪的车辆200。如下所述,车辆100的计算机110可以被编程为在所选择的车辆200中的一个或多个离开所选择的车辆200的情况下在HMI 125上输出信息,所述信息包括所选择的车辆200的当前位置和/或其乘员的位置。
无人机135是无人驾驶飞行器(UAV),并且包括可以控制无人机135的各种操作的许多电路、芯片、或其他电子和/或机电部件。例如,无人机135可以根据输出至其螺旋桨致动器140的控制信号来飞行。无人机135可以装备有导航系统,使得其可以飞行到特定位置并且悬停在所述特定位置处。图1A示出了位于车辆100的行李厢165中的无人机135。图1B示出了悬停在主车辆100上方的无人机135。
无人机135可以包括一个或多个相机传感器145,所述一个或多个相机传感器145可以捕获无人机135附近区域的图像。无人机135的相机传感器145可以安装到与灯相同的壳体,并且无人机135可以被编程为开启无人机135的相机传感器145来捕获在无人机135下方的区域的图像。因此,当悬停在车辆100上方时,无人机135的相机传感器145可以捕获车辆100以及可能在车辆100周围的区域的图像。另外地或可替代地,无人机135可以包括其他类型的对象检测传感器145,诸如雷达、LIDAR、相机等。
无人机135可以包括GPS传感器145,所述GPS传感器145例如向车辆100的计算机110、无人机135的计算机等提供无人机135的GPS位置坐标。例如,无人机135的计算机可以基于所接收的GPS位置坐标、预定路线等而对无人机135进行导航。
无人机135可以包括一个或多个灯。例如,计算机110可以被编程为启动无人机135的灯150以照亮在无人机135周围的区域。
无人机135的计算机、车辆100的计算机110等可以彼此进行通信并且经由网络160与远程计算机155进行通信,所述网络160包括一个或多个电信协议,例如蜂窝技术,诸如3G、4G、长期演进(LTE)等、低功耗WiFi等。
如可见于图2,车辆100的计算机110可以被编程为基于从车辆100的传感器120接收的数据而确定移动目标210的轨迹m1。计算机110可以被进一步编程为基于从所确定的轨迹m1而从车辆100部署无人机135以跟踪移动目标210。
轨迹在本公开的语境中指代从目标210的当前位置立即开始的目标的预期移动路径。移动人类目标210的轨迹m1可以包括地面上标识人类目标210的预期路径的弧线或直线。例如,计算机110可以被编程为通过以下方式来确定轨迹m1:例如基于从LIDAR传感器120接收的数据而重复地(即,两次或更多次)标识目标210的位置,并且使用已知的曲线拟合技术来拟合在所标识的位置之间的弧线。在一个示例中,计算机110可以被编程为基于目标210的新确定的位置而重新调整预定轨迹m1。例如,一旦确定目标210的当前位置不在目标210的预定轨迹m1上,计算机110就可以被编程为拟合在目标210的当前位置与先前确定的位置之间的新曲线(即,调整后的轨迹)。另外地或可替代地,计算机110可以被编程为基于人类目标210的各种属性,例如速度、目标210面部的朝向、身体姿式等而确定人类目标210的轨迹m1。例如,计算机110可以被编程为基于垂直于人类目标210的胸部并指向目标210的前进方向的虚拟线而确定轨迹m1
作为一个示例,由于车辆100难以接近目标210,计算机110可以被编程为部署无人机135。例如,主车辆100中的用户可以选择要跟踪的第二车辆200。换言之,计算机110可以经由HMI 125呈现包括在车辆100的传感器120的检测范围250中的多个车辆200的图像数据。计算机110可以被编程为基于经由HMI 125,例如触摸屏进行的输入而选择车辆200。计算机110可以被编程为在HMI 125上呈现指示所选择的第二车辆200相对于主车辆100的当前位置和/或轨迹的信息。在一个示例中,车辆100的用户可以控制车辆100的操作,例如加速、转向、制动等以跟踪(或追踪)所选择的车辆200。在另一个示例中,计算机110可以被编程为以自主模式操作主车辆100的操作。因此,计算机110可以基于所选择的第二车辆200的当前位置和/或轨迹而对车辆100进行导航。
所选择的车辆200可能会例如因为道路堵塞而停止。在一个示例中,目标210,例如嫌疑人可能会离开所选择的车辆200。计算机110可以被编程为在例如基于从车辆100的传感器120接收的数据确定所选择的车辆200的车门240打开之后检测目标210。计算机110可以被编程为部署无人机135来跟踪目标210。
计算机110可以被编程为例如一旦确定车辆100无法追踪目标210就从车辆100的行李厢165部署无人机135。为了从主车辆100部署无人机135,计算机110可以致动行李厢打开致动器115以打开行李厢165的门170,例如从关闭位置(参见图1B)移动到打开位置(参见图1A)。计算机110可以被进一步编程为致动车辆100的部署装置175以从任何数量的车载锁定件释放无人机135,所述车载锁定件另外在无人机135不使用时紧固所述无人机135。在从锁定件释放之后,针对无人机135的致动命令可以包括命令无人机135离开主车辆100(即,飞离行李厢165)并悬停在主车辆100上方(参见图1A)的致动命令。
部署装置175经由机电致动器,诸如螺线管或将电信号转换为动作的其他类型的机电装置来实施。一个或多个致动器115可以用于在可部署的无人机135不使用时将无人机135锁定在主车辆100中或锁定到所述主车辆。也就是说,所述部署装置175可以在可部署的无人机135储存在例如主车辆100的行李厢165中时处于锁定状态,并且可以响应于接收到由例如计算机110输出的控制信号而转变为解锁状态。例如,部署装置175可以包括一个或多个螺线管,所述一个或多个螺线管在致动时可以例如通过紧固无人机135的主体而将无人机135保持处于锁定位置。例如,部署装置175可以包括机械地联接到螺线管的夹具。一旦由计算机110启动螺线管,夹具就可以保持无人机135,而一旦停用螺线管,夹具就可以释放无人机135。一旦从计算机110接收到释放信号,部署装置175就可以移动到解锁位置并且释放无人机135。因此,响应于由计算机110输出的控制信号,部署装置175可以转变为解锁状态,使得无人机135可以从例如行李厢165释放。行李厢打开致动器115可以用于释放行李厢165的门170或允许无人机135离开主车辆100的其他门。行李厢打开致动器115可以包括螺线管,并且计算机110可以被编程为启动行李厢打开致动器115来打开行李厢165的门170。
计算机110可以被编程为基于车辆100的传感器120数据而确定目标210的当前位置,并且基于目标210的所确定的位置而向无人机135发送指令以飞行到目的地。在一个示例中,计算机110可以一旦检测到正离开车辆100的目标210就例如基于从车辆100的传感器120接收的数据而确定目标210的当前位置。计算机110可以输出包括目标210的位置(例如,根据经纬度地理坐标)的指令。例如,计算机110可以被编程为基于例如使用图像处理技术实现的目标210与车辆100的相对位置以及例如从车辆100的GPS传感器120接收的车辆100的位置而确定目标210的位置。
因此,基于车辆100的传感器120数据而致动无人机135以飞行到目标210的位置可以有利地防止失去目标210的风险。例如,在拥挤区域中,在离开所选择的车辆200之后,目标210可以例如在几秒钟内快速地移动到车辆100的传感器120的检测范围250之外。因此,基于车辆100的传感器120数据而致动无人机135以飞行到目标210的位置可以提供对目标210的不间断的跟踪。不间断的跟踪在当下语境中指代从基于来自车辆100的传感器120的数据而跟踪目标210转变为基于来自无人机135的传感器145的数据而跟踪目标210。
在从车辆100部署无人机135之后,在一个示例中,计算机110可以被编程为基于所确定的轨迹m1而确定位置220,并且致动无人机135以飞行到所确定的位置220,例如而不是如图2所示的目标210的当前位置。例如,计算机110可以被编程为确定位置220,在所述位置处,相对于目标210的当前位置的距离d1加上目标210的行进距离d2大于从车辆100到位置220的飞行距离d3。计算机110可以被编程为确定在位置220周围的区域230并且致动无人机135以飞行到区域230。在一个示例中,区域230可以是以位置220为中心,直径为10米的圆圈。
计算机110可以被编程为例如在区域230内检测到目标210之后通过基于无人机135的传感器120数据确定目标210的当前位置来跟踪目标210。计算机110和/或无人机135的计算机可以被编程为例如定期地每50ms就确定目标210的更新后的轨迹m2,并且在目标210移动时致动无人机135以在相对于目标210的指定距离,例如5米范围内飞行。计算机110可以被编程为基于目标210的当前轨迹m2而跟踪目标210,所述当前轨迹基于无人机135的传感器145数据而确定。
计算机110可以被编程为接收包括无人机135和/或目标210的位置和/或轨迹的数据,并且基于所接收的数据而向车辆100的HMI125输出图像和/或文本数据。例如,计算机110可以经由HMI 125显示目标210在地图上的示意性图像。计算机110可以被编程为向用户的移动装置输出数据,例如图像、文本和/或音频。
计算机110可以被编程为致动无人机135的喷洒致动器140以将墨水喷洒在目标210上。例如,计算机110可以被编程为致动无人机135以接近目标210,例如在相对于所述目标的3米范围内,并且喷洒墨水,例如在弱光条件下发光的基于光致发光的墨水。因此,有利地,无人机135可以例如在弱光条件下具有对目标210的改进的检测。例如,计算机110可以被编程为基于从已喷洒的墨水发出的光的预期波长而检测目标210(或将目标210与其他未被喷洒的对象区别开来)。另外地或可替代地,计算机110可以被编程为将墨水喷洒在相对于目标210的预定距离,诸如5米范围内的表面,例如地标、建筑物310的边缘等上。因此,有利地,追踪目标210的另一个人和/或无人机135可以基于从被喷洒表面发出的光的预期波长而确定目标210已处在被喷洒表面的预定距离内。
在一个示例中,如图3所示,主车辆100的计算机110部署无人机135来跟踪目标210。目标210可能会进入无人机135难以接近的区域,例如建筑物310的门厅320、隧道、大的人群等。车辆100的计算机110可以被编程为确定目标210进入到建筑物310,并且向远程计算机155传输最后确定的位置,例如建筑物310的入口位置330,和/或目标210的最后确定的轨迹m1
在一个示例中,远程计算机155和/或车辆100的计算机110可以被编程为基于入口位置330、最后的轨迹m1和建筑物310的内部建筑平面图而估计建筑物310的出口位置340。例如,远程计算机155可以被编程为基于包括门厅320的建筑平面图而估计出口位置340。远程计算机155可以被进一步编程为基于所估计的出口位置340而识别第三车辆101(在本文中为了方便起见并为了与车辆100、200区别开来才称为第三车辆101)并且定位第三车辆101的坐标。一旦从远程计算机155接收到指令,第三车辆101的计算机110就可以从第三车辆101致动第二无人机136以飞行到预期出口位置340。另外地或可替代地,远程计算机155可以被编程为识别多个可能的出口位置并且(例如,从多个车辆100)致动多个无人机135以飞行到所识别的出口位置。主车辆100和第二车辆101可以具有共同的元件,包括如上所述的计算机110、致动器115、传感器120、行李厢165和/或HMI 130。与主车辆100相关联的无人机135和与第三车辆101相关联的第二无人机136可以具有共同的元件,包括如上文所公开的螺旋桨致动器140、传感器145等。
过程
图4A至图4C示出了用于追踪目标210的示例过程400。例如,车辆100的计算机110可以被编程为执行过程400的方框。另外地或可替代地,车辆100的计算机110、无人机135的计算机、远程计算机155和/或其组合可以被编程为执行过程400的方框。
过程400开始于方框405,其中计算机110输出包括主车辆100的周围区域,例如检测范围250的图像数据。在一个示例中,计算机110可以被编程为从各种车辆100的传感器120,例如LIDAR、雷达、相机传感器120接收数据,并且基于所接收的传感器数据而向主车辆100的HMI 125的显示器输出图像数据。
接着,在决策框410中,计算机110确定是否选择第二车辆200。计算机110可以被编程为基于经由HMI 125进行的输入而选择车辆200或任何其他对象。例如,主车辆100中的用户可以触摸HMI 125屏幕来选择在HMI 125屏幕上显示的车辆200。如果计算机110确定已选择车辆200,则过程400进行到方框415;否则,过程400返回到方框405。
在方框415中,计算机110对主车辆100进行导航以跟踪所选择的车辆200。例如,计算机110可以被编程为通过以自主模式操作车辆100来跟踪所选择的车辆200,使得在主车辆100与所选择的车辆200之间维持预定距离,例如20米。作为另一个示例,计算机110可以被编程为向车辆100的HMI 125输出导航指令,并且车辆100的用户可以基于输出的导航指令而以非自主模式控制车辆100。
接着,在决策框420中,计算机110确定所选择的车辆200的车门240是否打开。例如,计算机110可以被编程为基于从例如车辆100的LIDAR、雷达、相机传感器120接收的数据而确定车辆200的车门240是否打开。另外地或可替代地,计算机110可以被编程为确定所选择的车辆200是否具有敞开的车顶,例如敞篷车。在另一个示例中,计算机110可以被编程为确定附接到所选择的车辆200的挂车的车门是否打开。如果计算机110确定所选择的车辆200的车门240是打开的,则过程400进行到决策框425;否则,过程400返回到方框415。
在决策框425中,计算机110例如使用已知的图像处理技术来确定目标210是否离开所选择的车辆200。如果计算机110确定一名或多名目标210已离开所选择的车辆200,则过程400进行到方框430;否则,过程400返回到决策框425。
在方框430中,计算机110确定目标210的轨迹和/或位置。例如,如图2所示,计算机110可以被编程为确定目标210的位置和/或轨迹m1。另外地或可替代地,计算机110可以被编程为确定离开所选择的车辆200的多名目标的位置和/或轨迹。另外地或可替代地,计算机110可以被编程为例如基于面部识别而从离开所选择的车辆200的检测到的多个人选择目标210。
转到图4B,接着,在方框435中,计算机110例如通过致动主车辆100的行李厢165中的无人机135以使其从车辆100飞出来部署无人机135。计算机110可以被编程为通过致动车辆100的致动器115以解锁无人机135,致动车辆100的致动器115以打开行李厢165的门170并致动无人机135以使其飞行来部署无人机135。计算机110可以被编程为向无人机135传输包括目标210的所确定的位置和/或轨迹的数据。
接着,在方框440中,计算机110基于所确定的位置和/或轨迹而对无人机135进行导航。例如,如图2所示,计算机110可以被编程为基于目标210的轨迹m1、目标210的位置、主车辆100的位置等而对无人机135进行导航。
接着,在方框445中,计算机110致动无人机135以跟踪目标210。计算机110可以被编程为基于目标210的位置和/或轨迹而跟踪目标210。例如,计算机110可以被编程为基于无人机135的传感器145数据而确定目标210的当前位置,并且在目标210移动时致动无人机135以在相对于目标210的指定距离范围内,例如在区域230内飞行。在一个示例中,计算机110可以被编程为通过以下方式来确定目标210的轨迹m1:例如基于从无人机135的传感器145接收的数据而重复地标识目标210的位置,并且使用已知的曲线拟合技术来拟合在所标识的位置之间的弧线。另外,计算机110可以被进一步编程为在无人机135跟踪目标210时致动无人机135的致动器140以将墨水喷洒在目标210和/或在相对于目标210的预定距离范围内的表面上。
接着,在决策框450中,计算机110例如基于经由车辆100的HMI 125接收输入而确定目标210的跟踪会话是否结束。如果计算机110确定跟踪会话已结束,则过程400进行到方框452;否则,过程400进行到决策框455。
在方框452中,计算机110例如基于从车辆100的GPS传感器120接收的位置坐标而致动无人机135以导航到主车辆100的当前位置。计算机110可以被进一步编程为致动无人机135以在主车辆100的指定区域,例如行李厢165中着陆。例如,计算机110可以被编程为将行李厢165的门170致动到打开状态,以致动无人机135来在行李厢165中着陆。计算机110可以致动车辆100的致动器以将无人机135锁定(紧固)到位,然后可以将行李厢165的门170致动到关闭状态。在方框452之后,过程400结束,或可替代地返回到方框405,但是这未示出于图4A至图4B中。
在决策框455中,计算机110确定目标210是否已进入到难以接近的区域,例如建筑物310、隧道等。如果计算机110确定目标210进入到难以接近的区域,则过程400进行到方框460(参见图4C);否则,过程400返回到方框445。
转到图4C,在方框460中,计算机110估计目标210从难以接近的区域离开的出口位置。例如,计算机110可以被编程为基于入口位置330、最后的轨迹m1和建筑物310的内部建筑平面图而估计建筑物310的出口位置340(参见图3)。计算机110可以被编程为确定所估计的出口位置的位置坐标。
接着,在方框465中,计算机110例如通过向远程计算机155传输所估计的出口位置340的位置坐标来将第三车辆101的无人机136部署到所估计的出口位置。
例如,计算机110和/或远程计算机155可以被编程为基于出口位置340的所识别的位置坐标而识别第三车辆101并且定位第三车辆101的坐标。在一个示例中,计算机110可以被编程为例如在估计到目标210在难以接近的区域中有多个可能的出口位置时从一个或多个第二车辆101部署多个无人机135。
接着,在决策框470中,计算机110确定计算机110是否已从所部署的第三车辆101接收到目标210的位置坐标。如下文参考图5所描述,第三车辆101的计算机110可以被编程为导航到出口位置340,检测目标210,识别目标210的位置坐标和/或轨迹。如果计算机110确定已从第三车辆101接收到目标210的位置坐标和/或轨迹,则过程400进行到方框475;否则,过程400进行到方框480。
在方框475中,计算机110基于目标210的所接收的位置坐标而对无人机135进行导航。例如,计算机110可以基于例如从第三车辆101的无人机136、远程计算机155等接收的目标210的位置坐标和/或轨迹而致动无人机135以飞行到目标210的当前位置。参考图3,计算机110可以被编程为规划在建筑物310周围的路线以将无人机135导航到目标210的位置。
在方框480中,计算机110致动无人机135以悬停在难以接近的区域的入口位置330上方。可替代地,计算机110可以致动无人机135以返回到主车辆100。在方框480之后,过程400进行到方框440(参见图4B)。
图5示出了用于由第三车辆101从主(或第一)车辆100接收控制命令的示例过程500。例如,第三车辆101的计算机110可以被编程为执行过程500的方框。
过程500开始于决策框505,其中车辆101的计算机110确定是否已例如从主车辆100的计算机110、远程计算机155等接收到例如目标210的所估计的出口位置340坐标。如果第三车辆101的计算机110确定已接收到所估计的出口位置坐标,则过程500进行到方框510;否则,过程500返回到决策框505。
在方框510中,第三车辆101的计算机110例如从第三车辆101的行李厢165部署第二无人机136。
接着,在方框515中,第三车辆101的计算机110将第二无人机136导航到出口位置340。第三车辆101的计算机110可以被编程为基于所估计的出口位置340的所接收的位置坐标而对第二无人机136进行导航。
接着,在决策框520中,第三车辆101的计算机110确定例如在相对于出口位置340的预定距离范围内是否检测到目标210。例如,第三车辆101的计算机110可以被编程为例如基于从主车辆100接收的信息使用已知的图像处理技术而检测目标210。第三车辆101的计算机110可以被编程为基于包括以下各项的所接收的信息而检测目标210:目标210的照片、从主车辆100的无人机135喷洒在目标210上的墨水发出的光的波长等。如果第三车辆101的计算机110确定已检测到目标210,则过程500进行到方框525;否则,过程500返回到决策框520。
在方框525中,第三车辆101的计算机110例如向主车辆100、远程计算机155等传输检测到的目标210的位置坐标和/或轨迹。计算机110可以被编程为跟踪检测到的目标210,例如在相对于目标210的预定距离范围内飞行。另外地或可替代地,第三车辆101的计算机110可以被编程为在相对于目标210的预定距离范围内飞行时定期地例如每一秒都传输目标210的当前位置坐标和/或轨迹。
接着,在决策框530中,例如一旦确定主车辆100的无人机135已到达相对于目标210的预定距离,诸如10米范围内,第三车辆101的计算机110就确定目标210的跟踪会话已结束。另外地或可替代地,一旦从第一车辆100的无人机135接收到包括结束对目标210的跟踪的请求的控制命令,第三车辆101的计算机110就可以被编程为确定跟踪会话已结束。如果第三车辆101的计算机110确定跟踪会话已结束,则过程500进行到方框535;否则,过程500返回到方框525。
在方框535中,第三车辆101的计算机110致动第二无人机136以返回到第三车辆101。例如,计算机110致动第二无人机136以在第三车辆101的行李厢165中着陆。另外,第三车辆101的计算机110可以被编程为在第二无人机136着陆之前打开行李厢165的门170,并且在第二无人机136着陆之后将行李厢165的门170致动到关闭状态。
在方框535之后,过程500结束。
除非另有说明或者上下文另有要求,否则修饰名词的冠词“一”应理解为意指一个或多个。短语“基于”包括部分地或完全地基于。
如本文所讨论的计算装置通常各自包括指令,所述指令可由诸如以上标识的那些的一个或多个计算装置执行,并且用于执行上文描述的过程的方框或步骤。计算机可执行指令可以由使用各种编程语言和/或技术创建的计算机程序来编译或解译,所述编程语言和/或技术单独地或组合地包括但不限于:JavaTM、C、C++、Visual Basic、Java Script、Perl、HTML等。一般而言,处理器(例如,微处理器)接收例如来自存储器、计算机可读介质等的指令,并且执行这些指令,从而执行一个或多个过程,包括本文描述的过程中的一个或多个。可以使用各种计算机可读介质来存储和传输这类指令和其他数据。计算装置中的文件通常是存储在计算机可读介质(诸如存储介质、随机存取存储器等)上的数据的集合。
计算机可读介质包括参与提供可以由计算机读取的数据(例如,指令)的任何介质。这种介质可以采用许多形式,包括但不限于非易失性介质、易失性介质等。非易失性介质包括例如光盘或磁盘和其他永久性存储器。易失性介质包括通常构成主存储器的动态随机存取存储器(DRAM)。计算机可读介质的常见形式包括例如软盘、软磁盘、硬盘、磁带、任何其他磁性介质、CD-ROM、DVD、任何其他光学介质、穿孔卡、纸带、任何其他具有孔图案的物理介质、RAM、PROM、EPROM、FLASH、EEPROM、任何其他存储芯片或盒式磁带、或计算机可从中读取的任何其他介质。
关于本文描述的介质、过程、系统、方法等,应理解,虽然这类过程等的步骤已被描述为根据特定的有序顺序发生,但是可以通过以与本文描述的次序不同的次序执行所描述的步骤来实施这类过程。还应理解,可以同时执行某些步骤、可以添加其他步骤、或者可以省略本文描述的某些步骤。换言之,本文的对系统和/或过程的描述被提供用于说明某些实施例的目的,并且决不应被解释为是为了限制所公开的主题。
因此,应理解,包括以上描述和附图以及以下权利要求的本公开意图是说明性的而非限制性的。在阅读以上描述之后,除了所提供的示例之外的许多实施例和应用对于本领域技术人员来说将是显而易见的。本发明的范围不应当参考以上描述来确定,而是替代地应当参考所附的和/或基于此包括在非临时专利申请中的权利要求连同这类权利要求所赋予权利的等效物的全部范围来确定。可以预期并期望本文讨论的技术中未来将有所发展,并且所公开的系统和方法将结合到这类未来实施例中。总而言之,应理解,所公开的主题能够进行修改和变化。

Claims (20)

1.一种计算机,所述计算机被编程为:
基于来自一个或多个车辆传感器的数据而确定移动目标的轨迹;以及
基于所述确定的轨迹而从车辆部署空中无人机以跟踪所述移动目标。
2.如权利要求1所述的计算机,所述计算机被进一步编程为
基于来自所述一个或多个车辆传感器的所述数据而确定所述目标的当前位置;以及
基于所述确定的当前位置而向所述空中无人机发送指令以飞行到目的地。
3.如权利要求1所述的计算机,所述计算机被进一步编程为:
基于所述确定的轨迹而确定位置;以及
致动所述无人机以飞行到所述确定的位置。
4.如权利要求1所述的计算机,所述计算机被进一步编程为通过以下方式来跟踪所述目标:
基于空中无人机传感器数据而确定所述目标的当前位置;以及
在所述目标移动时致动所述无人机以在相对于所述目标的指定距离范围内飞行。
5.如权利要求4所述的计算机,所述计算机被进一步编程为基于根据所述空中无人机传感器数据确定的所述目标的当前轨迹而跟踪所述目标。
6.如权利要求1所述的计算机,所述计算机被进一步编程为:
确定所述目标进入到所述无人机难以接近的区域;以及
向远程计算机传输所述移动目标的最后确定的位置和轨迹。
7.如权利要求1所述的计算机,所述计算机被进一步编程为:
基于来自所述一个或多个车辆传感器的所述数据而检测第二车辆;以及
当所述移动目标离开所述第二车辆时检测所述移动目标。
8.如权利要求7所述的计算机,所述计算机被进一步编程为在确定所述第二车辆的车门打开之后检测所述移动目标。
9.如权利要求1所述的计算机,所述计算机被进一步编程为致动无人机致动器以将墨水喷洒在所述移动目标上。
10.如权利要求1所述的计算机,所述计算机被进一步编程为通过检测所述移动目标上的特定墨水来跟踪所述移动目标。
11.一种方法,所述方法包括:
基于来自一个或多个车辆传感器的数据而确定移动目标的轨迹;以及
基于所述确定的轨迹而从车辆部署空中无人机以跟踪所述移动目标。
12.如权利要求11所述的方法,所述方法还包括:
基于来自所述一个或多个车辆传感器的所述数据而确定所述目标的当前位置;以及
基于所述确定的当前位置而向所述空中无人机发送指令以飞行到目的地。
13.如权利要求11所述的方法,所述方法还包括:
基于所述确定的轨迹而确定位置;以及
致动所述无人机以飞行到所述确定的位置。
14.如权利要求11所述的方法,所述方法还包括通过以下方式来跟踪所述目标:
基于空中无人机传感器数据而确定所述目标的当前位置;以及
在所述目标移动时致动所述无人机以在相对于所述目标的指定距离范围内飞行。
15.如权利要求11所述的方法,所述方法还包括基于根据所述空中无人机传感器数据确定的所述目标的当前轨迹而跟踪所述目标。
16.如权利要求11所述的方法,所述方法还包括:
确定所述目标进入到所述无人机难以接近的区域;以及
向远程计算机传输所述移动目标的最后确定的位置和轨迹。
17.如权利要求11所述的方法,所述方法还包括:
基于来自所述一个或多个车辆传感器的所述数据而检测第二车辆;以及
当所述移动目标离开所述第二车辆时检测所述移动目标。
18.如权利要求17所述的方法,其中仅在确定所述第二车辆的车门打开之后执行检测所述移动目标。
19.如权利要求11所述的方法,所述方法还包括致动无人机致动器以将墨水喷洒在所述移动目标上。
20.如权利要求11所述的方法,其中跟踪所述移动目标还包括检测所述移动目标上的特定墨水。
CN201780087226.1A 2017-02-24 2017-02-24 基于无人机的跟踪 Pending CN110431506A (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2017/019236 WO2018156139A1 (en) 2017-02-24 2017-02-24 Drone-based tracking

Publications (1)

Publication Number Publication Date
CN110431506A true CN110431506A (zh) 2019-11-08

Family

ID=63252933

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201780087226.1A Pending CN110431506A (zh) 2017-02-24 2017-02-24 基于无人机的跟踪

Country Status (4)

Country Link
US (1) US11415989B2 (zh)
CN (1) CN110431506A (zh)
DE (1) DE112017006933T5 (zh)
WO (1) WO2018156139A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111857014A (zh) * 2020-08-06 2020-10-30 天津优控智行科技有限公司 矿用无人自卸车远程控制方法

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9994313B2 (en) 2014-11-26 2018-06-12 XCraft Enterprises, LLC High speed multi-rotor vertical takeoff and landing aircraft
JP6805996B2 (ja) * 2017-07-28 2020-12-23 トヨタ自動車株式会社 情報処理装置、情報処理方法及び情報処理システム
GB2580908A (en) * 2019-01-28 2020-08-05 Kompetenzzentrum Das Virtuelle Fahrzeung Forschungsgesellschaft Mbh Method and device for selective active and passive sensing in automated driving applications
DE102019206587A1 (de) * 2019-05-08 2020-11-12 Audi Ag Verfahren zur Einstellung einer Position und/oder einer Orientierung eines Spiegels oder einer Kamera in einem Kraftfahrzeug
JP7409226B2 (ja) 2020-05-19 2024-01-09 マツダ株式会社 車載用飛行体の発着台装置
CN114898236B (zh) * 2022-07-14 2022-10-14 深圳联和智慧科技有限公司 一种基于无人机的渣土车监测方法、系统及云平台

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5745030A (en) * 1996-05-14 1998-04-28 Aaron; Albert Automatic occupant sensing anti-carjacking system
US20140061478A1 (en) * 2011-11-28 2014-03-06 Eads Deutschland Gmbh Method and Device for Tracking a Moving Target Object
CN104881650A (zh) * 2015-05-29 2015-09-02 成都通甲优博科技有限责任公司 一种基于无人机动平台的车辆跟踪方法
US20150350614A1 (en) * 2012-08-31 2015-12-03 Brain Corporation Apparatus and methods for tracking using aerial video
US20160236638A1 (en) * 2015-01-29 2016-08-18 Scope Technologies Holdings Limited Accident monitoring using remotely operated or autonomous aerial vehicles

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6952646B2 (en) * 2003-05-14 2005-10-04 Chang Industry, Inc. Tracking device and associated system and method
US7765062B2 (en) 2006-04-25 2010-07-27 Honeywell International Inc. Method and system for autonomous tracking of a mobile target by an unmanned aerial vehicle
US9026272B2 (en) 2007-12-14 2015-05-05 The Boeing Company Methods for autonomous tracking and surveillance
US8639396B1 (en) 2008-10-08 2014-01-28 Raytheon Company Cooperative control of unmanned aerial vehicles for tracking targets
SG173856A1 (en) 2009-02-02 2011-09-29 Aerovironment Inc Multimode unmanned aerial vehicle
IL201681A (en) 2009-10-22 2014-06-30 Abraham Abershitz System and method for UAV
US20150321758A1 (en) * 2013-08-31 2015-11-12 II Peter Christopher Sarna UAV deployment and control system
WO2015180180A1 (en) 2014-05-30 2015-12-03 SZ DJI Technology Co., Ltd. Systems and methods for uav docking
US9409644B2 (en) 2014-07-16 2016-08-09 Ford Global Technologies, Llc Automotive drone deployment system
US9454889B2 (en) 2014-07-28 2016-09-27 Dan Kerning Security and public safety application for a mobile device
CN115158661A (zh) 2015-01-18 2022-10-11 基础制造有限公司 用于无人机的装置、系统和方法
US9471059B1 (en) 2015-02-17 2016-10-18 Amazon Technologies, Inc. Unmanned aerial vehicle assistant
US10046732B2 (en) * 2016-01-31 2018-08-14 Robert Louis Piccioni Public safety smart belt

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5745030A (en) * 1996-05-14 1998-04-28 Aaron; Albert Automatic occupant sensing anti-carjacking system
US20140061478A1 (en) * 2011-11-28 2014-03-06 Eads Deutschland Gmbh Method and Device for Tracking a Moving Target Object
US20150350614A1 (en) * 2012-08-31 2015-12-03 Brain Corporation Apparatus and methods for tracking using aerial video
US20160236638A1 (en) * 2015-01-29 2016-08-18 Scope Technologies Holdings Limited Accident monitoring using remotely operated or autonomous aerial vehicles
CN104881650A (zh) * 2015-05-29 2015-09-02 成都通甲优博科技有限责任公司 一种基于无人机动平台的车辆跟踪方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111857014A (zh) * 2020-08-06 2020-10-30 天津优控智行科技有限公司 矿用无人自卸车远程控制方法
CN111857014B (zh) * 2020-08-06 2022-07-12 天津优控智行科技有限公司 矿用无人自卸车远程控制方法

Also Published As

Publication number Publication date
US11415989B2 (en) 2022-08-16
WO2018156139A1 (en) 2018-08-30
DE112017006933T5 (de) 2019-10-24
US20200057445A1 (en) 2020-02-20

Similar Documents

Publication Publication Date Title
CN110431506A (zh) 基于无人机的跟踪
CN110750769B (zh) 标识和认证自主运载工具以及乘员
CN109656244A (zh) 自主行驶车辆及其控制方法
JP2019156067A (ja) 車両制御装置、車両制御方法、およびプログラム
US11187543B2 (en) State-based autonomous-vehicle operations
CN110087989A (zh) 基于无人机的车辆照明
US20200019158A1 (en) Apparatus and method for controlling multi-purpose autonomous vehicle
CN109552308A (zh) 用于车辆的驾驶辅助设备和方法
US11027651B2 (en) Vehicle control device, vehicle control system, vehicle control method, and storage medium
JP7358959B2 (ja) 自動駐車システム
US11414085B2 (en) Vehicle control device, vehicle control method, and storage medium
JP2020157807A (ja) 車両制御装置、車両制御方法、およびプログラム
JP7355045B2 (ja) 自動駐車システム、自動駐車システムの制御方法、及び自動運転車両
US11358592B2 (en) In-vehicle processing apparatus and in-vehicle processing system
WO2021153176A1 (ja) 自律移動装置、自律移動制御方法、並びにプログラム
US11110970B2 (en) Removable interior for reconfigurable vehicles
US20210129870A1 (en) Apparatus and method for providing delivery service using autonomous vehicle
US20230174010A1 (en) Systems and Methods for a Moveable Cover Panel of an Autonomous Vehicle
US20210362701A1 (en) Electronic device and operating method of electronic device
JP7112358B2 (ja) 車両制御装置、車両制御方法、およびプログラム
US11325779B2 (en) Smart locker automated transfer system and method
US11377098B2 (en) Vehicle control device, vehicle control method, and storage medium
CN113470417A (zh) 收容区域管理装置
JP7347461B2 (ja) 自動駐車システム及び自動駐車システムの制御方法
US20190025814A1 (en) Remote vehicle instruction

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20191108