CN111935444A - 用于生成无人飞行器的视野的系统和方法 - Google Patents

用于生成无人飞行器的视野的系统和方法 Download PDF

Info

Publication number
CN111935444A
CN111935444A CN202010400464.7A CN202010400464A CN111935444A CN 111935444 A CN111935444 A CN 111935444A CN 202010400464 A CN202010400464 A CN 202010400464A CN 111935444 A CN111935444 A CN 111935444A
Authority
CN
China
Prior art keywords
unmanned aerial
aerial vehicle
imaging device
route
uav
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010400464.7A
Other languages
English (en)
Inventor
許百
S·尤卡
尾口健太郎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Engineering and Manufacturing North America Inc
Original Assignee
Toyota Motor Engineering and Manufacturing North America Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Engineering and Manufacturing North America Inc filed Critical Toyota Motor Engineering and Manufacturing North America Inc
Publication of CN111935444A publication Critical patent/CN111935444A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0017Arrangements for implementing traffic-related aircraft activities, e.g. arrangements for generating, displaying, acquiring or managing traffic information
    • G08G5/0026Arrangements for implementing traffic-related aircraft activities, e.g. arrangements for generating, displaying, acquiring or managing traffic information located on the ground
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/003Flight plan management
    • G08G5/0039Modification of a flight plan
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0047Navigation or guidance aids for a single aircraft
    • G08G5/0069Navigation or guidance aids for a single aircraft specially adapted for an unmanned aircraft
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0073Surveillance aids
    • G08G5/0082Surveillance aids for monitoring traffic from a ground station
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • H04N7/185Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source from a mobile camera, e.g. for remote control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/20Remote controls

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

本公开涉及用于生成无人飞行器的视野的系统和方法。提供了一种用于生成无人飞行器的视野的方法。该方法包括获得无人飞行器的始发地和目的地,基于无人飞行器的始发地和目的地之间的路线来确定成像设备组,以及基于由成像设备组捕获的无人飞行器的图像来获得遵循路线的无人飞行器的视野。成像设备组形成一个或多个协作相机传感器网络。协作相机传感器网络识别无人飞行器,并且创建操作人员的无人飞行器的视野。无人飞行器的路线是基于相机传感器网络的成像设备的可用性来确定的。无人飞行器的路线可以基于成像设备的可用性而改变。

Description

用于生成无人飞行器的视野的系统和方法
技术领域
本说明书总体上涉及用于生成无人飞行器(unmanned aerial vehicle)的视野的系统和方法,并且更具体而言,涉及用于基于可用成像设备来生成无人飞行器的视野的系统和方法,可用成像设备是基于无人飞行器的路线来选择的。
背景技术
无人飞行器被用在包括农业、安保和监控、货物和服务的交付以及电信的各种行业中。然而,联邦航空管理局法规(例如,禁区、操作人员的视线限制、看见避让(see-and-avoid)要求等)限制了无人飞行器的功能。特别地,当无人飞行器飞行长距离时,无人飞行器可能受制于大量禁区并且超出操作人员的视线,这可能会无法满足看见避让要求。
因此,存在对获得行驶长距离的无人飞行器的实时视野的需求。
发明内容
在一个实施例中,提供了一种用于生成无人飞行器的视野的方法。该方法包括获得无人飞行器的始发地和目的地,基于无人飞行器的始发地和目的地之间的路线来确定成像设备组,以及基于由成像设备组捕获的无人飞行器的图像来获得遵循路线的无人飞行器的视野。
在另一实施例中,提供了一种用于生成无人飞行器的视野的系统。该系统包括电子控制单元,该电子控制单元被配置为:获得无人飞行器的始发地和目的地;基于无人飞行器的始发地和目的地之间的路线来确定成像设备组;接收由成像设备组捕获的图像;以及基于接收到的图像来获得遵循路线的无人飞行器的视野。
在又一实施例中,提供了一种用于生成无人飞行器的视野的方法。该方法包括基于无人飞行器的当前位置来确定用于无人飞行器的路线,基于路线来选择成像设备组,以及基于由成像设备组捕获的图像来获得遵循路线的无人飞行器的视野。
鉴于以下详细描述结合附图,通过本公开的实施例提供的这些和附加特征将被更充分地理解。
附图说明
附图中阐述的实施例本质上是说明性和示例性的,并不旨在限制本公开。当结合以下附图阅读时,可以理解以下对说明性实施例的详细描述,其中用相似的附图标记指示相似的结构,并且其中:
图1描绘了根据本文示出和描述的一个或多个实施例的用于使用相机传感器网络生成无人飞行器的视野的系统;
图2描绘了根据本文示出和描述的一个或多个实施例的用于使用相机传感器网络生成无人飞行器的视野的系统的示意图;
图3描绘了根据本文示出和描述的一个或多个实施例的相机传感器网络之间的切换(handover);
图4描绘了根据本文示出和描述的一个或多个实施例的其中无人飞行器移动到相机传感器网络之外的示例性情境;
图5是根据本文示出和描述的一个或多个实施例的用于使用相机传感器网络获得无人飞行器的视野的流程图;
图6描绘了根据本文示出和描述的一个或多个实施例的示例性相机传感器网络;
图7是根据本文示出和描述的另一实施例的用于使用相机传感器网络获得无人飞行器的视野的流程图;
图8描绘了根据本文示出和描述的一个或多个实施例的示例性相机传感器网络;
图9描绘了根据本文示出和描述的另一实施例的用于在系统不知道无人飞行器的始发地和目的地时使用相机传感器网络获得无人飞行器的视野的流程图;
图10A描绘了根据本文示出和描述的一个或多个实施例的示例性相机传感器网络;以及
图10B描绘了根据本文示出和描述的一个或多个实施例的示例性相机传感器网络。
具体实施方式
本文公开的实施例包括用于获得无人飞行器的实时视野的系统和方法。总体上参考图1和图5,提供了用于生成无人飞行器的视野的方法。该方法包括获得无人飞行器104的始发地162和目的地164,基于无人飞行器104的始发地162和目的地164之间的路线来确定成像设备组,以及基于由成像设备组捕获的无人飞行器的图像来获得遵循路线的无人飞行器的视野。
成像设备组形成一个或多个协作相机传感器网络。协作相机传感器网络识别无人飞行器,并且创建操作人员的无人飞行器的视野。无人飞行器的路线是基于相机传感器网络的成像设备的可用性来确定的。无人飞行器的路线可以基于成像设备的可用性而被改变。每当无人飞行器移动到相机传感器网络区域之外时,如图3中所示在相机传感器网络之间执行水平和/或垂直切换,以连续地监视无人飞行器的飞行。如果无人飞行器处于未被相机传感器网络覆盖的位置,则特殊任务无人机可以被定位成靠近无人飞行器,如图4中所示。由相机传感器网络获得的图像数据被传送到边缘服务器和/或云服务器,边缘服务器和/或云服务器进而将捕获的图像传输到操作人员。
图1描绘了根据本文示出和描述的一个或多个实施例的用于使用相机传感器网络生成无人飞行器的视野的系统。在图1中,系统100可以包括云服务器102、无人飞行器104、边缘服务器140和150以及相机传感器网络110和120。
无人飞行器104的用户160远离无人飞行器104定位。用户160可以基于从相机传感器网络(例如,相机传感器网络110)接收的无人飞行器的视野来远程地控制无人飞行器104。
在实施例中,无人飞行器104可以与边缘服务器和/或云服务器共享其始发地和目的地信息。例如,无人飞行器104可以将其始发地162和目的地164传输到附近的边缘服务器(例如,边缘服务器140)或传输到云服务器102。边缘服务器140和/或云服务器102可以基于无人飞行器104的始发地162和目的地164之间的路线与可用成像设备来动态地形成一个或多个协作相机传感器网络。例如,在图1中,形成了第一协作相机传感器网络110和第二协作相机传感器网络120。第一协作相机传感器网络110包括多个成像设备。例如,第一协作相机传感器网络110包括移动交通工具的成像设备112和114以及路边成像设备116和119。第二协作相机传感器网络120包括移动交通工具的成像设备122、124、126和128以及路边成像设备132、134、136、138和139。
当无人飞行器104遵循路线166从始发地162行驶到目的地164时,无人飞行器104的视野是基于由协作相机传感器网络的多个成像设备捕获的无人飞行器104的图像来获得的。例如,当无人飞行器104遵循路线166行驶时,成像设备114可以发起对无人飞行器104的捕获。成像设备114可以不断地将捕获的图像传输到边缘服务器140或云服务器102,边缘服务器140或云服务器102进而将捕获的图像传输到用户160(例如,用户160的设备163)。当无人飞行器104变得靠近路边成像设备116时(例如,当无人飞行器104在路边成像设备116的观察距离内时),路边成像设备116可以捕获无人飞行器104的图像,并且将图像传输到边缘服务器140或云服务器102,边缘服务器140或云服务器102进而将图像传输到用户160。
在实施例中,多于一个成像设备可以同时捕获无人飞行器104的图像。例如,成像设备114和成像设备116二者可以从不同的视角同时捕获无人飞行器104的图像。成像设备114和成像设备116二者可以将捕获的图像传输到边缘服务器140。边缘服务器140可以合成图像以获得无人飞行器104的增强的视野(例如,无人飞行器104的360度视野)。可替代地,边缘服务器140将捕获的图像传输到云服务器102,并且云服务器102可以合成图像以获得无人飞行器104的增强的视野。
在实施例中,边缘服务器140或150或者云服务器102处理由成像设备捕获的图像,并且确定无人飞行器104是否表现出任何异常动作。如果确定无人飞行器104表现出任何异常动作,则边缘服务器140或150或者云服务器102可以向用户160传输警报。在一些实施例中,边缘服务器140或150或者云服务器102可以基于捕获的图像来确定无人飞行器104的当前位置,并且基于关于禁区的预先存储的信息和位置来确定无人飞行器104是否在禁区内。如果确定无人飞行器104在禁区内,则边缘服务器140或150或者云服务器102可以向用户160传输警报。
图2描绘了根据本文示出和描述的一个或多个实施例的用于使用相机传感器网络生成无人飞行器的视野的系统的示意图。
无人飞行器104包括一个或多个处理器202、一个或多个存储器模块204、卫星天线206、网络接口硬件208、一个或多个相机210和信标(beacon)设备212。
无人飞行器104的一个或多个处理器202中的每一个可以是能够执行机器可读指令的任何设备。因此,一个或多个处理器202中的每一个可以是控制器、集成电路、微芯片、计算机或任何其它计算设备。一个或多个处理器202中的每一个通过通信路径214通信地耦接到无人飞行器104的其它部件。因此,通信路径214可以将任何数量的处理器彼此通信地耦接,并且允许耦接到通信路径214的部件在分布式计算环境中操作。具体而言,部件中的每一个可以作为可以发送和/或接收数据的节点进行操作。
无人飞行器104的一个或多个存储器模块204中的每一个耦接到通信路径214,并且通信地耦接到一个或多个处理器202。一个或多个存储器模块204中的每一个可以包括RAM、ROM、闪速存储器、硬盘驱动器或能够存储机器可读指令以使得机器可读指令能够被一个或多个处理器202访问和执行的任何设备。机器可读指令可以包括以任何一代(例如,1GL、2GL、3GL、4GL或5GL)的任何编程语言编写的(一个或多个)逻辑或算法,该编程语言诸如例如可以直接由一个或多个处理器202执行的机器语言,或者可以被编译或汇编到机器可读指令中并被存储在一个或多个存储器模块204中的汇编语言、面向对象的编程(OOP)、脚本语言、微代码等。可替代地,机器可读指令可以用硬件描述语言(HDL)来编写,诸如经由现场可编程门阵列(FPGA)配置或专用集成电路(ASIC)或其等同物实现的逻辑。因此,本文描述的功能可以用任何常规计算机编程语言来实现,作为预先编程的硬件元件,或者作为硬件和软件部件的组合。
一个或多个存储器模块204可以包括无人飞行器104的始发地和目的地以及从边缘服务器140或云服务器102接收的始发地和目的地之间的被指派的路线。一个或多个处理器202可以操作无人飞行器104的一个或多个电动马达以遵循被指派的路线。
仍参考图2,卫星天线206耦接到通信路径214,使得通信路径214将卫星天线206通信地耦接到无人飞行器104的其它模块。卫星天线206被配置为从全球定位系统卫星接收信号。具体而言,在一个实施例中,卫星天线206包括与由全球定位系统卫星传输的电磁信号交互的一个或多个传导元件。接收到的信号由一个或多个处理器202变换成指示卫星天线206或定位在卫星天线206附近的物体的位置(例如,纬度、经度和高度)的数据信号。一个或多个存储器模块204可以包括用于将由卫星天线206接收的位置传输到边缘设备140或云服务器102的指令。
仍参考图2,网络接口硬件208耦接到通信路径214,并且通信地耦接到一个或多个处理器202。网络接口硬件208可以是能够经由网络传输和/或接收数据的任何设备。因此,网络接口硬件208可以包括用于发送和/或接收任何有线或无线通信的通信收发器。例如,网络接口硬件208可以包括天线、调制解调器、LAN端口、Wi-Fi卡、WiMax卡、移动通信硬件、近场通信硬件、卫星通信硬件以及/或者用于与其它网络和/或设备通信的任何有线或无线硬件。在一些实施例中,网络接口硬件208包括被配置为根据蓝牙无线通信协议进行操作的硬件。在其它实施例中,网络接口硬件208包括被配置为根据除蓝牙之外的无线通信协议进行操作的硬件。无人飞行器104的网络接口硬件208可以与边缘服务器140或云服务器102通信。
仍参考图2,一个或多个相机210耦接到通信路径214,使得通信路径214将一个或多个相机210通信地耦接到无人飞行器104的其它模块。一个或多个相机210中的每一个可以是具有能够检测紫外波长带、可见光波长带或红外波长带中的辐射的感测设备(例如,像素)的阵列的任何设备。一个或多个相机210中的每一个可以具有任何分辨率。一个或多个相机210可以包括全向相机或全景相机。在一些实施例中,诸如镜、鱼眼镜头或任何其它类型的透镜之类的一个或多个光学部件可以光学耦接到一个或多个相机210中的至少一个。一个或多个相机210可以用于捕获另一无人飞行器的图像。
仍参考图2,通信路径214可以由诸如例如导线、传导迹线、光波导等之类的能够传输信号的任何介质形成。此外,通信路径214可以由能够传输信号的介质的组合形成。在一个实施例中,通信路径214包括协作以允许电数据信号传输到诸如处理器、存储器、传感器、输入设备、输出设备和通信设备之类的部件的传导迹线、导线、连接器和总线的组合。因此,通信路径214可以包括总线。另外,要注意,术语“信号”意指能够通过介质行进的波形(例如,电、光、磁、机械或电磁),诸如DC、AC、正弦波、三角波、方波、振动等。通信路径214通信地耦接无人飞行器104的各种部件。如本文使用的,术语“通信地耦接”意指耦接的部件能够相互交换数据信号,诸如例如经由传导介质交换电信号、经由空气交换电磁信号、经由光波导交换光信号等。
仍参考图2,信标设备212耦接到通信路径214,并且通信地耦接到一个或多个处理器202。信标设备212可以将无线信标信号传输到附近的设备。信标信号可以包括关于无人飞行器104的标识信息。例如,图1中示出的成像设备114从无人飞行器104接收无线信标信号并且识别无人飞行器104。
现在参考云服务器102,一个或多个处理器220可以是与上述一个或多个处理器202类似的处理器。一个或多个存储器模块230可以是与上述一个或多个存储器模块204类似的存储器。网络接口硬件240可以是与上述网络接口硬件208类似的接口硬件。通信路径250可以是与上述通信路径214类似的通信路径。一个或多个处理器220结合一个或多个存储器模块230可以作为云服务器102的电子控制单元进行操作。
一个或多个存储器模块230包括相机数据库232、无人飞行器信息数据库234、路线规划器模块236和远程人员视野模块238。相机数据库232存储成像设备的位置和规格。成像设备可以包括移动成像设备,例如移动电话的成像设备、无人飞行器的成像设备、交通工具的成像设备等。另外,成像设备可以包括固定位置处的成像设备,例如交通灯处的成像设备、安保相机的成像设备、路边单元的成像设备。对于移动成像设备,相机数据库232可以包括移动成像设备在特定时间的预测位置。对于固定位置处的成像设备,成像设备的位置被存储在相机数据库232中。成像设备的规格包括每个成像设备的视野角度、分辨率和观察距离。
无人飞行器信息数据库234可以包括无人飞行器的标识以及每个无人飞行器的始发地和目的地信息。每个无人飞行器的始发地和目的地可以是从无人飞行器中的每一个接收的。作为另一示例,无人飞行器的用户可以通过在无人飞行器的控制器上输入无人飞行器的始发地和目的地来将始发地和目的地传输到云服务器102。
路线规划器模块236可以基于存储在相机数据库232和无人飞行器信息数据库234中的信息来确定用于每个无人飞行器的路线。例如,对于无人飞行器104,基于无人飞行器104的始发地和目的地以及存储在相机数据库232中的始发地和目的地之间的成像设备的位置,路线被规划为使得遵循该路线的无人飞行器104不断地被成像设备中的至少一个捕获。
远程人员视野模块238将无人飞行器的视野提供给无人飞行器的用户160或用户160的可穿戴设备163。在实施例中,远程人员视野模块238可以从成像设备接收捕获的无人飞行器104的图像,并且将捕获的图像传输到用户160或用户的可穿戴设备163。在一些实施例中,远程人员视野模块238可以合成包括无人飞行器104的捕获的图像并且将合成的图像传输到用户160。在一些实施例中,远程人员视野模块238可以指示每个成像设备直接与用户160或用户160的可穿戴设备163通信。例如,远程人员视野模块238可以指示成像设备114将捕获的无人飞行器104的图像传输到用户160。当无人飞行器104远离成像设备114移动并且接近成像设备116时,远程人员视野模块238可以指示成像设备116将捕获的无人飞行器104的图像传输到用户160。在一些实施例中,成像设备114和成像设备116二者可以将捕获的图像传输到边缘服务器140,并且边缘服务器140可以组合或拼接捕获的图像,以获得无人飞行器104的增强的视野。然后,边缘服务器140可以将组合的或拼接的图像转发给用户160。
路线规划器模块236和远程人员视野模块238中的每一个可以是以存储在一个或多个存储器模块230中的操作系统、应用程序模块和其它程序模块的形式的程序模块。在一些实施例中,程序模块可以被存储在可以与云服务器102通信的远程存储设备中。这样的程序模块可以包括但不限于用于执行特定任务或执行特定数据类型的例程、子例程、程序、对象、部件、数据结构等,如以下将描述的。
边缘服务器140可以包括与云服务器102类似的部件。例如,边缘服务器140可以包括一个或多个处理器、一个或多个存储器模块和网络硬件接口。这一个或多个存储器模块可以包括相机数据库、无人飞行器信息数据库、路线规划器模块和远程人员视野模块,与云服务器102的一个或多个存储器模块230类似。
图3描绘了根据本文示出和描述的一个或多个实施例的相机传感器网络之间的切换。在图3中,在时间t=t0处,无人飞行器104处于被第一协作相机传感器网络110覆盖的区域中。第一协作相机传感器网络110包括多个成像设备。例如,第一协作相机传感器网络110包括移动交通工具的成像设备112和114以及路边成像设备116和119。第二协作相机传感器网络120包括移动交通工具的成像设备122、124、126和128以及路边成像设备132、134、136、138和139。
当无人飞行器104处于被相机传感器网络110覆盖的区域内时,当无人飞行器104遵循路线166行驶时,成像设备114可以发起对无人飞行器104的捕获。成像设备114可以不断地将捕获的图像传输到边缘服务器140,边缘服务器140进而将图像传输到云服务器102或用户160(例如,用户160的可穿戴设备163)。在一些实施例中,成像设备114可以将捕获的图像传输到云服务器102,云服务器102进而将捕获的图像传输到用户160。
当无人飞行器104移动到被相机传感器网络110覆盖的区域之外(即,协作相机传感器网络110的成像设备都不能够捕获无人飞行器104的图像)时,可以执行到另一相机传感器网络的切换。例如,在时间t=t1处,无人飞行器104移动到被相机传感器网络110覆盖的区域之外。无人飞行器104此时处于被相机传感器网络120覆盖的区域内,并且成像设备中的一个(例如,成像设备124)可以捕获无人飞行器104的图像并且将图像传输到边缘服务器150,边缘服务器150进而将图像传输到云服务器102或用户160。就这一点而言,当无人飞行器104沿着路线166行驶时,实现了相机传感器网络110和120之间的切换。
图4描绘了根据本文示出和描述的一个或多个实施例的无人飞行器移动到相机传感器网络之外的示例性情境。在图4中,无人飞行器104从位置P1移动到位置P2。当无人飞行器104在位置P1处时,成像设备中的一个(例如,成像设备114)捕获无人飞行器104的图像,并且经由边缘服务器140和/或云服务器102将捕获的图像传输到用户160。当无人飞行器104移动到位置P2时,无人飞行器104处于被相机传感器网络110和120覆盖的区域之外。因此,相机传感器网络110和120的成像设备都不能捕获无人飞行器104的图像。边缘服务器140或150可以向云服务器102传输无人飞行器104处于被可用相机传感器网络(例如,相机传感器网络110和120)覆盖的区域之外的通知。然后,云服务器102可以识别无人飞行器104的当前位置,并且指示无人飞行器410朝向无人飞行器104的当前位置移动。无人飞行器410包括捕获无人飞行器104的图像的成像设备412。无人飞行器410可以经由靠近无人飞行器410的边缘服务器和/或云服务器102将捕获的图像传输到用户160。
在实施例中,无人飞行器410跟随无人飞行器104并且连续地捕获无人飞行器104的图像。在一些实施例中,无人飞行器410可以引导无人飞行器104移动回到被相机传感器网络110或120覆盖的区域。例如,无人飞行器410可以向无人飞行器104提供到被相机传感器网络110或120覆盖的区域的方向。在一些实施例中,云服务器102可以向无人飞行器104提供到被相机传感器网络110或120覆盖的区域的方向。
图5是根据本文示出和描述的一个或多个实施例的用于使用相机传感器网络获得无人飞行器的视野的流程图。
在步骤510中,系统识别无人飞行器。在实施例中,无人飞行器可以由边缘服务器基于从无人飞行器提交的无线信标来识别。例如,通过参考图1,边缘服务器140或相机传感器网络110中的成像设备中的一个可以从无人飞行器104接收无线信标信号并且识别无人飞行器104。在另一实施例中,无人飞行器可以由相机传感器网络110中的成像设备依据基于图像的深度估计来识别。例如,通过参考图1,相机传感器网络110中的成像设备中的一个可以使用基于图像的深度估计来识别无人飞行器104。
在步骤520中,系统获得所识别的无人飞行器的始发地和目的地。在实施例中,无人飞行器可以将其始发地和目的地传达给边缘服务器或云服务器。例如,通过参考图1,无人飞行器104可以将关于始发地162和目的地164的信息连同无人飞行器104的标识传达给边缘服务器140或云服务器102。在一些实施例中,与无人飞行器的标识相关联的无人飞行器的始发地和目的地可以被预先存储在云服务器102中。例如,云服务器102可以从无人飞行器的用户接收并存储无人飞行器的始发地和目的地连同无人飞行器的标识。
在步骤530中,系统基于无人飞行器的始发地和目的地之间的路线来确定成像设备组。在实施例中,云服务器102可以基于无人飞行器的始发地和目的地来确定用于无人飞行器的路线。例如,通过参考图6,云服务器102可以接收无人飞行器104的始发地162和目的地164。云服务器102可以确定包括路径602、路径604和路径606的路线。在实施例中,云服务器102可以确定可用于捕获遵循路线的无人飞行器104的图像的成像设备。
云服务器102或对应的边缘服务器可以基于各种因素来确定成像设备是否可用于捕获无人飞行器的图像,并且选择可用的成像设备作为成像设备组。例如,云服务器102或对应的边缘服务器可以基于成像设备与无人飞行器的路线的靠近度来确定成像设备是否可用于捕获无人飞行器的图像。
作为另一示例,云服务器102或对应的边缘服务器可以基于移动成像设备的预计位置来确定成像设备是否可用于捕获无人飞行器的图像。移动成像设备可以包括但不限于移动电话的成像设备、另一无人飞行器的成像设备或交通工具的成像设备。云服务器102或对应的边缘服务器可以确定在无人飞行器104遵循包括路径602、604、606的路线时移动成像设备的预计位置,并且确定移动成像设备的预计位置是否靠近该路线。具体而言,通过参考图6,云服务器102可以确定在无人飞行器104遵循路径602时另一无人飞行器650的成像设备的预计位置。如果在无人飞行器104遵循路径602时另一无人飞行器的预计位置652靠近路径602,则云服务器102可以确定另一无人飞行器650的成像设备可用于捕获无人飞行器104的图像。
作为另一示例,云服务器102或对应的边缘服务器可以基于成像设备的面对方向(face direction)来确定成像设备是否可用于捕获无人飞行器的图像。成像设备的面对方向可以被存储在云服务器中,例如,被存储在图2中的相机数据库232中或在对应的边缘服务器中。云服务器102或对应的边缘服务器可以基于成像设备的面对方向和遵循路线的无人飞行器104的移动方向来确定成像设备是否正在面对遵循路线的无人飞行器104。如果确定在无人飞行器104遵循路线时成像设备正面对无人飞行器104,则云服务器102可以确定成像设备可用于捕获无人飞行器104的图像。具体而言,通过参考图6,当无人飞行器104遵循路径602时,成像设备610-1正面对无人飞行器104。因此,云服务器102或对应的边缘服务器可以确定成像设备610-1可用于捕获无人飞行器104的图像。相反,当无人飞行器104遵循路径602时,成像设备610-2没有在面对无人飞行器104。因此,云服务器102或对应的边缘服务器可以确定成像设备610-2不可用于捕获无人飞行器104的图像。
作为另一示例,云服务器102可以基于成像设备是否被注册到系统中来确定成像设备是否可用于捕获无人飞行器的图像。例如,如果成像设备620-1已选择参与相机传感器网络(例如,图6中的相机传感器网络620),则云服务器102可以确定成像设备620-1可用于捕获无人飞行器104的图像。作为另一示例,如果成像设备620-2已选择不参与相机传感器网络,则云服务器102可以确定成像设备620-2不可用于捕获无人飞行器104的图像。
在实施例中,一个或多个相机传感器网络基于可用于捕获无人飞行器的图像的成像设备而形成。例如,通过参考图6,相机传感器网络610、相机传感器网络620和相机传感器网络630被形成。相机传感器网络610、620和630中的每一个包括可用于捕获无人飞行器104的图像的一个或多个成像设备。尽管图6描绘了三个不同的相机传感器网络,但是取决于成像设备之间的距离而可以形成多于或少于三个相机传感器网络。
在实施例中,系统可以向可用于捕获无人飞行器的图像的成像设备提供激励(incentive),使得更多的成像设备选择参与相机传感器网络。可以基于路线与每个成像设备之间的距离、每个成像设备的视野角度或每个成像设备的观察距离中的至少一个来确定激励。
返回参考图5,在步骤540中,系统确定无人飞行器是否在成像设备组中的至少一个成像设备的视野内。通过参考图6,用于相机传感器网络610、620、630中的一个的边缘服务器或云服务器102可以确定无人飞行器104是否在成像设备组中的至少一个成像设备的视野内。例如,云服务器102可以接收无人飞行器104的当前位置,并且确定无人飞行器104的当前位置是否在相机传感器网络610、620和630的成像设备的视野内。
如果在步骤540中确定无人飞行器104在成像设备组中的至少一个成像设备的视野内,则在步骤550中系统基于由成像设备组捕获的无人飞行器的图像来获得遵循路线的无人飞行器的视野。例如,通过参考图6,当无人飞行器104在始发地162处时,成像设备610-1可以发起捕获无人飞行器104的图像。成像设备610-1可以将捕获的图像传输到用于相机传感器网络610的边缘服务器或图1中示出的云服务器102,该边缘服务器或云服务器102进而将捕获的图像传输到用户160的设备163。当无人飞行器104经过成像设备610-1时,成像设备610-3可以捕获无人飞行器104的图像,并且将捕获的图像传输到边缘服务器或云服务器。当无人飞行器104遵循路径604时,成像设备620-1可以捕获无人飞行器104的图像,并且将捕获的图像传输到边缘服务器或云服务器。此时,在相机传感器网络610和相机传感器网络620之间实现切换。就这一点而言,相机传感器网络610、620、630中的至少一个成像设备实时地捕获无人飞行器104的图像,并且将捕获的图像传输到用户160,使得用户160可以看到无人飞行器104的实时视野。
在一些实施例中,相机传感器网络的成像设备可以存储捕获的无人飞行器的图像达预定时间。成像设备可以对捕获的图像进行预处理,并且存储包括无人飞行器的图像达预定时间。
在一些实施例中,边缘服务器或云服务器可以确定成像设备组当中的行为异常的成像设备。边缘服务器或云服务器可以比较由成像设备组捕获的无人飞行器的图像。边缘服务器或云服务器可以识别成像设备组中的行为异常的成像设备,该行为异常的成像设备提供与由成像设备组中的其它成像设备提供的图像不一致的图像。边缘服务器或云服务器可以比较由成像设备610-1、620-1、620-2捕获的图像,并且确定由成像设备620-2提供的图像与由成像设备610-1和620-1提供的图像不一致。例如,成像设备620-2可以传输其位置与在由成像设备610-1和620-1捕获的图像中的无人飞行器104的位置不匹配的无人飞行器104的图像。作为另一示例,成像设备620-2可以传输没有无人飞行器的图像,而成像设备610-1和620-1传输包括无人飞行器104的图像。然后,边缘服务器或云服务器可以丢弃由行为异常的成像设备(例如,成像设备620-2)提供的图像。
如果在步骤540中确定无人飞行器104不在成像设备组中的至少一个成像设备的视野内,则在步骤560中系统响应于无人飞行器在成像设备组的视野之外而派遣靠近该无人飞行器的另一无人飞行器。例如,当无人飞行器104移动到图6中的位置P3时,无人飞行器104在被相机传感器网络610、620和630覆盖的区域之外。因此,相机传感器网络610、620和630的成像设备都不能捕获无人飞行器104的图像。用于相机传感器网络的边缘服务器可以向云服务器102传输无人飞行器104在被相机传感器网络610、620和630覆盖的区域之外的通知。然后,云服务器102可以指示移动成像设备(例如,无人飞行器660)朝向无人飞行器104移动。无人飞行器660包括捕获无人飞行器104的图像的成像设备。无人飞行器660可以经由靠近无人飞行器660的边缘服务器和/或云服务器102将捕获的图像传输到用户160。
图7是根据本文示出和描述的另一实施例的用于使用相机传感器网络获得无人飞行器的视野的流程图。
在步骤710中,系统获得无人飞行器的始发地和目的地。无人飞行器可以在之前由边缘服务器或成像设备识别,如以上步骤510中所描述的。在实施例中,无人飞行器可以将其始发地和目的地传达给边缘服务器或云服务器。在一些实施例中,与无人飞行器的标识相关联的无人飞行器的始发地和目的地可以被预先存储在云服务器102中。
在步骤720中,系统基于无人飞行器的始发地和目的地之间的路线来确定成像设备组。在实施例中,云服务器102可以基于无人飞行器的始发地和目的地来确定用于无人飞行器的路线。例如,通过参考图6,云服务器102可以接收无人飞行器104的始发地162和目的地164。云服务器102可以确定包括路径602、路径604和路径606的路线。在实施例中,云服务器102可以确定可用于捕获遵循路线的无人飞行器104的图像的成像设备。
在步骤730中,系统确定成像设备组中的一个或多个成像设备是否不可用。通过参考图6,用于相机传感器网络610、620、630中的一个的边缘服务器或云服务器102可以确定成像设备组中的一个或多个成像设备是否不可用。
如果在步骤730处确定成像设备组可用,则在步骤740中系统基于由成像设备组捕获的无人飞行器的图像来获得遵循路线的无人飞行器的视野。例如,通过参考图6,当无人飞行器104在始发地162处时,成像设备610-1发起捕获无人飞行器104的图像。成像设备610-1可以将捕获的图像传输到用于相机传感器网络610的边缘服务器或图1中示出的云服务器102,该边缘服务器或云服务器102进而将捕获的图像传输到用户160的设备163。当无人飞行器104经过成像设备610-1时,成像设备610-3可以捕获无人飞行器104的图像,并且将捕获的图像传输到边缘服务器或云服务器。当无人飞行器104遵循路径604时,成像设备620-1可以捕获无人飞行器104的图像,并且将捕获的图像传输到边缘服务器或云服务器。就这一点而言,相机传感器网络610、620、630中的至少一个成像设备实时地捕获无人飞行器104的图像,并且将捕获的图像传输到用户160,使得用户160可以看到无人飞行器104的实时视野。
如果在步骤730处确定成像设备组中的一个或多个成像设备不可用,则在步骤750中系统可以选择另一成像设备组。例如,通过参考图8,成像设备542和544对于捕获无人飞行器104的图像而言可以是不可用的。例如,成像设备542和544不可以正常地操作。作为另一示例,成像设备542和544可以选择退出相机传感器网络620。作为另一示例,成像设备542和544可以是移动成像设备,并且移动到被图6中的相机传感器网络620覆盖的区域之外。由于成像设备542和544不可用,图6中的相机传感器网络620可以变为图8中的相机传感器网络622。在这种情况下,因为有未被相机传感器网络610、622和630中的任一个覆盖的区域,所以无人飞行器104的路线不可以被相机传感器网络610、622和630连续地监视。然后,系统可以选择另一成像设备组,例如,构成图8中的相机传感器网络810的成像设备。
在步骤760中,系统基于另一成像设备组的位置来确定用于无人飞行器的另一路线。例如,通过参考图8,基于用于相机传感器网络810的成像设备的位置,包括路径602、路径604-1、路径812和路径606-2的路线被选择用于无人飞行器104。
在步骤770中,系统将关于另一路线的信息传输到无人飞行器。在实施例中,靠近无人飞行器104的边缘服务器或云服务器102可以将关于另一路线(例如,包括路径602、路径604-1、路径812和路径606-2的路线)的信息传输到无人飞行器104。然后,相机传感器网络610、622、810和630的成像设备可以捕获遵循该路线的无人飞行器104。
图9描绘了根据本文示出和描述的另一实施例的当系统不知道无人飞行器的始发地和目的地时用于使用相机传感器网络获得无人飞行器的视野的流程图。
在步骤910中,系统基于无人飞行器的当前位置、在当前位置之前无人飞行器轨迹以及可用成像设备的位置中的至少一个来确定用于无人飞行器的路线。在实施例中,该系统可以不知道无人飞行器的始发地和目的地。通过参考图10A,可以基于无人飞行器在其当前位置之前的轨迹1010来预测无人飞行器的未来路线1020。例如,一个或多个成像设备可以监视无人飞行器104的移动。基于包括移动方向、速度等的被监视的无人飞行器104的移动,边缘服务器或云服务器可以实时地预测无人飞行器104的路线1020。
在步骤920中,系统可以基于预测的路线来选择成像设备组。例如,靠近无人飞行器104的边缘服务器或云服务器102可以选择靠近预测的路线的成像设备组,例如,图10A中的成像设备1030、1032、1034。
在步骤930中,系统基于由成像设备组捕获的图像来获得遵循路线的无人飞行器的视野。例如,通过参考图10A,成像设备1030发起捕获遵循预测的路线1020的无人飞行器104的图像。成像设备1030可以将捕获的图像传输到图1中示出的云服务器102或边缘服务器,该云服务器102或边缘服务器进而将捕获的图像传输到用户160的设备163。当无人飞行器104经过成像设备1030时,成像设备1032可以捕获无人飞行器104的图像,并且将捕获的图像传输到边缘服务器或云服务器。无人飞行器104的预测的路线可以实时地改变,并且系统可以基于改变后的预测的路线来选择不同的成像设备组。
在一些实施例中,系统基于可用成像设备的位置来确定用于无人飞行器的路线。例如,通过参考图10B,该系统不知道无人飞行器的始发地和目的地。然后,系统可以确定在距无人飞行器104的当前位置一定距离内的可用成像设备(例如,成像设备1040、1042和1044)的位置。基于成像设备1040、1042、1044的位置,系统可以确定用于无人飞行器104的路线1050,并且将路线1050传输到无人飞行器104。成像设备1040、1042和1044可以捕获遵循路线1050的无人飞行器104的图像,并且经由边缘服务器或云服务器将捕获的图像传输到用户160。
应该理解,本文描述的实施例涉及用于获得无人飞行器的视野的方法和系统。该方法包括获得无人飞行器的始发地和目的地,基于无人飞行器的始发地和目的地之间的路线来确定成像设备组,以及基于由成像设备组捕获的无人飞行器的图像来获得遵循路线的无人飞行器的视野。
成像设备组形成协作相机传感器网络。协作相机传感器网络识别无人飞行器,并且创建操作人员的无人飞行器的视野。无人飞行器的路线是基于相机传感器网络的可用性来确定的。无人飞行器的路线可以基于成像设备的可用性而改变。每当无人飞行器移动到相机传感器网络区域之外时,如图3中所示的在相机传感器网络之间可以执行水平和/或垂直切换,以连续地监视无人飞行器的飞行。如果无人飞行器处于未被相机传感器网络覆盖的位置,则特殊任务无人机可以被定位成靠近无人飞行器,如图4中所示。由相机传感器网络获得的图像数据被传送到边缘服务器和/或云服务器,边缘服务器和/或云服务器将捕获的图像传输到操作人员。
根据本公开,不仅无人飞行器的路线而且所选择的相机可以根据成像设备的可用性而改变。可以基于动态、静态和/或预定度量来选择成像设备。当参与的成像设备短期和/或长期不可用时,可以选择替代的成像设备。根据本公开,无人飞行器经由协作相机传感器网络被连续地跟踪和/或监视,并且针对操作人员构造了无人飞行器的第一人称视野。
要注意,术语“基本上”和“大约”可以在本文中被用来表示可以归因于任何定量的比较、值、测量或其它表示的固有不确定程度。这些术语也在本文中被用来表示定量表示可以在没有导致所讨论主题的基本功能变化的情况下从所阐述的参考变化的程度。
尽管本文已说明和描述了特定的实施例,但是应该理解,在不脱离所要求保护的主题的精神和范围的情况下,可以做出各种其它改变和修改。此外,尽管本文已描述了所要求保护的主题的各种方面,但是这样的方面不需要被组合使用。因此,意图的是所附权利要求覆盖在所要求保护的主题的范围内的所有这样的改变和修改。

Claims (15)

1.一种用于生成无人飞行器的视野的方法,所述方法包括:
获得所述无人飞行器的始发地和目的地;
基于所述无人飞行器的所述始发地和所述目的地之间的路线来确定成像设备组;以及
基于由所述成像设备组捕获的所述无人飞行器的图像来获得遵循所述路线的所述无人飞行器的视野。
2.根据权利要求1所述的方法,其中,所述成像设备组是基于所述成像设备组的位置、所述成像设备组的预测位置或所述成像设备组的规格中的至少一个来确定的。
3.根据权利要求1-2中任一项所述的方法,其中,
所述成像设备组包括一个或多个移动成像设备,以及
所述一个或多个移动成像设备被预计为在所述无人飞行器沿着所述路线行驶时靠近所述路线。
4.根据权利要求1-2中任一项所述的方法,还包括:
响应于靠近所述路线的所述成像设备组中的一个或多个成像设备不可用而选择另一成像设备组;
基于所述另一成像设备组的位置来确定另一路线;以及
将关于所述另一路线的信息传输到所述无人飞行器。
5.根据权利要求1-2中任一项所述的方法,还包括:
比较由所述成像设备组捕获的所述无人飞行器的图像;
识别所述成像设备组中的行为异常的成像设备,所述行为异常的成像设备提供与由所述成像设备组中的其它成像设备提供的图像不一致的图像;以及
丢弃由所述行为异常的成像设备提供的图像。
6.根据权利要求1-2中任一项所述的方法,其中,基于所述无人飞行器的所述始发地和所述目的地之间的所述路线来确定所述成像设备组包括:
基于成像设备的位置、预测位置和面对方向中的至少一个来确定关于成像设备的可用性的信息;以及
基于所述关于成像设备的可用性的信息来选择所述成像设备组。
7.根据权利要求6所述的方法,还包括:
向所选择的成像设备组提供激励。
8.根据权利要求7所述的方法,其中,所述激励是基于所述路线与每个成像设备之间的距离、每个成像设备的视野角度或每个成像设备的观察距离中的至少一个来确定的。
9.根据权利要求1-2中任一项所述的方法,还包括:
确定所述无人飞行器是否在所述成像设备组中的至少一个成像设备的视野内;以及
响应于所述无人飞行器在所述成像设备组的视野之外而派遣靠近所述无人飞行器的另一无人飞行器。
10.一种用于生成无人飞行器的视野的系统,所述系统包括:
电子控制单元,被配置为:
获得所述无人飞行器的始发地和目的地;
基于所述无人飞行器的所述始发地和所述目的地之间的路线来确定成像设备组;
接收由所述成像设备组捕获的图像;以及
基于接收到的图像来获得遵循所述路线的所述无人飞行器的视野。
11.根据权利要求10所述的系统,其中,所述电子控制单元还被配置为:
响应于靠近所述路线的所述成像设备组中的一个或多个成像设备不可用而选择另一成像设备组;
基于所述另一成像设备组的位置来确定另一路线;以及
将关于所述另一路线的信息传输到所述无人飞行器。
12.根据权利要求10-11中任一项所述的系统,其中,所述电子控制单元还被配置为:
确定所述无人飞行器是否在所述成像设备组中的至少一个成像设备的视野内;以及
响应于所述无人飞行器在所述成像设备组的视野之外而传输警报。
13.一种用于生成无人飞行器的视野的方法,所述方法包括:
基于所述无人飞行器的当前位置来确定用于所述无人飞行器的路线;
基于所述路线来选择成像设备组;以及
基于由所述成像设备组捕获的图像来获得遵循所述路线的所述无人飞行器的视野。
14.根据权利要求13所述的方法,还包括:
进一步基于在所述当前位置之前所述无人飞行器的轨迹来确定用于所述无人飞行器的所述路线。
15.根据权利要求14所述的方法,还包括:
进一步基于可用成像设备的位置来确定用于所述无人飞行器的所述路线。
CN202010400464.7A 2019-05-13 2020-05-13 用于生成无人飞行器的视野的系统和方法 Pending CN111935444A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/410,134 US11210957B2 (en) 2019-05-13 2019-05-13 Systems and methods for generating views of unmanned aerial vehicles
US16/410,134 2019-05-13

Publications (1)

Publication Number Publication Date
CN111935444A true CN111935444A (zh) 2020-11-13

Family

ID=73245152

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010400464.7A Pending CN111935444A (zh) 2019-05-13 2020-05-13 用于生成无人飞行器的视野的系统和方法

Country Status (3)

Country Link
US (1) US11210957B2 (zh)
JP (1) JP7218321B2 (zh)
CN (1) CN111935444A (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11184517B1 (en) * 2020-06-26 2021-11-23 At&T Intellectual Property I, L.P. Facilitation of collaborative camera field of view mapping
WO2022234574A1 (en) * 2021-05-03 2022-11-10 Weinheber Uri Multi-drone beyond visual line of sight (bvlos) operation

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000211593A (ja) * 1999-01-27 2000-08-02 Nec Corp 無人機の監視装置
US20120215382A1 (en) * 2011-02-23 2012-08-23 Hon Hai Precision Industry Co., Ltd. System and method for controlling unmanned aerial vehicle in flight space
US20170032587A1 (en) * 2015-07-31 2017-02-02 Elwha Llc Systems and methods for collaborative vehicle tracking
WO2017022058A1 (ja) * 2015-08-03 2017-02-09 Necソリューションイノベータ株式会社 位置管理装置、位置管理方法、及びコンピュータ読み取り可能な記録媒体
JP6100868B1 (ja) * 2015-11-09 2017-03-22 株式会社プロドローン 無人移動体の操縦方法および無人移動体監視装置
US9646502B1 (en) * 2015-02-27 2017-05-09 Amazon Technologies, Inc. Universal unmanned aerial vehicle identification system
US20170162063A1 (en) * 2015-09-04 2017-06-08 Panasonic Intellectual Property Corporation Of America Method for generating flight route with which observer can visually observe drone

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107015570B (zh) 2014-04-17 2020-12-18 深圳市大疆创新科技有限公司 飞行禁区的飞行控制
US20150371543A1 (en) 2014-06-21 2015-12-24 Jose Luis Ismael Amodio Leon Safe flight-path search engine system and method
WO2016015311A1 (en) 2014-07-31 2016-02-04 SZ DJI Technology Co., Ltd. System and method for enabling virtual sightseeing using unmanned aerial vehicles
US20160117933A1 (en) 2014-09-30 2016-04-28 Elwha LLC, a limited liability company of the State of Delaware Unmanned aircraft configured for operation in a managed airspace
US10671066B2 (en) * 2015-03-03 2020-06-02 PreNav, Inc. Scanning environments and tracking unmanned aerial vehicles
US9741255B1 (en) * 2015-05-28 2017-08-22 Amazon Technologies, Inc. Airborne unmanned aerial vehicle monitoring station
US20170032586A1 (en) * 2015-07-31 2017-02-02 Elwha Llc Systems and methods for collaborative vehicle tracking
US20180275654A1 (en) 2015-09-03 2018-09-27 Commonwealth Scientific And Industrial Research Or Ganisation Unmanned Aerial Vehicle Control Techniques
JP6617080B2 (ja) 2015-09-04 2019-12-04 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 飛行ルート生成方法、飛行ルート生成装置、飛行ルート生成プログラム及び端末装置
US20180005534A1 (en) * 2016-06-30 2018-01-04 Sharp Laboratories Of America, Inc. Autonomous navigation of an unmanned aerial vehicle
CN106791613B (zh) 2016-11-30 2019-07-12 中通服咨询设计研究院有限公司 一种基于3dgis和视频相结合的智能监控系统

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000211593A (ja) * 1999-01-27 2000-08-02 Nec Corp 無人機の監視装置
US20120215382A1 (en) * 2011-02-23 2012-08-23 Hon Hai Precision Industry Co., Ltd. System and method for controlling unmanned aerial vehicle in flight space
US9646502B1 (en) * 2015-02-27 2017-05-09 Amazon Technologies, Inc. Universal unmanned aerial vehicle identification system
US20170032587A1 (en) * 2015-07-31 2017-02-02 Elwha Llc Systems and methods for collaborative vehicle tracking
WO2017022058A1 (ja) * 2015-08-03 2017-02-09 Necソリューションイノベータ株式会社 位置管理装置、位置管理方法、及びコンピュータ読み取り可能な記録媒体
US20170162063A1 (en) * 2015-09-04 2017-06-08 Panasonic Intellectual Property Corporation Of America Method for generating flight route with which observer can visually observe drone
JP6100868B1 (ja) * 2015-11-09 2017-03-22 株式会社プロドローン 無人移動体の操縦方法および無人移動体監視装置

Also Published As

Publication number Publication date
US20200365040A1 (en) 2020-11-19
JP2020191083A (ja) 2020-11-26
US11210957B2 (en) 2021-12-28
JP7218321B2 (ja) 2023-02-06

Similar Documents

Publication Publication Date Title
US10191495B2 (en) Distributed ceiling-mounted smart cameras for multi-unmanned ground vehicle routing and coordination
US9253453B2 (en) Automatic video surveillance system and method
US9224050B2 (en) Vehicle localization in open-pit mining using GPS and monocular camera
CN110377026B (zh) 信息处理装置、存储介质和信息处理方法
US10832567B2 (en) Systems and methods for generating composite real-time traffic images based on triggering events using data from vehicle borne sensors
WO2016201359A1 (en) A low altitude aircraft identification system
CN111935444A (zh) 用于生成无人飞行器的视野的系统和方法
US20210018938A1 (en) Computation load distribution
JP2020095695A (ja) 複数階ユニットのフロア上におけるパーキング利用可能性を決定するためのシステム及び方法
CN113924598A (zh) 用于感测和避开外部物体的图像传感器数据的多路处理
CN112884692A (zh) 分布式机载协同侦察光电系统及无人机系统
US10755582B2 (en) Drone physical and data interface for enhanced distance coverage
JP2020187664A (ja) 移動体
EP3919374B1 (en) Image capturing method
US20220114433A1 (en) Methods and systems for enhanced scene perception using vehicle platoon
Streit et al. Vision-based path construction and maintenance for indoor guidance of autonomous ground vehicles based on collaborative smart cameras
JP6890108B2 (ja) 無人飛行装置、撮像システム及び撮像方法
CN112581630A (zh) 一种用户交互方法和系统
JP2021135895A (ja) 検知装置、検知方法、およびロボット並びにプログラム
JP2000152220A (ja) 監視用itvカメラの制御方法
EP4220580A1 (en) Method for vehicle driving assistance within delimited area
WO2023178495A1 (zh) 无人机、控制终端、服务器及其控制方法
CN116709028A (zh) 摄像机的控制方法、拍摄方法、装置及系统
US20220100211A1 (en) Information processing apparatus and method
KR101837893B1 (ko) 센서 기반 이동체 위치 추정 시스템 및 방법

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination