CN109564434A - 用于定位可移动物体的系统和方法 - Google Patents

用于定位可移动物体的系统和方法 Download PDF

Info

Publication number
CN109564434A
CN109564434A CN201680088193.8A CN201680088193A CN109564434A CN 109564434 A CN109564434 A CN 109564434A CN 201680088193 A CN201680088193 A CN 201680088193A CN 109564434 A CN109564434 A CN 109564434A
Authority
CN
China
Prior art keywords
loose impediment
coordinate
image
vector
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201680088193.8A
Other languages
English (en)
Other versions
CN109564434B (zh
Inventor
良笹尾幸
瞿宗耀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Dajiang Innovations Technology Co Ltd
Original Assignee
Shenzhen Dajiang Innovations Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Dajiang Innovations Technology Co Ltd filed Critical Shenzhen Dajiang Innovations Technology Co Ltd
Publication of CN109564434A publication Critical patent/CN109564434A/zh
Application granted granted Critical
Publication of CN109564434B publication Critical patent/CN109564434B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • G05D1/106Change initiated in response to external conditions, e.g. avoidance of elevated terrain or of no-fly zones
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/0009Transmission of position information to remote stations
    • G01S5/0018Transmission from mobile station to base station
    • G01S5/0036Transmission from mobile station to base station of measured values, i.e. measurement on mobile and position calculation on base station
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • G05D1/102Simultaneous control of position or course in three dimensions specially adapted for aircraft specially adapted for vertical take-off of aircraft
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/17Terrestrial scenes taken from planes or by drones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/176Urban or other man-made structures
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0004Transmission of traffic-related information to or from an aircraft
    • G08G5/0013Transmission of traffic-related information to or from an aircraft with a ground station
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0017Arrangements for implementing traffic-related aircraft activities, e.g. arrangements for generating, displaying, acquiring or managing traffic information
    • G08G5/0021Arrangements for implementing traffic-related aircraft activities, e.g. arrangements for generating, displaying, acquiring or managing traffic information located in the aircraft
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0047Navigation or guidance aids for a single aircraft
    • G08G5/0052Navigation or guidance aids for a single aircraft for cruising
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0047Navigation or guidance aids for a single aircraft
    • G08G5/0069Navigation or guidance aids for a single aircraft specially adapted for an unmanned aircraft

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

提供用于控制可移动物体的运动的系统、方法和计算机可读存储装置。可移动物体(100)可导航到第一位置并观察可移动物体(100)的周围环境。观察周围环境可包括从安装在可移动物体(100)上的相机拍摄图像。可移动物体(100)可识别周围环境中的第二位置并计算第二位置与第一位置的相对位置。可移动物体(100)可从第一位置导航到第二位置。用户可从遥控器(140)上的显示器选择第二位置。

Description

用于定位可移动物体的系统和方法
版权声明
本专利文件的公开内容的一部分包含受版权保护的材料。版权所有者不反对任何人按照其在专利和商标局的专利文件或记录中的形式对本专利文件或本专利公开内容进行复制,但在其他方面保留所有版权。
技术领域
本公开总体上涉及可移动物体的定位和控制。更具体地,本公开涉及用于控制可移动物体的运动的系统和方法。
背景技术
无人飞行器(UAV),有时被称为“无人机”,包括各种尺寸和配置的可由用户远程操作和/或编程为自动飞行的无人驾驶飞机。无人机可用于多种用途,并且经常用于各种个人、商业和战术应用。在许多应用中,无人机还可配备辅助设备以执行各种任务。例如,配备有例如照相机、摄像机等的成像器材的无人机可捕捉太难、不实际或根本不可能以其它方式捕捉到的图像或视频片段。配备有成像装置的无人机除了受到爱好者欢迎和娱乐用途外,在监视、国防和专业摄像行业以及其它方面特别有用。
鉴于全球导航卫星系统(GNSS)固有的不准确性,精确导航对于无人机来说可能是困难的。在一些情况下,无人机可使用图像识别来帮助引导它穿越地形。然而,对于对比度差或不包含特征的表面,这可能很困难。无人机也可使用公开可用的地图来确定航路点,但是这些地图通常分辨率较低,导致导航和定位不准确。因此,需要准确确定无人机的航路点以及在航路点之间导航无人机的系统和方法。
发明内容
本公开的一些实施例涉及一种用于可移动物体的方法。可移动物体可导航到第一位置并观察周围环境。可移动物体可识别周围环境中的第二位置并计算第二位置的相对位置。
本公开的一些实施例涉及用于导航的系统。所述系统可包括可移动物体。可移动物体可初始处于第一位置。可移动物体可进一步被配置为基于图像上的选定点确定第二位置。
本公开的一些实施例涉及一种可移动物体的方法。从地图选择的一个或多个预定坐标可由可移动物体接收。可移动物体可导航到一个或多个预定坐标中的第一坐标。可移动物体可观察周围环境,其中周围环境可包括一个或多个预定坐标中的至少一个坐标。可移动物体可以接收指示周围环境中的点的坐标并确定从基站到一个或多个预定坐标中的第一坐标的第一矢量。可移动物体还可确定从一个或多个预定坐标中的第一坐标到指示周围环境中的点的坐标的第二矢量,并从一个或多个预定坐标的第一坐标导航到基于第一矢量和第二矢量的合成矢量的坐标。
本公开的一些实施例涉及一种可移动物体的方法。可移动物体可拍摄图像并将图像发送到遥控器。可移动物体还可以从遥控器接收图像上的两个或多个选定点的二维坐标。可移动物体可基于图像上的两个或多个选定点的二维坐标计算虚拟墙。可移动物体可被配置为不穿越虚拟墙。
本公开的一些实施例涉及一种用于限制运动的系统。所述系统可包括可移动物体。可移动物体可被配置为拍摄表面的图像并确定图像上的第一点的第一位置和图像上的第二点的第二位置,并且可移动物体还被配置为不穿越由第一位置和第二位置确定的虚拟围栏。
本公开的一些实施例涉及一种选择航路点的方法。可接收从可移动物体拍摄的图像并将该图像显示给用户。可接收图像上的至少一个点的选择,并且可确定选定点的图像坐标。坐标可发送到可移动物体。
本公开的一些实施例涉及一种非暂时性计算机可读介质,存储当被执行时使可移动物体执行方法的指令。可移动物体可导航到第一位置并观察周围环境。可移动物体可识别周围环境中的第二位置并计算第二位置与第一位置的相对位置。
本公开的一些实施例涉及一种非暂时性计算机可读介质,存储当被执行时使计算装置执行方法的指令。从地图选择的一个或多个预定坐标可由可移动物体接收。可移动物体可导航到一个或多个预定坐标中的第一坐标。可移动物体可观察周围环境,其中周围环境可包括一个或多个预定坐标中的至少一个坐标。可移动物体可以接收指示周围环境中的点的坐标并确定从基站到一个或多个预定坐标中的第一坐标的第一矢量。可移动物体还可确定从一个或多个预定坐标中的第一坐标到指示周围环境中的点的坐标的第二矢量,并从一个或多个预定坐标中的第一坐标导航到基于第一矢量和第二矢量的合成矢量的坐标。
本公开的一些实施例涉及一种非暂时性计算机可读介质,存储当被执行时使可移动物体执行方法的指令。可移动物体可拍摄图像并将图像发送到遥控器。可移动物体还可以从遥控器接收图像上的两个或多个选定点的二维坐标。可移动物体可基于图像上的两个或多个选定点的二维坐标计算虚拟墙。可移动物体可被配置为不穿越虚拟墙。
本公开的一些实施例涉及一种非暂时性计算机可读介质,存储当被执行时使装置执行选择航路点的方法的指令。可接收从可移动物体拍摄的图像并将该图像显示给用户。可接收图像上的至少一个点的选择,并且可确定选定点的图像坐标。坐标可发送到可移动物体。
本公开的其他目的和优点将部分地在下面的详细描述中阐述,并且部分地从所述描述中显而易见,或者可从本公开的实践中获知。本公开的目的和优点将通过所附权利要求中具体指出的要素及组合来实现并获得。
应当理解,前述总体描述和以下详细描述都仅是示例性和说明性的,而非对所公开的实施例的限制。
附图说明
构成说明书的一部分的附图描述了数个实施例,并且连同说明书一起用于解释本公开的原理。在附图中:
图1示出了与本公开相一致的具有载体、负载和控制终端的示例性可移动物体。
图2示出了可以与本公开相一致的实施例一起使用的示例控制终端。
图3示出了与本公开相一致的具有可移动物体和基站的示例性环境。
图4示出了可以与本公开的实施例一起使用的控制器。
图5示出了与本公开相一致的显示图像的示例性显示器。
图6示出了与本公开的实施例相一致的用于确定位置的示例性系统。
图7示出了与本公开的实施例相一致的用于确定图像上的位置的示例性环境。
图8示出了与本公开的实施例相一致的用于确定倾斜图像上的位置的示例性环境。
图9示出了与本公开的实施例相一致的用于确定垂直表面上的航路点的示例性环境。
图10是与本公开的实施例相一致的示出从第一位置导航到第二位置的示例性方法的流程图。
图11是与本公开的实施例相一致的示出确定航路点的示例性方法的流程图。
图12示出了与本公开的实施例相一致的形成虚拟墙的示例性系统。
具体实施方式
参照附图来描述示例性实施例。在附图中,附图标记最左边的数字标识该附图标记首次出现的附图。在方便的情况下,在整个附图中使用相同的附图标记来指代相同或相似的部分。虽然本文描述了公开的原理的示例和特征,但在不脱离本公开实施例的精神和范围的情况下可能进行修改、改编和其他实现。并且,词语“包括”、“具有”、“含有”、“包含”以及其他类似形式旨在意义上等同并解释为开放式,在这一点上,任何一个这样的词之后的一个或多个项目并不意味着是这一或这些项目的详尽列表,或者意味着仅限于所列出的一个或多个项目。
如在本申请和权利要求中所使用的,除非上下文另有明确规定,否则单数形式“a”、“an”和“the”包括复数形式。附加地,术语“包含”意味着“包括”。此外,术语“连接”不排除连接项之间存在中间元件。
如在本申请和权利要求中所使用的,运动参数可包括运动路径参数,其中它描述了用于改变可移动物体的轨迹和运动的参数。运动路径可包括飞行路径,其中它描述了可移动物体的轨迹和运动。
本文所述的系统和方法不应解释为以任何方式进行限制。相反,本公开涉及各种公开的实施例的所有的新颖的和非显而易见的特征和方面,不管是单独地还是以彼此的各种组合和子组合。本公开的系统和方法不限于任何具体的方面或特征或其组合,本公开的系统和方法也不要求存在任何一个或多个特定优点或解决的问题。任何操作理论都是为了便于解释,但是本公开的系统、方法和装置不限于这些操作理论。
尽管为了便于表示而以特定的顺序次序描述了本公开的一些方法的操作,但是应该理解,除非通过下面所述的特定语言需要特定排序,否则这种描述方式包含重新排列。例如,顺序描述的操作在一些情况下可被重新安排或同时执行。此外,为简单起见,附图可能未示出本公开的系统、方法和设备可与其他系统、方法和设备结合使用的各种方式。另外,说明书有时使用像“产生”和“提供”的术语来描述所公开的方法。这些术语是对所执行的实际操作的高级抽象。与这些术语对应的实际操作将根据具体实现而变化,并且容易被本领域的普通技术人员辨别。
与本公开相一致的系统和方法涉及可移动物体的精确导航,其中可移动物体实时观察其周围环境(例如,当可移动物体正在导航时)、识别周围环境中的一个点以导航、计算该点的位置、然后导航到该点。在一些实施例中,可移动物体可以是无人机。在其他实施例中,可移动物体可以是汽车、船只、无线电控制载运工具、机器人等。可移动物体可导航到第一位置。第一位置可以是预定的,或者使用遥控终端(“终端”)的用户可将可移动物体引导至第一位置。可移动物体或终端可在观察到的周围环境中确定航路点(例如可移动物体导航到的点)。在一些实施例中,可移动物体可拍摄周围环境的图像并将图像发送至终端。图像可在屏幕上显示给用户,用户可通过屏幕在图像上选择航路点。在一些实施例中,航路点的二维坐标可发送到可移动物体,在可移动物体中它们被转换成三维坐标。在其他实施例中,二维坐标可在终端中转换成三维坐标。可移动物体可使用RTK确定其与基站的相对位置及其与航路点的三维坐标的相对位置。相对位置可以表示为矢量。然后可移动物体可使用矢量确定航路点与基站的相对位置。在一些示例中,航路点的相对位置可通过添加两个先前确定的矢量确定。
与本公开一致的系统和方法进一步涉及确定用于可移动物体的“禁止进入”区域,或者在无人机的示例中,确定“禁飞”区域。在无人机的示例中,禁飞区域可从至少两个空间坐标确定。例如,可在两个坐标之间绘制一条线以形成虚拟墙。虚拟墙可沿着两个空间坐标之间的地面延伸,并向上延伸到预定高度。在一些实施例中,可移动物体可拍摄图像并且虚拟墙可在图像上选择的点之间形成。可移动物体可将图像发送到终端,图像可显示于终端以供用户在图像上选择这样的点。在一些实施例中,选定点的二维坐标可发送到可移动物体,其中可移动物体可将二维坐标转换为相对于可移动物体的三维坐标。在其他实施例中,终端可使用从可移动物体接收的附加位置信息将二维坐标转换为三维坐标。如上所述,可移动物体可通过使用矢量的总和确定形成虚拟墙的选定点相对于基站的位置。
图1示出了可在环境(例如周围环境)中运动或行进的示例性的可移动物体100。可移动物体100可以是被配置为在合适的介质(例如,表面、空气、水、轨道、太空、地下等)上或内部行进的任何合适的物体、设备、机构、系统或机器。例如,可移动物体100可以是无人飞行器。尽管出于本说明书的示例性目的,可移动物体100在本文中示出和描述为无人机,但是应该理解,其他类型的可移动物体100(例如,轮式物体、航海物体、机车物体、其他空中物体等)也可以或替代地用于与本公开一致的实施例中。如本文所使用的,术语“无人机”可以指被配置为自动(例如通过电子控制系统)和/或由外部人员手动操作和/或控制的空中设备。
如图1所示,可移动物体100可包括一个或多个推进装置105,所述一个或多个推进装置105连接到主体110推进装置并且可被配置为承载负载115。在一些实施例中,负载115可通过载体120连接或附接到可移动物体100,载体120可允许负载115与主体110之间一个或多个自由度的相对运动。在其他实施例中,负载115可在没有载体120的情况下直接安装到主体110上。可移动物体100还可包括感测系统125、与其他部件通信的控制器130、以及通信系统135。
可移动物体100可包括一个或多个(例如1、2、3、3、4、5、10、15、20等)推进装置105,推进装置105位于不同位置(例如,主体110的顶部、侧部、前部、后部和/或底部),用于推进和转向可移动物体100。推进装置105可以是可操作以生成用于维持受控飞行的力的装置或系统。推进装置105可共享或每一个可分别包括或可操作地连接到动力源(未示出),例如电机(例如电动机、液压马达、气动马达等)、引擎(例如内燃机、涡轮发动机等)、电池组等或其组合。在一些示例中,推进装置105还可包括一个或多个旋转部件(例如,包括转子、螺旋桨、叶片、喷嘴等),所述一个或多个旋转部件可驱动地连接到动力源并被配置为参与生成维持受控飞行的力。旋转部件可由轴、轮轴、轮、液压系统、气动系统、或被配置为从动力源传输动力的其他部件或系统驱动。推进装置105和/或旋转部件可相对于彼此和/或相对于主体110调整(例如倾斜)。可选地,推进装置105和旋转部件可相对于彼此和/或主体110具有固定的取向。在一些实施例中,每个推进装置105可以是相同类型的。在其他实施例中,推进装置105可以是不同类型的。在一些实施例中,所有推进装置105可以一致地控制(例如全部以相同的速度和/或角度)。在其他实施例中,一个或多个推进装置可以针对例如速度和/或角度独立控制。
推进装置105可被配置为沿一个或多个竖直和水平方向推进可移动物体100,并允许可移动物体100围绕一个或多个轴线旋转。也就是说,推进装置105可被配置为提供升力和/或推力,用于产生和保持可移动物体100的平移和旋转运动。例如,推进装置105可被配置为使可移动物体100能够实现并保持期望的高度、提供沿各个方向运动的推力、并提供可移动物体100的转向。在一些实施例中,推进装置105可以使可移动物体100能够执行垂直起飞和降落(即,没有水平推力的起飞和降落)。在其他实施例中,可移动物体100可能需要恒定的最小水平推力以实现和维持飞行。如下所述,推进装置105可被配置为使可移动物体100能够沿着和/或围绕多个轴线运动。
负载115可包括一个或多个感测装置,感测装置可包括用于收集或生成数据或信息的装置,例如测量、跟踪和捕捉目标(例如,物体、风景、照片或视频拍摄主题等)的图像或视频。负载115可包括被配置为生成图像的成像装置。例如,成像装置可包括照相机、摄像机、红外成像装置、紫外成像装置、x射线装置、超声成像装置、雷达装置等。负载115可以另外地或可选地包括捕捉音频数据的装置,例如麦克风或超声波检测器。负载115可以另外或可选地包括用于捕捉视觉、音频和/或电磁信号的其他合适的传感器。
载体120可包括被配置为固持负载115和/或允许负载115相对于主体110调整(例如旋转)的一个或多个装置。例如,载体120可以是云台。如下所述,载体120可以被被配置为允许负载115围绕一个或多个轴旋转。在一些实施例中,载体120可被配置为允许围绕每个轴线旋转360°以允许更有效地控制负载115的视角。在其他实施例中,载体120可将负载115围绕其一个或多个轴线的旋转范围限制为小于360°(例如,≤270°、≤210°、≤180°、≤120°、≤90°、≤45°、≤30°、≤15°等)。
载体120可包括框架组件145、一个或多个致动器构件150以及一个或多个载体传感器155。框架组件145可被配置为将负载115连接到主体110,并且在一些实施例中,允许负载115相对于主体110运动。在一些实施例中,框架组件145可包括一个或多个可相对彼此运动的子框架或部件。致动器构件150可被配置为驱动框架组件的部件相对彼此运动以提供负载115相对于主体110的平移和/或旋转运动。在其他实施例中,致动器构件150可被配置为直接作用于负载115上以使负载115相对于框架组件145和主体110运动。致动器构件150可包括电动机,该电动机被配置为提供线性或旋转运动至框架部件145和/或负载115的与轮轴、轴、导轨、皮带、链条、齿轮相结合的部件、和/或其他部件。
载体传感器155可包括被配置为测量、感测、检测或确定载体120和/或负载115的状态信息的装置。状态信息可包括位置信息(例如,相对位置、取向、姿态、线性位移、角位移等)、速度信息(例如线速度、角速度等)、加速度信息(例如,线性加速度、角加速度等),和/或与载体120或负载115相对于主体110的运动控制有关的其他信息。载体传感器155可包括一种或多种类型的合适的传感器,例如电位计、光学传感器、视觉传感器、磁性传感器、运动或旋转传感器(例如,陀螺仪、加速度计、惯性传感器等)。载体传感器155可关联于或附接至载体120的各个部件,例如框架组件145的部件、致动器构件150或主体110。载体传感器155可被配置为经由有线或无线连接(例如,RFID、蓝牙、Wi-Fi、无线电、蜂窝等)向控制器130传送数据和/或从控制器130接收数据。由载体传感器155生成并传送至控制器130的数据可由控制器130进一步处理。例如,控制器130可确定可移动物体100和/或目标的状态信息。
载体120可经由一个或多个减震元件连接到主体110,一个或多个减震元件被配置为减少或消除从主体110到负载115的不期望的冲击或其他力传递。减震元件可以是主动的、被动的或混合的(即具有主动的和被动的特征)。减震元件可由任何合适的材料或材料组合形成,包括固体、液体和气体。可压缩或可变形材料,例如橡胶、弹簧、凝胶、泡沫和/或其它材料,可用作减震元件。减震元件可用于隔离和/或消散从主体110到负载115的力传播。减震元件还可包括被配置为提供减震效果的机构或装置,例如,活塞、弹簧、液压装置、气动装置、缓冲器、减震器和/或其他装置或其组合。
感测系统125可包括与可移动装置装置100的一个或多个部件或其他系统相关联的一个或多个传感器。例如,感测系统可包括用于确定与可移动物体100和/或目标相关的位置信息、速度信息和加速度信息的传感器。在一些实施例中,感测系统125还可以包括载体传感器155。感测系统125的部件可被配置为生成可被使用(例如被控制器130或另一装置处理)以确定关于可移动物体100、其部件或其目标的附加信息的数据。感测系统125可包括用于感测可移动物体100的运动的一个或多个方面的一个或多个传感器。例如,感测系统125可包括与上述负载115相关联的感测装置和/或附加感测装置,例如用于定位系统(例如,GNSS,包括GPS、GLONASS、伽利略、北斗、GAGAN;RTK等)的接收器、运动传感器、惯性传感器(例如IMU传感器)、接近传感器、图像传感器、高度传感器(例如,气压计、激光测距仪等)、姿态传感器(例如,加速计、陀螺仪等)等。感测系统125还可包括传感器或被配置为提供与周围环境有关的数据或信息,例如,天气信息(例如,温度、压力、湿度等)、照明条件、空气成分或附近障碍物(例如物体、建筑物、人、其他载运工具等)。
控制器130可被配置为接收输入(例如来自感测系统125和/或通信系统135)并产生输出(例如,以控制推进装置105、负载115等,或以提供数据至感测系统125、通信系统135等)。控制器130可包括例如处理器的计算装置和存储器。存储器可存储指令以配置由处理器执行的模块。控制器130还可包括硬件,例如专用集成电路等,以进行处理输入并生成输出。下面参照图3更详细地描述控制器130。
通信系统135可被配置为实现控制器130和机外实体(例如终端)之间的数据、信息、命令和/或其他类型的信号的通信。通信系统135还可被配置为接收例如来自全球定时系统(例如,GNSS、原子钟、终端140等)的定时信息。通信系统135可包括被配置为发送和/或接收信号的一个或多个部件,例如被配置为执行单向或双向通信的接收器、发射器或收发器。通信系统135的部件可被配置为经由例如无线电、蜂窝、蓝牙、Wi-Fi、RFID等的一个或多个通信网络与机外实体通信。例如,通信系统135可被配置为实现设备之间的通信,用于提供用于在飞行期间控制可移动物体100的输入,例如遥控终端140。
终端140可被配置为接收输入,例如来自用户的输入(用户输入),并将指示输入的信号传送至控制器130。终端140可被配置为接收输入并生成指示一种或多种类型的信息的对应信号,例如用于移动或操纵可移动装置100(例如经由推进装置105)、负载115和/或载体120的控制数据(例如信号)。终端140还可被配置为从可移动物体100接收数据,例如与位置数据、速度数据、加速度数据、高度数据、姿态数据、传感数据有关的操作数据,和/或与部件和/或周围环境有关的其他数据。在一些实施例中,终端140可以是被配置为控制运动参数的具有实体杆的遥控器、或者具有用于相同目的的虚拟控制器的触摸屏装置(例如智能电话或平板电脑)、或者智能手机或桌面上的应用程序、或其组合。在其他实施例中,终端140显示从可移动物体100接收的数据(例如从相机拍摄的图像)。在一些实施例中,终端140可被配置为基于用户选择将坐标数据发送到可移动物体100。终端140可将数据传送至用户或其他远程系统,并从用户或其他远程系统接收数据。
图2示出了可与本公开相一致的实施例一起使用的示例性遥控终端(例如远程计算设备)200。终端200可以是电子装置,例如蜂窝电话、平板电脑、个人数字助理、笔记本电脑或其他装置;或者安装在控制塔或建筑物内的控制站。如图2所示,终端200可包括处理模块210、存储器模块220、通信模块230、输入装置240和输出装置250。
处理模块210可执行存储在软件中的计算机可执行指令并且可以是真实的或虚拟的处理器装置。在多处理系统中,多个处理单元执行计算机可执行指令以增强处理能力。
存储器模块220可以是易失性存储器(例如,寄存器、高速缓冲存储器、RAM)、非易失性存储器(例如,ROM、EEPROM、闪存等)、或两者的一些组合。存储器可存储实现用于终端200的计算机应用程序(例如app)的软件。例如,存储器可存储操作系统、实现从终端200向远程装置(例如可移动物体100)传输位置数据的软件。通常,操作系统软件为在计算环境中执行的其他软件提供操作环境,并且协调计算环境的部件的活动。存储器模块220可从终端200移除。
通信模块230可有助于终端200与例如可移动物体100的其他实体之间的信息通信。通信模块230可包括被配置为发送或接收信号的天线或其他装置。终端200还可包括一个或多个输入装置240,输入装置240被配置为接收输入(例如,来自用户和/或包括于或连接到终端200的传感器模块250),用于与可移动物体100通信。然而,应该理解,终端可能具有其他的实施例或布局并包含在本公开的范围内。
在一些实施例中,终端200可以具有多个输入装置240,输入装置240被配置为接收指示可移动物体100或其部件的期望运动的用户输入。在一些示例中,终端200可包括输入装置240,例如输入杆、按钮、触发器等。输入装置240可被配置为使用通信模块230生成信号以与可移动物体100通信。除运动控制输入外,输入装置240可用于接收其他信息,例如手动控制设置、自动控制设置、控制辅助设置。在一些实施例中,输入装置240可以是触摸敏感的,例如触摸屏。在一些示例中,输入装置240可允许用户通过在地图或图像上选择点来输入地图或图像上的坐标。
在一些实施例中,终端200还可包括被配置为显示和/或接收给和/或来自用户的信息的输出装置260。例如,终端200可被配置为接收来自移除装置的信号,这些信号可以指示与装置的运动有关的数据和/或由装置获取的数据(例如成像数据)。在一些实施例中,输出装置260可以是被配置为在多功能屏幕上显示信息以及经由多功能屏幕接收用户输入(例如触摸输入)的多功能显示装置。在另一实施例中,多功能屏幕可构成用于接收用户输入的唯一输入装置。
在一些实施例中,终端200可以是或包括用于接收一个或多个用户输入的交互式图形界面。终端200和/或输入装置240的图形版本可在输出装置260上显示,并且包括图形特征(例如,图形按钮、文本框、下拉菜单、交互式图像等)。例如,在一个实施例中,终端200可包括输入杆、按钮和触发器的图形表示,其可显示于多功能屏幕上并被配置为经由多功能屏幕接收用户输入。在一些实施例中,终端200可被配置为结合应用程序生成输入装置240的图形版本,以在任何合适的电子装置(例如,蜂窝电话、平板电脑等)的显示装置或多功能屏幕上提供交互式界面,用于接收用户输入。
在一些实施例中,输出装置260可以是终端200的集成部件。在其他实施例中,输出装置260可与终端200连接(和断开)。
图3示出了具有可移动物体310和基站320的示例性环境300。在一些实施例中,可移动物体310可配备有GNSS模块以在任何给定时间确定其位置。然而,已知的是,GNSS模块的精确度是有限的,并且可提供“米”数量级的位置精度。在一些实施例中,基站320也可配备GNSS模块以确定其位置。此外,在一些示例中,基站320的绝对位置可能是已知的。例如,可使用高准确的映射技术确定基站320的绝对位置。
通过使用基站320和可移动物体310中的GNSS模块,RTK可用于准确且精确地确定可移动物体310的绝对位置。通常,RTK是差分GNSS技术,其允许在基站附近(例如离基站10至20公里内)的精确位置确定。RTK使用GNSS载波的相位测量、模糊度分辨率和差分校正,以在确定可移动物体310的位置时提供厘米级精度。因为基站320的绝对位置可能是已知的,所以可以高精度(例如,亚米、或厘米以内)地知道可移动物体310的绝对位置。
RTK导航在要求无人机非常精确地飞行的情况下尤其有用。例如,可移动物体可能需要在农田上喷洒农药,在此情况下,它必须保持在农田的边界内,以便化学物质不会喷洒到边界外的另一农田上。在另一示例中,可移动物体可能接近建筑物墙壁的几米范围内以检查墙壁。在这些情况下,可移动物体需要精确的控制和准确的位置信息。
在一些示例中,可移动物体310可使用基站320的绝对位置和可移动物体310的计算位置(由RTK确定)来计算描述可移动物体310的位置的矢量330。
图4示出了可以与本公开的实施例一起使用的控制器400。如图1所示,控制器400可包括在可移动物体100中。如图4所示,控制器400可包括一个或多个部件,例如,存储器410、至少一个处理器420、转换模块430、GNSS模块440、高度模块450、姿态模块460和位置计算模块490。
存储器410可以是或包括非暂时性计算机可读介质,并且可包括非暂时性计算机可读介质的一个或多个存储器单元。存储器410的非暂时性计算机可读介质可以是或包括任何类型的磁盘,包括软盘、光盘、DVD、CD-ROM、微硬盘、和磁光盘、ROM、RAM、EPROM、EEPROM、DRAM、VRAM、闪存装置、磁卡或光卡、纳米系统(包括分子存储器IC)或适合于存储指令和/或数据的任何类型的介质或装置。存储器单元可包括非暂时性计算机可读介质(例如,可移除介质或外部存储器,如SD卡、RAM等)的永久和/或可移除部分。存储器410可从控制器400移除。
存储器410可存储从感测系统470获取的数据。存储器410还可被配置为存储处理器420可执行的逻辑、代码和/或程序指令,以执行本文所述方法的任何合适的实施例。例如,存储器410可被配置为存储计算机可读指令,所述计算机可读指令在由处理器420执行时使处理器执行包括一个或多个步骤的方法。由处理器基于存储在存储器410中的指令执行的方法可包括处理数据(例如存储于存储器410中的、接收自终端200的、接收自感测系统470的(例如直接从感测系统接收的或从存储器检索的)、和/或经由通信装置480接收的)。在一些实施例中,感测系统470可以与图1中的感测系统125相同。在一些实施例中,通信装置480可以与图1中的通信系统135相同。在一些实施例中,存储器410可用于存储处理器420生成的处理结果。
处理器420可包括一个或多个处理器装置并且可执行存储于存储器410的软件中的计算机可执行指令。处理器420可以是真实的或虚拟的处理器装置。在多处理系统中,多个处理单元执行计算机可执行指令以增强处理能力。处理器420可包括一个或多个处理器并且可体现为可编程处理器(例如中央处理单元(CPU))。处理器420可以可操作地耦接到存储器410或另一存储器装置。
在一些实施例中,处理器420可包括和/或可选地可操作地耦接到一个或多个控制模块,例如转换模块430、GNSS模块440、高度模块450和姿态模块460。
处理器420可以可操作地耦接到通信装置480并被配置为将数据发送到一个或多个外部设备(例如,终端200或其他遥控器)和/或从一个或多个外部设备(例如,终端200或其他遥控器)接收数据。例如,通信系统480可以利用局域网(LAN)、广域网(WAN)、红外线、无线电、Wi-Fi、点对点(P2P)网络、蜂窝网络、云通信等中的一个或多个。可选地,可以使用中继站,例如塔、卫星或移动站。无线通信可以是距离(proximity)依赖或距离独立的。在一些实施例中,视线可能需要或可能不需要通信。
控制器400的部件可以任何合适的配置布置。例如,控制器400可分布在可移动物体100的不同部分中(例如主体110、载体120、负载115、终端140、感测系统125或与上述一个或多个通信的附加外部装置)。在一些实施例中,一个或多个处理器或存储装置可位于可移动物体100的不同部分中。
转换模块430可被配置为将例如输入、命令和其他信号的信息从一个视角(例如,用户的视角、可移动物体的视角、二维地图或图像的视角等)转换到另一视角(例如,用户、可移动物体的另一视角,或另一视角)。转换模块430可通过矩阵变换进行两个视角之间的转换,例如通过构建用户输入的矩阵表示(即,就用户坐标系而言)并基于用户视角和可移动物体视角之间的偏差将该矩阵变换为用户输入的命令矩阵表示(即,就本地坐标系而言)。可以如同PCT申请号PCT/CN2016/074824(在此通过引用将其全部内容并入)中描述的那样实现所述转换。
控制器400可被配置为控制可移动物体的推进装置,以调节可移动物体相对于六个自由度(例如,上/下、前/后、左/右、偏航、横滚和俯仰)的空间布局、速度和/或加速度。在一些实施例中,控制器400可被配置为:识别航路点以及控制推进系统以将可移动物体维持在相对于航路点的固定位置和/或相对于航路点导航。
在一些实施例中,可移动物体可包括相机或视频器材作为负载。从负载获取的图像(例如通过感测系统470)可使用通信装置480发送到终端,在终端处用户可选择图像中的一个或多个点(例如,图像中用户希望可移动物体移动到的点)。在一些示例中,终端可分析图像并确定所选一个或多个点的坐标。坐标可以是二维的(例如,定义二维图像上的一个或多个点的位置的笛卡尔坐标系、极坐标系或其他坐标系)。定义坐标的数据可由通信装置480接收并发送至控制器400以进行进一步处理。在其他实施例中,控制器400可使用通信装置480将定义本地坐标系的数据发送到终端。终端可使用本地坐标系将所选的一个或多个点的二维坐标转换为相对于可移动物体的三维坐标。
与本公开的实施例相一致,如本领域中已知的,GNSS模块440可被配置为使用卫星跟踪技术(例如,RTK、GPS、GLONASS、伽利略和/或北斗)确定可移动物体的位置。
高度模块450可被配置为确定可移动物体的高度。高度模块450可与传感器交互以确定高度。传感器可通过感测系统470接合到控制器400。例如,高度可由GNSS系统、气压计、激光测距仪等确定。在一些实施例中,当可移动物体例如通过从相机拍摄图像观察其周围环境时,可确定可移动物体的高度。
姿态模块460可被配置为:例如相对于地面或其他一些表面,确定可移动物体和/或负载的姿态。在一些实施例中,可使用例如加速计、陀螺仪等的传感器确定可移动物体的姿态。传感器可通过感测系统470接合到控制器400。可移动物体的姿态可用于确定可移动物体和/或负载相较于表面的水平程度。例如,可确定可移动物体的俯仰、偏航和横滚。在一些实施例中,姿态模块460可以在可移动物体观察其周围环境时确定可移动物体的姿态,例如当可移动物体拍摄地面或其他表面的图像时。例如,可相对于相机正在拍摄的表面确定姿态。
位置计算模块490可被配置为确定可移动物体的绝对位置。在一些实施例中,位置计算模块490可使用RTK确定可移动物体的位置。在一些实施例中,位置计算模块490还可被配置为:相对于可移动物体的观察环境中的选定点的坐标,确定可移动物体的位置。例如,如下所述,可移动物体可确定可移动物体的观察环境中的选定点(例如,可移动物体拍摄的图像上的选定点的二维坐标)的三维坐标。例如,如图7和图8所示,转换模块430可将二维坐标转换为三维坐标。在一些实施例中,选定点的三维坐标(例如,相对于可移动物体的空间坐标)可由终端从二维坐标(例如,终端显示的图像上的坐标)确定并从终端接收。然后,位置计算模块490可计算从可移动物体的当前位置到选定点的矢量。实际上,转换模块430和位置计算模块490可以是单独的模块或组合成单个模块。
位置计算模块490可进一步被配置为确定选定点相对于基站的绝对位置。例如,位置计算模块490可确定表示可移动物体相对于基站的位置的矢量。位置计算模块490可使用矢量数学,例如,叠加从基站到可移动物体的矢量与从可移动物体到选定点的矢量。得到的矢量可表示选定点相对于基站的位置。
转换模块430、GNSS模型440、高度模块450、姿态模块460和位置计算模块490可在用在处理器320上执行的软件中实现,或者可在与处理器320分离的硬件和/或软件部件中实现。
图5示出了与本公开相一致的显示图像530的示例性显示器500。图像530可以是对可移动物体的周围环境的观察。图像530可由安装在可移动物体上的相机拍摄。如果可移动物体是无人机,则当无人机以相对于图像(例如,图像是地面的俯视图)中的表面的已知高度和已知姿态飞行时可以拍摄图像530并将其发送到终端以进行显示。例如,无人机可以悬停在一定高度并拍摄地面图像,同时还确定其相对于地面的高度和姿态(例如,俯仰、横滚和偏航)。图像可发送到终端以向用户显示。在一些实施例中,例如可移动物体的高度和姿态的位置信息可发送到终端。在一些实施例中,用户可以在显示的图像上选择一个点,例如指定一个航路点。
图像530可包括指示可移动物体的二维位置的表示510。表示510可以是图像530上的任何形状的光标、点或其他标识符或图标。可移动物体可基于相机的视场(FOV)、可移动物体的高度以及可移动物体和/或相机的姿态来确定其位置(例如,如果不需要姿态调整,则可移动物体的位置可以在图像的中心)。在其他示例中,可移动物体可将其高度和姿态(以及可选地相机的视场)发送到终端,并且终端可以计算可移动物体在图像530上的位置。在一些实施例中,如图7和8所示并如下所述,可移动物体的位置可以是图像的光轴的中心。
在一些示例中,用户可选择并指定图像530上的点520作为航路点。在其他示例中,图像识别算法可基于用户定义的准则分析图像并在图像530上选定点。例如,用户可能希望选择图像中显示的特定建筑物。用户可手动选择建筑物,或者可选地,例如输入地址,并且使用图像识别算法的终端可以确定地址在图像中的位置,并选择该地址处的建筑物。可以使用本领域已知的任何图像识别算法,例如,可以使用映射程序使用的算法。
终端可以确定选定点的二维位置。在一些实施例中,坐标可相对于可移动物体510的位置确定。例如,可以确定从可移动物体510到选定点520的像素距离。距离可能在笛卡尔坐标、极坐标或其他坐标系中。
图6示出了与本公开相一致的用于确定选定的航路点660的位置的示例性系统600。系统600包括具有带视场的成像装置的可移动物体610、基站620和终端650。在该示例中,用户可以选择和指定点660作为航路点。在一些实施例中,可移动物体610和基站620都包括GNSS模块,用于确定它们各自的位置。
如图6所示,可移动物体610可位于位置630(例如,对应于图5中的位置510)处。对应于图5中的位置520的点660可由用户通过使用终端650在图像640上选择。在一些实施例中,从基站620到可移动物体610的相对位置670可由RTK确定并可表示为矢量。从可移动物体610到点660的三维位置的相对位置680可通过基于可移动物体610的位置信息计算点660的空间位置确定并表示为矢量。
然后,可通过将表示相对位置670和相对位置680的两个矢量相加来确定从基站620到点660的相对位置690。因此,相对位置690给出了三维空间中的点660相对于基站620的绝对位置。实际上,然后可移动物体610可导航到由矢量690指示的三维位置。通过使用可移动物体610的位置630和点660的三维位置来间接确定相对位置690,可移动物体610可以更快速地计算航路点的精确位置并更精确地导航至航路点。
图7示出了与本公开的实施例相一致的用于从图像750确定位置的示例性环境700。如图所示,相机720可安装在可移动物体710上。在一些示例中,相机720可以是一些观察可移动物体710的周围环境的其他传感器。
相机720可具有由角度θ表示的视场(FOV)730,其指示图像可覆盖多大的角度。可移动物体710可使用相机720拍摄周围环境760的图像750。在一些实施例中,相机720可安装于载体(例如载体120)上,载体可调整相机相对于可移动物体710的角度。在一些示例中,载体可定位相机,使得光轴740位于图像750的中心并垂直于周围环境760(例如,无姿态调整)。周围环境760可以是地面、一些其他表面(例如,墙壁或其他垂直表面)或可移动物体710周围的任何可观察区域。图像750可具有以像素数计的特定图像传感器尺寸R,其确定图像的分辨率(例如,720x480、1280x720、1920x1080等)。需要注意的是,该图示出了图像750的一维横截面,以及插图755示出了二维的图像750。
在一些实施例中,如上所述,图像750可在终端上显示给用户。用户可在图像750上选择点770。因此,点770的二维坐标可以如下方式(图7假定可移动物体710的姿态使得图像750平行于周围环境760)转换为空间中的点780的三维坐标。
在图像750的每个维度中,可以以像素数确定距光轴740的距离D。每个像素可以具有取决于图像的分辨率的尺寸(例如,像素可以指示一定的厘米数)。可移动物体710的高度H可以如上所述确定(例如,利用高度模块)。因此,空间中的点780距光轴740的距离P可在每个维度(例如Px)中如下计算:
例如,可使用笛卡尔坐标x和y在两个维度上确定P,以生成Px和Py。Pz可由用户确定,设定为任意值,或设定为可移动物体710的高度等。由此,可从图像750计算空间中的点780相对于可移动物体710的已知位置的三维坐标。
在一些示例中,可以在可移动物体710中确定空间中的点780的坐标。例如,距离Dx和Dy可从终端发送到可移动物体710,使得可移动物体710可以计算空间中的点780的坐标。在其他示例中,可移动物体710可以将高度H和视场(FOV)730发送到终端,其中终端可以计算空间中的点780的坐标。
在一些实施例中,可移动物体710可在导航时拍摄多个二维图像。在一些示例中,在每次拍摄图像时,可将图像连同可移动物体710的位置信息(例如高度、姿态、位置等)发送到终端。终端可从多个二维图像中聚合图像并重建三维图像。三维图像可以显示给用户,并且用户可以选择三维空间中的点。在这样的情况下,x和y坐标可如上计算,并且z坐标可由用户从图像中确定。
图8示出了与本公开的实施例相一致的用于确定倾斜图像上的位置的示例性环境800。相机820可以安装在可移动物体810上。在该示例中,相机820和/或可移动物体810可相对于周围环境850偏斜,即不平行于周围环境850。
在该示例中,相机820具有视场(FOV)830(θ)以拍摄图像840。因为相机820可能是倾斜的,所以其光轴835可相对于垂直轴线880处于一个定向或倾斜角度845如上所述,定向角度845可由可移动物体810中的姿态模块确定。如图7所述,用户可在图像840上选择点860,图像840具有传感器图像尺寸R。需要再次注意的是,该图示出了图像840的一维的横截面,插图855示出了二维的图像840。图像840上的点860的二维坐标可以转换成空间中的点870的三维坐标。在图像840的每个维度中,可以以像素数确定距光轴835的距离D。可以如上所述地确定可移动物体810的高度H(例如,利用高度模块)。由此,空间中的点870距垂直轴线880的距离P可在每个维度中计算为:
例如,可使用笛卡尔坐标x和y在两个维度上确定P,以生成Px和Py。Pz可由用户确定,设定为任意值,设定为可移动物体的高度等。由此,可从图像840计算空间中的点870相对于可移动物体810的三维坐标。
图9示出了与本公开的实施例相一致的用于确定垂直表面上的航路点940的示例性环境900。如图9所示,像机915可以安装在可移动物体910上,可移动物体910可与基站920通信,使得可移动物体910可以使用RTK精确地确定(例如,达到厘米精度)其绝对位置。可移动物体910可以沿垂直表面930(例如,建筑物、墙壁等)运动并拍摄垂直表面930的一个或多个图像。可移动物体910可将一个或多个图像发送到终端。在一些示例中,可移动物体还可将位置信息发送给终端。用户可在垂直表面930的图像上选择点。航路点940可以如上针对图7和8的描述的那样从选定点确定(取决于相机915相对于垂直表面930的姿态)。然而,H可表示从可移动物体910到垂直表面930的水平距离,而不是高度。例如,可移动物体910可配备激光测距仪以确定从可移动物体910到垂直表面930的距离。
图10是与本公开的实施例相一致的示出可移动物体从第一位置导航到第二位置的示例性方法的流程图,其可由例如图1所示的系统100实现。本文所述的技术可以与不同的操作系统或硬件一起使用,并且可以应用于各种环境中以利用所描述的特征。
在可选步骤1010处,可移动物体可以接收一个或多个预定位置。例如,用户可以从终端上的低分辨率地图选择航路点并将航路点发送到可移动物体。低分辨率地图可以是具有低于可移动物体可能配备的相机的分辨率的分辨率的图像。可选地,一个或多个预定位置可以是预先编程的标准位置。例如,可移动物体可以接收预定高度以悬停于此。
在步骤1020处,可移动物体可导航至第一位置。第一位置可以是接收到的预定位置之一。可选地,用户可以使用终端识别第一位置并控制可移动物体移动到第一位置。
在步骤1030处,可移动物体可以观察周围环境。在一些实施例中,可移动物体可包括相机并可通过使用面向特定方向(例如地面或其他物体)的相机拍摄图像来观察周围环境。在一些实施例中,周围环境的观察可包括一个或多个预定位置。例如,如果预定位置是从低分辨率地图中选择的,则可移动物体可以导航到第一位置并拍摄包括那些地图坐标的图像。
在步骤1040处,可移动物体可获取位置信息。在一些实施例中,可移动物体可以使用RTK确定其在空间中的绝对位置。可移动物体还可例如通过使用GNSS、气压计、激光测距仪等确定其与观察的周围环境的高度和/或距离,并可例如通过使用陀螺仪、加速计等确定其相对于观察的周围环境的姿态(例如,横滚、俯仰和偏航)。可选地,如果相机相对于可移动物体不处于固定位置,则可以确定相机的姿态。例如,如果相机是倾斜的使得其与拍摄的物体表面不平行,则可以确定相机相对于该表面的姿态。
在步骤1050处,可移动物体可将周围环境的观察结果(例如图像)发送到终端(例如,远程装置或遥控器)。除图像之外,可移动物体还可将位置信息发送到终端。例如,可移动物体可以将地面图像或建筑物侧面的图像连同其绝对位置、高度和姿态一起发送到终端。在一些实施例中,终端可以被配置为将图像显示给用户并且接收用户对图像上的点的选择。终端可以进一步被配置为确定图像上的选定点的坐标并将坐标发送到可移动物体。
在步骤1060处,可移动物体可以从终端接收选定点的坐标。坐标可以是二维坐标,或者终端可以使用可选地接收的位置信息并且计算选定点的三维坐标。
在可选步骤1070处,可移动物体可基于接收到的二维坐标确定选定点的三维坐标。如上所述,可移动物体可以使用位置信息确定三维坐标。
在步骤1080处,可移动物体可以确定三维坐标相对于基站的位置。如上所述,可移动物体可以使用RTK确定从基站到第一位置的第一矢量,以及从第一位置到三维坐标的第二矢量。三维坐标相对于基站的位置可以计算为第一矢量和第二矢量的合成。通过使用合成矢量,可以确定第二位置(例如,航路点的绝对位置)。
在步骤1090处,可移动物体可从第一位置导航到第二位置。可移动物体可以在其导航时更新第二位置。例如,可移动物体可以使用RTK确定其当前位置,然后使用矢量数学确定第二位置。因为RTK仅用于确定可移动物体的当前位置,所以所述确定第二位置的过程极大地减少了确定第二位置所需的计算。
图11是与本公开的实施例相一致的示出确定航路点的示例性方法的流程图,其可例如在图2所示的终端上实现。
在步骤1110处,终端(例如远程装置)可以从可移动物体接收图像。例如,图像可接收自在空中飞行并用相机拍摄地面照片的无人机。在一些实施例中,终端还可从可移动物体接收位置信息。
在步骤1120处,终端可以使用用于向用户显示信息的显示屏向用户显示接收到的图像。终端可以在显示屏上向用户显示图像,并允许用户在图像上选择点。在一些示例中,可移动物体的位置也可以显示在图像上。
在步骤1130处,终端可以接收图像上的至少一个点的选择。在一些实施例中,用户可以直接在图像上选择至少一个点并指定可移动物体导航到的航路点。在一些实施例中,终端可以基于用户输入的信息自动选择至少一个点。例如,终端可以接收来自用户的输入,例如建筑物的地址或输入终端的位置,而不是选择图像上的点。终端可以分析图像并在图像上确定与地址匹配的点。终端可以指定该点为航路点。
在步骤1140处,终端可以确定在图像上选择的至少一个点的坐标。在一些实施例中,坐标可以是二维坐标并且如上所述地确定。如上所述,如果终端从可移动物体接收到位置信息,则它可以计算点相对于可移动物体的三维坐标。
在步骤1150处,终端可以将确定的坐标发送至可移动物体。
图12示出了与本公开的实施例相一致的形成虚拟墙的示例性系统1200。如图1所示,可移动物体1210可以在区域1220中导航。可移动物体1210可以观察其周围环境(例如,拍摄地面或其他表面的图像,如建筑物的墙壁或侧面),并将观察结果(例如图像)发送到终端(未示出)。终端可以显示图像并且例如从用户接收图像上的至少两个点1230和1240的选择。如上所述,终端可以确定图像上的选定点的坐标并将坐标发送到可移动物体1210。
在一些实施例中,用户可以在图像上指定一条线(例如在两点之间画线)或在图像上绘制封闭区域(未示出)。终端可以通过例如将线细分为直线段来确定线的连续坐标,其中每一直线段都位于两点之间。然后终端可以确定每个点的坐标。终端可以将点的坐标发送到可移动物体1210。
如上所述,可移动物体1210可以确定或接收所接收点的三维坐标。接收点的绝对位置可以如上所述通过矢量数学确定。
在一些实施例中,可移动物体可以通过连接所有选定点来形成虚拟墙1250,使得可移动物体1210不可以从这些点之间穿过。换言之,这些点可以限定“禁止进入”或“禁飞”区。
在一些实施例中,虚拟墙1250的高度可以由用户调整。例如,虚拟墙1250可以从用户可调高度处开始并向上延伸。在其他示例中,虚拟墙1250可以从地面延伸并停在用户可调高度处。仍然在其他示例中,虚拟墙1250可以从地面向上延伸。
本公开的实施例可以实现计算机可执行指令,例如那些包括在程序模块中并在目标真实或虚拟的处理器装置上的计算环境中执行的指令。程序模块可包括执行特定的任务或实现特定的抽象数据类型的例程、程序、库、物体、类、部件、数据结构等。程序模块的功能可以在各种实施例中根据需要在程序模块之间组合或拆分。如上所述,程序模块的计算机可执行指令可以在处理单元中执行。
示例实施例的各种操作或功能可以实现为软件代码或指令。这些内容可以是可直接执行(“对象(object)”或“可执行”形式)的、源代码、或差异代码(“增量”或“补丁”代码)。本文所述的实施例的软件实现可以通过其上存储有代码或指令的制造品提供,或者通过操作通信接口以通过通信接口发送数据的方法提供。机器或计算机可读存储装置可以使机器执行所述功能或操作,并包括以机器(例如,计算装置、电子系统等)可访问的有形形式存储信息的任何机构,例如可记录/不可记录介质(例如,只读存储器(ROM)、随机存取存储器(RAM)、磁盘存储介质、光存储介质、闪存装置等)。计算机可读存储装置以非暂时方式存储计算机可读指令,并且本身不包括信号。
本文所述的技术在控制可移动物体运动的领域中具有许多优点。例如,用户可通过在高分辨率图像上选择它们的位置来精确指定航路点位置。用户可使用当前图像数据改变航路点,并且可移动物体可快速并准确地计算新的航路点位置。在一些示例中,可移动物体可能需要精确的导航路径,例如当在农场分散杀虫剂时。通过使用所述的系统和方法,可移动物体可在航路点之间精确导航,而不会将杀虫剂散布到不需要的区域。当由可移动物体捕捉的图像对比度低和/或总体平滑时,所公开的特征特别有用。在这种情况下,可移动物体不能通过使用图像中的特征识别进行导航。因此,在一些实施例中,终端可确定获取图像中的平滑度或对比度值。如果该值小于预定值,则可使用如本文所述的导航。在其他实施例中,不管该值如何,可以使用如本文所述的导航。
如本文所述,实施例的各方面和本文所述的任何方法可通过计算机可执行指令执行,计算机可执行指令存储在一个或多个计算机可读介质(存储或其他有形介质)中或存储在一个或多个计算机可读存储装置中。计算机可执行指令可组织为一个或多个计算机可执行部件或模块。实施例的各个方面可以用这些部件或模块的任何数量和组织实现。例如,本公开实施例的各个方面不限于附图中示出和本文所述的特定计算机可执行指令或特定部件或模块。其他实施例可包括具有比本文示出和描述的更多或更少功能的不同计算机可执行指令或部件。
除非另有说明,本文示出和描述的本公开的实施例中的执行顺序或操作表现不是必需的。也就是说,除非另有说明,可以任意顺序执行所述操作,并且实施例可包括比本文公开的更多或更少的操作。例如,考虑在另一操作之前、同时或之后执行或进行特定操作落入本公开实施例的各个方面的范围内。
尽管已经详细描述了本公开的实施例,但是显而易见的是,在不脱离所附权利要求限定的各方面范围的情况下可能做出修改和变化。例如,所示实施例的元件可以用软件和/或硬件实现。此外,来自任何实施例或示例的技术可与任何个或多个其他实施例或示例中描述的技术组合。鉴于可应用所公开技术的原理的许多可能的实施例,应该认识到,所示出的实施例是所公开的技术的示例,并且不应视为对所公开技术的范围的限制。因此,包含在以上描述中的和在附图中示出的所有内容应解释为说明性的而不是限制性的。

Claims (48)

1.一种用于可移动物体的方法,包括:
导航到第一位置;
观察可移动物体的周围环境;
识别周围环境中的第二位置;和
计算第二位置的相对位置。
2.根据权利要求1所述的方法,还包括从第一位置导航到第二位置。
3.根据权利要求1所述的方法,其中,观察周围环境包括拍摄表面的图像。
4.根据权利要求1所述的方法,其中,识别第二位置包括:
发送图像到被配置为向用户显示图像的远程装置;和
从远程装置接收图像上的点的选择。
5.根据权利要求1所述的方法,其中,计算第二位置的相对位置包括:
确定图像上的选定点的坐标;
将坐标转换为可移动物体坐标;
确定从第一位置到可移动物体坐标的相对矢量;
确定从可移动物体到基站的相对矢量;
确定从基站到可移动物体的合成矢量,其中合成矢量指示第二位置。
6.根据权利要求1所述的方法,还包括:将周围环境的图像发送到远程装置并从远程装置接收图像上的选定点。
7.根据权利要求1所述的方法,其中,第一位置从比观察的周围环境更低分辨率的地图中选择。
8.根据权利要求1所述的方法,其中,观察周围环境包括拍摄多个图像,以及计算相对位置包括:聚合多个图像以形成三维表示,并确定三维地图坐标。
9.根据权利要求1所述的方法,其中,周围环境包括比预定值更平滑的结构。
10.根据权利要求1所述的方法,其中,周围环境包括可移动物体下方的地球图像。
11.一种用于导航的系统,包括:
可移动物体,
其中处于第一位置的可移动物体被配置为基于图像上的选定点确定第二位置。
12.根据权利要求11所述的系统,其中,可移动物体还被配置为:
确定图像上选定点的三维坐标;
确定从基站到第一位置的第一相对矢量;
确定从第一位置到三维坐标的第二相对矢量;和
从第一矢量和第二矢量计算合成矢量,
其中第二位置基于所述合成矢量。
13.根据权利要求11所述的系统,还包括附接至可移动物体的相机,其中可移动物体被配置为拍摄表面的图像。
14.根据权利要求11所述的系统,还包括被配置为发送和接收来自可移动物体的数据的遥控器。
15.根据权利要求14所述的系统,其中,可移动物体被配置为将图像发送到遥控器并且基于图像上的选定点从遥控器接收坐标。
16.根据权利要求15所述的系统,其中,遥控器被配置为显示图像并从用户接收图像上的选定点。
17.根据权利要求16所述的系统,其中,遥控器还被配置为将图像上选定点的坐标转换为相对于可移动物体的坐标。
18.根据权利要求11所述的系统,其中,可移动物体被配置为从第一位置导航到第二位置。
19.一种可移动物体的方法,包括:
接收从地图选择的一个或多个预定坐标;
导航到一个或多个预定坐标中的第一坐标;
观察包括一个或多个预定坐标中的至少一个坐标的周围环境;
接收坐标,所述坐标指示周围环境中的点;
确定从基站到一个或多个预定坐标中的第一坐标的第一矢量;
确定从一个或多个预定坐标中的第一坐标到指示周围环境中的点的坐标的第二矢量;和
从一个或多个预定坐标中的第一坐标导航到基于第一矢量和第二矢量的合成矢量的坐标。
20.根据权利要求19所述的方法,还包括将周围环境的图像发送到遥控器,遥控器被配置为向用户显示图像、接收图像上的点的选择并确定选定点的地图坐标。
21.根据权利要求20所述的方法,其中,遥控器还被配置为将地图坐标转换为相对于可移动物体的坐标。
22.根据权利要求21所述的方法,其中,遥控器还被配置为将坐标发送到可移动物体。
23.一种可移动物体的方法,包括:
拍摄图像;
发送图像到遥控器;
从遥控器接收图像上的两个或多个选定点的二维坐标;和
基于图像上的两个或多个选定点的二维坐标计算虚拟墙,
其中可移动物体被配置为不穿越虚拟墙。
24.根据权利要求23所述的方法,其中,计算虚拟墙包括:
将每个二维坐标转换为相对于可移动物体的三维坐标;
确定从基站到可移动物体的当前位置的第一矢量;
确定从可移动物体的当前位置到三维坐标的第一坐标的第二矢量;
基于第一矢量和第二矢量计算第一合成矢量;
确定从可移动物体的当前位置到三维坐标的第二坐标的第三矢量;
基于第一矢量和第三矢量计算第二合成矢量;
分别基于第一合成矢量和第二合成矢量确定三维坐标中的第一坐标和第二坐标的第一位置和第二位置;和
计算第一位置和第二位置之间的线。
25.一种用于限制运动的系统,包括:
可移动物体;
其中可移动物体被配置为拍摄表面的图像并确定图像上的第一点的第一位置和图像上的第二点的第二位置,并且可移动物体还被配置为不穿越由第一位置和第二位置确定的虚拟围栏。
26.根据权利要求25所述的系统,其中,可移动物体被配置为通过确定从基站到可移动物体的第一矢量以及从可移动物体到图像上的第一点的第二矢量来确定第一位置。
27.根据权利要求25所述的系统,其中,可移动物体被配置为通过确定从基站到可移动物体的第一矢量以及从可移动物体到图像上的第二点的第二矢量来确定第二位置。
28.根据权利要求25所述的系统,其中,可移动物体被配置为:通过计算位置之间的坐标的线,从第一位置和第二位置生成虚拟墙。
29.根据权利要求25所述的系统,其中,可移动物体被配置为将图像发送到远程装置,并从远程装置接收图像上的第一点和第二点。
30.一种选择航路点的方法,包括:
接收从可移动物体拍摄的图像;
将图像显示给用户;
接收图像上的至少一个点的选择;
确定选定点的图像坐标;和
将坐标发送到可移动物体。
31.根据权利要求30所述的方法,还包括将图像坐标转换为相对于可移动物体的坐标。
32.一种存储指令的非暂时性计算机可读介质,所述指令在被执行时使可移动物体执行方法,所述方法包括:
导航到第一位置;
观察可移动物体的周围环境;
识别周围环境中的第二位置;
计算第二位置的相对位置;和
从第一位置导航到第二位置。
33.根据权利要求32所述的非暂时性计算机可读介质,其中,观察周围环境包括拍摄表面的图像。
34.根据权利要求32所述的非暂时性计算机可读介质,其中,识别第二位置包括:
将图像发送到被配置为向用户显示图像的远程装置;和
从远程装置接收图像上的点的选择。
35.根据权利要求32所述的非暂时性计算机可读介质,其中,计算第二位置的相对位置包括:
确定图像上的选定点的地图坐标;
将地图坐标转换为可移动物体坐标;
确定从第一位置到可移动物体坐标的相对矢量;
确定从可移动物体到基站的相对矢量;
确定从基站到可移动物体坐标的合成矢量,其中合成矢量指示第二位置。
36.根据权利要求32所述的非暂时性计算机可读介质,其中,所述方法还包括:将周围环境的图像发送到远程装置并从远程装置接收图像上的选定点。
37.根据权利要求32所述的非暂时性计算机可读介质,其中,第一位置从比观察的周围环境更低分辨率的地图中选择。
38.根据权利要求32所述的非暂时性计算机可读介质,其中,观察周围环境包括拍摄多个图像,以及计算相对位置包括:聚合多个图像以形成三维表示,并确定三维地图坐标。
39.根据权利要求32所述的非暂时性计算机可读介质,其中,周围环境包括比预定值更平滑的结构。
40.根据权利要求32所述的非暂时性计算机可读介质,其中,周围环境包括可移动物体下方的地球图像。
41.一种存储指令的非暂时性计算机可读介质,所述指令在被执行时使可移动物体执行方法,所述方法包括:
接收从地图选择的一个或多个预定坐标;
导航到一个或多个预定坐标中的第一坐标;
观察包括一个或多个预定坐标中的至少一个坐标的周围环境;
接收坐标,所述坐标指示周围环境中的一个点;
确定从所述一个或多个预定坐标中的第一坐标到基站的第一矢量;
确定从所述坐标到一个或多个预定坐标中的第一坐标的第二矢量;和
从一个或多个预定坐标中的第一坐标导航到基于第一矢量和第二矢量的合成矢量的坐标。
42.根据权利要求41所述的非暂时性计算机可读介质,其中,所述方法还包括将周围环境的图像发送到遥控器,遥控器被配置为向用户显示图像、接收图像上的点的选择、并确定选定点的地图坐标。
43.根据权利要求42所述的非暂时性计算机可读介质,其中,遥控器还被配置为将地图坐标转换为相对于可移动物体的坐标。
44.根据权利要求43所述的非暂时性计算机可读介质,其中,遥控器还被配置为将坐标发送到可移动物体。
45.一种存储指令的非暂时性计算机可读介质,所述指令在被执行时使可移动物体执行方法,所述方法包括:
拍摄图像;
发送图像到遥控器;
从遥控器接收图像上的两个或多个选定点的二维坐标;和
基于图像上的两个或多个选定点的二维坐标计算虚拟墙,
其中可移动物体被配置为不穿越虚拟墙。
46.根据权利要求45所述的非暂时性计算机可读介质,其中,计算虚拟墙包括:
将每个二维坐标转换为相对于可移动物体的三维坐标;
确定从基站到可移动物体的当前位置的第一矢量;
确定从可移动物体的当前位置到三维坐标的第一坐标的第二矢量;
基于第一矢量和第二矢量计算第一合成矢量;
确定从可移动物体的当前位置到三维坐标的第二坐标的第三矢量;
基于第一矢量和第三矢量计算第二合成矢量;
基于第一合成矢量和第二合成矢量分别确定三维坐标中的第一坐标和第二坐标的位置;和
计算第一位置和第二位置之间的线。
47.一种存储指令的非暂时性计算机可读介质,所述指令在被执行时使装置执行方法,所述方法包括:
接收从可移动物体拍摄的图像;
将图像显示给用户;
接收对图像上的至少一个点的选择;
确定选择的点的图像坐标;和
将坐标发送到可移动物体。
48.根据权利要求47所述的非暂时性计算机可读介质,其中,所述方法还包括将图像坐标转换为相对于可移动物体的坐标。
CN201680088193.8A 2016-08-05 2016-08-05 用于定位可移动物体的系统和方法 Active CN109564434B (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2016/093641 WO2018023736A1 (en) 2016-08-05 2016-08-05 System and method for positioning a movable object

Publications (2)

Publication Number Publication Date
CN109564434A true CN109564434A (zh) 2019-04-02
CN109564434B CN109564434B (zh) 2023-07-25

Family

ID=61073236

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201680088193.8A Active CN109564434B (zh) 2016-08-05 2016-08-05 用于定位可移动物体的系统和方法

Country Status (3)

Country Link
US (1) US10983535B2 (zh)
CN (1) CN109564434B (zh)
WO (1) WO2018023736A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114143580A (zh) * 2020-09-03 2022-03-04 青岛海信电子产业控股股份有限公司 一种显示设备及手柄操控图案显示方法

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109648568B (zh) * 2019-01-30 2022-01-04 深圳镁伽科技有限公司 机器人控制方法、系统及存储介质
US11479357B1 (en) * 2019-03-15 2022-10-25 Alarm.Com Incorporated Perspective angle acquisition and adjustment of security camera drone
CN110706447B (zh) * 2019-10-14 2022-05-03 浙江大华技术股份有限公司 灾情位置的确定方法、装置、存储介质及电子装置
DE102019218180A1 (de) * 2019-11-25 2021-05-27 Robert Bosch Gmbh Verfahren und System zum Zuordnen von Koordinaten
JP6829513B1 (ja) * 2020-04-03 2021-02-10 株式会社センシンロボティクス 位置算出方法及び情報処理システム
WO2022031464A1 (en) * 2020-08-04 2022-02-10 Qualcomm Incorporated Location support for a wireless aerial mobile device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103941748A (zh) * 2014-04-29 2014-07-23 百度在线网络技术(北京)有限公司 自主导航方法及系统和地图建模方法及系统
CN105573339A (zh) * 2016-01-16 2016-05-11 深圳先进技术研究院 一种基于旋翼飞艇的导航飞行系统
CN105678289A (zh) * 2016-03-07 2016-06-15 谭圆圆 一种无人飞行器的控制方法及装置
US20160200438A1 (en) * 2015-01-09 2016-07-14 Workhorse Group Inc. Package delivery by means of an automated multi-copter uas/uav dispatched from a conventional delivery vehicle
CN205405268U (zh) * 2016-03-03 2016-07-27 谭圆圆 一种无人飞行器的控制设备

Family Cites Families (63)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2119699A1 (en) * 1993-08-19 1995-02-20 Keishi Matsuno Method of and apparatus for determining position of mobile object and mobile radio communication system using the same
US5625576A (en) * 1993-10-01 1997-04-29 Massachusetts Institute Of Technology Force reflecting haptic interface
US5988862A (en) * 1996-04-24 1999-11-23 Cyra Technologies, Inc. Integrated system for quickly and accurately imaging and modeling three dimensional objects
US8965677B2 (en) * 1998-10-22 2015-02-24 Intelligent Technologies International, Inc. Intra-vehicle information conveyance system and method
US6067077A (en) * 1998-04-10 2000-05-23 Immersion Corporation Position sensing for force feedback devices
US6822648B2 (en) * 2001-04-17 2004-11-23 Information Decision Technologies, Llc Method for occlusion of movable objects and people in augmented reality scenes
US6741364B2 (en) * 2002-08-13 2004-05-25 Harris Corporation Apparatus for determining relative positioning of objects and related methods
KR100520166B1 (ko) * 2003-03-14 2005-10-10 삼성전자주식회사 네비게이션시스템에서 이동체의 위치검출장치 및 그 방법
US6905091B2 (en) * 2003-07-14 2005-06-14 Supersonic Aerospace International, Llc System and method for controlling the acoustic signature of a device
JP4253239B2 (ja) 2003-10-07 2009-04-08 富士重工業株式会社 画像認識を用いた航法装置
US7542834B2 (en) * 2003-10-17 2009-06-02 Panasonic Corporation Mobile unit motion calculating method, apparatus and navigation system
US9750425B2 (en) * 2004-03-23 2017-09-05 Dune Medical Devices Ltd. Graphical user interfaces (GUI), methods and apparatus for data presentation
US7512462B2 (en) * 2004-11-16 2009-03-31 Northrop Grumman Corporation Automatic contingency generator
US7509212B2 (en) * 2005-01-24 2009-03-24 International Business Machines Corporation Enabling services on a UAV
US7634155B2 (en) * 2005-01-31 2009-12-15 Caterpillar Inc. Hybrid optical cylinder position sensor
US7565029B2 (en) * 2005-07-08 2009-07-21 Seiko Epson Corporation Method for determining camera position from two-dimensional images that form a panorama
DE102006005044B4 (de) * 2006-02-03 2011-01-27 Metaio Gmbh Verfahren und System zur Bestimmung eines Datenmodells zur Überlagerung mit einem realen Objekt in einem Verfahren zur Objektverfolgung
US7795861B2 (en) * 2006-05-02 2010-09-14 Cairos Technologies Ag Method and apparatus for controlling a movable object for localization within a positioning area
US8433157B2 (en) * 2006-05-04 2013-04-30 Thomson Licensing System and method for three-dimensional object reconstruction from two-dimensional images
US7352149B2 (en) * 2006-08-29 2008-04-01 Asml Netherlands B.V. Method for controlling the position of a movable object, a positioning system, and a lithographic apparatus
JP2008186145A (ja) 2007-01-29 2008-08-14 Mitsubishi Electric Corp 空撮画像処理装置および空撮画像処理方法
JP5663304B2 (ja) * 2007-06-27 2015-02-04 ブルックス オートメーション インコーポレイテッド 多次元位置センサ
JP5300333B2 (ja) 2008-06-05 2013-09-25 三菱電機株式会社 測位装置、測位方法及び測位プログラム
WO2010022274A1 (en) * 2008-08-20 2010-02-25 Esther Finale LLC Data packet generator for generating passcodes
SE1050763A1 (sv) * 2010-07-08 2010-07-12 Abb Research Ltd En metod för att kalibrera en mobil robot
DE102010031629B4 (de) * 2010-07-21 2015-06-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. System und Verfahren zum Ermitteln einer Position eines beweglichen Objekts, Anordnung von Allgemeinbeleuchtungs-LED und Lichtsensor für eine Positionsermittlung eines beweglichen Objekts
US20120026034A1 (en) * 2010-08-02 2012-02-02 Honda Motor Co., Ltd. Position calculation method and apparatus with gps
JP5690539B2 (ja) 2010-09-28 2015-03-25 株式会社トプコン 自動離着陸システム
JP5618840B2 (ja) 2011-01-04 2014-11-05 株式会社トプコン 飛行体の飛行制御システム
US8843248B1 (en) * 2011-04-19 2014-09-23 Lockheed Martin Corporation Vehicle boundary management
US9132913B1 (en) * 2013-09-26 2015-09-15 Rockwell Collins, Inc. Simplified auto-flight system coupled with a touchscreen flight control panel
ES2656868T3 (es) * 2011-10-05 2018-02-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Dispositivo portátil, sistema y método de realidad virtual
JP6122591B2 (ja) 2012-08-24 2017-04-26 株式会社トプコン 写真測量用カメラ及び航空写真装置
FR2995120B1 (fr) * 2012-09-05 2015-09-18 Dassault Aviat Systeme et procede de commande de la position d'un objet deplacable sur un dispositif de visualisation
JP6151902B2 (ja) 2012-09-20 2017-06-21 株式会社トプコン 写真計測用カメラ及び航空写真装置
JP6055274B2 (ja) 2012-10-31 2016-12-27 株式会社トプコン 航空写真測定方法及び航空写真測定システム
US8798922B2 (en) * 2012-11-16 2014-08-05 The Boeing Company Determination of flight path for unmanned aircraft in event of in-flight contingency
US9075415B2 (en) * 2013-03-11 2015-07-07 Airphrame, Inc. Unmanned aerial vehicle and methods for controlling same
WO2015157883A1 (en) * 2014-04-17 2015-10-22 SZ DJI Technology Co., Ltd. Flight control for flight-restricted regions
US9971354B2 (en) * 2014-06-10 2018-05-15 Sikorsky Aircraft Corporation Tail-sitter flight management system
CN107534724B (zh) * 2015-04-20 2020-09-04 深圳市大疆创新科技有限公司 成像系统
EP3353706A4 (en) * 2015-09-15 2019-05-08 SZ DJI Technology Co., Ltd. SYSTEM AND METHOD FOR MONITORING UNIFORM TARGET TRACKING
EP3350622A4 (en) * 2015-09-16 2018-10-10 SZ DJI Technology Co., Ltd. Systems and methods for positioning of uav
CN108027492B (zh) * 2015-10-23 2021-02-09 深圳市大疆创新科技有限公司 成像系统
WO2017093453A1 (en) * 2015-12-03 2017-06-08 Trinamix Gmbh Detector for optically detecting at least one object
WO2017096547A1 (en) * 2015-12-09 2017-06-15 SZ DJI Technology Co., Ltd. Systems and methods for uav flight control
US10922542B2 (en) * 2016-03-01 2021-02-16 SZ DJI Technology Co., Ltd. System and method for identifying target objects
CN105676865B (zh) * 2016-04-12 2018-11-16 北京博瑞云飞科技发展有限公司 目标跟踪方法、装置和系统
WO2017214858A1 (en) * 2016-06-14 2017-12-21 SZ DJI Technology Co., Ltd. Pre-determining uav attitude changes based on commanded component movements, and associated systems and methods
CN112838731B (zh) * 2016-06-21 2022-06-21 深圳市大疆创新科技有限公司 具有倾斜螺旋桨的无人机以及相关系统和方法
WO2018032415A1 (en) * 2016-08-17 2018-02-22 SZ DJI Technology Co., Ltd. Systems and methods for operating unmanned aerial vehicles
JP6114865B1 (ja) * 2016-08-17 2017-04-12 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 移動体、移動体の制御方法、及びプログラム
FR3049067A1 (fr) * 2016-08-26 2017-09-22 Commissariat Energie Atomique Procede d’obtention d’au moins un temps de vol de reference representatif d’un trajet direct d’un signal
JP6383769B2 (ja) * 2016-09-08 2018-08-29 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 無人飛行体、情報処理装置、及び記録媒体
JP6501080B2 (ja) * 2016-10-12 2019-04-17 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 無人航空機、無人航空機の制御方法及びプログラム
WO2018073879A1 (ja) * 2016-10-17 2018-04-26 エスゼット ディージェイアイ テクノロジー カンパニー リミテッド 飛行経路生成方法、飛行経路生成システム、飛行体、プログラム、及び記録媒体
WO2018073878A1 (ja) * 2016-10-17 2018-04-26 エスゼット ディージェイアイ テクノロジー カンパニー リミテッド 3次元形状推定方法、3次元形状推定システム、飛行体、プログラム、及び記録媒体
KR102484739B1 (ko) * 2016-11-17 2023-01-05 트리나미엑스 게엠베하 적어도 하나의 대상체를 광학적으로 검출하기 위한 검출기
EP3385747B1 (en) * 2017-04-05 2021-03-31 Axis AB Method, device and system for mapping position detections to a graphical representation
JP6765512B2 (ja) * 2017-04-20 2020-10-07 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 飛行経路生成方法、情報処理装置、飛行経路生成システム、プログラム及び記録媒体
JP6817422B2 (ja) * 2017-04-27 2021-01-20 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 情報処理装置、空撮経路生成方法、空撮経路生成システム、プログラム、及び記録媒体
CN114397903A (zh) * 2017-05-24 2022-04-26 深圳市大疆创新科技有限公司 一种导航处理方法及控制设备
EP3465618B1 (en) * 2017-08-25 2021-06-09 Chris Hsinlai Liu Machine vision system and method for identifying locations of target elements

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103941748A (zh) * 2014-04-29 2014-07-23 百度在线网络技术(北京)有限公司 自主导航方法及系统和地图建模方法及系统
US20160200438A1 (en) * 2015-01-09 2016-07-14 Workhorse Group Inc. Package delivery by means of an automated multi-copter uas/uav dispatched from a conventional delivery vehicle
CN105573339A (zh) * 2016-01-16 2016-05-11 深圳先进技术研究院 一种基于旋翼飞艇的导航飞行系统
CN205405268U (zh) * 2016-03-03 2016-07-27 谭圆圆 一种无人飞行器的控制设备
CN105678289A (zh) * 2016-03-07 2016-06-15 谭圆圆 一种无人飞行器的控制方法及装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114143580A (zh) * 2020-09-03 2022-03-04 青岛海信电子产业控股股份有限公司 一种显示设备及手柄操控图案显示方法
CN114143580B (zh) * 2020-09-03 2024-05-17 青岛海信电子产业控股股份有限公司 一种显示设备及手柄操控图案显示方法

Also Published As

Publication number Publication date
US10983535B2 (en) 2021-04-20
WO2018023736A1 (en) 2018-02-08
CN109564434B (zh) 2023-07-25
US20190179346A1 (en) 2019-06-13

Similar Documents

Publication Publication Date Title
US20210116944A1 (en) Systems and methods for uav path planning and control
US20210072745A1 (en) Systems and methods for uav flight control
CN108139759B (zh) 用于无人飞行器路径规划和控制的系统和方法
CN109564434A (zh) 用于定位可移动物体的系统和方法
CN104854428B (zh) 传感器融合
CN109196441A (zh) 用于协调设备动作的系统和方法
CN109478070A (zh) 障碍物识别和避让方法和系统
WO2018193574A1 (ja) 飛行経路生成方法、情報処理装置、飛行経路生成システム、プログラム及び記録媒体
US11768487B2 (en) Motion tracking interface for planning travel path
US20190324448A1 (en) Remote steering of an unmanned aerial vehicle
US20200221056A1 (en) Systems and methods for processing and displaying image data based on attitude information
CN110023716A (zh) 用于控制无人飞行器的方法和设备
CN111213107B (zh) 信息处理装置、拍摄控制方法、程序以及记录介质
JP7004374B1 (ja) 移動体の移動経路生成方法及びプログラム、管理サーバ、管理システム
JP7072311B1 (ja) 移動体の移動経路生成方法及びプログラム、管理サーバ、管理システム
Alabay Coordinated target detection and tracking by drones using distance and vision
Troncho Jordán A Prospective Geoinformatics Approach to Indoor Navigation for Unmanned Air System (UAS) by use of Quick Response (QR) codes

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant