CN112082542A - 数字模型校正 - Google Patents

数字模型校正 Download PDF

Info

Publication number
CN112082542A
CN112082542A CN202010532771.0A CN202010532771A CN112082542A CN 112082542 A CN112082542 A CN 112082542A CN 202010532771 A CN202010532771 A CN 202010532771A CN 112082542 A CN112082542 A CN 112082542A
Authority
CN
China
Prior art keywords
robot
data
area
navigable
actuating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010532771.0A
Other languages
English (en)
Inventor
尚卡尔·纳拉扬·默汉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ford Global Technologies LLC
Original Assignee
Ford Global Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ford Global Technologies LLC filed Critical Ford Global Technologies LLC
Publication of CN112082542A publication Critical patent/CN112082542A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0094Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0219Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory ensuring the processing of the whole working surface
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)

Abstract

本公开提供了“数字模型校正”。一种系统包括计算机,所述计算机包括处理器和存储指令的存储器,所述指令可由所述处理器执行以将区域的所存储地图分解成多个多边形子区域。所述指令包括用于根据漏球算法在所述多边形子区域中生成一组目标位置的指令。所述指令包括用于致动机器人以移动到所述一组的所述目标位置中的第一目标位置的指令。所述指令包括用于致动传感器以在所述目标位置中的所述第一目标位置处收集数据的指令。

Description

数字模型校正
技术领域
本公开总体涉及车辆导航,并且更特别地涉及使用机器人来辅助车辆导航。
背景技术
可在区域中部署无人驾驶车辆或机器人以获得关于区域的数据(例如,地图数据)和关于区域中对象的数据。然而,关于此类机器人的操作存在问题。例如,通常机器人最多可被提供有区域的不完整和/或过期的地图数据,例如,自地图上次更新以来,边界或障碍物(诸如墙壁、楼梯等)可能已被移动、添加或移除。此外,对象(诸如设备、家具等)可能已被添加、移除或移动。基于此类改变的、不完整和/或不准确的数据,操作机器人以导航到合适的位置和/或姿势以便获得关于对象的数据和/或地图数据提出了挑战。
发明内容
一种系统包括计算机,其包括处理器和存储指令的存储器,所述指令可由所述处理器执行以将区域的所存储地图分解成多个多边形子区域。所述指令包括用于根据漏球算法在所述多边形子区域中生成一组目标位置的指令。所述指令包括用于致动机器人以移动到所述一组的所述目标位置中的第一目标位置的指令。所述指令包括用于致动传感器以在所述目标位置中的所述第一目标位置处收集数据的指令。
所述指令还可包括用于基于在所述区域的所存储地图中指定的对象的位置来将所存储地图分解成所述多个多边形子区域的指令。
所述目标位置中的每一个可限定数据收集区域,并且所述指令还可包括用于标识所述目标位置中的一个的第一数据收集区域的指令,所述第一数据收集区域与所述目标位置中的另一个的第二数据收集区域重叠。
所述指令还可包括用于在致动所述机器人以移动到所述目标位置中的所述第一目标位置之前从所述一组移除限定所述第一数据收集区域的所述目标位置的指令。
所述指令还可包括用于基于所存储地图来标识一组可导航路径并且致动所述机器人以沿着所述可导航路径中的一个或多个移动到所述目标位置中的所述第一目标位置的指令。
所述指令还可包括用于在致动所述机器人以沿着所述可导航路径中的一个或多个移动的同时致动所述传感器以收集数据的指令。
所存储地图可包括障碍物,并且所述指令还可包括用于基于所述地图中包括的所述障碍物来标识所述一组可导航路径的指令。
所述指令还可包括用于从所述一组可导航路径选择可导航路径的子组的指令,所述路径的子组连接所述目标位置。
所述指令还可包括用于选择所述可导航路径的子组以使沿着连接所述目标位置的所述可导航路径的距离最小化的指令。
一种系统包括计算机,所述计算机包括处理器和存储指令的存储器,所述指令能由所述处理器执行以基于区域的所存储地图来标识一组可导航路径。所述指令包括用于致动机器人以沿着所述可导航路径移动的指令。所述指令包括用于在致动所述机器人以沿着所述可导航路径中的一个或多个移动的同时致动由所述机器人支撑的所述传感器以收集数据的指令。所述指令包括用于标识在存储在远程服务器处的所述区域的数字模型中指定为沿着所述可导航路径中的一个的对象的指令。所述指令包括用于基于所收集数据来更新所述数字模型中的所述对象的指令。
所述可导航路径可限定数据收集区域,并且所述指令还可包括用于基于所述数据收集区域从所述一组可导航路径选择可导航路径的子组的指令。
所述指令还可包括用于选择所述可导航路径的所述子组,使得所述数据收集区域与所存储地图的所述区域重叠并且使所述机器人行进的距离最小化的指令。
一种方法包括将区域的所存储地图分解成多个多边形子区域。所述方法包括根据漏球算法在所述多边形子区域中生成一组目标位置。所述方法包括致动机器人以移动到所述一组的所述目标位置中的第一目标位置。所述方法包括致动传感器以在所述目标位置中的所述第一目标位置处收集数据。
所述方法可包括基于在所存储地图中指定的对象的位置来将所述区域的所存储地图分解成所述多个多边形子区域。
所述目标位置中的每一个可限定数据收集区域,并且所述方法可包括标识所述目标位置中的一个的第一数据收集区域,所述第一数据收集区域与所述目标位置中的另一个的第二数据收集区域重叠。
所述方法可包括在致动所述机器人以移动到所述目标位置中的第一目标位置之前从所述一组移除限定所述第一数据收集区域的所述目标位置。
所述方法可包括基于所存储地图来标识一组可导航路径,并且所述方法可包括致动所述机器人以沿着所述可导航路径中的一个或多个移动到所述目标位置中的所述第一目标位置。
所述方法可包括在致动所述机器人以沿着所述可导航路径中的一个或多个移动的同时致动所述传感器以收集数据。
所存储地图可包括障碍物,并且所述方法可包括基于所述地图中包括的所述障碍物来标识所述一组可导航路径。
所述方法可包括从所述一组可导航路径选择可导航路径的子组,所述路径的子组连接所述目标位置。
附图说明
图1是用于在区域中操作机器人的系统的部件的框图。
图2是图1的系统的示例性机器人的透视图。
图3是所限定区域的示例性地图。
图4是区域到子区域的示例性分解。
图5是包括冗余目标位置的两个子区域中的示例性目标位置的图示。
图6是没有冗余目标位置的子区域中的示例性目标位置的图示。
图7是区域中所限定区域的示例性地图。
图8是地图的可导航路径的图示。
图9是可导航路径的子组的图示。
图10是用于控制系统的过程的流程图的图示。
图11是详述图10的过程的子过程的流程图的图示。
具体实施方式
参考图1和图2,其中贯穿若干视图,相同的标号指示相同的部分,用于记录区域50的布局改变的系统20包括计算机22,所述计算机22包括处理器和存储指令的存储器,所述指令可由处理器执行以将区域50的所存储地图54分解成多个多边形子区域56(图4至图6所示)。所述指令包括用于根据漏球算法在多边形子区域56中生成一组目标位置52的指令。所述指令包括用于致动机器人30以移动到所述一组的目标位置52中的第一目标位置的指令。所述指令包括用于致动传感器32以在所述目标位置52中的第一目标位置处收集数据的指令。
图3至图4和图7至图9所示的地图54指定所限定区域50的布局。布局是区域50的边界以及限定区域50的物理特征(诸如墙壁、障碍物、台阶、坡道等)的规范,即,布局除指定区域50边界之外,通常还指定区域50的对象和其他物理特征的位置52和取向。所限定区域50可以是诸如制造设施、组装设施、存储设施、办公设施等的区域。地图54可包括指定阻止在区域50内移动的障碍物58(即,对象或其他物理特征(诸如墙壁、楼梯、坡道、设备等))的数据。换句话说,所指定障碍物58限制从障碍物58的一侧移动到另一侧,例如,机器人30无法导航穿过墙壁。数据可指定障碍物58的坐标,即相对于具有指定原点的指定X-Y轴的X-Y坐标。X-Y坐标可以相对于定位系统(诸如GPS),相对于特定障碍物(诸如区域50中的结构支撑壁或支柱),相对于区域50的边缘或中心,或者相对于用于在地图54中限定障碍物58位置的任何其他合适的基准或数据。地图54的数据可以基于所限定区域50的蓝图和其他技术文档、对所限定区域50的调查、所限定区域50的先前所存储的数字模型或者适合于指定所限定区域50的布局的其他信息。
数字模型是一组电子数据,即,可存储在计算机存储器中、描述对象和其他物理特征的一组电子数据。区域50的数字模型包括指定所限定区域50的布局的数据。数字模型可包括指定所限定区域50中的障碍物58和其他对象的坐标(例如,如针对地图54所描述的X-Y坐标)的数据。例如,对象可包括墙壁、门道、房间、走廊、机器、桌子、立方体障碍物、储存区域、仓库、组件和垫料传送系统等。数字模型可包括指定对象的形状的数据。形状可以是三维(3-D)的,例如,数据可指定对象表面的高度、宽度和深度。数字模型可包括指定对象取向的数据。对象的取向是对象的旋转取向,例如,对象的指定表面相对于X-Y轴的面向方向。数字模型可包括计算机辅助设计(CAD)数据和/或网格数据。CAD数据是由CAD计算机程序用于指定所限定区域50的布局以及所限定区域50中对象的位置、形状和取向的数据。示例性CAD计算机程序包括Autodesk的AutoCAD和CAD Schroder的MPDS4。网格数据是指定限定对象形状的顶点、边和面的集合的数据。面可以是三角形、四边形或其他凸多边形。
目标位置52是指定坐标的位置,传感器32可从所述坐标收集信息并生成指定区域50中的一个或多个对象的数据。目标位置52可由服务器计算机22确定,如下所述。
机器人30可自主地导航区域50并且经由传感器32收集数据以用于更新数字模型。自主导航是导航机器人30以例如移动到指定位置52和/或沿着指定路径60移动,而无需人工输入。机器人30包括支撑其他部件(诸如传感器32(例如,经由数据收集器组件36)、导航传感器38、机器人计算机40和推进系统42)的基部34。基部34可以是金属、塑料或具有足够强度以用于支撑部件的任何合适的材料,包括各种材料的组合。
推进系统42将所存储的能量转换成机器人30的运动。提议系统20包括能量储存装置,诸如电池或电容器。推进系统42包括一个或多个马达,例如,将电能转变成机械能(即,扭矩)的电动马达。推进系统42包括轮,所述轮操作地联接到一个或多个马达,使得将来自一个或多个马达的扭矩传送到轮。不同的轮可操作地联接到不同的马达,例如,使得马达可致使轮在相反方向上自旋以改变机器人30的方向。提议系统20可响应于来自机器人计算机40的命令而移动机器人30。
机器人30可包括控制机器人30的一个或多个轮的转向角的转向系统44。转向系统44包括伺服马达和转向连杆,或者用于响应于来自机器人计算机40的命令而控制轮的转向角的其他合适的结构。
导航传感器38提供指定机器人30例如相对地图54的X-Y坐标的位置和/或接近度、其他坐标系(诸如当地图54的坐标基于本地系统时的GPS)和/或检测到的物理对象的数据。导航传感器38可以是全球定位系统(GPS)传感器;加速度计,诸如压电或微机电系统(MEMS)传感器;陀螺仪,诸如速率、环形激光器或光纤陀螺仪;惯性测量单元(IMU);磁力计;雷达传感器;二维激光测距仪;光检测和测距(LIDAR)装置;声呐传感器;和/或图像处理传感器32(诸如相机)。
机器人30包括数据收集器组件36以用于收集指定检测到的对象的参数的数据。数据收集器组件36包括一个或多个传感器32。数据收集器由机器人30支撑,例如,固定到机器人30的基部34。数据收集器可包括例如高于基部34特定量而支撑传感器32的一个或多个支腿。支腿的底端可固定到基部34,并且传感器32可支撑在支腿的与底端相反的顶端处。
数据收集器组件36可包括用于控制传感器32中的一个或多个(诸如相机32b)的面向方向D(即,传感器32从其聚集信息并生成数据的方向)的万向节46。万向节46可使传感器32枢转以改变传感器32的面向方向D相对于基部34的方位角A1和/或高度角A2(图2所示)。例如,万向节46的第一部分可固定到一个或多个支腿,并且万向节46的第二部分可固定到传感器32。第一部分和第二部分可经由一个或多个铰链、旋转板、销、衬套、轴承和/或用于提供相对旋转的其他合适结构彼此连接。万向节46可包括一个或多个马达、齿轮、伺服装置或其他合适的结构以用于例如响应于来自机器人计算机40的命令而控制传感器32的面向方向D的方位角A1和/或高度角A2。
传感器32通过收集信息并生成指定由传感器32检测到的对象的参数的数据来检测外部世界。例如,数据可指定检测到的对象相对于传感器32和/或机器人30的位置,例如,从传感器32到对象的距离、对象相对于指定方向(例如,前向)的方位角A1、对象相对于指定方向(例如,平行于基部34和/或相对于传感器32的面向方向D的高度角A2)的高度角A2。作为另一示例,数据可指定检测到的对象的形状。形状可以是三维(3-D)的,例如,数据可指定检测到的对象的表面的高度、宽度和深度。
传感器32中的一个或多个可以是光检测和测距(LIDAR)激光雷达传感器32a,其通过用脉冲激光照射对象并测量反射脉冲的返回时间来测量到检测到的对象的距离。然后可使用反射脉冲的返回时间和波长的差异来生成指定对象的3-D形状的数据。
传感器32中的一个或多个可以是生成指定由相机32b检测到的图像的数据的相机32b。数据可指定布置在例如限定X-Y坐标系的网格中的多个像素。数据可指定每个像素的颜色、亮度、色调等。可使用一对相机例如来实现双相机图像分析(也称为立体图像分析),以确定图像中对象的接近度,即,从一对相机到对象的距离。
机器人计算机40可以是经由电路、芯片或其他电子部件实现的基于微处理器的控制器。例如,机器人计算机40可包括处理器、存储器等。机器人计算机40的存储器可包括用于存储可由处理器执行的指令以及用于电子地存储数据和/或数据库的存储器。机器人计算机40可例如经由有线和/或无线机制(诸如通信网络48或用于传输和接收数据和命令的其他合适的机制)与导航传感器38、推进系统42、服务器计算机22和数据收集器进行电子通信。虽然为了便于说明在图1中示出一个机器人计算机40,但应当理解,机器人计算机40可包括一个或多个计算装置,并且本文所述的各种操作可由一个或多个计算装置执行。
机器人计算机40被编程来导航机器人30,即,存储器可存储可由处理器执行以导航机器人30的指令。计算机可通过将命令传输到提议系统20来导航机器人30。命令可指定马达中的一个或多个的致动,例如,命令可指定每个马达的旋转方向、扭矩的大小和/或旋转速度。例如,命令可指定马达的致动,使得机器人30的轮以相同方向和相同速度自旋,从而致使机器人30沿直线移动。作为另一示例,命令可指定马达的致动,使得机器人30的右侧和左侧的轮以相反方向或以不同的速度自旋,从而致使机器人30分别沿弯曲路径自旋或移动。计算机可通过将例如指定机器人30的轮的转向角的命令传输到转向系统44来导航机器人30。
机器人计算机40基于来自导航传感器38的数据来导航机器人30。例如,来自导航传感器38的数据可指定机器人30与检测到的对象的接近度,并且机器人计算机40可基于此类数据来命令推进系统42和转向系统44,例如以避免与检测到的对象接触,以与检测到的对象维持指定距离等。作为另一个示例,来自导航传感器38的数据可指定机器人30相对于坐标(例如,GPS坐标)、相对于特定检测到的对象(诸如区域50的立柱或其他固定对象)的坐标以及基于对多个检测到的信号(诸如由区域50的发射器发射的RF信号)的三角测量的坐标的位置52。机器人计算机40可将命令传输到推进系统42和转向系统44,以将机器人30从机器人30的指定位置52移动到目标位置52和/或沿着指定的可导航路径60移动。
机器人计算机40可响应于来自服务器计算机22的命令而导航机器人30。来自服务器计算机22的命令可指定一个或多个目标位置52和可导航路径60。机器人计算机40可将机器人30导航到目标位置52并且沿着可导航路径60导航。
机器人计算机40可被编程来移动传感器32中的一个或多个以控制传感器32的面向方向D。例如,机器人计算机40可将命令传输到万向节46,例如,万向节46的马达、伺服装置等。命令可指定方位角A1和/或高度角A2。机器人计算机40可响应于来自服务器计算机22的命令(例如,命令机器人30致动到指定姿势(下文所述))而移动传感器32。
机器人计算机40可被编程来致动传感器32。例如,机器人计算机40可将命令传输到传感器32,从而命令传感器32收集信息并生成关于由传感器32检测到的对象的数据。
机器人计算机40可被编程来例如经由通信网络48将关于由传感器32检测到的对象的数据传输到服务器计算机22。关于对象的数据(对象数据)是指定对象的一个或多个物理属性的数据。例如,对象数据可指定对象的高度、宽度、形状、表面曲率、位置和/或取向(例如,相对于X-Y坐标和轴)等。
通信网络
通信网络48(有时被称为广域网,因为它可包括在地理上彼此远离(即,不在同一建筑物内)的装置之间的通信)包括硬件,以用于促进系统20的部件(例如,服务器计算机22与机器人计算机40)之间的通信。通信网络48可根据多种通信协议和机制来促进部件之间的有线或无线通信。例如,通信网络48可以是有线(例如,线缆和光纤)和/或无线(例如,蜂窝、无线、卫星、微波和射频)通信机制和任何期望的网络拓扑(或当利用多个通信机制时的多个拓扑)的任何期望组合。示例性通信网络包括使用蓝牙、IEEE 802.11、局域网(LAN)和/或广域网(WAN)、以太网、WiFi、局域互连网(LIN)和互连网用于提供数据通信服务的有线和无线通信网络。
服务器计算机
服务器计算机22是包括硬件(例如,电路、芯片、天线等)、被编程来向和从其他计算装置传输、接收和处理信息的计算装置。服务器计算机22远离机器人30和数据收集器组件36。服务器计算机22可以是如本文所述实现的一个或多个计算机,所述一个或多个计算机通常各自包括至少一个处理器和至少一个存储器,所述存储器存储可由所述处理器执行的指令,包括用于执行本文所述的各种过程的指令。服务器计算机22例如经由通信网络48与机器人计算机40通信。服务器计算机22将所限定区域50的地图54存储在例如服务器计算机22的存储器中。服务器计算机22存储数字模型。
服务器计算机22被编程来确定所限定区域50中的一组目标位置52。目标位置52根据所限定区域50的地图54上的坐标(例如,X-Y坐标)来指定。X-Y坐标指定沿笛卡尔坐标系62的X-Y轴的位置。笛卡尔坐标系62的原点可位于笛卡尔坐标系62的X轴、Y轴的交点处。原点可位于地图54的区域50的中心、地图54的区域50的拐角等处。
目标位置52中的每一个可限定数据收集区域64(图5和图6所示)。数据收集区域64是当机器人30位于位置52处时数据收集器组件36的传感器32可从其获取数据的区域。数据收集区域64可由传感器32的能力限定。例如,数据收集区域64可以是圆形形状并且具有由360度LIDAR传感器32a的检测范围限定的半径。作为另一个示例,数据收集区域64可以是三角形形状,例如,具有由相机32b的检测范围限定的长度和由相机32b的视野限定的顶角。
服务器计算机22可被编程来通过首先将所限定区域50的所存储地图54分解成多个多边形子区域56(图4至图6所示)来确定目标位置52。每个子区域56包围所限定区域50的一部分。子区域56可彼此重叠。子区域56提供更小、较不复杂的形状(与所限定区域50的整体相比)。计算机22可基于所存储地图54中指定的对象(诸如障碍物58)的位置52来将区域50的所存储地图54分解成多个多边形子区域56。例如,服务器计算机22可将所存储地图54中的障碍物58用作复杂多边形和/或其他形状(包括未完全包围的区域)的初始边界。服务器计算机22可使用已知的多边形分解算法将初始边界分解成多个包围的凸多边形。子区域56中的一个或多个可彼此重叠。服务器计算机22可使用其他分解技术,诸如牛耕式单元分解、梯形分解和凸多边形分解。
接着,服务器计算机22可根据漏球算法在多边形子区域56中生成一组目标位置52。漏球算法通过将圆圈放置在子区域56中的每一个来确定目标位置52。圆圈被定位为覆盖子区域56中的每一个的全部(或基本上全部)。圆圈重叠。圆圈被定位成使得需要最小数目的圆圈来覆盖子区域56。用最小数目的圆圈来覆盖子区域56是几何集合覆盖问题。覆盖问题(诸如几何集合覆盖问题)可使用线性程序和近似算法(诸如贪婪算法)来解决。服务器计算机22可使用其他技术(诸如使用冯洛诺伊图)来在多边形子区域56中生成一组目标位置52。
与漏球算法一起使用的圆圈的直径基于传感器32的数据收集能力。换句话说,圆圈可具有与目标位置52所限定的数据收集区域64相同的大小和形状。例如,圆圈的半径可等于360度LIDAR传感器32a的检测范围。圆圈可覆盖少于子区域56中的每一个的全部,例如,基本上全部。例如,地图54和/或数字模型可包括指定所限定区域50中不需要被覆盖和/或地图54的布局可防止完全覆盖的部分的数据。
确定每个子区域56的目标位置52例如通过提供要覆盖的更小、更简单的多边形区域而降低了解决漏球算法所需的计算能力。一旦生成每个子区域56的目标位置52,就可将它们组合以在所限定区域50中提供一组目标位置52。
服务器计算机22可被编程来从一组目标位置52消除冗余目标位置52a(比较图5与图6)。冗余目标位置52a是限定数据收集区域64a的目标位置52,所述数据收集区域64a与由其他目标位置52限定的数据收集区域64完全重叠。例如,当子区域56重叠时,冗余目标位置52a可由于组合子区域56中的每一个的目标位置52而出现。计算机22可通过根据漏球算法的结果标识圆圈来消除冗余目标位置52a,所述圆圈包围根据漏球算法的结果由其他圆圈包围的区域完全覆盖的区域。换句话说,服务器计算机22可标识目标位置52中的一个的第一数据收集区域64a,所述第一数据收集区域64a与其他目标位置52的第二数据收集区域64重叠。服务器计算机22可从存储在服务器存储器中的所述一组目标位置52移除限定被标识为重叠的第一数据收集区域64的目标位置52。
服务器计算机22可基于从用户接收的输入来确定所述一组目标位置52。例如,用户可向服务器计算机22提供指定一个或多个目标位置52的输入。服务器计算机22可基于地图54和/或数字模型来确定所述一组目标位置52。例如,地图54和/或数字模型可包括指定一个或多个目标位置52(例如,先前通过泄漏球算法确定、经由来自用户的输入提供等的目标位置52)的数据。服务器计算机22可使用其他技术来确定所述一组目标位置52。
服务器计算机22可被编程为确定机器人30的姿势。姿势是机器人30和机器人30的部件将传感器32取向成面向特定方向的指定取向(通常是俯仰、滚转和横摆)。例如,姿势可指定机器人30的基部34例如相对于地图54的笛卡尔坐标系62的取向,并且可指定万向节46的方位角A1和/或高度角A2。姿势使得机器人30能够将传感器32定向成面向特定对象。姿势指定传感器32相对于机器人30的基部34的取向、地图54的坐标和/或数字模型的坐标。姿势可包括指定方位角A1和高度角A2的数据。方位角A1和高度角A2可与目标位置52中的一个相关联,例如使得当机器人30在相关联目标位置52处时,传感器32可面向指定方位角A1和高度角A2。服务器计算机22可通过将目标位置52的坐标与对象的坐标进行比较,例如以确定从目标位置52的X-Y坐标延伸到对象的X-Y坐标的矢量的方位角A1来确定姿势。服务器计算机22可基于由数字模型指定的对象的高度和传感器32的高度(例如,由存储在服务器计算机22的存储器中的数据指定)并且根据X-Y坐标基于目标位置52与对象之间的距离来确定高度角A2。服务器计算机22可基于用户例如指定方位角A1、高度角A2和相关联的目标位置52的输入来确定姿势。服务器计算机22可使用其他技术(诸如使用卡尔曼滤波器(例如,粒子、无味和/或扩展卡尔曼滤波器)将匹配的惯性测量单元(IMU)数据与LIDAR数据融合)来确定姿势。
服务器计算机22被编程来基于所存储地图54(图8和图9所示)来标识一组可导航路径60。可导航路径60是所限定区域50的可由机器人30导航的部分。计算机可基于地图54中包括的障碍物58来标识所述一组可导航路径60。例如,计算机可标识地图54的数据中指定的障碍物58之间的距离。可将距离与机器人30的物理属性(例如,机器人30的宽度和/或机器人30的转弯半径)进行比较。当障碍物58之间的距离足以使机器人30在其间导航时,服务器计算机22可将所限定区域50的部分识别为可导航路径60。例如,当障碍物58之间的距离大于机器人30的宽度时。作为另一个示例,所存储地图54和/或数字模型可包括将所限定区域50的部分指定为可导航路径60的数据。服务器计算机22可使用其他技术来标识所述一组可导航路径60。
可导航路径60可限定数据收集区域,即,当机器人30正在沿着可导航路径60导航时,数据收集器组件36的传感器32可从其接收信息的区域。数据收集区域64可基于传感器32的面向方向D、传感器32的能力(例如,传感器32的检测范围、视野等),诸如上文针对目标位置52的数据收集区域64所述的。
服务器计算机22可被编程来从所述一组可导航路径60选择可导航路径60的子组66。例如,将图8所示的可导航路径60与图9所示的可导航路径60的子组66进行比较。路径60的子组66可连接目标位置52,例如使得机器人30可沿着路径60的子组66导航以导航到每个目标位置52。计算机可选择可导航路径60的子组66以使沿着连接目标位置52的可导航路径60的距离最小化。例如,服务器计算机22可使用被设计为解决例如像在已知路线规划软件应用程序中所使用的旅行商问题的算法。
服务器计算机22可被编程来基于数据收集区域64从所述一组可导航路径60选择可导航路径60的子组66。服务器计算机22可选择可导航路径60的子组66,使得数据收集区域与所存储地图54的区域50重叠并且使机器人30行进的距离最小化。例如,服务器计算机22可标识由一个或多个可导航路径60限定的与一个或多个其他可导航路径60的数据收集区域重叠的数据收集区域。换句话说,服务器计算机22可标识冗余数据收集区域64。对于可导航路径60的子组66,服务器计算机22可选择可导航路径60中的限定重叠的数据收集区域的一个,并且避免选择另一个。另外或替代地,服务器计算机22可例如沿着限定重叠的数据收集区域64的可导航路径60之间的中间路径将限定重叠的数据收集区域的可导航路径60合并成单个可导航路径。服务器计算机22可例如用被设计为解决例如像在已知路线规划软件应用程序中所使用的旅行商问题的算法来连接可导航路径60的子组66。
服务器计算机22可用指定例如相对于地图54的X-Y坐标的多个航路点、矢量和/或曲线的数据来限定可导航路径60和/或可导航路径60的子组66。例如,可导航路径60和/或可导航路径60的子组66可由三阶多项式(有时称为“路径多项式”)诸如Y=aX+bX2+cX3表示。Y和X表示例如相对于地图54的X-Y坐标。这种多项式的参数a、b和c可确定路径曲率。
服务器计算机22可被编程来致动机器人30以移动到目标位置52中的一个或多个。例如,服务器计算机22可将指定所述一组目标位置52的命令传输到机器人计算机40。机器人计算机22可致动机器人30以沿着可导航路径60中的一个或多个移动到目标位置52。例如,服务器计算机22可将例如相对于地图54的X-Y坐标指定多个航路点、矢量和/或曲线的命令传输到机器人计算机40。
服务器计算机22可被编程来将机器人30致动到被指定为使传感器32相对于对象取向的姿势。例如,服务器计算机22可将指定方位角A1和高度角A2的命令传输到机器人计算机40。命令可指定目标位置52中的特定一个与方位角A1和高度角A2之间的关联性,例如使得致动传感器32以便一旦致动机器人30以移动到相关联的目标位置52,就面向指定方位角A1和高度角A2。
服务器计算机22可被编程来致动机器人30上的传感器32以收集目标位置52处的数据。例如,服务器计算机22可将指定传感器32的致动和指定用于此类致动的目标位置52中的一个或多个的命令传输到机器人计算机40。
服务器计算机22可被编程来在致动机器人30以沿着可导航路径60中的一个或多个移动的同时致动传感器32以收集数据。例如,服务器计算机22可将指定传感器32的致动和指定用于此类致动的可导航路径60中的一个或多个的命令传输到机器人计算机40。
服务器计算机22可被编程来标识在数字模型中指定为处于目标位置52的坐标处的对象。服务器计算机22可标识在从当机器人30位于目标位置52处时传感器32从数据收集区域64收集的信息生成的数据中的对象。
服务器计算机22可通过将在目标位置52中的一个处收集的数据与数字模型的指定对象的三维形状的数据进行比较来标识在数字模型中指定的对象。例如,服务器计算机22可将由在机器人30位于目标位置52中的一个处时用LIDAR传感器32a生成的数据指定的一个或多个参数(例如,长度、宽度、曲率等)与由数字模型中目标位置52处的对象的数据指定的一个或多个参数进行比较。当在此类数据中指定的参数与匹配阈值量(例如,95%)匹配或在所述匹配阈值量内时,服务器计算机22可将数字模型中的对象标识为来自LIDAR传感器32a的数据中的对象。
服务器计算机22可基于对指定由相机32b在目标位置52中的一个处捕获的一个或多个图像的数据的图像识别分析来标识数字模型中指定的对象。图像可在机器人30处于指定姿势时进行捕获。例如,对象可使用已知技术和方法在图像数据中识别,并且可将此类对象的参数与由数字模型中对象的数据指定的参数进行比较。
服务器计算机22可被编程为标识在区域50的数字模型中指定为沿着可导航路径60中的一个的对象。服务器计算机22可基于如针对目标位置52处的对象所述的比较的参数、图像识别等来标识对象。服务器计算机22可使用其他技术来标识处于目标位置52处和/或沿着可导航路径60的对象。
指定传感器32数据中的所标识对象的数据可与指定数字模型中此类对象的数据不完全匹配。例如,一个或多个对象的位置和/或取向自生成数字模型以来可能已经改变。换句话说,数字模型可能不是最新的。对来自传感器32的数据中和数字模型中的对象的标识使得此类数据之间的例如位置、取向等的差异能够得以校正,例如使得数字数据与来自传感器32的数据匹配。
服务器计算机22被编程来基于所收集数据来更新数字模型中的对象。例如,服务器计算机22可修正数字模型的指定对象的数据以复制在由传感器32生成的数据中指定此类对象的数据。
服务器计算机22可被编程来基于用传感器32例如在目标位置52中的一个处和/或沿着可导航路径60中的一个收集的数据来标识一个或多个另外的目标位置52。另外的位置52可在限定区域50之外,即,在数字模型中未指定的区域。例如,由传感器32收集的数据可指定未包括在地图54和/或数字模型中并且可由机器人30导航的走廊或其他区域50。服务器计算机22可标识此类区域处的目标位置52。
过程
图10是示出用于操作系统20的示例性过程1000的过程流程图。过程1000以框1005开始,在框1005中,服务器计算机22确定例如如本文所述的用于收集数据的目标位置52和/或可导航路径60。服务器计算机22可根据过程1100(下文进一步描述)来确定目标位置52和/或可导航路径60。
在框1010处,服务器计算机22致动机器人30以导航到框1005中确定的目标位置52中的一个和/或沿着可导航路径60导航。例如,服务器计算机22可通过将指定目标位置52和/或可导航路径60的命令传输到机器人30来致动机器人30,例如像本文所述的。
在框1015处,服务器计算机22将机器人30致动到指定姿势,例如以使传感器32相对于目标位置52处的对象取向。服务器计算机22可以如本文所述确定指定姿势。服务器计算机22可通过将例如指定方位角A1、高度角A2和相关联的目标位置52(相对于地图54的笛卡尔坐标系62)的命令传输到机器人30来将机器人30致动到姿势。
在框1020处,服务器计算机22致动机器人30的传感器32中的一个或多个以收集数据。服务器计算机22可通过将命令传输到机器人30来致动机器人30的传感器32。服务器计算机22可在机器人30位于目标位置52处时致动传感器32中的一个或多个以收集数据。例如,服务器计算机22可在机器人30正在沿着可导航路径60导航时致动传感器32中的一个或多个以收集数据。例如,服务器计算机22可在机器人30处于指定姿势时致动传感器32中的一个或多个以收集数据。
在框1025处,服务器计算机22标识数字模型中指定的对象,并且标识在框1020处收集的数据中指定的此类对象。服务器计算机22可标识如本文所述的此类对象。
在框1030处,服务器计算机22更新指定数字模型中的对象的数据以与由传感器32收集的指定对象的数据匹配,例如如本文所述。
在框1035处,服务器计算机22标识下一个目标位置52。服务器计算机22可将下一个目标位置52确定为在所限定区域50之外并且基于在框1020处收集的数据,例如如本文所述。替代地,服务器计算机22可基于先前在框1005处确定的目标位置52来标识下一个目标位置52。在框1035之后,过程1000返回到框1010并且重新迭代过程1000,例如,导航机器人30并使其摆姿势,并且然后收集数据并更新数字模型。服务器计算机22可继续迭代过程1000,直到已经在所有可标识目标位置52处收集到数据。
图11是示出用于确定目标位置52和可导航路径60的示例性过程1100的过程流程图。过程1100以框1105开始,在框1105中,服务器计算机22例如基于指定障碍物58的数据并且如本文所述,将区域50的所存储地图54分解成多个多边形子区域56。
接着,在框1110处,服务器计算机22在子区域56中的每一个中生成目标位置52。服务器计算机22可根据漏球算法在子区域56中生成目标位置52。服务器计算机22将所生成的目标位置52合并成一组目标位置52。
接着,在框1115处,服务器计算机22标识在框1105处生成的具有数据收集区域64a的任何目标位置52a,所述数据收集区域64a与由其他目标位置52限定的数据收集区域64重叠。换句话说,服务器计算机22标识冗余的目标位置52a。
接着,在框1120处,服务器计算机22从在框1110处生成的所述一组目标位置52移除在框1115处标识的目标位置52。
在框1125处,服务器计算机22例如基于在地图54中指定并且如本文所述的障碍物58和其他物理对象来标识一组可导航路径60。
接着,在框1130处,服务器计算机22标识在框1125处标识的所述一组可导航路径60的数据收集区域。数据收集区域可由传感器32的能力限定并且如本文所述。
最后,在框1135处,服务器计算机22从在框1125处标识的可导航路径60选择可导航路径60的子组66。服务器计算机22可选择子组66以使沿着联接目标位置52的可导航路径60的距离最小化,使得数据收集区域与所存储地图54的区域50重叠并且使机器人30行进的距离最小化等,如本文所述。
结论
关于本文所述的过程1000,1100,应当理解,虽然此类过程1000,1100的步骤已被描述为按照特定的顺序发生,但是可以在按照除本文所述顺序之外的顺序执行所述步骤的情况下实践此类过程1000,1100。还应当理解,可以同时执行某些步骤,可以添加其他步骤,或者可以省略本文描述的某些步骤。换句话说,本文对过程300的描述是为了示出某些实施例而提供,而决不应当被解释为对公开的主题进行限制。
计算装置(诸如机器人的计算机、数据收集组件的计算机和服务器计算机)通常包括计算机可执行指令,其中所述指令可能够由诸如上文列出的那些计算装置的一个或多个计算装置来执行。计算机可执行指令可由使用多种编程语言和/或技术创建的计算机程序来编译或解译,这些编程语言和/或技术单独地或组合地包括但不限于JavaTM、C、C++、Visual Basic、Java Script、Per1等。这些应用程序中的一些可在虚拟机(诸如Java虚拟机、Dalvik虚拟机等)上编译和执行。通常,处理器(例如,微处理器)例如从存储器、计算机可读介质等接收指令,并且执行这些指令,从而执行一个或多个过程,包括本文所述的过程中的一个或多个。此类指令和其他数据可使用多种计算机可读介质来存储和传输。
计算机可读介质(也称为处理器可读介质)包括参与提供可由计算机(例如,由计算机的处理器)读取的数据(例如,指令)的任何非暂时性(例如,有形)介质。此类介质可以采取许多形式,包括但不限于非易失性介质和易失性介质。非易失性介质可包括例如光盘或磁盘以及其他持久性存储器。易失性介质可包括例如通常构成主存储器的动态随机存取存储器(DRAM)。此类指令可由一种或多种传输介质来传输,所述传输介质包括同轴电缆、铜线和光纤,包括构成联接到计算机的处理器的系统总线的电线。常见形式的计算机可读介质包括(例如)软磁盘、软盘、硬盘、磁带、任何其他磁性介质、CD-ROM、DVD、任何其他光学介质、穿孔卡、纸带、带有孔图案的任何其他物理介质、RAM、PROM、EPROM、FLASH-EEPROM、任何其他存储器芯片或盒式磁带或者计算机可读的任何其他介质。
在一些示例中,系统元件可被实施为一个或多个计算装置(例如,服务器、个人计算机、计算模块等)上的、存储在与其相关联的计算机可读介质(例如,磁盘、存储器等)上的计算机可读指令(例如软件)。计算机程序产品可包括存储在计算机可读介质上用于执行本文所描述的功能的此类指令。
已经以说明性方式描述了本公开,并且应当理解,已经使用的术语意图在性质上是描述性而非限制性的词语。鉴于以上教导,本公开的许多修改和变化是可能的,并且本公开可以与具体所描述不同的方式来实践。
根据本发明,提供一种系统,其具有计算机,所述计算机包括处理器和存储指令的存储器,所述指令能由处理器执行以:将区域的所存储地图分解成多个多边形子区域;根据漏球算法在所述多边形子区域中生成一组目标位置;致动机器人以移动到所述一组的所述目标位置中的第一目标位置;并且致动传感器以在所述目标位置中的所述第一目标位置处收集数据。
根据一个实施例,所述指令还包括用于基于在所述区域的所存储地图中指定的对象的位置来将所存储地图分解成所述多个多边形子区域的指令。
根据一个实施例,所述目标位置中的每一个限定数据收集区域,并且其中所述指令还包括用于标识所述目标位置中的一个的第一数据收集区域的指令,所述第一数据收集区域与所述目标位置中的另一个的第二数据收集区域重叠。
根据一个实施例,所述指令还包括用于在致动所述机器人以移动到所述目标位置中的所述第一目标位置之前从所述一组移除限定所述第一数据收集区域的所述目标位置的指令。
根据一个实施例,所述指令还包括用于基于所存储地图来标识一组可导航路径并且致动所述机器人以沿着所述可导航路径中的一个或多个移动到所述目标位置中的所述第一目标位置的指令。
根据一个实施例,所述指令还包括用于在致动所述机器人以沿着所述可导航路径中的一个或多个移动的同时致动所述传感器以收集数据的指令。
根据一个实施例,所存储地图包括障碍物,并且所述指令包括用于基于所述地图中包括的所述障碍物来标识所述一组可导航路径的指令。
根据一个实施例,所述指令包括用于从所述一组可导航路径选择可导航路径的子组的指令,所述路径的子组连接所述目标位置。
根据一个实施例,所述指令包括用于选择所述可导航路径的子组以使沿着连接所述目标位置的所述可导航路径的距离最小化的指令。
根据本发明,提供一种系统,其具有计算机,所述计算机包括处理器和存储指令的存储器,所述指令能由所述处理器执行以:基于区域的所存储地图来标识一组可导航路径;致动机器人以沿着所述可导航路径移动;在致动所述机器人以沿着所述可导航路径中的一个或多个移动的同时致动由所述机器人支撑的传感器以收集数据;标识在存储在远程服务器处的所述区域的数字模型中指定为沿着所述可导航路径中的一个的对象;并且基所收集数据来更新所述数字模型中的所述对象。
根据一个实施例,所述可导航路径限定数据收集区域,并且其中所述指令还包括用于基于所述数据收集区域从所述一组可导航路径选择可导航路径的子组的指令。
根据一个实施例,所述指令包括用于选择所述可导航路径的所述子集,使得所述数据收集区域与所存储地图的所述区域重叠并且使所述机器人行进的距离最小化的指令。
根据本发明,一种方法包括:将区域的所存储地图分解成多个多边形子区域;根据漏球算法在所述多边形子区域中生成一组目标位置;致动机器人以移动到所述一组的所述目标位置中的第一目标位置;以及致动传感器以在所述目标位置中的所述第一目标位置处收集数据。
根据一个实施例,本发明的进一步特征在于基于在所述区域的所存储地图中指定的对象的位置来将所存储地图分解成所述多个多边形子区域。
根据一个实施例,所述目标位置中的每一个限定数据收集区域,并且还包括标识所述目标位置中的一个的第一数据收集区域,所述第一数据收集区域与所述目标位置中的另一个的第二数据收集区域重叠。
根据一个实施例,本发明的进一步特征在于在致动所述机器人以移动到所述目标位置中的所述第一目标位置之前从所述一组移除限定所述第一数据收集区域的所述目标位置。
根据一个实施例,本发明的进一步特征在于基于所存储地图来标识一组可导航路径,并且还包括致动所述机器人以沿着所述可导航路径中的一个或多个移动到所述目标位置中的所述第一目标位置。
根据一个实施例,本发明的进一步特征在于在致动所述机器人以沿着所述可导航路径中的一个或多个移动的同时致动所述传感器以收集数据。
根据一个实施例,所存储地图包括障碍物,并且所述方法还包括基于所述地图中包括的所述障碍物来标识所述一组可导航路径。
根据一个实施例,本发明的进一步特征在于从所述一组可导航路径选择可导航路径的子组,所述路径的子组连接所述目标位置。

Claims (15)

1.一种方法,其包括:
将区域的所存储地图分解成多个多边形子区域;
根据漏球算法在所述多边形子区域中生成一组目标位置;
致动机器人以移动到所述一组的所述目标位置中的第一目标位置;以及
致动传感器以在所述目标位置中的所述第一目标位置处收集数据。
2.如权利要求1所述的方法,其还包括基于在所述区域的所存储地图中指定的对象的位置来将所存储地图分解成所述多个多边形子区域。
3.如权利要求1所述的方法,其中所述目标位置中的每一个限定数据收集区域,并且所述方法还包括标识所述目标位置中的一个的第一数据收集区域,所述第一数据收集区域与所述目标位置中的另一个的第二数据收集区域重叠。
4.如权利要求3所述的方法,其还包括在致动所述机器人以移动到所述目标位置中的所述第一目标位置之前从所述一组移除限定所述第一数据收集区域的所述目标位置。
5.如权利要求1所述的方法,其还包括基于所存储地图来标识一组可导航路径,以及致动所述机器人以沿着所述可导航路径中的一个或多个移动到所述目标位置中的所述第一目标位置。
6.如权利要求5所述的方法,其还包括在致动所述机器人以沿着所述可导航路径中的一个或多个移动的同时致动所述传感器以收集数据。
7.如权利要求5所述的方法,其中所存储地图包括障碍物,并且所述指令包括用于基于所述地图中包括的所述障碍物来标识所述一组可导航路径的指令。
8.如权利要求5所述的方法,其还包括从所述一组可导航路径选择可导航路径的子组,所述路径的子组连接所述目标位置。
9.如权利要求8所述的方法,其还包括选择所述可导航路径的子组以使沿着连接所述目标位置的所述可导航路径的距离最小化。
10.一种计算机,其具有处理器和存储指令的存储器,所述指令能由所述处理器执行以执行如权利要求1-9中任一项所述的方法。
11.一种计算机可读介质,其存储指令,所述指令能由处理器执行以执行如权利要求1-9中任一项所述的方法。
12.一种方法,其包括:
基于区域的所存储地图来标识一组可导航路径;
致动机器人以沿着所述可导航路径移动;
在致动所述机器人以沿着所述可导航路径中的一个或多个移动的同时致动由所述机器人支撑的传感器以收集数据;
标识在存储在远程服务器处的所述区域的数字模型中指定为沿着所述可导航路径中的一个的对象;以及
基于所收集数据来更新所述数字模型中的所述对象。
13.如权利要求12所述的方法,其中所述可导航路径限定数据收集区域,并且所述方法还包括基于所述数据收集区域从所述一组所述可导航路径选择可导航路径的子组。
14.如权利要求12所述的方法,其还包括选择所述可导航路径的所述子组,使得所述数据收集区域与所存储地图的所述区域重叠并且使所述机器人行进的距离最小化。
15.一种计算机,其具有处理器和存储指令的存储器,所述指令能由所述处理器执行以执行如权利要求12-14中任一项所述的方法。
CN202010532771.0A 2019-06-12 2020-06-11 数字模型校正 Pending CN112082542A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/439,151 2019-06-12
US16/439,151 US11231712B2 (en) 2019-06-12 2019-06-12 Digital model rectification with sensing robot

Publications (1)

Publication Number Publication Date
CN112082542A true CN112082542A (zh) 2020-12-15

Family

ID=73546952

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010532771.0A Pending CN112082542A (zh) 2019-06-12 2020-06-11 数字模型校正

Country Status (3)

Country Link
US (1) US11231712B2 (zh)
CN (1) CN112082542A (zh)
DE (1) DE102020115513A1 (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11231712B2 (en) 2019-06-12 2022-01-25 Ford Global Technologies, Llc Digital model rectification with sensing robot
US11220006B2 (en) * 2019-06-24 2022-01-11 Ford Global Technologies, Llc Digital model rectification

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5202661A (en) * 1991-04-18 1993-04-13 The United States Of America As Represented By The Secretary Of The Navy Method and system for fusing data from fixed and mobile security sensors
ATE185006T1 (de) 1996-03-06 1999-10-15 Gmd Gmbh Autonomes mobiles robotersystem für sensor- und kartengestützte navigation in einem leitungsnetzwerk
US8896660B2 (en) * 2003-05-30 2014-11-25 Alcatel Lucent Method and apparatus for computing error-bounded position and orientation of panoramic cameras in real-world environments
US20060235610A1 (en) * 2005-04-14 2006-10-19 Honeywell International Inc. Map-based trajectory generation
RU2012122469A (ru) 2009-11-06 2013-12-20 Эволюшн Роботикс, Инк. Способы и системы для полного охвата поверхности автономным роботом
US20110153338A1 (en) 2009-12-17 2011-06-23 Noel Wayne Anderson System and method for deploying portable landmarks
CN103459099B (zh) 2011-01-28 2015-08-26 英塔茨科技公司 与一个可移动的远程机器人相互交流
US9323250B2 (en) 2011-01-28 2016-04-26 Intouch Technologies, Inc. Time-dependent navigation of telepresence robots
KR101203897B1 (ko) * 2011-02-25 2012-11-23 동국대학교 산학협력단 이동체(mobile body)를 위한 셀?기반 경로 계획 장치 및 방법
DE102012109004A1 (de) 2012-09-24 2014-03-27 RobArt GmbH Roboter und Verfahren zur autonomen Inspektion oder Bearbeitung von Bodenflächen
KR102071575B1 (ko) 2013-04-23 2020-01-30 삼성전자 주식회사 이동로봇, 사용자단말장치 및 그들의 제어방법
KR20170060034A (ko) 2014-09-08 2017-05-31 인벤센스, 인크. 맵 정보 보조 향상된 휴대가능 내비게이션을 이용하기 위한 방법 및 장치
US20180364045A1 (en) 2015-01-06 2018-12-20 Discovery Robotics Robotic platform with mapping facility
US10486313B2 (en) * 2016-02-09 2019-11-26 Cobalt Robotics Inc. Mobile robot map generation
US10754334B2 (en) 2016-05-09 2020-08-25 Strong Force Iot Portfolio 2016, Llc Methods and systems for industrial internet of things data collection for process adjustment in an upstream oil and gas environment
US20180299899A1 (en) 2017-04-13 2018-10-18 Neato Robotics, Inc. Localized collection of ambient data
US10697779B2 (en) 2017-04-21 2020-06-30 X Development Llc Landmark placement for localization
US9939814B1 (en) 2017-05-01 2018-04-10 Savioke, Inc. Computer system and method for automated mapping by robots
US10330480B1 (en) * 2017-09-07 2019-06-25 Amazon Technologies, Inc. Deployable sensors
US10807236B2 (en) 2018-04-30 2020-10-20 Beijing Jingdong Shangke Information Technology Co., Ltd. System and method for multimodal mapping and localization
US11243540B2 (en) * 2018-05-17 2022-02-08 University Of Connecticut System and method for complete coverage of unknown environments
US11231712B2 (en) 2019-06-12 2022-01-25 Ford Global Technologies, Llc Digital model rectification with sensing robot

Also Published As

Publication number Publication date
US20200393833A1 (en) 2020-12-17
US11231712B2 (en) 2022-01-25
DE102020115513A1 (de) 2020-12-17

Similar Documents

Publication Publication Date Title
Asadi et al. An integrated UGV-UAV system for construction site data collection
Qin et al. Autonomous exploration and mapping system using heterogeneous UAVs and UGVs in GPS-denied environments
KR102230144B1 (ko) 인공 지능 심층 학습 타겟 탐지 및 속도 퍼텐셜 필드 알고리즘 기반 장애물 회피 및 자율 주행 방법 및 장치
JP7341652B2 (ja) 情報処理装置、情報処理方法、プログラム、およびシステム
Sadat et al. Feature-rich path planning for robust navigation of MAVs with mono-SLAM
JP5018458B2 (ja) 座標補正方法、座標補正プログラム、及び自律移動ロボット
Bogdan Rusu et al. Leaving Flatland: Efficient real‐time three‐dimensional perception and motion planning
Li et al. Autonomous area exploration and mapping in underground mine environments by unmanned aerial vehicles
TW201728876A (zh) 自主視覺導航
KR20170061373A (ko) 이동 로봇 및 그 제어 방법
Kurazume et al. Automatic large-scale three dimensional modeling using cooperative multiple robots
CN112082542A (zh) 数字模型校正
Sanchez-Rodriguez et al. A survey on stereo vision-based autonomous navigation for multi-rotor MUAVs
JP2009301401A (ja) 自律移動装置
CN113778096B (zh) 室内机器人的定位与模型构建方法及系统
US11220006B2 (en) Digital model rectification
CN113610910A (zh) 一种移动机器人避障方法
Son et al. The practice of mapping-based navigation system for indoor robot with RPLIDAR and Raspberry Pi
Mortezapoor et al. Photogrammabot: An autonomous ros-based mobile photography robot for precise 3d reconstruction and mapping of large indoor spaces for mixed reality
Marlow et al. Local terrain mapping for obstacle avoidance using monocular vision
Oberländer et al. A multi-resolution 3-D environment model for autonomous planetary exploration
Khan et al. Sonar-based SLAM using occupancy grid mapping and dead reckoning
Kozák et al. Robust visual teach and repeat navigation for unmanned aerial vehicles
Wzorek et al. A framework for safe navigation of unmanned aerial vehicles in unknown environments
Gilbreath et al. Path planning and collision avoidance for an indoor security robot

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination