CN107003671A - 定位和映射方法和系统 - Google Patents
定位和映射方法和系统 Download PDFInfo
- Publication number
- CN107003671A CN107003671A CN201580050450.4A CN201580050450A CN107003671A CN 107003671 A CN107003671 A CN 107003671A CN 201580050450 A CN201580050450 A CN 201580050450A CN 107003671 A CN107003671 A CN 107003671A
- Authority
- CN
- China
- Prior art keywords
- type
- data
- sensor
- info
- cam
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013507 mapping Methods 0.000 title claims abstract description 60
- 238000000034 method Methods 0.000 title claims abstract description 46
- 238000001514 detection method Methods 0.000 claims abstract description 27
- 238000003384 imaging method Methods 0.000 claims description 2
- 238000007689 inspection Methods 0.000 claims 2
- 238000001914 filtration Methods 0.000 description 10
- 230000004048 modification Effects 0.000 description 8
- 238000012986 modification Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 7
- 238000004590 computer program Methods 0.000 description 3
- 230000033001 locomotion Effects 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 241000252095 Congridae Species 0.000 description 1
- 230000001154 acute effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 208000015181 infectious disease Diseases 0.000 description 1
- 230000000149 penetrating effect Effects 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0248—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means in combination with a laser
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3833—Creation or updating of map data characterised by the source of data
- G01C21/3837—Data obtained from a single source
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0274—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4808—Evaluating distance, position or velocity data
Abstract
本发明涉及一种移动机器在环境中使用的定位和映射方法,所述方法包括以下步骤:基于从所述移动机器上的机载传感器接收的数据确定位于所述环境的区域中的对象的类型;如果所确定的类型是移动对象类型,则使用检测数据实施定位算法,而不考虑与所述区域或所述对象相关的检测数据。
Description
技术领域
本发明涉及在包含移动对象的环境中的移动机器使用的定位和映射技术。
更具体地,其涉及用于装载至这一移动机器的定位和映射系统以及定位和映射方法。
本发明特别有利地适用于环境中现有的某些对象在配备有上述定位和映射系统的移动机器通过期间是固定的、但随后可移动的情况中。
背景技术
存在已知的由移动机器(例如机器人或机动车辆)在一环境中使用的定位(localization)和映射(mapping)方法,其用于仅仅基于由移动机器上的一个或多个传感器获得的信息来构建环境的映射图(map)的目的。
这种类型的方法通常由英语首字母缩写SLAM(“Simultaneous Localization AndMapping”)代指。
在专利申请WO 2004/059,900中描述了使用视觉传感器(例如摄像机)的这种类型的方法的示例。
定位和映射算法通常被设计为仅映射环境的固定部分,并且因此不在执行算法期间存储移动对象的位置,也就是说在移动机器在这些对象附近通过期间。
然而,对于在移动机器通过期间固定的、但是可能在稍后时间移位的对象会出现问题,且因此并不能真实地形成要映射的固定环境的部分。
特别地,在随后通过移动对象所处区域期间,定位和映射算法将不会识别先前所映射的环境,并且将重新启动映射图构建过程,这显然是低效的。
发明内容
在本上下文中,本发明提出了由移动机器在环境中使用的定位和映射方法,包括以下步骤:
-基于从所述移动机器上的记载传感器接收的数据确定位于所述环境的区域中的对象的类型;
-如果所确定的类型是移动对象的类型,则使用检测数据执行定位算法,而不考虑与所述区域或所述对象相关的检测数据。
因此,基于长期固定的环境的成分来执行定位和映射算法。因此,通过这种方法构建的映射图更加鲁棒并且可以容易地重新使用,因为其组成部分将在移动机器在相同环境中随后通过期间存在。
根据其它特性,其是可选的并且因此是非限制性的:
-传感器是激光雷达传感器;
-通过识别所接收的数据中的形状或特征码来执行所述确定;
-所述传感器是图像传感器;
-通过识别由所接收的数据表示的至少一个图像中的形状来执行所述确定;
-从所述机载传感器获得所述检测数据;
-所述检测数据从与所述机载传感器分离的另一传感器获得;
-如果所确定的类型是固定对象类型,则定位算法使用所述对象作为参考点;
-如果给定区域中没有检测到对应于移动对象类型的类型的对象,则定位算法使用与所述给定区域相关的检测数据;
-所执行的定位算法构建环境的映射图,例如通过检索正在构造的映射图的版本与由机载传感器提供的扫描数据、和/或在通过嵌入的机载传感器所提供的图像中检测到的兴趣点之间的匹配,从而还使得移动机器能够被定位在所述映射图上。
定位和映射方法还可以包括以下步骤:
-保存所构建的映射图;
-在稍后时间(例如在检测到附近环境类似于在所构建的映射图中表示的环境的情况下),加载并再次使用由所述定位算法构建的映射图。
本发明还提出了一种在环境中的移动机器上设置的定位和映射系统,包括用于基于从移动机器上的传感器接收的数据来确定位于区域中的对象的类型的模块以及定位模块,该定位模块被设计为在检测数据的基础上定位移动机器,以及,如果所确定的类型是移动对象类型,则不考虑与所述区域或所述对象相关的检测数据。
上面关于方法描述的可选特性也可以适用于该系统。
具体实施方式
参考通过非限制性示例提供的附图的以下描述将使本发明的性质和应用变得清楚。
在附图中:
-图1示出了装备有根据本发明的定位和映射系统的机动车辆;
-图2示出了图1的车辆可能遇到的具体环境的示例;
-图3示意性地示出了根据本发明的定位和映射系统的第一示例;
-图4示出了在图3的系统中使用的数据表;
-图5示意性地示出了根据本发明的定位和映射系统的第二示例;和
-图6示出了根据本发明的定位和映射方法的主要步骤。
具体实施方式
图1示出了配备有定位和映射系统S的机动车辆V。
在这种情况下,定位和映射系统S构造为基于微处理器的处理装置形式。
该处理设备包括适于存储计算机程序指令的存储器(例如只读存储器或可重写非易失性存储器,或任何随机存取存储器),由处理设备的微处理器执行的计算机程序指令导致执行下面描述的方法和过程。
机动车辆V包括一个或多个机载传感器,例如诸如视频摄像机CAM的视觉传感器、和/或诸如激光远程传感器或激光雷达(lidar,“光检测和测距”的缩写)传感器的距离传感器。
定位和映射系统S接收由机载传感器产生的数据INFOCAM、INFOLID,并且处理它们以用于构建机动车辆V在其中操纵的环境的映射图C,并且建立车辆V在所构建的映射图C中的位置。
图2示出了车辆V可能遇到的环境的示例。
在该示例中,车辆V在双向道路R中操纵,在车道的任一侧邻接人行道TR,且在人行道TR以外邻接房屋H。
第三方车辆V’停放在位于车辆V前方的道路R的部分中,其部分地在道路R的车道上、且部分地在人行道TR上。
图3示意性地示出了根据本发明的定位和映射系统的第一示例。在该示例中,定位和映射系统S使用由两个传感器(在这种情况下为摄像机CAM和激光雷达传感器LID)提供的数据INFOCAM、INFOLID。
图3示出了功能模块,其中,每个功能模块对应于由定位和处理系统S执行的特定过程。在本文描述的示例中,作为系统S的微处理器执行存储在系统S的存储器中的计算机程序指令的结果,如上所述的过程被执行。在一变型中,由一个或多个功能模块执行的过程可以由专用集成电路(例如特定应用集成电路(ASIC))执行。
图3的系统包括检测模块10,其接收由第一传感器(在这种情况下为摄像机CAM)生成的数据INFOCAM,并且针对每个检测到的对象OBJi生成关于关注对象的定位Li的信息。定位信息Li例如存储表格TAB中,该表格存储在系统S的存储器中,如图4中示意性所示。
在本文描述的示例中,数据INFOCAM表示由摄像机CAM连续拍摄的图像;通过对这些图像的分析,如在上面的介绍部分中提到的专利申请WO2004/059 900中所记载的,相对于机动车辆V检测和定位对象OBij。
在图2的环境中,检测模块10例如将第三方车辆V'检测为对象OBJ1,并且通过分析由摄像机CAM提供的图像确定第三方车辆V'相对于车辆V的定位(由定位信息L1限定)。
图3的系统还包括分类模块12,其在其输入处接收由第一传感器(在这种情况下为摄像机CAM)生成的数据INFOCAM和检测到的对象OBJi的指定(例如包括它们在从摄像机CAM接收的图像中的位置)。
分类模块12被设计为基于从第一传感器接收的数据INFOCAM识别每个对象OBJi的类型Ti,例如在本文描述的情况下,数据INFOCAM借助于形状识别算法表示图像。
在变型中,第一传感器可以是激光雷达传感器LID,在这种情况下,例如可以基于通过反射自对象OBJi的、由激光雷达传感器LID接收的信号的特征码(signature)执行对于对象OBJi类型的识别。
对象OBJi的类型Ti的识别使其能够在各种对象类型(例如车辆、行人、骑自行车者、房屋、道路照明或信号设备等)中进行分类,使得可以确定该对象OBJi是移动还是固定类型的。应当注意,在车辆V通过期间,不管关注对象实际上是固定的还是移动的,都执行根据对象类型的分类。
例如,在图2的环境中,分类模块12通过形状识别确定对象OBJ1(也就是说,如上所述的第三方车辆V')是车辆类型。
如图4所示,与关注对象OBJi有关的对象类型Ti存储在上述表格TAB中。在一变型中,所存储的信息可以被限定成对于关注对象OBJi的移动或固定特性的指示,该指示基于如上所述识别类型Ti来确定。
为了描述的清楚,检测模块10和分类模块12被描述为两个单独的模块。然而,在同一步骤期间执行对于对象OBJi的检测和对其类型Ti的识别(使其能够被分类为移动或固定对象)是可行的,例如借助于在由摄像机CAM传送的图像中的用于形状识别的算法。
系统S包括过滤模块14,其接收从第二传感器(在这种情况下是激光雷达传感器LID)接收的数据INFOLID。过滤模块14还使用由检测模块10检测的每个对象OBJi的定位Li以及由分类模块12确定的每个对象的类型Ti(该信息可以从相关模块接收,或可从存储表格TAB读取)。
在这里描述的示例中,由激光雷达传感器传送的数据INFOLID表示例如分别与在0°至360°的整个角度范围中的一角度α相关联的检测距离d(α)的值的集合。
根据检测模块10和分类模块12生成的信息,从数据INFOLID中,过滤模块14仅传送与未检测到对象的区域、或已经检测到具有固定对象类型Ti的区域对应的数据INFOLID。换句话说,过滤模块14不传送有关已经检测到具有移动对象类型Ti的对象OBJi的区域的数据INFOLID。
在图2的环境中,根据定位信息L1,检测到的具有移动对象类型T1(车辆)的对象OBJ1(第三方车辆V')遮挡角度范围α1-α2,使得不存在具有移动对象类型的其它对象,则过滤模块14仅传送与角度范围[0°,α1]和[α2,360°(也就是说,表示仅对于0≤α<α1和α2<α<360°的d(α)的值的数据)相关联的数据INFOFIX。
在由过滤模块14过滤之后,所传送的数据INFOFIX被定位模块16接收,定位模块16使用这些数据INFOFIX执行用于同时定位和映射的算法,例如在ITS World Congr.2010中的作者为J.Xie、F.Nashashibi、MN Parent和O.Garcia-Favrot的论文“A real-time robustSLAM for large-scale outdoor environments”中描述的。
定位模块16可以基于在这种情况下在过滤之后的从第二传感器(在所述示例中为激光雷达传感器LID)获得的数据INFOFIX而使用,并且使用由定位模块16在先前的迭代中构建的映射图C确定车辆V在映射图C上的当前位置(或定位)LOC,并且还丰富映射图C,特别是作为数据INFOFIX中存在在先前迭代中激光雷达传感器未抵达的区域的数据的结果。
然而,应当注意,由于(通过过滤模块14)拒绝了有关检测到具有移动对象类型Ti的对象OBJi的区域的数据INFOLID,所以,仅有关永久存在的对象的数据通过定位模块16被处理,因此防止对实际上没有用的数据的处理(从而加速处理),同时还允许构建不包含随后可能移动的对象的映射图:这样的映射图更为鲁棒,并且容易重复使用。
图5示意性地示出了根据本发明的定位和映射系统的第二示例。在该示例中,定位和映射系统S使用由单个传感器(在这种情况下为摄像机CAM)传送的数据DAT。
如图3那样,图5示出了多个功能模块,在这种情况下,作为系统S的微处理器执行存储在系统S的存储器中计算机程序的结果,其中每个功能模块对应于由定位和处理系统S执行的特定过程。在一变型中,由一个或多个功能模块执行的过程可以由专用集成电路(例如特定应用集成电路(或ASIC))执行。
图5的系统包括检测模块20,其接收由传感器产生的数据DAT,在这种情况下,其是表示由摄像机CAM拍摄的图像的数据,并且针对检测到的每个对象OBJi(通过此处的图像分析)情况生成关于关注对象的定位Li的信息。定位信息Li例如存储在存储于系统S的存储器中的表TAB中,如图4中示意性所示。
图5的系统S包括分类模块22,其在其输入处接收由传感器(在这种情况下为摄像机CAM)产生的数据DAT,以及检测对象OBJi的指定(例如包括它们在从摄像机CAM接收的图像中的位置)。
分类模块12被设计为基于从所述传感器接收的数据DAT识别每个对象OBJi的类型Ti,例如本文所述的情况下,数据DAT借助于形状识别算法表示图像。
如上面参考图3所提到的,识别对象OBJi的类型Ti使得能够在各种对象类型中进行分类,使得可以确定该对象OBJi是移动还是固定类型,而不管该对象在车辆V通过期间实际上是固定的还是移动的。
如图4所示,有关关注对象OBJi的对象类型Ti被存储在上述表格TAB中。在一变型中,所存储的信息可以被限定为用于关注对象OBJi的所识别的移动或固定性的对象类型的指示Ti。
如上面关于图3所提到的,在一个变型中,在同一的处理步骤(也就是说通过同一的功能模块)中执行对于对象OBJi的检测及其类型Ti的识别(使其能够被分类为移动或固定对象)将是可行的。
对于由检测模块20检测到的每个对象,定位模块26接收对该对象OBJi的描述、其定位Li和其识别的类型Ti,并且基于该信息执行同时的映射和定位算法,还使用在算法的先前迭代中所构建的映射图C。
映射图C包括例如一组参考点(或者如在英语中已知的“landmarks”(地标)),每个参考点对应于在先前迭代中检测到的对象。
定位模块26被设计成使得其执行的处理仅考虑关联类型Ti不对应于移动对象类型的对象OBJi。例如,在同时映射和定位算法中考虑对象OBJj的定位信息Lj之前,定位模块26检查对象OBJj的类型Tj(在这种情况下,通过查阅存储在系统S的存储器中的表TAB),并且,如果类型Tj是固定对象类型而不是移动对象类型,则将仅在算法中实际使用定位信息Lj。
基于其类型Ti对应于固定对象类型的对象的定位信息Li(但是不考虑类型Ti对应于移动对象类型的对象的定位信息Li),定位模块26确定车辆V在映射图C上的当前位置(或定位)LOC,(通常通过将每个检测到的对象OBJi与包括在映射图C中的参考点进行比较),并且丰富映射图C(通常通过向映射图C添加检测到的对象OBJi,其不对应于任何参考点,使得它们中的每一个在完成的映射图C中形成新的参考点)。
如上面关于定位和映射系统的第一示例所提到的,所构建的映射图C是鲁棒的并且容易可重复使用,因为它是基于不经历运动的对象构建的。
图6示出了根据本发明的定位和映射方法的主要步骤。
该方法开始于步骤E3,其接收由车辆V中的机载传感器(在这种情况下为摄像机CAM或激光雷达传感器LID)产生的数据。
该方法继续进行步骤E32,通过在步骤E30中从机载传感器接收的数据来检测存在于车辆V操纵的环境中的对象。在上述示例中,该步骤由检测模块10、20执行。
该方法然后包括步骤E34,对于在E32中检测到的每个对象,并且基于在步骤E30中从机载传感器接收的数据,确定相关对象的类型,例如借助于形状识别算法(如果从机载传感器接收到的数据表示图像)或借助于特征码识别算法(如果从机载传感器接收的数据表示信号)来确定。该步骤在上述示例中由分类模块12、22执行。
应当注意,在变型中,如果需要,在合并从不同传感器获得的数据的步骤之后,可以使用从多个传感器获得的数据根据它们的类型对对象进行分类。
如果两个传感器分别用于对象的分类和移动机器的定位,如在上面参考图3给出的第一示例中,该方法包括接收由第二传感器产生的数据的步骤E36。
如果必要,该方法还可以包括过滤在步骤E36中接收的数据的步骤E38,以便拒绝与在步骤E34中确定的类型是移动对象类型的对象、或与已经检测到具有对应于移动对象类型的类型的对象(在步骤E34中确定)的环境区域有关的数据。在上面参考图3描述的第一示例中,使用的过滤模块14执行这一步骤。
在一个变型中,如在参考图5描述的第二示例的情况下,该方法不具体包括过滤步骤;在这种情况下,下面描述的定位步骤被设计为在不考虑以下数据的情况下操作,所述数据为有关在步骤E34中确定的类型是移动对象类型的对象的数据,或者有关已经检测到具有对应于移动对象类型的类型的对象的环境的区域的数据(在步骤E34中确定)。
该方法继续步骤E40,其基于检测数据定位移动机器(在这种情况下为机动车辆V),所述检测数据可以是在步骤E30中接收的数据和/或在步骤E36中接收的数据(如果执行这样步骤),并且基于在该方法的先前迭代中所构建的映射图。
该步骤E40包括执行同时的定位和映射算法,使得不仅可以定位机器而且可以丰富映射图。
应当注意,如上所述,在必要时,在合并从不同传感器获得的数据的步骤之后,可以从多个机载传感器获得由定位和映射算法使用的数据。
在这种情况下,通常允许该方法循环回到步骤E30,以便在稍后的时刻执行步骤E30到E40的新迭代。
在上述过程期间构造的映射图被永久地保持,使得其可以随后被再次使用,例如在移动机器(在这种情况下是机动车辆V)在稍后时间在环境中通过时(例如在另一天,在映射图构建的那一天之后)。
为此目的,定位和映射系统S包括一机构,其例如用于将正在构建的映射图与先前构造(和存储)的映射图进行比较以用于其再次使用。因此,如果移动机器在稍后时间再次在相同环境中行进,则比较机构可以用于识别在先前构造的映射图中所表示的邻近环境,并且使用先前构造的映射图(通过将该映射图加载到存储器中,并在定位和映射算法中使用它)。
如果所存储的卡已经通过上述方法构造,则比较机构特别有利地被操作,因为这种映射图仅包含与保持固定的对象有关的信息,并且不包含与在后通过期间不再存在的对象有关的信息。因此,本发明提供了可以长期用于移动机器的定位的映射。
Claims (12)
1.一种由移动机器(V)在环境中使用的定位和映射方法,包括以下步骤:
-基于从所述移动机器(V)上的机载传感器(CAM)接收的数据(INFOCAM;DAT)确定(E34)位于所述环境的区域中的对象(OBJi)的类型(Ti);
-使用检测数据(INFOLID;DAT)执行(E40)定位算法,如果所确定的类型(Ti)是移动对象类型,则不考虑与所述区域或所述对象(OBJi)相关的检测数据(INFOLID;DAT)。
2.根据权利要求1所述的方法,其中,所述传感器(LID)是激光雷达传感器。
3.根据权利要求2所述的方法,其中,通过识别所接收的数据中的形状或特征码来执行所述确定。
4.根据权利要求1所述的方法,其中,所述传感器(CAM)是图像传感器。
5.根据权利要求4所述的方法,其中,通过识别由所接收的数据(INFOCAM)表示的至少一个图像中的形状来执行所述确定。
6.根据权利要求1至5中任一项所述的方法,其中,从所述机载传感器(CAM)获得所述检测数据(DAT)。
7.根据权利要求1至5中任一项所述的方法,其中,从与所述机载传感器(CAM)分离的另一传感器(LID)获得所述检测数据(INFOLID)。
8.根据权利要求1至7中任一项所述的方法,其中,如果所确定的类型(Ti)是固定对象类型,则所述定位算法使用所述对象(OBJi)作为参考点。
9.根据权利要求1至7中任一项所述的方法,其中,如果在给定区域中没有检测到具有对应移动对象类型的类型的对象,则所述定位算法使用与所述给定区域相关的检测数据(INFOLID)。
10.根据权利要求1至9中任一项所述的方法,其中,所执行的定位算法构建所述环境的映射图(C)。
11.根据权利要求10所述的方法,包括以下步骤:
-保存所构建的映射图(C);
-在稍后的时间,加载和重新使用由所述定位算法构建的映射图(C)。
12.一种要安装到环境中的移动机器(V)的定位和映射系统(S),包括:
-模块(12;22),其用于基于从移动机器(V)的机载传感器(CAM)接收的数据(INFOCAM;DAT)确定位于所述环境的区域中的对象(OBJi)的类型(Ti);
-定位模块(16;26),其被设计为在检测数据(INFOLID;DAT)的基础上定位移动机器(V),如果所确定的类型(Ti)是移动对象类型,则不考虑与所述区域或所述对象(OBJi)相关的检测数据。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR14/02084 | 2014-09-17 | ||
FR1402084A FR3025898B1 (fr) | 2014-09-17 | 2014-09-17 | Procede et systeme de localisation et de cartographie |
PCT/EP2015/071378 WO2016042106A1 (fr) | 2014-09-17 | 2015-09-17 | Procédé et système de localisation et de cartographie |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107003671A true CN107003671A (zh) | 2017-08-01 |
CN107003671B CN107003671B (zh) | 2021-04-16 |
Family
ID=52423753
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201580050450.4A Active CN107003671B (zh) | 2014-09-17 | 2015-09-17 | 定位和映射方法和系统 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20170254651A1 (zh) |
EP (1) | EP3195077B1 (zh) |
JP (1) | JP6695866B2 (zh) |
CN (1) | CN107003671B (zh) |
FR (1) | FR3025898B1 (zh) |
WO (1) | WO2016042106A1 (zh) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11670180B2 (en) * | 2016-06-10 | 2023-06-06 | Metal Raptor, Llc | Obstruction detection in air traffic control systems for passenger drones |
US11670179B2 (en) * | 2016-06-10 | 2023-06-06 | Metal Raptor, Llc | Managing detected obstructions in air traffic control systems for passenger drones |
FR3057693B1 (fr) * | 2016-10-13 | 2022-04-15 | Valeo Schalter & Sensoren Gmbh | Dispositif de localisation et dispositif de production de donnees d'integrite |
US10339708B2 (en) * | 2016-11-01 | 2019-07-02 | Google Inc. | Map summarization and localization |
DE102017215868A1 (de) * | 2017-09-08 | 2019-03-14 | Robert Bosch Gmbh | Verfahren und Vorrichtung zum Erstellen einer Karte |
CN114440898A (zh) * | 2018-04-03 | 2022-05-06 | 御眼视觉技术有限公司 | 用于车辆导航的系统和方法 |
DE102018208182A1 (de) | 2018-05-24 | 2019-11-28 | Robert Bosch Gmbh | Verfahren und Vorrichtung zum Ausführen wenigstens einer sicherheitssteigernden Maßnahme für ein Fahrzeug |
WO2020091111A1 (ko) * | 2018-11-01 | 2020-05-07 | 엘지전자 주식회사 | 차량용 전자 장치, 차량용 전자 장치의 동작 방법 및 시스템 |
JP7180399B2 (ja) * | 2019-01-18 | 2022-11-30 | 株式会社豊田自動織機 | 走行制御装置 |
GB201909556D0 (en) * | 2019-07-03 | 2019-08-14 | Tomtom Traffic Bv | Collecting user-contributed data relating to a navibable network |
DE102019220616B4 (de) * | 2019-12-30 | 2022-03-24 | Automotive Research & Testing Center | Verfahren zur simultanen lokalisierung und abbildung |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07191743A (ja) * | 1993-12-27 | 1995-07-28 | Toshiba Corp | 移動経路生成方法 |
EP0915350A2 (de) * | 1997-11-06 | 1999-05-12 | DaimlerChrysler AG | Vorrichtung zur Ermittlung fahrspurverlaufsindikativer Daten |
CN101101484A (zh) * | 2007-08-01 | 2008-01-09 | 暨南大学 | 一种基于机器视觉的二维定位装置 |
CN101839722A (zh) * | 2010-05-06 | 2010-09-22 | 南京航空航天大学 | 一种中低空下目标自动识别及载体高精度定位方法 |
CN202033665U (zh) * | 2011-04-12 | 2011-11-09 | 中国科学院沈阳自动化研究所 | 轨道式自主移动机器人 |
CN102591332A (zh) * | 2011-01-13 | 2012-07-18 | 同济大学 | 用于无人驾驶汽车局部路径规划的装置及方法 |
CN102968121A (zh) * | 2012-11-27 | 2013-03-13 | 福建省电力有限公司 | 一种沿轨道行驶精确定位装置 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4978099B2 (ja) * | 2006-08-03 | 2012-07-18 | トヨタ自動車株式会社 | 自己位置推定装置 |
KR101572851B1 (ko) * | 2008-12-22 | 2015-11-30 | 삼성전자 주식회사 | 동적 환경에서 모바일 플랫폼의 지도 작성방법 |
JP5141644B2 (ja) * | 2009-06-23 | 2013-02-13 | トヨタ自動車株式会社 | 自律移動体、自己位置推定装置、およびプログラム |
US9062980B2 (en) * | 2011-11-22 | 2015-06-23 | Hitachi, Ltd. | Autonomous mobile system |
JP5429901B2 (ja) * | 2012-02-08 | 2014-02-26 | 富士ソフト株式会社 | ロボット及び情報処理装置のプログラム |
JP5817611B2 (ja) * | 2012-03-23 | 2015-11-18 | トヨタ自動車株式会社 | 移動ロボット |
WO2013150630A1 (ja) * | 2012-04-05 | 2013-10-10 | 株式会社日立製作所 | 地図データ作成装置、自律移動システムおよび自律移動制御装置 |
JP2014203429A (ja) * | 2013-04-10 | 2014-10-27 | トヨタ自動車株式会社 | 地図生成装置、地図生成方法及び制御プログラム |
-
2014
- 2014-09-17 FR FR1402084A patent/FR3025898B1/fr active Active
-
2015
- 2015-09-17 JP JP2017514865A patent/JP6695866B2/ja active Active
- 2015-09-17 WO PCT/EP2015/071378 patent/WO2016042106A1/fr active Application Filing
- 2015-09-17 CN CN201580050450.4A patent/CN107003671B/zh active Active
- 2015-09-17 EP EP15763930.3A patent/EP3195077B1/fr active Active
- 2015-09-17 US US15/510,374 patent/US20170254651A1/en not_active Abandoned
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07191743A (ja) * | 1993-12-27 | 1995-07-28 | Toshiba Corp | 移動経路生成方法 |
EP0915350A2 (de) * | 1997-11-06 | 1999-05-12 | DaimlerChrysler AG | Vorrichtung zur Ermittlung fahrspurverlaufsindikativer Daten |
US6292752B1 (en) * | 1997-11-06 | 2001-09-18 | Daimlerchrysler Ag | Device for acquiring lane path indicative data |
CN101101484A (zh) * | 2007-08-01 | 2008-01-09 | 暨南大学 | 一种基于机器视觉的二维定位装置 |
CN101839722A (zh) * | 2010-05-06 | 2010-09-22 | 南京航空航天大学 | 一种中低空下目标自动识别及载体高精度定位方法 |
CN102591332A (zh) * | 2011-01-13 | 2012-07-18 | 同济大学 | 用于无人驾驶汽车局部路径规划的装置及方法 |
CN202033665U (zh) * | 2011-04-12 | 2011-11-09 | 中国科学院沈阳自动化研究所 | 轨道式自主移动机器人 |
CN102968121A (zh) * | 2012-11-27 | 2013-03-13 | 福建省电力有限公司 | 一种沿轨道行驶精确定位装置 |
Non-Patent Citations (1)
Title |
---|
QADEER BAIG ETC: ""Online Localization and Mapping with Moving Objects Detection in Dynamic outdoor environments"", 《INTELLIGENT COMPUTER COMMUNICATION AND PROCESSING》 * |
Also Published As
Publication number | Publication date |
---|---|
EP3195077A1 (fr) | 2017-07-26 |
WO2016042106A1 (fr) | 2016-03-24 |
JP6695866B2 (ja) | 2020-05-20 |
FR3025898B1 (fr) | 2020-02-07 |
EP3195077B1 (fr) | 2021-04-14 |
JP2017538915A (ja) | 2017-12-28 |
CN107003671B (zh) | 2021-04-16 |
US20170254651A1 (en) | 2017-09-07 |
FR3025898A1 (fr) | 2016-03-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107003671A (zh) | 定位和映射方法和系统 | |
Toulminet et al. | Vehicle detection by means of stereo vision-based obstacles features extraction and monocular pattern analysis | |
Khammari et al. | Vehicle detection combining gradient analysis and AdaBoost classification | |
CN103358993B (zh) | 用于识别车辆停车位线标记的系统和方法 | |
CN112069643B (zh) | 一种自动驾驶仿真场景生成方法及装置 | |
CN111507327B (zh) | 一种目标检测方法及装置 | |
CN110826356B (zh) | 一种非机动车违章检测系统、方法及服务器 | |
KR20120072020A (ko) | 자율주행 시스템의 주행정보 인식 방법 및 장치 | |
US11371851B2 (en) | Method and system for determining landmarks in an environment of a vehicle | |
CN105321350A (zh) | 套牌车检测方法及装置 | |
CN111928857B (zh) | 一种动态环境中实现slam定位的方法及相关装置 | |
CN106803262A (zh) | 利用双目视觉自主解算汽车速度的方法 | |
CN108573244B (zh) | 一种车辆检测方法、装置及系统 | |
CN112639812A (zh) | 用于传感器数据中改善的对象标记的方法和系统 | |
US11900691B2 (en) | Method for evaluating sensor data, including expanded object recognition | |
CN112052907A (zh) | 基于图像边缘信息的目标检测方法、装置及存储介质 | |
CN106250827B (zh) | 车辆颜色识别方法及装置 | |
Feng et al. | 3D feature point extraction from LiDAR data using a neural network | |
Zeng et al. | Enhancing underground visual place recognition with Shannon entropy saliency | |
JP2012160116A (ja) | 物体識別装置 | |
CN111639640B (zh) | 基于人工智能的车牌识别方法、装置及设备 | |
Baviskar et al. | Auto Number Plate Recognition | |
Rebut et al. | Road obstacles detection using a self-adaptive stereo vision sensor: a contribution to the ARCOS French project | |
Moutarde et al. | Modular Traffic Sign Recognition applied to on-vehicle real-time visual detection of American and European speed limit signs | |
KR102540629B1 (ko) | 교통 시설물에 대한 학습 데이터 생성 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |