CN105324792A - 用于估计移动元件相对于参考方向的角偏差的方法 - Google Patents

用于估计移动元件相对于参考方向的角偏差的方法 Download PDF

Info

Publication number
CN105324792A
CN105324792A CN201480026821.0A CN201480026821A CN105324792A CN 105324792 A CN105324792 A CN 105324792A CN 201480026821 A CN201480026821 A CN 201480026821A CN 105324792 A CN105324792 A CN 105324792A
Authority
CN
China
Prior art keywords
interest
point
image
reference picture
moving meter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201480026821.0A
Other languages
English (en)
Other versions
CN105324792B (zh
Inventor
E·维贝尔
F·迪里耶
A·德拉福尔泰利
B·斯特乌克斯
S·博纳贝尔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Association pour la Recherche et le Developpement des Methodes et Processus Industriels
Softbank Robotics SAS
Original Assignee
Association pour la Recherche et le Developpement des Methodes et Processus Industriels
Aldebaran Robotics SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Association pour la Recherche et le Developpement des Methodes et Processus Industriels, Aldebaran Robotics SA filed Critical Association pour la Recherche et le Developpement des Methodes et Processus Industriels
Publication of CN105324792A publication Critical patent/CN105324792A/zh
Application granted granted Critical
Publication of CN105324792B publication Critical patent/CN105324792B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Manipulator (AREA)
  • Navigation (AREA)
  • Image Processing (AREA)

Abstract

本发明涉及用于估计移动元件相对于参考方向的角偏差的方法,该方法包括下面的步骤:获取代表移动元件的参考方向的参考图像(101);获取代表移动元件的当前方向的当前图像(102);识别在参考图像中和在当前图像中的兴趣点(103);确定至少两对兴趣点(104),一对由当前图像的兴趣点和在参考图像中的对应于其的兴趣点构成;通过使用在前述步骤中识别的至少两对点来确定在移动元件的当前方向和参考方向之间的角偏差(105)。

Description

用于估计移动元件相对于参考方向的角偏差的方法
技术领域
本发明涉及用于估计移动元件相对于参考方向的角偏差的方法,并可特别应用于导航场。
背景技术
为了估计移动元件(例如机器人)的路线,第一种技术在于使用它的测距法,也就是说使用对它的移动的测量。为了那个目的,可使用来自各种板载传感器的测量。因此对于有轮机器人,可能使用位于轮子中的旋转编码器类型的里程表。这种技术的缺点中的一个是,它产生随着时间的过去而明显漂移的估计。
存在的第二种技术在于实现度量传感器,例如激光遥测计或3D摄像机,以便得到一个人相对于表示导航环境的地图的方向角。依赖于这种技术的方法由首字母缩略词SLAM(同时定位与地图构建)表示,在这种情况下地图同样在机器人的导航期间被构造和丰富。这个解决方案具有几个缺点。这是因为将这些传感器集成在机器人的架构内是必须的。这涉及高实现成本并需要相当大的计算能力,以便产生地图并确定机器人的位置。
存在的第三种技术基于六轴惯性单元的使用。这个惯性单元通常由三个陀螺仪和三个加速计构成,并可特别提供机器人的路线。这样的单元同样受到测量漂移现象的影响,否则非常昂贵。这种技术因此并不适合于在具有低实现成本的机器人中实现。
因此,看来好像机器人设计者没有允许他们得到精确的路线估计同时最小化实现成本的可采用的技术。
发明内容
本发明的目的特别是补偿前面提到的缺点。
为此目的,本发明的主题是用于估计移动元件相对于参考方向的角偏差的方法,该方法包括下面的步骤:获取代表移动元件的参考方向的参考图像;获取代表移动元件的当前方向的当前图像;识别在参考图像中和在当前图像中的兴趣点;确定至少两对兴趣点,一对由在当前图像中识别的兴趣点和在参考图像中的对应于其的兴趣点构成;通过使用在前一步骤中识别的至少两对点来确定在移动元件的当前方向和参考方向之间的角偏差。
用于估计机器人相对于参考方向的角偏差的方法的使用使避免作为测距法的特性的估计误差变得可能。
根据本发明的一个方面,兴趣点与对应于二进制矢量的描述符相关联,确定所述对的步骤通过以下来实现:两个两个地比较这些矢量,当两个兴趣点的两个矢量被考虑为相对于与其它兴趣点相关联的其它候选矢量最接近时,两个兴趣点被识别出。
作为示例,沿着相对于移动元件固定的标准正交参考系的三个轴X、Y、Z确定角偏差。
在一个实施例中,该方法包括验证角偏差的估计的质量的步骤,当匹配的兴趣点的对的数量超过预定义的门限值时,质量被考虑为是足够的。
根据本发明的一个方面,当质量被考虑为是不足时,获取新参考图像。
有利地,这个质量控制使当移动元件移动时保持可靠的角偏差的估计变得可能。
作为示例,根据兴趣点的质量来调整参考图像的刷新率,根据正确的兴趣点的水平来估计所述质量,且这个水平一旦低于预定义的门限值,参考图像就被更新。
作为示例,根据在当前图像中识别的兴趣点之间的估计的平均距离来调整当前图像的刷新率,当兴趣点接近彼此时,刷新率增加。
作为示例,参考方向对应于移动元件需要跟随以便移动的目标路线,用于控制移动元件的移动的命令被确定并应用,以便最小化通过该方法估计的角偏差。
作为示例,选择参考图像,使得它保持至少部分地在负责获取当前图像的传感器的视场中,使得预定义的最小数量的兴趣点可被匹配。
在一个实施例中,相对于移动元件需要跟随以便移动的目标路线,最初估计的角偏差是α弧度。参考方向于是对应于目标路线,其中-α/2弧度的角偏差被加到所述目标路线,用于控制移动元件的移动的命令被确定并应用,使得随后估计的角偏差尽可能接近+α/2弧度。
根据本发明的一个方面,参考图像由在移动元件上并在拍摄的时刻指向参考方向的图像传感器得到。
本发明的主题也是用于估计在相对于导航空间固定的参考点上的移动元件的角位置的方法,该方法包括下列步骤:获取由覆盖导航空间的多个图像构成的全景,全景的一个图像代表离开移动元件的方向;通过测距法估计移动物体的角位置;从全景的图像选择参考图像,所述图像对应于在前一步骤中估计的角位置;精确地估计移动元件的角位置,所述角位置从通过应用用于估计角偏差的方法而估计的角漂移推测出。
作为示例,移动元件是机器人。这个机器人可具有人形类型。
可选地,移动元件可以是汽车。
本发明的主题也是包括适合于实现上面所述的方法的单元的人形机器人。
本发明的主题也是计算机程序,其具有用于在程序由数据处理模块执行时执行上面所述的方法的指令。
附图说明
本发明的其它特征和优点将借助于接下来的描述而出现,该描述作为例证被提供且没有暗示限制且关于附图被编写,在附图当中:
图1示意性示出用于估计相对于参考方向的角偏差的方法的步骤,所述参考方向与参考图像相关联,其在描述的其余部分中被称为参考图像;
图2提供使用用于估计角漂移的方法的机器人的轨迹的控制的技术示例;
图3提供图像的示例,其中兴趣点被检测到;
图4示出一对匹配的点并说明角偏差可从两个图像被确定的方式;
图5提供可通过应用用于识别一致对的技术(例如RANSAC)来得到的结果的示例;
图6提供用于估计移动元件的绝对角位置的方法的简化图示;
图7示意性示出用于估计绝对角位置的方法的学习阶段;
图8示出选择全景中的参考图像的方式和机器人的绝对角位置可如何被估计;
图9示出使用绝对角位置的估计来控制机器人的旋转移动的方式;
图10示出人形机器人。
具体实施方式
在本描述中,使用在机器人上且更具体地在人形机器人上的实现的示例描述了本发明。然而,本发明可应用于任何移动元件。特别是,本发明可应用于任何类型的车辆、轮船或飞机。
本发明的主题特别是用于估计机器人相对于参考方向的角偏差的方法。这个相对角偏差被定义为在估计的时刻在所述参考方向和机器人的方位之间的角度。在估计的时刻的机器人的方位也被称为当前方向。作为示例,从参考方向顺时针确定这个角度的值。
有利地,机器人的相对角偏差的估计可用于精确地控制它的移动,特别是以便执行在给定角度下绕着固定点的旋转或执行在给定方向上的直线中的移动。而且,该方法允许对机器人的绝对位置的估计。
图1示意性示出用于估计机器人的方位相对于参考方向的角偏差的方法的步骤,所述参考方向与在本描述的其余部分中被称为参考图像的图像相关联。
首先,确定(100)被称为目标路线的待达到的路线值。作为示例,这个目标路线值对应于当角偏差在二维坐标系中被估计时的角度,否则作为示例,对应于当角偏差在三维坐标系中被估计时对应于纬度和经度的一组两个角度。在一个实施例中且在人形机器人的情况下,目标路线可被选择为机器人的方位,所述方位作为示例对应于垂直于机器人的胸膛的矢量,其穿过它的中心并指向前方。
然后获取(101)参考图像。可使用机器人上的图像传感器来得到参考图像。这个参考图像代表参考方向,相对于该参考方向的机器人的相对角偏差由该方法估计。在优选实施例中,当图像传感器位于参考方向上时,参考图像是获取的图像。
在被称为当前时刻的给定时刻按时地获取(102)当前图像。作为示例,这个当前图像对应于在当前时刻从在机器人上的图像传感器获取的图像。在人形机器人的情况下,这个图像传感器可位于头部上,所述头部能够相对于机器人的身体是固定或移动的。
然后在参考图像中和在当前图像中识别(103)一组兴趣点。
为了那个目的,使用用于检测兴趣点的方法,在本描述的其余部分中由字检测器表示这样的方法。此外,图像中的点被称为兴趣点(当它具有允许它在从不同的拍摄产生的多个图像中被识别出的特征时)。实际上,兴趣点对应于由中心轴和比例识别的几个像素的区域。作为示例,兴趣点可对应于具有高对比度水平并对应于壁橱角的几个像素的区域。
当兴趣点被检测器识别出时,描述符可与其相关联。描述符是通常以二进制形式表示的兴趣点的标识符。描述符特别允许从一个图像到另一图像比较识别出的兴趣点。作为示例,描述符对应于二进制矢量。
参考图像的描述符可被分组成被称为参考索引的索引103。
至于参考图像,兴趣点由这个当前图像的检测器识别,描述符于是与这些点中的每一个相关联。
一旦兴趣点被识别出并特征化(103),就实现兴趣点的匹配步骤(104)。这个步骤104实现对在当前图像中的每一个识别出的兴趣点、对在参考图像中的对应于其的至少一个兴趣点的搜索。为了那个目的,在当前图像中的兴趣点的描述符可与存储在参考索引中的描述符进行比较。
为了进行这个比较,可例如使用各种技术,例如由首字母缩写词KDTree表示的技术。KDTree技术允许给定矢量与预先计算的索引的快速比较。在这种情况下,对于在当前图像中的每一个识别出的兴趣点,选择两个最接近的邻居。对于在当前图像中的兴趣点,最接近的邻居是在参考图像中的兴趣点,(对于该参考图像)在它们的描述符和在当前图像中的兴趣点的描述符之间的差异被最小化。接着,如果到最接近的邻居的距离明显短于到第二邻居的距离,则最接近的邻居被考虑为与在当前图像中的兴趣点匹配。这种方法允许消除点的一些错误对。这是因为如果在当前图像中的两个不同的兴趣点具有接近的描述符,则与其比较的在参考图像中的兴趣点将具有接近的距离。这种技术因此使减少识别出的匹配的数量变得可能,但同样使防止在当前图像中的太多的兴趣点被差地匹配变得可能。
步骤105于是具有估计相对于参考方向的角偏差的目的。为了那个目的,分析在前一步骤中识别出的兴趣点对。稍后在本描述中提供两对兴趣点的比较的示例。
在一个实施例中,确定沿着相对于机器人固定的标准正交参考系的三个轴X、Y、Z的角偏差。为了那个目的,可使用两对点。为了实现计算,假设兴趣点位于离机器人的无限距离处。
可同样假设机器人在现场转动。这是因为绕着Z轴的旋转转换成点从左到右的移动,绕着Y轴的旋转转换成从顶到底的移动(其可对单个点被看到)以及绕着X轴的旋转转换成绕着图像的中心的旋转(其需要两个点,以便执行计算)。
一旦估计出角偏差,就执行(107)检查以确保估计的质量是足够的。在一个实施例中,当匹配的兴趣点对的数量超过预定义的门限值时,质量被考虑为足够的。如果情况不是这样,则估计的质量被考虑为是不足的且新参考图像被获取(120)以便继续估计。如果情况就是这样,则质量被考虑为足够的且新当前图像被获取(121)以便允许在一段时间内跟随角偏差的发展。
至于当前图像121的刷新率,这需要根据导航环境和机器人的速度来选择。可根据在兴趣点之间的所估计的平均距离来调整当前图像的刷新率。兴趣点彼此越接近,刷新率就越高。因此,当机器人朝着墙壁移动时,刷新率增加。
本发明的基本优点中的一个是,偏差的计算需要代表参考方向的单个图像。
在一个实施例中,可通过刷新来更新参考图像。在这种情况下,参考图像的刷新率可在操作过程中被调整且不是先验地固定的。刷新率可根据视觉参考点的质量而被更新并可被自动调整以便维持最低质量。
只有必要时,即在质量降级之前,允许参考图像的刷新被发起的标准的示例才是匹配的质量的估计和参考图像的更新。可从在由RANSAC算法执行的计算之后得到的正确点的水平估计这个质量。这个水平一旦太低,即低于先验地固定的门限,就获取新图像。参考图像因此被刷新。可选择门限,使得前一图像仍然是有效的,以便从不失去参考图像。
根据环境,单个参考图像因此可能对移动元件所跟随的整个轨迹就足够了,例如在旋转的情况下。参考频率因此不是固定的,因为参考图像没有被周期性地更新(但只有当匹配的质量下降时)。
而且,由于参考点的灵活性,在参考方向上的图像的获取允许机器人在机器人的未知方向上被控制。当机器人前进到未知区域且参考变得陈旧时,参考图像的自动刷新允许更适合于新环境的图像被重新获取。
图2提供使用用于估计角漂移的方法的机器人的轨迹的控制的技术示例。
首先,如上所述参考图1执行(200)与参考方向有关的角偏差的估计。
目的于是是使用与目标(步骤100)有关的角偏差(步骤107)的估计以便控制机器人的轨迹。
因此,在目标路线和所估计的角偏差之间的差异201被确定。作为示例,差异201对应于可用作用于控制机器人的轨迹的命令的角α。
如果这个差异为零,则这意味着目标路线被到达(202)。如果这个差异不为零,则机器人的轨迹需要被校正(203),使得目标路线被观察到。差异是201,然后被再次确定,以便检查目标路线是否被到达。
如果机器人在现场、即绕着穿过它的垂直轴旋转,则可如下提供伺服控制。首先,机器人相对于头部的位置将它的头部转动等于α/2的角度(当它朝着机器人的前方看时)。然后获取新参考图像。这个新参考图像将使保证最多的兴趣点能够在现场旋转的控制期间被正确地匹配变得可能。机器人因此相对于与这个新参考图像相关联的新参考方向以等于-α/2的角偏差出发。它接着可被命令以相对于等于α/2的这个新参考方向达到角偏差。为了那个目的,使用已调整速度的旋转命令来控制机器人并在这个偏差值被达到时停止就足够了。
通常,为了在机器人移动时将参考图像保持在机器人的视场中,可使用所估计的角偏差,以便控制头部的移动并获取参考图像,使得最少数量的兴趣点可被匹配。
当机器人在直线上移动时,目的是相对于目标路线维持零角偏差。为了那个目的,机器人在对应于目标路线的方向上转动它的头部,以便获取参考图像。接着,使用平移和/或旋转速度命令来控制机器人的移动以便维持零角偏差。
可能在机器人的身体移动时在目标路线的方向上维持头部的位置。这是因为既然机器人的头部相对于它的身体的位置是已知的,机器人的路线可直接被推测出。
有利地,即使在参考图像中识别出的所有兴趣点都不对提供当前图像的传感器保持可见,该方法也起作用。这是因为两个正确地匹配的对在理论上足以估计角偏差。然而,正确的对的数量越高,角偏差的估计就越好。
仍然在直线中的移动的情况下,机器人的里程表可用于估计所覆盖的距离并确定机器人何时需要停止。这是因为这比使用位置估计更可靠,因为实际上兴趣点没有位于无穷远处。机器人越接近兴趣点,在它们之间的距离就越扩展,这是模型没有考虑的。为了补偿这个效应,模型的质量在一段时间内被监控(106):它一旦明显降低,参考图像就被更新,这允许在无穷远处的点的假设重新生效。
用于估计机器人相对于参考方向的角偏差的方法的使用使避免作为里程表的特性的估计误差变得可能。有利地,可以只使用根据所估计的角偏差确定的速度命令。
看来好像参考方向在现场旋转和旋转的情况下被用于头部。机器人的身体同样必须跟随与在平移的情况下的头部相同且与在旋转的情况下不同的目标方向。
当人形机器人执行平移时,参考方向和头部的方位可以是相同的。机器人的头部和身体然后被伺服控制,以便跟随这个方向。
在旋转的情况下且如果α对应于待执行的旋转的角度,则头部的参考方向于是相对于离开位置是α/2,而身体的参考方向相对于离开位置是α。在旋转期间,头部被维持在其参考方向上以便在远至180°的旋转期间保持相同的图像,且身体被伺服控制以便使本身与方向α对齐。相对于头部,身体因此在离开时在方向-α/2上而在到达时在方向α/2上。
图3提供图像的示例,其中兴趣点被检测到。在这个示例中,使用对高对比度的区域和物体的角落敏感的描述符。
在根据本发明的方法的上下文中,必须选择检测器,以便可从一个图像到另一图像找到相同的兴趣点。它因此必须在特别从机器人的移动中产生的修改面前是健壮的。修改的示例对应于当机器人移动时例如当机器人在参考图像的方向上移动时从一个拍摄到另一拍摄的比例因子的应用。从当机器人正移动时进行的拍摄产生的模糊效应也可被引入。亮度的变化同样可出现在两次拍摄之间。这可在机器人从光线充足的区域移动到光线较不充足的区域时发生。
在优选实施例中,使用在图像金字塔上的FAST(来自加速段测试的特征)检测器。有利地,这个检测器具有适合于它在根据本发明的方法的上下文内的使用的属性。第一属性是,兴趣点的提取极其快速。因此可能在几毫秒内在低成本计算平台上提取数百个点。大量兴趣点的提取在点的阻塞的情况下提高了该方法的健壮性。FAST检测器的另一属性是它在模糊拍摄的情况下和在亮度变化的情况下的健壮性。这在用于估计角漂移的方法在移动期间被使用时是特别有用的。
应注意,FAST检测器当被单独使用时在比例变化面前不是健壮的。这个问题由图像金字塔的结构、即图像的多分辨率表示解决。
同样可能使用来自现有技术的其它检测器,例如Harris检测器、SURF(加速健壮特征)检测器和SIFT(比例不变特征变换)检测器。
对于由检测器识别的每一个重要的点,确定描述符。被选择来实现用于估计的方法的描述符的类型必须允许在两个图像上识别的点的有效匹配。匹配被考虑为有效的,当它允许在两个图像上识别的兴趣点的描述符被比较且对被识别出时,一对对应于在一个且同一个导航环境中获取的两个不同图像中的两个相同点。
在优选实施例中,描述符是ORB(定向快速和旋转BRIEF)描述符。通过比较在由检测器界定的区域中的两百五十六对像素并从其推测出两百五十六个位的矢量来产生这个描述符。有利地,ORB描述符的确定计算起来是快速的,因为后者通过简单的像素比较来确定。而且,比较两个描述符非常快。这是因为描述符对应于二进制矢量。于是可能通过使用简单的工具,例如汉明距离,来两个两个地比较它。ORB描述符的另一优点是当它应用于模糊图像时和/或在存在亮度的变化时它是健壮的。
然而,用于估计相对角偏差的方法不限于ORB描述符的使用。可使用其它描述符,例如SIFT和SURF描述符。
图4示出一对匹配的点并说明角偏差可从两个图像确定的方式。
在这个示例中,示意性示出两个图像400、401。第一图像400是包括两个兴趣点402、403的参考图像。第二图像401是同样包括两个兴趣点405、406的当前图像。这些不同的兴趣点被匹配(步骤104)。因此,第一对由点402和405构成,而第二对由点403和406构成。
可如下确定角偏差(步骤105)。目的是首先从在两对点之间的像素差异的测量得到角差异。假设这两对点被正确地匹配以及在两次拍摄之间的机器人的移动只从旋转产生,即真实移动是纯旋转,否则点位于无穷远处。
沿着X轴的旋转被表示为wx,并可以使用下面的表达式以弧度表示:
w x = arg ( z ′ 1 - z ′ 2 z 1 - z 2 )
其中:
z1和z'1是对应于分别位于参考图像400和当前图像401中的第一对兴趣点402、405的坐标的复数;
z2和z'2是对应于分别位于参考图像400和当前图像401中的第二对兴趣点403、406的坐标的复数;
arg()表示确定复数的辐角的函数。
然后使用下面的表达式来确定数量o:
o=z'1-z1×e
图像的中心被表示为c。d是复数,使得实部对应于沿着X轴的偏差而虚部对应于沿着Y轴的偏差。d可因此被表示如下:
d = o - ( 1 - e iw x ) × c
摄像机的水平孔径角被表示为oh,而垂直孔径角被表示为ov。ih表示图像的宽度,而iv表示像素中的高度。可使用下面的表达式来确定沿着X、Y和Z轴的旋转wy和wz:
w y = d y o v i v
w z = - d x o h i h
然而,可能实际上将不验证上面的假设。这是因为几个点可被匹配(当它们不应匹配时)。这些差的匹配可以是由于例如在视差现象后在参考图像中不可见的新点的出现。这些差的匹配可同样是所使用的描述符的不完美的精确度或在兴趣点的位置周围的不精确的结果。它们也可以是由于位于太靠近机器人的物体,且为此,从一次拍摄到另一拍摄的移动以复杂的方式变换。移动的物体可同样引起差的匹配。
在描述中,由在参考图像中的兴趣点和与其匹配的但实际上对应于另一点的在当前图像中的兴趣点构成的集合在本描述的其余部分中由表达式不一致对来表示。相反,当兴趣点正确地被匹配时,一对被称为一致的。
为了从在步骤106中识别的点的对的集合中提取一致对,可使用下面的技术。考虑所识别的对的集合包含至少一个一致对以及一致对使得在它们中的一个上计算的模型将为所有其它一致对提供良好的结果和对不一致对提供差结果。相反,在不一致对上计算的模型将只对随机对应的点的非常少的对提供良好的结果。这个原理特别通过RANSAC(随机抽样一致)算法来实现。它允许一种模型,其为在一组数据点当中找到的最多的点提供良好结果。在根据本发明的方法的上下文内,该模型可特别借助于上面提供的等式来实现。结果的资格取决于在由模型从参考图像中的兴趣点预测的点和当前图像中的匹配点之间的距离的确定。
有利地,RANSAC技术的使用需要几个计算资源,因为处理操作在最小数量的点上(例如在两对点上)执行。
图5提供可通过应用用于识别一致对的技术(例如RANSAC)来得到的结果的示例。
示出参考图像530和当前图像520以及一致对500到508和不一致对509到513。机器人在这两个图像之间前进。看来好像不一致对对应于差匹配并且一致对示出从左到右的总偏差。
图6示出用于估计移动元件的绝对角位置的方法的简单说明。
下面描述的方法的目的是估计机器人的绝对角位置。与上面描述的估计的方法相反,这个方法使不再相对于与给定参考图像相关联的目标路线,而在导航空间中的绝对方式(即在机器人的移动空间中)确定机器人的方位变得可能。这个方法同样使控制机器人的移动以便到达绝对角位置变得可能,特别是当机器人在现场转动时。
用于估计绝对角位置的方法包括学习阶段600、从多个候选图像选择参考图像的阶段601和估计角位置的阶段602。
在优选实施例中,估计角位置的阶段602重新开始如上所述的用于估计相对角偏差的方法的步骤。
图7示意性示出用于估计绝对角位置的方法的学习阶段。
学习阶段首先在于捕获代表导航空间的参考图像700。
作为示例,机载图像传感器可被控制以执行绕着机器人、即在水平面中的三百六十弧度的旋转移动。
在这个学习阶段拍摄的这组图像在本描述的其余部分中被称为全景。
作为示例,广角或全景图像传感器可用于这个目的。然而,应注意,这种类型的传感器需要特殊透镜,并且这些使图像变形。而且,它们需要放置在机器人的顶部上,以便不被机器人本身扰乱。
为了克服这些限制,可能使用具有比上面所述的传感器的拍摄角更有限的拍摄角的图像传感器。
在人形机器人的情况下,图像传感器可集成在它的头部内,头部适合于能够转动过整个三百六十弧度。通过受益于机器人转动它的头部的能力并通过实现头部的受控旋转,例如通过应用用于估计相对角偏差的方法,来在整个所需的场上获取构成全景的图像。
可选地,头部的移动可由在现场上旋转的机器人代替。这可以是有用的,特别是当机器人的头部不能转动过整个三百六十弧度时。
获取参考图像,使得它们两个两个地部分地重叠。作为示例,在全景中的两个相邻的参考图像可重叠一半。换句话说,在这种情况下这两个图像共同具有一个半图像。这个特征暗示给定参考图像可能与一个或多个其它参考图像共同具有一个或多个兴趣点。有利地,重叠的区域越大,估计就越可靠。
对于全景的每一个参考图像,可提取和/或存储(701)与它们相关联的数据。作为示例,这些数据对应于兴趣点及其描述符、与机器人的初始位置有关的参考图像的角位置。机器人的初始角位置可事实上用作参考。构成全景的参考图像可存储在车辆内部的存储器中。
构成全景的参考图像然后与彼此比较(702)。为了那个目的,从全景的各种图像提取的兴趣点如上所述被匹配。作为示例,这些比较的结果可存储在被称为混淆矩阵的矩阵中。这个矩阵被调整,使得每一个它的框包括等于被比较的全景的两个图像的匹配点的数量的整数。于是可能检查在全景的图像之间是什么水平的相似性。
例如,在非易失性存储器中的全景的图像的记录允许RAM类型的随机访问存储器被释放。为了快速访问,只有兴趣点的描述符可被维持在随机存取存储器中。而且,在非易失性存储器中的全景的图像的存储允许给定全景被永久地保存,即使在机器人被重启之后。
图8示出选择全景中的参考图像的方式以及机器人的绝对角位置可如何被估计。
在学习阶段之后,可从当前图像和从机器人的里程表估计机器人的绝对角位置。
首先,获取(800)当前图像。
接着,根据前一角位置的估计和通过里程表的移动的测量来估计机器人的当前角位置(步骤801)。这个估计不一定精确但允许最佳参考图像的搜索的发起,其允许机器人的绝对位置的最精确的可能估计。
与被考虑为最接近所估计的角位置801的角位置相关联的全景的该图像被选择为候选参考图像,且它的兴趣点与当前图像中的兴趣点匹配(步骤802)。
然后应用测试804,所述测试具有将在步骤802中识别的对的数量与在前面的迭代中得到的对的数量(即与前面选择的另一候选参考图像,如果需要)进行比较的功能。
如果在步骤802中识别的对的数量对应于小于或等于预定义的值P的百分比,则作为用于这个匹配的参考图像的邻居的在全景中的参考图像被按时地选择(805)为候选参考图像。作为示例,P=30%。这个新候选参考图像在全景中被选择,使得从一次迭代到另一迭代有越来越多的移动远离最初由该方法选择的全景的图像。然后再次应用步骤802。
如果测试804的结果给出对应于高于预定义的值P的百分比的多个对,则候选参考图像被考虑为是令人满意的并被称为图像I。
一旦找到被判断为令人满意的候选参考图像I,当前图像就与位于全景中的I的左边的图像Ig比较(806)。
如果匹配的兴趣点的数量大于对图像I的(807),则新候选图像是图像Ig(808)或I=Ig
如果匹配的兴趣点的数量对图像Ig比对图像I低,则当前图像与位于全景中的I的右边的图像Id比较(809)。
如果匹配的兴趣点的数量大于对参考图像I的(810),则新候选图像是图像Id(811)或I=Id
一旦选择了参考图像I,就通过使用通过取当前图像和在全景中选择的参考图像I作为输入估计上面所述的相对角偏差的方法来确定(812)绝对角位置。这个方法估计与初始角位置有关的角差异。绝对位置可因此被不含糊地确定,因为初始角位置与参考图像I相关联并可在相对于导航环境固定的参考点上被表示。角差异允许从初始角位置推测出机器人的绝对位置。
图9示出使用绝对角位置的估计来控制机器人的旋转移动的方式。
为了那个目的,如上所述执行绝对位置900的估计(图8)。
接着,以通常的方式确定(901)允许对机器人的移动的控制的参数以便到达以前选择的目的地。
选择(902)与被采用以便实现移动的路线相关联的全景的图像。
板载图像传感器指向(903)上面提到的路线的方向,以便获取当前图像。如果传感器安装在人形机器人的移动的头部上,该头部进行这个移动。
只要在当前图像中的点可与在目标图像中的点匹配,就使用角漂移的控制来实现(904)机器人的移动。如果通过补偿角漂移对移动进行控制不再是有效的,就可使用机器人的里程表来控制移动。
图10示出可实现用于估计角漂移、用于确定相对和绝对角位置以及用于如上所述控制移动的各种技术的人形机器人。为这个图选择的示例是来自AldebaranRobotics公司的NAO(注册商标)机器人。机器人包括安装在头部上的两个传感器1000、1001,其可执行整个三百六十弧度的圆形移动。
头部允许机器人设置有对实现本发明有用的感觉和表达能力。
作为示例,机器人包括能够每秒捕获多达三十个图像的两个640x480CMOS摄像机,例如其中传感器具有被称为0V7670的OmnivisionTM牌子(1/6英寸CMOS传感器:3.6μm像素)的摄像机。放置在前额处的第一摄像机1000指向它的水平面,而放置在嘴部处的第二摄像机1001检查它的紧邻的环境。软件允许获取机器人看到什么的照片和视频流。在这个示例中,第一摄像机1000可用于获取当前图像和参考图像,用于实现用于估计机器人的相对和绝对角位置的方法并用于实现上面所述的用于控制移动的方法。
在本描述中,在机器人上且更具体地在人形机器人上的实现的上下文中描述了这些方法。然而,本发明可应用于确定任何移动元件的角位置。特别是,本发明可应用于任何类型的车辆、轮船或飞机。
作为示例,本发明可应用于包括适合于实现本发明的GPS(全球定位系统)接收器的汽车。有利地,对角漂移和/或绝对角位置的估计允许GPS测量的校正,特别是当过分小数量的卫星对所述接收器可见时。

Claims (16)

1.一种用于估计移动元件相对于参考方向的角偏差的方法,所述方法包括下面的步骤:
获取代表所述移动元件的参考方向的参考图像(101);
获取代表所述移动元件的当前方向的当前图像(102);
识别在所述参考图像中和在所述当前图像中的兴趣点(103);
确定至少两对兴趣点(104),一对兴趣点由在所述当前图像中的兴趣点和在所述参考图像中的对应于所述当前图像中的兴趣点的兴趣点构成;
通过使用在前述步骤中识别的至少两对点来确定在所述移动元件的所述当前方向和所述参考方向之间的所述角偏差(105)。
2.如权利要求1所述的方法,其中,所述兴趣点与对应于二进制矢量的描述符相关联,通过两个两个地比较这些矢量,当两个兴趣点的两个矢量相对于与其它兴趣点相关联的其它候选矢量被考虑为是最接近的时,两个兴趣点被识别出,从而实现确定所述对(104)的步骤。
3.如前述权利要求中的任一项所述的方法,其中,沿着相对于所述移动元件固定的标准正交参考系的三个轴X、Y、Z确定所述角偏差(105)。
4.如前述权利要求中的一项所述的方法,包括验证所述角偏差的估计的质量的步骤(106),当匹配的兴趣点的对(104)的数量超过预定义的门限值时,所述质量被考虑为是足够的。
5.如权利要求4所述的方法,其中,当所述质量被考虑为是不足的时,获取新参考图像(120)。
6.如前述权利要求中的一项所述的方法,其中,根据所述兴趣点的质量来调整所述参考图像的刷新率,根据正确兴趣点的水平来估计所述质量,并且一旦这个水平低于预定义的门限值,所述参考图像就被更新。
7.如前述权利要求中的一项所述的方法,其中,根据在所述当前图像中识别的所述兴趣点之间的所估计的平均距离来调整所述当前图像的所述刷新率,当所述兴趣点接近彼此时,增加所述刷新率。
8.如前述权利要求中的一项所述的方法,其中,所述参考方向对应于所述移动元件需要跟随以便移动的目标路线,用于控制(203)所述移动元件的移动的命令被确定并应用,以便使通过所述方法估计(200)的所述角偏差(201,202)最小化。
9.如前述权利要求中的一项所述的方法,其中,选择所述参考图像,使得它保持至少部分地在负责获取所述当前图像的传感器的视场中,使得预定义的最小数量的兴趣点能够被匹配。
10.如前述权利要求中的一项所述的方法,其中,相对于所述移动元件需要跟随以便移动的目标路线,最初估计的角偏差是α弧度,所述参考方向于是对应于所述目标路线,其中,将-α/2弧度的角偏差加至所述目标路线,用于控制所述移动元件的移动的命令被确定并应用,使得随后估计的所述角偏差尽可能接近+α/2弧度。
11.如前述权利要求中的一项所述的方法,其中,由在所述移动元件上板载的并且在拍摄的时刻指向所述参考方向的图像传感器(1000)得到所述参考图像。
12.一种用于估计在相对于导航空间固定的参考点上的移动元件的角位置的方法,所述方法包括下列步骤:
获取由覆盖所述导航空间的多个图像构成的全景(600,700),所述全景的一个图像代表离开所述移动元件的方向;
通过测距法来估计所述移动物体的所述角位置;
从所述全景的所述图像中选择参考图像(601),所述图像对应于在前述步骤中估计的所述角位置;
精确地估计所述移动元件的所述角位置(602),根据通过对所选择的参考图像应用如在前述的权利要求中的任一项所述的方法而估计的角漂移,推测出所述角位置。
13.如前述权利要求中的一项所述的方法,其中,所述移动元件是人形类型的机器人。
14.如前述权利要求中的一项所述的方法,其中,所述移动元件是汽车。
15.一种包括适合于实现如在权利要求1到14中的任一项所述的方法的单元的人形机器人。
16.一种计算机程序,其具有用于在所述程序由数据处理模块执行时执行如权利要求1到14中的任一项所述的方法的指令。
CN201480026821.0A 2013-04-11 2014-04-09 用于估计移动元件相对于参考方向的角偏差的方法 Expired - Fee Related CN105324792B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FR1353295 2013-04-11
FR1353295A FR3004570B1 (fr) 2013-04-11 2013-04-11 Procede d'estimation de la deviation angulaire d'un element mobile relativement a une direction de reference
PCT/EP2014/057135 WO2014166986A1 (fr) 2013-04-11 2014-04-09 Procede d'estimation de la deviation angulaire d'un element mobile relativement a une direction de reference

Publications (2)

Publication Number Publication Date
CN105324792A true CN105324792A (zh) 2016-02-10
CN105324792B CN105324792B (zh) 2018-05-11

Family

ID=48699093

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201480026821.0A Expired - Fee Related CN105324792B (zh) 2013-04-11 2014-04-09 用于估计移动元件相对于参考方向的角偏差的方法

Country Status (9)

Country Link
US (1) US20160055646A1 (zh)
EP (1) EP2984625B1 (zh)
JP (1) JP6229041B2 (zh)
CN (1) CN105324792B (zh)
DK (1) DK2984625T3 (zh)
ES (1) ES2655978T3 (zh)
FR (1) FR3004570B1 (zh)
NO (1) NO2984625T3 (zh)
WO (1) WO2014166986A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107932508A (zh) * 2017-11-17 2018-04-20 西安电子科技大学 基于态势评估技术的移动机器人行为选择方法
WO2020114214A1 (zh) * 2018-12-06 2020-06-11 深圳前海达闼云端智能科技有限公司 导盲方法和装置,存储介质和电子设备

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2933604B1 (en) 2014-04-14 2016-11-30 Softbank Robotics Europe A method for localizing a robot in a localization plane
JP6599603B2 (ja) * 2014-04-18 2019-10-30 東芝ライフスタイル株式会社 自律走行体
EP3070625B1 (en) * 2015-03-19 2019-06-12 Accenture Global Services Limited Image-recognition-based guidance for network device configuration and other enviroments
JP6651295B2 (ja) * 2015-03-23 2020-02-19 株式会社メガチップス 移動体制御装置、プログラムおよび集積回路
CN106023183B (zh) * 2016-05-16 2019-01-11 西北工业大学 一种实时的直线段匹配方法
US11080890B2 (en) * 2017-07-28 2021-08-03 Qualcomm Incorporated Image sensor initialization in a robotic vehicle

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090153655A1 (en) * 2007-09-25 2009-06-18 Tsukasa Ike Gesture recognition apparatus and method thereof
CN102087530A (zh) * 2010-12-07 2011-06-08 东南大学 基于手绘地图和路径的移动机器人视觉导航方法
US20120120264A1 (en) * 2010-11-12 2012-05-17 Samsung Electronics Co., Ltd. Method and apparatus for video stabilization by compensating for view direction of camera
US20120155775A1 (en) * 2010-12-21 2012-06-21 Samsung Electronics Co., Ltd. Walking robot and simultaneous localization and mapping method thereof
CN102550035A (zh) * 2010-07-23 2012-07-04 西门子企业通讯有限责任两合公司 在产生混合图像视频序列时对不同子图像的帧内编码进行时间同步的方法
CN102576407A (zh) * 2009-09-23 2012-07-11 Iee国际电子工程股份公司 用于距离成像系统的实时动态参考图像产生
CN102596517A (zh) * 2009-07-28 2012-07-18 悠进机器人股份公司 移动机器人定位和导航控制方法及使用该方法的移动机器人
CN102829785A (zh) * 2012-08-30 2012-12-19 中国人民解放军国防科学技术大学 基于序列图像和基准图匹配的飞行器全参数导航方法

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05265547A (ja) * 1992-03-23 1993-10-15 Fuji Heavy Ind Ltd 車輌用車外監視装置
AU3718497A (en) * 1996-06-28 1998-01-21 Resolution Technologies, Inc. Fly-through computer aided design method and apparatus
US7119803B2 (en) * 2002-12-30 2006-10-10 Intel Corporation Method, apparatus and article for display unit power management
US7692642B2 (en) * 2004-12-30 2010-04-06 Intel Corporation Method and apparatus for controlling display refresh
JP4148276B2 (ja) * 2006-05-09 2008-09-10 ソニー株式会社 位置推定装置、位置推定方法及びプログラム記録媒体
JP4798450B2 (ja) * 2006-12-07 2011-10-19 株式会社Ihi ナビゲーション装置とその制御方法
JP5063234B2 (ja) * 2007-07-20 2012-10-31 キヤノン株式会社 撮像装置、撮像システム、及び、撮像装置の動作方法
JP5396983B2 (ja) * 2009-04-14 2014-01-22 株式会社安川電機 移動体及び移動体の教示方法
KR20120078838A (ko) * 2011-01-03 2012-07-11 삼성전자주식회사 휴대단말의 영상통화 제공 방법 및 장치
US20120236021A1 (en) * 2011-03-15 2012-09-20 Qualcomm Mems Technologies, Inc. Methods and apparatus for dither selection
US20130057519A1 (en) * 2011-09-01 2013-03-07 Sharp Laboratories Of America, Inc. Display refresh system
US9064449B2 (en) * 2012-01-20 2015-06-23 Sharp Laboratories Of America, Inc. Electronic devices configured for adapting refresh behavior
US20130194295A1 (en) * 2012-01-27 2013-08-01 Qualcomm Mems Technologies, Inc. System and method for choosing display modes
FR2988201B1 (fr) * 2012-03-13 2014-05-02 Thales Sa Procede d'aide a la navigation par anticipation de deviations lineaires ou angulaires
US9355585B2 (en) * 2012-04-03 2016-05-31 Apple Inc. Electronic devices with adaptive frame rate displays
JP5867273B2 (ja) * 2012-04-27 2016-02-24 富士通株式会社 接近物体検知装置、接近物体検知方法及び接近物体検知用コンピュータプログラム
US9558721B2 (en) * 2012-10-15 2017-01-31 Apple Inc. Content-based adaptive refresh schemes for low-power displays
US9524694B2 (en) * 2014-10-29 2016-12-20 Apple Inc. Display with spatial and temporal refresh rate buffers

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090153655A1 (en) * 2007-09-25 2009-06-18 Tsukasa Ike Gesture recognition apparatus and method thereof
CN102596517A (zh) * 2009-07-28 2012-07-18 悠进机器人股份公司 移动机器人定位和导航控制方法及使用该方法的移动机器人
CN102576407A (zh) * 2009-09-23 2012-07-11 Iee国际电子工程股份公司 用于距离成像系统的实时动态参考图像产生
CN102550035A (zh) * 2010-07-23 2012-07-04 西门子企业通讯有限责任两合公司 在产生混合图像视频序列时对不同子图像的帧内编码进行时间同步的方法
US20120120264A1 (en) * 2010-11-12 2012-05-17 Samsung Electronics Co., Ltd. Method and apparatus for video stabilization by compensating for view direction of camera
CN102087530A (zh) * 2010-12-07 2011-06-08 东南大学 基于手绘地图和路径的移动机器人视觉导航方法
US20120155775A1 (en) * 2010-12-21 2012-06-21 Samsung Electronics Co., Ltd. Walking robot and simultaneous localization and mapping method thereof
CN102829785A (zh) * 2012-08-30 2012-12-19 中国人民解放军国防科学技术大学 基于序列图像和基准图匹配的飞行器全参数导航方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
ERIC ROYER ET AL: ""Monocular Vision for Mobile Robot Localization and Autonomous Navigation"", 《INTERNATIONAL JOURNAL OF COMPUTER VISION》 *
N. BELLOTTO ET AL.: ""Appearance-based localization for mobile robots using digital zoom and visual compass"", 《PRE-PRINT VERSION ACCEPTED FOR PUBLICATION ON ROBOTICS AND AUTONOMOUS SYSTEMS》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107932508A (zh) * 2017-11-17 2018-04-20 西安电子科技大学 基于态势评估技术的移动机器人行为选择方法
CN107932508B (zh) * 2017-11-17 2019-10-11 西安电子科技大学 基于态势评估技术的移动机器人行为选择方法
WO2020114214A1 (zh) * 2018-12-06 2020-06-11 深圳前海达闼云端智能科技有限公司 导盲方法和装置,存储介质和电子设备

Also Published As

Publication number Publication date
JP6229041B2 (ja) 2017-11-08
CN105324792B (zh) 2018-05-11
ES2655978T3 (es) 2018-02-22
EP2984625A1 (fr) 2016-02-17
EP2984625B1 (fr) 2017-11-08
DK2984625T3 (en) 2018-01-22
US20160055646A1 (en) 2016-02-25
WO2014166986A1 (fr) 2014-10-16
FR3004570A1 (fr) 2014-10-17
JP2016517981A (ja) 2016-06-20
FR3004570B1 (fr) 2016-09-02
NO2984625T3 (zh) 2018-04-07

Similar Documents

Publication Publication Date Title
CN111024066B (zh) 一种无人机视觉-惯性融合室内定位方法
CN109993113B (zh) 一种基于rgb-d和imu信息融合的位姿估计方法
Heng et al. Self-calibration and visual slam with a multi-camera system on a micro aerial vehicle
CN105324792A (zh) 用于估计移动元件相对于参考方向的角偏差的方法
EP3028252B1 (en) Rolling sequential bundle adjustment
KR101708659B1 (ko) 이동 로봇의 맵을 업데이트하기 위한 장치 및 그 방법
US10260862B2 (en) Pose estimation using sensors
Panahandeh et al. Vision-aided inertial navigation based on ground plane feature detection
Clipp et al. Robust 6dof motion estimation for non-overlapping, multi-camera systems
CN110726406A (zh) 一种改进的非线性优化单目惯导slam的方法
KR20150144729A (ko) 그래디언트 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
CN109443348A (zh) 一种基于环视视觉和惯导融合的地下车库库位跟踪方法
US10977810B2 (en) Camera motion estimation
Troiani et al. Low computational-complexity algorithms for vision-aided inertial navigation of micro aerial vehicles
CN103900473A (zh) 一种基于摄像头与重力感应器融合的智能移动设备六自由度位姿估计方法
CN110207693A (zh) 一种鲁棒立体视觉惯性预积分slam方法
Bazin et al. UAV attitude estimation by vanishing points in catadioptric images
Huai et al. Real-time large scale 3D reconstruction by fusing Kinect and IMU data
Xian et al. Fusing stereo camera and low-cost inertial measurement unit for autonomous navigation in a tightly-coupled approach
Huttunen et al. A monocular camera gyroscope
CN112731503A (zh) 一种基于前端紧耦合的位姿估计方法及系统
Aminzadeh et al. Implementation and performance evaluation of optical flow navigation system under specific conditions for a flying robot
CN111862146A (zh) 一种目标对象的定位方法及装置
CN116151320A (zh) 一种抗动态目标干扰的视觉里程计方法及视觉里程计装置
Carozza et al. Error analysis of satellite attitude determination using a vision-based approach

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20180511

Termination date: 20190409

CF01 Termination of patent right due to non-payment of annual fee