CN111397609A - 路径规划方法、移动式机器及计算机可读介质 - Google Patents
路径规划方法、移动式机器及计算机可读介质 Download PDFInfo
- Publication number
- CN111397609A CN111397609A CN202010401548.2A CN202010401548A CN111397609A CN 111397609 A CN111397609 A CN 111397609A CN 202010401548 A CN202010401548 A CN 202010401548A CN 111397609 A CN111397609 A CN 111397609A
- Authority
- CN
- China
- Prior art keywords
- data
- path
- image
- positioning
- self
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
- G01C21/206—Instruments for performing navigational calculations specially adapted for indoor navigation
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0272—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising means for registering the travel distance, e.g. revolutions of wheels
Abstract
本公开涉及机器定位及路径规划的技术领域,主要公开了一种路径规划方法,其包括以下主要步骤:识别出首张具有特征区的图像作为第一图像;根据所述特征区的位置,生成第二路径的数据;当移动部件沿所述第二路径进行移动时,识别出所述第二图像,据此生成用于引导所述移动部件移动到预定位置的第三路径的数据。本公开的一些技术效果在于:对第一图像进行处理,使机器下一步能以锁定某一场景的标签在视野范围内的方式进行移动,在有效、迅速地提高定位精度后,使规划出的第三路径更为精准;另外,通过合理地规划出第二路径,降低了机器在位姿初始化后一段时间内无法捕捉到场景的标签或足够的特征点的概率。
Description
技术领域
本公开涉及机器定位及路径规划的技术领域,特别涉及机器移动路径的规划方法及移动式机器。
背景技术
随着提高机器自动化水平的需求日趋强烈,作为核心技术之一——机器的定位及路径规划技术受到广泛关注。
众所周知,当机器——例如室内机器人执行自动化任务(如自动导航到指定地点来配送货物或按规划的路径移动来收集周围环境的信息)时,首先需要获得初始的位姿信息。而由于一些情况下,机器开机后,附近环境并不具有能及时为机器定位提供足够充分的条件时(例如机器在开机所在的位置上拍摄到的场景图像中不具有特征标记),机器无法获知自身位置,则需要进行位姿初始化。此时机器会自动地按照预设的路径移动,试图捕捉周围环境中与电子地图中已有的相匹配的特征,并通过其他各种传感器收集环境信息一起用于解算出初始的位姿。
较常见的情况是,当自带的视觉相机获取到具有符合预设数量的特征点的场景图像时,机器通过对该场景图像进行处理,便能获得对应的视觉点云数据,从而推算出自身在场景中的概略位置。后续机器将根据该概略位置进行路径规划,使自身向目标位置(即任务的终点)进行移动,并在移动过程中融合里程计等传感器的测量数据来进行定位。
事实上,对于特征点较少或环境光线干扰较为严重的场景,机器位姿初始化时获得的概略位置有相当大的不可靠性,机器可能在后续移动过程中相当长一段时间内需要反复进行位姿初始化,不利于进行准确、高效的路径规划以及执行移动任务。
发明内容
为解决前述的至少一个技术问题,本公开在第一方面提出了一种路径规划方法,其主要包括以下步骤:
发出第一指令,其用于指示移动部件沿预设的第一路径进行移动;获取视觉相机生成的场景图像;识别出首张具有特征区的所述场景图像作为第一图像;根据所述特征区在所述第一图像中的位置,生成第二路径的数据;所述第二路径用于引导移动部件进行移动,使视觉相机生成第二图像;在所述第二图像中,所述特征区位于预设区域内;发出第二指令,其用于指示所述移动部件沿所述第二路径进行移动;其后识别出所述第二图像,据此获得对应的第二自定位数据;根据所述第二自定位数据,生成用于引导所述移动部件移动到预定位置的第三路径的数据。
优选地,根据所述第一图像,获得第一自定位数据;根据所述特征区在所述第一图像中的位置,以及所述第一自定位数据,生成所述第二路径的数据。
优选地,在获得所述第一自定位数据后,持续执行融合定位操作;根据所述第二自定位数据,更新融合定位输出的位姿数据,并根据所述位姿数据生成所述第三路径的数据。
优选地,在所述第二图像中,所述特征区位于预设区域内,且其尺寸大于预设值。
优选地,获取里程计的测量数据;处理所述第一图像,获得视觉点云数据;执行融合定位操作,包括以下步骤:采用AMCL算法对所述第一自定位数据、所述测量数据、所述视觉点云数据进行融合,输出所述位姿数据。
优选地,获取里程计的测量数据;根据所述测量数据、所述第一自定位数据获得融合定位的位姿数据;根据所述位姿数据以及所述特征区的位置,获得中转位置的数据;根据所述中转位置的数据,生成所述第二路径的数据,所述中转位置为所述第二路径的终点。
优选地,若所述第一图像中存在两个以上的特征区,则分别获得对应的第二路径的数据;根据路程最小的第二路径生成所述第二指令,所述第二指令用于指示所述移动部件沿路程最小的第二路径进行移动。
优选地,“获得第一自定位数据”包括以下步骤:提取所述特征区的数据,将其与标签样本库的数据进行匹配,获得所述特征区对应的标签在第一坐标系下的位置数据。
优选地,所述第一自定位数据及所述第二自定位数据均包括相对位置数据。
本公开在第二方面提出了一种移动式机器,包括驱动部件、移动部件、视觉相机及控制器;所述视觉相机用于对场景进行拍摄,生成场景图像;所述控制器用于执行所述的路径规划方法的步骤;所述驱动部件用于接收所述第一指令、所述第二指令并根据相应指令驱使移动部件进行移动。
本公开在第三方面提出了一种计算机可读介质,所述计算机可读介质中存储有计算机程序,所述计算机程序由处理模块加载并执行以实现所述的路径规划方法的步骤。
本公开的一些技术效果在于:对第一图像进行处理,使机器下一步能以锁定某一场景的标签在视野范围内的方式进行移动,在有效、迅速地提高定位精度后,使规划出的第三路径更为精准;另外,通过合理地规划出第二路径,降低了机器在位姿初始化后一段时间内无法捕捉到场景的标签或足够的特征点的概率。
附图说明
为更好地理解本公开的技术方案,可参考下列的、用于对现有技术或实施例进行辅助说明的附图。这些附图将对现有技术或本公开部分实施例中,涉及到的产品或方法有选择地进行展示。这些附图的基本信息如下:
图1为一个实施例中,从起始位置到预定位置的规划路径示意图;
图2为一个实施例中,第一图像的示意图;
图3为一个实施例中,第二图像的示意图;
图4为又一个实施例中,第二图像的示意图。
上述附图中,附图标记及其所对应的技术特征如下:
11-起始位置,12-停留位置,13-中转位置,14-预定位置,15-任务结束位置,
21-第一路径,22-第二路径,23-第三路径,24-第四路径,
31-标签,32-障碍物,
40-图像边界,41-特征区,42-预设区域。
具体实施方式
下文将对本公开涉及的技术手段或技术效果作进一步的展开描述,显然,所提供的实施例(或实施方式)仅是本公开意旨涵盖的部分实施方式,而并非全部。基于本公开中的实施例以及图文的明示或暗示,本领域技术人员在没有作出创造性劳动的前提下所能获得的所有其他实施例,都将在本公开请求保护的范围之内。
本公开提出的机器移动路径的规划方法及其相关的细节步骤,主要(但不是绝对)的适用对象为室内的、在地上移动的机器。另外,这样的机器至少自带有:
(1)视觉相机——用于对场景进行拍摄,并生成场景图像;视觉相机包括但不限于单目摄像头、双目摄像头或多目摄像头;
(2)驱动部件——用于接受驱动信号,并驱动移动部件进行移动;
(3)移动部件——用于带动机器其他一些或全部的部件进行移动;移动部件的类型包括但不限于:轮式移动部件、步行移动部件(单腿式、双腿式和多腿式)、履带式移动部件、爬行式移动部件、蠕动式移动部件或游动式移动部件等类型;
(4)控制器或部分的控制单元、处理单元——用于发出驱动信号,或还可以根据需要地用于通过收集各类传感器数据、处理相关数据进行定位。
在一些更具体的情况下,机器包括了扫地机器人、搬运小车、室内建图机器人、AGV(Automated Guided Vehicle,可理解为自动导引车)或具有定位及导航功能的移动式底盘等常见的类型。
本公开提出的一种机器移动路径的规划方法,其主要包括以下步骤:
发出第一指令,其用于指示移动部件沿预设的第一路径进行移动;获取视觉相机生成的场景图像;识别出首张具有特征区的所述场景图像作为第一图像;根据所述特征区在所述第一图像中的位置,生成第二路径的数据;所述第二路径用于引导移动部件进行移动,使视觉相机拍成第二图像;在所述第二图像中,所述特征区位于预设区域内;发出第二指令,其用于指示所述移动部件沿所述第二路径进行移动;其后识别出所述第二图像,据此获得对应的第二自定位数据;根据所述第二自定位数据,生成用于引导所述移动部件移动到预定位置的第三路径的数据。
下面对以上步骤涉及的主要对象或关系进行说明。如需进一步理解未详述之处,可参照现有技术的相关内容、本文的其他相关描述或发明意旨进行合理地推理。
关于第一指令、第二指令。视乎机器的具体构成,第一指令或第二指令一般可以由具有控制或处理功能的模块发出。换一个角度来看,这些指令的形式可以是电路信号,接收电路信号的对象一般是驱动部件,这样可使驱动部件按照电路信号的内容来驱动移动部件按照第一路径或第二路径进行移动。
关于第一路径。它是机器在开机后通过视觉相机进行场景的标签捕捉的移动路径,第一路径是“预设的”主要体现于第一路径的设计逻辑是预设的,这意味着第一路径在一些实施例中,是指具有固定方向的移动路径;在一些实施例中,是指具有固定距离的移动路径;但在一些实施例中,也可以是指根据视觉相机拍摄到的场景图像的内容或质量进行预设性的调整,例如第一路径以是背向光源的移动路径,可以是调整到图像平均亮度在某个阈值范围内的移动路径,可以是调整到视觉相机能获得具有更多色差的角度的移动路径等。根据一些现有技术的记载,第一路径也可以是一种主动避开障碍物的、无碰撞的、漫游的路径。当然,第一路径并非本公开的发明点,许多机器人在位姿初始化时,都会通过沿预设的路径进行移动来寻找视觉上的目标,以此进行自身的定位。
关于场景图像。场景指机器所在的空间的环境,场景图像则是视觉相机对视野范围内的场景进行拍摄而生成的(原始的或经过简单预处理的)图像。本公开提出的规划方法,适用于场景中设置有视觉标签(或简称标签)的场合。
关于标签与特征区。基于标签进行视觉自定位,属于基于特征的视觉定位技术,其原理主要包括:可以预先地通过对场地中的标签进行拍摄,采集到带有特征区的场景图像,这些标签应当具有与其旁边景物有所区别的特征,例如形状、色彩、位置等;标签可以直接采用场地里的一些景物,也可以通过人为的方式在场地中设置一些物体,如外观呈矩形或其他形状的标记物。对于图像纹理不够丰富的场景,如视野中存在大量白墙或玻璃墙,可以在这些物体上粘贴标记物(如矩形或者更多边形的标记物图案)作为标签,使得场景的多个位置、多个角度具有足够多、足够大识别度的标签。利用视觉相机在场地内的不同位置对场景进行拍摄,可以得到关于标签的系列图像或场景图像,据此可以制作得到标签样本库(或称基于特征的场景地图数据库),标签样本库中存储有标签的特征信息以及标签的位置信息。如此,往后在场地中的各种机器在进行视觉自定位时,通过视觉相机对场景进行拍摄,便可获得场景图像,对场景图像进行特征识别,便可提取出场景图像中的特征区(即场地中的标签投影到场景图像中的区域)的特征信息,据此可以在标签样本库中进行特征匹配,从而找到该标签在世界坐标系下的位置,据此利用PnP(Perspective-n-Point,透视n点投影)算法可以推算出视觉相机的自定位坐标以及朝向。一般来说,当存在两个以上摄像头/摄像单元时,为提高数据处理效率,可以选取其中的一幅场景图像对特征区的特征信息进行识别。当然,为了确保较高的定位精度,也可以选取多幅场景图像对特征区的特征信息进行识别,然后求出自定位坐标。基于标签的视觉自定位技术可见诸众多文献,在此不作进一步展开。
关于识别方法。由于标签样本库中存在着不同角度、距离拍摄到的标签的场景图像,在机器进行视觉自定位时,如果拍摄到的场景图像中具有特征区,则可以将拍摄到的场景图像中的特征区与标签样本库中的特征区进行比对,找到标签样本库中最为匹配的特征区对应的标签信息,从而得到特征区在世界坐标系下的坐标。场景图像的特征区(或称特征区域)的识别方法还有很多,由于比较成熟,在此不作展开。
在一些实施例中,根据所述第一图像,获得第一自定位数据;根据所述特征区在所述第一图像中的位置,以及所述第一自定位数据,生成所述第二路径的数据。第一自定位数据可以包括一种也可以包括更多,例如,第一自定位数据可以包括标签与视觉相机(或机器)的相对位置信息,比如相对角度、相对距离;第一自定位数据还可以进一步包括第一图像中的特征区对应的标签的真实位置坐标,比如在世界坐标系下的坐标。
在一些实施例中,“获得第一自定位数据”包括以下步骤:提取所述特征区的数据,将其与标签样本库的数据进行匹配,获得所述特征区对应的标签在第一坐标系下的位置数据。第一坐标系可以是世界坐标系,也可以是室内坐标系,还可以是以其他物体为参考原点的坐标系。
关于第一图像。一般来说,视觉相机会进行连续的拍摄,因此获取到的场景图像也是系列的,当第一次识别到某张场景图像上具有特征区时,这张场景图像就是第一图像。
关于第二路径。考虑到大多数情况下,第一图像中的特征区会在偏离图像中心——即更接近图像边界的位置,此时特征区的轮廓会存在相对较大的畸变或失真的情况,由此而生成的第一自定位数据的误差会相对较大,例如计算出来的标签到视觉相机的距离的精度会较低,因此,如果使特征区落在靠近图像中心的位置上,则有利于提高定位的精度。现有技术中,即使视觉相机拍摄到了第一图像,机器也不会改变原有移动方向,会继续保持原来的方向进行移动,这可能会导致该特征区从后续系列的场景图像上消失,如果后续一段时间内,由于场景的标签较为稀疏,或者受到环境光线干扰而无法在场景图像中识别出新的特征区,那么机器的定位将受到严重影响,甚至可能会丢失位置。不同于现有技术,本公开提出的规划方法,会在识别出第一图像后,让机器沿规划的第二路径进行移动,以使移动过程中,视觉相机能“锁定”住对应的标签,并使标签的成像——特征区移到靠近或位于图像(即场景图像)中心的位置。具体的方法之一是,根据图像的边界,得到图像的中心点位置,另外获得第一图像中特征区的中心点位置,则可以确定要使特征区的中心点移动到图像的中心点,视觉相机需要旋转的方向,甚至角度。由于当下多数视觉相机不具备自身进行全方位旋转的功能,因此只能借助机器自身的移动,来实现视觉相机的摄像头进行旋转的目的,这时,便需要前述的第二路径。规划第二路径的方式可以是通过计算出视觉相机的坐标,结合标签的坐标,推算出机器下一时刻的位置以及以该位置作为起点规划出向标签所在位置移动的方向作为第二路径。规划第二路径的方式也可以是不需要计算出视觉相机的坐标,只需要知道特征区的中心点到图像的中心点的位移矢量,便可结合映射关系推算出移动部件需要行走的路径,以此作为第二路径。映射关系是指移动部件真实的移动距离与对应的图像中的特征区相对于图像边界的移动距离的映射关系。这种移动包括径直地前进、后退,也包括转弯。第二路径可以具有预设的终点,例如使终点位于起点的某个方向,具有某个距离;当然,第二路径也可以不具有预设的、已知坐标的终点,即可以是引导机器往某个方向旋转、往某个方向移动过去,当拍摄到第二图像时,则令此时机器所在的位置作为第二路径的终点。因此,第二路径的数据,可以是包含明确的起点、终点的数据,也可以是不包含明确的终点坐标的数据。第二路径的作用在于引导机器或移动部件按照某个或某一些方向进行移动,以供视觉相机在移动过程中在合适的位置捕捉标签,从而生成第二图像,考虑到运动过程、定位过程均可能存在误差,可能机器或移动部件未到达第二路径的终点,视觉相机就已经生成第二图像,此时不需要继续沿第二路径运动,可以通过发出第三指令,指示移动部件立即按照第三路径的引导进行移动。
关于第二图像。在识别场景图像的过程中,当首先识别到某个场景图像中的特征区位于预设区域内时,这个场景图像便是第二图像。
关于预设区域。预设区域是指位于图像边界之内,且与图像边界具有一定距离的假想区域,这个区域的边界可以通过曲线(包括直线)方程的形式进行限定,也可以通过图像中形成一圈封闭形状的像素位置进行限定。设计预设区域,为了从一个角度去判断标签投影到图像中形成特征区的成像质量,当整个或者大部分的特征区位于预设区域内,则视为其成像质量相对地比不落入预设区域时的要好。“所述特征区位于预设区域内”既可以是指特征区完全地位于预设区域内,也可以是指特征区位于预设区域内的面积比例达到了某个数值,如90%或95%,可以根据具体需求进行不同取值。根据成像原理,越是远离成像中心的图案,其畸变的可能性会越大,而当特征区位于预设区域内,意味着特征区是比较靠近成像中心的,此时特征区所展现出来的轮廓或边界特征将更大概率地具有更高的精度,这有利于提高视觉自定位的精度。
关于第二自定位数据。第二自定位数据与第一定位数据的类型可以是一样的。第二自定位数据一般包括机器在场地中的坐标,也可以包括机器与标签的相对位置信息。与第一自定位数据不同的是,由于第二图像中的特征区的成像质量更高,第二自定位数据的精度总体会相对较高。
在一些实施例中,所述第一自定位数据及所述第二自定位数据均包括相对位置数据,即视觉相机或机器某个位置点与标签的相对位置数据,如相对方向、相互距离等。
关于预定位置和第三路径。预定位置是指机器在本次任务中需要到达的最终目的地或中途地点,例如室内物流车需要将物品运输到某个货架前时,那么该货架前的位置便是所述的预定位置;又例如扫地机器人需要先到达某个角落进行清扫,再去其他地方进行清扫,那么这个角落便是本次清扫任务中的一个预定位置。第三路径的终点便是所述预定位置。第三路径的数据,与第二路径的数据类型可以是一致的,它可以包括用于表示第三路径的方程,也可以包括用于表示第三路径的一个个坐标点,也可以是包括移动方向与距离的数据。现有的技术,多数是获得了第一次自定位数据,便开始规划移动向预定位置的路径,但是由于第一次自定位得到的数据精度太低,这样的路径规划会导致机器在后续过程中走过较多的无效的路径,如果在中途无法拍摄到标签,那么会进一步降低定位的效率。本公开提出的方案,是在规划第三路径前,先通过规划第二路径,使机器能迅速地提高定位精度,保障了第三路径具有相对较高的精准度。
需要注意的是,第一自定位数据、第二自定位数据仅仅是从一种技术上进行定位而得到的位姿数据,它们具有一定的作用,有许多机器只依靠视觉自定位的方式进行导航。然而,目前也有许多机器采用融合定位的方式获得具有更高精度的位姿数据。融合定位技术已有许多成熟的应用方式,其本质是通过不同类型的传感器对环境信息或机器自身移动信息进行感知,通过对这些传感器获取的数据进行综合性处理,从而得出具有更高可信度或更高精度的位姿数据。一般来说,定位传感器包括视觉相机、激光雷达、里程计等等。常见的融合定位技术是基于粒子滤波算法来实现的,许多文献均有记载,在此不作展开。
在一些实施例中,在获得所述第一自定位数据后,持续执行融合定位操作(以获得每个时刻下的融合定位结果,即位姿数据);根据所述第二自定位数据,更新融合定位输出的位姿数据,并根据所述位姿数据生成所述第三路径的数据。通常在获取了第一图像后,只能得到粗略的位置信息,但是通过设计出第二路径,使机器(或移动部件)在沿第二路径进行移动时,获取的每张图像上均有特征区,且一般情况下特征区的位置约来约趋向于图像中心,有利于快速提升融合定位的位姿数据的精度。根据第二自定位数据来生成第三路径的数据,包括了这样的步骤:根据第二自定位数据来先进行融合定位,得到更新后的位姿数据,然后再生成第三路径的数据。
在一些实施例中,首次生成第二路径的数据后,在行进过程,还可以根据融合定位实时输出的位姿数据更新所述第二路径的数据,即调整第二路径的对应的行进方向和距离。
在一些实施例中,在所述第二图像中,所述特征区位于预设区域内,且其尺寸大于预设值。即不仅要求特征区的位置落入预设区域内,还要求特征区的尺寸不能太小,这样能进一步提高视觉自定位的质量。预设值可以是特征区的像素数与图像的像素总数的理想比例,也可以是特征区的理想像素数,也可以是以毫米等为单位的尺寸值。具体的预设值大小,可以根据实际情况进行确定,没有特别限制。
在一些实施例中,获取里程计的测量数据(例如速度、航向角等数值);处理所述第一图像,获得视觉点云数据;执行融合定位操作,包括以下步骤:采用AMCL算法对所述第一自定位数据、所述测量数据、所述视觉点云数据进行融合,输出所述位姿数据。AMCL(AdaptiveMonteCarloLocalization,可理解为自适应蒙特卡洛定位)算法属于粒子滤波算法中的一种,结合第一自定位数据、视觉点云数据、里程计的测量数据以及栅格地图数据,执行AMCL算法,能实现具有较高精度的融合定位操作。
考虑到不同场合下的机器运行速度以及对于数据的处理速度的不同,得到的自定位数据会有不一样的延时。在一些实施例中,对于速度较低(例如0.1m/s或更低)的机器,一般获得第一图像后不久(例如1s内)便能获得第一自定位数据,此时可以按照在获得第一图像时机器的位置作为第二路径的起点;但对于速度相对较高的机器,如速度达到1m/s,如果按照获得第一图像时机器的位置作为第二路径的起点,则可能不够准确,此时可以利用里程计的测量数据进行推算,推算机器在设定时间(例如1s)后的位置,以此作为第二路径的起点。
在一些实施例中,获取里程计的测量数据;根据所述测量数据、所述第一自定位数据获得融合定位的位姿数据;根据所述位姿数据以及所述特征区的位置,获得中转位置的数据;所述中转位置为所述第二路径的终点。
对于一些情况下,视觉相机同时拍摄到了两个或更多的标签,此时,第一图像中会存在两个以上的特征区,对于这种情况,在确定最终的第二路径时,可以执行以下操作:分别获得对应的中转位置的数据(即对于不同的特征区,计算出不同的中转位置的坐标),若有一些中转位置处于第一路径的覆盖范围,那么可以选择距离最近的中转位置来生成第二路径的数据,随后使机器或移动部件按照该第二路径来移动。若当所有中转位置均不处于所述第一路径覆盖范围内时,那么针对这些坐标不同的中转位置,分别生成对应的第二路径的数据,这意味着可选的第二路径有多条;根据路程最小的第二路径生成所述第二指令(这样能使机器或移动部件能以尽量小的距离走完第二路径),所述第二指令用于指示所述移动模块按规划的路程最小的第二路径进行移动。
前文对本公开提出的路径规划方法涉及的概念、原理或事物间的主要关系进行了说明。本段通过附图直观展示一种具体的应用情景。如图1所示,当机器在起始位置11开机后,并未能捕获到带有标签的场景图像,此时控制模块则可以按照预设的程式,发出第一指令,然后机器沿预设的第一路径21进行移动,移动过程中通过测距传感器感知到障碍物32的存在,进行了转向,再移动一段路程后,视觉相机第一次拍摄到了完整的标签31,由此生成了图2所示的第一图像,第一图像的图像边界40内包含了完整的特征区41,此时机器位于停留位置12,控制模块控制机器立即在该处降低速度,然后规划出第二路径22,并发出第二指令,机器随后沿着第二路径22向前移动,移动过程中,视觉相机首先生成了图3所示的图像,此时特征区41虽然落入预设区域42内,但尺寸较小,因此机器需要继续向前移动,随后在移动过程中视觉相机生成了图4所示的第二图像,第二图像中有完整的特征区41,特征区41具有合适尺寸、且位于(虚拟的)预设区域42内,此时机器位于中转位置13,控制模块控制机器立即在该处降低速度,然后规划出第三路径23,使机器通过弯曲路线避开障碍而移动到预定位置14,然后再沿第四路径22移动到任务结束位置15,自此完成任务。
本公开在第二方面提出了一种移动式机器,包括驱动部件、移动部件、视觉相机及控制器,所述视觉相机用于对场景进行拍摄,生成场景图像;所述控制器用于执行所述的路径规划方法的步骤;所述驱动部件用于接收所述第一指令、所述第二指令并根据相应指令驱使移动部件进行移动。
本公开在第三方面提出了一种计算机可读介质,所述计算机可读介质中存储有计算机程序,所述计算机程序由处理模块加载并执行以实现前述的路径规划方法的步骤。
本领域技术人员可以理解的是,实施例中的全部或部分步骤,可以通过计算机程序来指令相关的硬件实现,该程序可以存储于计算机可读介质中,可读介质可以包括闪存盘、移动硬盘、只读存储器、随机存取器、磁盘或光盘等各种可以存储程序代码的介质。
在符合本领域技术人员的知识和能力水平范围内,本文提及的各种实施例或者技术特征在不冲突的情况下,可以相互组合而作为另外一些可选实施例,这些并未被一一罗列出来的、由有限数量的技术特征组合形成的有限数量的可选实施例,仍属于本公开揭露的技术范围内,亦是本领域技术人员结合附图和上文所能理解或推断而得出的。
另外,多数实施例的描述是基于不同的重点而展开的,如需进一步理解未详述之处,可参照现有技术的相关内容、本文的其他相关描述或发明意旨进行合理地推理。
再次强调,上文所列举的实施例,为本公开较为典型的、较佳实施例,仅用于详细说明、解释本公开的技术方案,以便于读者理解,并不用以限制本公开请求保护的范围或者应用。在本公开的精神和原则之内所作的任何修改、等同替换、改进等而获得的技术方案,都应被涵盖在本公开请求保护的范围之内。
Claims (10)
1.路径规划方法,其特征在于,包括以下步骤:
发出第一指令,其用于指示移动部件沿预设的第一路径进行移动;
获取视觉相机生成的场景图像;
识别出首张具有特征区的所述场景图像作为第一图像;
根据所述特征区在所述第一图像中的位置,生成第二路径的数据;所述第二路径用于引导所述移动部件进行移动,使所述视觉相机生成第二图像;在所述第二图像中,所述特征区位于预设区域内;
发出第二指令,其用于指示所述移动部件沿所述第二路径进行移动;
其后识别出所述第二图像,据此获得对应的第二自定位数据;
根据所述第二自定位数据,生成用于引导所述移动部件移动到预定位置的第三路径的数据。
2.根据权利要求1所述的路径规划方法,其特征在于,还包括以下步骤:
根据所述第一图像,获得第一自定位数据;
根据所述特征区在所述第一图像中的位置,以及所述第一自定位数据,生成所述第二路径的数据。
3.根据权利要求2所述的路径规划方法,其特征在于,还包括以下步骤:
在获得所述第一自定位数据后,持续执行融合定位操作;
根据所述第二自定位数据,更新融合定位输出的位姿数据,并根据所述位姿数据生成所述第三路径的数据。
4.根据权利要求3所述的路径规划方法,其特征在于,还包括以下步骤:
获取里程计的测量数据;
处理所述第一图像,获得视觉点云数据;
执行融合定位操作,包括以下步骤:
采用AMCL算法对所述第一自定位数据、所述测量数据、所述视觉点云数据进行融合,输出所述位姿数据。
5.根据权利要求3所述的路径规划方法,其特征在于,还包括以下步骤:
获取里程计的测量数据;
根据所述测量数据、所述第一自定位数据获得融合定位的位姿数据;
根据所述位姿数据以及所述特征区的位置,获得中转位置的数据;
根据所述中转位置的数据,生成所述第二路径的数据,所述中转位置为所述第二路径的终点。
6.根据权利要求1所述的路径规划方法,其特征在于:
若所述第一图像中存在两个以上的特征区,则分别获得对应的第二路径的数据;
根据路程最小的第二路径生成所述第二指令,所述第二指令用于指示所述移动部件沿路程最小的第二路径进行移动。
7.根据权利要求2所述的路径规划方法,其特征在于:
“获得第一自定位数据”包括以下步骤:提取所述特征区的数据,将其与标签样本库的数据进行匹配,获得所述特征区对应的标签在第一坐标系下的位置数据。
8.根据权利要求2所述的路径规划方法,其特征在于:所述第一自定位数据及所述第二自定位数据均包括相对位置数据。
9.移动式机器,包括驱动部件、移动部件、视觉相机及控制器,其特征在于:
所述视觉相机用于对场景进行拍摄,生成场景图像;
所述控制器用于执行权利要求1至8任一所述的路径规划方法的步骤;
所述驱动部件用于接收所述第一指令、所述第二指令并根据相应指令驱使所述移动部件进行移动。
10.计算机可读介质,其特征在于:
所述计算机可读介质中存储有计算机程序,所述计算机程序由处理模块加载并执行以实现如权利要求1至8任一所述的路径规划方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010401548.2A CN111397609A (zh) | 2020-05-13 | 2020-05-13 | 路径规划方法、移动式机器及计算机可读介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010401548.2A CN111397609A (zh) | 2020-05-13 | 2020-05-13 | 路径规划方法、移动式机器及计算机可读介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111397609A true CN111397609A (zh) | 2020-07-10 |
Family
ID=71430067
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010401548.2A Pending CN111397609A (zh) | 2020-05-13 | 2020-05-13 | 路径规划方法、移动式机器及计算机可读介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111397609A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114911226A (zh) * | 2021-10-08 | 2022-08-16 | 广东利元亨智能装备股份有限公司 | 搬运车行驶控制方法、装置及搬运车 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104197899A (zh) * | 2014-09-24 | 2014-12-10 | 中国科学院宁波材料技术与工程研究所 | 移动机器人定位方法及系统 |
CN105425807A (zh) * | 2016-01-07 | 2016-03-23 | 朱明� | 一种基于人工路标的室内机器人导航方法及装置 |
CN105651286A (zh) * | 2016-02-26 | 2016-06-08 | 中国科学院宁波材料技术与工程研究所 | 一种移动机器人视觉导航方法与系统、以及仓库系统 |
CN105841687A (zh) * | 2015-01-14 | 2016-08-10 | 上海智乘网络科技有限公司 | 室内定位方法和系统 |
CN106197422A (zh) * | 2016-06-27 | 2016-12-07 | 东南大学 | 一种基于二维标签的无人机定位及目标跟踪方法 |
CN106683113A (zh) * | 2016-10-27 | 2017-05-17 | 纳恩博(北京)科技有限公司 | 特征点跟踪方法和装置 |
CN106908040A (zh) * | 2017-03-06 | 2017-06-30 | 哈尔滨工程大学 | 一种基于surf算法的双目全景视觉机器人自主定位方法 |
CN107045353A (zh) * | 2017-06-06 | 2017-08-15 | 江苏力德尔电子信息技术有限公司 | 全方位移动agv主控系统及其控制方法 |
CN109508021A (zh) * | 2018-12-29 | 2019-03-22 | 歌尔股份有限公司 | 一种自动导引车的导引方法、装置和系统 |
CN110568447A (zh) * | 2019-07-29 | 2019-12-13 | 广东星舆科技有限公司 | 视觉定位的方法、装置及计算机可读介质 |
CN110991207A (zh) * | 2019-11-19 | 2020-04-10 | 山东大学 | 综合H图案识别和AprilTag二维码识别的无人机精准降落方法 |
US20200142421A1 (en) * | 2018-11-05 | 2020-05-07 | GM Global Technology Operations LLC | Method and system for end-to-end learning of control commands for autonomous vehicle |
-
2020
- 2020-05-13 CN CN202010401548.2A patent/CN111397609A/zh active Pending
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104197899A (zh) * | 2014-09-24 | 2014-12-10 | 中国科学院宁波材料技术与工程研究所 | 移动机器人定位方法及系统 |
CN105841687A (zh) * | 2015-01-14 | 2016-08-10 | 上海智乘网络科技有限公司 | 室内定位方法和系统 |
CN105425807A (zh) * | 2016-01-07 | 2016-03-23 | 朱明� | 一种基于人工路标的室内机器人导航方法及装置 |
CN105651286A (zh) * | 2016-02-26 | 2016-06-08 | 中国科学院宁波材料技术与工程研究所 | 一种移动机器人视觉导航方法与系统、以及仓库系统 |
CN106197422A (zh) * | 2016-06-27 | 2016-12-07 | 东南大学 | 一种基于二维标签的无人机定位及目标跟踪方法 |
CN106683113A (zh) * | 2016-10-27 | 2017-05-17 | 纳恩博(北京)科技有限公司 | 特征点跟踪方法和装置 |
CN106908040A (zh) * | 2017-03-06 | 2017-06-30 | 哈尔滨工程大学 | 一种基于surf算法的双目全景视觉机器人自主定位方法 |
CN107045353A (zh) * | 2017-06-06 | 2017-08-15 | 江苏力德尔电子信息技术有限公司 | 全方位移动agv主控系统及其控制方法 |
US20200142421A1 (en) * | 2018-11-05 | 2020-05-07 | GM Global Technology Operations LLC | Method and system for end-to-end learning of control commands for autonomous vehicle |
CN109508021A (zh) * | 2018-12-29 | 2019-03-22 | 歌尔股份有限公司 | 一种自动导引车的导引方法、装置和系统 |
CN110568447A (zh) * | 2019-07-29 | 2019-12-13 | 广东星舆科技有限公司 | 视觉定位的方法、装置及计算机可读介质 |
CN110991207A (zh) * | 2019-11-19 | 2020-04-10 | 山东大学 | 综合H图案识别和AprilTag二维码识别的无人机精准降落方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114911226A (zh) * | 2021-10-08 | 2022-08-16 | 广东利元亨智能装备股份有限公司 | 搬运车行驶控制方法、装置及搬运车 |
CN114911226B (zh) * | 2021-10-08 | 2023-06-30 | 广东利元亨智能装备股份有限公司 | 搬运车行驶控制方法、装置及搬运车 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109720340B (zh) | 一种基于视觉识别的自动泊车系统及方法 | |
KR102367438B1 (ko) | 마커를 결합한 동시 위치결정과 지도작성 내비게이션 방법, 장치 및 시스템 | |
Ess et al. | Moving obstacle detection in highly dynamic scenes | |
CN110969655B (zh) | 用于检测车位的方法、装置、设备、存储介质以及车辆 | |
CN110275538A (zh) | 智能巡航车导航方法及系统 | |
CN110497901A (zh) | 一种基于机器人vslam技术的泊车位自动搜索方法和系统 | |
CN111486849B (zh) | 一种基于二维码路标的移动视觉导航方法及系统 | |
CN112344923B (zh) | 一种机器人的定位方法及其定位装置 | |
CN112101128A (zh) | 一种基于多传感器信息融合的无人方程式赛车感知规划方法 | |
JP2020067698A (ja) | 区画線検出装置及び区画線検出方法 | |
CN112298168B (zh) | 一种车位检测方法及装置、自动泊车方法及装置 | |
CN110716559A (zh) | 一种用于商场超市拣货机器人的综合控制方法 | |
Diosi et al. | Outdoor visual path following experiments | |
CN111380535A (zh) | 基于视觉标签的导航方法、装置、移动式机器及可读介质 | |
Manivannan et al. | Vision based intelligent vehicle steering control using single camera for automated highway system | |
CN111397609A (zh) | 路径规划方法、移动式机器及计算机可读介质 | |
KR100906991B1 (ko) | 로봇의 비시인성 장애물 탐지방법 | |
CN115244585A (zh) | 用于控制货场上的车辆的方法、行驶控制单元和车辆 | |
CN111781606A (zh) | 一种新型激光雷达和超声波雷达融合的小型化实现方法 | |
CN111591284A (zh) | 基于单目识别的视野盲区避障方法及装置 | |
Barth et al. | Vehicle tracking at urban intersections using dense stereo | |
Hudecek et al. | A system for precise positioning of vehicles aiming at increased inductive charging efficiency | |
Iz et al. | An image-based path planning algorithm using a UAV equipped with stereo vision | |
CN112513931A (zh) | 用于创建单视角合成图像的系统和方法 | |
Omar et al. | Detection and localization of traffic lights using yolov3 and stereo vision |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200710 |
|
RJ01 | Rejection of invention patent application after publication |