CN116766191A - 机器人运动控制方法、装置、计算设备和存储介质 - Google Patents

机器人运动控制方法、装置、计算设备和存储介质 Download PDF

Info

Publication number
CN116766191A
CN116766191A CN202310778836.3A CN202310778836A CN116766191A CN 116766191 A CN116766191 A CN 116766191A CN 202310778836 A CN202310778836 A CN 202310778836A CN 116766191 A CN116766191 A CN 116766191A
Authority
CN
China
Prior art keywords
identification
samples
target
sample
abnormal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310778836.3A
Other languages
English (en)
Inventor
孙志雄
陈超
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Jizhijia Technology Co Ltd
Original Assignee
Beijing Jizhijia Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Jizhijia Technology Co Ltd filed Critical Beijing Jizhijia Technology Co Ltd
Priority to CN202310778836.3A priority Critical patent/CN116766191A/zh
Publication of CN116766191A publication Critical patent/CN116766191A/zh
Pending legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种机器人运动控制方法、装置、计算设备和存储介质,其中,方法应用于机器人,机器人设有视觉传感器,方法包括:获取视觉传感器采集的运动场景图像;将运动场景图像输入标识识别模型,识别目标标识,其中,标识识别模型基于多个标识样本训练得到,标识样本包括正常标识样本和异常标识样本,异常标识样本包括基于正常标识样本利用生成对抗网络生成的标识样本;获得目标标识的目标位置信息;基于目标位置信息,运动至目标标识所在的目标位置。通过获取运动场景图像,基于标识识别模型,能够获得目标标识的目标位置信息并运动至目标位置。无论目标标识正常还是异常,都能够获得目标位置,提高机器人路径导航和规划的准确性和效率。

Description

机器人运动控制方法、装置、计算设备和存储介质
技术领域
本发明涉及计算机领域,特别涉及一种机器人运动控制方法、装置、计算设备和存储介质。
背景技术
机器人在进行物流运输或者定点导航的过程中,通常需要对行走的路径进行规划,从而确定到达的目标位置。目前,机器人大多采用位于机器人底部且平行于地面的下视摄像机来识别二维码信息,根据识别的二维码信息定位当前位置。
然而,采用下视摄像机识别二维码信息以对机器人进行导航的方式,在二维码出现脏污破损、二维码在场地中布置位置不准确或者下视摄像机精度较低等情况下,存在无法准确识别二维码导致机器人无法移动至目标位置的问题。因此,亟需一种提高机器人路径规划准确性的方法。
发明内容
有鉴于此,本发明实施例提供了一种机器人运动控制方法。本发明同时涉及一种机器人运动控制装置、一种计算设备,以及一种计算机可读存储介质,以解决现有技术中存在的技术缺陷。
根据本说明书实施例的第一方面,提供了一种机器人运动控制方法,应用于机器人,机器人设有视觉传感器,该方法包括:
获取视觉传感器采集的运动场景图像;
将运动场景图像输入标识识别模型,识别目标标识,其中,标识识别模型基于多个标识样本训练得到,标识样本包括正常标识样本和异常标识样本,异常标识样本包括基于正常标识样本利用生成对抗网络生成的标识样本;
获得目标标识的目标位置信息;
基于目标位置信息,运动至目标标识所在的目标位置。
根据本发明实施例的第二方面,提供了一种机器人运动控制装置,配置于机器人,机器人设有视觉传感器,该装置包括:
第一获取模块,被配置为获取视觉传感器采集的运动场景图像;
识别模块,被配置为将运动场景图像输入标识识别模型,识别目标标识,其中,标识识别模型基于多个标识样本训练得到,标识样本包括正常标识样本和异常标识样本,异常标识样本包括基于正常标识样本利用生成对抗网络生成的标识样本;
第二获取模块,被配置为获得目标标识的目标位置信息;
运动模块,被配置为基于目标位置信息,运动至目标标识所在的目标位置。
根据本发明实施例的第三方面,提供了一种计算设备,包括:存储器和处理器;
存储器用于存储计算机可执行指令,处理器用于执行计算机可执行指令,计算机可执行指令被处理器执行时实现本发明实施例第一方面提供的方法。
根据本发明实施例的第四方面,提供了一种计算机可读存储介质,其存储有计算机指令,该计算机指令被处理器执行时实现本发明实施例第一方面提供的方法。
本发明提供的机器人运动控制方法,应用于机器人,机器人设有视觉传感器,获取视觉传感器采集的运动场景图像;将运动场景图像输入标识识别模型,识别目标标识,其中,标识识别模型基于多个标识样本训练得到,标识样本包括正常标识样本和异常标识样本,异常标识样本包括基于正常标识样本利用生成对抗网络生成的标识样本;获得目标标识的目标位置信息;基于目标位置信息,运动至目标标识所在的目标位置。
如此,通过获取视觉传感器采集的运动场景图像,基于标识识别模型识别运动场景图像中的目标标识,能够获得目标标识的目标位置信息并运动至目标标识所在的目标位置。基于正常标识样本利用生成对抗网络生成异常标识样本,能够增加异常标识样本的样本数量,提高标识识别模型对异常标识的识别能力,通过正常标识样本和异常标识样本训练标识识别模型,能够使得标识识别模型识别出运动场景图像中的目标标识,并且无论目标标识正常还是异常,都能够获得目标标识的目标位置信息,从而使机器人根据目标位置信息运动至目标标识所在的目标位置,避免目标标识异常的情况下,无法准确识别目标标识导致机器人无法定位目标位置,提高了机器人路径规划和导航的准确性和效率。
附图说明
图1是本发明一实施例提供的一种机器人运动控制方法的流程图;
图2是本发明一实施例提供的一种机器人运动控制方法的处理流程示意图;
图3是本发明一实施例提供的一种机器人运动控制装置的结构示意图;
图4是本发明一实施例提供的一种计算设备的结构框图。
具体实施方式
在下面的描述中阐述了很多具体细节以便于充分理解本发明。但是本发明能够以很多不同于在此描述的其它方式来实施,本领域技术人员可以在不违背本发明内涵的情况下做类似推广,因此本发明不受下面公开的具体实施的限制。
在本发明一个或多个实施例中使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本发明一个或多个实施例。在本发明一个或多个实施例和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本发明一个或多个实施例中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
应当理解,尽管在本发明一个或多个实施例中可能采用术语第一、第二等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本发明一个或多个实施例范围的情况下,第一也可以被称为第二,类似地,第二也可以被称为第一。取决于语境,如在此所使用的词语“如果”可以被解释成为“在……时”或“当……时”或“响应于确定”。
首先,对本发明一个或多个实施例涉及的名词术语进行解释。
AMR(Autonomous Mobile Robot)自主移动机器人:是指自主性很强的移动机器人,能对环境中各种动态变化做出自己的合理反应,通常包括自动避障、自动识别货物、货架、停靠工位等等。
BEV空间(Bird's Eye View空间):目标视角空间,是移动方向前方的一个鸟瞰区域,是一种用于描述感知世界的视角或坐标系。
视觉传感器:是指对目标物进行图像采集,以获得图像数据的传感器。
目前,AMR大多采用朝下的视觉相机来识别二维码,AMR可以接收任务处理指令,移动至对应的任务处理位置,根据朝下的视觉相机识别任务处理位置处的二维码以获取机器人当前所处位置,在当前位置的任务处理完成后,可以根据任务处理指令,移动至下一个任务处理位置。
由于朝下的视觉相机通常安装在机器人底部,与地面平行的位置处,相机安装高度较低导致相机视野偏小,能够采集的真实场景中的视觉图像包括的面积较小,这就要求机器人对于二维码的采集位置必须非常准确,导致机器人严重依赖前一个二维码的定位结果,一旦前一个二维码在场地布置时误差较大或者识别精度较低,会导致机器人到下一个码时,由于二维码无法出现在相机视野,机器人无法踩上码,无法准确定位当前位置,从而影响机器人移动至下一个任务位置。如果朝下的视觉相机由于无法识别当前二维码导致丢码,机器人只能靠里程计走到下一个码,而里程计的累计误差会导致机器人的相机连续丢码,使得机器人路径导航和规划严重不准确。并且,由于朝下的相机识别到的二维码通常为非连续结果,无法进行物体跟踪来解决误识别问题,因此会导致机器人按照错误的路径进行移动,无法自主纠正。
针对上述问题,目前提出了通过前视相机采集场景中的视觉图像进行找码的方案,但是,当前前视找码方案适应性差,大多使用边缘检测和直线拟合的方式,无法识别污损,模糊的二维码,无法使用目标检测框架得到二维码的区域信息,仅能定位二维码中心位置,无法得到二维码相对于机器人的旋转角度,从而无法对机器人运动位置和朝向进行适应性调整以提高机器人停靠位置的准确性和任务执行效率。
基于此,本发明提供一种机器人运动控制方法,应用于机器人,机器人设有视觉传感器,获取视觉传感器采集的运动场景图像;将运动场景图像输入标识识别模型,识别目标标识,其中,标识识别模型基于多个标识样本训练得到,标识样本包括正常标识样本和异常标识样本,异常标识样本包括基于正常标识样本利用生成对抗网络生成的标识样本;获得目标标识的目标位置信息;基于目标位置信息,运动至目标标识所在的目标位置。
通过获取视觉传感器采集的运动场景图像,基于标识识别模型识别运动场景图像中的目标标识,能够获得目标标识的目标位置信息并运动至目标标识所在的目标位置。基于正常标识样本利用生成对抗网络生成异常标识样本,能够增加异常标识样本的样本数量,提高标识识别模型对异常标识的识别能力,通过正常标识样本和异常标识样本训练标识识别模型,能够使得标识识别模型识别出运动场景图像中的目标标识,并且无论目标标识正常还是异常,都能够获得目标标识的目标位置信息,从而使机器人根据目标位置信息运动至目标标识所在的目标位置,避免目标标识异常的情况下,无法准确识别目标标识导致机器人无法定位目标位置,提高了机器人路径规划和导航的准确性和效率。
在本发明中,提供了一种机器人运动控制方法,本发明同时涉及一种机器人运动控制装置,一种计算设备,以及一种计算机可读存储介质,在下面的实施例中逐一进行详细说明。
参见图1,图1示出了本发明一实施例提供的一种机器人运动控制方法的流程图,应用于机器人,机器人设有视觉传感器,具体包括以下步骤:
S102:获取视觉传感器采集的运动场景图像。
实际应用中,自主移动机器人可以搭载前视的视觉传感器,通过前视的视觉传感器,获取比下视的视觉传感器更大的视野范围内的视觉图像。
具体地,视觉传感器可以理解为通过拍摄视觉图像,对待识别对象进行识别的传感器,视觉传感器通常通过像素量对待识别对象进行分析和判断,从而实现对待识别对象的识别。
运动场景图像可以理解为自主移动机器人所在场景中的图像,是通过搭载在机器人中的视觉传感器采集的一种视觉图像。自主移动机器人可以应用于各种需要对目标对象进行识别、移动、搬运、取放的场景中,自主移动机器人可以通过视觉传感器实现对目标对象或者障碍物的识别,可以根据识别结果确定目标移动位置,并进行路径规划和导航。
示例性地,在仓储物流场景中,自主移动机器人可以将待处理的货物运送至工作现场中的各个工位,各个工位的对应位置处贴有该工位的对应标识,以帮助自主移动机器人进行位置定位。自主移动机器人可以通过前视的视觉传感器,采集工作现场中的运动场景图像,通过识别运动场景图像中的标识,确定所要移动至的目标位置,并根据目标位置进行路径规划和导航。
需要说明的是,由于场地中的标识通常由人工放置,例如按照各个工位之间的预设距离进行黏贴,会存在放置位置不准确,容易在距离上产生误差导致机器人移动至目标位置时无法采集到标识,以至于受累计误差影响导致机器人路径规划偏离标准路线越来越大的问题;并且,受不可抗力的因素影响,各个标识会随着时间,或多或少地产生破损或者脏污,导致标识原先的形状发生改变,无法被视觉传感器准确识别。因此,视觉传感器采集到的运动场景图像中可能会存在正常标识,也可能会存在异常标识,其中,正常标识可以理解为未破损或者脏污的,形状位姿未发生变化的标识,异常标识可以理解为产生破损或者脏污的,形状或位姿发生了一定变化的标识,例如缺了一角的二维码或者某一部分被污渍遮盖的二维码。
目前,如果运动场景图像中的标识不是正常标识,很容易导致机器人判断为运动场景图像中不存在任何标识,造成机器人漏识别或者无法准确识别的问题。
S104:将运动场景图像输入标识识别模型,识别目标标识,其中,标识识别模型基于多个标识样本训练得到,标识样本包括正常标识样本和异常标识样本,异常标识样本包括基于正常标识样本利用生成对抗网络生成的标识样本。
实际应用中,为了避免由于标识异常,导致的机器人漏识别标识,或者机器人无法准确识别标识位置的问题,本发明一个或多个实施例,通过训练标识识别模型,实现对运动场景图像中标识的准确识别。
需要说明的是,标识可以是二维码、条形码等具有码值的图形,还可以是具有预设形状的图形或者由具有码值的图形和具有预设形状的图形组合形成的可以识别的图形。
具体地,标识识别模型可以理解为对运动场景图像中的标识进行识别的模型,标识识别模型基于多个标识样本训练得到,可以对运动场景图像中的标识进行识别,获得标识的位置信息,标识识别模型既可以对正常标识进行识别,也可以对异常标识进行识别。目标标识可以理解为基于标识识别模型识别得到的运动场景图像中的标识,目标标识可能是正常标识也可能是异常标识。标识样本可以理解为训练标识识别模型的样本,标识样本可以通过收集自主移动机器人通过视觉相机采集的应用场景工作现场中具有标识的样本运动场景图像得到。正常标识样本可以理解为样本运动场景图像中标识正常的样本,异常标识样本可以理解为样本运动场景图像中标识异常的样本。工作现场中的标识可以设置于地面,也可以设置于其他能够通过视觉传感器进行采集和获取的位置。
实际应用中,由于在工作现场中采集的运动场景图像中,正常标识的数量占大多数,而异常标识对应的标识样本较少,导致模型无法更好地学习异常标识样本的特征,异常标识的识别能力较弱,因此,为了提高标识识别模型对异常标识的识别能力,本发明一个或多个实施例中,在将运动场景图像输入标识识别模型,识别目标标识之前,还可以包括如下步骤:
获取第一样本集,其中,第一样本集包括多个正常标识样本和多个异常标识样本,异常标识样本包括基于正常标识样本利用生成对抗网络生成的标识样本;
利用多个正常标识样本和多个异常标识样本,对初始的标识识别模型进行训练,获得训练后的标识识别模型。
具体地,第一样本集可以理解为训练标识识别模型的标识样本组成的集合,第一样本集中包括多个正常标识样本和多个异常标识样本,进一步地,正常标识样本的样本数量和异常标识样本的样本数量可以相同也可以相近。由于在实际应用场景中采集到的运动场景图像中,正常标识的数量较多而异常标识的数量较少,会导致正常标识样本的样本数量远大于异常标识样本的样本数量,进而造成模型对异常标识的识别能力较弱,无法准确识别异常标识从而无法获得异常标识的位置信息,因此,除了从工作现场中采集包含异常标识的运动场景图像外,本发明一个或多个实施例中,还预先训练了生成对抗网络,以根据生成对抗网络,生成正常标识样本对应的异常标识样本,从而扩充异常标识样本的样本数据量。因此,第一样本集包括的多个异常标识样本,可以是通过视觉传感器在工作现场采集的包含异常样本的运动场景图像,也可以是基于正常标识样本,利用生成对抗网络生成的异常标识样本。
实际应用中,可以将多个正常标识样本和多个异常标识样本作为训练样本,将各样本对应的类型作为标签,对初始的标识识别模型进行训练,使得模型具有对正常样本和异常样本的分类能力,得到能够识别标识类型的标识识别模型。
示例性地,可以将正常标识样本的标签设置为0,将异常标识样本的标签设置为1,根据初始的标识识别模型输出的预测类型和样本对应的标签计算模型损失值,根据损失值调整模型参数,再对进行了参数调整后的模型继续进行训练,直至到达训练停止条件,得到训练后的标识识别模型。
通过基于正常标识样本,利用生成对抗网络生成异常标识样本,将多个正常标识样本和多个异常标识样本作为第一样本集,训练初始的标识识别模型,能够使完成训练的标识识别模型具有识别标识类型的能力,不仅能够对正常标识进行识别,也能够对异常标识进行识别,避免由于机器人漏掉异常标识造成的无法识别目标标识,导致路径规划不准确。
进一步地,由于第一样本集中的多个异常标识样本中,仅有少量异常标识样本是基于视觉相机从工作现场中采集获得的,而真实场景中无法通过采集获得的异常标识样本,就需要通过神经网络进行模拟和构建。因此,为了在保障异常标识样本的样本质量和准确性的基础上,增加异常标识样本的样本数量,扩充用于训练标识识别模型的第一样本集,本发明一个或多个实施例中,获取第一样本集,可以包括如下步骤:
获取多个正常标识样本;
将多个正常标识样本输入预先训练的生成对抗网络,生成多个正常标识样本对应的多个异常标识样本;
根据多个正常标识样本和多个异常标识样本组成第一样本集。
具体地,生成对抗网络可以理解为预先训练完成的,可以将输入的正常标识样本输出为异常标识样本的神经网络。生成对抗网络可以通过对正常标识样本中的标识加噪的方式,将正常标识样本处理为异常标识样本,在保障异常标识样本的样本质量和准确性的基础上,获得正常标识样本对应的数量更多的异常标识样本,从而扩充第一样本集中异常标识样本的样本数量,使得标识识别模型能够学习到更多的异常标识样本,进而提高标识识别模型对标识的识别能力,提高标识识别模型对标识类型的分类能力。
实际应用中,由于真实工作场景中,通过视觉传感器能够采集到的异常标识样本的样本数量较少,模型无法学习到更丰富的异常标识样本的特征,对异常标识样本的识别能力较差,因此机器人往往无法区别包含异常标识样本的运动场景图像和不包含任何标识样本的运动场景图像,导致机器人执行任务过程中容易丢失异常标识,造成路径规划和导航不准确,机器人的位置识别效率较低,任务处理效果不够理想。
而基于真实场景中采集的正常标识样本,利用生成对抗网络生成正常标识样本对应的异常标识样本,可以在保障样本质量和准确性的基础上,增加异常标识样本的样本数量,使得每种正常标识样本都可以具有与之对应的异常标识样本,模型能够学习到更多的异常标识样本,对异常标识样本的识别更加敏感,避免机器人丢失异常标识,从而提高机器人位置识别效率和准确性,提高路径规划和导航的准确性,提高机器人处理自主移动任务的任务处理效果。
为了提高根据生成对抗网络生成的异常标识样本的样本准确性,本发明一个或多个实施例,在将多个正常标识样本输入预先训练的生成对抗网络,生成多个正常标识样本对应的多个异常标识样本之前,还可以包括如下步骤:
获取多个训练样本对,其中,训练样本对包括正常标识样本和正常标识样本对应的标签异常标识样本;
将正常标识样本输入初始的生成对抗网络,生成预测异常标识样本;
根据标签异常标识样本和预测异常标识样本,计算损失值;
根据损失值调整生成对抗网络的网络参数,直至达到预设训练条件,获得训练完成的生成对抗网络。
实际应用中,可以通过视觉传感器采集真实工作场景中的包含标识的图像,具体地,包含标识的图像可以是通过搭载视觉传感器的机器人在工作现场中采集的运动场景图像。可以对历史采集的真实场景中包含正常标识的运动场景图像进行存储,当采集到该正常标识对应的异常标识的运动场景图像,可以将该标识对应的正常标识样本和异常标识样本进行关联,组成训练样本对,具体地,可以对历史采集的该正常标识对应的异常标识的运动场景图像进行存储,得到该标识对应的一个正常标识样本和多个异常标识样本。可以将该正常标识样本和各个异常标识样本分别进行关联,将正常标识样本作为训练样本,将异常标识样本作为样本标签,获得该标识对应的多个训练样本对。包含标识的图像也可以是工作人员通过视觉相机进行拍摄获得的。
实际应用中,将训练样本对中,正常标识样本作为训练样本,输入初始的生成对抗网络,生成预测异常标识样本,将训练样本对中,正常标识样本对应的标签异常标识样本作为标签,对比预测异常标识样本和标签异常标识样本,根据预测异常标识样本和标签异常标识样本计算初始的生成对抗网络的损失值,并根据损失值调整网络参数,重复训练初始的生成对抗网络,直至损失值达到预设训练阈值,或者训练次数达到预设收敛阈值,获得训练完成的生成对抗网络。
通过根据正常标识样本和正常标识样本对应的标签异常标识样本组成的训练样本对,训练生成对抗网络,可以得到输出结果更加准确,异常标识样本构建效果更好的生成对抗网络。从而能够根据正常标识样本和训练完成的生成对抗网络获得更多的异常标识样本,增加异常标识样本的样本数量,进而提高标识识别模型的标识分类能力和对异常标识的识别能力。
实际应用中,需要通过具有标签标注的多个正常标识样本和多个异常标识样本对初始的标识识别模型进行训练,使得训练后的标识识别模型具有对标识类型的分类能力以及对异常标识更好的识别能力,因此,本发明一个或多个实施例,在利用多个正常标识样本和多个异常标识样本,对初始的标识识别模型进行训练,获得训练后的标识识别模型之前,还可以包括如下步骤:
获取第二样本集,其中,所述第二样本集包括第一预设数量的第一已标注样本,所述第一已标注样本携带对应的第一标注结果;
根据所述第一已标注样本和所述第一标注结果,训练得到初始的标识识别模型。
具体地,第二样本集中包括第一预设数量的第一已标注样本和多个未标注样本,第二样本集中的已标注样本和未标注样本均可以用于训练标识识别模型。为了提高模型的学习能力,提高模型对标识的识别效果,在一种实施例中,采集到的第二样本集中,已标注样本和未标注样本的数量总和可以大于100000,具体地,已标注样本和未标注样本既可以是包含正常标识的运动场景图像,也可以是包含异常标识的运动场景图像。
需要说明的是,第一预设数量的第一已标注样本可以由标注对象预先对未标注样本进行标注得到,预先对未标注样本进行标注得到第一预设数量的第一已标注样本,可以理解为模型训练中的全标注训练阶段。标注对象可以理解为对未标注样本进行标注的工作人员。通过在全标注训练阶段中,对未标注样本进行标注得到第一预设数量的第一已标注样本,可以获得具有准确标注的训练样本,从而提高模型训练的准确性。
实际应用中,第一预设数量可以为第二样本集中样本总数的百分之五。由于第一已标注样本是根据人工进行全部标注的样本,为了提高模型训练的效率,全标注训练阶段中第一已标注样本的第一预设数量往往较少,示例性地,当未标注样本的数量为大于100000张的情况下,第一预设数量可以为不少于5000张。
需要说明的是,第二样本集中的第一已标注样本携带对应的第一标注结果,从而便于根据第一已标注样本和第一标注结果,训练得到初始的标识识别模型。
通过根据第一已标注样本和对应的第一标注结果,训练得到初始的标识识别模型,可以提高初始的标识识别模型输出结果的准确性,使得初始的标识识别模型具有对标识进行分类和识别的能力,并且,初始的标识识别模型不仅能够具有对正常标识的识别能力,还能够具有对异常标识进行识别的能力,避免机器人在执行自主移动任务的过程中丢失异常标识。
实际应用中,完成了全标注阶段的训练之后,可以获得初始的标识识别模型,进一步地,为了提高初始的标识识别模型的标识识别能力,同时提高标识识别模型的训练效率,在训练得到初始的标识识别模型之后,还可以包括如下步骤:
从第二样本集中除第一已标注样本以外的未标注样本中,提取第二预设数量的第二未标注样本;
将第二未标注样本输入初始的标识识别模型,获得第一预测结果;
生成校准指令,以指示标注对象对第一预测结果进行校准,获得第二未标注样本的第二标注结果;
根据第二未标注样本和对应的第二标注结果,训练初始的标识识别模型。
实际应用中,获得初始的标识识别模型之后,就可以进入半自动标注阶段,可以理解为,无需通过人工对未标注样本进行标注,以实现对模型的训练,只需要根据初始的标识识别模型输出的预测结果,对标注内容进行校准,基于校准结果对未标注样本进行标注,在提高模型输出结果准确性的基础上,提高模型训练效率,减少人工成本和标注时间。
具体地,从第二样本集中除第一已标注样本以外的未标注样本中,提取第二预设数量的第二未标注样本。其中,由于第一已标注样本已经由标注对象进行了精确标注,因此无需重复对第一已标注样本进行标注,从第二样本集中除第一已标注样本以外的未标注样本中,提取第二预设数量的第二未标注样本,在半自动标注阶段,对第二未标注样本进行标注,并根据标注后的第二标注结果对初始的标识识别模型进行进一步训练。
实际应用中,第二预设数量可以为剩余未标注样本的样本数据量的百分之二十五,从剩余未标注样本中,提取第二预设数量的第二未标注样本,可以将第二未标注样本输入至初始的标识识别模型,获得初始的标识识别模型输出的第一预测结果。
具体地,第一预测结果可以理解为标识识别模型预测的各第二未标注样本的样本类型,第二未标注样本的样本类型包括正常或者异常。
实际应用中,获得第一预测结果的基础上,可以生成校准指令,以指示标注对象对第一预测结果进行校准,获得第二未标注样本的第二标注结果。
具体地,校准指令是用于对第一预测结果进行校准的指令,进行标注的工作人员收到校准指令,可以对各个第二未标注样本对应的预测样本类型进行核查,在预测样本类型出错的情况下,将预测样本类型修改为正确的样本类型,并基于正确的样本类型标注对应的第二未标注样本;在预测样本类型未出错的情况下,可以直接将预测样本类型作为第二未标注样本的样本标签。校准完成后,可以得到第二未标注样本的第二标注结果。
根据第二未标注样本和对应的第二标注结果,训练初始的标识识别模型,可以进一步提高标识识别模型对标识的识别能力,使得标识识别模型不仅能够识别正常标识,也能够识别异常标识。
通过半自动标注阶段,从第二样本集中除第一已标注样本以外的未标注样本中,提取第二预设数量的第二未标注样本,将第二未标注样本输入初始的标识识别模型,获得第一预测结果,能够提高第二未标注样本的标注效率,根据校准指令,指示标注对象对第一预测结果进行校准,获得第二未标注样本的第二标注结果,能够提高第二标注结果的准确性,根据第二未标注样本和对应的第二标注结果,训练初始的标识识别模型,能够提高模型识别结果的准确性,提高模型对正常标识和异常标识的分类和识别能力。
进一步地,第二样本集中还存在剩余未标注且还未使用的未标注样本,为了提高标识识别模型的模型识别能力,提高模型输出结果的准确性,根据本说明书一个或多个实施例,在训练初始的标识识别模型之后,还可以包括如下步骤:
从第二样本集中除第一已标注样本和第二未标注样本以外的未标注样本中,提取第三预设数量的第三未标注样本;
将第三未标注样本输入初始的标识识别模型,获得第二预测结果,其中,第二预测结果包括标识识别置信度;
在标识识别置信度低于预设置信度的情况下,生成校准指令,以指示标注对象对第二预测结果进行校准,获得第三未标注样本的第三标注结果;
根据第三未标注样本和对应的第三标注结果,训练初始的标识识别模型。
实际应用中,通过第二未标注样本和第二标注结果完成对初始的标识模型的训练后,可以进入第三阶段,即全自动标注阶段的训练。除去第一已标注样本和第二未标注样本,每次从第二样本集剩余的未标注样本中提取的第三未标注样本的第三预设数量可以是相同的,也可以是逐次增加的,以均匀的数据量对初始的标识识别模型进行第三阶段的训练,可以达到更好的模型训练效果;在第三阶段的循环训练中逐次增加训练数据量,可以提前达到模型收敛条件,提高模型的训练效率。
具体地,第三预设数量可以是剩余未标注样本的数据量与第三阶段的预设训练次数取余,也可以确定每次训练采用的第三预设数量都比上一次训练采用的第三预设数量增加百分之十。
实际应用中,可以将第三未标注样本输入初始的标识识别模型,获得初始的标识识别模型输出的第二预测结果。具体地,第二预测结果可以包括标识识别置信度,标识识别置信度可以理解为允许标签出现误差的预设精度阈值,在标识识别置信度低于预设置信度的情况下,即标识识别置信度低于预设精度阈值,说明模型的识别结果不够准确,需要重新对标签进行校准,以提高模型训练的准确性。在第三阶段的训练过程中,标注对象无需对第二预测结果中,各第三未标注样本的预测结果进行一一校准,只需要通过抽检的方式对初始的标识识别模型的输出结果准确性进行检测,以计算置信度的方式对准确性进行量化,示例性地,本次训练过程中,从第三预设数量的第三未标注样本的预测结果中抽检20个,其中有2个预测结果不准确,则本次标识识别置信度为90%,而预设置信度为95%,说明本次训练结束后,模型的标识识别精度较低,需要重新对第三未标注样本的样本标签进行校准,并重新对模型进行训练,以提高模型精度。
通过从第二样本集中除第一已标注样本和第二未标注样本以外的未标注样本中,提取第三预设数量的第三未标注样本,对初始的标识识别模型进行训练,可以降低人工标注样本的标注成本,提高样本标注效率,加快模型训练效率,同时,在标识识别置信度低于预设置信度的情况下,生成校准指令,以指示标注对象对第二预测结果进行校准,获得第三未标注样本的第三标注结果,能够在检测到模型精度较低的情况下,及时校准第三未标注样本的标注结果,并根据校准后的第三标注结果和第三未标注样本对模型进行训练,从而进一步提高标识识别模型的标识识别准确性。
在本发明另一种实施例中,第二预测结果包括的标识识别置信度还可以是达到预设置信度,相应地,在将第三未标注样本输入初始的标识识别模型,获得第二预测结果之后,还可以包括如下步骤:
在标识识别置信度达到预设置信度的情况下,返回执行从第二样本集中除第一已标注样本和第二未标注样本以外的未标注样本中,提取第三预设数量的第三未标注样本的步骤,直至遍历第二样本集中的所有未标注样本。
具体地,标识识别置信度达到预设置信度,可以理解为根据初始的标识识别模型预测得到的标识类型的精准度符合标准,可以基于该初始的标识识别模型对运动场景图像进行准确的分类和识别。在这种情况下,可以根据模型输出的结果和第三未标注样本对模型进行进一步训练,在训练完成后,返回执行从第二样本集中除第一已标注样本和第二未标注样本以外的未标注样本中,提取第三预设数量的第三未标注样本的步骤,直至遍历第二样本集中的所有未标注样本。
也可以直接返回执行从第二样本集中除第一已标注样本和第二未标注样本以外的未标注样本中,提取第三预设数量的第三未标注样本的步骤,直至遍历第二样本集中的所有未标注样本。然后基于第三阶段标注获得的全部第三未标注样本和第三未标注样本对应的第三标注结果,对初始的标识识别模型进行训练,获得完成训练的标识识别模型。
通过在标识识别置信度达到预设置信度的情况下,返回执行从第二样本集中除第一已标注样本和第二未标注样本以外的未标注样本中,提取第三预设数量的第三未标注样本的步骤,直至遍历第二样本集中的所有未标注样本,可以对除第一已标注样本和第二未标注样本以外的,第二样本集中剩余的全部未标注样本进行标注,并根据标注结果对初始的标识识别模型进行训练,增加标识识别模型训练数据集的数据量,提高标识识别模型对标识的分类和识别能力,使得标识识别模型不仅能够对正常标识进行识别,也能够对异常标识进行识别,避免机器人丢失异常标识,提高路径规划和导航的准确性。
实际应用中,自主移动机器人在工作现场中移动至任务对应的位置之前,可以通过搭载于其中的视觉传感器采集运动场景图像,将运动场景图像输入至完成训练的标识识别模型,从而对运动场景图像中的标识进行识别。标识识别模型可以在运动场景图像中存在目标标识的情况下,对目标标识的类型进行识别,同时,也可以对目标标识在视觉图像中的目标位置信息进行识别。
在本发明一个或多个实施例中,将运动场景图像输入标识识别模型,识别目标标识,可以包括如下步骤:
将运动场景图像输入标识识别模型,获得针对目标标识的类型识别结果;
在类型识别结果为异常的情况下,获取目标标识的区域信息;
实际应用中,将运动场景图像输入标识识别模型,在运动场景图像中包括目标标识的情况下,标识识别模型可以对目标标识的标识类型进行识别,获得针对目标标识的类型识别结果。
在一种实现方式中,无论类型识别结果是正常还是异常,标识识别模型都可以获取目标标识的区域信息,并根据目标标识的区域信息,确定目标标识的目标位置信息。
需要说明的是,标识识别模型除了包括可以对标识类型进行识别的分类模块,还可以包括区域检测模块,通过对视觉图像中像素点的分析和检测,可以获得目标标识的区域信息。在标识识别模型对目标标识的类型进行检测的过程中,区域检测模块可以同步对目标标识像素点对应的区域进行识别,区域检测模块也可以在识别目标标识的类型之前或之后对区域信息进行获取和检测,具体可以根据实际需求确定,本发明对此不做任何限定。
具体地,区域信息可以理解为目标标识在运动场景图像中所处的区域,区域信息可以根据目标标识的像素信息获取,区域信息可以是目标标识所处的大致区域位置,也可以是目标标识的边框所处的位置。
相应地,获得目标标识的目标位置信息,可以包括如下步骤:
根据区域信息,确定目标标识的目标位置信息。
实际应用中,在获得区域信息的情况下,可以根据区域信息,确定目标标识的目标位置信息,其中,目标位置信息可以理解为目标标识的中心所在的位置。
在另一种实现方式中,标识识别模型可以预先对目标标识的区域进行识别和检测,但是仅在针对目标标识的类型识别结果为异常的情况下,获取目标标识的区域信息。
可选地,标识识别模型还可以仅在针对目标标识的类型识别结果为异常的情况下,通过区域检测模块识别和检测目标标识的区域,获得目标标识的区域信息。
需要说明的是,当针对目标标识的类型识别结果为异常的情况下,可以获取运动场景图像中异常标识的区域信息,将异常标识的当前标识区域的中心位置确定为目标位置信息;也可以根据深度学习算法,将异常标识的当前标识区域还原为异常标识对应的正常标识在该运动场景图像中的目标标识区域,并获得目标标识区域的中心位置,将其确定为目标位置信息。
根据本发明一个或多个实施例,在将运动场景图像输入标识识别模型,获得针对目标标识的类型识别结果之后,还可以包括如下步骤:
在类型识别结果为正常的情况下,获取目标标识的位姿信息;
具体地,在类型识别结果为正常的情况下,可以通过视觉图像,获得标识更为准确的位姿信息,并根据位姿信息,确定机器人的移动方向以及旋转角度,从而使得机器人的运行姿态能够更符合停靠位置的预设形状。示例性地,停靠位置可能会在两个货架之间,机器人朝着标识所在位置进行移动的过程中,很可能会由于运动姿态不平行于两个货架,导致机器人的一侧与某个货架相撞,导致机器人无法一次性运动至停靠位置。
因此,在目标标识正常的情况下,基于目标标识的位姿信息,可以对机器人的运行方向以及机器人相对于标识的旋转角度进行调整,避免机器人由于运行姿态不标准导致的无法一次性运动至目标位置,提高机器人的任务执行效率。
相应地,获得目标标识的目标位置信息,可以包括如下步骤:
根据位姿信息,获得目标标识各角点的角点位置和目标标识相对于机器人的旋转角度;
根据角点位置和旋转角度,确定目标标识的目标位置信息。
具体地,位姿信息可以包括目标标识各角点在运动场景图像中的角点位置和目标标识相对于机器人的旋转角度,根据位姿信息,对目标标识各角度的角点位置进行回归,从而获得真实场景中目标标识各角点的角点位置和目标标识相对于机器人的旋转角度。根据角点位置和旋转角度,可以对机器人的运动方向进行调整,并确定目标标识的目标位置信息。其中,目标位置信息可以包括真实场景中,目标标识各个角点所处的位置。
需要说明的是,标识识别模型还可以包括关键点回归模块,基于关键点回归模块,可以将运动场景图像中目标标识的角点进行回归,获得角点所处的位置。关键点回归模块可以与上述区域检测模块和分类模块同步对从运动场景图像中提取的特征信息进行处理,也可以在预设条件下执行处理,示例性地,预设条件可以为在类型识别结果为正常的情况下,通过关键点回归模块对目标标识的各个角点进行回归,根据精确的角点位置信息,获得标识相对于机器人的旋转角度;或者,也可以为在类型识别结果为异常的情况下,通过关键点回归模块对目标标识的各个角点进行回归,由于异常标识通常会缺失至少一个角点,因此,可以通过回归的角点位置,预测得到异常标识的大致中心位置,根据预测得到的中心位置确定异常标识的目标位置信息。
通过在类型识别结果为正常的情况下,获取目标标识的位姿信息,根据位姿信息,获得目标标识各角点的角点位置和目标标识相对于机器人的旋转角度,根据角点位置和旋转角度,确定目标标识的目标位置信息,可以在标识正常的情况下,根据位姿信息对角点位置进行回归,获得各角点精确的角点位置和目标标识相对于机器人的旋转角度,从而能够调整机器人的运行方向,提高机器人运行效率和路径规划的准确性。
S106:获得目标标识的目标位置信息。
实际应用中,将运动场景图像输入标识识别模型,识别目标标识,可以获得目标标识的目标位置信息。
具体地,目标位置信息可以是目标标识在运动场景图像的目标区域中的中心位置;也可以是运动场景图像的目标区域对应的区域边框框出来的大致位置;对于异常目标标识而言,目标位置信息还可以是根据运动场景图像的目标区域进行还原后,在还原后的区域中所处的中心位置,或者是还原后的区域对应的区域边框所框出来的大致位置。
可选地,在本说明书另一种实施方式中,根据目标标识类型识别结果的不同,目标位置信息也可以不同。在目标标识类型识别结果为目标标识为正常标识的情况下,目标位置信息可以是目标标识对应的精准的各角点的角点位置信息,以及目标标识相对于机器人的旋转角度;在目标标识类型识别结果为目标标识为异常标识的情况下,目标位置信息可以是目标标识的当前中心位置或者还原后对应的正常标识的中心位置,也可以是目标标识的当前边框所框出来的大致区域,或者还原后对应的正常标识的边框所框出来的大致区域。
S108:基于目标位置信息,运动至目标标识所在的目标位置。
实际应用中,基于目标位置信息,机器人可以运动至目标标识所在的目标位置。
具体地,目标位置可以理解为真实场景中目标标识所在的位置。
为了提高对目标位置定位的准确性,从而提高机器人路径导航和规划的准确性和效率,在本说明书一个或多个实施例中,基于目标位置信息,运动至目标标识所在的目标位置,可以包括如下步骤:
获取视觉传感器相对于机器人的相对位置信息;
根据目标位置信息和相对位置信息,确定目标标识在目标视角空间中的目标位置;
基于目标位置,规划运动至目标位置的目标路径;
根据目标路径,运动至目标位置。
实际应用中,由于运动场景图像是基于视觉传感器采集获得的视觉图像,不具备深度特征,因此,可以获取视觉传感器相对于机器人的相对位置信息,根据相对位置信息预测目标位置信息在BEV空间中的深度值,从而确定目标标识在目标视角空间中的目标位置。
基于此,可以将机器人的视角转换至目标位置所对应的目标BEV视角,根据目标BEV视角下的目标位置和方向信息,规划运动至目标位置的目标路径。其中,方向信息可以是机器人面对目标标识的中心位置进行移动的方向,也可以是根据目标标识相对于机器人的旋转角度计算得到的机器人移动方向。
实际应用中,根据规划得到的目标路径,还可以是根据目标BEV视角下的路径中的障碍物信息进行避障规划后得到的路径信息。根据目标路径,可以运动至真实场景下的目标位置处。
本发明提供一种机器人运动控制方法,应用于机器人,机器人设有视觉传感器,获取视觉传感器采集的运动场景图像;将运动场景图像输入标识识别模型,识别目标标识,其中,标识识别模型基于多个标识样本训练得到,标识样本包括正常标识样本和异常标识样本,异常标识样本包括基于正常标识样本利用生成对抗网络生成的标识样本;获得目标标识的目标位置信息;基于目标位置信息,运动至目标标识所在的目标位置。
应用本发明实施例的方案,通过获取视觉传感器采集的运动场景图像,基于标识识别模型识别运动场景图像中的目标标识,能够获得目标标识的目标位置信息并运动至目标标识所在的目标位置。基于正常标识样本利用生成对抗网络生成异常标识样本,能够增加异常标识样本的样本数量,提高标识识别模型对异常标识的识别能力,通过正常标识样本和异常标识样本训练标识识别模型,能够使得标识识别模型识别出运动场景图像中的目标标识,并且无论目标标识正常还是异常,都能够获得目标标识的目标位置信息,从而使机器人根据目标位置信息运动至目标标识所在的目标位置,避免目标标识异常的情况下,无法准确识别目标标识导致机器人无法定位目标位置,提高了机器人路径规划和导航的准确性和效率。
下述结合附图2,以本申请提供的机器人运动控制方法在自主移动机器人执行自主移动任务场景中的应用为例,对所述机器人运动控制方法进行进一步说明。其中,图2示出了本申请一实施例提供的一种应用于自主移动机器人执行自主移动任务场景的机器人运动控制方法的处理流程示意图。
根据搭载于自主移动机器人机身的图像采集装置,获取运动场景图像。其中,图像采集装置可以包括前视的视觉传感器。
根据神经网络,对运动场景图像中的视觉数据进行图像数据前处理。其中,图像数据前处理可以包括数据清理、数据集成、数据规约和数据变换等步骤,通过数据前处理,可以筛选出质量更高的特征数据,提高后续特征提取和特征处理的效率和准确性。
通过网络抽取图像特征,将抽取得到的视觉图像特征输入至预先训练的标识识别模型,其中,标识识别模型包括区域检测模块、分类模块和关键点回归模块。基于区域检测模块,对运动场景图像中目标标识的区域进行检测;基于分类模块,对目标标识的类型进行判断;基于关键点回归模块,对运动场景图像中目标标识的角点进行回归。
在类型识别结果为正常的情况下,可以获取区域检测模块和关键点回归模块检测得到的标识区域和回归得到的角点位置,计算目标标识的位置信息和姿态信息,根据位置信息和姿态信息得到目标标识相对于自主移动机器人的旋转角度。
在类型识别结果为异常的情况下,可以获取区域检测模块和关键点回归模块检测得到的大致标识区域和大致角点位置,计算目标标识的位置信息,根据位置信息得到目标标识的大致中心位置。
根据大致中心位置,或者精确角点位置以及目标标识相对于自主移动机器人的旋转角度,可以确定自主移动机器人当前的位置和方向,获取视觉传感器相对于自主移动机器人的相对位置信息,转换至BEV视角,根据BEV视角的位置和方向,进行路径规划和导航。
本发明提供一种机器人运动控制方法,应用于机器人,机器人设有视觉传感器,获取视觉传感器采集的运动场景图像;将运动场景图像输入标识识别模型,识别目标标识,其中,标识识别模型基于多个标识样本训练得到,标识样本包括正常标识样本和异常标识样本,异常标识样本包括基于正常标识样本利用生成对抗网络生成的标识样本;获得目标标识的目标位置信息;基于目标位置信息,运动至目标标识所在的目标位置。
应用本发明实施例的方案,通过获取视觉传感器采集的运动场景图像,基于标识识别模型识别运动场景图像中的目标标识,能够获得目标标识的目标位置信息并运动至目标标识所在的目标位置。基于正常标识样本利用生成对抗网络生成异常标识样本,能够增加异常标识样本的样本数量,提高标识识别模型对异常标识的识别能力,通过正常标识样本和异常标识样本训练标识识别模型,能够使得标识识别模型识别出运动场景图像中的目标标识,并且无论目标标识正常还是异常,都能够获得目标标识的目标位置信息,从而使机器人根据目标位置信息运动至目标标识所在的目标位置,避免目标标识异常的情况下,无法准确识别目标标识导致机器人无法定位目标位置,提高了机器人路径规划和导航的准确性和效率。
与上述方法实施例相对应,本发明实施例还提供了一种机器人运动控制装置,如图3所示,图3示出了本发明一实施例提供的一种机器人运动控制装置的结构示意图,配置于机器人,机器人设有视觉传感器,该装置包括:
第一获取模块302,被配置为获取视觉传感器采集的运动场景图像;
识别模块304,被配置为将运动场景图像输入标识识别模型,识别目标标识,其中,标识识别模型基于多个标识样本训练得到,标识样本包括正常标识样本和异常标识样本,异常标识样本包括基于正常标识样本利用生成对抗网络生成的标识样本;
第二获取模块306,被配置为获得目标标识的目标位置信息;
运动模块308,被配置为基于目标位置信息,运动至目标标识所在的目标位置。
可选地,识别模块304,进一步被配置为:
获取第一样本集,其中,第一样本集包括多个正常标识样本和多个异常标识样本,异常标识样本包括基于正常标识样本利用生成对抗网络生成的标识样本;
利用多个正常标识样本和多个异常标识样本,对初始的标识识别模型进行训练,获得训练后的标识识别模型。
可选地,识别模块304,进一步被配置为:
获取多个正常标识样本;
将多个正常标识样本输入预先训练的生成对抗网络,生成多个正常标识样本对应的多个异常标识样本;
根据多个正常标识样本和多个异常标识样本组成第一样本集。
可选地,识别模块304,进一步被配置为:
获取多个训练样本对,其中,训练样本对包括正常标识样本和正常标识样本对应的标签异常标识样本;
将正常标识样本输入初始的生成对抗网络,生成预测异常标识样本;
根据标签异常标识样本和预测异常标识样本,计算损失值;
根据损失值调整生成对抗网络的网络参数,直至达到预设训练条件,获得训练完成的生成对抗网络。
可选地,识别模块304,进一步被配置为:
获取第二样本集,其中,第二样本集包括多个未标注样本;
生成标注指令,以指示标注对象对第二样本集中第一预设数量的第一已标注样本进行标注;
获得第一已标注样本的第一标注结果;
根据第一已标注样本和对应的第一标注结果,训练得到初始的标识识别模型。
可选地,识别模块304,进一步被配置为:
从第二样本集中除第一已标注样本以外的未标注样本中,提取第二预设数量的第二未标注样本;
将第二未标注样本输入初始的标识识别模型,获得第一预测结果;
生成校准指令,以指示标注对象对第一预测结果进行校准,获得第二未标注样本的第二标注结果;
根据第二未标注样本和对应的第二标注结果,训练初始的标识识别模型。
可选地,识别模块304,进一步被配置为:
从第二样本集中除第一已标注样本和第二未标注样本以外的未标注样本中,提取第三预设数量的第三未标注样本;
将第三未标注样本输入初始的标识识别模型,获得第二预测结果,其中,第二预测结果包括标识识别置信度;
在标识识别置信度低于预设置信度的情况下,生成校准指令,以指示标注对象对第二预测结果进行校准,获得第三未标注样本的第三标注结果;
根据第三未标注样本和对应的第三标注结果,训练初始的标识识别模型。
可选地,识别模块304,进一步被配置为:
在标识识别置信度达到预设置信度的情况下,返回执行从第二样本集中除第一已标注样本和第二未标注样本以外的未标注样本中,提取第三预设数量的第三未标注样本的步骤,直至遍历第二样本集中的所有未标注样本。
可选地,识别模块304,进一步被配置为:
将运动场景图像输入标识识别模型,获得针对目标标识的类型识别结果;
在类型识别结果为异常的情况下,获取目标标识的区域信息;
获得目标标识的目标位置信息,包括:
根据区域信息,确定目标标识的目标位置信息。
可选地,识别模块304,进一步被配置为:
在类型识别结果为正常的情况下,获取目标标识的位姿信息;
获得目标标识的目标位置信息,包括:
根据位姿信息,获得目标标识各角点的角点位置和目标标识相对于机器人的旋转角度;
根据角点位置和旋转角度,确定目标标识的目标位置信息。
可选地,运动模块308,进一步被配置为:
获取视觉传感器相对于机器人的相对位置信息;
根据目标位置信息和相对位置信息,确定目标标识在目标视角空间中的目标位置;
基于目标位置,规划运动至目标位置的目标路径;
根据目标路径,运动至目标位置。
应用本发明实施例,通过获取视觉传感器采集的运动场景图像,基于标识识别模型识别运动场景图像中的目标标识,能够获得目标标识的目标位置信息并运动至目标标识所在的目标位置。基于正常标识样本利用生成对抗网络生成异常标识样本,能够增加异常标识样本的样本数量,提高标识识别模型对异常标识的识别能力,通过正常标识样本和异常标识样本训练标识识别模型,能够使得标识识别模型识别出运动场景图像中的目标标识,并且无论目标标识正常还是异常,都能够获得目标标识的目标位置信息,从而使机器人根据目标位置信息运动至目标标识所在的目标位置,避免目标标识异常的情况下,无法准确识别目标标识导致机器人无法定位目标位置,提高了机器人路径规划和导航的准确性和效率。
上述为本实施例的一种机器人运动控制装置装置的示意性方案。需要说明的是,该机器人运动控制装置装置的技术方案与上述的机器人运动控制装置方法的技术方案属于同一构思,机器人运动控制装置装置的技术方案未详细描述的细节内容,均可以参见上述机器人运动控制装置方法的技术方案的描述。
图4示出了根据本发明一实施例提供的一种计算设备400的结构框图。该计算设备400的部件包括但不限于存储器410和处理器420。处理器420与存储器410通过总线430相连接,数据库450用于保存数据。
计算设备400还包括接入设备440,接入设备440使得计算设备400能够经由一个或多个网络460通信。这些网络的示例包括公用交换电话网(PSTN,Public SwitchedTelephone Network)、局域网(LAN,Local Area Network)、广域网(WAN,Wide AreaNetwork)、个域网(PAN,Personal Area Network)或诸如因特网的通信网络的组合。接入设备440可以包括有线或无线的任何类型的网络接口(例如,网络接口卡(NIC,NetworkInterface Controller))中的一个或多个,诸如IEEE802.12无线局域网(WLAN,WirelessLocal Area Networks)无线接口、全球微波互联接入(Wi-MAX,World Interoperabilityfor Microwave Access)接口、以太网接口、通用串行总线(USB,Universal Serial Bus)接口、蜂窝网络接口、蓝牙接口、近场通信(NFC,Near Field Communication)接口,等等。
在本发明的一个实施例中,计算设备400的上述部件以及图4中未示出的其他部件也可以彼此相连接,例如通过总线。应当理解,图4所示的计算设备结构框图仅仅是出于示例的目的,而不是对本发明范围的限制。本领域技术人员可以根据需要,增添或替换其他部件。
计算设备400可以是任何类型的静止或移动计算设备,包括移动计算机或移动计算设备(例如,平板计算机、个人数字助理、膝上型计算机、笔记本计算机、上网本等)、移动电话(例如,智能手机)、可佩戴的计算设备(例如,智能手表、智能眼镜等)或其他类型的移动设备,或者诸如台式计算机或PC的静止计算设备。计算设备400还可以是移动式或静止式的服务器。
其中,处理器420用于执行如上述方法的技术方案对应的计算机可执行指令。
上述为本实施例的一种计算设备的示意性方案。需要说明的是,该计算设备的技术方案与上述的方法的技术方案属于同一构思,计算设备的技术方案未详细描述的细节内容,均可以参见上述方法的技术方案的描述。
本发明一实施例还提供一种计算机可读存储介质,其存储有计算机指令,该指令被处理器执行时以用于实现上述方法的步骤。
上述对本发明特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
所述计算机指令包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。
需要说明的是,对于前述的各方法实施例,为了简便描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明并不受所描述的动作顺序的限制,因为依据本发明,某些步骤可以采用其它顺序或者同时进行。其次,本领域技术人员也应该知悉,发明中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定都是本发明所必须的。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其它实施例的相关描述。
以上公开的本发明优选实施例只是用于帮助阐述本发明。可选实施例并没有详尽叙述所有的细节,也不限制该发明仅为所述的具体实施方式。显然,根据本发明的内容,可作很多的修改和变化。本发明选取并具体描述这些实施例,是为了更好地解释本发明的原理和实际应用,从而使所属技术领域技术人员能很好地理解和利用本发明。本发明仅受权利要求书及其全部范围和等效物的限制。

Claims (14)

1.一种机器人运动控制方法,其特征在于,应用于机器人,所述机器人设有视觉传感器,所述方法包括:
获取所述视觉传感器采集的运动场景图像;
将所述运动场景图像输入标识识别模型,识别目标标识,其中,所述标识识别模型基于多个标识样本训练得到,所述标识样本包括正常标识样本和异常标识样本,所述异常标识样本包括基于所述正常标识样本利用生成对抗网络生成的标识样本;
获得所述目标标识的目标位置信息;
基于所述目标位置信息,运动至所述目标标识所在的目标位置。
2.根据权利要求1所述的方法,其特征在于,在所述将所述运动场景图像输入标识识别模型,识别目标标识之前,还包括:
获取第一样本集,其中,所述第一样本集包括多个正常标识样本和多个异常标识样本,所述异常标识样本包括基于所述正常标识样本利用生成对抗网络生成的标识样本;
利用所述多个正常标识样本和所述多个异常标识样本,对初始的标识识别模型进行训练,获得训练后的标识识别模型。
3.根据权利要求2所述的方法,其特征在于,所述获取第一样本集,包括:
获取多个正常标识样本;
将所述多个正常标识样本输入预先训练的生成对抗网络,生成所述多个正常标识样本对应的多个异常标识样本;
根据所述多个正常标识样本和所述多个异常标识样本组成第一样本集。
4.根据权利要求2或3所述的方法,其特征在于,在所述将所述多个正常标识样本输入预先训练的生成对抗网络,生成所述多个正常标识样本对应的多个异常标识样本之前,还包括:
获取多个训练样本对,其中,所述训练样本对包括正常标识样本和所述正常标识样本对应的标签异常标识样本;
将所述正常标识样本输入初始的生成对抗网络,生成预测异常标识样本;
根据所述标签异常标识样本和所述预测异常标识样本,计算损失值;
根据所述损失值调整所述生成对抗网络的网络参数,直至达到预设训练条件,获得训练完成的生成对抗网络。
5.根据权利要求2所述的方法,其特征在于,在所述利用所述多个正常标识样本和所述多个异常标识样本,对初始的标识识别模型进行训练,获得训练后的标识识别模型之前,还包括:
获取第二样本集,其中,所述第二样本集包括第一预设数量的第一已标注样本,所述第一已标注样本携带对应的第一标注结果;
根据所述第一已标注样本和所述第一标注结果,训练得到初始的标识识别模型。
6.根据权利要求5所述的方法,其特征在于,在所述训练得到初始的标识识别模型之后,还包括:
从所述第二样本集中除所述第一已标注样本以外的未标注样本中,提取第二预设数量的第二未标注样本;
将所述第二未标注样本输入所述初始的标识识别模型,获得第一预测结果;
生成校准指令,以指示所述标注对象对所述第一预测结果进行校准,获得所述第二未标注样本的第二标注结果;
根据所述第二未标注样本和对应的第二标注结果,训练所述初始的标识识别模型。
7.根据权利要求6所述的方法,其特征在于,在所述训练所述初始的标识识别模型之后,还包括:
从所述第二样本集中除所述第一已标注样本和所述第二未标注样本以外的未标注样本中,提取第三预设数量的第三未标注样本;
将所述第三未标注样本输入所述初始的标识识别模型,获得第二预测结果,其中,所述第二预测结果包括标识识别置信度;
在所述标识识别置信度低于预设置信度的情况下,生成校准指令,以指示所述标注对象对所述第二预测结果进行校准,获得所述第三未标注样本的第三标注结果;
根据所述第三未标注样本和对应的第三标注结果,训练所述初始的标识识别模型。
8.根据权利要求7所述的方法,其特征在于,在所述将所述第三未标注样本输入所述初始的标识识别模型,获得第二预测结果之后,还包括:
在所述标识识别置信度达到所述预设置信度的情况下,返回执行所述从所述第二样本集中除所述第一已标注样本和所述第二未标注样本以外的未标注样本中,提取第三预设数量的第三未标注样本的步骤,直至遍历所述第二样本集中的所有未标注样本。
9.根据权利要求1所述的方法,其特征在于,所述将所述运动场景图像输入标识识别模型,识别目标标识,包括:
将所述运动场景图像输入标识识别模型,获得针对目标标识的类型识别结果;
在所述类型识别结果为异常的情况下,获取所述目标标识的区域信息;
所述获得所述目标标识的目标位置信息,包括:
根据所述区域信息,确定所述目标标识的目标位置信息。
10.根据权利要求9所述的方法,其特征在于,在所述将所述运动场景图像输入标识识别模型,获得针对目标标识的类型识别结果之后,还包括:
在所述类型识别结果为正常的情况下,获取所述目标标识的位姿信息;
所述获得所述目标标识的目标位置信息,包括:
根据所述位姿信息,获得所述目标标识各角点的角点位置和所述目标标识相对于所述机器人的旋转角度;
根据所述角点位置和所述旋转角度,确定所述目标标识的目标位置信息。
11.根据权利要求1所述的方法,其特征在于,所述基于所述目标位置信息,运动至所述目标标识所在的目标位置,包括:
获取所述视觉传感器相对于所述机器人的相对位置信息;
根据所述目标位置信息和所述相对位置信息,确定所述目标标识在目标视角空间中的目标位置;
基于所述目标位置,规划运动至所述目标位置的目标路径;
根据所述目标路径,运动至所述目标位置。
12.一种机器人运动控制装置,其特征在于,配置于机器人,所述机器人设有视觉传感器,所述装置包括:
第一获取模块,被配置为获取所述视觉传感器采集的运动场景图像;
识别模块,被配置为将所述运动场景图像输入标识识别模型,识别目标标识,其中,所述标识识别模型基于多个标识样本训练得到,所述标识样本包括正常标识样本和异常标识样本,所述异常标识样本包括基于所述正常标识样本利用生成对抗网络生成的标识样本;
第二获取模块,被配置为获得所述目标标识的目标位置信息;
运动模块,被配置为基于所述目标位置信息,运动至所述目标标识所在的目标位置。
13.一种计算设备,其特征在于,包括:存储器和处理器;
所述存储器用于存储计算机可执行指令,所述处理器用于执行所述计算机可执行指令,所述计算机可执行指令被所述处理器执行时实现权利要求1-10中任一项所述的方法。
14.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机指令,所述计算机指令被处理器执行时实现如权利要求1-10中任一项所述的方法。
CN202310778836.3A 2023-06-28 2023-06-28 机器人运动控制方法、装置、计算设备和存储介质 Pending CN116766191A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310778836.3A CN116766191A (zh) 2023-06-28 2023-06-28 机器人运动控制方法、装置、计算设备和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310778836.3A CN116766191A (zh) 2023-06-28 2023-06-28 机器人运动控制方法、装置、计算设备和存储介质

Publications (1)

Publication Number Publication Date
CN116766191A true CN116766191A (zh) 2023-09-19

Family

ID=87991066

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310778836.3A Pending CN116766191A (zh) 2023-06-28 2023-06-28 机器人运动控制方法、装置、计算设备和存储介质

Country Status (1)

Country Link
CN (1) CN116766191A (zh)

Similar Documents

Publication Publication Date Title
CN108256446B (zh) 用于确定道路中的车道线的方法、装置和设备
US10996062B2 (en) Information processing device, data management device, data management system, method, and program
CN109074085B (zh) 一种自主定位和地图建立方法、装置和机器人
EP2495632B1 (en) Map generating and updating method for mobile robot position recognition
CN112734852B (zh) 一种机器人建图方法、装置及计算设备
EP3671121A1 (en) Map creation method for mobile robot and path planning method based on map
EP3159125A1 (en) Device for recognizing position of mobile robot by using direct tracking, and method therefor
EP4044146A1 (en) Method and apparatus for detecting parking space and direction and angle thereof, device and medium
EP3159122A1 (en) Device and method for recognizing location of mobile robot by means of search-based correlation matching
CN110560373B (zh) 一种多机器人协作分拣运输方法及系统
CN111027381A (zh) 利用单目相机识别障碍物的方法、装置、设备及存储介质
CN112927303B (zh) 一种基于车道线的自动驾驶车载相机位姿估计方法及系统
CN115592324A (zh) 基于人工智能的自动焊接机器人控制系统
JP2010157093A (ja) 運動推定装置及びプログラム
CN114353807B (zh) 一种机器人的定位方法及定位装置
CN113936340B (zh) 一种基于训练数据采集的ai模型训练方法及装置
CN117067261A (zh) 机器人监控方法、装置、设备及存储介质
CN111723724B (zh) 一种路面障碍物识别方法和相关装置
Maier et al. Appearance-based traversability classification in monocular images using iterative ground plane estimation
Matsuo et al. Outdoor visual localization with a hand-drawn line drawing map using fastslam with pso-based mapping
CN116766191A (zh) 机器人运动控制方法、装置、计算设备和存储介质
CN114131149B (zh) 一种基于CenterNet的激光视觉焊缝跟踪系统、设备及存储介质
US20240085448A1 (en) Speed measurement method and apparatus based on multiple cameras
CN115373383A (zh) 一种垃圾回收无人艇的自主避障方法、装置及相关设备
Stronger et al. Selective visual attention for object detection on a legged robot

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination