CN110147091A - 机器人运动控制方法、装置及机器人 - Google Patents
机器人运动控制方法、装置及机器人 Download PDFInfo
- Publication number
- CN110147091A CN110147091A CN201810148507.XA CN201810148507A CN110147091A CN 110147091 A CN110147091 A CN 110147091A CN 201810148507 A CN201810148507 A CN 201810148507A CN 110147091 A CN110147091 A CN 110147091A
- Authority
- CN
- China
- Prior art keywords
- robot
- target
- instruction
- movement
- positional relationship
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000033001 locomotion Effects 0.000 title claims abstract description 183
- 238000000034 method Methods 0.000 title claims abstract description 63
- 238000004590 computer program Methods 0.000 claims description 21
- 230000004888 barrier function Effects 0.000 claims description 14
- 230000003993 interaction Effects 0.000 abstract description 32
- 230000000694 effects Effects 0.000 abstract description 2
- 238000012545 processing Methods 0.000 description 34
- 230000008569 process Effects 0.000 description 17
- 230000006870 function Effects 0.000 description 15
- 238000010586 diagram Methods 0.000 description 6
- 238000012546 transfer Methods 0.000 description 6
- 238000001514 detection method Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000001965 increasing effect Effects 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 230000002708 enhancing effect Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000002829 reductive effect Effects 0.000 description 2
- 238000010408 sweeping Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000005352 clarification Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000036961 partial effect Effects 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000012827 research and development Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0214—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0223—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0251—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Electromagnetism (AREA)
- Manipulator (AREA)
Abstract
本发明适用于机器人技术领域,提供了机器人运动控制方法、装置、机器人及计算机可读存储介质,包括:接收用户的输入指令;根据所述输入指令确定目标,并获取所述目标和机器人的位置关系;根据所述位置关系计算出目标路径和运动速度;根据所述目标路径和所述运动速度生成运动指令,并执行所述运动指令。本发明根据输入指令在实际场景中确定目标,提升了机器人运动的场景化程度,并实现了良好的人机交互效果,提升了机器人运动控制的多样性。
Description
技术领域
本发明属于机器人技术领域,尤其涉及机器人运动控制方法、装置、机器人及计算机可读存储介质。
背景技术
机器人的概念首先被提出时,其产品主要应用于工业领域,以替代工业流水线的人工操作。随着时代变迁和研发技术的增强,机器人逐渐被人们熟知,其形状和功能越来越贴近人们的日常生活。此外,由于处理器计算能力的增强,装载有处理器的机器人可以实现特定的功能,比如一种双足机器人在接收到用户的开始命令后,即可开始跳舞唱歌,或者一种扫地机器人在接收到命令后,开始进行扫地工作,娱乐性和实用性极佳。
但是,现今机器人进行的运动往往是通过预先编写的代码生成的,也就是说,机器人的运动过程是事先被用户指定的,并不能通过场景的变化来实时改变自身的动作。比如说,要使机器人踢球,则只能事先设定机器人踢球过程中的动作方案,并使机器人开始运动,如果临时将球放到更远的位置,那么机器人仍会按照之前设定好的动作方案继续运动,导致最终踢不到球。故现有的机器人运动控制方法无法根据场景调整自身运动状态,对不同场景的适用性低,并且通常只能接收开始和停止等几类指令,无法与实际场景结合,自由度低。
发明内容
有鉴于此,本发明实施例提供了机器人运动控制方法、装置、机器人及计算机可读存储介质,以解决现有技术中机器人的运动无法与场景结合,对不同场景的适用性低,且人机交互的自由度较低的问题。
本发明实施例的第一方面提供了一种机器人运动控制方法,包括:
接收用户的输入指令;
根据所述输入指令确定目标,并获取所述目标和机器人的位置关系;
根据所述位置关系计算出目标路径和运动速度;
根据所述目标路径和所述运动速度生成运动指令,并执行所述运动指令。
本发明实施例的第二方面提供了一种机器人运动控制装置,包括:
接收单元,用于接收用户的输入指令;
确定单元,用于根据所述输入指令确定目标,并获取所述目标和机器人的位置关系;
计算单元,用于根据所述位置关系计算出目标路径和运动速度;
执行单元,用于根据所述目标路径和所述运动速度生成运动指令,并执行所述运动指令。
本发明实施例的第三方面提供了一种机器人,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如上所述机器人运动控制方法的步骤。
本发明实施例的第四方面提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如上所述机器人运动控制方法的步骤。
本发明实施例与现有技术相比存在的有益效果是:
本发明实施例通过接收用户的输入指令,对输入指令进行分析,从而确定目标,并获取目标和机器人之间的位置关系,根据位置关系计算出目标路径和运行速度,最后按照目标路径和运行速度生成对应的运动指令,并执行运动指令,以使机器人的运动情况与用户的输入指令对应,本发明实施例通过场景识别,提升了机器人运动的场景化程度和容错率,并通过接收并分析用户的输入指令,便于用户使用多种方法使机器人运动,实现了良好的人机交互效果。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例一提供的机器人运动控制方法的实现流程图;
图2是本发明实施例二提供的机器人运动控制方法的实现流程图;
图3是本发明实施例三提供的机器人运动控制方法的实现流程图;
图4是本发明实施例四提供的机器人运动控制方法的实现流程图;
图5是本发明实施例五提供的机器人运动控制方法的实现流程图;
图6是本发明实施例六提供的机器人运动控制装置的结构框图;
图7是本发明实施例七提供的机器人内部模块的示意图;
图8是本发明实施例八提供的机器人的示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本发明实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本发明。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本发明的描述。
为了说明本发明所述的技术方案,下面通过具体实施例来进行说明。
图1示出了本发明实施例一提供的机器人运动控制方法的实现流程,另外,为了更好地说明本发明实施例,根据图7所示的示意图进行阐述,其中机器人主要包括中央处理器71、人机交互模块72、视觉模块73、导航模块74和运动控制模块75,具体的连接关系如图7所示。图1的步骤详述如下:
在S101中,接收用户的输入指令。
机器人的中央处理器71相当于整个机器人的“大脑中枢”,拥有数据计算、指令输入输出和统筹机器人各个部件的能力。要使机器人开始运动,则首先需要中央处理器71接收运动相关的指令,在本发明实施例中,则是接收用户的输入指令。其中,由于中央处理器71的体积较小,一般内嵌于机器人内部,故不适于直接接收用户输入指令,为了解决此问题,使中央处理器71外接人机交互模块72,由人机交互模块72识别用户的输入指令,对输入指令进行分析,并将分析出的输入指令对应的数据信息传输至中央处理器71。值得一提的是,人机交互模块72一般是独立模块,即除了中央处理器71外,人机交互模块72不与机器人的其他部件连接,当然,这并不构成对本发明实施例的限定,根据实际的应用情况,可对人机交互模块72连接的对象做出适当的调整。用户的输入指令一般是语音指令或文字指令等,以语音指令举例来说,人机交互模块72的处理流程是,用户首先对机器人的人机交互模块72说出一段语音,如“踢球”,然后人机交互模块72将“踢球”这段语音作为用户的输入指令,并利用语音识别算法进行分析,从而得到“踢球”语音对应的数据信息,并将该数据信息传输至中央处理器71。人机交互模块72除了接收输入指令外,还可通过增添更多部件,以实现更多如表情互动、对话互动和语音选择选项等多种功能,可选地,人机交互模块72还可将机器人的运动情况以语音提示或文字提示等方式实时返回至用户,方便用户获知机器人的状态。
优选地,人机交互模块72基于安卓系统设计,以实现对输入指令的识别分析。当然,人机交互模块72还可基于iOS系统或其他系统进行开发,只是安卓系统的应用更为普遍,以安卓系统为基础进行设计,可提升适用性,方便用户操作,更适用于本发明实施例中。
在S102中,根据所述输入指令确定目标,并获取所述目标和机器人的位置关系。
在人机交互模块72将输入指令对应的数据信息传输至中央处理器71后,中央处理器71将数据信息传输至相连的视觉模块73,由视觉模块73寻找与数据信息相关的目标,其中,视觉模块73需要使用机器人本体的摄像头。经由人机交互模块72分析出的数据信息一般为“某个物品”或者“某个动作+某个物品”,故中央处理器71可直接将数据信息中为“某个物品”的目标提取出来,作为单独的目标信息传输至机器人的视觉模块73中,使视觉模块73的摄像头在可见范围内查找该目标。当然,也直接将数据信息传输至视觉模块73,由视觉模块73完成上述的提取工作。在输入指令为语音指令的情况下,由于不同的词可能存在同音,故人机交互模块72以输入指令为基础分析出的数据信息可能存在错误,针对上述问题,在本发明实施例中,主要有两种解决方法,第一种是人机交互模块72针对语音指令分析出不同的几种数据信息,然后中央处理器71分别将几种数据信息传输至视觉模块73,视觉模块73开启摄像头,分别根据几种数据信息包含的几种目标进行查找,若找到某一个数据信息对应的目标,则继续执行后续步骤,否则选取下一个数据信息进行查找,可提升语音指令的自由度;另一种是在人机交互模块72内存储常用语,将语音指令分析出的多个内容与常用语进行匹配,将匹配程度最高的作为数据信息,这种方法可提升确定目标的效率,在实际应用中,可根据应用场景灵活选择确定目标的方法。可选地,若视觉模块73并未检测到数据信息对应的目标,则返回错误信息至中央处理器71,由中央处理器71向用户发出输入指令错误等提示,从而便于用户重新输入。
视觉模块73通过摄像头获取机器人前方的图像,并识别图像中的物品,如果图像中的物品有符合数据信息中目标的特征,则将该物品确定为输入指令对应的目标,并获取目标和机器人的位置关系,位置关系包括位置距离和偏航角度,位置距离是指目标和机器人之间的直线距离,偏航角度是指目标相对于摄像头正对方向,即相对于机器人的偏移角度。其中,分析出数据信息中的目标后,机器人可联网查找该目标的大致的特征,也可在机器人内部的存储空间内进行查找,并将摄像头拍摄图像中的物品与查找到的特征进行比对,从而确定图像中可能存在的目标。可选地,如果对机器人运动的准确性要求较高,则在后续机器人开始运动后,视觉模块73可实时获取目标和机器人的位置关系,并传输至中央处理器71,以便中央处理器71对机器人的运动姿势等进行调整。
优选地,机器人的摄像头为深度摄像头,优选为RGBD摄像头。深度摄像头除了能够检测图像之外,还能够得到深度摄像头与物体之间的距离,故可应用在本发明实施例中,以取得目标和机器人之间的位置关系。而RGBD摄像头作为深度摄像头的一种,能够获得高帧率的彩色-深度图像,在准确性上有较大提升,故可优先应用。
在S103中,根据所述位置关系计算出目标路径和运动速度。
视觉模块73得到目标和机器人的位置关系后,将位置关系传输至中央处理器71,然后中央处理器71将位置关系传输至相连的导航模块74中进行处理。在导航模块74中,同样需要使用机器人的摄像头,获取摄像头拍摄的图像,不过导航模块74使用图像的用途和视觉模块73不同,主要是为了计算出从机器人本体到目标最适宜的目标路径和运动速度,具体的计算方法在后文进行阐述。
在S104中,根据所述目标路径和所述运动速度生成运动指令,并执行所述运动指令。
当导航模块74将计算出的目标路径和运动速度反馈至中央处理器71后,中央处理器71综合人机交互模块72、视觉模块73和导航模块74返回的内容,进行统一计算后得到运动指令,并将运动指令发送至运动控制模块75,运动控制模块75控制机器人本体中与动作相关的部位开始进行运动。本发明实施例涉及到的是具有运动能力的机器人,包括但并不限于双足机器人和履带机器人等。以双足机器人举例,运动指令包括控制指令和速度指令,其中,控制指令使机器人按照特定的功能模式(如动态踏步等)和速度模式(如机器人的步长、抬腿高度和转向角度等)进行运动,速度指令与导航模块计算出的运动速度对应,使机器人按照运动速度进行前进。运动控制模块75执行运动指令时,可将机器人的实时运动状态返回至中央处理器71,以便中央处理器71进行处理,比如机器人的转向角度可能因机械结构限制没达到预期,则运动控制模块75将包含实时转向角度的实时运动状态返回至中央处理器71,由中央处理器71下发调整指令进行调整,直到符合预期为止。可选地,在机器人运动过程中,还可通过人机交互模块72接收用户的指令,比如在人机交互模块72接收到用户的停止指令后,机器人内部的中央处理器71使机器人停止运动,以便于用户进行控制。
此外,还可根据输入指令生成运动指令。用户在输入指令时,可能存在不同的需求,比如“走到球附近”和“踢球”就是两种截然不同的输入指令,后者要求机器人的足部必须和球产生接触。故在接收输入指令时,对输入指令对应的数据信息进行语义分析,从而获取用户的真实意图,根据语义分析的结果生成运动指令。举例来说,如果输入指令为“走到球附近”,需检测在机器人的腿部及足部开始运动后,直至机器人的足部和球的实时距离小于或等于预设的阈值时,使机器人停止运动,并生成与上述过程对应的运动指令;如果输入指令为“踢球”,则需检测机器人的腿部及足部开始运动,直至机器人的足部和球的实时距离小于或等于预设的阈值后,还需做出踢球的动作,并设定相应的运动指令,可使机器人的运动更贴近用户的输入指令,提高了机器人运动控制的智能化水平。
通过图1所示实施例可知,在本发明实施例中,通过接收用户的输入指令,确定与输入指令相关的目标,从而获取目标和机器人之间的位置关系,以位置关系为基础进行计算,得到具体的目标路径和运动速度,最后使机器人按照目标路径和运动速度进行运动,即执行基于目标路径和运动速度得到的运动指令,实现了人机交互和自主运动的结合,降低了用户控制机器人的难度,提升了机器人对不同场景的适应能力,进一步提高了机器人运动过程中的容错率。
图2所示,是在本发明实施例一的基础上,在接收用户的输入指令之后,增加了对机器人当前状态信息的判断的内容。本发明实施例提供了机器人运动控制方法的实现流程图,如图所示,该机器人运动控制方法可以包括以下步骤:
在S201中,获取所述机器人的当前状态信息,并判断所述当前状态信息是否满足所述机器人运动的条件。
当机器人的某个模块正处于软件升级,即便用户在向机器人发送输入指令,机器人也无法运行。故机器人在获取到用于的输入指令后,需先获取机器人的当前状态信息,当前状态信息包括机器人各个模块(人机交互模块72、视觉模块73、导航模块74和中央处理器71)的运行情况和机器人内部电路通断情况等,并判断当前状态信息是否满足支持机器人运动的条件,根据判断结果执行对应的操作,从而防止资源浪费。
在S202中,若所述当前状态信息满足所述机器人运动的条件,则执行所述根据所述输入指令确定目标,并获取所述目标和机器人的位置关系的操作。
机器人运动的条件可以由用户事先设定,并根据应用场景增减当前状态信息针对的对象,比如还可以增添获取机器人硬件结构的当前状态信息。当前状态信息获取完毕后,如果当前状态信息包含的所有内容都满足机器人运动的条件,则正常执行根据输入指令确定目标及其后续步骤。
在S203中,若所述当前状态信息不满足所述机器人运动的条件,则停止执行后续操作。
反之,如果当前状态信息的某个内容,比如某个模块的运行情况不满足机器人运动的条件,则说明机器人无法支持正常动作,如果继续执行后续步骤,则可能会在某个环节出现不可预料的问题。故当不满足的情况发生时,立即停止执行后续操作,并可通过人机交互模块72向用户报警,指示机器人出现问题的部分。可选地,为了防止人机交互模块72出现问题导致其无法进行报警,可事先在机器人本体上单独设置报警模块,报警模块可包含发光二极管或扬声器等,用于在当前状态信息不满足机器人运动的条件,或者在机器人的各个模块自检失败时,向用户发出报警提示。
通过图2所示实施例可知,在本发明实施例中,在接收用户的输入指令之后,获取机器人指定部分的当前状态信息,并于预设的机器人运动的条件进行比较,若当前状态信息满足机器人运动的条件,则正常执行后续步骤;若当前状态信息不满足机器人运动的条件,则停止后续操作执行,在对输入指令进行操作之前增添了判断机制,防止了不必要的资源浪费,提升了机器人内部的安全性。
图3所示,是在本发明实施例一的基础上,对目标路径和运动速度的计算进行细化得到的具体过程。本发明实施例提供了机器人运动控制方法的实现流程图,如图所示,该机器人运动控制方法可以包括以下步骤:
在S301中,获取室内地图。
在本发明实施例提供的机器人运动控制方法中,机器人主要是在室内进行运动,故为了保证机器人运动的精确,也便于后续计算出目标路径和运动速度,首先要获取室内地图。考虑到机器人可能是在固定的场景内运动,故用户可事先将该场景的室内地图放置在机器人内部的存储空间内,以便后续过程进行调用。但更优的选择是使用机器人本体的摄像头,优选为RGBD摄像头,结合即时定位与地图构建(Simultaneous Localization andMapping,SLAM)技术,利用RGBD摄像头拍摄到的深度图像,进行室内地图模型的建立,其中,构建出的室内地图为三维模型。
在S302中,根据所述室内地图和所述位置关系确定所述机器人的自身位置和所述目标的目标位置。
由于室内地图以三维模型的形式存在,则室内地图中的每个点都有其唯一的空间坐标,如(1,1,1)。由于目标已确定,故可进一步利用RGBD摄像头确定目标的目标位置,即目标对应的空间坐标。再者,根据目标与机器人之间的位置关系,利用RGBD摄像头计算出机器人的自身位置,即机器人本身的空间坐标。
在S303中,根据所述室内地图、所述位置关系、所述自身位置和所述目标位置计算出所述目标路径和所述运动速度。
在室内地图、位置关系、自身位置和目标位置都已确定的情况下,导航模块74可基于上述的几个信息计算出从自身位置到目标位置的最优路径,并计算出适宜的运动速度,并将最优路径和运动速度一起反馈至中央处理器71进行后续处理。
通过图3所示实施例可知,在本发明实施例中,通过提前输入或计算的方式得到室内地图,基于室内地图为三维模型的特性,再加上已得到的目标和机器人之间的位置关系,唯一确定出机器人的自身位置和目标的目标位置,最后根据室内地图、位置关系、自身位置和目标位置计算出目标路径和运动速度,提升了计算的准确性,从而提升了机器人到达目标的运动效率。
图4所示,是在本发明实施例三的基础上,增加了对障碍物进行检测的过程。本发明实施例提供了机器人运动控制方法的实现流程图,如图所示,该机器人运动控制方法可以包括以下步骤:
在S401中,检测所述机器人与所述目标间的障碍物,生成障碍物位置。
为了得到目标和机器人之间的目标路径,在本发明实施例中,还考虑到了其他因素,即在机器人在向目标行进的过程中,路途中可能会出现使机器人无法行进的障碍物,故还需要通过机器人的摄像头,优选为RGBD摄像头检测机器人前方的障碍物,并将其与室内地图结合,生成障碍物位置,即障碍物对应的空间坐标。
在S402中,根据所述室内地图、所述位置关系、所述自身位置、所述目标位置和所述障碍物位置计算出所述目标路径和所述运动速度。
在得到障碍物位置后,可基于室内地图判断障碍物位置是否位于自身位置和目标位置之间,即障碍物是否阻挡了机器人的行进。若障碍物位置不位于自身位置和目标位置之间,则不需考虑该障碍物对机器人行进的影响;若障碍物位置位于自身位置和目标位置之间的某一处,则考虑到机器人需要避开障碍物,在得到障碍物位置后,根据室内地图、位置关系、自身位置和目标位置,再加上障碍物位置进行计算得到目标路径和运动速度,以使目标路径在终点为目标位置的前提下,能够绕过障碍物位置。可选地,机器人在规避障碍物时,都要适当降低速度,故可设定减速机制,在机器人的摄像头检测到障碍物接近时,降低运动速度。待到机器人绕过障碍物,障碍物不再出现在机器人摄像头的视野范围内后,再对运动速度进行重新计算。值得一提的是,因为机器人开始运动后,位置时刻发生变化,故为了提升运动的准确性,可实时更新目标路径和运动速度。
通过图4所示实施例可知,在本发明实施例中,通过机器人的摄像头检测机器人和目标之间的障碍物,得到对应的障碍物的位置,并通过室内地图、位置关系、自身位置、目标位置和障碍物位置计算出目标路径和运动速度,并将目标路径和运动速度发送至中央处理器,提升了对场景的适应能力,防止机器人在运动过程中撞上障碍物。
图5所示,是在本发明实施例一的基础上,增加了对输入指令和预设模式的关联性判断的过程。本发明实施例提供了机器人运动控制方法的实现流程图,如图所示,该机器人运动控制方法可以包括以下步骤:
在S501中,判断所述输入指令中是否与预设模式相关联。
由于用户可能需要机器人以特定的动作进行运动,故在人机交互模块72接收用户的输入指令后,将输入指令对应的数据信息与预设模式相比较,计算出数据信息与预设模式之间的关联性。其中,关联性是指数据信息中包含与预设模式相关的字或词。
可选地,在判断关联性之前,将预设模式预存在人机交互模块72或与人机交互模块72相连的中央处理器71中,或者存储在云存储空间,以节省存储资源。预设模式可能有多种,可根据内容包括关键词“跑”、“上楼”及“下楼”等,每一种预设模式下都包含与该预设模式名称对应的功能模式和速度模式,比如关键词为“跑”的预设模式下的功能模式设定为大幅踏步,速度模式设定为符合机器人跑动状态的步长和抬腿高度等。具体的判断过程,举例来说,用户首先向人机交互模块72发出“跑向篮球”的输入指令,然后机器人的人机交互模块72或中央处理器71(根据实际应用场景确定由上述两个或其他模块进行判断)识别出输入指令对应的数据信息,并将数据信息与预存的多种预设模式比较,从而判断出输入指令与名称为“跑”的预设模式存在关联。值得一提的是,所述输入指令可以是用户对机器人的语音传输指令,也可以是用户对机器人显示屏的触控指令。
当然,所述速度模式还可包括快、慢两种速度子模式,该两种速度子模式包括与其模式对应的机器人步长和抬腿高度。
在S502中,若所述输入指令与所述预设模式相关联,则根据所述预设模式更新所述运动指令,并执行该更新后的运动指令。
如果输入指令与某个预设模式相关联,则中央处理器71基于输入指令执行S102至S103的步骤,并在根据目标路径和运动速度生成运动指令后,发送该运动指令至运动控制模块前,将该运动指令中与预设模式相关的部分替换成预设模式的内容,生成更新后的运动指令,再发送更新后的运动指令至运动控制模块,并控制机器人的腿部各关节舵机执行对应的运动指令。比如,用户向机器人传递“跑向篮球”的输入指令后,判断出该输入指令与名称为“跑”的预设模式相关联,然后按照S102至S103的步骤继续执行,待到根据目标路径和运动速度生成运动指令时,将运动指令内的功能模式和速度模式替换为名称为“跑”的预设模式内的功能模式和速度模式,再执行替换后的运动指令。可选地,如果运动指令中包含名称为“跑”的预设模式中未设定的部分,如转向角度,则无须对该部分进行替换。
在S503中,若所述输入指令不与所述预设模式相关联,则执行所述运动指令。
如果输入指令不与预设模式相关联,则正常执行步骤S102至S104,即生成运动指令后,无须考虑对运动指令进行更新,而是直接将运动指令下发至运动控制模块75,进行执行。
通过图5所示实施例可知,在本发明实施例中,在执行运动指令之前,判断输入指令是否与预设模式存在关联,如果存在关联,则根据预设模式对运动指令进行更新,再下发执行更新后的运动指令;如果输入指令不与预设模式相关联,则将生成的运动指令直接下发执行,提升了用户体验,并且提升了机器人运动的多样性。
应理解,上述实施例中各步骤的序号的大小并限制执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
对应于上文实施例所述的机器人运动控制方法,图6示出了本实施例提供的机器人运动控制装置的结构框图,参照图6,该装置用于执行前述任一实施例所述的机器人运动控制方法,该装置包括:
接收单元61,用于接收用户的输入指令;
确定单元62,用于根据所述输入指令确定目标,并获取所述目标和机器人的位置关系;
计算单元63,用于根据所述位置关系计算出目标路径和运动速度;
执行单元64,用于根据所述目标路径和所述运动速度生成运动指令,并执行所述运动指令。
可选地,所述计算单元63,包括:
获取单元,用于获取室内地图;
位置确定单元,用于根据所述室内地图和所述位置关系确定所述机器人的自身位置和所述目标的目标位置;
计算子单元,用于根据所述室内地图、所述位置关系、所述自身位置和所述目标位置计算出所述目标路径和所述运动速度。
可选地,所述执行单元64,包括:
判断单元,用于判断所述输入指令是否与预设模式相关联;
第一执行单元,用于若所述输入指令与所述预设模式相关联,则根据所述预设模式更新所述运动指令,并执行更新后的所述运动指令;
第二执行单元,用于若所述输入指令不与所述预设模式相关联,则执行所述运动指令。图8是本发明实施例提供的机器人的示意图。如图8所示,该实施例的机器人8包括:处理器80、存储器81以及存储在所述存储器81中并可在所述处理器80上运行的计算机程序82。所述处理器80执行所述计算机程序82时实现上述各个机器人运动控制方法实施例中的步骤,例如图1所示的步骤S101至S104。或者,所述处理器80执行所述计算机程序82时实现上述各装置实施例中各模块/单元的功能,例如图6所示模块61至64的功能。
示例性的,所述计算机程序82可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器81中,并由所述处理器80执行,以完成本发明。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序82在所述机器人8中的执行过程。例如,所述计算机程序82可以被分割成接收单元、确定单元、计算单元、执行单元,各单元具体功能如下:
接收单元,用于接收用户的输入指令;
确定单元,用于根据所述输入指令确定目标,并获取所述目标和机器人的位置关系;
计算单元,用于根据所述位置关系计算出目标路径和运动速度;
执行单元,用于根据所述目标路径和所述运动速度生成运动指令,并执行所述运动指令。
所述机器人8可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述机器人8可包括,但不仅限于,处理器80、存储器81。本领域技术人员可以理解,图8仅仅是机器人8的示例,并不构成对机器人8的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述机器人8还可以包括输入输出设备、网络接入设备、总线等。
所称处理器80可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述存储器81可以是所述机器人8的内部存储单元,例如机器人8的硬盘或内存。所述存储器81也可以是所述机器人8的外部存储设备,例如所述机器人8上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,所述存储器81还可以既包括所述机器人8的内部存储单元也包括外部存储设备。所述存储器81用于存储所述计算机程序以及所述机器人8所需的其他程序和数据。所述存储器81还可以用于暂时地存储已经输出或者将要输出的数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
在本发明所提供的实施例中,应该理解到,所揭露的装置/终端设备和方法,可以通过其它的方式实现。例如,以上所描述的装置/终端设备实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(Read-Only Memory,ROM)、随机存取存储器(RandomAccess Memory,RAM)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。
Claims (10)
1.一种机器人运动控制方法,其特征在于,包括:
接收用户的输入指令;
根据所述输入指令确定目标,并获取所述目标和机器人的位置关系;
根据所述位置关系计算出目标路径和运动速度;
根据所述目标路径和所述运动速度生成运动指令,并执行所述运动指令。
2.如权利要求1所述的机器人运动控制方法,其特征在于,所述接收用户的输入指令之后,还包括:
获取所述机器人的当前状态信息,并判断所述当前状态信息是否满足所述机器人运动的条件;
若所述当前状态信息满足所述机器人运动的条件,则执行所述根据所述输入指令确定目标,并获取所述目标和机器人的位置关系的操作;
若所述当前状态信息不满足所述机器人运动的条件,则停止执行后续操作。
3.如权利要求1所述的机器人运动控制方法,其特征在于,所述根据所述位置关系计算出目标路径和运动速度,包括:
获取室内地图;
根据所述室内地图和所述位置关系确定所述机器人的自身位置和所述目标的目标位置;
根据所述室内地图、所述位置关系、所述自身位置和所述目标位置计算出所述目标路径和所述运动速度。
4.如权利要求3所述的机器人运动控制方法,其特征在于,所述根据所述室内地图、所述位置关系、所述自身位置和所述目标位置计算出所述目标路径和所述运动速度,包括:
检测所述机器人与所述目标间的障碍物,生成障碍物位置;
根据所述室内地图、所述位置关系、所述自身位置、所述目标位置和所述障碍物位置计算出所述目标路径和所述运动速度。
5.如权利要求1所述的机器人运动控制方法,其特征在于,所述根据所述目标路径和所述运动速度生成运动指令,并执行所述运动指令,包括:
判断所述输入指令是否与预设模式相关联;
若所述输入指令与所述预设模式相关联,则根据所述预设模式更新所述运动指令,并执行更新后的所述运动指令;
若所述输入指令不与所述预设模式相关联,则执行所述运动指令。
6.一种机器人运动控制装置,其特征在于,包括:
接收单元,用于接收用户的输入指令;
确定单元,用于根据所述输入指令确定目标,并获取所述目标和机器人的位置关系;
计算单元,用于根据所述位置关系计算出目标路径和运动速度;
执行单元,用于根据所述目标路径和所述运动速度生成运动指令,并执行所述运动指令。
7.如权利要求6所述的机器人运动控制装置,其特征在于,所述计算单元,包括:
获取单元,用于获取室内地图;
位置确定单元,用于根据所述室内地图和所述位置关系确定所述机器人的自身位置和所述目标的目标位置;
计算子单元,用于根据所述室内地图、所述位置关系、所述自身位置和所述目标位置计算出所述目标路径和所述运动速度。
8.如权利要求6所述的机器人运动控制装置,其特征在于,所述执行单元,包括:
判断单元,用于判断所述输入指令是否与预设模式相关联;
第一执行单元,用于若所述输入指令与所述预设模式相关联,则根据所述预设模式更新所述运动指令,并执行更新后的所述运动指令;
第二执行单元,用于若所述输入指令不与所述预设模式相关联,则执行所述运动指令。
9.一种机器人,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至5任一项所述机器人运动控制方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至5任一项所述机器人运动控制方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810148507.XA CN110147091B (zh) | 2018-02-13 | 2018-02-13 | 机器人运动控制方法、装置及机器人 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810148507.XA CN110147091B (zh) | 2018-02-13 | 2018-02-13 | 机器人运动控制方法、装置及机器人 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110147091A true CN110147091A (zh) | 2019-08-20 |
CN110147091B CN110147091B (zh) | 2022-06-28 |
Family
ID=67589409
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810148507.XA Active CN110147091B (zh) | 2018-02-13 | 2018-02-13 | 机器人运动控制方法、装置及机器人 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110147091B (zh) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111014594A (zh) * | 2019-11-19 | 2020-04-17 | 中南大学 | 一种铸锭过程动态除渣的机器人轨迹规划方法 |
CN111590571A (zh) * | 2020-05-15 | 2020-08-28 | 深圳国信泰富科技有限公司 | 一种机器人安全控制系统 |
CN111673736A (zh) * | 2020-05-13 | 2020-09-18 | 北京理工大学 | 一种机器人系统控制方法、设备及存储介质 |
CN112171663A (zh) * | 2020-09-03 | 2021-01-05 | 上海姜歌机器人有限公司 | 机器人状态提示系统、方法、装置和电子设备 |
CN112518757A (zh) * | 2020-12-17 | 2021-03-19 | 湖南工程学院 | 机器人控制方法、机器人及可读存储介质 |
CN112621744A (zh) * | 2020-11-20 | 2021-04-09 | 创泽智能机器人集团股份有限公司 | 一种机器人远程控制系统及其控制方法 |
CN113570103A (zh) * | 2020-09-14 | 2021-10-29 | 宁波舜宇智能科技有限公司 | 路径控制的方法、装置、电子装置和存储介质 |
CN113588195A (zh) * | 2021-08-10 | 2021-11-02 | 同济大学 | 碰撞堵塞检测方法及装置 |
CN113710133A (zh) * | 2019-09-27 | 2021-11-26 | 深圳阿科伯特机器人有限公司 | 智能终端、控制系统及与移动机器人的交互方法 |
TWI756844B (zh) * | 2020-09-25 | 2022-03-01 | 財團法人工業技術研究院 | 自走車導航裝置及其方法 |
CN117207176A (zh) * | 2023-07-21 | 2023-12-12 | 北京小米机器人技术有限公司 | 机器人控制方法、装置、机器人及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105955251A (zh) * | 2016-03-11 | 2016-09-21 | 北京克路德人工智能科技有限公司 | 一种机器人的视觉跟随控制方法及机器人 |
CN106303476A (zh) * | 2016-08-03 | 2017-01-04 | 纳恩博(北京)科技有限公司 | 机器人的控制方法和装置 |
CN106485897A (zh) * | 2015-08-31 | 2017-03-08 | 无锡小天鹅股份有限公司 | 智能机器人系统 |
CN107515606A (zh) * | 2017-07-20 | 2017-12-26 | 北京格灵深瞳信息技术有限公司 | 机器人实现方法、控制方法及机器人、电子设备 |
-
2018
- 2018-02-13 CN CN201810148507.XA patent/CN110147091B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106485897A (zh) * | 2015-08-31 | 2017-03-08 | 无锡小天鹅股份有限公司 | 智能机器人系统 |
CN105955251A (zh) * | 2016-03-11 | 2016-09-21 | 北京克路德人工智能科技有限公司 | 一种机器人的视觉跟随控制方法及机器人 |
CN106303476A (zh) * | 2016-08-03 | 2017-01-04 | 纳恩博(北京)科技有限公司 | 机器人的控制方法和装置 |
CN107515606A (zh) * | 2017-07-20 | 2017-12-26 | 北京格灵深瞳信息技术有限公司 | 机器人实现方法、控制方法及机器人、电子设备 |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113710133B (zh) * | 2019-09-27 | 2022-09-09 | 深圳阿科伯特机器人有限公司 | 智能终端、控制系统及与移动机器人的交互方法 |
CN113710133A (zh) * | 2019-09-27 | 2021-11-26 | 深圳阿科伯特机器人有限公司 | 智能终端、控制系统及与移动机器人的交互方法 |
CN111014594A (zh) * | 2019-11-19 | 2020-04-17 | 中南大学 | 一种铸锭过程动态除渣的机器人轨迹规划方法 |
CN111014594B (zh) * | 2019-11-19 | 2021-11-26 | 中南大学 | 一种铸锭过程动态除渣的机器人轨迹规划方法 |
CN111673736A (zh) * | 2020-05-13 | 2020-09-18 | 北京理工大学 | 一种机器人系统控制方法、设备及存储介质 |
CN111590571B (zh) * | 2020-05-15 | 2022-03-04 | 深圳国信泰富科技有限公司 | 一种机器人安全控制系统 |
CN111590571A (zh) * | 2020-05-15 | 2020-08-28 | 深圳国信泰富科技有限公司 | 一种机器人安全控制系统 |
CN112171663A (zh) * | 2020-09-03 | 2021-01-05 | 上海姜歌机器人有限公司 | 机器人状态提示系统、方法、装置和电子设备 |
CN113570103A (zh) * | 2020-09-14 | 2021-10-29 | 宁波舜宇智能科技有限公司 | 路径控制的方法、装置、电子装置和存储介质 |
US11636612B2 (en) | 2020-09-25 | 2023-04-25 | Industrial Technology Research Institute | Automated guided vehicle navigation device and method thereof |
TWI756844B (zh) * | 2020-09-25 | 2022-03-01 | 財團法人工業技術研究院 | 自走車導航裝置及其方法 |
CN112621744B (zh) * | 2020-11-20 | 2022-07-12 | 创泽智能机器人集团股份有限公司 | 一种机器人远程控制系统及其控制方法 |
CN112621744A (zh) * | 2020-11-20 | 2021-04-09 | 创泽智能机器人集团股份有限公司 | 一种机器人远程控制系统及其控制方法 |
CN112518757A (zh) * | 2020-12-17 | 2021-03-19 | 湖南工程学院 | 机器人控制方法、机器人及可读存储介质 |
CN113588195A (zh) * | 2021-08-10 | 2021-11-02 | 同济大学 | 碰撞堵塞检测方法及装置 |
CN113588195B (zh) * | 2021-08-10 | 2022-07-26 | 同济大学 | 碰撞堵塞检测方法及装置 |
CN117207176A (zh) * | 2023-07-21 | 2023-12-12 | 北京小米机器人技术有限公司 | 机器人控制方法、装置、机器人及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN110147091B (zh) | 2022-06-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110147091A (zh) | 机器人运动控制方法、装置及机器人 | |
EP3438611B1 (en) | Path planning system and method for robot, robot and storage medium | |
EP3410246B1 (en) | Robot obstacle avoidance control system and method, robot, and storage medium | |
US10012984B2 (en) | System and method for controlling autonomous vehicles | |
CN111693050B (zh) | 基于建筑信息模型的室内中大型机器人导航方法 | |
CN112344945B (zh) | 室内配送机器人路径规划方法、系统及室内配送机器人 | |
CN113405558A (zh) | 自动驾驶地图的构建方法及相关装置 | |
KR20200102378A (ko) | 정보 처리 방법, 장치 및 저장 매체 | |
CN111694356A (zh) | 一种行驶控制方法、装置、电子设备及存储介质 | |
WO2021138761A1 (zh) | 虚拟角色的任务执行方法、装置及终端设备 | |
CN110412530A (zh) | 一种识别充电桩的方法、装置及机器人 | |
CN109991963A (zh) | 速度规划方法及终端设备 | |
CN114800535B (zh) | 机器人的控制方法、机械臂控制方法、机器人及控制终端 | |
CN111604898A (zh) | 牲畜寻回方法、机器人、终端设备及存储介质 | |
US11334325B2 (en) | Coding training method using augmented reality | |
CN113125795A (zh) | 一种障碍物速度检测方法、装置、设备和存储介质 | |
Scheutz et al. | Toward affective cognitive robots for human-robot interaction | |
CN116225029B (zh) | 一种机器人路径规划方法 | |
US11467592B2 (en) | Route determination method | |
CN110083158B (zh) | 一种确定局部规划路径的方法和设备 | |
CN115609595A (zh) | 一种机械臂的轨迹规划方法、装置、设备及可读存储介质 | |
Evstifeeva et al. | Methods of automated detection of travel points when training a collaborative robot | |
Deguchi et al. | Enhanced Robot Navigation with Human Geometric Instruction | |
CN118226860B (zh) | 机器人运动控制方法、装置、机器人和存储介质 | |
Deguchi et al. | Enhancement of Robot Navigation Systems via Human Pointing Instruction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |